DeepSeek, una startup china especializada en inteligencia artificial, ha realizado una importante mejora en su modelo de razonamiento de código abierto con el lanzamiento de R1-0528, acercando su rendimiento al de líderes del sector como o3 de OpenAI y Gemini 2.5 Pro de Google.
Esta actualización supone un gran avance en las capacidades de razonamiento de DeepSeek gracias al aumento de recursos computacionales y a la optimización algorítmica. En pruebas de referencia, el modelo mostró mejoras notables en razonamiento matemático, incrementando su precisión en la prueba de matemáticas AIME 2025 del 70% al 87,5%. Esta mejora se debe a una mayor profundidad de razonamiento, ya que el modelo utiliza ahora una media de 23.000 tokens por pregunta, frente a los 12.000 anteriores.
Más allá de las mejoras matemáticas, R1-0528 ofrece varias funciones avanzadas que lo hacen más accesible para desarrolladores. El modelo ahora admite prompts de sistema, llamadas a funciones y salida en formato JSON, lo que facilita su integración en aplicaciones. También presenta una tasa de alucinaciones reducida—según se informa, entre un 45% y un 50% menos en tareas de reescritura y resumen—y ofrece mejor soporte para el 'vibe coding', donde los desarrolladores generan código utilizando lenguaje natural.
En un avance relevante para usuarios con recursos limitados, DeepSeek también ha lanzado una versión destilada llamada DeepSeek-R1-0528-Qwen3-8B. Creada afinando el modelo Qwen3 8B de Alibaba con los patrones de razonamiento del R1-0528 completo, este modelo más pequeño puede ejecutarse en una sola GPU de consumo y aun así supera a Gemini 2.5 Flash de Google en ciertos benchmarks matemáticos y se acerca al rendimiento del modelo Phi 4 reasoning plus de Microsoft.
Al igual que su predecesor, R1-0528 está disponible bajo la permisiva licencia MIT, lo que permite su uso comercial y personalización. Grandes proveedores de la nube como Amazon Web Services y Microsoft Azure ya ofrecen los modelos de DeepSeek a sus clientes, aunque los aíslan de los servidores chinos para garantizar la privacidad de los datos.
Este lanzamiento consolida aún más a DeepSeek y Meta como líderes en el ámbito de la IA de código abierto, proporcionando potentes alternativas a los modelos propietarios de OpenAI, Google, Microsoft y Anthropic a una fracción del coste computacional.