menu
close

La actualización R1 de DeepSeek desafía a los gigantes de la IA con razonamiento mejorado

La startup china de IA DeepSeek ha lanzado R1-0528, una importante actualización de su modelo de razonamiento de código abierto que ahora rivaliza con las ofertas propietarias de OpenAI y Google. El modelo mejorado demuestra una precisión matemática notablemente superior, pasando del 70% al 87.5% en la prueba AIME 2025 al duplicar su capacidad de razonamiento. DeepSeek también presentó una versión destilada más pequeña de 8 mil millones de parámetros que puede ejecutarse en una sola GPU y mantiene un rendimiento impresionante.
La actualización R1 de DeepSeek desafía a los gigantes de la IA con razonamiento mejorado

DeepSeek, una startup china de inteligencia artificial, ha mejorado significativamente su modelo de razonamiento de código abierto con el lanzamiento de R1-0528, acercando su desempeño al de líderes de la industria como o3 de OpenAI y Gemini 2.5 Pro de Google.

Esta actualización representa un avance importante en las capacidades de razonamiento de DeepSeek gracias al aumento de recursos computacionales y la optimización algorítmica. En pruebas de referencia, el modelo mostró mejoras notables en razonamiento matemático, con una precisión en la prueba de matemáticas AIME 2025 que subió del 70% al 87.5%. Esta mejora se debe a una mayor profundidad de razonamiento, ya que el modelo ahora utiliza un promedio de 23,000 tokens por pregunta, en comparación con los 12,000 anteriores.

Más allá de las mejoras matemáticas, R1-0528 ofrece varias funciones avanzadas que lo hacen más amigable para desarrolladores. Ahora admite prompts de sistema, llamadas a funciones y salida en formato JSON, facilitando su integración en aplicaciones. También presenta una tasa de alucinaciones reducida—reportada en un 45-50% menos en tareas de reescritura y resumen—y ofrece mejor soporte para vibe coding, donde los desarrolladores generan código usando lenguaje natural.

En un avance relevante para usuarios con recursos limitados, DeepSeek también lanzó una versión destilada llamada DeepSeek-R1-0528-Qwen3-8B. Creada mediante el ajuste fino del modelo Qwen3 8B de Alibaba con los patrones de razonamiento del R1-0528 completo, este modelo más pequeño puede ejecutarse en una sola GPU de consumo y aún así supera a Gemini 2.5 Flash de Google en ciertos benchmarks matemáticos, acercándose al rendimiento del modelo Phi 4 reasoning plus de Microsoft.

Al igual que su predecesor, R1-0528 está disponible bajo la permisiva Licencia MIT, lo que permite su uso comercial y personalización. Proveedores de nube como Amazon Web Services y Microsoft Azure ya ofrecen los modelos de DeepSeek a sus clientes, aunque los aíslan de servidores chinos para garantizar la privacidad de los datos.

Este lanzamiento consolida aún más a DeepSeek y Meta como líderes en el espacio de IA de código abierto, ofreciendo alternativas poderosas a los modelos propietarios de OpenAI, Google, Microsoft y Anthropic, a una fracción del costo computacional.

Source:

Latest News