menu
close

La mise à niveau R1 de DeepSeek défie les géants de l’IA avec un raisonnement amélioré

La startup chinoise DeepSeek a publié R1-0528, une mise à niveau majeure de son modèle de raisonnement open source qui rivalise désormais avec les offres propriétaires d’OpenAI et de Google. Le modèle amélioré affiche une précision mathématique nettement supérieure, passant de 70 % à 87,5 % au test AIME 2025 grâce à un doublement de sa capacité de raisonnement. DeepSeek a également lancé une version distillée plus légère à 8 milliards de paramètres, capable de fonctionner sur un seul GPU tout en maintenant des performances impressionnantes.
La mise à niveau R1 de DeepSeek défie les géants de l’IA avec un raisonnement amélioré

DeepSeek, une startup chinoise spécialisée dans l’intelligence artificielle, a considérablement amélioré son modèle de raisonnement open source avec la sortie de R1-0528, rapprochant ainsi ses performances de celles des leaders du secteur comme o3 d’OpenAI et Gemini 2.5 Pro de Google.

Cette mise à niveau marque une avancée majeure dans les capacités de raisonnement de DeepSeek grâce à une augmentation des ressources de calcul et à une optimisation algorithmique. Lors des tests de référence, le modèle a montré des progrès remarquables en raisonnement mathématique, avec une précision au test de mathématiques AIME 2025 passant de 70 % à 87,5 %. Cette amélioration provient d’une profondeur de raisonnement accrue, le modèle utilisant désormais en moyenne 23 000 tokens par question contre 12 000 auparavant.

Au-delà des progrès mathématiques, R1-0528 offre plusieurs fonctionnalités améliorées qui le rendent plus convivial pour les développeurs. Le modèle prend désormais en charge les prompts système, l’appel de fonctions et la sortie JSON, facilitant ainsi son intégration dans les applications. Il affiche également un taux d’hallucination réduit — en baisse de 45 à 50 % pour les tâches de réécriture et de résumé — et propose un meilleur support du « vibe coding », permettant aux développeurs de générer du code en langage naturel.

Dans une avancée notable pour les utilisateurs disposant de ressources limitées, DeepSeek a également publié une version distillée baptisée DeepSeek-R1-0528-Qwen3-8B. Créée en affinant le modèle Qwen3 8B d’Alibaba avec les schémas de raisonnement du R1-0528 complet, cette version plus légère peut fonctionner sur un seul GPU grand public tout en surpassant Gemini 2.5 Flash de Google sur certains benchmarks mathématiques et en s’approchant des performances du modèle Phi 4 reasoning plus de Microsoft.

Comme son prédécesseur, R1-0528 est disponible sous licence MIT permissive, autorisant l’utilisation commerciale et la personnalisation. Les principaux fournisseurs cloud, dont Amazon Web Services et Microsoft Azure, proposent désormais les modèles DeepSeek à leurs clients, tout en les isolant des serveurs chinois afin de garantir la confidentialité des données.

Cette sortie confirme encore davantage DeepSeek et Meta comme leaders de l’IA open source, offrant des alternatives puissantes aux modèles propriétaires d’OpenAI, Google, Microsoft et Anthropic pour une fraction du coût computationnel.

Source:

Latest News