menu
close

La mise à niveau R1 de DeepSeek défie les géants de l’IA avec un raisonnement amélioré

La jeune pousse chinoise DeepSeek a lancé R1-0528, une mise à niveau majeure de son modèle de raisonnement open source, qui rivalise désormais avec les offres propriétaires d’OpenAI et de Google. Le modèle amélioré affiche une précision mathématique nettement supérieure, passant de 70 % à 87,5 % au test AIME 2025 grâce à un doublement de sa capacité de raisonnement. DeepSeek a aussi publié une version distillée plus petite de 8 milliards de paramètres, pouvant fonctionner sur un seul GPU tout en maintenant des performances impressionnantes.
La mise à niveau R1 de DeepSeek défie les géants de l’IA avec un raisonnement amélioré

DeepSeek, une startup chinoise spécialisée en intelligence artificielle, a considérablement amélioré son modèle de raisonnement open source avec la sortie de R1-0528, rapprochant ainsi ses performances de celles des leaders du secteur comme o3 d’OpenAI et Gemini 2.5 Pro de Google.

Cette mise à niveau représente une avancée majeure dans les capacités de raisonnement de DeepSeek grâce à l’augmentation des ressources de calcul et à l’optimisation algorithmique. Lors des tests de référence, le modèle a affiché des progrès remarquables en raisonnement mathématique, avec une précision au test de mathématiques AIME 2025 passant de 70 % à 87,5 %. Cette amélioration découle d’une profondeur de raisonnement accrue, le modèle utilisant désormais en moyenne 23 000 jetons par question, contre 12 000 auparavant.

Au-delà des progrès mathématiques, R1-0528 offre plusieurs fonctionnalités améliorées qui le rendent plus convivial pour les développeurs. Le modèle prend maintenant en charge les instructions système, l’appel de fonctions et la sortie JSON, facilitant ainsi son intégration dans les applications. Il affiche également un taux d’hallucination réduit — en baisse de 45 à 50 % lors des tâches de réécriture et de résumé — et offre un meilleur soutien au « vibe coding », où les développeurs génèrent du code en langage naturel.

Dans une avancée notable pour les utilisateurs aux ressources limitées, DeepSeek a également publié une version distillée appelée DeepSeek-R1-0528-Qwen3-8B. Créée en ajustant finement le modèle Qwen3 8B d’Alibaba avec les schémas de raisonnement du R1-0528 complet, cette version plus compacte peut fonctionner sur un seul GPU grand public tout en surpassant Gemini 2.5 Flash de Google sur certains tests mathématiques et en égalant presque le modèle Phi 4 reasoning plus de Microsoft.

Comme son prédécesseur, R1-0528 est offert sous la licence permissive MIT, permettant un usage commercial et la personnalisation. Les principaux fournisseurs de services infonuagiques, dont Amazon Web Services et Microsoft Azure, proposent désormais les modèles de DeepSeek à leurs clients, tout en les isolant des serveurs chinois pour assurer la confidentialité des données.

Cette sortie consolide davantage DeepSeek et Meta comme chefs de file du secteur de l’IA open source, offrant des alternatives puissantes aux modèles propriétaires d’OpenAI, Google, Microsoft et Anthropic à une fraction du coût informatique.

Source:

Latest News