menu
close

o3-mini d’OpenAI apporte un raisonnement avancé aux modèles plus compacts

OpenAI a lancé o3-mini, un modèle d’IA économique optimisé pour le raisonnement en STIM, tout en maintenant des exigences informatiques réduites. Le modèle excelle dans les tâches de sciences, mathématiques et de programmation, surpassant son prédécesseur o1-mini avec 39 % d’erreurs majeures en moins sur des problèmes complexes. Disponible via ChatGPT et l’API, o3-mini représente une avancée importante vers la démocratisation des capacités de raisonnement avancées de l’IA.
o3-mini d’OpenAI apporte un raisonnement avancé aux modèles plus compacts

OpenAI élargit sa gamme de modèles de raisonnement avec le lancement de o3-mini, une version plus compacte mais puissante de sa série « o » qui repousse les limites de ce que les petits modèles d’IA peuvent accomplir.

Présenté comme le modèle le plus économique de la série de raisonnement d’OpenAI, o3-mini offre des performances exceptionnelles dans les domaines STIM tout en maintenant le faible coût et la latence réduite de son prédécesseur. Le modèle repousse les frontières de ce que les petits modèles peuvent accomplir, offrant des capacités STIM remarquables — particulièrement en sciences, en mathématiques et en programmation — tout en conservant le faible coût et la latence réduite de l’o1‑mini d’OpenAI.

À l’instar de son prédécesseur o1, o3-mini a été optimisé pour le raisonnement en STIM. Avec un effort de raisonnement moyen, il égale la performance de o1 en mathématiques, en programmation et en sciences, tout en fournissant des réponses plus rapides. Les évaluations réalisées par des experts ont montré que o3-mini produit des réponses plus précises et plus claires, avec des capacités de raisonnement supérieures à celles de o1-mini. Les testeurs externes ont préféré les réponses de o3-mini à celles de o1-mini plus de la moitié du temps. Le modèle a également commis 39 % moins de « fautes majeures » sur des « questions difficiles du monde réel » lors de tests A/B comparativement à o1-mini, et a généré des réponses plus « claires » tout en livrant ses réponses environ 24 % plus rapidement.

L’une des principales innovations de o3-mini est sa capacité de raisonnement flexible. Les développeurs peuvent choisir entre trois niveaux d’effort de raisonnement — faible, moyen et élevé — pour optimiser selon leurs cas d’utilisation spécifiques. Cette flexibilité permet à o3-mini de « réfléchir davantage » lors de défis complexes ou de prioriser la rapidité lorsque la latence est un enjeu.

Il s’agit du premier petit modèle de raisonnement d’OpenAI à prendre en charge des fonctionnalités très demandées par les développeurs, telles que l’appel de fonctions, les sorties structurées et les messages pour développeurs, le rendant prêt pour la production dès son lancement. Dans le cadre de ce lancement, OpenAI a triplé la limite de messages pour les utilisateurs Plus et Équipe, passant de 50 messages par jour avec o1-mini à 150 messages par jour avec o3-mini. De plus, o3-mini fonctionne maintenant avec la recherche pour fournir des réponses à jour avec des liens vers des sources web pertinentes. Dès aujourd’hui, les utilisateurs du forfait gratuit peuvent aussi essayer o3-mini en sélectionnant « Raisonnement » dans le compositeur de messages ou en régénérant une réponse — marquant la première fois qu’un modèle de raisonnement est accessible aux utilisateurs gratuits de ChatGPT.

La sortie de o3-mini arrive à un moment stratégique pour OpenAI, alors que l’entreprise se prépare au lancement prochain de ses modèles plus puissants o3 et o4-mini. Dans une publication sur X, le PDG Sam Altman a annoncé que l’entreprise lancera deux nouveaux modèles — o3 et o4-mini — dans les prochaines semaines, alors que GPT-5 est désormais attendu quelques mois plus tard. En date d’avril 2025, o3-mini a été entièrement remplacé par o4-mini dans ChatGPT et l’API. o4-mini offre de meilleures performances sur la plupart des critères, ajoute la saisie multimodale native et conserve la compatibilité avec les outils — tout en restant plus rapide et plus abordable que o3.

Source:

Latest News