menu
close

Les coûts d’entraînement de l’IA explosent tandis que l’inférence devient moins chère, selon Stanford

L’AI Index 2025 de l’Université Stanford révèle une situation complexe dans le développement de l’intelligence artificielle : les coûts d’entraînement des modèles de pointe, comme Gemini Ultra de Google, atteignent environ 192 millions de dollars. Malgré cette hausse, le rapport souligne des tendances positives : les coûts matériels ont chuté de 30 % par an, l’efficacité énergétique s’est améliorée de 40 % chaque année, et les coûts d’inférence ont été divisés par 280 en seulement 18 mois. Cependant, l’impact environnemental demeure préoccupant, avec des modèles comme Llama 3.1 de Meta générant près de 9 000 tonnes d’émissions de carbone lors de l’entraînement.
Les coûts d’entraînement de l’IA explosent tandis que l’inférence devient moins chère, selon Stanford

L’Institut pour l’intelligence artificielle centrée sur l’humain de l’Université Stanford a publié son AI Index 2025, une analyse approfondie et fondée sur les données du paysage mondial de l’IA, couvrant la recherche, la performance technique, l’économie et l’impact environnemental.

Ce rapport de plus de 400 pages met en lumière une dichotomie frappante dans l’économie de l’IA. Si l’entraînement des modèles d’IA de pointe devient de plus en plus coûteux — l’entraînement de Gemini 1.0 Ultra de Google est estimé à 192 millions de dollars —, le coût d’utilisation de ces modèles a quant à lui chuté de façon spectaculaire. Interroger un modèle d’IA avec des performances équivalentes à GPT-3.5 coûtait 20 dollars par million de tokens en novembre 2022, contre seulement 0,07 dollar par million de tokens en octobre 2024, soit une réduction par 280 en 18 mois.

Cette baisse spectaculaire des coûts d’inférence s’explique par des progrès majeurs en matière d’efficacité matérielle. Le rapport indique que les coûts du matériel d’IA pour les entreprises ont diminué de 30 % par an, tandis que l’efficacité énergétique a progressé de 40 % chaque année. Ces tendances réduisent rapidement les obstacles à l’adoption de l’IA avancée, avec 78 % des organisations déclarant désormais utiliser l’IA, contre 55 % en 2023.

Cependant, l’empreinte environnementale de l’entraînement des grands modèles d’IA continue de croître à un rythme inquiétant. Les émissions de carbone liées à l’entraînement des modèles de pointe augmentent régulièrement, Llama 3.1 de Meta générant environ 8 930 tonnes de CO2 — soit l’équivalent des émissions annuelles de près de 500 Américains moyens. Cela explique pourquoi les entreprises d’IA se tournent de plus en plus vers l’énergie nucléaire comme source fiable d’électricité sans carbone pour leurs centres de données.

Le rapport met également en avant l’évolution des dynamiques mondiales de l’IA. Si les États-Unis conservent leur avance dans la production de modèles d’IA notables (40 en 2024 contre 15 pour la Chine), les modèles chinois comblent rapidement l’écart de performance. La différence entre les meilleurs modèles américains et chinois est passée de 9,26 % en janvier 2024 à seulement 1,70 % en février 2025.

Alors que l’IA continue de transformer les industries, l’AI Index de Stanford s’impose comme une ressource essentielle pour comprendre les opportunités et les défis liés à cette technologie en pleine évolution. Les conclusions suggèrent que, si l’IA devient plus accessible et abordable à déployer, le secteur doit désormais s’attaquer aux coûts environnementaux croissants liés au développement de modèles toujours plus puissants.

Source: Ieee

Latest News