menu
close

Les modèles d’IA dotés de capacités de raisonnement émettent 50 fois plus de carbone que les modèles basiques

Une étude révolutionnaire menée par des chercheurs de la Hochschule München University révèle que les modèles d’IA dotés de capacités avancées de raisonnement produisent jusqu’à 50 fois plus d’émissions de CO2 que les modèles plus simples pour répondre aux mêmes questions. Publiée dans Frontiers in Communication, la recherche a évalué 14 modèles de langage de grande taille (LLM) et mis en évidence un compromis clair entre précision et impact environnemental. Les utilisateurs peuvent réduire significativement leur empreinte carbone liée à l’IA en choisissant des modèles appropriés et en demandant des réponses concises.
Les modèles d’IA dotés de capacités de raisonnement émettent 50 fois plus de carbone que les modèles basiques

Des chercheurs ont mis en lumière un coût environnemental important lié à notre dépendance croissante aux systèmes d’IA sophistiqués. Une nouvelle étude, publiée le 19 juin 2025 dans Frontiers in Communication, révèle que les modèles d’IA capables de raisonnement peuvent émettre jusqu’à 50 fois plus de dioxyde de carbone que leurs homologues plus simples lorsqu’ils répondent à des questions identiques.

L’équipe de recherche, dirigée par Maximilian Dauner de la Hochschule München University of Applied Sciences, a évalué 14 modèles de langage de grande taille (LLM), allant de 7 à 72 milliards de paramètres. Ces modèles ont été testés sur 1 000 questions de référence couvrant divers domaines, dont les mathématiques, l’histoire, la philosophie et l’algèbre abstraite.

L’étude a révélé que les modèles de raisonnement généraient en moyenne 543,5 « tokens de réflexion » par question, contre seulement 37,7 tokens pour les modèles concis. Ces étapes de calcul supplémentaires se traduisent directement par une consommation d’énergie et des émissions de carbone accrues. Le modèle le plus précis testé était le modèle Cogito doté de capacités de raisonnement et de 70 milliards de paramètres, qui a atteint une précision de 84,9 %, mais a produit trois fois plus de CO2 que des modèles de taille similaire générant des réponses plus concises.

« Nous constatons actuellement un compromis clair entre la précision et la durabilité inhérent aux technologies LLM », explique Dauner. « Aucun des modèles ayant maintenu les émissions en dessous de 500 grammes d’équivalent CO2 n’a dépassé 80 % de précision. »

La nature des questions posées a également eu un impact significatif sur les émissions. Les questions nécessitant un raisonnement complexe, telles que l’algèbre abstraite ou la philosophie, ont entraîné jusqu’à six fois plus d’émissions que des sujets plus simples comme l’histoire au lycée.

Les chercheurs soulignent que les utilisateurs peuvent maîtriser leur empreinte carbone liée à l’IA grâce à des choix réfléchis. Par exemple, le modèle R1 de DeepSeek (70 milliards de paramètres) répondant à 600 000 questions générerait autant de CO2 qu’un aller-retour Londres-New York en avion. À l’inverse, le modèle Qwen 2.5 d’Alibaba (72 milliards de paramètres) pourrait répondre à environ 1,9 million de questions avec une précision similaire pour la même quantité d’émissions.

« Si les utilisateurs connaissaient le coût exact en CO2 de leurs résultats générés par l’IA, ils pourraient se montrer plus sélectifs quant à l’utilisation de ces technologies », conclut Dauner. Les chercheurs espèrent que leur travail encouragera une utilisation plus éclairée et respectueuse de l’environnement de l’IA, alors que ces technologies s’intègrent de plus en plus dans notre quotidien.

Source:

Latest News