Natuklasan ng mga mananaliksik ang malaking epekto sa kapaligiran na kaakibat ng lumalaking pag-asa natin sa mga sopistikadong AI system. Isang bagong pag-aaral na inilathala noong Hunyo 19, 2025, sa Frontiers in Communication ang nagsiwalat na ang mga AI model na may kakayahan sa pangangatwiran ay maaaring maglabas ng hanggang 50 beses na mas maraming carbon dioxide kaysa sa kanilang mas simpleng katapat kapag sinasagot ang magkatulad na mga tanong.
Pinangunahan ni Maximilian Dauner mula sa Hochschule München University of Applied Sciences, sinuri ng research team ang 14 na iba't ibang large language models (LLMs) mula 7 hanggang 72 bilyong parameters. Sinubukan nila ang mga modelong ito sa 1,000 benchmark na tanong na sumasaklaw sa iba't ibang paksa tulad ng matematika, kasaysayan, pilosopiya, at abstract algebra.
Natuklasan sa pag-aaral na ang mga reasoning model ay gumagawa ng average na 543.5 'thinking tokens' kada tanong, kumpara sa 37.7 tokens lamang para sa mga concise na modelo. Ang mga dagdag na computational step na ito ay direktang nagreresulta sa mas mataas na konsumo ng enerhiya at carbon emissions. Ang pinaka-tumpak na modelong nasubukan ay ang reasoning-enabled Cogito model na may 70 bilyong parameters, na nakakuha ng 84.9% accuracy ngunit naglabas ng tatlong beses na mas maraming CO2 kaysa sa mga kaparehong laki ng modelong nagbibigay ng mas maiikling sagot.
"Sa kasalukuyan, malinaw naming nakikita ang kompromiso sa pagitan ng katumpakan at pagpapanatili sa mga teknolohiya ng LLM," paliwanag ni Dauner. "Wala sa mga modelong nagpanatili ng emissions sa ibaba ng 500 gramo ng CO2 equivalent ang nakakuha ng higit sa 80% accuracy."
Malaki rin ang epekto ng paksa ng mga tanong sa dami ng emissions. Ang mga tanong na nangangailangan ng masalimuot na pangangatwiran, tulad ng abstract algebra o pilosopiya, ay nagdudulot ng hanggang anim na beses na mas mataas na emissions kaysa sa mga simpleng paksa gaya ng kasaysayan sa high school.
Binigyang-diin ng mga mananaliksik na may kontrol ang mga user sa kanilang AI carbon footprint sa pamamagitan ng maingat na pagpili. Halimbawa, ang R1 model ng DeepSeek (70 bilyong parameters) na sumasagot sa 600,000 tanong ay makakalikha ng CO2 emissions na katumbas ng isang round-trip na biyahe mula London hanggang New York. Samantala, ang Qwen 2.5 model ng Alibaba (72 bilyong parameters) ay maaaring sumagot ng humigit-kumulang 1.9 milyong tanong na may katulad na katumpakan habang lumilikha ng parehong dami ng emissions.
"Kung alam ng mga user ang eksaktong CO2 cost ng kanilang AI-generated outputs, maaaring maging mas mapili sila kung kailan at paano nila gagamitin ang mga teknolohiyang ito," pagtatapos ni Dauner. Umaasa ang mga mananaliksik na ang kanilang pag-aaral ay maghihikayat ng mas maalam at makakalikasan na paggamit ng AI habang lalo pa itong napapaloob sa ating pang-araw-araw na buhay.