スタンフォード大学ヒューマン・センタードAI研究所は、2025年版の包括的なAIインデックスを発表し、研究、技術性能、経済、環境影響など、グローバルなAIの現状をデータに基づいて分析した。
400ページを超える本報告書は、AI経済の著しい二面性を浮き彫りにしている。最先端AIモデルのトレーニングコストは高騰しており、GoogleのGemini 1.0 Ultraのトレーニングには推定1億9200万ドルがかかったとされる。一方で、これらのモデルを利用する際のコストは急激に低下している。GPT-3.5相当の性能を持つAIモデルへのクエリコストは、2022年11月の100万トークンあたり20ドルから、2024年10月にはわずか0.07ドルへと、18カ月で280分の1にまで減少した。
この劇的な推論コスト低下の背景には、ハードウェア効率の大幅な向上がある。報告書によると、エンタープライズ向けAIハードウェアのコストは年率30%減少し、エネルギー効率も年率40%向上している。これらのトレンドにより、先進的なAI導入の障壁は急速に下がっており、AIを活用している組織の割合は2023年の55%から78%へと大きく増加した。
しかし、大規模AIモデルのトレーニングによる環境負荷は依然として深刻化している。最先端AIモデルのトレーニングに伴う二酸化炭素排出量は増加の一途をたどり、MetaのLlama 3.1では推定8,930トンのCO2が排出された。これは、平均的なアメリカ人約500人分の年間排出量に相当する。このため、AI企業はデータセンターのカーボンフリー電力源として、原子力エネルギーの活用を進めている。
また、グローバルなAI勢力図にも変化が見られる。米国は依然として著名なAIモデルの開発数でリードしており(2024年は40件、中国は15件)、中国モデルも急速に性能差を縮めている。米中トップモデル間の性能差は、2024年1月の9.26%から2025年2月には1.70%にまで縮小した。
AIが産業界を変革し続ける中、スタンフォードのAIインデックスは、この急速に進化する技術の機会と課題の両面を理解するための重要なリソースとなっている。報告書は、AIの導入コストが下がり利用しやすくなる一方で、より強力なモデル開発に伴う環境負荷の増大という課題に業界が取り組む必要性を示唆している。