menu
close

Los costes de entrenamiento de la IA se disparan mientras la inferencia se abarata, según Stanford

El AI Index 2025 de la Universidad de Stanford revela una imagen compleja del desarrollo de la inteligencia artificial, con costes de entrenamiento para modelos punteros como Gemini Ultra de Google que alcanzan los 192 millones de dólares. A pesar de este aumento, el informe destaca tendencias positivas: el precio del hardware ha caído un 30% anual, la eficiencia energética ha mejorado un 40% cada año y los costes de inferencia se han desplomado 280 veces en solo 18 meses. Sin embargo, el impacto medioambiental sigue siendo preocupante, con modelos como Llama 3.1 de Meta generando casi 9.000 toneladas de emisiones de carbono durante su entrenamiento.
Los costes de entrenamiento de la IA se disparan mientras la inferencia se abarata, según Stanford

El Instituto de Inteligencia Artificial Centrada en el Ser Humano de la Universidad de Stanford ha publicado su exhaustivo AI Index 2025, que ofrece un análisis basado en datos sobre el panorama global de la IA en ámbitos como la investigación, el rendimiento técnico, la economía y el impacto medioambiental.

El informe, de más de 400 páginas, revela una marcada dicotomía en la economía de la IA. Mientras que entrenar modelos de IA punteros resulta cada vez más caro —con Gemini 1.0 Ultra de Google alcanzando un coste estimado de 192 millones de dólares—, el uso de estos modelos se ha abaratado drásticamente. El coste de consultar un modelo de IA con un rendimiento similar a GPT-3.5 ha pasado de 20 dólares por millón de tokens en noviembre de 2022 a solo 0,07 dólares por millón de tokens en octubre de 2024, lo que supone una reducción de 280 veces en apenas 18 meses.

Esta espectacular caída en los costes de inferencia se debe a importantes mejoras en la eficiencia del hardware. El informe indica que los costes del hardware empresarial para IA han descendido un 30% anual, mientras que la eficiencia energética ha mejorado un 40% cada año. Estas tendencias están reduciendo rápidamente las barreras para la adopción de IA avanzada, con un 78% de las organizaciones que ya reportan uso de IA, frente al 55% en 2023.

Sin embargo, la huella medioambiental del entrenamiento de grandes modelos de IA sigue creciendo a un ritmo preocupante. Las emisiones de carbono derivadas del entrenamiento de estos modelos punteros han aumentado de forma constante, con Llama 3.1 de Meta generando unas 8.930 toneladas de CO2, equivalente a las emisiones anuales de casi 500 estadounidenses promedio. Esto explica por qué las empresas de IA están recurriendo cada vez más a la energía nuclear como fuente fiable de energía libre de carbono para sus centros de datos.

El informe también destaca cambios en la dinámica global de la IA. Aunque Estados Unidos mantiene el liderazgo en la producción de modelos de IA destacados (40 en 2024 frente a los 15 de China), los modelos chinos están cerrando rápidamente la brecha de rendimiento. La diferencia entre los principales modelos estadounidenses y chinos se redujo del 9,26% en enero de 2024 al 1,70% en febrero de 2025.

A medida que la IA sigue transformando industrias, el AI Index de Stanford se consolida como un recurso clave para comprender tanto las oportunidades como los retos que plantea esta tecnología en rápida evolución. Las conclusiones sugieren que, aunque la IA es cada vez más accesible y asequible para su despliegue, la industria debe afrontar los crecientes costes medioambientales asociados al desarrollo de modelos cada vez más potentes.

Source: Ieee

Latest News