La Unión Europea ha alcanzado un momento crucial en la regulación de la inteligencia artificial con la entrada en vigor de las disposiciones clave de su Ley de IA el 11 de julio de 2025. Esto supone la implementación del primer marco regulatorio integral del mundo para las tecnologías de IA.
La Ley de IA es el primer marco legal sobre inteligencia artificial, que aborda los riesgos asociados a la IA y sitúa a Europa en una posición de liderazgo a nivel mundial. Establece un conjunto claro de normas basadas en el riesgo para desarrolladores y usuarios de IA en relación con usos específicos de la tecnología. La Ley forma parte de un paquete más amplio de medidas políticas para fomentar el desarrollo de una IA fiable, que también incluye el Paquete de Innovación en IA, el lanzamiento de las Fábricas de IA y el Plan Coordinado sobre IA. En conjunto, estas medidas garantizan la seguridad, los derechos fundamentales y una IA centrada en las personas, al tiempo que refuerzan la adopción, la inversión y la innovación en IA en toda la UE.
La implementación sigue un enfoque escalonado que comenzó con la entrada en vigor de la Ley el 1 de agosto de 2024. Las primeras obligaciones sustantivas de la Ley empezaron a aplicarse a principios de 2025, y el hito actual—que impone amplias obligaciones para los modelos de IA de propósito general ("GPAI") y nuevas estructuras de gobernanza—entra en vigor el 2 de agosto de 2025. Para desarrolladores, proveedores y usuarios de IA—especialmente aquellos que operan a nivel transfronterizo—este hito supone un cambio crucial de la preparación a la implementación.
Esta fase activa la Oficina Europea de IA y la Junta Europea de Inteligencia Artificial ("EAIB"), que supervisarán la aplicación y coordinación entre los Estados miembros. Las autoridades nacionales también deberán ser designadas antes de esta fecha. Los proveedores de modelos GPAI—especialmente quienes ofrecen grandes modelos lingüísticos ("LLM")—se enfrentarán a nuevas obligaciones horizontales, como transparencia, documentación y cumplimiento de derechos de autor. Para los modelos GPAI considerados de riesgo sistémico, se aplicarán requisitos adicionales como mitigación de riesgos, notificación de incidentes y salvaguardias de ciberseguridad.
A pesar de la oposición del sector, la Comisión Europea ha mantenido su calendario de implementación. El 3 de julio de 2025, Reuters informó de que varias empresas solicitaban una pausa en las disposiciones y recibían el apoyo de algunos políticos. "Para abordar la incertidumbre que está generando esta situación, instamos a la Comisión a proponer una 'pausa' de dos años en la Ley de IA antes de que entren en vigor las obligaciones clave", decía una carta abierta enviada a la Comisión Europea por un grupo de 45 empresas europeas líderes. Sin embargo, la Comisión Europea rechazó esta petición y afirmó que continuará con la implementación según lo previsto.
Mientras que las normas para los modelos de IA de propósito general entran en vigor el 2 de agosto de 2025, los poderes para hacerlas cumplir comenzarán un año después (el 2 de agosto de 2026). A partir de esa fecha, el incumplimiento conlleva multas administrativas de hasta 15 millones de euros o el 3% de la facturación global (que pueden aumentar a 35 millones de euros / 7% en caso de prácticas prohibidas). El enfoque regulatorio de la UE pretende equilibrar la innovación con la protección de los derechos fundamentales, estableciendo un marco que podría influir en la gobernanza de la IA a nivel mundial.