El regulador antimonopolio italiano AGCM anunció este lunes la apertura de una investigación formal sobre la startup china de inteligencia artificial DeepSeek, lo que supone una acción regulatoria significativa contra las alucinaciones de IA.
La investigación se centra en las acusaciones de que DeepSeek no proporcionó a los usuarios advertencias "suficientemente claras, inmediatas e inteligibles" sobre el riesgo de alucinaciones de IA en su contenido. AGCM define estas alucinaciones como "situaciones en las que, en respuesta a una entrada dada por un usuario, el modelo de IA genera una o varias salidas que contienen información inexacta, engañosa o inventada".
Esta investigación representa una de las primeras acciones regulatorias de gran calado dirigidas específicamente a las alucinaciones de IA, una preocupación creciente a medida que los sistemas de IA generativa se generalizan. La investigación llega en un contexto de creciente escrutinio global sobre la transparencia de la IA y los riesgos de desinformación, con reguladores de todo el mundo desarrollando marcos normativos para abordar estos desafíos.
DeepSeek, fundada a finales de 2023 por el gestor de fondos de cobertura chino Liang Wenfeng, ha emergido rápidamente como un actor relevante en el panorama global de la IA. La empresa atrajo la atención internacional a principios de este año al lanzar modelos de IA que, según se informa, igualaban las capacidades de los principales competidores occidentales a una fracción del coste, lo que provocó volatilidad en el sector tecnológico.
No es la primera vez que DeepSeek se enfrenta a los reguladores italianos. En febrero de 2025, la autoridad italiana de protección de datos ordenó a la empresa bloquear el acceso a su chatbot después de que DeepSeek no resolviera las preocupaciones sobre su política de privacidad. En ese momento, DeepSeek alegó que no operaba en Italia y que la normativa europea no era aplicable a sus actividades.
A medida que la Ley de IA de la UE comienza su implementación progresiva a lo largo de 2025, con requisitos de transparencia para sistemas de IA de propósito general que entrarán en vigor el 2 de agosto, este caso podría sentar precedentes importantes sobre cómo los reguladores europeos abordarán las cuestiones de alucinaciones de IA bajo el nuevo marco normativo.