L’autorité italienne de la concurrence, l’AGCM, a annoncé lundi l’ouverture d’une enquête formelle visant la startup chinoise d’intelligence artificielle DeepSeek, marquant ainsi une intervention réglementaire majeure contre les hallucinations générées par l’IA.
L’enquête porte sur des allégations selon lesquelles DeepSeek n’aurait pas fourni aux utilisateurs des avertissements « suffisamment clairs, immédiats et intelligibles » au sujet du risque d’hallucinations de l’IA dans son contenu. L’AGCM définit ces hallucinations comme « des situations où, en réponse à une entrée fournie par un utilisateur, le modèle d’IA génère une ou plusieurs sorties contenant des informations inexactes, trompeuses ou inventées ».
Cette enquête constitue l’une des premières actions réglementaires majeures ciblant spécifiquement les hallucinations de l’IA, une préoccupation grandissante alors que les systèmes d’IA générative se généralisent. Elle intervient dans un contexte de surveillance accrue au niveau mondial concernant la transparence de l’IA et les risques de désinformation, alors que les régulateurs du monde entier élaborent des cadres pour relever ces défis.
Fondée à la fin de 2023 par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, DeepSeek s’est rapidement imposée comme un acteur important sur la scène mondiale de l’IA. L’entreprise a attiré l’attention internationale plus tôt cette année en lançant des modèles d’IA qui, selon les rapports, rivalisent avec les capacités des principaux concurrents occidentaux à une fraction du coût, provoquant ainsi de la volatilité sur le marché technologique.
Ce n’est pas la première fois que DeepSeek fait face aux régulateurs italiens. En février 2025, l’autorité italienne de protection des données avait ordonné à l’entreprise de bloquer l’accès à son chatbot après que DeepSeek n’ait pas répondu aux préoccupations concernant sa politique de confidentialité. À ce moment-là, DeepSeek aurait affirmé ne pas opérer en Italie et que la réglementation européenne ne s’appliquait pas à ses activités.
Alors que la loi européenne sur l’IA (EU AI Act) commencera à être mise en œuvre progressivement tout au long de 2025, avec des exigences de transparence pour les systèmes d’IA à usage général prenant effet le 2 août, ce dossier pourrait établir des précédents importants sur la façon dont les régulateurs européens aborderont la question des hallucinations de l’IA dans le nouveau cadre réglementaire.