menu
close

L’Italie vise DeepSeek dans une enquête sur les hallucinations de l’IA

L’autorité italienne de la concurrence, l’AGCM, a ouvert une enquête sur la start-up chinoise d’intelligence artificielle DeepSeek, accusée de ne pas avoir suffisamment averti ses utilisateurs des risques d’hallucinations de l’IA. Le régulateur reproche à DeepSeek de ne pas avoir fourni d’avertissements suffisamment clairs concernant la possibilité que son IA génère des informations inexactes ou trompeuses. Cette action fait suite à une décision prise en février par l’autorité italienne de protection des données, qui avait bloqué le chatbot de DeepSeek pour des raisons de confidentialité.
L’Italie vise DeepSeek dans une enquête sur les hallucinations de l’IA

L’autorité italienne de la concurrence, l’AGCM, a annoncé lundi l’ouverture d’une enquête formelle visant la start-up chinoise d’intelligence artificielle DeepSeek, marquant ainsi une action réglementaire majeure contre les hallucinations de l’IA.

L’enquête porte sur des allégations selon lesquelles DeepSeek n’aurait pas fourni aux utilisateurs des avertissements « suffisamment clairs, immédiats et intelligibles » concernant le risque d’hallucinations de l’IA dans ses contenus. L’AGCM définit ces hallucinations comme « des situations dans lesquelles, en réponse à une entrée donnée par un utilisateur, le modèle d’IA génère une ou plusieurs sorties contenant des informations inexactes, trompeuses ou inventées ».

Cette enquête représente l’une des premières actions réglementaires majeures ciblant spécifiquement les hallucinations de l’IA, une préoccupation croissante à mesure que les systèmes d’IA générative se généralisent. Elle intervient dans un contexte de surveillance accrue de la transparence de l’IA et des risques de désinformation, alors que les régulateurs du monde entier élaborent des cadres pour répondre à ces défis.

Fondée fin 2023 par le gestionnaire de fonds spéculatifs chinois Liang Wenfeng, DeepSeek s’est rapidement imposée comme un acteur majeur du paysage mondial de l’IA. L’entreprise a attiré l’attention internationale plus tôt cette année en lançant des modèles d’IA qui, selon les rapports, rivalisent avec les capacités des principaux concurrents occidentaux pour une fraction du coût, provoquant une volatilité sur le marché technologique.

Ce n’est pas la première fois que DeepSeek est confrontée aux régulateurs italiens. En février 2025, l’autorité italienne de protection des données avait ordonné à l’entreprise de bloquer l’accès à son chatbot après que DeepSeek n’a pas répondu aux préoccupations relatives à sa politique de confidentialité. À l’époque, DeepSeek aurait déclaré ne pas opérer en Italie et que la réglementation européenne ne s’appliquait pas à ses activités.

Alors que l’AI Act européen commence à être mis en œuvre progressivement en 2025, avec des exigences de transparence pour les systèmes d’IA à usage général entrant en vigueur le 2 août, cette affaire pourrait établir des précédents importants sur la manière dont les régulateurs européens aborderont la question des hallucinations de l’IA dans le nouveau cadre réglementaire.

Source: Reuters

Latest News