L’Autorità Garante della Concorrenza e del Mercato (AGCM) ha annunciato lunedì di aver aperto un’indagine formale nei confronti della startup cinese di intelligenza artificiale DeepSeek, segnando un importante intervento regolatorio contro le allucinazioni dell’IA.
L’indagine si concentra sulle accuse secondo cui DeepSeek non avrebbe fornito agli utenti avvisi "sufficientemente chiari, immediati e comprensibili" riguardo al rischio di allucinazioni dell’IA nei suoi contenuti. L’AGCM definisce queste allucinazioni come "situazioni in cui, in risposta a un input fornito da un utente, il modello di IA genera uno o più output contenenti informazioni inaccurate, fuorvianti o inventate".
Questa indagine rappresenta una delle prime azioni regolatorie di rilievo mirate specificamente alle allucinazioni dell’IA, una preoccupazione crescente con la diffusione dei sistemi di intelligenza artificiale generativa. L’iniziativa arriva in un contesto di crescente attenzione globale sui temi della trasparenza dell’IA e dei rischi di disinformazione, con autorità di regolamentazione di tutto il mondo impegnate a sviluppare strumenti normativi per affrontare queste sfide.
Fondata alla fine del 2023 dal gestore di hedge fund cinese Liang Wenfeng, DeepSeek si è rapidamente affermata come un attore di rilievo nello scenario globale dell’intelligenza artificiale. L’azienda ha attirato l’attenzione internazionale all’inizio di quest’anno con il lancio di modelli di IA che, secondo quanto riportato, avrebbero eguagliato le capacità dei principali concorrenti occidentali a una frazione del costo, generando volatilità nei mercati tecnologici.
Non è la prima volta che DeepSeek si scontra con le autorità italiane. Nel febbraio 2025, il Garante per la protezione dei dati personali aveva ordinato all’azienda di bloccare l’accesso al proprio chatbot dopo che DeepSeek non aveva risposto alle preoccupazioni sulla privacy. In quell’occasione, DeepSeek avrebbe dichiarato di non operare in Italia e che la normativa europea non si applicava alle sue attività.
Con l’entrata in vigore graduale dell’AI Act europeo nel corso del 2025, e con l’obbligo di trasparenza per i sistemi di IA di uso generale previsto dal 2 agosto, questo caso potrebbe fissare importanti precedenti su come i regolatori europei affronteranno il tema delle allucinazioni dell’IA nel nuovo quadro normativo.