Taliansky protimonopolný úrad AGCM v pondelok oznámil, že začal formálne vyšetrovanie čínskeho startupu v oblasti umelej inteligencie DeepSeek, čím podnikol významný regulačný krok proti tzv. AI halucináciám.
Vyšetrovanie sa zameriava na obvinenia, že DeepSeek neposkytol používateľom „dostatočne jasné, okamžité a zrozumiteľné“ varovania o riziku halucinácií umelej inteligencie vo svojom obsahu. AGCM tieto halucinácie definuje ako „situácie, v ktorých AI model v reakcii na zadaný vstup od používateľa vygeneruje jeden alebo viac výstupov obsahujúcich nepresné, zavádzajúce alebo vymyslené informácie“.
Ide o jedno z prvých veľkých regulačných opatrení, ktoré sa špecificky zameriavajú na AI halucinácie – rastúci problém v čase, keď sa generatívne AI systémy stávajú čoraz rozšírenejšími. Vyšetrovanie prichádza v období zvyšujúcej sa globálnej pozornosti voči transparentnosti AI a rizikám dezinformácií, pričom regulátori po celom svete pripravujú rámce na riešenie týchto výziev.
DeepSeek, ktorý koncom roka 2023 založil čínsky manažér hedžového fondu Liang Wenfeng, sa rýchlo stal významným hráčom na globálnej AI scéne. Spoločnosť upútala medzinárodnú pozornosť začiatkom tohto roka, keď predstavila AI modely, ktoré podľa správ dosahovali úroveň popredných západných konkurentov za zlomok ceny, čo spôsobilo volatilitu na technologických trhoch.
Nejde o prvý stret DeepSeeku s talianskymi regulátormi. Vo februári 2025 taliansky úrad na ochranu osobných údajov nariadil spoločnosti zablokovať prístup k jej chatbotu po tom, čo DeepSeek neodstránil výhrady k ochrane osobných údajov. V tom čase DeepSeek údajne tvrdil, že v Taliansku nepôsobí a na jeho činnosť sa európske predpisy nevzťahujú.
S postupným zavádzaním zákona EÚ o umelej inteligencii počas roka 2025, pričom požiadavky na transparentnosť pre všeobecné AI systémy nadobudnú účinnosť 2. augusta, by tento prípad mohol vytvoriť dôležité precedensy pre to, ako budú európski regulátori pristupovať k problematike AI halucinácií v rámci nového regulačného rámca.