Italiens konkurrencemyndighed AGCM meddelte mandag, at de har indledt en formel undersøgelse af den kinesiske kunstig intelligens-startup DeepSeek, hvilket markerer et væsentligt regulatorisk skridt mod AI-hallucinationer.
Undersøgelsen fokuserer på anklager om, at DeepSeek ikke har givet brugerne "tilstrækkeligt klare, umiddelbare og forståelige" advarsler om risikoen for AI-hallucinationer i deres indhold. AGCM definerer disse hallucinationer som "situationer, hvor AI-modellen, som svar på en given brugerinput, genererer et eller flere outputs, der indeholder unøjagtige, vildledende eller opdigtede oplysninger."
Denne undersøgelse repræsenterer en af de første større regulatoriske handlinger, der specifikt retter sig mod AI-hallucinationer – et voksende problem i takt med, at generative AI-systemer bliver mere udbredte. Undersøgelsen kommer i en tid med stigende globalt fokus på AI-gennemsigtighed og risikoen for misinformation, hvor myndigheder verden over udvikler rammer for at håndtere disse udfordringer.
DeepSeek, der blev grundlagt i slutningen af 2023 af den kinesiske hedgefond-manager Liang Wenfeng, har hurtigt markeret sig som en betydelig aktør på det globale AI-marked. Virksomheden vakte international opmærksomhed tidligere i år, da de lancerede AI-modeller, der angiveligt matchede førende vestlige konkurrenters evner til en brøkdel af prisen, hvilket udløste markedsuro i teknologisektoren.
Det er ikke første gang, DeepSeek møder italienske myndigheder. I februar 2025 beordrede Italiens datatilsyn virksomheden til at blokere adgangen til deres chatbot, efter DeepSeek ikke havde imødekommet bekymringer om privatlivspolitik. Dengang hævdede DeepSeek angiveligt, at de ikke opererede i Italien, og at europæiske regler derfor ikke gjaldt for deres aktiviteter.
I takt med at EU's AI-forordning begynder at blive implementeret gradvist i løbet af 2025 – med krav om gennemsigtighed for generelle AI-systemer, der træder i kraft den 2. august – kan denne sag skabe vigtige præcedenser for, hvordan europæiske myndigheder vil håndtere AI-hallucinationer under det nye regelsæt.