Efterhånden som generative AI-teknologier fortsætter deres kometagtige fremmarch i 2025, er tre store bekymringer kommet i centrum for den offentlige debat: jobsikkerhed, beskyttelse af privatliv og cybersikkerhedsrisici.
På arbejdsmarkedet tegner ny forskning et blandet billede. En McKinsey-undersøgelse peger på, at aktiviteter svarende til op til 30% af de arbejdstimer, der i dag udføres i den amerikanske økonomi, kan være automatiseret inden 2030 – en udvikling, som generativ AI fremskynder. Kontorarbejde, kundeservice og service i restaurationsbranchen er blandt de jobtyper, der er mest udsatte for at blive erstattet. Dog viser en nyere dansk undersøgelse af 11 erhverv blandt 25.000 medarbejdere, at generative AI-værktøjer som ChatGPT indtil videre har haft minimal indflydelse på løn og beskæftigelse, hvor brugerne i gennemsnit kun sparer 2,8% af deres arbejdstid.
Bekymringer om privatliv er vokset, efterhånden som generative AI-systemer behandler enorme mængder persondata. Sikkerhedseksperter fra IBM advarer om, at disse systemer utilsigtet kan huske og genskabe følsomme oplysninger fra deres træningsdata – et fænomen eksperter kalder ‘modellækage’. Ifølge Ciscos Data Privacy Benchmark-undersøgelse 2024 oplever 79% af virksomhederne allerede betydelig værdi fra generativ AI, men kun halvdelen af brugerne undlader at indtaste personlige eller fortrolige oplysninger i disse værktøjer, hvilket skaber betydelige privatlivsrisici.
Sikkerhedssårbarheder udgør den tredje store bekymring. Myndighedsvurderinger forudser, at generativ AI i 2025 sandsynligvis vil forstærke eksisterende sikkerhedsrisici snarere end at skabe helt nye, men at truslernes hastighed og omfang vil stige markant. Den britiske regering har for nylig advaret om, at generativ AI kan muliggøre hurtigere og mere effektive cyberangreb via målrettede phishing-metoder og malware-replikation. Derudover truer AI’s evne til at generere overbevisende deepfakes og syntetiske medier med at underminere offentlighedens tillid til informationskilder.
I takt med at organisationer skynder sig at implementere generativ AI, anbefaler eksperter at indføre robuste rammer for datastyring, herunder dataminimering, kryptering, adgangskontrol og regelmæssige sikkerhedsrevisioner. Uden de rette sikkerhedsforanstaltninger kan teknologien, der lover hidtil usete produktivitetsgevinster, samtidig udsætte både enkeltpersoner og organisationer for betydelige risici.
Med Gartners forudsigelse om, at generativ AI vil stå for 10% af al data produceret i 2025 (mod under 1% i dag), har det aldrig været mere presserende at adressere disse udfordringer.