menu
close

Trostruka prijetnja generativne umjetne inteligencije: ugroženi poslovi, privatnost i sigurnost

Brza primjena generativnih AI tehnologija izazvala je široku zabrinutost zbog gubitka radnih mjesta, povreda privatnosti podataka i sigurnosnih ranjivosti. Najnovija istraživanja pokazuju da, iako AI može povećati produktivnost u određenim sektorima, do 2030. godine mogla bi automatizirati do 30% trenutnih radnih sati u američkom gospodarstvu. Istovremeno, stručnjaci za privatnost upozoravaju na mogućnost curenja osjetljivih osobnih podataka iz AI sustava, pri čemu nedostatne zaštitne mjere postaju ključni problem kako se primjena ubrzava.
Trostruka prijetnja generativne umjetne inteligencije: ugroženi poslovi, privatnost i sigurnost

Kako generativne AI tehnologije nastavljaju svoj meteorski uspon u 2025. godini, tri glavne brige ističu se u javnoj raspravi: sigurnost radnih mjesta, zaštita privatnosti i rizici za kibernetičku sigurnost.

Na području zapošljavanja, najnovija istraživanja daju mješovitu sliku. Studija McKinseyja sugerira da bi do 2030. aktivnosti koje čine do 30% trenutno odrađenih sati u američkom gospodarstvu mogle biti automatizirane — trend koji generativna AI dodatno ubrzava. Najveći rizik od zamjene imaju poslovi administrativne podrške, korisničke službe i ugostiteljstva. Ipak, suprotno apokaliptičnim predviđanjima, nedavna danska studija koja je obuhvatila 11 zanimanja i 25.000 radnika pokazala je da alati poput ChatGPT-a zasad imaju minimalan utjecaj na plaće i razinu zaposlenosti, a korisnici prijavljuju prosječnu uštedu od samo 2,8% radnih sati.

Zabrinutost za privatnost dodatno je porasla kako generativni AI sustavi obrađuju ogromne količine osobnih podataka. IBM-ovi stručnjaci za sigurnost upozoravaju da ti sustavi mogu nenamjerno zapamtiti i reproducirati osjetljive informacije iz podataka na kojima su trenirani, što stručnjaci nazivaju 'curenjem modela'. Prema Cisco-voj studiji Data Privacy Benchmark za 2024., iako 79% tvrtki već ostvaruje značajne koristi od generativne AI, samo polovica korisnika suzdržava se od unosa osobnih ili povjerljivih informacija u te alate, čime se stvaraju znatni rizici za privatnost.

Sigurnosne ranjivosti predstavljaju treću veliku zabrinutost. Vladine procjene predviđaju da će generativna AI do 2025. vjerojatno pojačati postojeće sigurnosne rizike, a ne stvoriti sasvim nove, ali će dramatično povećati brzinu i razmjere prijetnji. Britanska vlada nedavno je upozorila da generativna AI može omogućiti brže i učinkovitije kibernetičke napade putem ciljano prilagođenih phishing metoda i repliciranja zlonamjernog softvera. Osim toga, sposobnost AI-ja za generiranje uvjerljivih deepfakeova i sintetičkih medija prijeti narušavanju povjerenja javnosti u izvore informacija.

Kako organizacije žurno uvode generativnu AI, stručnjaci preporučuju uspostavu snažnih okvira za upravljanje podacima, uključujući minimizaciju podataka, enkripciju, kontrolu pristupa i redovite sigurnosne revizije. Bez odgovarajućih zaštitnih mjera, tehnologija koja obećava neviđene dobitke u produktivnosti mogla bi istovremeno izložiti pojedince i organizacije značajnim rizicima.

S obzirom na to da Gartner predviđa kako će generativna AI do 2025. činiti 10% svih proizvedenih podataka (u odnosu na manje od 1% danas), potreba za rješavanjem ovih izazova nikad nije bila veća.

Source: Windows Central

Latest News