menu
close

Trojitá hrozba generatívnej AI: ohrozené pracovné miesta, súkromie aj bezpečnosť

Rýchle prijímanie generatívnych AI technológií vyvolalo rozsiahle obavy z nahrádzania pracovných miest, únikov osobných údajov a zraniteľností v oblasti bezpečnosti. Najnovšie štúdie naznačujú, že hoci AI môže zvýšiť produktivitu v niektorých sektoroch, do roku 2030 by mohla automatizovať až 30 % súčasných pracovných hodín v americkej ekonomike. Odborníci na ochranu súkromia zároveň varujú pred možnosťou úniku citlivých osobných údajov prostredníctvom AI systémov, pričom nedostatočné opatrenia proti úniku dát sa stávajú kritickým problémom s rastúcim rozšírením tejto technológie.
Trojitá hrozba generatívnej AI: ohrozené pracovné miesta, súkromie aj bezpečnosť

Ako generatívne AI technológie pokračujú v raketovom vzostupe v roku 2025, do popredia verejnej diskusie sa dostali tri hlavné obavy: bezpečnosť pracovných miest, ochrana súkromia a kybernetické riziká.

Čo sa týka zamestnanosti, najnovšie výskumy prinášajú zmiešaný obraz. Štúdia spoločnosti McKinsey naznačuje, že do roku 2030 by mohli byť automatizované činnosti, ktoré v súčasnosti predstavujú až 30 % odpracovaných hodín v americkej ekonomike – tento trend urýchľuje práve generatívna AI. Najviac ohrozené sú pozície v administratíve, zákazníckych službách a gastronómii. Napriek apokalyptickým predpovediam však nedávna dánska štúdia, ktorá skúmala 11 povolaní a 25 000 pracovníkov, zistila, že nástroje ako ChatGPT zatiaľ mali len minimálny vplyv na mzdy a úroveň zamestnanosti, pričom používatelia uvádzajú priemernú úsporu času len 2,8 % pracovných hodín.

Obavy o súkromie sa prehlbujú, keďže generatívne AI systémy spracúvajú obrovské množstvá osobných údajov. Bezpečnostní experti z IBM varujú, že tieto systémy si môžu nechtiac zapamätať a reprodukovať citlivé informácie zo svojich tréningových dát, čo odborníci označujú ako „únik modelu“. Podľa štúdie Cisco 2024 Data Privacy Benchmark už 79 % firiem získava z generatívnej AI významnú hodnotu, no len polovica používateľov sa vyhýba zadávaniu osobných alebo dôverných údajov do týchto nástrojov, čo vytvára značné riziká pre ochranu súkromia.

Tretím veľkým problémom sú bezpečnostné zraniteľnosti. Vládne analýzy predpovedajú, že do roku 2025 generatívna AI skôr zosilní existujúce bezpečnostné riziká, než by vytvárala úplne nové, no dramaticky zvýši rýchlosť a rozsah hrozieb. Britská vláda nedávno upozornila, že generatívna AI umožňuje rýchlejšie a efektívnejšie kybernetické útoky prostredníctvom cielenejších phishingových metód a replikácie škodlivého softvéru. Schopnosť AI generovať presvedčivé deepfaky a syntetické médiá navyše ohrozuje dôveru verejnosti v zdroje informácií.

Odborníci odporúčajú organizáciám, ktoré sa ponáhľajú s implementáciou generatívnej AI, zaviesť robustné rámce správy dát vrátane minimalizácie údajov, šifrovania, prístupových kontrol a pravidelných bezpečnostných auditov. Bez primeraných opatrení môže technológia, ktorá sľubuje bezprecedentné zisky v produktivite, zároveň vystaviť jednotlivcov aj organizácie významným rizikám.

Keďže podľa Gartneru bude generatívna AI do roku 2025 tvoriť 10 % všetkých vytvorených dát (v porovnaní s menej ako 1 % dnes), potreba riešiť tieto obavy je naliehavejšia než kedykoľvek predtým.

Source: Windows Central

Latest News