Wraz z dynamicznym rozwojem technologii generatywnej AI w 2025 roku, na pierwszy plan debaty publicznej wysuwają się trzy kluczowe zagadnienia: bezpieczeństwo zatrudnienia, ochrona prywatności oraz ryzyka związane z cyberbezpieczeństwem.
W kontekście rynku pracy najnowsze badania przynoszą mieszane wnioski. Z analizy McKinsey wynika, że do 2030 roku czynności odpowiadające nawet za 30% obecnie przepracowywanych godzin w gospodarce USA mogą zostać zautomatyzowane – a trend ten przyspiesza rozwój generatywnej AI. Najbardziej zagrożone są stanowiska związane z obsługą biurową, wsparciem klienta i gastronomią. Jednak wbrew katastroficznym prognozom, najnowsze duńskie badanie obejmujące 11 zawodów i 25 000 pracowników wykazało, że narzędzia generatywnej AI, takie jak ChatGPT, jak dotąd miały minimalny wpływ na wynagrodzenia i poziom zatrudnienia, a użytkownicy deklarują średnią oszczędność czasu na poziomie zaledwie 2,8% godzin pracy.
Obawy dotyczące prywatności narastają, gdy systemy generatywnej AI przetwarzają ogromne ilości danych osobowych. Eksperci ds. bezpieczeństwa IBM ostrzegają, że systemy te mogą nieumyślnie zapamiętywać i odtwarzać wrażliwe informacje z danych treningowych, co specjaliści określają mianem „wycieku modelu”. Z badania Cisco Data Privacy Benchmark 2024 wynika, że choć 79% firm już dziś czerpie znaczące korzyści z generatywnej AI, tylko połowa użytkowników powstrzymuje się od wprowadzania do tych narzędzi danych osobowych lub poufnych, co generuje poważne ryzyka dla prywatności.
Trzecim istotnym zagrożeniem są podatności na ataki. Rządowe analizy przewidują, że do 2025 roku generatywna AI raczej wzmocni istniejące zagrożenia bezpieczeństwa niż stworzy zupełnie nowe, ale znacząco zwiększy tempo i skalę ataków. Rząd Wielkiej Brytanii ostrzega, że generatywna AI umożliwia szybsze i skuteczniejsze cyberataki poprzez spersonalizowane metody phishingowe i replikację złośliwego oprogramowania. Dodatkowo, zdolność AI do generowania przekonujących deepfake’ów i syntetycznych mediów zagraża zaufaniu do źródeł informacji.
W obliczu gwałtownego wdrażania generatywnej AI eksperci zalecają wdrażanie solidnych ram zarządzania danymi, obejmujących minimalizację danych, szyfrowanie, kontrolę dostępu oraz regularne audyty bezpieczeństwa. Bez odpowiednich zabezpieczeń technologia, która obiecuje bezprecedensowy wzrost produktywności, może jednocześnie narazić osoby i organizacje na poważne ryzyka.
Według prognoz Gartnera, do 2025 roku generatywna AI będzie odpowiadać za 10% wszystkich generowanych danych (wzrost z mniej niż 1% obecnie), co czyni konieczność rozwiązania tych problemów pilniejszą niż kiedykolwiek.