С продължаващия метеоритен възход на генеративните ИИ технологии през 2025 г., три основни опасения излизат на преден план в обществения дебат: сигурността на работните места, защитата на личните данни и рисковете за киберсигурността.
По отношение на заетостта, последните изследвания представят противоречива картина. Проучване на McKinsey сочи, че до 2030 г. дейности, които в момента заемат до 30% от работните часове в икономиката на САЩ, могат да бъдат автоматизирани — тенденция, ускорена от генеративния ИИ. Най-застрашени от изместване са позициите в офис поддръжката, обслужването на клиенти и хранителните услуги. Въпреки това, в разрез с апокалиптичните прогнози, скорошно датско изследване на 11 професии сред 25 000 работници установява, че инструменти като ChatGPT засега имат минимално въздействие върху заплатите и нивата на заетост, като потребителите отчитат средно спестяване на едва 2,8% от работното време.
Опасенията за поверителността се засилват, тъй като генеративните ИИ системи обработват огромни обеми лични данни. Експерти по сигурността от IBM предупреждават, че тези системи могат неволно да запомнят и възпроизвеждат чувствителна информация от обучителните си данни — явление, познато като "изтичане на модела". Според изследването Data Privacy Benchmark 2024 на Cisco, докато 79% от бизнеса вече извлича значителна стойност от генеративния ИИ, само половината от потребителите се въздържат да въвеждат лична или поверителна информация в тези инструменти, което създава сериозни рискове за поверителността.
Уязвимостите в сигурността представляват третото основно притеснение. Оценки на правителствени агенции прогнозират, че до 2025 г. генеративният ИИ по-скоро ще засили съществуващите рискове за сигурността, отколкото да създаде изцяло нови, но ще увеличи драстично скоростта и мащаба на заплахите. Британското правителство наскоро предупреди, че генеративният ИИ може да улесни по-бързи и ефективни кибернашествия чрез персонализирани фишинг атаки и репликация на зловреден софтуер. Освен това способността на ИИ да създава убедителни дийпфейкове и синтетични медии застрашава доверието на обществото в източниците на информация.
Докато организациите бързат да внедрят генеративния ИИ, експертите препоръчват въвеждането на солидни рамки за управление на данните, включително минимизиране на данните, криптиране, контрол на достъпа и редовни одити на сигурността. Без адекватни мерки за защита технологията, която обещава безпрецедентни производствени печалби, може едновременно да изложи на значителни рискове както отделните хора, така и организациите.
С прогнозата на Gartner, че до 2025 г. генеративният ИИ ще бъде източник на 10% от всички създавани данни (при по-малко от 1% днес), необходимостта от справяне с тези предизвикателства никога не е била по-належаща.