menu
close

Тройната заплаха на генеративния ИИ: Рискове за работните места, поверителността и сигурността

Бързото навлизане на генеративните ИИ технологии предизвика широко разпространени опасения относно загубата на работни места, пробиви в личните данни и уязвимости в сигурността. Последни проучвания показват, че макар ИИ да повишава производителността в определени сектори, до 2030 г. може да автоматизира до 30% от настоящите работни часове в икономиката на САЩ. Междувременно експерти по поверителност предупреждават за потенциала на ИИ системите да изтичат чувствителна лична информация, като недостатъчните мерки за защита на данните се превръщат в критичен проблем с ускоряването на внедряването.
Тройната заплаха на генеративния ИИ: Рискове за работните места, поверителността и сигурността

С продължаващия метеоритен възход на генеративните ИИ технологии през 2025 г., три основни опасения излизат на преден план в обществения дебат: сигурността на работните места, защитата на личните данни и рисковете за киберсигурността.

По отношение на заетостта, последните изследвания представят противоречива картина. Проучване на McKinsey сочи, че до 2030 г. дейности, които в момента заемат до 30% от работните часове в икономиката на САЩ, могат да бъдат автоматизирани — тенденция, ускорена от генеративния ИИ. Най-застрашени от изместване са позициите в офис поддръжката, обслужването на клиенти и хранителните услуги. Въпреки това, в разрез с апокалиптичните прогнози, скорошно датско изследване на 11 професии сред 25 000 работници установява, че инструменти като ChatGPT засега имат минимално въздействие върху заплатите и нивата на заетост, като потребителите отчитат средно спестяване на едва 2,8% от работното време.

Опасенията за поверителността се засилват, тъй като генеративните ИИ системи обработват огромни обеми лични данни. Експерти по сигурността от IBM предупреждават, че тези системи могат неволно да запомнят и възпроизвеждат чувствителна информация от обучителните си данни — явление, познато като "изтичане на модела". Според изследването Data Privacy Benchmark 2024 на Cisco, докато 79% от бизнеса вече извлича значителна стойност от генеративния ИИ, само половината от потребителите се въздържат да въвеждат лична или поверителна информация в тези инструменти, което създава сериозни рискове за поверителността.

Уязвимостите в сигурността представляват третото основно притеснение. Оценки на правителствени агенции прогнозират, че до 2025 г. генеративният ИИ по-скоро ще засили съществуващите рискове за сигурността, отколкото да създаде изцяло нови, но ще увеличи драстично скоростта и мащаба на заплахите. Британското правителство наскоро предупреди, че генеративният ИИ може да улесни по-бързи и ефективни кибернашествия чрез персонализирани фишинг атаки и репликация на зловреден софтуер. Освен това способността на ИИ да създава убедителни дийпфейкове и синтетични медии застрашава доверието на обществото в източниците на информация.

Докато организациите бързат да внедрят генеративния ИИ, експертите препоръчват въвеждането на солидни рамки за управление на данните, включително минимизиране на данните, криптиране, контрол на достъпа и редовни одити на сигурността. Без адекватни мерки за защита технологията, която обещава безпрецедентни производствени печалби, може едновременно да изложи на значителни рискове както отделните хора, така и организациите.

С прогнозата на Gartner, че до 2025 г. генеративният ИИ ще бъде източник на 10% от всички създавани данни (при по-малко от 1% днес), необходимостта от справяне с тези предизвикателства никога не е била по-належаща.

Source: Windows Central

Latest News