По мере стремительного развития генеративных ИИ-технологий в 2025 году на первый план общественной дискуссии выходят три ключевые проблемы: сохранение рабочих мест, защита персональных данных и кибербезопасность.
Что касается занятости, последние исследования дают неоднозначную картину. Согласно исследованию McKinsey, к 2030 году автоматизации могут подвергнуться процессы, составляющие до 30% рабочих часов в экономике США — этот тренд ускоряется благодаря генеративному ИИ. Наибольшему риску вытеснения подвергаются офисные работники, специалисты по обслуживанию клиентов и сотрудники сферы общественного питания. Однако, вопреки апокалиптическим прогнозам, недавнее датское исследование, охватившее 11 профессий и 25 000 работников, показало, что такие инструменты, как ChatGPT, пока оказывают минимальное влияние на уровень занятости и заработную плату: пользователи отмечают экономию лишь 2,8% рабочего времени.
Вопросы конфиденциальности обостряются по мере того, как генеративные ИИ-системы обрабатывают огромные объемы персональных данных. Эксперты по безопасности IBM предупреждают, что такие системы могут непреднамеренно запоминать и воспроизводить чувствительную информацию из обучающих выборок, что специалисты называют «утечкой модели». Согласно исследованию Cisco Data Privacy Benchmark 2024 года, несмотря на то что 79% компаний уже получают значительную выгоду от генеративного ИИ, только половина пользователей воздерживается от ввода личной или конфиденциальной информации в эти инструменты, что создает серьезные риски для конфиденциальности.
Уязвимости в сфере безопасности становятся третьей ключевой проблемой. Государственные отчеты прогнозируют, что к 2025 году генеративный ИИ, скорее всего, усилит уже существующие угрозы, а не создаст принципиально новые, однако скорость и масштаб атак значительно возрастут. Британское правительство недавно предупредило, что генеративный ИИ позволяет проводить более быстрые и эффективные кибератаки с помощью таргетированных фишинговых рассылок и автоматизированного распространения вредоносного ПО. Кроме того, способность ИИ создавать убедительные дипфейки и синтетические медиа подрывает доверие общества к источникам информации.
В условиях стремительного внедрения генеративного ИИ эксперты рекомендуют организациям внедрять надежные системы управления данными, включая минимизацию объема собираемых данных, шифрование, контроль доступа и регулярные аудиты безопасности. Без соответствующих мер предосторожности технология, обещающая беспрецедентный рост производительности, может одновременно подвергнуть людей и организации значительным рискам.
С учетом прогноза Gartner, согласно которому к 2025 году на генеративный ИИ будет приходиться 10% всех создаваемых данных (по сравнению с менее чем 1% сегодня), необходимость решения этих проблем становится как никогда острой.