Meta, материнская компания Facebook, Instagram и WhatsApp, активно реализует планы по автоматизации модерации контента на своих платформах, постепенно сокращая тысячи позиций специалистов по безопасности контента в пользу систем искусственного интеллекта.
Согласно внутренним документам компании, Meta намерена автоматизировать до 90% проверок на конфиденциальность и целостность, значительно снизив зависимость от человеческих модераторов. В квартальном отчёте по целостности отмечается, что крупные языковые модели компании уже «работают на уровне, превосходящем человеческие показатели в отдельных областях политики», что позволяет ИИ фильтровать контент, в котором компания «высоко уверена» в отсутствии нарушений правил платформы.
Meta полагает, что этот переход позволит оптимизировать издержки и обеспечит обработку большего объёма контента с большей скоростью и последовательностью. Компания на протяжении нескольких лет постепенно увеличивала использование ИИ для фильтрации контента, однако нынешний этап стал значительным ускорением этой стратегии.
Критики, однако, утверждают, что, несмотря на повышение эффективности, ИИ лишён человеческого суждения, необходимого для сложных решений в модерации. Сара Робертс, профессор UCLA и директор Центра критических интернет-исследований, выразила обеспокоенность тем, что системы ИИ «переполнены предвзятостями и склонны к ошибкам». Случаи, связанные с языком вражды, дезинформацией или культурной чувствительностью, часто требуют контекстуального понимания, с которым ИИ до сих пор справляется с трудом.
Переход также поднимает этические вопросы, связанные с трудом, прозрачностью и корпоративной ответственностью. Модераторы контента давно выражают обеспокоенность условиями труда, однако их роль считается ключевой для обеспечения безопасности платформ. Замена их ИИ может подорвать общественное доверие, особенно если ошибки модерации останутся без внимания.
Этот переход происходит на фоне более широких изменений в политике Meta по контенту, включая замену сторонних фактчекеров на модель, основанную на сообществе, и смягчение ограничений на определённые виды высказываний. По мере того как регуляторы в Европе и США всё пристальнее следят за тем, как платформы управляют вредоносным контентом, подход Meta, основанный на ИИ, столкнётся с серьёзными испытаниями в поиске баланса между эффективностью и ответственностью.