menu
close

Meta заменяет тысячи модераторов-людей системами искусственного интеллекта

Meta проводит масштабную реструктуризацию своей стратегии модерации контента, заменяя значительную часть сотрудников по доверию и безопасности инструментами искусственного интеллекта. Компания считает, что её продвинутые ИИ-модели теперь способны модерировать контент с большей скоростью и последовательностью в текстовых, графических и видеоформатах. Этот переход стал одной из крупнейших замен человеческого труда на ИИ в технологической индустрии, вызывая серьёзные вопросы о балансе между технологической эффективностью и человеческим суждением.
Meta заменяет тысячи модераторов-людей системами искусственного интеллекта

Meta, материнская компания Facebook, Instagram и WhatsApp, активно реализует планы по автоматизации модерации контента на своих платформах, постепенно сокращая тысячи позиций специалистов по безопасности контента в пользу систем искусственного интеллекта.

Согласно внутренним документам компании, Meta намерена автоматизировать до 90% проверок на конфиденциальность и целостность, значительно снизив зависимость от человеческих модераторов. В квартальном отчёте по целостности отмечается, что крупные языковые модели компании уже «работают на уровне, превосходящем человеческие показатели в отдельных областях политики», что позволяет ИИ фильтровать контент, в котором компания «высоко уверена» в отсутствии нарушений правил платформы.

Meta полагает, что этот переход позволит оптимизировать издержки и обеспечит обработку большего объёма контента с большей скоростью и последовательностью. Компания на протяжении нескольких лет постепенно увеличивала использование ИИ для фильтрации контента, однако нынешний этап стал значительным ускорением этой стратегии.

Критики, однако, утверждают, что, несмотря на повышение эффективности, ИИ лишён человеческого суждения, необходимого для сложных решений в модерации. Сара Робертс, профессор UCLA и директор Центра критических интернет-исследований, выразила обеспокоенность тем, что системы ИИ «переполнены предвзятостями и склонны к ошибкам». Случаи, связанные с языком вражды, дезинформацией или культурной чувствительностью, часто требуют контекстуального понимания, с которым ИИ до сих пор справляется с трудом.

Переход также поднимает этические вопросы, связанные с трудом, прозрачностью и корпоративной ответственностью. Модераторы контента давно выражают обеспокоенность условиями труда, однако их роль считается ключевой для обеспечения безопасности платформ. Замена их ИИ может подорвать общественное доверие, особенно если ошибки модерации останутся без внимания.

Этот переход происходит на фоне более широких изменений в политике Meta по контенту, включая замену сторонних фактчекеров на модель, основанную на сообществе, и смягчение ограничений на определённые виды высказываний. По мере того как регуляторы в Европе и США всё пристальнее следят за тем, как платформы управляют вредоносным контентом, подход Meta, основанный на ИИ, столкнётся с серьёзными испытаниями в поиске баланса между эффективностью и ответственностью.

Source:

Latest News