Meta, материнська компанія Facebook, Instagram та WhatsApp, активно просуває плани автоматизації модерації контенту на своїх платформах, поступово скорочуючи тисячі посад фахівців із безпеки контенту на користь систем штучного інтелекту.
Згідно з внутрішніми документами компанії, Meta має намір автоматизувати до 90% перевірок на конфіденційність та цілісність, суттєво зменшуючи залежність від людських модераторів. У квартальному звіті з питань цілісності компанія зазначає, що її великі мовні моделі вже "працюють на рівні, що перевищує людські можливості у вибраних політиках", дозволяючи ШІ відсівати контент, у якому компанія "впевнена, що він не порушує правила платформи".
Meta вважає, що цей перехід дозволить оптимізувати витрати та забезпечити обробку більшого обсягу контенту з більшою швидкістю та послідовністю. Компанія поступово збільшувала використання ШІ для фільтрації контенту протягом кількох років, але нинішній етап є суттєвим прискоренням цієї стратегії.
Втім, критики стверджують, що хоча ШІ може підвищити ефективність, йому бракує людського судження, необхідного для складних рішень з модерації. Сара Робертс, професорка UCLA та директорка Центру критичних досліджень інтернету, висловила занепокоєння, що системи ШІ "переповнені упередженнями та схильні до помилок". Випадки, пов’язані з мовою ворожнечі, дезінформацією чи культурною чутливістю, часто вимагають контекстуального розуміння, з яким ШІ досі має труднощі.
Цей перехід також піднімає етичні питання щодо праці, прозорості та корпоративної відповідальності. Модератори контенту давно висловлюють занепокоєння щодо умов праці, але їхню роль вважають ключовою для підтримки безпеки платформи. Їхня заміна на ШІ може підірвати довіру суспільства, особливо якщо помилки модерації залишатимуться невиправленими.
Перехід до автоматизації відбувається на тлі ширших змін у політиках Meta щодо контенту, зокрема заміни сторонніх фактчекерів на модель, керовану спільнотою, та послаблення обмежень на певні типи висловлювань. Оскільки регулятори в Європі та США дедалі уважніше стежать за тим, як платформи управляють шкідливим контентом, підхід Meta, що базується на ШІ, проходитиме серйозні випробування на баланс між ефективністю та відповідальністю.