menu
close

Meta заменя хиляди човешки модератори с AI системи

Meta предприема мащабна реорганизация на стратегията си за модериране на съдържание, като заменя значителна част от служителите си по доверие и сигурност с инструменти за изкуствен интелект. Компанията вярва, че усъвършенстваните ѝ AI модели вече могат да се справят с модерирането на съдържание с по-голяма бързина и последователност при текст, изображения и видео. Този преход представлява една от най-големите промени в технологичната индустрия от човешки към AI-базирани операции, повдигайки важни въпроси за баланса между технологична ефективност и човешка преценка.
Meta заменя хиляди човешки модератори с AI системи

Meta, компанията-майка на Facebook, Instagram и WhatsApp, настъпателно реализира плановете си за автоматизиране на модерирането на съдържание във всичките си платформи, като постепенно премахва хиляди човешки позиции, свързани със сигурността на съдържанието, в полза на AI системи.

Според вътрешни документи на компанията, Meta възнамерява да автоматизира до 90% от проверките за поверителност и интегритет, което драстично ще намали зависимостта ѝ от човешки модератори. В тримесечния си доклад за интегритет компанията посочва, че големите ѝ езикови модели вече "работят отвъд човешките възможности в определени области на политиката", позволявайки на AI да филтрира съдържание, за което компанията е "силно уверена", че не нарушава правилата на платформата.

Meta вярва, че този преход ще оптимизира разходите и ще позволи на платформите ѝ да обработват по-голям обем съдържание с по-голяма скорост и последователност. Компанията постепенно увеличава използването на AI за филтриране на съдържание през последните години, но този последен ход представлява значително ускоряване на тази стратегия.

Критиците обаче твърдят, че въпреки че AI може да повиши ефективността, му липсва човешката преценка, необходима за сложни решения при модериране. Сара Робъртс, професор в UCLA и директор на Центъра за критически интернет изследвания, изрази опасения, че AI системите са "препълнени с предразсъдъци и склонни към грешки". Случаите, свързани с език на омразата, дезинформация или културна чувствителност, често изискват контекстуално разбиране, което AI все още трудно предоставя.

Преходът повдига и етични въпроси, свързани с труда, прозрачността и корпоративната отговорност. Модераторите на съдържание отдавна изразяват притеснения относно условията на труд, но ролята им се счита за жизненоважна за сигурността на платформите. Замяната им с AI може да подкопае общественото доверие, особено ако грешките при модериране останат неразрешени.

Този преход идва на фона на по-широки промени в политиките за съдържание на Meta, включително замяна на външни проверители на факти с модел, базиран на общността, и облекчаване на ограниченията за определени видове изказвания. Докато регулаторите в Европа и САЩ все по-строго следят как платформите управляват вредното съдържание, AI-ориентираният подход на Meta ще бъде подложен на сериозни изпитания в търсенето на баланс между ефективност и отговорност.

Source:

Latest News