Meta, właściciel Facebooka, Instagrama i WhatsAppa, zdecydowanie przyspiesza plany automatyzacji moderacji treści na swoich platformach, stopniowo eliminując tysiące stanowisk związanych z bezpieczeństwem treści na rzecz systemów AI.
Zgodnie z wewnętrznymi dokumentami firmy, Meta zamierza zautomatyzować nawet do 90% przeglądów dotyczących prywatności i integralności, znacząco ograniczając zależność od ludzkich moderatorów. W kwartalnym raporcie dotyczącym integralności firma podkreśla, że jej duże modele językowe "działają już lepiej niż ludzie w wybranych obszarach polityki", co pozwala AI filtrować treści, które według firmy "z dużym prawdopodobieństwem" nie naruszają zasad platformy.
Meta uważa, że ta zmiana zoptymalizuje koszty, a jednocześnie umożliwi obsługę większej ilości treści z większą szybkością i spójnością. Firma od kilku lat stopniowo zwiększa udział AI w filtrowaniu treści, ale obecne działania oznaczają znaczące przyspieszenie tej strategii.
Krytycy jednak twierdzą, że choć AI może zwiększyć efektywność, brakuje jej ludzkiego osądu niezbędnego przy złożonych decyzjach moderacyjnych. Sarah Roberts, profesor UCLA i dyrektorka Center for Critical Internet Inquiry, wyraziła obawy, że systemy AI są "pełne uprzedzeń i podatne na błędy". Przypadki dotyczące mowy nienawiści, dezinformacji czy wrażliwości kulturowej często wymagają kontekstowego zrozumienia, z czym AI wciąż sobie nie radzi.
Zmiana ta rodzi również pytania etyczne dotyczące pracy, przejrzystości i odpowiedzialności korporacyjnej. Moderatorzy treści od lat zgłaszają zastrzeżenia co do warunków pracy, jednak ich rola jest postrzegana jako kluczowa dla bezpieczeństwa platform. Zastąpienie ich AI może osłabić zaufanie publiczne, zwłaszcza jeśli błędy moderacyjne nie zostaną odpowiednio rozwiązane.
Transformacja następuje w kontekście szerszych zmian w politykach Meta dotyczących treści, w tym zastąpienia zewnętrznych fact-checkerów modelem opartym na społeczności oraz złagodzenia ograniczeń dotyczących niektórych typów wypowiedzi. W sytuacji, gdy regulatorzy w Europie i USA coraz uważniej przyglądają się sposobom zarządzania szkodliwymi treściami przez platformy, podejście Meta oparte na AI stanie przed poważnym wyzwaniem pogodzenia wydajności z odpowiedzialnością.