Meta, moderbolaget bakom Facebook, Instagram och WhatsApp, driver nu på för att automatisera innehållsmodereringen på sina plattformar och fasar ut tusentals mänskliga roller inom innehållssäkerhet till förmån för AI-system.
Enligt interna företagsdokument planerar Meta att automatisera upp till 90 procent av sina granskningar av integritet och säkerhet, vilket kraftigt minskar beroendet av mänskliga moderatorer. I företagets kvartalsvisa integritetsrapport anges att dess stora språkmodeller nu "presterar bättre än människor inom utvalda policyområden", vilket gör det möjligt för AI att granska innehåll som företaget är "mycket säkra" på inte bryter mot plattformens regler.
Meta menar att denna övergång kommer att optimera kostnaderna och samtidigt göra det möjligt för plattformarna att hantera större mängder innehåll med högre hastighet och konsekvens. Företaget har successivt ökat användningen av AI för innehållsfiltrering under flera år, men denna senaste satsning markerar en betydande acceleration av strategin.
Kritiker menar dock att även om AI kan öka effektiviteten, saknar tekniken det mänskliga omdöme som krävs för komplexa modereringsbeslut. Sarah Roberts, professor vid UCLA och chef för Center for Critical Internet Inquiry, uttrycker oro över att AI-system är "fulla av fördomar och benägna att göra fel". Fall som rör hatpropaganda, desinformation eller kulturell känslighet kräver ofta kontextuell förståelse, något som AI fortfarande har svårt att leverera.
Skiftet väcker också etiska frågor kring arbetsvillkor, transparens och företagsansvar. Innehållsmoderatorer har länge lyft fram oro över arbetsmiljön, men deras roll anses vara avgörande för att upprätthålla säkerheten på plattformarna. Att ersätta dem med AI kan urholka allmänhetens förtroende, särskilt om modereringsfel inte åtgärdas.
Denna förändring sker samtidigt som Meta genomför bredare ändringar i sina innehållspolicys, däribland att ersätta tredjepartsfaktagranskare med en modell som drivs av användargemenskapen och att lätta på restriktionerna för vissa typer av yttranden. I takt med att tillsynsmyndigheter i Europa och USA granskar hur plattformar hanterar skadligt innehåll, kommer Metas AI-drivna strategi att ställas inför stora utmaningar när det gäller att balansera effektivitet med ansvarstagande.