Meta, het moederbedrijf van Facebook, Instagram en WhatsApp, zet stevig in op het automatiseren van contentmoderatie op zijn platforms en schaalt duizenden menselijke contentbeveiligingsfuncties af ten gunste van AI-systemen.
Volgens interne bedrijfsdocumenten is Meta van plan om tot 90% van zijn privacy- en integriteitscontroles te automatiseren, waardoor de afhankelijkheid van menselijke moderators drastisch wordt verminderd. In het kwartaalrapport over integriteit stelt het bedrijf dat zijn grote taalmodellen nu "presteren boven het niveau van menselijke prestaties voor bepaalde beleidsgebieden", waardoor AI content kan screenen waarvan het bedrijf "zeer zeker" is dat deze niet in strijd is met de platformregels.
Meta is ervan overtuigd dat deze overgang de kosten zal optimaliseren en de platforms in staat stelt om een groter volume aan content sneller en consistenter te verwerken. Het bedrijf gebruikt al enkele jaren steeds meer AI voor contentfiltering, maar deze nieuwste stap betekent een aanzienlijke versnelling van die strategie.
Critici stellen echter dat AI weliswaar de efficiëntie kan verhogen, maar het menselijke beoordelingsvermogen mist dat nodig is voor complexe moderatiebeslissingen. Sarah Roberts, hoogleraar aan UCLA en directeur van het Center for Critical Internet Inquiry, uitte haar zorgen dat AI-systemen "vol zitten met vooroordelen en vatbaar zijn voor fouten". Zaken als haatzaaien, desinformatie of culturele gevoeligheid vereisen vaak contextueel begrip, iets waar AI nog steeds moeite mee heeft.
De verschuiving roept ook ethische vragen op rond arbeid, transparantie en bedrijfsverantwoordelijkheid. Contentmoderators hebben al langer zorgen geuit over hun werkomstandigheden, maar hun rol wordt gezien als cruciaal voor de veiligheid op het platform. Door hen te vervangen door AI kan het publieke vertrouwen worden aangetast, zeker als moderatiefouten niet worden gecorrigeerd.
Deze overgang vindt plaats te midden van bredere veranderingen in Meta’s contentbeleid, waaronder het vervangen van externe factcheckers door een door de gemeenschap gestuurd model en het versoepelen van beperkingen op bepaalde vormen van uitingen. Nu toezichthouders in Europa en de VS steeds kritischer kijken naar hoe platforms omgaan met schadelijke content, zal Meta’s AI-gestuurde benadering op de proef worden gesteld in het vinden van een balans tussen efficiëntie en verantwoordelijkheid.