Meta, la società madre di Facebook, Instagram e WhatsApp, sta portando avanti con decisione i piani per automatizzare la moderazione dei contenuti sulle proprie piattaforme, eliminando gradualmente migliaia di ruoli umani dedicati alla sicurezza dei contenuti a favore di sistemi di intelligenza artificiale.
Secondo documenti interni all’azienda, Meta intende automatizzare fino al 90% delle revisioni relative a privacy e integrità, riducendo drasticamente la dipendenza dai moderatori umani. Il rapporto trimestrale sull’integrità dell’azienda afferma che i suoi modelli linguistici di grandi dimensioni stanno ora "operando oltre le capacità umane in alcune aree di policy", consentendo all’IA di filtrare contenuti per i quali l’azienda è "altamente fiduciosa" che non violino le regole della piattaforma.
Meta ritiene che questa transizione ottimizzerà i costi, permettendo alle sue piattaforme di gestire un volume maggiore di contenuti con maggiore velocità e coerenza. L’azienda ha progressivamente aumentato l’uso dell’IA per il filtraggio dei contenuti negli ultimi anni, ma questa nuova spinta rappresenta un’accelerazione significativa di tale strategia.
I critici, tuttavia, sostengono che, sebbene l’IA possa aumentare l’efficienza, le manca il giudizio umano necessario per le decisioni di moderazione più complesse. Sarah Roberts, professoressa alla UCLA e direttrice del Center for Critical Internet Inquiry, ha espresso preoccupazione affermando che i sistemi di IA sono "pieni di bias e soggetti a errori". I casi che coinvolgono discorsi d’odio, disinformazione o sensibilità culturale spesso richiedono una comprensione contestuale che l’IA fatica ancora a fornire.
Il cambiamento solleva anche questioni etiche legate al lavoro, alla trasparenza e alla responsabilità aziendale. I moderatori di contenuti hanno a lungo sollevato preoccupazioni sulle condizioni lavorative, ma il loro ruolo è considerato fondamentale per la sicurezza delle piattaforme. Sostituirli con l’IA potrebbe minare la fiducia del pubblico, soprattutto se gli errori di moderazione non vengono affrontati.
Questa transizione avviene in un contesto di cambiamenti più ampi nelle policy di Meta sui contenuti, tra cui la sostituzione dei fact-checker di terze parti con un modello guidato dalla comunità e l’allentamento delle restrizioni su alcune tipologie di discorso. Mentre i regolatori europei e statunitensi intensificano il controllo su come le piattaforme gestiscono i contenuti dannosi, l’approccio guidato dall’IA di Meta dovrà affrontare prove significative nel bilanciare efficienza e responsabilità.