menu
close

Meta Sostituisce Migliaia di Moderatori Umani con Sistemi di Intelligenza Artificiale

Meta sta attuando una profonda ristrutturazione della propria strategia di moderazione dei contenuti, sostituendo una parte significativa del personale umano dedicato alla sicurezza e fiducia con strumenti di intelligenza artificiale. L’azienda ritiene che i suoi modelli avanzati di IA siano ora in grado di gestire la moderazione dei contenuti con maggiore rapidità e coerenza su testi, immagini e video. Questa transizione rappresenta uno dei più grandi passaggi dalla forza lavoro umana a operazioni basate su IA nell’industria tecnologica, sollevando interrogativi cruciali sull’equilibrio tra efficienza tecnologica e giudizio umano.
Meta Sostituisce Migliaia di Moderatori Umani con Sistemi di Intelligenza Artificiale

Meta, la società madre di Facebook, Instagram e WhatsApp, sta portando avanti con decisione i piani per automatizzare la moderazione dei contenuti sulle proprie piattaforme, eliminando gradualmente migliaia di ruoli umani dedicati alla sicurezza dei contenuti a favore di sistemi di intelligenza artificiale.

Secondo documenti interni all’azienda, Meta intende automatizzare fino al 90% delle revisioni relative a privacy e integrità, riducendo drasticamente la dipendenza dai moderatori umani. Il rapporto trimestrale sull’integrità dell’azienda afferma che i suoi modelli linguistici di grandi dimensioni stanno ora "operando oltre le capacità umane in alcune aree di policy", consentendo all’IA di filtrare contenuti per i quali l’azienda è "altamente fiduciosa" che non violino le regole della piattaforma.

Meta ritiene che questa transizione ottimizzerà i costi, permettendo alle sue piattaforme di gestire un volume maggiore di contenuti con maggiore velocità e coerenza. L’azienda ha progressivamente aumentato l’uso dell’IA per il filtraggio dei contenuti negli ultimi anni, ma questa nuova spinta rappresenta un’accelerazione significativa di tale strategia.

I critici, tuttavia, sostengono che, sebbene l’IA possa aumentare l’efficienza, le manca il giudizio umano necessario per le decisioni di moderazione più complesse. Sarah Roberts, professoressa alla UCLA e direttrice del Center for Critical Internet Inquiry, ha espresso preoccupazione affermando che i sistemi di IA sono "pieni di bias e soggetti a errori". I casi che coinvolgono discorsi d’odio, disinformazione o sensibilità culturale spesso richiedono una comprensione contestuale che l’IA fatica ancora a fornire.

Il cambiamento solleva anche questioni etiche legate al lavoro, alla trasparenza e alla responsabilità aziendale. I moderatori di contenuti hanno a lungo sollevato preoccupazioni sulle condizioni lavorative, ma il loro ruolo è considerato fondamentale per la sicurezza delle piattaforme. Sostituirli con l’IA potrebbe minare la fiducia del pubblico, soprattutto se gli errori di moderazione non vengono affrontati.

Questa transizione avviene in un contesto di cambiamenti più ampi nelle policy di Meta sui contenuti, tra cui la sostituzione dei fact-checker di terze parti con un modello guidato dalla comunità e l’allentamento delle restrizioni su alcune tipologie di discorso. Mentre i regolatori europei e statunitensi intensificano il controllo su come le piattaforme gestiscono i contenuti dannosi, l’approccio guidato dall’IA di Meta dovrà affrontare prove significative nel bilanciare efficienza e responsabilità.

Source:

Latest News