Meta, compania-mamă a Facebook, Instagram și WhatsApp, accelerează planurile de automatizare a moderării conținutului pe platformele sale, eliminând treptat mii de posturi de securitate a conținutului ocupate de oameni în favoarea sistemelor AI.
Potrivit unor documente interne, Meta intenționează să automatizeze până la 90% din procesele de revizuire a confidențialității și integrității, reducând dramatic dependența de moderatori umani. Raportul trimestrial privind integritatea al companiei menționează că modelele sale lingvistice de mari dimensiuni „funcționează deja peste nivelul performanței umane pentru anumite politici”, permițând AI-ului să filtreze conținutul despre care compania este „foarte încrezătoare” că nu încalcă regulile platformei.
Meta consideră că această tranziție va optimiza costurile și va permite platformelor sale să proceseze un volum mai mare de conținut cu o viteză și o consistență sporite. Compania a crescut treptat utilizarea AI pentru filtrarea conținutului în ultimii ani, însă această nouă etapă marchează o accelerare semnificativă a strategiei.
Criticii susțin însă că, deși AI poate crește eficiența, îi lipsește judecata umană necesară pentru deciziile complexe de moderare. Sarah Roberts, profesoară la UCLA și directoare a Centrului pentru Studiul Critic al Internetului, și-a exprimat îngrijorarea că sistemele AI sunt „pline de prejudecăți și predispuse la erori”. Cazurile care implică discursul instigator la ură, dezinformarea sau sensibilitățile culturale necesită adesea o înțelegere contextuală, pe care AI-ul încă nu o poate oferi pe deplin.
Această schimbare ridică și întrebări etice legate de muncă, transparență și responsabilitatea corporativă. Moderatorii de conținut au semnalat de mult timp probleme legate de condițiile de muncă, însă rolul lor este considerat esențial pentru siguranța platformelor. Înlocuirea lor cu AI ar putea eroda încrederea publicului, mai ales dacă erorile de moderare nu sunt corectate.
Tranziția are loc pe fondul unor schimbări mai ample ale politicilor de conținut ale Meta, inclusiv înlocuirea verificatorilor independenți de fapte cu un model bazat pe comunitate și relaxarea restricțiilor asupra anumitor tipuri de discurs. Pe măsură ce autoritățile de reglementare din Europa și SUA analizează tot mai atent modul în care platformele gestionează conținutul dăunător, abordarea Meta bazată pe AI va fi supusă unor teste importante privind echilibrul dintre eficiență și responsabilitate.