menu
close

Meta înlocuiește mii de moderatori umani cu sisteme de inteligență artificială

Meta implementează o restructurare majoră a strategiei sale de moderare a conținutului, înlocuind o parte semnificativă a personalului uman responsabil de încredere și siguranță cu instrumente bazate pe inteligență artificială. Compania consideră că modelele sale avansate de AI pot gestiona acum moderarea conținutului cu o viteză și o consistență îmbunătățite, atât pentru text, cât și pentru imagini și video. Această tranziție reprezintă una dintre cele mai ample treceri de la operațiuni umane la cele bazate pe AI din industria tehnologică, ridicând întrebări esențiale despre echilibrul dintre eficiența tehnologică și judecata umană.
Meta înlocuiește mii de moderatori umani cu sisteme de inteligență artificială

Meta, compania-mamă a Facebook, Instagram și WhatsApp, accelerează planurile de automatizare a moderării conținutului pe platformele sale, eliminând treptat mii de posturi de securitate a conținutului ocupate de oameni în favoarea sistemelor AI.

Potrivit unor documente interne, Meta intenționează să automatizeze până la 90% din procesele de revizuire a confidențialității și integrității, reducând dramatic dependența de moderatori umani. Raportul trimestrial privind integritatea al companiei menționează că modelele sale lingvistice de mari dimensiuni „funcționează deja peste nivelul performanței umane pentru anumite politici”, permițând AI-ului să filtreze conținutul despre care compania este „foarte încrezătoare” că nu încalcă regulile platformei.

Meta consideră că această tranziție va optimiza costurile și va permite platformelor sale să proceseze un volum mai mare de conținut cu o viteză și o consistență sporite. Compania a crescut treptat utilizarea AI pentru filtrarea conținutului în ultimii ani, însă această nouă etapă marchează o accelerare semnificativă a strategiei.

Criticii susțin însă că, deși AI poate crește eficiența, îi lipsește judecata umană necesară pentru deciziile complexe de moderare. Sarah Roberts, profesoară la UCLA și directoare a Centrului pentru Studiul Critic al Internetului, și-a exprimat îngrijorarea că sistemele AI sunt „pline de prejudecăți și predispuse la erori”. Cazurile care implică discursul instigator la ură, dezinformarea sau sensibilitățile culturale necesită adesea o înțelegere contextuală, pe care AI-ul încă nu o poate oferi pe deplin.

Această schimbare ridică și întrebări etice legate de muncă, transparență și responsabilitatea corporativă. Moderatorii de conținut au semnalat de mult timp probleme legate de condițiile de muncă, însă rolul lor este considerat esențial pentru siguranța platformelor. Înlocuirea lor cu AI ar putea eroda încrederea publicului, mai ales dacă erorile de moderare nu sunt corectate.

Tranziția are loc pe fondul unor schimbări mai ample ale politicilor de conținut ale Meta, inclusiv înlocuirea verificatorilor independenți de fapte cu un model bazat pe comunitate și relaxarea restricțiilor asupra anumitor tipuri de discurs. Pe măsură ce autoritățile de reglementare din Europa și SUA analizează tot mai atent modul în care platformele gestionează conținutul dăunător, abordarea Meta bazată pe AI va fi supusă unor teste importante privind echilibrul dintre eficiență și responsabilitate.

Source:

Latest News