Ang Meta, ang parent company ng Facebook, Instagram, at WhatsApp, ay agresibong isinusulong ang plano nitong gawing awtomatiko ang pagmo-moderate ng nilalaman sa lahat ng kanilang mga platform, unti-unting tinatanggal ang libu-libong human content security roles kapalit ng mga AI system.
Ayon sa mga internal na dokumento ng kompanya, layunin ng Meta na gawing awtomatiko ang hanggang 90% ng kanilang privacy at integrity reviews, na magreresulta sa malaking pagbawas ng pagdepende sa mga human moderator. Nakasaad sa quarterly integrity report ng kompanya na ang kanilang malalaking language model ay "lumalampas na sa kakayahan ng tao para sa ilang partikular na polisiya," na nagbibigay-daan sa AI na i-screen ang mga nilalaman na "mataas ang kumpiyansa" ng kompanya na hindi lumalabag sa mga patakaran ng platform.
Naniniwala ang Meta na ang transisyong ito ay mag-o-optimize ng gastos habang pinapabilis at pinapabuti ang konsistensya ng pagproseso ng mas malaking volume ng nilalaman sa kanilang mga platform. Ilang taon nang dahan-dahang pinapataas ng kompanya ang paggamit ng AI para sa content filtering, ngunit ang pinakabagong hakbang na ito ay isang malaking pagpapabilis ng estratehiyang iyon.
Gayunpaman, ayon sa mga kritiko, bagamat kayang pataasin ng AI ang episyensya, kulang pa rin ito sa human judgment na kinakailangan para sa masalimuot na mga desisyon sa moderation. Ipinahayag ni Sarah Roberts, isang propesor sa UCLA at Direktor ng Center for Critical Internet Inquiry, ang pag-aalala na ang mga AI system ay "punong-puno ng bias at madaling magkamali." Ang mga kasong may kinalaman sa hate speech, maling impormasyon, o sensitibidad sa kultura ay madalas nangangailangan ng mas malalim na konteksto, na hirap pa ring maibigay ng AI.
Nagbubukas din ang pagbabagong ito ng mga etikal na tanong ukol sa paggawa, transparency, at pananagutan ng mga korporasyon. Matagal nang inirereklamo ng mga content moderator ang kanilang kalagayan sa trabaho, ngunit itinuturing pa rin silang mahalaga sa pagpapanatili ng kaligtasan sa platform. Ang pagpapalit sa kanila ng AI ay maaaring magdulot ng kawalan ng tiwala ng publiko, lalo na kung hindi matutugunan ang mga pagkakamali sa moderation.
Ang transisyong ito ay kasabay ng mas malawak na pagbabago sa mga polisiya ng nilalaman ng Meta, kabilang ang pagpapalit ng mga third-party fact-checker ng isang community-driven na modelo at ang pagpapaluwag ng ilang restriksyon sa ilang uri ng pananalita. Habang mas mahigpit na sinusuri ng mga regulator sa Europa at US kung paano pinamamahalaan ng mga platform ang mapanirang nilalaman, haharapin ng AI-driven na diskarte ng Meta ang mahahalagang pagsubok sa pagbabalansi ng episyensya at responsibilidad.