Meta, Facebookin, Instagramin ja WhatsAppin emoyhtiö, vauhdittaa suunnitelmiaan automatisoida sisällön moderointi alustoillaan ja korvaa tuhansia ihmisiä sisällönturvallisuustehtävissä tekoälyjärjestelmillä.
Yhtiön sisäisten asiakirjojen mukaan Meta aikoo automatisoida jopa 90 % yksityisyys- ja eheysarvioinneistaan, mikä vähentää merkittävästi riippuvuutta ihmismoderoinnista. Yhtiön neljännesvuosittaisessa eheysraportissa todetaan, että sen suuret kielimallit "toimivat jo tietyillä politiikka-alueilla ihmisen suorituskyvyn yläpuolella", mikä mahdollistaa tekoälyn seulovan sisällön, jonka yhtiö on "erittäin varma" olevan sääntöjen mukaista.
Meta uskoo, että tämä siirtymä tehostaa kustannuksia ja mahdollistaa suuremman sisältömäärän käsittelyn nopeammin ja johdonmukaisemmin. Yhtiö on jo useiden vuosien ajan lisännyt tekoälyn käyttöä sisällön suodatuksessa, mutta tämä viimeisin askel on merkittävä strategian vauhdittaminen.
Kriitikot kuitenkin huomauttavat, että vaikka tekoäly voi parantaa tehokkuutta, siltä puuttuu ihmisen harkintakyky monimutkaisissa moderointitilanteissa. UCLA:n professori ja Center for Critical Internet Inquiry -keskuksen johtaja Sarah Roberts ilmaisi huolensa siitä, että tekoälyjärjestelmät ovat "täynnä ennakkoluuloja ja alttiita virheille". Tapaukset, jotka liittyvät vihapuheeseen, väärään tietoon tai kulttuuriseen herkkyyteen, vaativat usein kontekstin ymmärrystä, jossa tekoäly yhä kamppailee.
Muutoksessa herää myös eettisiä kysymyksiä työstä, läpinäkyvyydestä ja yritysvastuusta. Sisällönmoderoijat ovat pitkään nostaneet esiin huolia työoloistaan, mutta heidän rooliaan pidetään keskeisenä alustojen turvallisuuden ylläpitämisessä. Heidän korvaamisensa tekoälyllä voi heikentää yleisön luottamusta, etenkin jos moderointivirheitä ei korjata.
Tämä siirtymä tapahtuu samaan aikaan, kun Meta muuttaa laajemmin sisältöpolitiikkaansa, mukaan lukien kolmansien osapuolten faktantarkistajien korvaaminen yhteisölähtöisellä mallilla sekä tiettyjen puhetyyppien rajoitusten höllentäminen. Kun sääntelyviranomaiset Euroopassa ja Yhdysvalloissa tarkkailevat yhä tiukemmin, miten alustat hallitsevat haitallista sisältöä, Metan tekoälypohjainen lähestymistapa joutuu merkittävään testiin tehokkuuden ja vastuullisuuden tasapainottamisessa.