menu
close

Meta nahrazuje tisíce lidských moderátorů systémy umělé inteligence

Společnost Meta zavádí zásadní restrukturalizaci své strategie moderování obsahu a nahrazuje významnou část svého týmu pro důvěru a bezpečnost nástroji umělé inteligence. Firma věří, že její pokročilé AI modely nyní zvládnou moderování obsahu s vyšší rychlostí a konzistencí napříč textem, obrázky i videem. Tento přechod představuje jeden z největších přesunů pracovních sil od lidí k AI v technologickém průmyslu a vyvolává zásadní otázky ohledně rovnováhy mezi technologickou efektivitou a lidským úsudkem.
Meta nahrazuje tisíce lidských moderátorů systémy umělé inteligence

Meta, mateřská společnost Facebooku, Instagramu a WhatsAppu, razantně prosazuje plány na automatizaci moderování obsahu na svých platformách a postupně ruší tisíce lidských pozic v oblasti bezpečnosti obsahu ve prospěch systémů umělé inteligence.

Podle interních firemních dokumentů má Meta v úmyslu automatizovat až 90 % svých kontrol soukromí a integrity, což dramaticky sníží závislost na lidských moderátorech. Ve své čtvrtletní zprávě o integritě společnost uvádí, že její rozsáhlé jazykové modely nyní „překonávají lidský výkon v některých oblastech politiky“, což umožňuje AI filtrovat obsah, u kterého je firma „vysoce přesvědčena“, že neporušuje pravidla platformy.

Meta věří, že tento přechod optimalizuje náklady a zároveň umožní jejím platformám zpracovávat větší objem obsahu s vyšší rychlostí a konzistencí. Společnost v posledních letech postupně zvyšovala využití AI pro filtrování obsahu, ale tento nejnovější krok představuje výrazné zrychlení této strategie.

Kritici však tvrdí, že ačkoli AI může zvýšit efektivitu, postrádá lidský úsudek potřebný pro složitá rozhodnutí v moderování. Sarah Robertsová, profesorka na UCLA a ředitelka Centra pro kritické zkoumání internetu, vyjádřila obavy, že AI systémy jsou „plné předsudků a náchylné k chybám“. Případy zahrnující nenávistné projevy, dezinformace nebo kulturní citlivost často vyžadují kontextuální porozumění, které AI stále nedokáže plně poskytnout.

Tento posun také vyvolává etické otázky týkající se práce, transparentnosti a firemní odpovědnosti. Moderátoři obsahu dlouhodobě upozorňují na pracovní podmínky, jejich role je však považována za klíčovou pro udržení bezpečnosti platformy. Jejich nahrazení AI může podkopat důvěru veřejnosti, zejména pokud zůstanou chyby v moderování nevyřešeny.

Tato změna přichází v době širších úprav obsahových politik Metay, včetně nahrazení externích ověřovatelů faktů komunitním modelem a uvolnění omezení na určité typy projevů. Vzhledem k tomu, že regulátoři v Evropě i USA stále více zkoumají, jak platformy nakládají se škodlivým obsahem, bude muset Meta ve svém AI přístupu prokázat, že dokáže vyvážit efektivitu s odpovědností.

Source:

Latest News