menu
close

Meta, Binlerce İnsan Moderatörün Yerini Yapay Zekâ Sistemleriyle Değiştiriyor

Meta, içerik denetleme stratejisinde büyük bir yeniden yapılanmaya giderek, güven ve emniyet ekibindeki insan çalışanlarının önemli bir bölümünü yapay zekâ araçlarıyla değiştiriyor. Şirket, gelişmiş yapay zekâ modellerinin artık metin, görsel ve video formatlarında içerik denetimini daha hızlı ve tutarlı şekilde gerçekleştirebileceğine inanıyor. Bu geçiş, teknoloji sektöründe insan gücünden yapay zekâ tabanlı operasyonlara yönelik en büyük işgücü değişimlerinden birini temsil ediyor ve teknolojik verimlilik ile insan yargısı arasındaki dengeye dair kritik soruları gündeme getiriyor.
Meta, Binlerce İnsan Moderatörün Yerini Yapay Zekâ Sistemleriyle Değiştiriyor

Facebook, Instagram ve WhatsApp’ın çatı şirketi olan Meta, platformlarındaki içerik denetimini otomatikleştirme planlarını hızla hayata geçiriyor ve binlerce insan içerik güvenliği görevini yapay zekâ sistemlerine devrediyor.

Şirket içi belgelere göre Meta, gizlilik ve bütünlük incelemelerinin %90’a kadarını otomatikleştirmeyi hedefliyor ve böylece insan moderatörlere olan bağımlılığını büyük ölçüde azaltıyor. Şirketin üç aylık bütünlük raporunda, büyük dil modellerinin artık "belirli politika alanlarında insan performansının ötesinde çalıştığı" belirtiliyor ve böylece şirketin "kuralları ihlal etmediğinden yüksek derecede emin olduğu" içerikleri yapay zekâ ile tarayabileceği ifade ediliyor.

Meta, bu geçişin maliyetleri optimize edeceğine ve platformlarının daha fazla içeriği daha hızlı ve tutarlı bir şekilde işlemesine olanak tanıyacağına inanıyor. Şirket, son birkaç yıldır içerik filtrelemede yapay zekâ kullanımını kademeli olarak artırıyordu; ancak bu son hamle, stratejinin önemli ölçüde hızlandığını gösteriyor.

Eleştirmenler ise, yapay zekânın verimliliği artırabilse de karmaşık denetim kararları için gerekli olan insan yargısından yoksun olduğunu savunuyor. UCLA profesörü ve Kritik İnternet Araştırmaları Merkezi Direktörü Sarah Roberts, yapay zekâ sistemlerinin "önyargılarla dolu ve hatalara açık" olduğuna dikkat çekiyor. Nefret söylemi, yanlış bilgi veya kültürel hassasiyet gerektiren durumlar genellikle bağlamsal anlayış isterken, yapay zekâ hâlâ bu konuda zorlanıyor.

Bu değişim, emek, şeffaflık ve kurumsal hesap verebilirlik gibi etik soruları da gündeme getiriyor. İçerik moderatörleri uzun süredir çalışma koşullarıyla ilgili endişelerini dile getiriyor olsa da, rollerinin platform güvenliği açısından hayati olduğu düşünülüyor. Onların yapay zekâ ile değiştirilmesi, özellikle denetim hataları giderilmezse, kamu güvenini zedeleyebilir.

Bu geçiş, Meta’nın içerik politikalarında daha geniş kapsamlı değişikliklerin yapıldığı bir dönemde gerçekleşiyor. Şirket, üçüncü taraf doğrulayıcıları topluluk odaklı bir modelle değiştiriyor ve bazı konuşma türlerine yönelik kısıtlamaları gevşetiyor. Avrupa ve ABD’de düzenleyiciler platformların zararlı içerikle nasıl başa çıktığını giderek daha fazla mercek altına alırken, Meta’nın yapay zekâ odaklı yaklaşımı verimlilik ile sorumluluk arasındaki dengeyi sağlama konusunda önemli sınavlardan geçecek.

Source:

Latest News