menu
close

Meta Gantikan Ribuan Moderator Manusia dengan Sistem AI

Meta sedang melakukan restrukturisasi besar-besaran dalam strategi moderasi kontennya, dengan menggantikan sebagian besar staf kepercayaan dan keamanan manusianya dengan alat kecerdasan buatan. Perusahaan meyakini model AI canggihnya kini mampu menangani moderasi konten dengan kecepatan dan konsistensi yang lebih baik di berbagai format teks, gambar, dan video. Transisi ini menjadi salah satu pergeseran tenaga kerja terbesar dari manusia ke operasi berbasis AI di industri teknologi, sekaligus memunculkan pertanyaan penting tentang keseimbangan antara efisiensi teknologi dan penilaian manusia.
Meta Gantikan Ribuan Moderator Manusia dengan Sistem AI

Meta, perusahaan induk dari Facebook, Instagram, dan WhatsApp, secara agresif mendorong rencana untuk mengotomatisasi moderasi konten di seluruh platformnya, dengan secara bertahap menghapus ribuan peran keamanan konten manusia demi sistem AI.

Menurut dokumen internal perusahaan, Meta berniat mengotomatisasi hingga 90% tinjauan privasi dan integritasnya, sehingga secara drastis mengurangi ketergantungan pada moderator manusia. Laporan integritas triwulanan perusahaan menyatakan bahwa model bahasa besar mereka kini "beroperasi melampaui kinerja manusia untuk area kebijakan tertentu," memungkinkan AI untuk menyaring konten yang menurut perusahaan "sangat yakin" tidak melanggar aturan platform.

Meta meyakini transisi ini akan mengoptimalkan biaya sekaligus memungkinkan platformnya memproses volume konten yang lebih besar dengan kecepatan dan konsistensi yang lebih tinggi. Selama beberapa tahun terakhir, perusahaan telah secara bertahap meningkatkan penggunaan AI untuk penyaringan konten, namun langkah terbaru ini menandai percepatan signifikan dari strategi tersebut.

Namun, para kritikus berpendapat bahwa meski AI dapat meningkatkan efisiensi, teknologi ini masih kurang dalam penilaian manusia yang dibutuhkan untuk keputusan moderasi yang kompleks. Sarah Roberts, profesor UCLA sekaligus Direktur Center for Critical Internet Inquiry, menyatakan kekhawatirannya bahwa sistem AI "penuh dengan bias dan rentan terhadap kesalahan." Kasus yang melibatkan ujaran kebencian, misinformasi, atau sensitivitas budaya sering kali memerlukan pemahaman kontekstual yang masih sulit dicapai oleh AI.

Perubahan ini juga memunculkan pertanyaan etis terkait tenaga kerja, transparansi, dan akuntabilitas perusahaan. Para moderator konten selama ini telah menyuarakan kekhawatiran tentang kondisi kerja, namun peran mereka dianggap vital untuk menjaga keamanan platform. Menggantikan mereka dengan AI dapat mengikis kepercayaan publik, terutama jika kesalahan moderasi tidak segera ditangani.

Transisi ini terjadi di tengah perubahan kebijakan konten Meta yang lebih luas, termasuk penggantian pemeriksa fakta pihak ketiga dengan model berbasis komunitas dan pelonggaran pembatasan pada beberapa jenis ujaran. Seiring regulator di Eropa dan AS semakin menyoroti cara platform mengelola konten berbahaya, pendekatan Meta yang berbasis AI akan menghadapi ujian besar dalam menyeimbangkan efisiensi dengan tanggung jawab.

Source:

Latest News