Meta(Facebook、Instagram和WhatsApp的母公司)正大力推进其平台内容审核的自动化进程,逐步用AI系统取代数千个内容安全岗位。
根据公司内部文件,Meta计划将多达90%的隐私与内容完整性审核流程实现自动化,大幅减少对人工审核员的依赖。公司季度完整性报告指出,其大型语言模型在部分政策领域的表现已“超越人类水平”,使AI能够筛查公司“高度确信”未违反平台规则的内容。
Meta认为,这一转型将优化成本,同时让其平台以更高的速度和一致性处理更大规模的内容。近年来,Meta已逐步增加AI在内容过滤中的应用,但此次调整标志着这一战略的显著加速。
然而,批评者认为,尽管AI能提升效率,却缺乏处理复杂审核决策所需的人类判断力。加州大学洛杉矶分校教授、批判性互联网研究中心主任Sarah Roberts表示担忧,称AI系统“充满偏见且易于出错”。涉及仇恨言论、虚假信息或文化敏感性的案例,往往需要AI尚难以具备的语境理解能力。
这一转变还引发了关于劳工、透明度和企业责任的伦理问题。内容审核员长期以来对工作条件提出关切,但他们的角色被认为对平台安全至关重要。用AI取代人工审核,若审核失误无法及时纠正,可能削弱公众信任。
此次转型正值Meta内容政策发生更广泛变革之际,包括用社区驱动模式取代第三方事实核查员,并放宽部分言论限制。随着欧洲和美国监管机构对平台有害内容管理的审查日益严格,Meta以AI为核心的内容审核策略将在效率与责任之间面临重大考验。