Meta, la maison mère de Facebook, Instagram et WhatsApp, accélère ses plans d’automatisation de la modération de contenu sur l’ensemble de ses plateformes, supprimant progressivement des milliers de postes humains dédiés à la sécurité des contenus au profit de systèmes d’IA.
Selon des documents internes à l’entreprise, Meta prévoit d’automatiser jusqu’à 90 % de ses contrôles de confidentialité et d’intégrité, réduisant ainsi de manière drastique sa dépendance aux modérateurs humains. Le rapport trimestriel sur l’intégrité de l’entreprise indique que ses grands modèles de langage « dépassent désormais les performances humaines dans certains domaines de politique », permettant à l’IA de filtrer les contenus pour lesquels l’entreprise a « une grande confiance » qu’ils ne violent pas les règles de la plateforme.
Meta estime que cette transition permettra d’optimiser les coûts tout en offrant à ses plateformes la capacité de traiter un volume de contenu plus important, avec davantage de rapidité et de cohérence. L’entreprise a progressivement accru l’utilisation de l’IA pour le filtrage des contenus au cours des dernières années, mais cette nouvelle étape marque une accélération significative de cette stratégie.
Les critiques, toutefois, soutiennent que si l’IA peut améliorer l’efficacité, elle manque du discernement humain nécessaire pour les décisions de modération complexes. Sarah Roberts, professeure à l’UCLA et directrice du Center for Critical Internet Inquiry, s’inquiète du fait que les systèmes d’IA « regorgent de biais et sont sujets aux erreurs ». Les cas impliquant des discours haineux, de la désinformation ou des questions de sensibilité culturelle nécessitent souvent une compréhension contextuelle, que l’IA peine encore à fournir.
Ce changement soulève également des questions éthiques concernant le travail, la transparence et la responsabilité des entreprises. Les modérateurs de contenu ont longtemps exprimé leurs préoccupations sur leurs conditions de travail, mais leur rôle est considéré comme essentiel pour garantir la sécurité des plateformes. Les remplacer par l’IA pourrait éroder la confiance du public, notamment si les erreurs de modération ne sont pas corrigées.
Cette transition intervient dans un contexte de changements plus larges des politiques de contenu de Meta, notamment le remplacement des vérificateurs de faits tiers par un modèle communautaire et l’assouplissement de certaines restrictions sur certains types de discours. Alors que les régulateurs européens et américains examinent de plus en plus la gestion des contenus nuisibles par les plateformes, l’approche de Meta axée sur l’IA sera soumise à des tests majeurs pour concilier efficacité et responsabilité.