Meta, la société mère de Facebook, Instagram et WhatsApp, accélère ses plans visant à automatiser la modération de contenu sur ses plateformes, éliminant progressivement des milliers de postes liés à la sécurité du contenu au profit de systèmes d’IA.
Selon des documents internes, Meta prévoit d’automatiser jusqu’à 90 % de ses vérifications liées à la confidentialité et à l’intégrité, réduisant ainsi de façon spectaculaire sa dépendance envers les modérateurs humains. Le rapport trimestriel sur l’intégrité de l’entreprise indique que ses grands modèles linguistiques « surpassent désormais la performance humaine dans certains domaines de politique », permettant à l’IA de filtrer le contenu dont l’entreprise est « hautement convaincue » qu’il ne contrevient pas aux règles de la plateforme.
Meta estime que cette transition permettra d’optimiser les coûts tout en traitant un volume de contenu beaucoup plus important, avec une rapidité et une cohérence accrues. L’entreprise a progressivement augmenté l’utilisation de l’IA pour le filtrage du contenu au fil des ans, mais cette nouvelle phase marque une accélération majeure de cette stratégie.
Des critiques soutiennent toutefois que, même si l’IA peut améliorer l’efficacité, elle ne possède pas le jugement humain nécessaire pour les décisions de modération complexes. Sarah Roberts, professeure à l’UCLA et directrice du Center for Critical Internet Inquiry, s’inquiète du fait que les systèmes d’IA sont « truffés de biais et sujets aux erreurs ». Les cas impliquant des discours haineux, de la désinformation ou des enjeux de sensibilité culturelle requièrent souvent une compréhension contextuelle, une capacité que l’IA peine encore à offrir.
Ce virage soulève également des questions éthiques liées au travail, à la transparence et à la responsabilité des entreprises. Les modérateurs de contenu ont longtemps dénoncé leurs conditions de travail, mais leur rôle est considéré comme essentiel pour assurer la sécurité des plateformes. Les remplacer par l’IA pourrait miner la confiance du public, surtout si les erreurs de modération ne sont pas corrigées.
Cette transition survient dans un contexte de changements plus larges dans les politiques de contenu de Meta, notamment le remplacement des vérificateurs de faits tiers par un modèle axé sur la communauté et l’assouplissement des restrictions sur certains types de discours. Alors que les régulateurs en Europe et aux États-Unis examinent de plus en plus la gestion du contenu nuisible par les plateformes, l’approche axée sur l’IA de Meta sera mise à l’épreuve pour trouver un équilibre entre efficacité et responsabilité.