Meta, la empresa matriz de Facebook, Instagram y WhatsApp, está avanzando agresivamente con sus planes para automatizar la moderación de contenido en todas sus plataformas, eliminando miles de puestos de seguridad de contenido ocupados por humanos en favor de sistemas de inteligencia artificial.
De acuerdo con documentos internos de la compañía, Meta planea automatizar hasta el 90% de sus revisiones de privacidad e integridad, reduciendo drásticamente su dependencia de moderadores humanos. El informe trimestral de integridad de la empresa señala que sus grandes modelos de lenguaje ahora "operan más allá del rendimiento humano en áreas específicas de políticas", permitiendo que la IA filtre contenido que la empresa considera "con alta confianza" que no infringe las reglas de la plataforma.
Meta cree que esta transición optimizará los costos y permitirá que sus plataformas procesen un mayor volumen de contenido con mayor velocidad y consistencia. La compañía ha incrementado gradualmente el uso de IA para el filtrado de contenido durante varios años, pero este último impulso representa una aceleración significativa de esa estrategia.
Sin embargo, los críticos argumentan que, si bien la IA puede mejorar la eficiencia, carece del juicio humano necesario para tomar decisiones complejas de moderación. Sarah Roberts, profesora de UCLA y directora del Centro para la Investigación Crítica de Internet, expresó su preocupación de que los sistemas de IA están "llenos de sesgos y son propensos a errores". Los casos que involucran discursos de odio, desinformación o sensibilidad cultural a menudo requieren una comprensión contextual que la IA aún tiene dificultades para proporcionar.
El cambio también plantea cuestiones éticas relacionadas con el trabajo, la transparencia y la responsabilidad corporativa. Los moderadores de contenido han manifestado durante mucho tiempo preocupaciones sobre las condiciones laborales, pero su papel es considerado vital para mantener la seguridad en las plataformas. Reemplazarlos por IA podría erosionar la confianza pública, especialmente si los errores de moderación no se abordan adecuadamente.
Esta transición ocurre en medio de cambios más amplios en las políticas de contenido de Meta, incluyendo la sustitución de verificadores de hechos externos por un modelo impulsado por la comunidad y la relajación de restricciones sobre ciertos tipos de discurso. A medida que los reguladores en Europa y Estados Unidos examinan cada vez más cómo las plataformas gestionan el contenido dañino, el enfoque impulsado por IA de Meta enfrentará pruebas significativas para equilibrar eficiencia y responsabilidad.