menu
close

Meta sustituye a miles de moderadores humanos por sistemas de IA

Meta está llevando a cabo una importante reestructuración en su estrategia de moderación de contenidos, reemplazando a una parte significativa de su personal de confianza y seguridad por herramientas de inteligencia artificial. La compañía considera que sus avanzados modelos de IA pueden ahora gestionar la moderación de contenidos con mayor rapidez y coherencia en formatos de texto, imagen y vídeo. Esta transición representa uno de los mayores cambios de plantilla de operaciones humanas a operaciones basadas en IA en la industria tecnológica, planteando cuestiones críticas sobre el equilibrio entre la eficiencia tecnológica y el juicio humano.
Meta sustituye a miles de moderadores humanos por sistemas de IA

Meta, la empresa matriz de Facebook, Instagram y WhatsApp, está impulsando de forma agresiva sus planes para automatizar la moderación de contenidos en todas sus plataformas, eliminando progresivamente miles de puestos de trabajo relacionados con la seguridad de contenidos en favor de sistemas de inteligencia artificial.

Según documentos internos de la compañía, Meta pretende automatizar hasta el 90% de sus revisiones de privacidad e integridad, reduciendo drásticamente su dependencia de moderadores humanos. El informe trimestral de integridad de la empresa afirma que sus grandes modelos lingüísticos ya "operan por encima del rendimiento humano en determinadas áreas de política", permitiendo que la IA filtre contenidos sobre los que la compañía tiene "alta confianza" de que no infringen las normas de la plataforma.

Meta considera que esta transición optimizará los costes y permitirá a sus plataformas procesar un mayor volumen de contenidos con más rapidez y coherencia. La compañía lleva varios años aumentando gradualmente el uso de IA para el filtrado de contenidos, pero este nuevo impulso supone una aceleración significativa de esa estrategia.

Sin embargo, los críticos argumentan que, aunque la IA puede mejorar la eficiencia, carece del juicio humano necesario para tomar decisiones complejas de moderación. Sarah Roberts, profesora de la UCLA y directora del Center for Critical Internet Inquiry, expresó su preocupación al afirmar que los sistemas de IA están "repletos de sesgos y son propensos a errores". Los casos relacionados con discursos de odio, desinformación o sensibilidad cultural suelen requerir una comprensión contextual que la IA aún tiene dificultades para proporcionar.

El cambio también plantea cuestiones éticas sobre el trabajo, la transparencia y la responsabilidad corporativa. Los moderadores de contenido llevan tiempo denunciando las condiciones laborales, pero su papel se considera fundamental para mantener la seguridad en las plataformas. Sustituirlos por IA podría erosionar la confianza pública, especialmente si los errores de moderación no se abordan adecuadamente.

Esta transición se produce en un contexto de cambios más amplios en las políticas de contenidos de Meta, como la sustitución de verificadores externos por un modelo impulsado por la comunidad y la relajación de restricciones sobre ciertos tipos de discurso. A medida que los reguladores de Europa y Estados Unidos examinan cada vez más cómo gestionan las plataformas los contenidos dañinos, el enfoque basado en IA de Meta se enfrentará a pruebas importantes para equilibrar eficiencia y responsabilidad.

Source:

Latest News