A Meta, controladora do Facebook, Instagram e WhatsApp, está avançando de forma agressiva com planos para automatizar a moderação de conteúdo em suas plataformas, eliminando gradualmente milhares de cargos humanos de segurança de conteúdo em favor de sistemas de IA.
De acordo com documentos internos da empresa, a Meta pretende automatizar até 90% de suas revisões de privacidade e integridade, reduzindo drasticamente a dependência de moderadores humanos. O relatório trimestral de integridade da empresa afirma que seus grandes modelos de linguagem já estão "operando além do desempenho humano em áreas específicas de políticas", permitindo que a IA filtre conteúdos nos quais a empresa está "altamente confiante" de que não violam as regras das plataformas.
A Meta acredita que essa transição irá otimizar custos e permitir que suas plataformas processem um volume maior de conteúdo com mais rapidez e consistência. A empresa já vinha aumentando gradualmente o uso de IA para filtragem de conteúdo ao longo dos últimos anos, mas esse novo movimento representa uma aceleração significativa dessa estratégia.
Críticos, no entanto, argumentam que, embora a IA possa aumentar a eficiência, ela carece do julgamento humano necessário para decisões complexas de moderação. Sarah Roberts, professora da UCLA e diretora do Center for Critical Internet Inquiry, expressou preocupação ao afirmar que os sistemas de IA estão "repletos de vieses e propensos a erros". Casos envolvendo discurso de ódio, desinformação ou sensibilidade cultural frequentemente exigem compreensão contextual, algo que a IA ainda tem dificuldade em fornecer.
A mudança também levanta questões éticas sobre trabalho, transparência e responsabilidade corporativa. Moderadores de conteúdo há muito tempo expressam preocupações sobre as condições de trabalho, mas seu papel é visto como vital para a segurança das plataformas. Substituí-los por IA pode minar a confiança do público, especialmente se erros de moderação não forem corrigidos.
Essa transição ocorre em meio a mudanças mais amplas nas políticas de conteúdo da Meta, incluindo a substituição de verificadores de fatos terceirizados por um modelo baseado na comunidade e a flexibilização de restrições sobre certos tipos de discurso. À medida que reguladores na Europa e nos EUA aumentam o escrutínio sobre como as plataformas gerenciam conteúdos nocivos, a abordagem baseada em IA da Meta enfrentará testes significativos para equilibrar eficiência e responsabilidade.