A Meta, empresa-mãe do Facebook, Instagram e WhatsApp, está a avançar de forma agressiva com planos para automatizar a moderação de conteúdos nas suas plataformas, eliminando gradualmente milhares de funções humanas de segurança de conteúdos em favor de sistemas de IA.
De acordo com documentos internos da empresa, a Meta pretende automatizar até 90% das suas revisões de privacidade e integridade, reduzindo drasticamente a dependência de moderadores humanos. O relatório trimestral de integridade da empresa indica que os seus grandes modelos de linguagem estão agora "a operar para além do desempenho humano em áreas políticas selecionadas", permitindo que a IA filtre conteúdos nos quais a empresa tem "elevada confiança" de que não violam as regras das plataformas.
A Meta acredita que esta transição permitirá otimizar custos, ao mesmo tempo que possibilita às suas plataformas processar um volume maior de conteúdos com maior rapidez e consistência. A empresa tem vindo a aumentar gradualmente o uso de IA para filtragem de conteúdos ao longo dos últimos anos, mas este novo impulso representa uma aceleração significativa dessa estratégia.
Os críticos, contudo, argumentam que, embora a IA possa aumentar a eficiência, carece do julgamento humano necessário para decisões de moderação complexas. Sarah Roberts, professora da UCLA e Diretora do Center for Critical Internet Inquiry, manifestou preocupação de que os sistemas de IA estão "repletos de preconceitos e propensos a erros". Casos envolvendo discurso de ódio, desinformação ou sensibilidade cultural exigem frequentemente compreensão contextual, algo que a IA ainda tem dificuldade em fornecer.
Esta mudança levanta também questões éticas relacionadas com trabalho, transparência e responsabilidade corporativa. Os moderadores de conteúdos há muito que expressam preocupações sobre as condições de trabalho, mas o seu papel é considerado vital para a segurança das plataformas. Substituí-los por IA pode minar a confiança do público, especialmente se os erros de moderação não forem corrigidos.
Esta transição surge num contexto de alterações mais amplas nas políticas de conteúdos da Meta, incluindo a substituição de verificadores de factos independentes por um modelo orientado pela comunidade e o alívio de restrições sobre certos tipos de discurso. À medida que reguladores na Europa e nos EUA aumentam o escrutínio sobre a forma como as plataformas gerem conteúdos nocivos, a abordagem baseada em IA da Meta enfrentará testes significativos no equilíbrio entre eficiência e responsabilidade.