menu
close

Meta Substitui Milhares de Moderadores Humanos por Sistemas de IA

A Meta está a implementar uma grande reestruturação na sua estratégia de moderação de conteúdos, substituindo uma parte significativa da sua equipa de confiança e segurança humana por ferramentas de inteligência artificial. A empresa acredita que os seus modelos avançados de IA conseguem agora moderar conteúdos com maior rapidez e consistência em formatos de texto, imagem e vídeo. Esta transição representa uma das maiores mudanças de força de trabalho de operações humanas para baseadas em IA na indústria tecnológica, levantando questões críticas sobre o equilíbrio entre eficiência tecnológica e julgamento humano.
Meta Substitui Milhares de Moderadores Humanos por Sistemas de IA

A Meta, empresa-mãe do Facebook, Instagram e WhatsApp, está a avançar de forma agressiva com planos para automatizar a moderação de conteúdos nas suas plataformas, eliminando gradualmente milhares de funções humanas de segurança de conteúdos em favor de sistemas de IA.

De acordo com documentos internos da empresa, a Meta pretende automatizar até 90% das suas revisões de privacidade e integridade, reduzindo drasticamente a dependência de moderadores humanos. O relatório trimestral de integridade da empresa indica que os seus grandes modelos de linguagem estão agora "a operar para além do desempenho humano em áreas políticas selecionadas", permitindo que a IA filtre conteúdos nos quais a empresa tem "elevada confiança" de que não violam as regras das plataformas.

A Meta acredita que esta transição permitirá otimizar custos, ao mesmo tempo que possibilita às suas plataformas processar um volume maior de conteúdos com maior rapidez e consistência. A empresa tem vindo a aumentar gradualmente o uso de IA para filtragem de conteúdos ao longo dos últimos anos, mas este novo impulso representa uma aceleração significativa dessa estratégia.

Os críticos, contudo, argumentam que, embora a IA possa aumentar a eficiência, carece do julgamento humano necessário para decisões de moderação complexas. Sarah Roberts, professora da UCLA e Diretora do Center for Critical Internet Inquiry, manifestou preocupação de que os sistemas de IA estão "repletos de preconceitos e propensos a erros". Casos envolvendo discurso de ódio, desinformação ou sensibilidade cultural exigem frequentemente compreensão contextual, algo que a IA ainda tem dificuldade em fornecer.

Esta mudança levanta também questões éticas relacionadas com trabalho, transparência e responsabilidade corporativa. Os moderadores de conteúdos há muito que expressam preocupações sobre as condições de trabalho, mas o seu papel é considerado vital para a segurança das plataformas. Substituí-los por IA pode minar a confiança do público, especialmente se os erros de moderação não forem corrigidos.

Esta transição surge num contexto de alterações mais amplas nas políticas de conteúdos da Meta, incluindo a substituição de verificadores de factos independentes por um modelo orientado pela comunidade e o alívio de restrições sobre certos tipos de discurso. À medida que reguladores na Europa e nos EUA aumentam o escrutínio sobre a forma como as plataformas gerem conteúdos nocivos, a abordagem baseada em IA da Meta enfrentará testes significativos no equilíbrio entre eficiência e responsabilidade.

Source:

Latest News