Numa medida histórica para combater o crescente uso indevido da inteligência artificial, o Reino Unido tornou-se a primeira nação a introduzir penalizações criminais específicas para material de abuso sexual infantil (MASI) gerado por IA.
A legislação, integrada no Projeto de Lei sobre Criminalidade e Policiamento apresentado ao Parlamento a 25 de fevereiro de 2025, responde ao aumento alarmante de conteúdo abusivo gerado por IA. De acordo com a Internet Watch Foundation, os relatos de MASI gerado por IA aumentaram quase cinco vezes em 2024, com mais de 3.500 novas imagens de abuso sexual infantil geradas por IA a surgirem na dark web até meados de 2024.
A Ministra do Interior, Yvette Cooper, que liderou a iniciativa, destacou a urgência das novas medidas: "O material de abuso sexual infantil online está a crescer, assim como o aliciamento de crianças e adolescentes na internet. E o que está agora a acontecer é que a IA está a potenciar este fenómeno de forma exponencial."
A legislação criminaliza especificamente três áreas-chave: possuir, criar ou distribuir modelos de IA concebidos para gerar material de abuso sexual infantil; possuir 'manuais de pedofilia' baseados em IA que ensinam a utilizar IA para abusar sexualmente de crianças; e gerir sites destinados à partilha desse conteúdo, o que poderá resultar em até 10 anos de prisão.
As novas leis abordam uma tendência preocupante em que os agressores utilizam IA para 'desnudar' imagens reais de crianças ou sobrepor rostos de crianças em imagens de abuso já existentes. Estas imagens geradas por IA são por vezes usadas para chantagear as vítimas, levando a uma exploração adicional, incluindo transmissões em direto com os agressores.
Embora a legislação britânica já proíba aspetos relacionados com imagens de abuso sexual infantil, nomeadamente através da Lei de Proteção das Crianças de 1978 e da Lei dos Coroners e Justiça de 2009, a nova legislação fecha lacunas críticas relacionadas especificamente com a tecnologia de IA. O governo sublinhou que a lei visa o uso criminoso e não o desenvolvimento legítimo de IA, prevendo salvaguardas para proteger a inovação e, ao mesmo tempo, prevenir danos.
Defensores da proteção infantil acolheram positivamente a medida, com a Gestora de Políticas para a Segurança Online Infantil da NSPCC, Rani Govender, a afirmar: "É encorajador ver o governo a agir para combater criminosos que criam imagens de abuso sexual infantil geradas por IA." No entanto, especialistas alertam que uma implementação eficaz exigirá cooperação internacional, uma vez que o abuso gerado por IA ultrapassa fronteiras nacionais.