O Tribunal Regional Superior de Colônia rejeitou um pedido da Organização de Proteção ao Consumidor da Renânia do Norte-Vestfália (Verbraucherzentrale NRW), que buscava impedir a Meta de utilizar publicações públicas de usuários do Facebook e Instagram para fins de treinamento de inteligência artificial.
Na decisão de 23 de maio, o tribunal concluiu que a Meta está 'buscando um objetivo legítimo ao usar os dados para treinar sistemas de inteligência artificial' e que a alimentação de dados de usuários em sistemas de treinamento de IA é permitida 'mesmo sem o consentimento dos afetados'. O tribunal determinou que os interesses da Meta no processamento de dados superam os interesses dos titulares dos dados, em parte porque a empresa implementou medidas eficazes para mitigar interferências nos direitos dos usuários.
A Meta planeja começar a usar conteúdos públicos de usuários adultos da União Europeia em suas plataformas a partir de 27 de maio de 2025. A empresa ofereceu aos usuários a opção de recusa e afirmou que conteúdos de menores de 18 anos não serão utilizados para fins de treinamento. A Comissão de Proteção de Dados da Irlanda, principal autoridade reguladora da Meta na Europa, já havia dado uma avaliação positiva aos planos da empresa após a Meta responder a diversas preocupações com avisos de transparência aprimorados e formulários de objeção mais fáceis de usar.
No entanto, nem todos os órgãos reguladores estão alinhados. O Comissário de Proteção de Dados de Hamburgo iniciou um processo urgente contra a Meta, com a intenção de proibir a empresa de utilizar dados de alemães para treinamento de IA por pelo menos mais três meses. O grupo europeu de defesa da privacidade NOYB, liderado por Max Schrems, também criticou a abordagem da Meta, argumentando que a empresa deveria adotar um modelo de coleta de dados baseado em consentimento explícito (opt-in), e não em recusa (opt-out).
Essa decisão alemã contrasta com desafios legais que a Meta enfrenta nos Estados Unidos, onde o juiz distrital Vince Chhabria demonstrou ceticismo quanto à alegação da Meta de uso justo ao utilizar materiais protegidos por direitos autorais para treinar seu modelo Llama. Nesse caso, autores como Junot Diaz e Sarah Silverman alegam que a Meta usou versões pirateadas de seus livros sem permissão, com Chhabria alertando que sistemas de IA podem potencialmente 'aniquilar' o mercado de obras criativas originais.
Os resultados jurídicos divergentes ressaltam o cenário regulatório em evolução e cada vez mais complexo em torno dos dados de treinamento de IA em diferentes jurisdições, enquanto tribunais e reguladores buscam equilibrar inovação tecnológica, preocupações com privacidade e direitos de propriedade intelectual.