À medida que as tecnologias de IA generativa continuam sua ascensão meteórica em 2025, três grandes preocupações surgem no centro do debate público: segurança no emprego, proteção à privacidade e riscos de cibersegurança.
No âmbito do emprego, pesquisas recentes apresentam um cenário misto. Um estudo da McKinsey sugere que, até 2030, atividades que representam até 30% das horas atualmente trabalhadas na economia dos EUA podem ser automatizadas — uma tendência acelerada pela IA generativa. Funções de suporte administrativo, atendimento ao cliente e serviços de alimentação estão entre as mais ameaçadas de substituição. No entanto, contrariando previsões apocalípticas, um estudo dinamarquês recente, que analisou 11 ocupações entre 25 mil trabalhadores, constatou que ferramentas de IA generativa como o ChatGPT tiveram impacto mínimo nos salários e níveis de emprego até agora, com usuários relatando uma economia média de apenas 2,8% nas horas de trabalho.
As preocupações com privacidade se intensificaram à medida que sistemas de IA generativa processam grandes volumes de dados pessoais. Especialistas em segurança da IBM alertam que esses sistemas podem, inadvertidamente, memorizar e reproduzir informações sensíveis presentes nos dados de treinamento, criando o que os especialistas chamam de 'vazamento de modelo'. Segundo o estudo Data Privacy Benchmark 2024 da Cisco, embora 79% das empresas já estejam obtendo valor significativo da IA generativa, apenas metade dos usuários evita inserir informações pessoais ou confidenciais nessas ferramentas, o que gera riscos substanciais à privacidade.
As vulnerabilidades de segurança representam a terceira grande preocupação. Avaliações governamentais preveem que, até 2025, a IA generativa provavelmente ampliará riscos de segurança já existentes, em vez de criar ameaças totalmente novas, mas aumentará drasticamente a velocidade e o alcance dos ataques. O governo do Reino Unido alertou recentemente que a IA generativa pode viabilizar invasões cibernéticas mais rápidas e eficazes por meio de métodos de phishing personalizados e replicação de malwares. Além disso, a capacidade da IA de gerar deepfakes e mídias sintéticas convincentes ameaça corroer a confiança pública nas fontes de informação.
Com organizações correndo para implementar IA generativa, especialistas recomendam a adoção de estruturas robustas de governança de dados, incluindo minimização de dados, criptografia, controles de acesso e auditorias de segurança regulares. Sem salvaguardas adequadas, a tecnologia que promete ganhos de produtividade sem precedentes pode, ao mesmo tempo, expor indivíduos e organizações a riscos significativos.
Com a Gartner prevendo que a IA generativa responderá por 10% de todos os dados produzidos até 2025 (em comparação com menos de 1% atualmente), a urgência para enfrentar essas preocupações nunca foi tão grande.