À medida que as tecnologias de IA generativa continuam a crescer exponencialmente em 2025, três grandes preocupações destacam-se no debate público: segurança no emprego, proteção da privacidade e riscos de cibersegurança.
No que toca ao emprego, a investigação recente apresenta um cenário misto. Um estudo da McKinsey sugere que, até 2030, atividades que representam até 30% das horas atualmente trabalhadas na economia dos EUA poderão ser automatizadas — uma tendência acelerada pela IA generativa. Funções de apoio administrativo, atendimento ao cliente e restauração enfrentam o maior risco de substituição. No entanto, contrariando previsões apocalípticas, um estudo dinamarquês recente, que analisou 11 profissões entre 25.000 trabalhadores, concluiu que ferramentas de IA generativa como o ChatGPT tiveram até agora um impacto mínimo nos salários e níveis de emprego, com os utilizadores a reportarem uma poupança média de apenas 2,8% do tempo de trabalho.
As preocupações com a privacidade intensificaram-se à medida que os sistemas de IA generativa processam grandes volumes de dados pessoais. Especialistas de segurança da IBM alertam que estes sistemas podem memorizar e reproduzir inadvertidamente informações sensíveis presentes nos dados de treino, criando o que os especialistas denominam de 'vazamento do modelo'. Segundo o estudo Data Privacy Benchmark 2024 da Cisco, embora 79% das empresas já estejam a obter valor significativo da IA generativa, apenas metade dos utilizadores evita introduzir informações pessoais ou confidenciais nestas ferramentas, criando riscos substanciais para a privacidade.
As vulnerabilidades de segurança representam a terceira grande preocupação. Avaliações governamentais preveem que, até 2025, a IA generativa irá provavelmente amplificar riscos de segurança já existentes, em vez de criar ameaças totalmente novas, mas aumentará drasticamente a velocidade e a escala dos ataques. O governo do Reino Unido alertou recentemente que a IA generativa pode permitir intrusões cibernéticas mais rápidas e eficazes através de métodos de phishing personalizados e replicação de malware. Além disso, a capacidade da IA para gerar deepfakes e conteúdos sintéticos credíveis ameaça minar a confiança pública nas fontes de informação.
À medida que as organizações correm para implementar IA generativa, os especialistas recomendam a adoção de estruturas robustas de governação de dados, incluindo minimização de dados, encriptação, controlos de acesso e auditorias de segurança regulares. Sem salvaguardas adequadas, a tecnologia que promete ganhos de produtividade sem precedentes pode, simultaneamente, expor indivíduos e organizações a riscos significativos.
Com a Gartner a prever que a IA generativa representará 10% de todos os dados produzidos até 2025 (face a menos de 1% atualmente), a urgência em abordar estas preocupações nunca foi tão elevada.