A rápida integração da inteligência artificial em infraestruturas críticas criou um cenário alarmante de segurança, segundo especialistas em cibersegurança destacados na última edição do RISKS Forum Digest, publicada em 17 de maio de 2025.
O relatório Global Cybersecurity Outlook 2025, do Fórum Econômico Mundial, destaca que, embora 66% das organizações considerem a IA o maior fator de transformação em cibersegurança deste ano, apenas 37% implementaram salvaguardas para avaliar ferramentas de IA antes da implantação. Esse descompasso entre conscientização e ação gerou vulnerabilidades significativas em diversos setores.
"Organizações e sistemas que não acompanham as ameaças potencializadas por IA correm o risco de se tornarem pontos de fragilidade adicionais nas cadeias de suprimentos, devido ao aumento da exposição a vulnerabilidades e sua consequente exploração", alertou um porta-voz do Centro Nacional de Segurança Cibernética do Reino Unido (NCSC) em seu último relatório. O NCSC prevê que, até 2027, atacantes potencializados por IA reduzirão ainda mais o tempo entre a descoberta e a exploração de vulnerabilidades, que já caiu para poucos dias.
Profissionais de cibersegurança estão especialmente preocupados com ataques de injeção de prompt contra grandes modelos de linguagem (LLMs). Em um recente teste de penetração citado por pesquisadores de segurança, o chatbot de IA de uma loja de velas foi comprometido por meio de engenharia de prompt, gerando riscos de segurança, integridade e negócios. O ataque permitiu a extração de dados do sistema e a manipulação das respostas do chatbot, demonstrando como implementações aparentemente inofensivas de IA podem se tornar sérias vulnerabilidades de segurança.
Vulnerabilidades na cadeia de suprimentos representam outra grande preocupação, com 54% das grandes organizações identificando-as como a principal barreira para alcançar resiliência cibernética. A crescente complexidade das cadeias de suprimentos, aliada à visibilidade limitada das práticas de segurança dos fornecedores, criou um ambiente em que sistemas de IA podem ser comprometidos por componentes de terceiros.
A emergência da IA agente — sistemas capazes de tomar decisões e executar tarefas complexas de forma autônoma — deve transformar o cenário de ameaças em 2025. "Antes, nosso foco eram assistentes de IA que respondiam a comandos dos usuários. Agora, estamos diante de ferramentas de IA agente que podem tomar decisões e executar tarefas complicadas de forma independente", explicou Hao Yang, vice-presidente de inteligência artificial da Splunk, empresa do grupo Cisco.
Especialistas recomendam que as organizações implementem políticas formais de segurança para IA, realizem modelagem de ameaças antes da implantação, reduzam sistematicamente as superfícies de ataque e garantam que fornecedores mantenham programas ativos de aprimoramento de segurança. Além disso, o treinamento contínuo das equipes de segurança é essencial, já que ataques impulsionados por IA evoluem além dos mecanismos tradicionais de defesa.
Como destacou um pesquisador de segurança no RISKS Forum: "A mudança não é apenas sobre defender-se de ataques potencializados por IA — trata-se de reconhecer que nossos próprios sistemas de IA se tornaram alvos principais."