A rápida integração da inteligência artificial em infraestruturas críticas criou um cenário de segurança alarmante, segundo especialistas em cibersegurança destacados na mais recente edição do RISKS Forum Digest, publicada a 17 de maio de 2025.
O Global Cybersecurity Outlook 2025 do Fórum Económico Mundial destaca que, embora 66% das organizações considerem a IA como o maior fator de mudança na cibersegurança deste ano, apenas 37% implementaram salvaguardas para avaliar ferramentas de IA antes da sua implementação. Esta discrepância entre consciência e ação gerou vulnerabilidades significativas em vários sectores.
"Organizações e sistemas que não acompanham as ameaças potenciadas por IA correm o risco de se tornarem pontos de fragilidade acrescida nas cadeias de abastecimento, devido à sua maior exposição potencial a vulnerabilidades e subsequente exploração", alertou um porta-voz do Centro Nacional de Cibersegurança do Reino Unido (NCSC) no seu mais recente relatório. O NCSC prevê que, até 2027, atacantes potenciados por IA irão reduzir ainda mais o tempo entre a descoberta e a exploração de vulnerabilidades, que já foi encurtado para meros dias.
Os profissionais de cibersegurança estão particularmente preocupados com ataques de prompt injection contra grandes modelos de linguagem (LLMs). Num recente teste de penetração citado por investigadores de segurança, o chatbot de IA de uma loja de velas foi comprometido através de engenharia de prompts, criando riscos de segurança, segurança operacional e de negócio. O ataque permitiu a extração de dados do sistema e a manipulação das respostas do chatbot, demonstrando como implementações aparentemente inofensivas de IA podem tornar-se sérias vulnerabilidades de segurança.
As vulnerabilidades na cadeia de abastecimento representam outra grande preocupação, com 54% das grandes organizações a identificá-las como o maior obstáculo à resiliência cibernética. A crescente complexidade das cadeias de abastecimento, aliada à visibilidade limitada sobre as práticas de segurança dos fornecedores, criou um ambiente onde sistemas de IA podem ser comprometidos através de componentes de terceiros.
O surgimento da IA agente—sistemas capazes de tomar decisões e executar tarefas complexas de forma autónoma—deverá transformar o panorama das ameaças em 2025. "Antes, estávamos focados em assistentes de IA que respondiam a prompts dos utilizadores. Agora, estamos a analisar ferramentas de IA agente que conseguem tomar decisões e realizar tarefas complicadas de forma independente", explicou Hao Yang, vice-presidente de inteligência artificial na Splunk, empresa do grupo Cisco.
Os especialistas recomendam que as organizações implementem políticas formais de segurança em IA, realizem modelação de ameaças antes da implementação, reduzam sistematicamente as superfícies de ataque e assegurem que os fornecedores dispõem de programas ativos de melhoria de segurança. Além disso, a formação contínua das equipas de segurança é essencial, já que os ataques potenciados por IA evoluem para além dos mecanismos de defesa tradicionais.
Como referiu um investigador de segurança no RISKS Forum, "A mudança não se resume a defender contra ataques potenciados por IA—trata-se de reconhecer que os nossos próprios sistemas de IA se tornaram alvos privilegiados."