menu
close

Google Reforça Gemini 2.5 Contra Ameaças de Segurança em IA

A Google reforçou significativamente as proteções de segurança nos seus modelos Gemini 2.5 Pro e Flash, tornando-os os modelos de IA mais seguros da empresa até à data. As melhorias visam especificamente ataques de injeção indireta de prompts durante a utilização de ferramentas, uma preocupação crescente em cibersegurança, onde instruções maliciosas são embutidas em dados recuperados por sistemas de IA. Este avanço em segurança surge à medida que a Google integra as capacidades de utilização de computador do Project Mariner na API Gemini e no Vertex AI, com empresas como a Automation Anywhere e a UiPath já a explorar o seu potencial.
Google Reforça Gemini 2.5 Contra Ameaças de Segurança em IA

A Google implementou melhorias substanciais de segurança na família de modelos de IA Gemini 2.5, estabelecendo-os como os modelos mais seguros da empresa até agora, em resposta às ameaças de segurança em IA que estão em constante evolução.

No centro destas melhorias está uma nova abordagem de segurança que aumenta significativamente a proteção do Gemini contra ataques de injeção indireta de prompts durante a utilização de ferramentas. Estes ataques ocorrem quando instruções maliciosas são embutidas em dados que um modelo de IA recupera, podendo levar o modelo a executar comandos prejudiciais ou a divulgar informação sensível.

As melhorias de segurança chegam numa altura em que a Google se prepara para integrar as capacidades de utilização de computador do Project Mariner na API Gemini e no Vertex AI. O Project Mariner permite que agentes de IA controlem navegadores web e realizem tarefas específicas de forma automática, incluindo navegar em websites e interagir com elementos web. Diversas empresas, incluindo Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company e Cartwheel, já estão a testar estas capacidades, estando previsto um acesso mais alargado a programadores durante este verão.

A estratégia de segurança da Google para o Gemini 2.5 envolve múltiplas camadas defensivas, incluindo equipas automáticas de red teaming (ART) que testam continuamente vulnerabilidades. Segundo a investigação da Google DeepMind, esta abordagem reduziu significativamente a taxa de sucesso de ataques adaptativos em comparação com versões anteriores do modelo. A empresa afinou o Gemini com conjuntos de dados que incluem cenários de ataque realistas, ensinando o modelo a ignorar instruções maliciosas embutidas enquanto segue pedidos legítimos dos utilizadores.

Para além das melhorias de segurança, os modelos Gemini 2.5 estão a receber funcionalidades adicionais, incluindo resumos de raciocínio na API Gemini e no Vertex AI, que organizam o processo de pensamento do modelo num formato estruturado para maior transparência e facilidade de debugging. Os modelos suportam ainda saída de áudio nativa para experiências conversacionais mais naturais.

O modelo Gemini 2.5 Flash já está disponível para todos na aplicação Gemini, estando o lançamento geral no Google AI Studio para programadores e no Vertex AI para empresas previsto para o início de junho. O Gemini 2.5 Pro será disponibilizado pouco depois, trazendo as suas funcionalidades de segurança reforçadas a um público mais vasto.

Source:

Latest News