menu
close

Google refuerza Gemini 2.5 contra amenazas de seguridad en IA

Google ha mejorado significativamente las protecciones de seguridad en sus modelos Gemini 2.5 Pro y Flash, convirtiéndolos en los modelos de IA más seguros de la compañía hasta la fecha. Las mejoras se enfocan especialmente en ataques de inyección indirecta de instrucciones durante el uso de herramientas, una preocupación creciente en ciberseguridad donde instrucciones maliciosas se insertan en datos recuperados por sistemas de IA. Este avance en seguridad coincide con la integración de las capacidades de uso de computadoras de Project Mariner en la API de Gemini y Vertex AI, con empresas como Automation Anywhere y UiPath explorando ya su potencial.
Google refuerza Gemini 2.5 contra amenazas de seguridad en IA

Google ha implementado importantes mejoras de seguridad en su familia de modelos de IA Gemini 2.5, estableciéndolos como los modelos más seguros de la compañía hasta ahora, en respuesta a las crecientes amenazas de seguridad en inteligencia artificial.

En el centro de estas mejoras se encuentra un nuevo enfoque de seguridad que incrementa significativamente la protección de Gemini contra ataques de inyección indirecta de instrucciones durante el uso de herramientas. Estos ataques ocurren cuando instrucciones maliciosas se insertan en los datos que un modelo de IA recupera, lo que puede provocar que el modelo ejecute comandos dañinos o filtre información sensible.

Las mejoras de seguridad llegan mientras Google se prepara para integrar las capacidades de uso de computadoras de Project Mariner en la API de Gemini y Vertex AI. Project Mariner permite que agentes de IA controlen navegadores web y realicen tareas específicas de manera automática, incluyendo la navegación por sitios web y la interacción con elementos web. Varias empresas, como Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company y Cartwheel, ya están probando estas capacidades, y se espera que el acceso para desarrolladores sea más amplio este verano.

La estrategia de seguridad de Google para Gemini 2.5 involucra múltiples capas defensivas, incluyendo pruebas automatizadas de red teaming (ART) que buscan continuamente vulnerabilidades. Según investigaciones de Google DeepMind, este enfoque ha reducido significativamente la tasa de éxito de ataques adaptativos en comparación con versiones anteriores del modelo. La compañía afinó Gemini con conjuntos de datos que contienen escenarios de ataque realistas, enseñando al modelo a ignorar instrucciones maliciosas incrustadas mientras sigue solicitudes legítimas de los usuarios.

Más allá de las mejoras de seguridad, los modelos Gemini 2.5 están recibiendo funciones adicionales, como resúmenes de razonamiento en la API de Gemini y Vertex AI, que organizan el proceso de pensamiento del modelo en un formato estructurado para mayor transparencia y facilidad de depuración. Los modelos también ofrecen salida de audio nativa para experiencias conversacionales más naturales.

El modelo Gemini 2.5 Flash ya está disponible para todos en la aplicación Gemini, y estará disponible de forma general para desarrolladores en Google AI Studio y para empresas en Vertex AI a principios de junio. Gemini 2.5 Pro llegará poco después, llevando sus funciones de seguridad mejoradas a una audiencia más amplia.

Source:

Latest News