menu
close

Google stärkt Gemini 2.5 gegen KI-Sicherheitsbedrohungen

Google hat die Sicherheitsvorkehrungen in seinen Gemini 2.5 Pro- und Flash-Modellen deutlich verbessert und sie damit zu den bislang sichersten KI-Modellen des Unternehmens gemacht. Die Neuerungen zielen insbesondere auf indirekte Prompt-Injection-Angriffe bei der Tool-Nutzung ab – eine wachsende Bedrohung, bei der schädliche Anweisungen in von KI-Systemen abgerufenen Daten versteckt werden. Diese Sicherheitsverbesserung erfolgt im Zuge der Integration von Project Mariners Computersteuerungsfunktionen in die Gemini API und Vertex AI, die bereits von Unternehmen wie Automation Anywhere und UiPath getestet werden.
Google stärkt Gemini 2.5 gegen KI-Sicherheitsbedrohungen

Google hat umfassende Sicherheitsupdates für die Gemini 2.5-Familie seiner KI-Modelle eingeführt und sie damit als bislang sicherste Modelle des Unternehmens gegen die sich wandelnden KI-Sicherheitsbedrohungen positioniert.

Im Zentrum dieser Verbesserungen steht ein neues Sicherheitskonzept, das den Schutz von Gemini gegen indirekte Prompt-Injection-Angriffe bei der Tool-Nutzung deutlich erhöht. Solche Angriffe treten auf, wenn schädliche Anweisungen in Daten eingebettet sind, die ein KI-Modell abruft – mit der Folge, dass das Modell potenziell schädliche Befehle ausführt oder sensible Informationen preisgibt.

Die Sicherheitsverbesserungen kommen zu einem Zeitpunkt, an dem Google die Computersteuerungsfunktionen von Project Mariner in die Gemini API und Vertex AI integriert. Project Mariner ermöglicht es KI-Agenten, Webbrowser zu steuern und bestimmte Aufgaben automatisch auszuführen, darunter das Navigieren auf Websites und die Interaktion mit Webelementen. Mehrere Unternehmen, darunter Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company und Cartwheel, testen diese Funktionen bereits; ein breiterer Zugang für Entwickler wird im Sommer erwartet.

Googles Sicherheitsstrategie für Gemini 2.5 setzt auf mehrere Verteidigungsschichten, darunter automatisiertes Red Teaming (ART), das kontinuierlich nach Schwachstellen sucht. Laut Google DeepMind hat dieser Ansatz die Erfolgsrate adaptiver Angriffe im Vergleich zu früheren Modellversionen deutlich gesenkt. Das Unternehmen hat Gemini zudem auf Datensätzen mit realistischen Angriffsszenarien feinabgestimmt, sodass das Modell lernt, eingebettete schädliche Anweisungen zu ignorieren und gleichzeitig legitime Nutzeranfragen zu erfüllen.

Neben den Sicherheitsverbesserungen erhalten die Gemini 2.5-Modelle weitere Funktionen, darunter "Thought Summaries" in der Gemini API und Vertex AI, die den Denkprozess des Modells in eine strukturierte Form bringen und so mehr Transparenz und bessere Fehlersuche ermöglichen. Außerdem unterstützen die Modelle native Audioausgabe für natürlichere Konversationserlebnisse.

Das Gemini 2.5 Flash-Modell steht ab sofort allen Nutzern in der Gemini-App zur Verfügung; die allgemeine Verfügbarkeit für Entwickler in Google AI Studio und für Unternehmen in Vertex AI ist für Anfang Juni geplant. Kurz darauf folgt Gemini 2.5 Pro mit seinen erweiterten Sicherheitsfunktionen für ein breiteres Publikum.

Source:

Latest News