menu
close

Google stellt Gemini 2.5 Flash mit fortschrittlichen Denkfähigkeiten vor

Google hat Gemini 2.5 Flash im Vorschaumodus veröffentlicht und bringt damit bedeutende Verbesserungen für sein schnelles, kosteneffizientes KI-Modell. Diese neue Version führt hybride Denkfähigkeiten ein, die es Entwicklern ermöglichen, den Denkprozess des Modells gezielt zu steuern – und das bei gleichbleibender Geschwindigkeit und Effizienz. Die Vorschau ist jetzt in Google AI Studio, Vertex AI und der Gemini-App verfügbar; die allgemeine Verfügbarkeit ist für Anfang Juni 2025 geplant.
Google stellt Gemini 2.5 Flash mit fortschrittlichen Denkfähigkeiten vor

Google hat eine Vorschauversion von Gemini 2.5 Flash veröffentlicht – die neueste Iteration seines effizienten KI-Modells, das Leistung, Geschwindigkeit und Kosteneffizienz in Einklang bringt.

Aufbauend auf Gemini 2.0 Flash bietet das neue 2.5-Flash-Modell ein deutliches Upgrade bei den Denkfähigkeiten, ohne dabei die bekannte Effizienz einzubüßen. Google beschreibt es als „ein bedeutendes Upgrade der Denkfähigkeiten, wobei Geschwindigkeit und Kosten weiterhin im Vordergrund stehen.“

Das herausragende Merkmal von Gemini 2.5 Flash ist sein hybrides Denksystem. Es ist Googles „erstes vollständig hybrides Denkmodell, das Entwicklern erlaubt, das Denken ein- oder auszuschalten und Denkbudgets festzulegen, um die Balance zwischen Qualität, Kosten und Latenz zu optimieren.“ Dieser innovative Ansatz gibt Entwicklern eine nie dagewesene Kontrolle darüber, wie das Modell komplexe Aufgaben verarbeitet.

In der Praxis bedeutet das: Entwickler können ein „Denkbudget“ festlegen, das steuert, wie viel Denkprozesse das Modell ausführt. Sie können „die Anzahl der Token, die ein Modell während des Denkens generieren darf“, von 0 bis 24.576 Token per Schieberegler in Google AI Studio und Vertex AI oder über einen API-Parameter einstellen. Wird das Denkbudget auf null gesetzt, entsprechen Kosten und Latenz denen von Gemini 2.0 Flash.

Die Preisgestaltung spiegelt diese Flexibilität wider: Eingabetoken kosten 15 Cent pro Million, Ausgabetoken 60 Cent pro Million ohne Denkprozesse. Mit aktiviertem Denken steigen die Kosten auf 3,50 US-Dollar pro Million Token.

Benchmark-Tests zeigen beeindruckende Ergebnisse. Gemini 2.5 Flash „liefert starke Leistungen bei Hard Prompts in LMArena, nur übertroffen von 2.5 Pro“, und „erreicht vergleichbare Werte wie andere führende Modelle – bei einem Bruchteil der Kosten und Größe“ und „bleibt das Modell mit dem besten Preis-Leistungs-Verhältnis.“

Google bezeichnet 2.5 Flash als sein „effizientestes Arbeitspferd-Modell für Geschwindigkeit und niedrige Kosten“ und hebt hervor, dass es „bei wichtigen Benchmarks für Denken, Multimodalität, Code und langen Kontext verbessert wurde und dabei noch effizienter ist – mit 20–30 % weniger Tokenverbrauch“ in den Auswertungen.

Das neue Modell ist derzeit im Vorschaumodus über mehrere Kanäle verfügbar. Es wird „in Google AI Studio (für Entwickler), Vertex AI (für Unternehmen) und der Gemini-App (für alle) ausgerollt.“ Laut Googles I/O-2025-Ankündigungen wird die aktualisierte Version „Anfang Juni allgemein in Google AI Studio für Entwickler und in Vertex AI für Unternehmen verfügbar sein“, gefolgt von Gemini 2.5 Pro „kurz darauf“.

Während Google seine KI-Fähigkeiten weiter ausbaut, stellt Gemini 2.5 Flash einen bedeutenden Schritt dar, fortschrittliches Denken für Entwickler und Nutzer gleichermaßen zugänglicher und kosteneffizienter zu machen.

Source:

Latest News