menu
close

Google stellt Gemini 2.5 Deep Think auf der I/O 2025 vor

Google hat auf der I/O 2025 bedeutende Verbesserungen für seine Gemini 2.5 KI-Modelle angekündigt und mit Deep Think einen experimentellen Modus für erweitertes Schlussfolgern vorgestellt, der es den Modellen ermöglicht, mehrere Hypothesen vor einer Antwort zu berücksichtigen. Zudem wurde LearnLM direkt in Gemini 2.5 integriert, wodurch es laut Googles Benchmarks zum weltweit führenden Lernmodell avanciert. Gemini 2.5 Flash, eine neue, auf Geschwindigkeit und Effizienz optimierte Vorschauversion, wird ab Anfang Juni für alle in der Gemini-App sowie für Entwickler über Google AI Studio verfügbar sein.
Google stellt Gemini 2.5 Deep Think auf der I/O 2025 vor

Google hat auf seiner jährlichen Entwicklerkonferenz I/O 2025 bedeutende Updates für seine Gemini KI-Plattform vorgestellt und dabei Fortschritte in den Bereichen Schlussfolgerungsvermögen und Bildungsanwendungen präsentiert.

Im Mittelpunkt stand die Einführung von Deep Think, einem experimentellen Modus für erweitertes Schlussfolgern in Gemini 2.5 Pro. Diese neue Funktion nutzt Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu prüfen, bevor es eine Antwort gibt. Laut Google erzielt 2.5 Pro Deep Think beeindruckende Ergebnisse beim USAMO 2025, einem der aktuell schwierigsten Mathematik-Benchmarks, und führt das LiveCodeBench-Ranking an, einen anspruchsvollen Benchmark für wettbewerbsfähiges Programmieren.

Google gab außerdem bekannt, dass LearnLM direkt in Gemini 2.5 integriert wurde und positioniert das Modell damit als „das weltweit führende Lernmodell“. Wie im aktuellen Bericht von Google dargelegt, übertrifft Gemini 2.5 Pro die Konkurrenz in allen Kategorien der Lernwissenschaften. Das Modell führt nun auch beliebte praxisnahe Bestenlisten wie WebDev Arena für Programmierung und LMArena an, die menschliche Präferenzen für Modellantworten misst. Dank der Integration von LearnLM, Googles Modellfamilie für Bildung, wird 2.5 Pro als führendes Lernmodell angepriesen, das von Lehrkräften wegen seiner Unterrichtseffektivität bevorzugt wird.

Google-CEO Sundar Pichai hob den rasanten Fortschritt der Gemini-Modelle hervor und betonte: „Gemini 2.5 Pro führt das LMArena-Ranking in allen Kategorien an.“ Das Unternehmen präsentierte außerdem Gemini 2.5 Flash, das als „leistungsstarkes und effizientestes Arbeitspferd-Modell“ beschrieben wird und „bei Entwicklern, die seine Geschwindigkeit und niedrigen Kosten schätzen, äußerst beliebt ist“. Das neue 2.5 Flash verbessert sich in wichtigen Benchmarks für Schlussfolgern, Multimodalität, Programmierung und langen Kontext und belegt im LMArena-Ranking direkt hinter 2.5 Pro den zweiten Platz.

Gemini 2.5 Flash ist ab sofort für alle in der Gemini-App verfügbar; die allgemeine Verfügbarkeit für Entwickler über Google AI Studio und für Unternehmen über Vertex AI folgt Anfang Juni. Gemini 2.5 Pro wird kurz darauf verfügbar sein. Google führt diesen Fortschritt auf „das unermüdliche Engagement der Teams bei Google zurück, unsere Technologien stetig zu verbessern und sie sicher sowie verantwortungsvoll zu entwickeln und bereitzustellen“.

Angetrieben werden diese Fortschritte von Ironwood, Googles siebter Generation der Tensor Processing Units (TPU), die das Unternehmen als seine „leistungsstärkste, fähigste und energieeffizienteste TPU aller Zeiten“ beschreibt. Ironwood ist speziell dafür entwickelt, denkende, schlussfolgernde KI-Modelle im großen Maßstab zu betreiben und unterstützt die anspruchsvollsten KI-Trainings- und Bereitstellungs-Workloads von Google.

Mit diesen Neuerungen setzt Google weiterhin Maßstäbe im Bereich KI-Schlussfolgern und Bildung, definiert Leistungsbenchmarks neu und betont dabei die verantwortungsvolle Entwicklung und Implementierung.

Source: Blog

Latest News