menu
close

Anthropics Claude 4: Ausgewogene KI-Power durch verantwortungsvolle Innovation

Anthropic hat seine Claude 4-Serie vorgestellt, darunter die Flaggschiff-Modelle Opus 4 und Sonnet 4, die neue Maßstäbe in der KI-Leistung setzen und gleichzeitig erweiterte Sicherheitsmaßnahmen implementieren. Die Hybrid-Modelle glänzen bei komplexen Aufgaben wie Programmierung und logischem Denken; mit Claude Opus 4 aktiviert Anthropic erstmals die KI-Sicherheitsstufe 3. Die Veröffentlichung erfolgt, während sich der Umsatz von Anthropic im ersten Quartal 2025 auf 2 Milliarden US-Dollar verdoppelt hat – ein Zeichen für den wachsenden Einfluss des Unternehmens im wettbewerbsintensiven KI-Markt.
Anthropics Claude 4: Ausgewogene KI-Power durch verantwortungsvolle Innovation

Anthropic hat mit Claude Opus 4 und Claude Sonnet 4 seine nächste Generation von KI-Modellen vorgestellt und damit einen bedeutenden Fortschritt erzielt, der modernste Fähigkeiten mit verantwortungsvoller Einführung vereint.

Die Claude 4-Modelle, die am 22. Mai 2025 veröffentlicht wurden, führen ein hybrides Reasoning-System ein, das Nutzern erlaubt, zwischen nahezu sofortigen Antworten und erweitertem Nachdenken für tiefere Analysen zu wählen. Sowohl Opus 4 als auch Sonnet 4 sind "Hybrid-Modelle", die sowohl blitzschnelle Antworten als auch längeres Nachdenken für komplexere Schlussfolgerungen ermöglichen. Im Reasoning-Modus nehmen sich die Modelle mehr Zeit, um mögliche Lösungen für ein gegebenes Problem zu erwägen, bevor sie antworten. Während des Denkprozesses zeigen die Modelle eine "benutzerfreundliche" Zusammenfassung ihres Gedankengangs an.

Anthropic bringt diese Modelle inmitten eines intensiven Wettbewerbs mit Google und OpenAI um die Krone des "besten Frontier-Modells" auf den Markt. Claude Opus 4, beschrieben als "leistungsstarkes, großes Modell für komplexe Herausforderungen", kann tausende von Schritten über Stunden hinweg durchführen, ohne den Fokus zu verlieren. Anthropic bezeichnet Claude Opus 4 als "das weltweit beste Modell für Programmierung", das auch bei komplexen, lang andauernden Aufgaben und Agenten-Workflows konstant leistungsfähig bleibt.

Bemerkenswert ist, dass Anthropic für Claude Opus 4 die KI-Sicherheitsstufe 3 (ASL-3) aktiviert hat, um "das Risiko zu begrenzen, dass Claude speziell für die Entwicklung oder Beschaffung chemischer, biologischer, radiologischer und nuklearer (CBRN) Waffen missbraucht wird". Das von Amazon unterstützte Unternehmen erklärte, man habe noch nicht abschließend festgestellt, ob Opus 4 den Schwellenwert überschritten habe, der strengere Kontrollen erfordern würde, gehe aber vorsorglich vor. Diese Entscheidung folgte internen Erkenntnissen, dass Opus 4 Nutzern mit begrenztem Fachwissen helfen könnte, gefährliche Materialien herzustellen. In Reaktion darauf wurden über 100 Sicherheitskontrollen implementiert, darunter Echtzeit-Überwachung, eingeschränkter Datenabfluss und ein Bug-Bounty-Programm.

Das Unternehmen erklärt, Claude Opus 4 und Claude Sonnet 4 würden einen "neuen Standard" für KI-Agenten setzen, die "tausende Datenquellen analysieren, langwierige Aufgaben ausführen, Inhalte in menschlicher Qualität verfassen und komplexe Aktionen durchführen" können. Anthropic, gegründet von ehemaligen OpenAI-Forschungsleitern, brachte seinen Claude-Chatbot im März 2023 auf den Markt und ist seither Teil des immer intensiveren KI-Wettlaufs. Ende letzten Jahres stellte Anthropic die Investitionen in Chatbots ein und konzentrierte sich stattdessen darauf, Claudes Fähigkeiten bei komplexen Aufgaben wie Forschung und Programmierung zu verbessern.

Beide Modelle verfügen über "erweitertes Nachdenken", das Claude erlaubt, zwischen zwei Modi zu wechseln: tiefes Reasoning und Ausführung von Aktionen. Claude kann bei Bedarf Datenanalysen durchführen und so die Genauigkeit während der Arbeit verbessern, was hilft, nächste Schritte besser vorherzusehen und umzusetzen. Claude-Modelle können nun Werkzeuge wie Websuche während des Reasonings nutzen und so zwischen Nachdenken und Werkzeuggebrauch wechseln, um bessere Ergebnisse zu erzielen. Sie können Tools parallel ausführen, Anweisungen präziser befolgen und verfügen über ein verbessertes Gedächtnis – sie erfassen und speichern Schlüsselinformationen, um den Kontext besser zu behalten.

Der annualisierte Umsatz von Anthropic erreichte im ersten Quartal 2025 2 Milliarden US-Dollar und hat sich damit gegenüber dem Vorjahreszeitraum mehr als verdoppelt. Die Preise für Opus 4 liegen bei 15 US-Dollar pro einer Million Input-Tokens und 75 US-Dollar pro einer Million Output-Tokens, während Sonnet 4 mit 3 US-Dollar für Input und 15 US-Dollar für Output pro einer Million Tokens berechnet wird.

Während die KI-Fähigkeiten weiter voranschreiten, zeigt Anthropics Ansatz, dass leistungsstarke Modelle verantwortungsvoll entwickelt werden können – mit Sicherheitsmaßnahmen, die mit den wachsenden Möglichkeiten skalieren.

Source: Geeky Gadgets

Latest News