Anthropic wprowadził na rynek nową generację modeli AI: Claude Opus 4 oraz Claude Sonnet 4, stanowiąc istotny krok naprzód w rozwoju sztucznej inteligencji, która łączy najnowocześniejsze możliwości z odpowiedzialnym wdrażaniem.
Modele Claude 4, zaprezentowane 22 maja 2025 roku, wprowadzają hybrydowy system rozumowania, pozwalający użytkownikom wybierać pomiędzy niemal natychmiastową odpowiedzią a wydłużonym procesem myślowym dla głębszej analizy. Oba modele, Opus 4 i Sonnet 4, oferują tryb „hybrydowy” – mogą odpowiadać błyskawicznie lub poświęcić więcej czasu na rozważenie możliwych rozwiązań danego problemu. W trybie rozumowania modele prezentują „przyjazne dla użytkownika” podsumowanie swojego toku myślenia.
Anthropic zaprezentował te modele w czasie zażartej rywalizacji z Google i OpenAI o miano „najlepszego modelu przełomowego”. Claude Opus 4, określany jako „potężny, duży model do złożonych wyzwań”, potrafi wykonywać tysiące kroków przez wiele godzin bez utraty koncentracji. Firma twierdzi, że Claude Opus 4 to „najlepszy na świecie model do kodowania”, utrzymujący wysoką wydajność przy złożonych, długotrwałych zadaniach i w środowiskach agentowych.
Warto podkreślić, że Anthropic aktywował Poziom Bezpieczeństwa AI 3 (ASL-3) dla Claude Opus 4, aby „ograniczyć ryzyko wykorzystania Claude’a do opracowania lub pozyskania broni chemicznej, biologicznej, radiologicznej i nuklearnej (CBRN)”. Firma wspierana przez Amazon poinformowała, że nie ustalono jeszcze, czy Opus 4 przekroczył próg wymagający jeszcze bardziej rygorystycznych kontroli, ale już teraz wprowadza środki ostrożności. Decyzja ta zapadła po wewnętrznych ustaleniach, że Opus 4 mógłby pomóc osobom o ograniczonej wiedzy w wytwarzaniu niebezpiecznych substancji. W odpowiedzi wdrożono ponad 100 mechanizmów bezpieczeństwa, w tym monitorowanie w czasie rzeczywistym, ograniczenie wypływu danych oraz program nagród za zgłaszanie błędów.
Firma podkreśla, że Claude Opus 4 i Claude Sonnet 4 wyznaczają „nowy standard” dla agentów AI, którzy „analizują tysiące źródeł danych, wykonują długotrwałe zadania, tworzą treści na poziomie ludzkim i realizują złożone działania”. Anthropic, założony przez byłych dyrektorów badawczych OpenAI, uruchomił chatbota Claude w marcu 2023 roku i od tego czasu aktywnie uczestniczy w coraz bardziej zaciętym wyścigu zbrojeń AI. Pod koniec ubiegłego roku Anthropic zaprzestał inwestycji w chatboty, skupiając się na rozwijaniu zdolności Claude’a do realizacji złożonych zadań, takich jak badania naukowe czy programowanie.
Oba modele oferują funkcję „rozszerzonego myślenia”, umożliwiając Claude’owi przełączanie się między dwoma trybami: głębokiego rozumowania i wykonywania działań. Claude może analizować dane w razie potrzeby, poprawiając dokładność w trakcie pracy, co pozwala lepiej przewidywać i realizować kolejne kroki.
Modele Claude mogą teraz korzystać z narzędzi takich jak wyszukiwarka internetowa podczas pogłębionego rozumowania, co pozwala im przełączać się pomiędzy myśleniem a użyciem narzędzi dla uzyskania lepszych rezultatów. Mogą uruchamiać narzędzia równolegle, precyzyjniej wykonywać polecenia i wykazują lepszą pamięć – wychwytując i przechowując kluczowe informacje, by zapewnić lepszy kontekst w kolejnych interakcjach.
Roczny przychód Anthropic osiągnął 2 miliardy dolarów w pierwszym kwartale 2025 roku, ponad dwukrotnie więcej niż w poprzednim okresie (1 miliard dolarów). Ceny za Opus 4 ustalono na 15 dolarów za milion tokenów wejściowych i 75 dolarów za milion tokenów wyjściowych, natomiast Sonnet 4 kosztuje odpowiednio 3 i 15 dolarów za milion tokenów.
W miarę jak możliwości AI stale rosną, podejście Anthropic pokazuje, że można rozwijać potężne modele w sposób odpowiedzialny, wdrażając środki bezpieczeństwa skalujące się wraz ze wzrostem możliwości.