Anthropic har lanceret sine næste generations AI-modeller, Claude Opus 4 og Claude Sonnet 4, hvilket markerer et betydeligt fremskridt inden for kunstig intelligens, hvor banebrydende kapaciteter balanceres med ansvarlig implementering.
Claude 4-modellerne, der blev lanceret den 22. maj 2025, introducerer et hybridt ræsonnementssystem, som giver brugerne mulighed for at vælge mellem næsten øjeblikkelige svar og udvidet tænkning for dybere analyse. Både Opus 4 og Sonnet 4 er "hybride" modeller, der kan levere næsten øjeblikkelige svar samt udvidet tænkning for dybere ræsonnement. Når ræsonnementstilstand er aktiveret, kan modellerne tage sig mere tid til at overveje mulige løsninger på et givent problem, før de svarer. Mens modellerne ræsonnerer, vises et "brugervenligt" resumé af deres tankeproces.
Anthropic lancerede disse modeller midt i intens konkurrence med Google og OpenAI om titlen som "bedste frontier-model". Claude Opus 4, beskrevet som en "kraftfuld, stor model til komplekse udfordringer", kan udføre tusindvis af trin over flere timers arbejde uden at miste fokus. Anthropic hævder, at Claude Opus 4 er "verdens bedste kodningsmodel" med vedvarende ydeevne på komplekse, langvarige opgaver og agent-workflows.
Bemærkelsesværdigt er det, at Anthropic har aktiveret AI Safety Level 3 (ASL-3) for Claude Opus 4 for at "begrænse risikoen for, at Claude misbruges specifikt til udvikling eller erhvervelse af kemiske, biologiske, radiologiske og nukleare (CBRN) våben." Den Amazon-støttede virksomhed oplyste, at man endnu ikke har fastslået, om Opus 4 har krydset grænsen, der kræver strengere kontrol, men at man tager sine forholdsregler. Denne beslutning fulgte interne fund, der viste, at Opus 4 kunne hjælpe brugere med begrænset ekspertise med at fremstille farlige materialer. Som svar herpå er der implementeret mere end 100 sikkerhedskontroller, herunder realtidsmonitorering, begrænset dataudgang og et bug bounty-program.
Virksomheden oplyser, at Claude Opus 4 og Claude Sonnet 4 definerer en "ny standard" for AI-agenter, der "kan analysere tusindvis af datakilder, udføre langvarige opgaver, skrive indhold i menneskekvalitet og udføre komplekse handlinger." Anthropic, grundlagt af tidligere OpenAI-forskere, lancerede sin Claude-chatbot i marts 2023 og har siden været en del af det tiltagende ophedede AI-kapløb. Anthropic stoppede med at investere i chatbots ved udgangen af sidste år og har i stedet fokuseret på at forbedre Claudes evne til at udføre komplekse opgaver som forskning og kodning.
Begge modeller inkluderer "udvidet tænkning", som gør det muligt for Claude at skifte mellem to tilstande: dybt ræsonnement og handlingsudførelse. Claude kan udføre dataanalyse efter behov, hvilket forbedrer nøjagtigheden undervejs og hjælper den med bedre at forudse og udføre næste skridt. Claude-modellerne kan nu bruge værktøjer som websøgning, mens de engagerer sig i dybere ræsonnement, hvilket gør det muligt at skifte mellem tænkning og værktøjsbrug for at generere bedre resultater. De kan køre værktøjer samtidig, følge instruktioner med større nøjagtighed og vise forbedret hukommelse—de opfanger og lagrer nøgleinformation for at sikre bedre kontekstbevarelse.
Anthropics årlige omsætning nåede 2 milliarder dollars i første kvartal af 2025, mere end en fordobling fra en rate på 1 milliard dollars i den foregående periode. Prisen for Opus 4 er sat til 15 dollars pr. million input-tokens og 75 dollars pr. million output-tokens, mens Sonnet 4 koster 3 dollars for input og 15 dollars for output pr. million tokens.
Efterhånden som AI-evner fortsætter med at udvikle sig, viser Anthropics tilgang, at kraftfulde modeller kan udvikles ansvarligt med sikkerhedsforanstaltninger, der skalerer i takt med de stigende kapaciteter.