Anthropic heeft zijn nieuwe generatie AI-modellen gelanceerd: Claude Opus 4 en Claude Sonnet 4. Deze modellen vormen een belangrijke stap vooruit in kunstmatige intelligentie, waarbij geavanceerde mogelijkheden worden gecombineerd met verantwoord gebruik.
De Claude 4-modellen, uitgebracht op 22 mei 2025, introduceren een hybride redeneersysteem waarmee gebruikers kunnen kiezen tussen vrijwel directe antwoorden en uitgebreidere denkprocessen voor diepgaandere analyses. Beide modellen, Opus 4 en Sonnet 4, zijn 'hybride' en kunnen dus snel reageren of juist meer tijd nemen om mogelijke oplossingen te overwegen. Wanneer de redeneermodus is ingeschakeld, nemen de modellen extra tijd om tot een antwoord te komen en tonen ze een gebruiksvriendelijke samenvatting van hun denkproces.
Anthropic bracht deze modellen uit te midden van hevige concurrentie met Google en OpenAI om de titel van 'beste frontier-model'. Claude Opus 4 wordt omschreven als een krachtig, groot model voor complexe uitdagingen en kan duizenden stappen uitvoeren over uren werk zonder zijn focus te verliezen. Volgens Anthropic is Claude Opus 4 'het beste codemodel ter wereld', met consistente prestaties bij complexe, langdurige taken en agent-workflows.
Opmerkelijk is dat Anthropic voor Claude Opus 4 AI Safety Level 3 (ASL-3) heeft geactiveerd om 'het risico te beperken dat Claude wordt misbruikt voor de ontwikkeling of verwerving van chemische, biologische, radiologische en nucleaire (CBRN) wapens.' Het door Amazon gesteunde bedrijf gaf aan dat nog niet was vastgesteld of Opus 4 de grens had overschreden die strengere controle vereist, maar dat het uit voorzorg deze maatregel neemt. Deze beslissing volgde op interne bevindingen dat Opus 4 gebruikers met beperkte expertise zou kunnen helpen bij het produceren van gevaarlijke stoffen. Als reactie daarop zijn meer dan 100 veiligheidsmaatregelen geïmplementeerd, waaronder realtime monitoring, beperkte data-uitvoer en een bug bounty-programma.
Volgens het bedrijf zetten Claude Opus 4 en Claude Sonnet 4 een 'nieuwe standaard' voor AI-agenten die 'duizenden databronnen kunnen analyseren, langdurige taken uitvoeren, content van menselijke kwaliteit schrijven en complexe handelingen verrichten.' Anthropic, opgericht door voormalige onderzoeksleiders van OpenAI, lanceerde zijn Claude-chatbot in maart 2023 en is sindsdien een belangrijke speler in de steeds intensievere AI-wapenwedloop. Eind vorig jaar stopte Anthropic met investeren in chatbots en richtte het zich op het verbeteren van Claude’s vermogen om complexe taken uit te voeren, zoals onderzoek en programmeren.
Beide modellen beschikken over 'uitgebreid denken', waarmee Claude kan schakelen tussen twee modi: diepgaande redenering en het uitvoeren van acties. Claude kan waar nodig data-analyses uitvoeren, waardoor de nauwkeurigheid tijdens het werken verbetert en het model beter kan anticiperen op volgende stappen.
Claude-modellen kunnen nu hulpmiddelen zoals websearch inzetten tijdens diepgaand redeneren, zodat ze kunnen wisselen tussen denken en het gebruik van tools om betere resultaten te genereren. Ze kunnen tools gelijktijdig gebruiken, instructies nauwkeuriger opvolgen en beschikken over verbeterd geheugen—waardoor belangrijke informatie wordt opgeslagen en de context beter behouden blijft.
De jaarlijkse omzet van Anthropic bereikte in het eerste kwartaal van 2025 $2 miljard, meer dan een verdubbeling ten opzichte van het voorgaande kwartaal. De prijsstelling voor Opus 4 bedraagt $15 per miljoen inputtokens en $75 per miljoen outputtokens, terwijl Sonnet 4 $3 per miljoen inputtokens en $15 per miljoen outputtokens kost.
Nu AI-capaciteiten zich verder ontwikkelen, laat de aanpak van Anthropic zien dat krachtige modellen op een verantwoorde manier kunnen worden ontwikkeld, met veiligheidsmaatregelen die meegroeien met de toenemende mogelijkheden.