menu
close

Anthropics Claude 4: Balanserar AI-kraft med ansvarsfull innovation

Anthropic har lanserat sin Claude 4-serie, med flaggskeppsmodellerna Opus 4 och Sonnet 4 som sätter nya riktmärken för AI-förmåga samtidigt som de inför förbättrade säkerhetsåtgärder. De hybrida modellerna utmärker sig vid komplexa uppgifter som kodning och resonemang, och Claude Opus 4 aktiverar för första gången Anthropics AI-säkerhetsnivå 3-protokoll. Lanseringen sker samtidigt som Anthropics intäkter uppges ha fördubblats till 2 miljarder dollar under första kvartalet 2025, vilket understryker företagets växande inflytande i det konkurrensutsatta AI-landskapet.
Anthropics Claude 4: Balanserar AI-kraft med ansvarsfull innovation

Anthropic har lanserat sina nästa generations AI-modeller, Claude Opus 4 och Claude Sonnet 4, vilket markerar ett betydande framsteg inom artificiell intelligens där banbrytande kapacitet balanseras med ansvarsfull implementering.

Claude 4-modellerna, som släpptes den 22 maj 2025, introducerar ett hybridresonerande system som låter användare välja mellan nästan omedelbara svar och förlängd eftertanke för djupare resonemang. Både Opus 4 och Sonnet 4 är "hybrid"-modeller som kan leverera snabba svar eller ta längre tid för att resonera djupare kring ett problem. Med resonemangsläget aktiverat kan modellerna ta mer tid på sig att överväga möjliga lösningar innan de svarar. Under resonemangsprocessen visas en "användarvänlig" sammanfattning av modellens tankegång.

Anthropic lanserade dessa modeller mitt i hård konkurrens med Google och OpenAI om titeln "bästa gränsmodellen". Claude Opus 4 beskrivs som en "kraftfull, stor modell för komplexa utmaningar" och kan utföra tusentals steg under flera timmars arbete utan att tappa fokus. Anthropic hävdar att Claude Opus 4 är "världens bästa kodningsmodell" med uthållig prestanda vid komplexa, långvariga uppgifter och agentarbetsflöden.

Anmärkningsvärt är att Anthropic har aktiverat AI-säkerhetsnivå 3 (ASL-3) för Claude Opus 4 för att "begränsa risken att Claude används för utveckling eller anskaffning av kemiska, biologiska, radiologiska och nukleära (CBRN) vapen." Det Amazon-stödda bolaget uppgav att man ännu inte avgjort om Opus 4 passerat gränsen som kräver striktare kontroll, men att man vidtar försiktighetsåtgärder. Detta beslut följde på interna upptäckter om att Opus 4 kunde hjälpa användare med begränsad expertis att framställa farliga material. Som svar har över 100 säkerhetskontroller införts, inklusive realtidsövervakning, begränsad datautgång och ett bug bounty-program.

Företaget uppger att Claude Opus 4 och Claude Sonnet 4 definierar en "ny standard" för AI-agenter som "kan analysera tusentals datakällor, utföra långvariga uppgifter, skriva innehåll av mänsklig kvalitet och utföra komplexa handlingar." Anthropic, grundat av tidigare forskningschefer från OpenAI, lanserade sin Claude-chattbot i mars 2023 och har sedan dess varit en del av det allt hetare AI-kapprustningen. Anthropic slutade investera i chattbottar i slutet av förra året och har istället fokuserat på att förbättra Claudes förmåga att utföra komplexa uppgifter som forskning och kodning.

Båda modellerna har "förlängt tänkande", vilket gör det möjligt för Claude att växla mellan två lägen: djupt resonemang och utförande av handlingar. Claude kan vid behov köra dataanalys, vilket förbättrar noggrannheten under arbetets gång och gör det lättare att förutse och genomföra nästa steg. Claude-modellerna kan nu använda verktyg som webbsökning samtidigt som de resonerar djupare, vilket gör att de kan växla mellan tänkande och verktygsanvändning för bättre resultat. De kan köra verktyg parallellt, följa instruktioner med högre precision och har förbättrat minne – de plockar upp och lagrar nyckelinformation för att säkerställa bättre kontextbevarande.

Anthropics årliga intäkter uppgick till 2 miljarder dollar under första kvartalet 2025, mer än en fördubbling från 1 miljard dollar under föregående period. Prissättningen för Opus 4 är satt till 15 dollar per miljon inmatningstoken och 75 dollar per miljon utmatningstoken, medan Sonnet 4 kostar 3 dollar för inmatning och 15 dollar för utmatning per miljon token.

I takt med att AI-förmågan fortsätter att utvecklas visar Anthropics strategi att kraftfulla modeller kan utvecklas ansvarsfullt, med säkerhetsåtgärder som skalar i takt med ökande kapacitet.

Source: Geeky Gadgets

Latest News