Inilunsad ng Anthropic ang pinakabagong henerasyon ng kanilang AI models, ang Claude Opus 4 at Claude Sonnet 4, na nagmamarka ng malaking pag-unlad sa artificial intelligence sa pamamagitan ng pagsasabay ng makabagong kakayahan at responsableng paggamit.
Ang Claude 4 models, na inilabas noong Mayo 22, 2025, ay nagpakilala ng hybrid reasoning system na nagbibigay-daan sa mga user na pumili sa pagitan ng halos instant na tugon at mas malalim na pag-iisip para sa mas masusing pangangatwiran. Parehong "hybrid" ang Opus 4 at Sonnet 4—kayang magbigay ng mabilis na sagot o maglaan ng mas mahabang oras upang pag-isipan ang mga posibleng solusyon bago tumugon. Kapag naka-on ang reasoning mode, mas matagal magproseso ang modelo upang mas mapag-isipan ang sagot, at magpapakita ito ng "user-friendly" na buod ng kanilang proseso ng pag-iisip.
Inilunsad ng Anthropic ang mga modelong ito sa gitna ng matinding kompetisyon laban sa Google at OpenAI para sa titulo ng "pinakamahusay na frontier model." Ang Claude Opus 4, na inilarawan bilang isang "makapangyarihan at malaking modelo para sa mga komplikadong hamon," ay kayang magsagawa ng libu-libong hakbang sa loob ng maraming oras nang hindi nawawala ang pokus. Ipinagmamalaki ng Anthropic na ang Claude Opus 4 ay "ang pinakamahusay na coding model sa mundo," na may matatag na performance sa mga komplikado at matagalang gawain at agent workflows.
Kapansin-pansin, in-activate ng Anthropic ang AI Safety Level 3 (ASL-3) para sa Claude Opus 4 upang "limitahan ang panganib ng maling paggamit ng Claude, partikular para sa pagbuo o pagkuha ng chemical, biological, radiological, at nuclear (CBRN) na mga sandata." Ayon sa kumpanyang suportado ng Amazon, hindi pa nila natutukoy kung lumampas na ang Opus 4 sa benchmark na mangangailangan ng mas mahigpit na kontrol, ngunit nagsasagawa na sila ng mga pag-iingat. Ang desisyong ito ay kasunod ng internal na natuklasan na maaaring makatulong ang Opus 4 sa mga user na may limitadong kaalaman upang makagawa ng mapanganib na materyales. Bilang tugon, mahigit 100 safety controls ang ipinatupad, kabilang ang real-time monitoring, limitadong data egress, at bug bounty program.
Ayon sa kumpanya, ang Claude Opus 4 at Claude Sonnet 4 ay nagtatakda ng "bagong pamantayan" para sa mga AI agent na "kayang mag-analisa ng libu-libong data sources, magsagawa ng matagalang gawain, magsulat ng de-kalidad na nilalaman, at magpatupad ng komplikadong aksyon." Itinatag ng mga dating research executive ng OpenAI ang Anthropic, na inilunsad ang Claude chatbot noong Marso 2023 at mula noon ay naging bahagi ng umiinit na AI arms race. Itinigil ng Anthropic ang pamumuhunan sa chatbots sa pagtatapos ng nakaraang taon at sa halip ay nagtuon sa pagpapahusay ng kakayahan ni Claude sa mga komplikadong gawain gaya ng pananaliksik at pagko-code.
Parehong may "extended thinking" ang dalawang modelo, na nagbibigay-daan kay Claude na lumipat sa pagitan ng dalawang mode: malalim na pangangatwiran at pagsasagawa ng aksyon. Kayang magsagawa ni Claude ng data analysis kung kinakailangan, na nagpapabuti sa katumpakan habang nagtatrabaho—nakakatulong ito upang mas mahusay niyang matukoy at maisakatuparan ang mga susunod na hakbang. Maaari na ring gumamit ng mga tool tulad ng web search ang Claude models habang gumagawa ng mas malalim na pangangatwiran, na nagpapahintulot sa kanilang magpalit-palit sa pagitan ng pag-iisip at paggamit ng tool para makabuo ng mas magagandang resulta. Kayang magpatakbo ng mga tool nang sabay-sabay, sumunod sa mga tagubilin nang mas eksakto, at nagpapakita ng pinahusay na memorya—kinukuha at iniimbak ang mahahalagang impormasyon upang mapanatili ang mas mahusay na konteksto.
Umabot sa $2 bilyon ang taunang kita ng Anthropic sa unang quarter ng 2025, higit doble mula sa $1 bilyon noong nakaraang panahon. Ang presyo ng Opus 4 ay itinakda sa $15 bawat milyong input tokens at $75 bawat milyong output tokens, habang ang Sonnet 4 ay $3 para sa input at $15 para sa output kada milyong tokens.
Habang patuloy na umuunlad ang kakayahan ng AI, ipinapakita ng diskarte ng Anthropic na maaaring bumuo ng makapangyarihang mga modelo nang responsable, kasabay ng mga hakbang sa kaligtasan na sumasabay sa paglawak ng kakayahan.