Anthropic пусна следващото поколение ИИ модели – Claude Opus 4 и Claude Sonnet 4, отбелязвайки значителен напредък в изкуствения интелект, който съчетава най-съвременни възможности с отговорно внедряване.
Моделите Claude 4, представени на 22 май 2025 г., въвеждат хибридна система за разсъждение, която позволява на потребителите да избират между почти мигновени отговори и удължено мислене за по-задълбочен анализ. И Opus 4, и Sonnet 4 са „хибридни“ модели, способни както на бързи отговори, така и на задълбочено разсъждение. Когато е активиран режимът за разсъждение, моделите отделят повече време, за да обмислят възможните решения на даден проблем преди да отговорят. Докато разсъждават, те показват „удобно за потребителя“ обобщение на мисловния си процес.
Anthropic представи тези модели на фона на ожесточена конкуренция с Google и OpenAI за короната на „най-добрия граничен модел“. Claude Opus 4, описван като „мощен, голям модел за сложни предизвикателства“, може да изпълнява хиляди стъпки в продължение на часове работа, без да губи фокус. Anthropic твърди, че Claude Opus 4 е „най-добрият в света модел за програмиране“, с устойчиво представяне при сложни, дълготрайни задачи и агентни работни процеси.
Особено важно е, че Anthropic активира протоколите за безопасност на ИИ от ниво 3 (ASL-3) за Claude Opus 4, за да „ограничи риска Claude да бъде използван неправомерно, особено за разработване или придобиване на химически, биологични, радиологични и ядрени (CBRN) оръжия“. Компанията, подкрепяна от Amazon, заяви, че все още не е установила дали Opus 4 е преминал прага, изискващ по-строг контрол, но предприема предпазни мерки. Това решение е взето след вътрешни анализи, показващи, че Opus 4 може да помогне на потребители с ограничен опит да създадат опасни материали. В отговор са въведени над 100 мерки за безопасност, включително мониторинг в реално време, ограничен изход на данни и програма за откриване на уязвимости.
Компанията заявява, че Claude Opus 4 и Claude Sonnet 4 определят „нов стандарт“ за ИИ агенти, които „могат да анализират хиляди източници на данни, да изпълняват дълготрайни задачи, да пишат текстове с човешко качество и да извършват сложни действия“. Anthropic, основана от бивши ръководители на OpenAI, пусна чатбота Claude през март 2023 г. и оттогава е част от все по-ожесточената надпревара в ИИ. В края на миналата година Anthropic спря инвестициите в чатботове и се фокусира върху подобряване на способностите на Claude за сложни задачи като изследвания и програмиране.
И двата модела включват „разширено мислене“, което позволява на Claude да превключва между два режима: дълбоко разсъждение и изпълнение на действия. Claude може да извършва анализ на данни при необходимост, подобрявайки точността в процеса на работа, което му помага по-добре да предвижда и изпълнява следващите стъпки. Моделите Claude вече могат да използват инструменти като уеб търсене, докато извършват по-задълбочено разсъждение, което им позволява да превключват между мислене и използване на инструменти за по-добри резултати. Те могат да използват няколко инструмента едновременно, да следват инструкции с по-голяма точност и да показват подобрена памет – улавяйки и съхранявайки ключова информация за по-добро запазване на контекста.
Годишните приходи на Anthropic достигнаха 2 милиарда долара през първото тримесечие на 2025 г., като повече от удвоиха темпа от 1 милиард долара за предходния период. Цената за Opus 4 е определена на 15 долара за милион входни токени и 75 долара за милион изходни токени, докато Sonnet 4 струва 3 долара за вход и 15 долара за изход на милион токени.
С напредъка на възможностите на изкуствения интелект, подходът на Anthropic показва, че мощни модели могат да бъдат разработвани отговорно, с мерки за безопасност, които се развиват паралелно с нарастващите възможности.