Anthropic выпустила новое поколение моделей искусственного интеллекта — Claude Opus 4 и Claude Sonnet 4, что стало значительным шагом вперед в развитии ИИ, сочетающим передовые возможности с ответственным внедрением.
Модели Claude 4, представленные 22 мая 2025 года, используют гибридную систему рассуждений, позволяющую пользователям выбирать между почти мгновенными ответами и расширенным мышлением для более глубокого анализа. Обе модели, Opus 4 и Sonnet 4, являются «гибридными» — они способны выдавать быстрые ответы и переходить к расширенному рассуждению для поиска более точных решений. При включении режима рассуждения модели тратят больше времени на обдумывание возможных вариантов ответа, а пользователю показывается «дружественное» резюме хода мыслей ИИ.
Anthropic представила эти модели на фоне жесткой конкуренции с Google и OpenAI за звание лучшей передовой ИИ-модели. Claude Opus 4, описываемая как «мощная, крупная модель для сложных задач», способна выполнять тысячи шагов на протяжении многих часов работы, не теряя фокуса. По утверждению Anthropic, Claude Opus 4 — «лучший в мире ИИ для программирования», демонстрирующий стабильную производительность в сложных, длительных задачах и агентных сценариях.
Особенно важно, что Anthropic активировала протокол AI Safety Level 3 (ASL-3) для Claude Opus 4, чтобы «снизить риск использования Claude для разработки или получения химического, биологического, радиологического и ядерного (CBRN) оружия». Компания, поддерживаемая Amazon, заявила, что пока не определила, достигла ли Opus 4 порога, требующего ужесточения контроля, но уже предпринимает меры предосторожности. Это решение последовало за внутренними исследованиями, показавшими, что Opus 4 может помочь пользователям с ограниченными знаниями создавать опасные вещества. В ответ внедрено более 100 мер безопасности, включая мониторинг в реальном времени, ограничение вывода данных и программу поиска уязвимостей (bug bounty).
Компания утверждает, что Claude Opus 4 и Claude Sonnet 4 формируют «новый стандарт» для ИИ-агентов, которые «могут анализировать тысячи источников данных, выполнять длительные задачи, создавать тексты на уровне человека и совершать сложные действия». Anthropic, основанная бывшими руководителями исследовательского подразделения OpenAI, запустила чат-бот Claude в марте 2023 года и с тех пор участвует в нарастающей гонке ИИ. В конце прошлого года компания прекратила инвестировать в чат-ботов и сосредоточилась на улучшении возможностей Claude в сложных задачах, таких как исследования и программирование.
Обе модели поддерживают режим «расширенного мышления», позволяющий Claude переключаться между глубоким рассуждением и выполнением действий. Claude может проводить анализ данных по мере необходимости, повышая точность работы и лучше предугадывая и реализуя следующие шаги. Модели Claude теперь могут использовать инструменты, такие как веб-поиск, одновременно с глубоким рассуждением, что позволяет им переключаться между мышлением и использованием инструментов для получения лучших результатов. Они способны запускать инструменты параллельно, точнее следовать инструкциям и обладают улучшенной памятью — запоминая и сохраняя ключевую информацию для лучшего удержания контекста.
Годовой доход Anthropic достиг $2 млрд в первом квартале 2025 года, более чем удвоившись по сравнению с $1 млрд в предыдущем периоде. Стоимость Opus 4 составляет $15 за миллион входных токенов и $75 за миллион выходных токенов, а Sonnet 4 — $3 и $15 соответственно за миллион токенов.
По мере развития возможностей ИИ подход Anthropic демонстрирует, что мощные модели могут разрабатываться ответственно, с масштабируемыми мерами безопасности, соответствующими росту их возможностей.