A Anthropic lançou os seus modelos de IA de nova geração, Claude Opus 4 e Claude Sonnet 4, marcando um avanço significativo na inteligência artificial ao equilibrar capacidades de ponta com uma implementação responsável.
Os modelos Claude 4, lançados a 22 de maio de 2025, introduzem um sistema híbrido de raciocínio que permite aos utilizadores escolher entre respostas quase instantâneas e um pensamento prolongado para um raciocínio mais profundo. Ambos os modelos, Opus 4 e Sonnet 4, são "híbridos" e capazes de respostas rápidas ou de um raciocínio mais elaborado. Com o modo de raciocínio ativado, os modelos podem demorar mais tempo a considerar possíveis soluções para um determinado problema antes de responder. Durante este processo, apresentam um resumo "amigável" do seu raciocínio ao utilizador.
A Anthropic estreou estes modelos num contexto de intensa competição com a Google e a OpenAI pela liderança dos chamados "modelos de fronteira". O Claude Opus 4, descrito como um "modelo poderoso e de grande dimensão para desafios complexos", é capaz de realizar milhares de passos ao longo de horas de trabalho sem perder o foco. A Anthropic afirma que o Claude Opus 4 é "o melhor modelo de programação do mundo", com desempenho consistente em tarefas longas e complexas, bem como em fluxos de trabalho de agentes.
De salientar que a Anthropic ativou o Nível 3 de Segurança de IA (ASL-3) para o Claude Opus 4, de modo a "limitar o risco de o Claude ser utilizado para o desenvolvimento ou aquisição de armas químicas, biológicas, radiológicas e nucleares (CBRN)". A empresa, apoiada pela Amazon, referiu que ainda não determinou se o Opus 4 ultrapassou o limiar que exigiria controlos mais apertados, mas está a tomar precauções. Esta decisão surgiu após conclusões internas de que o Opus 4 poderia ajudar utilizadores com pouca experiência a produzir materiais perigosos. Em resposta, foram implementados mais de 100 controlos de segurança, incluindo monitorização em tempo real, restrições na saída de dados e um programa de recompensas por deteção de vulnerabilidades.
A empresa afirma que o Claude Opus 4 e o Claude Sonnet 4 estão a definir um "novo padrão" para agentes de IA que "podem analisar milhares de fontes de dados, executar tarefas prolongadas, escrever conteúdos com qualidade humana e realizar ações complexas". A Anthropic, fundada por antigos executivos de investigação da OpenAI, lançou o seu chatbot Claude em março de 2023 e, desde então, tem sido protagonista na crescente corrida armamentista da IA. No final do ano passado, a Anthropic deixou de investir em chatbots para se focar na melhoria da capacidade do Claude para executar tarefas complexas como investigação e programação.
Ambos os modelos incluem "pensamento prolongado", permitindo ao Claude alternar entre dois modos: raciocínio profundo e execução de ações. O Claude pode realizar análises de dados conforme necessário, melhorando a precisão à medida que trabalha, o que o ajuda a antecipar e executar melhor os próximos passos.
Os modelos Claude podem agora utilizar ferramentas como pesquisa na web enquanto desenvolvem raciocínios mais profundos, permitindo alternar entre pensamento e uso de ferramentas para gerar melhores resultados. Podem executar ferramentas em simultâneo, seguir instruções com maior precisão e demonstrar memória aprimorada — captando e armazenando informações-chave para garantir melhor retenção de contexto.
A receita anualizada da Anthropic atingiu os 2 mil milhões de dólares no primeiro trimestre de 2025, mais do que duplicando face ao ritmo de 1 mil milhão do período anterior. O preço do Opus 4 está fixado em 15 dólares por milhão de tokens de entrada e 75 dólares por milhão de tokens de saída, enquanto o Sonnet 4 custa 3 dólares por milhão de tokens de entrada e 15 dólares por milhão de tokens de saída.
À medida que as capacidades da IA continuam a evoluir, a abordagem da Anthropic demonstra que é possível desenvolver modelos poderosos de forma responsável, com medidas de segurança que acompanham o aumento das capacidades.