menu
close

Atualização R1 da DeepSeek desafia gigantes da IA com raciocínio melhorado

A startup chinesa DeepSeek lançou o R1-0528, uma atualização significativa do seu modelo de raciocínio open-source, que agora rivaliza com soluções proprietárias da OpenAI e Google. O modelo melhorado apresenta uma precisão matemática drasticamente superior, saltando de 70% para 87,5% no teste AIME 2025 ao duplicar a sua capacidade de raciocínio. A DeepSeek lançou ainda uma versão destilada mais pequena, com 8 mil milhões de parâmetros, capaz de funcionar numa única GPU sem comprometer o desempenho.
Atualização R1 da DeepSeek desafia gigantes da IA com raciocínio melhorado

A DeepSeek, uma startup chinesa de inteligência artificial, melhorou significativamente o seu modelo de raciocínio open-source com o lançamento do R1-0528, aproximando o seu desempenho dos líderes da indústria como o o3 da OpenAI e o Gemini 2.5 Pro da Google.

Esta atualização representa um avanço importante nas capacidades de raciocínio da DeepSeek, graças ao aumento dos recursos computacionais e à optimização algorítmica. Nos testes de referência, o modelo demonstrou melhorias notáveis no raciocínio matemático, com a precisão no teste de matemática AIME 2025 a subir de 70% para 87,5%. Esta evolução resulta de uma maior profundidade de raciocínio, com o modelo a utilizar agora uma média de 23.000 tokens por pergunta, em comparação com os anteriores 12.000.

Para além das melhorias matemáticas, o R1-0528 oferece várias funcionalidades adicionais que o tornam mais amigável para programadores. O modelo suporta agora prompts de sistema, chamadas de funções e saída em formato JSON, facilitando a integração em aplicações. Apresenta ainda uma taxa de alucinação reduzida — alegadamente menos 45-50% em tarefas de reescrita e resumo — e proporciona melhor suporte para "vibe coding", permitindo que os programadores gerem código a partir de linguagem natural.

Num desenvolvimento relevante para utilizadores com recursos limitados, a DeepSeek lançou também uma versão destilada chamada DeepSeek-R1-0528-Qwen3-8B. Criada através do ajuste fino do modelo Qwen3 8B da Alibaba com os padrões de raciocínio do R1-0528 completo, este modelo mais pequeno pode correr numa única GPU de consumo, superando ainda o Gemini 2.5 Flash da Google em certos benchmarks matemáticos e aproximando-se do modelo Phi 4 reasoning plus da Microsoft.

Tal como o seu antecessor, o R1-0528 está disponível sob a licença permissiva MIT, permitindo utilização comercial e personalização. Grandes fornecedores de cloud, incluindo a Amazon Web Services e a Microsoft Azure, já disponibilizam os modelos da DeepSeek aos seus clientes, embora os isolem de servidores chineses para garantir a privacidade dos dados.

Este lançamento consolida ainda mais a DeepSeek e a Meta como líderes no espaço de IA open-source, oferecendo alternativas poderosas aos modelos proprietários da OpenAI, Google, Microsoft e Anthropic, a uma fração do custo computacional.

Source:

Latest News