A OpenAI prepara-se para mudar fundamentalmente a forma como os utilizadores interagem com a sua tecnologia de IA com o lançamento do GPT-5, previsto para o verão de 2025.
A empresa confirmou que o GPT-5 irá unificar avanços de vários modelos especializados num único sistema mais capaz. Com o GPT-5, a OpenAI pretende juntar as capacidades inovadoras da sua linha de produtos e oferecer o melhor de ambos os mundos. "Estamos verdadeiramente entusiasmados por não só criar um novo modelo de fronteira, mas também por unificar as nossas duas séries", afirma Romain Huet, Diretor de Experiência do Desenvolvedor da OpenAI. "A inovação no raciocínio da série O e os avanços na multimodalidade da série GPT serão unificados, e isso será o GPT-5."
Esta abordagem unificada irá eliminar a necessidade de alternar entre versões especializadas, integrando raciocínio, entrada multimodal e execução de tarefas num único modelo. Está especificamente desenhada para raciocínio avançado e multi-etapas, com significativamente menos alucinações em comparação com modelos anteriores.
Atualmente, a OpenAI mantém modelos separados para diferentes capacidades: Os utilizadores têm de escolher entre diferentes modelos especializados para tarefas específicas. Até agora, estas tarefas estão distribuídas entre o GPT-4.1, Dall-E, GPT-4o, o3, Advanced Voice, Vision e Sora. Neste momento, se quiser utilizar as ferramentas da OpenAI, está constantemente a alternar entre o GPT-4 para tarefas gerais, o GPT-4o para trabalho multimodal e vários modelos de raciocínio para problemas complexos. O GPT-5 muda isto completamente ao ajustar automaticamente a sua abordagem com base no que pretende realizar. Já não é preciso adivinhar qual o modelo a escolher – o sistema trata dessa decisão de forma automática.
A partir dos modelos da série o, como o o1 e o o3, o GPT-5 irá integrar o verdadeiro raciocínio em cadeia como uma funcionalidade central, em vez de um complemento opcional. Isto significa que o modelo irá lidar com lógica multi-etapas e resolução de problemas complexos de forma mais eficaz. O GPT-4o já lida com texto, imagens e voz, mas isso é apenas o ponto de partida. O GPT-5 pega nesta base e constrói algo muito mais sofisticado – potencialmente incluindo capacidades completas de processamento de vídeo, aproveitando o trabalho que a OpenAI realizou com o Sora.
Numa entrevista recente, Sam Altman, CEO e cofundador da OpenAI, confirmou que a data de lançamento do modelo GPT-5 do ChatGPT será durante o verão, mas depende de vários fatores. A OpenAI tem benchmarks internos e outros padrões definidos para o GPT-5 e, caso não sejam cumpridos, a empresa poderá não lançar o modelo ao público. Sam acrescentou que não sabe 'exatamente quando' o GPT-5 será lançado, mas garante que haverá melhorias significativas.
Esta abordagem unificada representa uma mudança significativa no desenvolvimento de modelos de IA, afastando-se de modelos especializados para sistemas mais versáteis e integrados, capazes de lidar com vários tipos de tarefas de forma mais eficiente. Para os utilizadores, isto significa uma experiência mais fluida, sem a necessidade de aprender qual o modelo mais adequado para cada tarefa.