menu
close

Aktualizacja R1 od DeepSeek rzuca wyzwanie gigantom AI dzięki ulepszonemu rozumowaniu

Chiński startup AI, DeepSeek, wypuścił R1-0528 — znaczącą aktualizację swojego otwartoźródłowego modelu rozumowania, który teraz dorównuje zamkniętym rozwiązaniom od OpenAI i Google. Ulepszony model wykazuje znacznie wyższą dokładność matematyczną, skacząc z 70% do 87,5% w teście AIME 2025 dzięki podwojeniu zdolności rozumowania. DeepSeek udostępnił także mniejszą, 8-miliardową wersję destylowaną, którą można uruchomić na pojedynczym GPU, zachowując imponującą wydajność.
Aktualizacja R1 od DeepSeek rzuca wyzwanie gigantom AI dzięki ulepszonemu rozumowaniu

DeepSeek, chiński startup zajmujący się sztuczną inteligencją, znacząco ulepszył swój otwartoźródłowy model rozumowania, wydając wersję R1-0528, której wydajność niemal dorównuje liderom branży, takim jak o3 od OpenAI czy Gemini 2.5 Pro od Google.

Aktualizacja stanowi duży krok naprzód w możliwościach rozumowania DeepSeek, osiągnięty dzięki zwiększonym zasobom obliczeniowym i optymalizacji algorytmicznej. W testach porównawczych model wykazał imponującą poprawę w rozumowaniu matematycznym — dokładność w teście matematycznym AIME 2025 wzrosła z 70% do 87,5%. Ten postęp wynika z pogłębionej zdolności rozumowania: model wykorzystuje teraz średnio 23 000 tokenów na pytanie, podczas gdy wcześniej było to 12 000.

Poza usprawnieniami matematycznymi, R1-0528 oferuje szereg nowych funkcji przyjaznych dla deweloperów. Model obsługuje teraz prompty systemowe, wywoływanie funkcji oraz generowanie wyników w formacie JSON, co ułatwia jego integrację z aplikacjami. Wykazuje także niższy wskaźnik halucynacji — według raportów spadł on o 45–50% w zadaniach parafrazowania i podsumowywania — oraz zapewnia lepsze wsparcie dla tzw. vibe codingu, gdzie programiści generują kod za pomocą języka naturalnego.

Ważną nowością dla użytkowników z ograniczonymi zasobami jest wydanie destylowanej wersji modelu — DeepSeek-R1-0528-Qwen3-8B. Powstała ona poprzez dostrojenie modelu Qwen3 8B od Alibaba wzorcami rozumowania z pełnej wersji R1-0528. Ten mniejszy model może działać na pojedynczym, konsumenckim GPU, a mimo to przewyższa Gemini 2.5 Flash od Google w niektórych testach matematycznych i niemal dorównuje modelowi Phi 4 reasoning plus od Microsoftu.

Podobnie jak poprzednik, R1-0528 jest dostępny na licencji MIT, umożliwiającej komercyjne wykorzystanie i modyfikacje. Najwięksi dostawcy chmury, w tym Amazon Web Services i Microsoft Azure, oferują już modele DeepSeek swoim klientom, przy czym są one odseparowane od chińskich serwerów w celu zapewnienia prywatności danych.

To wydanie jeszcze mocniej umacnia pozycję DeepSeek i Meta jako liderów otwartoźródłowej sztucznej inteligencji, oferując potężne alternatywy dla zamkniętych modeli od OpenAI, Google, Microsoftu i Anthropic, przy znacznie niższych kosztach obliczeniowych.

Source:

Latest News