menu
close

Η Αναβάθμιση R1 της DeepSeek Ανταγωνίζεται τους Γίγαντες της Τεχνητής Νοημοσύνης με Βελτιωμένη Συλλογιστική

Η κινεζική startup τεχνητής νοημοσύνης DeepSeek κυκλοφόρησε το R1-0528, μια σημαντική αναβάθμιση του ανοιχτού κώδικα μοντέλου συλλογιστικής της, το οποίο πλέον ανταγωνίζεται τις ιδιόκτητες λύσεις των OpenAI και Google. Το ενισχυμένο μοντέλο παρουσιάζει εντυπωσιακά βελτιωμένη μαθηματική ακρίβεια, εκτοξεύοντας το σκορ του από 70% σε 87,5% στο τεστ AIME 2025, διπλασιάζοντας τη συλλογιστική του ικανότητα. Η DeepSeek κυκλοφόρησε επίσης μια μικρότερη, αποσταγμένη έκδοση 8 δισεκατομμυρίων παραμέτρων που μπορεί να λειτουργήσει σε μία μόνο GPU, διατηρώντας παράλληλα εντυπωσιακές επιδόσεις.
Η Αναβάθμιση R1 της DeepSeek Ανταγωνίζεται τους Γίγαντες της Τεχνητής Νοημοσύνης με Βελτιωμένη Συλλογιστική

Η DeepSeek, μια κινεζική startup τεχνητής νοημοσύνης, αναβάθμισε σημαντικά το ανοιχτού κώδικα μοντέλο συλλογιστικής της με την κυκλοφορία του R1-0528, φέρνοντας τις επιδόσεις του σχεδόν στο ίδιο επίπεδο με κορυφαίους παίκτες της αγοράς όπως το o3 της OpenAI και το Gemini 2.5 Pro της Google.

Η αναβάθμιση αυτή σηματοδοτεί μια σημαντική πρόοδο στις συλλογιστικές δυνατότητες της DeepSeek, αξιοποιώντας αυξημένους υπολογιστικούς πόρους και βελτιστοποίηση αλγορίθμων. Σε δοκιμές αξιολόγησης, το μοντέλο παρουσίασε εντυπωσιακή βελτίωση στη μαθηματική συλλογιστική, με την ακρίβεια στο τεστ μαθηματικών AIME 2025 να αυξάνεται από 70% σε 87,5%. Αυτή η πρόοδος οφείλεται στη μεγαλύτερη βάθος συλλογιστικής, με το μοντέλο να χρησιμοποιεί πλέον κατά μέσο όρο 23.000 tokens ανά ερώτηση, έναντι 12.000 προηγουμένως.

Πέρα από τις μαθηματικές βελτιώσεις, το R1-0528 προσφέρει αρκετά ενισχυμένα χαρακτηριστικά που το καθιστούν πιο φιλικό προς τους προγραμματιστές. Το μοντέλο υποστηρίζει πλέον system prompts, function calling και έξοδο σε μορφή JSON, διευκολύνοντας την ενσωμάτωσή του σε εφαρμογές. Επίσης, εμφανίζει μειωμένο ποσοστό "παραισθήσεων" — μείωση κατά 45-50% σε εργασίες αναδιατύπωσης και περίληψης — και προσφέρει καλύτερη υποστήριξη για vibe coding, όπου οι προγραμματιστές δημιουργούν κώδικα με φυσική γλώσσα.

Σε μια σημαντική εξέλιξη για χρήστες με περιορισμένους πόρους, η DeepSeek κυκλοφόρησε επίσης μια αποσταγμένη έκδοση με την ονομασία DeepSeek-R1-0528-Qwen3-8B. Η έκδοση αυτή δημιουργήθηκε με fine-tuning του μοντέλου Qwen3 8B της Alibaba, ενσωματώνοντας τα μοτίβα συλλογιστικής του πλήρους R1-0528. Το μικρότερο αυτό μοντέλο μπορεί να λειτουργήσει σε μια απλή καταναλωτική GPU, ενώ ξεπερνά το Gemini 2.5 Flash της Google σε ορισμένα μαθηματικά benchmarks και πλησιάζει το Phi 4 reasoning plus της Microsoft.

Όπως και ο προκάτοχός του, το R1-0528 διατίθεται υπό την ευέλικτη άδεια MIT, επιτρέποντας εμπορική χρήση και προσαρμογή. Μεγάλοι πάροχοι cloud, όπως η Amazon Web Services και η Microsoft Azure, προσφέρουν πλέον τα μοντέλα της DeepSeek στους πελάτες τους, απομονώνοντάς τα ωστόσο από κινεζικούς servers για τη διασφάλιση της ιδιωτικότητας των δεδομένων.

Αυτή η κυκλοφορία εδραιώνει περαιτέρω τη DeepSeek και τη Meta ως ηγέτες στον χώρο της ανοιχτής τεχνητής νοημοσύνης, προσφέροντας ισχυρές εναλλακτικές λύσεις έναντι των ιδιόκτητων μοντέλων των OpenAI, Google, Microsoft και Anthropic, με σημαντικά χαμηλότερο υπολογιστικό κόστος.

Source:

Latest News