Η OpenAI, ένας από τους μεγαλύτερους πελάτες παγκοσμίως των μονάδων γραφικών επεξεργασίας (GPU) της NVIDIA, ξεκίνησε δοκιμές των Tensor Processing Units (TPUs) της Google για την τροφοδοσία των συστημάτων AI της, συμπεριλαμβανομένου του ChatGPT. Η κίνηση αυτή έρχεται καθώς η εταιρεία αντιμετωπίζει αυξανόμενα έξοδα υπολογιστικής ισχύος και αναζητά πιο οικονομικές λύσεις για τις διευρυνόμενες λειτουργίες AI της.
Σύμφωνα με αναλυτές του κλάδου, το inference—η διαδικασία κατά την οποία τα μοντέλα AI χρησιμοποιούν εκπαιδευμένη γνώση για να κάνουν προβλέψεις ή να λαμβάνουν αποφάσεις—καταναλώνει πλέον πάνω από το 50% του προϋπολογισμού υπολογιστικής ισχύος της OpenAI. Τα TPUs, ειδικά παλαιότερων γενεών, προσφέρουν σημαντικά χαμηλότερο κόστος ανά inference σε σύγκριση με τα GPUs της NVIDIA, καθιστώντας τα ελκυστική εναλλακτική, παρά το γεγονός ότι ενδέχεται να υστερούν σε μέγιστη απόδοση έναντι των νεότερων chip της NVIDIA.
«Αν και τα παλαιότερα TPUs υστερούν σε μέγιστη απόδοση έναντι των νεότερων chip της Nvidia, η εξειδικευμένη αρχιτεκτονική τους ελαχιστοποιεί τη σπατάλη ενέργειας και τους αδρανείς πόρους, καθιστώντας τα πιο οικονομικά σε μεγάλη κλίμακα», εξηγεί ο Charlie Dai, αντιπρόεδρος και κύριος αναλυτής στη Forrester. Η ανάλυση του κλάδου δείχνει ότι η Google μπορεί να αποκτά υπολογιστική ισχύ AI σε περίπου 20% του κόστους που επωμίζονται όσοι αγοράζουν high-end GPUs της NVIDIA, υποδηλώνοντας πλεονέκτημα κόστους 4-6 φορές.
Ωστόσο, η OpenAI ξεκαθάρισε ότι δεν έχει άμεσα σχέδια για μαζική υιοθέτηση των TPUs. Εκπρόσωπος της εταιρείας δήλωσε στο Reuters ότι βρίσκεται σε «πρώιμες δοκιμές με ορισμένα από τα TPUs της Google», αλλά προς το παρόν «δεν υπάρχουν σχέδια για μαζική υλοποίηση». Αυτή η προσεκτική προσέγγιση αντανακλά τις σημαντικές τεχνικές προκλήσεις που συνεπάγεται η μετάβαση υποδομής, καθώς το λογισμικό της OpenAI έχει βελτιστοποιηθεί κυρίως για GPUs.
Πέρα από το κόστος, η κίνηση αυτή σηματοδοτεί στρατηγική διαφοροποίηση των πηγών υπολογιστικής ισχύος της OpenAI πέραν της Microsoft, που μέχρι τον Ιανουάριο του 2025 λειτουργούσε ως αποκλειστικός πάροχος υποδομών data center. Η εταιρεία έχει ήδη συνάψει συνεργασίες με την Oracle και την CoreWeave στο πλαίσιο του προγράμματος Stargate και αναπτύσσει το δικό της custom επεξεργαστή AI, ο οποίος αναμένεται να φτάσει στο στάδιο tape-out αργότερα φέτος.
Οι επιπτώσεις για την αγορά hardware AI θα μπορούσαν να είναι σημαντικές. Εάν η υιοθέτηση των TPUs από την OpenAI στεφθεί με επιτυχία, θα μπορούσε να επικυρώσει το hardware της Google ως βιώσιμη εναλλακτική στην σχεδόν μονοπωλιακή θέση της NVIDIA στην υψηλών επιδόσεων υπολογιστική AI. Αυτό θα μπορούσε να ασκήσει πιέσεις στη NVIDIA να καινοτομήσει ή να προσαρμόσει τις τιμές της, ενώ θα δημιουργούσε νέες ανταγωνιστικές δυναμικές μεταξύ παρόχων cloud όπως η Google, η Microsoft και η Amazon, καθώς διεκδικούν κυριαρχία στην υποδομή AI.