menu
close

Πρώην Επιστήμονας της OpenAI Σχεδίαζε Καταφύγιο για τον Μετα-AGI Κόσμο

Ο πρώην επικεφαλής επιστήμονας της OpenAI, Ίλια Σουτσκέβερ, πρότεινε την κατασκευή ενός καταφυγίου για να προστατεύσει τους ερευνητές από πιθανούς κινδύνους μετά τη δημιουργία της τεχνητής γενικής νοημοσύνης (AGI). Η αποκάλυψη, που περιγράφεται στο νέο βιβλίο της Karen Hao «Empire of AI», αναδεικνύει τις βαθιές ανησυχίες του Σουτσκέβερ για τους υπαρξιακούς κινδύνους της AGI, οι οποίες τελικά συνέβαλαν στην αποχώρησή του από την OpenAI και την ίδρυση της Safe Superintelligence Inc.
Πρώην Επιστήμονας της OpenAI Σχεδίαζε Καταφύγιο για τον Μετα-AGI Κόσμο

Το καλοκαίρι του 2023, κατά τη διάρκεια μιας συνάντησης με ερευνητές της OpenAI, ο τότε επικεφαλής επιστήμονας Ίλια Σουτσκέβερ έκανε μια συγκλονιστική δήλωση: «Σίγουρα θα χτίσουμε ένα καταφύγιο πριν κυκλοφορήσουμε την AGI». Η αποκάλυψη αυτή, που αναφέρεται για πρώτη φορά στο πρόσφατα εκδοθέν βιβλίο της Karen Hao «Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI», προσφέρει μια ματιά στις αποκαλυπτικές ανησυχίες που τρέφει ένα από τα πιο επιδραστικά πρόσωπα της τεχνητής νοημοσύνης.

Ο Σουτσκέβερ, συνιδρυτής της OpenAI και επικεφαλής επιστήμονας έως τον Μάιο του 2024, πίστευε ότι οι ερευνητές θα χρειάζονταν προστασία μόλις επιτευχθεί η τεχνητή γενική νοημοσύνη—συστήματα τεχνητής νοημοσύνης με γνωστικές ικανότητες επιπέδου ανθρώπου. Σύμφωνα με πηγές που αναφέρονται στο βιβλίο της Hao, η πρόταση για το καταφύγιο είχε διπλό σκοπό: να προστατεύσει βασικούς επιστήμονες από τη γεωπολιτική αναταραχή που θα μπορούσε να ακολουθήσει την κυκλοφορία της AGI και ενδεχομένως να λειτουργήσει ως βάση για να επηρεαστεί η εξέλιξη των υπερνοήμονων συστημάτων.

«Υπάρχει μια ομάδα ανθρώπων—με τον Ίλια ανάμεσά τους—που πιστεύουν ότι η δημιουργία της AGI θα φέρει μια 'αρπαγή'», ανέφερε ένας ερευνητής στην Hao, εννοώντας όχι μεταφορικά αλλά ως ένα κυριολεκτικά κοσμοϊστορικό γεγονός. Ο Σουτσκέβερ φέρεται να διαβεβαίωσε τους συναδέλφους του ότι η είσοδος στο καταφύγιο θα ήταν «προαιρετική», όμως η ψύχραιμη στάση του απέναντι σε τόσο ακραίες προετοιμασίες ανησύχησε πολλούς εντός του οργανισμού.

Η πρόταση για το καταφύγιο ήρθε σε μια περίοδο αυξανόμενων εντάσεων στην OpenAI σχετικά με την κατεύθυνση της εταιρείας. Ο Σουτσκέβερ και άλλοι ανησυχούσαν ότι ο οργανισμός έδινε προτεραιότητα στην εμπορική επέκταση εις βάρος των πρωτοκόλλων ασφαλείας—ανησυχίες που οδήγησαν τελικά στην αποτυχημένη προσπάθεια απομάκρυνσης του CEO Σαμ Άλτμαν τον Νοέμβριο του 2023. Μετά την επαναφορά του Άλτμαν, ο Σουτσκέβερ αποχώρησε από την OpenAI τον Μάιο του 2024 και ίδρυσε την Safe Superintelligence (SSI) μαζί με τους Daniel Gross και Daniel Levy.

Η SSI, η οποία έχει συγκεντρώσει 3 δισεκατομμύρια δολάρια και έφτασε σε αποτίμηση 32 δισεκατομμυρίων δολαρίων τον Απρίλιο του 2025, αντιπροσωπεύει τη συνεχιζόμενη δέσμευση του Σουτσκέβερ στην ασφάλεια της τεχνητής νοημοσύνης. Σε αντίθεση με την πολυδιάστατη προσέγγιση της OpenAI, η SSI επικεντρώνεται αποκλειστικά στην ανάπτυξη ασφαλούς υπερνοημοσύνης, με τον Σουτσκέβερ να δηλώνει: «Το πρώτο μας προϊόν θα είναι η ασφαλής υπερνοημοσύνη και δεν θα κάνουμε τίποτα άλλο μέχρι τότε».

Η αντίθεση ανάμεσα στη συνετή προσέγγιση του Σουτσκέβερ και την πιο αισιόδοξη οπτική του Άλτμαν αναδεικνύει το ιδεολογικό ρήγμα στην κοινότητα της τεχνητής νοημοσύνης. Ενώ ο Σουτσκέβερ προετοιμαζόταν για πιθανή καταστροφή, ο Άλτμαν έχει υποστηρίξει ότι η AGI θα έρθει με «εκπληκτικά μικρή κοινωνική επίδραση». Καθώς η κούρσα προς την υπερνοημοσύνη επιταχύνεται, αυτές οι ανταγωνιστικές οπτικές συνεχίζουν να διαμορφώνουν τον τρόπο με τον οποίο η ανθρωπότητα προσεγγίζει ίσως τη σημαντικότερη τεχνολογική της εξέλιξη.

Source: Naturalnews.com

Latest News