Η βιομηχανία της τεχνητής νοημοσύνης παρακολουθεί μια σημαντική διάσπαση μεταξύ των κορυφαίων εταιρειών της ως προς τον τρόπο αντιμετώπισης των ενδεχόμενων υπαρξιακών κινδύνων από ολοένα και πιο ισχυρά συστήματα AI.
Η Anthropic, με αποτίμηση στα 61 δισεκατομμύρια δολάρια και υποστηριζόμενη από την Amazon, έχει τοποθετηθεί ως ο πιο προσεκτικός παίκτης, προειδοποιώντας σταθερά ότι οι ανεξέλεγκτες δυνατότητες της AI ενδέχεται να ξεπεράσουν τα μέτρα ασφαλείας. Ο CEO, Dario Amodei, έχει εκφράσει έντονα την ανάγκη για σχεδιασμό των χειρότερων σεναρίων, δηλώνοντας πρόσφατα ότι τα μοντέλα σύντομα θα "ξεπεράσουν εμάς σχεδόν σε όλα". Η πολιτική υπεύθυνης κλιμάκωσης της εταιρείας περιλαμβάνει ενισχυμένα μέτρα φυσικής ασφάλειας, όπως ελέγχους γραφείων για κρυφές συσκευές, καθώς και ένα εκτελεστικό συμβούλιο κινδύνου που αξιολογεί τα ισχυρά μοντέλα πριν από την κυκλοφορία τους.
Η OpenAI, με πρόσφατη αποτίμηση στα 300 δισεκατομμύρια δολάρια, έχει ακολουθήσει διαφορετική προσέγγιση, δίνοντας έμφαση σε πρωτοβουλίες διαφάνειας. Τον Μάιο του 2025, η εταιρεία λάνσαρε το Safety Evaluations Hub, μια διαδικτυακή πλατφόρμα που παρουσιάζει τις επιδόσεις των μοντέλων της σε διάφορα τεστ ασφάλειας για παραγωγή επιβλαβούς περιεχομένου, παρακάμψεις (jailbreaks) και ψευδαισθήσεις (hallucinations). Η OpenAI δεσμεύτηκε να ενημερώνει τακτικά αυτές τις μετρήσεις με κάθε σημαντική κυκλοφορία μοντέλου. Ωστόσο, οι πρόσφατες ενημερώσεις στο Preparedness Framework προκάλεσαν ανησυχίες, καθώς η εταιρεία ανέφερε ότι ενδέχεται να "προσαρμόσει" τις απαιτήσεις ασφαλείας εάν οι ανταγωνιστές κυκλοφορήσουν συστήματα υψηλού κινδύνου χωρίς παρόμοιες προστασίες.
Η Google DeepMind έχει υιοθετήσει την πιο μεθοδική προσέγγιση, δημοσιεύοντας μια ολοκληρωμένη μελέτη 145 σελίδων για την ασφάλεια της AGI τον Απρίλιο του 2025. Το Frontier Safety Framework της εταιρείας κατηγοριοποιεί τους κινδύνους της AI σε τέσσερις τομείς: κακή χρήση, εσφαλμένη ευθυγράμμιση, ατυχήματα και δομικούς κινδύνους. Η στρατηγική της DeepMind δίνει έμφαση στη σταδιακή πρόοδο με ισχυρή εκπαίδευση, παρακολούθηση και πρωτόκολλα ασφαλείας. Η εταιρεία έχει συστήσει Συμβούλιο Ασφάλειας AGI υπό την ηγεσία του συνιδρυτή Shane Legg και συνεργάζεται με μη κερδοσκοπικούς οργανισμούς έρευνας ασφάλειας AI, όπως οι Apollo και Redwood Research.
Αυτές οι διαφορετικές στρατηγικές αντανακλούν τη θεμελιώδη ένταση στη βιομηχανία AI μεταξύ της ταχείας ανάπτυξης δυνατοτήτων και της εφαρμογής ισχυρών μηχανισμών ασφαλείας. Καθώς τα συστήματα AI πλησιάζουν σε επίπεδα απόδοσης αντίστοιχα με του ανθρώπου σε διάφορους τομείς, η ανάγκη για μια ενιαία, διακλαδική κοινοπραξία ασφάλειας με διαφανή πρότυπα γίνεται όλο και πιο επιτακτική.
Οι ειδικοί επισημαίνουν ότι χωρίς συντονισμένα πρότυπα ασφαλείας, η ανταγωνιστική πίεση για γρήγορη κυκλοφορία προηγμένων μοντέλων θα μπορούσε να οδηγήσει τις εταιρείες σε συμβιβασμούς στα μέτρα ασφαλείας. Όπως σημείωσε ο Jack Clark της Anthropic, η βιομηχανία χρειάζεται ισχυρότερους μηχανισμούς «για τον εντοπισμό και τον μετριασμό κινδύνων, προωθώντας την υπεύθυνη ανάπτυξη της AI» πριν αυτά τα ισχυρά συστήματα διαδοθούν ευρέως.