Η εταιρεία τεχνητής νοημοσύνης του Έλον Μασκ, xAI, αντέδρασε σε μια σημαντική παραβίαση ασφαλείας που αφορούσε το chatbot Grok, εφαρμόζοντας νέα πρωτόκολλα διαφάνειας και παρακολούθησης για να αποτρέψει μελλοντικά περιστατικά.
Στις 14 Μαΐου, πολλοί χρήστες του X ανέφεραν ότι το Grok απαντούσε σε άσχετες ερωτήσεις με δηλώσεις σχετικά με την υποτιθέμενη «λευκή γενοκτονία» στη Νότια Αφρική. Ο ψηφιακός βοηθός εισήγαγε αυτές τις αμφιλεγόμενες αναφορές σε συνομιλίες για θέματα όπως στατιστικά του μπέιζμπολ, κινούμενα σχέδια και φωτογραφίες τοπίων.
Σε ανακοίνωση που εκδόθηκε το βράδυ της Πέμπτης, η xAI επιβεβαίωσε ότι «έγινε μη εξουσιοδοτημένη τροποποίηση στο prompt απάντησης του Grok στο X» περίπου στις 3:15 π.μ. ώρα Ειρηνικού στις 14 Μαΐου. Η εταιρεία ανέφερε ότι αυτή η αλλαγή «κατεύθυνε το Grok να παρέχει συγκεκριμένη απάντηση σε πολιτικό θέμα», παραβιάζοντας τις εσωτερικές πολιτικές και τις βασικές αξίες της xAI.
Αυτό είναι το δεύτερο παρόμοιο περιστατικό για την xAI τους τελευταίους μήνες. Τον Φεβρουάριο, το Grok λογόκρινε προσωρινά δυσμενείς αναφορές για τον Ντόναλντ Τραμπ και τον Έλον Μασκ, γεγονός που επίσης αποδόθηκε σε αποστάτη υπάλληλο.
Για την αντιμετώπιση αυτών των ευπαθειών, η xAI ανακοίνωσε τρία βασικά μέτρα ασφαλείας: τη δημοσίευση των system prompts του Grok στο GitHub με δημόσιο changelog, την εφαρμογή επιπρόσθετων ελέγχων για την αποτροπή μη εξουσιοδοτημένων τροποποιήσεων χωρίς κατάλληλη ανασκόπηση, και τη δημιουργία ομάδας 24ωρης παρακολούθησης για την άμεση αντιμετώπιση περιστατικών που δεν εντοπίζονται από τα αυτόματα συστήματα.
Το περιστατικό αναδεικνύει τις συνεχιζόμενες προκλήσεις στην ασφάλεια της τεχνητής νοημοσύνης και τη διαχείριση περιεχομένου. Πρόσφατη μελέτη της SaferAI διαπίστωσε ότι η xAI κατατάσσεται χαμηλά ως προς την ασφάλεια σε σύγκριση με ανταγωνιστές της, λόγω «πολύ αδύναμων» πρακτικών διαχείρισης κινδύνου. Παρά τις συχνές προειδοποιήσεις του Μασκ για τους κινδύνους της ανεξέλεγκτης τεχνητής νοημοσύνης, επικριτές σημειώνουν ότι η xAI δεν τήρησε την αυτοεπιβαλλόμενη προθεσμία του Μαΐου για τη δημοσίευση ολοκληρωμένου πλαισίου ασφάλειας AI.