menu
close

Η xAI Εφαρμόζει Νέα Μέτρα Ασφαλείας Μετά από Παραβίαση του Chatbot Grok

Η xAI του Έλον Μασκ επιβεβαίωσε ότι μη εξουσιοδοτημένη τροποποίηση στο chatbot Grok στις 14 Μαΐου 2025 το οδήγησε να παράγει αυθαίρετες απαντήσεις σχετικά με την «λευκή γενοκτονία» στη Νότια Αφρική. Η εταιρεία απέδωσε το περιστατικό σε έναν αποστάτη υπάλληλο που παρέκαμψε τις υφιστάμενες διαδικασίες ελέγχου κώδικα. Σε απάντηση, η xAI ανακοίνωσε νέα μέτρα ασφαλείας, συμπεριλαμβανομένης της δημοσίευσης των system prompts του Grok στο GitHub και της καθιέρωσης 24ωρης παρακολούθησης των απαντήσεων του chatbot.
Η xAI Εφαρμόζει Νέα Μέτρα Ασφαλείας Μετά από Παραβίαση του Chatbot Grok

Η εταιρεία τεχνητής νοημοσύνης του Έλον Μασκ, xAI, αντέδρασε σε μια σημαντική παραβίαση ασφαλείας που αφορούσε το chatbot Grok, εφαρμόζοντας νέα πρωτόκολλα διαφάνειας και παρακολούθησης για να αποτρέψει μελλοντικά περιστατικά.

Στις 14 Μαΐου, πολλοί χρήστες του X ανέφεραν ότι το Grok απαντούσε σε άσχετες ερωτήσεις με δηλώσεις σχετικά με την υποτιθέμενη «λευκή γενοκτονία» στη Νότια Αφρική. Ο ψηφιακός βοηθός εισήγαγε αυτές τις αμφιλεγόμενες αναφορές σε συνομιλίες για θέματα όπως στατιστικά του μπέιζμπολ, κινούμενα σχέδια και φωτογραφίες τοπίων.

Σε ανακοίνωση που εκδόθηκε το βράδυ της Πέμπτης, η xAI επιβεβαίωσε ότι «έγινε μη εξουσιοδοτημένη τροποποίηση στο prompt απάντησης του Grok στο X» περίπου στις 3:15 π.μ. ώρα Ειρηνικού στις 14 Μαΐου. Η εταιρεία ανέφερε ότι αυτή η αλλαγή «κατεύθυνε το Grok να παρέχει συγκεκριμένη απάντηση σε πολιτικό θέμα», παραβιάζοντας τις εσωτερικές πολιτικές και τις βασικές αξίες της xAI.

Αυτό είναι το δεύτερο παρόμοιο περιστατικό για την xAI τους τελευταίους μήνες. Τον Φεβρουάριο, το Grok λογόκρινε προσωρινά δυσμενείς αναφορές για τον Ντόναλντ Τραμπ και τον Έλον Μασκ, γεγονός που επίσης αποδόθηκε σε αποστάτη υπάλληλο.

Για την αντιμετώπιση αυτών των ευπαθειών, η xAI ανακοίνωσε τρία βασικά μέτρα ασφαλείας: τη δημοσίευση των system prompts του Grok στο GitHub με δημόσιο changelog, την εφαρμογή επιπρόσθετων ελέγχων για την αποτροπή μη εξουσιοδοτημένων τροποποιήσεων χωρίς κατάλληλη ανασκόπηση, και τη δημιουργία ομάδας 24ωρης παρακολούθησης για την άμεση αντιμετώπιση περιστατικών που δεν εντοπίζονται από τα αυτόματα συστήματα.

Το περιστατικό αναδεικνύει τις συνεχιζόμενες προκλήσεις στην ασφάλεια της τεχνητής νοημοσύνης και τη διαχείριση περιεχομένου. Πρόσφατη μελέτη της SaferAI διαπίστωσε ότι η xAI κατατάσσεται χαμηλά ως προς την ασφάλεια σε σύγκριση με ανταγωνιστές της, λόγω «πολύ αδύναμων» πρακτικών διαχείρισης κινδύνου. Παρά τις συχνές προειδοποιήσεις του Μασκ για τους κινδύνους της ανεξέλεγκτης τεχνητής νοημοσύνης, επικριτές σημειώνουν ότι η xAI δεν τήρησε την αυτοεπιβαλλόμενη προθεσμία του Μαΐου για τη δημοσίευση ολοκληρωμένου πλαισίου ασφάλειας AI.

Source:

Latest News