Σε μια σημαντική πρόοδο για την ασφάλεια της τεχνητής νοημοσύνης, οι ερευνητές της Google εντόπισαν ένα θεμελιώδες μοτίβο ευπάθειας που απειλεί την ακεραιότητα των συστημάτων πρακτόρων ΤΝ.
Στις 15 Ιουνίου 2025, η ομάδα ασφάλειας της Google δημοσίευσε το άρθρο 'Μια Εισαγωγή στην Προσέγγιση της Google για την Ασφάλεια Πρακτόρων ΤΝ', με συγγραφείς τους Santiago Díaz, Christoph Kern και Kara Olive. Το άρθρο περιγράφει το φιλόδοξο πλαίσιο της Google για την ασφάλεια των πρακτόρων ΤΝ, τους οποίους ορίζουν ως «συστήματα τεχνητής νοημοσύνης σχεδιασμένα να αντιλαμβάνονται το περιβάλλον τους, να λαμβάνουν αποφάσεις και να εκτελούν αυτόνομες ενέργειες για την επίτευξη στόχων που ορίζει ο χρήστης».
Η έρευνα αναδεικνύει δύο βασικές ανησυχίες ασφαλείας: τις ανεξέλεγκτες ενέργειες (ακούσιες, επιβλαβείς ή παραβατικές συμπεριφορές) και τη διαρροή ευαίσθητων δεδομένων (μη εξουσιοδοτημένη αποκάλυψη ιδιωτικών πληροφοριών). Για την αντιμετώπιση αυτών των κινδύνων, η Google προτείνει μια υβριδική, πολυεπίπεδη στρατηγική άμυνας που συνδυάζει παραδοσιακούς ελέγχους ασφαλείας με δυναμικές, βασισμένες στη λογική άμυνες.
Ακολούθησε σχετική δημοσίευση στις 16 Ιουνίου 2025, η οποία εισήγαγε την έννοια της 'θανάσιμης τριπλέτας' για τους πράκτορες ΤΝ – έναν επικίνδυνο συνδυασμό τριών δυνατοτήτων που δημιουργούν σοβαρά κενά ασφαλείας: πρόσβαση σε ιδιωτικά δεδομένα, έκθεση σε μη αξιόπιστο περιεχόμενο και δυνατότητα εξωτερικής επικοινωνίας. Όταν αυτά τα τρία στοιχεία συνυπάρχουν σε ένα σύστημα ΤΝ, οι επιτιθέμενοι μπορούν δυνητικά να παραπλανήσουν τον πράκτορα ώστε να αποκτήσει πρόσβαση σε ευαίσθητες πληροφορίες και να τις εξάγει.
Ο ερευνητής ασφάλειας Simon Willison, ο οποίος εισήγαγε τον όρο 'prompt injection' πριν από μερικά χρόνια, τόνισε τη σημασία της κατανόησης αυτού του μοτίβου ευπάθειας. «Αν ο πράκτοράς σας συνδυάζει αυτά τα τρία χαρακτηριστικά, ένας επιτιθέμενος μπορεί εύκολα να τον ξεγελάσει ώστε να αποκτήσει πρόσβαση στα ιδιωτικά σας δεδομένα και να τα στείλει στον ίδιο», σημείωσε στην ανάλυσή του για την έρευνα της Google.
Η χρονική συγκυρία αυτής της έρευνας είναι ιδιαίτερα σημαντική, καθώς οι πράκτορες ΤΝ αποκτούν ολοένα και μεγαλύτερη αυτονομία και πρόσβαση σε ευαίσθητα συστήματα. Μεγάλες τεχνολογικές εταιρείες όπως η Microsoft, η Google και η Anthropic έχουν αντιμετωπίσει παρόμοια ζητήματα ασφαλείας στα προϊόντα ΤΝ τους τα τελευταία δύο χρόνια, με δεκάδες καταγεγραμμένες επιθέσεις εξαγωγής δεδομένων να επηρεάζουν συστήματα όπως τα ChatGPT, Microsoft Copilot και Google Bard.
Η έρευνα της Google προτείνει τρεις βασικές αρχές για την ασφάλεια των πρακτόρων: οι πράκτορες πρέπει να έχουν σαφώς ορισμένους ανθρώπινους ελεγκτές, οι δυνατότητές τους να είναι αυστηρά περιορισμένες και οι ενέργειες και ο σχεδιασμός τους να είναι παρατηρήσιμα. Αυτές οι οδηγίες προσφέρουν ένα πολύτιμο πλαίσιο για προγραμματιστές και οργανισμούς που υλοποιούν συστήματα πρακτόρων ΤΝ, καθώς πλοηγούνται στο πολύπλοκο τοπίο ασφάλειας της ολοένα και πιο αυτόνομης τεχνητής νοημοσύνης.