Η OpenAI δημοσίευσε μια εκτενή έκθεση με τίτλο «Αναχαίτιση κακόβουλων χρήσεων της ΤΝ: Ιούνιος 2025», αποκαλύπτοντας πώς η εταιρεία εντόπισε και εξουδετέρωσε 10 κακόβουλες εκστρατείες που εκμεταλλεύτηκαν τα συστήματα τεχνητής νοημοσύνης της κατά τους πρώτους μήνες του 2025.
Η έκθεση αναλύει πώς κρατικά υποστηριζόμενοι δράστες από έξι χώρες—Κίνα, Ρωσία, Βόρεια Κορέα, Ιράν, Καμπότζη και Φιλιππίνες—χρησιμοποίησαν το ChatGPT και άλλα εργαλεία τεχνητής νοημοσύνης για την υλοποίηση απατών απασχόλησης, επιχειρήσεων επιρροής και spam. Τέσσερις από αυτές τις εκστρατείες προήλθαν από την Κίνα, εστιάζοντας στη κοινωνική μηχανική, καλυμμένες επιχειρήσεις επιρροής και κυβερνοαπειλές.
Σε μία εκστρατεία με την ονομασία «Sneer Review», Κινέζοι δράστες κατέκλυσαν κοινωνικές πλατφόρμες με επικριτικά σχόλια κατά ενός ταϊβανέζικου επιτραπέζιου παιχνιδιού που περιλάμβανε θέματα αντίστασης κατά του Κομμουνιστικού Κόμματος της Κίνας. Μια άλλη επιχείρηση, με την ονομασία «Helgoland Bite», περιλάμβανε Ρώσους δράστες που παρήγαγαν περιεχόμενο στα γερμανικά, επικρίνοντας τις ΗΠΑ και το ΝΑΤΟ, ενώ προσπαθούσαν να επηρεάσουν τις γερμανικές εκλογές του 2025. Παρατηρήθηκε επίσης ότι Βορειοκορεάτες δράστες χρησιμοποιούσαν τεχνητή νοημοσύνη για μαζική παραγωγή ψεύτικων βιογραφικών για απομακρυσμένες θέσεις τεχνολογίας, με στόχο την απόκτηση ελέγχου σε εταιρικές συσκευές που εκδίδονται κατά την πρόσληψη.
Οι ομάδες ασφαλείας της OpenAI χρησιμοποίησαν την τεχνητή νοημοσύνη ως πολλαπλασιαστή ισχύος στις ερευνητικές τους προσπάθειες, επιτρέποντάς τους να ανιχνεύουν, να διακόπτουν και να αποκαλύπτουν καταχρηστικές δραστηριότητες όπως κοινωνική μηχανική, κυβερνοκατασκοπεία και παραπλανητικά σχήματα απασχόλησης. Τα συστήματα ανίχνευσης της εταιρείας εντόπισαν ασυνήθιστη συμπεριφορά σε όλες τις εκστρατείες, οδηγώντας σε τερματισμό λογαριασμών και διαμοιρασμό πληροφοριών με συνεργαζόμενες πλατφόρμες.
«Πιστεύουμε ότι η διαφάνεια και η κοινοποίηση ενισχύουν την ευαισθητοποίηση και την ετοιμότητα όλων των εμπλεκομένων, οδηγώντας σε ισχυρότερη συλλογική άμυνα απέναντι σε διαρκώς εξελισσόμενους αντιπάλους», αναφέρει η OpenAI στην έκθεσή της. Αν και η γενετική τεχνητή νοημοσύνη δεν έχει δημιουργήσει εντελώς νέες κατηγορίες απειλών, έχει μειώσει σημαντικά τα τεχνικά εμπόδια για κακόβουλους δράστες και έχει αυξήσει την αποτελεσματικότητα των συντονισμένων επιθέσεων.
Οι ειδικοί ασφάλειας τονίζουν ότι οι οργανισμοί πρέπει να παραμένουν σε εγρήγορση σχετικά με το πώς οι αντίπαλοι υιοθετούν μεγάλα γλωσσικά μοντέλα στις επιχειρήσεις τους και να αξιοποιούν την έγκαιρη πληροφόρηση που διαμοιράζονται εταιρείες όπως η OpenAI, η Google, η Meta και η Anthropic, ώστε να ενισχύσουν τη συλλογική άμυνα απέναντι σε αυτές τις εξελισσόμενες απειλές.