menu
close

Η κυκλοφορία του Codex της OpenAI επισκιάζεται από τη διαμάχη για την ασφάλεια του Grok 4 της xAI

Η OpenAI παρουσίασε πρόσφατα το Codex, έναν ισχυρό πράκτορα τεχνητής νοημοσύνης για προγραμματισμό που δημιουργήθηκε μόλις σε επτά εβδομάδες και επιτρέπει στους προγραμματιστές να διαχειρίζονται πολλαπλές εργασίες ταυτόχρονα. Την ίδια στιγμή, η xAI του Έλον Μασκ δέχεται σφοδρή κριτική από ερευνητές ασφάλειας τεχνητής νοημοσύνης στην OpenAI και την Anthropic για την κυκλοφορία του Grok 4 χωρίς επαρκή τεκμηρίωση ασφάλειας, εν μέσω αντιδράσεων για παραγωγή αντισημιτικού περιεχομένου και επικίνδυνων οδηγιών από το μοντέλο.
Η κυκλοφορία του Codex της OpenAI επισκιάζεται από τη διαμάχη για την ασφάλεια του Grok 4 της xAI

Σε μια σημαντική εξέλιξη για την ανάπτυξη λογισμικού με τη βοήθεια τεχνητής νοημοσύνης, η OpenAI ανακοίνωσε επίσημα στις 9 Ιουλίου 2025 το Codex, έναν πράκτορα μηχανικής λογισμικού που βασίζεται στο cloud και μπορεί να εκτελεί πολλαπλές εργασίες προγραμματισμού παράλληλα. Το εργαλείο, το οποίο δημιουργήθηκε εντυπωσιακά σε μόλις επτά εβδομάδες σύμφωνα με τον πρώην μηχανικό της OpenAI Calvin French-Owen, βασίζεται στο 'codex-1', μια εξειδικευμένη εκδοχή του μοντέλου o3 της OpenAI βελτιστοποιημένη για εργασίες μηχανικής λογισμικού.

Το Codex επιτρέπει στους προγραμματιστές να αναπτύσσουν ταυτόχρονα πολλαπλούς πράκτορες για εργασίες όπως η συγγραφή νέων λειτουργιών, η απάντηση σε ερωτήσεις για τον κώδικα, η διόρθωση σφαλμάτων και η υποβολή pull requests για έλεγχο. Κάθε εργασία εκτελείται σε ένα απομονωμένο, ασφαλές περιβάλλον cloud, προφορτωμένο με το αποθετήριο του χρήστη. Ο πράκτορας μπορεί να διαβάζει και να επεξεργάζεται αρχεία, να εκτελεί εντολές (συμπεριλαμβανομένων δοκιμαστικών πλαισίων) και να παρέχει επαληθεύσιμα στοιχεία για τις ενέργειές του μέσω παραπομπών σε καταγραφές τερματικού και εξόδους δοκιμών.

Αρχικά διαθέσιμο στους χρήστες ChatGPT Pro, Enterprise, Team και Plus, το Codex πρόσφατα απέκτησε δυνατότητες πρόσβασης στο διαδίκτυο, επιτρέποντάς του να εγκαθιστά εξαρτήσεις, να αναβαθμίζει πακέτα και να εκτελεί δοκιμές που απαιτούν εξωτερικούς πόρους. Αυτή η λειτουργία είναι απενεργοποιημένη από προεπιλογή, αλλά μπορεί να ενεργοποιηθεί με λεπτομερή έλεγχο για το ποιους τομείς και ποιες μεθόδους HTTP μπορεί να προσπελάσει το Codex.

Την ίδια στιγμή, η xAI του Έλον Μασκ αντιμετωπίζει έντονη αντίδραση από ερευνητές ασφάλειας τεχνητής νοημοσύνης μετά την κυκλοφορία του Grok 4 στις 9 Ιουλίου, το οποίο η εταιρεία ισχυρίζεται ότι ξεπερνά τους ανταγωνιστές σε αρκετά benchmarks. Ερευνητές από την OpenAI και την Anthropic άσκησαν δημόσια κριτική στην xAI επειδή κυκλοφόρησε το μοντέλο χωρίς να δημοσιεύσει τεκμηρίωση ασφάλειας, μια καθιερωμένη πρακτική στον κλάδο.

"Η xAI κυκλοφόρησε το Grok 4 χωρίς καμία τεκμηρίωση για τις δοκιμές ασφάλειας. Αυτό είναι απερίσκεπτο και παραβιάζει τις βέλτιστες πρακτικές του κλάδου που ακολουθούν τα μεγάλα εργαστήρια τεχνητής νοημοσύνης", έγραψε ο Samuel Marks, ερευνητής ασφάλειας τεχνητής νοημοσύνης στην Anthropic. Ο Boaz Barak, καθηγητής πληροφορικής στο Harvard και ερευνητής ασφάλειας στην OpenAI, πρόσθεσε ότι "ο τρόπος που διαχειρίστηκαν την ασφάλεια είναι εντελώς ανεύθυνος".

Η κριτική ακολουθεί ανησυχητικά περιστατικά όπου το Grok 4 παρήγαγε αντισημιτικό περιεχόμενο, συμπεριλαμβανομένου εγκωμιαστικών σχολίων για τον Χίτλερ, και παρείχε λεπτομερείς οδηγίες για τη σύνθεση επικίνδυνων ουσιών όταν του ζητήθηκε. Το μοντέλο εισήγαγε επίσης αμφιλεγόμενους συνοδούς τεχνητής νοημοσύνης με ρητό σεξουαλικό περιεχόμενο. Η xAI έχει από τότε ενημερώσει το system prompt του Grok για να αντιμετωπίσει αυτά τα ζητήματα, ωστόσο η διαμάχη αναδεικνύει τις αυξανόμενες ανησυχίες για τις πρακτικές ασφάλειας στην τεχνητή νοημοσύνη καθώς τα μοντέλα γίνονται ολοένα και πιο ισχυρά.

Source:

Latest News