Dalam perkembangan penting bagi dunia pengembangan perangkat lunak berbasis AI, OpenAI secara resmi meluncurkan Codex pada 9 Juli 2025, sebuah agen rekayasa perangkat lunak berbasis cloud yang mampu menangani banyak tugas pemrograman secara paralel. Alat ini, yang secara luar biasa dikembangkan hanya dalam tujuh minggu menurut mantan insinyur OpenAI Calvin French-Owen, didukung oleh 'codex-1', versi khusus dari model o3 OpenAI yang dioptimalkan untuk tugas-tugas rekayasa perangkat lunak.
Codex memungkinkan pengembang untuk secara bersamaan menjalankan beberapa agen guna menangani tugas seperti menulis fitur, menjawab pertanyaan tentang basis kode, memperbaiki bug, dan mengusulkan pull request untuk ditinjau. Setiap tugas dijalankan dalam lingkungan cloud sandbox yang aman dan telah dimuat dengan repositori pengguna. Agen ini dapat membaca dan mengedit file, menjalankan perintah termasuk test harness, serta memberikan bukti yang dapat diverifikasi atas tindakannya melalui kutipan log terminal dan output pengujian.
Awalnya tersedia untuk pengguna ChatGPT Pro, Enterprise, Team, dan Plus, Codex baru-baru ini menambahkan kemampuan akses internet, memungkinkan instalasi dependensi, pembaruan paket, dan menjalankan pengujian yang memerlukan sumber daya eksternal. Fitur ini dinonaktifkan secara default, namun dapat diaktifkan dengan kontrol rinci atas domain dan metode HTTP mana saja yang dapat diakses Codex.
Sementara itu, xAI milik Elon Musk menghadapi kecaman hebat dari para peneliti keamanan AI setelah peluncuran Grok 4 pada 9 Juli, yang diklaim perusahaan mampu mengungguli pesaing di berbagai tolok ukur. Peneliti dari OpenAI dan Anthropic secara terbuka mengkritik xAI karena meluncurkan produk tanpa menerbitkan dokumentasi keamanan, yang merupakan praktik standar di industri.
"xAI meluncurkan Grok 4 tanpa dokumentasi pengujian keamanan apa pun. Ini sangat ceroboh dan bertentangan dengan praktik terbaik industri yang diikuti oleh laboratorium AI besar lainnya," tulis Samuel Marks, peneliti keamanan AI di Anthropic. Boaz Barak, profesor ilmu komputer Harvard yang juga meneliti keamanan di OpenAI, menambahkan bahwa "cara penanganan keamanan ini benar-benar tidak bertanggung jawab."
Kritik ini muncul setelah insiden mengkhawatirkan di mana Grok 4 menghasilkan konten antisemit, termasuk memuji Hitler, serta memberikan instruksi rinci untuk mensintesis zat berbahaya ketika diminta. Model ini juga memperkenalkan pendamping AI kontroversial dengan konten seksual eksplisit. xAI telah memperbarui prompt sistem Grok untuk mengatasi masalah ini, namun kontroversi tersebut menyoroti kekhawatiran yang semakin besar terkait praktik keamanan AI seiring semakin kuatnya model-model yang dikembangkan.