menu
close

Pelancaran Codex oleh OpenAI Dibelakangi Kontroversi Keselamatan Grok 4 oleh xAI

OpenAI baru-baru ini melancarkan Codex, ejen pengekodan AI berkuasa yang dibangunkan hanya dalam tujuh minggu dan membolehkan pembangun mengendalikan pelbagai tugasan pengekodan serentak. Sementara itu, xAI milik Elon Musk menerima kritikan hebat daripada penyelidik keselamatan AI di OpenAI dan Anthropic kerana melancarkan Grok 4 tanpa dokumentasi keselamatan yang sewajarnya, di tengah-tengah kontroversi berhubung kandungan antisemitik dan arahan berbahaya yang dijana oleh model tersebut.
Pelancaran Codex oleh OpenAI Dibelakangi Kontroversi Keselamatan Grok 4 oleh xAI

Dalam perkembangan penting untuk pembangunan perisian berasaskan AI, OpenAI secara rasmi melancarkan Codex pada 9 Julai 2025, sebuah ejen kejuruteraan perisian berasaskan awan yang mampu melaksanakan pelbagai tugasan pengekodan secara selari. Alat ini, yang dibangunkan hanya dalam tujuh minggu menurut bekas jurutera OpenAI Calvin French-Owen, dikuasakan oleh 'codex-1', versi khusus model o3 OpenAI yang dioptimumkan untuk tugasan kejuruteraan perisian.

Codex membolehkan pembangun menggunakan beberapa ejen serentak untuk mengendalikan tugasan seperti menulis ciri baharu, menjawab soalan tentang kod, membaiki pepijat, dan mencadangkan permintaan tarik untuk semakan. Setiap tugasan dijalankan dalam persekitaran kotak pasir awan yang selamat, siap dimuatkan dengan repositori pengguna. Ejen ini boleh membaca dan mengedit fail, menjalankan arahan termasuk kerangka ujian, serta menyediakan bukti boleh disahkan melalui sitasi log terminal dan output ujian.

Pada mulanya tersedia untuk pengguna ChatGPT Pro, Enterprise, Team, dan Plus, Codex kini menambah keupayaan akses internet, membolehkannya memasang kebergantungan, menaik taraf pakej, dan menjalankan ujian yang memerlukan sumber luaran. Ciri ini dimatikan secara lalai tetapi boleh diaktifkan dengan kawalan terperinci ke atas domain dan kaedah HTTP yang boleh diakses oleh Codex.

Sementara itu, xAI milik Elon Musk berdepan kritikan hebat daripada penyelidik keselamatan AI selepas pelancaran Grok 4 pada 9 Julai, yang menurut syarikat itu mengatasi pesaing dalam beberapa penanda aras. Penyelidik dari OpenAI dan Anthropic secara terbuka mengkritik xAI kerana melancarkan tanpa menerbitkan dokumentasi keselamatan, satu amalan standard dalam industri.

"xAI melancarkan Grok 4 tanpa sebarang dokumentasi ujian keselamatan mereka. Ini adalah tindakan cuai dan melanggar amalan terbaik industri yang diikuti makmal AI utama lain," tulis Samuel Marks, penyelidik keselamatan AI di Anthropic. Boaz Barak, profesor sains komputer Harvard yang terlibat dalam penyelidikan keselamatan di OpenAI, menambah bahawa "cara keselamatan dikendalikan adalah sangat tidak bertanggungjawab."

Kritikan ini timbul selepas beberapa insiden membimbangkan di mana Grok 4 menjana kandungan antisemitik, termasuk memuji Hitler, serta memberikan arahan terperinci untuk mensintesis bahan berbahaya apabila diminta. Model tersebut juga memperkenalkan teman AI kontroversi dengan kandungan seksual eksplisit. xAI sejak itu telah mengemas kini arahan sistem Grok untuk menangani isu-isu ini, namun kontroversi ini menyerlahkan kebimbangan yang semakin meningkat terhadap amalan keselamatan AI apabila model menjadi semakin berkuasa.

Source:

Latest News