Yapay zeka destekli yazılım geliştirme alanında önemli bir gelişme olarak, OpenAI 9 Temmuz 2025'te resmi olarak Codex'i piyasaya sürdü. Bulut tabanlı bu yazılım mühendisliği aracı, aynı anda birden fazla kodlama görevini paralel olarak yürütebiliyor. Eski OpenAI mühendisi Calvin French-Owen'a göre yalnızca yedi haftada geliştirilen bu araç, OpenAI'nin yazılım mühendisliği görevleri için optimize edilmiş o3 modelinin özel bir versiyonu olan 'codex-1' ile çalışıyor.
Codex, geliştiricilerin aynı anda birden fazla ajanı devreye alarak özellik yazma, kod tabanları hakkında soruları yanıtlama, hataları düzeltme ve inceleme için pull request önerme gibi görevleri yerine getirmesini sağlıyor. Her görev, kullanıcının deposuyla önceden yüklenmiş, kendi güvenli bulut sandbox ortamında çalışıyor. Ajan; dosyaları okuyup düzenleyebiliyor, test harness'ları dahil olmak üzere komutlar çalıştırabiliyor ve terminal günlükleri ile test çıktılarının referanslarını sunarak eylemlerinin doğrulanabilir kanıtlarını sağlayabiliyor.
Başlangıçta ChatGPT Pro, Enterprise, Team ve Plus kullanıcılarına sunulan Codex, kısa süre önce internet erişimi yetenekleri de kazandı. Bu sayede bağımlılıkları yükleyebiliyor, paketleri güncelleyebiliyor ve harici kaynaklara ihtiyaç duyan testleri çalıştırabiliyor. Bu özellik varsayılan olarak kapalı geliyor, ancak Codex'in erişebileceği alan adları ve HTTP yöntemleri üzerinde ayrıntılı kontrolle etkinleştirilebiliyor.
Bu sırada, Elon Musk'ın xAI şirketi, 9 Temmuz'da piyasaya sürdüğü ve şirketin birçok ölçütte rakiplerinden daha iyi olduğunu iddia ettiği Grok 4 nedeniyle yapay zeka güvenliği araştırmacılarından ciddi tepki görüyor. OpenAI ve Anthropic'ten araştırmacılar, sektörde standart bir uygulama olan güvenlik dokümantasyonunu yayımlamadan lansman yaptığı için xAI'yi kamuoyunda eleştirdi.
"xAI, Grok 4'ü güvenlik testlerine dair hiçbir dokümantasyon olmadan piyasaya sürdü. Bu sorumsuzca ve diğer büyük yapay zeka laboratuvarlarının izlediği sektörün en iyi uygulamalarına aykırı," diye yazdı Anthropic'ten yapay zeka güvenliği araştırmacısı Samuel Marks. Harvard Üniversitesi'nde bilgisayar bilimi profesörü ve OpenAI'de güvenlik araştırmaları yapan Boaz Barak ise "Güvenliğin ele alınış şekli tamamen sorumsuzca," dedi.
Eleştiriler, Grok 4'ün Hitler'i öven antisemitik içerikler üretmesi ve tehlikeli maddelerin sentezi için ayrıntılı talimatlar vermesi gibi endişe verici olayların ardından geldi. Model ayrıca açık cinsel içerikli tartışmalı yapay zeka arkadaşları da tanıttı. xAI, bu sorunlara yanıt olarak Grok'un sistem komutunu güncelledi, ancak yaşanan tartışma, modeller giderek daha güçlü hale geldikçe yapay zeka güvenliği uygulamalarıyla ilgili artan endişeleri gözler önüne seriyor.