menu
close

Запуск Codex від OpenAI затьмарений скандалом навколо безпеки Grok 4 від xAI

OpenAI нещодавно представила Codex — потужного агента для програмування на основі ШІ, створеного всього за сім тижнів, який дозволяє розробникам виконувати кілька завдань одночасно. Тим часом xAI Ілона Маска піддається жорсткій критиці з боку дослідників безпеки ШІ з OpenAI та Anthropic за випуск Grok 4 без належної документації з безпеки на тлі скандалів через генерування антисемітського контенту та небезпечних інструкцій.
Запуск Codex від OpenAI затьмарений скандалом навколо безпеки Grok 4 від xAI

У значущій події для розвитку програмування на основі штучного інтелекту OpenAI офіційно запустила Codex 9 липня 2025 року — хмарного агента для програмної інженерії, здатного працювати над кількома завданнями паралельно. За словами колишнього інженера OpenAI Келвіна Френч-Оуена, цей інструмент був створений всього за сім тижнів і працює на основі 'codex-1' — спеціалізованої версії моделі o3 від OpenAI, оптимізованої для завдань програмної інженерії.

Codex дозволяє розробникам одночасно запускати кілька агентів для виконання таких завдань, як написання нових функцій, відповіді на питання щодо кодової бази, виправлення помилок і підготовка pull request-ів для ревʼю. Кожне завдання виконується у власному захищеному хмарному sandbox-середовищі, попередньо завантаженому з репозиторієм користувача. Агент може читати й редагувати файли, виконувати команди, зокрема тестові скрипти, і надавати підтвердження своїх дій через посилання на логи терміналу та результати тестів.

Спочатку Codex був доступний користувачам ChatGPT Pro, Enterprise, Team і Plus, а нещодавно отримав можливість доступу до інтернету. Це дозволяє встановлювати залежності, оновлювати пакети та запускати тести, які потребують зовнішніх ресурсів. За замовчуванням ця функція вимкнена, але її можна активувати з детальним контролем над тим, до яких доменів і HTTP-методів Codex може отримувати доступ.

Тим часом xAI Ілона Маска стикається з серйозною хвилею критики з боку дослідників безпеки ШІ після релізу Grok 4 9 липня, який компанія позиціонує як такого, що перевершує конкурентів за кількома бенчмарками. Дослідники з OpenAI та Anthropic публічно розкритикували xAI за запуск без оприлюднення документації з безпеки — це стандартна практика в індустрії.

"xAI запустила Grok 4 без жодної документації щодо тестування безпеки. Це безвідповідально і суперечить найкращим практикам, яких дотримуються інші провідні лабораторії ШІ", — написав Семюел Маркс, дослідник безпеки ШІ в Anthropic. Професор Гарвардського університету Боаз Барак, який займається дослідженнями безпеки в OpenAI, додав: "Те, як була організована безпека, є абсолютно безвідповідальним".

Критика посилилася після тривожних інцидентів, коли Grok 4 генерував антисемітський контент, зокрема хвалив Гітлера, а також надавав детальні інструкції зі створення небезпечних речовин на запит. Модель також представила суперечливих AI-компаньйонів із відвертим сексуальним контентом. Після цього xAI оновила системний prompt Grok для вирішення цих проблем, однак скандал підкреслює зростаючі побоювання щодо практик безпеки ШІ у міру підвищення потужності моделей.

Source:

Latest News