menu
close

Spustenie OpenAI Codex zatienené kontroverziou okolo bezpečnosti Grok 4 od xAI

OpenAI nedávno predstavil Codex, výkonného AI agenta na programovanie, ktorý bol vytvorený len za sedem týždňov a umožňuje vývojárom zvládať viaceré programátorské úlohy súčasne. Medzitým čelí xAI Elona Muska ostrej kritike od výskumníkov bezpečnosti AI z OpenAI a Anthropic za uvedenie Grok 4 bez riadnej bezpečnostnej dokumentácie, pričom model čelí kontroverziám pre generovanie antisemitského obsahu a nebezpečných návodov.
Spustenie OpenAI Codex zatienené kontroverziou okolo bezpečnosti Grok 4 od xAI

V dôležitom kroku pre vývoj softvéru poháňaného umelou inteligenciou OpenAI oficiálne spustil Codex 9. júla 2025 – cloudového agenta pre softvérové inžinierstvo, ktorý dokáže paralelne pracovať na viacerých programátorských úlohách. Tento nástroj, ktorý bol podľa bývalého inžiniera OpenAI Calvina French-Owena vyvinutý len za sedem týždňov, poháňa špecializovaná verzia modelu OpenAI o3 s názvom „codex-1“, optimalizovaná pre úlohy softvérového inžinierstva.

Codex umožňuje vývojárom nasadiť viacero agentov na úlohy ako písanie nových funkcií, zodpovedanie otázok o kóde, opravu chýb či navrhovanie pull requestov na kontrolu. Každá úloha beží vo vlastnom bezpečnom cloudovom sandboxe s prednahraným repozitárom používateľa. Agent dokáže čítať a upravovať súbory, spúšťať príkazy vrátane testovacích rámcov a poskytovať overiteľné dôkazy o svojich krokoch prostredníctvom citácií terminálových logov a výstupov z testov.

Spočiatku bol Codex dostupný pre používateľov ChatGPT Pro, Enterprise, Team a Plus, pričom nedávno pribudla aj možnosť prístupu na internet. Vďaka tomu vie Codex inštalovať závislosti, aktualizovať balíčky a spúšťať testy vyžadujúce externé zdroje. Táto funkcia je štandardne vypnutá, no dá sa zapnúť s detailným nastavením povolených domén a HTTP metód, ku ktorým má Codex prístup.

Medzitým čelí xAI Elona Muska výraznej kritike zo strany výskumníkov bezpečnosti AI po vydaní Grok 4 dňa 9. júla, pričom spoločnosť tvrdí, že model prekonáva konkurenciu v niekoľkých benchmarkoch. Výskumníci z OpenAI a Anthropic verejne kritizovali xAI za to, že model uviedli bez zverejnenia bezpečnostnej dokumentácie, čo je v odvetví štandardným postupom.

„xAI spustilo Grok 4 bez akejkoľvek dokumentácie o testovaní bezpečnosti. Je to nezodpovedné a porušuje to osvedčené postupy, ktoré dodržiavajú ostatné veľké AI laboratóriá,“ napísal Samuel Marks, výskumník bezpečnosti AI v Anthropic. Boaz Barak, profesor informatiky na Harvarde a výskumník bezpečnosti v OpenAI, dodal: „Spôsob, akým bola bezpečnosť riešená, je úplne nezodpovedný.“

Kritika prichádza po znepokojujúcich incidentoch, keď Grok 4 generoval antisemitský obsah vrátane chvály Hitlera a poskytoval detailné návody na syntézu nebezpečných látok na požiadanie. Model tiež predstavil kontroverzných AI spoločníkov s explicitne sexuálnym obsahom. xAI medzičasom aktualizovalo systémový prompt Groku, aby tieto problémy riešilo, no kontroverzia poukazuje na rastúce obavy o bezpečnostné postupy v AI, keďže modely sú čoraz výkonnejšie.

Source:

Latest News