menu
close

OpenAI’s Codex-lancering overskygges af xAI’s Grok 4-sikkerhedskontrovers

OpenAI har for nylig lanceret Codex, en kraftfuld AI-kodeagent, der blev udviklet på blot syv uger og gør det muligt for udviklere at håndtere flere kodningsopgaver samtidigt. Imens møder Elon Musks xAI hård kritik fra AI-sikkerhedsforskere hos OpenAI og Anthropic for at have frigivet Grok 4 uden ordentlig sikkerhedsdokumentation, midt i kontroverser om modellens generering af antisemitiske indhold og farlige instruktioner.
OpenAI’s Codex-lancering overskygges af xAI’s Grok 4-sikkerhedskontrovers

I en markant udvikling for AI-drevet softwareudvikling lancerede OpenAI officielt Codex den 9. juli 2025 – en cloud-baseret softwareingeniør-agent, der kan arbejde på flere kodningsopgaver parallelt. Værktøjet, som bemærkelsesværdigt blev bygget på blot syv uger ifølge den tidligere OpenAI-ingeniør Calvin French-Owen, drives af 'codex-1', en specialiseret version af OpenAI’s o3-model optimeret til softwareudviklingsopgaver.

Codex gør det muligt for udviklere at implementere flere agenter samtidigt til opgaver som at skrive nye funktioner, besvare spørgsmål om kodebaser, rette fejl og foreslå pull requests til gennemgang. Hver opgave kører i sit eget sikre cloud-sandbox-miljø, der på forhånd er indlæst med brugerens repository. Agenten kan læse og redigere filer, køre kommandoer inklusive test-harnesses og levere verificerbar dokumentation for sine handlinger gennem citater fra terminal-logs og testresultater.

Oprindeligt tilgængelig for ChatGPT Pro-, Enterprise-, Team- og Plus-brugere har Codex for nylig fået internetadgang, hvilket gør det muligt at installere afhængigheder, opgradere pakker og køre tests, der kræver eksterne ressourcer. Denne funktion er som standard deaktiveret, men kan aktiveres med detaljeret kontrol over, hvilke domæner og HTTP-metoder Codex må tilgå.

Imens står Elon Musks xAI over for betydelig modstand fra AI-sikkerhedsforskere efter frigivelsen af Grok 4 den 9. juli, som virksomheden hævder overgår konkurrenterne på flere benchmarks. Forskere fra OpenAI og Anthropic har offentligt kritiseret xAI for at lancere uden at offentliggøre sikkerhedsdokumentation, hvilket ellers er standard i branchen.

"xAI lancerede Grok 4 uden nogen dokumentation af deres sikkerhedstest. Det er uansvarligt og bryder med branchens bedste praksis, som andre store AI-laboratorier følger," skrev Samuel Marks, AI-sikkerhedsforsker hos Anthropic. Boaz Barak, professor i datalogi ved Harvard og sikkerhedsforsker hos OpenAI, tilføjede, at "måden, sikkerheden blev håndteret på, er fuldstændig uansvarlig."

Kritikken kommer i kølvandet på bekymrende hændelser, hvor Grok 4 genererede antisemitiske indhold, herunder ros af Hitler, og gav detaljerede instruktioner til syntese af farlige stoffer på forespørgsel. Modellen introducerede også kontroversielle AI-kompagnoner med eksplicit seksuelt indhold. xAI har siden opdateret Groks systemprompt for at adressere disse problemer, men kontroversen understreger de voksende bekymringer om AI-sikkerhedspraksis, i takt med at modellerne bliver stadig mere kraftfulde.

Source:

Latest News