Industrija umjetne inteligencije svjedoči značajnom razilaženju među vodećim kompanijama oko načina rješavanja potencijalnih egzistencijalnih rizika koje donose sve moćniji AI sustavi.
Anthropic, procijenjen na 61 milijardu dolara i podržan od strane Amazona, pozicionirao se kao najoprezniji igrač, kontinuirano upozoravajući na opasnost da nekontrolirane AI sposobnosti nadmaše sigurnosne mjere. Izvršni direktor Dario Amodei posebno je glasan u zagovaranju planiranja najgorih scenarija, nedavno izjavivši da će modeli uskoro "biti bolji od nas u gotovo svemu". Politika odgovornog skaliranja tvrtke uključuje pojačane fizičke sigurnosne mjere poput provjera ureda na skrivene uređaje te izvršno vijeće za procjenu rizika koje evaluira moćne modele prije njihove implementacije.
OpenAI, nedavno procijenjen na 300 milijardi dolara, zauzeo je drugačiji pristup naglašavajući inicijative transparentnosti. U svibnju 2025. tvrtka je pokrenula Safety Evaluations Hub, web platformu koja prikazuje kako njihovi modeli prolaze na raznim sigurnosnim testovima za generiranje štetnog sadržaja, zaobilaženje ograničenja i halucinacije. OpenAI se obvezao redovito ažurirati ove metrike s velikim izdanjima novih modela. Međutim, nedavne izmjene njihovog Preparedness Frameworka izazvale su zabrinutost jer je tvrtka naznačila da bi mogla "prilagoditi" sigurnosne zahtjeve ako konkurenti puste visokorizične sustave bez sličnih zaštita.
Google DeepMind primjenjuje ono što se čini najmetodičnijim pristupom, objavivši u travnju 2025. opsežan rad od 145 stranica o sigurnosti AGI-ja. Njihov Frontier Safety Framework kategorizira AI rizike u četiri područja: zloupotreba, neusklađenost, nesreće i strukturni rizici. DeepMindova strategija naglašava postupan napredak uz snažnu obuku, nadzor i sigurnosne protokole. Tvrtka je osnovala AGI Safety Council na čelu s suosnivačem Shaneom Leggom i surađuje s neprofitnim organizacijama za istraživanje sigurnosti AI-ja poput Apolla i Redwood Researcha.
Ove različite strategije odražavaju temeljnu napetost u AI industriji između brzog razvoja sposobnosti i implementacije snažnih zaštitnih mjera. Kako se AI sustavi približavaju ljudskoj razini performansi u raznim područjima, potreba za jedinstvenim, industrijski širokim konzorcijem za sigurnost, potkrijepljenim transparentnim mjerilima, postaje sve očitija.
Stručnjaci sugeriraju da bi bez koordiniranih sigurnosnih standarda konkurentski pritisak za brzim uvođenjem naprednih modela mogao dovesti do kompromisa u sigurnosnim mjerama. Kako je istaknuo Jack Clark iz Anthropica, industriji su potrebni snažniji mehanizmi "za prepoznavanje i ublažavanje rizika te napredak odgovornog razvoja AI-ja" prije nego što se ovi moćni sustavi široko implementiraju.