Tekoälyala on jakautunut merkittävästi johtavien yritysten kesken siinä, miten ne suhtautuvat yhä voimakkaampien tekoälyjärjestelmien mahdollisiin eksistentiaalisiin riskeihin.
Anthropic, jonka arvo on 61 miljardia dollaria ja jonka tukijoihin kuuluu Amazon, on profiloitunut varovaisimpana toimijana. Yritys on toistuvasti varoittanut siitä, että hallitsemattomat tekoälykyvykkyydet voivat ohittaa turvallisuustoimenpiteet. Toimitusjohtaja Dario Amodei on erityisen painokkaasti korostanut pahimpien skenaarioiden suunnittelun tarvetta ja totesi hiljattain, että mallit "tulevat pian olemaan meitä parempia lähes kaikessa". Yhtiön vastuullisen skaalauksen politiikkaan kuuluu muun muassa fyysisten turvatoimien tehostaminen, kuten toimistojen tarkastukset piilotettujen laitteiden varalta, sekä johtoryhmän riskineuvosto, joka arvioi tehokkaita malleja ennen niiden käyttöönottoa.
OpenAI, jonka arvo on hiljattain noussut 300 miljardiin dollariin, on valinnut toisenlaisen lähestymistavan painottamalla läpinäkyvyyttä. Toukokuussa 2025 yritys lanseerasi Safety Evaluations Hubin, verkkopalvelun, jossa esitellään mallien tuloksia erilaisissa turvallisuustesteissä, kuten haitallisen sisällön tuottamisessa, jailbreak-yrityksissä ja hallusinaatioissa. OpenAI on sitoutunut päivittämään näitä mittareita säännöllisesti uusien mallien julkaisun yhteydessä. Viimeaikaiset päivitykset Preparedness Frameworkiin ovat kuitenkin herättäneet huolta, sillä yritys on ilmoittanut voivansa "muokata" turvallisuusvaatimuksiaan, mikäli kilpailijat julkaisevat korkean riskin järjestelmiä ilman vastaavia suojatoimia.
Google DeepMind on valinnut kaikkein järjestelmällisimmän lähestymistavan julkaisemalla huhtikuussa 2025 laajan, 145-sivuisen raportin AGI-turvallisuudesta. Yhtiön Frontier Safety Framework luokittelee tekoälyriskit neljään osa-alueeseen: väärinkäyttö, väärinymmärrys (misalignment), onnettomuudet ja rakenteelliset riskit. DeepMindin strategia painottaa vaiheittaista etenemistä vahvojen koulutus-, valvonta- ja turvaprotokollien avulla. Yritys on perustanut AGI Safety Councilin, jota johtaa toinen perustajista Shane Legg, ja tekee yhteistyötä voittoa tavoittelemattomien tekoälyturvallisuusorganisaatioiden, kuten Apollon ja Redwood Researchin, kanssa.
Nämä erilaiset strategiat kuvastavat tekoälyalan perustavanlaatuista jännitettä nopean kyvykkyyksien kehittämisen ja vahvojen turvatoimien toteuttamisen välillä. Kun tekoälyjärjestelmät lähestyvät ihmistasoista suorituskykyä eri aloilla, tarve yhtenäiselle, koko alan kattavalle turvallisuuskonsortiolle ja läpinäkyville vertailumittareille korostuu entisestään.
Asiantuntijat varoittavat, että ilman koordinoituja turvallisuusstandardeja kilpailupaine julkaista kehittyneitä malleja nopeasti voi johtaa turvallisuustoimien laiminlyöntiin. Kuten Anthropicin Jack Clark totesi, alalla tarvitaan vahvempia mekanismeja "riskien tunnistamiseen ja lieventämiseen sekä vastuullisen tekoälyn kehittämisen edistämiseen" ennen kuin nämä tehokkaat järjestelmät otetaan laajasti käyttöön.