Odvetvie umelej inteligencie je svedkom výrazného rozdelenia medzi poprednými spoločnosťami v otázke, ako riešiť potenciálne existenčné riziká vyplývajúce zo stále výkonnejších AI systémov.
Anthropic, ktorého hodnota dosahuje 61 miliárd dolárov a je podporovaný Amazonom, sa profiluje ako najopatrnejší hráč a neustále varuje pred tým, že schopnosti AI môžu prekonať bezpečnostné opatrenia. Generálny riaditeľ Dario Amodei je obzvlášť hlasný v potrebe plánovať najhoršie možné scenáre a nedávno vyhlásil, že modely čoskoro „budú lepšie ako my takmer vo všetkom“. Politika zodpovedného škálovania spoločnosti zahŕňa zvýšené fyzické bezpečnostné opatrenia, ako sú kontroly kancelárií na skryté zariadenia, či zriadenie výkonného rizikového výboru na hodnotenie výkonných modelov pred ich nasadením.
OpenAI, ktorého hodnota nedávno dosiahla 300 miliárd dolárov, zvolil odlišný prístup a zdôrazňuje iniciatívy v oblasti transparentnosti. V máji 2025 spoločnosť spustila Safety Evaluations Hub – webovú platformu, ktorá zobrazuje, ako jej modely skórujú v rôznych bezpečnostných testoch na generovanie škodlivého obsahu, obchádzanie obmedzení (tzv. jailbreaks) a halucinácie. OpenAI sľúbil pravidelne aktualizovať tieto metriky pri každom väčšom vydaní modelu. Nedávne úpravy v Preparedness Framework však vyvolali obavy, keďže spoločnosť naznačila, že by mohla „prispôsobiť“ bezpečnostné požiadavky, ak by konkurenti uviedli na trh vysoko rizikové systémy bez podobných ochranných opatrení.
Google DeepMind zvolil pravdepodobne najmetodickejší prístup a v apríli 2025 zverejnil komplexný 145-stranový dokument o bezpečnosti AGI. Rámec Frontier Safety Framework rozdeľuje riziká AI do štyroch oblastí: zneužitie, nesúlad, nehody a štrukturálne riziká. Stratégia DeepMind kladie dôraz na postupný pokrok s dôkladným tréningom, monitorovaním a bezpečnostnými protokolmi. Spoločnosť zriadila AGI Safety Council pod vedením spoluzakladateľa Shanea Legga a spolupracuje s neziskovými organizáciami zameranými na výskum bezpečnosti AI, ako sú Apollo a Redwood Research.
Tieto rozdielne stratégie odrážajú základné napätie v AI odvetví medzi rýchlym rozvojom schopností a zavádzaním robustných bezpečnostných opatrení. Keď sa AI systémy približujú k ľudskej úrovni výkonnosti v rôznych oblastiach, potreba jednotného, naprieč odvetvím platného bezpečnostného konzorcia podporeného transparentnými štandardmi je čoraz zreteľnejšia.
Odborníci varujú, že bez koordinovaných bezpečnostných štandardov by konkurenčný tlak na rýchle nasadenie pokročilých modelov mohol viesť spoločnosti k ústupkom v oblasti bezpečnosti. Ako poznamenal Jack Clark z Anthropic, odvetvie potrebuje silnejšie mechanizmy „na identifikáciu a zmierňovanie rizík, aby sa podporil zodpovedný rozvoj AI“ ešte pred tým, než budú tieto výkonné systémy široko nasadené.