Branża sztucznej inteligencji obserwuje obecnie wyraźny podział wśród czołowych firm, jeśli chodzi o podejście do potencjalnych zagrożeń egzystencjalnych płynących z coraz potężniejszych systemów AI.
Anthropic, wyceniany na 61 miliardów dolarów i wspierany przez Amazon, pozycjonuje się jako najbardziej ostrożny gracz, konsekwentnie ostrzegając przed niekontrolowanymi możliwościami AI wyprzedzającymi środki bezpieczeństwa. CEO Dario Amodei szczególnie mocno podkreśla potrzebę planowania na wypadek najgorszych scenariuszy, ostatnio stwierdzając, że modele wkrótce "będą lepsze od nas niemal we wszystkim". Polityka odpowiedzialnego skalowania firmy obejmuje wzmocnione środki bezpieczeństwa fizycznego, takie jak przeszukiwanie biur w poszukiwaniu ukrytych urządzeń oraz powołanie rady ds. ryzyka wykonawczego, która ocenia potężne modele przed ich wdrożeniem.
OpenAI, ostatnio wyceniany na 300 miliardów dolarów, obrał inną ścieżkę, kładąc nacisk na inicjatywy transparentności. W maju 2025 roku firma uruchomiła Safety Evaluations Hub – platformę internetową prezentującą wyniki modeli w różnych testach bezpieczeństwa dotyczących generowania szkodliwych treści, obchodzenia zabezpieczeń (jailbreaków) i halucynacji. OpenAI zobowiązało się do regularnej aktualizacji tych wskaźników przy okazji głównych premier modeli. Jednak ostatnie zmiany w Preparedness Framework wzbudziły obawy, ponieważ firma zasugerowała, że może "dostosować" wymagania bezpieczeństwa, jeśli konkurenci wypuszczą na rynek systemy wysokiego ryzyka bez podobnych zabezpieczeń.
Google DeepMind przyjęło najbardziej metodyczne podejście, publikując w kwietniu 2025 roku obszerny, 145-stronicowy dokument na temat bezpieczeństwa AGI. Frontier Safety Framework firmy kategoryzuje ryzyka AI w czterech obszarach: nadużycia, niezgodności z celami, wypadki oraz ryzyka strukturalne. Strategia DeepMind opiera się na stopniowym postępie przy wykorzystaniu solidnych protokołów szkoleniowych, monitoringu i zabezpieczeń. Firma powołała Radę ds. Bezpieczeństwa AGI pod przewodnictwem współzałożyciela Shane'a Legga i współpracuje z organizacjami non-profit zajmującymi się badaniami nad bezpieczeństwem AI, takimi jak Apollo i Redwood Research.
Te rozbieżne strategie odzwierciedlają fundamentalne napięcie w branży AI pomiędzy szybkim rozwojem możliwości a wdrażaniem solidnych zabezpieczeń. W miarę jak systemy AI zbliżają się do poziomu ludzkiego w różnych dziedzinach, coraz bardziej widoczna staje się potrzeba powołania jednolitego, międzybranżowego konsorcjum ds. bezpieczeństwa, opartego na transparentnych standardach.
Eksperci sugerują, że bez skoordynowanych standardów bezpieczeństwa presja konkurencyjna na szybkie wdrażanie zaawansowanych modeli może skłaniać firmy do kompromisów w zakresie zabezpieczeń. Jak zauważył Jack Clark z Anthropic, branża potrzebuje silniejszych mechanizmów "do identyfikowania i łagodzenia ryzyk, wspierając odpowiedzialny rozwój AI" zanim te potężne systemy zostaną szeroko wdrożone.