Индустрията на изкуствения интелект става свидетел на сериозно разделение сред водещите си компании относно това как да се подходи към потенциалните екзистенциални рискове, породени от все по-мощните AI системи.
Anthropic, оценена на 61 милиарда долара и подкрепена от Amazon, се позиционира като най-предпазливия играч, като последователно предупреждава за опасността неконтролираните AI възможности да изпреварят мерките за безопасност. Главният изпълнителен директор Дарио Амодеи е особено гласовит относно необходимостта от планиране за най-лошите сценарии, като наскоро заяви, че моделите скоро ще "станат по-добри от нас във всичко". Политиката на компанията за отговорно мащабиране включва засилени физически мерки за сигурност, като проверки на офисите за скрити устройства, както и съвет за оценка на риска, който анализира мощните модели преди внедряване.
OpenAI, наскоро оценена на 300 милиарда долара, възприема различен подход, акцентирайки върху инициативи за прозрачност. През май 2025 г. компанията стартира Safety Evaluations Hub – уеб платформа, която показва как нейните модели се представят на различни тестове за безопасност, свързани с генериране на вредно съдържание, заобикаляне на защити и халюцинации. OpenAI се ангажира да актуализира тези метрики редовно с всяко голямо издание на модел. Въпреки това, последните промени в Preparedness Framework породиха притеснения, тъй като компанията посочи, че може да "коригира" изискванията за безопасност, ако конкуренти пуснат високорискови системи без подобни защити.
Google DeepMind е избрала най-методичния подход, публикувайки през април 2025 г. обширен доклад от 145 страници за безопасността на AGI. Рамката Frontier Safety Framework на компанията класифицира AI рисковете в четири области: злоупотреба, несъответствие, инциденти и структурни рискове. Стратегията на DeepMind залага на постепенно развитие с надеждно обучение, мониторинг и протоколи за сигурност. Компанията е създала AGI Safety Council, ръководен от съоснователя Шейн Лег, и си сътрудничи с неправителствени организации за изследване на AI безопасността като Apollo и Redwood Research.
Тези различни стратегии отразяват фундаменталното напрежение в AI индустрията между бързото развитие на възможностите и прилагането на надеждни предпазни мерки. С приближаването на AI системите до човешко ниво на представяне в различни области, нуждата от обединен, междусекторен консорциум за безопасност, подкрепен от прозрачни стандарти, става все по-очевидна.
Експерти предупреждават, че без координирани стандарти за безопасност, конкурентният натиск за бързо внедряване на напреднали модели може да накара компаниите да правят компромиси с мерките за сигурност. Както отбелязва Джак Кларк от Anthropic, индустрията се нуждае от по-силни механизми "за идентифициране и смекчаване на рисковете, като се насърчава отговорното развитие на AI" преди тези мощни системи да бъдат широко внедрени.