menu
close

Гіганти ШІ сперечаються щодо стратегій управління екзистенційними ризиками

Провідні компанії у сфері штучного інтелекту обирають різні підходи до управління екзистенційними ризиками, які виникають через розвиток потужних ШІ-систем. Anthropic виступає за планування найгірших сценаріїв, тоді як OpenAI робить акцент на ініціативах прозорості через новий Safety Evaluations Hub. Google DeepMind впроваджує більш методичний, поступовий підхід із комплексною рамкою Frontier Safety Framework. Ці стратегічні відмінності підкреслюють напругу між швидким розвитком ШІ та впровадженням надійних запобіжників.
Гіганти ШІ сперечаються щодо стратегій управління екзистенційними ризиками

Індустрія штучного інтелекту спостерігає суттєвий розкол серед провідних компаній щодо того, як реагувати на потенційні екзистенційні ризики, пов’язані з дедалі потужнішими ШІ-системами.

Anthropic, яку оцінюють у $61 мільярд і підтримує Amazon, позиціонує себе як найбільш обережного гравця, постійно попереджаючи про те, що неконтрольовані можливості ШІ можуть випередити заходи безпеки. Генеральний директор Даріо Амодей особливо наполягає на необхідності планування найгірших сценаріїв, нещодавно заявивши, що моделі незабаром «стануть кращими за нас майже у всьому». Політика відповідального масштабування компанії включає посилені фізичні заходи безпеки, такі як перевірки офісів на приховані пристрої, а також створення ради з управління ризиками для оцінки потужних моделей перед їх впровадженням.

OpenAI, яку нещодавно оцінили у $300 мільярдів, обрала інший шлях, роблячи акцент на ініціативах прозорості. У травні 2025 року компанія запустила Safety Evaluations Hub — веб-платформу, яка демонструє, як її моделі проходять різні тести на безпеку щодо створення шкідливого контенту, обхідних шляхів (jailbreaks) та галюцинацій. OpenAI пообіцяла регулярно оновлювати ці метрики з виходом основних релізів моделей. Однак нещодавні зміни у Preparedness Framework викликали занепокоєння, оскільки компанія зазначила, що може «коригувати» вимоги до безпеки, якщо конкуренти випустять високоризикові системи без подібних захистів.

Google DeepMind дотримується, ймовірно, найбільш методичного підходу, оприлюднивши у квітні 2025 року комплексний 145-сторінковий документ щодо безпеки AGI. Їхня рамка Frontier Safety Framework класифікує ризики ШІ на чотири категорії: зловживання, невідповідність цілей, випадкові інциденти та структурні ризики. Стратегія DeepMind робить акцент на поступовому прогресі з надійним навчанням, моніторингом і протоколами безпеки. Компанія створила раду з безпеки AGI під керівництвом співзасновника Шейна Легга та співпрацює з некомерційними дослідницькими організаціями у сфері безпеки ШІ, такими як Apollo та Redwood Research.

Ці різні стратегії відображають фундаментальну напругу в індустрії ШІ між швидким розвитком можливостей і впровадженням надійних запобіжників. Оскільки ШІ-системи наближаються до людського рівня у різних сферах, дедалі очевиднішою стає потреба у єдиному міжгалузевому консорціумі з безпеки, підкріпленому прозорими стандартами.

Експерти зазначають, що без координованих стандартів безпеки конкурентний тиск щодо швидкого впровадження передових моделей може змусити компанії йти на компроміси із заходами безпеки. Як зазначив Джек Кларк з Anthropic, галузі потрібні сильніші механізми «для виявлення та пом’якшення ризиків, просуваючи відповідальний розвиток ШІ» до того, як ці потужні системи будуть широко впроваджені.

Source:

Latest News