Industri kecerdasan buatan kini menyaksikan perpecahan ketara di kalangan syarikat-syarikat utamanya mengenai cara menangani risiko eksistensial yang mungkin timbul daripada sistem AI yang semakin berkuasa.
Anthropic, yang bernilai AS$61 bilion dan disokong oleh Amazon, telah memposisikan dirinya sebagai pemain paling berhati-hati, sentiasa memberi amaran tentang kemampuan AI yang tidak terkawal boleh mengatasi langkah-langkah keselamatan. Ketua Pegawai Eksekutif, Dario Amodei, sangat lantang mengenai keperluan perancangan senario terburuk, baru-baru ini menyatakan bahawa model AI akan "menjadi lebih baik daripada kita dalam hampir semua perkara." Polisi penskalaan bertanggungjawab syarikat ini merangkumi langkah keselamatan fizikal yang dipertingkatkan seperti pemeriksaan pejabat untuk peranti tersembunyi dan majlis risiko eksekutif bagi menilai model berkuasa sebelum dilancarkan.
OpenAI, yang baru-baru ini dinilai pada AS$300 bilion, mengambil pendekatan berbeza dengan menekankan inisiatif ketelusan. Pada Mei 2025, syarikat ini melancarkan Hab Penilaian Keselamatan, sebuah platform web yang memaparkan skor model-modelnya dalam pelbagai ujian keselamatan untuk penjanaan kandungan berbahaya, jailbreak, dan halusinasi. OpenAI berjanji untuk mengemas kini metrik ini secara berkala dengan setiap pelancaran model utama. Namun, kemas kini terkini kepada Rangka Kerja Persediaan mereka telah menimbulkan kebimbangan, kerana syarikat menyatakan ia mungkin "melaraskan" keperluan keselamatan sekiranya pesaing melancarkan sistem berisiko tinggi tanpa perlindungan serupa.
Google DeepMind pula memilih pendekatan yang paling metodikal, menerbitkan kertas kerja komprehensif setebal 145 muka surat mengenai keselamatan AGI pada April 2025. Rangka Kerja Keselamatan Frontier syarikat ini mengkategorikan risiko AI kepada empat bidang: penyalahgunaan, ketidakselarasan, kemalangan, dan risiko struktur. Strategi DeepMind menekankan kemajuan berperingkat dengan latihan, pemantauan, dan protokol keselamatan yang kukuh. Syarikat ini telah menubuhkan Majlis Keselamatan AGI yang diketuai oleh pengasas bersama Shane Legg dan bekerjasama dengan organisasi penyelidikan keselamatan AI bukan untung seperti Apollo dan Redwood Research.
Perbezaan strategi ini mencerminkan ketegangan asas dalam industri AI antara pembangunan keupayaan yang pesat dan pelaksanaan langkah perlindungan yang kukuh. Apabila sistem AI semakin menghampiri prestasi setaraf manusia dalam pelbagai bidang, keperluan untuk konsortium keselamatan rentas industri yang bersatu dan disokong oleh penanda aras yang telus menjadi semakin jelas.
Pakar mencadangkan bahawa tanpa piawaian keselamatan yang diselaraskan, tekanan persaingan untuk melancarkan model canggih dengan pantas boleh menyebabkan syarikat mengabaikan langkah-langkah keselamatan. Seperti yang dinyatakan oleh Jack Clark dari Anthropic, industri memerlukan mekanisme yang lebih kukuh "untuk mengenal pasti dan mengurangkan risiko, memajukan pembangunan AI yang bertanggungjawab" sebelum sistem berkuasa ini digunakan secara meluas.