Saksi ang industriya ng artificial intelligence sa isang malaking pagkakahati-hati sa mga nangungunang kumpanya nito hinggil sa kung paano haharapin ang mga posibleng eksistensyal na panganib mula sa lalong lumalakas na mga sistema ng AI.
Ang Anthropic, na may halagang $61 bilyon at suportado ng Amazon, ay itinuturing na pinaka-maingat na manlalaro, palaging nagbababala ukol sa hindi makontrol na kakayahan ng AI na maaaring lumampas sa mga pananggalang sa kaligtasan. Partikular na naging matindi ang panawagan ni CEO Dario Amodei ukol sa pangangailangang maghanda para sa pinakamasamang senaryo, kamakailan ay nagsabing malapit nang "mas maging magaling kaysa sa atin ang mga modelo sa halos lahat ng bagay." Kasama sa polisiya ng kumpanya sa responsableng pagpapalawak ang mas pinaigting na pisikal na seguridad tulad ng pagsusuri sa opisina para sa mga nakatagong device at pagtatatag ng executive risk council na sumusuri sa mga makapangyarihang modelo bago ito ilunsad.
Iba naman ang lapit ng OpenAI, na kamakailan ay tinatayang nagkakahalaga ng $300 bilyon, sa pamamagitan ng pagbibigay-diin sa mga inisyatibo sa transparency. Noong Mayo 2025, inilunsad ng kumpanya ang Safety Evaluations Hub, isang web platform na nagpapakita kung paano pumapasa ang kanilang mga modelo sa iba't ibang pagsusuri sa kaligtasan para sa paglikha ng mapanganib na nilalaman, jailbreaks, at hallucinations. Nangako ang OpenAI na regular na ia-update ang mga metrikang ito tuwing may malalaking paglabas ng modelo. Gayunpaman, nagdulot ng pangamba ang mga kamakailang pagbabago sa Preparedness Framework nito, dahil ipinahiwatig ng kumpanya na maaari nitong "isaayos" ang mga kinakailangan sa kaligtasan kung maglalabas ang mga kakumpitensya ng mataas na panganib na sistema nang walang katulad na mga proteksyon.
Samantala, pinili ng Google DeepMind ang tila pinaka-sistematikong paglapit, inilabas ang isang komprehensibong 145-pahinang papel ukol sa AGI safety noong Abril 2025. Hinati ng Frontier Safety Framework ng kumpanya ang mga panganib ng AI sa apat na kategorya: maling paggamit, misalignment, aksidente, at estruktural na panganib. Binibigyang-diin ng estratehiya ng DeepMind ang paunti-unting pag-unlad gamit ang matitibay na pagsasanay, pagmamanman, at mga protokol sa seguridad. Nagtatag ang kumpanya ng AGI Safety Council na pinamumunuan ng co-founder na si Shane Legg at nakikipagtulungan sa mga nonprofit na organisasyon sa pananaliksik ng AI safety tulad ng Apollo at Redwood Research.
Ipinapakita ng magkakaibang estratehiyang ito ang pundamental na tensyon sa industriya ng AI sa pagitan ng mabilis na pag-unlad ng kakayahan at pagpapatupad ng matitibay na pananggalang. Habang papalapit ang mga sistema ng AI sa antas ng tao sa iba't ibang larangan, lalong nagiging malinaw ang pangangailangan para sa isang nagkakaisang, cross-industry na safety consortium na suportado ng transparent na mga benchmark.
Ayon sa mga eksperto, kung walang magkakaugnay na pamantayan sa kaligtasan, maaaring mapilitan ang mga kumpanya na isantabi ang mga pananggalang sa kaligtasan dahil sa kompetisyon na maunang mailunsad ang mga advanced na modelo. Gaya ng binanggit ni Jack Clark ng Anthropic, kailangan ng industriya ng mas matitibay na mekanismo "upang tukuyin at mabawasan ang mga panganib, at maisulong ang responsableng pag-unlad ng AI" bago malawakan ang pag-deploy ng mga makapangyarihang sistemang ito.