Industria inteligenței artificiale asistă la o divizare semnificativă între companiile de top cu privire la modul în care ar trebui abordate riscurile existențiale potențiale generate de sistemele AI din ce în ce mai puternice.
Anthropic, evaluată la 61 de miliarde de dolari și susținută de Amazon, s-a poziționat drept cel mai precaut jucător, avertizând constant asupra riscului ca abilitățile necontrolate ale AI să depășească măsurile de siguranță. CEO-ul Dario Amodei s-a remarcat prin apelurile sale la planificarea scenariilor de tipul cel mai grav, declarând recent că modelele vor deveni în curând „mai bune decât noi la aproape orice”. Politica companiei privind scalarea responsabilă include măsuri sporite de securitate fizică, precum verificări periodice ale birourilor pentru dispozitive ascunse și un consiliu executiv de evaluare a riscurilor, care analizează modelele puternice înainte de implementare.
OpenAI, evaluată recent la 300 de miliarde de dolari, a adoptat o abordare diferită, punând accent pe inițiative de transparență. În mai 2025, compania a lansat Safety Evaluations Hub, o platformă web care afișează scorurile modelelor sale la diverse teste de siguranță privind generarea de conținut dăunător, jailbreak-uri și halucinații. OpenAI s-a angajat să actualizeze regulat aceste metrici odată cu lansarea noilor modele. Totuși, actualizările recente ale Preparedness Framework au stârnit îngrijorări, deoarece compania a indicat că ar putea „ajusta” cerințele de siguranță dacă rivalii lansează sisteme cu risc ridicat fără protecții similare.
Google DeepMind a adoptat ceea ce pare a fi cea mai metodică abordare, publicând în aprilie 2025 o lucrare cuprinzătoare de 145 de pagini despre siguranța AGI. Cadrul Frontier Safety Framework al companiei clasifică riscurile AI în patru categorii: utilizare abuzivă, nealiniere, accidente și riscuri structurale. Strategia DeepMind pune accent pe progresul incremental, cu protocoale solide de instruire, monitorizare și securitate. Compania a creat un Consiliu pentru Siguranța AGI, condus de cofondatorul Shane Legg, și colaborează cu organizații nonprofit de cercetare în siguranța AI, precum Apollo și Redwood Research.
Aceste strategii divergente reflectă tensiunea fundamentală din industria AI între dezvoltarea rapidă a capabilităților și implementarea unor măsuri solide de siguranță. Pe măsură ce sistemele AI se apropie de performanța umană în diverse domenii, devine tot mai evidentă necesitatea unui consorțiu de siguranță la nivel industrial, susținut de repere transparente.
Experții sugerează că, în lipsa unor standarde de siguranță coordonate, presiunea competitivă de a lansa rapid modele avansate ar putea determina companiile să facă compromisuri în privința siguranței. După cum a remarcat Jack Clark de la Anthropic, industria are nevoie de mecanisme mai puternice „pentru a identifica și atenua riscurile, avansând dezvoltarea responsabilă a AI” înainte ca aceste sisteme puternice să fie implementate pe scară largă.