De kunstmatige intelligentie-industrie kent momenteel een duidelijke tweedeling onder haar koplopers over de aanpak van mogelijke existentiële risico's door steeds krachtigere AI-systemen.
Anthropic, gewaardeerd op 61 miljard dollar en gesteund door Amazon, profileert zich als de meest voorzichtige speler. Het bedrijf waarschuwt consequent dat ongecontroleerde AI-capaciteiten de veiligheidsmaatregelen kunnen overtreffen. CEO Dario Amodei uit zich regelmatig over de noodzaak van worstcasescenario-planning en stelde onlangs dat modellen binnenkort "bijna overal beter in zullen zijn dan wij". Het responsible scaling-beleid van Anthropic omvat strengere fysieke beveiligingsmaatregelen, zoals controles op verborgen apparaten op kantoor, en een executive risk council die krachtige modellen beoordeelt vóór uitrol.
OpenAI, recentelijk gewaardeerd op 300 miljard dollar, kiest voor een andere benadering en zet vooral in op transparantie-initiatieven. In mei 2025 lanceerde het bedrijf het Safety Evaluations Hub, een webplatform dat toont hoe haar modellen scoren op diverse veiligheidstests voor schadelijke contentgeneratie, jailbreaks en hallucinaties. OpenAI heeft beloofd deze statistieken regelmatig te actualiseren bij grote modelreleases. Toch hebben recente aanpassingen aan het Preparedness Framework zorgen gewekt, aangezien het bedrijf aangaf mogelijk de veiligheidsvereisten te "herzien" als concurrenten risicovolle systemen zonder vergelijkbare bescherming uitrollen.
Google DeepMind kiest voor wat de meest methodische aanpak lijkt en publiceerde in april 2025 een uitgebreid paper van 145 pagina's over AGI-veiligheid. Het Frontier Safety Framework van het bedrijf categoriseert AI-risico's in vier gebieden: misbruik, misalignment, ongelukken en structurele risico's. DeepMinds strategie richt zich op stapsgewijze vooruitgang met robuuste trainings-, monitoring- en beveiligingsprotocollen. Het bedrijf heeft een AGI Safety Council opgericht onder leiding van medeoprichter Shane Legg en werkt samen met non-profit AI-veiligheidsorganisaties zoals Apollo en Redwood Research.
Deze uiteenlopende strategieën weerspiegelen de fundamentele spanning in de AI-sector tussen snelle capaciteitsontwikkeling en het implementeren van robuuste waarborgen. Nu AI-systemen op steeds meer terreinen het menselijk niveau naderen, groeit de noodzaak voor een eendrachtig, sectorbreed veiligheidsconsortium met transparante benchmarks.
Deskundigen waarschuwen dat zonder gecoördineerde veiligheidsstandaarden de concurrentiedruk om geavanceerde modellen snel uit te rollen kan leiden tot concessies op het gebied van veiligheid. Zoals Anthropic's Jack Clark opmerkt, heeft de sector sterkere mechanismen nodig "om risico's te identificeren en te beperken, en zo verantwoorde AI-ontwikkeling te bevorderen" voordat deze krachtige systemen breed worden ingezet.