L’industrie de l’intelligence artificielle connaît une fracture significative parmi ses leaders quant à la manière d’aborder les risques existentiels potentiels liés à des systèmes d’IA de plus en plus puissants.
Anthropic, valorisée à 61 milliards de dollars et soutenue par Amazon, s’est imposée comme l’acteur le plus prudent, alertant régulièrement sur le risque que les capacités de l’IA ne dépassent les mesures de sécurité. Son PDG, Dario Amodei, s’est montré particulièrement préoccupé par la nécessité de planifier les pires scénarios, déclarant récemment que les modèles allaient bientôt « nous surpasser dans presque tous les domaines ». La politique de montée en puissance responsable de l’entreprise inclut des mesures de sécurité physique renforcées, telles que des inspections de bureaux à la recherche de dispositifs cachés, ainsi qu’un conseil exécutif chargé d’évaluer les modèles puissants avant leur déploiement.
OpenAI, récemment valorisée à 300 milliards de dollars, a opté pour une stratégie différente en mettant l’accent sur la transparence. En mai 2025, l’entreprise a lancé son Safety Evaluations Hub, une plateforme web affichant les résultats de ses modèles sur divers tests de sécurité concernant la génération de contenus nuisibles, les contournements de sécurité (« jailbreaks ») et les hallucinations. OpenAI s’est engagée à mettre à jour ces indicateurs à chaque lancement majeur de modèle. Cependant, les récentes modifications de son Preparedness Framework ont suscité des inquiétudes, l’entreprise ayant indiqué qu’elle pourrait « ajuster » ses exigences de sécurité si des concurrents lançaient des systèmes à haut risque sans protections équivalentes.
Google DeepMind a adopté ce qui semble être l’approche la plus méthodique, publiant en avril 2025 un rapport exhaustif de 145 pages sur la sécurité de l’AGI. Son cadre Frontier Safety Framework classe les risques liés à l’IA en quatre catégories : usage abusif, mésalignement, accidents et risques structurels. La stratégie de DeepMind privilégie les progrès incrémentaux avec des protocoles de formation, de surveillance et de sécurité rigoureux. L’entreprise a mis en place un AGI Safety Council dirigé par le cofondateur Shane Legg et collabore avec des organisations de recherche à but non lucratif spécialisées dans la sécurité de l’IA, telles qu’Apollo et Redwood Research.
Ces stratégies divergentes reflètent la tension fondamentale du secteur entre le développement rapide des capacités et la mise en œuvre de garde-fous robustes. À mesure que les systèmes d’IA approchent des performances humaines dans de nombreux domaines, la nécessité d’un consortium de sécurité intersectoriel, soutenu par des indicateurs transparents, devient de plus en plus évidente.
Les experts estiment qu’en l’absence de normes de sécurité coordonnées, la pression concurrentielle pour déployer rapidement des modèles avancés pourrait pousser les entreprises à faire des compromis sur la sécurité. Comme l’a souligné Jack Clark d’Anthropic, le secteur a besoin de mécanismes plus solides « pour identifier et atténuer les risques, et faire progresser le développement responsable de l’IA » avant que ces systèmes puissants ne soient largement déployés.