Elon Musk, fondateur de xAI et PDG de Tesla, a averti que l’humanité se tient au bord de ce qu’il appelle un « Big Bang de l’intelligence » – une période d’avancées sans précédent en matière d’IA qui pourrait transformer fondamentalement la société.
S’exprimant lors de la démonstration en direct de Grok 4 organisée par xAI le 10 juillet, Musk a déclaré : « Nous sommes au début d’une explosion immense de l’intelligence. » Il a décrit l’époque actuelle comme « le moment le plus intéressant de l’histoire pour être en vie », tout en insistant sur l’importance cruciale de développer une IA « vertueuse, avec des valeurs honnêtes et honorables ».
La vision de Musk inclut la fusion des systèmes d’IA avec des robots physiques, en particulier en combinant Grok de xAI avec les robots humanoïdes Optimus de Tesla. « Au final, ce qui fera la plus grande différence, c’est de pouvoir interagir avec le monde réel via des robots humanoïdes », a expliqué Musk. « Donc, nous combinons Grok avec Optimus, et il peut réellement interagir avec le monde réel. »
Cependant, les avertissements de Musk concernant la sécurité de l’IA contrastent fortement avec les critiques récentes sur les pratiques de xAI. L’entreprise a été pointée du doigt par des chercheurs en sécurité de l’IA chez OpenAI, Anthropic et d’autres organisations pour avoir lancé Grok 4 sans publier de rapports de sécurité conformes aux standards. Cette omission a été qualifiée de « téméraire » et « irresponsable » par des experts du secteur, d’autant plus que Musk s’est historiquement positionné comme un défenseur de la sécurité de l’IA.
Au-delà des questions de sécurité, Musk a également mis en garde contre les limites pratiques au développement de l’IA, suggérant qu’un manque d’électricité pourrait freiner les progrès d’ici 2030. Une étude de 2023 indiquait que des systèmes d’IA comme Microsoft Copilot et ChatGPT pourraient consommer, d’ici 2027, assez d’électricité pour alimenter un petit pays pendant un an.
À mesure que les capacités de l’IA s’accélèrent, le débat s’intensifie entre ceux qui y voient un potentiel immense pour des avancées scientifiques et ceux qui mettent en garde contre des risques existentiels. Le chercheur en sécurité de l’IA Roman Yampolskiy estime qu’il y a « 99,999999 % de probabilité que l’IA mette fin à l’humanité », tandis que Demis Hassabis de Google DeepMind avertit que la société n’est pas prête pour l’intelligence artificielle générale (IAG), qui selon lui approche rapidement.