menu
close

Musk met en garde contre un « Big Bang de l’intelligence » au milieu des inquiétudes sur la sécurité de l’IA

Elon Musk a déclaré que l’humanité se trouve au début d’un « Big Bang de l’intelligence », décrivant une explosion immense des capacités de l’intelligence artificielle. Lors du récent lancement de Grok 4 par xAI, Musk a souligné le potentiel transformateur de l’IA tout en exprimant des préoccupations concernant la sécurité et la réglementation. Les avertissements du milliardaire surviennent alors que les pratiques de sécurité en IA de sa propre entreprise sont contestées.
Musk met en garde contre un « Big Bang de l’intelligence » au milieu des inquiétudes sur la sécurité de l’IA

Elon Musk, fondateur de xAI et PDG de Tesla, a averti que l’humanité se trouve au bord de ce qu’il appelle un « Big Bang de l’intelligence » — une période d’avancées sans précédent en IA qui pourrait transformer la société de façon fondamentale.

S’exprimant lors de la démonstration en direct de Grok 4 de xAI le 10 juillet, Musk a déclaré : « Nous sommes au début d’une explosion immense de l’intelligence. » Il a décrit l’époque actuelle comme « le moment le plus intéressant de l’histoire pour être en vie », tout en insistant sur l’importance cruciale de développer une IA « bonne », dotée de « valeurs véridiques et honorables ».

La vision de Musk inclut la fusion des systèmes d’IA avec des robots physiques, en particulier en combinant Grok de xAI avec les robots humanoïdes Optimus de Tesla. « En fin de compte, ce qui fera la plus grande différence, c’est de pouvoir interagir avec le monde réel via des robots humanoïdes », a expliqué Musk. « Donc, nous combinons Grok avec Optimus, et il peut réellement interagir avec le monde réel. »

Cependant, les avertissements de Musk concernant la sécurité de l’IA contrastent fortement avec les critiques récentes envers les pratiques de xAI. L’entreprise a été critiquée par des chercheurs en sécurité de l’IA chez OpenAI, Anthropic et d’autres organisations pour avoir lancé Grok 4 sans publier de rapports de sécurité standards. Cette omission a été qualifiée de « téméraire » et « irresponsable » par des experts de l’industrie, surtout compte tenu du passé de Musk en tant que défenseur de la sécurité de l’IA.

Au-delà des préoccupations de sécurité, Musk a aussi mis en garde contre les limites pratiques à l’avancement de l’IA, suggérant qu’un manque d’électricité pourrait freiner le développement de l’IA d’ici 2030. Une étude de 2023 a indiqué que des systèmes d’IA comme Microsoft Copilot et ChatGPT pourraient consommer assez d’électricité pour alimenter un petit pays pendant un an d’ici 2027.

Alors que les capacités de l’IA continuent de s’accélérer, le débat s’intensifie entre ceux qui voient un potentiel immense pour des percées scientifiques et ceux qui mettent en garde contre des risques existentiels. Le chercheur en sécurité de l’IA Roman Yampolskiy affirme qu’il y a une « probabilité de 99,999999 % que l’IA mette fin à l’humanité », tandis que Demis Hassabis, de Google DeepMind, prévient que la société n’est pas prête pour l’intelligence artificielle générale (IAG), qu’il juge en approche rapide.

Source:

Latest News