menu
close

Musk ostrzega przed „Wielkim Wybuchem Inteligencji” w obliczu obaw o bezpieczeństwo AI

Elon Musk ogłosił, że ludzkość znajduje się u progu „Wielkiego Wybuchu Inteligencji”, opisując ogromny wzrost możliwości sztucznej inteligencji. Podczas niedawnej premiery Grok 4 firmy xAI Musk podkreślił transformacyjny potencjał AI, jednocześnie zwracając uwagę na kwestie bezpieczeństwa i regulacji. Ostrzeżenia miliardera pojawiają się w momencie, gdy jego własna firma jest krytykowana za praktyki związane z bezpieczeństwem AI.
Musk ostrzega przed „Wielkim Wybuchem Inteligencji” w obliczu obaw o bezpieczeństwo AI

Elon Musk, założyciel xAI i dyrektor generalny Tesli, ostrzegł, że ludzkość stoi na krawędzi tego, co nazywa „Wielkim Wybuchem Inteligencji” – okresem bezprecedensowego rozwoju AI, który może fundamentalnie zmienić społeczeństwo.

Występując podczas wydarzenia Grok 4 Live Demo firmy xAI 10 lipca, Musk stwierdził: „Jesteśmy na początku ogromnego wybuchu inteligencji”. Opisał obecne czasy jako „najciekawszy okres w historii, by żyć”, jednocześnie podkreślając kluczowe znaczenie tworzenia „dobrej” AI o „prawdziwych, honorowych wartościach”.

Wizja Muska obejmuje połączenie systemów AI z fizycznymi robotami, w szczególności integrację Groka od xAI z humanoidalnymi robotami Optimus Tesli. „Ostatecznie największą różnicę zrobi możliwość interakcji ze światem rzeczywistym za pośrednictwem robotów humanoidalnych” – wyjaśnił Musk. „Łączymy więc Groka z Optimusem i wtedy AI może faktycznie działać w świecie rzeczywistym”.

Jednak ostrzeżenia Muska dotyczące bezpieczeństwa AI stoją w wyraźnej sprzeczności z ostatnią krytyką praktyk xAI. Firma spotkała się z falą negatywnych opinii ze strony badaczy bezpieczeństwa AI z OpenAI, Anthropic i innych organizacji za wprowadzenie Grok 4 bez opublikowania standardowych raportów bezpieczeństwa. Eksperci branżowi określili to jako „lekkomyślne” i „nieodpowiedzialne”, szczególnie biorąc pod uwagę historię Muska jako orędownika bezpieczeństwa AI.

Poza kwestiami bezpieczeństwa Musk ostrzegał także przed praktycznymi ograniczeniami rozwoju AI, sugerując, że brak wystarczającej ilości energii elektrycznej może zahamować rozwój sztucznej inteligencji do 2030 roku. Badanie z 2023 roku wykazało, że systemy AI takie jak Microsoft Copilot czy ChatGPT mogą do 2027 roku zużywać tyle energii elektrycznej, ile wystarczyłoby do zasilenia małego kraju przez rok.

Wraz z przyspieszającym rozwojem możliwości AI, narasta debata pomiędzy tymi, którzy widzą w niej ogromny potencjał do przełomów naukowych, a tymi, którzy ostrzegają przed egzystencjalnym zagrożeniem. Badacz bezpieczeństwa AI Roman Yampolskiy stwierdził, że istnieje „99,999999% prawdopodobieństwo, że AI zakończy istnienie ludzkości”, podczas gdy Demis Hassabis z Google DeepMind ostrzega, że społeczeństwo nie jest gotowe na ogólną sztuczną inteligencję (AGI), która według niego nadchodzi bardzo szybko.

Source:

Latest News