menu
close

OpenAI-Ex-Wissenschaftler plante Bunker für die Post-AGI-Welt

Der ehemalige OpenAI-Chef-Wissenschaftler Ilya Sutskever schlug vor, einen Weltuntergangsbunker zu errichten, um Forscher nach der Schaffung einer künstlichen allgemeinen Intelligenz (AGI) vor potenziellen Gefahren zu schützen. Die Enthüllung, die in Karen Haos neuem Buch 'Empire of AI' detailliert beschrieben wird, unterstreicht Sutskevers tiefe Besorgnis über die existenziellen Risiken von AGI – ein Faktor, der letztlich zu seinem Weggang von OpenAI und zur Gründung von Safe Superintelligence Inc. beitrug.
OpenAI-Ex-Wissenschaftler plante Bunker für die Post-AGI-Welt

Im Sommer 2023 machte Ilya Sutskever, damals Chef-Wissenschaftler von OpenAI, während eines Treffens mit OpenAI-Forschern eine verblüffende Ankündigung: „Wir werden definitiv einen Bunker bauen, bevor wir AGI veröffentlichen.“ Diese Enthüllung, erstmals berichtet in Karen Haos kürzlich erschienenem Buch „Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI“, gewährt Einblicke in die apokalyptischen Befürchtungen eines der einflussreichsten Köpfe der KI-Branche.

Sutskever, der OpenAI mitbegründete und bis Mai 2024 als Chef-Wissenschaftler tätig war, war überzeugt, dass Forscher Schutz benötigen würden, sobald sie künstliche allgemeine Intelligenz – also KI-Systeme mit kognitiven Fähigkeiten auf menschlichem Niveau – erreicht hätten. Laut Quellen, die in Haos Buch zitiert werden, verfolgte Sutskevers Bunker-Vorschlag zwei Ziele: Zum einen sollten Schlüsselforscher vor dem geopolitischen Chaos geschützt werden, das auf die Veröffentlichung von AGI folgen könnte; zum anderen könnte der Bunker als Ausgangspunkt dienen, um Einfluss darauf zu nehmen, wie sich superintelligente Systeme weiterentwickeln.

„Es gibt eine Gruppe von Menschen – Ilya gehört dazu –, die glauben, dass die Entwicklung von AGI eine Art Entrückung auslösen wird“, sagte ein Forscher zu Hao – und meinte damit nicht eine Metapher, sondern ein buchstäblich weltveränderndes Ereignis. Sutskever habe Kollegen zwar versichert, der Eintritt in den Bunker sei „optional“, doch sein nüchterner Umgang mit solch extremen Vorbereitungen habe viele in der Organisation beunruhigt.

Der Bunker-Vorschlag entstand vor dem Hintergrund wachsender Spannungen bei OpenAI über die Ausrichtung des Unternehmens. Sutskever und andere befürchteten, dass die Organisation kommerzielles Wachstum über Sicherheitsprotokolle stelle – eine Sorge, die schließlich zum gescheiterten Versuch führte, CEO Sam Altman im November 2023 zu entmachten. Nach Altmans Wiedereinsetzung verließ Sutskever OpenAI im Mai 2024 und gründete gemeinsam mit Daniel Gross und Daniel Levy Safe Superintelligence (SSI).

SSI, das bis April 2025 drei Milliarden Dollar eingeworben und eine Bewertung von 32 Milliarden Dollar erreicht hat, steht für Sutskevers anhaltendes Engagement für KI-Sicherheit. Im Gegensatz zum diversifizierten Ansatz von OpenAI konzentriert sich SSI ausschließlich auf die Entwicklung sicherer Superintelligenz. Sutskever erklärte: „Unser erstes Produkt wird die sichere Superintelligenz sein, und wir werden bis dahin nichts anderes tun.“

Der Gegensatz zwischen Sutskevers vorsichtiger Herangehensweise und Altmans optimistischer Sichtweise unterstreicht die ideologischen Gräben innerhalb der KI-Community. Während Sutskever sich auf eine potenzielle Katastrophe vorbereitete, äußerte Altman, AGI werde mit „erstaunlich wenig gesellschaftlichen Auswirkungen“ einhergehen. Während das Rennen um Superintelligenz an Fahrt aufnimmt, prägen diese konkurrierenden Visionen weiterhin den Umgang der Menschheit mit einer der folgenreichsten technologischen Entwicklungen ihrer Geschichte.

Source: Naturalnews.com

Latest News