Wie wahrscheinlich löscht AI die Menschheit aus? Zu 70%, laut Ex-OpenAI-Mitarbeiter
Wie hoch ist die Wahrscheinlichkeit, dass KI die Menschheit zerstört oder katastrophal schädigt? Laut Daniel Kokotajlo, einem ehemaligen Mitarbeiter von OpenAI, liegt diese Chance bei erschreckenden 70 Prozent. In einem offenen Brief warnten er und andere aktuelle sowie frühere Angestellte von OpenAI, Google DeepMind und Anthropic bereits vor den enormen Risiken, die von künstlicher Intelligenz ausgehen – und forderten unter dem Motto „Right to Warn“, dass sie und andere öffentlich darauf hinweisen müssen dürfen.
Die Unterzeichner des Briefes, darunter auch KI-Koryphäe Geoffrey Hinton, der Google letztes Jahr aus ähnlichen Bedenken verließ, behaupten, dass sie daran gehindert werden, öffentlich vor den Gefahren zu warnen. OpenAI CEO Sam Altman scheint die Bedenken zwar zu teilen, unternimmt aber laut Kokotajlo zu wenig, um die Technologie einzuschränken. Stattdessen treibe das Unternehmen die Entwicklung von AGI (Artificial General Intelligence) rücksichtslos voran.
Warnungen verhallen ungehört
Kokotajlo, der 2022 zu OpenAI kam und die Fortschritte der Technologie prognostizieren sollte, ist überzeugt, dass die Branche bis 2027 AGI erreichen wird – mit potenziell katastrophalen Folgen für die Menschheit. Er drängte Altman persönlich, mehr Zeit in Sicherheitsmaßnahmen zu investieren, anstatt die KI immer intelligenter zu machen. Doch seine Warnungen verhallten scheinbar ungehört.
Im April kündigte Kokotajlo frustriert seinen Job bei OpenAI. In einer E-Mail an sein Team schrieb er: „Die Welt ist nicht bereit, und wir sind nicht bereit. Und ich bin besorgt, dass wir trotzdem vorwärts stürmen und unser Handeln rationalisieren.“ Angesichts der prominenten Abgänge und erschreckenden Prognosen häufen sich die düsteren Nachrichten aus dem Hause OpenAI.
Zuletzt ist der Chefwissenschaftler von OpenAI, Ilya Sutskever, nach internen Meinungsverschiedenheiten ausgeschieden. Danach wurde ein neues „Safety and Security Committee“ eingerichtet, in dem der umstrittene OpenAI-CEO Sam Altman selbst sitzt und waltet.
OpenAI: Chef-Forscher Ilya Sutskever verlässt Startup nach internen Differenzen
OpenAI verteidigt Sicherheitsansatz
In einer Stellungnahme verteidigte OpenAI seinen Ansatz: „Wir sind stolz darauf, die leistungsfähigsten und sichersten KI-Systeme bereitzustellen und glauben an unseren wissenschaftlichen Ansatz zur Risikobewältigung.“ Man stimme zu, dass angesichts der Bedeutung dieser Technologie eine rigorose Debatte entscheidend sei und werde weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften zusammenarbeiten.
Laut OpenAI gebe es zudem „Möglichkeiten für Mitarbeiter, ihre Bedenken zu äußern, darunter eine anonyme Integritäts-Hotline und ein Sicherheitskomitee, das von Vorstandsmitgliedern und Sicherheitsverantwortlichen des Unternehmens geleitet wird.“ Ob diese Maßnahmen ausreichen, um die von Kokotajlo und anderen befürchtete „KI-Apokalypse“ abzuwenden, bleibt abzuwarten.