Warnung

Wie wahrscheinlich löscht AI die Menschheit aus? Zu 70%, laut Ex-OpenAI-Mitarbeiter

Prompt: Eine AI schwebt über einer dunklen Stadt und greift nach ihr. © Dall-E
PROMPT: AN AI HOVERS OVER A DARK CITY AND REACHES FOR IT. © DALL-E
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Wie hoch ist die Wahrscheinlichkeit, dass KI die Menschheit zerstört oder katastrophal schädigt? Laut Daniel Kokotajlo, einem ehemaligen Mitarbeiter von OpenAI, liegt diese Chance bei erschreckenden 70 Prozent. In einem offenen Brief warnten er und andere aktuelle sowie frühere Angestellte von OpenAI, Google DeepMind und Anthropic bereits vor den enormen Risiken, die von künstlicher Intelligenz ausgehen – und forderten unter dem Motto „Right to Warn“, dass sie und andere öffentlich darauf hinweisen müssen dürfen.

Die Unterzeichner des Briefes, darunter auch KI-Koryphäe Geoffrey Hinton, der Google letztes Jahr aus ähnlichen Bedenken verließ, behaupten, dass sie daran gehindert werden, öffentlich vor den Gefahren zu warnen. OpenAI CEO Sam Altman scheint die Bedenken zwar zu teilen, unternimmt aber laut Kokotajlo zu wenig, um die Technologie einzuschränken. Stattdessen treibe das Unternehmen die Entwicklung von AGI (Artificial General Intelligence) rücksichtslos voran.

Warnungen verhallen ungehört

Kokotajlo, der 2022 zu OpenAI kam und die Fortschritte der Technologie prognostizieren sollte, ist überzeugt, dass die Branche bis 2027 AGI erreichen wird – mit potenziell katastrophalen Folgen für die Menschheit. Er drängte Altman persönlich, mehr Zeit in Sicherheitsmaßnahmen zu investieren, anstatt die KI immer intelligenter zu machen. Doch seine Warnungen verhallten scheinbar ungehört.

Im April kündigte Kokotajlo frustriert seinen Job bei OpenAI. In einer E-Mail an sein Team schrieb er: „Die Welt ist nicht bereit, und wir sind nicht bereit. Und ich bin besorgt, dass wir trotzdem vorwärts stürmen und unser Handeln rationalisieren.“ Angesichts der prominenten Abgänge und erschreckenden Prognosen häufen sich die düsteren Nachrichten aus dem Hause OpenAI.

Zuletzt ist der Chefwissenschaftler von OpenAI, Ilya Sutskever, nach internen Meinungsverschiedenheiten ausgeschieden. Danach wurde ein neues „Safety and Security Committee“ eingerichtet, in dem der umstrittene OpenAI-CEO Sam Altman selbst sitzt und waltet.

OpenAI: Chef-Forscher Ilya Sutskever verlässt Startup nach internen Differenzen

OpenAI verteidigt Sicherheitsansatz

In einer Stellungnahme verteidigte OpenAI seinen Ansatz: „Wir sind stolz darauf, die leistungsfähigsten und sichersten KI-Systeme bereitzustellen und glauben an unseren wissenschaftlichen Ansatz zur Risikobewältigung.“ Man stimme zu, dass angesichts der Bedeutung dieser Technologie eine rigorose Debatte entscheidend sei und werde weiterhin mit Regierungen, der Zivilgesellschaft und anderen Gemeinschaften zusammenarbeiten.

Laut OpenAI gebe es zudem „Möglichkeiten für Mitarbeiter, ihre Bedenken zu äußern, darunter eine anonyme Integritäts-Hotline und ein Sicherheitskomitee, das von Vorstandsmitgliedern und Sicherheitsverantwortlichen des Unternehmens geleitet wird.“ Ob diese Maßnahmen ausreichen, um die von Kokotajlo und anderen befürchtete „KI-Apokalypse“ abzuwenden, bleibt abzuwarten.

OpenAI hat Training von GPT-5 begonnen

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen