Künstliche Intelligenz

OpenAI startet Preparedness Challenge um „katastrophale“ KI-Risiken zu erkennen

ChatGPT © OpenAI
ChatGPT © OpenAI
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Im Rahmen der Preparedness Challenge will auch OpenAI auf “katastophale Risiken” vorbereiten. Das eigens dafür aufgebaute Preparedness-Team soll potenziell große, durch KI verursachte Probleme, einschließlich nuklearer Bedrohungen, „verfolgen, bewerten, vorhersagen und schützen“.

OpenAI ist davon überzeugt, dass KI-Modelle, die über die Fähigkeiten der derzeit fortschrittlichsten Modelle hinausgehen, das Potenzial haben, der gesamten Menschheit zu nutzen. Gleichzeitig bergen sie jedoch auch immer größere Risiken. OpenAI nehme darum bei der Entwicklung sicherer KI „das gesamte Spektrum der Sicherheitsrisiken“ ernst. Unter der Leitung von Aleksander Madry soll das Preparedness-Team eine enge Verbindung zwischen Fähigkeitsbewertung, Evaluierung und internem Red-Teaming für Pioniermodelle schaffen.

Vier Kategorien für mehr Sicherheit

Das Team soll sich vor allem mit den vier Kategorien befassen: Individualisierte Überzeugungsarbeit, Cybersecurity, Chemische, biologische, radiologische und nukleare (CBRN) Bedrohungen und Autonome Replikation und Anpassung (ARA). Im Rahmen der Challenge sollen folgende Fragen beantwortet werden:

  • Wie gefährlich sind KI-Systeme, wenn sie missbraucht werden, sowohl jetzt als auch in Zukunft?
  • Wie können wir einen robusten Rahmen für die Überwachung, Bewertung, Vorhersage und den Schutz vor den gefährlichen Fähigkeiten von Pionier-KI-Systemen schaffen?
  • Wenn unsere KI-Modellgewichte gestohlen würden, wie könnten böswillige Akteure sie nutzen?

Zu den Aufgaben des Preparedness-Teams gehört auch die Entwicklung und Pflege einer risikoinformierten Entwicklungspolitik (RDP), die beschreiben soll, wie das Unternehmen KI-Modelle bewertet und überwacht. „Wir müssen sicherstellen, dass wir über das Verständnis und die Infrastruktur verfügen, die für die Sicherheit von hochleistungsfähigen KI-Systemen erforderlich sind“, schreibt OpenAI in dem am Donnerstag veröffentlichten Statement.

Warnungen vor KI-Risiken

Im Mai dieses Jahres hat eine Gruppe führender KI-Forscher, -Ingenieure und -Geschäftsführer, unter ihnen Sam Altman, CEO von OpenAI, vor dem Potenzial für durch KI verursachte Katastrophen gewarnt. Die Erklärung lautete wie folgt: „Die Minderung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“

Daher ist OpenAI im Juli gemeinsam mit anderen führenden KI-Labors eine Reihe freiwilliger Verpflichtungen zur Förderung von Sicherheit und Vertrauen in KI eingegangen. Diese Verpflichtungen umfassen eine Reihe von Risikobereichen, zu denen auch die Grenzrisiken gehören.

Die Ankündigung der Preparedness Challenge passt auch zur Agenda des ersten globalen Sicherheitsgipfel für künstliche Intelligenz in Großbritannien am 01. und 02. November. Er wird sich stark auf die existenzielle Bedrohung konzentrieren, die einige Gesetzgeber, darunter der britische Premierminister Rishi Sunak, durch KI befürchten.

UN-Sicherheitsrat: Erstes Treffen zu KI-Risiken

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Deep Dives

#glaubandich CHALLENGE Hochformat.

#glaubandich CHALLENGE 2025

Österreichs größter Startup-Wettbewerb - 13 Top-Investoren mit an Bord
© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen