Zusammenfassung

AI Act: Das ist die erste Regulierung für künstliche Intelligenz in der EU

AI. © Canva Pro
AI. © Canva Pro
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Das EU-Parlament sei „bereit für Verhandlungen über Regeln für sichere und transparente KI“. Vor wenigen Minuten nahm das Europäische Parlament seine Verhandlungsposition zum Gesetz über künstliche Intelligenz (KI) – kurz: der AI Act – mit 499 zu 28 Stimmen bei 93 Enthaltungen an. Damit können nun die Gespräche mit den EU-Mitgliedstaaten über die endgültige Form des Gesetzes beginnen. Die Vorschriften sollen die Einführung von menschenzentrierter und vertrauenswürdiger KI fördern und „Gesundheit, Sicherheit, Grundrechte und Demokratie vor schädlichen Folgen“ schützen.

KI-Bewertung nach „Grad der Gefahr“

„Die Vorschriften sollen dafür sorgen, dass in der EU entwickelte und eingesetzte KI in vollem Umfang den Rechten und Werten der Europäischen Union entspricht. Das umfasst, dass sie von Menschen beaufsichtigt wird, Anforderungen an Sicherheit, Datenschutz und Transparenz genügt, niemanden diskriminiert und weder Gesellschaft noch Umwelt schädigt“, heißt es auf der Parlamentsseite. Die Vorschriften sollen sich nach dem „Grad der Gefahr“, der von der KI ausgeht (oder ausgehen könnte), richten. Anhand dieses Grades bekommen die Betreiber der jeweiligen KI dann Rechte, aber auch Pflichten. KI-Systeme, die die menschliche Sicherheit „in inakzeptabler Weise gefährden“, sollen demnach verboten werden, das gilt beispielsweise für KI-Systeme für „Social Scoring“.
KI-Anwendungen, die in die Privatsphäre eingreifen und diskriminieren, werden verboten. Das gelte für

  • biometrische Systeme, die es ermöglichen, Personen in Echtzeit oder nachträglich an öffentlich zugänglichen Orten aus der Ferne zu identifizieren,
  • Systeme zur biometrischen Kategorisierung anhand sensibler Merkmale (z. B. Geschlecht, Rasse, ethnische Zugehörigkeit, Staatsbürgerschaft, Religion oder politische Orientierung),
  • vorausschauende Polizeiarbeit (die mit Profilerstellung und Standortermittlung arbeitet und aufgrund früheren kriminellen Verhaltens abschätzt, inwieweit eine Person Gefahr läuft, straffällig zu werden),
  • in der Strafverfolgung, beim Grenzschutz, am Arbeitsplatz und in Bildungseinrichtungen verwendete Emotionserkennungssysteme und
  • das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken (Verletzung der Menschenrechte und des Rechts auf Privatsphäre).

Vier Risikogruppen

Unannehmbares Risiko

KI-Systeme stellen ein unannehmbares Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme werden verboten. Sie umfassen:

  • kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, zum Beispiel sprachgesteuertes Spielzeug, das gefährliches Verhalten bei Kindern fördert;
  • Soziales Scoring: Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;
  • biometrischen Echtzeit-Fernidentifizierungssystemen, zum Beispiel Gesichtserkennung.

Hochrisiko-KI-Systeme

KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen. Zwei Unterkategorien:
1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.
2. KI-Systeme, die in acht spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:

  • biometrische Identifizierung und Kategorisierung von natürlichen Personen;
  • Verwaltung und Betrieb von kritischen Infrastrukturen;
  • allgemeine und berufliche Bildung;
  • Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
  • Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
  • Strafverfolgung;
  • Verwaltung von Migration, Asyl und Grenzkontrollen;
  • Unterstützung bei der Auslegung und Anwendung von Gesetzen.

AI Act: Die EU reguliert sich selbst hinunter

Generative KI

Generative Foundation-Modelle wie ChatGPT müssten zusätzliche Transparenzanforderungen erfüllen:

  • Offenlegung, dass der Inhalt durch KI generiert wurde;
  • Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;
  • Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.

Begrenztes Risiko

KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen, die es den Nutzern ermöglichen, fundierte Entscheidungen zu treffen. Nach der Interaktion mit den Anwendungen kann der Nutzer dann entscheiden, ob er sie weiter verwenden möchte. Die Nutzer sollten darauf aufmerksam gemacht werden, wenn sie mit KI interagieren. Dies gilt auch für KI-Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren (siehe weiter unten).

Wir durchleuchten den AI Act – mit Franziskos von 7Lytix

AI Act: Rechte & Pflichten

KI-Systeme, die die Gesundheit, die Sicherheit und die Grundrechte von Menschen bzw. die Umwelt erheblich gefährden, sollen künftig als „Hochrisiko-Anwendungen“ gelten. In die Liste wurden etwa KI-Systeme aufgenommen, die zur Beeinflussung von Wählern und Wahlergebnissen sowie in Empfehlungssystemen von Social-Media-Plattformen mit mehr als 45 Millionen Nutzern eingesetzt werden.

Generell gilt: Wer eine KI anbietet, hat Pflichten einzuhalten. Die Anbieter müssen künftig „Risiken (für Gesundheit, Sicherheit, die Grundrechte von Personen, die Umwelt oder für Demokratie und Rechtsstaatlichkeit) abschätzen und mindern und ihre Modelle in der entsprechenden EU-Datenbank registrieren, bevor sie auf den EU-Markt kommen. Generative KI-Systeme wie ChatGPT müssen fortan „Transparenzanforderungen“ erfüllen und offenlegen, dass die Inhalte KI-generiert sind. Das soll dazu beitragen, etwa Deepfake-Fotos von echten Abbildungen unterscheiden zu können. Zusätzlich müssen sie dafür sorgen, dass keine rechtswidrigen Inhalte erzeugt werden. Und: KI-Betreiber müssen Zusammenfassungen der urheberrechtlich geschützten Daten veröffentlichen, die sie zu Trainingszwecken verwendet haben. Bürger:innen sollen mehr Rechte bekommen, Beschwerden über KI-Systeme einzureichen und Entscheidungen erklärt zu bekommen, die auf dem Einsatz hochriskanter KI-Systemen beruhen und ihre Grundrechte „erheblich beeinträchtigen“. Eingerichtet werden soll dafür ein Europäisches Amt für künstliche Intelligenz, das die Umsetzung des KI-Regelwerks überwachen soll.

Was der AI Act für Startups bedeutet – mit Jeanette Gorzala

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

© Wiener Börse

IPO Spotlight

powered by Wiener Börse

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Trending Topics Tech Talk

Der Podcast mit smarten Köpfen für smarte Köpfe

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen