AI Act zwischen Verboten und Selbstregulierung: In welche Richtung kippt das KI-Gesetz?
Entscheidende Tage für den AI Act der EU: Wie berichtet steht die KI-Verordnung in Europa auf der Kippe, weil sich die Staaten nicht darauf einigen können, wie man nun in Zukunft wirklich mit den so genannten Foundation Models (FMs) bzw. General Purpose AI Models (GPAIMs) umgehen soll. Dieses Jahr hat bereits das EU-Parlament beschlossen, dass es für diese AI-Modelle wie GPT-4, PaLM, Llama und Co. hohe Auflagen und sogar Verbote geben sollte.
Nun aber wurde zuletzt bekannt, dass sich die Regierungen der drei größten EU-Länder, Deutschland, Frankreich und Italien – offenbar auf Druck von Lobbying – darauf verständigt haben, dass es für die Foundation Models keine strengen Regeln geben soll, sondern lediglich Selbstregulierung. AI-Startups, aber auch Investor:innen und Großunternehmen übten Kritik am AI Act, weil er Innovation in der EU verhindere, während in den USA Firmen wie OpenAI und Co gedeihen können, weil es dort keine explizite Verbote gibt (mehr dazu hier).
Am Mittwoch nun sollen die finalen Trilog-Verhandlungen zwischen der Eu-Kommission, dem Rat der EU (= Vertreter:innen der Mitgliedsstaaten) und dem EU-Parlament kommen. Es gilt die Grundfrage zu klären: Welche Regeln gelten nun für FMs bzw. GPAIMs? Strenge Regeln und teilweise Verbote, oder einfach nur Selbstregulierung?
AI Act: Selbstregulierung für Foundation Models als neue Möglichkeit
„Effektive Risikobewertung und -minderung unmöglich“
Das European AI Forum, das 2.000 KI-Unternehmen aus neun Ländern vertritt, hat sich nun in einer Stellungnahme dazu geäußert. Gefordert wird folgendes: Sie wollen verhindern, dass GPAIMs nicht einfach basierend auf mathematischen Parametern als System-Risiko angesehen werden sollen, sondern plädieren dafür, dass Entwickler:innen von FMs gemeinsam mit den Gesetzgebern entsprechende Parameter entwickeln, welche Risikos es gibt.
Was man nicht wolle ist, dass immer mehr AI-Grundlagenmodelle nicht offen, sondern als „Black Box“ veröffentlicht werden. Deswegen brauche es eine technische Dokumentation für FMs/GPAIMs und die Förderung des Informationsaustauschs – nur, wenn man weiß, mit welchen Daten ein AI-Modell trainiert wurde, können schließlich auch Copyright-Fragen geklärt werden. Deswegen brauche es auch eine Überarbeitung der Urheberrechtsrichtlinie und eine Kennzeichnung maschinenlesbarer Inhalte für FM/GPAIM-Anbieter.
Auch der deutsche Branchenverband Bitkom sieht die EU vor einer „entscheidenden Weichenstellung bei Künstlicher Intelligenz“. „Eine entscheidende Frage dabei ist, ob und wie der AI Act mit KI-Modellen, also Foundation Models oder General Purpose AI Models, umgeht. Deren strikte und starre Regulierung wäre doppelt problematisch. Erstens können Anbieter die vielfältigen Verwendungszwecke ihrer Modelle nicht vorhersehen, was eine effektive Risikobewertung und -minderung unmöglich macht“, heißt es seitens Bitkom.
Und weiter: „Zweitens sind die technischen Entwicklungen gerade auf der Ebene der Modelle rasant, so dass feste Regeln im AI Act schnell überholt wären. Der bessere Weg liegt im Kompromissvorschlag von Deutschland, Frankreich und Italien. Der sieht vor, dass gemeinsam mit den Modell-Entwicklern möglichst viele der Anforderungen in einer verpflichtenden Selbstregulierung festgeschrieben werden.“
European AI Forum vertritt 2.000 KI-Unternehmen aus neun Ländern