Der AI Act hat nun einen sprichwörtlichen FLOP
Es wurde sehr lange verhandelt, immerhin erwartet man sich von dem neuen Gesetz Vorreiterschaft weltweit: In der Nacht auf Samstag haben sich EU-Kommission, Europäischer Rat und EU-Parlament endlich auf die finalen Regeln für den AI Act geeinigt. Nach der Verabschiedung im EU-Parlament war es zu Versuchen einiger Mitgliedsstaaten gekommen, die Regeln für die im KI-Sektor so wichtigen Foundation Models (FMs) bzw. General Purpose AI Models (GPAIMs) aufzuweichen. Zu streng seien die Regeln des EU-Parlaments, sie würden Innovation in Europa in Sachen AI eher verhindern als beflügeln.
Was man nun aber festhalten kann: In Summe ist es bei strengen Regeln für diese AI-Grundlagenmodelle, zu denen etwa GPT-4 von OpenAI, Gemini von Google oder Llama von Meta zählen. „Mit dieser Verordnung soll sichergestellt werden, dass die Grundrechte, die Demokratie, die Rechtsstaatlichkeit und die ökologische Nachhaltigkeit vor hochriskanter KI geschützt werden, während gleichzeitig die Innovation gefördert und Europa zu einem Vorreiter auf diesem Gebiet gemacht wird. Die Vorschriften legen Verpflichtungen für KI auf der Grundlage ihrer potenziellen Risiken und Auswirkungen fest“, heißt es in einer Aussendung des EU-Parlaments.
Während es in den USA keine expliziten Verbote für AI-Anwendungen geben wird, wird AI in Europa in folgenden Punkten verboten werden:
- biometrische Kategorisierungssysteme, die sensible Merkmale verwenden (z. B. politische, religiöse oder philosophische Überzeugungen, sexuelle Orientierung, Rasse)
- ungezieltes Auslesen von Gesichtsbildern aus dem Internet oder aus Überwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
- Soziales Scoring auf der Grundlage von Sozialverhalten oder persönlichen Merkmalen
- KI-Systeme, die das menschliche Verhalten manipulieren, um den freien Willen des Menschen zu umgehen;
- KI, die eingesetzt wird, um die Schwächen von Menschen (aufgrund ihres Alters, einer Behinderung, ihrer sozialen oder wirtschaftlichen Lage) auszunutzen.
Allerdings wird es Ausnahmen für polizeilichen Einsatz geben, was biometrische AI-Systeme angeht. Sie sollen künftig erlaubt sein für:
- Einsatz biometrischer Identifizierungssysteme (RBI) in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, vorbehaltlich einer vorherigen richterlichen Genehmigung und für streng definierte Listen von Straftaten. Die „Post-Remote“-RBI darf ausschließlich bei der gezielten Suche nach einer Person eingesetzt, die verurteilt oder verdächtigt wird, eine schwere Straftat begangen zu haben.
- „Echtzeit“-RBI soll strengen Bedingungen unterliegen und nur zeitlich und örtlich begrenzt verwendet werden zu:
- gezielte Durchsuchung von Opfern (Entführung, Menschenhandel, sexuelle Ausbeutung),
- Abwehr einer konkreten und gegenwärtigen terroristischen Bedrohung
- Lokalisierung oder Identifizierung einer Person, die im Verdacht steht, eine der in der Verordnung genannten Straftaten begangen zu haben (z. B. Terrorismus, Menschenhandel, sexuelle Ausbeutung, Mord, Entführung, Vergewaltigung, bewaffneter Raubüberfall, Beteiligung an einer kriminellen Vereinigung, Umweltkriminalität).
10^25 FLOPs: Strenge Regeln für große Foundation Models
Was einige EU-Länder und Wirtschaftsvertreter:innen nicht geschafft haben: Sie konnten in den Verhandlungen nicht durchsetzen, dass es statt strengen Regeln für AI-Grundlagenmodelle nur eine „Verpflichtung zur Selbstregulierung“ geben soll. „Allgemeine KI-Systeme (GPAI) und die GPAI-Modelle, auf denen sie basieren, müssen die ursprünglich vom Parlament vorgeschlagenen Transparenzanforderungen erfüllen. Dazu gehören die Erstellung einer technischen Dokumentation, die Einhaltung des EU-Urheberrechts und die Verbreitung detaillierter Zusammenfassungen über die für die Ausbildung verwendeten Inhalte“, heißt es. Das betrifft also die heute bekannten AI-Modelle von OpenAI, Google, Meta und Co.
Besonders streng reguliert werden GPAI-Modelle „mit hohem systemischen Risiko“. „Wenn diese Modelle bestimmte Kriterien erfüllen, müssen sie Modellevaluierungen durchführen, systemische Risiken bewerten und abschwächen, Gegentests durchführen, der Kommission über schwerwiegende Vorfälle berichten, Cybersicherheit gewährleisten und über ihre Energieeffizienz berichten“, heißt es. Und hier wird es interessant: Maßgeblich für die Einstufung als „systemisches Risiko“ ist die Rechenleistung, die zum Training der AI-Modelle zum Einsatz kam. Sie wird in so genannten FLOPs (Floating Point Operations) bemessen. Alles, was über 10^25 FLOPs liegt, kann als „systemisches Risiko“ angesehen werden.
Derzeit sind nur wenige AI-Modelle, darunter etwa GPT-4 von OpenAI oder Inflection-2 von Inflection AI, an oder über der Marke von 10^25 FLOPs. Wenn aber mehr GPAI-Modelle auf den Markt kommen, die es mit den Marktführern aufnehmen wollen, wird es in Zukunft wohl auch mehr geben, die von den strengen EU-Regeln betroffen sind. Andererseits gibt es den Trend, dass kleinere Modelle immer besser werden, es weren wohl viele unterhalb der 10^25 FLOPs-Grenze bleiben. Die KI-Modelle etwa von Aleph Alpha aus Deutschland sollen laut KI-Bundesverband unterhalb von 10^25 FLOPs liegen, sie wären somit kein systemisches Risiko.
Um kleineren europäischen Firmen zu ermöglichen, weiter mit AI zu arbeiten zu können, werden regulatorische Sandkästen und Praxistests eingeführt, die von nationalen Behörden eingerichtet werden. Dort soll abgetestet werden, wie gut sie funktionieren, bevor sie auf den freien Markt kommen können. Die Abgeordneten des EU-Parlaments bestanden auch darauf, dass GPAIs mit systemischen Risiken bis zur Veröffentlichung harmonisierter EU-Standards auf Verhaltenskodizes zurückgreifen können, um die Verordnung einzuhalten. Das bedeutet also eine Übergangszeit, in der die GPAI-Anbieter sich quasi selbst anhand von Verhaltenskodizes regulieren sollen.
Strafen für die Nichteinhaltung wird es auch geben, und zwar je nach Verstoß und Größe des Unternehmens zwischen 35 Millionen Euro oder 7 % des weltweiten Umsatzes und 7,5 Millionen oder 1,5 % des Umsatzes. Eine KI-Behörde auf europäischer Ebene soll zuständig sein, um die Einhaltung des AI Acts zu kontrollieren.