AI Act: Entwickler:innen sollen Copyrights von Trainings-Inhalten offenlegen
Seit 2021 wird der AI Act zur künftigen Regulierung von Künstlicher Intelligenz verhandelt – und zuletzt hat der Boom von generativer AI in Form von ChatGPT, Stable Diffusion und Co. noch einmal so richtig Unruhe in die Verhandlungen gebracht. Denn nur wenige Tage vor einer wichtigen Abstimmung im EU-Parlament ist noch ziemlich unklar, wie AI und insbesondere generative AI, die Texte, Bilder, Videos oder Code produzieren kann, geregelt werden soll. So ist etwa strittig, was als Hochrisiko-Anwendung eingestuft werden soll, was komplett verboten wird, und was Anbieter von AI-Tools offenlegen müssen.
Die neueste Information, die via Financial Times durchgesickert ist: Die Entwickler:innen von AI Services wie GPT-4, das auch in Microsoft Suchmaschine Bing verbaut ist, sollen offenlegen müssen, wie und ob sie urheberrechtlich geschütztes Material zum Trainieren ihrer Modelle verwendet haben. In einem Rechtsfall wird darum bereits gestritten. So hat Getty Images, eine die größten Bildagenturen der Welt, Stability AI, den Entwickler des Open-Source-KI-Kunstgenerators Stable Diffusion, verklagt. Man vermute eine „dreiste Verletzung des geistigen Eigentums von Getty Images in einem atemberaubenden Ausmaß“, denn Stability AI soll rund zwölf Millionen Bilder aus der Getty-Datenbank kopiert haben.
Würden Ai-Entwickler:innen nun offenlegen müssen, mit welchen Daten sie ihre Systeme trainiert haben, dann würde das Content-Produzent:innen (von Fotografen bis großen Verlagen) die Möglichkeit geben, Lizenzgebühren von den AI-Anbieter:innen zu verlangen. Das erinnert stark an die große Debatte des Leistungsschutzrechts. Da wurde in erster Linie Google von de Verlagen zur Kasse gebeten, weil die Suchmaschine voller Inhalte der Publisher war (v.a. durch so genannte Snippets). Dieser Content fließt in KI-Systeme wie Google Bard oder Bing Chat ein, wenn die AI-Chatbots Antworten für die Nutzer:innen formulieren.
Microsoft will Werbeeinnahmen aus AI-Chats mit Publishern teilen
Kampf um Hochrisiko-Einstufung
Microsoft hat das bereits antizipiert und vor kurzem ein Angebot an Publisher gemacht. Wie berichtet will man sich die Werbeeinnahmen, die aus der Vermarktung von Bing Chat entstehen, mit jenen Publishern teilen, deren Inhalte in den KI-Konversationen auftauchen (mehr dazu hier). Generell soll die Verantwortung für den Missbrauch von KI-Programmen bei den Entwickler-Firmen selbst liegen und nicht bei Unternehmen oder Konsument:innen, die etwa ChatGPT nutzen. Das erhöht den Druck nicht nur auf Microsoft, Google oder Amazon, sondern natürlich auch auf europäische Anbieter wie Aleph Alpha aus Deutschland.
Offen ist derzeit noch, welche KI-Systeme als Hochrisiko eingestuft werden sollen, und für welche es sogar komplette Verbote geben soll. Der Vorschlag von deutschen Liberalen im EU-Parlament ist, dass es „der Einsatz eines KI-Systems zur allgemeinen Überwachung, Erkennung und Auswertung privater Inhalte in interpersonellen Kommunikationsdiensten, einschließlich aller Maßnahmen, die die Ende-zu-Ende-Verschlüsselung untergraben würden“ komplett verboten werden sollte. Das würde aber nicht nur die AI-gestützte Überwachung etwa von Mail-Verkehr verbieten, sondern auch die KI-gestützte Erkennung mutmaßlich illegaler Inhalte, etwa Material über sexuellen Kindesmissbrauch. Deswegen sind konservative EU-Parlamentarier:innen noch nicht auf Schiene.
Auch noch etwas offen scheint der vorgeschlagene Bann automatisierter Live-Gesichtserkennung. Laut Liberale, Grüne und Linke sowie Teile der Sozialdemokraten sind sich einig, dass die Gesichtserkennung in Echtzeit zu Zwecken von Predictive Policing, Social Scoring und biometrischen Massenüberwachung im öffentlichen Raum verboten werden soll. Derzeit trägt der Verhandlungsführer der Europäischen Volkspartei (EVP) das mit, es gilt aber nicht als sicher, dass die Konservativen am Ende dem zustimmen werden. Wahrscheinlich ist bereits, dass die nachträgliche biometrische Auswertung von Videomaterial etwa für Fahndungszwecke möglich bleiben wird.
Auch in Sachen Einstufung von Hockrisiko-Anwendungen soll es noch Ergänzungen geben. So gibt es schon eine offizielle Liste an KI-Anwendungen, die als Hochrisiko gelten sollen (siehe hier), doch es ist noch nicht klar, wo generative AI landen wird. Die Einstufung als Hochrisiko soll nicht automatisch erfolgen, sondern wenn Anbieter von künstlicher Intelligenz der Ansicht sind, dass ihr System kein erhebliches Risiko darstellt, können sie das bei einer zuständigen nationalen Behörde oder dem EU-Büro für künstliche Intelligenz mit einer Begründung abwenden. Die Behörde hat dann drei Monate Zeit, um die Einstufung zu bewerten, und die AI-Anbieter sollen auch das Recht haben, dagegen Einspruch zu erheben.
AI Act könnte ChatGPT, Lensa oder Vall-E als Hochrisiko einstufen