Die Aufweichung des viel kritisierten AI Act hat begonnen

Beim mittlerweile viel kritisierten AI Act der EU zeichnet sich eine deutliche Tendenz zur Abschwächung ursprünglich strenger Vorgaben ab. Der neu veröffentlichte dritte Entwurf des General-Purpose AI Code of Practice offenbart, wie regulatorische Anforderungen zugunsten von KI-Anbietern gelockert werden.
Was als umfassendes Regelwerk für künstliche Intelligenz begann, präsentiert sich nun in einer “verschlankten Struktur”. Die ursprünglich ambitionierten Kontrollen wurden auf lediglich 18 Kernverpflichtungen reduziert – davon betreffen nur zwei alle Anbieter von General-Purpose AI-Modellen. Die restlichen 16 Verpflichtungen gelten ausschließlich für solche KI-Systeme, die als “systemisches Risiko” klassifiziert werden – eine kleine Minderheit der Anbieter.
Diese Neustrukturierung folgt dem deutlichen Druck der Technologiebranche, die wiederholt vor übermäßigen Einschränkungen gewarnt hatte. Kritiker sehen darin ein Einknicken der Regulierungsbehörden vor den Interessen großer Technologiekonzerne.
„Fitness Check“ könnte weitere Abschwächungen bringen
Wie jetzt bekannt wurde, könnte der AI Act schon bald weiteren Änderungen unterzogen werden. Lucilla Sioli, die bei der Europäischen Kommission für KI und digitale Industrie zuständig ist, bestätigte vergangene Woche, dass der Act im Rahmen eines “Fitness Checks” der EU-Technologievorschriften überarbeitet werden könnte. Diese Überprüfung wird noch vor Ende des Jahres erwartet.
Das unterstreicht die wachsenden Bedenken in der EU, dass zu strenge Vorschriften europäische KI-Startups im Wettbewerb mit finanzstarken amerikanischen Unternehmen behindern könnten. Europa hat die Förderung eigener KI-Unternehmen zu einer Priorität erklärt, was den Druck erhöht, Regulierungen zu lockern.
Großzügige Ausnahmen für Open-Source-Modelle
Besonders auffällig sind die “bemerkenswerten Ausnahmen” von Transparenzpflichten für bestimmte Open-Source-Modelle. Während die ursprüngliche Vision des AI Acts eine umfassende Transparenz für alle KI-Systeme vorsah, werden nun signifikante Teile des Marktes von diesen Anforderungen ausgenommen. Die Begründung mit der Förderung von Innovation wirkt wie ein direktes Zugeständnis an die Branche.
Verzögerte Umsetzung durch fortlaufende Konsultationen
Der neue Entwurf betont die Notwendigkeit, “klare Verpflichtungen mit der Flexibilität zu verbinden, sich an die Technologieentwicklung anzupassen”. Diese Formulierung öffnet Tür und Tor für Interpretationsspielräume und könnte es Anbietern ermöglichen, verbindliche Standards zu umgehen. Die Verlagerung auf “benutzerfreundliche” Dokumentationsformen wie das neue “Model Documentation Form” signalisiert ebenfalls eine Priorität für Anbieterkomfort statt strenger Kontrolle.
Der Zeitplan zeigt, dass der endgültige Code erst im Mai fertiggestellt werden soll – nach weiteren Konsultationsrunden mit Stakeholdern und zahlreichen Workshops. Diese fortlaufenden Diskussionsschleifen verzögern die verbindliche Implementierung und geben der Industrie mehr Zeit, ihre Interessen einzubringen und weitere Abschwächungen durchzusetzen.
Während der AI Act auf dem Papier erhebliche Strafen vorsieht – bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für Verstöße gegen Verbote wie Emotionserkennung oder soziales Scoring – bleiben Fragen zur praktischen Durchsetzung offen. Besonders für General-Purpose AI Systeme wie ChatGPT, die ab dem 2. August 2025 reguliert werden sollen, laufen hinter den Kulissen noch Debatten zwischen Gesetzgebern und Branchenvertretern über die konkrete Anwendung der Regeln.
Fehlende Klarheit bei zentralen Definitionen
Besonders bemerkenswert ist, dass zentrale Definitionen wie die eines “General-Purpose AI Model” oder die genauen Verantwortlichkeiten entlang der Wertschöpfungskette noch immer nicht abschließend geklärt sind. Diese Unklarheiten schaffen Grauzonen, die von Anbietern strategisch genutzt werden können, um strengeren Auflagen zu entgehen.
Die Entwicklung des AI Acts, ursprünglich als Meilenstein für die verantwortungsvolle Regulierung künstlicher Intelligenz gepriesen, offenbart zunehmend, wie wirtschaftliche Interessen der KI-Anbieter die Oberhand gewinnen. Was als Schutz vor potenziellen Risiken autonomer Systeme gedacht war, verwandelt sich schrittweise in ein industriefreundliches Regelwerk mit zahlreichen Schlupflöchern und Ausnahmen.