AI Act: Selbstregulierung für Foundation Models als neue Möglichkeit
Der Streit um die kommende KI-Verordnung der EU, die eigentlich schon in trockenen Tüchern schien, geht weiter. Nun haben sich die Regierungen der drei größten EU-Länder, Deutschland, Frankreich und Italien, zusammen getan, um für eine verpflichtende Selbstregulierung für Foundation Models einzutreten. Sie wollen den AI-Grundlagenmodellen keine strenge Regulierung mit Verboten und Hochrisikoauflagen aufzwingen, sondern sie lieber selbst regulieren lassen.
Das ist Zündstoff für die abschließenden Verhandlungen zum AI Act, der im Trilog zwischen dem EU-Parlament, der EU-Kommission und den EU-Ländern stattfindet. Denn bisher ist man davon ausgegangen, dass die Anbieter von Foundation Models (z.B. OpenAI mit GPT-4, aber eben auch europäische Firmen) strenge Auflagen für Sicherheit und Transparenz bekommen, um sie in der EU anbieten zu können.
Streit um Foundation Models könnte AI Act kippen – Startups mittendrin
Stattdessen wollen Berlin, Paris und Rom nun, dass sich alle, also auch kleinere Anbieter wie Mistral AI aus Frankreich oder Aleph Alpha aus Deutschland, lieber einem Verhaltenskodex unterwerfen sollen, um dann eben Selbstregulierung auszuüben. Es soll bei Verstößen erst einmal auch keine Sanktionen, also keine Strafen geben. Zuvor waren im AI Act für Verstöße gegen Auflagen strenge Strafen für die Anbieter von AI-Modellen vorgesehen.
Diese geplante Aufweichung des AI Act ist Kritik aus der Industrie am AI Act vorangegangen. Wie berichtet, haben vor allem europäische Tech-Scale-ups und Investoren gegen die geplante KI-Verordnung der EU gewettert – weil sie AI-Innovationen im Keim ersticken würde, während in den USA lockerere Regeln gelten. Wie berichtet, ist die Executive Order von US-Präsident Joe Biden bisher ohne explizite Verbote ausgekommen.
Neue AI-Verordnung der US-Regierung verzichtet auf explizite Verbote