OpenAI, Mistral AI, Meta: EU stuft Top-AI-Modelle als systemisches Risiko ein
Am 1. August tritt der berühmt-berüchtigte AI Act der EU in Kraft, um dann schrittweise (mehr dazu hier) in Anwendung zu kommen. Mittlerweile ist auch klar geworden, was in der EU nicht bloß als Hochrisiko, sondern sogar als systemisches Risiko angesehen werden wird: nämlich all jene so genannten General Purpose AI (GPAI)-Modelle, die mit großem Rechenaufwand erstellt wurden. Konkret wurde der Schwellenwert von 10^25 FLOPs dafür festgelegt – und diesen übertreffen die besten und bekanntesten AI-Modelle längst.
FLOPs sind Floating Point Operations per Second, und 10^25 FLOPs sind die Fähigkeit (typischerweise eines Hochleistungsrechners), Fähigkeit, 10 Quadrillionen (oder 10.000.000.000.000.000.000.000) Gleitkomma-Berechnungen in einer Sekunde durchzuführen. „Diese Schwelle umfasst die derzeit fortschrittlichsten GPAI-Modelle, nämlich GPT-4 von OpenAI und wahrscheinlich Gemini von Google DeepMind“, hieß es seitens EU-Kommission, als der Schwellenwert festgelegt wurde. „Die Fähigkeiten der Modelle oberhalb dieses Schwellenwerts sind noch nicht gut genug bekannt. Sie könnten systemische Risiken darstellen, und daher ist es sinnvoll, ihre Anbieter zusätzlichen Verpflichtungen zu unterwerfen.“ Gegebenenfalls kann der FLOP-Schwellenwert im KI-Gesetz nach oben oder unten geändert werden.
OpenAI rüstet sich bereits für die hohen Auflagen
Klar ist mittlerweile, welche AI-Modelle als systemisches Risiko mit hohen Auflagen eingestuft werden wird. OpenAI hat am Dienstag Abend bereits in einem Blog-Eintrag angekündigt, dass man wohl in diese Kategorie fallen wird. „Wir verpflichten uns, das EU-KI-Gesetz einzuhalten, und werden bei der Umsetzung des Gesetzes eng mit dem neuen EU-KI-Büro zusammenarbeiten. In den kommenden Monaten werden wir weiterhin technische Unterlagen und andere Anleitungen für nachgelagerte Anbieter und Betreiber unserer GPAI-Modelle erstellen und gleichzeitig die Sicherheit der von uns angebotenen Modelle auf dem europäischen Markt und darüber hinaus verbessern“, heißt es in einem Statement. Das würde in den kommenden 9 Monaten passieren.
Anbieter solcher Hochrisiko-GPAIs müssen:
- Modellevaluierungen durchführen, um systemische Risiken zu identifizieren und zu mindern, und die dargestellten Risiken kontinuierlich bewerten und mindern
- Benachrichtigung der EU-Kommission über Modelle, die die Kriterien dieser Kategorie erfüllen
- Überwachung und Meldung schwerwiegender Vorfälle
- Umsetzung geeigneter Cybersicherheitsmaßnahmen für das Modell und seine physische Infrastruktur
Ab August 2025 (General Purpose AI) bzw. August 2026 (Hochrisiko-AI-Systeme) werden die Anbieter bzw. Anwender der betroffenen AI-Systeme dann die Regeln einhalten müssen. Andernfalls riskieren sie hohe Strafen oder Verbote.
Auch Google, Meta und Mistral AI betroffen
Neben OpenAI mit GPT-4o/GPT-4 und Google mit seinen Gemini-Modellen dürften auch weitere große AI-Modelle am Markt unter die verschärften EU-Regeln fallen. Auch Mistral Large, das große AI-Modell des Pariser AI-Startups Mistral AI, liegt laut dieser Quelle über dem Schwellenwert von 10^25 FLOPs, genauso wie Llama 3.1 von Meta.
Bei Claude 3 von Anthropic ist nicht öffentlich bekannt, wie viele FLOPs im Spiel waren, jedenfalls wird auch hier angenommen, dass das AI-Modell die EU-Grenze überschreiten wird. Des weiteren sind große AI-Modelle wie Sora von OpenAI oder das kommende von Elon Musks xAI noch gar nicht am Markt, werden aber aller Voraussicht nach ebenfalls in die Kategorie fallen.
Hier eine Übersicht mit den Fakten zu vielen AI-Modellen, zusammengetragen von EpochAI.org: