USA: Firmen müssen Regierung bald über AI-Training informieren
Die US-Regierung will künftig heimische KI-Firmen stärker unter Beobachtung nehmen. Unternehmen wie OpenAI und Google sollen bald die Regierung informieren müssen, wenn sie ein neues KI-Modell trainieren, berichtet heise. Außerdem müssen sie der US-Regierung Bescheid geben, wenn eine ausländische Firma deren Ressourcen für AI-Training bei einem Großen Sprachmodell nutzt, so US-Handelsministerin Gina Raimondo. Bereits im Herbst angekündigte Dekrete von US-Präsident Joe Biden mit diesen Vorgaben sollen demnach in dieser Woche ergehen, möglicherweise bereits am heutigen Montag. Damit werden Vorgaben spezifiziert und umgesetzt, die die US-Regierung im Herbst gemacht beziehungsweise angekündigt hat.
AI-Fabriken sollen EU-Startups Zugang zu Supercomputern geben
Widerstand durch Firmen und Republikaner möglich
Diese Informationspflicht soll auf dem sogenannten Defense Production Act basieren, einem Gesetz, das es der US-Regierung eigentlich ermöglichen soll, die Produktion kriegswichtiger Güter anzuordnen. Zum Einsatz kam dieses Gesetz aber auch im Rahmen der Corona-Pandemie, um die Herstellung medizinischer Geräte und Artikel zu forcieren. Nun soll diese Regulierung beim AI-Training Anwendung finden, bei deren Generierung mindestens 1.026 FLOPS (Floating Point Operations) eingesetzt werden. Bei FLOPS handelt es sich um eine Kennzahl, die beschreibt, wie viele Operationen erforderlich sind, um eine einzelne Instanz eines bestimmten Modells auszuführen.
„Wir nutzen den Defense Production Act… um eine Umfrage durchzuführen, die von den Unternehmen verlangt, uns jedes Mal, wenn sie ein neues großes Sprachmodell trainieren, die Ergebnisse – die Sicherheitsdaten – mitzuteilen, damit wir sie überprüfen können“, sagt US-Handelsministerin Gina Raimondo. Während die Einführung der Regeln offenbar unmittelbar bevorsteht, formiert sich angeblich bereits Widerstand. Berichten zufolge arbeiten betroffene Firmen mit Abgeordneten der Republikaner zusammen, um sie zu kippen.
AI-Training als potenzielles Sicherheitsrisiko
Die neuen Regeln sind Teil von Präsident Bidens weitreichender KI-Verordnung, die er im vergangenen Oktober angekündigt hatte. Die Verordnung sieht unter anderem vor, dass Unternehmen, die ein Basismodell entwickeln, das ein ernsthaftes Risiko für die nationale Sicherheit, die nationale wirtschaftliche Sicherheit oder die nationale öffentliche Gesundheit und Sicherheit darstellt, die Bundesregierung informieren und die Ergebnisse ihrer Sicherheitstests mitteilen müssen. Grundmodelle sind Modelle wie GPT-4 von OpenAI und Gemini von Google, die generative KI-Chatbots antreiben. GPT-4 liegt jedoch wahrscheinlich unterhalb der Schwelle der erforderlichen FLOPS, die eine staatliche Aufsicht rechtfertigen.
Künftige Basismodelle, die über eine noch nie dagewesene Rechenleistung verfügen, sind wegen ihres massiven potenziellen nationalen Sicherheitsrisikos das Hauptproblem. Deshalb fällt dieses Mandat in den Bereich des Defense Production Act. Bei der zweiten Vorgabe geht es darum, dass die großen Cloud-Anbieter prüfen sollen, ob ihre Technik von ausländischen Akteuren zum KI-Training benutzt wird. Darüber sollen sie die US-Regierung dann informieren müssen. Damit könnten chinesische Firmen den Zugang zu Ressourcen verlieren, die für das KI-Training nötig sind. Bis zur Umsetzung dieser Regelung dauert es aber noch etwas.