„Secure by design“: 18 Staaten unterzeichnen neue AI-Richtlinien
In der EU wartet man immer noch gespannt auf die Implementierung des AI Act. Doch auch über die Grenzen von Europa hinaus gibt es nun neue AI-Richtlinien, die Systeme schon während der Entwicklung sicher machen sollen. Laut heise haben 18 Länder diese neue Vereinbarung unterzeichnet, darunter Deutschland, die USA und Großbritannien. Diese nicht bindenden Regeln sollen unter dem Prinzip „secure by design“ laufen, also bereits in der Entstehung von AI-Tools Sicherheit garantieren.
Ranking: ChatGPT halluziniert am wenigsten, Googles PaLM am meisten
AI-Richtlinien sind nicht verpflichtend
Zwar sind die AI-Richtlinien nicht verpflichtend, aber dafür sollen sie auch für solche Dienste und Anwendungen gelten, die KI-Systeme anderer Unternehmen nutzen. Die britische Regierung nennt die Vereinbarung die „weltweit ersten Richtlinien, um eine sichere KI-Entwicklung sicherzustellen“. Entsprechend sollen Anwendungen mit Fokus auf die Sicherheit „gestaltet, entwickelt und angewendet“ werden.
Die Regeln sollen Entwickler:innen jeder Art von System helfen, informierte Entscheidungen hinsichtlich der Cybersicherheit zu treffen. Das gilt explizit auch für solche Anwendungen, die auf einem bereits bestehenden KI-Modell aufsetzen. Dadurch sei es möglich, auch Entwickler:innen kleiner KI-Dienste in die Pflicht zu nehmen, die beispielsweise eigene GPTs oder Plugins für ChatGPT anbieten und damit an OpenAIs Systeme andocken.
Streit um Foundation Models könnte AI Act kippen – Startups mittendrin
Verhandlungen zum AI Act stocken
Konkret ausgearbeitet haben die Richtlinien das UKs National Cyber Security Centre (NCSC) und die US Cybersecurity and Infrastructure Security Agency (CISA) gemeinsam mit Vertretern aus der Industrie und nationalen Behörden weiterer 21 Länder – von denen aber nur 16 die Vereinbarung unterzeichnet haben. Neben Deutschland, den USA und Großbritannien gehören unter anderem auch Frankreich, Italien, Polen und Norwegen zu den Unterzeichnenden – Österreich jedoch nicht.
Während die „Richtlinien für eine sichere Entwicklung von KI-Systemen“ keinen bindenden Charakter haben, sondern als Hilfestellung und Empfehlung dienen sollen, stocken derzeit die Verhandlungen um den AI Act. Offensichtlich wollen Deutschland, Frankreich und Italien keine verpflichtenden Regulierungen für sogenannte Basismodelle. In einem veröffentlichten Positionspaper heißt es, man sei gegen „die Einführung von unerprobten Gesetzen und schlage deshalb vor, zunächst eine verpflichtende Selbstregulierung durch einen Verhaltenskodex zu ersetzen“. Auch Sanktionen soll es nach Meinung der drei Länder nicht geben.