AI-generierte Inhalte sollen in den USA künftig gekennzeichnet werden
Anders als in der EU wurden noch keine neuen AI-Gesetze formuliert, und um sich zu entsprechenden Regulierungen durchzuringen, könnte es noch lange dauern. Da es nach dem ChatGPT-Hype und einer wahren Investment-Welle in KI-Startups trotzdem irgendwelche Regeln braucht, ist in den USA erst mal Freiwilligkeit angesagt.
Deswegen haben Vertreter von sieben führenden AI-Unternehmen – Microsoft, Google, Anthropic, OpenAI, Inflection AI, Meta und Amazon – US-Präsidenten Joe Biden versprochen, gemeinsame Sicherheits- und Transparenz-Ziele so lange einzuhalten, bis es letztlich eine gesetzliche Grundlage gibt. Im Detail kann man sie hier nachlesen. Persönlich das Ehrenwort gegeben haben Biden folgende Vertreter der KI-Branche – wobei bemerkenswert ist, dass lediglich die jüngsten Firmen Anthropic (Abspaltung von OpenAI) und Inflection AI (Abspaltung von Googles Deepmind) ihre CEO entsandt haben, die Big-Tech-Firmen kamen mit anderen Vertretern:
- Brad Smith, President, Microsoft
- Kent Walker, President, Google
- Dario Amodei, CEO, Anthropic
- Mustafa Suleyman, CEO, Inflection AI
- Nick Clegg, President, Meta
- Greg Brockman, President, OpenAI
- Adam Selipsky, CEO, Amazon Web Services
AI Act: Das ist die erste Regulierung für künstliche Intelligenz in der EU
Wenig Konkretes
Was beinhalten die Regeln, die die sieben Unternehmen einzuhalten gedenken, nun? Folgende Punkte:
- Gewährleistung der Sicherheit von Produkten vor ihrer Einführung
- Die Unternehmen verpflichten sich zu internen und externen Sicherheitstests ihrer KI-Systeme vor deren Freigabe. Diese Tests, die zum Teil von unabhängigen Experten durchgeführt werden, dienen dem Schutz vor einigen der wichtigsten KI-Risiken, wie Biosicherheit und Cybersicherheit, sowie vor den breiteren gesellschaftlichen Auswirkungen.
- Die Unternehmen verpflichten sich, Informationen über den Umgang mit KI-Risiken innerhalb der Branche und mit Regierungen, der Zivilgesellschaft und der Wissenschaft auszutauschen. Dazu gehören bewährte Praktiken für die Sicherheit, Informationen über Versuche, Sicherheitsvorkehrungen zu umgehen, und technische Zusammenarbeit.
- Aufbau von Systemen, bei denen Sicherheit an erster Stelle steht
- Die Unternehmen verpflichten sich, in Schutzmaßnahmen für Cybersicherheit und Insider-Bedrohungen zu investieren, um proprietäre und unveröffentlichte Modellgewichte zu schützen. Diese Modellgewichte sind der wesentlichste Teil eines KI-Systems, und die Unternehmen sind sich einig, dass es von entscheidender Bedeutung ist, dass die Modellgewichte nur dann freigegeben werden, wenn dies beabsichtigt ist und wenn Sicherheitsrisiken berücksichtigt werden.
- Die Unternehmen verpflichten sich, Dritten die Entdeckung und Meldung von Schwachstellen in ihren KI-Systemen zu erleichtern. Einige Probleme können auch nach der Freigabe eines KI-Systems fortbestehen, und ein robuster Meldemechanismus ermöglicht es, sie schnell zu finden und zu beheben.
- Das Vertrauen der Öffentlichkeit gewinnen
- Die Unternehmen verpflichten sich, robuste technische Mechanismen zu entwickeln, die sicherstellen, dass die Nutzer wissen, dass es sich um KI-Inhalte handelt, wie z. B. ein Wasserzeichensystem. Diese Maßnahme ermöglicht die Entfaltung der Kreativität mit KI und verringert gleichzeitig die Gefahr von Betrug und Täuschung.
Die Unternehmen verpflichten sich, die Fähigkeiten und Grenzen ihrer KI-Systeme sowie die Bereiche, in denen sie angemessen und unangemessen eingesetzt werden, öffentlich zu machen. Dieser Bericht wird sowohl Sicherheitsrisiken als auch gesellschaftliche Risiken abdecken, wie z. B. die Auswirkungen auf Fairness und Vorurteile.
Die Unternehmen verpflichten sich, der Erforschung der gesellschaftlichen Risiken, die von KI-Systemen ausgehen können, Priorität einzuräumen, einschließlich der Vermeidung schädlicher Vorurteile und Diskriminierung sowie des Schutzes der Privatsphäre. Die Erfolgsbilanz der KI zeigt, wie heimtückisch und weit verbreitet diese Gefahren sind, und die Unternehmen verpflichten sich, KI einzuführen, die diese Gefahren abmildert.
Die Unternehmen verpflichten sich, fortschrittliche KI-Systeme zu entwickeln und einzusetzen, um die größten Herausforderungen der Gesellschaft zu bewältigen. Von der Krebsprävention über die Eindämmung des Klimawandels bis hin zu vielen anderen Bereichen kann KI – wenn sie richtig eingesetzt wird – einen enormen Beitrag zu Wohlstand, Gleichheit und Sicherheit für alle leisten.
- Die Unternehmen verpflichten sich, robuste technische Mechanismen zu entwickeln, die sicherstellen, dass die Nutzer wissen, dass es sich um KI-Inhalte handelt, wie z. B. ein Wasserzeichensystem. Diese Maßnahme ermöglicht die Entfaltung der Kreativität mit KI und verringert gleichzeitig die Gefahr von Betrug und Täuschung.
Wer den AI Act der EU bereits kennt, sieht schnell: Die Europäische Union hat ein viel detaillierteres Regelwerk ausverhandelt, das aber auch erst noch in Kraft treten muss. In den USA gibt es durch diese losen Richtlinien keine expliziten Verbote für AI-Systeme in bestimmten Hochrisikobereichen wie etwa der biometrischen Überwachung. wirklich konkret ist wohl nur die Ansage, dass KI-produzierte Inhalte gekennzeichnet werden müssen. Bei Bildern und Videos geht das, bei Texten wird das wohl schwerer.
Nun bleibt abzuwarten, wie und ob diese Leitlinien dann in konkrete Gesetzgebung umgemünzt werden. 2024 wird in den USA wieder gewählt, US-Präsident Biden hat seine Kandidatur für eine Wiederwahl 2024 offiziell angekündigt. Währenddessen bringen sich Donald Trump und Ron DeSantis auf Seiten der Republikaner:innen in Stellung.
Tech-Unicorns und VCs wettern gegen AI Act – für manche „unbegründet“