Glaze: US-Software soll Bilder für Dall-E und Co „unlernbar“ machen
Künstliche Intelligenzen, die Bilder erstellen können, sind für die Kunstwelt ein echter Grund zur Sorge. Denn Dall-E, Stable Diffusion und Co werden mit bestehenden Daten trainiert und erzeugen auf deren Basis ihre Werke. Das bedeutet, dass die Algorithmen von menschlichen Künstler:innen lernen und ihren Stil nachahmen können. Dadurch fürchten viele Kunstschaffende um ihre Existenz. Doch nun entwickelt laut der New York Times ein Team der University of Chicago mit „Glaze“ eine Software, die Bilder für Dall-E und Co „unlernbar“ machen soll.
Midjourney, Dall-E & Imagen: Der unaufhaltsame Aufstieg der AI-Bilder
Glaze täuscht Algorithmen anderes Bild vor
Glaze soll Kunstwerke mit einem für das menschliche Auge unsichtbaren Schleier überziehen. Auf Pixel-Ebene sollen bestimmte Veränderungen eine KI allerdings in die Irre führen und ein anderes Bild vortäuschen. So würden sich beispielsweise die „Farbkleckse eines Jackson Pollock“ imitieren lassen, obwohl sich am sichtbaren Endergebnis nichts geändert hat. Bei der Entwicklung hat das Forschungsteam die Werke von über 1,100 Künstler:innen berücksichtigt.
„Wir sind Pragmatiker. Bis es die entsprechenden Gesetze, Vorschriften und Richtlinien gibt, wird es vermutlich noch lange dauern. Mit unserer Lösung versuchen wir, diese Lücke zu füllen“, erklärt Ben Zhao, Professor an der University of Chicago und Entwicklungsleiter von Glaze. Bis dahin müssen Kunstschaffende selbst rechtliche Schritte einleiten, wenn sie ihre Rechte verletzt sehen. Beispielsweise hat die Bildagentur Getty Images Stability AI bereits Mitte Jänner für die unrechtmäßige Verwendung seiner Inhalte verklagt. Zu einer Lösung ist man bisher nicht gekommen.
Gesetzlicher Rahmen für KI-Training gefordert
In ersten Tests hat sich Glaze als sehr effektiv herausgestellt. So sei es KIs durch den Filter nicht möglich gewesen, den Stil von Künstler:innen zu erlernen. Die Gruppe plant nun eine Windows- sowie eine Mac-Version der Software und hofft auf eine hohe Verbreitung. An der University of Chicago ist zuvor schon ein ähnliches Tool namens „Fawkes“ entstanden, das sich jedoch auf den Bereich der Gesichtserkennung konzentriert. Auch hier soll ein eigener Filter Algorithmen auf die falsche Fährte führen.
Doch alleine die Software könnte nicht ausreichen, um Kunstschaffende zu schützen. Vielmehr fordern viele ein entsprechendes gesetzliches Rahmenwerk, das die Werke von Künstler:innen auch dann als deren rechtliches Eigentum ansieht, wenn sie zum Training von generativen KIs genutzt werden. Auch Lösungen, bei denen Künstler:innen auf vertraglicher Basis eine Entschädigung für die Verwendung ihrer Bilder zum KI-Training erhalten, wären denkbar, meint Raymond Ku, Professor für Urheberrecht von der Case Western Reserve University, gegenüber der New York Times.