OpenAI startet Tool zur Erkennung von AI-generierten Dall-E-Bildern
OpenAI hat am Dienstag ein neues Werkzeug vorgestellt, das mit hoher Genauigkeit erkennen kann, ob ein Bild mit dem hauseigenen Text-zu-Bild-Generator DALL-E 3 erstellt wurde. Kleine Veränderungen an den Bildern können das Tool jedoch noch verwirren, was zeigt, dass die KI-Branche bei der Nachverfolgung ihrer eigenen Technologie noch aufholen muss. Für andere AI-Bildgeneratoren wie Midjourney funktioniert das OpenAI-Tool aber nicht.
Die Flut von gefälschten Bildern und anderen Medien, die mit generativer KI erstellt wurden, hat zu Verwirrung darüber geführt, was echt ist und was nicht. Zudem befeuert sie die Diskussion über den Einfluss von Bildern auf die Wahlkämpfe im Jahr 2024. Politische Entscheidungsträger sind besorgt, dass Wähler zunehmend auf KI-generierte Bilder im Internet stoßen und die weite Verbreitung von Werkzeugen wie DALL-E 3 die Erstellung solcher Inhalte noch beschleunigt.
OpenAI beteiligt sich an branchenübergreifenden Initiativen
OpenAI kündigte am Dienstag außerdem an, einer von Microsoft und Adobe mitgegründeten Branchengruppe beizutreten, die versucht, Inhalts-Credentials für Online-Bilder zu erstellen. Darüber hinaus starten OpenAI und Microsoft einen mit 2 Millionen Dollar dotierten „Societal Resilience“-Fonds zur Unterstützung der KI-Bildung.
Laut OpenAI ist das neue Werkzeug unter den meisten Umständen zu etwa 98 % genau bei der Erkennung von Inhalten, die mit DALL-E 3 erstellt wurden – vorausgesetzt, das Bild wurde nicht noch einmal nach der Erstellung durch die AI verändert. Bei Screenshots oder zugeschnittenen Bildern ist der Klassifikator etwas weniger erfolgreich, kann aber oft immer noch eine genaue Identifizierung vornehmen.
Herausforderungen und Grenzen des neuen Werkzeugs
Die Leistung des Tools lässt weiter nach, wenn beispielsweise der Farbton der Bilder verändert wird, so Sandhini Agarwal, Forscherin bei OpenAI, in einem Interview mit dem Wall Street Journal. Das Unternehmen hofft, Lösungen für diese Probleme zu finden, indem es das Tool externen Forscher:innen zugänglich macht.
OpenAI testet sein Klassifizierungswerkzeug seit Monaten intern. Es verlässt sich nicht auf Wasserzeichen-Signaturen, die viele Unternehmen absichtlich in KI-Bilder einfügen, aber oft entfernt werden können. Während das OpenAI-Tool unterscheidet, ob Bilder mit DALL-E 3 erstellt wurden, hat das Unternehmen festgestellt, dass es verwirrt werden kann, wenn es KI-Bilder von Konkurrenzprodukten bewerten soll.
In 0,5 % der Fälle kennzeichne das Tool fälschlicherweise nicht von KI generierte Bilder als von DALL-E 3 produziert, so das Unternehmen. Die Bestimmung, ob ein Bild KI-generiert ist, kann einfacher sein als eine ähnliche Überprüfung für von KI erstellte Texte, sagten Forscher von OpenAI und anderen Unternehmen.