KI-Klassifikator wieder offline: OpenAI kann nicht erkennen, ob etwas von einer KI geschrieben wurde
KI oder Mensch – wer hat den Text geschrieben? Eine Frage, die mit dem verstärkten Aufkommen künstlicher Intelligenzen immer relevanter wird, allerdings nicht immer ganz einfach zu beantworten ist. OpenAI hat dafür eigentlich ein Tool geschaffen, das eben menschliche Schrift von künstlicher Intelligenz unterscheiden sollte. Nur: Mittlerweile ist es wieder abgeschaltet – wegen zu geringer Trefferquoten.
Nur 26 Prozent Trefferquote
In einem (aktualisierten) Blogeintrag teilte OpenAI mit, dass es beschlossen hat, den „KI-Klassifikator“ zum 20. Juli einzustellen. „Ab dem 20. Juli 2023 ist der KI-Klassifikator aufgrund seiner geringen Genauigkeit nicht mehr verfügbar. Wir arbeiten daran, das Feedback zu berücksichtigen, und erforschen derzeit effektivere Verfahren zur Herkunftsbestimmung von Text. Außerdem haben wir uns verpflichtet, Mechanismen zu entwickeln und einzusetzen, die es den Nutzern ermöglichen, zu erkennen, ob Audio- oder visuelle Inhalte KI-generiert sind“, heißt es von OpenAI. Der Klassifikator sei „nicht völlig zuverlässig“. OpenAI: „In unseren Evaluierungen mit einem ‚Challenge Set‘ englischer Texte identifiziert unser Klassifikator 26 % der von der KI geschriebenen Texte korrekt als „wahrscheinlich von der KI geschrieben“, während er von Menschen geschriebene Texte in 9 % der Fälle fälschlicherweise als von der KI geschrieben identifiziert (falsch-positive Ergebnisse).“
Klassifikator wieder offline
Es gibt noch keine Informationen darüber, wie diese Mechanismen aussehen könnten. Der „Klassifikator“ jedenfalls war nicht der Weisheit letzter Schluss, was auch OpenAI eingesteht. Das Unternehmen ergänzte allerdings, dass der Klassifikator mit mehr Daten besser werden hätte können. Das Tool wurde notwendig, nachdem die KI-Systeme von OpenAI in Schulen oder Universitäten genutzt wurden, teils auch ohne Erlaubnis. New Yorker Schulen verboten sogar den Zugang zu ChatGPT auf dem Schulgelände aufgrund von Bedenken hinsichtlich Genauigkeit, Sicherheit und Betrug, schreibt TheVerge. Dazu kommen schlichtweg falsche Informationen, die allerdings täuschend echt wirken können. Allerdings scheint es, dass im Moment nicht einmal das Unternehmen, das dem generativen KI-Wahn zum Durchbruch verholfen hat, Antworten darauf hat, wie man mit all dem umgehen soll – beziehungsweise überprüfen kann, von wem der Text ursprünglich stammt.
Lügen & Tonfall: Microsoft und Open AI müssen bei ChatGPT nachbessern