Warum ChatGPT jüngst sinnlose Wortfolgen ausspuckte
Dass AI-Modelle gerne mal halluzinieren, ist bekannt. Was ChatGPT von OpenAI in den letzten Tagen allerdings so von sich gab, hat dann doch einige User ziemlich verwirrt. Man meinten gar, dass der weltberühmte AI-Chatbot den Verstand verloren haben könnte, so schlecht waren die Ergebnisse, die den (zahlenden) Nutzer:innen geliefert wurden.
Einige Nutzer:innen dokumentierten den unverständlichen Kauderwelsch, den ChatGPT von sich gab, auf X. Das sah unter anderem so aus:
Wortfolgen ohne Sinn
Nun ist klar, woran das lag. Laut OpenAI wurde ein Bug identifiziert, der Ursache für das fehlerhafte Verhalten war. „Am 20. Februar 2024 führte eine Optimierung der Benutzererfahrung zu einem Fehler in der Art und Weise, wie das Modell Sprache verarbeitet“, heißt es aus dem mittlerweile mit mehr als 80 Milliarden Dollar bewerteten Unternehmen aus dem Silicon Valley.
Und weiter: „LLMs erzeugen Antworten durch zufällige Auswahl von Wörtern, die zum Teil auf Wahrscheinlichkeiten basieren. Ihre „Sprache“ besteht aus Zahlen, die Token zugeordnet werden. In diesem Fall lag der Fehler in dem Schritt, in dem das Modell diese Zahlen auswählt. Ähnlich wie bei einem Übersetzungsfehler wählte das Modell leicht falsche Zahlen, was zu Wortfolgen führte, die keinen Sinn ergaben. Technisch gesehen lieferten die Inferenz-Kernel falsche Ergebnisse, wenn sie in bestimmten GPU-Konfigurationen verwendet wurden.“
Man hätte mittlerweile den Fehler behoben, ChatGPT sollte nun wieder wie gewohnt funktionieren. Da die GPT-Technologie aber nicht bloß in ChatGPT verbaut ist, sondern in Custom GPTs sowie via API auch in anderen Software-Diensten integriert ist (z.B. Microsofts Copilot), sind solche Fehler doch kritisch, weil sie eben nicht nur den Kerndienst, sondern auch andere Unternehmen betreffen können.