Lügen & Tonfall: Microsoft und Open AI müssen bei ChatGPT nachbessern
Microsoft-CTO Kevin Scott, OpenAI CEO Sam Altman und Microsoft Executive Vice President Scott Guthrie haben noch viel Arbeit vor sich. Denn zwar waren sie stark involviert in eine Präsentation, die richtige Schockwellen durch die Internet-Industrie Richtung Google schickte; doch der nunmehr bei Microsofts Bing-Suchmaschine integrierte KI-Chatbot ChatGPT hat seit dem Release mittlerweile so viele Fehler an den Tag gelegt, dass die Unternehmen nun nachbessern müssen.
Denn je mehr Menschen ChatGPT und Bing Chat benutzen, umso öfter stoßen sie darauf, dass in den Antworten Misinformation, Lügen und Vorurteile enthalten sein können. Deswegen haben nun sowohl Microsoft als auch Open AI reagiert und geloben Besserung. Aber das wird aller Voraussicht nach ein Balance-Akt. Open AI will ChatGPT deswegen für jeden User personalisierbar machen; es soll also jeder selbst definieren können, welche Art von Antworten der Chatbot gibt.
„Wir glauben, dass KI ein nützliches Werkzeug für den einzelnen Menschen sein sollte und daher von jedem Benutzer bis zu den von der Gesellschaft festgelegten Grenzen angepasst werden kann. Deshalb entwickeln wir ein Upgrade für ChatGPT, das es den Nutzern ermöglicht, das Verhalten des Systems leicht anzupassen“, heißt es seitens Open AI. „Das bedeutet, dass wir Systemausgaben zulassen, mit denen andere Leute (uns selbst eingeschlossen) vielleicht nicht einverstanden sind.“ Hier wird die Grenzziehung spannend. Denn das US-Startup will dieser Personalisierung Grenzen setzen. Die KI dürfe nicht „böswillig“ genutzt werden können, und es dürfe auch nicht passieren, dass „kriecherische KIs die bestehenden Überzeugungen der Menschen gedankenlos verstärken“.
ChatGPT lügt wie gedruckt – und will’s dann noch Trending Topics in die Schuhe schieben
71% der Antworten positiv bewertet
Auch bei Microsoft, dass bisher rund 13 Milliarden Dollar in Open AI investiert hat, zeigt man sich zu Verbesserungen angehalten. Zwar seien in der ersten Woche der Verfügbarkeit Antworten, die durch das neue Bing generiert wurden, „mit 71 % überwiegend positiv“ bewertet worden. Das bedeutet aber auch, dass fast ein Drittel der Antworten von den Usern negativ bewertet wurden. Probleme soll es vor allem dann geben, wenn die Chats 15 oder mehr Fragen beinhalten – also wenn es um genaue Details geht, wenn der User nachbohrt etc.
„Wir haben festgestellt, dass Bing in langen, ausgedehnten Chat-Sitzungen mit 15 oder mehr Fragen dazu neigt, sich zu wiederholen oder aufgefordert zu werden, Antworten zu geben, die nicht unbedingt hilfreich sind oder nicht mit unserem beabsichtigten Ton übereinstimmen“, heißt es seitens Microsoft. „Sehr lange Chat-Sitzungen können das Modell bei der Beantwortung von Fragen verwirren, weshalb wir denken, dass wir ein Tool hinzufügen sollten, mit dem man den Kontext leichter aktualisieren oder von vorne beginnen kann.“
Auch beim Tonfall des Chatbots, der von manchen Nuzter:innen bereits als frech oder beleidigend empfunden wurde, will Microsoft nun nachbessern. „Das Modell versucht manchmal, in dem Ton zu antworten oder zu reflektieren, in dem es gebeten wird, Antworten zu geben, die zu einem Stil führen können, den wir nicht beabsichtigt haben – ein nicht triviales Szenario, das eine Menge Aufforderungen erfordert, so dass die meisten von Ihnen nicht damit konfrontiert werden, aber wir suchen nach Möglichkeiten, Ihnen eine feinere Kontrolle zu geben.“
Microsoft und Open AI sind jedenfalls auf mehr Input von außen angewiesen, um die Systeme zu verbessern. Deswegen ist davon auszugehen, dass es sowohl bei ChatGPT als auch bei Bing Chat bald mehr Features geben wird, mit denen man Eingaben und Feedback tätigen kann.