Datenschutz-Beschwerde gegen OpenAI wegen falscher Personendaten

Die Datenschutzorganisation noyb, initiiert vom Österreicher Max Schrems, hat am 20. März 2025 eine neue Beschwerde gegen OpenAI bei der norwegischen Datenschutzbehörde Datatilsynet eingereicht. Im Mittelpunkt steht ein besonders schwerwiegender Fall von KI-Halluzinationen: ChatGPT hatte einen norwegischen Nutzer fälschlicherweise als verurteilten Kindermörder dargestellt.
Der norwegische Nutzer Arve Hjalmar Holmen wollte herausfinden, welche Informationen ChatGPT über ihn gespeichert hat. Daraufhin generierte der Chatbot eine erschreckende Falschinformation: Er wurde als verurteilter Mörder dargestellt, der angeblich zwei seiner Kinder getötet und versucht haben soll, auch sein drittes Kind zu ermorden.
Besonders beunruhigend sei: Die erfundene Geschichte enthielt auch reale Elemente aus Holmens Privatleben, darunter die tatsächliche Anzahl und das Geschlecht seiner Kinder sowie den Namen seiner Heimatstadt. Zudem behauptete ChatGPT, dass Holmen zu 21 Jahren Gefängnis verurteilt worden sei.
„Hinweis, dass der Chatbot Fehler machen kann, reicht nicht aus“
„Manche denken, dass es keinen Rauch ohne Feuer gibt. Die Tatsache, dass jemand diese Inhalte lesen und für wahr halten könnte, macht mir am meisten Angst“, erklärt Holmen zu dem Vorfall. „Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt sein. Und wenn dies nicht der Fall ist, haben Nutzer:innen das Recht, sie richtigstellen zu lassen. Es reicht nicht aus, ChatGPT-Nutzer:innen einen winzigen Hinweis anzuzeigen, dass der Chatbot Fehler machen kann.“
noyb fordert OpenAI dazu auf, den diffamierenden Output zu löschen und sein Modell entsprechend anzupassen, damit es keine vergleichbaren Ergbenisse mehr herausgibt. Außerdem schlägt noyb der Datenschutzbehörde die Verhängung eines Bußgelds vor, um ähnliche Verstöße in der Zukunft zu vermeiden.
Nach einer ersten Beschwerde gegen OpenAI in einem anderen Fall hätte das Unternehmen gesagt, dass es keine Daten korrigieren, sondern nur bei bestimmten Prompts „sperren” könne. noyb vermutet, dass die falschen Daten weiterhin im Datensatz der KI-Modelle verbleiben.