xAI und die Datengefahren des X-Deals

Die Übernahme der Social-Media-Plattform X durch das AI-Startup xAI, beides Unternehmen von Elon Msuk, soll eine Super-Group für KI schaffen. Von der Reichweite von X, das mehrere hundert Millionen User hat, verspricht sich Musk nicht nur weite Distribution für die KI-Anwendungen von xAI (v.a. den Chatbot Grok), sondern natürlich auch direkten Zugriff auf die Nutzerdaten, die zum Training der AI-Modelle genutzt werden sollen.
Und das sorgt für Aufregung. Schon 2024 ist bekannt geworden, dass X Nutzerdaten für das Training von Grok ohne Zustimmung der User einsammelt, nun kann man davon ausgehen, dass das systematisch weiter so betrieben wird – immerhin steht xAI in einem harten Konkurrenzkampf mit OpenAI, Google, Meta und Co im Rennen um die besten KI-Modelle. Was aber fängt sich xAI bzw. Grok da eigentlich an Daten ein? Immerhin ist X seit der Übernahme von Musk auch ein Hort für verbreitete Unwahrheiten, Lügen und Anfeindungen geworden.
„Fehlinformationen, verzerrte Darstellungen und schädliche Inhalte“
„Ein gravierendes Problem ist die Zuverlässigkeit der Daten. Im Gegensatz zu geprüften Quellen gibt es bei X keine systematische Faktenkontrolle. Das bedeutet, dass KI-Modelle Fehlinformationen, verzerrte Darstellungen oder sogar schädliche Inhalte aufnehmen und verstärken könnten. Ohne Schutzmaßnahmen besteht die Gefahr, dass sie irreführende Informationen verbreiten, Echokammern verstärken und das Vertrauen in KI-gestützte Erkenntnisse untergraben“, sagt etwa Adrianus Warmenhoven, Cybersecurity-Experte bei NordVPN.
Und weiter: „Da KI zunehmend in soziale Plattformen integriert wird, wächst das Risiko, dass ihre Algorithmen darüber entscheiden, welche Inhalte priorisiert, unterdrückt oder hervorgehoben werden. Dies könnte den öffentlichen Diskurs auf unvorhersehbare Weise beeinflussen. Daher müssen sich auch die Richtlinien zur Inhaltsmoderation weiterentwickeln – mit dem Ziel, Fairness zu gewährleisten, die Verbreitung schädlicher Inhalte zu verhindern und das Vertrauen in digitale Kommunikation zu erhalten.“
Datenschutzbedenken werden nicht weniger
Bereits seit längerem heißt es in den Datenschutzbestimmungen von X, dass man „öffentlich verfügbare Daten zum Training unserer Modelle für Maschinenlernen oder künstliche Intelligenz für die in dieser Richtlinie dargelegten Zwecke heranziehen“ würde. Nun ist das Mutterunternehmen xAI ganz klar darauf aus, die Nutzerdaten zu verwenden.
„Diese Entwicklung wirft ernsthafte Datenschutzbedenken auf. Obwohl die Richtlinien von X die Nutzung öffentlicher Daten erlauben, sind sich viele Nutzer möglicherweise nicht bewusst, dass ihre Beiträge und Bilder zur Schulung von KI-Modellen verwendet werden“, so Warmenhoven weiter. Es gebe kein Opt-in (ausdrückliche Zustimmung), sondern nur ein Opt-out. „Die Möglichkeit, sich durch Anpassung der Einstellungen oder die Privatisierung des Kontos dagegen zu entscheiden, verlagert die Verantwortung auf die Einzelnen, anstatt eine wirklich informierte Zustimmung sicherzustellen.“
Besonders problematisch sei die Einbeziehung öffentlich geteilter Bilder. „Fotos enthalten oft Metadaten, Gesichtszüge oder sensible Details, die missbraucht werden könnten. Ohne klare Sicherheitsvorkehrungen könnte das weitreichende Folgen haben – von Identitätsmissbrauch bis hin zu nicht autorisierten Anwendungen von Gesichtserkennung“, sagt Warmenhoven.
Wer nicht möchte, dass seine Inhalte für das Training von KI genutzt werden, sollte die eigenen Datenschutzeinstellungen überprüfen und das Konto auf privat zu setzen. Allerdings läuft dass ziemlich der Hautpnutzungsart von X entgegen, immerhin geht es dort um das öffentliche Teilen von Inalten, Meinungen, Links, Fotos und Videos.