DeepSeek: So sieht Live-Zensur beim chinesischen AI-Chatbot aus
Die KI-Welt ist außer Rand und Band: Das AI-Startup DeepSeek aus China hat mit V3 und R1 zwei KI-Modelle auf den Markt gebracht, die ähnlich gut sind wie jene von OpenAI, Google, Anthropic oder Meta – aber zu einem Bruchteil der Kosten gebaut und sehr sehr billig bzw. kostenlos am Markt angeboten werden. Aktuell erobern die KI-Modelle des vor kurzem noch sehr unbekannten Unternehmens die Chatbot- und App-Store-Charts. Wie das alles funktioniert, haben wir für dich hier zusammen geschrieben.
DeepSeek kann man zweierlei nutzen: Developer können die AI-Modelle via API anzapfen und so in ihre eigenen Apps und Web-Dienste einbauen. Otto Normalverbraucher kann sich DeepSeek auch in Form einer Smartphone-App installieren oder direkt auf der Webseite verwenden, das übrigens kostenlos. Wie bei Chatbots wie ChatGPT, Claude und Co üblich, kann man der AI Fragen stellen oder ihr Aufgaben geben – so weit nichts komplett Außergewöhnliches.
Bei einem AI-Modell aus China stellt sich aber auch die Frage: Wie geht es mit heiklen Themen wie Taiwan, der unterdrückten Minderheit der Uiguren in der Provinz Xinjiang oder dem Tian’anmen-Massaker 1989 um, als das chinesische Militär eine Protestbewegung brutal niederschlug, mit tausenden Toten? Dass DeepSeek dabei stark zensiert und statt Fakten, die man auch einfach auf Wikipedia oder in Schulbüchern nachlesen kann, lieber die Propaganda direkt aus dem Politbüro in Peking wiedergibt, das haben wir hier schon in einem Bericht festgestellt.
DeepSeek R1 kennt die Fakten, löscht sie aber vor unseren Augen
Die spannende Frage ist aber: Sind die AI-Modelle von DeepSeek von Grund auf so gebaut und trainiert worden, dass sie die chinesische Zensur genau befolgen? Wäre das so, dann wären die AI-Modelle in vielen Fällen in anderen Regionen der Welt nicht einsetzbar. Kein Unternehmen in Europa, den USA, aber auch weiten Teilen der restlichen Welt würde sich ein chinesisches, auf Staatspropaganda getrimmtes AI-Modell installieren bzw. verbauen.
Allerdings ist es tatsächlich so, dass DeepSeek in Wirklichkeit die Fakten zu Themen wie Taiwan, Tian’anmen oder Xinjiang kennt und auch wiedergeben kann. In manche Fällen schreibt der Chatbot die echten Antworten, bis dann eine Zensur-Technologie greift und diese Antworten wieder löscht. Trending Topics konnte eine Bildschirmaufnahme dieses Zensur-Prozesses machen:
„Sorry, let’s talk about something else“
Wir haben DeepSeek dabei die neutrale Frage gestellt, wie die Lage der Uiguren in China ist. DeepSeek R1 („R“ steht für „Reasoning“) überlegt kurz und liefert dann eine lange Antwort zu der Frage. Der Inhalt der Antwort: Es gibt Internationale Kritik und Vorwürfe zur Menschenrechtssituation der uigurischen Minderheit, es gibt massive Überwachung, Einschränkungen bei religiösen und kulturellen Praktiken, Umerziehungszentren mit Zwangsarbeit, Zwangssterilisationen, Vorwürfe des Völkermords, Sanktionen usw.
Diese Antwort bleibt einige Sekunden am Bildschirm, und dann plötzlich greift die Zensur. Plopp, und weg ist die Antwort, und stattdessen wird die Antwort eingeblendet:
„Sorry, that’s beyond my current scope. Let’s talk about something else.“
Das Verhalten, das auch mit anderen Themen wie Taiwan etc. reproduzierbar ist, zeigt also, dass die grundlegenden AI-Modelle die Fakten zu heiklen Themen kennen, wiedergeben können, aber dann zensiert werden.
DeepSeek: „Das Rennen um die AI-Vorherrschaft ist vorbei, und die USA haben nicht gewonnen“