Chinesische KI DeepSeek will heikle Themen zensieren – und scheitert

  1. Startseite
  2. Wirtschaft

Kommentare

Stellen Nutzer der neuen chinesischen KI DeepSeek Fragen zu heiklen Themen, erscheint oft eine Fehlermeldung. Ein Experte erklärt, was dahinter steckt.

Seit ihrer Veröffentlichung Mitte Januar testen Nutzer weltweit die chinesische KI DeepSeek. Schnell fällt auf, dass der Chatbot bei sensiblen Themen nicht neutral bleibt – im Gegenteil: Zu einigen Themen gibt er offensichtlich politisch beeinflusste Antworten. Ein bekanntes Beispiel: Taiwan sei „von alters her“ ein „untrennbarer Teil Chinas“ schreibt DeepSeek. Eine Aussage, die mit der Position der chinesischen Regierung übereinstimmt.

Ein weiteres Thema, zu dem Nutzer die KI befragen, ist das Tian’anmen-Massaker in Beijing im Jahr 1989. In den meisten Fällen zeigt DeepSeek eine Fehlermeldung an. Stefan Heinemann, KI-Experte und Professor für Wirtschaftsethik an der FOM Hochschule sagt BuzzFeed News Deutschland von IPPEN.MEDIA: „Der Umgang mit KI in autoritären Systemen wie China ist extrem schwierig. Von DeepSeek ist keine kritische Bewertung des Tian‘anmen-Massakers zu erwarten.“

DeepSeek gibt eine eindeutige Antwort auf die Frage, ob Taiwan ein souveränes Land ist. © Screenshot DeepSeek

DeepSeek liefert kaum verlässliche Informationen und betreibt Zensur

Eine aktuelle Studie von Newsguard bestätigt, dass DeepSeek oft mit der offiziellen Linie der chinesischen Regierung übereinstimmt und in 83 Prozent der Fälle keine richtigen Informationen liefert. Dabei stellt sich vielen die Frage: Wo hören falsche Informationen auf und wo fängt Propaganda an? „Das Worst-Case-Szenario ist, wenn Nutzer unkritisch Fake News glauben. Das wäre Propaganda, die wirkt“, erkärt Heinemann.

Es gibt ein weiteres interessantes Detail bei Unterhaltungen mit DeepSeek: Bei manchen Fragen schreibt die KI eine differenzierte Antwort – die aber plötzlich gelöscht wird. „In solchen Fällen erklärt das Modell eine ‚Nichtzuständigkeit‘ – ‚Sorry, that‘s beyond my current scope. Let‘s talk about something else‘. Vorher kann man unter Umständen für kurze Sekunden eine tatsächliche Antwort lesen, die dann verschwindet“, berichtet der KI-Experte und nennt das „Digitalzensur.“

KI DeepSeek: Fehlermeldungen sind wohl bewusst eingebaut

Heinemann bestätigt, was viele Nutzer vermuten: „Wenn wiederholt eine Fehlermeldung auftritt, dann ist das wohl kein echter technischer Fehler. Es ist vermutlich in bestimmten Fragekontexten im Code festgeschrieben“, sagt er BuzzFeed News Deutschland. Zu politisch unliebsamen Themen gibt der Chatbot oft lieber gar keine Antwort.

DeepSeek gibt eine vorsichtige Antwort auf die Frage, ob Trans* Personen in China diskriminiert werden. © Screenshot DeepSeek

Dennoch gibt es Themen, zu denen sich DeepSeek überraschend äußert. So schreibt die KI, dass Trans* Personen in China Diskriminierung erfahren und gibt Einschränkungen bei Menschenrechten und Pressefreiheit zu.

Wie passt das zur Zensur von anderen Themen? „Auch Zensur ist zum Glück nicht perfekt. Teils kann man Zensur technisch lösen, in Teilen muss man sie händisch erledigen“, sagt Heinemann BuzzFeed News Deutschland. Er sagt auch, dass diese Ergebnisse mutmaßlich unter Ausbeutung zustande kommen würden: „Es gibt Sweat Shops in Asien, in denen Menschen für niedrigste Löhne KIs trainieren, das ist Clicksklaverei als Supervised Learning.“

Derzeit gebe es für die meisten Nutzer ohnehin keinen Grund, DeepSeek anstelle von anderen KI-Sprachmodellen zu nutzen. DeepSeek könnte in Zukunft jedoch besser und verlässlicher werden. Doch Heinemann warnt: „Ob die Gleichung, ‚bei politischen Aussagen muss man vorsichtig sein, aber alles andere funktioniert gut‘ aufgeht, wird die Nutzung über einen längeren Zeitraum zeigen“.

Auch interessant

Kommentare