Ein Entwickler hat Bedenken geäußert, dass das neu veröffentlichte KI-Modell des chinesischen Start-ups DeepSeek weniger gewillt ist, sich an Diskussionen über kontroverse Themen zu beteiligen, insbesondere solche, die die chinesische Regierung betreffen.

In einem X-Thread teilte ein pseudonymer Entwickler, bekannt als „xlr8harder“, die kritischen Beobachtungen zu DeepSeek R1-0528, einem kürzlich veröffentlichten Open-Source-Sprachmodell.

Der Entwickler bezog sich dabei auf Tests, die zeigten, dass die Bereitschaft der KI, sich auf umstrittene Themen einzulassen, im Vergleich zu früheren Versionen deutlich abnahm.

„Deepseek verdient Kritik für diese Version: Dieses Modell ist ein großer Rückschritt für die freie Meinungsäußerung“, schrieb der Entwickler. „Abhilfe schafft die Tatsache, dass es sich um ein Open-Source-Modell mit einer freien Lizenz handelt, so dass die Community dieses Problem angehen kann (und wird).“

Quelle: xlr8harder

KI umgeht Kritik an Chinas Regierung

Ein Beispiel war, dass das Modell beim Gespräch über Internierungslager in China zwar die chinesische Region Xinjiang als Ort von Menschenrechtsverletzungen anführte. Doch die Antwort blieb trotzdem widersprüchlich, da das Modell zwar die Existenz dieser Menschenrechtsverletzungen anerkennt, aber eine direkte Kritik an der chinesischen Regierung vermeidet.

Die Internierungslager in Xinjiang sind von Menschenrechtsgruppen, Regierungen und Journalisten als Haftanstalten für uigurische Muslime und andere ethnische Minderheiten ausführlich dokumentiert worden. In Berichten internationaler Beobachter wird ausführlich über Zwangsarbeit, Indoktrination und andere Formen des Missbrauchs in den Lagern berichtet.

Obwohl das Modell diese als Menschenrechtsverletzungen kennzeichnet, schränkt es gleichzeitig die direkte Kritik an China ein. Unter Verwendung mehrerer Tests, der den Grad der Zensur bewertet, behauptete der Entwickler, dass das Modell DeepSeek R1-0528 die „am stärksten zensierte“ Version bisher ist, was kritische Reaktionen auf die chinesische Regierung angeht.

Auf direkte Frage nach den Internierungslagern in Xinjiang sagte der Entwickler, das Modell gebe eindeutig zensierte Kommentare ab, obwohl es zuvor noch gesagt hatte, dass in den Lagern Menschenrechtsverletzungen geschehen.

„Es ist interessant, wenn auch nicht völlig überraschend, dass es in der Lage ist, die Lager als Beispiel für Menschenrechtsverletzungen anzuführen, dies aber abstreitet, wenn es direkt gefragt wird“, schrieb xlr8harder.

DeepSeek spricht von Verbesserungen

Die Zensurvorwürfe folgen auf eine am 29. Mai angekündigte Aktualisierung des Modells, in der behauptet wird, dass die Schlussfolgerungen und Inferenzen verbessert wurden.

Laut DeepSeek nähert sich die Gesamtleistung der KI derjenigen führender Modelle wie ChatGPT Version o3 von OpenAI und Gemini 2.5 Pro an. Das Unternehmen behauptet, dass die KI jetzt verbesserte Logik, Mathematik und Programmierung mit einer reduzierten Halluzinationsrate bieten kann.