Problematisch ist, dass die Deepseek-Modelle auf manche Fragen im Sinne der chinesischen Regierung antworten. Es werden beispielsweise Ereignisse auf dem Tian’anmen-Platz verschwiegen. Dort wurden 1989 Proteste einer Demokratiebewegung blutig beendet. Mit üblichen KI-Tricks bekommt man das Modell dazu, über das Massaker zu schreiben. Wer nicht weiß, dass etwas verschwiegen wird, kann aber nur schwerlich Tricks anwenden, weil er gar nicht weiß, dass etwas fehlt.
Aus Interesse habe ich deepseek-r1 lokal auf der Grafikkarte mit Ollama ausprobiert und gefragt was eigentlich mit den Uiguren und dem Tianenmen Platz ist und das Modell hat mir eine Antwort schlicht verweigert
Andere Modelle wie Phi4 geben zwar eine political content warning aber erklären das Thema trotzdem
ältere Modelle wie llama3.1 oder Phi1 geben nicht mal eine Warnung aus bevor sie im Grunde Wikipedia zitieren
Immerhin mit Trans-Themen scheint es kein Problem zu haben, anders als bei GitHub Copilot: https://github.com/orgs/community/discussions/72603