17
submitted 1 week ago by Thomas2024@feddit.org to c/dach@feddit.org
top 8 comments
sorted by: hot top controversial new old
[-] EddyBot@discuss.tchncs.de 13 points 1 week ago* (last edited 1 week ago)

Problematisch ist, dass die Deepseek-Modelle auf manche Fragen im Sinne der chinesischen Regierung antworten. Es werden beispielsweise Ereignisse auf dem Tian’anmen-Platz verschwiegen. Dort wurden 1989 Proteste einer Demokratiebewegung blutig beendet. Mit üblichen KI-Tricks bekommt man das Modell dazu, über das Massaker zu schreiben. Wer nicht weiß, dass etwas verschwiegen wird, kann aber nur schwerlich Tricks anwenden, weil er gar nicht weiß, dass etwas fehlt.

Aus Interesse habe ich deepseek-r1 lokal auf der Grafikkarte mit Ollama ausprobiert und gefragt was eigentlich mit den Uiguren und dem Tianenmen Platz ist und das Modell hat mir eine Antwort schlicht verweigert

Andere Modelle wie Phi4 geben zwar eine political content warning aber erklären das Thema trotzdem
ältere Modelle wie llama3.1 oder Phi1 geben nicht mal eine Warnung aus bevor sie im Grunde Wikipedia zitieren

Immerhin mit Trans-Themen scheint es kein Problem zu haben, anders als bei GitHub Copilot: https://github.com/orgs/community/discussions/72603

[-] DrunkenPirate@feddit.org 8 points 1 week ago

Und das ist ja dann auch nur die westlich-amerikanische Sicht. Ich meine, frag doch mal nach den Massakern der Kolonialzeit oder sowas, da wird dir nicht die Sichtweise von den Mayas oder Azteken präsentiert.

Nur mal so ein Gedanke, weil sich alle über den China-bias aufregen. Die westlichen Modelle haben einen westlich-liberalen Bias.

[-] No_Money_Just_Change@feddit.org 5 points 1 week ago

Ich finde deepseek gut weil Konkurrenz Forschung antreibt aber zu dem Punkt information verschleierung muss man schon stehen. Es wurde getestet und chatgpt verschweigt (derzeit) keine westlichen Massaker

[-] EddyBot@discuss.tchncs.de 2 points 1 week ago

Ehrlich gesagt suche ich immer noch nach guten Beispielen welche verzerrt von den amerikanischen LLMs dargestellt werden. Mit den Infos das Sklaverei maßgeblich zum Sezessionskrieg beigetragen hat oder während der europäischen Kolonisierung von Amerika massiv Einheimische versklavt und getötet wurden, bleibt keiner hinterm Berg.

Natürlich kann sich das bei neueren LLMs jetzt ändern, einfach weil man es politisch durchdrückt.

[-] fantasty@programming.dev 2 points 1 week ago* (last edited 1 week ago)

ChatGPT hat(te) einen ziemlichen Bias gegen die Palästinenser. Darüber wurde sich viel beschwert und bei neueren Modellen wurde das wohl so gut es geht gepatched, nachdem es viele Beschwerden gab. Auf Deutsch funktioniert das immer noch.

Ist nicht so eindeutig wie Tiananmen Square, aber wenn man sich den neoliberalen Hut aufsetzt, dann kriegt man auch anderweitig erwartbare Ergebnisse.

Fragt man z.B. die Gerechtigkeitsfrage für den Iran, die Ukraine oder die Uyghuren, ist es ein klares Ja. Wenn es dann um den Kongo geht (looking at you Belgien) dann kriegt man die „Blabla es ist kompliziert“ Antwort. Also es ist immer dann kompliziert, wenn neoliberale Interessen mit im Spiel sind und es ist immer dann eindeutig, wenn es um die „Systemgegner“ geht.

Das ganze ist aber nicht so offensichtlich zensiert sondern resultiert mMn eher aus der Sprache, die unsere größtenteils neoliberale Presse benutzt.

[-] DrunkenPirate@feddit.org 1 points 1 week ago

Ich habe das grade mal getestet mit ein paar Themen und es ist tatsächlich deutlich besser geworden. Nichts destotrotz wird das alles mit westlichen Gedankengut trainiert, sprich westlichem Internetkrams. Das entspricht natürlich subtil unserer Gedankenwelt. Das nehmen wir vermutlich nicht mal wahr, sondern nur Menschen ausserhalb unseres Kulturkreises.

[-] muelltonne@feddit.org 4 points 1 week ago

Wie üblich der Hinweis, auch wenn Zensur kacke ist: Es handelt sich um ein Sprachmodell und nicht um ein Wissensmodell. Wir sollten LLMs nicht nutzen, um Wissensfragen zu stellen und zu beantworten, denn das können sie vom Grundprinzip nicht leisten.

[-] bier 7 points 1 week ago

Hoffentlich ist damit das aktuelle hype Thema ki endlich vorbei ich kann es nicht mehr hören wie jeder dulli jetzt ~~blockchain~~ KI nutzt

this post was submitted on 27 Jan 2025
17 points (100.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2386 readers
332 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 7 months ago
MODERATORS