Deepseek aus China setzt das Silicon Valley unter Druck
Deepseek aus China setzt das Silicon Valley unter Druck
![](https://lemdro.id/pictrs/image/8312d0c3-ce9e-4365-bb53-616e7bcaf80b.jpeg?format=webp&thumbnail=128)
Panikmodus bei KI-Unternehmen und an der Börse: Die chinesischen KI-Modelle von Deepseek sind kostengünstig und leistungsstark.
![Deepseek aus China setzt das Silicon Valley unter Druck](https://lemdro.id/pictrs/image/8312d0c3-ce9e-4365-bb53-616e7bcaf80b.jpeg?format=webp)
Deepseek aus China setzt das Silicon Valley unter Druck
Panikmodus bei KI-Unternehmen und an der Börse: Die chinesischen KI-Modelle von Deepseek sind kostengünstig und leistungsstark.
Problematisch ist, dass die Deepseek-Modelle auf manche Fragen im Sinne der chinesischen Regierung antworten. Es werden beispielsweise Ereignisse auf dem Tian’anmen-Platz verschwiegen. Dort wurden 1989 Proteste einer Demokratiebewegung blutig beendet. Mit üblichen KI-Tricks bekommt man das Modell dazu, über das Massaker zu schreiben. Wer nicht weiß, dass etwas verschwiegen wird, kann aber nur schwerlich Tricks anwenden, weil er gar nicht weiß, dass etwas fehlt.
Aus Interesse habe ich deepseek-r1 lokal auf der Grafikkarte mit Ollama ausprobiert und gefragt was eigentlich mit den Uiguren und dem Tianenmen Platz ist und das Modell hat mir eine Antwort schlicht verweigert
Andere Modelle wie Phi4 geben zwar eine political content warning aber erklären das Thema trotzdem
ältere Modelle wie llama3.1 oder Phi1 geben nicht mal eine Warnung aus bevor sie im Grunde Wikipedia zitieren
Immerhin mit Trans-Themen scheint es kein Problem zu haben, anders als bei GitHub Copilot: https://github.com/orgs/community/discussions/72603
Und das ist ja dann auch nur die westlich-amerikanische Sicht. Ich meine, frag doch mal nach den Massakern der Kolonialzeit oder sowas, da wird dir nicht die Sichtweise von den Mayas oder Azteken präsentiert.
Nur mal so ein Gedanke, weil sich alle über den China-bias aufregen. Die westlichen Modelle haben einen westlich-liberalen Bias.
Ich finde deepseek gut weil Konkurrenz Forschung antreibt aber zu dem Punkt information verschleierung muss man schon stehen. Es wurde getestet und chatgpt verschweigt (derzeit) keine westlichen Massaker
Ehrlich gesagt suche ich immer noch nach guten Beispielen welche verzerrt von den amerikanischen LLMs dargestellt werden. Mit den Infos das Sklaverei maßgeblich zum Sezessionskrieg beigetragen hat oder während der europäischen Kolonisierung von Amerika massiv Einheimische versklavt und getötet wurden, bleibt keiner hinterm Berg.
Natürlich kann sich das bei neueren LLMs jetzt ändern, einfach weil man es politisch durchdrückt.
Wie üblich der Hinweis, auch wenn Zensur kacke ist: Es handelt sich um ein Sprachmodell und nicht um ein Wissensmodell. Wir sollten LLMs nicht nutzen, um Wissensfragen zu stellen und zu beantworten, denn das können sie vom Grundprinzip nicht leisten.
Hoffentlich ist damit das aktuelle hype Thema ki endlich vorbei ich kann es nicht mehr hören wie jeder dulli jetzt blockchain KI nutzt