China überprüft KI-Modelle auf sozialistische Kernwerte
- China überprüft KI-Modelle auf sozialistische Kernwerte.
- Die Cyberspace Administration of China (CAC) führt strenge Tests durch.
China verstärkt die Zensurmaßnahmen im Bereich künstlicher Intelligenz. Große Sprachmodelle von Unternehmen wie ByteDance, Alibaba und Moonshot werden von der Cyberspace Administration of China (CAC) überprüft, um sicherzustellen, dass sie die sozialistischen Kernwerte Chinas widerspiegeln.
Die CAC testet die Antworten der Modelle auf politisch sensible Fragen, einschließlich Themen zu Präsident Xi Jinping. Diese Tests umfassen auch die Überprüfung der Trainingsdaten und Sicherheitsprozesse der Modelle.
China implementiert das weltweit strengste Regulierungsregime zur Überwachung von KI und deren Inhalten. Zwei Jahrzehnte nach der Einführung der „Großen Firewall“ werden nun auch KI-Modelle streng kontrolliert.
Ein Mitarbeiter eines KI-Unternehmens in Hangzhou berichtete anonym, dass sein Unternehmen beim ersten Audit durchgefallen sei. Der gesamte Prozess habe Monate gedauert.
Chinesische KI-Gruppen müssen lernen, ihre Modelle zu zensieren. Dies ist komplex, da die Modelle viele englischsprachige Inhalte benötigen. Sicherheitsfilter sind daher extrem wichtig.
Das Filterverfahren beginnt mit der Entfernung problematischer Informationen aus den Trainingsdaten und dem Aufbau einer Datenbank sensibler Schlüsselwörter. Diese Schlüsselwörter werden wöchentlich aktualisiert.
Chinesische Chatbots lehnen Anfragen zu sensiblen Themen wie dem Tiananmen-Massaker ab. Baidus Ernie-Chatbot fordert Benutzer auf, eine andere Frage zu stellen, während Alibabas Tongyi Qianwen antwortet, dass er noch lernen müsse.
Peking hat einen KI-Chatbot eingeführt, der auf der politischen Philosophie von Präsident Xi Jinping basiert. Die CAC hat jedoch Beschränkungen für die Anzahl der Fragen eingeführt, die LLMs ablehnen dürfen.
Ein Entwickler eines Internetunternehmens in Shanghai sagte, dass einige Modelle ein generelles Verbot für Themen im Zusammenhang mit Präsident Xi eingeführt haben, um potenziellen Ärger zu vermeiden.
Brancheninsider verweisen auf Kimi, einen Chatbot des Start-ups Moonshot, der die meisten Fragen zu Xi ablehnt. Ingenieure müssen sicherstellen, dass die LLMs politisch korrekte Antworten generieren.
Ein Chatbot des Start-ups 01.AI gab zunächst eine differenzierte Antwort auf eine Frage zu Xi, die später durch eine Standardantwort ersetzt wurde.
Huan Li, ein KI-Experte, erklärte, dass Entwickler eine zusätzliche Schicht einbauen, um die Antworten in Echtzeit zu ersetzen. Klassifikationsmodelle sortieren die LLM-Ausgaben in vordefinierte Kategorien.
ByteDance hat bei der Erstellung eines LLM, das Pekings Standpunkte wiedergibt, große Fortschritte gemacht. Ein Forschungslabor der Fudan University bewertete ByteDances Modell mit einer „Sicherheitskonformitätsrate“ von 66,4 Prozent.
Auf die Frage nach Xis Führung nannte Doubao eine lange Liste von Xis Erfolgen und bezeichnete ihn als „großartigen Führer“.
Fang Binxing, bekannt als Vater der „Großen Firewall“, entwickelt ein System von Sicherheitsprotokollen für LLMs. Er hofft, dass es von den KI-Gruppen des Landes allgemein angenommen wird.
Die CAC, ByteDance, Alibaba, Moonshot, Baidu und 01.AI reagierten nicht sofort auf Anfragen nach Kommentaren.