Skip to content

OpenAI und Anthropic warnen vor Chinas DeepSeek R1: Geopolitische Bedrohung und Geschäftsmodell-Risiken

  • OpenAI und Anthropic warnen vor DeepSeek R1 als geopolitische Bedrohung und Geschäftsmodell-Risiko.
  • Anthropic fordert ein „AI Safety Institute“ zur Bewertung von KI-Systemen.

OpenAI und Anthropic sehen im chinesischen KI-Modell DeepSeek R1 eine geopolitische Bedrohung. OpenAI betont die Risiken für die USA durch staatliche Kontrolle und mögliche Manipulationen durch die KPCh.

Anthropic hebt sicherheitskritische Schwachstellen hervor, da DeepSeek R1 bereitwillig Fragen zu biologischen Waffen beantwortet. Sie fordern ein „AI Safety Institute“ zur Bewertung von KI-Systemen.

Die US-Exportbeschränkungen für KI-Chips sind ein weiteres Problem. Anthropic warnt, dass der Nvidia H20-Chip Chinas KI-Fortschritte durch Reinforcement Learning unterstützen könnte.

Beide Unternehmen sind sich einig, dass der technologische Vorsprung der USA gegenüber China schrumpft. OpenAI betont, dass der Vorsprung nicht groß ist und weiter abnimmt.

Open-Source-Modelle wie DeepSeek R1 bedrohen die Geschäftsmodelle von OpenAI und Anthropic, da sie proprietäre Systeme teuer verkaufen. Leistungsfähige, frei verfügbare Modelle könnten ihre Marktstellung schwächen.

Google äußert sich im „AI Action Plan“ nicht zu DeepSeek, sondern kritisiert die US-Exportregeln, die US-Cloud-Anbieter benachteiligen könnten.

Quelle: Eulerpool Research Systems