Skip to content

OpenAI stellt o1-Modelle vor: Fortschritte und Risiken im Fokus

  • OpenAI präsentiert o1-Modelle mit Fortschritten im logischen Denken und Problemlösung.
  • Erhöhtes Missbrauchsrisiko, insbesondere bei der Entwicklung von Biowaffen, erkannt.

OpenAI hat die neuen o1-Modelle präsentiert, die bedeutende Fortschritte im logischen Denken und der Problemlösung bieten. Diese Modelle gelten als wichtiger Schritt zur Entwicklung einer künstlichen allgemeinen Intelligenz (AGI).

In der Systemkarte warnt OpenAI vor einem erhöhten Missbrauchsrisiko, insbesondere bei der Entwicklung von Biowaffen. Erstmals erhielten die Modelle eine mittlere Risikoeinstufung für chemische, biologische, radiologische und nukleare (CBRN) Waffen.

Experten sehen in fortschrittlicher KI-Software ein erhöhtes Missbrauchspotenzial. Yoshua Bengio betont die Notwendigkeit gesetzlicher Regelungen, um diese Risiken zu minimieren. Ein Gesetzentwurf in Kalifornien fordert Sicherheitsmaßnahmen gegen den Einsatz von KI zur Entwicklung von Biowaffen.

Technologieunternehmen wie Google, Meta und Anthropic arbeiten ebenfalls an fortschrittlichen KI-Systemen. Diese könnten Menschen bei Aufgaben unterstützen und bieten lukrative Geschäftsmöglichkeiten für Unternehmen.

Mira Murati, CTO von OpenAI, erklärte, dass die o1-Modelle besonders vorsichtig eingeführt werden. Sie sind über ChatGPT für zahlende Abonnenten und eine API für Programmierer zugänglich. Die Modelle wurden umfangreichen Sicherheitstests unterzogen und schnitten besser ab als frühere Versionen.

Quelle: Eulerpool Research Systems

Alles, was du für den langfristigen Vermögensaufbau mit Aktien brauchst.

Deutschlands beliebteste Aktienanalysen, um alle Aktien wirklich zu verstehen — und jeden Monat bequem unsere besten Empfehlungen zum erfolgreichen Nachkaufen.

Abo testen