Kaum ein Technologie-Thema bewegt die Märkte so stark wie Künstliche Intelligenz. Seit dem Start von ChatGPT Ende 2022 jagt eine Wachstumsprognose die nächste – und ein Unternehmen steht wie kein anderes im Zentrum: NVIDIA. Gleichzeitig kommen die lautesten Warnungen inzwischen ausgerechnet aus dem innersten Kreis der KI-Industrie.
Der KI-Boom hat einen massiven Bedarf an Rechenleistung ausgelöst, insbesondere in Cloud- und Hyperscale-Rechenzentren. Dort dominiert NVIDIA mit seinen Hochleistungsprozessoren und Software-Stacks den Markt fast konkurrenzlos. Ursprünglich als Grafikkartenhersteller groß geworden, hat sich der Konzern dank jahrelanger Vorarbeit an die Spitze der KI-Chipindustrie gesetzt und hält Schätzungen zufolge rund 80 Prozent Marktanteil.
An der Börse schlägt sich das entsprechend nieder: Ende Oktober durchbrach das Unternehmen als erstes überhaupt die Marke von fünf Billionen US-Dollar Marktkapitalisierung – ein Meilenstein, der NVIDIAs Status als Symbol des KI-Hypes untermauert.
Während Anleger grenzenlose Wachstumsfantasie feiern, melden sich andere Stimmen zu Wort. Ausgerechnet Mustafa Suleyman, oberster KI-Stratege bei Microsoft und Mitgründer von DeepMind, warnt jetzt eindringlich vor einer zu schnellen technologischen Entwicklung.
In einem Podcast-Gespräch verwies er darauf, dass sogenannte Artificial General Intelligence – KI-Systeme, die in nahezu allen Bereichen menschliche Leistungsfähigkeit erreichen – innerhalb der nächsten fünf Jahre Realität werden könnten. Damit stimmte er der Einschätzung von Google-DeepMind-Chef Demis Hassabis zu.
Suleyman bezeichnet AGI als „Vorstufe zur Superintelligenz“ – einem Entwicklungsniveau, bei dem KI sich selbst weiterentwickeln, eigene Zielsetzungen formulieren und Entscheidungen ohne menschliche Vorgaben treffen könne. Diese Vorstellung, so Suleyman, habe „nichts Beruhigendes“.
Suleyman sieht eine zentrale Gefahr: Ein System, das sich selbst optimiert und nicht mehr an menschliche Werte gebunden ist, wäre kaum noch kontrollierbar. Eine solche Entwicklung dürfe daher „nicht das Ziel, sondern das Gegenteil dessen sein, worauf wir hinarbeiten“, so seine Einschätzung.
Er fordert klare gesetzliche Leitplanken und technische Kontrollmechanismen, damit autonome KI-Agenten nicht unabhängig handeln, sondern dauerhaft an menschliche Interessen gekoppelt bleiben.
Trotz seiner Warnungen betonte Suleyman, Microsoft entwickle KI nicht blindlings weiter, sondern verfolge einen Ansatz, der bewusst auf Sicherheit, Kooperation und menschliche Kontrolle ausgelegt sei. Ziel sei eine Form der Superintelligenz, die Menschen unterstützt – und sich nicht verselbstständigt.




