Deutschland spielt bei klassischen Computern seit Jahren kaum noch eine Rolle. Im Quantencomputing hingegen hat sich der Standort überraschend stark positioniert. Mit den Start-ups Planqc aus München und EleQtron aus Nordrhein-Westfalen verfolgen zwei deutsche Unternehmen unterschiedliche, aber technologisch verwandte Ansätze – und rücken damit ins Zentrum der sogenannten zweiten Welle der Quantenrevolution.
Während klassische Rechner mit Bits arbeiten, die entweder den Zustand 0 oder 1 annehmen, nutzen Quantencomputer sogenannte Qubits. Diese können dank quantenmechanischer Überlagerung mehrere Zustände gleichzeitig darstellen. Mit jedem zusätzlichen Qubit steigt die Rechenleistung exponentiell. Für bestimmte Anwendungen – etwa Optimierungsprobleme, Materialforschung oder Kryptografie – versprechen Quantencomputer deshalb einen massiven Geschwindigkeitsvorteil gegenüber heutigen Supercomputern.
Die erste Generation kommerzieller Quantencomputer wurde vor allem von US-Konzernen wie IBM und Google geprägt. Diese Systeme basieren überwiegend auf supraleitenden Qubits, die nur bei extrem niedrigen Temperaturen funktionieren. Der technische Aufwand ist hoch, der Energieverbrauch erheblich, und die Skalierung auf größere Qubit-Zahlen bleibt komplex.
Genau hier setzen Planqc und EleQtron an – mit alternativen physikalischen Konzepten, die weniger Kühlung benötigen und langfristig besser skalierbar sein könnten.
Planqc arbeitet mit neutralen Atomen, die mithilfe von Laserstrahlen in optischen Gittern fixiert werden. EleQtron hingegen nutzt geladene Atome, sogenannte Ionen, die in elektromagnetischen Fallen gehalten und mit Mikrowellen gesteuert werden.
Beide Ansätze gelten in der Forschung als besonders vielversprechend. Sie erlauben stabilere Qubits und benötigen deutlich weniger Energie als supraleitende Systeme. Welches Konzept sich langfristig durchsetzt, ist jedoch offen. Fachleute gehen davon aus, dass Fehleranfälligkeit, Steuerbarkeit und Skalierung entscheidend sein werden.
Ein zentraler Vorteil von Ionen-Qubits liegt in ihrer außergewöhnlich langen Kohärenzzeit – also der Dauer, in der ein Qubit seine Quanteneigenschaften behält. Bei EleQtron erreichen diese Zeiten inzwischen mehrere tausend Sekunden. Das erlaubt komplexere Rechenoperationen mit geringerer Fehleranfälligkeit.
EleQtron hat bereits Systeme mit bis zu 20 Qubits ausgeliefert, ein Ausbau auf 60 Qubits ist geplant. Für das Deutsches Zentrum für Luft- und Raumfahrt entwickelt das Unternehmen aktuell einen Quantencomputer mit mindestens 50 Qubits. Zudem ist EleQtron Teil der deutschen Initiative FullStaQD, die eine vollständige Quanten-Software- und Hardware-Infrastruktur aufbauen soll.
Planqc verfolgt einen anderen Skalierungsansatz. Neutrale Atome lassen sich besonders dicht anordnen, was langfristig sehr große Qubit-Zahlen ermöglichen könnte. Im Auftrag des DLR arbeitet das Unternehmen am Standort Ulm an einem Quantencomputer mit 100 Qubits, der bis 2026 ausgeliefert werden soll. Der zugrunde liegende Vertrag hat ein Volumen von rund 29 Millionen Euro und gilt als Meilenstein für diese Technologie in Europa.
Die internationale Entwicklung spielt den deutschen Ansätzen in die Karten. Große US-Technologiekonzerne orientieren sich zunehmend weg von Supraleitern. Microsoft kooperiert mit Atom Computing, während Google gemeinsam mit SoftBank in den Neutralatom-Spezialisten Quera investiert hat.
Auf der Ionen-Seite sorgte die Übernahme von Oxford Ionics durch IonQ für Aufmerksamkeit – zu einer Bewertung von rund einer Milliarde US-Dollar.
Viele Experten erwarten nicht, dass sich ein einzelner technischer Ansatz vollständig durchsetzen wird. Ähnlich wie bei klassischen Computersystemen könnten verschiedene Quantenarchitekturen parallel existieren und unterschiedliche Aufgaben übernehmen.
Für Deutschland bedeutet das: Mit Planqc und EleQtron ist der Standort in zwei der vielversprechendsten Segmente positioniert. Ob daraus ein nachhaltiger internationaler Wettbewerbsvorteil entsteht, wird sich in den kommenden Jahren entscheiden – wenn es darum geht, Qubit-Zahlen zu erhöhen, Fehlerquoten zu senken und reale industrielle Anwendungen zu ermöglichen.




