AndSus-AdobeStock
Quantencomputing: Welche Architektur setzt sich durch?
Nicht die Qubit-Zahl entscheidet im Quantencomputing, sondern Skalierbarkeit, Stabilität und Integrationsfähigkeit – ein Überblick für IT-Entscheider und CIOs.
Technologische Umbrüche in der IT gehen regelmäßig mit Grundsatzdebatten über Architekturfragen einher. So wurde etwa beim Wechsel von On-Premises zu Cloud-Infrastrukturen ebenso kontrovers diskutiert wie bei der Ablösung klassischer Serverarchitekturen durch spezialisierte Beschleuniger. Auch im Quantencomputing konzentriert sich die Diskussion derzeit stark darauf, welcher der technologischen Ansätze sich langfristig durchsetzen wird – supraleitende Qubits, neutrale Atome oder doch eher photonische Systeme.
Diese Perspektive greift jedoch zu kurz. Für Unternehmen, Forschungseinrichtungen und öffentliche Auftraggeber ist weniger die Suche nach dem einen Gewinner entscheidend, sondern viel mehr die Frage, welche Architektur realistische Skalierungspfade bietet, technische Zielkonflikte beherrschbar macht und sich operativ stabil umsetzen lässt.
Architekturfragen sind mehr als ein Wettbewerb
Ein Blick auf die Entwicklung klassischer IT-Infrastrukturen relativiert die Erwartung einer einzelnen dominierenden Architektur. CPUs, GPUs, FPGAs und spezialisierte Beschleuniger existieren nebeneinander, weil sie unterschiedliche Anforderungen erfüllen. Architekturentscheidungen entstehen aus praktischen Notwendigkeiten wie Leistungsprofilen, Effizienzgründen, Integrationsfähigkeit, Software-Ökosystemen und betrieblichen Rahmenbedingungen. Ähnliches zeichnet sich im Quantencomputing ab.
In der öffentlichen Debatte steht häufig die Anzahl der Qubits im Mittelpunkt. Diese Kennzahl ist relevant, für sich genommen jedoch nur begrenzt aussagekräftig. Entscheidend ist, wie stabil Qubits im Verbund arbeiten, wie präzise sie kontrolliert werden können und wie sich Fehlerraten mit wachsender Systemgröße entwickeln. Maßgeblich ist, ob Systemleistung berechenbar bleibt, Fehlerquellen systematisch korrigierbar sind und der betriebliche Aufwand nicht überproportional zunimmt.
Jede Quantenarchitektur basiert auf spezifischen physikalischen Prinzipien und bringt eigene technische Konsequenzen mit sich. Einige Ansätze ermöglichen sehr schnelle Operationen, stoßen jedoch bei der Konnektivität an Grenzen. Andere setzen auf strukturelle Homogenität oder flexible Verschaltung und nehmen dafür längere Ausführungszeiten in Kauf. Wieder andere verlagern Komplexität in Kryotechnik, optische Systeme oder in Steuerungs- und Integrationssoftware. Daraus ergeben sich unterschiedliche Entwicklungsdynamiken, Investitionsschwerpunkte und industrielle Perspektiven.
Operative Anforderungen im Unternehmenskontext
Für Unternehmen wird die Architekturfrage im Alltag konkret. Relevant ist, wie effizient sich Anwendungsfälle auf die Hardware abbilden lassen, welcher zusätzliche Aufwand durch Routing, Compilation und Fehlerkorrektur entsteht und wie reproduzierbar Ergebnisse im Dauerbetrieb sind. Mit zunehmender Systemgröße gewinnen Stabilität, Wartbarkeit und natürlich auch personelle Betriebsanforderungen an immenser Bedeutung. Ob geschulte Ingenieurteams ein System zuverlässig betreiben können oder weiterhin hochspezialisierte Expertengruppen erforderlich sind, entscheidet darüber, ob eine Plattform den Schritt vom Forschungsinstrument zur produktionsnahen Infrastruktur schafft.
![]()
„Für Unternehmen wird die Architekturfrage im Alltag konkret. Relevant ist, wie effizient sich Anwendungsfälle auf die Hardware abbilden lassen, welcher zusätzliche Aufwand durch Routing, Compilation und Fehlerkorrektur entsteht und wie reproduzierbar Ergebnisse im Dauerbetrieb sind.“
Andy Ory, QuEra Computing
Ein Ansatz im aktuellen Technologiefeld sind Systeme auf Basis neutraler Atome. Sie ermöglichen die Anordnung größerer, regelmäßig strukturierter Atomgitter und eine flexible Konnektivität durch steuerbare Wechselwirkungen. Gleichzeitig sind damit spezifische Anforderungen an optische Komponenten, Steuerungselektronik und Systemintegration verbunden. Wie bei anderen Architekturen hängt die langfristige industrielle Perspektive weniger vom physikalischen Grundprinzip als von der technischen Umsetzung, der Skalierbarkeit der Kontrolle und der Integration in bestehende IT-Umgebungen ab.
Vielfalt als strategische Übergangsphase
Für Cloud-Anbieter, HPC-Zentren (High-Performance Computing) und größere Unternehmen empfiehlt sich derzeit ein strukturierter Evaluationsansatz statt einer frühen Festlegung auf eine einzelne Technologie. Der parallele Vergleich verschiedener Architekturen erhöht die Vergleichbarkeit und reduziert zudem mögliche Abhängigkeiten. Auch aus industriepolitischer Sicht spricht in der aktuellen Entwicklungsphase vieles für technologische Vielfalt, da zentrale Fragen zur Skalierbarkeit noch nicht abschließend geklärt sind.
Mit zunehmender Reife wird sich die Diskussion versachlichen. Einige Architekturen werden sich leichter industrialisieren lassen, andere an technische Grenzen stoßen. Gleichzeitig werden Software-Abstraktionen Hardwareunterschiede teilweise überdecken und hybride klassische-quantische Workflows Quantencomputer als spezialisierte Beschleuniger integrieren. Entscheidend ist dabei nicht, welcher Ansatz kurzfristig dominiert, sondern welche Architekturen langfristig Skalierbarkeit, Verlässlichkeit und Integrationsfähigkeit gewährleisten. Erst dann werden Quantencomputer vom Gegenstand strategischer Grundsatzdebatten zu praktikablen Werkzeugen im IT-Betrieb.
Über den Autor:
Andy Ory ist CEO von QuEra Computing, einem führenden Unternehmen im Bereich der Quantencomputer mit neutralen Atomen. Als Serienunternehmer mit über drei Jahrzehnten Erfahrung im Aufbau von Technologieunternehmen war Andy Mitgründer von Acme Packet, das er an die Börse brachte und später für 2,1 Milliarden Dollar an Oracle verkaufte, sowie von 128 Technology, das von Juniper Networks übernommen wurde.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.