
sakkmesterke - stock.adobe.com
Wann kommt der Quantencomputer für kommerzielle Anwender?
Quantencomputing ist anhaltend ein Hype-Thema. Bislang weiß man nur wenig über die Peripherie der neuartigen Rechentechnik. Der Stand der Dinge aus Storage-Perspektive.
„Bringen Sie Ihr Unternehmen in eine Superposition“ so wirbt ein Anbieter von Quanten-Annealer-Technik schon heute in Anspielung auf eines der Phänomene, die Photonen zeigen. Doch wie steht es um die Alltagstauglichkeit von Quantencomputern? Der Hype läuft nun schon einige Jahre, die EU wird kräftig in die Forschung investieren, die Zahl der fehlertoleranten Qubits nimmt regelmäßig zu. Jedoch lassen die allzu euphorischen Nachrichten inzwischen langsam nach.
Es wurden schon viele Säue durchs IT-Dorf getrieben: Erinnern Sie sich noch an den Tachyon-Controller? Was wurde nicht alles an Materialien erprobt, um Silizium als Grundbaustoff für Schaltkreise abzulösen? Immer schwebte die Vision von einer Revolution in der IT über den Köpfen der Protagonisten. Das Quantencomputing steht zwar seit Jahren auf den Infografiken der Marktauguren, wobei das Plateau der produktiven Anwendung immer noch in weiter Ferne zu liegen scheint.
In der kürzlich erschienenen Studie IT-Trends 2024, die von Capgemini herausgegeben wurde, sehen die Befragten das Quantencomputing mit der Schulnote 4,39 als eine der unwichtigsten Technologien dieses Jahres (1 = sehr wichtig, 6 = völlig unwichtig).
Die ganze Euphorie – und selbst Optimisten gehen bei sachlicher Einschätzung eher von zehn Jahren bis zur praktischen Nutzbarkeit aus als von fünf – mal beiseite genommen, kommt hier eine völlig neue Art der Informationsverarbeitung auf uns zu.
Ein Aspekt, der in der Euphorie über eine grundsätzlich neue Form der Datenverarbeitung gelegentlich unter den Tisch fällt, ist die Speicherung von Daten in Quantencomputern.
Während es überzeugend klingende Konzepte für die Gestaltung der Quantencomputer an sich gibt, ist in der Peripherie momentan noch keine Technik für die Speicherung der Informationen in Sicht. Man darf davon ausgehen, dass Quantencomputer unter anderem enorm große Mengen an Daten erzeugen. Einen Vorgeschmack bieten hier bildgebende Systeme in der Medizin, die schon heute sehr viele Daten mit photonischen Verfahren erzeugen.
Gegenwärtig werden Quantencomputer mit Supercomputern gekoppelt, wobei die Supercomputer mit ihren Speichersystemen als Prä-Prozessor für die Algorithmik sowie als Speichertechnologie genutzt werden.
Was würde denn gespeichert?
Als Anwendungsgebiet, das in zwei bis fünf Jahren eine Rolle spielen soll, listet Gartner auf dem Hype Cycle der Emerging Technologie 2023 die Postquantum Cryptography. Dabei handelt es sich um eine Technologie, die nicht nötig wäre, wenn nicht an Quantencomputern geforscht würde. Kurzum geht es darum, dass im Bereich der IT-Sicherheit immer komplexere Verschlüsselungsverfahren erfunden werden (müssen), weil diese potenziell von Supercomputern und künftig von Quantencomputern geknackt werden können. Dabei dürfte es sich hinsichtlich der Datenlast vor allem um Streaming Data handeln. Postquantum Cryptography beschäftigt sich also mit quantenbasierenden Verschlüsselungsverfahren, die resistent gegen Hacking-Versuche mit Quantentechnologien sind.
In der technisch-wissenschaftlichen IT sollen mit Quantencomputern komplexere Simulationen möglich sein. Komplex hinsichtlich der physikalischen Phänomene, die untersucht werden, wie auch hinsichtlich der Datenstrukturen.
Ein weiteres Anwendungsgebiet sehen Experten in der Robotik. Ähnlich wie bei der Kryptografie, dürften es hier voraussichtlich eher Streaming Data sein, die eine Datenlast erzeugen. Allerdings sollen sich in den Szenarien zum Beispiel Schweißroboter schnell und eigenständig an eine veränderte Produktionsumgebung/-aufgabe anpassen. Das heißt, die Quantencomputer benötigen vor allem schnelle Datenleitungen. Spannend ist, welche Daten dann längere Zeit gespeichert werden sollen – für Business-Intelligence-Analysen oder prädikative Wartung. Dann könnten sich die Quantencomputing-gesteuerten Roboter womöglich an frühere Tätigkeiten erinnern.
Weitere Anwendungsgebiete sehen die Forscher neben Rüstung, Logistik und Pharma auch in der Finanzmathematik, also bei Maklern und Buchmachern im Hochgeschwindigkeitswertpapierhandel und dort vor allem zur Risikobewertung und Risikominimierung. Auch hier wird ein großer Teil der Daten nur kurze Zeit überleben, für komplexere Analysen dürften auch hier sehr hohe Mengen eher strukturierter Daten anfallen.
Wo würde denn gespeichert?
Derzeit verlassen sich die Entwickler auf ein Schritthalten der Entwicklung von Speichertechnologien. Das Hauptaugenmerk liegt auf der Vervielfachung der Qubits, die ohne Fehlerkorrekturen genutzt werden können und so die Rechenleistung in die Höhe schrauben. Der zweite Schwerpunkt liegt auf der Entwicklung der Algorithmen, denn noch ist es nur für wenige Spezialisten wirklich verständlich, was denn ein Photon nun tatsächlich anstellt und wie man dessen Position in einer auch nur theoretisch bestehenden Bloch-Sphäre auswerten kann. Daher stehen Speichertechnologien erst ganz weit hinten in der Rangordnung, solange die Supercomputer mit ihren Speichersystemen weiterentwickelt werden.
Daher stehen für die Quantencomputer und die Supercomputer, die für Quantum Annealing eingesetzt werden, bislang kaum neue Technologien zur Verfügung – zumindest ist nichts Greifbares veröffentlicht.
Denkbar sind vor allem schnelle Flash-Systeme. Angesichts einer grundlegend neuen Art der Erzeugung von Informationen dürften die hohen Kosten in den ersten Jahren der praktischen Anwendung keine zu hohe Hürde sein.
Wie geht es weiter?
Die Forschung fokussiert sich hier weiterhin auf die Speichertechnologien, die auch für Supercomputer und deren Datenlasten konzipiert sind. Fest steht, dass geeignete Quanten-Hardware immer wichtiger wird, je weiter die Rechentechnik entwickelt wird. Sehr wahrscheinlich sind hybride Lösungen: Herkömmliche Supercomputer bekommen zusätzlich einen Quanten-Rechenkern. Damit wird das Problem der Speicherung erst einmal aufgefangen. Dann liegt das Augenmerk vor allem auf der Organisation solcher Architekturen. Doch bis zum alltagstauglichen Quantencomputer wird noch viel Zeit vergehen.
Über den Autor:
Holm Landrock ist Freier Journalist und Analyst in Dresden mit einem Schwerpunkt auf Enterprise-IT und neue Technologien darunter Supercomputing und Big Data.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.