Definition

Quantum Computing (Quantencomputing)

Was ist Quantum Computing (Quantencomputing)?

Quantencomputing ist ein Bereich der Informatik, der sich mit der Entwicklung von Technologien befasst, die auf den Grundsätzen der Quantentheorie beruhen. Quantum Computing nutzt die einzigartigen Verhaltensweisen der Quantenphysik, um Probleme zu lösen, die für die klassische Informatik zu komplex sind.

Die Entwicklung von Quantencomputern stellt einen großen Fortschritt in der Computertechnik dar und bietet das Potenzial für massive Leistungssteigerungen in bestimmten Anwendungsfällen. Man geht davon aus, dass Quantencomputer beispielsweise bei Aufgaben wie der Faktorisierung ganzer Zahlen und bei Simulationen hervorragende Leistungen erbringen und in Branchen wie der Pharmazie, dem Gesundheitswesen, der Fertigung, der Cybersicherheitund dem Finanzwesen zum Einsatz kommen können.

Laut der Fachzeitschrift The Quantum Insider gibt es weltweit mehr als 600 Unternehmen und mehr als 30 nationale Laboratorien und Regierungsbehörden, die an der Entwicklung von Quantencomputertechnologie arbeiten. Darunter befinden sich Technologiegiganten mit Sitz in den USA wie Amazon, Google, Hewlett Packard Enterprise, Hitachi, IBM, Intel und Microsoft sowie das Massachusetts Institute of Technology (MIT), die Universität Oxford und das Los Alamos National Laboratory. Andere Länder, darunter Großbritannien, Australien, Kanada, China, Deutschland, Israel, Japan und Russland, haben erhebliche Investitionen in Quantencomputertechnologien getätigt. Das Vereinigte Königreich hat kürzlich ein staatlich finanziertes Programm für Quantencomputer gestartet. Die indische Regierung hat 2020 ihre National Mission on Quantum Technologies & Applications eingeführt.

Laut dem Bericht Quantum Computing Market von Markets N Research wurde der weltweite Markt für Quantencomputer im Jahr 2021 auf 395 Millionen US-Dollar geschätzt. Der Bericht prognostiziert, dass der Markt bis 2028 auf etwa 532 Millionen US-Dollar ansteigen wird.

Quantencomputing ist eine sich schnell entwickelnde Technologie und hat das Potenzial, eine bahnbrechende Technologie zu sein, sobald sie ausgereift ist. Überall auf der Welt entstehen Unternehmen für Quantencomputer, aber Experten schätzen, dass es noch Jahre dauern könnte, bis Quantencomputer praktische Vorteile bringen.

Der erste kommerziell erhältliche Quantencomputer wurde 2011 von D-Wave Systems vorgestellt. Im Jahr 2019 brachte IBM das Quantum System One auf den Markt, und im November 2022 stellte das Unternehmen den bisher größten Quantencomputer Osprey vor.

Obwohl die Idee, einen Quantencomputer zu verwenden, spannend sein kann, ist es unwahrscheinlich, dass die meisten Unternehmen einen bauen oder kaufen werden. Stattdessen werden sie sich vielleicht für Cloud-basierte Dienste entscheiden, die einen Fernzugriff ermöglichen. So bieten beispielsweise Amazon Braket, Microsoft Azure Quantum und Rigetti Quantum Cloud Services Quantencomputer als Dienstleistung an.

Kommerzielle Quantencomputer sind je nach Rechenleistung zwischen 5.000 und 15 Millionen Dollar erhältlich. Ein Quantencomputer mit 50 Qubits kann zum Beispiel bis zu 10 Millionen Dollar kosten.

Wie funktioniert das Quantencomputing?

Die Quantentheorie erklärt die Beschaffenheit und das Verhalten von Energie und Materie auf der Quantenebene, das heißt auf atomarer und subatomarer Ebene. Quantenincomputing macht sich die Funktionsweise der Quantenmaterie zunutze: Während beim klassischen Rechnen binäre Bits – also Einsen und Nullen – verwendet werden, werden beim Quantencomputer Einsen, Nullen und eine 1 und eine 0 gleichzeitig verwendet. Der Quantencomputer gewinnt einen Großteil seiner Rechenleistung dadurch, dass Bits mehrere Zustände gleichzeitig einnehmen können.

Quantencomputer bestehen aus einem Bereich, in dem Qubits untergebracht sind, einer Methode zur Übertragung von Signalen an Qubits und einem klassischen Computer, der ein Programm ausführt und Anweisungen sendet.

Ein Qubit, oder Quantenbit, entspricht einem Bit im klassischen Computerwesen. So wie ein Bit die Grundeinheit der Information in einem klassischen Computer ist, ist ein Qubit die Grundeinheit der Information in einem Quantencomputer. Quantencomputer verwenden Teilchen wie Elektronen oder Photonen, die entweder eine Ladung oder eine Polarisation erhalten, um als 0, 1 oder sowohl als 0 als auch als 1 zu fungieren. Die beiden wichtigsten Aspekte der Quantenphysik sind die Prinzipien der Superposition und des Entanglement.

Superposition bedeutet, dass die Quanteninformation, die ein Qubit enthält, in einen Zustand aller möglichen Konfigurationen versetzt wird, während Entanglement bedeutet, dass ein Qubit ein anderes direkt verändert.

Quantencomputer sind in der Regel sehr ressourcenintensiv und benötigen eine erhebliche Menge an Energie und Kühlung, um ordnungsgemäß zu funktionieren. Die Hardware für Quantencomputer besteht zumeist aus Kühlsystemen, die einen supraleitenden Prozessor auf einer bestimmten Temperatur halten, die unterkühlt ist. Ein Verdünnungskühlschrank kann beispielsweise als Kühlmittel verwendet werden, das die Temperatur in einem Milli-Kelvin-Bereich (mK) hält. IBM zum Beispiel hat diese Kühlflüssigkeit verwendet, um sein quantenfähiges System auf etwa 25 mK zu halten, was -293 Grad Celsius entspricht. Bei dieser extrem niedrigen Temperatur können Elektronen durch Supraleiter fließen, wodurch Elektronenpaare entstehen.

Merkmale von Quantencomputern

Quantencomputer sind so konzipiert, dass sie komplexe Berechnungen mit riesigen Datenmengen durchführen können und dabei die folgenden Merkmale nutzen:

Superposition. Superposition bezieht sich auf Qubits, die sich in allen Konfigurationen gleichzeitig befinden. Stellen Sie sich ein Qubit wie ein Elektron in einem Magnetfeld vor. Der Spin des Elektrons kann entweder mit dem Feld ausgerichtet sein, was als Spin-up-Zustand bezeichnet wird, oder entgegengesetzt zum Feld, was als Spin-down-Zustand bezeichnet wird. Die Änderung des Spins des Elektrons von einem Zustand in einen anderen wird durch einen Energieimpuls, zum Beispiel von einem Laser, erreicht. Wenn nur eine halbe Einheit Laserenergie verwendet wird und das Teilchen von allen äußeren Einflüssen isoliert ist, tritt es in eine Überlagerung von Zuständen ein, der sogenannten Superposition. Das Teilchen verhält sich so, als befände es sich in beiden Zuständen gleichzeitig.

Da Qubits eine Superposition von 0 und 1 annehmen, bedeutet dies, dass die Anzahl der Berechnungen, die ein Quantencomputer durchführen kann, 2^n beträgt, wobei n die Anzahl der verwendeten Qubits ist. Ein Quantencomputer, der aus 500 Qubits besteht, hat das Potenzial, 2^500 Berechnungen in einem einzigen Schritt durchzuführen.

Entanglement. Entanglement-Partikel sind verschränkte Qubit-Paare, die sich in einem Zustand befinden, in dem die Veränderung eines Qubits direkt das andere verändert. Wenn man den Spin-Zustand eines Entanglement-Partikels kennt (aufwärts oder abwärts), kann man den Spin des anderen Teilchens in der entgegengesetzten Richtung bestimmen. Darüber hinaus hat das gemessene Teilchen aufgrund der Superposition keine einzige Spinrichtung, bevor es gemessen wird. Der Spin-Zustand des gemessenen Partikels wird zum Zeitpunkt der Messung bestimmt und dem verbundenen Partikel mitgeteilt, das gleichzeitig die entgegengesetzte Spin-Richtung annimmt.

Die Quantum Entanglement ermöglicht es, dass Qubits, die durch große Entfernungen getrennt sind, augenblicklich miteinander interagieren. Unabhängig davon, wie groß der Abstand zwischen den korrelierten Partikeln ist, bleiben sie entangled, solange sie isoliert sind.

Quanten-Superposition und -Entanglement sorgen zusammen für eine enorme Steigerung der Rechenleistung. Werden weitere Qubits hinzugefügt, erhöht sich die Kapazität exponentiell.

Was ist die Quantentheorie?

Die Entwicklung der Quantentheorie begann im Jahr 1900 mit einem Vortrag des deutschen Physikers Max Planck vor der Deutschen Physikalischen Gesellschaft. Planck stellte die Idee vor, dass Energie und Materie in einzelnen Einheiten existieren. Weitere Entwicklungen durch eine Reihe von Wissenschaftlern in den folgenden 30 Jahren haben zu dem modernen Verständnis der Quantentheorie geführt.

Zu den Elementen der Quantentheorie gehören die folgenden:

  • Energie besteht ebenso wie Materie aus diskreten Einheiten, im Gegensatz zu einer kontinuierlichen Welle.
  • Elementarteilchen aus Energie und Materie können sich je nach den Bedingungen wie Teilchen oder wie Wellen verhalten.
  • Die Bewegung von Elementarteilchen ist von Natur aus zufällig und damit unvorhersehbar.
  • Die gleichzeitige Messung von zwei komplementären Werten – wie der Position und dem Impuls eines Teilchens – ist fehlerhaft. Je genauer ein Wert gemessen wird, desto fehlerhafter ist die Messung des anderen Wertes.

Einsatzmöglichkeiten und Vorteile des Quantencomputings

Die Quantencomputing hat das Potenzial, die folgenden Vorteile zu bieten:

  • Geschwindigkeit. Quantencomputer sind im Vergleich zu klassischen Computern unglaublich schnell. So kann das Quantencomputing beispielsweise Finanzportfoliomanagementmodelle beschleunigen, wie das Monte-Carlo-Modell zur Abschätzung der Wahrscheinlichkeit von Ergebnissen und der damit verbundenen Risiken.
  • Fähigkeit, komplexe Prozesse zu lösen. Quantencomputer sind darauf ausgelegt, mehrere komplexe Berechnungen gleichzeitig durchzuführen. Dies kann insbesondere für Faktorisierungen nützlich sein, die zur Entwicklung von Entschlüsselungstechnologien beitragen könnten.
  • Simulationen. Quantencomputer können komplexe Simulationen durchführen. Sie sind schnell genug, um kompliziertere Systeme zu simulieren als klassische Computer. Dies könnte zum Beispiel für Molekularsimulationen hilfreich sein, die für die Entwicklung verschreibungspflichtiger Medikamente wichtig sind.
  • Optimierung. Dank der Fähigkeit des Quantencomputers, riesige Mengen komplexer Daten zu verarbeiten, hat er das Potenzial, die künstliche Intelligenz und das maschinelle Lernen zu verändern.

Grenzen des Quantencomputings

Obwohl die Vorteile des Quantencomputings vielversprechend sind, gibt es noch große Hindernisse zu überwinden:

  • Interferenzen. Die kleinste Störung in einem Quantensystem kann zum Zusammenbruch einer Quantenberechnung führen – ein Prozess, der als Dekohärenz bekannt ist. Ein Quantencomputer muss während der Berechnungsphase von allen externen Störungen völlig isoliert sein. Einige Erfolge wurden mit der Verwendung von Qubits in starken Magnetfeldern erzielt.
  • Fehlerkorrektur. Qubits sind keine digitalen Datenbits und können keine herkömmliche Fehlerkorrektur verwenden. Die Fehlerkorrektur ist beim Quantencomputing von entscheidender Bedeutung, da schon ein einziger Fehler in einer Berechnung die Gültigkeit der gesamten Berechnung zunichte machen kann. In diesem Bereich wurden jedoch beträchtliche Fortschritte erzielt, und es wurde ein Fehlerkorrekturalgorithmus entwickelt, der 9 Qubits verwendet, genauer gesagt ein Rechen- und acht Korrekturbits. Ein System von IBM kommt mit insgesamt 5 Qubits aus1(ein Rechen- und vier Korrekturbits).
  • Beobachtung der Ausgabe. Das Abrufen von Ausgabedaten nach Abschluss einer Quantenberechnung birgt die Gefahr, dass die Daten verfälscht werden. Entwicklungen wie Algorithmen zur Datenbanksuche, die sich auf die spezielle Wellenform der Wahrscheinlichkeitskurve in Quantencomputern stützen, können dieses Problem vermeiden. Dadurch wird sichergestellt, dass der Quantenzustand nach Abschluss aller Berechnungen durch den Akt der Messung in die richtige Antwort umgewandelt wird.

Es gibt auch noch andere Probleme zu lösen, zum Beispiel die Frage, wie die Sicherheit und die Quantenkryptografiegehandhabt werden sollen. Auch die Langzeitspeicherung von Quanteninformationen war in der Vergangenheit ein Problem. Jüngste Durchbrüche haben jedoch einige Formen des Quantencomputings praktikabel gemacht.

Ein Vergleich zwischen klassischer und Quanteninformatik

Das klassische Rechnen beruht auf den Prinzipien der Booleschen Algebra, die in der Regel nach dem Prinzip des Logic Gate (Logikgatter) arbeitet. Die Daten müssen zu jedem Zeitpunkt in einem exklusiven binären Zustand verarbeitet werden – entweder 0 für aus oder 1 für ein. Diese Werte sind Bits. Die Millionen von Transistoren und Kondensatoren, die das Herzstück eines Computers bilden, können sich zu jedem Zeitpunkt nur in einem Zustand befinden. Auch die Geschwindigkeit, mit der diese Geräte ihren Zustand wechseln können, ist noch begrenzt. 

Im Vergleich dazu arbeiten Quantencomputer mit einem Logikgatter mit zwei Modi – XOR und einem Modus namens QO1 –, mit dem sie 0 in eine Superposition von 0 und 1 verwandeln können. In einem Quantencomputer können Teilchen wie Elektronen oder Photonen verwendet werden. Jedem Teilchen wird eine Ladung oder Polarisation zugewiesen, die als Repräsentation von 0 und 1 fungiert. Jedes Teilchen wird als Quantenbit oder Qubit bezeichnet. Die Beschaffenheit und das Verhalten dieser Teilchen bilden die Grundlage des Quantencomputers und der Quantensouveränität.

Diese Definition wurde zuletzt im Juli 2023 aktualisiert

Erfahren Sie mehr über Data-Center-Betrieb

ComputerWeekly.de
Close