Die Rechenleistung von Quantenmaschinen ist derzeit noch sehr gering. Leistungssteigerung ist eine große Herausforderung. Physiker der Universität Innsbruck, Österreich, stellen nun eine neue Architektur für einen universellen Quantencomputer vor, der solche Einschränkungen überwindet und schon bald die Grundlage der nächsten Generation von Quantencomputern sein könnte.
Quantenbits (Qubits) in einem Quantencomputer dienen gleichzeitig als Recheneinheit und Speicher. Da Quanteninformationen nicht kopiert werden können, können sie nicht wie in einem klassischen Computer gespeichert werden. Aufgrund dieser Einschränkung müssen alle Qubits in einem Quantencomputer miteinander interagieren können.
Dies ist derzeit noch eine große Herausforderung für den Bau leistungsfähiger Quantencomputer. 2015 hat sich der theoretische Physiker Wolfgang Lechner gemeinsam mit Philipp Hauke und Peter Zoller dieser Schwierigkeit angenommen und eine neue Architektur für einen Quantencomputer vorgeschlagen, die nach den Autoren nun LHZ-Architektur genannt wird.
„Diese Architektur wurde ursprünglich für Optimierungsprobleme entwickelt“, sagt Wolfgang Lechner vom Institut für Theoretische Physik der Universität Innsbruck, Österreich. „Dabei haben wir die Architektur auf ein Minimum reduziert, um diese Optimierungsprobleme möglichst effizient zu lösen.“
Die physischen Qubits in dieser Architektur stellen keine einzelnen Bits dar, sondern codieren die relative Koordination zwischen den Bits. „Dadurch müssen nicht mehr alle Qubits miteinander interagieren“, erklärt Wolfgang Lechner. Mit seinem Team hat er nun gezeigt, dass sich dieses Paritätskonzept auch für einen universellen Quantencomputer eignet.
Komplexe Operationen werden vereinfacht
Paritätscomputer können Operationen zwischen zwei oder mehr Qubits auf einem einzelnen Qubit ausführen. „Bestehende Quantencomputer setzen solche Operationen im kleinen Maßstab bereits sehr gut um“, erklärt Michael Fellner aus dem Team von Wolfgang Lechner. „Mit zunehmender Anzahl von Qubits wird es jedoch immer komplexer, diese Gate-Operationen zu implementieren.“
In zwei Veröffentlichungen in Briefe zur körperlichen Überprüfung und Körperliche Überprüfung Azeigen die Innsbrucker Wissenschaftler nun, dass Paritätscomputer beispielsweise Quanten-Fourier-Transformationen – ein grundlegender Baustein vieler Quantenalgorithmen – mit deutlich weniger Rechenschritten und damit schneller durchführen können. „Durch die hohe Parallelität unserer Architektur lässt sich beispielsweise der bekannte Shor-Algorithmus zur Faktorisierung von Zahlen sehr effizient ausführen“, erklärt Fellner.
Zweistufige Fehlerkorrektur
Das neue Konzept bietet zudem eine hardwareeffiziente Fehlerkorrektur. Da Quantensysteme sehr empfindlich auf Störungen reagieren, müssen Quantencomputer Fehler kontinuierlich korrigieren. Für den Schutz von Quanteninformationen müssen erhebliche Ressourcen aufgewendet werden, was die Anzahl der erforderlichen Qubits stark erhöht. „Unser Modell arbeitet mit einer zweistufigen Fehlerkorrektur, eine Fehlerart (Bit-Flip-Error oder Phasenfehler) wird durch die verwendete Hardware verhindert“, schreiben Anette Messinger und Kilian Ender, ebenfalls Mitglieder des Innsbrucker Forschungsteams.
Auf verschiedenen Plattformen gibt es dazu bereits erste experimentelle Ansätze. „Die andere Art von Fehler kann über die Software erkannt und korrigiert werden“, sagen Messinger und Ender. Damit ließe sich mit überschaubarem Aufwand eine nächste Generation universeller Quantencomputer realisieren.
Das von Wolfgang Lechner und Magdalena Hauser gemeinsam gegründete Spin-off-Unternehmen ParityQC arbeitet in Innsbruck bereits mit Partnern aus Wissenschaft und Industrie an möglichen Umsetzungen des neuen Modells.
Michael Fellner et al, Universal Parity Quantum Computing, Briefe zur körperlichen Überprüfung (2022). DOI: 10.1103/PhysRevLett.129.180503
Michael Fellner et al, Anwendungen der universellen Paritätsquantenberechnung, Körperliche Überprüfung A (2022). DOI: 10.1103/PhysRevA.106.042442