Studie enthüllt Grenzen für das Ausmaß, in dem Quantenfehler in großen Systemen „rückgängig gemacht“ werden können

Quantencomputer haben das Potenzial, herkömmliche Computer bei einigen praktisch relevanten Problemen der Informationsverarbeitung zu übertreffen, möglicherweise sogar beim maschinellen Lernen und bei der Optimierung. Ihr großflächiger Einsatz ist jedoch noch nicht möglich, was hauptsächlich an ihrer Empfindlichkeit gegenüber Rauschen liegt, das zu Fehlern führt.

Eine Technik zur Behebung dieser Fehler ist die sogenannte Quantenfehlerkorrektur. Sie ist so konzipiert, dass sie „on-the-fly“ funktioniert, auf Fehler überwacht und Berechnungen wiederherstellt, wenn Fehler auftreten. Trotz enormer Fortschritte in den letzten Monaten in dieser Richtung bleibt diese Strategie experimentell äußerst anspruchsvoll und mit einem erheblichen Ressourcenaufwand verbunden.

Ein alternativer Ansatz, bekannt als Quantenfehlerminderung, arbeitet indirekter: Anstatt Fehler sofort zu korrigieren, wenn sie auftreten, wird die fehlerhafte Berechnung (oder modifizierte Versionen davon) bis zum Ende ausgeführt. Erst am Ende geht man zurück, um zu ermitteln, was das richtige Ergebnis war. Diese Methode wurde als „Ersatzlösung“ zur Behebung von Fehlern vorgeschlagen, die von Quantencomputern gemacht werden, bevor eine vollständige Fehlerkorrektur implementiert werden kann.

Doch Forscher am Massachusetts Institute of Technology, der Ecole Normale Superieure in Lyon, der University of Virginia und der Freien Universität Berlin zeigten, dass Techniken zur Minderung von Quantenfehlern mit der zunehmenden Größe und Skalierung von Quantencomputern äußerst ineffizient werden.

Dies bedeutet, dass Fehlerminderung kein langfristiges Allheilmittel für das ewige Problem des Rauschens in der Quantenberechnung sein wird. Ihr Papier, veröffentlicht In Naturphysikbietet Hinweise darauf, welche Maßnahmen zur Minderung der negativen Auswirkungen von Rauschen auf Quantenberechnungen zwangsläufig unwirksam sind.

„Wir dachten über die Einschränkungen des Quantencomputings in naher Zukunft nach, bei dem verrauschte Quantengatter zum Einsatz kommen“, sagte Jens Eisert, Co-Autor des Artikels, gegenüber Phys.org.

„Unser Kollege Daniel Stilck França hatte gerade bewiesen, ein Ergebnis das führte zu zwingenden Einschränkungen des Quantencomputings in naher Zukunft. Er hatte gezeigt, dass man bei depolarisierendem Rauschen in logarithmischer Tiefe einen Quantenzustand erreichen würde, der mit effizienten klassischen Sampling-Techniken erfasst werden könnte. Wir hatten gerade über die Minderung von Quantenfehlern nachgedacht, aber dann dachten wir: Moment mal, was bedeutet das alles für die Minderung von Quantenfehlern?“

Die aktuelle Arbeit von Yihui Quek, Daniel Stilck França, Sumeet Khatri, Johannes Jakob Meyer und Jens Eisert greift diese Forschungsfrage auf und untersucht die genauen Grenzen der Quantenfehlerminderung. Ihre Ergebnisse zeigen, inwieweit die Quantenfehlerminderung dazu beitragen kann, die Auswirkungen von Rauschen auf das kurzfristige Quantencomputing zu verringern.

„Die Quantenfehlerminderung sollte ein Ersatz für die Quantenfehlerkorrektur sein, da ihre Umsetzung weniger präzise technische Arbeit erfordert. Daher bestand die Hoffnung, dass sie selbst mit den derzeitigen experimentellen Möglichkeiten in Reichweite sein könnte“, sagte Yihui Quek, der Hauptautor des Papiers, gegenüber Phys.org.

„Als wir diese vergleichsweise einfacheren Abhilfemaßnahmen jedoch genauer unter die Lupe nahmen, wurde uns klar, dass man vielleicht nicht alles haben und gleichzeitig alles essen kann. Zwar erfordern sie weniger Qubits und Kontrolle, aber das geht oft auf Kosten einer beunruhigend hohen Anzahl von Durchläufen des gesamten Systems.“

Ein Beispiel für ein Milderungsschema, bei dem das Team Einschränkungen feststellte, ist die sogenannte „Null-Fehler-Extrapolation“. Dieses Schema funktioniert, indem die Menge an Rauschen in einem System schrittweise erhöht wird und die Ergebnisse der Berechnung mit mehr Rauschen dann wieder in ein Szenario ohne Rauschen umgewandelt werden.

„Um Lärm zu bekämpfen, muss man im Grunde den Lärm in seinem System erhöhen“, erklärte Quek. „Schon intuitiv ist klar, dass dies nicht skalierbar ist.“

Quantenschaltkreise (also Quantenprozessoren) bestehen aus mehreren Schichten von Quantengattern, von denen jedes mit den Berechnungen der vorherigen Schicht gefüttert wird und diese weiter vorantreibt. Wenn die Gatter jedoch verrauscht sind, wird jede Schicht im Schaltkreis zu einem zweischneidigen Schwert, denn während sie eine Berechnung vorantreibt, führt das Gatter selbst zusätzliche Fehler ein.

„Das führt zu einem schrecklichen Paradoxon: Man braucht viele Schichten von Gattern (und damit einen tiefen Schaltkreis), um eine nicht-triviale Berechnung durchzuführen“, sagte Quek.

„Allerdings verursacht ein tieferer Schaltkreis auch mehr Lärm – es ist wahrscheinlicher, dass er Unsinn ausgibt. Es gibt also einen Wettlauf zwischen der Geschwindigkeit, mit der man rechnen kann, und der Geschwindigkeit, mit der sich die Fehler bei der Berechnung anhäufen.

„Unsere Arbeit zeigt, dass es extrem gefährliche Schaltkreise gibt, bei denen letzteres viel, viel schneller ist als ursprünglich angenommen; und zwar so sehr, dass man diese gefährlichen Schaltkreise, um sie zu entschärfen, eine unrealistische Anzahl von Malen laufen lassen müsste. Dies gilt unabhängig davon, welchen speziellen Algorithmus man zur Fehlerminderung verwendet.“

Die aktuelle Studie von Quek, Eisert und ihren Kollegen legt nahe, dass die Quantenfehlerminderung nicht so skalierbar ist wie von manchen vorhergesagt. Tatsächlich stellte das Team fest, dass mit der Skalierung von Quantenschaltkreisen der Aufwand oder die Ressourcen, die zur Fehlerminderung erforderlich sind, stark zunehmen.

„Wie bei allen No-Go-Theoremen betrachten wir sie weniger als Show-Stopper, sondern vielmehr als Einladung“, sagte Eisert.

„Vielleicht gelangt man zu viel optimistischeren Einstellungen, wenn man mit mehr geometrisch lokal verbundenen Bestandteilen arbeitet. In diesem Fall ist unsere Grenze vielleicht viel zu pessimistisch. Gängige Architekturen haben oft solche lokalen Interaktionen. Unsere Studie kann auch als eine Einladung gesehen werden, über kohärentere Schemata zur Minderung von Quantenfehlern nachzudenken.“

Die Erkenntnisse dieses Forschungsteams könnten Quantenphysikern und Ingenieuren weltweit als Leitfaden dienen und sie dazu inspirieren, alternative und effektivere Methoden zur Minderung von Quantenfehlern zu entwickeln. Darüber hinaus könnten sie weitere Studien anregen, die sich auf theoretische Aspekte zufälliger Quantenschaltkreise konzentrieren.

„Frühere vereinzelte Arbeiten an einzelnen Algorithmen zur Minderung von Quantenfehlern hatten darauf hingedeutet, dass diese Schemata nicht skalierbar wären“, sagte Quek.

„Wir haben ein Framework entwickelt, das einen großen Teil dieser einzelnen Algorithmen erfasst. Dadurch konnten wir argumentieren, dass diese Ineffizienz, die andere festgestellt hatten, der Idee der Quantenfehlerminderung selbst innewohnt – und nichts mit der spezifischen Implementierung zu tun hat.

„Dies wurde durch den von uns entwickelten mathematischen Mechanismus ermöglicht, der die bislang stärksten bekannten Ergebnisse darüber liefert, wie schnell Schaltkreise ihre Quanteninformationen aufgrund von physikalischem Rauschen verlieren können.“

In Zukunft könnte das Papier von Quek, Eisert und ihren Kollegen Forschern dabei helfen, schnell Arten von Quantenfehlerminderungsschemata zu identifizieren, die höchstwahrscheinlich unwirksam sind. Die wichtigste konzeptionelle Erkenntnis der Erkenntnisse des Teams besteht darin, die Intuition herauszuarbeiten, dass Gatter mit großer Reichweite (d. h. Gatter mit Qubits, die durch große Entfernungen voneinander getrennt sind) sowohl vorteilhaft als auch problematisch sein können, da sie leicht Verschränkungen erzeugen und so die Berechnung vorantreiben, während sie gleichzeitig das Rauschen in einem System schneller verteilen.

„Das wirft natürlich die Frage auf, ob es überhaupt möglich ist, einen Quantenvorteil zu erzielen, ohne diese ‚Superspreader‘ sowohl der Quantenhaftigkeit als auch ihres schlimmsten Feindes (also des Rauschens) zu verwenden“, fügte Quek hinzu. „Bemerkenswerterweise gelten alle unsere Ergebnisse nicht, wenn mitten in der Berechnung neue Hilfsqubits eingeführt werden, sodass ein gewisses Maß davon notwendig sein könnte.“

In ihren nächsten Studien wollen die Forscher den Fokus von den von ihnen identifizierten Problemen auf mögliche Lösungen zur Überwindung dieser Probleme verlagern. Einige ihrer Kollegen haben in dieser Richtung bereits Fortschritte gemacht, indem sie eine Kombination aus randomisiertem Benchmarking und Techniken zur Minderung von Quantenfehlern eingesetzt haben.

Weitere Informationen:
Yihui Quek et al., Exponentiell engere Grenzen der Quantenfehlerminderung, Naturphysik (2024). DOI: 10.1038/s41567-024-02536-7.

© 2024 Science X Network

ph-tech