Quantencomputing braucht die richtige Kombination aus Ordnung und Unordnung

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Die im Rahmen des Exzellenzclusters „Matter and Light for Quantum Computing“ (ML4Q) durchgeführte Forschung hat modernste Gerätestrukturen von Quantencomputern analysiert, um zu zeigen, dass einige von ihnen tatsächlich gefährlich nahe an der Schwelle einer chaotischen Kernschmelze arbeiten. Die Herausforderung besteht darin, einen schmalen Grat zwischen einer zu hohen und einer zu niedrigen Störung zu gehen, um den Gerätebetrieb zu gewährleisten. Die Studie wurde heute in veröffentlicht Naturkommunikation.

Im Wettlauf um eine mögliche Schlüsseltechnologie der Zukunft investieren Technologiegiganten wie IBM und Google enorme Ressourcen in die Entwicklung von Quantencomputing-Hardware. Aktuelle Plattformen sind jedoch noch nicht praxisreif. Es bleiben mehrere Herausforderungen, darunter die Kontrolle von Gerätefehlern („Störungen“).

Es ist eine alte Stabilitätsvorkehrung: Wenn große Menschengruppen Brücken überqueren, müssen sie vermeiden, im Gleichschritt zu marschieren, damit keine Resonanzen entstehen, die die Konstruktion destabilisieren. Vielleicht entgegen der Intuition stützt sich der supraleitende Transmon-Qubit-Prozessor – eine technologisch fortschrittliche Plattform für Quantencomputer, die von IBM, Google und anderen Konsortien bevorzugt wird – auf dasselbe Prinzip: Absichtlich eingeführte Unordnung blockiert die Bildung von resonanten chaotischen Fluktuationen und wird so zu einem wesentlichen Bestandteil der Produktion von Multi-Qubit-Prozessoren.

Um diesen scheinbar paradoxen Punkt zu verstehen, sollte man sich ein Transmon-Qubit als eine Art Pendel vorstellen. Zu einer Rechenstruktur verkettete Qubits definieren ein System gekoppelter Pendel – ein System, das wie klassische Pendel leicht zu unkontrollierbar großen Schwingungen mit verheerenden Folgen angeregt werden kann. In der Quantenwelt führen solche unkontrollierbaren Schwingungen zur Zerstörung von Quanteninformationen; Der Computer wird unbrauchbar. Bewusst eingeführte lokale „Verstimmungen“ einzelner Pendel halten solche Phänomene in Schach.

„Der Transmon-Chip toleriert nicht nur, sondern erfordert tatsächlich zufällige Unvollkommenheiten von Qubit-zu-Qubit-Geräten“, erklärt Christoph Berke, Doktorand im Abschlussjahr in der Gruppe von Simon Trebst an der Universität zu Köln und Erstautor der Arbeit. „In unserer Studie fragen wir, wie zuverlässig das Prinzip ‚Stabilität durch Zufall‘ in der Praxis ist. Durch Anwendung modernster Diagnostik der Theorie ungeordneter Systeme konnten wir feststellen, dass zumindest einige der industriell verfolgten Systemarchitekturen sind der Instabilität gefährlich nahe.“

Aus Sicht der fundamentalen Quantenphysik ist ein Transmon-Prozessor ein Vielteilchen-Quantensystem mit quantisierten Energieniveaus. Hochmoderne numerische Tools ermöglichen es, diese diskreten Pegel als Funktion relevanter Systemparameter zu berechnen, um Muster zu erhalten, die oberflächlich einem Gewirr gekochter Spaghetti ähneln. Eine sorgfältige Analyse solcher Strukturen für realistisch modellierte Google- und IBM-Chips war eines von mehreren diagnostischen Werkzeugen, die in der Veröffentlichung angewendet wurden, um ein Stabilitätsdiagramm für transmonales Quantencomputing zu erstellen.

„Als wir die Google- mit den IBM-Chips verglichen, stellten wir fest, dass im letzteren Fall Qubit-Zustände in einem Maße gekoppelt sein können, dass kontrollierte Gate-Operationen beeinträchtigt werden können“, sagte Simon Trebst, Leiter der Computational Condensed Matter Physics-Gruppe an der Universität von Köln. Um kontrollierte Gate-Operationen sicherzustellen, muss man daher das subtile Gleichgewicht zwischen der Stabilisierung der Qubit-Integrität und der Ermöglichung der Inter-Qubit-Kopplung finden. Im Sprachgebrauch der Nudelzubereitung muss man den Quantencomputerprozessor perfekt vorbereiten, die Energiezustände „al dente“ halten und ihr Verheddern durch Überkochen vermeiden.

Die Untersuchung der Unordnung in Transmon-Hardware wurde im Rahmen des Exzellenzclusters ML4Q in einer Kooperation zwischen den Forschungsgruppen von Simon Trebst und Alexander Altland an der Universität zu Köln und der Gruppe von David DiVincenzo an der RWTH Aachen und dem Forschungszentrum Jülich durchgeführt. „Dieses Verbundprojekt ist einzigartig“, sagt Alexander Altland vom Institut für Theoretische Physik in Köln. „Unser komplementäres Wissen über Transmon-Hardware, numerische Simulation komplexer Vielteilchensysteme und Quantenchaos war die perfekte Voraussetzung, um zu verstehen, wie Quanteninformationen mit Unordnung geschützt werden können. Es zeigt auch, wie Erkenntnisse, die für kleine Referenzsysteme gewonnen wurden, auf die Anwendung übertragen werden können -relevante Designmaßstäbe.“

David DiVincenzo, Gründungsdirektor des JARA-Instituts für Quanteninformation an der RWTH Aachen, zieht folgendes Fazit: „Unsere Studie zeigt, wie wichtig es für Hardwareentwickler ist, Gerätemodellierung mit modernster Quantenzufallsmethodik zu kombinieren und ‚Chaos-Diagnose‘ als routinemäßigen Bestandteil des Qubit-Prozessordesigns in die supraleitende Plattform zu integrieren.“

Mehr Informationen:
Christoph Berke et al, Transmon-Plattform für Quantencomputing herausgefordert durch chaotische Fluktuationen, Naturkommunikation (2022). DOI: 10.1038/s41467-022-29940-y

Zur Verfügung gestellt von der Universität zu Köln

ph-tech