Ungefähr ein vor anderthalb JahrenQuantenkontroll-Startup Quantenmaschinen und Nvidia kündigten eine tiefe Partnerschaft an, die Nvidias Unternehmen zusammenbringen würde DGX Quantum Computerplattform und der fortschrittlichen Quantenkontrollhardware von Quantum Machine. Über die Ergebnisse dieser Partnerschaft haben wir eine Zeit lang nicht viel gehört, aber jetzt beginnt sie Früchte zu tragen und bringt die Branche dem heiligen Gral eines fehlerkorrigierten Quantencomputers einen Schritt näher.
Das zeigten die beiden Unternehmen Anfang des Jahres in einer Präsentation Sie sind in der Lage, ein handelsübliches Reinforcement-Learning-Modell zu verwenden läuft auf der DGX-Plattform von Nvidia, um die Qubits in einem Rigetti-Quantenchip besser zu steuern, indem das System kalibriert bleibt.
Yonatan Cohen, Mitbegründer und CTO von Quantum Machines, wies darauf hin, dass sein Unternehmen seit langem versucht, allgemeine klassische Rechenmaschinen zur Steuerung von Quantenprozessoren zu nutzen. Diese Rechen-Engines waren klein und begrenzt, aber das ist mit der extrem leistungsstarken DGX-Plattform von Nvidia kein Problem. Der heilige Gral, sagte er, bestehe darin, eine Quantenfehlerkorrektur durchzuführen. Wir sind noch nicht da. Stattdessen konzentrierte sich diese Zusammenarbeit auf die Kalibrierung und insbesondere auf die Kalibrierung des sogenannten „π-Impulse“, die die Rotation eines Qubits in einem Quantenprozessor steuern.
Auf den ersten Blick scheint die Kalibrierung ein einmaliges Problem zu sein: Sie kalibrieren den Prozessor, bevor Sie den Algorithmus darauf ausführen. Aber so einfach ist es nicht. „Wenn man sich die Leistung heutiger Quantencomputer ansieht, erhält man eine hohe Wiedergabetreue“, sagte Cohen. „Aber wenn die Benutzer den Computer verwenden, ist er normalerweise nicht mit der besten Wiedergabetreue ausgestattet. Es driftet ständig. Wenn wir es mit solchen Techniken und der zugrunde liegenden Hardware regelmäßig neu kalibrieren können, können wir die Leistung verbessern und die Wiedergabetreue beibehalten [high] über einen langen Zeitraum, was bei der Quantenfehlerkorrektur erforderlich sein wird.“
Die ständige Anpassung dieser Impulse nahezu in Echtzeit ist eine äußerst rechenintensive Aufgabe. Da sich ein Quantensystem jedoch immer geringfügig unterscheidet, handelt es sich auch um ein Steuerungsproblem, das mithilfe von Reinforcement Learning gelöst werden kann.
„Mit zunehmender Skalierung und Verbesserung von Quantencomputern gibt es all diese Probleme, die zu Engpässen werden und wirklich rechenintensiv werden“, sagte Sam Stanwyck, Group Product Manager für Quantencomputing bei Nvidia. „Die Quantenfehlerkorrektur ist wirklich eine große Aufgabe. Dies ist notwendig, um fehlertolerantes Quantencomputing zu ermöglichen, aber auch um genau die richtigen Steuerimpulse anzuwenden, um das Beste aus den Qubits herauszuholen.“
Stanwyck betonte außerdem, dass es vor DGX Quantum kein System gab, das die für die Durchführung dieser Berechnungen erforderliche minimale Latenz ermöglichen würde.
Wie sich herausstellt, kann bereits eine kleine Verbesserung der Kalibrierung zu massiven Verbesserungen bei der Fehlerkorrektur führen. „Der Return on Investment in die Kalibrierung im Zusammenhang mit der Quantenfehlerkorrektur ist exponentiell“, erklärte Quantum Machines Produktmanager Ramon Szmuk. „Wenn Sie 10 % besser kalibrieren, erhalten Sie einen exponentiell besseren logischen Fehler [performance] im logischen Qubit, das aus vielen physikalischen Qubits besteht. Hier besteht also eine große Motivation, sehr gut und schnell zu kalibrieren.“
Es muss betont werden, dass dies erst der Anfang dieses Optimierungsprozesses und der Zusammenarbeit ist. Was das Team hier tatsächlich tat, war, einfach eine Handvoll Standardalgorithmen zu nehmen und zu prüfen, welcher am besten funktionierte (TD3in diesem Fall). Insgesamt war der eigentliche Code zur Durchführung des Experiments nur etwa 150 Zeilen lang. Dies hängt natürlich von der gesamten Arbeit ab, die die beiden Teams auch zur Integration der verschiedenen Systeme und zum Aufbau des Software-Stacks geleistet haben. Für Entwickler kann diese Komplexität jedoch verborgen bleiben, und die beiden Unternehmen gehen davon aus, im Laufe der Zeit immer mehr Open-Source-Bibliotheken zu erstellen, um die Vorteile dieser größeren Plattform zu nutzen.
Szmuk betonte, dass das Team für dieses Projekt nur mit einem sehr einfachen Quantenschaltkreis gearbeitet habe, dieser aber auch auf tiefe Schaltkreise verallgemeinert werden könne. „Wenn man das mit einem Gatter und einem Qubit machen kann, kann man es auch mit hundert Qubits und 1.000 Gattern machen“, sagte er.
„Ich würde sagen, das individuelle Ergebnis ist ein kleiner Schritt, aber es ist ein kleiner Schritt zur Lösung der wichtigsten Probleme“, fügte Stanwyck hinzu. „Nützliches Quantencomputing erfordert die enge Integration von beschleunigtem Supercomputing – und das könnte die schwierigste technische Herausforderung sein. Wenn wir also in der Lage sind, dies real auf einem Quantencomputer durchzuführen und einen Puls auf eine Weise abzustimmen, die nicht nur für einen kleinen Quantencomputer optimiert ist, sondern eine skalierbare, modulare Plattform darstellt, glauben wir, dass wir wirklich auf dem Weg sind, einiges zu lösen eines der wichtigsten Probleme im Quantencomputing damit.“
Stanwyck sagte außerdem, dass die beiden Unternehmen planen, diese Zusammenarbeit fortzusetzen und diese Tools mehr Forschern zur Verfügung zu stellen. Da die Blackwell-Chips von Nvidia nächstes Jahr erhältlich sein werden, verfügen sie auch für dieses Projekt über eine noch leistungsfähigere Computerplattform.