```html Autoren: Sergey Bravyi Andrew W. Cross Jay M. Gambetta Dmitri Maslov Patrick Rall Theodore J. Yoder Zusammenfassung Die Anhäufung physikalischer Fehler , , verhindert die Ausführung von groß angelegten Algorithmen in aktuellen Quantencomputern. Die Quantenfehlerkorrektur verspricht eine Lösung, indem logische Qubits auf eine größere Anzahl von physikalischen Qubits kodiert werden, sodass die physikalischen Fehler ausreichend unterdrückt werden, um eine gewünschte Berechnung mit tolerierbarer Genauigkeit auszuführen. Die Quantenfehlerkorrektur wird praktisch realisierbar, sobald die Fehlerrate auf physikalischer Ebene unter einem Schwellenwert liegt, der von der Wahl des Quantencodes, des Syndrommesskreises und des Dekodierungsalgorithmus abhängt . Wir präsentieren ein End-to-End-Quantenfehlerkorrekturprotokoll, das fehlerresistenten Speicher auf Basis einer Familie von Low-Density-Parity-Check-Codes (LDPC-Codes) implementiert. Unser Ansatz erreicht einen Fehlerschwellenwert von 0,7 % für das Standard-Schaltkreis-basierte Rauschmodell, was dem Surface Code , , , gleichkommt, der seit 20 Jahren der führende Code in Bezug auf den Fehlerschwellenwert war. Der Syndrommesszyklus für einen Code der Länge in unserer Familie erfordert Ancilla-Qubits und einen Schaltkreis der Tiefe 8 mit CNOT-Gattern, Qubit-Initialisierungen und Messungen. Die erforderliche Qubit-Konnektivität ist ein Graph vom Grad 6, bestehend aus zwei kantendisjunkten planaren Teilgraphen. Insbesondere zeigen wir, dass 12 logische Qubits für fast 1 Million Syndromzyklen unter Verwendung von insgesamt 288 physikalischen Qubits erhalten bleiben können, vorausgesetzt, die physikalische Fehlerrate beträgt 0,1 %, während der Surface Code fast 3.000 physikalische Qubits benötigen würde, um die genannte Leistung zu erzielen. Unsere Ergebnisse rücken Demonstrationen eines fehlerresistenten Quantenspeichers mit geringem Overhead in greifbare Nähe von Quantenprozessoren der nahen Zukunft. 1 2 3 4 k n 5 6 7 8 9 10 n n Hauptteil Das Quantencomputing hat Aufmerksamkeit erregt aufgrund seiner Fähigkeit, asymptotisch schnellere Lösungen für eine Reihe von Berechnungsproblemen im Vergleich zu den besten bekannten klassischen Algorithmen anzubieten . Es wird angenommen, dass ein funktionierender skalierbarer Quantencomputer bei der Lösung von Berechnungsproblemen in Bereichen wie wissenschaftliche Entdeckungen, Materialforschung, Chemie und Medikamentenentwicklung helfen kann, um nur einige zu nennen , , , . 5 11 12 13 14 Das Haupthindernis beim Bau eines Quantencomputers ist die Fragilität von Quanteninformationen, bedingt durch verschiedene Rauschquellen, die sie beeinflussen. Da die Isolierung eines Quantencomputers von externen Effekten und seine Steuerung zur Induzierung einer gewünschten Berechnung im Widerspruch zueinander stehen, scheint Rauschen unvermeidlich zu sein. Zu den Rauschquellen gehören Unvollkommenheiten in Qubits, verwendeten Materialien, Steuergeräten, Fehler bei der Zustandsvorbereitung und -messung sowie eine Vielzahl externer Faktoren, die von lokalen künstlichen Ursachen wie störenden elektromagnetischen Feldern bis hin zu universellen Faktoren wie kosmischer Strahlung reichen. Eine Zusammenfassung finden Sie in Ref. . Während einige Rauschquellen mit besserer Steuerung , Materialien und Abschirmung , , eliminiert werden können, scheinen mehrere andere Quellen schwer, wenn nicht gar unmöglich, zu entfernen zu sein. Die letztere Art kann spontane und stimulierte Emission in eingeschlossenen Ionen , und die Wechselwirkung mit dem Bad (Purcell-Effekt) in supraleitenden Schaltungen umfassen – was beide führenden Quantentechnologien abdeckt. Daher wird Fehlerkorrektur zu einer Schlüsselvoraussetzung für den Bau eines funktionierenden skalierbaren Quantencomputers. 15 16 17 18 19 20 1 2 3 Die Möglichkeit der Quanten-Fehlerresistenz ist gut etabliert . Die redundante Kodierung eines logischen Qubits in viele physikalische Qubits ermöglicht die Diagnose und Korrektur von Fehlern durch wiederholtes Messen von Syndromen von Paritätsprüfoperatoren. Die Fehlerkorrektur ist jedoch nur dann vorteilhaft, wenn die Fehlerrate der Hardware unter einem bestimmten Schwellenwert liegt, der von einem bestimmten Fehlerkorrekturprotokoll abhängt. Die ersten Vorschläge für die Quantenfehlerkorrektur, wie z. B. verkettete Codes , , , konzentrierten sich auf den Nachweis der theoretischen Möglichkeit der Fehlerunterdrückung. Mit zunehmendem Verständnis der Quantenfehlerkorrektur und der Fähigkeiten von Quantentechnologien verlagerte sich der Fokus auf die Suche nach praktischen Quantenfehlerkorrekturprotokollen. Dies führte zur Entwicklung des Surface Codes , , , , der einen hohen Fehlerschwellenwert nahe 1 % bietet, schnelle Dekodierungsalgorithmen und Kompatibilität mit bestehenden Quantenprozessoren, die auf zweidimensionalen (2D) quadratischen Gitter-Qubit-Konnektivitäten basieren. Kleine Beispiele des Surface Codes mit einem einzelnen logischen Qubit wurden bereits von mehreren Gruppen experimentell demonstriert , , , , . Die Skalierung des Surface Codes auf 100 oder mehr logische Qubits wäre jedoch aufgrund seiner schlechten Kodierungseffizienz unerschwinglich teuer. Dies weckte Interesse an allgemeineren Quantencodes, die als Low-Density-Parity-Check (LDPC)-Codes bekannt sind . Jüngste Fortschritte in der Untersuchung von LDPC-Codes deuten darauf hin, dass sie Quanten-Fehlerresistenz mit einer wesentlich höheren Kodierungseffizienz erreichen können . Hier konzentrieren wir uns auf die Untersuchung von LDPC-Codes, da unser Ziel darin besteht, Quantenfehlerkorrekturcodes und -protokolle zu finden, die sowohl effizient als auch praktisch demonstrierbar sind, unter Berücksichtigung der Einschränkungen von Quantencomputing-Technologien. 4 21 22 23 7 8 9 10 24 25 26 27 28 6 29 Ein Quantenfehlerkorrekturcode ist vom LDPC-Typ, wenn jeder Prüfoperator des Codes nur auf wenige Qubits wirkt und jedes Qubit an nur wenigen Prüfungen teilnimmt. Mehrere Varianten von LDPC-Codes wurden kürzlich vorgeschlagen, darunter hyperbolische Surface Codes , , , Hypergraphen-Produkt , balancierte Produktcodes , Zwei-Block-Codes basierend auf endlichen Gruppen , , , und Quanten-Tanner-Codes , . Letztere wurden als asymptotisch „gut“ im Sinne der Bereitstellung einer konstanten Kodierungsrate und einer linearen Distanz erwiesen: ein Parameter, der die Anzahl der korrigierbaren Fehler quantifiziert. Im Gegensatz dazu hat der Surface Code eine asymptotisch verschwindende Kodierungsrate und nur eine Distanz proportional zur Quadratwurzel der Blocklänge. Der Ersatz des Surface Codes durch einen LDPC-Code mit hoher Rate und hoher Distanz könnte erhebliche praktische Auswirkungen haben. Erstens könnte der Overhead für die Fehlerresistenz (das Verhältnis zwischen der Anzahl der physikalischen und logischen Qubits) deutlich reduziert werden. Zweitens zeigen Codes mit hoher Distanz eine sehr scharfe Abnahme der logischen Fehlerrate: Wenn die physikalische Fehlerrate den Schwellenwert überschreitet, kann die durch den Code erreichte Fehlerunterdrückung um Größenordnungen zunehmen, selbst bei einer geringen Reduzierung der physikalischen Fehlerrate. Dieses Merkmal macht LDPC-Codes mit hoher Distanz attraktiv für Demonstrationen der nahen Zukunft, die wahrscheinlich im Near-Threshold-Bereich arbeiten. Es wurde jedoch bisher angenommen, dass die Überwindung des Surface Codes für realistische Rauschmodelle, einschließlich Speicher-, Gatter- und Zustandsvorbereitungs- und Messfehlern, sehr große LDPC-Codes mit mehr als 10.000 physikalischen Qubits erfordern könnte . 30 31 32 33 34 35 36 37 38 39 40 31 Hier präsentieren wir mehrere konkrete Beispiele für LDPC-Codes mit hoher Rate und einigen hundert physikalischen Qubits, ausgestattet mit einem niedrig-tiefen Syndrommesskreis, einem effizienten Dekodierungsalgorithmus und einem fehlerresistenten Protokoll zur Adressierung einzelner logischer Qubits. Diese Codes zeigen einen Fehlerschwellenwert nahe 0,7 %, weisen eine hervorragende Leistung im Near-Threshold-Bereich auf und bieten eine 10-fache Reduzierung des Kodierungs-Overheads im Vergleich zum Surface Code. Die Hardwareanforderungen für die Realisierung unserer Fehlerkorrekturprotokolle sind relativ gering, da jedes physikalische Qubit durch Zwei-Qubit-Gatter mit nur sechs anderen Qubits gekoppelt ist. Obwohl der Qubit-Konnektivitätsgraph nicht lokal in ein 2D-Gitter eingebettet werden kann, kann er in zwei kantenzerlegbare planare Teilgraphen zerlegt werden. Wie wir im Folgenden argumentieren, eignet sich eine solche Qubit-Konnektivität gut für Architekturen, die auf supraleitenden Qubits basieren. Unsere Codes sind eine Verallgemeinerung von Bicycle Codes, die von MacKay et al. vorgeschlagen und in Refs. , , näher untersucht wurden. Wir nennen unsere Codes bivariate Bicycle (BB), weil sie auf bivariaten Polynomen basieren, wie im Abschnitt detailliert beschrieben. Dies sind Stabilisatorcodes vom Calderbank–Shor–Steane (CSS)-Typ , , die durch eine Sammlung von Sechs-Qubit-Prüfungen (Stabilisatoren), die aus Pauli und bestehen, beschrieben werden können. Auf einer hohen Ebene ähnelt ein BB-Code dem zweidimensionalen Toric-Code . Insbesondere können die physikalischen Qubits eines BB-Codes auf einem zweidimensionalen Gitter mit periodischen Randbedingungen angeordnet werden, sodass alle Prüfungen durch ein einziges Paar von - und -Prüfungen durch horizontale und vertikale Verschiebungen des Gitters erhalten werden. Im Gegensatz zu den Plaquette- und Vertex-Stabilisatoren, die den Toric-Code beschreiben, sind die Prüfungen von BB-Codes jedoch nicht geometrisch lokal. Darüber hinaus wirkt jede Prüfung auf sechs Qubits statt auf vier. Wir werden den Code durch einen Tanner-Graphen beschreiben, bei dem jeder Knoten von entweder einen Datenqubit oder eine Prüfoperation darstellt. Eine Prüfoperation und ein Datenknoten sind durch eine Kante verbunden, wenn die -te Prüfoperation nicht-trivial auf den -ten Datenqubit wirkt (durch Anwendung von Pauli oder ). Siehe Abb. für Beispiel-Tanner-Graphen von Surface- und BB-Codes. Der Tanner-Graph jedes BB-Codes hat den Knotengrad sechs und eine Graphendicke von zwei, was bedeutet, dass er in zwei kantenzerlegbare planare Teilgraphen zerlegt werden kann ( ). Eine Qubit-Konnektivität mit Dicke 2 eignet sich gut für supraleitende Qubits, die durch Mikrowellenresonatoren gekoppelt sind. Zum Beispiel können zwei planare Schichten von Kopplern und ihre Steuerleitungen an die Ober- und Unterseite des Qubit-Chips angebracht und die beiden Seiten verbunden werden. 41 35 36 42 Methoden 43 44 X Z 7 X Z G G i j i j X Z 1a,b 29 Methoden , Tanner-Graph eines Surface Codes zum Vergleich. , Tanner-Graph eines BB-Codes mit Parametern [[144, 12, 12]], eingebettet in einen Torus. Jede Kante des Tanner-Graphen verbindet einen Daten- und einen Prüfknoten. Datenqubits, die den Registern ( ) und ( ) zugeordnet sind, sind durch blaue und orange Kreise dargestellt. Jeder Knoten hat sechs anliegende Kanten, darunter vier Kurzstreckenkanten (nach Norden, Süden, Osten und Westen) und zwei Langstreckenkanten. Wir zeigen nur wenige Langstreckenkanten, um Unübersichtlichkeit zu vermeiden. Gestrichelte und durchgezogene Kanten kennzeichnen zwei planare Teilgraphen, die den Tanner-Graphen überspannen, siehe . , Skizze einer Tanner-Graph-Erweiterung zur Messung von und nach Ref. , die an einen Surface Code angehängt wird. Das Ancilla, das der -Messung entspricht, kann an einen Surface Code angeschlossen werden, wodurch Lade-Speicher-Operationen für alle logischen Qubits mittels Quantenteleportation und einiger logischer Unitaries ermöglicht werden. Dieser erweiterte Tanner-Graph hat auch eine Implementierung in einer Dicke-2-Architektur durch die Kanten und ( ). a b q L q R Methoden c 50 A B Methoden Ein BB-Code mit Parametern [[ , , ]] kodiert logische Qubits in Datenqubits und bietet eine Code-Distanz , was bedeutet, dass jeder logische Fehler mindestens Datenqubits überspannt. Wir teilen die Datenqubits in die Register ( ) und ( ) der Größe /2 auf. Jede Prüfung wirkt auf drei Qubits aus ( ) und drei Qubits aus ( ). Der Code verwendet Ancilla-Prüfqubits zur Messung des Fehler-Syndroms. Wir teilen die Prüfqubits in die Register ( ) und ( ) der Größe /2 auf, die Syndrome vom Typ und sammeln. Insgesamt basiert die Kodierung auf 2 physikalischen Qubits. Die Netto-Kodierungsrate ist daher = /(2 ). Zum Beispiel kodiert die Standard-Surface-Code-Architektur = 1 logisches Qubit in = 2 Datenqubits für einen Code der Distanz und verwendet - 1 Prüfqubits für Syndrommessungen. Die Netto-Kodierungsrate beträgt ≈ 1/(2 2), was schnell unpraktisch wird, da man gezwungen ist, eine große Codierdistanz zu wählen, z. B. weil die physikalischen Fehler nahe am Schwellenwert liegen. Im Gegensatz dazu haben BB-Codes eine Kodierungsrate ≫ 1/ 2, siehe Tabelle für Code-Beispiele. Soweit uns bekannt ist, sind alle in Tabelle aufgeführten Codes neu. Der Code mit Distanz 12 [[144, 12, 12]] ist möglicherweise der vielversprechendste für Demonstrationen der nahen Zukunft, da er eine große Distanz und eine hohe Netto-Kodierungsrate = 1/24 kombiniert. Zum Vergleich: Der Surface Code mit Distanz 11 hat eine Netto-Kodierungsrate = 1/241. Im Folgenden zeigen wir, dass der BB-Code mit Distanz 12 den Surface Code mit Distanz 11 im für Experimente relevanten Bereich der Fehlerraten übertrifft. n k d k n d d n q L q R n q L q R n n q X q Z n X Z n r k n k n d d n r d r d 1 1 r r Um die Fehlerakkumulation zu verhindern, muss das Fehler-Syndrom häufig genug gemessen werden können. Dies wird durch einen Syndrommesskreis erreicht, der Datenqubits im Träger jedes Prüfoperators mit dem jeweiligen Ancilla-Qubit durch eine Sequenz von CNOT-Gattern koppelt. Die Prüfqubits werden dann gemessen, was den Wert des Fehler-Syndroms offenbart. Die Zeit, die zur Implementierung des Syndrommesskreises benötigt wird, ist proportional zu seiner Tiefe: der Anzahl der Gatterebenen, die aus nicht überlappenden CNOTs bestehen. Da während der Ausführung des Syndrommesskreises weiterhin neue Fehler auftreten, sollte seine Tiefe minimiert werden. Der vollständige Zyklus der Syndrommessung für einen BB-Code ist in Abb. dargestellt. Der Syndromzyklus erfordert nur sieben CNOT-Ebenen, unabhängig von der Code-Länge. Die Prüfqubits werden zu Beginn und am Ende des Syndromzyklus initialisiert und gemessen (siehe für Details). Der Kreis respektiert die zyklische Verschiebungs-Symmetrie des zugrundeliegenden Codes. 2 Methoden Vollständiger Zyklus von Syndrommessungen, der auf sieben CNOT-Ebenen basiert. Wir geben eine lokale Ansicht des Kreises, die nur ein Datenqubit aus jedem Register ( ) und ( ) enthält. Der Kreis ist symmetrisch unter horizontalen und vertikalen Verschiebungen des Tanner-Graphen. Jedes Datenqubit ist durch CNOTs mit drei -Prüf- und drei -Prüfqubits gekoppelt: siehe für weitere Details. q L q R X Z Methoden Das vollständige Fehlerkorrekturprotokoll führt c ≫ 1 Syndrommesszyklen durch und ruft dann einen Decoder auf: einen klassischen Algorithmus, der als Eingabe die gemessenen Syndrome erhält und eine Vermutung über den endgültigen Fehler auf den Datenqubits ausgibt. Die Fehlerkorrektur ist erfolgreich, wenn die vermutete und die tatsächliche Fehler übereinstimmen, modulo eines Produkts von Prüfoperatoren. In diesem Fall haben die beiden Fehler die gleiche Wirkung auf jeden kodierten (logischen) Zustand. Das Anwenden des Inversen des vermuteten Fehlers bringt die Datenqubits somit in den ursprünglichen logischen Zustand zurück. Andernfalls, wenn sich der vermutete und der tatsächliche Fehler um einen nicht-trivialen logischen Operator unterscheiden, schlägt die Fehlerkorrektur fehl, was zu einem logischen Fehler führt. Unsere numerischen Experimente basieren auf dem Glaubensfortschritt (belief propagation) mit einem ordnungsstatistischen Decoder (BP-OSD), der von Panteleev und Kalachev vorgeschlagen wurde . Die ursprüngliche Arbeit beschrieb BP-OSD im Kontext eines Spielzeug-Rauschmodells, das nur Speicherfehler enthielt. Hier zeigen wir, wie BP-OSD auf das schaltkreisbasierte Rauschmodell erweitert wird, siehe die für Details. Unser Ansatz folgt eng den Refs. , , , . N 36 36 ergänzenden Informationen 45 46 47 48 Eine fehlerbehaftete Version des Syndrommesskreises kann mehrere Arten von fehlerhaften Operationen umfassen, wie z. B. Speicherfehler bei ungenutzten Daten- oder Prüfqubits, fehlerhafte CNOT-Gatter, Qubit-Initialisierungen und -Messungen. Wir betrachten das schaltkreisbasierte Rauschmodell , bei dem jede Operation unabhängig mit der 10