```html Autoren: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Abstrakt Quantenfehlerkorrektur bietet einen vielversprechenden Weg für hochgradig genaue Quantenberechnungen. Obwohl vollständig fehlertolerante Ausführungen von Algorithmen noch nicht realisiert sind, ermöglichen aktuelle Verbesserungen bei der Steuerelektronik und der Quantenhardware zunehmend fortschrittliche Demonstrationen der notwendigen Operationen für die Fehlerkorrektur. Hier führen wir eine Quantenfehlerkorrektur an supraleitenden Qubits durch, die in einem Heavy-Hexagon-Gitter verbunden sind. Wir kodieren ein logisches Qubit mit Distanz drei und führen mehrere Runden fehlertoleranter Syndrommessungen durch, die die Korrektur jedes einzelnen Fehlers in der Schaltung ermöglichen. Mittels Echtzeit-Feedback setzen wir Syndrom- und Flag-Qubits nach jedem Syndromextraktionszyklus bedingt zurück. Wir berichten von dekoderabhängigen logischen Fehlern mit einer durchschnittlichen logischen Fehlerrate pro Syndrommessung in der Z(X)-Basis von ~0,040 (~0,088) bzw. ~0,037 (~0,087) für die Matching- und Maximum-Likelihood-Decoder, basierend auf Leakage-Post-Selected-Daten. Einleitung Die Ergebnisse von Quantenberechnungen können aufgrund von Rauschen in der Hardware fehlerhaft sein. Um die daraus resultierenden Fehler zu eliminieren, können Quantenfehlerkorrekturcodes (QEC-Codes) verwendet werden, um die Quanteninformation in geschützte, logische Freiheitsgrade zu kodieren. Durch die Korrektur der Fehler schneller als sie sich ansammeln, ermöglichen sie fehlertolerante (FT) Berechnungen. Eine vollständige Ausführung der QEC wird wahrscheinlich Folgendes erfordern: Vorbereitung von logischen Zuständen; Realisierung eines universellen Satzes logischer Gatter, was die Vorbereitung von Magic States erfordern kann; wiederholte Messungen von Syndromen; und die Dekodierung der Syndrome zur Fehlerkorrektur. Wenn erfolgreich, sollten die resultierenden logischen Fehlerraten geringer sein als die zugrundeliegenden physikalischen Fehlerraten und mit zunehmenden Codewechselabständen bis zu vernachlässigbaren Werten abnehmen. Die Wahl eines QEC-Codes erfordert die Berücksichtigung der zugrundeliegenden Hardware und ihrer Rauscheigenschaften. Für ein Heavy-Hexagon-Gitter von Qubits sind Subsystem-QEC-Codes attraktiv, da sie gut für Qubits mit reduzierten Konnektivitäten geeignet sind. Andere Codes haben sich aufgrund ihres relativ hohen Schwellenwerts für FT oder ihrer großen Anzahl von transversalen logischen Gattern als vielversprechend erwiesen. Obwohl ihr Platz- und Zeitaufwand eine erhebliche Hürde für die Skalierbarkeit darstellen kann, gibt es ermutigende Ansätze, die teuersten Ressourcen durch Nutzung einer Form der Fehlerreduktion zu reduzieren. Bei der Dekodierung hängt die erfolgreiche Korrektur nicht nur von der Leistung der Quantenhardware ab, sondern auch von der Implementierung der Steuerelektronik, die zur Erfassung und Verarbeitung der aus Syndrommessungen gewonnenen klassischen Informationen verwendet wird. In unserem Fall kann die Initialisierung von Syndrom- und Flag-Qubits mittels Echtzeit-Feedback zwischen Messzyklen zur Fehlerreduktion beitragen. Auf der Dekodierungsebene existieren zwar einige Protokolle zur asynchronen Durchführung von QEC im Rahmen eines FT-Formalismus, die Rate, mit der die Fehlersyndrome empfangen werden, sollte jedoch mit ihrer klassischen Verarbeitungszeit übereinstimmen, um einen zunehmenden Rückstand von Syndromdaten zu vermeiden. Außerdem erfordern einige Protokolle, wie die Verwendung eines Magic State für ein logisches T-Gate, die Anwendung von Echtzeit-Feed-Forward. Daher tendiert die langfristige Vision der QEC nicht zu einem einzigen ultimativen Ziel, sondern sollte als ein Kontinuum von tief miteinander verbundenen Aufgaben betrachtet werden. Der experimentelle Weg bei der Entwicklung dieser Technologie wird die erstmalige Demonstration dieser Aufgaben in Isolation und ihre schrittweise Kombination später umfassen, stets bei kontinuierlicher Verbesserung der zugehörigen Metriken. Einige dieser Fortschritte spiegeln sich in zahlreichen jüngsten Fortschritten bei Quantensystemen auf verschiedenen physikalischen Plattformen wider, die mehrere Aspekte der Desiderata für FT-Quantencomputing demonstriert oder angenähert haben. Insbesondere wurde die FT-logische Zustandspräparation bei Ionen, Kernspins in Diamant und supraleitenden Qubits demonstriert. Wiederholte Zyklen der Syndromextraktion wurden in supraleitenden Qubits in kleinen Fehlernachweis-Codes gezeigt, einschließlich partieller Fehlerkorrektur sowie eines universellen (wenn auch nicht FT) Satzes von Ein-Qubit-Gates. Eine FT-Demonstration eines universellen Gatesatzes auf zwei logischen Qubits wurde kürzlich bei Ionen berichtet. Im Bereich der Fehlerkorrektur gab es kürzliche Realisierungen des Distanz-3-Oberflächencodes auf supraleitenden Qubits mit Dekodierung und Postselektion sowie eine FT-Implementierung eines dynamisch geschützten Quantenspeichers unter Verwendung des Farb-Codes und die FT-Zustandspräparation, Operation und Messung, einschließlich seiner Stabilisatoren, eines logischen Zustands im Bacon-Shor-Code bei Ionen. Hier kombinieren wir die Fähigkeit des Echtzeit-Feedbacks auf einem supraleitenden Qubit-System mit einem Maximum-Likelihood-Dekodierungsprotokoll, das bisher experimentell unerforscht ist, um die Überlebensfähigkeit von logischen Zuständen zu verbessern. Wir demonstrieren diese Werkzeuge als Teil der FT-Operation eines Subsystemcodes, des Heavy-Hexagon-Codes, auf einem supraleitenden Quantenprozessor. Wesentlich für die fehlertolerante Implementierung dieses Codes sind Flag-Qubits, die bei einem Nicht-Null-Wert den Dekoder auf Schaltungsfehler aufmerksam machen. Durch bedingtes Zurücksetzen von Flag- und Syndrom-Qubits nach jedem Syndrommesszyklus schützen wir unser System vor Fehlern, die aus der inhärenten Rausch-Asymmetrie der Energieentspannung resultieren. Wir nutzen ferner kürzlich beschriebene Dekodierungsstrategien und erweitern die Dekodierungsideen um Maximum-Likelihood-Konzepte. Ergebnisse Der Heavy-Hexagon-Code und Mehrrunden-Schaltungen Der von uns betrachtete Heavy-Hexagon-Code ist ein n = 9 Qubit-Code, der k = 1 logisches Qubit mit Distanz d = 3 kodiert. Die Z- und X-Gauge- (siehe Abb. 1a) und Stabilisatorgruppen werden erzeugt durch Die Stabilisatorgruppen sind die Zentren der jeweiligen Gauge-Gruppen. Das bedeutet, dass die Stabilisatoren, als Produkte von Gauge-Operatoren, nur aus Messungen der Gauge-Operatoren abgeleitet werden können. Logische Operatoren können als XL = X1X2X3 und ZL = Z1Z3Z7 gewählt werden. Z- (blau) und X- (rot) Gauge-Operatoren (Gleichungen (1) und (2)) abgebildet auf die 23 Qubits, die für den Distanz-3 Heavy-Hexagon-Code benötigt werden. Code-Qubits (Q1–Q9) sind in Gelb dargestellt, Syndrom-Qubits (Q17, Q19, Q20, Q22), die für Z-Stabilisatoren verwendet werden, in Blau, und Flag-Qubits und Syndrome, die für X-Stabilisatoren verwendet werden, in Weiß. Die Reihenfolge und Richtung der CX-Gates innerhalb jedes Unterabschnitts (0 bis 4) sind durch die nummerierten Pfeile gekennzeichnet. Schaltkreisdiagramm einer Syndrommessungsrunde, einschließlich sowohl X- als auch Z-Stabilisatoren. Das Schaltkreisdiagramm veranschaulicht die erlaubte Parallelisierung von Gatteroperationen: die innerhalb der durch Zeitbarrieren (vertikale gestrichelte graue Linien) gesetzten Grenzen. Da die Dauer jedes Zwei-Qubit-Gates unterschiedlich ist, wird die endgültige Gate-Zeitplanung mit einem Standard-Transpilierungslauf im letzten Moment bestimmt; danach wird dynamische Entkopplung zu den Datenqubits hinzugefügt, wo Zeit bleibt. Mess- und Rücksetzoperationen sind von anderen Gatteroperationen durch Barrieren isoliert, um eine gleichmäßige dynamische Entkopplung für ruhende Datenqubits zu ermöglichen. Dekodierungsdiagramme für drei Runden von ( ) Z- und ( ) X-Stabilisatormessungen mit Schaltungsebene-Rauschen ermöglichen die Korrektur von X- bzw. Z-Fehlern. Die blauen und roten Knoten in den Diagrammen entsprechen Differenzsyndromen, während die schwarzen Knoten die Grenze darstellen. Kanten kodieren verschiedene Möglichkeiten, wie Fehler in der Schaltung auftreten können, wie im Text beschrieben. Knoten sind nach der Art der Stabilisatormessung (Z oder X) mit einem Index für den Stabilisator und einem hochgestellten Index für die Runde beschriftet. Schwarze Kanten, die von Pauli-Y-Fehlern auf Code-Qubits herrühren (und daher nur Größe 2 haben), verbinden die beiden Graphen in und , werden aber nicht im Matching-Dekoder verwendet. Die Hyperkanten der Größe 4, die nicht vom Matching verwendet werden, aber im Maximum-Likelihood-Dekoder verwendet werden. Farben dienen nur der Klarheit. Eine zeitliche Verschiebung jeder um eine Runde ergibt ebenfalls eine gültige Hyperkante (mit einigen Variationen an den Zeitgrenzen). Auch nicht gezeigt sind Hyperkanten der Größe 3. a b c d e c d f Hier konzentrieren wir uns auf eine bestimmte FT-Schaltung; viele unserer Techniken können allgemeiner mit verschiedenen Codes und Schaltungen verwendet werden. Zwei Unter-Schaltungen, die in Abb. 1b gezeigt sind, werden konstruiert, um die X- und Z-Gauge-Operatoren zu messen. Die Z-Gauge-Messschaltung sammelt auch nützliche Informationen, indem sie Flag-Qubits misst. Wir bereiten Code-Zustände im logischen |+⟩ (|0⟩) Zustand vor, indem wir zuerst neun Qubits im |+⟩ (|0⟩) Zustand vorbereiten und die X-Gauge (Z-Gauge) messen. Dann führen wir r Runden der Syndrommessung durch, wobei eine Runde eine Z-Gauge-Messung gefolgt von einer X-Gauge-Messung (bzw. X-Gauge gefolgt von Z-Gauge) umfasst. Schließlich lesen wir alle neun Code-Qubits in der Z- (X-) Basis aus. Wir führen dieselben Experimente auch für die anfänglichen logischen Zustände |−⟩ und |i⟩ durch, indem wir einfach die neun Qubits entsprechend in |−⟩ und |i⟩ initialisieren. Dekodierungsalgorithmen Im Kontext des FT-Quantencomputings ist ein Dekoder ein Algorithmus, der als Eingabe Syndrommessungen von einem Fehlerkorrekturcode erhält und eine Korrektur für die Qubits oder Messdaten ausgibt. In diesem Abschnitt beschreiben wir zwei Dekodierungsalgorithmen: Perfect Matching Decoding und Maximum Likelihood Decoding. Der Dekodierungs-Hypergraph ist eine prägnante Beschreibung der von einer FT-Schaltung gesammelten Informationen, die einem Dekodierungsalgorithmus zur Verfügung stehen. Er besteht aus einer Menge von Vertices, oder fehlerempfindlichen Ereignissen, V, und einer Menge von Hyperkanten, E, die die Korrelationen zwischen Ereignissen kodieren, die durch Fehler in der Schaltung verursacht werden. Abbildung 1c–f zeigt Teile des Dekodierungs-Hypergraphen für unser Experiment. Die Konstruktion eines Dekodierungs-Hypergraphen für Stabilisatorschaltungen mit Pauli-Rauschen kann mit Standard-Gottesman-Knill-Simulationen oder ähnlichen Pauli-Tracing-Techniken erfolgen. Zuerst wird für jede Messung, die im fehlerfreien Schaltungsaufbau deterministisch ist, ein fehlerempfindliches Ereignis erstellt. Eine deterministische Messung M ist jede Messung, deren Ergebnis m ∈ {0, 1} durch Addition modulo zwei der Messergebnisse einer Menge von früheren Messungen vorhergesagt werden kann. Das heißt, für eine fehlerfreie Schaltung, , wobei die Menge durch Simulation der Schaltung gefunden werden kann. Der Wert des fehlerempfindlichen Ereignisses wird auf m − FM(mod2) gesetzt, was in Abwesenheit von Fehlern Null ist (auch trivial genannt). Somit impliziert die Beobachtung eines nicht-null (auch nicht-trivial genannt) fehlerempfindlichen Ereignisses, dass die Schaltung mindestens einen Fehler erlitten hat. In unseren Schaltungen sind fehlerempfindliche Ereignisse entweder Flag-Qubit-Messungen oder die Differenz aufeinanderfolgender Messungen desselben Stabilisators (auch Differenzsyndrome genannt). Als nächstes werden Hyperkanten durch Berücksichtigung von Schaltungsfehlern hinzugefügt. Unser Modell enthält eine Fehlwahrscheinlichkeit pC für jede von mehreren Schaltungskomponenten Hier unterscheiden wir die Identitätsoperation id auf Qubits während einer Zeit, in der andere Qubits unitäre Gatter durchlaufen, von der Identitätsoperation idm auf Qubits, wenn andere Messung und Rücksetzung durchlaufen. Wir setzen Qubits nach ihrer Messung zurück, während wir Qubits initialisieren, die im Experiment noch nicht verwendet wurden. Schließlich ist CX das Controlled-Not-Gate, h das Hadamard-Gate und x, y, z sind Pauli-Gates. (Siehe Methoden „IBM_Peekskill und experimentelle Details“ für weitere Details). Numerische Werte für pC sind in Methoden „IBM_Peekskill und experimentelle Details“ aufgeführt. Unser Fehlermodell ist eine zirkuläre depolarisierende Rauschmodellierung. Bei Initialisierungs- und Rücksetzfehlern wird ein Pauli X mit den jeweiligen Wahrscheinlichkeiten pinit und preset nach der idealen Zustandspräparation angewendet. Bei Messfehlern wird ein Pauli X mit einer Wahrscheinlichkeit vor der idealen Messung angewendet. Ein Ein-Qubit-Unitär-Gate (Zwei-Qubit-Gate) C erleidet mit einer Wahrscheinlichkeit pC einen der drei (fünfzehn) Nicht-Identitäts-Ein-Qubit- (Zwei-Qubit-) Pauli-Fehler, die dem idealen Gate folgen. Es gibt eine gleiche Wahrscheinlichkeit für das Auftreten jedes der drei (fünfzehn) Pauli-Fehler. Wenn ein einziger Fehler in der Schaltung auftritt, verursacht er, dass eine Teilmenge der fehlerempfindlichen Ereignisse nicht-trivial wird. Diese Menge fehlerempfindlicher Ereignisse wird zu einer Hyperkante. Die Menge aller Hyperkanten ist E. Zwei verschiedene Fehler können zur gleichen Hyperkante führen, sodass jede Hyperkante als Menge von Fehlern betrachtet werden kann, von denen jeder einzeln die Ereignisse in der Hyperkante nicht-trivial macht. Mit jeder Hyperkante ist eine Wahrscheinlichkeit verbunden, die, in erster Ordnung, die Summe der Wahrscheinlichkeiten von Fehlern in der Menge ist. Ein Fehler kann auch einen Fehler verursachen, der, bis zum Ende der Schaltung propagiert, mit einem oder mehreren der logischen Operatoren des Codes antikommutiert, was eine logische Korrektur erfordert. Wir nehmen der Allgemeinheit halber an, dass der Code k logische Qubits und eine Basis von 2k logischen Operatoren hat, beachten aber, dass k = 1 für den im Experiment verwendeten Heavy-Hexagon-Code gilt. Wir können nachverfolgen, mit welchen logischen Operatoren der Fehler antikommutiert, indem wir einen Vektor aus verwenden. Somit ist jede Hyperkante h auch mit einem dieser Vektoren, dem logischen Label, beschriftet. Beachten Sie, dass, wenn der Code eine Distanz von mindestens drei hat, jede Hyperkante ein eindeutiges logisches Label hat. Schließlich stellen wir fest, dass ein Dekodierungsalgorithmus den Dekodierungs-Hypergraphen auf verschiedene Weise vereinfachen kann. Eine Methode, die wir hier immer anwenden, ist der Prozess des Deflagging. Flag-Messungen von den Qubits 16, 18, 21, 23 werden einfach ignoriert, ohne dass Korrekturen angewendet werden. Wenn Flag 11 nicht-trivial und 12 trivial ist, wenden Sie Z auf 2 an. Wenn 12 nicht-trivial und 11 trivial ist, wenden Sie Z auf Qubit 6 an. Wenn Flag 13 nicht-trivial und 14 trivial ist, wenden Sie Z auf Qubit 4 an. Wenn 14 nicht-trivial und 13 trivial ist, wenden Sie Z auf Qubit 8 an. Siehe Ref. 15 für Details, warum dies für die Fehlertoleranz ausreichend ist. Das bedeutet, dass wir anstatt fehlerempfindliche Ereignisse von den Flag-Qubit-Messungen direkt einzubeziehen, die Daten vorverarbeiten, indem wir die Flag-Informationen verwenden, um virtuelle Pauli-Z-Korrekturen anzuwenden und nachfolgende fehlerempfindliche Ereignisse entsprechend anzupassen. Hyperkanten für den deflagged Hypergraphen können durch Stabilisatorsimulation, die die Z-Korrekturen einbezieht, gefunden werden. Sei r die Anzahl der Runden. Nach dem Deflagging beträgt die Größe der Menge V für Z- (bzw. X-Basis-) Experimente |V| = 6r + 2 (bzw. 6r + 4), aufgrund der Messung von sechs Stabilisatoren pro Runde und zweier (bzw. vier) anfänglicher fehlerempfindlicher Stabilisatoren nach der Zustandspräparation. Die Größe von E ist ähnlich |E| = 60r − 13 (bzw. 60r − 1) für r > 0. Betrachten wir X- und Z-Fehler getrennt, so lässt sich das Problem der Suche nach einer Fehlerkorrektur mit minimalem Gewicht für den Oberflächencode auf die Suche nach einem perfekten Matching mit minimalem Gewicht in einem Graphen reduzieren. Matching-Decoder werden wegen ihrer Praktikabilität und breiten Anwendbarkeit weiter untersucht. In diesem Abschnitt beschreiben wir den Matching-Decoder für unseren Distanz-3-Heavy-Hexagon-Code. Die Dekodierungsdiagramme, eines für die X-Fehler (Abb. 1c) und eines für die Z-Fehler (Abb. 1d), für das Perfect Matching mit minimalem Gewicht sind tatsächlich Teilgraphen des Dekodierungs-Hypergraphen im vorherigen Abschnitt. Konzentrieren wir uns hier auf den Graphen zur Korrektur von X-Fehlern, da der Z-Fehler-Graph analog ist. In diesem Fall behalten wir aus dem Dekodierungs-Hypergraphen die Knoten VZ, die zu (der Differenz aufeinanderfolgenden) Z-Stabilisatormessungen gehören, und Kanten (d.h. Hyperkanten der Größe zwei) zwischen ihnen bei. Zusätzlich wird ein Randknoten b erstellt, und Hyperkanten der Größe eins der Form {v} mit v ∈ VZ werden durch Einfügen von Kanten {v, b} dargestellt. Alle Kanten im X-Fehler-Graphen erben Wahrscheinlichkeiten und logische Labels von ihren entsprechenden Hyperkanten (siehe Tabelle 1 für X- und Z-Fehlerkanten-Daten für ein 2-Runden-Experiment). Ein Perfect Matching Algorithmus nimmt einen Graphen mit gewichteten Kanten und eine Menge von hervorgehobenen Knoten mit gerader Anzahl und gibt eine Menge von Kanten im Graphen zurück, die alle hervorgehobenen Knoten paarweise verbindet und das minimale Gesamtgewicht unter allen solchen Kantensätzen hat. In unserem Fall sind die hervorgehobenen Knoten die nicht-trivialen fehlerempfindlichen Ereignisse (wenn es eine ungerade Anzahl gibt, wird auch der Randknoten hervorgehoben), und die Kantengewichte werden entweder alle auf eins gesetzt (uniforme Methode) oder als gesetzt, wobei pe die Kantenwahrscheinlichkeit ist (analytische Methode). Letztere Wahl bedeutet, dass das Gesamtgewicht eines Kantensatzes gleich der Log-Likelihood dieses Satzes ist, und das Perfect Matching mit minimalem Gewicht versucht, diese Likelihood über die Kanten im Graphen zu maximieren. Gegeben ein Perfect Matching mit minimalem Gewicht, kann man die logischen Labels der Kanten im Matching verwenden, um eine Korrektur des logischen Zustands zu entscheiden. Alternativ ist der X-Fehler- (Z-Fehler-) Graph für den Matching-Decoder so beschaffen, dass jede Kante einem Code-Qubit (oder einem Messfehler) zugeordnet werden kann, sodass das Einbeziehen einer Kante in das Matching eine X- (Z-) Korrektur impliziert, die auf das entsprechende Qubit angewendet werden soll. Maximum Likelihood Decoding (MLD) ist eine optimale, wenn auch nicht skalierbare Methode zur Dekodierung von Quantenfehlerkorrekturcodes. In seiner ursprünglichen Konzeption wurde MLD auf phänomenologische Rauschmodelle angewendet, bei denen Fehler kurz vor der Messung der Syndrome auftreten. Dies ignoriert natürlich den realistischeren Fall, dass Fehler sich durch die Schaltung der Syndrommessung ausbreiten können. Neuerdings wurde MLD erweitert, um Schaltungsrauschen einzubeziehen. Hier beschreiben wir, wie MLD Schaltungsrauschen unter Verwendung des Dekodierungs-Hypergraphen korrigiert. MLD leitet die wahrscheinlichste logische Korrektur ab, gegeben eine Beobachtung der fehlerempfindlichen Ereignisse. Dies geschieht durch Berechnung der Wahrscheinlichkeitsverteilung Pr[β, γ], wobei β fehlerempfindliche Ereignisse und γ eine logische Korrektur darstellt. Wir können Pr[β, γ] berechnen, indem wir jede Hyperkante aus dem Dekodierungs-Hypergraphen, Abb. 1c–f, einbeziehen, beginnend mit der Null-Fehler-Verteilung, d.h. Pr[0|V|, 02k] = 1. Wenn eine Hyperkante h eine Wahrscheinlichkeit ph hat aufzutreten, unabhängig von jeder anderen Hyperkante, fügen wir h ein, indem wir die Aktualisierung durchführen wobei βh einfach eine binäre Vektordarstellung der Hyperkante ist. Diese Aktualisierung sollte einmal für jede Hyperkante in E durchgeführt werden. Sobald Pr[β, γ] berechnet ist, können wir sie verwenden, um die beste logische Korrektur abzuleiten. Wenn β* in einem Durchlauf des Experiments beobachtet wird, zeigt an, wie Messungen der logischen Operatoren korrigiert werden sollten. Weitere Details zu spezifischen Implementierungen von MLD finden Sie in den Methoden „Maximum Likelihood Implementations“. Experimentelle Realisierung Für diese Demonstration verwenden wir ibm_peekskill v2.0.0, einen 27-Qubit-IBM-Quantum-Falcon-Prozessor, dessen Kopplungsplan einen Distanz-3-Heavy-Hexagon-Code ermöglicht, siehe Abb. 1. Die Gesamtzeit für die Qubitmessung und das anschließende bedingte Echtzeit-Zurücksetzen dauert pro Runde 768 ns und ist für alle Qubits gleich. Alle Syndrommessungen und Rücksetzungen erfolgen gleichzeitig zur Leistungssteigerung. Eine einfache Xπ-Xπ dynamische Entkopplungssequenz wird allen Code-Qubits während ihrer jeweiligen Leerlaufperioden hinzugefügt. Qubit-Leckage ist ein wesentlicher Grund dafür, dass das vom Dekoderdesign angenommene Pauli-Depolarizing-Fehlermodell ungenau sein könnte. In einigen Fällen können wir erkennen, ob ein Qubit zum Zeitpunkt seiner Messung den Rechenraum verlassen hat (siehe Methoden „Postselektionsmethode“ für weitere Informationen zur Postselektionsmethode und deren Einschränkungen). Mit dieser Methode können wir auf Läufe des Experiments postselektieren, bei denen keine Leckage erkannt wurde, ähnlich wie in Ref. 18. In Abb. 2a initialisieren wir den logischen Zustand |+⟩ (|0⟩) und wenden r Syndrommessungsrunden an, wobei eine Runde sowohl X- als auch Z-Stabilisatoren (Gesamtzeit von ca. 5,3 μs pro Runde, Abb. 1b) umfasst. Unter Verwendung der analytischen Perfect-Matching-Dekodierung auf dem vollständigen Datensatz (500.000 Schüsse pro Lauf) extrahieren wir die logischen Fehler in Abb. 2a, rote (blaue) Dreiecke. Details zu den optimierten Parametern, die bei der analytischen Perfect-Matching-Dekodierung verwendet werden, finden Sie in den Methoden „IBM_Peekskill und experimentelle Details“. Durch Anpassung der vollständigen Abfallkurven (Gleichung (14)) bis zu 10 Runden extrahieren wir logische Fehler pro Runde ohne Postselektion in Abb. 2b von 0,059(2) (0,058(3)) für |+⟩ (|0⟩) und 0,113(5) (0,107(4)) für |−⟩ (|i⟩). Logischer Fehler gegen die Anzahl der Syndrommessungsrunden r, wobei eine Runde sowohl eine Z- als auch eine X-Stabilisatormessung umfasst. Blaue nach rechts zeigende Dreiecke (rote Dreiecke) kennzeichnen logische Fehler, die aus der Verwendung des analytischen Matching-Dekodierens auf rohen experimentellen Daten für |+⟩ (|0⟩) Zustände gewonnen wurden. Hellblaue Quadrate (hellrote Kreise) kennzeichnen die für |−⟩ (|i⟩) mit derselben Dekodierungsmethode, aber unter Verwendung von Leakage-Post-Selected-experimentellen Daten. Fehlerbalken bezeichnen die Stichprobenfehler jedes Laufs (500.000 Schüsse für Rohdaten, variable Anzahl von Schüssen für Post-Selektierte). Gestrichelte Linien passen die Fehlererträge Fehler pro Runde an, die in dargestellt sind. Anwendung derselben Dekodierungsmethode auf Leakage-Post-Selected-Daten zeigt eine erhebliche Reduzierung des Gesamtfehlers für alle vier logischen Zustände. Siehe Methoden „Postselektionsmethode“ für Details zur Postselektion. Angepasste Zurückweisungsraten pro Runde für |+⟩, |0⟩, |−⟩, |i⟩ sind 4,91 %, 4,64 %, 4,37 % bzw. 4,89 %. Fehlerbalken bezeichnen eine Standardabweichung der angepassten Rate. , Unter Verwendung von Post-Selected-Daten vergleichen wir den logischen Fehler, der mit den vier Dekodern erzielt wurde: Matching Uniform (rosa Kreise), Matching Analytical (grüne Kreise), Matching Analytical mit Soft-Information (graue Kreise) und Maximum Likelihood (blaue Kreise). (Siehe Abb. 6 für |iL⟩ und |−iL⟩). Gestrichelte angepasste Raten sind in , dargestellt. Fehlerbalken bezeichnen Stichprobenfehler. , Vergleich der angepassten Fehler pro Runde für alle vier logischen Zustände unter Verwendung der Decoder Matching Uniform (rosa), Matching Analytical (grün), Matching Analytical mit Soft-Information (grau) und Maximum Likelihood (blau) auf Leakage-Post-Selected-Daten. Fehlerbalken stellen eine Standardabweichung der angepassten Rate dar. a b b c d e f e f Anwendung derselben Dekodierungsmethode auf Leakage-Post-Selected-Daten reduziert die logischen Fehler in Abb. 2a und führt zu angepassten Fehlerraten von 0,041(1) (0,044(4)) für |+⟩ (|0⟩) und 0,088(3) (0,085(3)) für |−⟩ (|i⟩), wie in Abb. 2b gezeigt. Die Zurückweisungsraten pro Runde aus der Postselektion für |+⟩, |0⟩, |−⟩ und |i⟩ betragen 4,91 %, 4,64 %, 4,37 % bzw. 4,89 %. Siehe Methoden „Postselektionsmethode“ für Details. In Abb. 2c–f vergleichen wir den logischen Fehler für jede Runde und den extrahierten logischen Fehler pro Runde, die aus den post-selektierten Datensätzen mit den drei zuvor in Abschnitt „Dekodierungsalgorithmen“ beschriebenen Dekodern erzielt wurden. Wir schließen auch eine Version des analytischen Dekoders ein, der Soft-Information nutzt, die in den Methoden „Soft-Information-Dekodierung“ beschrieben wird. Wir beobachten (siehe Abb. 2e, f) eine konsistente Verbesserung der Dekodierung beim Übergang von Matching Uniform (rosa) zu Matching Analytical (grün) zu Matching Analytical mit Soft-Information zu Maximum Likelihood (grau), obwohl dies für die X-Basis logischen Zustände deutlich weniger signifikant ist. Ein quantitativer Vergleich zwischen den drei Dekodern für alle vier logischen Zustände bei r = 2 Runden ist in den Methoden „Logischer Fehler bei r = 2 Runden“ enthalten. Es gibt mindestens drei Gründe, warum die X-Basis-Zustände schlechter abschneiden als die Z-Basis-Zustände. Der erste ist die natürliche Asymmetrie in den Schaltungen. Die größere Tiefe, die zur Messung von Z-Stabilisatoren erforderlich ist, führt zu mehr Zeit, in der Z-Fehler auf den Datenqubits unentdeckt akkumulieren können. Dies wird durch Simulationen gestützt, wie z. B. in [1], die einen anderen Dekoder verwenden, und hier in den Methoden „Simulationsdetails“, die eine schlechtere Leistung der X-Basis für diesen d = 3 Code aufweisen. Zweitens können Entscheidungen bei der Dekodierung, insbesondere der Deflagging-Schritt, die Asymmetrie verschärfen, indem sie im Wesentlichen Mess- und Rücksetzfehler in Z-Fehler auf den Datenqubits umwandeln. Dies führt zu einer hohen effektiven Z-Fehlerrate, die selbst durch Maximum-Likelihood-Dekodierung nicht wesentlich verbessert werden kann. Im Gegensatz dazu, wenn wir nur die erste Runde der Messungen deflaggen, sinkt der logische Fehler des Maximum-Likelihood-Dekoders bei dem r = 2 Runden, |iL⟩-Experiment um etwa 2,8 % auf 18,02(7) %. Flagged Decoding wie dieses wird bei größeren Rundenanzahlen zeitaufwändig, da das Hinzufügen von Flag-Knoten zum Dekodierungs-Hypergraphen dessen Größe erheblich erhöht. Schließlich sind Dekoder nur so gut wie unser Modell des experimentellen Rauschens. Nicht-depolarisierende Rauschquellen wie ZZ-Fehler von Nebenkanälen, von denen wir wissen, dass sie vorhanden sind, werden von keinem unserer Dekoder modelliert und beeinträchtigen X-Basis-Zustände nachteiliger. Eine genauere Schätzung und Einbeziehung solcher experimentellen Rauschquellen und ihrer Auswirkungen auf die Fehlertoleranz ist ein wichtiges Forschungsgebiet. Diskussion Die in dieser Arbeit vorgestellten Ergebnisse unterstreichen die Bedeutung des gemeinsamen Fortschritts von Quantenhardware, sowohl in Größe als auch Qualität, und klassischer Informationsverarbeitung, sowohl synchron zur Schaltungsausführung als auch asynchron dazu, wie mit den untersuchten Dekodern beschrieben. Unsere Experimente integrieren Mid-Circuit-Messungen und bedingte Operationen als Teil eines QEC-Protokolls. Diese technischen Fähigkeiten dienen als grundlegende Elemente für die weitere Verbesserung der Rolle dynamischer Schaltungen in der QEC, beispielsweise in Richtung Echtzeitkorrektur und anderer Feed-Forward-Operationen, die für groß angelegte FT-Berechnungen entscheidend sein werden. Wir zeigen auch, wie experimentelle Plattformen für QEC dieser Größe und Fähigkeiten neue Ideen für robustere Dekoder hervorbringen können. Unser Vergleich zwischen einem Perfect-Matching- und einem Maximum-Likelihood-Dekoder stellt einen vielversprechenden Ausgangspunkt für das Verständnis des Kompromisses zwischen Dekodierskalierbarkeit und Leistung angesichts experimenteller Rauschquellen dar. Bessere Rauschmodellierung und die Techniken der Vorab-Dekodierung von Fehlern könnten die Leistung und Laufzeit dieser Dekoder verbessern. Alle diese Schlüsselkomponenten werden eine entscheidende Rolle bei größeren Codes spielen, bei denen die Qualität der Echtzeitoperationen (beding