```html Autoren: Sergey Bravyi Andrew W. Cross Jay M. Gambetta Dmitri Maslov Patrick Rall Theodore J. Yoder Abstrakt Die Anhäufung physikalischer Fehler [1, 2, 3] verhindert die Ausführung von groß angelegten Algorithmen in aktuellen Quantencomputern. Die Quantenfehlerkorrektur [4] verspricht eine Lösung, indem sie *k* logische Qubits auf eine größere Anzahl *n* physischer Qubits kodiert, so dass die physikalischen Fehler ausreichend unterdrückt werden, um eine gewünschte Berechnung mit tolerierbarer Genauigkeit durchführen zu können. Quantenfehlerkorrektur wird praktisch realisierbar, sobald die Fehlerrate auf physikalischer Ebene unter einem Schwellenwert liegt, der von der Wahl des Quantencodes, der Syndrommessungsschaltung und des Dekodierungsalgorithmus abhängt [5]. Wir präsentieren ein End-to-End-Quantenfehlerkorrekturprotokoll, das fehlerfreie Speicher auf Basis einer Familie von Low-Density-Parity-Check-Codes (LDPC) implementiert [6]. Unser Ansatz erzielt einen Fehlerschwellenwert von 0,7 % für das Standard-Schaltungsrauschmodell, vergleichbar mit dem Surface Code [7, 8, 9, 10], der 20 Jahre lang der führende Code in Bezug auf den Fehlerschwellenwert war. Der Syndrommessungszyklus für einen Code der Länge *n* in unserer Familie erfordert *n* Ancilla-Qubits und eine Schaltung der Tiefe 8 mit CNOT-Gattern, Qubit-Initialisierungen und Messungen. Die erforderliche Qubit-Konnektivität ist ein Graph vom Grad 6, der aus zwei Kanten-disjunkten planaren Teilgraphen besteht. Insbesondere zeigen wir, dass 12 logische Qubits für fast 1 Million Syndromzyklen unter Verwendung von insgesamt 288 physischen Qubits erhalten bleiben können, vorausgesetzt, die Fehlerrate auf physikalischer Ebene beträgt 0,1 %, während der Surface Code fast 3.000 physische Qubits benötigen würde, um eine solche Leistung zu erzielen. Unsere Ergebnisse bringen Demonstrationen eines fehlerfreien Quantenspeichers mit geringem Overhead in Reichweite von Quantenprozessoren der nahen Zukunft. Hauptteil Quantencomputing hat aufgrund seiner Fähigkeit, asymptotisch schnellere Lösungen für eine Reihe von Berechnungsproblemen im Vergleich zu den besten bekannten klassischen Algorithmen anzubieten, Aufmerksamkeit erregt [5]. Es wird angenommen, dass ein funktionierender skalierbarer Quantencomputer helfen kann, Berechnungsprobleme in Bereichen wie wissenschaftliche Entdeckung, Materialforschung, Chemie und Arzneimittelentwicklung zu lösen, um nur einige zu nennen [11, 12, 13, 14]. Das Haupthindernis beim Bau eines Quantencomputers ist die Fragilität von Quanteninformationen aufgrund verschiedener Rauschquellen, die sie beeinflussen. Da die Isolierung eines Quantencomputers von externen Einflüssen und seine Steuerung zur Induktion einer gewünschten Berechnung im Widerspruch zueinander stehen, scheint Rauschen unvermeidlich. Die Rauschquellen umfassen Unvollkommenheiten in Qubits, verwendeten Materialien, Steuergeräten, Zustandsvorbereitung und Messfehlern sowie eine Vielzahl externer Faktoren, die von lokalen künstlichen, wie streuenden elektromagnetischen Feldern, bis hin zu universellen, wie kosmischen Strahlen, reichen. Siehe Ref. [15] für eine Zusammenfassung. Während einige Rauschquellen mit besserer Kontrolle [16], Materialien [17] und Abschirmung [18, 19, 20] eliminiert werden können, scheinen mehrere andere Quellen schwer, wenn überhaupt, zu entfernen zu sein. Letztere können spontane und stimulierte Emission in gefangenen Ionen [1, 2] und die Wechselwirkung mit dem Bad (Purcell-Effekt) [3] in supraleitenden Schaltungen umfassen – was beide führenden Quantentechnologien abdeckt. Somit wird Fehlerkorrektur zu einer Schlüsselanforderung für den Bau eines funktionierenden skalierbaren Quantencomputers. Die Möglichkeit der Quantenfehlertoleranz ist gut etabliert [4]. Die redundante Kodierung eines logischen Qubits in viele physische Qubits ermöglicht es, Fehler durch wiederholtes Messen von Syndromen von Paritätsprüfoperatoren zu diagnostizieren und zu korrigieren. Allerdings ist die Fehlerkorrektur nur dann vorteilhaft, wenn die Fehlerrate der Hardware unter einem bestimmten Schwellenwert liegt, der von einem bestimmten Fehlerkorrekturprotokoll abhängt. Die ersten Vorschläge für die Quantenfehlerkorrektur, wie z. B. verkettete Codes [21, 22, 23], konzentrierten sich auf den Nachweis der theoretischen Möglichkeit der Fehlersuppression. Mit zunehmendem Verständnis der Quantenfehlerkorrektur und der Fähigkeiten von Quantentechnologien verlagerte sich der Fokus auf die Suche nach praktischen Quantenfehlerkorrekturprotokollen. Dies führte zur Entwicklung des Surface Codes [7, 8, 9, 10], der einen hohen Fehlerschwellenwert nahe 1 % bietet, schnelle Dekodierungsalgorithmen und Kompatibilität mit bestehenden Quantenprozessoren, die auf zweidimensionalen (2D) quadratischen Gitter-Qubit-Konnektivitäten basieren. Kleine Beispiele des Surface Codes mit einem einzigen logischen Qubit wurden bereits experimentell von mehreren Gruppen demonstriert [24, 25, 26, 27, 28]. Die Skalierung des Surface Codes auf 100 oder mehr logische Qubits wäre jedoch aufgrund seiner geringen Kodierungseffizienz prohibitiv teuer. Dies weckte Interesse an allgemeineren Quantencodes, den sogenannten Low-Density-Parity-Check (LDPC) Codes [6]. Jüngste Fortschritte in der LDPC-Code-Studie deuten darauf hin, dass sie Quantenfehlertoleranz mit einer wesentlich höheren Kodierungseffizienz erreichen können [29]. Hier konzentrieren wir uns auf die Untersuchung von LDPC-Codes, da unser Ziel darin besteht, Quantenfehlerkorrekturcodes und -protokolle zu finden, die sowohl effizient als auch praktisch demonstrierbar sind, angesichts der Einschränkungen von Quantencomputertechnologien. Ein Quantenfehlerkorrekturcode ist vom LDPC-Typ, wenn jeder Prüfoperator des Codes nur wenige Qubits beeinflusst und jedes Qubit nur an wenigen Prüfungen beteiligt ist. Mehrere Varianten von LDPC-Codes wurden kürzlich vorgeschlagen, darunter hyperbolische Oberflächencodes [30, 31, 32], Hypergraphenprodukte [33], balancierte Produktcodes [34], Zwei-Block-Codes basierend auf endlichen Gruppen [35, 36, 37, 38] und Quanten-Tanner-Codes [39, 40]. Letztere erwiesen sich als asymptotisch "gut" im Sinne eines konstanten Kodierungsrates und einer linearen Distanz: einem Parameter, der die Anzahl der korrigierbaren Fehler quantifiziert. Im Gegensatz dazu hat der Surface Code eine asymptotisch null Kodierungsrate und nur eine Distanz proportional zur Quadratwurzel. Der Ersatz des Surface Codes durch einen LDPC-Code mit hoher Rate und hoher Distanz könnte erhebliche praktische Auswirkungen haben. Erstens könnte der Overhead für Fehlertoleranz (das Verhältnis zwischen der Anzahl physischer und logischer Qubits) erheblich reduziert werden. Zweitens zeigen Codes mit hoher Distanz eine sehr scharfe Abnahme der logischen Fehlerrate: Wenn die Fehlerrate auf physikalischer Ebene den Schwellenwert überschreitet, kann die vom Code erreichte Fehlerunterdrückung um Größenordnungen zunehmen, selbst bei einer geringen Reduzierung der physikalischen Fehlerrate. Diese Eigenschaft macht LDPC-Codes mit hoher Distanz attraktiv für Demonstrationen der nahen Zukunft, die wahrscheinlich im Bereich nahe dem Schwellenwert operieren werden. Es wurde jedoch bisher angenommen, dass die Überbietung des Surface Codes für realistische Rauschmodelle, einschließlich Speicher-, Gatter- und Zustandsvorbereitungs- und Messfehlern, sehr große LDPC-Codes mit mehr als 10.000 physischen Qubits erfordern könnte [31]. Hier präsentieren wir mehrere konkrete Beispiele für LDPC-Codes mit hoher Rate und einigen hundert physischen Qubits, die mit einer flachen Syndrommessungsschaltung, einem effizienten Dekodierungsalgorithmus und einem fehlerfreien Protokoll zur Adressierung einzelner logischer Qubits ausgestattet sind. Diese Codes zeigen einen Fehlerschwellenwert nahe 0,7 %, eine ausgezeichnete Leistung im Bereich nahe dem Schwellenwert und bieten eine 10-fache Reduzierung des Kodierungs-Overheads im Vergleich zum Surface Code. Die Hardwareanforderungen für die Realisierung unserer Fehlerkorrekturprotokolle sind relativ gering, da jedes physische Qubit über Zweiqubit-Gatter mit nur sechs anderen Qubits gekoppelt ist. Obwohl der Qubit-Konnektivitätsgraph nicht lokal in ein 2D-Gitter eingebettet werden kann, kann er in zwei planare Teilgraphen vom Grad 3 zerlegt werden. Wie wir im Folgenden argumentieren, eignet sich eine solche Qubit-Konnektivität gut für Architekturen, die auf supraleitenden Qubits basieren. Unsere Codes sind eine Verallgemeinerung der von MacKay et al. vorgeschlagenen und in Refs. [35, 36, 42] eingehender untersuchten Bicycle Codes. Wir nannten unsere Codes bivariate Bicycle (BB), da sie auf bivariaten Polynomen basieren, wie im Abschnitt Methoden detailliert beschrieben. Dies sind Stabilisatorcodes vom Typ Calderbank–Shor–Steane (CSS) [43, 44], die durch eine Sammlung von sechs Qubit-Prüfoperatoren (Stabilisatoren) aus Pauli-X und Z beschrieben werden können. Auf einer hohen Ebene ähnelt ein BB-Code dem zweidimensionalen Toric Code [7]. Insbesondere können die physischen Qubits eines BB-Codes auf einem zweidimensionalen Gitter mit periodischen Randbedingungen angeordnet werden, so dass alle Prüfoperatoren aus einem einzigen Paar von X- und Z-Prüfungen durch horizontale und vertikale Verschiebungen des Gitters erhalten werden. Im Gegensatz zu den Plaquette- und Vertex-Stabilisatoren, die den Toric Code beschreiben, sind die Prüfoperatoren von BB-Codes jedoch nicht geometrisch lokal. Darüber hinaus wirkt jeder Prüfoperator auf sechs Qubits anstatt auf vier. Wir werden den Code durch einen Tanner-Graphen *G* beschreiben, so dass jeder Knoten von *G* entweder ein Datenqubit oder ein Prüfoperator ist. Ein Prüfknoten *i* und ein Datenknoten *j* sind durch eine Kante verbunden, wenn der *i*-te Prüfoperator nicht-trivial auf den *j*-ten Datenqubit wirkt (durch Anwendung von Pauli X oder Z). Siehe Abb. 1a, b für Beispiel-Tanner-Graphen von Oberflächen- und BB-Codes. Der Tanner-Graph jedes BB-Codes hat den Knotengrad sechs und eine Graph-Dicke [29] von zwei, was bedeutet, dass er in zwei Kanten-disjunkte planare Teilgraphen zerlegt werden kann (Methoden). Die Dicke-2-Qubit-Konnektivität eignet sich gut für supraleitende Qubits, die durch Mikrowellenresonatoren gekoppelt sind. Zum Beispiel können zwei planare Kupplerschichten und ihre Steuerleitungen an die Ober- und Unterseite des Qubits beherbergenden Chips angebracht und die beiden Seiten miteinander verbunden werden. , Tanner-Graph eines Surface Codes zum Vergleich. , Tanner-Graph eines BB-Codes mit den Parametern [[144, 12, 12]], eingebettet in einen Torus. Jede Kante des Tanner-Graphen verbindet einen Daten- und einen Prüfknoten. Datenqubits, die den Registern *q*(L) und *q*(R) zugeordnet sind, sind durch blaue und orange Kreise dargestellt. Jeder Knoten hat sechs angrenzende Kanten, darunter vier kurzreichweitige Kanten (nach Norden, Süden, Osten und Westen zeigend) und zwei weitreichende Kanten. Wir zeigen nur wenige weitreichende Kanten, um Unübersichtlichkeit zu vermeiden. Gestrichelte und durchgezogene Kanten deuten auf zwei planare Teilgraphen hin, die den Tanner-Graphen überspannen, siehe Methoden. , Skizze einer Tanner-Graph-Erweiterung zur Messung von X und Z gemäß Ref. [50], die an einen Surface Code angehängt wird. Die Ancilla, die der X-Messung entspricht, kann an einen Surface Code angeschlossen werden, was durch Quantenteleportation und einige logische Unitaries Lade-Speicher-Operationen für alle logischen Qubits ermöglicht. Dieser erweiterte Tanner-Graph hat auch eine Implementierung in einer Dicke-2-Architektur durch die Kanten A und B (Methoden). a b c Ein BB-Code mit den Parametern [[*n*, *k*, *d*]] kodiert *k* logische Qubits in *n* Datenqubits und bietet eine Codendistanz *d*, was bedeutet, dass jeder logische Fehler mindestens *d* Datenqubits überspannt. Wir teilen *n* Datenqubits in die Register *q*(L) und *q*(R) von jeweils *n*/2 auf. Jede Prüfung wirkt auf drei Qubits aus *q*(L) und drei Qubits aus *q*(R). Der Code verwendet *n* Ancilla-Prüfqubits zur Messung des Fehlersyndroms. Wir teilen *n* Prüfqubits in die Register *q*(X) und *q*(Z) von jeweils *n*/2 auf, die Syndrome von X- und Z-Typen sammeln. Insgesamt basiert die Kodierung auf 2*n* physischen Qubits. Die Nettokodierungsrate ist daher *r* = *k*/(2*n*). Zum Beispiel kodiert die Standard-Surface-Code-Architektur *k* = 1 logisches Qubit in *n* = *d* Datenqubits für einen Code mit Distanz *d* und verwendet *n* - 1 Prüfqubits für Syndrommessungen. Die Nettokodierungsrate ist *r* ≈ 1/(2*d* ), was schnell unpraktisch wird, da man gezwungen ist, eine große Codendistanz zu wählen, z. B. weil die physikalischen Fehler nahe dem Schwellenwert liegen. Im Gegensatz dazu haben BB-Codes eine Kodierungsrate *r* ≫ 1/*d* , siehe Tabelle 1 für Codebeispiele. Soweit wir wissen, sind alle in Tabelle 1 gezeigten Codes neu. Der Code [[144, 12, 12]] mit Distanz 12 ist möglicherweise der vielversprechendste für Demonstrationen der nahen Zukunft, da er große Distanz und hohe Nettokodierungsrate *r* = 1/24 kombiniert. Zum Vergleich hat der Surface Code mit Distanz 11 eine Nettokodierungsrate *r* = 1/241. Im Folgenden zeigen wir, dass der BB-Code mit Distanz 12 den Surface Code mit Distanz 11 für den experimentell relevanten Bereich der Fehlerraten übertrifft. 2 2 2 Um die Ansammlung von Fehlern zu verhindern, muss das Fehlersyndrom häufig genug gemessen werden können. Dies wird durch eine Syndrommessungsschaltung erreicht, die Datenqubits im Träger jedes Prüfoperators mit dem entsprechenden Ancilla-Qubit durch eine Reihe von CNOT-Gattern koppelt. Die Prüfqubits werden dann gemessen, was den Wert des Fehlersyndroms offenbart. Die Zeit, die zur Implementierung der Syndrommessungsschaltung benötigt wird, ist proportional zu ihrer Tiefe: der Anzahl der Gatterebenen, die aus nicht überlappenden CNOTs bestehen. Da neue Fehler auftreten, während die Syndrommessungsschaltung ausgeführt wird, sollte ihre Tiefe minimiert werden. Der vollständige Zyklus der Syndrommessung für einen BB-Code ist in Abb. 2 dargestellt. Der Syndromzyklus erfordert nur sieben CNOT-Ebenen, unabhängig von der Code-Länge. Die Prüfqubits werden zu Beginn und am Ende des Syndromzyklus initialisiert und gemessen (siehe Methoden für Details). Die Schaltung respektiert die zyklische Verschiebungs-Symmetrie des zugrunde liegenden Codes. Vollständiger Zyklus von Syndrommessungen, der auf sieben CNOT-Ebenen beruht. Wir geben eine lokale Ansicht der Schaltung an, die nur ein Datenqubit aus jedem Register *q*(L) und *q*(R) enthält. Die Schaltung ist symmetrisch unter horizontalen und vertikalen Verschiebungen des Tanner-Graphen. Jedes Datenqubit ist über CNOTs mit drei X-Prüf- und drei Z-Prüfqubits gekoppelt: siehe Methoden für weitere Details. Das vollständige Fehlerkorrekturprotokoll führt *N* ≫ 1 Syndrommessungszyklen durch und ruft dann einen Decoder auf: einen klassischen Algorithmus, der die gemessenen Syndrome als Eingabe erhält und eine Schätzung des endgültigen Fehlers auf den Datenqubits ausgibt. Die Fehlerkorrektur gelingt, wenn die geschätzten und die tatsächlichen Fehler modulo eines Produkts von Prüfoperatoren übereinstimmen. In diesem Fall haben die beiden Fehler die gleiche Wirkung auf jeden kodierten (logischen) Zustand. Somit gibt das Anwenden der Umkehrung des geschätzten Fehlers die Datenqubits zum ursprünglichen logischen Zustand zurück. Andernfalls, wenn der geschätzte und der tatsächliche Fehler um einen nicht-trivialen logischen Operator abweichen, schlägt die Fehlerkorrektur fehl und führt zu einem logischen Fehler. Unsere numerischen Experimente basieren auf der Glaubwürdigkeitsausbreitung mit einem statistisch geordneten Decoder (BP-OSD), der von Panteleev und Kalachev vorgeschlagen wurde [36]. Die ursprüngliche Arbeit [36] beschrieb BP-OSD im Kontext eines Spielzeugrauschmodells nur mit Speicherfehlern. Hier zeigen wir, wie BP-OSD auf das schaltungsbasierte Rauschmodell erweitert werden kann, siehe die ergänzenden Informationen für Details. Unser Ansatz folgt eng den Refs. [45, 46, 47, 48]. c Eine verrauschte Version der Syndrommessungsschaltung kann mehrere Arten von fehlerhaften Operationen umfassen, wie z. B. Speicherfehler auf ruhenden Daten- oder Prüfqubits, fehlerhafte CNOT-Gatter, Qubit-Initialisierungen und Messungen. Wir betrachten das schaltungsbasierte Rauschmodell [10], bei dem jede Operation unabhängig mit der Wahrscheinlichkeit *p* fehlschlägt. Die Wahrscheinlichkeit eines logischen Fehlers *p* hängt von der Fehlerrate *p*, den Details der Syndrommessungsschaltungen und dem Dekodierungsalgorithmus ab. Sei *P* (*N* ) die Wahrscheinlichkeit logischer Fehler nach Durchführung von *N* Syndromzyklen. Definieren Sie die logische Fehlerrate als *p* = *P* (*N* )/*N* . Informell kann *p* als die logische Fehlerrate pro Syndromzyklus betrachtet werden. Gemäß der gängigen Praxis wählen wir *N* = *d* für einen Code mit Distanz *d*. Abbildung 3 zeigt die logische Fehlerrate, die von Codes aus Tabelle 1 erreicht wird. Die logische Fehlerrate wurde numerisch für *p* ≥ 10 berechnet und mit einer Anpassungsformel auf niedrigere Fehlerraten extrapoliert (Methoden). Der Pseudo-Schwellenwert *p* ist definiert als Lösung der Break-Even-Gleichung *p* (*p*) = *k* *p*. Hier ist *k* *p* eine Schätzung der Wahrscheinlichkeit, dass mindestens ein von *k* unkodierten Qubits einen Fehler erleidet. BB-Codes bieten einen Pseudo-Schwellenwert nahe 0,7 %, siehe Tabelle 1, der fast dem Fehlerschwellenwert des Surface Codes [49] entspricht und den Schwellenwert aller uns bekannten hochratigen LDPC-Codes übertrifft. L L c c L L c c L c -3 0 L , Logarithmische im Vergleich zu physikalischer Fehlerrate für kleine Beispiele von BB LDPC-Codes. Eine numerische Schätzung von *p* (Diamanten) wurde durch Simulation von *d* Syndromzyklen für einen Code der Distanz *d* erzielt. Die meisten Datenpunkte haben Fehlerbalken, die aufgrund von Stichprobenfehlern etwa *p* /10 betragen. , Vergleich zwischen dem BB LDPC-Code [[144, 12, 12]] und Surface Codes mit 12 logischen Qubits und Distanz *d* ∈ {9, 11, 13, 15}. Der Surface Code der Distanz *d* mit 12 logischen Qubits hat die Länge *n* = 12*d* , da jedes logische Qubit in ein separates *d* × *d*-Feld des Surface Code-Gitters kodiert wird. a L L b 2 Angenommen, die physikalische Fehlerrate beträgt *p* = 10 , was ein realistisches Ziel für Demonstrationen der nahen Zukunft ist. Die Kodierung von 12 logischen Qubits mit dem Code der Distanz 12 aus Tabelle 1 würde die logische Fehlerrate 2 × 10 ergeben, was ausreicht, um 12 logische Qubits für fast 1 Million Syndromzyklen zu erhalten. Die Gesamtzahl der für diese Kodierung erforderlichen physischen Qubits beträgt 288. Der Code der Distanz 18 aus Tabelle 1 würde 576 physische Qubits erfordern, während die Unterdrückung der Fehlerrate von 10 auf 2 × 10 fast hundert Milliarden Syndromzyklen ermöglicht. Zum Vergleich würde die Kodierung von 12 logischen Qubits in separate Felder des Surface Codes mehr als 3.000 physische Qubits erfordern, um die Fehlerrate von 10 auf 10 zu unterdrücken (Abb. 3). In diesem Beispiel bietet der BB-Code der Distanz 12 eine 10-fache Einsparung an physischen Qubits im Vergleich zum Surface Code. -3 -7 -3 -12 -3 -7 Ein Vorschlag zur Quantenfehlerkorrektur ist nur dann nützlich, wenn die logischen Qubits zugänglich sind. Glücklicherweise besitzen BB LDPC-Codes die erforderlichen Merkmale, um als logischer Speicher zu fungieren. Wie in Abb. 1c gezeigt, ermöglichen Erweiterungen des Tanner-Graphen, die Techniken von Cohen et al. [50] nutzen, fehlerfreie Messoperationen, die einen zusätzlichen Oberflächencode beinhalten. Diese Messungen ermöglichen fehlerfreie Lade-Speicher-Operationen. Siehe die ergänzenden Informationen für Details. Unsere Arbeit hebt wichtige Hardware-Herausforderungen hervor, um die neuen Codes mit supraleitenden Qubits zu ermöglichen: (1) die Entwicklung einer verlustarmen zweiten Schicht in der Dicke-2-Architektur; (2) die Entwicklung von Qubits, die mit sieben Verbindungen (sechs Busse und eine Steuerleitung) gekoppelt werden können; und (3) die Entwicklung von Langstreckenkupplern. Dies sind alles schwierig zu lösende, aber nicht unmögliche Probleme. Für die erste Herausforderung können wir uns eine kleine Änderung der Verpackung [51] vorstellen, die für den IBM Quantum Eagle Prozessor entwickelt wurde [52]. Die einfachste wäre, die zusätzlichen Busse auf der gegenüberliegenden Seite des Qubit-Chips zu platzieren. Dies würde die Entwicklung von hoch-Q-Substrat-Vias erfordern, die Teil der Kopplungsbusse wären und daher intensive Mikrowellensimulationen erfordern, um sicherzustellen, dass diese Substrat-Vias Mikrowellenfortpflanzung unterstützen können, ohne große unerwünschte Übersprechungen einzuführen. Die zweite Herausforderung ist eine Erweiterung der Anzahl der Kuppler von der Heavy-Hex-Gitteranordnung [53] auf sieben (drei Kuppler und eine Steuerung). Die Auswirkung davon ist, dass das Cross-Resonance-Gatter, das in den letzten Jahren das Kernstück großer Quantensysteme war, nicht der Weg nach vorn sein wird. Qubits in Cross-Resonance-Gattern sind nicht abstimmbar und daher wird für ein großes Gerät mit vielen Verbindungen die Wahrscheinlichkeit von Energie kollisionen (nicht nur die Qubit-Niveaus, sondern auch höhere Niveaus des Transmons) sehr schnell eins [54]. Mit dem abstimmbaren Kuppler [55, 56], der in IBM Quantum Egret und jetzt für IBM Quantum Heron entwickelt wird, existiert dieses Problem nicht mehr, da die Frequenzen der Qubits so konzipiert werden können, dass sie weiter auseinander liegen. Dieses neue Gatter ist auch den von Google Quantum AI verwendeten Gattern [57] ähnlich, die gezeigt haben, dass eine quadratische Gitteranordnung möglich ist. Die Erweiterung der Kopplungskarte auf sieben Verbindungen erfordert eine bemerkenswerte Mikrowellenmodellierung; typische Transmons haben jedoch eine Kapazität von etwa 60 fF und jedes Gatter etwa 5 fF, um die entsprechenden Kopplungsstärken zu den Bussen zu erreichen, sodass es grundsätzlich möglich ist, diese Kopplungskarte zu entwickeln, ohne die langen Kohärenzzeiten und die Stabilität von Transmon-Qubits zu verändern. Die letzte Herausforderung ist die schwierigste. Für die Busse, die kurz genug sind, um den Grundmodus zu nutzen, gilt das Standardmodell der Circuit Quantum Electrodynamics. Um jedoch den 144-Qubit-Code zu demonstrieren, werden einige der Busse lang genug sein, dass wir Frequenz-Engineering benötigen. Ein Weg, dies zu erreichen, sind Filterresonatoren, und ein Proof-of-Principle-Experiment wurde in Ref. [58] demonstriert. Zusammenfassend bieten wir eine neue Perspektive, wie ein fehlerfreier Quantenspeicher mit Quantenprozessoren der nahen Zukunft mit geringem Qubit-Overhead realisiert werden könnte. Obwohl diese LDPC-Codes nicht geometrisch lokal sind, wird die für die Syndrommessungen erforderliche Qubit-Konnektivität durch einen Dicke-2-Graphen beschrieben, der mit zwei planaren Grad-3-Schichten von Qubit-Kupplern implementiert werden kann. Dies ist eine gültige Architekturlösung für Plattformen, die auf supraleitenden Qubits basieren. Numerische Simulationen für das schaltungsbasierte Rauschmodell zeigen, dass die vorgeschlagenen LDPC-Codes im praktisch relevanten Bereich der Fehlerraten *p* ≥ 0,1 % gut mit dem Surface Code vergleichbar sind und das gleiche Maß an Fehlerunterdrückung bei einer 10-fachen Reduzierung des Qubit-Overheads bieten. Es bleibt jedoch unklar, ob unsere Codebeispiele skaliert werden können, während die hohe Kodierungsrate im Grenzfall großer Codlänge beibehalten wird. Methoden Code-Konstruktion Wir beginnen mit einer formalen Definition von BB-Codes. Sei *I* die Identitätsmatrix und *S* die zyklische Verschiebungsmatrix der Größe ℓ × ℓ. Die *i*-te Zeile von *S* hat einen einzigen Nicht-Null-Eintrag gleich eins an der Spalte ℓ - *i* + 1. Zum Beispiel, ℓ ℓ ℓ Betrachten Sie die Matrizen Beachten Sie, dass *xy* = *yx*, *x* *x* = *y* *y* = *I* , und *x* = *y* = *I* . Ein BB-Code wird durch ein Paar von Matrizen definiert T T ℓm ℓ m ℓm wobei jede Matrix *A* und *B* eine Potenz von *x* oder *y* ist. Hier und im Folgenden werden die Addition und Multiplikation von binären Matrizen modulo zwei durchgeführt, sofern nicht anders angegeben. Somit nehmen wir auch an, dass die *A* verschieden sind und die *B* verschieden sind, um Termkollisionen zu vermeiden. Zum Beispiel könnte man *A* = *x* + *y* + *y* und *B* = *y* + *x* + *x* wählen. Beachten Sie, dass *A* und *B* genau drei Nicht-Null-Einträge in jeder Zeile und jeder Spalte haben. Darüber hinaus gilt *AB* = *BA*, da *xy* = *yx*. Die obige Daten definieren einen BB-Quantencode QC(*A*, *B*) mit Länge *n* = 2ℓm und Prüfmatrizen i j i j 3 2 3 2 Hier bezeichnet der vertikale Strich das horizontale Stapeln von Matrizen und *T* steht für die Matrixtransposition. Sowohl die Matrizen *H* als auch *H* haben die Größe (n/2) × n. Jede Zeile *i* von *H* definiert einen X-Typ-Prüfoperator $\sum_{j=1}^{n} H_{X,ij}X_j$. Jede Zeile *i* von *H* definiert einen Z-Typ-Prüfoperator $\sum_{j=1}^{n} H_{Z,ij}Z_j$. Alle X- und Z-Prüfungen kommutieren, da sie sich auf eine gerade Anzahl von Qubits überlappen (beachten Sie, dass $\sum_{j} H_{X,ij} H_{Z,kj}$ immer gerade ist). Nach Konstruktion hat der Code QC(*A*, *B*) Prüfoperatoren vom Gewicht 6 und jedes Qubit ist an sechs Prüfungen beteiligt (drei X-Typen plus drei Z-Typen). Dementsprechend hat der Code QC(*A*, *B*) einen Tanner-Graphen vom Grad 6. Man kann die Matrizen *A* und *B* als bivariate Polynome über den Variablen *x* und *y* betrachten. Die Spezialisierung von BB-Codes auf den Fall *m* = 1 und *B* = *A* ergibt die ursprünglichen Bicycle-Codes [41], die auf univariaten Polynomen basieren. Ebenso sind BB-Codes eine Spezialisierung der generalisierten Bicycle-Codes [35], Zwei-Block-Gruppen-basierten Codes [37, 42] und Polynom-basierten Codes [59]. Gegeben eine binäre Matrix *M*, sei N(*M*) ihr Nullraum, aufgespannt von allen binären Vektoren **v**, so dass **v** *M* = 0. Sei rs(*M*) der Zeilenraum von *M*, aufgespannt von den Zeilen von *M*. X Z X Z T Lemma 1 Der Code QC(*A*, *B*) hat die Parameter [[*n*, *k*, *d*]], wobei Der Code bietet gleiche Distanz für X-Typ- und Z-Typ-Fehler. Der Beweis,