Autores: Sergey Bravyi Andrew W. Cross Jay M. Gambetta Dmitri Maslov Patrick Rall Theodore J. Yoder Resumo A acumulación de erros físicos impide a execución de algoritmos a gran escala en computadores cuánticos actuais. A corrección de erros cuánticos promete unha solución codificando *k* qubits lóxicos nun número maior *n* de qubits físicos, de tal xeito que os erros físicos se suprimen o suficiente como para permitir a execución dunha computación desexada con fidelidade tolerable. A corrección de erros cuánticos realízase prácticamente unha vez que a taxa de erros físicos está por debaixo dun valor limiar que depende da elección do código cuántico, do circuíto de medición de síndromes e do algoritmo de descodificación. Presentamos un protocolo de corrección de erros cuánticos de extremo a extremo que implementa memoria tolerante a fallos sobre a base dunha familia de códigos de paridade de baixa densidade (LDPC). O noso enfoque acada un limiar de erro do 0,7 % para o modelo de ruído estándar baseado en circuítos, á par co código de superficie, que durante 20 anos foi o código principal en termos de limiar de erro. O ciclo de medición de síndromes para un código de lonxitude *n* da nosa familia require *n* qubits auxiliares e un circuíto de profundidade 8 con portas CNOT, inicializacións de qubits e medicións. A conectividade de qubits requirida é un grafo de grao 6 composto por dous subgrafos planares disxuntos. En particular, mostramos que 12 qubits lóxicos poden conservarse durante case 1 millón de ciclos de síndromes utilizando 288 qubits físicos en total, asumindo unha taxa de erro físico do 0,1 %, mentres que o código de superficie requiriría case 3.000 qubits físicos para acadar dita rendemento. Os nosos resultados achegan demostracións dunha memoria cuántica tolerante a fallos de baixa sobrecarga ao alcance de procesadores cuánticos a curto prazo. Principal A computación cuántica atraeu atención pola súa capacidade de ofrecer solucións asintoticamente máis rápidas a un conxunto de problemas computacionais en comparación cos mellores algoritmos clásicos coñecidos. Cólle que un computador cuántico escalable funcional pode axudar a resolver problemas computacionais en áreas como o descubrimento científico, a investigación de materiais, a química e o deseño de fármacos, entre outros. O principal obstáculo para construír un computador cuántico é a fragilidade da información cuántica, debido a diversas fontes de ruído que a afectan. Xa que o illamento dun computador cuántico de efectos externos e o seu control para inducir unha computación desexada entran en conflito entre si, o ruído parece inevitable. As fontes de ruído inclúen: a súa fragilidade da información cuántica, debido a varias fontes de ruído que a afectan. Xa que o illamento dun computador cuántico de efectos externos e o seu control para inducir unha computación desexada entran en conflito entre si, o ruído parece inevitable. As fontes de ruído inclúen as imperfeccións nos qubits, os materiais utilizados, o aparello de control, os erros de preparación de estado e medición, e unha variedade de factores externos que van dende os artificiais locais, como campos electromagnéticos dispersos, ata os inherentes ao Universo, como os raios cósmicos. Véxase ref. para un resumo. Mentres que algunhas fontes de ruído poden eliminarse cun mellor control, materiais e apantallamento, varias outras fontes parecen difíciles, cando non imposibles, de eliminar. A última especie pode incluír a emisión espontánea e estimulada en ións atrapados, e a interacción co baño (efecto Purcell) en circuítos superconductores, cubrindo ambas as tecnoloxías cuánticas líderes. Polo tanto, a corrección de erros convértese nun requisito clave para construír un computador cuántico escalable funcional. A posibilidade de tolerancia a fallos cuánticos está ben establecida. A codificación dun qubit lóxico de forma redundante en moitos qubits físicos permite diagnosticar e corrixir erros mediante a medición repetida de síndromes de operadores de verificación de paridade. Non obstante, a corrección de erros só é beneficiosa se a taxa de erros do hardware está por baixo dun certo valor limiar que depende dun protocolo de corrección de erros particular. As primeiras propostas de corrección de erros cuánticos, como os códigos concatenados, centráronse en demostrar a posibilidade teórica de supresión de erros. A medida que o coñecemento da corrección de erros cuánticos e as capacidades das tecnoloxías cuánticas maduraron, o foco cambiou a atopar protocolos prácticos de corrección de erros cuánticos. Isto resultou no desenvolvemento do código de superficie, que ofrece un alto limiar de erro próximo ao 1 %, algoritmos de descodificación rápidos e compatibilidade cos procesadores cuánticos existentes que confían na conectividade de qubits en rede cadrada bidimensional (2D). Xa se demostraron experimentalmente pequenos exemplos do código de superficie cun único qubit lóxico por varios grupos. Non obstante, escalar o código de superficie a 100 ou máis qubits lóxicos sería prohibitivamente caro debido á súa pobre eficiencia de codificación. Isto xerou interese en códigos cuánticos máis xerais coñecidos como códigos de paridade de baixa densidade (LDPC). O progreso recente no estudo dos códigos LDPC suxire que poden acadar tolerancia a fallos cuánticos cunha eficiencia de codificación moito maior. Aquí, centrámonos no estudo dos códigos LDPC, xa que o noso obxectivo é atopar códigos e protocolos de corrección de erros cuánticos que sexan eficientes e posibles de demostrar na práctica, dadas as limitacións das tecnoloxías de computación cuántica. Un código de corrección de erros cuánticos é de tipo LDPC se cada operador de verificación do código actúa só sobre uns poucos qubits e cada qubit participa en moi poucos verificadores. Propoñéronse recentemente varias variantes dos códigos LDPC, incluíndo códigos de superficie hiperbólica, produto de hipergrafos, códigos de produto balanceado, códigos de dobre bloque baseados en grupos finitos e códigos de Tanner cuánticos. Estes últimos demostrouse que son asintoticamente "bons" no sentido de ofrecer unha taxa de codificación constante e unha distancia lineal: un parámetro que cuantifica o número de erros correxibles. En contraste, o código de superficie ten unha taxa de codificación asintoticamente cero e só unha distancia de raíz cadrada. Substituír o código de superficie por un código LDPC de alta taxa e alta distancia podería ter implicacións prácticas importantes. En primeiro lugar, a sobrecarga de tolerancia a fallos (a relación entre o número de qubits físicos e lóxicos) podería reducirse notablemente. En segundo lugar, os códigos de alta distancia mostran unha diminución moi pronunciada na taxa de erros lóxicos: cando a probabilidade de erro físico cruza o valor limiar, a cantidade de supresión de erros acadada polo código pode aumentar en ordes de magnitude incluso cunha pequena redución da taxa de erros físicos. Esta característica fai que os códigos LDPC de alta distancia sexan atractivos para demostracións a curto prazo que probablemente operen no réxime próximo ao limiar. Non obstante, críase anteriormente que superar o código de superficie para modelos de ruído realistas, incluídos erros de memoria, porta e preparación de estado e medición, podería requirir códigos LDPC moi grandes con máis de 10.000 qubits físicos. Aquí presentamos varios exemplos concretos de códigos LDPC de alta taxa con uns poucos centos de qubits físicos equipados cun circuíto de medición de síndromes de baixa profundidade, un algoritmo de descodificación eficiente e un protocolo tolerante a fallos para abordar qubits lóxicos individuais. Estes códigos mostran un limiar de erro próximo ao 0,7 %, presentan un excelente rendemento no réxime próximo ao limiar e ofrecen unha redución de 10 veces na sobrecarga de codificación en comparación co código de superficie. Os requisitos de hardware para implementar os nosos protocolos de corrección de erros son relativamente modestos, xa que cada qubit físico está acoplado por portas de dous qubits con só seis qubits máis. Aínda que o grafo de conectividade de qubits non é localmente incrustable nunha rede 2D, pode descompoñerse en dous subgrafos planares de grao 3. Como argumentaremos a continuación, dita conectividade de qubits adáptase ben a arquitecturas baseadas en qubits superconductores. Os nosos códigos son unha xeneralización dos códigos de bicicleta propostos por MacKay et al. e estudados con máis profundidade nas refs.. Nomeamos os nosos códigos bicicleta bivariante (BB) porque se basean en polinomios bivariantes, como se detalla nos Métodos. Trátase de códigos estabilizadores do tipo Calderbank–Shor–Steane (CSS) que poden ser descritos por unha colección de operadores de verificación de seis qubits (estabilizadores) compostos por Pauli X e Z. A un nivel alto, un código BB é similar ao código toroidal bidimensional. En particular, os qubits físicos dun código BB poden organizarse nunha rede bidimensional con condicións de contorno periódicas de tal xeito que todos os operadores de verificación se obteñen dun único par de verificacións X e Z aplicando desprazamentos horizontais e verticais da rede. Non obstante, en contraste cos estabilizadores de plaqueta e vértice que describen o código toroidal, os operadores de verificación dos códigos BB non son localmente xeométricos. Ademais, cada verificación actúa sobre seis qubits en lugar de catro. Describiremos o código cun grafo de Tanner G tal que cada vértice de G representa un qubit de datos ou un operador de verificación. Un vértice de verificación i e un vértice de datos j están conectados por unha aresta se o operador de verificación i actúa de forma non trivial sobre o qubit de datos j (aplicando Pauli X ou Z). Véxanse as Figuras 1a,b para exemplos de grafos de Tanner de códigos de superficie e BB, respectivamente. O grafo de Tanner de calquera código BB ten grao de vértice seis e grosor de grafo igual a dous, o que significa que se pode descompoñer en dous subgrafos planares disxuntos (Métodos). A conectividade de qubits de grosor 2 adáptase ben a qubits superconductores acoplados por resonadores de microondas. Por exemplo, pódense acoplar dúas capas planares de acopladores e as súas liñas de control á parte superior e inferior do chip que alberga os qubits, e as dúas partes unilas. , Grafo de Tanner dun código de superficie, a modo de comparación. , Grafo de Tanner dun código BB con parámetros [] incrustado nun toro. Calquera aresta do grafo de Tanner conecta un vértice de datos e un de verificación. Os qubits de datos asociados aos rexistros q(L) e q(R) móstranse en círculos azuis e laranxas. Cada vértice ten seis arestas incidentes, incluíndo catro arestas de curto alcance (apuntando cara ao norte, sur, leste e oeste) e dúas arestas de longo alcance. Só mostramos algunhas arestas de longo alcance para evitar desordes. As arestas descontinuas e continuas indican dous subgrafos planares que abran o grafo de Tanner, véxase os Métodos. , Esquema dunha extensión do grafo de Tanner para medir X e Z seguindo a ref., acoplándose a un código de superficie. O auxiliar correspondente á medición de Z pódese conectar a un código de superficie, permitindo operacións de carga-almacenamento para todos os qubits lóxicos mediante teletransportación cuántica e algunhas unitarias lóxicas. a b c Un código BB con parámetros [[*n*, *k*, *d*]] codifica *k* qubits lóxicos en *n* qubits de datos que ofrecen unha distancia de código *d*, o que significa que calquera erro lóxico abran polo menos *d* qubits de datos. Dividimos os *n* qubits de datos en rexistros q(L) e q(R) de tamaño *n*/2 cada un. Calquera verificación actúa sobre tres qubits de q(L) e tres qubits de q(R). O código depende de *n* qubits auxiliares de verificación para medir a síndrome de erro. Dividimos os *n* qubits de verificación en rexistros q(X) e q(Z) de tamaño *n*/2 que recollen síndromes de tipos X e Z, respectivamente. En total, a codificación depende de 2*n* qubits físicos. Polo tanto, a taxa de codificación neta é r = *k*/(2*n*). Por exemplo, a arquitectura estándar do código de superficie codifica *k* = 1 qubit lóxico en *n* = *d*² datos qubits para un código de distancia-*d* e usa *n* - 1 qubits de verificación para medicións de síndromes. A taxa de codificación neta é r ≈ 1/(2*d*²), que rapidamente se fai impracticable xa que un se ve obrigado a escoller unha distancia de código grande, debido, por exemplo, a que os erros físicos están preto do valor limiar. En contraste, os códigos BB teñen unha taxa de codificación r ≫ 1/*d*², véxase a táboa 1 para exemplos de códigos. Ata onde sabemos, todos os códigos mostrados na táboa 1 son novos. O código de distancia 12 [] pode ser o máis prometedor para demostracións a curto prazo, xa que combina unha gran distancia e unha alta taxa de codificación neta r = 1/24. A modo de comparación, o código de superficie de distancia 11 ten unha taxa de codificación neta r = 1/241. Abaixo, mostramos que o código BB de distancia 12 supera ao código de superficie de distancia 11 para o rango de taxas de erro experimentalmente relevante. Para evitar a acumulación de erros, debe ser posible medir a síndrome de erro con suficiente frecuencia. Isto conséguese cun circuíto de medición de síndromes que acopla os qubits de datos no soporte de cada operador de verificación co qubit auxiliar respectivo mediante unha secuencia de portas CNOT. Os qubits de verificación midense entón revelando o valor da síndrome de erro. O tempo necesario para implementar o circuíto de medición de síndromes é proporcional á súa profundidade: o número de capas de portas compostas por CNOTs non solapados. Como novos erros continúan ocorrendo mentres se executa o circuíto de medición de síndromes, a súa profundidade debe minimizarse. O ciclo completo de medición de síndromes para un código BB ilústrase na Figura 2. O ciclo de síndromes require só sete capas de CNOTs independentemente da lonxitude do código. Os qubits de verificación inicialízanse e midense ao principio e ao final do ciclo de síndromes, respectivamente (véxase os Métodos para máis detalles). O circuíto respecta a simetría de desprazamento cíclico do código subxacente. Ciclo completo de medicións de síndromes que depende de sete capas de CNOTs. Proporcionamos unha vista local do circuíto que só inclúe un qubit de datos de cada rexistro q(L) e q(R). O circuíto é simétrico baixo desprazamentos horizontais e verticais do grafo de Tanner. Cada qubit de datos está acoplado por CNOTs con tres qubits X-verificación e tres qubits Z-verificación: véxase os Métodos para máis detalles. O protocolo completo de corrección de erros realiza Nc >> 1 ciclos de medición de síndromes e despois chama a un decodificador: un algoritmo clásico que toma como entrada as síndromes medidas e produce unha suposición do erro final nos qubits de datos. A corrección de erros ten éxito se a suposición e o erro real coinciden módulo un produto de operadores de verificación. Neste caso, os dous erros teñen a mesma acción en calquera estado codificado (lóxico). Polo tanto, aplicar o inverso do erro suposto devolve os qubits de datos ao estado lóxico inicial. En caso contrario, se o erro suposto e o real difiren por un operador lóxico non trivial, a corrección de erros falla resultando nun erro lóxico. Os nosos experimentos numéricos baséanse na propagación por crenzas cun decodificador de estatísticas ordenadas (BP-OSD) proposto por Panteleev e Kalachev. O traballo orixinal describía BP-OSD no contexto dun modelo de ruído de xoguete só con erros de memoria. Aquí mostramos como estender BP-OSD ao modelo de ruído baseado en circuítos, véxase a Información Suplementaria para obter detalles. O noso enfoque segue de preto as refs.. Unha versión ruidosa do circuíto de medición de síndromes pode incluír varios tipos de operacións defectuosas, como erros de memoria en qubits de datos ou de verificación inactivos, portas CNOT defectuosas, inicializacións e medicións de qubits. Consideramos o modelo de ruído baseado en circuítos no que cada operación falla independentemente cunha probabilidade p. A probabilidade dun erro lóxico pL depende da taxa de erro p, dos detalles dos circuítos de medición de síndromes e do algoritmo de descodificación. Sexa PL(Nc) a probabilidade de erro lóxico despois de realizar Nc ciclos de síndromes. Definimos a taxa de erro lóxico como . Informalmente, pL pode verse como a probabilidade de erro lóxico por ciclo de síndromes. Seguindo a práctica común, escollemos Nc = d para un código de distancia d. A Figura 3 mostra a taxa de erro lóxico acadada por códigos da táboa 1. A taxa de erro lóxico calculouse numericamente para p ≥ 10⁻³ e extrapolouse a taxas de erro máis baixas mediante unha fórmula de axuste (Métodos). O pseudo-limiar p0 defínese como unha solución da ecuación de punto de equilibrio pL(p) = kp. Aquí kp é unha estimación da probabilidade de que polo menos un dos k qubits non codificados sufra un erro. Os códigos BB ofrecen un pseudo-limiar próximo ao 0,7 %, véxase a táboa 1, que é case o mesmo que o limiar de erro do código de superficie e supera o limiar de todos os códigos LDPC de alta taxa coñecidos polos autores. , Taxa de erro lóxica fronte a física para pequenos exemplos de códigos LDPC BB. Obtívose unha estimación numérica de pL (rombos) simulando d ciclos de síndromes para un código de distancia d. A maioría dos puntos de datos teñen barras de erro aproximadamente iguais a pL/10 debido a erros de mostraxe. , Comparación entre o código LDPC BB [] e os códigos de superficie con 12 qubits lóxicos e distancia d ∈ {9, 11, 13, 15}. O código de superficie de distancia d con 12 qubits lóxicos ten unha lonxitude n = 12d² xa que cada qubit lóxico se codifica nun parche de d × d da rede do código de superficie. a b Por exemplo, supoñamos que a taxa de erro físico é p = 10⁻³, que é un obxectivo realista para demostracións a curto prazo. A codificación de 12 qubits lóxicos usando o código de distancia 12 da táboa 1 ofrecería a taxa de erro lóxico 2 × 10⁻⁷, o que é suficiente para preservar 12 qubits lóxicos durante case 1 millón de ciclos de síndromes. O número total de qubits físicos requiridos para esta codificación é 288. O código de distancia 18 da táboa 1 requiriría 576 qubits físicos mentres que suprime a taxa de erro de 10⁻³ a 2 × 10⁻¹² permitindo case cen mil millóns de ciclos de síndromes. A modo de comparación, a codificación de 12 qubits lóxicos en parches separados do código de superficie requiriría máis de 3.000 qubits físicos para suprimir a taxa de erro de 10⁻³ a 10⁻⁷ (Figura 3). Neste exemplo, o código BB de distancia 12 ofrece un aforro de 10 veces no número de qubits físicos en comparación co código de superficie. Unha proposta de corrección de erros cuánticos só é útil se os qubits lóxicos son accesibles. Afortunadamente, os códigos LDPC BB posúen as características requiridas para actuar como memoria lóxica. Como se mostra na Figura 1c, as extensións do grafo de Tanner aproveitando técnicas de Cohen et al. permiten operacións de medición tolerantes a fallos que involucran un código de superficie auxiliar. Estas medicións facilitan operacións de carga-almacenamento tolerantes a fallos. Véxase a Información Suplementaria para obter máis detalles. O noso traballo destaca os principais desafíos de hardware para permitir os novos códigos con qubits superconductores: (1) o desenvolvemento dunha segunda capa de baixa perda na arquitectura de grosor 2; (2) o desenvolvemento de qubits que poidan acoplarse a sete conexións (seis buses e unha liña de control); e (3) o desenvolvemento de acopladores de longo alcance. Todos estes son difíciles de resolver pero non imposibles. Para o primeiro desafío, podemos imaxinar un pequeno cambio no empaquetado que se desenvolveu para o procesador IBM Quantum Eagle. O máis sinxelo sería colocar os buses adicionais no lado oposto do chip de qubits. Isto requiriría o desenvolvemento de vías de substrato de alta Q que formarían parte dos buses de acoplamento e, como tales, requirirían unha simulación intensiva de microondas para asegurarse de que estas vías de substrato puidesen soportar a propagación de microondas sen introducir un gran crosstalk non desexado. O segundo desafío é unha extensión do número de acopladores dende a disposición da rede hex-heavy, que é catro (tres acopladores e un control) a sete. A implicación disto é que a porta de resonancia cruzada, que foi a porta central utilizada en grandes sistemas cuánticos nos últimos anos, non sería o camiño a seguir. Os qubits nas portas de resonancia cruzada non son sintonizables e, polo tanto, para un dispositivo grande con moitas conexións, a probabilidade de colisións de enerxía (non só os niveis de qubits senón tamén niveis superiores do transmon) tende a un moi rapidamente. Non obstante, co acoplador sintonizable en IBM Quantum Egret e agora en desenvolvemento para IBM Quantum Heron, este problema xa non existe xa que as frecuencias dos qubits poden deseñarse para ser máis distantes. Esta nova porta tamén é similar ás portas utilizadas por Google Quantum AI, que demostraron que unha disposición de rede cadrada é posible. Ampliar o mapa de acoplamento a sete conexións requirirá unha modelaxe de microondas notable; non obstante, os transmons típicos teñen aproximadamente 60 fF de capacitancia e cada porta ten uns 5 fF para obter as forzas de acoplamento apropiadas cos buses, polo que é fundamentalmente posible desenvolver este mapa de acoplamento sen alterar os longos tempos de coherencia e a estabilidade dos qubits transmon. O desafío final é o máis difícil. Para os buses que son o suficientemente curtos como para que se poida usar o modo fundamental, o modelo estándar de electrodinámica cuántica de circuítos é válido. Non obstante, para demostrar o código de 144 qubits, algúns dos buses serán o suficientemente longos como para que necesitemos unha enxeñaría de frecuencia. Unha forma de logralo é con resonadores de filtrado, e realizouse un experimento de proba de principio na ref.. En resumo, ofrecemos unha nova perspectiva sobre como se podería realizar unha memoria cuántica tolerante a fallos utilizando procesadores cuánticos a curto prazo cunha pequena sobrecarga de qubits. Aínda que estes códigos LDPC non son xeométricamente locais, a conectividade de qubits requirida para as medicións de síndromes descríbese por un grafo de grosor 2 que pode implementarse utilizando dúas capas planares de acopladores de qubits. Esta é unha solución arquitectónica válida para plataformas baseadas en qubits superconductores. As simulacións numéricas realizadas para o modelo de ruído baseado en circuítos indican que os códigos LDPC propostos compáranse favorablemente co código de superficie no rango de taxas de erro prácticamente relevante p ≥ 0,1 % que ofrece o mesmo nivel de supresión de erros cunha redución de 10 veces na sobrecarga de qubits. Mentres tanto, segue sen estar claro se os nosos exemplos de código poden escalarse retendo a alta taxa de codificación no límite de lonxitude de código grande. Métodos Construción do código Comezamos cunha definición formal dos códigos BB. Sexan Iℓ e Sℓ a matriz identidade e a matriz de desprazamento cíclico de tamaño ℓ × ℓ respectivamente. A i-ésima fila de Sℓ ten unha única entrada non nula igual a un na columna ℓ - i + 1. Por exemplo, Considere as matrices Teña en conta que xy = yx, xᵀx = yᵀy = Iℓm, e xℓ = ym = Iℓm. Un código BB defínese por un par de matrices onde cada matriz Ai e Bj é unha potencia de x ou y. Aquí e abaixo a adición e multiplicación de matrices binarias realízase módulo dous, a menos que se indique o contrario. Polo tanto, tamén asumimos que os Ai son distintos e os Bj son distintos para evitar a cancelación de termos. Por exemplo, poderíase escoller A = x³ + y + y² e B = y³ + x + x². Teña en conta que A e B teñen exactamente tres entradas non nulas en cada fila e cada columna. Ademais, AB = BA porque xy = yx. Os datos anteriores definen un código cuántico BB denotado QC(A, B) cunha lonxitude n = 2ℓm e matrices de verificación Aquí a barra vertical indica o apilamento de matrices horizontalmente e T representa a transposición da matriz. Ambas as matrices HX e HZ teñen tamaño (n/2) × n. Cada fila HXᵢ de HX define un operador de verificación de tipo X Xᵢ. Cada fila HZᵢ de HZ define un operador de verificación de tipo Z Zᵢ. Calquera verificación X e Z comútan xa que se solapan nun número par de qubits (teña en conta que XᵢZⱼ = ZⱼXᵢ se i ≠ j e XᵢZᵢ = ZᵢXᵢ). Por construción, o código QC(A, B) ten operadores de verificación de peso 6 e cada qubit participa en seis verificacións (tres de tipo X máis tres de tipo Z). De acordo, o código QC(A, B) ten un grafo de Tanner de grao 6. Pódese ver as matrices A e B como polinomios bivariantes sobre as variables x e y. A especialización dos códigos BB ao caso m = 1 e B = Aᵀ dá lugar aos códigos de bicicleta orixinais baseados en polinomios univariantes. Do mesmo xeito, os códigos BB son unha especialización dos códigos de bicicleta xeneralizados, códigos de dobre bloque baseados en grupos e códigos baseados en polinomios. Dado unha matriz binaria M, sexa N(M) o seu espazo nulo xerado por todos os vectores binarios v tales que Mv = 0. Sexa rs(M) o espazo de filas de M xerado polas filas de M. Lema 1 O código QC(A, B) ten parámetros [[*n*, *k*, *d*]], onde O código ofrece distancia igual para erros de tipo X e de tipo Z. A proba, baseada en álxebra lineal elemental, difírese á Información Suplementaria. A táboa de datos estendidos 1 describe os polinomios A e B que dan lugar a exemplos de códigos BB de alta taxa e alta distancia atopados mediante unha busca numérica. Isto inclúe todos os códigos da táboa 1 e dous exemplos de códigos de maior distancia. Ata onde sabemos, todos estes exemplos son novos. O código [[360, 12, ≤24]] mellora un código [[882, 24, ≤24]] con verificacións de peso 6 atopado por Panteleev e Kalachev na ref. (asumindo que o noso límite superior de distancia é axustado). De feito, tomar dúas copias independentes do código de 360 qubits dá parámetros [[720, 24, ≤24]]. O Apéndice C na ref. tamén describe un código [] que ten parámetros similares aos nosos. Este código ten a forma QC(A, B) con A = 1 + x⁴³ + x³⁷, B = 1 + x⁵⁹ + x³¹, ℓ = 63 e m = 1. Observamos que o traballo recente de Wang, Lin e Pryadko describiu exemplos de códigos baseados en grupos moi relacionados cos códigos considerados aquí. Algúns dos códigos baseados en grupos con verificacións de peso 8 atopados na ref. superan os nosos códigos BB con verificacións de peso 6 en termos dos parámetros n, k, d. Aínda está por ver se os códigos baseados en grupos poden acadar un nivel de supresión de erros similar ou mellor para o modelo de ruído baseado en circuítos. A continuación, dividimos o conxunto de qubits de datos como [n] = LR, onde L ≔ q(L) e R ≔ q(R) son os bloques esquerdo e dereito de n/2 = ℓm qubits de datos. Entón, os qubits de datos L e R e as verificacións X e Z poden ser etiquetados por enteiros i, j ∈