Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumo A corrección de erros cuánticos ofrece un camiño prometedor para realizar computacións cuánticas de alta fidelidade. Aínda que a execución totalmente tolerante a fallos de algoritmos segue sen realizarse, as recentes melloras na electrónica de control e no hardware cuántico permiten demostracións cada vez máis avanzadas das operacións necesarias para a corrección de erros. Aquí, realizamos corrección de erros cuánticos en qubits superconductores conectados nunha rede pesada de hexágonos. Codificamos un qubit lóxico de distancia tres e realizamos varias roldas de medidas de síndrome tolerantes a fallos que permiten a corrección de calquera falla única na circuitería. Usando retroalimentación en tempo real, reiniciamos qubits de síndrome e bandeira condicionalmente despois de cada ciclo de extracción de síndrome. Informamos de erros lóxicos dependentes do decodificador, cun erro lóxico medio por medida de síndrome en base Z(X) de ~0.040 (~0.088) e ~0.037 (~0.087) para decodificadores coincidentes e de máxima verosimilitude, respectivamente, en datos post-seleccionados por fuga. Introdución Os resultados das computacións cuánticas poden ser erróneos, na práctica, debido ao ruído no hardware. Para eliminar as fallas resultantes, pódense usar códigos de corrección de erros cuánticos (QEC) para codificar a información cuántica en graos de liberdade lóxicos protexidos, e despois, ao corrixir as fallas máis rápido do que se acumulan, permitir computacións tolerantes a fallos (FT). A execución completa de QEC probablemente requirirá: preparación de estados lóxicos; realización dun conxunto universal de portas lóxicas, que pode requirir a preparación de estados máxicos; medidas repetidas de síndromes; e a decodificación das síndromes para corrixir erros. Se ten éxito, as taxas de erro lóxico resultantes deberían ser menores que as taxas de erro físicas subxacentes e diminuír co aumento das distancias do código ata valores desprezables. A elección dun código QEC require a consideración do hardware subxacente e as súas propiedades de ruído. Para unha rede pesada de hexágonos de qubits [^1],[^2], os códigos QEC de subsistema [^3] son atractivos porque están ben adaptados para qubits con conectividades reducidas. Outros códigos mostraron promesa debido ao seu limiar relativamente alto para FT [^4] ou un gran número de portas lóxicas transversais [^5]. Aínda que o seu espazo e sobrecarga de tempo poden supoñer un obstáculo significativo para a escalabilidade, existen enfoques alentadores para reducir os recursos máis caros explotando algunha forma de mitigación de erros [^6]. No proceso de decodificación, a corrección exitosa depende non só do rendemento do hardware cuántico, senón tamén da implementación da electrónica de control utilizada para adquirir e procesar a información clásica obtida das medidas de síndrome. No noso caso, inicializar qubits de síndrome e bandeira mediante retroalimentación en tempo real entre os ciclos de medida pode axudar a mitigar os erros. A nivel de decodificación, mentres existen algúns protocolos para realizar QEC asincronamente dentro dun formalismo FT [^7],[^8], a taxa á que se reciben as síndromes de erro debe ser acorde co seu tempo de procesamento clásico para evitar unha acumulación crecente de datos de síndrome. Ademais, algúns protocolos, como o uso dun estado máxico para unha porta T lóxica [^9], requiren a aplicación de retroalimentación en tempo real. Polo tanto, a visión a longo prazo de QEC non gravita en torno a un único obxectivo final, senón que debe verse como un continuo de tarefas profundamente interrelacionadas. O camiño experimental no desenvolvemento desta tecnoloxía comprenderá a demostración destas tarefas de forma illada primeiro e a súa combinación progresiva despois, sempre mellorando continuamente as súas métricas asociadas. Parte deste progreso reflíctese en numerosos avances recentes en sistemas cuánticos en diferentes plataformas físicas, que demostraron ou aproximaron varios aspectos dos desiderata para a computación cuántica FT. En particular, a preparación de estados lóxicos FT demostrouse en ións [^10], spins nucleares en diamante [^11] e qubits superconductores [^12]. Ciclos repetidos de extracción de síndrome mostráronse en qubits superconductores en pequenos códigos de detección de erros [^13],[^14], incluíndo corrección parcial de erros [^15] así como un conxunto universal (aínda que non FT) de portas de un só qubit [^16]. Informouse recentemente dunha demostración FT dun conxunto de portas universal en dous qubits lóxicos en ións [^17]. No ámbito da corrección de erros, houbo realizacións recentes do código de superficie de distancia 3 en qubits superconductores con decodificación [^18] e post-selección [^19], así como unha implementación FT dunha memoria cuántica dinámicamente protexida utilizando o código de cor [^20] e a preparación, operación e medida de estado FT, incluíndo os seus estabilizadores, dun estado lóxico no código Bacon-Shor en ións [^20],[^21]. Aquí combinamos a capacidade de retroalimentación en tempo real nun sistema de qubits superconductores cun protocolo de decodificación de máxima verosimilitude hitherto inexplorado experimentalmente para mellorar a supervivencia dos estados lóxicos. Demostramos estas ferramentas como parte da operación FT dun código de subsistema [^22], o código pesada de hexágono [^1], nun procesador cuántico superconductor. Esenciais para facer que a nosa implementación deste código sexa tolerante a fallos son os qubits de bandeira que, cando se atopan distintos de cero, alertan ao decodificador sobre erros de circuíto. Ao reiniciar condicionalmente os qubits de bandeira e de síndrome despois de cada ciclo de medida de síndrome, protexemos o noso sistema contra erros derivados da asimetría de ruído inherente á relaxación enerxética. Ademais, explotamos estratexias de decodificación descritas recentemente [^15] e estendemos as ideas de decodificación para incluír conceptos de máxima verosimilitude [^4],[^23],[^24]. Resultados O código pesada de hexágono e circuítos multironda O código pesada de hexágono que consideramos é un código de 9 qubits que codifica 1 qubit lóxico con distancia 3 [^1]. Os grupos de calibre Z e X (ver Fig. 1a) e os estabilizadores están xerados por Os grupos de estabilizadores son os centros dos respectivos grupos de calibre. Isto significa que os estabilizadores, como produtos de operadores de calibre, poden deducirse das medidas de só os operadores de calibre. Os operadores lóxicos pódense elixir como XL = X1X2X3 e ZL = Z1Z3Z7. Operadores de calibre Z (azul) e X (vermello) (ecs. (1) e (2)) mapeados nos 23 qubits requiridos co código pesada de hexágono de distancia 3. Os qubits de código (Q1–Q9) móstranse en amarelo, os qubits de síndrome (Q17, Q19, Q20, Q22) usados para estabilizadores Z en azul, e os qubits de bandeira e síndromes usados en estabilizadores X en branco. A orde e dirección das portas CX aplicadas dentro de cada subsección (0 a 4) denótanse polas frechas numeradas. Diagrama de circuíto dunha rolda de medida de síndrome, incluíndo estabilizadores X e Z. O diagrama de circuíto ilustra a paralelización permitida das operacións de porta: as que están dentro dos límites establecidos polas barreiras de planificación (liñas verticais punteadas grises). Como a duración de cada porta de dous qubits difire, a planificación final da porta determínase cun pase estándar de transpilación de circuítos "tan tarde como sexa posible"; despois do cal engádese desacoplamento dinámico aos qubits de datos onde o tempo o permite. As operacións de medida e reinicio illanse doutras operacións de porta por barreiras para permitir engadir desacoplamento dinámico uniforme aos qubits de datos inactivos. Grafos de decodificación para tres roldas de medidas de estabilizadores (c) Z e (d) X con ruído a nivel de circuíto permiten a corrección de erros X e Z, respectivamente. Os nodos azuis e vermellos nos grafos corresponden a síndromes de diferenza, mentres que os nodos negros son a fronteira. As arestas codifican varias formas nas que poden ocorrer erros no circuíto como se describe no texto. Os nodos están etiquetados polo tipo de medida de estabilizador (Z ou X), xunto cun subíndice que indexa o estabilizador e superíndices que denotan a rolda. As arestas negras, derivadas de erros Pauli Y en qubits de código (e, polo tanto, son só de tamaño 2), conectan os dous grafos en (c) e (d), pero non se usan no decodificador de coincidencia. Os hiperarestas de tamaño 4, que non son usados pola coincidencia, pero son usados no decodificador de máxima verosimilitude. As cores son só para claridade. Traducir cada un no tempo por unha rolda tamén dá un hiperaresta válido (con algunha variación nos límites de tempo). Tampouco se mostran ningunha das hiperarestas de tamaño 3. a b e f Aquí centrámonos nun circuíto FT particular, moitas das nosas técnicas poden usarse de forma máis xeral con diferentes códigos e circuítos. Constrúense dous subcircuítos, mostrados na Fig. 1b, para medir os operadores de calibre X e Z. A medida de calibre Z tamén adquire información útil medindo qubits de bandeira. Preparamos estados de código no estado lóxico |0⟩ (|1⟩) preparando primeiro nove qubits no estado |+⟩ (|-⟩) e medindo o calibre X (calibre Z). Despois realizamos r roldas de medida de síndrome, onde unha rolda consiste nunha medida de calibre Z seguida dunha medida de calibre X (respectivamente, calibre X seguido de calibre Z). Finalmente, lemos os nove qubits de código na base Z (X). Realizamos os mesmos experimentos para os estados lóxicos iniciais |+⟩ e |-⟩ tamén, simplemente inicializando os nove qubits en |+⟩ e |-⟩ no seu lugar. Algoritmos de decodificación No ámbito da computación cuántica FT, un decodificador é un algoritmo que toma como entrada medidas de síndrome dun código de corrección de erros e produce unha corrección aos qubits ou datos de medida. Nesta sección describimos dous algoritmos de decodificación: decodificación de coincidencia perfecta e decodificación de máxima verosimilitude. O hipergrafo de decodificación [^15] é unha descrición concisa da información recompilada por un circuíto FT e posta a disposición dun algoritmo de decodificación. Consiste nun conxunto de vértices, ou eventos sensibles a erros, V, e un conxunto de hiperarestas E, que codifican as correlacións entre eventos causados por erros no circuíto. A Fig. 1c-f representa partes do hipergrafo de decodificación para o noso experimento. A construción dun hipergrafo de decodificación para circuítos de estabilizadores con ruído Pauli pode facerse usando simulacións estándar de Gottesman-Knill [^25] ou técnicas similares de rastreo Pauli [^26]. Primeiro, créase un evento sensible a erros para cada medida que é determinista no circuíto sen erros. Unha medida determinista M é calquera medida cuxo resultado m ∈ {0, 1} pode predicirse sumando módulo dous os resultados da medida dun conxunto {m_i} de medidas anteriores. É dicir, para un circuíto sen erros, m = Σ F_M(m_i) (mod 2), onde o conxunto {m_i} pode atoparse simulando o circuíto. Establece o valor do evento sensible a erros en m - F_M(m) (mod 2), que é cero (tamén chamado trivial) en ausencia de erros. Polo tanto, observar un evento sensible a erros non cero (tamén chamado non trivial) implica que o circuíto sufriu polo menos un erro. Nos nosos circuítos, os eventos sensibles a erros son medidas de qubits de bandeira ou a diferenza de medidas sucesivas do mesmo estabilizador (tamén chamados a veces síndromes de diferenza). A continuación, engádense hiperarestas considerando fallas de circuíto. O noso modelo contén unha probabilidade de falla pC para cada un dos varios compoñentes do circuíto Aquí distinguimos a operación identidade id en qubits durante un tempo no que outros qubits están a sufrir portas unitarias, da operación identidade idm en qubits cando outros están a sufrir medida e reinicio. Reiniciamos qubits despois de que sexan medidos, mentres que inicializamos qubits que aínda non se usaron no experimento. Finalmente, cx é a porta controlled-not, h é a porta Hadamard, e x, y, z son portas Pauli. (ver Métodos "IBM_Peekskill e detalles experimentais" para máis detalles). Os valores numéricos para pC están listados en Métodos "IBM_Peekskill e detalles experimentais". O noso modelo de erro é ruído de depolarización de circuíto. Para erros de inicialización e reinicio, aplícase un Pauli X coas probabilidades respectivas pinit e preset despois da preparación ideal do estado. Para erros de medida, aplícase un Pauli X cunha probabilidade P_m antes da medida ideal. Unha porta unitaria de un qubit (porta de dous qubits) C sofre cunha probabilidade pC un dos tres (quince) erros Pauli non identidade seguindo a porta ideal. Hai unha probabilidade igual de que ocorra calquera dos tres (quince) erros Pauli. Cando ocorre unha única falla no circuíto, fai que un subconxunto de eventos sensibles a erros sexan non triviais. Este conxunto de eventos sensibles a erros convértese nun hiperaresta. O conxunto de todos os hiperarestas é E. Dúas fallas diferentes poden levar ao mesmo hiperaresta, polo que cada hiperaresta pode verse como representando un conxunto de fallas, cada unha das cales causa individualmente que os eventos no hiperaresta sexan non triviais. Asociada a cada hiperaresta hai unha probabilidade, que, en primeira orde, é a suma das probabilidades de fallas no conxunto. Unha falla tamén pode levar a un erro que, propagado ata o final do circuíto, anticomuta cun ou máis dos operadores lóxicos do código, necesitando unha corrección lóxica. Suponmos por xeneralidade que o código ten k qubits lóxicos e unha base de 2k operadores lóxicos, pero notamos que k=1 para o código pesada de hexágono usado no experimento. Podemos rastrexar que operadores lóxicos anticomutan co erro usando un vector de {0, 1}^k. Polo tanto, cada hiperaresta h tamén está etiquetado por un destes vectores, chamado etiqueta lóxica. Nótese que se o código ten distancia polo menos tres, cada hiperaresta ten unha etiqueta lóxica única. Finalmente, observamos que un algoritmo de decodificación pode elixir simplificar o hipergrafo de decodificación de varias maneiras. Unha forma que sempre empregamos aquí é o proceso de deflagging. As medidas de bandeira dos qubits 16, 18, 21, 23 ignóranse simplemente sen aplicar correccións. Se a bandeira 11 é non trivial e a 12 trivial, aplícase Z a 2. Se a 12 é non trivial e a 11 trivial, aplícase Z ao qubit 6. Se a bandeira 13 é non trivial e a 14 trivial, aplícase Z ao qubit 4. Se a 14 é non trivial e a 13 trivial, aplícase Z ao qubit 8. Ver ref. [^15] para detalles sobre por que isto é suficiente para a tolerancia a fallos. Isto significa que en lugar de incluír directamente eventos sensibles a erros das medidas de qubits de bandeira, preprocesamos os datos usando a información da bandeira para aplicar correccións virtuais Pauli Z e axustar os eventos sensibles a erros posteriores en consecuencia. Os hiperarestas para o hipergrafo deflagged pódense atopar mediante simulación de estabilizadores incorporando as correccións Z. Sexa r o número de roldas. Despois do deflagging, o tamaño do conxunto V para experimentos en base Z (resp. X) é |V| = 6r + 2 (resp. 6r + 4), debido á medida de seis estabilizadores por rolda e á existencia de dous (resp. catro) estabilizadores de erro iniciais despois da preparación do estado. O tamaño de E é similar |E| = 60r - 13 (resp. 60r - 1) para r > 0. Considerando os erros X e Z por separado, o problema de atopar unha corrección de erro de peso mínimo para o código de superficie pódese reducir a atopar unha coincidencia perfecta de peso mínimo nun grafo [^4]. Os decodificadores de coincidencia continúan sendo estudados debido á súa practicidade [^27] e ampla aplicabilidade [^28],[^29]. Nesta sección, describimos o decodificador de coincidencia para o noso código pesada de hexágono de distancia 3. Os grafos de decodificación, un para os erros X (Fig. 1c) e outro para os erros Z (Fig. 1d), para coincidencia perfecta de peso mínimo son en realidade subgrafos do hipergrafo de decodificación na sección anterior. Centrémonos aquí no grafo para corrixir erros X, xa que o grafo de erros Z é análogo. Neste caso, do hipergrafo de decodificación conservamos os nodos VZ correspondentes a (a diferenza de) medidas de estabilizador sucesivas e as arestas (é dicir, hiperarestas de tamaño dous) entre eles. Adicionalmente, créase un nodo fronteira b, e as hiperarestas de tamaño un da forma {v} con v ∈ VZ, represéntanse incluíndo arestas {v, b}. Todas as arestas no grafo de erros X herdán probabilidades e etiquetas lóxicas dos seus hiperarestas correspondentes (ver Táboa 1 para datos de arestas de erro X e Z para o experimento de 2 roldas). Un algoritmo de coincidencia perfecta toma un grafo con arestas ponderadas e un conxunto de tamaño par de nodos destacados, e devolve un conxunto de arestas no grafo que conecta todos os nodos destacados en pares e ten un peso total mínimo entre todos os conxuntos de arestas dese tipo. No noso caso, os nodos destacados son os eventos sensibles a erros non triviais (se hai un número impar, o nodo fronteira tamén se destaca), e os pesos das arestas son ou ben elixidos para ser todos un (método uniforme) ou establecidos como ln(pe/(1-pe)), onde pe é a probabilidade da aresta (método analítico). Esta última elección significa que o peso total dun conxunto de arestas é igual á log-verosimilitude dese conxunto, e a coincidencia perfecta de peso mínimo tenta maximizar esta verosimilitude sobre as arestas do grafo. Dada unha coincidencia perfecta de peso mínimo, pódese usar as etiquetas lóxicas das arestas na coincidencia para decidir unha corrección ao estado lóxico. Alternativamente, o grafo de erros X (erro Z) para o decodificador de coincidencia é tal que cada aresta pode asociarse a un qubit de código (ou un erro de medida), de tal xeito que incluír unha aresta na coincidencia implica que se debe aplicar unha corrección X (Z) ao qubit correspondente. A decodificación de máxima verosimilitude (MLD) é un método óptimo, aínda que non escalable, para decodificar códigos de corrección de erros cuánticos. Na súa concepción orixinal, a MLD aplicouse a modelos de ruído fenomenolóxicos onde os erros ocorren xusto antes de que se midan as síndromes [^24],[^30]. Isto ignora, por suposto, o caso máis realista onde os erros poden propagarse a través da circuitería de medida de síndrome. Máis recentemente, a MLD estendeuse para incluír ruído de circuíto [^23],[^31]. Aquí, describimos como a MLD corrixe o ruído de circuíto usando o hipergrafo de decodificación. A MLD deduce a corrección lóxica máis probable dada unha observación dos eventos sensibles a erros. Isto faise calculando a distribución de probabilidade Pr[β, γ], onde β representa eventos sensibles a erros e γ representa unha corrección lóxica. Podemos calcular Pr[β, γ] incluíndo cada hiperaresta do hipergrafo de decodificación, Fig. 1c-f, comezando pola distribución de erro cero, é dicir, Pr[0^{|V|}, 0^{2^k}] = 1. Se o hiperaresta h ten unha probabilidade ph de ocorrer, independentemente de calquera outro hiperaresta, incluímos h realizando a actualización onde β_h é só unha representación vectorial binaria do hiperaresta. Esta actualización debe aplicarse unha vez por cada hiperaresta en E. Unha vez calculado Pr[β, γ], podemos usalo para deducir a mellor corrección lóxica. Se β* se observa nunha execución do experimento, indica como deben corrixirse as medidas dos operadores lóxicos. Para máis detalles sobre implementacións específicas de MLD, consulte Métodos "Implementacións de máxima verosimilitude". Realización experimental Para esta demostración usamos ibm_peekskill v2.0.0, un procesador IBM Quantum Falcon de 27 qubits [^32] cuxo mapa de acoplamento permite un código pesada de hexágono de distancia 3, ver Fig. 1. O tempo total para a medida de qubit e o reinicio condicional posterior en tempo real, para cada rolda, leva 768ns e é o mesmo para todos os qubits. Todas as medidas de síndrome e reinicios ocorren simultaneamente para un rendemento mellorado. Engádese unha simple secuencia de desacoplamento dinámico Xπ-Xπ a todos os qubits de código durante os seus respectivos períodos de inactividade. A fuga de qubits é unha razón importante pola que o modelo de erro de depolarización Pauli asumido polo deseño do decodificador pode ser inexacto. Nalgúns casos, podemos detectar se un qubit saíu do subespazo de computación no momento en que se mide (ver Métodos "Método de post-selección" para máis información sobre o método de post-selección e limitacións). Usando isto, podemos post-seleccionar execucións do experimento cando non se detectou fuga, similar a ref. [^18]. Na Fig. 2a, inicializamos o estado lóxico |0⟩ (|0⟩) e aplicamos r roldas de medida de síndrome, onde unha rolda inclúe estabilizadores X e Z (tempo total de aproximadamente 5.3μs por rolda, Fig. 1b). Usando decodificación analítica de coincidencia perfecta sobre o conxunto de datos completo (500.000 tiros por execución), extraemos os erros lóxicos na Fig. 2a, triángulos vermellos (azuis). Os detalles dos parámetros optimizados utilizados na decodificación analítica de coincidencia perfecta pódense atopar en Métodos "IBM_Peekskill e detalles experimentais". Axustando as curvas de decaimiento completas (ecuación (14)) ata 10 roldas, extraemos o erro lóxico por rolda sen post-selección na Fig. 2b de 0.059(2) (0.058(3)) para |0⟩ (|0⟩) e 0.113(5) (0.107(4)) para |1⟩ (|1⟩). Erro lóxico fronte ao número de roldas de medida de síndrome r, onde unha rolda inclúe unha medida de estabilizador Z e outra X. Triángulos azuis cara á dereita (triángulos vermellos) marcan erros lóxicos obtidos ao usar decodificación analítica de coincidencia en datos experimentais brutos para estados |0⟩ (|0⟩). Cadradiños azuis claros (círculos vermellos claros) marcan os de |1⟩ (|1⟩) co mesmo método de decodificación pero usando datos experimentais post-seleccionados por fuga. As barras de erro denotan o erro de mostraxe de cada execución (500.000 tiros para datos brutos, número variable de tiros para post-seleccionados). As liñas punteadas axustan o rendemento do erro por rolda mostrado en (b). Aplicando o mesmo método de decodificación a datos post-seleccionados por fuga, móstrase unha redución substancial no erro global para os catro estados lóxicos. Ver Métodos "Método de post-selección" para detalles sobre a post-selección. As taxas de rexeitamento axustadas por rolda para |0⟩, |1⟩, |0⟩, |1⟩ son 4.91%, 4.64%, 4.37% e 4.89%, respectivamente. As barras de erro denotan unha desviación estándar na taxa axustada. , Usando datos post-seleccionados, comparamos o erro lóxico obtido cos catro decodificadores: coincidencia uniforme (rosa círculos), coincidencia analítica (verde círculos), coincidencia analítica con información suave (gris círculos) e máxima verosimilitude (azul círculos). (Ver Fig. 6 para |0⟩ e |1⟩). As taxas axustadas punteadas mostradas en (e), (f). As barras de erro denotan o erro de mostraxe. , Comparación do erro axustado por rolda para os catro estados lóxicos usando decodificadores de coincidencia uniforme (rosa), coincidencia analítica (verde), coincidencia analítica con información suave (gris) e máxima verosimilitude (azul). As barras de erro representan unha desviación estándar na taxa axustada. a b c d e f Aplicando o mesmo método de decodificación a datos post-seleccionados por fuga redúcese os erros lóxicos na Fig. 2a, e leva a taxas de erro axustadas de 0.041(1) (0.044(4)) para |0⟩ (|0⟩) e 0.088(3) (0.085(3)) para |1⟩ (|1⟩) como se mostra na Fig. 2b. As taxas de rexeitamento por rolda da post-selección para |0⟩, |1⟩, |0⟩, e |1⟩ son 4.91%, 4.64%, 4.37%, e 4.89%, respectivamente. Ver Métodos "Método de post-selección" para detalles. Na Fig. 2c-f, comparamos o erro lóxico para cada rolda e o erro lóxico extraído por rolda obtido dos conxuntos de datos post-seleccionados usando os tres decodificadores descritos anteriormente na Sección "Algoritmos de decodificación". Tamén incluímos unha versión do decodificador analítico que explota información suave [^33], que se describe en Métodos "Decodificación con información suave". Observamos (ver Fig. 2e, f) unha mellora consistente na decodificación ao pasar de coincidencia uniforme (rosa), a coincidencia analítica (verde), a coincidencia analítica con información suave, a máxima verosimilitude (gris), aínda que isto é moito menos significativo para os estados lóxicos en base X. Unha comparación cuantitativa entre os tres decodificadores para os catro estados lóxicos en r = 2 roldas proporciónase en Métodos "Erro Lóxico en r = 2 roldas". Hai polo menos tres razóns polas que os estados en base X teñen un peor rendemento que os estados en base Z. A primeira é a asimetría natural nos circuítos. A maior profundidade requirida para medir os estabilizadores Z leva a máis tempo no que os erros Z nos qubits de datos poden acumularse sen detectar. Isto está apoiado por simulacións, como as de [^1], que usa un decodificador diferente, e aquí en Métodos "Detalles da simulación", que ven un peor rendemento da base X para este código d=3. Segundo, as eleccións feitas na decodificación, particularmente o paso de deflagging, poden exacerbar a asimetría ao converter esencialmente erros de medida e reinicio en erros Z nos qubits de datos. Isto leva a unha alta taxa de erro Z efectiva que non se pode mellorar moito, nin sequera coa decodificación de máxima verosimilitude. En contraste, se deflagamos só a primeira rolda de medidas, o erro lóxico do decodificador de máxima verosimilitude no experimento de r=2 roldas, |1⟩, diminúe nun 2.8% aproximadamente ata o 18.02(7)%. O decodificación con bandeiras como esta convértese en lenta para recuentos de roldas maiores, xa que engadir nodos de bandeira ao hipergrafo de decodificación aumenta enormemente o seu tamaño. Finalmente, os decodificadores son tan bos como o noso modelo de ruído experimental. As fontes de ruído non depolarizantes como os erros espectadores ZZ, que sabemos que están presentes, non son modeladas por ningún dos nosos decodificadores e afectarán máis negativamente aos estados en base X. Unha estimación máis precisa e a inclusión de devandito ruído experimental e as súas implicacións para a tolerancia a fallos é un tema importante para investigación futura. Discusión Os resultados presentados neste traballo resaltan a importancia do progreso conxunto do hardware cuántico, tanto en tamaño como en calidade, e do procesamento de información clásica, tanto concorrente coa execución do circuíto como asíncrono a el, como se describe cos decodificadores estudados. Os nosos experimentos incorporan medidas de circuíto intermedio e operacións condicionais como parte dun protocolo QEC. Estas capacidades técnicas serven como elementos fundamentais para mellorar aínda máis o papel dos circuítos dinámicos en QEC, por exemplo, cara á corrección en tempo real e outras operacións de retroalimentación que serán críticas para computacións FT a gran escala. Tamén mostramos como as plataformas experimentais para QEC deste tamaño e capacidades poden desencadear novas ideas cara a decodificadores máis robustos. A nosa comparación entre un decodificador de coincidencia perfecta e un de máxima verosimilitude establece un punto de partida prometedor cara á comprensión do compromiso entre a escalabilidade do decodificador fronte ao rendemento en presenza de ruído experimental. Un mellor modelado do ruído e as técnicas de pre-decodificación de erros [^34],[^35] poderían mellorar o rendemento e o tempo de execución destes decodificadores. Todos estes compoñentes clave xogarán un papel crucial en códigos de maior distancia, onde a calidade das operacións en tempo real (reinicio condicional de qubit e eliminación de fuga, protocolos de teletransporte para portas lóxicas e decodificación), xunto cos niveis de ruído do dispositivo, determinarán