```html Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumen La corrección de errores cuánticos ofrece un camino prometedor para realizar cálculos cuánticos de alta fidelidad. Aunque las ejecuciones completamente tolerantes a fallos de algoritmos siguen sin realizarse, las mejoras recientes en la electrónica de control y el hardware cuántico permiten demostraciones cada vez más avanzadas de las operaciones necesarias para la corrección de errores. Aquí, realizamos corrección de errores cuánticos en cúbits superconductores conectados en una red pesada de hexágonos. Codificamos un cúbit lógico con distancia tres y realizamos varias rondas de mediciones de síndromes tolerantes a fallos que permiten la corrección de cualquier fallo único en el circuito. Utilizando retroalimentación en tiempo real, reiniciamos los cúbits de síndrome y bandera de forma condicional después de cada ciclo de extracción de síndromes. Informamos de errores lógicos dependientes del decodificador, con un error lógico promedio por medición de síndrome en la base Z(X) de ~0.040 (~0.088) y ~0.037 (~0.087) para decodificadores de coincidencia y de máxima verosimilitud, respectivamente, en datos post-seleccionados por fuga. Introducción Los resultados de los cálculos cuánticos pueden ser erróneos, en la práctica, debido al ruido en el hardware. Para eliminar los errores resultantes, se pueden utilizar códigos de corrección de errores cuánticos (QEC) para codificar la información cuántica en grados de libertad lógicos protegidos, y luego, corrigiendo los errores más rápido de lo que se acumulan, permitir cálculos tolerantes a fallos (FT). Una ejecución completa de QEC probablemente requerirá: preparación de estados lógicos; realización de un conjunto universal de puertas lógicas, que puede requerir la preparación de estados mágicos; mediciones repetidas de síndromes; y la decodificación de los síndromes para corregir errores. Si tiene éxito, las tasas de error lógicas resultantes deberían ser menores que las tasas de error físicas subyacentes, y disminuir con el aumento de las distancias del código hasta valores insignificantes. La elección de un código QEC requiere la consideración del hardware subyacente y sus propiedades de ruido. Para una red pesada de hexágonos [1, 2] de cúbits, los códigos QEC de subsistema [3] son atractivos porque se adaptan bien a cúbits con conectividades reducidas. Otros códigos han mostrado ser prometedores debido a su umbral relativamente alto para FT [4] o un gran número de puertas lógicas transversales [5]. Aunque su sobrecarga de espacio y tiempo puede suponer un obstáculo importante para la escalabilidad, existen enfoques alentadores para reducir los recursos más costosos explotando alguna forma de mitigación de errores [6]. En el proceso de decodificación, la corrección exitosa depende no solo del rendimiento del hardware cuántico, sino también de la implementación de la electrónica de control utilizada para adquirir y procesar la información clásica obtenida de las mediciones de síndrome. En nuestro caso, inicializar tanto los cúbits de síndrome como los de bandera mediante retroalimentación en tiempo real entre ciclos de medición puede ayudar a mitigar errores. A nivel de decodificación, si bien existen algunos protocolos para realizar QEC asíncronamente dentro de un formalismo FT [7, 8], la tasa a la que se reciben los síndromes de error debe ser acorde con su tiempo de procesamiento clásico para evitar una acumulación creciente de datos de síndrome. Además, algunos protocolos, como el uso de un estado mágico para una puerta T lógica [9], requieren la aplicación de retroalimentación en tiempo real. Por lo tanto, la visión a largo plazo de QEC no gravita en torno a un único objetivo final, sino que debe considerarse como un continuo de tareas profundamente interrelacionadas. El camino experimental en el desarrollo de esta tecnología comprenderá la demostración de estas tareas de forma aislada primero y su combinación progresiva después, siempre mientras se mejoran continuamente sus métricas asociadas. Parte de este progreso se refleja en numerosos avances recientes en sistemas cuánticos en diferentes plataformas físicas, que han demostrado o aproximado varios aspectos de los desiderata para la computación cuántica FT. En particular, la preparación de estados lógicos FT se ha demostrado en iones [10], espines nucleares en diamante [11] y cúbits superconductores [12]. Se han mostrado ciclos repetidos de extracción de síndromes en cúbits superconductores en pequeños códigos de detección de errores [13, 14], incluida la corrección de errores parcial [15], así como un conjunto universal (aunque no FT) de puertas de un solo cúbit [16]. Recientemente, se ha informado de una demostración FT de un conjunto de puertas universal en dos cúbits lógicos en iones [17]. En el ámbito de la corrección de errores, ha habido realizaciones recientes del código de superficie de distancia 3 en cúbits superconductores con decodificación [18] y post-selección [19], así como una implementación FT de una memoria cuántica dinámicamente protegida utilizando el código de color [20] y la preparación, operación y medición de estados lógicos FT, incluidos sus estabilizadores, en el código de Bacon-Shor en iones [20, 21]. Aquí combinamos la capacidad de retroalimentación en tiempo real en un sistema de cúbits superconductores con un protocolo de decodificación de máxima verosimilitud hasta ahora inexplorado experimentalmente para mejorar la supervivencia de los estados lógicos. Demostramos estas herramientas como parte de la operación FT de un código de subsistema [22], el código de hexágono pesado [1], en un procesador cuántico superconductor. Esencial para que nuestra implementación de este código sea tolerante a fallos son los cúbits de bandera que, cuando se encuentran no nulos, alertan al decodificador sobre errores en el circuito. Reiniciando condicionalmente los cúbits de bandera y de síndrome después de cada ciclo de medición de síndrome, protegemos nuestro sistema contra errores derivados de la asimetría de ruido inherente a la relajación de energía. Explotamos además estrategias de decodificación descritas recientemente [15] y extendemos las ideas de decodificación para incluir conceptos de máxima verosimilitud [4, 23, 24]. Resultados El código de hexágono pesado y los circuitos de múltiples rondas El código de hexágono pesado que consideramos es un código de = 9 cúbits que codifica = 1 cúbit lógico con distancia = 3 [1]. Los grupos de calibre y (ver Fig. 1a) y estabilizadores están generados por n k d Z X Los grupos de estabilizadores son los centros de los respectivos grupos de calibre. Esto significa que los estabilizadores, como productos de operadores de calibre, pueden deducirse de mediciones de solo los operadores de calibre. Los operadores lógicos pueden elegirse como = 1 2 3 y = 1 3 7. X L X X X Z L Z Z Z Operadores de calibre (azul) y (rojo) (ecuaciones (1) y (2)) mapeados sobre los 23 cúbits requeridos con el código de hexágono pesado de distancia 3. Los cúbits de código ( 1- 9) se muestran en amarillo, los cúbits de síndrome ( 17, 19, 20, 22) utilizados para estabilizadores en azul, y los cúbits de bandera y síndromes utilizados en estabilizadores en blanco. El orden y la dirección en que se aplican las puertas CX dentro de cada subsección (0 a 4) se denotan por las flechas numeradas. Diagrama de circuito de una ronda de medición de síndrome, incluyendo estabilizadores y . El diagrama de circuito ilustra la paralelización permitida de las operaciones de puerta: aquellas dentro de los límites establecidos por las barreras de programación (líneas verticales grises discontinuas). Dado que la duración de cada puerta de dos cúbits difiere, la programación final de la puerta se determina con un pase estándar de transpilación de circuito "lo más tarde posible"; después de lo cual se añade desacoplamiento dinámico a los cúbits de datos siempre que el tiempo lo permita. Las operaciones de medición y reinicio están aisladas de otras operaciones de puerta por barreras para permitir que se añada desacoplamiento dinámico uniforme a los cúbits de datos inactivos. Gráficos de decodificación para tres rondas de mediciones de estabilizadores ( ) y ( ) con ruido a nivel de circuito permiten la corrección de errores y , respectivamente. Los nodos azules y rojos en los gráficos corresponden a síndromes de diferencia, mientras que los nodos negros son el límite. Los bordes codifican varias formas en que pueden ocurrir errores en el circuito como se describe en el texto. Los nodos se etiquetan por el tipo de medición de estabilizador ( o ), junto con un subíndice que indexa el estabilizador, y superíndices que denotan la ronda. Los bordes negros, que surgen de errores Pauli en cúbits de código (y por lo tanto son solo de tamaño 2), conectan los dos gráficos en y , pero no se utilizan en el decodificador de coincidencia. Los hiperbordes de tamaño 4, que no son utilizados por la coincidencia, pero sí por el decodificador de máxima verosimilitud. Los colores son solo para claridad. La traducción de cada uno en el tiempo por una ronda también da un hiperborde válido (con alguna variación en los límites de tiempo). Tampoco se muestran ninguno de los hiperbordes de tamaño 3. a Z X Q Q Q Q Q Q Z X b X Z c Z d X X Z Z X e Y c d f Aquí nos centramos en un circuito FT particular, muchas de nuestras técnicas pueden usarse de forma más general con diferentes códigos y circuitos. Se construyen dos subcircuitos, que se muestran en la Fig. 1b, para medir los operadores de calibre y . El circuito de medición de calibre también adquiere información útil midiendo cúbits de bandera. X Z Z Preparamos estados de código en el estado lógico () preparando primero nueve cúbits en el estado y midiendo el calibre (calibre ). Luego realizamos *r* rondas de medición de síndrome, donde una ronda consiste en una medición de calibre seguida de una medición de calibre (respectivamente, calibre seguido de calibre ). Finalmente, leemos los nueve cúbits de código en la base ( ). Realizamos los mismos experimentos para los estados lógicos iniciales y también, simplemente inicializando los nueve cúbits en y en su lugar. X Z Z X X Z Z X Algoritmos de decodificación En el contexto de la computación cuántica FT, un decodificador es un algoritmo que toma como entrada mediciones de síndrome de un código de corrección de errores y produce una corrección a los cúbits o datos de medición. En esta sección describimos dos algoritmos de decodificación: decodificación de coincidencia perfecta y decodificación de máxima verosimilitud. El hipergrafo de decodificación [15] es una descripción concisa de la información recopilada por un circuito FT y puesta a disposición de un algoritmo de decodificación. Consiste en un conjunto de vértices, o eventos sensibles a errores, , y un conjunto de hiperbordes , que codifican las correlaciones entre eventos causadas por errores en el circuito. La Fig. 1c-f muestra partes del hipergrafo de decodificación para nuestro experimento. V E Construir un hipergrafo de decodificación para circuitos estabilizadores con ruido Pauli se puede hacer utilizando simulaciones estándar de Gottesman-Knill [25] o técnicas similares de trazado Pauli [26]. Primero, se crea un evento sensible a errores para cada medición que es determinista en el circuito sin errores. Una medición determinista es cualquier medición cuyo resultado ∈ {0, 1} puede predecirse sumando módulo dos los resultados de medición de un conjunto de mediciones anteriores. Es decir, para un circuito sin errores, , donde el conjunto puede encontrarse mediante la simulación del circuito. Establezca el valor del evento sensible a errores en - (mod2), que es cero (también llamado trivial) en ausencia de errores. Por lo tanto, observar un evento sensible a errores no nulo (también llamado no trivial) implica que el circuito sufrió al menos un error. En nuestros circuitos, los eventos sensibles a errores son mediciones de cúbits de bandera o la diferencia de mediciones subsiguientes del mismo estabilizador (también a veces llamadas síndromes de diferencia). M m m F M A continuación, se añaden hiperbordes considerando fallos del circuito. Nuestro modelo contiene una probabilidad de fallo para cada uno de varios componentes del circuito p C Aquí distinguimos la operación de identidad id en los cúbits durante un tiempo en que otros cúbits están sometidos a puertas unitarias, de la operación de identidad id en los cúbits cuando otros están sometidos a medición y reinicio. Reiniciamos los cúbits después de medirlos, mientras que inicializamos los cúbits que aún no se han utilizado en el experimento. Finalmente, cx es la puerta controlled-not, h es la puerta Hadamard, y x, y, z son puertas Pauli. (ver Métodos "IBM_Peekskill y detalles experimentales" para más detalles). Los valores numéricos de se enumeran en Métodos "IBM_Peekskill y detalles experimentales". m p C Nuestro modelo de errores es ruido de depolarización del circuito. Para errores de inicialización y reinicio, se aplica un Pauli con las probabilidades respectivas y después de la preparación ideal del estado. Para errores de medición, se aplica un Pauli con probabilidad antes de la medición ideal. Una puerta unitaria de un cúbit (puerta de dos cúbits) sufre con probabilidad uno de los tres (quince) errores Pauli no idénticos siguiendo la puerta ideal. Hay una probabilidad igual de que ocurra cualquiera de los tres (quince) errores Pauli. X p init p reset X C p C Cuando ocurre un único fallo en el circuito, causa que un subconjunto de eventos sensibles a errores sea no trivial. Este conjunto de eventos sensibles a errores se convierte en un hiperborde. El conjunto de todos los hiperbordes es . Dos fallos diferentes pueden llevar al mismo hiperborde, por lo que cada hiperborde puede considerarse como representante de un conjunto de fallos, cada uno de los cuales causa individualmente que los eventos en el hiperborde sean no triviales. Asociada a cada hiperborde hay una probabilidad, que, en primer orden, es la suma de las probabilidades de los fallos en el conjunto. E Un fallo también puede llevar a un error que, propagado hasta el final del circuito, anticommuta con uno o más de los operadores lógicos del código, necesitando una corrección lógica. Asumimos por generalidad que el código tiene cúbits lógicos y una base de 2 operadores lógicos, pero notamos que = 1 para el código de hexágono pesado utilizado en el experimento. Podemos seguir la pista de qué operadores lógicos anticommutan con el error utilizando un vector de . Por lo tanto, cada hiperborde también está etiquetado por uno de estos vectores , llamado etiqueta lógica. Nótese que si el código tiene distancia al menos tres, cada hiperborde tiene una etiqueta lógica única. k k k h Por último, notamos que un algoritmo de decodificación puede optar por simplificar el hipergrafo de decodificación de diversas maneras. Una forma que empleamos siempre aquí es el proceso de deflagging. Las mediciones de bandera de los cúbits 16, 18, 21, 23 simplemente se ignoran sin aplicar correcciones. Si la bandera 11 es no trivial y la 12 trivial, se aplica al 2. Si la 12 es no trivial y la 11 trivial, se aplica al cúbit 6. Si la bandera 13 es no trivial y la 14 trivial, se aplica al cúbit 4. Si la 14 es no trivial y la 13 trivial, se aplica al cúbit 8. Ver ref. [15] para detalles sobre por qué esto es suficiente para la tolerancia a fallos. Esto significa que en lugar de incluir directamente los eventos sensibles a errores de las mediciones de los cúbits de bandera, preprocesamos los datos utilizando la información de bandera para aplicar correcciones Pauli virtuales y ajustar los eventos sensibles a errores subsiguientes en consecuencia. Los hiperbordes para el hipergrafo deflagged se pueden encontrar mediante simulación de estabilizador que incorpore las correcciones . Sea el número de rondas. Después del deflagging, el tamaño del conjunto para experimentos de base (resp. ) es | | = 6 + 2 (resp. 6 + 4), debido a la medición de seis estabilizadores por ronda y a tener dos (resp. cuatro) estabilizadores iniciales sensibles a errores después de la preparación del estado. El tamaño de es de manera similar | | = 60 - 13 (resp. 60 - 1) para > 0. Z Z Z Z Z Z r V Z X V r r E E r r r Considerando los errores y por separado, el problema de encontrar una corrección de peso mínimo para el código de superficie puede reducirse a encontrar un emparejamiento perfecto de peso mínimo en un grafo [4]. Los decodificadores de emparejamiento continúan siendo estudiados debido a su practicidad [27] y amplia aplicabilidad [28, 29]. En esta sección, describimos el decodificador de emparejamiento para nuestro código de hexágono pesado de distancia 3. X Z Los grafos de decodificación, uno para los errores (Fig. 1c) y otro para los errores (Fig. 1d), para el emparejamiento perfecto de peso mínimo son en realidad subgrafos del hipergrafo de decodificación en la sección anterior. Centrémonos aquí en el grafo para corregir errores , ya que el grafo de errores es análogo. En este caso, del hipergrafo de decodificación conservamos los nodos correspondientes a las mediciones de estabilizador (la diferencia de las subsiguientes) y los bordes (es decir, hiperbordes de tamaño dos) entre ellos. Adicionalmente, se crea un vértice límite , y los hiperbordes de tamaño uno de la forma { } con ∈ , se representan incluyendo bordes { , }. Todos los bordes en el grafo de errores heredan probabilidades y etiquetas lógicas de sus hiperbordes correspondientes (ver Tabla 1 para datos de bordes de errores y para el experimento de 2 rondas). X Z X Z V Z Z b v v V Z v b X X Z Un algoritmo de emparejamiento perfecto toma un grafo con bordes ponderados y un conjunto de nodos resaltados de tamaño par, y devuelve un conjunto de bordes en el grafo que conecta todos los nodos resaltados en pares y tiene un peso total mínimo entre todos los conjuntos de bordes de este tipo. En nuestro caso, los nodos resaltados son los eventos sensibles a errores no triviales (si hay un número impar, también se resalta el nodo límite), y los pesos de los bordes son elegidos para ser todos uno (método uniforme) o establecidos como , donde es la probabilidad del borde (método analítico). Esta última opción significa que el peso total de un conjunto de bordes es igual al log-verosimilitud de ese conjunto, y el emparejamiento perfecto de peso mínimo intenta maximizar esta verosimilitud sobre los bordes del grafo. p e Dado un emparejamiento perfecto de peso mínimo, se pueden usar las etiquetas lógicas de los bordes en el emparejamiento para decidir una corrección al estado lógico. Alternativamente, el grafo de errores (errores ) para el decodificador de emparejamiento es tal que cada borde puede asociarse a un cúbit de código (o un error de medición), de modo que incluir un borde en el emparejamiento implica que se debe aplicar una corrección ( ) al cúbit correspondiente. X Z X Z La decodificación de máxima verosimilitud (MLD) es un método óptimo, aunque no escalable, para decodificar códigos cuánticos de corrección de errores. En su concepción original, la MLD se aplicó a modelos de ruido fenomenológicos donde los errores ocurren justo antes de que se midan los síndromes [24, 30]. Esto, por supuesto, ignora el caso más realista donde los errores pueden propagarse a través de la circuitería de medición de síndromes. Más recientemente, la MLD se ha extendido para incluir el ruido del circuito [23, 31]. Aquí, describimos cómo la MLD corrige el ruido del circuito utilizando el hipergrafo de decodificación. La MLD deduce la corrección lógica más probable dada una observación de los eventos sensibles a errores. Esto se hace calculando la distribución de probabilidad Pr[ , ], donde representan los eventos sensibles a errores y representa una corrección lógica. β γ Podemos calcular Pr[ , ] incluyendo cada hiperborde del hipergrafo de decodificación, Fig. 1c-f, comenzando desde la distribución de error cero, es decir, Pr[0 , 0 ] = 1. Si el hiperborde tiene una probabilidad de ocurrir, independientemente de cualquier otro hiperborde, incluimos realizando la actualización β γ |V| 2 k h p h h donde es simplemente una representación vectorial binaria del hiperborde. Esta actualización debe realizarse una vez por cada hiperborde en . E Una vez calculado Pr[ , ], podemos usarlo para deducir la mejor corrección lógica. Si se observa en una ejecución del experimento, β γ indica cómo deben corregirse las mediciones de los operadores lógicos. Para más detalles sobre implementaciones específicas de MLD, consulte Métodos "Implementaciones de máxima verosimilitud". Realización experimental Para esta demostración utilizamos ibm_peekskill v2.0.0, un procesador IBM Quantum Falcon de 27 cúbits [32] cuyo mapa de acoplamiento permite un código de hexágono pesado de distancia 3, ver Fig. 1. El tiempo total para la medición del cúbit y el reinicio condicional posterior en tiempo real, para cada ronda, toma 768 ns y es el mismo para todos los cúbits. Todas las mediciones de síndrome y reinicios ocurren simultáneamente para un rendimiento mejorado. Se añade una simple secuencia de desacoplamiento dinámico - a todos los cúbits de código durante sus respectivos períodos de inactividad. Xπ Xπ La fuga de cúbits es una razón importante por la que el modelo de error de depolarización Pauli asumido por el diseño del decodificador podría ser inexacto. En algunos casos, podemos detectar si un cúbit ha salido del subespacio de computación en el momento en que se mide (ver Métodos "Método de post-selección" para más información sobre el método de post-selección y sus limitaciones). Utilizando esto, podemos post-seleccionar las ejecuciones del experimento cuando no se ha detectado fuga, similar a ref. [18]. En la Fig. 2a, inicializamos el estado lógico (), y aplicamos *r* rondas de medición de síndrome, donde una ronda incluye estabilizadores y (tiempo total de aproximadamente 5.3 s por ronda, Fig. 1b). Usando decodificación analítica de emparejamiento perfecto sobre el conjunto completo de datos (500.000 disparos por ejecución), extraemos los errores lógicos en la Fig. 2a, triángulos rojos (azules). Los detalles de los parámetros optimizados utilizados en la decodificación analítica de emparejamiento perfecto se pueden encontrar en Métodos "IBM_Peekskill y detalles experimentales". Ajustando las curvas de decaimiento completas (ecuación (14)) hasta 10 rondas, extraemos el error lógico por ronda sin post-selección en la Fig. 2b de 0.059(2) (0.058(3)) para () y 0.113(5) (0.107(4)) para (), respectivamente. X Z μ Error lógico frente al número de rondas de medición de síndrome , donde una ronda incluye tanto una medición de estabilizador como una . Los triángulos apuntando a la derecha (triángulos rojos) marcan los errores lógicos obtenidos del uso de decodificación analítica de emparejamiento en datos experimentales brutos para estados (). Los cuadrados azul claro (círculos rojo claro) marcan los de () con el mismo método de decodificación pero utilizando datos experimentales post-seleccionados por fuga. Las barras de error denotan el error de muestreo de cada ejecución (500.000 disparos para datos brutos, número variable de disparos para post-seleccionados). Las líneas discontinuas ajustadas de error indican el rendimiento de error por ronda representado en . La aplicación del mismo método de decodificación a datos post-seleccionados por fuga muestra una reducción sustancial en el error general para los cuatro estados lógicos. Ver Métodos "Método de post-selección" para detalles sobre la post-selección. Las tasas de rechazo ajustadas por ronda para , , , son 4.91%, 4.64%, 4.37% y 4.89%, respectivamente. Las barras de error denotan una desviación estándar de la tasa ajustada. , Utilizando datos post-seleccionados, comparamos el error lógico obtenido con los cuatro decodificadores: emparejamiento uniforme (rosa), emparejamiento analítico (verde), emparejamiento analítico con información blanda (gris) y máxima verosimilitud (azul). (Ver Fig. 6 para y ). Tasas ajustadas discontinuas representadas en , . Las barras de error denotan el error de muestreo. , Comparación de error ajustado por ronda para los cuatro estados lógicos utilizando decodificadores de emparejamiento uniforme (rosa), emparejamiento analítico (verde), emparejamiento analítico con información blanda (gris) y máxima verosimilitud (azul) en datos post-seleccionados por fuga. Las barras de error representan una desviación estándar de la tasa ajustada. a r Z X b b c d e f e f La aplicación del mismo método de decodificación a datos post-seleccionados por fuga reduce los errores lógicos en la Fig. 2a, y conduce a tasas de error ajustadas de 0.041(1) (0.044(4)) para () y 0.088(3) (0.085(3)) para () como se muestra en la Fig. 2b. Las tasas de rechazo por ronda de la post-selección para , , , y son 4.91%, 4.64%, 4.37% y 4.89%, respectivamente. Ver Métodos "Método de post-selección" para detalles. En la Fig. 2c-f, comparamos el error lógico para cada ronda y el error lógico extraído por ronda obtenido de los conjuntos de datos post-seleccionados utilizando los tres decodificadores descritos anteriormente en la Sección "Algoritmos de decodificación". También incluimos una versión del decodificador analítico que explota información blanda [33], que se describe en Métodos "Decodificación de información blanda". Observamos (ver Fig. 2e, f) una mejora consistente en la decodificación al pasar de emparejamiento uniforme (rosa), a emparejamiento analítico (verde), a emparejamiento analítico con información blanda, a máxima verosimilitud (gris), aunque esto es mucho menos significativo para los estados lógicos de base . Una comparación cuantitativa entre los tres decodificadores para los cuatro estados lógicos en = 2 rondas se proporciona en Métodos "Error lógico en = 2 rondas". X r r Hay al menos tres razones por las que los estados de base se desempeñan peor que los de base . La primera es la asimetría natural en los circuitos. La mayor profundidad requerida para medir estabilizadores conduce a más tiempo durante el cual los errores en los cúbits de datos pueden acumularse sin ser detectados. Esto está respaldado por simulaciones, como las de [1], que utilizan un decodificador diferente, y aquí en Métodos "Detalles de simulación", que observan un peor rendimiento de la base para este código =3. Segundo, las elecciones realizadas en la decodificación, particularmente el paso de deflagging, pueden exacerbar la asimetría al convertir esencialmente errores de medición y reinicio en errores en los cúbits de datos. Esto conduce a una alta tasa efectiva de error que no puede mejorarse mucho, incluso con decodificación de máxima verosimilitud. En contraste, si solo hacemos deflagging de la primera ronda de mediciones, el error lógico del decodificador de máxima verosimilitud en el experimento de = 2 rondas, disminuye alrededor del 2.8% a 18.02(7)%. El deflagging de esta manera consume mucho tiempo para recuentos de rondas más grandes, ya que agregar nodos de bandera al hipergrafo de decodificación aumenta enormemente su tamaño. Finalmente, los decodificadores solo son tan buenos como nuestro modelo de ruido experimental. Las fuentes de ruido no depolarizantes, como los errores Pauli espectadores, que sabemos que están presentes, no son modeladas por ninguno de nuestros decodificadores y afectarán más negativamente a los estados de base . Una estimación más precisa e inclusión de dicho ruido experimental y sus implicaciones para la tolerancia a fallos es un tema importante para investigación futura. X Z Z Z X d Z Z r ZZ X Discusión Los resultados presentados en este trabajo resaltan la importancia del progreso conjunto del hardware cuántico, tanto en tamaño como en calidad, y del procesamiento de información clásica, tanto concurrente con la ejecución del circuito como asíncrono a él, como se describe con los decodificadores estudiados. Nuestros experimentos incorporan mediciones de mitad de circuito y operaciones condicionales como parte de un protocolo QEC. Estas capacidades técnicas sirven como elementos fundamentales para una mayor mejora del papel de los circuitos dinámicos en QEC, por ejemplo, hacia la corrección en tiempo real y otras operaciones de retroalimentación que serán críticas para cálculos FT a gran escala. También mostramos cómo las plataformas experimentales para QEC de este tamaño y capacidades pueden generar nuevas ideas hacia decodificadores más robustos. Nuestra comparación entre un decodificador de coincidencia perfecta y uno de máxima verosimilitud establece un punto de partida prometedor hacia la comprensión del compromiso entre la escalabilidad del decodificador versus el rendimiento en presencia de ruido experimental. Un mejor modelado del ruido y las técnicas de pre-decodificación de errores [34, 35] podrían mejorar el rendimiento y el tiempo de ejecución de estos decodificadores. Todos estos componentes clave jugarán un papel crucial en códigos de mayor distancia, donde la calidad de las operaciones en tiempo real (reinicio condicional de cúbits y eliminación de fugas, protocolos de teletransportación para puertas lógicas y decodificación), junto con los niveles de ruido del dispositivo, determinarán el rendimiento