Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumo A corrección de erros cuánticos ofrece un camiño prometedor para realizar computacións cuánticas de alta fidelidade. Aínda que as execucións totalmente tolerantes a fallos de algoritmos seguen sen realizarse, as recentes melloras na electrónica de control e no hardware cuántico permiten demostracións cada vez máis avanzadas das operacións necesarias para a corrección de erros. Aquí, realizamos corrección de erros cuánticos en qubits superconductores conectados nunha rede hexagonal pesada. Codificamos un qubit lóxico con distancia tres e realizamos varias roldas de medidas de síndrome tolerantes a fallos que permiten a corrección de calquera fallo único na circuitería. Usando realimentación en tempo real, reiniciamos os qubits de síndrome e sinal condicionalmente despois de cada ciclo de extracción de síndrome. Informamos dun erro lóxico dependente do decodificador, cun erro lóxico medio por medida de síndrome en base Z(X) de ~0.040 (~0.088) e ~0.037 (~0.087) para decodificadores coincidentes e de máxima verosimilitude, respectivamente, en datos post-seleccionados por fuga. Introdución Os resultados das computacións cuánticas poden ser defectuosos, na práctica, debido ao ruído no hardware. Para eliminar os fallos resultantes, pódense usar códigos de corrección de erros cuánticos (QEC) para codificar a información cuántica en graos de liberdade lóxicos protexidos e, a continuación, corrixindo os fallos máis rápido do que se acumulan, permitir computacións tolerantes a fallos (FT). Unha execución completa de QEC probablemente requirirá: preparación de estados lóxicos; realización dun conxunto universal de portas lóxicas, que pode requirir a preparación de estados máxicos; medidas repetidas de síndromes; e a decodificación das síndromes para corrixir erros. Se ten éxito, as taxas de erro lóxico resultantes deberían ser menores que as taxas de erro físicas subxacentes e diminuír co aumento das distancias do código ata valores desprezables. A elección dun código QEC require a consideración do hardware subxacente e as súas propiedades de ruído. Para unha rede hexagonal pesada de qubits, os códigos QEC de subsistema son atractivos porque se adaptan ben a qubits con conectividades reducidas. Outros códigos mostraron promesas debido ao seu limiar relativamente alto para FT ou a un gran número de portas lóxicas transversais. Aínda que a súa sobrecarga espacial e temporal pode supoñer un obstáculo importante para a escalabilidade, existen enfoques alentadores para reducir os recursos máis caros explotando algunha forma de mitigación de erros. No proceso de decodificación, a corrección exitosa depende non só do rendemento do hardware cuántico, senón tamén da implementación da electrónica de control utilizada para adquirir e procesar a información clásica obtida das medidas de síndrome. No noso caso, inicializar os qubits de síndrome e sinal mediante realimentación en tempo real entre ciclos de medida pode axudar a mitigar erros. A nivel de decodificación, mentres que existen algúns protocolos para realizar QEC asincronamente dentro dun formalismo FT, a velocidade á que se reciben as síndromes de erro debería ser proporcionada ao seu tempo de procesamento clásico para evitar unha acumulación crecente de datos de síndrome. Ademais, algúns protocolos, como o uso dun estado máxico para unha porta T lóxica, requiren a aplicación de feed-forward en tempo real. Así, a visión a longo prazo de QEC non gravita en torno a un único obxectivo final, senón que debe verse como un continuo de tarefas profundamente interrelacionadas. O camiño experimental no desenvolvemento desta tecnoloxía comprenderá primeiro a demostración destas tarefas de forma illada e despois a súa combinación progresiva, sempre mellorando continuamente as súas métricas asociadas. Parte deste progreso reflíctese en numerosos avances recentes en sistemas cuánticos en diferentes plataformas físicas, que demostraron ou aproximaron varios aspectos dos desiderata para a computación cuántica FT. En particular, a preparación de estados lóxicos FT demostrouse en ións, spins nucleares en diamante e qubits superconductores. Ciclos repetidos de extracción de síndrome mostráronse en qubits superconductores en pequenos códigos de detección de erros, incluída a corrección parcial de erros, así como un conxunto universal (aínda que non FT) de portas de qubit único. Recentemente, informouse dunha demostración FT dun conxunto de portas universal en dous qubits lóxicos en ións. No ámbito da corrección de erros, houbo realizacións recentes do código de superficie de distancia 3 en qubits superconductores con decodificación e post-selección, así como unha implementación FT dunha memoria cuántica dinámicamente protexida usando o código de cor e a preparación, operación e medida de estados lóxicos FT, incluídos os seus estabilizadores, do código de Bacon-Shor en ións. Aquí combinamos a capacidade de realimentación en tempo real nun sistema de qubits superconductores cun protocolo de decodificación de máxima verosimilitude hitherto inexplorado experimentalmente para mellorar a supervivencia dos estados lóxicos. Demostramos estas ferramentas como parte da operación FT dun código de subsistema, o código hexagonal pesado, nun procesador cuántico superconductor. Esencial para facer que a nosa implementación deste código sexa tolerante a fallos son os qubits de sinal que, ao atoparse non nulos, alertan ao decodificador de erros na circuitería. Ao restablecer condicionalmente os qubits de sinal e síndrome despois de cada ciclo de medida de síndrome, protexemos o noso sistema contra erros derivados da asimetría de ruído inherente á relaxación enerxética. Ademais, explotamos estratexias de decodificación descritas recentemente e estendemos as ideas de decodificación para incluír conceptos de máxima verosimilitude. Resultados O código hexagonal pesado e circuítos multironda O código hexagonal pesado que consideramos é un código de 9 qubits que codifica 1 qubit lóxico con distancia 3. Os grupos de estabilizadores de calibre Z e X (ver Fig. 1a) xéranse por Os grupos de estabilizadores son os centros dos respectivos grupos de calibre. Isto significa que os estabilizadores, como produtos de operadores de calibre, pódense deducir de medidas de só os operadores de calibre. Os operadores lóxicos pódense escoller como XL = X1X2X3 e ZL = Z1Z3Z7. Operadores de calibre Z (azul) e X (vermello) (ecuacións 1 e 2) mapeados nos 23 qubits requiridos co código hexagonal pesado de distancia 3. Os qubits de código (Q1–Q9) móstranse en amarelo, os qubits de síndrome (Q17, Q19, Q20, Q22) utilizados para estabilizadores Z en azul, e os qubits de sinal e síndromes utilizados para estabilizadores X en branco. A orde e a dirección das portas CX aplicadas dentro de cada subsección (0 a 4) denótanse polas frechas numeradas. Diagrama do circuíto dunha rolda de medida de síndrome, incluíndo estabilizadores X e Z. O diagrama do circuíto ilustra a paralelización permitida das operacións de porta: as que están dentro dos límites establecidos polas barreiras de programación (liñas verticais discontinuas grises). Como a duración de cada porta de dous qubits difire, a programación final da porta determínase cun pase estándar de transpilación de circuítos o máis tarde posible; despois do cal se engade desacoplamento dinámico aos qubits de datos onde o tempo o permite. As operacións de medida e reinicio illáronse doutras operacións de porta por barreiras para permitir que se engada desacoplamento dinámico uniforme aos qubits de datos inactivos. Grafos de decodificación para tres roldas de medidas de estabilizador (c) Z e (d) X con ruído a nivel de circuíto permiten a corrección de erros X e Z, respectivamente. Os nós azuis e vermellos nos grafos corresponden a síndromes de diferenza, mentres que os nós negros son a fronteira. As arestas codifican varias formas nas que os erros poden ocorrer no circuíto como se describe no texto. Os nós están etiquetados polo tipo de medida de estabilizador (Z ou X), xunto cun subíndice que indexa o estabilizador, e superíndices que denotan a rolda. As arestas negras, que xorden de erros Pauli Y en qubits de código (e polo tanto son só de tamaño 2), conectan os dous grafos en c e d, pero non se usan no decodificador coincidente. As hiperarestas de tamaño 4, que non son usadas pola coincidencia, pero son usadas no decodificador de máxima verosimilitude. As cores son só para maior claridade. A tradución de cada unha no tempo por unha rolda tamén dá un hiperaresta válido (con algunha variación nos límites de tempo). Tampouco se mostran hiperarestas de tamaño 3. a b e f Aquí centrámonos nun circuíto FT particular, moitas das nosas técnicas pódense usar de forma máis xeral con diferentes códigos e circuítos. Constrúense dous subcircuítos, que se mostran na Fig. 1b, para medir os operadores de calibre X e Z. A medida de calibre Z tamén adquire información útil medindo qubits de sinal. Preparamos estados de código no estado lóxico |0L⟩ (|1L⟩) primeiro preparando nove qubits no estado |+⟩ (|−⟩) e medindo o calibre X (calibre Z). Despois realizamos r roldas de medida de síndrome, onde unha rolda consiste nunha medida de calibre Z seguida dunha medida de calibre X (respectivamente, calibre X seguida dunha medida de calibre Z). Finalmente, lemos os nove qubits de código na base Z (X). Realizamos os mesmos experimentos para os estados lóxicos iniciais |1L⟩ e |−iL⟩, simplemente inicializando os nove qubits en |−⟩ e |+⟩ respectivamente. Algoritmos de decodificación No ámbito da computación cuántica FT, un decodificador é un algoritmo que toma como entrada medidas de síndrome dun código de corrección de erros e produce unha corrección para os qubits ou os datos de medida. Nesta sección describimos dous algoritmos de decodificación: decodificación de coincidencia perfecta e decodificación de máxima verosimilitude. O hipergrafo de decodificación é unha descrición concisa da información reunida por un circuíto FT e dispoñible para un algoritmo de decodificación. Consiste nun conxunto de vértices, ou eventos sensibles a erros, V, e un conxunto de hiperarestas E, que codifican as correlacións entre eventos causadas por erros no circuíto. A Fig. 1c–f representa partes do hipergrafo de decodificación para o noso experimento. A construción dun hipergrafo de decodificación para circuítos de estabilizadores con ruído Pauli pódese facer usando simulacións estándar de Gottesman-Knill ou técnicas de rastrexo Pauli similares. Primeiro, créase un evento sensible a erros para cada medida que é determinista no circuíto sen erros. Unha medida determinista M é calquera medida cuxo resultado m ∈ {0, 1} poida predicirse sumando módulo dous os resultados de medida dun conxunto de medidas anteriores. É dicir, para un circuíto sen erros, m = ∑_{M' ∈ S} m', onde o conxunto S pódese atopar mediante simulación do circuíto. Establece o valor do evento sensible a erros en m − FM(mod2), que é cero (tamén chamado trivial) na ausencia de erros. Polo tanto, observar un evento sensible a erros non cero (tamén chamado non trivial) implica que o circuíto sufriu polo menos un erro. Nos nosos circuítos, os eventos sensibles a erros son medidas de qubits de sinal ou a diferenza de medidas sucesivas do mesmo estabilizador (tamén chamadas ás veces síndromes de diferenza). A continuación, engádense hiperarestas considerando fallos no circuíto. O noso modelo contén unha probabilidade de fallo pC para cada un de varios compoñentes do circuíto Aquí distinguimos a operación identidade id nos qubits durante un tempo no que outros qubits están sometidos a portas unitarias, da operación identidade idm nos qubits cando outros están sometidos a medida e reinicio. Restablecemos os qubits despois de medilos, mentres que inicializamos qubits que aínda non se usaron no experimento. Finalmente, cx é a porta controlled-not, h é a porta Hadamard, e x, y, z son portas Pauli. (ver Métodos “IBM_Peekskill e detalles experimentais” para máis detalles). Os valores numéricos para pC enuméranse nos Métodos “IBM_Peekskill e detalles experimentais”. O noso modelo de erro é ruído de despolarización do circuíto. Para erros de inicialización e reinicio, aplícase un Pauli X coas respectivas probabilidades pinit e preset despois da preparación ideal do estado. Para erros de medida, aplícase un Pauli X cunha probabilidade $p_M$ antes da medida ideal. Unha porta unitaria dun qubit (porta de dous qubits) C sofre cunha probabilidade pC un dos tres (quince) erros Pauli non idénticos despois da porta ideal. Hai unha oportunidade igual de que ocorra calquera dos tres (quince) erros Pauli. Cando ocorre un único fallo no circuíto, fai que un subconxunto de eventos sensibles a erros sexa non trivial. Este conxunto de eventos sensibles a erros convértese nun hiperaresta. O conxunto de todos os hiperarestas é E. Dous fallos diferentes poden levar ao mesmo hiperaresta, polo que cada hiperaresta pódese ver como que representa un conxunto de fallos, cada un dos cales causa individualmente que os eventos no hiperaresta sexan non triviais. Asociado a cada hiperaresta hai unha probabilidade, que, en primeira orde, é a suma das probabilidades de fallos no conxunto. Un fallo tamén pode levar a un erro que, propagado ata o final do circuíto, anticomuta cun ou máis dos operadores lóxicos do código, o que require unha corrección lóxica. Suponemos por xeneralidade que o código ten k qubits lóxicos e unha base de 2k operadores lóxicos, pero notamos k = 1 para o código hexagonal pesado usado no experimento. Podemos facer un seguimento de que operadores lóxicos anticomutan co erro usando un vector de {0, 1}^k. Polo tanto, cada hiperaresta h tamén está etiquetado cun destes vectores $v_h$, chamado etiqueta lóxica. Nótese que se o código ten distancia polo menos tres, cada hiperaresta ten unha etiqueta lóxica única. Finalmente, notamos que un algoritmo de decodificación pode optar por simplificar o hipergrafo de decodificación de varias maneiras. Unha forma que sempre empregamos aquí é o proceso de deflagging. As medidas de sinal dos qubits 16, 18, 21, 23 simplemente ignóranse sen aplicar correccións. Se a sinal 11 é non trivial e a 12 é trivial, aplícase Z ao 2. Se a 12 é non trivial e a 11 é trivial, aplícase Z ao qubit 6. Se a sinal 13 é non trivial e a 14 é trivial, aplícase Z ao qubit 4. Se a 14 é non trivial e a 13 é trivial, aplícase Z ao qubit 8. Ver ref. 15 para detalles sobre por que isto é suficiente para a tolerancia a fallos. Isto significa que en lugar de incluír eventos sensibles a erros das medidas de qubits de sinal directamente, preprocesamos os datos usando a información de sinal para aplicar correccións Pauli Z virtuais e axustar os eventos sensibles a erros posteriores en consecuencia. Os hiperarestas para o hipergrafo deflagado pódense atopar mediante simulación de estabilizadores incorporando as correccións Z. Sexa r o número de roldas. Despois de deflagging, o tamaño do conxunto V para experimentos na base Z (respectivamente X) é |V| = 6r + 2 (respectivamente 6r + 4), debido á medida de seis estabilizadores por rolda e a ter dous (respectivamente catro) estabilizadores de erro iniciais despois da preparación do estado. O tamaño de E é similar |E| = 60r - 13 (respectivamente 60r - 1) para r > 0. Considerando os erros X e Z por separado, o problema de atopar unha corrección de erro de peso mínimo para o código de superficie pódese reducir a atopar unha coincidencia perfecta de peso mínimo nun grafo. Os decodificadores de coincidencia continúan sendo estudados debido á súa practicidade e ampla aplicabilidade. Nesta sección, describimos o decodificador de coincidencia para o noso código hexagonal pesado de distancia 3. Os grafos de decodificación, un para os erros X (Fig. 1c) e outro para os erros Z (Fig. 1d), para a coincidencia perfecta de peso mínimo son en realidade subgrafos do hipergrafo de decodificación na sección anterior. Centrémonos aquí no grafo para corrixir erros X, xa que o grafo de erros Z é análogo. Neste caso, a partir do hipergrafo de decodificación mantemos os nós VZ correspondentes a (a diferenza de) medidas de estabilizador sucesivas e as arestas (é dicir, hiperarestas de tamaño dous) entre eles. Adicionalmente, créase un vértice fronteira b, e hiperarestas de tamaño un da forma {v} con v ∈ VZ, represéntanse incluíndo arestas {v, b}. Todas as arestas no grafo de erros X herdan probabilidades e etiquetas lóxicas dos seus hiperarestas correspondentes (ver Táboa 1 para datos de arestas de erro X e Z para o experimento de 2 roldas). Un algoritmo de coincidencia perfecta toma un grafo con arestas ponderadas e un conxunto de tamaño par de nós resaltados, e devolve un conxunto de arestas no grafo que conecta todos os nós resaltados en pares e ten un peso total mínimo entre todos os conxuntos de arestas. No noso caso, os nós resaltados son os eventos sensibles a erros non triviais (se hai un número impar, o nó fronteira tamén está resaltado), e os pesos das arestas son ou ben elixidos para ser un (método uniforme) ou establecidos como $w_e = -\log(p_e)$, onde $p_e$ é a probabilidade da aresta (método analítico). Esta última elección significa que o peso total dun conxunto de arestas é igual ao log-verosimilitude dese conxunto, e a coincidencia perfecta de peso mínimo intenta maximizar esta verosimilitude sobre as arestas do grafo. Dada unha coincidencia perfecta de peso mínimo, pódese usar as etiquetas lóxicas das arestas na coincidencia para decidir unha corrección ao estado lóxico. Alternativamente, o grafo de erros X (erro Z) para o decodificador coincidente é tal que cada aresta pode asociarse a un qubit de código (ou un erro de medida), de xeito que incluír unha aresta na coincidencia implica que se debe aplicar unha corrección X (Z) ao qubit correspondente. A decodificación de máxima verosimilitude (MLD) é un método óptimo, aínda que non escalable, para decodificar códigos de corrección de erros cuánticos. Na súa concepción orixinal, MLD aplicouse a modelos de ruído fenomenolóxicos onde os erros ocorren xusto antes de que se midan as síndromes. Isto, por suposto, ignora o caso máis realista onde os erros poden propagarse a través da circuitería de medida de síndrome. Máis recentemente, MLD estendeuse para incluír ruído de circuitería. Aquí, describimos como MLD corrixe o ruído de circuitería usando o hipergrafo de decodificación. MLD dedúce a corrección lóxica máis probable dada unha observación dos eventos sensibles a erros. Isto faise calculando a distribución de probabilidade Pr[β, γ], onde β representa eventos sensibles a erros e γ representa unha corrección lóxica. Podemos calcular Pr[β, γ] incluíndo cada hiperaresta do hipergrafo de decodificación, Fig. 1c–f, comezando pola distribución de erro cero, é dicir, Pr[0^{|V|}, 0^{2^k}] = 1. Se un hiperaresta h ten probabilidade ph de ocorrer, independente de calquera outro hiperaresta, incluímos h realizando a actualización onde $v_h$ é simplemente unha representación vectorial binaria do hiperaresta. Esta actualización debe aplicarse unha vez por cada hiperaresta en E. Unha vez que se calcula Pr[β, γ], podemos usalo para deducir a mellor corrección lóxica. Se se observa β* nunha execución do experimento, indica como se deben corrixir as medidas dos operadores lóxicos. Para máis detalles sobre implementacións específicas de MLD, consulte Métodos “Implementacións de máxima verosimilitude”. Realización experimental Para esta demostración, usamos ibm_peekskill v2.0.0, un procesador IBM Quantum Falcon de 27 qubits cuxo mapa de acoplamento permite un código hexagonal pesado de distancia 3, ver Fig. 1. O tempo total para a medida do qubit e o subsiguiente reinicio condicional en tempo real, para cada rolda, leva 768 ns e é o mesmo para todos os qubits. Todas as medidas de síndrome e reinicios ocorren simultaneamente para un rendemento mellorado. Engádese unha simple secuencia de desacoplamento dinámico Xπ-Xπ a todos os qubits de código durante os seus respectivos períodos de inactividade. A fuga de qubits é unha razón importante pola que o modelo de erro de despolarización de Pauli asumido polo deseño do decodificador pode ser inexacto. Nalgúns casos, podemos detectar se un qubit fuxiu do subespazo de computación no momento en que se mide (ver Métodos “Método de post-selección” para máis información sobre o método de post-selección e limitacións). Usando isto, podemos post-seleccionar execucións do experimento cando non se detectou fuga, similar á ref. 18. Na Fig. 2a, inicializamos o estado lóxico |+iL⟩ (|−iL⟩), e aplicamos r roldas de medida de síndrome, onde unha rolda inclúe estabilizadores X e Z (tempo total de aproximadamente 5.3 μs por rolda, Fig. 1b). Usando decodificación analítica de coincidencia perfecta nos datos completos (500.000 disparos por execución), extraemos os erros lóxicos na Fig. 2a, triángulos vermellos (azuis). Os detalles dos parámetros optimizados utilizados na decodificación analítica de coincidencia perfecta pódense atopar nos Métodos “IBM_Peekskill e detalles experimentais”. Axustando as curvas de decaemento completas (ecuación 14) ata 10 roldas, extraemos erro lóxico por rolda sen post-selección na Fig. 2b de 0.059(2) (0.058(3)) para |+iL⟩ (|−iL⟩) e 0.113(5) (0.107(4)) para |+i⟩ (|−i⟩). Erro lóxico fronte ao número de roldas de medida de síndrome r, onde unha rolda inclúe tanto unha medida de estabilizador Z como X. Os triángulos azuis cara á dereita (triángulos vermellos) marcan os erros lóxicos obtidos do uso de decodificación analítica coincidente en datos experimentais brutos para estados |+iL⟩ (−iL⟩). Os cadrados azul claro (círculos vermellos claros) marcan os correspondentes a |+i⟩ (−i⟩) co mesmo método de decodificación pero usando datos experimentais post-seleccionados por fuga. As barras de erro denotan o erro de mostraxe de cada execución (500.000 disparos para datos brutos, número variable de disparos para post-seleccionados). As liñas discontinuas axustan o rendemento de erro trazado en b. Aplicando o mesmo método de decodificación a datos post-seleccionados por fuga, móstrase unha redución substancial do erro global para os catro estados lóxicos. Ver Métodos “Método de post-selección” para detalles sobre a post-selección. As taxas de rexeitamento axustadas por rolda para |+iL⟩, |−iL⟩, |+i⟩, |−i⟩ son 4.91%, 4.64%, 4.37%, e 4.89%, respectivamente. As barras de erro denotan unha desviación estándar na taxa axustada. , Usando datos post-seleccionados, comparamos o erro lóxico obtido cos catro decodificadores: coincidencia uniforme (rosa), coincidencia analítica (verde), coincidencia analítica con información suave (gris), e máxima verosimilitude (azul) (Ver Fig. 6 para |+i⟩ e |−i⟩). As taxas axustadas discontinuas presentadas en e, f. As barras de erro denotan o erro de mostraxe. , Comparación das taxas de erro axustadas por rolda para os catro estados lóxicos usando decodificadores de coincidencia uniforme (rosa), coincidencia analítica (verde), coincidencia analítica con información suave (gris), e máxima verosimilitude (azul) en datos post-seleccionados por fuga. As barras de erro representan unha desviación estándar na taxa axustada. a b c d e f A aplicación do mesmo método de decodificación a datos post-seleccionados por fuga reduce os erros lóxicos na Fig. 2a, e leva a taxas de erro axustadas de 0.041(1) (0.044(4)) para |+iL⟩ (−iL⟩) e 0.088(3) (0.085(3)) para |+i⟩ (−i⟩) como se mostra na Fig. 2b. As taxas de rexeitamento por rolda da post-selección para |+iL⟩, |−iL⟩, |+i⟩, e |−i⟩ son 4.91%, 4.64%, 4.37%, e 4.89%, respectivamente. Ver Métodos “Método de post-selección” para detalles. Na Fig. 2c–f, comparamos o erro lóxico para cada rolda e o erro lóxico extraído por rolda obtido dos conxuntos de datos post-seleccionados usando os tres decodificadores descritos anteriormente na Sección “Algoritmos de decodificación”. Tamén incluímos unha versión do decodificador analítico que explota información suave (soft information), que se describe nos Métodos “Decodificación con información suave”. Observamos (ver Fig. 2e, f) unha mellora consistente na decodificación ao pasar de coincidencia uniforme (rosa), a coincidencia analítica (verde), a coincidencia analítica con información suave, a máxima verosimilitude (gris), aínda que isto é moito menos significativo para os estados lóxicos en base X. Unha comparación cuantitativa entre os tres decodificadores para os catro estados lóxicos en r = 2 roldas proporciónase nos Métodos “Erro Lóxico en r = 2 roldas”. Hai polo menos tres razóns polas que os estados en base X teñen un peor rendemento que os da base Z. A primeira é a asimetría natural nos circuítos. A maior profundidade requirida para medir estabilizadores Z leva máis tempo durante o cal os erros Z nos qubits de datos poden acumularse sen detectar. Isto está apoiado por simulacións, como as de 1, que usan un decodificador diferente, e aquí nos Métodos “Detalles de simulación”, que ven un peor rendemento da base X para este código d=3. Segundo, as eleccións feitas na decodificación, particularmente o paso de deflagging, poden exacerbar a asimetría ao converter esencialmente os erros de medida e reinicio en erros Z nos qubits de datos. Isto leva a unha alta taxa de erro Z efectiva que non se pode mellorar moito, nin sequera coa decodificación de máxima verosimilitude. En contraste, se deflagamos só a primeira rolda de medidas, o erro lóxico do decodificador de máxima verosimilitude no experimento de r=2 roldas, |−iL⟩, diminúe arredor dun 2.8% ata o 18.02(7)%. O deflagging de sinal como este convértese en lento para maiores contaxes de roldas xa que engadir nós de sinal ao hipergrafo de decodificación aumenta considerablemente o seu tamaño. Finalmente, os decodificadores son só tan bons como o noso modelo do ruído experimental. Fontes de ruído non despolarizantes como erros Pauli ZZ espectadores, que sabemos que están presentes, non son modeladas por ningún dos nosos decodificadores e afectarán máis negativamente aos estados en base X. Unha estimación máis precisa e inclusión de dito ruído experimental e as súas implicacións para a tolerancia a fallos é un tema importante para investigación futura. Discusión Os resultados presentados neste traballo destacan a importancia do progreso conxunto do hardware cuántico, tanto en tamaño como en calidade, e do procesamento de información clásica, tanto concorrente coa execución do circuíto como asíncrono a el, como se describe cos decodificadores estudados. Os nosos experimentos incorporan medidas de circuíto medio e operacións condicionais como parte dun protocolo QEC. Estas capacidades técnicas serven como elementos fundamentais para mellorar aínda máis o papel dos circuítos dinámicos en QEC, por exemplo, cara á corrección en tempo real e outras operacións de feed-forward que serán críticas para computacións FT a gran escala. Tamén mostramos como as plataformas experimentais para QEC deste tamaño e capacidades poden desencadear novas ideas cara a decodificadores máis robustos. A nosa comparación entre un decodificador de coincidencia perfecta e un de máxima verosimilitude establece un punto de partida prometedor cara á comprensión da compensación entre a escalabilidade do decodificador fronte ao rendemento na presenza de ruído experimental. Un mellor modelado de ruído e as técnicas de pre-decodificación de erros poderían mellorar o rendemento e o tempo de execución destes decodificadores. Todos estes compoñentes clave xogarán un papel crucial en códigos de maior distancia, onde a calidade das operacións en tempo real (reinicio condicional de qubits e eliminación de fuga, protocolos de teletransporte para portas lóxicas e decodificación), xunto cos niveis de ruído do dispositivo, determinarán o rendemento do código, permitindo potencialmente a demostración de supresión de erros lóxicos cunha distancia de código aumentada. Métodos Probabilidades de aresta e implementación da coincidencia perfecta de peso mínimo Usamos o teorema de Gottesman-Knill para propagar erros Pauli a través dos nosos circuítos de Clifford e determinar que eventos sensibles a erros se fan non triviais. Un exemplo móstrase na Fig. 3. Se p é a probabilidade dun erro Pauli específico e e é o conxunto correspondente de eventos non triviais, p engádese á probabilidade da aresta pe.