```html Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumo A corrección de erros cuánticos ofrece un camiño prometedor para realizar computacións cuánticas de alta fidelidade. Aínda que as execucións totalmente tolerantes a fallos de algoritmos seguen sen realizarse, as recentes melloras na electrónica de control e no hardware cuántico permiten demostracións cada vez máis avanzadas das operacións necesarias para a corrección de erros. Aquí, realizamos corrección de erros cuánticos en cúbits superconductores conectados nunha rede de hexágono pesado. Codificamos un cúbit lóxico con distancia tres e realizamos varias roldas de medición de síndromes tolerantes a fallos que permiten a corrección de calquera fallo único no circuíto. Usando retroalimentación en tempo real, reiniciamos os cúbits de síndromes e bandeiras condicionalmente despois de cada ciclo de extracción de síndromes. Informamos dun erro lóxico dependente do decodificador, cun erro lóxico medio por medición de síndrome na base Z(X) de ~0,040 (~0,088) e ~0,037 (~0,087) para decodificadores coincidentes e de máxima verosimilitude, respectivamente, en datos post-seleccionados por fugas. Introdución Os resultados das computacións cuánticas poden ser faulty, na práctica, debido ao ruído no hardware. Para eliminar os fallos resultantes, pódense usar códigos de corrección de erros cuánticos (QEC) para codificar a información cuántica en graos de liberdade lóxicos protexidos, e despois corrixindo os fallos máis rápido do que se acumulan, permitindo computacións tolerantes a fallos (FT). Unha execución completa de QEC probablemente requirirá: preparación de estados lóxicos; realización dun conxunto universal de portas lóxicas, que pode requirir a preparación de estados máxicos; medicións repetidas de síndromes; e a decodificación das síndromes para corrixir erros. Se ten éxito, as taxas de erro lóxico resultantes deberían ser menores que as taxas de erro físicas subxacentes e diminuír co aumento das distancias do código ata valores desprezables. A elección dun código QEC require a consideración do hardware subxacente e as súas propiedades de ruído. Para unha rede de hexágono pesado [1, 2] de cúbits, os códigos QEC de subsistema [3] son atractivos porque están ben adaptados a cúbits con conectividades reducidas. Outros códigos mostraron promesa debido ao seu limiar relativamente alto para FT [4] ou un gran número de portas lóxicas transversais [5]. Aínda que o seu espazo e sobrecarga de tempo poden supoñer un obstáculo significativo para a escalabilidade, existen enfoques alentadores para reducir os recursos máis caros explotando algunha forma de mitigación de erros [6]. No proceso de decodificación, a corrección exitosa depende non só do rendemento do hardware cuántico, senón tamén da implementación da electrónica de control utilizada para adquirir e procesar a información clásica obtida das medicións de síndromes. No noso caso, inicializar tanto os cúbits de síndrome como os de bandeira mediante retroalimentación en tempo real entre os ciclos de medición pode axudar a mitigar os erros. A nivel de decodificación, mentres que existen algúns protocolos para realizar QEC asincronamente dentro dun formalismo FT [7, 8], a taxa á que se reciben as síndromes de erro debería ser comensurada co seu tempo de procesamento clásico para evitar un aumento da acumulación de datos de síndromes. Ademais, algúns protocolos, como o uso dun estado máxico para unha porta T lóxica [9], requiren a aplicación de retroalimentación en tempo real. Polo tanto, a visión a longo prazo de QEC non gravita en torno a un único obxectivo final, senón que debe verse como un continuo de tarefas profundamente interrelacionadas. O camiño experimental no desenvolvemento desta tecnoloxía comprenderá a demostración destas tarefas illadamente primeiro e a súa combinación progresiva despois, sempre mellorando continuamente as súas métricas asociadas. Parte deste progreso reflíctese en numerosos avances recentes en sistemas cuánticos en diferentes plataformas físicas, que demostraron ou aproximaron varios aspectos dos desiderata para a computación cuántica FT. En particular, a preparación de estados lóxicos FT demostrouse en ións [10], spins nucleares en diamante [11] e cúbits superconductores [12]. Ciclos repetidos de extracción de síndromes mostráronse en cúbits superconductores en códigos pequenos de detección de erros [13, 14], incluída a corrección parcial de erros [15] así como un conxunto universal (aínda que non FT) de portas dun só cúbit [16]. Recentemente informouse dunha demostración FT dun conxunto de portas universal en dous cúbits lóxicos en ións [17]. No ámbito da corrección de erros, houbo realizacións recentes do código de superficie de distancia-3 en cúbits superconductores con decodificación [18] e post-selección [19], así como unha implementación FT dunha memoria cuántica dinámicamente protexida utilizando o código de cor [20] e a preparación, operación e medición de estados FT, incluídos os seus estabilizadores, dun estado lóxico no código Bacon-Shor en ións [20, 21]. Aquí combinamos a capacidade de retroalimentación en tempo real nun sistema de cúbits superconductores cun protocolo de decodificación de máxima verosimilitude hitherto inexplorado experimentalmente para mellorar a supervivencia dos estados lóxicos. Demostramos estas ferramentas como parte da operación FT dun código de subsistema [22], o código de hexágono pesado [1], nun procesador cuántico superconductor. Esenciais para facer que a nosa implementación deste código sexa tolerante a fallos son os cúbits de bandeira que, cando se atopan distintos de cero, alertan ao decodificador sobre erros no circuíto. Reiniciando condicionalmente os cúbits de bandeira e síndromes despois de cada ciclo de medición de síndromes, protexemos o noso sistema contra erros derivados da asimetría de ruído inherente á relaxación enerxética. Ademais, explotamos estratexias de decodificación descritas recentemente [15] e estendemos as ideas de decodificación para incluír conceptos de máxima verosimilitude [4, 23, 24]. Resultados O código de hexágono pesado e circuítos de varias roldas O código de hexágono pesado que consideramos é un código de n = 9 cúbits que codifica un k = 1 cúbit lóxico con distancia d = 3 [1]. Os grupos de operadores de calibre Z e X (ver Fig. 1a) e os grupos de estabilizadores xéranse por Os grupos de estabilizadores K son os centros dos respectivos grupos de calibre K. Isto significa que os estabilizadores, como produtos de operadores de calibre, poden deducirse de medicións de só os operadores de calibre. Os operadores lóxicos pódense elixir como XL = X1X2X3 e ZL = Z1Z3Z7. Operadores de calibre Z (azul) e X (vermello) (ecs. (1) e (2)) mapeados sobre os 23 cúbits necesarios co código de hexágono pesado de distancia 3. Os cúbits de código (Q1−Q9) móstranse en amarelo, os cúbits de síndrome (Q17, Q19, Q20, Q22) usados para estabilizadores Z en azul, e os cúbits de bandeira e síndromes usados en estabilizadores X en branco. A orde e a dirección en que se aplican as portas CX dentro de cada subsección (0 a 4) denótanse polas frechas numeradas. Diagrama de circuíto dunha rolda de medición de síndrome, incluíndo estabilizadores X e Z. O diagrama de circuíto ilustra a paralelización permitida das operacións de portas: as que están dentro dos límites establecidos polas barreiras de programación (liñas verticais discontinuas grises). Como a duración de cada porta de dous cúbits difire, a programación final da porta determínase cunha pasada estándar de transpilación de circuíto "tan tarde como sexa posible"; despois engádese descodificación dinámica a cúbits de datos onde o tempo o permite. As operacións de medición e reinicio illanse doutras operacións de portas por barreiras para permitir unha descodificación dinámica uniforme que se engada a cúbits de datos inactivos. Grafos de decodificación para tres roldas de medición de estabilizadores (c) Z e (d) X con ruído a nivel de circuíto permiten a corrección de erros X e Z, respectivamente. Os nós azuis e vermellos nos grafos corresponden a síndromes de diferenza, mentres que os nós negros son a fronteira. As arestas codifican varios xeitos nos que poden ocorrer erros no circuíto como se describe no texto. Os nós están etiquetados polo tipo de medición de síndrome (Z ou X), xunto cun subíndice que indexa o estabilizador e superíndices que denotan a rolda. As arestas negras, que xorden de erros Pauli Y en cúbits de código (e polo tanto son só de tamaño 2), conectan os dous grafos en (c) e (d), pero non se usan no decodificador de correspondencia. Os hiperbordes de tamaño 4, que non son usados por correspondencia, pero son usados no decodificador de máxima verosimilitude. As cores son só para claridade. Traducindo cada un no tempo por unha rolda tamén se obtén un hiperborde válido (con algunha variación nos límites temporais). Tampouco se mostran hiperbordes de tamaño 3. a b e f Aquí céntrenos nun circuíto FT particular, moitas das nosas técnicas poden usarse de forma máis xeral con diferentes códigos e circuítos. Constrúense dous subcircuítos, mostrados na Fig. 1b, para medir os operadores de calibre X e Z. O circuíto de medición de calibre Z tamén obtén información útil medindo os cúbits de bandeira. Preparamos estados de código no estado lóxico |0⟩ (|1⟩) preparando primeiro nove cúbits no estado |+⟩ (|-⟩) e medindo o calibre X (calibre Z). Despois realizamos r roldas de medición de síndrome, onde unha rolda consiste nunha medición de calibre Z seguida dunha medición de calibre X (respectivamente, calibre X seguida de calibre Z). Finalmente, lemos todos os nove cúbits de código na base Z (X). Realizamos os mesmos experimentos para os estados lóxicos iniciais |+⟩ e |-⟩, simplemente inicializando os nove cúbits en |+⟩ e |-⟩ en vez diso. Algoritmos de decodificación No ámbito da computación cuántica FT, un decodificador é un algoritmo que toma como entrada medicións de síndromes dun código de corrección de erros e produce unha corrección aos cúbits ou datos de medición. Nesta sección describimos dous algoritmos de decodificación: decodificación de correspondencia perfecta e decodificación de máxima verosimilitude. O hipergrafo de decodificación [15] é unha descrición concisa da información recollida por un circuíto FT e posta a disposición dun algoritmo de decodificación. Consiste nun conxunto de vértices, ou eventos sensibles a erros, V, e un conxunto de hiperbordes E, que codifican as correlacións entre eventos causadas por erros no circuíto. A Fig. 1c-f representa partes do hipergrafo de decodificación para o noso experimento. A construción dun hipergrafo de decodificación para circuítos de estabilizadores con ruído Pauli pódese facer usando simulacións estándar de Gottesman-Knill [25] ou técnicas similares de rastrexo Pauli [26]. Primeiro, créase un evento sensible a erros para cada medición que é determinística no circuíto sen erros. Unha medición determinística M é calquera medición cuxo resultado m ∈ {0, 1} se pode predicir sumando módulo dous os resultados de medición dun conxunto {Mi} de medicións anteriores. É dicir, para un circuíto sen erros, M = ΣMi (mod 2), onde o conxunto {Mi} pódese atopar mediante simulación do circuíto. Establece o valor do evento sensible a erros a m − FM(mod 2), que é cero (tamén chamado trivial) na ausencia de erros. Polo tanto, observar un evento sensible a erros distinto de cero (tamén chamado non trivial) implica que o circuíto sufriu polo menos un erro. Nos nosos circuítos, os eventos sensibles a erros son medicións de cúbits de bandeira ou a diferenza de medicións sucesivas do mesmo estabilizador (tamén chamadas ás veces síndromes de diferenza). A continuación, engádense hiperbordes considerando fallos do circuíto. O noso modelo contén unha probabilidade de fallo pC para cada un de varios compoñentes do circuíto Aquí distinguimos a operación de identidade id en cúbits durante un tempo no que outros cúbits están a sufrir portas unitarias, da operación de identidade idm en cúbits cando outros están a sufrir medición e reinicio. Reiniciamos os cúbits despois de medilos, mentres que inicializamos os cúbits que aínda non se utilizaron no experimento. Finalmente cx é a porta controlled-not, h é a porta Hadamard, e x, y, z son portas Pauli. (ver Métodos "IBM_Peekskill e detalles experimentais" para máis detalles). Os valores numéricos de pC figuran en Métodos "IBM_Peekskill e detalles experimentais". O noso modelo de erros é ruído de depolarización do circuíto. Para erros de inicialización e reinicio, aplícase un Pauli X coas respectivas probabilidades pinit e preset despois da preparación ideal do estado. Para erros de medición, aplícase un Pauli X cunha probabilidade P_meas antes da medición ideal. Unha porta unitaria dun só cúbit (porta de dous cúbits) C sofre cunha probabilidade pC un dos tres (quince) erros Pauli non identitarios seguindo a porta ideal. Hai unha posibilidade igual de que ocorra calquera dos tres (quince) erros Pauli. Cando ocorre un único fallo no circuíto, fai que algúns subconxuntos de eventos sensibles a erros sexan non triviais. Este conxunto de eventos sensibles a erros convértese nun hiperborde. O conxunto de todos os hiperbordes é E. Dous fallos diferentes poden levar ao mesmo hiperborde, polo que cada hiperborde pode considerarse como unha representación dun conxunto de fallos, cada un dos cales fai que os eventos no hiperborde sexan non triviais individualmente. Asociado a cada hiperborde hai unha probabilidade, que, en primeira orde, é a suma das probabilidades dos fallos no conxunto. Un fallo tamén pode levar a un erro que, propagado ata o final do circuíto, anticommuta cun ou máis dos operadores lóxicos do código, o que require unha corrección lóxica. Supondo por xeneralidade que o código ten k cúbits lóxicos e unha base de 2k operadores lóxicos, pero notando que k=1 para o código de hexágono pesado utilizado no experimento. Podemos facer un seguimento de que operadores lóxicos anticommutan co erro usando un vector de {0,1}k. Polo tanto, cada hiperborde h tamén está etiquetado por un destes vectores, chamado etiqueta lóxica. Nótese que se o código ten distancia polo menos tres, cada hiperborde ten unha etiqueta lóxica única. Finalmente, notamos que un algoritmo de decodificación pode elixir simplificar o hipergrafo de decodificación de varias maneiras. Un xeito que sempre empregamos aquí é o proceso de "deflagging". As medicións de bandeira dos cúbits 16, 18, 21, 23 ignóranse simplemente sen aplicar correccións. Se a bandeira 11 é non trivial e a 12 trivial, aplícase Z a 2. Se a 12 é non trivial e a 11 trivial, aplícase Z ao cúbit 6. Se a bandeira 13 é non trivial e a 14 trivial, aplícase Z ao cúbit 4. Se a 14 é non trivial e a 13 trivial, aplícase Z ao cúbit 8. Véxase a ref. [15] para obter detalles sobre por que isto é suficiente para a tolerancia a fallos. Isto significa que en lugar de incluír eventos sensibles a erros das medicións de cúbits de bandeira directamente, preprocesamos os datos usando a información da bandeira para aplicar correccións virtuais de Pauli Z e axustar os eventos sensibles a erros posteriores en consecuencia. Os hiperbordes para o hipergrafo "deflagged" pódense atopar mediante simulación de estabilizadores incorporando as correccións Z. Sexa r o número de roldas. Despois do "deflagging", o tamaño do conxunto V para experimentos de base Z (resp. X) é |V| = 6r + 2 (resp. 6r + 4), debido á medición de seis estabilizadores por rolda e á existencia de dous (resp. catro) estabilizadores de erro iniciais despois da preparación do estado. O tamaño de E é similar |E| = 60r − 13 (resp. 60r − 1) para r > 0. Considerando os erros X e Z por separado, o problema de atopar unha corrección de erro de peso mínimo para o código de superficie pódese reducir a atopar unha correspondencia perfecta de peso mínimo nun grafo [4]. Os decodificadores de correspondencia seguen sendo estudados pola súa practicidade [27] e ampla aplicabilidade [28, 29]. Nesta sección, describimos o decodificador de correspondencia para o noso código de hexágono pesado de distancia 3. Os grafos de decodificación, un para os erros X (Fig. 1c) e outro para os erros Z (Fig. 1d), para a correspondencia perfecta de peso mínimo son en realidade subgrafos do hipergrafo de decodificación na sección anterior. Centrémonos aquí no grafo para corrixir erros X, xa que o grafo de erros Z é análogo. Neste caso, do hipergrafo de decodificación conservamos os nós VZ correspondentes a medicións de estabilizadores Z (ou a diferenza de medicións sucesivas) e as arestas (é dicir, hiperbordes de tamaño dous) entre eles. Ademais, créase un vértice de fronteira b, e os hiperbordes de tamaño un da forma {v} con v ∈ VZ, represéntanse incluíndo arestas {v, b}. Todas as arestas no grafo de erros X herdan probabilidades e etiquetas lóxicas dos seus hiperbordes correspondentes (ver Táboa 1 para datos de arestas de erros X e Z para o experimento de 2 roldas). Un algoritmo de correspondencia perfecta toma un grafo con arestas ponderadas e un conxunto de tamaño par de nós resaltados, e devolve un conxunto de arestas no grafo que conecta todos os nós resaltados en pares e ten un peso total mínimo entre todos os conxuntos de arestas dese tipo. No noso caso, os nós resaltados son os eventos sensibles a erros non triviais (se hai un número impar, o nó de fronteira tamén está resaltado), e os pesos das arestas escóllense para que todos sexan un (método uniforme) ou establécese como −log(pe), onde pe é a probabilidade da aresta (método analítico). Esta última opción significa que o peso total dun conxunto de arestas é igual ao logaritmo da verosimilitude dese conxunto, e a correspondencia perfecta de peso mínimo intenta maximizar esta verosimilitude sobre as arestas do grafo. Dado unha correspondencia perfecta de peso mínimo, pódese usar as etiquetas lóxicas das arestas na correspondencia para decidir unha corrección do estado lóxico. Alternativamente, o grafo de erros X (erros Z) para o decodificador de correspondencia é tal que cada aresta pode asociarse a un cúbit de código (ou a un erro de medición), de modo que a inclusión dunha aresta na correspondencia implica que se debe aplicar unha corrección X (Z) ao cúbit correspondente. A decodificación de máxima verosimilitude (MLD) é un método óptimo, aínda que non escalable, para decodificar códigos de corrección de erros cuánticos. Na súa concepción orixinal, a MLD aplicouse a modelos de ruído fenomenolóxicos onde os erros ocorren xusto antes de que se midan as síndromes [24, 30]. Isto ignora, por suposto, o caso máis realista onde os erros poden propagarse a través do circuíto de medición de síndromes. Máis recentemente, a MLD estendeuse para incluír ruído de circuíto [23, 31]. Aquí, describimos como a MLD corrixe o ruído do circuíto usando o hipergrafo de decodificación. A MLD deduce a corrección lóxica máis probable dada unha observación dos eventos sensibles a erros. Isto faise calculando a distribución de probabilidade Pr[β, γ], onde β representa eventos sensibles a erros e γ representa unha corrección lóxica. Podemos calcular Pr[β, γ] incluíndo cada hiperborde do hipergrafo de decodificación, Fig. 1c-f, comezando pola distribución de erro cero, é dicir, Pr[0|V|, 02k] = 1. Se o hiperborde h ten unha probabilidade ph de ocorrer, independente de calquera outro hiperborde, incluímolo h realizando a actualización onde βh é simplemente unha representación vectorial binaria do hiperborde. Esta actualización debe aplicarse unha vez por cada hiperborde en E. Unha vez calculado Pr[β, γ], podemos usalo para deducir a mellor corrección lóxica. Se β* se observa nunha execución do experimento, indica como se deben corrixir as medicións dos operadores lóxicos. Para máis detalles sobre implementacións específicas de MLD, consulte Métodos "Implementacións de máxima verosimilitude". Realización experimental Para esta demostración usamos ibm_peekskill v2.0.0, un procesador IBM Quantum Falcon de 27 cúbits [32] cuxo mapa de acoplamento permite un código de hexágono pesado de distancia 3, ver Fig. 1. O tempo total para a medición do cúbit e o reinicio condicional posterior en tempo real, para cada rolda, leva 768ns e é o mesmo para todos os cúbits. Todas as medicións de síndromes e reinicios ocorren simultaneamente para un rendemento mellorado. Engádese unha secuencia simple de descodificación dinámica Xπ-Xπ a todos os cúbits de código durante os seus respectivos períodos de inactividade. A fuga de cúbits é unha razón importante pola que o modelo de erro de Pauli depolarizante asumido polo deseño do decodificador pode ser inexacto. Nalgúns casos, podemos detectar se un cúbit saíu do subespazo de computación no momento en que se mide (ver Métodos "Método de post-selección" para máis información sobre o método de post-selección e as súas limitacións). Usando isto, podemos post-seleccionar as execucións do experimento cando non se detectou fuga, similar á ref. [18]. Na Fig. 2a, inicializamos o estado lóxico |0⟩ (|0⟩), e aplicamos r roldas de medición de síndrome, onde unha rolda inclúe tanto estabilizadores X como Z (tempo total de aproximadamente 5,3 μs por rolda, Fig. 1b). Usando decodificación analítica de correspondencia perfecta nos datos completos (500.000 disparos por execución), extraemos os erros lóxicos na Fig. 2a, triángulos vermellos (azuis). Os detalles dos parámetros optimizados utilizados na decodificación analítica de correspondencia perfecta atópanse en Métodos "IBM_Peekskill e detalles experimentais". Axustando as curvas de decaemento completas (ecuación (14)) ata 10 roldas, extraemos o erro lóxico por rolda sen post-selección na Fig. 2b de 0,059(2) (0,058(3)) para |0⟩ (|0⟩) e 0,113(5) (0,107(4)) para |1⟩ (|1⟩). Erro lóxico fronte ao número de roldas de medición de síndrome r, onde unha rolda inclúe tanto unha medición de estabilizador Z como unha X. Triángulos azuis que apuntan á dereita (triángulos vermellos) marcan os erros lóxicos obtidos do uso de decodificación analítica de correspondencia en datos experimentais brutos para estados |0⟩ (|0⟩). Cadros azul claro (círculos vermellos claros) marcan os de |1⟩ (|1⟩) co mesmo método de decodificación pero usando datos experimentais post-seleccionados por fuga. As barras de erro denotan o erro de mostraxe de cada execución (500.000 disparos para datos brutos, número variable de disparos para post-seleccionados). Axustes de liñas discontinuas do rendemento do erro por rolda que se representan en (b). Aplicando o mesmo método de decodificación a datos post-seleccionados por fuga, móstrase unha redución substancial do erro total para os catro estados lóxicos. Véxase Métodos "Método de post-selección" para obter detalles sobre a post-selección. Taxas de rexeitamento axustadas por rolda para |0⟩, |0⟩, |1⟩, |1⟩ son 4,91%, 4,64%, 4,37% e 4,89%, respectivamente. As barras de erro denotan unha desviación estándar na taxa axustada. , Usando datos post-seleccionados, comparamos o erro lóxico obtido cos catro decodificadores: correspondencia uniforme (rosa), correspondencia analítica (verde), correspondencia analítica con información suave (gris) e máxima verosimilitude (azul). (Véxase a Fig. 6 para |1iL e | iL). Taxas axustadas discontinuas representadas en (e), (f). As barras de erro denotan o erro de mostraxe. , Comparación do erro axustado por rolda para os catro estados lóxicos usando decodificadores de correspondencia uniforme (rosa), correspondencia analítica (verde), correspondencia analítica con información suave (gris) e máxima verosimilitude (azul) en datos post-seleccionados por fuga. As barras de erro representan unha desviación estándar na taxa axustada. a b c d e f A aplicación do mesmo método de decodificación a datos post-seleccionados por fuga reduce os erros lóxicos na Fig. 2a, e leva a taxas de erro axustadas de 0,041(1) (0,044(4)) para |0⟩ (|0⟩) e 0,088(3) (0,085(3)) para |1⟩ (|1⟩) como se mostra na Fig. 2b. As taxas de rexeitamento por rolda da post-selección para |0⟩, |0⟩, |1⟩, |1⟩ son 4,91%, 4,64%, 4,37% e 4,89%, respectivamente. Véxase Métodos "Método de post-selección" para obter detalles. Na Fig. 2c-f, comparamos o erro lóxico para cada rolda e o erro lóxico extraído por rolda obtidos dos conxuntos de datos post-seleccionados usando os tres decodificadores descritos previamente na Sección "Algoritmos de decodificación". Tamén incluímos unha versión do decodificador analítico que explota información suave [33], que se describe en Métodos "Decodificación de información suave". Observamos (ver Fig. 2e, f) unha mellora consistente na decodificación ao pasar de correspondencia uniforme (rosa) a correspondencia analítica (verde), a correspondencia analítica con información suave, a máxima verosimilitude (gris), aínda que isto é moito menos significativo para os estados lóxicos de base X. Unha comparación cuantitativa entre os tres decodificadores para os catro estados lóxicos en r = 2 roldas proporciónase en Métodos "Erro Lóxico en r = 2 roldas". Hai polo menos tres razóns polas que os estados de base X teñen un peor rendemento que os de base Z. A primeira é a asimetría natural nos circuítos. A maior profundidade requirida para medir os estabilizadores Z leva máis tempo no que os erros Z en cúbits de datos poden acumularse sen ser detectados. Isto está apoiado por simulacións, como as de [1], que usan un decodificador diferente, e aquí en Métodos "Detalles de simulación", que ven un peor rendemento da base X para este código d=3. En segundo lugar, as eleccións feitas na decodificación, particularmente o paso de "deflagging", poden exacerbar a asimetría ao converter esencialmente erros de medición e reinicio en erros Z nos cúbits de datos. Isto leva a unha alta taxa de erro Z efectiva que non se pode mellorar moito, nin sequera coa decodificación de máxima verosimilitude. En contraste, se facemos "deflagging" só na primeira rolda de medicións, o erro lóxico do decodificador de máxima verosimilitude no experimento de r = 2 roldas, |1⟩, diminúe aproximadamente un 2,8% ata o 18,02(7)%. O "deflagging" como este leva tempo para conteos de roldas máis grandes xa que engadir nós de bandeira ao hipergrafo de decodificación aumenta enormemente o seu tamaño. Finalmente, os decodificadores só son tan bos como o noso modelo de ruído experimental. Fontes de ruído non depolarizantes como erros ZZ espectadores, que sabemos que están presentes, non son modeladas por ningún dos nosos decodificadores e afectarán máis negativamente aos estados de base X. Estimación máis precisa e inclusión de devandito ruído experimental e as súas implicacións para a tolerancia a fallos é un tema importante para investigación futura. Discusión Os resultados presentados neste traballo destacan a importancia do progreso conxunto do hardware cuántico, tanto en tamaño como en calidade, e do procesamento de información clásica, tanto concorrente coa execución do circuíto como asíncrono a el, como se describe cos decodificadores estudados. Os nosos experimentos incorporan medicións a metade de circuíto e operacións condicionais como parte dun protocolo QEC. Estas capacidades técnicas serven como elementos fundamentais para a mellora adicional do papel dos circuítos dinámicos en QEC, por exemplo, cara á corrección en tempo real e outras operacións de retroalimentación que serán críticas para computacións FT a gran escala. Tamén mostramos como as plataformas experimentais para QEC deste tamaño e capacidades poden xerar novas ideas cara a decodificadores máis robustos. A nosa comparación entre un decodificador de correspondencia perfecta e un de máxima verosimilitude establece un punto de partida prometedor cara á comprensión da compensación entre a escalabilidade do decodificador fronte ao rendemento na presenza de ruído experimental. Unha mellor modelaxe do ruído e as técnicas de erros de predecodificación [34, 35] poderían mellorar o rendemento e o tempo de execución destes decodificadores. Todos estes compoñentes clave xogarán un papel crucial en códigos de maior distancia, onde a calidade das operacións en tempo real (reinicio condicional de cúbits e eliminación de fugas, protocolos de teletransporte para portas lóxicas e decodificación), xunto cos niveis de ruído do dispositivo, determinarán o rendemento do código, permitindo potencialmente a demostración da supresión de erros lóxicos cunha distancia de código incrementada. Métodos Probabilidades de arestas e implementación de correspondencia perfecta de peso mínimo Usamos o teorema de Gottesman-Knill [25] para propagar erros Pauli a través dos nosos circuítos de Clifford e determinar que eventos sensibles a erros se fan non triviais. Un exemplo móstrase na Fig. 3. Se p é a probabilidade dun erro Pauli específico e e é o conxunto correspondente de eventos non triviais, p engádese á probabilidade da aresta pe. Dous exemplos de propagación Pauli a través do circuíto de medición con bandeira para un operador de calibre Z. As correccións Pauli Z debidas ao "deflagging" móstranse en caixas punteadas e dependen dos resultados da medición do cúbit de bandeira. Na metade inferior da figura en azul, unha porta cx é seguida por un erro XY (azul) cunha probabilidade pcx/15. A porta cx seguinte propaga o erro X ao cúbit de síndrome Q19, invertendo a medición m, e mentres tanto o erro Y en Q2 propágase sen cambios (terá un efecto nas medicións futuras). Os erros propagados están en círculos punteados. Nótese que a medición de bandeira b non se invirte, xa que a porta Hadamard transforma o erro X nun erro Z inofensivo. Na metade superior da figura, ocorre un erro Pauli Z nun cúbit de bandeira (vermello) cunha probabilidade pcx/15, e propágase a un erro Z en Q6 e un erro X antes da medición a (círculos punteados). O "deflagging" aplica Z a Q6, cancelando o erro alí, de modo que o erro propagado final sexa só a inversión da medición a. Nótese que para experimentos en estados |0⟩ e |1⟩, só necesitamos corrixir erros X e, polo tanto, só usamos os estabilizadores Z, Fig. 1c. Para experimentos en |+⟩ e |-⟩, só necesitamos corrixir erros Z co grafo da Fig. 1d. As probabilidades das arestas danse para os experimentos de 2 roldas |0⟩ e |1⟩ na Táboa 1. Presentamos só os pesos das arestas para r = 2 roldas de extracción de síndrome porque isto captura o comportamento nos límites temporais t = 1 e t = r + 1, así como o comportamento para 1 < t < r + 1. Este último comportamento masivo repítese ao longo do tempo para casos r > 2. Para implementar a correspondencia, usamos PyMatching [28] para realizar a correspondencia e decodificar. Despois de configurar o grafo de decodificación, a decodificación dun conxunto completo de datos post-seleccionados por fuga (é dicir, normalmente entre 100.000 e 200.000 cadeas de bits únicas) leva uns 10 segundos, en gran parte independente de r > 1. Implementacións de máxima verosimilitude Hai polo menos dúas formas diferentes de implementar a decodificación de máxima verosimilitude (MLD), que chamamos implementacións offline e online do decodificador. Aínda que dan os mesmos resultados, as implementacións poden diferir significativamente no tempo de execución dependendo da aplicación específica. No caso offline, calcúlase e almacénase toda a distribución Pr[β, γ] e consulta para determinar a corrección para cada execución do circuíto. O cálculo leva O(|E|2|V|+2k) tempo, xa que debemos realizar actualizacións da Ecuación (6) á distribución para cada hiperborde en E. Determinar unha corrección usando a Ecuación (7) leva O(22k) tempo por execución. Alternativamente, pódese omitir o cálculo de toda a distribución e, en cambio, calcular distribucións esparsas específicas para cada cadea de observación β* nun conxunto de datos. A MLD online consegue isto podando a distribución a medida que se realizan as actualizacións, mantendo só as entradas consistentes con β*. Imaxinamos recibir un bit de β* á vez. Para o j-ésimo bit, fanse actualizacións usando a Ecuación (6) para todos os hiperbordes que conteñen o bit j e que aínda non se incluíron. De feito, todas estas actualizacións para un determinado bit pódense combinar nunha matriz de transición precalculada. Como non se farán máis actualizacións para o bit j, podemos truncar a distribución mantendo só as entradas Pr[β, γ] onde β coincide con β* nos primeiros j bits. Podemos percorrer un exemplo rápido deste procedemento para o experimento de 0 roldas, |0⟩. Aquí só hai |V| = 2 eventos sensibles a erros e |E| = 3 hiperbordes. Organizando os parámetros dos hiperbordes como (βh, γh): ph, escribimos onde omitimos o bit ZL de γh xa que as correccións ZL non son relevantes para os experimentos |0⟩. Isto corresponde a só unha rolda do grafo na Fig. 1c, e as expresións para p1, p2, p3 son as últimas tres filas da Táboa 1. Usaremos p̄ = 1 − p abaixo. Supoñamos que queremos decodificar a observación β* = 01. Comezamos coa distribución de probabilidade P0 = {(00, 0): 1}. Esta notación significa Pr[β = 00, γ = 0] = 1. Todos os outros valores de β e γ teñen probabilidade cero e non se escriben. Realizamos actualizacións segundo os hiperbordes (10, 1) e (11, 0) para obter Agora podemos truncar a distribución porque rematamos todas as actualizacións que involucran o primeiro evento. Como o primeiro bit de β* é 0, quedamos con Agora as actualizacións proceden para calquera outro hiperborde que involucre o segundo evento, só (01, 0) neste caso. que de forma similar se trunca a Para determinar se β* require unha corrección lóxica ou non, comparamos ΣPr[β*, γ=1] con ΣPr[β*, γ=0]. Como perror é de segundo orde nas taxas de erro experimental e pnoerror é de primeira orde, deducimos que é máis probable que non ocorreu ningún erro lóxico e aplicamos ningunha corrección. Supoña que o número de entradas distintas de cero na distribución de probabilidade despois de truncar despois do j-ésimo bit é Sj. Durante o curso da MLD online, hai un tamaño máximo instantáneo da distribución de probabilidade, por exemplo, Smax. O tempo total para determinar unha corrección é O(Smax n) por execución, supoñendo un número constante de actualizacións de hiperbordes por bit. Nótese que Smax depende do hipergrafo de decodificación e tamén da orde na que se incorporan os eventos sensibles a erros. Pódese argumentar que para códigos [[n, k]], roldas repetidas de medicións de síndromes e eventos incorporados cronoloxicamente, Sj = O(nk). O límite inferior mantense porque despois de completar a actualización e truncamento para unha rolda completa, calquera dos seguintes n - k bits de síndrome da seguinte rolda pode ser invertido debido a erros de medición de síndrome. O límite superior segue de que os hiperbordes están limitados a conter eventos de como moito dúas roldas consecutivas. O decodificador online tamén é amenable á programación dinámica, almacenando distribucións de probabilidade parcialmente calculadas ata un certo j moderadamente grande. Isto aforra tempo ao evitar repetir os mesmos cálculos cando se decodifican observacións con prefixos idénticos. Por exemplo, no exemplo anterior, poderiamos almacenar P1 xa que ambas as observacións β* = 00 e 01 acabarían calculándoo. Na nosa análise de experimentos de tres roldas, almacenamos distribucións ata j = 15, mentres que para catro roldas conservamos ata j = 21, no que é en gran parte un intento de equilibrar o consumo de tempo e memoria. Como a MLD online leva un tempo exponencial (en n, o número de cúbits físicos no código) por execución, se |V| é suficientemente pequeno, a MLD offline é preferible. Se |V| é grande pero n e k son pequenos (quizais un experimento de código pequeno que realiza moitas roldas de medición de síndromes), o decodificador online convértese na única opción factible. Nos experimentos aquí, a MLD online faise preferible á MLD offline para tres roldas e máis. Para r = 2, xa sexa MLD offline ou online pode decodificar un conxunto de datos completo en aproximadamente 90 segundos para estados propios lóxicos Z (aproximadamente 13.000 cadeas de bits únicas) e aproximadamente 12 minutos para estados propios lóxicos X (aproximadamente 21.000 cadeas de bits únicas). Non obstante, para r = 10, a MLD online pode tardar ata 3 semanas para un conxunto de datos completo (aproximadamente 130.000 cadeas de bits únicas). Todos os cálculos MLD online r ≥ 3 executáronse nun servidor Linux x86_64 compartido. O uso de hardware especializado, como FPGAs, non é unha vía que exploramos. Non obstante, dado o factor nk na complexidade temporal, non esperamos que a MLD online sexa factible para o seu uso en dispositivos cuánticos máis grandes. Detalles de simulación Obtemos resultados teóricos de simulación usando simulacións de estabilizadores da pila de software Qiskit [36]. Para estimar o rendemento dos circuítos de corrección de erros cuánticos en sistemas IBM Quantum Falcon, realizamos simulacións dos circuítos cuánticos con cúbits mapeados nos dispositivos Falcon usando modelos de erro personalizados para reflectir o comportamento do ruído do hardware experimental. Os erros do circuíto na nosa simulación móldanse como erros de depolarización, de modo que se poida capturar o efecto de diferentes fontes de erro de forza variable. Os modelos de ruído construíronse seguindo as localizacións de erros e as canles de erro descritas na Sección "Algoritmos de decodificación" usando un modelo de erro de depolarización para cada operación de un e dous cúbits no circuíto cuántico con taxas de erro obtidas de cifrado aleatorio simultáneo (RB) un modelo de erro de bit-flip para erro en operacións de medición, inicialización e reinicio un modelo de ruído de depolarización para erro inactivo Usando o modelo de erro descrito anteriormente, definimos un modelo de erro de depolarización realista onde as simulacións se levan a cabo con parámetros de ruído directamente exportados do procesador IBM Quantum utilizado para este traballo, ibm_peekskill (Táboas 2 e 3), incluíndo taxas de erro específicas para cada operación cuántica de un e dous cúbits cun parámetro de canal cuántico de depolarización obtido de RB simultáneo segundo a relación onde ϵgate, n, αgate representan erro por porta, número de cúbits na porta, e parámetro de canal cuántico de depolarización, inicialización, medición e erro de reinicio obtidos como se describe na Táboa 2, erros inactivos cunha forza de ruído proporcional ao límite de coherencia da porta, onde o límite de coherencia se calcula usando T1, T2 e o tempo inactivo de cada cúbit durante a execución de cada operación cuántica no circuíto. E cada duración de porta coincide coa do dispositivo real (a programación do circuíto coincide co do experimento). Ademais, para demostrar o rendemento medio do circuíto nun modelo de erro de depolarización relativamente uniforme, definimos un modelo de erro de depolarización medio onde, en lugar das taxas de erro específicas para diferentes portas e cúbits mencionadas anteriormente, usamos taxas de erro medias en todo o dispositivo para definir as canles de erro de depolarización. Usando os parámetros do decodificador de correspondencia perfecta de análise descritos pC = [0,0126, 0,000266, 0,0, 0,001, 0,002, 0,000266, 0,000266, 0,0, 0,00713, 0,0142, 0,0290] ordenados polas localizacións de erro K definidas na Sección "Algoritmos de decodificación", obtivemos taxas de erro lóxico simuladas por rolda para circuítos con ata 10 roldas de medición de síndromes como 0,059 (0,038) para o estado lóxico |0⟩ e 0,152 (0,106) para o estado lóxico |1⟩ baixo a influencia do modelo de erro de depolarización realista (medio), respectivamente. Comparado co erro lóxico por rolda en datos post-seleccionados por fuga (con decodificación de correspondencia analítica) como se mostra na Fig. 2a, de 0,0409 para |0⟩ e 0,0882 para |1⟩, o erro lóxico por rolda usando o modelo de erro de depolarización medio coincide mellor cos datos que o modelo realista. Non obstante, o modelo medio aínda sobreestima o estado |1⟩, mostrando que este modelo máis simple non captura completamente os erros no sistema. Cremos que o modelo realista sobreestima os erros das bases Z e X en parte porque os benchmarks de erro (ver Táboas 2 e 3) proporcionados ao modelo non eran conscientes das fugas e, polo tanto, os benchmarks de erro probablemente foron inflados por erros de fuga. Vemos tamén que o modelo realista fai mellor traballo predíndo |0⟩ que |1⟩. Esta é unha área de traballo aberto, para simulación e quizais tamén decodificación, para capturar mellor os datos experimentais máis aló das fugas. IBM_Peekskill e detalles experimentais Os datos nesta sección usan a numeración de cúbits (QF_N en contraste con Q_N en Fig. 1a) notación presentada na Fig. 4a, que coincide cos sistemas estándar IBM Quantum Falcon. Resumidos na Táboa 2 atópanse os benchmarks dun só cúbit para ibm_peekskill, onde as portas dun só cúbit para todos os cúbits (excluíndo portas Z virtuais) duran 35,55 ns. Mentres que o deseño Falcon ten 27 cúbits, para os circuítos d=3 presentados neste artigo só necesitamos usar 23 deses cúbits como se mostra na Fig. 4a, excluindo os cúbits QF0, QF6, QF20 e QF26. Tradución da numeración de cúbits da Fig. 1a (Q_N) á numeración estándar IBM-Falcon (QF_N). ZZ estático entre todos os pares de cúbits conectados fronte á desviación entre cúbits. A anharmonicidade media do cúbit, ver Táboa 2 para desglose, é de -345 MHz. a b Imaxe a tamaño completo O acoplamento sempre activo entre os cúbits conectados en ibm_peekskill tamén resulta nun ZZ estático indesexable, representado na Fig. 4b, en función da desviación entre cúbits. Para mitigar algúns destes efectos, engádese unha secuencia simple de descodificación dinámica Xπ-Xπ aos cúbits de código ao longo do circuíto. Ademais, introducindo RB simultáneo de dimensionalidade mixta [37], podemos capturar aínda máis os efectos secundarios non desexados deste acoplamento comparando o erro de portas dun e dous cúbits obtido con RB estándar con cúbits/portas espectadoras totalmente inactivos ou con aqueles que se dirixen simultaneamente segundo os requisitos de programación das verificacións Z e X. Os erros de portas simultáneas para portas e cúbits que non forman parte destas medicións (sempre inactivos durante os experimentos presentados no texto principal) polo tanto non se inclúen nesta caracterización adicional (na táboa como NaN). Estes resultados preséntanse nas Táboas 2 e 3. A optimización de portas de dous cúbits realizouse en ibm_peekskill para garantir que non houbese unha degradación significativa no erro da porta nin un aumento da fuga fóra da variedade computacional no benchmarking simultáneo. Usando a mesma metodoloxía presentada na ref. [15], úsanse operacións de reinicio condicionadas ao resultado da medición precedente para operacións de reinicio a metade de circuíto mostradas na Fig. 1b. O tempo total do ciclo de medición + reinicio é de 768ns, e inclúe un pulso de medición de aproximadamente 400ns, tempo de decaemento da cavidade que se solapa cos atrasos da ruta de control clásica e a aplicación do Xπ condicional. Para consistencia, todos os cúbits calíbranse para usar a mesma duración de pulso e atrasos, coa amplitude do pulso calibrada individualmente para optimizar a QND-ness da lectura. Para optimizar o rendemento da decodificación analítica de correspondencia perfecta en datos experimentais, executouse un algoritmo de optimización en datos experimentais dunha rolda de medición de estabilizadores do código de hexágono pesado de distancia 3 no mesmo hardware para atopar un conxunto de parámetros de erro de entrada que minimicen as taxas de erro lóxico de saída do decodificador. Aquí escollemos usar o algoritmo L-BFGS-B [38] pola eficiencia da optimización e a capacidade de traballar con restricións lineais simples. Esta optimización realizouse comezando cos parámetros de ruído físico atopados mediante a calibración do dispositivo, actualizando iterativamente os parámetros mentres se minimizaba o erro lóxico global. Pretende compensar a falta de coñecemento do decodificador sobre os procesos de ruído realistas, e produce un conxunto de parámetros de decodificación que produce un rendemento mellorado do decodificador. A optimización resultou no seguinte conxunto de parámetros de erro de entrada para o algoritmo de decodificación analítica de correspondencia perfecta pC = [0.01, 0.00028, 0.0, 0.001, 0.002, 0.00028, 0.00028, 0.0, 0.0005, 0.0, 0.00001] seguindo as localizacións de erro K definidas na Sección "Algoritmos de decodificación". Usamos a seguinte ecuación para axustar os erros lóxicos na rolda de medición de síndromes, r, onde A é o erro SPAM, p_leak é a probabilidade de fuga, e ϵ é a taxa de erro lóxico por rolda de medición de síndrome (Fig. 2b, e, f). Fuga no sistema Os erros de fuga fóra do espazo computacional que comprende os estados |g⟩ (estado g) e |e⟩ (estado e) cara a |f⟩ (estado f) ou estados superiores non poden ser corrixidos polo noso código de corrección de erros cuánticos e, polo tanto, representan unha seria ameaza para a computación tolerante a fallos. Para cúbits superconductores de frecuencia fixa, un certo conxunto de asignacións de frecuencia de cúbit pode levar a colisións de frecuencia durante a operación de porta de resonancia cruzada [2]. Por exemplo, cando a frecuencia do cúbit obxectivo está preto da frecuencia de transición e → f do cúbit de control, induciuse erro de fuga durante a operación de porta de dous cúbits. Outro exemplo é unha operación simultánea dunha porta de dous cúbits cunha porta dun só cúbit espectadora onde a frecuencia do cúbit espectador xunto coa frecuencia do cúbit obxectivo coinciden coa transición e → f do cúbit de control. Isto pode resultar en erros de fuga que poden caracterizarse mediante cifrado aleatorio das portas dun e dous cúbits correspondentes [39]. Os erros de fuga tamén poden ocorrer durante as medicións [40]. A medida que aceleramos o tempo de medición aumentando a potencia de medición, os cúbits fanse máis propensos á fuga. Caracterizamos esta fuga inducida por medición repetindo a medición do cúbit e extraendo a taxa de fuga. O experimento descríbese na Fig. 5a, onde a secuencia consiste en Xπ/2 seguida dun ton de medición. O pulso Xπ/2 mapeará |e⟩ ou |g⟩ ao ecuador da esfera de Bloch, polo que a secuencia mostra aleatoriamente |e⟩ ou |g⟩ durante a medición posterior. A taxa de fuga de medición obtida así é unha media das taxas de fuga dos estados |g⟩ e |e⟩. Os resultados obtidos da secuencia na Fig. 5a clasifícanse segundo datos de calibración obtidos preparando os estados |g⟩, |e⟩ e |f⟩, usando a media de distribución máis próxima para cada resultado, e despois aplicando a mitigación de erros de lectura ao restrinxir o formalismo descrito na ref. [41] para lectura de varios cúbits ao noso subespazo de tres estados dun só cúbit. Esta mitigación de erros de lectura dun só cúbit aplícase ao conxunto de medicións obtidas para cada iteración da secuencia de pulsos. A secuencia de medición repítese m = 70 veces e facemos a media sobre os 10.000 disparos para cada m para calcular a probabilidade media de que o cúbit estea agrupado no estado |f⟩. A Fig. 5b mostra a probabilidade de fuga de medición, Pf, onde o cúbit foxe ao estado |f⟩ por medición. (Véxase a Táboa 2 para máis detalles). Finalmente, alcánzase unha poboación en estado estacionario no estado |f⟩, determinada polas taxas de fuga e "seepage". Extraemos as taxas de fuga e "seepage" usando a ecuación onde a taxa de fuga ΓL é a probabilidade de que o cúbit foxe durante unha medición, a taxa de "seepage" ΓS é a probabilidade de que un estado filtrado regrese ao subespazo do cúbit durante unha medición. Aquí, ΓL,S mide a taxa por medición, polo tanto é unha cantidade adimensional. O valor medio e mediano obtido de ΓL son 6,54 × 10−3 e 4,86 × 10−3 por medición, respectivamente. Secuencia de medición repetida para extraer a fuga durante a medición. O pulso Xπ/2 permítenos amosar aleatoriamente eventos de fuga dos estados |g⟩ ou |e⟩. A probabilidade de fuga (Pf) ao estado |f⟩ medida en QF14. A taxa de fuga e "seepage" obténse axustando os datos coa Ecuación (15). , Fuga de cúbit no sistema en función das roldas de medición de síndromes para estados lóxicos de base Z e X. Os gráficos de barras mostran a P_leak_est, calculada a partir das taxas de fuga de portas e de medición, obtidas de cifrado aleatorio (portas 2Q) e da secuencia mostrada en (a), respectivamente. Os resultados experimentais, P_leak_exp, onde paccept é a probabilidade de aceptación calculada do método descrito en Métodos "Método de post-selección", móstranse como símbolos negros para comparación. Os resultados experimentais representados aquí non inclúen a fuga de inicialización. Datos de calibración de lectura para QF12 (ver Fig. 4a). O cúbit prepárase nos seus estados |g⟩, |e⟩ e |f⟩ e mídense. As estatísticas recollidas pódense ver como azuis (Pg), vermellas (Pe), e grises (Pf) onde as liñas de puntos-discontinuos representan 3-σ para cada distribución. Resultados de clasificación de 3 estados para QF12 despois da inicialización do cúbit, e despois da primeira verificación X de preparación dun estado lóxico |0⟩. a b c d e f g Extraemos a taxa de fuga e "seepage" de dous cúbits do estado |e⟩ do cifrado aleatorio simultáneo, coa simultaneidade escollida para que coincida coas secuencias de estabilizadores Z e X como se ilustra na Fig. 1. Do mesmo xeito, extraemos a taxa de fuga/seepage de medición repetida descrita na Fig. 5a. Nestas estimacións, temos en conta o número de operacións de portas e medicións para cada síndrome/bandeira cúbits, así como os cúbits de código medidos ao final. Por exemplo, un experimento de dúas roldas para a base Z lóxica consiste nunha verificación X para a preparación do estado, dúas roldas de verificacións X e Z, e unha medición final dos cúbits de código. Cada verificación consiste en portas e medicións de dous cúbits. Como resultado, hai tres conxuntos de portas e medicións de dous cúbits nos cúbits de verificación X, dous conxuntos de portas e medicións de dous cúbits nos cúbits de verificación Z, e unha medición dos cúbits de código. O procedemento de post-selección descarta o resultado se algún dos cúbits foxe do subespazo computacional. Polo tanto, sumamos todas as probabilidades de fuga para calcular P_leak_est para cada rolda de medición de síndrome. A Fig. 5c, d mostra P_leak_est en función do número de roldas para a base Z e X lóxicas, respectivamente. Os símbolos negros denotan a fuga detectada, como se describe en Métodos "Método de post-selección", durante o curso dos propios circuítos de corrección de erros. Este método só detecta a ocorrencia de fuga e non pode diferenciar a causa da fuga (medición fronte a porta 2Q). Coa análise descrita nesta sección, obtemos estimacións como se mostra en cada barra da Fig. 5c, d, que representa P_leak_est de portas de dous cúbits (azul) e operacións de medición (vermello). Cando se combinan, a taxa de fuga estimada por rolda coincide decentemente ben cos valores experimentais. Esta análise mostra que reducir o erro de fuga tanto de portas de dous cúbits como de medicións é importante. Diminuír a fuga inducida por portas de dous cúbits na nosa arquitectura estará asociada a portas máis lentas. Con respecto á medición, como se mencionou anteriormente, é ben sabido que unha forte unidade nun sistema de cúbits superconductores pode levar a transicións tanto fóra do espazo computacional [40] como fóra do confinamento do potencial de Josephson [42]. Hai polo tanto unha compensación a considerar entre o erro de lectura e a duración da medición e a probabilidade de fuga. Lecturas máis lentas afectan ao sistema ao aumentar o tempo inactivo dos cúbits que non se están medindo. Houbo propostas para tratar a fuga en sistemas de cúbits superconductores movendo todas as excitacións de cúbits ao resonador de lectura, desde o cal decaen ao ambiente [43], ou deseñando unidades de redución de fuga do resonador de lectura (LRU) [44] que explotan niveis de transición particulares do sistema cúbit-resonador e que transforman os erros de fuga en erros Pauli. Tamén se propuxeron LRU a nivel de código [45]. Estas opcións, así como capacidades de ramificación máis altas na electrónica de lectura e control para reiniciar condicionalmente os cúbits ao estado fundamental desde niveis de excitación máis altos, poderían explorarse en sistemas experimentais que demostren corrección de erros cuánticos no futuro próximo. Método de post-selección Post-seleccionamos todos os nosos resultados para eliminar eventos de fuga detectados en calquera dos cúbits do noso sistema. Para facelo, observamos 5000 saídas integradas para cada cúbit cando se preparan nos estados |g⟩, |e⟩ e |f⟩. Mostramos esta calibración para QF12 (ver Fig. 4a) na Fig. 5e. A superposición entre os estados |e⟩ e |f⟩, que é significativa en todos os 23 cúbits utilizados neste traballo, fai que a clasificación destes estados sexa desafiante. Ademais, a presenza de eventos de decaemento (e → g, f → e, ou f → g) pode prexudicar os resultados utilizando estes datos de adestramento dentro dun protocolo de aprendizaxe supervisada. En cambio, aplicamos métodos de agrupación aos nosos datos de calibración usando un Modelo de Mestura Gaussiana (GMM) con tres clústeres, cada clúster cunha matriz de covarianza diagonal independente. As entradas diagonais das matrices de covarianza pódense usar para extraer as desviacións estándar da distribución para cada estado de cúbit. Isto