```html Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumo A corrección de erros cuánticos ofrece un camiño prometedor para realizar computacións cuánticas de alta fidelidade. Aínda que as execucións totalmente tolerantes a fallos de algoritmos seguen sen realizarse, as melloras recentes na electrónica de control e no hardware cuántico permiten demostracións cada vez máis avanzadas das operacións necesarias para a corrección de erros. Aquí, realizamos corrección de erros cuánticos en cúbits superconductores conectados nunha rede de hexágono pesado. Codificamos un cúbit lóxico de distancia tres e realizamos varias roldas de medicións de síndromes tolerantes a fallos que permiten a corrección de calquera fallo único no circuíto. Usando retroalimentación en tempo real, restablecemos os cúbits de síndrome e sinal condicionalmente despois de cada ciclo de extracción de síndromes. Informamos dun erro lóxico dependente do decodificador, cun erro lóxico medio por medición de síndrome na base Z(X) de ~0,040 (~0,088) e ~0,037 (~0,087) para decodificadores coincidentes e de máxima verosimilitude, respectivamente, en datos post-seleccionados por fugas. Introdución Os resultados das computacións cuánticas poden ser erróneos, na práctica, debido ao ruído no hardware. Para eliminar os fallos resultantes, pódense usar códigos de corrección de erros cuánticos (QEC) para codificar a información cuántica en graos de liberdade lóxicos protexidos e, a continuación, corrixindo os fallos máis rápido do que se acumulan, permitir computacións tolerantes a fallos (FT). É probable que unha execución completa de QEC requira: preparación de estados lóxicos; realización dun conxunto universal de portas lóxicas, que pode requirir a preparación de estados máxicos; medicións repetidas de síndromes; e a decodificación das síndromes para corrixir erros. Se ten éxito, as taxas de erro lóxico resultantes deberían ser inferiores ás taxas de erro físicas subxacentes e diminuír co aumento das distancias do código ata valores desprezables. A elección dun código QEC require a consideración do hardware subxacente e as súas propiedades de ruído. Para unha rede de hexágono pesado , de cúbits, os códigos QEC de subsistema son atractivos porque se adaptan ben a cúbits con conectividades reducidas. Outros códigos mostraron ser prometedores debido ao seu limiar relativamente alto para FT ou a un gran número de portas lóxicas transversais . Aínda que o seu espazo e sobrecarga de tempo poden representar un obstáculo significativo para a escalabilidade, existen enfoques alentadores para reducir os recursos máis caros explotando algunha forma de mitigación de erros . 1 2 3 4 5 6 No proceso de decodificación, a corrección exitosa depende non só do rendemento do hardware cuántico, senón tamén da implementación da electrónica de control utilizada para adquirir e procesar a información clásica obtida das medicións de síndromes. No noso caso, inicializar os cúbits de síndrome e sinal mediante retroalimentación en tempo real entre ciclos de medición pode axudar a mitigar os erros. A nivel de decodificación, aínda que existen algúns protocolos para realizar QEC asincronamente dentro dun formalismo FT , , a taxa á que se reciben as síndromes de erro debe ser acorde co seu tempo de procesamento clásico para evitar un aumento da cola de datos de síndromes. Ademais, algúns protocolos, como o uso dun estado máxico para unha porta T lóxica , requiren a aplicación de retroalimentación en tempo real. 7 8 9 Así, a visión a longo prazo de QEC non gravita arredor dun único obxectivo final senón que debe verse como un continuo de tarefas profundamente interrelacionadas. O camiño experimental no desenvolvemento desta tecnoloxía comprenderá primeiro a demostración destas tarefas de forma illada e despois a súa combinación progresiva, sempre mellorando continuamente as súas métricas asociadas. Parte deste progreso reflíctese en numerosos avances recentes en sistemas cuánticos en diferentes plataformas físicas, que demostraron ou aproximaron varios aspectos dos desiderata para a computación cuántica FT. En particular, a preparación de estados lóxicos FT demostrouse en ións , spins nucleares en diamante e cúbits superconductores . Ciclos repetidos de extracción de síndromes mostráronse en cúbits superconductores en pequenos códigos de detección de erros , , incluída a corrección parcial de erros así como un conxunto universal (aínda que non FT) de portas de un cúbit . Recentes demostracións FT dun conxunto de portas universais en dous cúbits lóxicos foron comunicadas en ións . No ámbito da corrección de erros, houbo realizacións recentes do código de superficie de distancia 3 en cúbits superconductores con decodificación e post-selección , así como unha implementación FT dunha memoria cuántica dinámicamente protexida usando o código de cor e a preparación, operación e medición de estados lóxicos FT, incluídos os seus estabilizadores, no código de Bacon-Shor en ións , . 10 11 12 13 14 15 16 17 18 19 20 20 21 Aquí combinamos a capacidade de retroalimentación en tempo real nun sistema de cúbits superconductores cun protocolo de decodificación de máxima verosimilitude hitherto inexplorado experimentalmente para mellorar a supervivencia dos estados lóxicos. Demostramos estas ferramentas como parte da operación FT dun código de subsistema , o código de hexágono pesado , nun procesador cuántico superconductor. Esenciais para que a nosa implementación deste código sexa tolerante a fallos son os cúbits sinal que, cando se atopan non nulos, alertan ao decodificador sobre erros no circuíto. Restablecendo condicionalmente os cúbits sinal e de síndrome despois de cada ciclo de medición de síndromes, protexemos o noso sistema contra erros derivados da asimetría do ruído inherente á relaxación enerxética. Ademais, explotamos estratexias de decodificación descritas recentemente e estendemos as ideas de decodificación para incluír conceptos de máxima verosimilitude , , . 22 1 15 4 23 24 Resultados O código de hexágono pesado e os circuítos de varias roldas O código de hexágono pesado que consideramos é un código de = 9 cúbits que codifica = 1 cúbit lóxico con distancia = 3 . Os grupos de calibre Z e X (ver Fig. 1a) a) e os grupos de estabilizadores son xerados por n k d 1 1 Os grupos de estabilizadores 𝑆 son os centros dos respectivos grupos de calibre 𝐺. Isto significa que os estabilizadores, como produtos de operadores de calibre, pódense deducir de medicións de só os operadores de calibre. Os operadores lóxicos pódense elixir como XL = X1X2X3 e ZL = Z1Z3Z7. Operadores de calibre Z (azul) e X (vermello) (ecuacións (1) e (2)) mapeados nos 23 cúbits requiridos co código de hexágono pesado de distancia 3. Os cúbits do código (Q1-Q9) móstranse en amarelo, os cúbits de síndrome (Q17, Q19, Q20, Q22) usados para os estabilizadores Z en azul, e os cúbits sinal e síndromes usados nos estabilizadores X en branco. A orde e dirección das portas CX aplicadas dentro de cada subsección (0 a 4) denótanse polas frechas numeradas. Diagrama do circuíto dunha rolda de medición de síndromes, incluíndo estabilizadores X e Z. O diagrama do circuíto ilustra a paralelización permitida das operacións de portas: aquelas dentro dos límites establecidos polas barreiras de programación (liñas verticais discontinuas grises). Como a duración de cada porta de dous cúbits é diferente, a programación final da porta determínase cun pase estándar de transpilación de circuítos "tan tarde como sexa posible"; despois, engádese desacoplamento dinámico aos cúbits de datos onde o tempo o permite. As operacións de medición e restablecemento illanse doutras operacións de portas por barreiras para permitir engadir desacoplamento dinámico uniforme aos cúbits de datos inactivos. Grafos de decodificación para tres roldas de medicións de estabilizadores (c) Z e (d) X cun ruído a nivel de circuíto permiten a corrección de erros X e Z, respectivamente. Os nodos azuis e vermellos nos grafos corresponden a síndromes de diferenza, mentres que os nodos negros son a fronteira. As arestas codifican varias formas en que os erros poden ocorrer no circuíto como se describe no texto. Os nodos están etiquetados polo tipo de medición de estabilizador (Z ou X), xunto cun subíndice que indexa o estabilizador e superíndices que denotan a rolda. As arestas negras, que xorden de erros Pauli Y en cúbits de código (e polo tanto son só de tamaño 2), conectan os dous grafos en c e d, pero non se usan no decodificador de correspondencia. As hiperarestas de tamaño 4, que non son usadas pola correspondencia, pero son usadas no decodificador de máxima verosimilitude. As cores son só para claridade. Traducir cada unha no tempo por unha rolda tamén dá unha hiperaresta válida (con algunha variación nos límites de tempo). Tampouco se mostran ningunha das hiperarestas de tamaño 3. a b e f Aquí centrámonos nun circuíto FT particular, moitas das nosas técnicas pódense usar de forma máis xeral con diferentes códigos e circuítos. Constrúense dous sub-circuítos, que se mostran na Fig. 1b b, para medir os operadores de calibre X e Z. O circuíto de medición de calibre Z tamén adquire información útil medindo cúbits sinal. 1 Preparamos os estados do código no estado lóxico |0⟩ (|1⟩) preparando primeiro nove cúbits no estado |+⟩ (|-⟩) e medindo o calibre X (calibre Z). Despois realizamos roldas de medición de síndromes, onde unha rolda consiste nunha medición de calibre Z seguida dunha medición de calibre X (respectivamente, calibre X seguida de calibre Z). Finalmente, lemos todos os nove cúbits de código na base Z (X). Realizamos os mesmos experimentos para os estados lóxicos iniciais |0⟩ e |1⟩, simplemente inicializando os nove cúbits en |+⟩ e |-⟩ en vez diso. r Algoritmos de decodificación No ámbito da computación cuántica FT, un decodificador é un algoritmo que toma como entrada medicións de síndromes dun código de corrección de erros e produce unha corrección aos cúbits ou datos de medición. Nesta sección describimos dous algoritmos de decodificación: decodificación de correspondencia perfecta e decodificación de máxima verosimilitude. O hipergrafo de decodificación é unha descrición concisa da información recompilada por un circuíto FT e posta a disposición dun algoritmo de decodificación. Consiste nun conxunto de vértices, ou eventos sensibles a erros, , e un conxunto de hiperarestas , que codifican as correlacións entre eventos causadas por erros no circuíto. A Fig. 1c-f c–f representa partes do hipergrafo de decodificación para o noso experimento. 15 V E 1 A construción dun hipergrafo de decodificación para circuítos de estabilizadores con ruído Pauli pódese facer usando simulacións estándar de Gottesman-Knill ou técnicas similares de trazado Pauli . Primeiro, créase un evento sensible a erros para cada medición que é determinista no circuíto sen erros. Unha medición determinista é calquera medición cuxo resultado ∈ {0, 1} se pode predicir sumando módulo dous os resultados de medición dun conxunto {Mi} de medicións anteriores. É dicir, para un circuíto sen erros, = ∑ (mod 2), onde o conxunto {Mi} pódese atopar mediante simulación do circuíto. Estabelece o valor do evento sensible a erros a - (mod 2), que é cero (tamén chamado trivial) en ausencia de erros. Polo tanto, observar un evento sensible a erros non nulo (tamén chamado non trivial) implica que o circuíto sufriu polo menos un erro. Nos nosos circuítos, os eventos sensibles a erros son medicións de cúbits sinal ou a diferenza de medicións sucesivas do mesmo estabilizador (tamén chamadas ás veces síndromes de diferenza). 25 26 M m m i m i m F M A continuación, engádense hiperarestas considerando fallos no circuíto. O noso modelo contén unha probabilidade de fallo para cada un de varios compoñentes do circuíto p C Aquí distinguimos a operación identidade id en cúbits durante un tempo cando outros cúbits están a sufrir portas unitarias, da operación identidade id en cúbits cando outros están a sufrir medición e restablecemento. Restablecemos os cúbits despois de medilos, mentres que inicializamos cúbits que aínda non se usaron no experimento. Finalmente, cx é a porta controlled-not, h é a porta Hadamard, e x, y, z son portas Pauli. (ver Métodos "IBM_Peekskill e detalles experimentais" para máis detalles). Os valores numéricos de están listados en Métodos "IBM_Peekskill e detalles experimentais". m p C O noso modelo de erro é ruído de depolarización do circuíto. Para erros de inicialización e restablecemento, aplícase un Pauli X coas probabilidades respectivas e despois da preparación ideal do estado. Para erros de medición, aplícase un Pauli X cunha probabilidade antes da medición ideal. Unha porta unitaria de un cúbit (porta de dous cúbits) sofre cunha probabilidade un dos tres (quince) erros Pauli non identidade seguindo a porta ideal. Hai unha posibilidade igual de que ocorra calquera dos tres (quince) erros Pauli. p init p reset p meas C p C Cando ocorre un único fallo no circuíto, fai que algúns conxuntos de eventos sensibles a erros sexan non triviais. Este conxunto de eventos sensibles a erros convértese nunha hiperaresta. O conxunto de todas as hiperarestas é . Dous fallos diferentes poden levar á mesma hiperaresta, polo que cada hiperaresta pode considerarse que representa un conxunto de fallos, cada un dos cales fai que os eventos na hiperaresta sexan non triviais individualmente. Asociado a cada hiperaresta hai unha probabilidade, que, en primeira orde, é a suma das probabilidades de fallos no conxunto. E Un fallo tamén pode levar a un erro que, propagado ata o final do circuíto, anticomuta cun ou máis dos operadores lóxicos do código, necesitando unha corrección lóxica. Supoñemos por xeneralidade que o código ten cúbits lóxicos e unha base de 2 operadores lóxicos, pero notamos que =1 para o código de hexágono pesado utilizado no experimento. Podemos manter un seguimento de que operadores lóxicos anticomutan co erro usando un vector de {0, 1} . Polo tanto, cada hiperaresta tamén está etiquetada por un destes vectores ∈ {0, 1} , chamado etiqueta lóxica. Nótese que se o código ten distancia polo menos tres, cada hiperaresta ten unha etiqueta lóxica única. k k k 2 k h l 2 k Finalmente, observamos que un algoritmo de decodificación pode optar por simplificar o hipergrafo de decodificación de varias maneiras. Un xeito que empregamos sempre aquí é o proceso de deflagging. As medicións de sinal dos cúbits 16, 18, 21, 23 simplemente ignóranse sen aplicar correccións. Se o sinal 11 é non trivial e o 12 é trivial, aplícase Z a 2. Se o 12 é non trivial e o 11 é trivial, aplícase Z ao cúbit 6. Se o sinal 13 é non trivial e o 14 é trivial, aplícase Z ao cúbit 4. Se o 14 é non trivial e o 13 é trivial, aplícase Z ao cúbit 8. Ver ref. 15 para detalles sobre por que isto é suficiente para a tolerancia a fallos. Isto significa que en lugar de incluír directamente eventos sensibles a erros das medicións de cúbits sinal, preprocesamos os datos usando a información do sinal para aplicar correccións Pauli Z virtuais e axustar os eventos sensibles a erros posteriores en consecuencia. As hiperarestas para o hipergrafo deflagado pódense atopar mediante simulación de estabilizadores incorporando as correccións Z. Sexa o número de roldas. Despois do deflagging, o tamaño do conxunto para experimentos en base Z (resp. X) é | | = 6 + 2 (resp. 6 + 4), debido á medición de seis estabilizadores por rolda e á existencia de dous (resp. catro) estabilizadores de erro iniciais despois da preparación do estado. O tamaño de é similarmente | | = 60 - 13 (resp. 60 - 1) para > 0. 15 r V V r r E E r r r Considerando os erros X e Z por separado, o problema de atopar unha corrección de erro de peso mínimo para o código de superficie pódese reducir a atopar unha correspondencia perfecta de peso mínimo nun grafo . Os decodificadores de correspondencia seguen sendo estudados debido á súa practicidade e ampla aplicabilidade , . Nesta sección, describimos o decodificador de correspondencia para o noso código de hexágono pesado de distancia 3. 4 27 28 29 Os grafos de decodificación, un para os erros X (Fig. 1c) c) e outro para os erros Z (Fig. 1d) d), para correspondencia perfecta de peso mínimo son en realidade subgrafos do hipergrafo de decodificación na sección anterior. Centrémonos aquí no grafo para corrixir os erros X, xa que o grafo de erros Z é análogo. Neste caso, do hipergrafo de decodificación conservamos os nodos correspondentes ás medicións do estabilizador Z (a diferenza das sucesivas) e as arestas (é dicir, hiperarestas de tamaño dous) entre elas. Ademais, créase un vértice fronteira , e as hiperarestas de tamaño un da forma { } con ∈ , représtanse incluíndo as arestas { , }. Todas as arestas no grafo de erros X herdan probabilidades e etiquetas lóxicas das súas hiperarestas correspondentes (ver Táboa 1 para datos de arestas de erros X e Z para o experimento de 2 roldas). 1 1 V Z b v v V Z v b 1 Un algoritmo de correspondencia perfecta toma un grafo con arestas ponderadas e un conxunto de tamaño par de nodos resaltados, e devolve un conxunto de arestas no grafo que une todos os nodos resaltados en pares e ten un peso total mínimo entre todos os conxuntos de arestas dese tipo. No noso caso, os nodos resaltados son os eventos sensibles a erros non triviais (se hai un número impar, o nodo fronteira tamén se resalta), e os pesos das arestas son ou ben elixidos para ser todos un (método uniforme) ou establecidos como -log( ), onde é a probabilidade da aresta (método analítico). Esta última elección significa que o peso total dun conxunto de arestas é igual ao log-verosimilitude dese conxunto, e a correspondencia perfecta de peso mínimo tenta maximizar esta verosimilitude sobre as arestas do grafo. p e p e Dada unha correspondencia perfecta de peso mínimo, pódese usar as etiquetas lóxicas das arestas na correspondencia para decidir unha corrección do estado lóxico. Alternativamente, o grafo de erros X (erro Z) para o decodificador de correspondencia é tal que cada aresta pode asociarse a un cúbit de código (ou a un erro de medición), de modo que incluír unha aresta na correspondencia implica que se debe aplicar unha corrección X (Z) ao cúbit correspondente. A decodificación de máxima verosimilitude (MLD) é un método óptimo, aínda que non escalable, para decodificar códigos de corrección de erros cuánticos. Na súa concepción orixinal, a MLD aplicouse a modelos de ruído fenomenolóxicos onde os erros ocorren xusto antes de medirse as síndromes , . Isto, por suposto, ignora o caso máis realista onde os erros poden propagarse a través da circuitería de medición de síndromes. Máis recentemente, a MLD estendeuse para incluír o ruído do circuíto , . Aquí, describimos como a MLD corrixe o ruído do circuíto usando o hipergrafo de decodificación. 24 30 23 31 A MLD deduce a corrección lóxica máis probable dada unha observación dos eventos sensibles a erros. Isto faise calculando a distribución de probabilidade Pr[ , ], onde representa os eventos sensibles a erros e representa unha corrección lóxica. β γ β γ Podemos calcular Pr[ , ] incluíndo cada hiperaresta do hipergrafo de decodificación, Fig. 1c-f c–f, comezando pola distribución de erro cero, é dicir, Pr[0 , 0 ] = 1. Se a hiperaresta ten unha probabilidade de ocorrer, independente de calquera outra hiperaresta, incluímola realizando a actualización β γ 1 | | V 2 k h p h h onde é simplemente unha representación vectorial binaria da hiperaresta. Esta actualización debe aplicarse unha vez por cada hiperaresta en . l h E Unha vez calculado Pr[ , ], podemos usalo para deducir a mellor corrección lóxica. Se se observa * nunha execución do experimento, β γ β indica como se deben corrixir as medicións dos operadores lóxicos. Para máis detalles sobre implementacións específicas de MLD, consultar Métodos "Implementacións de máxima verosimilitude". Realización experimental Para esta demostración, usamos ibm_peekskill v2.0.0, un procesador IBM Quantum Falcon de 27 cúbits cuxo mapa de acoplamento permite un código de hexágono pesado de distancia 3, ver Fig. 1 . O tempo total para a medición do cúbit e o posterior restablecemento condicional en tempo real, para cada rolda, dura 768 ns e é o mesmo para todos os cúbits. Todas as medicións de síndromes e restablecementos ocorren simultaneamente para mellorar o rendemento. Engádese unha simple secuencia de desacoplamento dinámico Xπ-Xπ a todos os cúbits de código durante os seus respectivos períodos de inactividade. 32 1 A fuga de cúbits é