Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumo A corrección de erros cuánticos ofrece un camiño prometedor para realizar computacións cuánticas de alta fidelidade. Aínda que a execución totalmente tolerante a fallos de algoritmos permanece irrealizada, as melloras recentes na electrónica de control e no hardware cuántico permiten demostracións cada vez máis avanzadas das operacións necesarias para a corrección de erros. Aquí, realizamos corrección de erros cuánticos en cúbits superconductores conectados nunha rede pesada de hexágonos. Codificamos un cúbit lóxico con distancia tres e realizamos varias roldas de medición de síndromes tolerantes a fallos que permiten a corrección de calquera fallo único no circuíto. Usando retroalimentación en tempo real, restablecemos os cúbits de síndrome e sinal condicionalmente despois de cada ciclo de extracción de síndromes. Informamos de erros lóxicos dependentes do decodificador, cun erro lóxico medio por medición de síndrome en base Z(X) de ~0,040 (~0,088) e ~0,037 (~0,087) para decodificadores coincidentes e de máxima verosimilitude, respectivamente, en datos postselecionados por filtración. Introdución Os resultados das computacións cuánticas poden ser faulty, na práctica, debido ao ruído no hardware. Para eliminar os fallos resultantes, os códigos de corrección de erros cuánticos (QEC) poden usarse para codificar a información cuántica en graos de liberdade lóxicos protexidos, e despois, corrixindo os fallos máis rápido do que se acumulan, permitir computacións (FT) tolerantes a fallos. Unha execución completa de QEC probablemente requirirá: preparación de estados lóxicos; realización dun conxunto universal de portas lóxicas, que pode requirir a preparación de estados máxicos; medicións repetidas de síndromes; e a decodificación das síndromes para corrixir erros. Se ten éxito, as taxas de erros lóxicos resultantes deberían ser menores que as taxas de erros físicos subxacentes, e diminuír co aumento das distancias do código ata valores desprezables. A elección dun código QEC require a consideración do hardware subxacente e das súas propiedades de ruído. Para unha rede pesada de hexágonos , de cúbits, os códigos QEC de subsistema son atractivos porque están ben adaptados para cúbits con conectividades reducidas. Outros códigos mostraron promesa debido ao seu limiar relativamente alto para FT ou un gran número de portas lóxicas transversais . Aínda que o seu espazo e sobrecarga de tempo poden representar un obstáculo significativo para a escalabilidade, existen enfoques alentadores para reducir os recursos máis caros explotando algunha forma de mitigación de erros . 1 2 3 4 5 6 No proceso de decodificación, a corrección exitosa depende non só do rendemento do hardware cuántico, senón tamén da implementación da electrónica de control utilizada para adquirir e procesar a información clásica obtida das medicións de síndromes. No noso caso, inicializar os cúbits de síndrome e sinal mediante retroalimentación en tempo real entre ciclos de medición pode axudar a mitigar os erros. A nivel de decodificación, mentres que existen algúns protocolos para realizar QEC de forma asíncrona dentro dun formalismo FT , , a taxa á que se reciben as síndromes de erro debe ser comensurada co seu tempo de procesamento clásico para evitar unha acumulación crecente de datos de síndrome. Ademais, algúns protocolos, como o uso dun estado máxico para unha porta T lóxica , requiren a aplicación de retroalimentación en tempo real. 7 8 9 Polo tanto, a visión a longo prazo de QEC non se inclina cara a un único obxectivo último, senón que debe verse como un continuo de tarefas profundamente interrelacionadas. O camiño experimental no desenvolvemento desta tecnoloxía comprenderá a demostración destas tarefas de forma illada primeiro e a súa combinación progresiva despois, sempre mentres se melloran continuamente as súas métricas asociadas. Parte deste progreso reflíctese en numerosos avances recentes en sistemas cuánticos a través de diferentes plataformas físicas, que demostraron ou aproximaron varios aspectos dos desiderata para a computación cuántica FT. En particular, a preparación de estados lóxicos FT demostrouse en ións , espíns nucleares en diamante e cúbits superconductores . Ciclos repetidos de extracción de síndromes mostráronse en cúbits superconductores en códigos pequenos de detección de erros , , incluíndo a corrección parcial de erros así como un conxunto universal (aínda que non FT) de portas dun só cúbit . Unha demostración FT dun conxunto de portas universal en dous cúbits lóxicos informouse recentemente en ións . No ámbito da corrección de erros, houbo realizacións recentes do código de superficie de distancia 3 en cúbits superconductores con decodificación e postselección , así como unha implementación FT dunha memoria cuántica dinamicamente protexida usando o código de cor e a preparación, operación e medición de estados lóxicos FT, incluíndo os seus estabilizadores, dun estado lóxico no código de Bacon-Shor en ións , . 10 11 12 13 14 15 16 17 18 19 20 20 21 Aquí combinamos a capacidade de retroalimentación en tempo real nun sistema de cúbits superconductores cun protocolo de decodificación de máxima verosimilitude hitherto inexplorado experimentalmente para mellorar a supervivencia dos estados lóxicos. Demostramos estas ferramentas como parte da operación FT dun código de subsistema , o código de hexágono pesado , nun procesador cuántico superconductor. Esencial para facer que a nosa implementación deste código sexa tolerante a fallos son os cúbits de sinalización que, cando se atopan a ser distintos de cero, alertan ao decodificador sobre erros no circuíto. Ao restablecer condicionalmente os cúbits de sinalización e síndrome despois de cada ciclo de medición de síndrome, protexemos o noso sistema contra erros derivados da asimetría de ruído inherente á relaxación da enerxía. Ademais, explotamos estratexias de decodificación descritas recentemente e estendemos as ideas de decodificación para incluír conceptos de máxima verosimilitude , , . 22 1 15 4 23 24 Resultados O código de hexágono pesado e circuítos multirrolda O código de hexágono pesado que consideramos é un código de 9 cúbits, n=9, que codifica 1 cúbit lóxico, k=1, cunha distancia d=3 . Os grupos de calibre Z e X (ver Fig. 1a) e os grupos de estabilizadores xéranse por 1 Os grupos de estabilizadores S son os centros dos respectivos grupos de calibre G. Isto significa que os estabilizadores, como produtos de operadores de calibre, pódense deducir de medicións de só os operadores de calibre. Os operadores lóxicos pódense elixir como XL = X1X2X3 e ZL = Z1Z3Z7. Operadores de calibre Z (azul) e X (vermello) (ecuacións 1 e 2) mapeados sobre os 23 cúbits necesarios co código de hexágono pesado de distancia 3. Os cúbits do código (Q1−Q9) móstranse en amarelo, os cúbits de síndrome (Q17, Q19, Q20, Q22) utilizados para estabilizadores Z en azul, e os cúbits de sinalización e síndromes utilizados en estabilizadores X en branco. A orde e dirección das portas CX aplicadas dentro de cada subsección (0 a 4) denótase polas frechas numeradas. Diagrama de circuíto dunha rolda de medición de síndrome, incluíndo estabilizadores X e Z. O diagrama de circuíto ilustra a paralelización permitida das operacións de porta: aquelas dentro dos límites establecidos polas barreiras de planificación (liñas verticais punteadas grises). Como a duración de cada porta de dous cúbits difire, a planificación final da porta determínase cun pase estándar de transpilación de circuíto o máis tarde posible; despois do cal se engade descodificación dinámica aos cúbits de datos onde o tempo o permite. As operacións de medición e restablecemento illanse doutras operacións de porta por barreiras para permitir que se engada descodificación dinámica uniforme aos cúbits de datos inactivos. Grafos de decodificación para tres roldas de medición de estabilizadores (c) Z e (d) X cun ruído a nivel de circuíto permiten a corrección de erros X e Z, respectivamente. Os nós azuis e vermellos nos grafos corresponden a síndromes de diferenza, mentres que os nós negros son a fronteira. As arestas codifican varias formas en que os erros poden ocorrer no circuíto como se describe no texto. Os nós están etiquetados polo tipo de medición de estabilizador (Z ou X), xunto cun subíndice que indexa o estabilizador, e superíndices que denotan a rolda. As arestas negras, derivadas de erros Pauli Y nos cúbits do código (e polo tanto son só de tamaño 2), conectan os dous grafos en c e d, pero non se usan no decodificador de coincidencia. As hiperarestas de tamaño 4, que non son usadas pola coincidencia, pero son usadas polo decodificador de máxima verosimilitude. As cores son só para claridade. Traducir cada unha no tempo nunha rolda tamén dá unha hiperaresta válida (con algunha variación nos límites de tempo). Tampouco se mostran ningunha das hiperarestas de tamaño 3. a b e f Aquí centrámonos nun circuíto FT particular, moitas das nosas técnicas poden usarse de forma máis xeral con diferentes códigos e circuítos. Constrúense dous subcircuítos, mostrados na Fig. 1b, para medir os operadores de calibre X e Z. A medición do calibre Z tamén adquire información útil medindo cúbits de sinalización. Preparamos estados de código no estado lóxico |0⟩ (|1⟩) preparando primeiro nove cúbits no estado |+⟩ e medindo o calibre X (calibre Z). Despois realizamos r roldas de medición de síndrome, onde unha rolda consiste nunha medición de calibre Z seguida dunha medición de calibre X (respectivamente, calibre X seguida de calibre Z). Finalmente, lemos todos os nove cúbits de código na base Z (X). Realizamos os mesmos experimentos para os estados lóxicos iniciais |+⟩ e |−⟩, simplemente inicializando os nove cúbits en |+⟩ e |−⟩ en vez diso. Algoritmos de decodificación No contexto da computación cuántica FT, un decodificador é un algoritmo que toma como entrada medicións de síndromes dun código de corrección de erros e produce unha corrección para os cúbits ou os datos de medición. Nesta sección describimos dous algoritmos de decodificación: decodificación de coincidencia perfecta e decodificación de máxima verosimilitude. O hipergrafo de decodificación é unha descrición concisa da información recompilada por un circuíto FT e posta a disposición dun algoritmo de decodificación. Consta dun conxunto de vértices, ou eventos sensibles a erros, V, e un conxunto de hiperarestas E, que codifican as correlacións entre eventos causados por erros no circuíto. A Fig. 1c–f mostra partes do hipergrafo de decodificación para o noso experimento. 15 A construción dun hipergrafo de decodificación para circuítos de estabilizadores con ruído Pauli pódese facer usando simulacións estándar de Gottesman-Knill ou técnicas similares de trazado Pauli . Primeiro, créase un evento sensible a erros para cada medición que é determinista no circuíto libre de erros. Unha medición determinista M é calquera medición cuxo resultado m ∈ {0, 1} pode predicirse sumando módulo dous os resultados de medición dun conxunto {Mi} de medicións anteriores. É dicir, para un circuíto libre de erros, M = ΣMi mod 2, onde o conxunto {Mi} pódese atopar mediante simulación do circuíto. Estabelece o valor do evento sensible a erros a m − FM(mod2), que é cero (tamén chamado trivial) na ausencia de erros. Polo tanto, observar un evento sensible a erros non trivial (tamén chamado non trivial) implica que o circuíto sufriu polo menos un erro. Nos nosos circuítos, os eventos sensibles a erros son medicións de cúbits de sinalización ou a diferenza de medicións subsiguientes do mesmo estabilizador (tamén chamadas ás veces síndromes de diferenza). 25 26 A continuación, engádense hiperarestas considerando fallos no circuíto. O noso modelo contén unha probabilidade de fallo pC para cada un dos varios compoñentes do circuíto Aquí distinguimos a operación identidade id en cúbits durante un tempo no que outros cúbits están a sufrir portas unitarias, da operación identidade idm en cúbits cando outros están a sufrir medición e restablecemento. Restablecemos os cúbits despois de medilos, mentres que inicializamos os cúbits que aínda non se usaron no experimento. Finalmente, cx é a porta controlled-not, h é a porta Hadamard, e x, y, z son portas Pauli. (ver Métodos "IBM_Peekskill e detalles experimentais" para máis detalles). Os valores numéricos para pC están listados nos Métodos "IBM_Peekskill e detalles experimentais". O noso modelo de erros é ruído de depolarización do circuíto. Para erros de inicialización e restablecemento, aplícase un Pauli X coas respectivas probabilidades pinit e preset despois da preparación ideal do estado. Para erros de medición, aplícase un Pauli X cunha probabilidade Pmeas antes da medición ideal. Unha porta unitaria de un só cúbit (porta de dous cúbits) C sofre cunha probabilidade pC un dos tres (quince) erros Pauli non identidade despois da porta ideal. Hai unha oportunidade igual para que ocorra calquera dos tres (quince) erros Pauli. Cando ocorre un único fallo no circuíto, fai que algún subconxunto de eventos sensibles a erros sexa non trivial. Este conxunto de eventos sensibles a erros convértese nunha hiperaresta. O conxunto de todas as hiperarestas é E. Dous fallos diferentes poden levar á mesma hiperaresta, polo que cada hiperaresta pode verse como representando un conxunto de fallos, cada un dos cales fai que individualmente os eventos na hiperaresta sexan non triviais. Asociada a cada hiperaresta hai unha probabilidade, que, en primeira orde, é a suma das probabilidades de fallos no conxunto. Un fallo tamén pode levar a un erro que, propagado ata o final do circuíto, anticomuta cun ou máis dos operadores lóxicos do código, necesitando unha corrección lóxica. Suponmos por xeneralidade que o código ten k cúbits lóxicos e unha base de 2k operadores lóxicos, pero notamos que k=1 para o código de hexágono pesado usado no experimento. Podemos facer un seguimento de que operadores lóxicos anticomutan co erro usando un vector de {0,1}2k. Polo tanto, cada hiperaresta h tamén está etiquetada cun destes vectores γ ∈ {0,1}2k, chamado etiqueta lóxica. Notar que se o código ten unha distancia de polo menos tres, cada hiperaresta ten unha etiqueta lóxica única. Finalmente, observamos que un algoritmo de decodificación pode elixir simplificar o hipergrafo de decodificación de varias maneiras. Un xeito que sempre empregamos aquí é o proceso de deflagging. As medicións de sinalización dos cúbits 16, 18, 21, 23 ignóranse simplemente sen aplicar correccións. Se o sinal 11 é non trivial e o 12 trivial, aplícase Z ao 2. Se o 12 é non trivial e o 11 trivial, aplícase Z ao cúbit 6. Se o sinal 13 é non trivial e o 14 trivial, aplícase Z ao cúbit 4. Se o 14 é non trivial e o 13 trivial, aplícase Z ao cúbit 8. Ver ref. 15 para detalles sobre por que isto é suficiente para a tolerancia a fallos. Isto significa que en lugar de incluír eventos sensibles a erros das medicións de cúbits de sinalización directamente, preprocesamos os datos usando a información do sinal para aplicar correccións virtuais de Pauli Z e axustar os eventos sensibles a erros subsiguientes en consecuencia. As hiperarestas para o hipergrafo deflagged pódense atopar mediante simulación de estabilizadores incorporando as correccións Z. Sexa r o número de roldas. Despois do deflagging, o tamaño do conxunto V para experimentos na base Z (respectivamente X) son |V|=6r+2 (respectivamente 6r+4), debido á medición de seis estabilizadores por rolda e á existencia de dous (respectivamente catro) estabilizadores de erro iniciais despois da preparación do estado. O tamaño de E é de forma similar |E|=60r−13 (respectivamente 60r−1) para r>0. Considerando os erros X e Z por separado, o problema de atopar unha corrección de erro de peso mínimo para o código de superficie pódese reducir a atopar unha coincidencia perfecta de peso mínimo nun grafo . Os decodificadores de coincidencia continúan sendo estudados pola súa praciticidade e ampla aplicabilidade , . Nesta sección, describimos o decodificador de coincidencia para o noso código de hexágono pesado de distancia 3. 4 27 28 29 Os grafos de decodificación, un para os erros X (Fig. 1c) e outro para os erros Z (Fig. 1d), para a coincidencia perfecta de peso mínimo son en realidade subgrafos do hipergrafo de decodificación na sección anterior. Centrémonos aquí no grafo para corrixir erros X, xa que o grafo de erros Z é análogo. Neste caso, do hipergrafo de decodificación conservamos os nós VZ correspondentes ás medicións do estabilizador Z (diferenza das subsiguintes) e as arestas (é dicir, hiperarestas de tamaño dous) entre eles. Ademais, créase un vértice fronteira b, e as hiperarestas de tamaño un da forma {v} con v ∈ VZ, represéntanse incluíndo arestas {v, b}. Todas as arestas no grafo de erros X heredan probabilidades e etiquetas lóxicas das súas hiperarestas correspondentes (ver Táboa 1 para datos de arestas de erros X e Z para o experimento de 2 roldas). Un algoritmo de coincidencia perfecta toma un grafo con arestas ponderadas e un conxunto de tamaño par de nós resaltados, e devolve un conxunto de arestas no grafo que conecta todos os nós resaltados en pares e ten un peso total mínimo entre todos os conxuntos de arestas dese tipo. No noso caso, os nós resaltados son os eventos sensibles a erros non triviais (se hai un número impar, o nó fronteira tamén se resalta), e os pesos das arestas ou ben se escollen todos a un (método uniforme) ou se establecen como exp(−log(pe)), onde pe é a probabilidade da aresta (método analítico). A última opción significa que o peso total dun conxunto de arestas é igual á log-verosimilitude dese conxunto, e a coincidencia perfecta de peso mínimo intenta maximizar esta verosimilitude sobre as arestas do grafo. Dado unha coincidencia perfecta de peso mínimo, pódese usar as etiquetas lóxicas das arestas na coincidencia para decidir unha corrección ao estado lóxico. Alternativamente, o grafo de erros X (Z) para o decodificador de coincidencia é tal que cada aresta pode asociarse a un cúbit do código (ou a un erro de medición), de xeito que incluír unha aresta na coincidencia implica que se debe aplicar unha corrección X (Z) ao cúbit correspondente. A decodificación de máxima verosimilitude (MLD) é un método óptimo, aínda que non escalable, para decodificar códigos cuánticos de corrección de erros. Na súa concepción orixinal, a MLD aplicouse a modelos de ruído fenomenolóxicos onde os erros ocorren xusto antes de medirse as síndromes , . Isto, por suposto, ignora o caso máis realista onde os erros poden propagarse a través do circuíto de medición de síndrome. Máis recentemente, a MLD estendeuse para incluír ruído de circuíto , . Aquí, describimos como a MLD corrixe o ruído do circuíto usando o hipergrafo de decodificación. 24 30 23 31 A MLD deduce a corrección lóxica máis probable dada unha observación dos eventos sensibles a erros. Isto faise calculando a distribución de probabilidade Pr[β, γ], onde β representa eventos sensibles a erros e γ representa unha corrección lóxica. Podemos calcular Pr[β, γ] incluíndo todas as hiperarestas do hipergrafo de decodificación, Fig. 1c–f, comezando pola distribución de erro cero, é dicir, Pr[0|V|, 02k] = 1. Se a hiperaresta h ten unha probabilidade ph de ocorrer, independentemente de calquera outra hiperaresta, incluímos h realizando a actualización onde βh é só unha representación binaria vectorial da hiperaresta. Esta actualización debe aplicarse unha vez por cada hiperaresta en E. Unha vez calculado Pr[β, γ], podemos usalo para deducir a mellor corrección lóxica. Se se observa β∗ nunha execución do experimento, indica como deben corrixirse as medicións dos operadores lóxicos. Para máis detalles sobre implementacións específicas de MLD, consulte Métodos "Implementacións de máxima verosimilitude". Realización experimental Para esta demostración usamos ibm_peekskill v2.0.0, un procesador IBM Quantum Falcon de 27 cúbits cuxo mapa de acoplamento permite un código de hexágono pesado de distancia 3, ver Fig. 1. O tempo total para a medición do cúbit e o subsiguiente restablecemento condicional en tempo real, para cada rolda, leva 768ns e é o mesmo para todos os cúbits. Todas as medicións de síndrome e restablecementos ocorren simultaneamente para un rendemento mellorado. Engádese unha simple secuencia de descodificación dinámica Xπ−Xπ a todos os cúbits do código durante os seus respectivos períodos de inactividade. 32 A filtración de cúbits é unha razón importante pola que o modelo de erro de depolarización Pauli asumido polo deseño do decodificador pode ser inexacto. Nalgúns casos, podemos detectar se un cúbit filtróuse fóra do subespazo de computación no momento en que se mide (ver Métodos "Método de postselección" para máis información sobre o método de postselección e limitacións). Usando isto, podemos postseleccionar execucións do experimento cando non se detectou filtración, similar á ref. 18. Na Fig. 2a, inicializamos o estado lóxico |0L⟩ (|0⟩), e aplicamos r roldas de medición de síndrome, onde unha rolda inclúe estabilizadores X e Z (tempo total de aproximadamente 5,3 μs por rolda, Fig. 1b). Usando decodificación analítica de coincidencia perfecta nos datos completos (500.000 disparos por execución), extraemos os erros lóxicos na Fig. 2a, triángulos vermellos (azuis). Os detalles dos parámetros optimizados utilizados na decodificación analítica de coincidencia perfecta pódense atopar nos Métodos "IBM_Peekskill e detalles experimentais". Axustando as curvas de decaemento completas (ecuación 14) ata 10 roldas, extraemos erros lóxicos por rolda sen postselección na Fig. 2b de 0,059(2) (0,058(3)) para |0L⟩ (|1L⟩) e 0,113(5) (0,107(4)) para |+L⟩ (|−L⟩). Erro lóxico fronte ao número de roldas de medición de síndrome r, onde unha rolda inclúe medición de estabilizador Z e X. Os triángulos azuis apuntando á dereita (triángulos vermellos) marcan os erros lóxicos obtidos do uso de decodificación analítica de coincidencia en datos experimentais brutos para estados |0L⟩ (|1L⟩). Os cadrados azul a