Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumo A corrección de erros cuánticos ofrece un camiño prometedor para realizar cálculos cuánticos de alta fidelidade. Aínda que as execucións totalmente tolerantes a fallos de algoritmos seguen sen realizarse, as melloras recentes na electrónica de control e no hardware cuántico permiten demostracións cada vez máis avanzadas das operacións necesarias para a corrección de erros. Aquí, realizamos corrección de erros cuánticos en qubits superconductores conectados nunha rede pesada de hexágono. Codificamos un qubit lóxico con distancia tres e realizamos varias roldas de medición de síndromes tolerantes a fallos que permiten a corrección de calquera fallo único na circuitería. Usando retroalimentación en tempo real, reiniciamos os qubits de síndrome e sinal condicionalmente despois de cada ciclo de extracción de síndrome. Informamos dun erro lóxico dependente do decodificador, cun erro lóxico medio por medición de síndrome en base Z(X) de ~0.040 (~0.088) e ~0.037 (~0.087) para decodificadores coincidentes e de máxima verosimilitude, respectivamente, en datos post-selecionados por fuga. Introdución Os resultados dos cálculos cuánticos poden ser faulty, na práctica, debido ao ruído no hardware. Para eliminar os fallos resultantes, pódense usar códigos de corrección de erros cuánticos (QEC) para codificar a información cuántica en graos de liberdade lóxicos protexidos, e despois, ao corrixir os fallos máis rápido do que se acumulan, permitir cálculos tolerantes a fallos (FT). Unha execución completa de QEC probablemente requirirá: preparación de estados lóxicos; realización dun conxunto universal de portas lóxicas, que pode requirir a preparación de estados máxicos; medición repetida de síndromes; e a decodificación das síndromes para corrixir erros. Se ten éxito, as taxas de erros lóxicos resultantes deberían ser inferiores ás taxas de erros físicos subxacentes, e diminuír co aumento das distancias do código ata valores insignificantes. A elección dun código QEC require a consideración do hardware subxacente e as súas propiedades de ruído. Para unha rede pesada de hexágono , de qubits, os códigos QEC de subsistema son atractivos porque se adaptan ben a qubits con conectividades reducidas. Outros códigos mostraron promesa debido ao seu limiar relativamente alto para FT ou un gran número de portas lóxicas transversais . Aínda que o seu espazo e sobrecarga de tempo poden supoñer un obstáculo importante para a escalabilidade, existen enfoques alentadores para reducir os recursos máis caros explotando algunha forma de mitigación de erros . 1 2 3 4 5 6 No proceso de decodificación, a corrección exitosa depende non só do rendemento do hardware cuántico, senón tamén da implementación da electrónica de control utilizada para adquirir e procesar a información clásica obtida das medicións de síndrome. No noso caso, inicializar tanto os qubits de sinal como os de sinal mediante retroalimentación en tempo real entre ciclos de medición pode axudar a mitigar os erros. A nivel de decodificación, mentres que existen algúns protocolos para realizar QEC asincronamente dentro dun formalismo FT , , a taxa á que se reciben as síndromes de erro debería ser cunsurable co seu tempo de procesamento clásico para evitar unha acumulación crecente de datos de síndrome. Ademais, algúns protocolos, como o uso dun estado máxico para unha porta T lóxica , requiren a aplicación de feed-forward en tempo real. 7 8 9 Así, a visión a longo prazo de QEC non gravita arredor dun único obxectivo final, senón que debe verse como un continuo de tarefas profundamente interrelacionadas. O camiño experimental no desenvolvemento desta tecnoloxía comprenderá primeiro a demostración destas tarefas de forma illada e despois a súa combinación progresiva, sempre mentres se melloran continuamente as súas métricas asociadas. Parte deste progreso reflíctese en numerosos avances recentes en sistemas cuánticos en diferentes plataformas físicas, que demostraron ou aproximaron varios aspectos dos desiderata para a computación cuántica FT. En particular, a preparación de estados lóxicos FT demostrouse en ións , spins nucleares en diamante e qubits superconductores . Ciclos repetidos de extracción de síndrome mostráronse en qubits superconductores en códigos pequenos de detección de erros , , incluída a corrección parcial de erros así como un conxunto universal (aínda que non FT) de portas de un só qubit . Recentemente informouse dunha demostración FT dun conxunto de portas universais en dous qubits lóxicos en ións . No ámbito da corrección de erros, houbo realizacións recentes do código de superficie de distancia 3 en qubits superconductores con decodificación e post-selección , así como unha implementación FT dunha memoria cuántica dinámicamente protexida usando o código de cor e a preparación de estado FT, operación e medición, incluídos os seus estabilizadores, dun estado lóxico no código Bacon-Shor en ións , . 10 11 12 13 14 15 16 17 18 19 20 20 21 Aquí combinamos a capacidade de retroalimentación en tempo real nun sistema de qubits superconductor cun protocolo de decodificación de máxima verosimilitude ata o momento inexplorado experimentalmente para mellorar a supervivencia de estados lóxicos. Demostramos estas ferramentas como parte da operación FT dun código de subsistema , o código pesada de hexágono , nun procesador cuántico superconductor. Esencial para facer que a nosa implementación deste código sexa tolerante a fallos son os qubits de sinal que, cando se atopan non nulos, alertan ao decodificador sobre erros no circuíto. Ao restablecer condicionalmente os qubits de sinal e sinal despois de cada ciclo de medición de síndrome, protexemos o noso sistema contra erros derivados da asimetría de ruído inherente á relaxación enerxética. Ademais, explotamos estratexias de decodificación descritas recentemente e estendemos as ideas de decodificación para incluír conceptos de máxima verosimilitude , , . 22 1 15 4 23 24 Resultados O código pesada de hexágono e circuítos de múltiples roldas O código pesada de hexágono que consideramos é un código de = 9 qubits que codifica = 1 qubit lóxico con distancia = 3 . Os grupos de calibre Z e X (ver Fig. 1a) e os grupos de estabilizadores son xerados por n k d 1 Os grupos de estabilizadores son os centros dos respectivos grupos de calibre . Isto significa que os estabilizadores, como produtos de operadores de calibre, pódense deducir de medicións de só os operadores de calibre. Os operadores lóxicos pódense elixir como = e . Operadores de calibre Z (azul) e X (vermello) (ecuacións (1) e (2)) mapeados nos 23 qubits requiridos co código pesada de hexágono de distancia 3. Os qubits de código ( 1 − 9) móstranse en amarelo, os qubits de síndrome ( 17, 19, 20, 22) usados para estabilizadores Z en azul, e os qubits de sinal e síndromes usados nos estabilizadores X en branco. A orde e dirección en que se aplican as portas CX dentro de cada subsección (0 a 4) denótanse polas frechas numeradas. Diagrama do circuíto dunha rolda de medición de síndrome, incluíndo estabilizadores X e Z. O diagrama do circuíto ilustra a paralelización permitida das operacións de porta: aquelas dentro dos límites establecidos polas barreiras de programación (liñas verticais discontinuas grises). Como a duración de cada porta de dous qubits difire, a programación final da porta determínase cunha pasada estándar de transpilación de circuíto tan tarde como sexa posible; despois engádese desacoplamento dinámico aos qubits de datos onde o tempo o permite. As operacións de medición e reinicio están illadas doutras operacións de porta por barreiras para permitir que se engada desacoplamento dinámico uniforme aos qubits de datos inactivos. Diagramas de decodificación para tres roldas de medición de estabilizadores Z e X con ruído a nivel de circuíto permiten a corrección de erros X e Z, respectivamente. Os nós azuis e vermellos nos diagramas corresponden a diferenzas de síndromes, mentres que os nós negros son a fronteira. As arestas codifican varias formas en que poden ocorrer erros no circuíto como se describe no texto. Os nós están etiquetados polo tipo de medición de estabilizador (Z ou X), xunto cun subíndice que indexa o estabilizador e un superíndice que denota a rolda. As arestas negras, que xorden de erros Pauli Y en qubits de código (e polo tanto son só de tamaño 2), conectan os dous diagramas en e , pero non se usan no decodificador coincidente. Os hiperarestas de tamaño 4, que non son usados pola coincidencia, pero si polo decodificador de máxima verosimilitude. As cores son só para claridade. Traducir cada un no tempo por unha rolda tamén dá unha hiperaresta válida (con algunha variación nas fronteiras temporais). Tampouco se mostran ningunha das hiperarestas de tamaño 3. a Q Q Q Q Q Q b c d e c d f Aquí centrámonos nun circuíto FT particular, moitas das nosas técnicas pódense usar de forma máis xeral con diferentes códigos e circuítos. Constrúense dous sub-circuítos, mostrados na Fig. 1b, para medir os operadores de calibre X e Z. O circuíto de medición Z tamén adquire información útil medindo qubits de sinal. Preparamos estados de código no estado lóxico () preparando primeiro nove qubits no estado e medindo o calibre X (calibre Z). Despois realizamos roldas de medición de síndrome, onde unha rolda consiste nunha medición de calibre Z seguida dunha medición de calibre X (respectivamente, calibre X seguida de calibre Z). Finalmente, lemos todos os nove qubits de código na base Z (X). Realizamos os mesmos experimentos para os estados lóxicos iniciais e , simplemente inicializando os nove qubits en e , respectivamente. Algoritmos de decodificación No ámbito da computación cuántica FT, un decodificador é un algoritmo que toma como entrada medicións de síndrome dun código de corrección de erros e produce unha corrección aos qubits ou datos de medición. Nesta sección describimos dous algoritmos de decodificación: decodificación de coincidencia perfecta e decodificación de máxima verosimilitude. O hipergrafo de decodificación é unha descrición concisa da información recompilada por un circuíto FT e dispoñible para un algoritmo de decodificación. Consiste nun conxunto de vértices, ou eventos sensibles a erros, , e un conxunto de hiperarestas , que codifican as correlacións entre eventos causados por erros no circuíto. A Fig. 1c–f representa partes do hipergrafo de decodificación para o noso experimento. 15 V E A construción dun hipergrafo de decodificación para circuítos de estabilizadores con ruído Pauli pode facerse usando simulacións estándar de Gottesman-Knill ou técnicas similares de trazado Pauli . Primeiro, créase un evento sensible a erros para cada medición que é determinista no circuíto sen erros. Unha medición determinista é calquera medición cuxo resultado ∈ {0, 1} pode predicirse sumando módulo dous os resultados de medición dun conxunto de medicións anteriores. É dicir, para un circuíto sen erros, , onde o conxunto pode atoparse mediante simulación do circuíto. Establece o valor do evento sensible a erros en − (tamén chamado trivial) en ausencia de erros. Polo tanto, observar un evento sensible a erros non trivial (tamén chamado non trivial) implica que o circuíto sufriu polo menos un erro. Nos nosos circuítos, os eventos sensibles a erros son medicións de qubits de sinal ou a diferenza de medicións sucesivas do mesmo estabilizador (tamén chamados ás veces síndromes de diferenza). 25 26 M m A continuación, engádense hiperarestas considerando fallos do circuíto. O noso modelo contén unha probabilidade de fallo para cada un de varios compoñentes do circuíto Aquí distinguimos a operación identidade id en qubits durante un tempo no que outros qubits están sometidos a portas unitarias, da operación identidade idm en qubits cando outros están sometidos a medición e reinicio. Reiniciamos qubits despois de que sexan medidos, mentres que inicializamos qubits que aínda non se usaron no experimento. Finalmente, cx é a porta controlled-not, h é a porta Hadamard, e x, y, z son portas Pauli. (ver Métodos “IBM_Peekskill e detalles experimentais” para máis detalles). Os valores numéricos para están listados nos Métodos “IBM_Peekskill e detalles experimentais”. O noso modelo de erros é ruído dedepolarización do circuíto. Para erros de inicialización e reinicio, aplícase un Pauli X coas probabilidades respectivas e despois da preparación ideal do estado. Para erros de medición, aplícase un Pauli X cunha probabilidade antes da medición ideal. Unha porta unitaria dun qubit (porta de dous qubits) sufre cunha probabilidade un dos tres (quince) erros Pauli non idénticos despois da porta ideal. Hai unha posibilidade igual de que ocorra calquera dos tres (quince) erros Pauli. Cando ocorre un único fallo no circuíto, fai que un subconxunto de eventos sensibles a erros sexa non trivial. Este conxunto de eventos sensibles a erros convértese nunha hiperaresta. O conxunto de todas as hiperarestas é . Dous fallos diferentes poden levar á mesma hiperaresta, polo que cada hiperaresta pode considerarse que representa un conxunto de fallos, cada un dos cales fai que individualmente os eventos na hiperaresta sexan non triviais. Asociada a cada hiperaresta hai unha probabilidade, que, a primeira orde, é a suma das probabilidades de fallos no conxunto. E Un fallo tamén pode levar a un erro que, propagado ata o final do circuíto, anticomuta cun ou máis dos operadores lóxicos do código, necesitando unha corrección lóxica. Asumimos por xeneralidade que o código ten qubits lóxicos e unha base de 2 operadores lóxicos, pero notamos que = 1 para o código pesada de hexágono usado no experimento. Podemos rastrexar que operadores lóxicos anticomutan co erro usando un vector de . Polo tanto, cada hiperaresta tamén está etiquetada por un destes vectores , chamado etiqueta lóxica. Nótese que se o código ten distancia polo menos tres, cada hiperaresta ten unha etiqueta lóxica única. k k h Finalmente, notamos que un algoritmo de decodificación pode optar por simplificar o hipergrafo de decodificación de varias maneiras. Un xeito que sempre empregamos aquí é o proceso de deflagging. As medicións de sinal das qubits 16, 18, 21, 23 simplemente ignóranse sen aplicar correccións. Se o sinal 11 é non trivial e 12 trivial, aplícase a 2. Se 12 é non trivial e 11 trivial, aplícase á qubit 6. Se o sinal 13 é non trivial e 14 trivial, aplícase á qubit 4. Se 14 é non trivial e 13 trivial, aplícase á qubit 8. Ver ref. 15 para detalles sobre por que isto é suficiente para a tolerancia a fallos. Isto significa que en lugar de incluír eventos sensibles a erros das medicións de qubits de sinal directamente, preprocesamos os datos usando a información do sinal para aplicar correccións Pauli virtuais e axustar os eventos sensibles a erros posteriores en consecuencia. As hiperarestas para o hipergrafo deflagged pódense atopar mediante simulación de estabilizadores incorporando as correccións . Sexa que indique o número de roldas. Despois do deflagging, o tamaño do conxunto para experimentos de base Z (resp. X) é (resp. 6 + 4), debido á medición de seis estabilizadores por rolda e á existencia de dous (resp. catro) estabilizadores de erro iniciais despois da preparación do estado. O tamaño de é similarmente (resp. 60 − 1) para > 0. Z Z Z Z Z Z r r r Considerando os erros X e Z por separado, o problema de atopar unha corrección de peso mínimo para o código de superficie pódese reducir a atopar unha coincidencia perfecta de peso mínimo nun grafo . Os decodificadores coincidentes seguen sendo estudados pola súa praciticidade e ampla aplicabilidade , . Nesta sección, describimos o decodificador coincidente para o noso código pesada de hexágono de distancia 3. 4 27 28 29 Os grafos de decodificación, un para os erros X (Fig. 1c) e outro para os erros Z (Fig. 1d), para coincidencia perfecta de peso mínimo son en realidade subgrafos do hipergrafo de decodificación na sección anterior. Centrémonos aquí no grafo para corrixir erros X, xa que o grafo de erros Z é análogo. Neste caso, do hipergrafo de decodificación conservamos os nós correspondentes a (a diferenza de sucesivas) medicións de estabilizadores Z e as arestas (é dicir, hiperarestas de tamaño dous) entre eles. Ademais, créase un vértice de fronteira e as hiperarestas de tamaño un da forma { } con ∈ , represéntanse incluíndo arestas { , }. Todas as arestas no grafo de erros X herdan probabilidades e etiquetas lóxicas das súas hiperarestas correspondentes (ver Táboa 1 para datos de arestas de erros X e Z para o experimento de 2 roldas). v v VZ v b Un algoritmo de coincidencia perfecta toma un grafo con arestas ponderadas e un conxunto de tamaño par de nós resaltados, e devolve un conxunto de arestas no grafo que conecta todos os nós resaltados en pares e ten un peso total mínimo entre todos os conxuntos de arestas dese tipo. No noso caso, os nós resaltados son os eventos sensibles a erros non triviais (se hai un número impar, tamén se resalta o nodo de fronteira), e os pesos das arestas ou ben se elixen todos como un (método uniforme) ou se establecen como , onde é a probabilidade da aresta (método analítico). Esta última elección significa que o peso total dun conxunto de arestas é igual ao log-verosimilitude dese conxunto, e a coincidencia perfecta de peso mínimo tenta maximizar esta verosimilitude sobre as arestas do grafo. Dada unha coincidencia perfecta de peso mínimo, pódese usar as etiquetas lóxicas das arestas na coincidencia para decidir unha corrección ao estado lóxico. Alternativamente, o grafo de erros X (erros Z) para o decodificador coincidente é tal que cada aresta pode asociarse a un qubit de código (ou a un erro de medición), de xeito que incluír unha aresta na coincidencia implica que se debe aplicar unha corrección X (Z) ao qubit correspondente. A decodificación de máxima verosimilitude (MLD) é un método óptimo, aínda que non escalable, para decodificar códigos cuánticos de corrección de erros. Na súa concepción orixinal, a MLD aplicouse a modelos de ruído fenomenolóxicos onde os erros ocorren xusto antes de medirse as síndromes , . Isto, por suposto, ignora o caso máis realista no que os erros poden propagarse a través da circuitería de medición de síndrome. Máis recentemente, a MLD estendeuse para incluír ruído de circuíto , . Aquí, describimos como a MLD corrixe o ruído do circuíto usando o hipergrafo de decodificación. 24 30 23 31 A MLD deduce a corrección lóxica máis probable dada unha observación dos eventos sensibles a erros. Isto faise calculando a distribución de probabilidade Pr[ , ], onde representa eventos sensibles a erros e representa unha corrección lóxica. β γ Podemos calcular Pr[ , ] incluíndo cada hiperaresta do hipergrafo de decodificación, Fig. 1c–f, comezando coa distribución de erros cero, é dicir, Pr[0∣ ∣, 02 ] = 1. Se a hiperaresta ten unha probabilidade de ocorrer, independente de calquera outra hiperaresta, incluímola realizando a actualización β γ V k h p h h onde é só unha representación vectorial binaria da hiperaresta. Esta actualización debe aplicarse unha vez por cada hiperaresta en . E Unha vez que se calcula Pr[ , ], podemos usalo para deducir a mellor corrección lóxica. Se se observa nunha execución do experimento, β γ indica como se deben corrixir as medicións dos operadores lóxicos. Para máis detalles sobre implementacións específicas de MLD, consulte Métodos “Implementacións de máxima verosimilitude”. Realización experimental Para esta demostración usamos ibm_peekskill v2.0.0, un procesador IBM Quantum Falcon de 27 qubits cuxo mapa de acoplamento permite un código pesada de hexágono de distancia 3, ver Fig. 1. O tempo total para a medición do qubit e o reinicio condicional subsequente en tempo real, para cada rolda, leva 768 ns e é o mesmo para todos os qubits. Todas as medicións de síndrome e reinicios ocorren simultaneamente para un rendemento mellorado. Engádese unha simple secuencia de desacoplamento dinámico Xπ-Xπ a todos os qubits de código durante os seus respectivos períodos inactivos. 32 A fuga de qubits é unha razón importante pola que o modelo de erro de deparolización Pauli asumido polo deseño do decodificador pode ser inexacto. Nalgúns casos, podemos detectar se un qubit se filtrou fóra do subespazo de cálculo no momento en que se mide (ver Métodos “Método de post-selección” para máis información sobre o método de post-selección e as súas limitacións). Usando isto, podemos post-seleccionar execucións do experimento cando non se detectou fuga, similar a ref. 18. Na Fig. 2a, inicializamos o estado lóxico , e aplicamos roldas de medición de síndrome, onde unha rolda inclúe estabilizadores X e Z (tempo total de aproximadamente 5,3 μs por rolda, Fig. 1b). Usando decodificación analítica de coincidencia perfecta nos datos completos (500.000 disparos por execución), extraemos os erros lóxicos na Fig. 2a, triángulos vermellos (azuis). Os detalles dos parámetros optimizados utilizados na decodificación analítica de coincidencia perfecta pódense atopar nos Métodos “IBM_Peekskill e detalles experimentais”. Axustando as curvas de decaída completas (ecuación (14)) ata 10 roldas, extraemos o erro lóxico por rolda sen post-selección na Fig. 2b de 0,059(2) (0,058(3)) para () e 0,113(5) (0,107(4)) para , como se mostra na Fig. 2b. Erro lóxico fronte ao número de roldas de medición de síndrome , onde unha rolda inclúe tanto unha medición de estabilizador Z como unha X. Os triángulos azuis que apuntan cara á dereita (triángulos vermellos) marcan os erros lóxicos obtidos do uso de decodificación analítica coincidente en datos experimentais brutos para estados (). a r