Autores: Sergey Bravyi Andrew W. Cross Jay M. Gambetta Dmitri Maslov Patrick Rall Theodore J. Yoder Resumo A acumulación de erros físicos , , impide a execución de algoritmos a gran escala en computadores cuánticos actuais. A corrección de erros cuánticos promete unha solución codificando qubits lóxicos nun número maior de qubits físicos, de tal xeito que os erros físicos sexan suprimidos o suficiente para permitir a execución dun cálculo desexado cunha fidelidade tolerable. A corrección de erros cuánticos realízase de forma práctica unha vez que a taxa de erro físico está por debaixo dun valor limiar que depende da elección do código cuántico, do circuíto de medición de síndromes e do algoritmo de descodificación . Presentamos un protocolo de corrección de erros cuánticos de principio a fin que implementa memoria tolerante a fallos sobre a base dunha familia de códigos de paridade de baixa densidade . O noso enfoque acada un limiar de erro do 0,7% para o modelo de ruído estándar baseado en circuítos, á par co código de superficie , , , que durante 20 anos foi o código líder en termos de limiar de erro. O ciclo de medición de síndromes para un código de lonxitude na nosa familia require qubits auxiliares e un circuíto de profundidade 8 con portas CNOT, inicializacións de qubits e medicións. A conectividade de qubits requirida é un grafo de grao 6 composto por dous subgrafos planares disxuntos. En particular, mostramos que 12 qubits lóxicos poden ser preservados durante case 1 millón de ciclos de síndromes usando un total de 288 qubits físicos, asumindo unha taxa de erro físico do 0,1%, mentres que o código de superficie requiriría case 3.000 qubits físicos para lograr dito rendemento. Os nosos achados achegan demostracións de memoria cuántica tolerante a fallos de baixa sobrecarga ao alcance de procesadores cuánticos a curto prazo. 1 2 3 4 k n 5 6 7 8 9 10 n n Principal A computación cuántica atraeu atención debido á súa capacidade de ofrecer solucións asintoticamente máis rápidas a un conxunto de problemas computacionais en comparación cos mellores algoritmos clásicos coñecidos . Crese que un computador cuántico escalable e funcional pode axudar a resolver problemas computacionais en áreas como o descubrimento científico, a investigación de materiais, a química e o deseño de fármacos, por citar algúns , , , . 5 11 12 13 14 O principal obstáculo para construír un computador cuántico é a fraxilidade da información cuántica, debido a varias fontes de ruído que a afectan. Xa que o illamento dun computador cuántico de efectos externos e o seu control para inducir un cálculo desexado están en conflito entre si, o ruído parece ser inevitable. As fontes de ruído inclúen imperfeccións nos qubits, nos materiais utilizados, no aparello de control, nos erros de preparación de estado e medición, e nunha variedade de factores externos que van dende os artificiais locais, como campos electromagnéticos errantes, ata os inherentes ao Universo, como os raios cósmicos. Véxase ref. para un resumo. Mentres que algunhas fontes de ruído poden ser eliminadas con mellor control , materiais e apantallamento , , , varias outras fontes parecen ser difíciles de eliminar, se é que é posible. O último tipo pode incluír emisión espontánea e estimulada en ións atrapados , , e a interacción co baño (efecto Purcell) en circuítos superconductores, cubrindo ambas as tecnoloxías cuánticas líderes. Polo tanto, a corrección de erros convértese nun requisito clave para construír un computador cuántico escalable e funcional. 15 16 17 18 19 20 1 2 3 A posibilidade de tolerancia a fallos cuánticos está ben establecida . Codificar un qubit lóxico de forma redundante en moitos qubits físicos permite diagnosticar e corrixir erros medindo repetidamente síndromes de operadores de paridade. Non obstante, a corrección de erros só é beneficiosa se a taxa de erro do hardware está por debaixo dun certo valor limiar que depende dun protocolo de corrección de erros particular. As primeiras propostas de corrección de erros cuánticos, como os códigos concatenados , , , centráronse en demostrar a posibilidade teórica de supresión de erros. A medida que a comprensión da corrección de erros cuánticos e as capacidades das tecnoloxías cuánticas maduraron, o foco cambiou a atopar protocolos de corrección de erros cuánticos prácticos. Isto resultou no desenvolvemento do código de superficie , , , que ofrece un alto limiar de erro próximo ao 1%, algoritmos de descodificación rápidos e compatibilidade cos procesadores cuánticos existentes que dependen da conectividade de qubits en rede cadrada bidimensional (2D). Pequenos exemplos do código de superficie cun único qubit lóxico xa foron demostrados experimentalmente por varios grupos , , , , . Non obstante, a escalabilidade do código de superficie a 100 ou máis qubits lóxicos sería prohibitivamente custosa debido á súa baixa eficiencia de codificación. Isto impulsou o interese en códigos cuánticos máis xerais coñecidos como códigos de paridade de baixa densidade (LDPC) . O progreso recente no estudo dos códigos LDPC suxire que poden acadar tolerancia a fallos cuánticos cunha eficiencia de codificación moito maior . Aquí, centrámonos no estudo dos códigos LDPC, xa que o noso obxectivo é atopar códigos e protocolos de corrección de erros cuánticos que sexan eficientes e posibles de demostrar na práctica, dadas as limitacións das tecnoloxías de computación cuántica. 4 21 22 23 7 8 9 10 24 25 26 27 28 6 29 Un código de corrección de erros cuánticos é de tipo LDPC se cada operador de verificación do código actúa só sobre uns poucos qubits e cada qubit participa en poucas verificacións. Propuxéronse recentemente varias variantes de códigos LDPC, incluíndo códigos de superficie hiperbólica , , , produto de hipergrafos , códigos de produto balanceado , códigos de dous bloques baseados en grupos finitos , , , e códigos de Tanner cuánticos , . Estes últimos demostrouse , que son asintoticamente 'bos' no sentido de ofrecer unha taxa de codificación constante e distancia lineal: un parámetro que cuantifica o número de erros corrixibles. Por outra banda, o código de superficie ten unha taxa de codificación asintoticamente cero e unha distancia de só raíz cadrada. Substituír o código de superficie por un código LDPC de alta taxa e alta distancia podería ter implicacións prácticas importantes. En primeiro lugar, a sobrecarga de tolerancia a fallos (a razón entre o número de qubits físicos e lóxicos) podería reducirse notablemente. En segundo lugar, os códigos de alta distancia mostran unha diminución moi pronunciada na taxa de erro lóxico: a medida que a probabilidade de erro físico cruza o valor limiar, a cantidade de supresión de erros lograda polo código pode aumentar en ordes de magnitude incluso cunha pequena redución da taxa de erro físico. Esta característica fai que os códigos LDPC de alta distancia sexan atractivos para demostracións a curto prazo que probablemente operarán no réxime próximo ao limiar. Non obstante, críase anteriormente que superar o código de superficie para modelos de ruído realistas incluíndo erros de memoria, portas e preparación de estado e medición podería requirir códigos LDPC moi grandes con máis de 10.000 qubits físicos . 30 31 32 33 34 35 36 37 38 39 40 39 40 31 Aquí presentamos varios exemplos concretos de códigos LDPC de alta taxa con uns poucos centos de qubits físicos equipados cun circuíto de medición de síndromes de baixa profundidade, un algoritmo de descodificación eficiente e un protocolo tolerante a fallos para abordar qubits lóxicos individuais. Estes códigos mostran un limiar de erro próximo ao 0,7%, un rendemento excelente no réxime próximo ao limiar e ofrecen unha redución de 10 veces na sobrecarga de codificación en comparación co código de superficie. Os requisitos de hardware para realizar os nosos protocolos de corrección de erros son relativamente modestos, xa que cada qubit físico está acoplado por portas de dous qubits con só seis outros qubits. Aínda que o grafo de conectividade de qubits non é localmente incrustable nunha rede 2D, pódese descompoñer en dous subgrafos planares de grao 3. Como argumentaremos a continuación, tal conectividade de qubits é axeitada para arquitecturas baseadas en qubits superconductores. Os nosos códigos son unha xeneralización dos códigos de bicicleta propostos por MacKay et al. e estudados con máis profundidade nas refs. , , . Nomeamos os nosos códigos como bicicleta bivariante (BB) porque se basean en polinomios bivariantes, como se detalla nos . Trátase de códigos estabilizadores do tipo Calderbank–Shor–Steane (CSS) , que poden ser descritos por unha colección de operadores de verificación de seis qubits (estabilizadores) compostos por Pauli e . A un nivel alto, un código BB é similar ao código toroidal bidimensional . En particular, os qubits físicos dun código BB pódense dispoñer nunha grella bidimensional con condicións de contorno periódicas de tal xeito que todos os operadores de verificación se obteñen dun único par de verificacións e mediante desprazamentos horizontais e verticais da grella. Non obstante, en contraste cos estabilizadores de plaqueta e vértice que describen o código toroidal, os operadores de verificación dos códigos BB non son localmente xeométricos. Ademais, cada verificación actúa sobre seis qubits en lugar de catro. Describiremos o código mediante un grafo de Tanner tal que cada vértice de representa un qubit de datos ou un operador de verificación. Un vértice de verificación e un vértice de datos están conectados por unha aresta se o operador de verificación -ésimo actúa non trivialmente sobre o qubit de datos -ésimo (aplicando Pauli ou ). Véxase a Fig. para exemplos de grafos de Tanner de códigos de superficie e BB, respectivamente. O grafo de Tanner de calquera código BB ten grao de vértice seis e grosor de grafo igual a dous, o que significa que se pode descompoñer en dous subgrafos planares disxuntos de arestas (véxase os ). A conectividade de qubits de grosor 2 é axeitada para qubits superconductores acoplados por resonadores de microondas. Por exemplo, dúas capas planares de acopladores e as súas liñas de control pódense acoplar á parte superior e inferior do chip que aloxa os qubits, e as dúas partes unidas. 41 35 36 42 Métodos 43 44 X Z 7 X Z G G i j i j X Z 1a,b 29 Métodos , Grafo de Tanner dun código de superficie, para comparación. , Grafo de Tanner dun código BB con parámetros [] incrustado nun toro. Calquera aresta do grafo de Tanner conecta un vértice de datos e un de verificación. Os qubits de datos asociados aos rexistros ( ) e ( ) móstranse con círculos azuis e laranxas. Cada vértice ten seis arestas incidentes incluíndo catro arestas de curto alcance (apuntando ao norte, sur, leste e oeste) e dúas arestas de longo alcance. Só mostramos unhas poucas arestas de longo alcance para evitar a desorde. As arestas a raias e continuas indican dous subgrafos planares que abran o grafo de Tanner, véxase os . , Esbozo dunha extensión do grafo de Tanner para medir e seguindo a ref. , que se une a un código de superficie. A ancila correspondente á medición pode conectarse a un código de superficie, permitindo operacións de carga-almacenamento para todos os qubits lóxicos mediante teletransportación cuántica e algúns unitarios lóxicos. Este grafo de Tanner estendido tamén ten unha implementación nunha arquitectura de grosor 2 a través das arestas e (véxase os ). a b q L q R Métodos c 50 A B Métodos Un código BB con parámetros [[ , , ]] codifica qubits lóxicos en qubits de datos ofrecendo unha distancia de código , o que significa que calquera erro lóxico abranxe polo menos qubits de datos. Dividimos qubits de datos en rexistros ( ) e ( ) de tamaño /2 cada un. Calquera verificación actúa sobre tres qubits de ( ) e tres qubits de ( ). O código depende de qubits de verificación auxiliares para medir a síndrome de erro. Dividimos qubits de verificación en rexistros ( ) e ( ) de tamaño /2 que recollen síndromes de tipo e , respectivamente. En total, a codificación depende de 2 qubits físicos. A taxa de codificación neta é polo tanto = /(2 ). Por exemplo, a arquitectura estándar do código de superficie codifica = 1 qubit lóxico en = qubits de datos para un código de distancia e utiliza − 1 qubits de verificación para medicións de síndromes. A taxa de codificación neta é ≈ 1/(2 ), que rapidamente se fai impráctico xa que un se ve obrigado a escoller unha gran distancia de código, debido, por exemplo, a que os erros físicos están preto do valor limiar. Por contra, os códigos BB teñen unha taxa de codificación ≫ 1/ , véxase a táboa para exemplos de códigos. Ata onde sabemos, todos os códigos mostrados na táboa son novos. O código de distancia 12 [] pode ser o máis prometedor para demostracións a curto prazo, xa que combina unha gran distancia e unha alta taxa de codificación neta = 1/24. Para comparar, o código de superficie de distancia 11 ten unha taxa de codificación neta = 1/241. Abaixo, mostramos que o código BB de distancia 12 supera ao código de superficie de distancia 11 no rango experimentalmente relevante de taxas de erro. n k d k n d d n q L q R n q L q R n n q X q Z n X Z n r k n k n d 2 d n r d 2 r d 2 1 1 r r Para evitar a acumulación de erros, debe ser posible medir a síndrome de erro con suficiente frecuencia. Isto conséguese cun circuíto de medición de síndromes que acopla os qubits de datos no soporte de cada operador de verificación co qubit auxiliar respectivo mediante unha secuencia de portas CNOT. Os qubits de verificación mírense revelando o valor da síndrome de erro. O tempo que leva implementar o circuíto de medición de síndromes é proporcional á súa profundidade: o número de capas de portas compostas por CNOTs non solapadas. Xa que novos erros continúan ocorrendo mentres se executa o circuíto de medición de síndromes, a súa profundidade debe minimizarse. O ciclo completo de medición de síndromes para un código BB ilustrase na Fig. . O ciclo de síndromes require só sete capas de CNOTs independentemente da lonxitude do código. Os qubits de verificación inicialízanse e mírense ao principio e ao final do ciclo de síndromes respectivamente (véxase os para máis detalles). O circuíto respecta a simetría de desprazamento cíclico do código subxacente. 2 Métodos Ciclo completo de medicións de síndromes que dependen de sete capas de CNOTs. Ofrecemos unha vista local do circuíto que inclúe só un qubit de datos de cada rexistro ( ) e ( ). O circuíto é simétrico baixo desprazamentos horizontais e verticais do grafo de Tanner. Cada qubit de datos está acoplado por CNOTs con tres *X-*verificacións e tres *Z-*verificacións: véxase os para máis detalles. q L q R Métodos O protocolo completo de corrección de erros realiza ≫ 1 ciclos de medición de síndromes e logo chama a un descodificador: un algoritmo clásico que toma como entrada as síndromes medidas e produce unha suposición do erro final nos qubits de datos. A corrección de erros ten éxito se a suposición e o erro real coinciden módulo un produto de operadores de verificación. Neste caso, os dous erros teñen a mesma acción sobre calquera estado codificado (lóxico). Polo tanto, aplicar o inverso do erro suposto devolve os qubits de datos ao estado lóxico inicial. Se non, se a suposición e o erro real difiren por un operador lóxico non trivial, a corrección de erros falla resultando nun erro lóxico. Os nosos experimentos numéricos baséanse na propagación de crenzas cun descodificador de estatísticas ordenadas (BP-OSD) proposto por Panteleev e Kalachev . O traballo orixinal describiu BP-OSD no contexto dun modelo de ruído de xogo só con erros de memoria. Aquí mostramos como estender BP-OSD ao modelo de ruído baseado en circuítos, véxase a para máis detalles. O noso enfoque segue de preto as refs. , , , . N c 36 36 Información Suplementaria 45 46 47 48 Unha versión ruidosa do circuíto de medición de síndromes pode incluír varios tipos de operacións defectuosas como erros de memoria en qubits de datos ou de verificación inactivos, portas CNOT defectuosas, inicializacións e medicións de qubits. Consideramos o modelo de ruído baseado en circuítos no que cada operación falla independentemente cunha probabilidade . A probabilidade dun erro lóxico depende da taxa de erro , dos detalles dos circuítos de medición 10 p p L p