Autores: Sergey Bravyi Andrew W. Cross Jay M. Gambetta Dmitri Maslov Patrick Rall Theodore J. Yoder Resumen La acumulación de errores físicos , , impide la ejecución de algoritmos a gran escala en las computadoras cuánticas actuales. La corrección de errores cuánticos promete una solución al codificar qubits lógicos en un número mayor de qubits físicos, de tal manera que los errores físicos se suprimen lo suficiente como para permitir la ejecución de una computación deseada con una fidelidad tolerable. La corrección de errores cuánticos se vuelve prácticamente realizable una vez que la tasa de error físico está por debajo de un valor umbral que depende de la elección del código cuántico, el circuito de medición de síndromes y el algoritmo de decodificación . Presentamos un protocolo de corrección de errores cuánticos de extremo a extremo que implementa memoria tolerante a fallos sobre la base de una familia de códigos de paridad de baja densidad (LDPC) . Nuestro enfoque logra un umbral de error del 0,7% para el modelo de ruido estándar basado en circuitos, a la par con el código de superficie , , , que durante 20 años fue el código líder en términos de umbral de error. El ciclo de medición de síndromes para un código de longitud en nuestra familia requiere qubits auxiliares y un circuito de profundidad 8 con puertas CNOT, inicializaciones y mediciones de qubits. La conectividad de qubits requerida es un grafo de grado 6 compuesto por dos subgrafos planares disjuntos por aristas. En particular, mostramos que 12 qubits lógicos pueden preservarse durante casi 1 millón de ciclos de síndromes utilizando 288 qubits físicos en total, asumiendo una tasa de error físico del 0,1%, mientras que el código de superficie requeriría casi 3000 qubits físicos para lograr dicho rendimiento. Nuestros hallazgos acercan las demostraciones de una memoria cuántica tolerante a fallos de bajo sobrecoste al alcance de los procesadores cuánticos a corto plazo. 1 2 3 4 k n 5 6 7 8 9 10 n n Principal La computación cuántica atrajo la atención debido a su capacidad para ofrecer soluciones asintóticamente más rápidas a un conjunto de problemas computacionales en comparación con los mejores algoritmos clásicos conocidos . Se cree que una computadora cuántica escalable en funcionamiento podría ayudar a resolver problemas computacionales en áreas como el descubrimiento científico, la investigación de materiales, la química y el diseño de fármacos, por nombrar algunos , , , . 5 11 12 13 14 El principal obstáculo para construir una computadora cuántica es la fragilidad de la información cuántica, debido a diversas fuentes de ruido que la afectan. Dado que aislar una computadora cuántica de efectos externos y controlarla para inducir una computación deseada entran en conflicto entre sí, el ruido parece ser inevitable. Las fuentes de ruido incluyen imperfecciones en los qubits, los materiales utilizados, los aparatos de control, los errores de preparación de estados y mediciones, y una variedad de factores externos que van desde los locales creados por el hombre, como campos electromagnéticos errantes, hasta los inherentes al Universo, como los rayos cósmicos. Véase la ref. para un resumen. Si bien algunas fuentes de ruido pueden eliminarse con un mejor control , materiales y blindaje , , , varias otras fuentes parecen ser difíciles, si no imposibles, de eliminar. El último tipo puede incluir la emisión espontánea y estimulada en iones atrapados , , y la interacción con el baño (efecto Purcell) en circuitos superconductores, abarcando ambas tecnologías cuánticas principales. Por lo tanto, la corrección de errores se convierte en un requisito clave para construir una computadora cuántica escalable en funcionamiento. 15 16 17 18 19 20 1 2 3 La posibilidad de tolerancia a fallos cuánticos está bien establecida . Codificar un qubit lógico de forma redundante en muchos qubits físicos permite diagnosticar y corregir errores mediante la medición repetida de síndromes de operadores de verificación de paridad. Sin embargo, la corrección de errores solo es beneficiosa si la tasa de error del hardware está por debajo de un cierto valor umbral que depende de un protocolo de corrección de errores particular. Las primeras propuestas para la corrección de errores cuánticos, como los códigos concatenados , , , se centraron en demostrar la posibilidad teórica de supresión de errores. A medida que maduró la comprensión de la corrección de errores cuánticos y las capacidades de las tecnologías cuánticas, el enfoque se trasladó a la búsqueda de protocolos prácticos de corrección de errores cuánticos. Esto dio lugar al desarrollo del código de superficie , , , que ofrece un alto umbral de error cercano al 1%, algoritmos de decodificación rápidos y compatibilidad con los procesadores cuánticos existentes que dependen de la conectividad de qubits en red cuadrada bidimensional (2D). Ya se han demostrado pequeños ejemplos del código de superficie con un solo qubit lógico experimentalmente por varios grupos , , , , . Sin embargo, escalar el código de superficie a 100 qubits lógicos o más sería prohibitivamente caro debido a su baja eficiencia de codificación. Esto impulsó el interés en códigos cuánticos más generales conocidos como códigos de paridad de baja densidad (LDPC) . Los avances recientes en el estudio de los códigos LDPC sugieren que pueden lograr tolerancia a fallos cuánticos con una eficiencia de codificación mucho mayor . Aquí, nos centramos en el estudio de los códigos LDPC, ya que nuestro objetivo es encontrar códigos y protocolos de corrección de errores cuánticos que sean eficientes y posibles de demostrar en la práctica, dadas las limitaciones de las tecnologías de computación cuántica. 4 21 22 23 7 8 9 10 24 25 26 27 28 6 29 Un código de corrección de errores cuánticos es de tipo LDPC si cada operador de verificación del código actúa solo sobre unos pocos qubits y cada qubit participa en solo unas pocas verificaciones. Recientemente se han propuesto varias variantes de los códigos LDPC, incluidos los códigos de superficie hiperbólica , , , producto de hipergrafos , códigos de producto balanceado , códigos de dos bloques basados en grupos finitos , , , y códigos de Tanner cuánticos , . A estos últimos se les ha demostrado , que son asintóticamente 'buenos' en el sentido de ofrecer una tasa de codificación constante y una distancia lineal: un parámetro que cuantifica el número de errores corregibles. Por el contrario, el código de superficie tiene una tasa de codificación asintóticamente cero y solo una distancia de raíz cuadrada. Reemplazar el código de superficie por un código LDPC de alta tasa y alta distancia podría tener importantes implicaciones prácticas. Primero, el sobrecoste de tolerancia a fallos (la relación entre el número de qubits físicos y lógicos) podría reducirse notablemente. Segundo, los códigos de alta distancia muestran una disminución muy marcada en la tasa de error lógico: a medida que la probabilidad de error físico cruza el valor umbral, la cantidad de supresión de errores lograda por el código puede aumentar en órdenes de magnitud incluso con una pequeña reducción de la tasa de error físico. Esta característica hace que los códigos LDPC de alta distancia sean atractivos para demostraciones a corto plazo que probablemente operarán en el régimen cercano al umbral. Sin embargo, se creía anteriormente que superar al código de superficie para modelos de ruido realistas que incluyen errores de memoria, puerta y preparación de estados y mediciones puede requerir códigos LDPC muy grandes con más de 10.000 qubits físicos . 30 31 32 33 34 35 36 37 38 39 40 39 40 31 Aquí presentamos varios ejemplos concretos de códigos LDPC de alta tasa con unos pocos cientos de qubits físicos equipados con un circuito de medición de síndromes de baja profundidad, un algoritmo de decodificación eficiente y un protocolo tolerante a fallos para abordar qubits lógicos individuales. Estos códigos muestran un umbral de error cercano al 0,7%, un excelente rendimiento en el régimen cercano al umbral y ofrecen una reducción de 10 veces en el sobrecoste de codificación en comparación con el código de superficie. Los requisitos de hardware para realizar nuestros protocolos de corrección de errores son relativamente moderados, ya que cada qubit físico se acopla mediante puertas de dos qubits con solo otros seis qubits. Aunque el grafo de conectividad de qubits no es incrustable localmente en una rejilla 2D, se puede descomponer en dos subgrafos planares de grado 3. Como argumentamos a continuación, dicha conectividad de qubits es muy adecuada para arquitecturas basadas en qubits superconductores. Nuestros códigos son una generalización de los códigos de bicicleta propuestos por MacKay et al. y estudiados con más detalle en las refs. , , . Llamamos a nuestros códigos bicicleta bivariante (BB) porque se basan en polinomios bivarianates, como se detalla en los . Estos son códigos estabilizadores de tipo Calderbank–Shor–Steane (CSS) , que pueden describirse mediante una colección de operadores de verificación (estabilizadores) de seis qubits compuestos por Pauli y . A un alto nivel, un código BB es similar al código tórico bidimensional . En particular, los qubits físicos de un código BB pueden disponerse en una rejilla bidimensional con condiciones de contorno periódicas de tal manera que todos los operadores de verificación se obtienen de un único par de verificaciones y aplicando desplazamientos horizontales y verticales de la rejilla. Sin embargo, a diferencia de los estabilizadores de plaquetas y vértices que describen el código tórico, los operadores de verificación de los códigos BB no son localmente geométricos. Además, cada verificación actúa sobre seis qubits en lugar de cuatro. Describiremos el código mediante un grafo de Tanner tal que cada vértice de representa un qubit de datos o un operador de verificación. Un vértice de verificación y un vértice de datos están conectados por una arista si el operador de verificación -ésimo actúa de manera no trivial sobre el qubit de datos -ésimo (aplicando Pauli o ). Véase la Fig. para ver ejemplos de grafos de Tanner de códigos de superficie y BB, respectivamente. El grafo de Tanner de cualquier código BB tiene grado de vértice seis y grosor de grafo igual a dos, lo que significa que puede descomponerse en dos subgrafos planares disjuntos por aristas ( ). La conectividad de qubits de grosor 2 es muy adecuada para qubits superconductores acoplados por resonadores de microondas. Por ejemplo, se pueden acoplar dos capas planares de acopladores y sus líneas de control a la parte superior e inferior del chip que aloja los qubits, y emparejar los dos lados. 41 35 36 42 Métodos 43 44 X Z 7 X Z G G i j i j X Z 1a,b 29 Métodos , Grafo de Tanner de un código de superficie, a modo de comparación. , Grafo de Tanner de un código BB con parámetros [] incrustado en un toro. Cada arista del grafo de Tanner conecta un vértice de datos y un vértice de verificación. Los qubits de datos asociados con los registros ( ) y ( ) se muestran en círculos azules y naranjas. Cada vértice tiene seis aristas incidentes, incluidas cuatro aristas de corto alcance (apuntando al norte, sur, este y oeste) y dos aristas de largo alcance. Solo mostramos algunas aristas de largo alcance para evitar el desorden. Las aristas discontinuas y continuas indican dos subgrafos planares que abarcan el grafo de Tanner, véase los . , Esquema de una extensión del grafo de Tanner para medir y siguiendo la ref. , conectada a un código de superficie. El auxiliar correspondiente a la medición de puede conectarse a un código de superficie, permitiendo operaciones de carga-almacenamiento para todos los qubits lógicos mediante teletransportación cuántica y algunas unitarias lógicas. a b q L q R Métodos c 50 Un código BB con parámetros [[ , , ]] codifica qubits lógicos en qubits de datos que ofrecen una distancia de código , lo que significa que cualquier error lógico abarca al menos qubits de datos. Dividimos qubits de datos en registros ( ) y ( ) de tamaño /2 cada uno. Cualquier verificación actúa sobre tres qubits de ( ) y tres qubits de ( ). El código se basa en qubits auxiliares de verificación para medir el síndrome de error. Dividimos qubits de verificación en registros ( ) y ( ) de tamaño /2 que recopilan síndromes de tipo y , respectivamente. En total, la codificación se basa en 2 qubits físicos. Por lo tanto, la tasa de codificación neta es = /(2 ). Por ejemplo, la arquitectura estándar del código de superficie codifica = 1 qubit lógico en = qubits de datos para un código de distancia- y utiliza - 1 qubits de verificación para las mediciones de síndromes. La tasa de codificación neta es ≈ 1/(2 ), que rápidamente se vuelve impráctica, ya que uno se ve obligado a elegir una distancia de código grande, debido, por ejemplo, a que los errores físicos están cerca del valor umbral. Por el contrario, los códigos BB tienen una tasa de codificación ≫ 1/ , véase la Tabla para ver ejemplos de códigos. Hasta donde sabemos, todos los códigos que se muestran en la Tabla son nuevos. El código de distancia 12 [] puede ser el más prometedor para demostraciones a corto plazo, ya que combina una distancia grande y una alta tasa de codificación neta = 1/24. A modo de comparación, el código de superficie de distancia 11 tiene una tasa de codificación neta = 1/241. A continuación, mostramos que el código BB de distancia 12 supera al código de superficie de distancia 11 para el rango de tasas de error experimentalmente relevante. n k d k n d d n q L q R n q L q R n n q X q Z n X Z n r k n k n d 2 d n r d 2 r d 2 1 1 r r Para evitar la acumulación de errores, se debe poder medir el síndrome de error con suficiente frecuencia. Esto se logra mediante un circuito de medición de síndromes que acopla los qubits de datos en el soporte de cada operador de verificación con el qubit auxiliar respectivo mediante una secuencia de puertas CNOT. Luego se miden los qubits de verificación, revelando el valor del síndrome de error. El tiempo que se tarda en implementar el circuito de medición de síndromes es proporcional a su profundidad: el número de capas de puertas compuestas por CNOTs no superpuestos. Dado que continúan ocurriendo nuevos errores mientras se ejecuta el circuito de medición de síndromes, su profundidad debe minimizarse. El ciclo completo de medición de síndromes para un código BB se ilustra en la Fig. . El ciclo de síndromes requiere solo siete capas de CNOTs, independientemente de la longitud del código. Los qubits de verificación se inicializan y miden al principio y al final del ciclo de síndromes, respectivamente (véase los para más detalles). El circuito respeta la simetría de desplazamiento cíclico del código subyacente. 2 Métodos Ciclo completo de mediciones de síndromes que se basa en siete capas de CNOTs. Proporcionamos una vista local del circuito que solo incluye un qubit de datos de cada registro ( ) y ( ). El circuito es simétrico bajo desplazamientos horizontales y verticales del grafo de Tanner. Cada qubit de datos está acoplado por CNOTs con tres qubits de verificación de *X* y tres de *Z*: véanse los para más detalles. q L q R Métodos El protocolo completo de corrección de errores realiza c ≫ 1 ciclos de medición de síndromes y luego llama a un decodificador: un algoritmo clásico que toma como entrada los síndromes medidos y produce una suposición del error final en los qubits de datos. La corrección de errores tiene éxito si el error supuesto y el real coinciden módulo un producto de operadores de verificación. En este caso, los dos errores tienen la misma acción sobre cualquier estado codificado (lógico). Por lo tanto, aplicar la inversa del error supuesto devuelve los qubits de datos al estado lógico inicial. De lo contrario, si el error supuesto y el real difieren en un operador lógico no trivial, la corrección de errores falla y resulta en un error lógico. Nuestros experimentos numéricos se basan en la propagación de creencias con un decodificador de estadísticas ordenadas (BP-OSD) propuesto por Panteleev y Kalachev . El trabajo original describió el BP-OSD en el contexto de un modelo de ruido de juguete solo con errores de memoria. Aquí mostramos cómo extender el BP-OSD al modelo de ruido basado en circuitos; véase la para más detalles. Nuestro enfoque sigue de cerca las refs. , , , . N 36 36 Información Suplementaria 45 46 47 48 Una versión ruidosa del circuito de medición de síndromes puede incluir varios tipos de operaciones defectuosas, como errores de memoria en qubits de datos o de verificación inactivos, puertas CNOT defectuosas, inicializaciones y mediciones de qubits. Consideramos el modelo de ruido basado en circuitos en el que cada operación falla de forma independiente con probabilidad . La probabilidad de un error lógico L depende de la tasa de error , de los detalles de los circuitos de medición de síndromes y del algoritmo de decodificación. Sea L( c) la probabilidad de error lógico después de realizar c ciclos de síndromes. Definimos la tasa de error lógico como . Informalmente, L puede considerarse como la probabilidad de error lógico por ciclo de síndromes. Siguiendo la práctica común, elegimos c = para un código de distancia . La Figura muestra la tasa de error lógico lograda por los códigos de la Tabla . La tasa de error lógico se calculó numéricamente para ≥ 10 y se extrapoló a tasas de error más bajas utilizando una fórmula de ajuste (véanse los ). El pseudo-umbral 0 se define como la solución de la ecuación de equilibrio L( ) = . Aquí es una estimación de la probabilidad de que al menos uno de los qubits no codificados sufra un error. Los códigos BB ofrecen un pseudo-umbral cercano al 0,7%, véase la Tabla < 10 p p p P N N p N d d 3 1 p −3 Métodos p p p kp kp k