Autores: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Resumo A correção de erros quânticos oferece um caminho promissor para a realização de cálculos quânticos de alta fidelidade. Embora a execução totalmente tolerante a falhas de algoritmos permaneça irrealizada, melhorias recentes em eletrônicos de controle e hardware quântico permitem demonstrações cada vez mais avançadas das operações necessárias para a correção de erros. Aqui, realizamos correção de erros quânticos em qubits supercondutores conectados em uma rede hexagonal pesada. Codificamos um qubit lógico com distância três e realizamos várias rodadas de medições de síndrome tolerantes a falhas que permitem a correção de qualquer falha única no circuito. Usando feedback em tempo real, reiniciamos os qubits de síndrome e flag condicionalmente após cada ciclo de extração de síndrome. Relatamos erro lógico dependente do decodificador, com erro lógico médio por medição de síndrome na base Z(X) de ~0.040 (~0.088) e ~0.037 (~0.087) para decodificadores de correspondência e de máxima verossimilhança, respectivamente, em dados pós-selecionados de vazamento. Introdução Os resultados de computações quânticas podem ser defeituosos, na prática, devido ao ruído no hardware. Para eliminar as falhas resultantes, códigos de correção de erros quânticos (QEC) podem ser usados para codificar a informação quântica em graus de liberdade lógicos protegidos e, em seguida, corrigindo as falhas mais rapidamente do que elas se acumulam, permitindo computações tolerantes a falhas (FT). Uma execução completa de QEC provavelmente exigirá: preparação de estados lógicos; realização de um conjunto universal de portas lógicas, que pode exigir a preparação de estados mágicos; medições repetidas de síndromes; e a decodificação das síndromes para corrigir erros. Se bem-sucedido, as taxas de erro lógico resultantes devem ser menores do que as taxas de erro físico subjacentes e diminuir com o aumento das distâncias do código para valores negligenciáveis. A escolha de um código QEC requer consideração do hardware subjacente e de suas propriedades de ruído. Para uma rede hexagonal pesada , de qubits, códigos QEC de subsistema são atraentes porque são bem adequados para qubits com conectividades reduzidas. Outros códigos mostraram promessa devido ao seu limiar relativamente alto para FT ou grande número de portas lógicas transversais . Embora seu espaço e sobrecarga de tempo possam representar um obstáculo significativo para a escalabilidade, existem abordagens encorajadoras para reduzir os recursos mais caros explorando alguma forma de mitigação de erros . 1 2 3 4 5 6 No processo de decodificação, a correção bem-sucedida depende não apenas do desempenho do hardware quântico, mas também da implementação da eletrônica de controle usada para adquirir e processar as informações clássicas obtidas das medições de síndrome. No nosso caso, inicializar os qubits de síndrome e flag por meio de feedback em tempo real entre os ciclos de medição pode ajudar a mitigar erros. No nível de decodificação, embora existam protocolos para realizar QEC de forma assíncrona dentro de um formalismo FT , , a taxa na qual as síndromes de erro são recebidas deve ser compatível com seu tempo de processamento clássico para evitar um acúmulo crescente de dados de síndrome. Além disso, alguns protocolos, como o uso de um estado mágico para uma porta T lógica , exigem a aplicação de feed-forward em tempo real. 7 8 T 9 Assim, a visão de longo prazo da QEC não gravita em torno de um único objetivo final, mas deve ser vista como um continuum de tarefas profundamente interligadas. O caminho experimental no desenvolvimento desta tecnologia compreenderá primeiro a demonstração dessas tarefas isoladamente e depois sua combinação progressiva, sempre melhorando continuamente suas métricas associadas. Parte desse progresso é refletido em inúmeros avanços recentes em sistemas quânticos em diferentes plataformas físicas, que demonstraram ou aproximaram vários aspectos dos desiderata para computação quântica FT. Em particular, a preparação de estado lógico FT foi demonstrada em íons , spins nucleares em diamante e qubits supercondutores . Ciclos repetidos de extração de síndrome foram mostrados em qubits supercondutores em pequenos códigos de detecção de erro , , incluindo correção parcial de erro bem como um conjunto universal (embora não FT) de portas de qubit único . Uma demonstração FT de um conjunto de portas universal em dois qubits lógicos foi relatada recentemente em íons . No domínio da correção de erros, houve realizações recentes do código de superfície de distância 3 em qubits supercondutores com decodificação e pós-seleção , bem como uma implementação FT de uma memória quântica dinamicamente protegida usando o código de cores e a preparação, operação e medição de estado lógico FT, incluindo seus estabilizadores, de um estado lógico no código Bacon-Shor em íons , . 10 11 12 13 14 15 16 17 18 19 20 20 21 Aqui combinamos a capacidade de feedback em tempo real em um sistema de qubits supercondutores com um protocolo de decodificação de máxima verossimilhança até então inexplorado experimentalmente, a fim de melhorar a sobrevivência de estados lógicos. Demonstramos essas ferramentas como parte da operação FT de um código de subsistema , o código hexagonal pesado , em um processador quântico supercondutor. Essencial para tornar nossa implementação deste código tolerante a falhas são os qubits flag que, quando encontrados como não nulos, alertam o decodificador sobre erros de circuito. Reiniciando condicionalmente os qubits flag e de síndrome após cada ciclo de medição de síndrome, protegemos nosso sistema contra erros decorrentes da assimetria de ruído inerente ao relaxamento de energia. Exploramos ainda mais estratégias de decodificação recentemente descritas e estendemos as ideias de decodificação para incluir conceitos de máxima verossimilhança , , . 22 1 15 4 23 24 Resultados O código hexagonal pesado e circuitos multi-rodada O código hexagonal pesado que consideramos é um código de 9 qubits = codificando 1 qubit lógico = com distância = 3 . Os grupos de calibre e (ver Fig. a) e os grupos de estabilizadores são gerados por n k d 1 Z X 1 Os grupos de estabilizadores são os centros dos respectivos grupos de calibre . Isso significa que os estabilizadores, como produtos de operadores de calibre, podem ser deduzidos de medições de apenas os operadores de calibre. Os operadores lógicos podem ser escolhidos como = 1 2 3 e = 1 3 7. XL X X X ZL Z Z Z Operadores de calibre (azul) e (vermelho) (eqs. ( ) e ( )) mapeados nos 23 qubits necessários com o código hexagonal pesado de distância 3. Qubits de código ( 1 − 9) são mostrados em amarelo, qubits de síndrome ( 17, 19, 20, 22) usados para estabilizadores em azul, e qubits flag e síndromes usados em estabilizadores em branco. A ordem e direção das portas CX aplicadas dentro de cada sub-seção (0 a 4) são denotadas pelas setas numeradas. Diagrama de circuito de uma rodada de medição de síndrome, incluindo estabilizadores e . O diagrama de circuito ilustra a paralelização permitida das operações de porta: aquelas dentro dos limites definidos por barreiras de agendamento (linhas verticais pontilhadas cinzas). Como a duração de cada porta de dois qubits é diferente, o agendamento final da porta é determinado com uma passagem padrão de transpilação de circuito o mais tarde possível; após o qual o desacoplamento dinâmico é adicionado a qubits de dados onde o tempo permite. Operações de medição e reinício são isoladas de outras operações de porta por barreiras para permitir o desacoplamento dinâmico uniforme a ser adicionado a qubits de dados ociosos. Decodificação de grafos para três rodadas de medições de estabilizadores ( ) e ( ) com ruído em nível de circuito permitem a correção de erros e , respectivamente. Os nós azuis e vermelhos nos grafos correspondem a síndromes de diferença, enquanto os nós pretos são a fronteira. As arestas codificam várias maneiras pelas quais os erros podem ocorrer no circuito, conforme descrito no texto. Os nós são rotulados pelo tipo de medição de estabilizador ou , juntamente com um índice que denota o estabilizador e um superscrito que denota a rodada. Arestas pretas, resultantes de erros Pauli em qubits de código (e, portanto, são apenas de tamanho 2), conectam os dois grafos em e , mas não são usadas no decodificador de correspondência. As hiperarestas de tamanho 4, que não são usadas pela correspondência, mas são usadas no decodificador de máxima verossimilhança. As cores são apenas para clareza. Traduzir cada uma no tempo por uma rodada também fornece uma hiperaresta válida (com alguma variação nas fronteiras de tempo). Também não são mostradas quaisquer das hiperarestas de tamanho 3. a Z X 1 2 Q Q Q Q Q Q Z X b X Z c Z c X d X Z Z X e Y c d f Aqui focamos em um circuito FT particular, muitas de nossas técnicas podem ser usadas de forma mais geral com diferentes códigos e circuitos. Dois subcircuitos, mostrados na Fig. b, são construídos para medir os operadores de calibre e . O circuito de medição de calibre também adquire informações úteis medindo qubits flag. 1 X Z Z Preparamos estados de código no estado lógico () preparando primeiro nove qubits no estado () e medindo o calibre (calibre ). Em seguida, realizamos rodadas de medição de síndrome, onde uma rodada consiste em uma medição de calibre seguida por uma medição de calibre (respectivamente, calibre seguido por calibre ). Finalmente, lemos todos os nove qubits de código na base ( ). Realizamos os mesmos experimentos para os estados lógicos iniciais e também, simplesmente inicializando os nove qubits em e em vez disso. X Z r Z X X Z Z X Algoritmos de decodificação No cenário da computação quântica FT, um decodificador é um algoritmo que recebe como entrada medições de síndrome de um código de correção de erros e produz uma correção para os qubits ou dados de medição. Nesta seção, descrevemos dois algoritmos de decodificação: decodificação de correspondência perfeita e decodificação de máxima verossimilhança. O hipergrafo de decodificação é uma descrição concisa das informações coletadas por um circuito FT e disponibilizadas a um algoritmo de decodificação. Consiste em um conjunto de vértices, ou eventos sensíveis a erros, , e um conjunto de hiperarestas , que codificam as correlações entre eventos causadas por erros no circuito. A Figura c–f retrata partes do hipergrafo de decodificação para nosso experimento. 15 V E 1 A construção de um hipergrafo de decodificação para circuitos de estabilizadores com ruído Pauli pode ser feita usando simulações padrão de Gottesman-Knill ou técnicas semelhantes de rastreamento Pauli . Primeiro, um evento sensível a erros é criado para cada medição que é determinística no circuito sem erros. Uma medição determinística é qualquer medição cujo resultado ∈ {0, 1} pode ser previsto adicionando módulo dois os resultados de medição de um conjunto de medições anteriores. Ou seja, para um circuito sem erros, , onde o conjunto pode ser encontrado pela simulação do circuito. Defina o valor do evento sensível a erros como − (mod2), que é zero (também chamado de trivial) na ausência de erros. Assim, observar um evento sensível a erros não trivial (também chamado de não trivial) implica que o circuito sofreu pelo menos um erro. Em nossos circuitos, eventos sensíveis a erros são medições de qubits flag ou a diferença de medições subsequentes do mesmo estabilizador (também às vezes chamadas de síndromes de diferença). 25 26 M m m FM Em seguida, as hiperarestas são adicionadas considerando falhas de circuito. Nosso modelo contém uma probabilidade de falha para cada um de vários componentes do circuito pC Aqui distinguimos a operação de identidade id em qubits durante um tempo em que outros qubits estão passando por portas unitárias, da operação de identidade idm em qubits quando outros estão passando por medição e reinício. Reiniciamos qubits depois que eles são medidos, enquanto inicializamos qubits que ainda não foram usados no experimento. Finalmente cx é a porta controlled-not, h é a porta Hadamard, e x, y, z são portas Pauli. (ver Métodos “IBM_Peekskill e detalhes experimentais” para mais detalhes). Valores numéricos para estão listados nos Métodos “IBM_Peekskill e detalhes experimentais”. pC Nosso modelo de erro é ruído de depolarização de circuito. Para erros de inicialização e reinício, um Pauli é aplicado com as respectivas probabilidades init e reset após a preparação ideal do estado. Para erros de medição, um Pauli é aplicado com probabilidade antes da medição ideal. Uma porta unitária de um qubit (porta de dois qubits) sofre com probabilidade um dos três (quinze) erros Pauli não identitários após a porta ideal. Há uma chance igual de qualquer um dos três (quinze) erros Pauli ocorrer. X p p X C pC Quando uma única falha ocorre no circuito, ela causa um subconjunto de eventos sensíveis a erros a serem não triviais. Este conjunto de eventos sensíveis a erros se torna uma hiperaresta. O conjunto de todas as hiperarestas é . Duas falhas diferentes podem levar à mesma hiperaresta, então cada hiperaresta pode ser vista como representando um conjunto de falhas, cada uma das quais individualmente causa os eventos na hiperaresta a serem não triviais. Associado a cada hiperaresta está uma probabilidade, que, de primeira ordem, é a soma das probabilidades de falhas no conjunto. E Uma falha também pode levar a um erro que, propagado até o final do circuito, anticomuta com um ou mais dos operadores lógicos do código, necessitando de uma correção lógica. Assumimos, por generalidade, que o código tem qubits lógicos e uma base de 2 operadores lógicos, mas notamos que = 1 para o código hexagonal pesado usado no experimento. Podemos acompanhar quais operadores lógicos anticomutam com o erro usando um vetor de . Assim, cada hiperaresta também é rotulada por um desses vetores , chamado rótulo lógico. Observe que se o código tem distância pelo menos três, cada hiperaresta tem um rótulo lógico único. k k k h Finalmente, observamos que um algoritmo de decodificação pode optar por simplificar o hipergrafo de decodificação de várias maneiras. Uma maneira que empregamos sempre aqui é o processo de deflagging. Medições de flag dos qubits 16, 18, 21, 23 são simplesmente ignoradas sem correções aplicadas. Se o flag 11 for não trivial e o 12 trivial, aplique a 2. Se 12 for não trivial e 11 trivial, aplique ao qubit 6. Se o flag 13 for não trivial e 14 trivial, aplique ao qubit 4. Se 14 for não trivial e 13 trivial, aplique ao qubit 8. Veja ref. para detalhes sobre por que isso é suficiente para tolerância a falhas. Isso significa que, em vez de incluir eventos sensíveis a erros das medições de qubits flag diretamente, pré-processamos os dados usando as informações do flag para aplicar correções virtuais Pauli e ajustar os eventos sensíveis a erros subsequentes de acordo. Hiperarestas para o hipergrafo deflagged podem ser encontradas através de simulação de estabilizador incorporando as correções . Deixe indicar o número de rodadas. Após o deflagging, o tamanho do conjunto para experimentos na base (resp. ) são ∣ ∣ = 6 + 2 (resp. 6 + 4), devido à medição de seis estabilizadores por rodada e à existência de dois (resp. quatro) estabilizadores de erro iniciais após a preparação do estado. O tamanho de é de forma semelhante ∣ ∣ = 60 − 13 (resp. 60 − 1) para > 0. Z Z Z Z 15 Z Z r V Z X V r r E E r r r Considerando erros e separadamente, o problema de encontrar uma correção de erro de peso mínimo para o código de superfície pode ser reduzido a encontrar uma correspondência perfeita de peso mínimo em um grafo . Decodificadores de correspondência continuam a ser estudados devido à sua praticidade e ampla aplicabilidade , . Nesta seção, descrevemos o decodificador de correspondência para nosso código hexagonal pesado de distância 3. X Z 4 27 28 29 Os grafos de decodificação, um para os erros (Fig. c) e um para os erros (Fig. d), para correspondência perfeita de peso mínimo são na verdade subgrafos do hipergrafo de decodificação na seção anterior. Concentremo-nos aqui no grafo para corrigir erros , já que o grafo de erro é análogo. Neste caso, do hipergrafo de decodificação mantemos os nós correspondentes às medições de estabilizador (a diferença de subsequentes) e as arestas (ou seja, hiperarestas de tamanho dois) entre eles. Adicionalmente, um vértice de fronteira é criado, e hiperarestas de tamanho um da forma { } com ∈ , são representadas incluindo arestas { , }. Todas as arestas no grafo de erro herdam probabilidades e rótulos lógicos de suas hiperarestas correspondentes (ver Tabela para dados de aresta de erro e para experimento de 2 rodadas). X 1 Z 1 X Z VZ Z b v v VZ v b X 1 X Z Um algoritmo de correspondência perfeita recebe um grafo com arestas ponderadas e um conjunto de nós destacados de tamanho par, e retorna um conjunto de arestas no grafo que conecta todos os nós destacados em pares e tem peso total mínimo entre todos esses conjuntos de arestas. No nosso caso, os nós destacados são os eventos sensíveis a erros não triviais (se houver um número ímpar, o nó de fronteira também é destacado), e os pesos das arestas são escolhidos para serem todos um (método uniforme) ou definidos como , onde é a probabilidade da aresta (método analítico). A última escolha significa que o peso total de um conjunto de arestas é igual ao log-verossimilhança desse conjunto, e a correspondência perfeita de peso mínimo tenta maximizar essa verossimilhança sobre as arestas no grafo. pe Dado uma correspondência perfeita de peso mínimo, pode-se usar os rótulos lógicos das arestas na correspondência para decidir sobre uma correção para o estado lógico. Alternativamente, o grafo de erro (erro ) para o decodificador de correspondência é tal que cada aresta pode ser associada a um qubit de código (ou um erro de medição), tal que a inclusão de uma aresta na correspondência implica que uma correção ( ) deve ser aplicada ao qubit correspondente. X Z X Z A decodificação de máxima verossimilhança (MLD) é um método ótimo, embora não escalável, para decodificar códigos quânticos de correção de erros. Em sua concepção original, a MLD foi aplicada a modelos de ruído fenomenológicos onde os erros ocorrem pouco antes das síndromes serem medidas , . Isso, é claro, ignora o caso mais realista onde os erros podem se propagar através do circuito de medição de síndrome. Mais recentemente, a MLD foi estendida para incluir ruído de circuito , . Aqui, descrevemos como a MLD corrige o ruído de circuito usando o hipergrafo de decodificação. 24 30 23 31 A MLD deduz a correção lógica mais provável dada uma observação dos eventos sensíveis a erros. Isso é feito calculando a distribuição de probabilidade Pr[ , ], onde representa eventos sensíveis a erros e representa uma correção lógica. β γ Podemos calcular Pr[ , ] incluindo cada hiperaresta do hipergrafo de decodificação, Fig. c–f, começando da distribuição de erro zero, ou seja, Pr[0∣ ∣, 02 ] = 1. Se a hiperaresta tem probabilidade de ocorrer, independentemente de qualquer outra hiperaresta, incluímos realizando a atualização β γ 1 V k h ph h onde é apenas uma representação vetorial binária da hiperaresta. Esta atualização deve ser aplicada uma vez para cada hiperaresta em . E Uma vez que Pr[ , ] é calculado, podemos usá-lo para deduzir a melhor correção lógica. Se é observado em uma execução do experimento, β γ indica como as medições dos operadores lógicos devem ser corrig