```html Autori: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Astratto La correzione quantistica degli errori offre un percorso promettente per eseguire calcoli quantistici ad alta fedeltà. Sebbene le esecuzioni completamente tolleranti ai guasti degli algoritmi rimangano irrealizzate, i recenti miglioramenti nell'elettronica di controllo e nell'hardware quantistico consentono dimostrazioni sempre più avanzate delle operazioni necessarie per la correzione degli errori. Qui, eseguiamo la correzione quantistica degli errori su qubit superconduttori connessi in un reticolo a esagono pesante. Codifichiamo un qubit logico con distanza tre ed eseguiamo diversi round di misurazioni di sindrome tolleranti ai guasti che consentono la correzione di qualsiasi singolo guasto nel circuito. Utilizzando feedback in tempo reale, resettiamo i qubit di sindrome e flag condizionatamente dopo ogni ciclo di estrazione della sindrome. Riportiamo l'errore logico dipendente dal decodificatore, con un errore logico medio per misurazione della sindrome in base Z(X) di ~0,040 (~0,088) e ~0,037 (~0,087) per decodificatori corrispondenti e di massima verosimiglianza, rispettivamente, sui dati post-selezionati per la perdita. Introduzione I risultati dei calcoli quantistici possono essere difettosi, in pratica, a causa del rumore nell'hardware. Per eliminare i guasti risultanti, i codici quantistici di correzione degli errori (QEC) possono essere utilizzati per codificare le informazioni quantistiche in gradi di libertà logici protetti, e quindi correggendo i guasti più velocemente di quanto si accumulino abilitare calcoli tolleranti ai guasti (FT). Un'esecuzione completa di QEC richiederà probabilmente: preparazione di stati logici; realizzazione di un set universale di porte logiche, che potrebbe richiedere la preparazione di stati magici; misurazioni ripetute di sindromi; e decodifica delle sindromi per correggere gli errori. Se riuscito, i tassi di errore logico risultanti dovrebbero essere inferiori ai tassi di errore fisici sottostanti e diminuire con l'aumentare delle distanze del codice fino a valori trascurabili. La scelta di un codice QEC richiede la considerazione dell'hardware sottostante e delle sue proprietà di rumore. Per un reticolo a esagono pesante , di qubit, i codici QEC di sottosistema sono attraenti perché sono ben adatti per qubit con connettività ridotta. Altri codici hanno mostrato promesse grazie alla loro soglia relativamente alta per FT o un gran numero di porte logiche trasversali . Sebbene il loro overhead spaziale e temporale possa rappresentare un ostacolo significativo per la scalabilità, esistono approcci incoraggianti per ridurre le risorse più costose sfruttando una qualche forma di mitigazione degli errori . 1 2 3 4 5 6 Nel processo di decodifica, la correzione riuscita dipende non solo dalle prestazioni dell'hardware quantistico, ma anche dall'implementazione dell'elettronica di controllo utilizzata per acquisire e processare le informazioni classiche ottenute dalle misurazioni di sindrome. Nel nostro caso, inizializzare sia i qubit di sindrome che quelli flag tramite feedback in tempo reale tra i cicli di misurazione può aiutare a mitigare gli errori. A livello di decodifica, mentre esistono alcuni protocolli per eseguire QEC in modo asincrono all'interno di un formalismo FT , , la velocità con cui vengono ricevute le sindromi di errore dovrebbe essere commisurata al loro tempo di elaborazione classico per evitare un crescente arretrato di dati di sindrome. Inoltre, alcuni protocolli, come l'uso di uno stato magico per una porta logica , richiedono l'applicazione di feed-forward in tempo reale. 7 8 T 9 Pertanto, la visione a lungo termine di QEC non gravita attorno a un singolo obiettivo finale, ma dovrebbe essere vista come un continuum di compiti profondamente interrelati. Il percorso sperimentale nello sviluppo di questa tecnologia comprenderà la dimostrazione di questi compiti in isolamento prima e la loro progressiva combinazione in seguito, sempre migliorando continuamente le loro metriche associate. Parte di questo progresso si riflette nei numerosi recenti progressi sui sistemi quantistici su diverse piattaforme fisiche, che hanno dimostrato o approssimato diversi aspetti dei desiderata per il calcolo quantistico FT. In particolare, la preparazione di stati logici FT è stata dimostrata su ioni , spin nucleari nel diamante e qubit superconduttori . Cicli ripetuti di estrazione di sindrome sono stati mostrati in qubit superconduttori in piccoli codici di rilevamento degli errori , , inclusa la correzione parziale degli errori così come un set universale (sebbene non FT) di porte a singolo qubit . Una dimostrazione FT di un set di porte universale su due qubit logici è stata recentemente riportata su ioni . Nel regno della correzione degli errori, ci sono state recenti realizzazioni del codice di superficie di distanza-3 su qubit superconduttori con decodifica e post-selezione , così come un'implementazione FT di una memoria quantistica dinamicamente protetta utilizzando il codice colore e la preparazione, operazione e misurazione di stati FT, inclusi i suoi stabilizzatori, di uno stato logico nel codice Bacon-Shor in ioni , . 10 11 12 13 14 15 16 17 18 19 20 20 21 Qui combiniamo la capacità di feedback in tempo reale su un sistema a qubit superconduttori con un protocollo di decodifica di massima verosimiglianza finora inesplorato sperimentalmente al fine di migliorare la sopravvivenza degli stati logici. Dimostriamo questi strumenti come parte dell'operazione FT di un codice di sottosistema , il codice a esagono pesante , su un processore quantistico superconduttore. Essenziale per rendere la nostra implementazione di questo codice tollerante ai guasti sono i qubit flag che, se trovati non nulli, allertano il decodificatore sugli errori del circuito. Reimpostando condizionatamente i qubit flag e di sindrome dopo ogni ciclo di misurazione della sindrome, proteggiamo il nostro sistema da errori derivanti dall'asimmetria del rumore intrinseca al rilassamento energetico. Sfruttiamo ulteriormente strategie di decodifica recentemente descritte ed estendiamo le idee di decodifica per includere concetti di massima verosimiglianza , , . 22 1 15 4 23 24 Risultati Il codice a esagono pesante e i circuiti multi-round Il codice a esagono pesante considerato è un codice di 9 qubit = che codifica 1 qubit logico = con distanza 3 = . I gruppi di gauge Z e X (vedi Fig. a) e stabilizzatori sono generati da n k d 1 1 I gruppi di stabilizzatori sono i centri dei rispettivi gruppi di gauge . Ciò significa che gli stabilizzatori, come prodotti di operatori di gauge, possono essere dedotti da misurazioni di soli operatori di gauge. Gli operatori logici possono essere scelti come = 1 2 3 e = 1 3 7. XL X X X ZL Z Z Z Operatori di gauge Z (blu) e X (rosso) (eq. ( ) e ( )) mappati sui 23 qubit richiesti con il codice a esagono pesante di distanza-3. I qubit del codice (Q1-Q9) sono mostrati in giallo, i qubit di sindrome (Q17, Q19, Q20, Q22) utilizzati per gli stabilizzatori Z in blu, e i qubit flag e le sindromi utilizzate negli stabilizzatori X in bianco. L'ordine e la direzione in cui vengono applicati i gate CX all'interno di ogni sottosezione (da 0 a 4) sono indicati dalle frecce numerate. Diagramma del circuito di un round di misurazione della sindrome, che include sia stabilizzatori X che Z. Il diagramma del circuito illustra la parallelizzazione consentita delle operazioni dei gate: quelle entro i limiti stabiliti dalle barriere di pianificazione (linee tratteggiate grigie verticali). Poiché la durata di ciascun gate a due qubit è diversa, la pianificazione finale dei gate viene determinata con un passaggio standard di transpilazione del circuito "il più tardi possibile", dopodiché viene aggiunto il disaccoppiamento dinamico ai qubit di dati dove il tempo lo consente. Le operazioni di misurazione e reset sono isolate da altre operazioni di gate da barriere per consentire l'aggiunta di disaccoppiamento dinamico uniforme ai qubit di dati inattivi. , Grafici di decodifica per tre round di misurazioni degli stabilizzatori Z e X con rumore a livello di circuito consentono la correzione di errori X e Z, rispettivamente. I nodi blu e rossi nei grafici corrispondono alle sindromi differenziali, mentre i nodi neri sono il confine. Gli archi codificano vari modi in cui possono verificarsi errori nel circuito come descritto nel testo. I nodi sono etichettati dal tipo di misurazione dello stabilizzatore (Z o X), insieme a un indice che indica lo stabilizzatore e apici che indicano il round. Gli archi neri, derivanti da errori di Pauli Y sui qubit del codice (e quindi sono solo di dimensione 2), collegano i due grafici in e , ma non vengono utilizzati nel decodificatore di corrispondenza. Gli iperarchi di dimensione 4, che non sono utilizzati dalla corrispondenza, ma sono utilizzati nel decodificatore di massima verosimiglianza. I colori sono solo per chiarezza. La traduzione temporale di ciascuno di essi di un round dà anche un iperarco valido (con qualche variazione ai confini temporali). Non mostrati sono nemmeno gli iperarchi di dimensione 3. a 1 2 b c d e c d f Qui ci concentriamo su un particolare circuito FT, molte delle nostre tecniche possono essere utilizzate più in generale con codici e circuiti diversi. Due sottocircuiti, mostrati in Fig. b, sono costruiti per misurare gli operatori di gauge X e Z. La misurazione del gauge Z acquisisce anche informazioni utili misurando i qubit flag. 1 Prepariamo gli stati del codice nello stato logico () preparando prima nove qubit nello stato () e misurando il gauge X (gauge Z). Eseguiamo quindi round di misurazione della sindrome, dove un round consiste in una misurazione del gauge Z seguita da una misurazione del gauge X (rispettivamente, gauge X seguito da gauge Z). Infine, leggiamo tutti e nove i qubit del codice nella base Z (X). Eseguiamo gli stessi esperimenti per gli stati logici iniziali e altresì, semplicemente inizializzando i nove qubit in e invece. r Algoritmi di decodifica Nel contesto del calcolo quantistico FT, un decodificatore è un algoritmo che prende in input le misurazioni di sindrome da un codice di correzione degli errori e produce una correzione ai qubit o ai dati di misurazione. In questa sezione descriviamo due algoritmi di decodifica: la decodifica a corrispondenza perfetta e la decodifica di massima verosimiglianza. L'ipergrafo di decodifica è una descrizione concisa delle informazioni raccolte da un circuito FT e rese disponibili a un algoritmo di decodifica. Consiste in un insieme di vertici, o eventi sensibili agli errori, , e un insieme di iperarchi , che codificano le correlazioni tra gli eventi causati da errori nel circuito. La Figura c–f raffigura parti dell'ipergrafo di decodifica per il nostro esperimento. 15 V E 1 La costruzione di un ipergrafo di decodifica per circuiti di stabilizzatori con rumore Pauli può essere eseguita utilizzando simulazioni standard di Gottesman-Knill o tecniche simili di tracciamento Pauli . Innanzitutto, viene creato un evento sensibile agli errori per ogni misurazione che è deterministica nel circuito privo di errori. Una misurazione deterministica è qualsiasi misurazione il cui risultato ∈ {0, 1} può essere previsto sommando modulo due i risultati di misurazione di un insieme di misurazioni precedenti. Cioè, per un circuito privo di errori, , dove l'insieme può essere trovato simulando il circuito. Impostare il valore dell'evento sensibile agli errori a − (mod2), che è zero (chiamato anche triviale) in assenza di errori. Pertanto, osservare un evento sensibile agli errori non nullo (chiamato anche non triviale) implica che il circuito ha subito almeno un errore. Nei nostri circuiti, gli eventi sensibili agli errori sono misurazioni di qubit flag o la differenza tra misurazioni successive dello stesso stabilizzatore (chiamata anche sindromi differenziali). 25 26 M m m FM Successivamente, vengono aggiunti gli iperarchi considerando i guasti del circuito. Il nostro modello contiene una probabilità di guasto per ciascuno di diversi componenti del circuito pC Qui distinguiamo l'operazione identità id sui qubit durante un tempo in cui altri qubit sono sottoposti a gate unitari, dall'operazione identità idm sui qubit quando altri sono sottoposti a misurazione e reset. Reimpostiamo i qubit dopo che sono stati misurati, mentre inizializziamo i qubit che non sono ancora stati utilizzati nell'esperimento. Infine, cx è il gate controlled-not, h è il gate Hadamard, e x, y, z sono gate di Pauli. (vedi Metodi “IBM_Peekskill e dettagli sperimentali” per maggiori dettagli). I valori numerici per sono elencati nei Metodi “IBM_Peekskill e dettagli sperimentali”. pC Il nostro modello di errore è il rumore depolarizzante del circuito. Per gli errori di inizializzazione e reset, viene applicato un Pauli X con le rispettive probabilità pinit e preseti dopo la preparazione ideale dello stato. Per gli errori di misurazione, viene applicato un Pauli X con probabilità prima della misurazione ideale. Un gate unitario a un qubit (gate a due qubit) soffre con probabilità uno dei tre (quindici) errori Pauli non identità che seguono il gate ideale. C'è una uguale probabilità che si verifichi uno qualsiasi dei tre (quindici) errori Pauli. C pC Quando si verifica un singolo guasto nel circuito, questo causa la non trivialità di un sottoinsieme di eventi sensibili agli errori. Questo insieme di eventi sensibili agli errori diventa un iperarco. L'insieme di tutti gli iperarchi è . Due diversi guasti possono portare allo stesso iperarco, quindi ogni iperarco può essere visto come rappresentante di un insieme di guasti, ognuno dei quali causa individualmente la non trivialità degli eventi nell'iperarco. Associata a ciascun iperarco c'è una probabilità, che, al primo ordine, è la somma delle probabilità dei guasti nell'insieme. E Un guasto può anche portare a un errore che, propagato alla fine del circuito, anticommuta con uno o più operatori logici del codice, richiedendo una correzione logica. Assumiamo per generalità che il codice abbia qubit logici e una base di 2 operatori logici, ma notiamo che = 1 per il codice a esagono pesante utilizzato nell'esperimento. Possiamo tenere traccia di quali operatori logici anticommutano con l'errore utilizzando un vettore da . Pertanto, ogni iperarco è anche etichettato da uno di questi vettori , chiamato etichetta logica. Notare che se il codice ha distanza almeno tre, ogni iperarco ha un'etichetta logica unica. k k k h Infine, notiamo che un algoritmo di decodifica può scegliere di semplificare l'ipergrafo di decodifica in vari modi. Un modo che impieghiamo sempre qui è il processo di deflagging. Le misurazioni flag dai qubit 16, 18, 21, 23 vengono semplicemente ignorate senza applicare correzioni. Se il flag 11 è non banale e il 12 banale, applicare Z a 2. Se il 12 è non banale e l'11 banale, applicare Z al qubit 6. Se il flag 13 è non banale e il 14 banale, applicare Z al qubit 4. Se il 14 è non banale e il 13 banale, applicare Z al qubit 8. Vedere il ref. per i dettagli sul perché questo sia sufficiente per la tolleranza ai guasti. Ciò significa che invece di includere direttamente gli eventi sensibili agli errori dalle misurazioni dei qubit flag, pre-elaboriamo i dati utilizzando le informazioni flag per applicare correzioni Pauli Z virtuali e aggiustare di conseguenza gli eventi sensibili agli errori successivi. Gli iperarchi per l'ipergrafo deflagged possono essere trovati tramite simulazione dello stabilizzatore incorporando le correzioni Z. Sia che indica il numero di round. Dopo il deflagging, la dimensione dell'insieme per esperimenti in base Z (risp. X) è ∣ ∣ = 6 + 2 (risp. 6 + 4), a causa della misurazione di sei stabilizzatori per round e di due (risp. quattro) stabilizzatori iniziali dopo la preparazione dello stato. La dimensione di è similmente ∣ ∣ = 60 − 13 (risp. 60 − 1) per > 0. 15 r V V r r E E r r r Considerando separatamente gli errori X e Z, il problema di trovare una correzione di errore di peso minimo per il codice di superficie può essere ridotto alla ricerca di una corrispondenza perfetta di peso minimo in un grafo . I decodificatori di corrispondenza continuano ad essere studiati a causa della loro praticità e ampia applicabilità , . In questa sezione, descriviamo il decodificatore di corrispondenza per il nostro codice a esagono pesante di distanza-3. 4 27 28 29 I grafici di decodifica, uno per gli errori X (Fig. c) e uno per gli errori Z (Fig. d), per la corrispondenza perfetta di peso minimo sono in realtà sottografi dell'ipergrafo di decodifica nella sezione precedente. Concentriamoci qui sul grafo per la correzione degli errori X, poiché il grafo degli errori Z è analogo. In questo caso, dall'ipergrafo di decodifica manteniamo i nodi corrispondenti alle misurazioni degli stabilizzatori Z (differenza tra successive) e gli archi (cioè, iperarchi di dimensione due) tra di essi. Inoltre, viene creato un vertice di confine , e gli iperarchi di dimensione uno della forma { } con ∈ , sono rappresentati includendo archi { , }. Tutti gli archi nel grafo degli errori X ereditano probabilità ed etichette logiche dai loro iperarchi corrispondenti (vedi Tabella per dati sugli archi degli errori X e Z per l'esperimento di 2 round). 1 1 VZ b v v VZ v b 1 Un algoritmo di corrispondenza perfetta prende un grafo con archi pesati e un insieme di nodi evidenziati di dimensione pari, e restituisce un insieme di archi nel grafo che collega tutti i nodi evidenziati in coppie e ha un peso totale minimo tra tutti i set di archi di questo tipo. Nel nostro caso, i nodi evidenziati sono gli eventi sensibili agli errori non banali (se sono dispari, viene evidenziato anche il nodo di confine), e i pesi degli archi sono scelti per essere tutti uno (metodo uniforme) o impostati come , dove è la probabilità dell'arco (metodo analitico). Quest'ultima scelta significa che il peso totale di un insieme di archi è uguale alla log-verosimiglianza di quell'insieme, e la corrispondenza perfetta di peso minimo cerca di massimizzare questa verosimiglianza sugli archi nel grafo. pe Dato una corrispondenza perfetta di peso minimo, si possono utilizzare le etichette logiche degli archi nella corrispondenza per decidere una correzione allo stato logico. In alternativa, il grafo degli errori X (errori Z) per il decodificatore di corrispondenza è tale che ogni arco può essere associato a un qubit del codice (o a un errore di misurazione), tale che l'inclusione di un arco nella corrispondenza implica che dovrebbe essere applicata una correzione X (Z) al qubit corrispondente. La decodifica di massima verosimiglianza (MLD) è un metodo ottimale, sebbene non scalabile, per decodificare codici quantistici di correzione degli errori. Nella sua concezione originale, MLD è stato applicato a modelli di rumore fenomenologici in cui gli errori si verificano appena prima che le sindromi vengano misurate , . Questo ignora naturalmente il caso più realistico in cui gli errori possono propagarsi attraverso il circuito di misurazione della sindrome. Più recentemente, MLD è stato esteso per includere il rumore del circuito , . Qui, descriviamo come MLD corregge il rumore del circuito utilizzando l'ipergrafo di decodifica. 24 30 23 31 MLD deduce la correzione logica più probabile data un'osservazione degli eventi sensibili agli errori. Questo viene fatto calcolando la distribuzione di probabilità Pr[ , ], dove rappresenta gli eventi sensibili agli errori e rappresenta una correzione logica. β γ Possiamo calcolare Pr[ , ] includendo ogni iperarco dall'ipergrafo di decodifica, Fig. c–f, partendo dalla distribuzione a errore zero, cioè Pr[0∣ ∣, 02 ] = 1. Se l'iperarco ha probabilità di verificarsi, indipendentemente da qualsiasi altro iperarco, includiamo eseguendo l'aggiornamento β γ 1 V k h ph h dove è solo una rappresentazione vettoriale binaria dell'iperarco. Questo aggiornamento dovrebbe essere applicato una volta per ogni iperarco in . E Una volta calcolato Pr[ , ], possiamo usarlo per dedurre la migliore correzione logica. Se viene osservato in un'esecuzione dell'esperimento, β γ indica come le misurazioni degli operatori logici dovrebbero essere corrette. Per maggiori dettagli sulle implementazioni specifiche di MLD, fare riferimento ai Metodi “Implementazioni di massima verosimiglianza”.