```html Autori: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Abstract La correzione degli errori quantistici offre un percorso promettente per eseguire calcoli quantistici ad alta fedeltà. Sebbene le esecuzioni completamente tolleranti ai guasti degli algoritmi rimangano irrealizzate, i recenti miglioramenti nell'elettronica di controllo e nell'hardware quantistico consentono dimostrazioni sempre più avanzate delle operazioni necessarie per la correzione degli errori. Qui, eseguiamo la correzione degli errori quantistici su qubit superconduttori collegati in un reticolo a esagono pesante. Codifichiamo un qubit logico di distanza tre ed eseguiamo diversi round di misurazioni di sindrome tolleranti ai guasti che consentono la correzione di qualsiasi singolo guasto nella circuiteria. Utilizzando il feedback in tempo reale, reimpostiamo i qubit di sindrome e flag condizionalmente dopo ogni ciclo di estrazione della sindrome. Riportiamo errori logici dipendenti dal decodificatore, con un errore logico medio per misurazione di sindrome in base Z(X) di ~0,040 (~0,088) e ~0,037 (~0,087) per decodificatori di matching e di massima verosimiglianza, rispettivamente, su dati post-selezionati per la fuoriuscita. Introduzione Gli esiti dei calcoli quantistici possono essere difettosi, in pratica, a causa del rumore nell'hardware. Per eliminare i guasti risultanti, i codici di correzione degli errori quantistici (QEC) possono essere utilizzati per codificare le informazioni quantistiche in gradi di libertà logici protetti e, quindi, correggendo i guasti più velocemente di quanto si accumulino, abilitare calcoli tolleranti ai guasti (FT). Un'esecuzione completa di QEC richiederà probabilmente: preparazione di stati logici; realizzazione di un set universale di gate logici, che potrebbe richiedere la preparazione di stati magici; misurazioni ripetute di sindromi; e la decodifica delle sindromi per correggere gli errori. Se riuscito, i tassi di errore logici risultanti dovrebbero essere inferiori ai tassi di errore fisici sottostanti e diminuire con l'aumento delle distanze del codice fino a valori trascurabili. La scelta di un codice QEC richiede la considerazione dell'hardware sottostante e delle sue proprietà di rumore. Per un reticolo a esagono pesante , di qubit, i codici QEC di sottosistema sono attraenti perché sono ben adattati ai qubit con connettività ridotta. Altri codici hanno mostrato promesse grazie alla loro soglia relativamente alta per FT o un gran numero di gate logici trasversali . Sebbene il loro overhead spaziale e temporale possa rappresentare un ostacolo significativo alla scalabilità, esistono approcci incoraggianti per ridurre le risorse più costose sfruttando una qualche forma di mitigazione degli errori . 1 2 3 4 5 6 Nel processo di decodifica, la correzione di successo dipende non solo dalle prestazioni dell'hardware quantistico, ma anche dall'implementazione dell'elettronica di controllo utilizzata per acquisire ed elaborare le informazioni classiche ottenute dalle misurazioni di sindrome. Nel nostro caso, l'inizializzazione sia dei qubit di sindrome che di flag tramite feedback in tempo reale tra i cicli di misurazione può aiutare a mitigare gli errori. A livello di decodifica, mentre esistono alcuni protocolli per eseguire QEC in modo asincrono all'interno di un formalismo FT , , la velocità con cui vengono ricevute le sindromi di errore dovrebbe essere commisurata al loro tempo di elaborazione classico per evitare un crescente arretrato di dati di sindrome. Inoltre, alcuni protocolli, come l'uso di uno stato magico per un gate logico , richiedono l'applicazione di feed-forward in tempo reale. 7 8 T 9 Pertanto, la visione a lungo termine di QEC non gravita attorno a un singolo obiettivo finale, ma dovrebbe essere vista come un continuum di compiti profondamente interrelati. Il percorso sperimentale nello sviluppo di questa tecnologia comprenderà prima la dimostrazione di questi compiti in isolamento e poi la loro progressiva combinazione, sempre migliorando continuamente le loro metriche associate. Alcuni di questi progressi si riflettono nei numerosi progressi recenti sui sistemi quantistici attraverso diverse piattaforme fisiche, che hanno dimostrato o approssimato diversi aspetti dei desiderata per il calcolo quantistico FT. In particolare, la preparazione di stati logici FT è stata dimostrata su ioni , spin nucleari nel diamante e qubit superconduttori . Cicli ripetuti di estrazione della sindrome sono stati dimostrati su qubit superconduttori in piccoli codici di rilevamento degli errori , , inclusa la correzione parziale degli errori , nonché un set universale (sebbene non FT) di gate a singolo qubit . Una dimostrazione FT di un set di gate universale su due qubit logici è stata recentemente riportata su ioni . Nel regno della correzione degli errori, ci sono state recenti realizzazioni del codice di superficie di distanza-3 su qubit superconduttori con decodifica e post-selezione , nonché un'implementazione FT di una memoria quantistica dinamicamente protetta utilizzando il codice colore e la preparazione, operazione e misurazione di stati FT, inclusi i suoi stabilizzatori, di uno stato logico nel codice Bacon-Shor in ioni , . 10 11 12 13 14 15 16 17 18 19 20 20 21 Qui combiniamo la capacità di feedback in tempo reale su un sistema di qubit superconduttori con un protocollo di decodifica di massima verosimiglianza finora inesplorato sperimentalmente per migliorare la sopravvivenza degli stati logici. Dimostriamo questi strumenti come parte dell'operazione FT di un codice di sottosistema , il codice a esagono pesante , su un processore quantistico superconduttore. Essenziale per rendere la nostra implementazione di questo codice tollerante ai guasti sono i qubit flag che, quando trovati non nulli, allertano il decodificatore di errori nel circuito. Resettando condizionalmente i qubit flag e sindrome dopo ogni ciclo di misurazione della sindrome, proteggiamo il nostro sistema da errori derivanti dall'asimmetria del rumore intrinseca al rilassamento energetico. Sfruttiamo ulteriormente strategie di decodifica descritte di recente ed estendiamo le idee di decodifica per includere concetti di massima verosimiglianza , , . 22 1 15 4 23 24 Risultati Il codice a esagono pesante e i circuiti multi-round Il codice a esagono pesante che consideriamo è un codice a = 9 qubit che codifica = 1 qubit logico con distanza = 3 . I gruppi di gauge Z e X (vedi Fig. 1a) e gli stabilizzatori sono generati da n k d 1 I gruppi di stabilizzatori sono i centri dei rispettivi gruppi di gauge . Ciò significa che gli stabilizzatori, come prodotti di operatori di gauge, possono essere dedotti dalle misurazioni di soli operatori di gauge. Gli operatori logici possono essere scelti come = 1 2 3 e = 1 3 7. XL X X X ZL Z Z Z Operatori di gauge Z (blu) e X (rosso) (eq. (1) e (2)) mappati sui 23 qubit richiesti con il codice a esagono pesante di distanza-3. I qubit del codice (Q1-Q9) sono mostrati in giallo, i qubit di sindrome (Q17, Q19, Q20, Q22) utilizzati per gli stabilizzatori Z in blu, e i qubit flag e le sindromi utilizzate per gli stabilizzatori X in bianco. L'ordine e la direzione delle porte CX applicate all'interno di ogni sottosezione (da 0 a 4) sono indicati dalle frecce numerate. Diagramma del circuito di un round di misurazione della sindrome, che include sia stabilizzatori X che Z. Il diagramma del circuito illustra la parallelizzazione permessa delle operazioni di gate: quelle all'interno dei limiti stabiliti dalle barriere di pianificazione (linee verticali tratteggiate grigie). Poiché la durata di ogni gate a due qubit è diversa, la pianificazione finale dei gate è determinata da un passaggio standard di transpilazione del circuito il più tardi possibile; dopodiché viene aggiunto un disaccoppiamento dinamico ai qubit di dati dove il tempo lo consente. Le operazioni di misurazione e reset sono isolate dalle altre operazioni di gate da barriere per consentire l'aggiunta di un disaccoppiamento dinamico uniforme ai qubit di dati inattivi. Grafi di decodifica per tre round di misurazioni di stabilizzatori ( ) Z e ( ) X con rumore a livello di circuito consentono la correzione di errori X e Z, rispettivamente. I nodi blu e rossi nei grafi corrispondono alle sindromi di differenza, mentre i nodi neri sono il confine. Gli archi codificano vari modi in cui gli errori possono verificarsi nel circuito come descritto nel testo. I nodi sono etichettati dal tipo di misurazione dello stabilizzatore (Z o X), insieme a un indice che indica lo stabilizzatore e un esponente che denota il round. Gli archi neri, derivanti da errori Pauli Y sui qubit del codice (e quindi sono solo di dimensione 2), collegano i due grafi in ( ) e ( ), ma non vengono utilizzati nel decodificatore di matching. Gli iperarchi di dimensione 4, che non sono utilizzati dal matching, ma sono utilizzati nel decodificatore di massima verosimiglianza. I colori sono solo per chiarezza. Traducendo ciascuno nel tempo di un round si ottiene anche un iperarco valido (con alcune variazioni ai confini temporali). Non mostrati sono nemmeno gli iperarchi di dimensione 3. a b c d e c d f Qui ci concentriamo su un particolare circuito FT, molte delle nostre tecniche possono essere utilizzate più generalmente con codici e circuiti diversi. Due sottocircuiti, mostrati in Fig. 1b, sono costruiti per misurare gli operatori di gauge X e Z. La misurazione del gauge Z acquisisce anche informazioni utili misurando i qubit flag. Prepariamo stati del codice nello stato logico $\ket{\psi_{L}} = \frac{1}{\sqrt{2}}(\ket{0}_{L} + \ket{1}_{L})$ eseguendo prima nove qubit nello stato $\ket{+}^{\otimes 9}$ e misurando il gauge X (gauge Z). Eseguiamo quindi $r$ round di misurazione della sindrome, dove un round consiste in una misurazione del gauge Z seguita da una misurazione del gauge X (rispettivamente, gauge X seguita da gauge Z). Infine, leggiamo tutti e nove i qubit del codice nella base Z (X). Eseguiamo gli stessi esperimenti per gli stati logici iniziali $\ket{0}_{L}$ e $\ket{1}_{L}$ rispettivamente, semplicemente inizializzando i nove qubit in $\ket{0}^{\otimes 9}$ e $\ket{1}^{\otimes 9}$ rispettivamente. Algoritmi di decodifica Nell'ambito del calcolo quantistico FT, un decodificatore è un algoritmo che prende come input le misurazioni della sindrome da un codice di correzione degli errori e restituisce una correzione ai qubit o ai dati di misurazione. In questa sezione descriviamo due algoritmi di decodifica: la decodifica con matching perfetto e la decodifica di massima verosimiglianza. L'ipergrafo di decodifica è una descrizione concisa delle informazioni raccolte da un circuito FT e rese disponibili a un algoritmo di decodifica. È costituito da un insieme di vertici, o eventi sensibili agli errori, $V$, e un insieme di iperarchi $E$, che codificano le correlazioni tra eventi causati da errori nel circuito. La Fig. 1c-f raffigura parti dell'ipergrafo di decodifica per il nostro esperimento. 15 La costruzione di un ipergrafo di decodifica per circuiti di stabilizzatori con rumore Pauli può essere eseguita utilizzando simulazioni standard Gottesman-Knill o tecniche simili di tracciamento Pauli . Innanzitutto, viene creato un evento sensibile agli errori per ogni misurazione che è deterministica nel circuito privo di errori. Una misurazione deterministica $M$ è qualsiasi misurazione il cui esito $m \in \{0, 1\}$ può essere previsto sommando modulo due gli esiti della misurazione da un insieme $S_M$ di misurazioni precedenti. Cioè, per un circuito privo di errori, $m = \bigoplus_{m_i \in S_M} m_i$, dove l'insieme $S_M$ può essere trovato simulando il circuito. Impostare il valore dell'evento sensibile agli errori a $m - F_M(\text{mod } 2)$, che è zero (chiamato anche banale) in assenza di errori. Pertanto, osservare un evento sensibile agli errori non nullo (chiamato anche non banale) implica che il circuito ha subito almeno un errore. Nei nostri circuiti, gli eventi sensibili agli errori sono sia misurazioni di qubit flag che la differenza di misurazioni successive dello stesso stabilizzatore (chiamata anche sindrome di differenza). 25 26 Successivamente, vengono aggiunti gli iperarchi considerando i guasti del circuito. Il nostro modello contiene una probabilità di guasto $p_C$ per ciascuno dei diversi componenti del circuito Qui distinguiamo l'operazione identità id sui qubit durante un tempo in cui altri qubit stanno subendo gate unitari, dall'operazione identità idm sui qubit quando altri stanno subendo misurazione e reset. Reimpostiamo i qubit dopo che sono stati misurati, mentre inizializziamo i qubit che non sono ancora stati utilizzati nell'esperimento. Infine, cx è il gate controlled-not, h è il gate di Hadamard, e x, y, z sono gate di Pauli. (vedi Metodi "IBM_Peekskill e dettagli sperimentali" per maggiori dettagli). I valori numerici per $p_C$ sono elencati nei Metodi "IBM_Peekskill e dettagli sperimentali". Il nostro modello di errore è il rumore depolarizzante del circuito. Per errori di inizializzazione e reset, viene applicato un Pauli X con le rispettive probabilità $p_{\text{init}}$ e $p_{\text{reset}}$ dopo la preparazione ideale dello stato. Per errori di misurazione, viene applicato un Pauli X con probabilità $p_m$ prima della misurazione ideale. Un gate unitario a un qubit (gate a due qubit) $C$ subisce con probabilità $p_C$ uno dei tre (quindici) errori Pauli non identità che seguono il gate ideale. C'è una probabilità uguale che si verifichi uno qualsiasi dei tre (quindici) errori Pauli. Quando si verifica un singolo guasto nel circuito, questo causa la non trivialità di un sottoinsieme di eventi sensibili agli errori. Questo insieme di eventi sensibili agli errori diventa un iperarco. L'insieme di tutti gli iperarchi è $E$. Due guasti diversi possono portare allo stesso iperarco, quindi ogni iperarco può essere visto come rappresentante di un insieme di guasti, ognuno dei quali causa individualmente la non trivialità degli eventi nell'iperarco. Associato a ciascun iperarco c'è una probabilità, che, al primo ordine, è la somma delle probabilità dei guasti nell'insieme. Un guasto può anche portare a un errore che, propagato fino alla fine del circuito, anticommuta con uno o più operatori logici del codice, richiedendo una correzione logica. Assumiamo per generalità che il codice abbia $k$ qubit logici e una base di $2^k$ operatori logici, ma notiamo che $k=1$ per il codice a esagono pesante utilizzato nell'esperimento. Possiamo tenere traccia di quali operatori logici anticommutano con l'errore utilizzando un vettore da $\{0, 1\}^k$. Pertanto, ogni iperarco $h$ è anche etichettato da uno di questi vettori $v_h \in \{0, 1\}^k$, chiamato etichetta logica. Si noti che se il codice ha distanza almeno tre, ogni iperarco ha un'etichetta logica univoca. Infine, notiamo che un algoritmo di decodifica può scegliere di semplificare l'ipergrafo di decodifica in vari modi. Un modo che impieghiamo sempre qui è il processo di deflagging. Le misurazioni flag dai qubit 16, 18, 21, 23 vengono semplicemente ignorate senza applicare correzioni. Se il flag 11 è non banale e il 12 è banale, applica Z a 2. Se il 12 è non banale e l'11 è banale, applica Z al qubit 6. Se il flag 13 è non banale e il 14 è banale, applica Z al qubit 4. Se il 14 è non banale e il 13 è banale, applica Z al qubit 8. Vedi ref. 15 per i dettagli sul perché questo sia sufficiente per la tolleranza ai guasti. Ciò significa che invece di includere direttamente gli eventi sensibili agli errori dalle misurazioni dei qubit flag, pre-elaboriamo i dati utilizzando le informazioni flag per applicare correzioni Pauli Z virtuali e aggiustare di conseguenza gli eventi sensibili agli errori successivi. Gli iperarchi per l'ipergrafo deflagged possono essere trovati tramite simulazione dello stabilizzatore che incorpora le correzioni Z. Sia $r$ il numero di round. Dopo il deflagging, la dimensione dell'insieme $V$ per gli esperimenti in base Z (risp. X) è $|V| = 6r+2$ (risp. $6r+4$), a causa della misurazione di sei stabilizzatori per round e di due (risp. quattro) stabilizzatori iniziali sensibili agli errori dopo la preparazione dello stato. La dimensione di $E$ è similmente $|E| = 60r-13$ (risp. $60r-1$) per $r>0$. Considerando gli errori X e Z separatamente, il problema di trovare una correzione di errore di peso minimo per il codice di superficie può essere ridotto alla ricerca di un matching perfetto di peso minimo in un grafo . I decodificatori di matching continuano ad essere studiati a causa della loro praticità e ampia applicabilità , . In questa sezione, descriviamo il decodificatore di matching per il nostro codice a esagono pesante di distanza-3. 4 27 28 29 I grafi di decodifica, uno per gli errori X (Fig. 1c) e uno per gli errori Z (Fig. 1d), per il matching perfetto di peso minimo sono in realtà sottografi dell'ipergrafo di decodifica nella sezione precedente. Concentriamoci qui sul grafo per la correzione degli errori X, poiché il grafo per gli errori Z è analogo. In questo caso, dall'ipergrafo di decodifica manteniamo i nodi $V_Z$ corrispondenti alle misurazioni degli stabilizzatori Z (differenza di quelle successive) e gli archi (cioè iperarchi di dimensione due) tra di essi. Inoltre, viene creato un vertice di confine $b$, e gli iperarchi di dimensione uno della forma $\{v\}$ con $v \in V_Z$, sono rappresentati includendo gli archi $\{v, b\}$. Tutti gli archi nel grafo per errori X ereditano probabilità ed etichette logiche dai loro iperarchi corrispondenti (vedi Tabella 1 per dati degli archi per errori X e Z per un esperimento di 2 round). Un algoritmo di matching perfetto prende un grafo con archi pesati e un insieme di nodi evidenziati di dimensione pari, e restituisce un insieme di archi nel grafo che connette tutti i nodi evidenziati a coppie e ha un peso totale minimo tra tutti tali insiemi di archi. Nel nostro caso, i nodi evidenziati sono gli eventi sensibili agli errori non banali (se ce ne sono un numero dispari, viene evidenziato anche il nodo di confine), e i pesi degli archi sono scelti per essere tutti uno (metodo uniforme) o impostati come $-\ln(p_e)$, dove $p_e$ è la probabilità dell'arco (metodo analitico). Quest'ultima scelta significa che il peso totale di un insieme di archi è uguale al log-verosimiglianza di quell'insieme, e il matching perfetto di peso minimo cerca di massimizzare questa verosimiglianza sugli archi nel grafo. Dato un matching perfetto di peso minimo, si possono usare le etichette logiche degli archi nel matching per decidere una correzione allo stato logico. Alternativamente, il grafo per errori X (errori Z) per il decodificatore di matching è tale che ogni arco può essere associato a un qubit del codice (o a un errore di misurazione), tale che includere un arco nel matching implica che dovrebbe essere applicata una correzione X (Z) al qubit corrispondente. La decodifica di massima verosimiglianza (MLD) è un metodo ottimale, sebbene non scalabile, per decodificare codici quantistici di correzione degli errori. Nella sua concezione originale, la MLD veniva applicata a modelli di rumore fenomenologici in cui gli errori si verificano poco prima che vengano misurate le sindromi , . Questo, ovviamente, ignora il caso più realistico in cui gli errori possono propagarsi attraverso la circuiteria di misurazione della sindrome. Più recentemente, la MLD è stata estesa per includere il rumore del circuito , . Qui, descriviamo come la MLD corregge il rumore del circuito utilizzando l'ipergrafo di decodifica. 24 30 23 31 La MLD deduce la correzione logica più probabile data un'osservazione degli eventi sensibili agli errori. Questo viene fatto calcolando la distribuzione di probabilità Pr[$\beta$, $\gamma$], dove $\beta$ rappresenta gli eventi sensibili agli errori e $\gamma$ rappresenta una correzione logica. Possiamo calcolare Pr[$\beta$, $\gamma$] includendo ogni iperarco dall'ipergrafo di decodifica, Fig. 1c-f, partendo dalla distribuzione a errore zero, cioè Pr[0$|\text{V}$|, 0$^{2k}$] = 1. Se l'iperarco $h$ ha probabilità $p_h$ di verificarsi, indipendente da qualsiasi altro iperarco, includiamo $h$ eseguendo l'aggiornamento dove $v_h$ è solo una rappresentazione vettoriale binaria dell'iperarco. Questo aggiornamento dovrebbe essere applicato una volta per ogni iperarco in $E$. Una volta calcolato Pr[$\beta$, $\gamma$], possiamo usarlo per dedurre la migliore correzione logica. Se $\beta^*$ viene osservato in un'esecuzione dell'esperimento, indica come dovrebbero essere corrette le misurazioni degli operatori logici. Per maggiori dettagli sulle implementazioni specifiche di MLD, fare riferimento ai Metodi "Implementazioni di massima verosimiglianza". Realizzazione sperimentale Per questa dimostrazione utilizziamo ibm_peekskill v2.0.0, un processore IBM Quantum Falcon a 27 qubit la cui mappa di accoppiamento abilita un codice a esagono pesante di distanza-3, vedere Fig. 1a. Il tempo totale per la misurazione del qubit e il successivo reset condizionale in tempo reale, per ogni round, dura 768 ns ed è lo stesso per tutti i qubit. Tutte le misurazioni di sindrome e i reset avvengono simultaneamente per prestazioni migliorate. Una semplice sequenza di disaccoppiamento dinamico Xπ-Xπ viene aggiunta a tutti i qubit del codice durante i loro rispettivi periodi di inattività. 32 La fuoriuscita dei qubit è una ragione significativa per cui il modello di errore depolarizzante Pauli assunto dalla progettazione del decodificatore potrebbe essere inaccurato. In alcuni casi, possiamo rilevare se un qubit è fuoriuscito dallo spazio di calcolo al momento della misurazione (vedere Metodi "Metodo di post-selezione" per maggiori informazioni sul metodo di post-selezione e sui limiti). Utilizzando questo, possiamo post-selezionare le esecuzioni dell'esperimento in cui non è stata rilevata fuoriuscita, simile a ref. 18. Nella Fig. 2a, inizializziamo lo stato logico $\ket{+}_{L}$ e applichiamo $r$ round di misurazione della sindrome, dove un round include sia gli stabilizzatori X che Z (tempo totale di circa 5,3 μs per round, Fig. 1b). Utilizzando la decodifica analitica con matching perfetto sul set di dati completo (500.000 shot per run), estraiamo gli errori logici nella Fig. 2a, triangoli rossi (blu). Dettagli dei parametri ottimizzati utilizzati nella decodifica analitica con matching perfetto si trovano nei Metodi "IBM_Peekskill e dettagli sperimentali". Adattando le curve di decadimento complete (eq. (14)) fino a 10 round, estraiamo l'errore logico per round senza post-selezione nella Fig. 2b di 0,059(2) (0,058(3)) per gli