Autorzy: Neereja Sundaresan Theodore J. Yoder Youngseok Kim Muyuan Li Edward H. Chen Grace Harper Ted Thorbeck Andrew W. Cross Antonio D. Córcoles Maika Takita Abstrakt Kwantowa korekcja błędów oferuje obiecującą ścieżkę do przeprowadzania obliczeń kwantowych o wysokiej wierności. Chociaż pełne wykonanie algorytmów odpornych na błędy pozostaje nieosiągnięte, ostatnie ulepszenia w elektronice sterującej i sprzęcie kwantowym umożliwiają coraz bardziej zaawansowane demonstracje operacji niezbędnych do korekcji błędów. Tutaj przeprowadzamy kwantową korekcję błędów na kubitach nadprzewodzących połączonych w sieci ciężkiej heksagonalnej. Kodujemy kubit logiczny o odległości trzy i wykonujemy kilka rund pomiarów syndromów odpornych na błędy, które pozwalają na korekcję każdego pojedynczego błędu w obwodzie. Używając sprzężenia zwrotnego w czasie rzeczywistym, resetujemy kubity syndromów i flagujących warunkowo po każdym cyklu ekstrakcji syndromu. Zgłaszamy zależny od dekodera błąd logiczny, ze średnim błędem logicznym na pomiar syndromu w bazie Z(X) wynoszącym odpowiednio ~0,040 (~0,088) i ~0,037 (~0,087) dla dekoderów pasujących i największego prawdopodobieństwa, na danych post-wybranych pod kątem wycieku. Wprowadzenie Wyniki obliczeń kwantowych mogą być wadliwe, w praktyce, z powodu szumu w sprzęcie. Aby wyeliminować wynikowe błędy, kody kwantowej korekcji błędów (QEC) mogą być używane do kodowania informacji kwantowej w chronionych, logicznych stopniach swobody, a następnie przez szybszą korektę błędów niż ich akumulacja, umożliwiają obliczenia odporne na błędy (FT). Pełne wykonanie QEC prawdopodobnie będzie wymagało: przygotowania stanów logicznych; realizacji uniwersalnego zestawu bram logicznych, co może wymagać przygotowania stanów magicznych; wielokrotnych pomiarów syndromów; i dekodowania syndromów do korekcji błędów. Jeśli się powiedzie, wynikowe tempo błędów logicznych powinno być niższe niż tempo błędów fizycznych, i spadać wraz ze wzrostem odległości kodu do znikomo małych wartości. Wybór kodu QEC wymaga uwzględnienia bazowego sprzętu i jego właściwości szumowych. Dla sieci ciężkich heksagonalnych kubitów, podkodowe kody QEC są atrakcyjne, ponieważ dobrze nadają się do kubitów o zredukowanej łączności. Inne kody wykazały obiecujące rezultaty ze względu na ich stosunkowo wysoki próg dla FT lub dużą liczbę bram logicznych transversalnych. Chociaż ich przestrzeń i narzut czasowy mogą stanowić znaczną przeszkodę dla skalowalności, istnieją zachęcające podejścia do redukcji najdroższych zasobów poprzez wykorzystanie jakiejś formy mitygacji błędów. W procesie dekodowania, udana korekcja zależy nie tylko od wydajności sprzętu kwantowego, ale także od implementacji elektroniki sterującej używanej do pozyskiwania i przetwarzania informacji klasycznej uzyskanej z pomiarów syndromów. W naszym przypadku, inicjalizacja zarówno kubitów syndromów, jak i flagujących za pomocą sprzężenia zwrotnego w czasie rzeczywistym między cyklami pomiarowymi może pomóc w mitygacji błędów. Na poziomie dekodowania, chociaż istnieją protokoły do przeprowadzania QEC asynchronicznie w ramach formalizmu FT, szybkość odbierania syndromów błędów powinna być współmierna do ich czasu przetwarzania klasycznego, aby uniknąć rosnącego zaplecza danych syndromów. Ponadto, niektóre protokoły, takie jak użycie stanu magicznego do bramy logicznej T, wymagają zastosowania sprzężenia zwrotnego w czasie rzeczywistym. Dlatego długoterminowa wizja QEC nie skupia się na jednym ostatecznym celu, ale powinna być postrzegana jako ciąg głęboko powiązanych zadań. Ścieżka eksperymentalna w rozwoju tej technologii będzie obejmować demonstrację tych zadań najpierw w izolacji, a następnie ich stopniowe łączenie, zawsze przy jednoczesnym ciągłym doskonaleniu ich powiązanych metryk. Część tego postępu znajduje odzwiciedlenie w licznych ostatnich osiągnięciach w systemach kwantowych na różnych platformach fizycznych, które zademonstrowały lub przybliżyły kilka aspektów pożądanych cech kwantowych obliczeń FT. W szczególności, przygotowanie logicznych stanów FT zostało zademonstrowane na jonach, spinach jądrowych w diamencie i kubitach nadprzewodzących. Wielokrotne cykle ekstrakcji syndromów zostały pokazane na kubitach nadprzewodzących w małych kodach wykrywających błędy, w tym częściowa korekcja błędów, a także uniwersalny (choć nie FT) zestaw jedno-kubitowych bram. Niedawno zgłoszono demonstrację FT uniwersalnego zestawu bram na dwóch kubitach logicznych w jonach. W dziedzinie korekcji błędów, pojawiły się niedawne realizacje kodu powierzchniowego o odległości 3 na kubitach nadprzewodzących z dekodowaniem i post-selekcją, a także implementacja FT dynamicznie chronionej pamięci kwantowej z użyciem kodu koloru oraz FT przygotowanie stanu, operacja i pomiar, w tym jego stabilizatory, logicznego stanu w kodzie Bacona-Shora w jonach. Tutaj łączymy możliwości sprzężenia zwrotnego w czasie rzeczywistym w systemie kubitów nadprzewodzących z protokołem dekodowania największego prawdopodobieństwa dotychczas nierozwiązanym eksperymentalnie, aby poprawić przeżywalność stanów logicznych. Demonstracja tych narzędzi jako część operacji FT podkodu, ciężkiego kodu heksagonalnego, na kwantowym procesorze nadprzewodzącym. Kluczowe dla uczynienia naszej implementacji tego kodu odporną na błędy są kubity flagujące, które, gdy zostaną znalezione jako niezerowe, ostrzegają dekoder o błędach w obwodzie. Warunkowo resetując kubity flagujące i syndromowe po każdym cyklu pomiaru syndromu, chronimy nasz system przed błędami wynikającymi z asymetrii szumu inherentnej do relaksacji energii. Wykorzystujemy dalej niedawno opisane strategie dekodowania i rozszerzamy idee dekodowania, aby włączyć koncepcje największego prawdopodobieństwa. Wyniki Ciężki kod heksagonalny i obwody wielokrotnego przebiegu Rozważany przez nas kod ciężkiego heksagonu to kod n=9 kubitów kodujący k=1 kubit logiczny o odległości d=3. Grupy cechowania Z i X (patrz Rys. 1a) oraz stabilizatorów są generowane przez Grupy stabilizatorów to centra odpowiednich grup cechowania. Oznacza to, że stabilizatory, jako produkty operatorów cechowania, mogą być wydedukowane z pomiarów tylko operatorów cechowania. Operatory logiczne mogą być wybrane jako XL = X1X2X3 i ZL = Z1Z3Z7. Operatory cechowania Z (niebieski) i X (czerwony) (równania (1) i (2)) odwzorowane na 23 kubity wymagane dla kodu ciężkiego heksagonu o odległości 3. Kubity kodu (Q1-Q9) są pokazane w kolorze żółtym, kubity syndromów (Q17, Q19, Q20, Q22) używane dla stabilizatorów Z w kolorze niebieskim, a kubity flagujące i syndromy używane w stabilizatorach X w kolorze białym. Kolejność i kierunek zastosowania bram CX w każdej podsekcji (od 0 do 4) są zaznaczone ponumerowanymi strzałkami. Schemat obwodu jednej rundy pomiaru syndromu, zawierający stabilizatory X i Z. Schemat obwodu ilustruje dopuszczalne równoległe wykonanie operacji bramowych: te w granicach wyznaczonych przez bariery czasowe (pionowe przerywane linie szare). Ponieważ czas trwania każdej dwukubitowej bramy jest różny, ostateczne planowanie bram jest ustalane za pomocą standardowego przejścia transpilacji obwodu „tak późno, jak to możliwe”, po czym dodawane jest odsprzęganie dynamiczne do kubitów danych, gdy czas na to pozwala. Operacje pomiaru i resetowania są izolowane od innych operacji bramowych przez bariery, aby umożliwić dodanie jednorodnego odsprzęgania dynamicznego do nieaktywnych kubitów danych. Grafy dekodowania dla trzech rund pomiarów stabilizatorów ( ) Z i ( ) X z szumem na poziomie obwodu pozwalają na korekcję błędów X i Z, odpowiednio. Niebieskie i czerwone węzły na grafach odpowiadają różnicom syndromów, podczas gdy czarne węzły to granica. Krawędzie kodują różne sposoby występowania błędów w obwodzie, jak opisano w tekście. Węzły są oznaczone typem pomiaru stabilizatora (Z lub X), wraz z indeksem stabilizatora i wykładnikami wskazującymi rundę. Czarne krawędzie, wynikające z błędów Pauliego na kubitach kodu (i dlatego są tylko rozmiaru 2), łączą dwa grafy w i , ale nie są używane w dekoderze dopasowującym. Krawędzie hiperpłaszczyzny rozmiaru 4, które nie są używane przez dopasowywanie, ale są używane w dekoderze największego prawdopodobieństwa. Kolory służą jedynie klarowności. Przesunięcie każdej w czasie o jedną rundę również daje prawidłową krawędź hiperpłaszczyzny (z pewnymi zmianami na granicach czasowych). Nie pokazano również żadnych krawędzi hiperpłaszczyzny rozmiaru 3. a b c d e c d f Koncentrujemy się tutaj na konkretnym obwodzie FT, wiele z naszych technik może być używanych bardziej ogólnie z różnymi kodami i obwodami. Dwa podobwody, pokazane na Rys. 1b, są skonstruowane do pomiaru operatorów cechowania X i Z. Obwód cechowania Z również pozyskuje użyteczne informacje, mierząc kubity flagujące. Przygotowujemy stany kodu w logicznym stanie |+i (|−i) przez najpierw przygotowanie dziewięciu kubitów w stanie |+i (−i) i pomiar cechowania X (cechowania Z). Następnie wykonujemy r rund pomiaru syndromu, gdzie runda składa się z pomiaru cechowania Z, a następnie pomiaru cechowania X (odpowiednio, cechowania X, a następnie cechowania Z). Na koniec odczytujemy wszystkie dziewięć kubitów kodu w bazie Z (X). Wykonujemy te same eksperymenty dla początkowych stanów logicznych |+i i |−i, po prostu inicjalizując dziewięć kubitów w |+i i |−i. Algorytmy dekodowania W kontekście kwantowych obliczeń FT, dekoder to algorytm, który przyjmuje jako dane wejściowe pomiary syndromów z kodu korygującego błędy i zwraca poprawkę do kubitów lub danych pomiarowych. W tej sekcji opisujemy dwa algorytmy dekodowania: dekodowanie przez dopasowanie doskonałe i dekodowanie największego prawdopodobieństwa. Hipergraf dekodowania jest zwięzłym opisem informacji zebranych przez obwód FT i udostępnionych algorytmowi dekodowania. Składa się z zestawu wierzchołków, czyli zdarzeń wrażliwych na błędy, V, i zestawu krawędzi hiperpłaszczyzny E, które kodują korelacje między zdarzeniami spowodowane błędami w obwodzie. Rysunek 1c-f przedstawia części hipergrafu dekodowania dla naszego eksperymentu. Konstrukcja hipergrafu dekodowania dla obwodów stabilizatorów z szumem Pauliego może być wykonana przy użyciu standardowych symulacji Gottesmana-Knilla lub podobnych technik śledzenia Pauliego. Najpierw tworzy się zdarzenie wrażliwe na błędy dla każdego pomiaru, który jest deterministyczny w obwodzie wolnym od błędów. Deterministyczny pomiar M to każdy pomiar, którego wynik m ∈ {0, 1} można przewidzieć, dodając modulo dwa wyniki pomiarów z zestawu {Mi} wcześniejszych pomiarów. To znaczy, dla obwodu wolnego od błędów, m = ΣMi (mod 2), gdzie zestaw {Mi} można znaleźć przez symulację obwodu. Ustaw wartość zdarzenia wrażliwego na błędy na m - FM(mod 2), która jest zerowa (zwana również trywialną) w przypadku braku błędów. W związku z tym, obserwacja niezerowego (zwanego również nietrywialnego) zdarzenia wrażliwego na błędy implikuje, że obwód doświadczył co najmniej jednego błędu. W naszych obwodach, zdarzenia wrażliwe na błędy to albo pomiary kubitów flagujących, albo różnica kolejnych pomiarów tego samego stabilizatora (zwana również różnicami syndromów). Następnie dodawane są krawędzie hiperpłaszczyzny, rozważając błędy obwodu. Nasz model zawiera prawdopodobieństwo błędu pC dla każdego z kilku komponentów obwodu Tutaj rozróżniamy operację tożsamości id na kubitach podczas czasu, gdy inne kubity podlegają operacjom unitarnym, od operacji tożsamości idm na kubitach, gdy inne podlegają pomiarowi i resetowaniu. Resetujemy kubity po ich zmierzeniu, podczas gdy inicjalizujemy kubity, które nie zostały jeszcze użyte w eksperymencie. Wreszcie cx to bramka kontrolowanego NOT, h to bramka Hadamarda, a x, y, z to bramki Pauliego. (więcej szczegółów w Metodach „IBM_Peekskill i szczegóły eksperymentalne”). Wartości liczbowe pC są podane w Metodach „IBM_Peekskill i szczegóły eksperymentalne”. Naszym modelem błędów jest szum depolaryzujący obwodu. W przypadku błędów inicjalizacji i resetowania, Pauli X jest stosowany z odpowiednimi prawdopodobieństwami pinit i preset po idealnym przygotowaniu stanu. W przypadku błędów pomiaru, Pauli X jest stosowany z prawdopodobieństwem pm przed idealnym pomiarem. Jednokubitowa bramka unitarna (dwukubitowa) C ulega z prawdopodobieństwem pC jednemu z trzech (piętnastu) nie-identycznościowych błędów Pauliego jednokubitowych (dwukubitowych) następujących po idealnej bramce. Występuje równe prawdopodobieństwo wystąpienia każdego z trzech (piętnastu) błędów Pauliego. Gdy w obwodzie wystąpi pojedynczy błąd, powoduje to, że pewien podzbiór zdarzeń wrażliwych na błędy staje się nietrywialny. Ten zestaw zdarzeń wrażliwych na błędy staje się krawędzią hiperpłaszczyzny. Zbiór wszystkich krawędzi hiperpłaszczyzny to E. Dwa różne błędy mogą prowadzić do tej samej krawędzi hiperpłaszczyzny, więc każda krawędź hiperpłaszczyzny może być postrzegana jako reprezentująca zestaw błędów, z których każdy indywidualnie powoduje, że zdarzenia na krawędzi hiperpłaszczyzny są nietrywialne. Z każdą krawędzią hiperpłaszczyzny związana jest prawdopodobieństwo, które, w pierwszym przybliżeniu, jest sumą prawdopodobieństw błędów w zestawie. Błąd może również prowadzić do błędu, który, propagowany do końca obwodu, antykomutuje z jednym lub więcej operatorami logicznymi kodu, wymagając korekty logicznej. Zakładamy dla ogólności, że kod ma k kubitów logicznych i bazę 2k operatorów logicznych, ale zauważamy, że k=1 dla kodu ciężkiego heksagonu używanego w eksperymencie. Możemy śledzić, z którymi operatorami logicznymi antykomutuje błąd, używając wektora z {0,1}2k. Zatem każda krawędź hiperpłaszczyzny h jest również etykietowana jednym z tych wektorów γh, zwanym etykietą logiczną. Należy zauważyć, że jeśli kod ma odległość co najmniej trzy, każda krawędź hiperpłaszczyzny ma unikalną etykietę logiczną. Na koniec zauważamy, że algorytm dekodowania może wybrać różne sposoby uproszczenia hipergrafu dekodowania. Jednym ze sposobów, który zawsze stosujemy, jest proces deflaggowania. Pomiary flagujące z kubitów 16, 18, 21, 23 są po prostu ignorowane bez stosowania korekt. Jeśli flaga 11 jest nietrywialna, a 12 trywialna, zastosuj Z do 2. Jeśli 12 jest nietrywialne, a 11 trywialne, zastosuj Z do kubitu 6. Jeśli flaga 13 jest nietrywialna, a 14 trywialna, zastosuj Z do kubitu 4. Jeśli 14 jest nietrywialne, a 13 trywialne, zastosuj Z do kubitu 8. Szczegóły dotyczące tego, dlaczego jest to wystarczające dla odporności na błędy, można znaleźć w publikacji. Oznacza to, że zamiast bezpośredniego uwzględniania zdarzeń wrażliwych na błędy z pomiarów kubitów flagujących, przetwarzamy dane wstępnie, używając informacji flagujących do zastosowania wirtualnych korekt Z Pauliego i odpowiedniego dostosowania kolejnych zdarzeń wrażliwych na błędy. Krawędzie hiperpłaszczyzny dla deflagowanego hipergrafu można znaleźć poprzez symulację stabilizatorów z uwzględnieniem korekt Z. Niech r oznacza liczbę rund. Po deflaggowaniu, rozmiar zbioru V dla eksperymentów w bazie Z (odpowiednio X) wynosi |V| = 6r + 2 (odpowiednio 6r + 4), ze względu na pomiar sześciu stabilizatorów na rundę i posiadanie dwóch (odpowiednio czterech) początkowych stabilizatorów wrażliwych na błędy po przygotowaniu stanu. Rozmiar E jest podobnie |E| = 60r - 13 (odpowiednio 60r - 1) dla r > 0. Rozważając błędy X i Z oddzielnie, problem znalezienia korekty błędów o minimalnej wadze dla kodu powierzchniowego można sprowadzić do znalezienia dopasowania doskonałego o minimalnej wadze na grafie. Dekodery dopasowujące są nadal badane ze względu na ich praktyczność i szerokie zastosowanie. W tej sekcji opisujemy dekoder dopasowujący dla naszego kodu ciężkiego heksagonu o odległości 3. Grafy dekodowania, jeden dla błędów X (Rys. 1c) i jeden dla błędów Z (Rys. 1d), dla dopasowania doskonałego o minimalnej wadze, są w rzeczywistości podgrafami hipergrafu dekodowania z poprzedniej sekcji. Skupmy się tutaj na grafie do korekcji błędów X, ponieważ graf błędów Z jest analogiczny. W tym przypadku, z hipergrafu dekodowania zachowujemy węzły VZ odpowiadające (różnicy kolejnych) pomiarom stabilizatorów Z i krawędziom (tj. krawędziom hiperpłaszczyzny o rozmiarze dwa) między nimi. Dodatkowo tworzony jest węzeł graniczny b, a krawędzie hiperpłaszczyzny rozmiaru jeden {v} z v ∈ VZ są reprezentowane przez uwzględnienie krawędzi {v, b}. Wszystkie krawędzie w grafie błędów X dziedziczą prawdopodobieństwa i etykiety logiczne ze swoich odpowiednich krawędzi hiperpłaszczyzny (patrz Tabela 1 dla danych krawędzi błędów X i Z dla 2-rundowego eksperymentu). Algorytm dopasowania doskonałego przyjmuje graf z ważonymi krawędziami i zbiór węzłów o parzystej liczbie elementów, a następnie zwraca zbiór krawędzi na grafie, które łączą wszystkie wyróżnione węzły w pary i mają minimalną całkowitą wagę spośród wszystkich takich zbiorów krawędzi. W naszym przypadku, wyróżnione węzły to nietrywialne zdarzenia wrażliwe na błędy (jeśli występuje nieparzysta liczba, wyróżniony jest również węzeł graniczny), a wagi krawędzi są albo ustawione na jeden (metoda jednolita), albo jako log(p_e), gdzie p_e jest prawdopodobieństwem krawędzi (metoda analityczna). Ta ostatnia opcja oznacza, że całkowita waga zbioru krawędzi jest równa logarytmowi prawdopodobieństwa tego zbioru, a dopasowanie doskonałe o minimalnej wadze próbuje zmaksymalizować to prawdopodobieństwo nad krawędziami na grafie. Mając dopasowanie doskonałe o minimalnej wadze, można użyć etykiet logicznych krawędzi w dopasowaniu, aby zdecydować o korekcie stanu logicznego. Alternatywnie, graf błędów X (błędów Z) dla dekodera dopasowującego jest taki, że każda krawędź może być powiązana z kubitem kodu (lub błędem pomiaru), tak że uwzględnienie krawędzi w dopasowaniu oznacza, że korekta X (Z) powinna być zastosowana do odpowiedniego kubitu. Dekodowanie największego prawdopodobieństwa (MLD) jest optymalną, choć nieskalowalną, metodą dekodowania kwantowych kodów korygujących błędy. W swojej pierwotnej koncepcji, MLD było stosowane do fenomenologicznych modeli szumu, gdzie błędy występują tuż przed pomiarami syndromów. To oczywiście ignoruje bardziej realistyczny przypadek, w którym błędy mogą propagować przez obwód pomiaru syndromu. Bardziej niedawno, MLD zostało rozszerzone o uwzględnienie szumu obwodu. Tutaj opisujemy, jak MLD koryguje szum obwodu przy użyciu hipergrafu dekodowania. MLD dedukuje najbardziej prawdopodobną korektę logiczną na podstawie obserwacji zdarzeń wrażliwych na błędy. Odbywa się to poprzez obliczenie rozkładu prawdopodobieństwa Pr[β, γ], gdzie β reprezentuje zdarzenia wrażliwe na błędy, a γ reprezentuje korektę logiczną. Możemy obliczyć Pr[β, γ], uwzględniając każdą krawędź hiperpłaszczyzny z hipergrafu dekodowania, Rys. 1c-f, zaczynając od rozkładu bezbłędnego, tj. Pr[0|^V|, 0^2k] = 1. Jeśli krawędź hiperpłaszczyzny h ma prawdopodobieństwo ph wystąpienia, niezależnie od innych krawędzi hiperpłaszczyzny, uwzględniamy h, wykonując aktualizację gdzie βh jest tylko binarną reprezentacją wektorową krawędzi hiperpłaszczyzny. Ta aktualizacja powinna być zastosowana raz dla każdej krawędzi hiperpłaszczyzny w E. Gdy Pr[β, γ] zostanie obliczone, możemy użyć go do dedukcji najlepszej korekty logicznej. Jeśli β* jest obserwowany w przebiegu eksperymentu, wskazuje, jak należy skorygować pomiary operatorów logicznych. Więcej szczegółów na temat konkretnych implementacji MLD można znaleźć w Metodach „Implementacje największego prawdopodobieństwa”. Realizacja eksperymentalna Do tej demonstracji używamy ibm_peekskill v2.0.0, 27-kubitowego procesora IBM Quantum Falcon, którego mapa połączeń umożliwia kod ciężkiego heksagonu o odległości 3, patrz Rys. 1. Całkowity czas pomiaru kubitu i późniejszego warunkowego resetowania w czasie rzeczywistym, dla każdej rundy, wynosi 768 ns i jest taki sam dla wszystkich kubitów. Wszystkie pomiary syndromów i resetowania odbywają się jednocześnie dla zwiększenia wydajności. Prosta sekwencja odsprzęgania dynamicznego Xπ-Xπ jest dodawana do wszystkich kubitów kodu podczas ich odpowiednich okresów bezczynności. Wyciek kubitu jest znaczącym powodem, dla którego model depolaryzującego błędu Pauliego, założony przez projekt dekodera, może być niedokładny. W niektórych przypadkach możemy wykryć, czy kubit wyciekł z podprzestrzeni obliczeniowej w momencie jego pomiaru (więcej informacji o metodzie post-selekcji i jej ograniczeniach można znaleźć w Metodach „Metoda post-selekcji”). Wykorzystując to, możemy post-wybrać przebiegi eksperymentu, gdy nie wykryto wycieku, podobnie jak w publikacji. Na Rys. 2a, inicjalizujemy logiczny stan |0⟩L i stosujemy r rund pomiaru syndromu, gdzie jedna runda obejmuje stabilizatory X i Z (całkowity czas około 5,3 μs na rundę, Rys. 1b). Używając analitycznego dekodowania przez dopasowanie doskonałe na pełnym zbiorze danych (500 000 strzałów na przebieg), wyciągamy błędy logiczne na Rys. 2a, czerwone (niebieskie) trójkąty. Szczegóły zoptymalizowanych parametrów użytych w analitycznym dekodowaniu przez dopasowanie doskonałe można znaleźć w Metodach „IBM_Peekskill i szczegóły eksperymentalne”. Dopasowując pełne krzywe zaniku (równanie (14)) do 10 rund, wyciągamy błąd logiczny na rundę bez post-selekcji na Rys. 2b wynoszący 0,059(2) (0,058(3)) dla stanów |0⟩L (|1⟩L) i 0,113(5) (0,107(4)) dla stanów |+⟩L (|−⟩L). Błąd logiczny w zależności od liczby rund pomiaru syndromu r, gdzie jedna runda obejmuje pomiar stabilizatorów Z i X. Niebieskie trójkąty skierowane w prawo (czerwone trójkąty) oznaczają błędy logiczne uzyskane z użycia analitycznego dekodowania dopasowującego na surowych danych eksperymentalnych dla stanów |0⟩L (|1⟩L). Jasnoniebieskie kwadraty (jasnoczerwone kółka) oznaczają te dla stanów |+⟩L (|−⟩L) przy użyciu tej samej metody dekodowania, ale z użyciem danych eksperymentalnych post-wybranych pod kątem wycieku. Paski błędów wskazują błąd próbkowania każdego przebiegu (500 000 strzałów dla surowych danych, zmienna liczba strzałów dla post-wybranych). Linie przerywane dopasowań błędu dają błąd na rundę, przedstawiony na . Zastosowanie tej samej metody dekodowania do danych post-wybranych pod kątem wycieku, pokazuje znaczną redukcję całkowitego błędu dla wszystkich czterech stanów logicznych. Patrz Metody „Metoda post-selekcji” dla szczegółów post-selekcji. Dopasowane wskaźniki odrzutu na rundę dla |0⟩L, |1⟩L, |+⟩L, |−⟩L wynoszą odpowiednio 4,91%, 4,64%, 4,37% i 4,89%. Paski błędów wskazują jedną odchylenie standardowe na dopasowany wskaźnik. , Używając danych post-wybranych, porównujemy błąd logiczny uzyskany za pomocą czterech dekoderów: dopasowanie jednorodne (różowe kółka), dopasowanie analityczne (zielone kółka), dopasowanie analityczne z miękkimi informacjami (szare kółka) i największe prawdopodobieństwo (niebieskie kółka). (Patrz Rys. 6 dla |1⟩L i |−⟩L). Dopasowane wskaźniki dopasowania przedstawione na , . Paski błędów wskazują błąd próbkowania. , Porównanie dopasowanego błędu na rundę dla wszystkich czterech stanów logicznych przy użyciu dekoderów dopasowanie jednorodne (różowe), dopasowanie analityczne (zielone), dopasowanie analityczne z miękkimi informacjami (szare) i największe prawdopodobieństwo (niebieskie) na danych post-wybranych pod kątem wycieku. Paski błędów wskazują jedną odchylenie standardowe na dopasowany wskaźnik. a b b c d e f e f Zastosowanie tej samej metody dekodowania do danych post-wybranych pod kątem wycieku zmniejsza błędy logiczne na Rys. 2a i prowadzi do dopasowanych wskaźników błędów wynoszących odpowiednio 0,041(1) (0,044(4)) dla |0⟩L (|1⟩L) i 0,088(3) (0,085(3)) dla |+⟩L (|−⟩L), jak pokazano na Rys. 2b. Wskaźniki odrzutu na rundę z post-selekcji dla |0⟩L, |1⟩L, |+⟩L i |−⟩L wynoszą odpowied