Autoren: Youngseok Kim Andrew Eddins Sajant Anand Ken Xuan Wei Ewout van den Berg Sami Rosenblatt Hasan Nayfeh Yantao Wu Michael Zaletel Kristan Temme Abhinav Kandala Zusammenfassung Quantencomputing verspricht für bestimmte Probleme erhebliche Geschwindigkeitssteigerungen gegenüber seinem klassischen Gegenstück. Das größte Hindernis für die Realisierung seines vollen Potenzials sind jedoch die inhärenten Störungen dieser Systeme. Die allgemein anerkannte Lösung für diese Herausforderung ist die Implementierung fehlertoleranter Quantenschaltkreise, die für aktuelle Prozessoren außer Reichweite ist. Hier berichten wir über Experimente auf einem verrauschten 127-Qubit-Prozessor und demonstrieren die Messung genauer Erwartungswerte für Schaltungsvolumina, die über die Brute-Force-klassische Berechnung hinausgehen. Wir argumentieren, dass dies ein Beweis für den Nutzen des Quantencomputings in einer Ära vor der Fehlertoleranz ist. Diese experimentellen Ergebnisse werden durch Fortschritte bei der Kohärenz und Kalibrierung eines supraleitenden Prozessors dieser Größenordnung sowie durch die Fähigkeit ermöglicht, Rauschen auf einem so großen Gerät zu charakterisieren und kontrolliert zu manipulieren. Wir etablieren die Genauigkeit der gemessenen Erwartungswerte, indem wir sie mit den Ergebnissen von exakt verifizierbaren Schaltungen vergleichen. Im Regime starker Verschränkung liefert der Quantencomputer korrekte Ergebnisse, für die führende klassische Näherungen wie reinzustandsbasierte 1D- (Matrixproduktzustände, MPS) und 2D- (isometrische Tensornetzwerkzustände, isoTNS) Tensornetzwerkmethoden zusammenbrechen. Diese Experimente demonstrieren ein grundlegendes Werkzeug für die Realisierung von Quantenanwendungen der nahen Zukunft. Hauptteil Es ist fast allgemein anerkannt, dass fortgeschrittene Quantenalgorithmen wie Faktorisierung oder Phasenschätzung eine Quantenfehlerkorrektur erfordern werden. Es wird jedoch intensiv diskutiert, ob die derzeit verfügbaren Prozessoren ausreichend zuverlässig gemacht werden können, um andere Quantenschaltkreise mit geringerer Tiefe in einer Größenordnung auszuführen, die einen Vorteil für praktische Probleme bieten könnte. Zu diesem Zeitpunkt besteht die konventionelle Erwartung, dass die Implementierung selbst einfacher Quantenschaltungen mit dem Potenzial, klassische Fähigkeiten zu übertreffen, warten muss, bis fortgeschrittenere, fehlertolerante Prozessoren verfügbar sind. Trotz des enormen Fortschritts der Quantenhardware in den letzten Jahren unterstützen einfache Treuegrenzen diese düstere Prognose; eine Schätzung besagt, dass ein Quantenschaltkreis mit 100 Qubits Breite und 100 Gatterebenen Tiefe, der mit 0,1 % Gatterfehlern ausgeführt wird, eine Zustandsgenauigkeit von weniger als 5 × 10−4 ergibt. Nichtsdestotrotz bleibt die Frage, ob Eigenschaften des idealen Zustands auch bei solch geringen Genauigkeiten zugänglich sind. Der Ansatz der Fehlerminderung für den Quantenvorteil von Quantencomputern der nahen Zukunft auf verrauschten Geräten befasst sich genau mit dieser Frage, d.h. dass man genaue Erwartungswerte aus mehreren verschiedenen Durchläufen der verrauschten Quantenschaltung mithilfe klassischer Nachverarbeitung erzeugen kann. Der Quantenvorteil kann in zwei Schritten erreicht werden: Erstens durch den Nachweis der Fähigkeit bestehender Geräte, genaue Berechnungen in einer Größenordnung durchzuführen, die über die brute-force-klassische Simulation hinausgeht, und zweitens durch das Finden von Problemen mit zugehörigen Quantenschaltungen, die einen Vorteil aus diesen Geräten ziehen. Hier konzentrieren wir uns auf den ersten Schritt und zielen nicht darauf ab, Quantenschaltungen für Probleme mit nachgewiesenen Geschwindigkeitssteigerungen zu implementieren. Wir verwenden einen supraleitenden Quantenprozessor mit 127 Qubits, um Quantenschaltungen mit bis zu 60 Ebenen von Zwei-Qubit-Gittern auszuführen, insgesamt 2.880 CNOT-Gatter. Allgemeine Quantenschaltungen dieser Größe liegen jenseits dessen, was mit brute-force-klassischen Methoden machbar ist. Wir konzentrieren uns daher zunächst auf spezifische Testfälle von Schaltungen, die eine exakte klassische Überprüfung der gemessenen Erwartungswerte ermöglichen. Dann wenden wir uns Schaltungsregimen und Beobachtbaren zu, bei denen die klassische Simulation herausfordernd wird, und vergleichen sie mit Ergebnissen von hochmodernen approximativen klassischen Methoden. Unsere Benchmark-Schaltung ist die Trotterisierte Zeitevolution eines 2D-Transversal-Ising-Modells, das die Topologie des Qubit-Prozessors teilt (Abb.). Das Ising-Modell tritt in verschiedenen Bereichen der Physik häufig auf und hat kreative Erweiterungen in neueren Simulationen gefunden, die Quanten-Vielteilchenphänomene wie Zeitkristalle, Quantennarben und Majorana-Randmoden untersuchen. Als Test für die Nützlichkeit der Quantenberechnung ist die Zeitevolution des 2D-Transversal-Ising-Modells jedoch im Grenzfall des großen Verschränkungswachstums am relevantesten, in dem skalierbare klassische Näherungen Schwierigkeiten haben. , Jeder Trotterschritt der Ising-Simulation umfasst einzelne Qubits und Zwei-Qubit- -Rotationen. Zufällige Pauli-Gatter werden eingefügt, um das Rauschen jeder CNOT-Schicht zu verwirbeln (Spiralen) und kontrolliert zu skalieren. Der Dagger zeigt die Konjugation durch die ideale Schicht an. , Drei CNOT-Gatter-Schichten der Tiefe 1 reichen aus, um Wechselwirkungen zwischen allen benachbarten Paaren auf ibm_kyiv zu realisieren. , Charakterisierungsexperimente lernen effizient die lokalen Pauli-Fehlerraten (Farbskalen), die den gesamten Pauli-Kanal Λ , der mit der -ten verwirbelten CNOT-Schicht assoziiert ist, umfassen. (Abbildung erweitert in den ergänzenden Informationen [cite:IV.A]). , Pauli-Fehler, die proportionalen Raten eingefügt werden, können verwendet werden, um das intrinsische Rauschen entweder zu kompensieren (PEC) oder zu verstärken (ZNE). a X ZZ b c λl,i l l d Insbesondere betrachten wir die Zeitdynamik des Hamiltonians, wobei > 0 die Kopplung benachbarter Spins mit < und das globale transversale Feld ist. Die Spindynamik von einem Anfangszustand aus kann mittels einer erststufigen Trotter-Zerlegung des Zeitevolutionoperators simuliert werden, J i j h wobei die Evolutionszeit in / Trotterschritte diskretisiert wird und und Rotationsgatter sind. Wir befassen uns nicht mit dem Modellfehler aufgrund der Trotterisierung und betrachten daher die trotterisierte Schaltung als ideal für jeden klassischen Vergleich. Aus experimenteller Einfachheit konzentrieren wir uns auf den Fall = −2 = −π/2, so dass die -Rotation nur ein CNOT erfordert, T T δt θJ Jδt ZZ wobei die Gleichheit bis auf eine globale Phase gilt. In der resultierenden Schaltung (Abb. [cite:1a]) besteht jeder Trotterschritt aus einer Ebene von Einzel-Qubit-Rotationen, R ( ), gefolgt von kommutierenden Ebenen von parallelisierten Zwei-Qubit-Rotationen, R ( ). X θh ZZ θJ Für die experimentelle Implementierung verwendeten wir hauptsächlich den IBM Eagle Prozessor ibm_kyiv, der aus 127 festfrequenten Transmon-Qubits mit Heavy-Hex-Konnektivität und mittleren 1- und 2-Zeiten von 288 μs bzw. 127 μs besteht. Diese Kohärenzzeiten sind beispiellos für supraleitende Prozessoren dieser Größenordnung und ermöglichen die in dieser Arbeit untersuchten Schaltungstiefen. Die Zwei-Qubit-CNOT-Gatter zwischen Nachbarn werden durch Kalibrierung der Cross-Resonance-Wechselwirkung realisiert. Da jedes Qubit höchstens drei Nachbarn hat, können alle -Wechselwirkungen in drei Ebenen von parallelisierten CNOT-Gattern durchgeführt werden (Abb. [cite:1b]). Die CNOT-Gatter in jeder Ebene werden für optimale simultane Operation kalibriert (siehe [cite:Methoden] für weitere Details). T T ZZ Wir sehen nun, dass diese Verbesserungen der Hardwareleistung noch größere Probleme ermöglichen, die erfolgreich mit Fehlerminderung ausgeführt werden können, im Vergleich zu neueren Arbeiten auf dieser Plattform. Probabilistische Fehlerkompensation (PEC) hat sich als sehr effektiv erwiesen, um unverzerrte Schätzungen von Beobachtbaren zu liefern. Bei PEC wird ein repräsentatives Rauschmodell gelernt und effektiv invertiert, indem aus einer Verteilung von verrauschten Schaltungen, die mit dem gelernten Modell zusammenhängen, abgetastet wird. Für die aktuellen Fehlerraten auf unserem Gerät bleibt jedoch der Abtastaufwand für die in dieser Arbeit betrachteten Schaltungsvolumina restriktiv, wie unten weiter diskutiert. Wir wenden uns daher der Null-Rausch-Extrapolation (ZNE) zu, die einen verzerrten Schätzer mit potenziell viel geringerem Abtastaufwand liefert. ZNE ist entweder eine polynomiale oder exponentielle Extrapolationsmethode für verrauschte Erwartungswerte als Funktion eines Rauschparameters. Dies erfordert die kontrollierte Verstärkung des intrinsischen Hardware-Rauschens durch einen bekannten Gewinnfaktor , um zum idealen Ergebnis = 0 zu extrapolieren. ZNE wurde weit verbreitet übernommen, teilweise weil Rauschverstärkungsschemata, die auf Pulsdehnung oder Subschaltungswiederholung basieren, die Notwendigkeit einer präzisen Rauschermittlung umgangen haben, während sie von simplen Annahmen über das Geräterauschen abhängen. Eine präzisere Rauschverstärkung kann jedoch zu erheblichen Reduzierungen der Verzerrung des extrapolierten Schätzers führen, wie wir hier zeigen. G G Das in vorgeschlagene sparse Pauli-Lindblad-Rauschmodell eignet sich besonders gut für die Rauschformung in ZNE. Das Modell hat die Form , wobei ein Lindbladian ist, der Pauli-Sprungoperatoren mit Raten umfasst. Es wurde in gezeigt, dass die Beschränkung auf Sprungoperatoren, die auf lokalen Qubit-Paaren wirken, ein sparse Rauschmodell ergibt, das effizient gelernt werden kann und das, trotz seiner Einfachheit, Rauschfehler erfasst, einschließlich Crosstalk, wenn es mit zufälligen Pauli-Twirls kombiniert wird. Die verrauschte Gatterschicht wird als eine Reihe von idealen Gattern modelliert, denen ein Rauschkanal Λ vorangestellt ist. Das Anwenden von Λ vor der verrauschten Schicht erzeugt somit einen Gesamtrauschkanal Λ mit Gewinn = + 1. Angesichts der exponentiellen Form des Pauli-Lindblad-Rauschmodells wird die Abbildung durch einfaches Multiplizieren der Pauli-Raten mit erhalten. Die resultierende Pauli-Karte kann abgetastet werden, um geeignete Schaltungsinstanzen zu erhalten; für ≥ 0 ist die Karte ein Pauli-Kanal, der direkt abgetastet werden kann, während für < 0 quasi-probabilistische Abtastung mit einem Abtastaufwand von −2 für ein modellspezifisches erforderlich ist. Bei PEC wählen wir = −1, um eine Gesamtrauschpegel von Nullgewinn zu erhalten. Bei ZNE verstärken wir stattdessen das Rauschen auf verschiedene Gewinnniveaus und schätzen die Null-Rausch-Grenze mithilfe von Extrapolation. Für praktische Anwendungen müssen wir die Stabilität des gelernten Rauschmodells im Laufe der Zeit berücksichtigen (ergänzende Informationen [cite:III.A]), zum Beispiel aufgrund von Qubit-Wechselwirkungen mit fluktuierenden mikroskopischen Defekten, die als Zwei-Niveau-Systeme bekannt sind. Pi λi α G G α λi α α α γ α γ α Clifford-Schaltungen dienen als nützliche Benchmarks für Schätzungen, die durch Fehlerminderung erzeugt werden, da sie klassisch effizient simuliert werden können. Insbesondere die gesamte Ising-Trotter-Schaltung wird zu einer Clifford-Schaltung, wenn als Vielfaches von π/2 gewählt wird. Als erstes Beispiel setzen wir daher das transversale Feld auf Null (R (0) = ) und entwickeln den Anfangszustand |0⟩⊗127 (Abb. [cite:1a]). Die CNOT-Gatter lassen diesen Zustand nominell unverändert, so dass die idealen Gewicht-1-Beobachtbaren alle den Erwartungswert 1 haben; aufgrund der Pauli-Verwirbelung jeder Schicht beeinflussen die bloßen CNOTs den Zustand. Für jedes Trotter-Experiment charakterisierten wir zunächst die Rauschmodelle Λ für die drei Pauli-verwirbelten CNOT-Schichten (Abb. [cite:1c]) und nutzten diese Modelle dann, um Trotter-Schaltungen mit Rauschgewinnniveaus ∈ {1, 1.2, 1.6} zu implementieren. Abbildung [cite:2a] veranschaulicht die Schätzung von ⟨ 106⟩ nach vier Trotterschritten (12 CNOT-Schichten). Für jedes generierten wir 2.000 Schaltungsinstanzen, bei denen vor jeder Schicht Produkte von Ein-Qubit- und Zwei-Qubit-Pauli-Fehlern aus gezogen mit Wahrscheinlichkeiten eingefügt wurden und jede Instanz 64 Mal ausgeführt wurde, was insgesamt 384.000 Ausführungen ergibt. Mit zunehmender Anzahl von Schaltungsinstanzen konvergieren die Schätzungen von ⟨ 106⟩ , die den verschiedenen Gewinnen entsprechen, zu unterschiedlichen Werten. Die verschiedenen Schätzungen werden dann durch eine extrapolierende Funktion in angepasst, um den idealen Wert ⟨ 106⟩0 zu schätzen. Die Ergebnisse in Abbildung [cite:2a] heben die reduzierte Verzerrung durch exponentielle Extrapolation im Vergleich zur linearen Extrapolation hervor. Dennoch kann die exponentielle Extrapolation Instabilitäten aufweisen, zum Beispiel wenn Erwartungswerte nicht unterscheidbar nahe Null sind, und – in solchen Fällen – stufen wir die Komplexität des Extrapolationsmodells iterativ herunter (siehe ergänzende Informationen [cite:II.B]). Das in Abbildung [cite:2a] skizzierte Verfahren wurde auf die Messergebnisse jedes Qubits angewendet, um alle = 127 Pauli-Erwartungswerte ⟨ ⟩0 zu schätzen. Die Variation in den unverminderten und geminderten Beobachtbaren in Abbildung [cite:2b] deutet auf die Ungleichmäßigkeit der Fehlerraten im gesamten Prozessor hin. Wir berichten über die globale Magnetisierung entlang , , für zunehmende Tiefe in Abbildung [cite:2c]. Obwohl das unverminderte Ergebnis einen allmählichen Verfall von 1 mit zunehmender Abweichung für tiefere Schaltungen zeigt, verbessert ZNE die Übereinstimmung erheblich, wenn auch mit einer geringen Verzerrung, mit dem idealen Wert, selbst bis zu 20 Trotterschritten oder 60 CNOT-Tiefe. Bemerkenswerterweise ist die hier verwendete Stichprobengröße viel kleiner als eine Schätzung des Abtastaufwands, der bei einer naiven PEC-Implementierung benötigt würde (siehe ergänzende Informationen [cite:IV.B]). Im Prinzip kann diese Disparität durch fortgeschrittenere PEC-Implementierungen, die Light-Cone-Tracing verwenden, oder durch Verbesserungen der Hardware-Fehlerraten erheblich reduziert werden. Da zukünftige Hardware- und Softwareentwicklungen die Abtastkosten senken, kann PEC bevorzugt werden, wenn sie erschwinglich ist, um die potenziell verzerrte Natur von ZNE zu vermeiden. θh X I Zq l G Z G l i Z G G G Z q N Zq Geminderte Erwartungswerte von Trotter-Schaltungen unter Clifford-Bedingung = 0. , Konvergenz von unverminderten ( = 1), rausserverschärften ( > 1) und rausverminderten (ZNE) Schätzungen von ⟨ 106⟩ nach vier Trotterschritten. In allen Tafeln geben Fehlerbalken 68%ige Konfidenzintervalle an, die mittels Perzentil-Bootstrap erhalten wurden. Die exponentielle Extrapolation (exp, dunkelblau) tendiert dazu, die lineare Extrapolation (linear, hellblau) zu übertreffen, wenn die Unterschiede zwischen den konvergierten Schätzungen von ⟨ 106⟩ ≠0 gut aufgelöst sind. , Die Magnetisierung (große Marker) wird als Mittelwert der einzelnen Schätzungen von ⟨ ⟩ für alle Qubits (kleine Marker) berechnet. , Mit zunehmender Schaltungstiefe nimmt die unverminderte Schätzung von monoton von dem idealen Wert 1 ab. ZNE verbessert die Schätzungen erheblich, selbst nach 20 Trotterschritten (siehe ergänzende Informationen [cite:II] für ZNE-Details). θh a G G Z Z G b Zq c Mz Als nächstes testen wir die Wirksamkeit unserer Methoden für Nicht-Clifford-Schaltungen und den Clifford-Punkt = π/2 mit nicht-trivialer verschränkender Dynamik im Vergleich zu den identischen Schaltungen, die in Abbildung diskutiert wurden. Die Nicht-Clifford-Schaltungen sind von besonderer Bedeutung für Tests, da die Gültigkeit der exponentiellen Extrapolation nicht mehr garantiert ist (siehe ergänzende Informationen [cite:V] und). Wir beschränken die Schaltungstiefe auf fünf Trotterschritte (15 CNOT-Schichten) und wählen gezielt Beobachtbare, die exakt verifizierbar sind. Abbildung zeigt die Ergebnisse, wenn zwischen 0 und π/2 für drei solche Beobachtbaren zunehmenden Gewichts durchlaufen wird. Abbildung [cite:3a] zeigt wie zuvor, einen Durchschnitt von Gewicht-1 ⟨ ⟩ Beobachtbaren, während Abbildung [cite:3b,c] Gewicht-10 und Gewicht-17 Beobachtbare zeigen. Letztere Operatoren sind Stabilisatoren der Clifford-Schaltung bei = π/2, die durch die Entwicklung der Anfangsstabilisatoren 13 und 58 bzw. von |0⟩⊗127 für fünf Trotterschritte erhalten werden, wodurch nicht-verschwindende Erwartungswerte im stark verschränkenden Regime von besonderem Interesse sichergestellt werden. Obwohl die gesamte 127-Qubit-Schaltung experimentell ausgeführt wird, ermöglichen Light-Cone- und Tiefe-reduzierte (LCDR)-Schaltungen eine brute-force-klassische Simulation der Magnetisierung und des Gewicht-10-Operators bei dieser Tiefe (siehe ergänzende Informationen [cite:VII]). Über den gesamten Bereich des -Durchlaufs zeigen die fehlerminderten Beobachtbaren eine gute Übereinstimmung mit der exakten Entwicklung (siehe Abb. [cite:3a,b]). Für den Gewicht-17-Operator expandiert der Lichtkegel jedoch auf 68 Qubits, eine Größenordnung jenseits der brute-force-klassischen Simulation, so dass wir auf Tensornetzwerkmethoden zurückgreifen. θh θh Mz Z θh Z Z θh Erwartungswertschätzungen für -Durchläufe bei einer festen Tiefe von fünf Trotterschritten für die Schaltung in Abb. [cite:1a]. Die betrachteten Schaltungen sind Nicht-Clifford, außer bei = 0, π/2. Lichtkegel- und Tiefenreduktionen von jeweiligen Schaltungen ermöglichen eine exakte klassische Simulation der Beobachtbaren für alle . Für alle drei dargestellten Größen (Titel der Tafeln) verfolgen die geminderten experimentellen Ergebnisse (blau) eng das exakte Verhalten (grau). In allen Tafeln geben Fehlerbalken 68%ige Konfidenzintervalle an, die mittels Perzentil-Bootstrap erhalten wurden. Die Gewicht-10- und Gewicht-17-Beobachtbaren in und sind Stabilisatoren der Schaltung bei = π/2 mit den jeweiligen Eigenwerten +1 und −1; alle Werte in wurden zur visuellen Vereinfachung negiert. Der untere Ausschnitt in zeigt die Variation von ⟨ ⟩ bei = 0.2 über das Gerät vor und nach der Minderung und vergleicht sie mit exakten Ergebnissen. Obere Ausschnitte in allen Tafeln veranschaulichen kausale Lichtkegel, die in blau die endgültig gemessenen Qubits (oben) und die nominelle Menge der Anfangs-Qubits, die den Zustand der End-Qubits beeinflussen können (unten), anzeigen. hängt auch von 126 weiteren Kegeln ab, außer dem gezeigten Beispiel. Obwohl in allen Tafeln exakte Ergebnisse aus Simulationen von nur kausalen Qubits stammen, schließen wir Tensornetzwerksimulationen aller 127 Qubits (MPS, isoTNS) ein, um die Gültigkeitsdomäne für diese Techniken zu bewerten, wie im Haupttext diskutiert. isoTNS-Ergebnisse für den Gewicht-17-Operator in sind mit aktuellen Methoden nicht zugänglich (siehe ergänzende Informationen [cite:VI]). Alle Experimente wurden für = 1, 1.2, 1.6 durchgeführt und wie in den ergänzenden Informationen [cite:II.B] extrapoliert. Für jedes generierten wir 1.800–2.000 Zufallsschaltungsinstanzen für und und 2.500–3.000 Instanzen für . θh θh θh b c θh c a Zq θh Mz c G G a b c Tensornetzwerke werden seit langem zur Annäherung und Komprimierung von Quantenzustandsvektoren verwendet, die bei der Untersuchung von niederenergetischen Eigenzuständen und der Zeitevolution durch lokale Hamiltonians entstehen und wurden kürzlich erfolgreich zur Simulation von verrauschten Quantenschaltungen mit geringer Tiefe eingesetzt. Die Simulationsgenauigkeit kann durch Erhöhung der Bindungsdimension verbessert werden, was die Menge der Verschränkung des dargestellten Quantenzustands begrenzt, bei einer Rechenkosten-Skalierung polynomial mit . Da die Verschränkung (Bindungsdimension) eines generischen Zustands linear (exponentiell) mit der Zeitevolution wächst, bis sie das Volumen-Gesetz sättigt, sind tiefe Quantenschaltungen für Tensornetzwerke inhärent schwierig. Wir betrachten sowohl quasi-1D-Matrixproduktzustände (MPS) als auch 2D-isometrische Tensornetzwerkzustände (isoTNS), die eine - bzw. ²-Skalierung der Zeitevolutionskomplexität aufweisen. Details zu beiden Methoden und ihren Stärken finden Sie in [cite:Methoden] und den ergänzenden Informationen [cite:VI]. Insbesondere für den Fall des Gewicht-17-Operators, der in Abbildung [cite:3c] gezeigt wird, stellen wir fest, dass eine MPS-Simulation der LCDR-Schaltung bei = 2.048 ausreicht, um die exakte Entwicklung zu erhalten (siehe ergänzende Informationen [cite:VIII]). Der größere kausale Kegel des Gewicht-17-Beobachtbaren führt zu einem experimentellen Signal, das im Vergleich zum Gewicht-10-Beobachtbaren schwächer ist; dennoch liefert die Minderung immer noch eine gute Übereinstimmung mit der exakten Spur. Dieser Vergleich legt nahe, dass die Domäne der experimentellen Genauigkeit über die Skala der exakten klassischen Simulation hinausgehen könnte. χ χ χ χ χ Wir erwarten, dass diese Experimente schließlich auf Schaltungsvolumina und Beobachtbare ausgedehnt werden, bei denen solche Lichtkegel- und Tiefenreduktionen nicht mehr wichtig sind. Daher untersuchen wir auch die Leistung von MPS und isoTNS für die vollständige 127-Qubit-Schaltung, die in Abbildung ausgeführt wurde, bei den jeweiligen Bindungsdimensionen = 1.024 bzw. = 12, die hauptsächlich durch Speicheranforderungen begrenzt sind. Abbildung zeigt, dass die Tensornetzwerkmethoden mit zunehmendem zu kämpfen haben und sowohl an Genauigkeit als auch an Kontinuität nahe dem verifizierbaren Clifford-Punkt = π/2 verlieren. Dieser Zusammenbruch kann anhand der Verschränkungseigenschaften des Zustands verstanden werden. Der Stabilisatorzustand, der von der Schaltung bei = π/2 erzeugt wird, hat ein exakt flaches bipartites Verschränkungsspektrum, das aus einer Schmidt-Zerlegung einer 1D-Anordnung der Qubits ermittelt wird. Daher ist die Kürzung von Zuständen mit kleinem Schmidt-Gewicht – der Grundlage aller Tensornetzwerkalgorithmen – nicht gerechtfertigt. Da jedoch exakte Tensornetzwerkdarstellungen generisch eine Bindungsdimension erfordern, die exponentiell mit der Schaltungstiefe wächst, ist die Kürzung für behandelbare numerische Simulationen notwendig. χ χ θh θh θh Schließlich dehnen wir in Abbildung unsere Experimente auf Regime aus, in denen die exakte Lösung mit den hier betrachteten klassischen Methoden nicht verfügbar ist. Das erste Beispiel (Abb. [cite:4a]) ähnelt Abb. [cite:3c], aber mit einer weiteren abschließenden Ebene von einzelnen Qubit-Pauli-Rotationen, die die Schaltungstiefenreduktion unterbrechen, die zuvor eine exakte Verifizierung für jedes ermöglichte (siehe ergänzende Informationen [cite:VII]). Am verifizierbaren Clifford-Punkt = π/2 stimmen die geminderten Ergebnisse wieder mit dem idealen Wert überein, während die MPS-Simulation ( = 3.072) der 68-Qubit-LCDR-Schaltung im stark verschränkenden interessierenden Regime deutlich versagt. Obwohl = 2.048 für die exakte Simulation des Gewicht-17-Operators in Abbildung [cite:3c] ausreichte, wäre eine MPS-Bindungsdimension von 32.768 für die exakte Simulation dieser modifizierten Schaltung und des Operators bei = π/2 erforderlich. θh θh χ χ θh Plot-Marker, Konfidenzintervalle und kausale Lichtkegel erscheinen wie in Abb. definiert. , Schätzungen einer Gewicht-17-Beobachtbaren (Titel der Tafel) nach fünf Trotterschritten für mehrere Werte von . Die Schaltung ähnelt der in Abb. [cite:3c], jedoch mit zusätzlichen Einzel-Qubit-Rotationen am Ende. Dies simuliert effektiv die Zeitevolution der Spins nach dem Trotterschritt sechs unter Verwendung der gleichen Anzahl von Zwei-Qubit-Gattern wie für den Trotterschritt fünf. Wie in Abb. [cite:3c] ist die Beobachtbare ein Stabilisator bei = π/2 mit dem Eigenwert −1, daher negieren wir die -Achse zur visuellen Vereinfachung. Die Optimierung der MPS-Simulation durch Einbeziehung nur der Qubits und Gatter im kausalen Lichtkegel ermöglicht eine höhere Bindungsdimension ( = 3.072), aber die Simulation nähert sich bei = π/2 immer noch nicht −1 (oder +1 auf der negierten -Achse) an. , Schätzungen der Ein-Stellen-Magnetisierung 〈 62〉 nach 20 Trotterschritten für mehrere Werte von . Die MPS-Simulation ist lichtkegeloptimiert und mit der Bindungsdimension = 1.024 durchgeführt, während die isoTNS-Simulation ( = 12) die Gatter außerhalb des Lichtkegels einschließt. Die Experimente wurden mit = 1, 1.3, 1.6 für und = 1, 1.2, 1.6 für durchgeführt und wie in den ergänzenden Informationen [cite:II.B] extrapoliert. Für jedes generierten wir 2.000–3.200 Zufallsschaltungsinstanzen für und 1.700–2.400 Instanzen für . a θh θh y χ θh y b Z θh χ χ G a G b G a b Als letztes Beispiel dehnen wir die Schaltungstiefe auf 20 Trotterschritte (60 CNOT-Schichten) aus und schätzen die -Abhängigkeit einer Gewicht-1-Beobachtbaren, ⟨ 62⟩, in Abbildung [cite:4b], in der der kausale Kegel sich über das gesamte Gerät erstreckt. Angesichts der Ungleichmäßigkeit der Geräteperformance, die sich auch in der Streuung von Ein-Stellen-Beobachtbaren in Abbildung [cite:2b] zeigt, wählen wir eine Beobachtbare, die den erwarteten Wert ⟨ 62⟩ ≈ 1 am θh Z Z