Autoren: Youngseok Kim Andrew Eddins Sajant Anand Ken Xuan Wei Ewout van den Berg Sami Rosenblatt Hasan Nayfeh Yantao Wu Michael Zaletel Kristan Temme Abhinav Kandala Abstract Quantencomputing verspricht, für bestimmte Probleme erhebliche Geschwindigkeitssteigerungen gegenüber seinem klassischen Gegenstück zu bieten. Die größte Hürde für die Realisierung seines vollen Potenzials ist jedoch das Rauschen, das diesen Systemen inhärent ist. Die allgemein anerkannte Lösung für diese Herausforderung ist die Implementierung fehlertoleranter Quantenschaltkreise, die für aktuelle Prozessoren außer Reichweite liegt. Hier berichten wir über Experimente an einem verrauschten 127-Qubit-Prozessor und demonstrieren die Messung genauer Erwartungswerte für Schaltungsvolumina, die über die Bruttopreis-klassische Berechnung hinausgehen. Wir argumentieren, dass dies ein Beweis für den Nutzen des Quantencomputings in der Ära vor der Fehlertoleranz ist. Diese experimentellen Ergebnisse werden durch Fortschritte in der Kohärenz und Kalibrierung eines supraleitenden Prozessors dieser Größenordnung sowie durch die Fähigkeit ermöglicht, Rauschen auf einem so großen Gerät zu charakterisieren und kontrolliert zu manipulieren. Wir etablieren die Genauigkeit der gemessenen Erwartungswerte, indem wir sie mit den Ergebnissen exakt verifizierbarer Schaltungen vergleichen. Im Bereich der starken Verschränkung liefert der Quantencomputer korrekte Ergebnisse, bei denen führende klassische Näherungsmethoden wie reinzustandsbasierte 1D- (Matrixproduktzustände, MPS) und 2D- (isometrische Tensornetzwerkzustände, isoTNS) Tensornetzwerkmethoden versagen. Diese Experimente stellen ein grundlegendes Werkzeug für die Realisierung von Quantenanwendungen der nahen Zukunft dar. Main Es ist fast allgemein anerkannt, dass fortgeschrittene Quantenalgorithmen wie Faktorisierung oder Phasenabschätzung Quantenfehlerkorrektur erfordern. Es ist jedoch stark umstritten, ob derzeit verfügbare Prozessoren ausreichend zuverlässig gemacht werden können, um andere Quantenschaltungen mit geringerer Tiefe in einer Größenordnung auszuführen, die einen Vorteil für praktische Probleme bieten könnten. An diesem Punkt ist die konventionelle Erwartung, dass die Implementierung selbst einfacher Quantenschaltungen mit dem Potenzial, klassische Fähigkeiten zu übertreffen, warten muss, bis fortgeschrittenere, fehlertolerante Prozessoren verfügbar sind. Trotz der enormen Fortschritte in der Quantenhardware in den letzten Jahren stützen einfache Treuegrenzen diese düstere Prognose; man schätzt, dass eine Quantenschaltung von 100 Qubits Breite und 100 Gatterebenen Tiefe, die mit 0,1 % Gatterfehlern ausgeführt wird, eine Zustandsgenauigkeit von weniger als 5 × 10⁻⁴ ergibt. Nichtsdestotrotz bleibt die Frage, ob Eigenschaften des idealen Zustands auch bei solch geringen Genauigkeiten zugänglich sind. Der Ansatz der Fehlerabschwächung für den Quantenvorteil in der nahen Zukunft auf verrauschten Geräten befasst sich genau mit dieser Frage, d.h. dass man durch klassische Nachbearbeitung genaue Erwartungswerte aus mehreren verschiedenen Läufen der verrauschten Quantenschaltung erzeugen kann. Der Quantenvorteil kann in zwei Schritten erreicht werden: Erstens durch den Nachweis der Fähigkeit bestehender Geräte, genaue Berechnungen in einer Größenordnung durchzuführen, die über die Bruttopreis-klassische Simulation hinausgeht, und zweitens durch die Identifizierung von Problemen mit zugehörigen Quantenschaltungen, die einen Vorteil aus diesen Geräten ziehen. Hier konzentrieren wir uns auf den ersten Schritt und zielen nicht darauf ab, Quantenschaltungen für Probleme mit nachgewiesenen Geschwindigkeitssteigerungen zu implementieren. Wir verwenden einen supraleitenden Quantenprozessor mit 127 Qubits, um Quantenschaltungen mit bis zu 60 Ebenen von Zwei-Qubit-Gattern auszuführen, insgesamt 2.880 CNOT-Gatter. Allgemeine Quantenschaltungen dieser Größe liegen jenseits dessen, was mit Bruttopreis-klassischen Methoden machbar ist. Wir konzentrieren uns daher zunächst auf spezifische Testfälle von Schaltungen, die eine exakte klassische Verifizierung der gemessenen Erwartungswerte ermöglichen. Anschließend wenden wir uns Schaltungsparadigmen und Beobachtungen zu, bei denen die klassische Simulation schwierig wird, und vergleichen sie mit Ergebnissen aus modernsten approximativen klassischen Methoden. Unsere Benchmark-Schaltung ist die Trotterisierte Zeitevolution eines 2D-Transversalfeld-Ising-Modells, das die Topologie des Qubit-Prozessors teilt (Abb.). Das Ising-Modell taucht in verschiedenen Bereichen der Physik auf und wurde in neueren Simulationen, die Quanten-Vielteilchenphänomene untersuchen, kreativ erweitert, wie z. B. Zeitkristalle, Quanten-Narben und Majorana-Kantenmoden. Als Test für den Nutzen der Quantenberechnung ist die Zeitevolution des 2D-Transversalfeld-Ising-Modells jedoch im Grenzfall des großen Verschränkungszuwachses am relevantesten, bei dem skalierbare klassische Näherungen Schwierigkeiten haben. , Jeder Trotter-Schritt der Ising-Simulation umfasst Ein-Qubit- - und Zwei-Qubit- -Rotationen. Zufällige Pauli-Gatter werden eingefügt, um das Rauschen jeder CNOT-Schicht zu twirlen (Spiralen) und kontrolliert zu skalieren. Der Dagger zeigt die Konjugation durch die ideale Schicht an. – , Drei Tiefe-1-Schichten von CNOT-Gattern reichen aus, um Wechselwirkungen zwischen allen benachbarten Paaren auf ibm_kyiv zu realisieren. – , Charakterisierungsexperimente lernen effizient die lokalen Pauli-Fehlerraten (Farbskalen), die den gesamten Pauli-Kanal Λ ausmachen, der mit der -ten twirrlten CNOT-Schicht assoziiert ist. (Abbildung erweitert in den ergänzenden Informationen [cite:IV.A]). – , Pauli-Fehler, die in proportionalen Raten eingefügt werden, können verwendet werden, um das intrinsische Rauschen entweder zu annullieren (PEC) oder zu verstärken (ZNE). a X ZZ b c λl,i l l d Insbesondere betrachten wir die Zeitdynamik des Hamiltonians, in dem > 0 die Kopplung von nächstgelegenen Spins mit < und das globale transversale Feld ist. Die Spin-Dynamik von einem Anfangszustand kann mittels einer erststufigen Trotter-Zerlegung des Zeitentwicklungsoperators simuliert werden, J i j h in dem die Evolutionszeit in / Trotter-Schritte und und Rotationsgatter für bzw. diskretisiert wird. Wir befassen uns nicht mit dem Modellfehler, der durch die Trotterisierung entsteht, und betrachten daher die trotterisierte Schaltung als ideal für jeden klassischen Vergleich. Aus experimenteller Einfachheit konzentrieren wir uns auf den Fall = −2 = −π/2, so dass die -Rotation nur ein CNOT erfordert, T T δt ZZ X θJ Jδt ZZ wobei die Gleichheit bis auf eine globale Phase gilt. In der resultierenden Schaltung (Abb. [cite:1a]) entspricht jeder Trotter-Schritt einer Ebene von Ein-Qubit-Rotationen, R ( h), gefolgt von kommutierenden Ebenen von parallelisierten Zwei-Qubit-Rotationen, R ( ). X θ ZZ θJ Für die experimentelle Implementierung verwendeten wir hauptsächlich den IBM Eagle Prozessor ibm_kyiv, bestehend aus 127 Festfrequenz-Transmon-Qubits mit Heavy-Hex-Konnektivität und mittleren 1- und 2-Zeiten von 288 µs bzw. 127 µs. Diese Kohärenzzeiten sind für supraleitende Prozessoren dieser Größenordnung beispiellos und ermöglichen die in dieser Arbeit untersuchten Schaltungstiefen. Die Zwei-Qubit-CNOT-Gatter zwischen Nachbarn werden durch Kalibrierung der Cross-Resonance-Wechselwirkung realisiert. Da jedes Qubit höchstens drei Nachbarn hat, können alle -Wechselwirkungen in drei Ebenen parallelisierter CNOT-Gatter durchgeführt werden (Abb. [cite:1b]). Die CNOT-Gatter in jeder Ebene werden für optimale simultane Operation kalibriert (siehe Methoden für weitere Details). T T ZZ Wir sehen nun, dass diese Verbesserungen der Hardwareleistung noch größere Probleme ermöglichen, die erfolgreich mit Fehlerabschwächung ausgeführt werden können, im Vergleich zu neueren Arbeiten auf dieser Plattform. Probabilistische Fehlerkorrektur (PEC) hat sich als sehr effektiv erwiesen, um unverzerrte Schätzungen von beobachtbaren Größen zu liefern. Bei PEC wird ein repräsentatives Rauschmodell gelernt und effektiv invertiert, indem aus einer Verteilung von verrauschten Schaltungen, die mit dem gelernten Modell zusammenhängen, gesampelt wird. Für die aktuellen Fehlerraten unseres Geräts bleibt jedoch der Abtastaufwand für die in dieser Arbeit betrachteten Schaltungsvolumina restriktiv, wie unten weiter erläutert wird. Daher wenden wir uns der Null-Rausch-Extrapolation (ZNE) zu, die einen verzerrten Schätzer bei potenziell viel geringeren Abtastkosten liefert. ZNE ist entweder eine polynomiale oder eine exponentielle Extrapolationsmethode für verrauschte Erwartungswerte als Funktion eines Rauschparameters. Dies erfordert die kontrollierte Verstärkung des intrinsischen Hardware-Rauschens durch einen bekannten Gewinnfaktor , um zum idealen Ergebnis = 0 zu extrapolieren. ZNE wurde weit verbreitet übernommen, teilweise weil Rauschverstärkungsschemata, die auf Pulsdehnung oder Untercircuit-Wiederholung basieren, die Notwendigkeit einer präzisen Rauschermittlung umgangen haben, während sie auf vereinfachenden Annahmen über das Geräte-Rauschen beruhen. Eine präzisere Rauschverstärkung kann jedoch zu erheblichen Reduzierungen der Verzerrung des extrapolierten Schätzers führen, wie wir hier zeigen. G G Das in Ref. vorgeschlagene spärliche Pauli-Lindblad-Rauschmodell erweist sich für die Rauschformung in ZNE als besonders gut geeignet. Das Modell hat die Form , wobei ein Lindbladian ist, der Pauli-Sprungoperatoren mit Raten umfasst. Es wurde in Ref. gezeigt, dass die Beschränkung auf Sprungoperatoren, die auf lokalen Qubit-Paaren wirken, ein spärliches Rauschmodell ergibt, das für viele Qubits effizient gelernt werden kann und das Rauschen, das mit Ebenen von Zwei-Qubit-Clifford-Gattern verbunden ist, einschließlich Übersprechen, genau erfasst, wenn es mit zufälligen Pauli-Twirls kombiniert wird. Die verrauschte Gatterebene wird als eine Reihe von idealen Gattern modelliert, denen ein Rauschkanal Λ vorausgeht. Das Anwenden von Λ vor der verrauschten Ebene erzeugt daher einen Gesamt-Rauschkanal Λ mit Verstärkung = + 1. Angesichts der exponentiellen Form des Pauli-Lindblad-Rauschmodells wird die Abbildung durch einfaches Multiplizieren der Pauli-Raten mit erhalten. Die resultierende Pauli-Abbildung kann abgetastet werden, um geeignete Schaltungsinstanzen zu erhalten; für ≥ 0 ist die Abbildung ein Pauli-Kanal, der direkt abgetastet werden kann, während für < 0 quasi-probabilistisches Abtasten mit einem Abtastaufwand von ⁻² für ein modellspezifisches erforderlich ist. Bei PEC wählen wir = −1, um eine Gesamt-Nullverstärkungs-Rauschstufe zu erhalten. Bei ZNE verstärken wir stattdessen das Rauschen auf verschiedene Verstärkungsstufen und schätzen die Null-Rausch-Grenze mittels Extrapolation. Für praktische Anwendungen müssen wir die Stabilität des gelernten Rauschmodells im Laufe der Zeit berücksichtigen (ergänzende Informationen [cite:III.A]), beispielsweise aufgrund von Qubit-Wechselwirkungen mit fluktuierenden mikroskopischen Defekten, die als Zwei-Niveau-Systeme bekannt sind. Pi λi α G G α λi α α α γ α γ α Clifford-Schaltungen dienen als nützliche Benchmarks für Schätzungen, die durch Fehlerabschwächung erzielt werden, da sie klassisch effizient simuliert werden können. Insbesondere wird die gesamte Ising-Trotter-Schaltung zu einer Clifford-Schaltung, wenn h ein Vielfaches von π/2 ist. Als erstes Beispiel setzen wir daher das transversale Feld auf Null (R (0) = ) und entwickeln den Anfangszustand |0⟩⊗127 (Abb. [cite:1a]). Die CNOT-Gatter lassen diesen Zustand nominell unverändert, so dass die idealen Gewichts-1-Beobachtbaren alle den Erwartungswert 1 haben; aufgrund des Pauli-Twirlings jeder Ebene beeinflussen die nackten CNOTs den Zustand. Für jedes Trotter-Experiment charakterisieren wir zunächst die Rauschmodelle Λ für die drei Pauli-twirrlten CNOT-Ebenen (Abb. [cite:1c]) und verwenden diese Modelle dann zur Implementierung von Trotter-Schaltungen mit Rauschverstärkungsstufen ∈ {1, 1.2, 1.6}. Abbildung [cite:2a] veranschaulicht die Schätzung von ⟨ 106⟩ nach vier Trotter-Schritten (12 CNOT-Ebenen). Für jedes generierten wir 2.000 Schaltungsinstanzen, bei denen vor jeder Ebene Produkte von Ein-Qubit- und Zwei-Qubit-Pauli-Fehlern aus mit Wahrscheinlichkeiten eingefügt wurden und jede Instanz 64 Mal ausgeführt wurde, was insgesamt 384.000 Ausführungen ergibt. Mit zunehmender Anzahl von Schaltungsinstanzen konvergieren die Schätzungen von ⟨ 106⟩ , die den verschiedenen Verstärkungen entsprechen, zu unterschiedlichen Werten. Die verschiedenen Schätzungen werden dann durch eine Extrapolationsfunktion in angepasst, um den idealen Wert ⟨ 106⟩0 zu schätzen. Die Ergebnisse in Abb. [cite:2a] unterstreichen die reduzierte Verzerrung durch exponentielle Extrapolation im Vergleich zur linearen Extrapolation. Dennoch kann die exponentielle Extrapolation Instabilitäten aufweisen, z. B. wenn Erwartungswerte nicht auflösbar nahe Null liegen, und wir stufen in solchen Fällen iterativ die Komplexität des Extrapolationsmodells herab (siehe ergänzende Informationen [cite:II.B]). Das in Abb. [cite:2a] skizzierte Verfahren wurde auf die Messergebnisse jedes Qubits angewendet, um alle = 127 Pauli-Erwartungswerte ⟨ ⟩0 zu schätzen. Die Variation der unverminderten und verminderten beobachtbaren Größen in Abb. [cite:2b] zeigt die Nicht-Uniformität der Fehlerraten über den gesamten Prozessor hinweg an. Wir berichten über die globale Magnetisierung entlang von , , bei zunehmender Tiefe in Abb. [cite:2c]. Obwohl das unverminderte Ergebnis einen allmählichen Abfall von 1 mit zunehmender Abweichung für tiefere Schaltungen zeigt, verbessert ZNE die Übereinstimmung, wenn auch mit einer kleinen Verzerrung, mit dem idealen Wert selbst bis zu 20 Trotter-Schritten oder 60 CNOT-Tiefen erheblich. Bemerkenswert ist, dass die hier verwendete Anzahl von Abtastungen viel kleiner ist als eine Schätzung des Abtastaufwands, der bei einer naiven PEC-Implementierung benötigt würde (siehe ergänzende Informationen [cite:IV.B]). Grundsätzlich kann diese Disparität durch fortgeschrittenere PEC-Implementierungen unter Verwendung von Light-Cone-Tracing oder durch Verbesserungen der Hardware-Fehlerraten erheblich reduziert werden. Da zukünftige Hardware- und Softwareentwicklungen die Abtastkosten senken, kann PEC bevorzugt werden, wenn sie erschwinglich ist, um die potenziell verzerrte Natur von ZNE zu vermeiden. θ X I Zq l G Z G l i Z G G G Z q N Zq Abgeschwächte Erwartungswerte aus Trotter-Schaltungen unter Clifford-Bedingung h = 0. – , Konvergenz von unverminderten ( = 1), rauschausgeglichenen ( > 1) und rauschausgeglichenen (ZNE) Schätzungen von ⟨ 106⟩ nach vier Trotter-Schritten. In allen Tafeln geben Fehlerbalken 68% Konfidenzintervalle an, die mittels Perzentil-Bootstrap erhalten wurden. Exponentielle Extrapolation (exp, dunkelblau) übertrifft tendenziell die lineare Extrapolation (linear, hellblau), wenn die Unterschiede zwischen den konvergierten Schätzungen von ⟨ 106⟩ ≠0 gut aufgelöst sind. – , Magnetisierung (große Marker) wird als Mittelwert der einzelnen Schätzungen von ⟨ ⟩ für alle Qubits (kleine Marker) berechnet. – , Mit zunehmender Schaltungstiefe nehmen die unverminderten Schätzungen von monoton vom Idealwert 1 ab. ZNE verbessert die Schätzungen erheblich, selbst nach 20 Trotter-Schritten (siehe ergänzende Informationen [cite:II] für ZNE-Details). θ a G G Z Z G b Zq c Mz Als nächstes testen wir die Wirksamkeit unserer Methoden für Nicht-Clifford-Schaltungen und den Clifford- h = π/2-Punkt mit nicht-trivialer verschränkender Dynamik im Vergleich zu den in Abb. diskutierten identitätsäquivalenten Schaltungen. Die Nicht-Clifford-Schaltungen sind von besonderer Bedeutung, da die Gültigkeit der exponentiellen Extrapolation nicht mehr garantiert ist (siehe ergänzende Informationen [cite:V] und Ref.). Wir beschränken die Schaltungstiefe auf fünf Trotter-Schritte (15 CNOT-Ebenen) und wählen gezielt beobachtbare Größen, die exakt verifizierbar sind. Abbildung zeigt die Ergebnisse für h zwischen 0 und π/2 für drei solche beobachtbaren Größen mit zunehmendem Gewicht. Abbildung [cite:3a] zeigt wie zuvor, einen Durchschnitt von Gewicht-1-⟨ ⟩-Beobachtbaren, während Abb. [cite:3b,c] Gewicht-10- und Gewicht-17-Beobachtbare zeigen. Letztere Operatoren sind Stabilisatoren der Clifford-Schaltung bei h = π/2, erhalten durch die Entwicklung der Anfangs-Stabilisatoren 13 bzw. 58 von |0⟩⊗127 für fünf Trotter-Schritte, was nicht-verschwindende Erwartungswerte im stark verschränkenden Regime von besonderem Interesse sicherstellt. Obwohl die gesamte 127-Qubit-Schaltung experimentell ausgeführt wird, ermöglichen Light-Cone- und Tiefe-reduzierte (LCDR)-Schaltungen die Bruttopreis-klassische Simulation der Magnetisierung und der Gewicht-10-Operator bei dieser Tiefe (siehe ergänzende Informationen [cite:VII]). Über den gesamten h-Sweep hinweg zeigen die fehlerabgeschwächten beobachtbaren Größen eine gute Übereinstimmung mit der exakten Entwicklung (siehe Abb. [cite:3a,b]). Für den Gewicht-17-Operator expandiert der Lichtkegel jedoch auf 68 Qubits, eine Größenordnung, die die Bruttopreis-klassische Simulation übersteigt, so dass wir uns Tensornetzwerkmethoden zuwenden. θ θ Mz Z θ Z Z θ Schätzungen der Erwartungswerte für h-Sweeps bei einer festen Tiefe von fünf Trotter-Schritten für die Schaltung in Abb. [cite:1a]. Die betrachteten Schaltungen sind Nicht-Clifford, außer bei h = 0, π/2. Lichtkegel- und Tiefenreduzierungen der jeweiligen Schaltungen ermöglichen eine exakte klassische Simulation der beobachtbaren Größen für alle h. Für alle drei dargestellten Größen (Titel der Tafeln) verfolgen die abgeschwächten experimentellen Ergebnisse (blau) eng das exakte Verhalten (grau). In allen Tafeln geben Fehlerbalken 68% Konfidenzintervalle an, die mittels Perzentil-Bootstrap erhalten wurden. Die Gewicht-10- und Gewicht-17-Beobachtbaren in und sind Stabilisatoren der Schaltung bei h = π/2 mit den jeweiligen Eigenwerten +1 und −1; alle Werte in wurden zur visuellen Vereinfachung negiert. Der untere Inset in zeigt die Variation von ⟨ ⟩ bei h = 0.2 über das Gerät vor und nach der Abschwächung und vergleicht sie mit exakten Ergebnissen. Obere Insets in allen Tafeln illustrieren kausale Lichtkegel, die in Blau die gemessenen End-Qubits (oben) und die nominelle Menge der Anfangs-Qubits, die den Zustand der End-Qubits beeinflussen können (unten), anzeigen. hängt auch von 126 anderen Kegeln ab, die über das gezeigte Beispiel hinausgehen. Obwohl in allen Tafeln exakte Ergebnisse aus Simulationen von nur kausalen Qubits stammen, schließen wir Tensornetzwerk-Simulationen aller 127 Qubits (MPS, isoTNS) ein, um die Gültigkeitsdomäne für diese Techniken zu beurteilen, wie im Haupttext diskutiert. isoTNS-Ergebnisse für die Gewicht-17-Beobachtbare in sind mit aktuellen Methoden nicht zugänglich (siehe ergänzende Informationen [cite:VI]). Alle Experimente wurden für = 1, 1.2, 1.6 durchgeführt und wie in den ergänzenden Informationen [cite:II.B] extrapoliert. Für jedes generierten wir 1.800–2.000 Zufallsschaltungsinstanzen für und und 2.500–3.000 Instanzen für . θ θ θ b c θ c a Zq θ Mz c G G a b c Tensornetzwerke wurden weit verbreitet zur Annäherung und Kompression von Quantenzustandsvektoren verwendet, die beim Studium der niederenergetischen Eigenzustände und der Zeitevolution durch lokale Hamilton-Operatoren entstehen und wurden in jüngerer Zeit erfolgreich zur Simulation von nieder-tiefen verrauschten Quantenschaltungen eingesetzt. Die Simulationsgenauigkeit kann durch Erhöhung der Bindungsdimension verbessert werden, die die Menge der Verschränkung des dargestellten Quantenzustands einschränkt, bei einer Rechenkosten-Skalierung, die polynomial mit wächst. Da die Verschränkung (Bindungsdimension) eines generischen Zustands linear (exponentiell) mit der Zeitevolution wächst, bis sie das Volumenrecht überschreitet, sind tiefe Quantenschaltungen für Tensornetzwerke inhärent schwierig. Wir betrachten sowohl quasi-1D-Matrixproduktzustände (MPS) als auch 2D-isometrische Tensornetzwerkzustände (isoTNS), die eine Zeitentwicklungs-Komplexitätsskalierung von und haben. Details beider Methoden und ihrer Stärken sind in den Methoden und den ergänzenden Informationen [cite:VI] enthalten. Insbesondere für den Fall der Gewicht-17-Beobachtbaren, die in Abb. [cite:3c] gezeigt wird, stellen wir fest, dass eine MPS-Simulation der LCDR-Schaltung bei = 2.048 ausreicht, um die exakte Entwicklung zu erhalten (siehe ergänzende Informationen [cite:VIII]). Der größere kausale Kegel der Gewicht-17-Beobachtbaren führt zu einem experimentellen Signal, das im Vergleich zu dem der Gewicht-10-Beobachtbaren schwächer ist; dennoch liefert die Abschwächung weiterhin eine gute Übereinstimmung mit der exakten Spur. Dieser Vergleich legt nahe, dass die Domäne der experimentellen Genauigkeit über die Skala der exakten klassischen Simulation hinausgehen könnte. χ χ χ Wir erwarten, dass diese Experimente schließlich auf Schaltungsvolumina und beobachtbare Größen ausgedehnt werden, bei denen solche Lichtkegel- und Tiefenreduktionen nicht mehr wichtig sind. Daher untersuchen wir auch die Leistung von MPS und isoTNS für die vollständige 127-Qubit-Schaltung, die in Abb. ausgeführt wird, bei den jeweiligen Bindungsdimensionen = 1.024 bzw. = 12, die hauptsächlich durch Speicheranforderungen begrenzt sind. Abbildung zeigt, dass die Tensornetzwerkmethoden mit zunehmendem h Schwierigkeiten haben und sowohl an Genauigkeit als auch an Kontinuität nahe dem verifizierbaren Clifford-Punkt h = π/2 verlieren. Dieser Zusammenbruch kann anhand der Verschränkungseigenschaften des Zustands verstanden werden. Der Stabilisatorzustand, der durch die Schaltung bei h = π/2 erzeugt wird, hat ein exakt flaches bipartites Verschränkungsspektrum, das aus einer Schmidt-Zerlegung einer 1D-Ordnung der Qubits gewonnen wird. Daher ist die Abschneidung von Zuständen mit geringem Schmidt-Gewicht – der Grundlage aller Tensornetzwerk-Algorithmen – nicht gerechtfertigt. Da exakte Tensornetzwerk-Darstellungen jedoch generell eine Bindungsdimension erfordern, die exponentiell mit der Schaltungstiefe wächst, ist eine Abschneidung für handhabbare numerische Simulationen erforderlich. χ χ θ θ θ Schließlich dehnen wir in Abb. unsere Experimente auf Bereiche aus, in denen die exakte Lösung mit den hier betrachteten klassischen Methoden nicht verfügbar ist. Das erste Beispiel (Abb. [cite:4a]) ähnelt Abb. [cite:3c], jedoch mit einer weiteren abschließenden Ebene von Ein-Qubit-Pauli-Rotationen, die die zuvor eine exakte Verifizierung für jedes h ermöglichte Schaltungstiefenreduktion unterbricht (siehe ergänzende Informationen [cite:VII]). Am verifizierbaren Clifford-Punkt h = π/2 stimmen die abgeschwächten Ergebnisse wieder mit dem Idealwert überein, während die MPS-Simulation ( = 3.072) der 68-Qubit-LCDR-Schaltung im interessierenden stark verschränkenden Regime deutlich versagt. Obwohl = 2.048 für die exakte Simulation der Gewicht-17-Beobachtbaren in Abb. [cite:3c] ausreichend war, wäre eine MPS-Bindungsdimension von 32.768 für die exakte Simulation dieser modifizierten Schaltung und Beobachtbaren mit h = π/2 erforderlich. θ θ χ χ θ Plot-Marker, Konfidenzintervalle und kausale Lichtkegel erscheinen wie in Abb. definiert. – , Schätzungen einer Gewicht-17-Beobachtbaren (Titel der Tafel) nach fünf Trotter-Schritten für mehrere Werte von h. Die Schaltung ähnelt der in Abb. [cite:3c], jedoch mit zusätzlichen Ein-Qubit-Rotationen am Ende. Dies simuliert effektiv die Zeitevolution der Spins nach Trotter-Schritt sechs unter Verwendung der gleichen Anzahl von Zwei-Qubit-Gates wie für Trotter-Schritt fünf. Wie in Abb. [cite:3c] ist die Beobachtbare ein Stabilisator bei h = π/2 mit dem Eigenwert −1, daher negieren wir die -Achse zur visuellen Vereinfachung. Die Optimierung der MPS-Simulation durch Einbeziehung nur von Qubits und Gates im kausalen Lichtkegel ermöglicht eine höhere Bindungsdimension ( = 3.072), aber die Simulation nähert sich immer noch nicht −1 (entspricht +1 auf der negierten -Achse) bei h = π/2. – , Schätzungen der Ein-Stellen-Magnetisierung 〈 62〉 nach 20 Trotter-Schritten für mehrere Werte von h. Die MPS-Simulation ist lichtkegel-optimiert und mit Bindungsdimension = 1.024 durchgeführt, während die isoTNS-Simulation ( = 12) die Gates außerhalb des Lichtkegels einschließt. Die Experimente wurden mit = 1, 1.3, 1.6 für und = 1, 1.2, 1.6 für durchgeführt und wie in den ergänzenden Informationen [cite:II.B] extrapoliert. Für jedes generierten wir 2.000–3.200 Zufallsschaltungsinstanzen für und 1.700–2.400 Instanzen für . a θ θ y χ y θ b Z θ χ χ G a G b G a b Als letztes Beispiel erweitern wir die Schaltungstiefe auf 20 Trotter-Schritte (60 CNOT-Ebenen) und schätzen die h-Abhängigkeit einer Gewicht-1-Beobachtbaren, ⟨ 62⟩, in Abb. [cite:4b], in der sich der kausale Kegel über das gesamte Gerät erstreckt. Angesichts der Nicht-Uniformität der θ Z