Autoren: Youngseok Kim Andrew Eddins Sajant Anand Ken Xuan Wei Ewout van den Berg Sami Rosenblatt Hasan Nayfeh Yantao Wu Michael Zaletel Kristan Temme Abhinav Kandala Zusammenfassung Quantencomputing verspricht erhebliche Geschwindigkeitssteigerungen gegenüber seinem klassischen Gegenstück für bestimmte Probleme. Das größte Hindernis für die Ausschöpfung seines vollen Potenzials ist jedoch das inhärente Rauschen dieser Systeme. Die allgemein anerkannte Lösung für diese Herausforderung ist die Implementierung fehlertoleranter Quantenschaltkreise, die für aktuelle Prozessoren außer Reichweite ist. Hier berichten wir über Experimente auf einem verrauschten 127-Qubit-Prozessor und demonstrieren die Messung genauer Erwartungswerte für Schaltungsvolumina, die über die brute-force-klassische Berechnung hinausgehen. Wir argumentieren, dass dies ein Beweis für den Nutzen des Quantencomputings in der Ära vor der Fehlertoleranz ist. Diese experimentellen Ergebnisse werden durch Fortschritte bei der Kohärenz und Kalibrierung eines supraleitenden Prozessors dieser Größenordnung sowie durch die Fähigkeit, Rauschen auf einem so großen Gerät zu charakterisieren und steuerbar zu manipulieren, ermöglicht. Wir stellen die Genauigkeit der gemessenen Erwartungswerte durch den Vergleich mit den Ergebnissen exakt verifizierbarer Schaltungen fest. Im Bereich starker Verschränkung liefert der Quantencomputer korrekte Ergebnisse, für die führende klassische Näherungen wie rein-zustandsbasierte 1D- (Matrixproduktzustände, MPS) und 2D- (isometrische Tensornetzwerkzustände, isoTNS) Tensornetzwerkmethoden versagen. Diese Experimente stellen ein grundlegendes Werkzeug für die Realisierung von Quantenanwendungen der nahen Zukunft dar. Hauptteil Es ist fast allgemein anerkannt, dass fortschrittliche Quantenalgorithmen wie Faktorisierung oder Schätzung der Phase Quantenfehlkorrektur erfordern werden. Es ist jedoch stark umstritten, ob die derzeit verfügbaren Prozessoren ausreichend zuverlässig gemacht werden können, um andere Quantenschaltkreise mit geringerer Tiefe in einer Größenordnung auszuführen, die einen Vorteil für praktische Probleme bieten könnten. An diesem Punkt ist die konventionelle Erwartung, dass die Implementierung selbst einfacher Quantenschaltkreise mit dem Potenzial, klassische Fähigkeiten zu übertreffen, warten muss, bis fortschrittlichere, fehlertolerante Prozessoren verfügbar sind. Trotz der enormen Fortschritte in der Quantenhardware in den letzten Jahren stützen einfache Fidelitätsgrenzen diese düstere Prognose; man schätzt, dass ein Quantenschaltkreis mit 100 Qubits Breite und 100 Gate-Ebenen Tiefe, der mit 0,1% Gate-Fehler ausgeführt wird, eine Zustandsfidelität von weniger als 5 × 10−4 ergibt. Nichtsdestotrotz bleibt die Frage, ob Eigenschaften des idealen Zustands auch bei solch geringen Fidelitäten zugänglich sind. Der Ansatz der Fehlerbegrenzung für den Quantenvorteil von Rauschgeräten der nahen Zukunft adressiert genau diese Frage, nämlich dass man genaue Erwartungswerte aus mehreren verschiedenen Läufen des verrauschten Quantenschaltkreises unter Verwendung klassischer Nachbearbeitung erzeugen kann. Quantenvorteil kann in zwei Schritten erreicht werden: Erstens durch den Nachweis der Fähigkeit bestehender Geräte, genaue Berechnungen in einer Größenordnung durchzuführen, die über die brute-force-klassische Simulation hinausgeht, und zweitens durch das Finden von Problemen mit zugehörigen Quantenschaltkreisen, die einen Vorteil aus diesen Geräten ziehen. Hier konzentrieren wir uns auf den ersten Schritt und zielen nicht darauf ab, Quantenschaltkreise für Probleme mit nachgewiesenen Geschwindigkeitssteigerungen zu implementieren. Wir verwenden einen supraleitenden Quantenprozessor mit 127 Qubits, um Quantenschaltkreise mit bis zu 60 Schichten von Zwei-Qubit-Gates auszuführen, insgesamt 2.880 CNOT-Gates. Allgemeine Quantenschaltkreise dieser Größe liegen jenseits dessen, was mit brute-force-klassischen Methoden machbar ist. Wir konzentrieren uns daher zunächst auf spezifische Testfälle von Schaltungen, die eine exakte klassische Verifizierung der gemessenen Erwartungswerte ermöglichen. Dann wenden wir uns Schaltungsregimen und beobachtbaren Größen zu, bei denen die klassische Simulation herausfordernd wird, und vergleichen uns mit Ergebnissen von modernsten approximativen klassischen Methoden. Unser Benchmark-Schaltkreis ist die Trotter-zerlegte Zeitentwicklung eines 2D-Transversfeld-Ising-Modells, das die Topologie des Qubit-Prozessors teilt (Abb. [cite:1 a]). Das Ising-Modell tritt in verschiedenen Bereichen der Physik ausgiebig auf und hat kreative Erweiterungen in neueren Simulationen erfahren, die Quanten-Vielteilchenphänomene wie Zeitkristalle, Quanten-Narben und Majorana-Randmoden untersuchen. Als Test für die Nützlichkeit des Quantencomputings ist jedoch die Zeitentwicklung des 2D-Transversfeld-Ising-Modells im Grenzfall des großen Verschränkungswachstums am relevantesten, bei dem skalierbare klassische Näherungen Schwierigkeiten haben. , Jeder Trotter-Schritt der Ising-Simulation beinhaltet Einzel-Qubit- - und Zwei-Qubit- -Rotationen. Zufällige Pauli-Gates werden eingefügt, um das Rauschen jeder CNOT-Schicht zu verdrillen (Spiralen) und steuerbar zu skalieren. Der Dagger deutet die Konjugation durch die ideale Schicht an. , Drei CNOT-Gate-Schichten der Tiefe 1 reichen aus, um Wechselwirkungen zwischen allen benachbarten Paaren auf ibm_kyiv zu realisieren. , Charakterisierungsexperimente lernen effizient die lokalen Pauli-Fehlerraten , (Farbskalen), die den gesamten Pauli-Kanal Λ , der mit der -ten verdrillten CNOT-Schicht assoziiert ist, umfassen. (Abbildung erweitert in den ergänzenden Informationen [cite:IV.A]). , Pauli-Fehler, die proportional eingefügt werden, können verwendet werden, um das intrinsische Rauschen entweder zu annullieren (PEC) oder zu verstärken (ZNE). a X ZZ b c λl i l l d Insbesondere betrachten wir die Zeitdynamik des Hamilton-Operators, wobei > 0 die Kopplung nächster Nachbarspins mit < ist und das globale transversale Feld ist. Die Spin-Dynamik aus einem Anfangszustand kann mittels Trotter-Zerlegung erster Ordnung des Zeitentwicklungsoperators simuliert werden, J i j h wobei die Evolutionszeit in / Trotter-Schritte diskretisiert wird und und - und -Rotationsgatter sind. Wir sind nicht an dem Modellfehler aufgrund der Trotterisierung interessiert und betrachten daher die trotterisierte Schaltung als ideal für jeden klassischen Vergleich. Zur experimentellen Vereinfachung konzentrieren wir uns auf den Fall = −2 = −π/2, so dass die -Rotation nur ein CNOT erfordert, T T δt ZZ X θJ Jδt ZZ wobei die Gleichheit bis auf eine globale Phase gilt. In der resultierenden Schaltung (Abb. [cite:1 a]) entspricht jeder Trotter-Schritt einer Schicht von Einzel-Qubit-Rotationen, R ( h), gefolgt von kommutierenden Schichten parallelisierter Zwei-Qubit-Rotationen, R ( ). X θ ZZ θJ Für die experimentelle Implementierung verwendeten wir hauptsächlich den IBM Eagle Prozessor ibm_kyiv, der aus 127 festfrequenten Transmon-Qubits mit Heavy-Hex-Konnektivität und mittleren 1- und 2-Zeiten von 288 μs und 127 μs besteht. Diese Kohärenzzeiten sind für supraleitende Prozessoren dieser Größenordnung beispiellos und ermöglichen die in dieser Arbeit betrachteten Schaltungstiefen. Die Zwei-Qubit-CNOT-Gates zwischen Nachbarn werden durch Kalibrierung der Cross-Resonance-Wechselwirkung realisiert. Da jedes Qubit höchstens drei Nachbarn hat, können alle -Wechselwirkungen in drei Schichten parallelisierter CNOT-Gates durchgeführt werden (Abb. [cite:1 b]). Die CNOT-Gates innerhalb jeder Schicht werden für optimalen simultanen Betrieb kalibriert (weitere Einzelheiten siehe Methoden). T T ZZ Nun sehen wir, dass diese Verbesserungen der Hardwareleistung noch größere Probleme ermöglichen, die erfolgreich mit Fehlerbegrenzung ausgeführt werden können, im Vergleich zu neueren Arbeiten auf dieser Plattform. Die probabilistische Fehlerlöschung (PEC) hat sich als sehr effektiv erwiesen, um unverzerrte Schätzungen von beobachtbaren Größen zu liefern. Bei PEC wird ein repräsentatives Rauschmodell gelernt und effektiv invertiert, indem aus einer Verteilung verrauschter Schaltungen, die mit dem gelernten Modell zusammenhängen, abgetastet wird. Dennoch bleibt bei den aktuellen Fehlerraten auf unserem Gerät der Abtastaufwand für die in dieser Arbeit betrachteten Schaltungsvolumina einschränkend, wie unten weiter diskutiert wird. Wir wenden uns daher der Null-Rausch-Extrapolation (ZNE) zu, die einen verzerrten Schätzer zu potenziell viel geringeren Abtastkosten liefert. ZNE ist entweder eine polynomiale oder exponentielle Extrapolationsmethode für verrauschte Erwartungswerte als Funktion eines Rauschparameters. Dies erfordert die gesteuerte Verstärkung des intrinsischen Hardware-Rauschens durch einen bekannten Verstärkungsfaktor , um zum idealen Ergebnis = 0 zu extrapolieren. ZNE wurde weithin übernommen, teilweise weil Rauschverstärkungsschemata, die auf Pulsdehnung oder Unter schaltungs-Wiederholung basieren, die Notwendigkeit einer präzisen Rauschermittlung umgangen haben und sich auf simplistische Annahmen über das Geräte-Rauschen verlassen. Eine präzisere Rauschverstärkung kann jedoch zu erheblichen Reduzierungen der Verzerrung des extrapolierten Schätzers führen, wie wir hier zeigen. G G Das in Ref. vorgeschlagene sparse Pauli–Lindblad-Rauschmodell eignet sich besonders gut für die Rauschformung in ZNE. Das Modell hat die Form , wobei ein Lindbladian ist, das aus Pauli-Sprungoperatoren mit Raten besteht. Es wurde in Ref. gezeigt, dass die Einschränkung auf Sprungoperatoren, die auf lokalen Qubit-Paaren wirken, ein sparse Rauschmodell ergibt, das für viele Qubits effizient gelernt werden kann und das Rauschen im Zusammenhang mit Schichten von Zwei-Qubit-Clifford-Gates, einschließlich Übersprechen, genau erfasst, wenn es mit zufälligen Pauli-Twirls kombiniert wird. Die verrauschte Schicht von Gates wird als eine Reihe von idealen Gates modelliert, denen ein Rauschkanal Λ vorausgeht. Somit erzeugt die Anwendung von Λ vor der verrauschten Schicht einen Gesamtrauschkanal Λ mit Verstärkung = + 1. Angesichts der exponentiellen Form des Pauli–Lindblad-Rauschmodells wird die Abbildung durch einfaches Multiplizieren der Pauli-Raten mit erhalten. Die resultierende Pauli-Abbildung kann abgetastet werden, um geeignete Schaltungsinstanzen zu erhalten; für ≥ 0 ist die Abbildung ein Pauli-Kanal, der direkt abgetastet werden kann, während für < 0 quasi-probabilistische Abtastung mit einem Abtastaufwand von −2 für ein modellspezifisches erforderlich ist. Bei PEC wählen wir = −1, um eine gesamte Rauschstufe mit Verstärkung Null zu erhalten. Bei ZNE verstärken wir stattdessen das Rauschen, um verschiedene Verstärkungsstufen zu erreichen und den Null-Rausch-Grenzwert mittels Extrapolation zu schätzen. Für praktische Anwendungen müssen wir die Stabilität des gelernten Rauschmodells im Laufe der Zeit berücksichtigen (ergänzende Informationen [cite:III.A]), beispielsweise aufgrund von Qubit-Wechselwirkungen mit fluktuierenden mikroskopischen Defekten, sogenannten Zweipunkt-Systemen. Pi λi α G G α λi α α α γ α γ α Clifford-Schaltkreise dienen als nützliche Benchmarks für Schätzungen, die durch Fehlerbegrenzung erzeugt werden, da sie klassisch effizient simuliert werden können. Bemerkenswerterweise wird die gesamte Ising-Trotter-Schaltung zu einer Clifford-Schaltung, wenn h als Vielfaches von π/2 gewählt wird. Als erstes Beispiel setzen wir daher das transversale Feld auf Null (R (0) = ) und entwickeln den Anfangszustand |0⟩⊗127 (Abb. [cite:1 a]). Die CNOT-Gates lassen diesen Zustand nominell unverändert, so dass die idealen Gewichts-1-Beobachtbaren alle Erwartungswerte von 1 haben; aufgrund der Pauli-Twirls jeder Schicht beeinflussen die reinen CNOTs den Zustand. Für jedes Trotter-Experiment charakterisieren wir zunächst die Rauschmodelle Λ für die drei Pauli-verdrillten CNOT-Schichten (Abb. [cite:1 c]) und verwenden dann diese Modelle, um Trotter-Schaltungen mit Rauschverstärkungsstufen ∈ {1, 1.2, 1.6} zu implementieren. Abbildung [cite:2 a] illustriert die Schätzung von ⟨ 106⟩ nach vier Trotter-Schritten (12 CNOT-Schichten). Für jedes generierten wir 2.000 Schaltungsinstanzen, bei denen vor jeder Schicht Produkte von Ein-Qubit- und Zwei-Qubit-Pauli-Fehlern aus ⋃ gezeichnet mit Wahrscheinlichkeiten eingefügt wurden, und führten jede Instanz 64 Mal aus, insgesamt 384.000 Ausführungen. Mit zunehmender Anzahl von Schaltungsinstanzen konvergieren die Schätzungen von ⟨ 106⟩ , die den verschiedenen Verstärkungen entsprechen, zu unterschiedlichen Werten. Die verschiedenen Schätzungen werden dann durch eine extrapolierende Funktion von angepasst, um den idealen Wert ⟨ 106⟩0 zu schätzen. Die Ergebnisse in Abb. [cite:2 a] heben die reduzierte Verzerrung durch exponentielle Extrapolation im Vergleich zur linearen Extrapolation hervor. Dennoch kann die exponentielle Extrapolation Instabilitäten aufweisen, zum Beispiel wenn Erwartungswerte unauflösbar nahe Null sind, und in solchen Fällen stufen wir die Komplexität des Extrapolationsmodells iterativ herab (siehe ergänzende Informationen [cite:II.B]). Das in Abb. [cite:2 a] dargestellte Verfahren wurde auf die Messergebnisse jedes Qubits angewendet, um alle = 127 Pauli-Erwartungswerte ⟨ ⟩0 zu schätzen. Die Variation der unmitigierten und mitigierten beobachtbaren Größen in Abb. [cite:2 b] deutet auf die Ungleichmäßigkeit der Fehlerraten über den gesamten Prozessor hin. Wir berichten über die globale Magnetisierung entlang , , für zunehmende Tiefe in Abb. [cite:2 c]. Obwohl das unmitigierte Ergebnis einen allmählichen Verfall von 1 mit zunehmender Abweichung für tiefere Schaltungen zeigt, verbessert ZNE die Übereinstimmung, wenn auch mit einer geringen Verzerrung, mit dem idealen Wert selbst bis zu 20 Trotter-Schritten oder 60 CNOT-Tiefen erheblich. Bemerkenswert ist, dass die hier verwendete Anzahl von Stichproben viel kleiner ist als die geschätzte Abtastaufwand, die bei einer naiven PEC-Implementierung erforderlich wäre (siehe ergänzende Informationen [cite:IV.B]). Grundsätzlich kann diese Disparität durch fortschrittlichere PEC-Implementierungen mit Lichtkegel-Tracing oder durch Verbesserungen der Hardware-Fehlerraten erheblich reduziert werden. Da zukünftige Hardware- und Softwareentwicklungen die Abtastkosten senken, kann PEC bevorzugt werden, wenn sie erschwinglich ist, um die potenziell verzerrte Natur von ZNE zu vermeiden. θ X I Zq l G Z G l i l wl Z G G G Z q N Zq Mitigierte Erwartungswerte von Trotter-Schaltungen unter Clifford-Bedingung h = 0. , Konvergenz von unmitigierten ( = 1), rauschverstärkten ( > 1) und rauschmitigierten (ZNE) Schätzungen von ⟨ 106⟩ nach vier Trotter-Schritten. In allen Tafeln zeigen Fehlerbalken 68% Konfidenzintervalle, die mittels Perzentil-Bootstrap erhalten wurden. Exponentielle Extrapolation (exp, dunkelblau) tendiert dazu, lineare Extrapolation (linear, hellblau) zu übertreffen, wenn die Unterschiede zwischen den konvergierten Schätzungen von ⟨ 106⟩ ≠0 gut aufgelöst sind. , Magnetisierung (große Markierungen) wird als Mittelwert der einzelnen Schätzungen von ⟨ ⟩ für alle Qubits (kleine Markierungen) berechnet. , Mit zunehmender Schaltungstiefe verfällt die unmitigierte Schätzung von monoton vom Idealwert 1. ZNE verbessert die Schätzungen erheblich, selbst nach 20 Trotter-Schritten (siehe ergänzende Informationen [cite:II] für ZNE-Details). θ a G G Z Z G b Zq c Mz Als nächstes testen wir die Wirksamkeit unserer Methoden für Nicht-Clifford-Schaltungen und den Clifford-Punkt h = π/2 mit nicht-trivialer verschränkter Dynamik im Vergleich zu den in Abb. diskutierten identitätsäquivalenten Schaltungen. Die Nicht-Clifford-Schaltungen sind von besonderer Bedeutung, da die Gültigkeit der exponentiellen Extrapolation nicht mehr garantiert ist (siehe ergänzende Informationen [cite:V] und Ref.). Wir beschränken die Schaltungstiefe auf fünf Trotter-Schritte (15 CNOT-Schichten) und wählen gezielt beobachtbare Größen aus, die exakt verifizierbar sind. Abbildung zeigt die Ergebnisse, wenn h zwischen 0 und π/2 für drei solche beobachtbare Größen zunehmenden Gewichts durchlaufen wird. Abb. [cite:3 a] zeigt wie zuvor, einen Durchschnitt von beobachtbaren Größen mit Gewicht 1 ⟨ ⟩, während Abb. [cite:3 b, c] beobachtbare Größen mit Gewicht 10 und Gewicht 17 zeigen. Die letzteren Operatoren sind Stabilisatoren der Clifford-Schaltung bei h = π/2, erhalten durch die Entwicklung der anfänglichen Stabilisatoren 13 bzw. 58 von |0⟩⊗127 für fünf Trotter-Schritte, was nicht-verschwindende Erwartungswerte im stark verschränkten interessierenden Bereich sicherstellt. Obwohl die gesamte 127-Qubit-Schaltung experimentell ausgeführt wird, ermöglichen leicht verringerte Lichtkegel und Tiefen (LCDR)-Schaltungen die brute-force-klassische Simulation der Magnetisierung und der beobachtbaren Größe mit Gewicht 10 bei dieser Tiefe (siehe ergänzende Informationen [cite:VII]). Über den gesamten Bereich der h-Sweep-Durchläufe zeigen die fehlerbegrenzten beobachtbaren Größen eine gute Übereinstimmung mit der exakten Entwicklung (siehe Abb. [cite:3 a, b]). Für die beobachtbare Größe mit Gewicht 17 erweitert sich der Lichtkegel jedoch auf 68 Qubits, eine Größenordnung jenseits der brute-force-klassischen Simulation, so dass wir uns Tensornetzwerkmethoden zuwenden. θ θ Mz Z θ Z Z θ Schätzung der Erwartungswerte für h-Sweeps bei einer festen Tiefe von fünf Trotter-Schritten für die Schaltung in Abb. [cite:1 a]. Die betrachteten Schaltungen sind Nicht-Clifford, außer bei h = 0, π/2. Lichtkegel- und Tiefenreduktionen der jeweiligen Schaltungen ermöglichen die exakte klassische Simulation der beobachtbaren Größen für alle h. Für alle drei dargestellten Größen (Titel der Tafeln) folgen die mitigierten experimentellen Ergebnisse (blau) eng dem exakten Verhalten (grau). In allen Tafeln zeigen Fehlerbalken 68% Konfidenzintervalle, die mittels Perzentil-Bootstrap erhalten wurden. Die beobachtbaren Größen mit Gewicht 10 und Gewicht 17 in und sind Stabilisatoren der Schaltung bei h = π/2 mit den jeweiligen Eigenwerten +1 und −1; alle Werte in wurden zur visuellen Vereinfachung negiert. Der untere Inset in zeigt die Variation von ⟨ ⟩ bei h = 0.2 über das Gerät vor und nach der Mitigation und vergleicht sie mit exakten Ergebnissen. Obere Insets in allen Tafeln veranschaulichen kausale Lichtkegel, die in Blau die final gemessenen Qubits (oben) und die nominelle Menge der initialen Qubits anzeigen, die den Zustand der finalen Qubits beeinflussen können (unten). hängt auch von 126 anderen Kegeln ab, abgesehen vom gezeigten Beispiel. Obwohl in allen Tafeln exakte Ergebnisse aus Simulationen von nur kausalen Qubits stammen, schließen wir Tensornetzwerk-Simulationen aller 127 Qubits (MPS, isoTNS) ein, um den Gültigkeitsbereich dieser Techniken zu beurteilen, wie im Haupttext diskutiert. isoTNS-Ergebnisse für die beobachtbare Größe mit Gewicht 17 in sind mit aktuellen Methoden nicht zugänglich (siehe ergänzende Informationen [cite:VI]). Alle Experimente wurden für = 1, 1.2, 1.6 durchgeführt und wie in ergänzenden Informationen [cite:II.B] extrapoliert. Für jedes generierten wir 1.800–2.000 zufällige Schaltungsinstanzen für und und 2.500–3.000 Instanzen für . θ θ θ b c θ c a Zq θ Mz c G G a b c Tensornetzwerke wurden weit verbreitet verwendet, um Quantenzustandsvektoren zu approximieren und zu komprimieren, die bei der Untersuchung von niederenergetischen Eigenzuständen von und Zeitentwicklung durch lokale Hamilton-Operatoren entstehen und haben in jüngerer Zeit erfolgreich zur Simulation von verrauschten Quantenschaltungen mit geringer Tiefe verwendet werden. Die Genauigkeit der Simulation kann durch Erhöhung der Bindungsdimension verbessert werden, die die Verschränkung des dargestellten Quantenzustands begrenzt, mit einer Rechenkosten, die polynomial mit skaliert. Da die Verschränkung (Bindungsdimension) eines generischen Zustands linear (exponentiell) mit der Zeitentwicklung wächst, bis sie das Volumengesetz sättigt, sind tiefe Quantenschaltungen für Tensornetzwerke inhärent schwierig. Wir betrachten sowohl quasi-1D-Matrixproduktzustände (MPS) als auch 2D-isometrische Tensornetzwerkzustände (isoTNS), die eine Skalierung der Zeitentwicklungs komplexität von und aufweisen. Details beider Methoden und ihrer Stärken sind in Methoden und ergänzenden Informationen [cite:VI] aufgeführt. Insbesondere für den Fall der beobachtbaren Größe mit Gewicht 17, die in Abb. [cite:3 c] gezeigt wird, stellen wir fest, dass eine MPS-Simulation der LCDR-Schaltung bei = 2.048 ausreichend ist, um die exakte Entwicklung zu erhalten (siehe ergänzende Informationen [cite:VIII]). Der größere kausale Kegel der beobachtbaren Größe mit Gewicht 17 führt zu einem experimentellen Signal, das im Vergleich zur beobachtbaren Größe mit Gewicht 10 schwächer ist; dennoch liefert die Mitigation immer noch eine gute Übereinstimmung mit der exakten Spur. Dieser Vergleich legt nahe, dass der Bereich der experimentellen Genauigkeit über die Skala der exakten klassischen Simulation hinausgehen könnte. χ χ χ Wir erwarten, dass diese Experimente schließlich auf Schaltungsvolumina und beobachtbare Größen ausgedehnt werden, bei denen solche Lichtkegel- und Tiefenreduktionen nicht mehr wichtig sind. Daher untersuchen wir auch die Leistung von MPS und isoTNS für die vollständige 127-Qubit-Schaltung, die in Abb. ausgeführt wird, bei den jeweiligen Bindungsdimensionen von = 1.024 bzw. = 12, die hauptsächlich durch Speicheranforderungen begrenzt sind. Abb. zeigt, dass die Tensornetzwerkmethoden bei zunehmendem h Schwierigkeiten haben und sowohl Genauigkeit als auch Kontinuität nahe dem verifizierbaren Clifford-Punkt h = π/2 verlieren. Dieser Zusammenbruch kann im Hinblick auf die Verschränkungseigenschaften des Zustands verstanden werden. Der Stabilisatorzustand, der von der Schaltung bei h = π/2 erzeugt wird, hat ein exakt flaches bipartites Verschränkungsspektrum, das aus einer Schmidt-Zerlegung einer 1D-Ordnung der Qubits ermittelt wird. Daher ist die Beschneidung von Zuständen mit kleinem Schmidt-Gewicht - der Grundlage aller Tensornetzwerkalgorithmen - nicht gerechtfertigt. Da exakte Tensornetzwerk-Darstellungen jedoch generell eine Bindungsdimension erfordern, die exponentiell mit der Schaltungstiefe wächst, ist die Beschneidung für handhabbare numerische Simulationen notwendig. χ χ θ θ θ Schließlich strecken wir in Abb. unsere Experimente auf Bereiche aus, in denen die exakte Lösung mit den hier betrachteten klassischen Methoden nicht verfügbar ist. Das erste Beispiel (Abb. [cite:4 a]) ähnelt Abb. [cite:3 c], jedoch mit einer zusätzlichen abschließenden Schicht von Ein-Qubit-Pauli-Rotationen, die die bisher exakte Verifizierung für jedes h ermöglichte Tiefenreduktion der Schaltung unterbrechen (siehe ergänzende Informationen [cite:VII]). Am verifizierbaren Clifford-Punkt h = π/2 stimmen die mitigierten Ergebnisse wieder mit dem Idealwert überein, während die MPS-Simulation ( = 3.072) der 68-Qubit-LCDR-Schaltung im stark verschränkten interessierenden Bereich merklich versagt. Obwohl = 2.048 für die exakte Simulation der beobachtbaren Größe mit Gewicht 17 in Abb. [cite:3 c] ausreichte, wäre eine MPS-Bindungsdimension von 32.768 für die exakte Simulation dieser modifizierten Schaltung und beobachtbaren Größe bei h = π/2 erforderlich. θ θ χ χ θ Plot-Markierungen, Konfidenzintervalle und kausale Lichtkegel erscheinen wie in Abb. definiert. , Schätzungen einer beobachtbaren Größe mit Gewicht 17 (Titel der Tafel) nach fünf Trotter-Schritten für mehrere Werte von h. Die Schaltung ähnelt der in Abb. [cite:3 c], jedoch mit zusätzlichen Ein-Qubit-Rotationen am Ende. Dies simuliert effektiv die Zeitentwicklung der Spins nach Trotter-Schritt sechs unter Verwendung der gleichen Anzahl von Zwei-Qubit-Gates wie für Trotter-Schritt fünf. Wie in Abb. [cite:3 c] ist die beobachtbare Größe ein Stabilisator bei h = π/2 mit Eigenwert −1, so dass wir die -Achse zur visuellen Vereinfachung negieren. Die Optimierung der MPS-Simulation durch Einbeziehung nur von Qubits und Gates im kausalen Lichtkegel ermöglicht eine höhere Bindungsdimension ( = 3.072), aber die Simulation nähert sich immer noch nicht −1 (in negierter -Achse) bei h = π/2. , Schätzungen der Ein-Seiten-Magnetisierung 〈 62〉 nach 20 Trotter-Schritten für mehrere Werte von h. Die MPS-Simulation ist lichtkegel-optimiert und mit Bindungsdimension = 1.024 durchgeführt, während die isoTNS-Simulation ( = 12) die Gates außerhalb des Lichtkegels einbezieht. Die Experimente wurden mit = 1, 1.3, 1.6 für und = 1, 1.2, 1.6 für durchgeführt und wie in ergänzenden Informationen [cite:II.B] extrapoliert. Für jedes generierten wir 2.000–3.200 zufällige Schaltungsinstanzen für und 1.700–2.400 Instanzen für . a θ θ y χ y θ b Z θ χ χ G a G b G a b Als letztes Beispiel erweitern wir die Schaltungstiefe auf 20 Trotter-Schritte (60 CNOT-Schichten) und schätzen die h-Abhängigkeit einer beobachtbaren Größe mit Gewicht 1, ⟨ 62⟩, in Abb. [cite:4 b], bei θ Z