Auteurs : Sergey Bravyi Andrew W. Cross Jay M. Gambetta Dmitri Maslov Patrick Rall Theodore J. Yoder Résumé L'accumulation d'erreurs physiques , , empêche l'exécution d'algorithmes à grande échelle dans les ordinateurs quantiques actuels. La correction d'erreurs quantiques promet une solution en encodant qubits logiques sur un plus grand nombre de qubits physiques, de sorte que les erreurs physiques soient suffisamment supprimées pour permettre l'exécution d'un calcul souhaité avec une fidélité tolérable. La correction d'erreurs quantiques devient pratiquement réalisable une fois que le taux d'erreur physique est inférieur à une valeur seuil qui dépend du choix du code quantique, du circuit de mesure du syndrome et de l'algorithme de décodage . Nous présentons un protocole de correction d'erreurs quantiques de bout en bout qui met en œuvre une mémoire tolérante aux fautes sur la base d'une famille de codes à faible densité de parité (LDPC) . Notre approche atteint un seuil d'erreur de 0,7% pour le modèle de bruit standard basé sur les circuits, à l'instar du code de surface , , , qui a été le code de référence pendant 20 ans en termes de seuil d'erreur. Le cycle de mesure du syndrome pour un code de longueur dans notre famille nécessite qubits auxiliaires et un circuit de profondeur 8 avec des portes CNOT, des initialisations de qubits et des mesures. La connectivité requise entre les qubits est un graphe de degré 6 composé de deux sous-graphes planaires disjoints par les arêtes. En particulier, nous montrons que 12 qubits logiques peuvent être préservés pendant près d'1 million de cycles de syndrome en utilisant un total de 288 qubits physiques, en supposant un taux d'erreur physique de 0,1%, tandis que le code de surface nécessiterait près de 3 000 qubits physiques pour atteindre de telles performances. Nos découvertes rendent les démonstrations d'une mémoire quantique tolérante aux fautes à faible surcharge à portée des processeurs quantiques à court terme. 1 2 3 4 k n 5 6 7 8 9 10 n n Principal L'informatique quantique a suscité l'attention en raison de sa capacité à offrir des solutions asymptotiquement plus rapides à un ensemble de problèmes computationnels par rapport aux meilleurs algorithmes classiques connus . On pense qu'un ordinateur quantique évolutif fonctionnel pourrait aider à résoudre des problèmes de calcul dans des domaines tels que la découverte scientifique, la recherche sur les matériaux, la chimie et la conception de médicaments, pour n'en nommer que quelques-uns , , , . 5 11 12 13 14 Le principal obstacle à la construction d'un ordinateur quantique est la fragilité de l'information quantique, due à diverses sources de bruit qui l'affectent. L'isolement d'un ordinateur quantique des effets externes et son contrôle pour induire un calcul souhaité étant en conflit l'un avec l'autre, le bruit semble inévitable. Les sources de bruit comprennent les imperfections des qubits, les matériaux utilisés, l'appareil de contrôle, les erreurs de préparation et de mesure d'état, ainsi qu'une variété de facteurs externes allant des facteurs artificiels locaux, tels que les champs électromagnétiques parasites, à ceux inhérents à l'Univers, tels que les rayons cosmiques. Voir la réf. pour un résumé. Si certaines sources de bruit peuvent être éliminées par un meilleur contrôle , les matériaux et le blindage , , , plusieurs autres sources semblent difficiles, voire impossibles, à supprimer. Ces dernières peuvent inclure l'émission spontanée et stimulée dans les ions piégés , , et l'interaction avec le bain (effet Purcell) dans les circuits supraconducteurs — couvrant les deux principales technologies quantiques. Ainsi, la correction d'erreurs devient une exigence clé pour construire un ordinateur quantique évolutif fonctionnel. 15 16 17 18 19 20 1 2 3 La possibilité de tolérance aux fautes quantiques est bien établie . L'encodage redondant d'un qubit logique dans de nombreux qubits physiques permet de diagnostiquer et de corriger les erreurs en mesurant répétitivement les syndromes des opérateurs de contrôle de parité. Cependant, la correction d'erreurs n'est bénéfique que si le taux d'erreur du matériel est inférieur à une certaine valeur seuil qui dépend d'un protocole de correction d'erreurs particulier. Les premières propositions de correction d'erreurs quantiques, telles que les codes concaténés , , , visaient à démontrer la possibilité théorique de suppression des erreurs. À mesure que la compréhension de la correction d'erreurs quantiques et des capacités des technologies quantiques a mûri, l'accent s'est déplacé vers la recherche de protocoles pratiques de correction d'erreurs quantiques. Cela a conduit au développement du code de surface , , , qui offre un seuil d'erreur élevé proche de 1%, des algorithmes de décodage rapides et une compatibilité avec les processeurs quantiques existants reposant sur une connectivité de qubits en réseau carré bidimensionnel (2D). De petits exemples du code de surface avec un seul qubit logique ont déjà été démontrés expérimentalement par plusieurs groupes , , , , . Cependant, la mise à l'échelle du code de surface à 100 qubits logiques ou plus serait prohibitivement coûteuse en raison de sa faible efficacité d'encodage. Cela a suscité l'intérêt pour des codes quantiques plus généraux connus sous le nom de codes LDPC . Les progrès récents dans l'étude des codes LDPC suggèrent qu'ils peuvent atteindre la tolérance aux fautes quantiques avec une efficacité d'encodage beaucoup plus élevée . Ici, nous nous concentrons sur l'étude des codes LDPC, car notre objectif est de trouver des codes et des protocoles de correction d'erreurs quantiques qui soient à la fois efficaces et possibles à démontrer en pratique, compte tenu des limitations des technologies de calcul quantique. 4 21 22 23 7 8 9 10 24 25 26 27 28 6 29 Un code de correction d'erreurs quantiques est de type LDPC si chaque opérateur de vérification du code n'agit que sur quelques qubits et chaque qubit participe à quelques vérifications seulement. Plusieurs variantes de codes LDPC ont été proposées récemment, notamment les codes hypergraphiques de surface , , , le produit hypergraphique , les codes produits équilibrés , les codes à deux blocs basés sur des groupes finis , , , et les codes de Tanner quantiques , . Ces derniers ont été montrés , comme étant asymptotiquement « bons » dans le sens où ils offrent un taux d'encodage constant et une distance linéaire : un paramètre qui quantifie le nombre d'erreurs corrigeables. Par contraste, le code de surface a un taux d'encodage asymptotiquement nul et seulement une distance racine carrée. Le remplacement du code de surface par un code LDPC à haut taux et haute distance pourrait avoir des implications pratiques majeures. Premièrement, la surcharge de tolérance aux fautes (le rapport entre le nombre de qubits physiques et logiques) pourrait être considérablement réduite. Deuxièmement, les codes à haute distance montrent une diminution très nette du taux d'erreur logique : à mesure que la probabilité d'erreur physique franchit la valeur seuil, la suppression d'erreur obtenue par le code peut augmenter de plusieurs ordres de grandeur, même avec une petite réduction du taux d'erreur physique. Cette caractéristique rend les codes LDPC à haute distance attrayants pour les démonstrations à court terme qui opéreront probablement dans le régime proche du seuil. Cependant, on pensait auparavant que surpasser le code de surface pour des modèles de bruit réalistes incluant les erreurs de mémoire, de porte et de préparation/mesure d'état pourrait nécessiter de très grands codes LDPC avec plus de 10 000 qubits physiques . 30 31 32 33 34 35 36 37 38 39 40 39 40 31 Nous présentons ici plusieurs exemples concrets de codes LDPC à haut taux avec quelques centaines de qubits physiques équipés d'un circuit de mesure de syndrome de faible profondeur, d'un algorithme de décodage efficace et d'un protocole tolérant aux fautes pour adresser des qubits logiques individuels. Ces codes montrent un seuil d'erreur proche de 0,7%, affichent d'excellentes performances dans le régime proche du seuil et offrent une réduction de 10 fois de la surcharge d'encodage par rapport au code de surface. Les exigences matérielles pour réaliser nos protocoles de correction d'erreurs sont relativement modestes, car chaque qubit physique est couplé par des portes à deux qubits avec seulement six autres qubits. Bien que le graphe de connectivité des qubits ne soit pas localement intégrable dans une grille 2D, il peut être décomposé en deux sous-graphes planaires. Comme nous le soutenons ci-dessous, une telle connectivité de qubits est bien adaptée aux architectures basées sur des qubits supraconducteurs. Nos codes sont une généralisation des codes de bicyclette proposés par MacKay et al. et étudiés plus en profondeur dans les réf. , , . Nous avons nommé nos codes bivariés bicyclette (BB) car ils sont basés sur des polynômes bivariés, comme détaillé dans les . Ce sont des codes stabilisateurs de type Calderbank–Shor–Steane (CSS) , qui peuvent être décrits par une collection d'opérateurs de contrôle à six qubits (stabilisateurs) composés des Pauli X et Z. À un niveau élevé, un code BB est similaire au code torique bidimensionnel . En particulier, les qubits physiques d'un code BB peuvent être disposés sur une grille bidimensionnelle avec des conditions aux limites périodiques de telle sorte que tous les opérateurs de contrôle soient obtenus à partir d'une seule paire de contrôles X et Z par application de translations horizontales et verticales de la grille. Cependant, contrairement aux stabilisateurs de plaquettes et de sommets décrivant le code torique, les opérateurs de contrôle des codes BB ne sont pas localement géométriques. De plus, chaque contrôle agit sur six qubits plutôt que quatre. Nous décrirons le code par un graphe de Tanner G tel que chaque sommet de G représente soit un qubit de données, soit un opérateur de contrôle. Un sommet de contrôle i et un sommet de données j sont connectés par une arête si l'opérateur de contrôle i agit de manière non triviale sur le qubit de données j (en appliquant Pauli X ou Z). Voir la Fig. pour des exemples de graphes de Tanner des codes de surface et BB, respectivement. Le graphe de Tanner de tout code BB a un degré de sommet de six et une épaisseur de graphe égale à deux, ce qui signifie qu'il peut être décomposé en deux sous-graphes planaires disjoints par les arêtes (voir les ). La connectivité de qubits d'épaisseur 2 est bien adaptée aux qubits supraconducteurs couplés par des résonateurs micro-ondes. Par exemple, deux couches planaires de coupleurs et leurs lignes de contrôle peuvent être attachées au dessus et au dessous de la puce hébergeant les qubits, et les deux côtés assemblés. 41 35 36 42 Méthodes 43 44 7 1a,b 29 Méthodes , Graphe de Tanner d'un code de surface, à titre de comparaison. , Graphe de Tanner d'un code BB avec les paramètres [] incorporé dans un tore. Chaque arête du graphe de Tanner relie un sommet de données et un sommet de contrôle. Les qubits de données associés aux registres q(L) et q(R) sont représentés par des cercles bleus et oranges. Chaque sommet a six arêtes incidentes, dont quatre à courte portée (pointant vers le nord, le sud, l'est et l'ouest) et deux à longue portée. Nous ne montrons que quelques arêtes à longue portée pour éviter l'encombrement. Les arêtes pointillées et continues indiquent deux sous-graphes planaires qui couvrent le graphe de Tanner, voir les . , Schéma d'une extension de graphe de Tanner pour la mesure de X et Z conformément à la réf. , se rattachant à un code de surface. L'auxiliaire correspondant à la mesure de X peut être connecté à un code de surface, permettant des opérations de chargement-stockage pour tous les qubits logiques au moyen de téléportation quantique et de certaines unitaires logiques. Ce graphe de Tanner étendu a également une implémentation dans une architecture d'épaisseur 2 à travers les arêtes A et B (voir les ). a b Méthodes c 50 Méthodes Un code BB avec les paramètres [[n, k, d]] encode k qubits logiques dans n qubits de données offrant une distance de code d, ce qui signifie que toute erreur logique s'étend sur au moins d qubits de données. Nous divisons les n qubits de données en registres q(L) et q(R) de taille n/2 chacun. Chaque contrôle agit sur trois qubits de q(L) et trois qubits de q(R). Le code repose sur n qubits auxiliaires de contrôle pour mesurer le syndrome d'erreur. Nous divisons les n qubits de contrôle en registres q(X) et q(Z) de taille n/2 qui collectent les syndromes de types X et Z, respectivement. Au total, l'encodage repose sur 2n qubits physiques. Le taux d'encodage net est donc r = k/(2n). Par exemple, l'architecture standard du code de surface encode k = 1 qubit logique dans n = d2 qubits de données pour un code de distance d et utilise n − 1 qubits de contrôle pour les mesures de syndrome. Le taux d'encodage net est r ≈ 1/(2d2), ce qui devient rapidement peu pratique car on est forcé de choisir une grande distance de code, en raison, par exemple, des erreurs physiques étant proches de la valeur seuil. Par contraste, les codes BB ont un taux d'encodage r ≫ 1/d2, voir le Tableau pour des exemples de codes. À notre connaissance, tous les codes présentés dans le Tableau sont nouveaux. Le code [] de distance 12 pourrait être le plus prometteur pour les démonstrations à court terme, car il combine une grande distance et un taux d'encodage net élevé r = 1/24. À titre de comparaison, le code de surface de distance 11 a un taux d'encodage net r = 1/241. Ci-dessous, nous montrons que le code BB de distance 12 surpasse le code de surface de distance 11 pour la gamme des taux d'erreur pertinents expérimentalement. 1 1 Pour éviter l'accumulation d'erreurs, il faut être capable de mesurer le syndrome d'erreur suffisamment fréquemment. Ceci est accompli par un circuit de mesure de syndrome qui couple les qubits de données dans le support de chaque opérateur de contrôle avec le qubit auxiliaire respectif par une séquence de portes CNOT. Les qubits de contrôle sont ensuite mesurés, révélant la valeur du syndrome d'erreur. Le temps nécessaire pour implémenter le circuit de mesure de syndrome est proportionnel à sa profondeur : le nombre de couches de portes composées de CNOT non superposés. De nouvelles erreurs continuant à se produire pendant l'exécution du circuit de mesure de syndrome, sa profondeur doit être minimisée. Le cycle complet de mesure du syndrome pour un code BB est illustré dans la Fig. . Le cycle de syndrome nécessite seulement sept couches de CNOT quelle que soit la longueur du code. Les qubits de contrôle sont initialisés et mesurés au début et à la fin du cycle de syndrome respectivement (voir les pour plus de détails). Le circuit respecte la symétrie de décalage cyclique du code sous-jacent. 2 Méthodes Cycle complet de mesures de syndrome reposant sur sept couches de CNOT. Nous fournissons une vue locale du circuit qui n'inclut qu'un qubit de données de chaque registre q(L) et q(R). Le circuit est symétrique par rapport aux décalages horizontaux et verticaux du graphe de Tanner. Chaque qubit de données est couplé par des CNOT avec trois qubits de contrôle X et trois qubits de contrôle Z : voir les pour plus de détails. Méthodes Le protocole complet de correction d'erreurs effectue N ≫ 1 cycles de mesure de syndrome, puis appelle un décodeur : un algorithme classique qui prend en entrée les syndromes mesurés et produit une estimation de l'erreur finale sur les qubits de données. La correction d'erreurs réussit si l'erreur estimée et l'erreur réelle coïncident modulo un produit d'opérateurs de contrôle. Dans ce cas, les deux erreurs ont la même action sur tout état (logique) encodé. Ainsi, appliquer l'inverse de l'erreur estimée ramène les qubits de données à l'état logique initial. Sinon, si l'erreur estimée et l'erreur réelle diffèrent par un opérateur logique non trivial, la correction d'erreurs échoue, résultant en une erreur logique. Nos expériences numériques sont basées sur la propagation par croyances avec un décodeur à statistiques ordonnées (BP-OSD) proposé par Panteleev et Kalachev . L'œuvre originale décrivait BP-OSD dans le contexte d'un modèle de bruit jouet avec uniquement des erreurs de mémoire. Ici, nous montrons comment étendre BP-OSD au modèle de bruit basé sur les circuits, voir les pour plus de détails. Notre approche suit de près les réf. , , , . c 36 36 informations supplémentaires 45 46 47 48 Une version bruyante du circuit de mesure de syndrome peut inclure plusieurs types d'opérations défectueuses telles que des erreurs de mémoire sur les qubits de données ou de contrôle inactifs, des portes CNOT défectueuses, des initialisations et des mesures de qubits. Nous considérons le modèle de bruit basé sur les circuits dans lequel chaque opération échoue indépendamment avec une probabilité p. La probabilité d'une erreur logique p dépend du taux d'erreur p, des détails des circuits de mesure de syndrome et de l'algorithme de décodage. Soit P (N ) la probabilité d'erreur logique après avoir effectué N cycles de syndrome. Définissons le taux d'erreur logique comme p = P (N )/N . Informellement, p peut être considérée comme la probabilité d'erreur logique par cycle de syndrome. Suivant la pratique courante, nous choisissons N = d pour un code de distance d. La figure montre le taux d'erreur logique atteint par les codes du Tableau . Le taux d'erreur logique a été calculé numériquement pour p ≥ 10 et extrapolé à des taux d'erreur plus faibles à l'aide d'une formule d'ajustement (voir les ). Le pseudo-seuil p est défini comme une solution de l'équation d'équilibre p (p) = kp. Ici, kp est une estimation de la probabilité qu'au moins un des k qubits non encodés subisse une erreur. Les codes BB offrent un pseudo-seuil proche de 10 L L c c L L c c L c 3 1 -3 Méthodes 0 L