Le matériel informatique quantique actuel est sévèrement limité dans ses possibilités par des erreurs difficiles à éviter. Il peut y avoir des problèmes avec tout, depuis la définition de l’état initial d’un qubit jusqu’à la lecture de sa sortie, et les qubits perdent parfois leur état sans rien faire. Certains processeurs quantiques existants aujourd’hui ne peuvent pas utiliser tous leurs qubits individuels pour un seul calcul sans que des erreurs ne deviennent inévitables.
La solution consiste à combiner plusieurs qubits matériels pour former ce qu’on appelle un qubit logique. Cela permet à un seul bit d’information quantique d’être distribué entre plusieurs qubits matériels, réduisant ainsi l’impact des erreurs individuelles. Des qubits supplémentaires peuvent être utilisés comme capteurs pour détecter les erreurs et permettre des interventions pour les corriger. Récemment, un certain nombre de démonstrations ont montré que les qubits logiques fonctionnent en principe.
Mercredi, Microsoft et Quantinuum ont annoncé que les qubits logiques fonctionnent bien plus que le principe. « Nous avons pu démontrer ce qu’on appelle l’extraction du syndrome actif, ou parfois aussi la correction d’erreurs répétées », a déclaré Krysta Svore de Microsoft à Ars. « Et nous avons réussi à faire cela de manière à ce que ce soit meilleur que le taux d’erreur physique sous-jacent. Cela fonctionne donc réellement. »
Une pile matérielle/logicielle
Microsoft mène ses propres efforts en matière d’informatique quantique et agit également en tant que fournisseur de services pour le matériel d’autres sociétés. Son service Azure Quantum permet aux utilisateurs d’écrire des instructions pour les ordinateurs quantiques de manière indépendante du matériel, puis de les exécuter sur les offres de quatre sociétés différentes, dont beaucoup sont basées sur des qubits matériels radicalement différents. Ce travail a toutefois été réalisé sur une plate-forme matérielle spécifique : un ordinateur à ions piégés d’une société appelée Quantinuum.
Nous avons couvert la technologie derrière les ordinateurs de Quantinuum lorsque l’entreprise était un projet interne du géant industriel Honeywell. En bref, les qubits d’ions piégés bénéficient d’un comportement cohérent (il n’y a pas de variation des atomes d’un appareil à l’autre), d’une facilité de contrôle et d’une relative stabilité. Étant donné que les ions peuvent être déplacés facilement, il est possible d’enchevêtrer n’importe quel qubit avec n’importe quel autre dans le matériel et d’effectuer des mesures sur eux pendant que les calculs sont en cours. « Voici quelques-unes des capacités clés : la fidélité des portes à deux qubits, le fait que vous pouvez vous déplacer et avoir toute la connectivité grâce au mouvement, puis la mesure à mi-circuit », a déclaré Svore à Ars.
Le matériel de Quantinuum est en retard sur une dimension : le nombre total de qubits. Alors que certains de ses concurrents dépassent les 1 000 qubits, le dernier matériel de Quantinuum est limité à 32 qubits.
Cela dit, un faible taux d’erreur est précieux pour ce travail. Les qubits logiques fonctionnent en combinant plusieurs qubits matériels. Si chacun de ces qubits a un taux d’erreur suffisamment élevé, leur combinaison augmente la probabilité que des erreurs surviennent plus rapidement qu’elles ne puissent être corrigées. Le taux d’erreur doit donc être inférieur à un point critique pour que la correction des erreurs fonctionne. Et les technologies de qubits existantes semblent en être à ce point, quoique à peine. Les premiers travaux dans ce domaine avaient soit à peine détecté l’impact de la correction des erreurs, soit avaient simplement enregistré les erreurs sans les corriger.
Comme le dit l’ébauche d’un nouveau manuscrit décrivant ce travail, « à notre connaissance, aucune de ces expériences n’a démontré des taux d’erreur logiques meilleurs que les taux d’erreur physiques. »
Microsoft est également bien placé pour effectuer ce travail. Son rôle l’oblige à traduire le code quantique générique en commandes à exécuter sur le matériel de Quantinuum, notamment en tant que fournisseur de compilateur. Et dans au moins une partie de ce travail, il a utilisé ces connaissances pour optimiser spécifiquement le code afin de réduire le temps passé à déplacer les ions.
La correction d’erreurs corrige réellement les erreurs
Le travail impliquait trois expériences. Dans la première, les chercheurs ont formé un qubit logique avec sept qubits matériels contenant des informations et trois qubits auxiliaires pour la détection et la correction des erreurs. Les 32 qubits du matériel ont permis d’en créer deux ; ils étaient alors emmêlés, ce qui nécessitait deux opérations de porte. Les erreurs ont été vérifiées lors de l’initialisation des qubits et après l’intrication. Ces opérations ont été effectuées des milliers de fois pour obtenir des taux d’erreur.
Sur les qubits matériels individuels, le taux d’erreur était de 0,50 %. Lorsque la correction des erreurs était incluse, ce taux tombait à 0,05 pour cent. Mais le système pourrait faire encore mieux s’il identifiait les lectures indiquant des états d’erreur difficiles à interpréter et éliminait ces calculs. La suppression a réduit le taux d’erreur à 0,001 pour cent. Ces cas étaient suffisamment rares pour que l’équipe n’ait pas eu à abandonner un nombre important d’opérations, mais ils ont quand même fait une énorme différence dans le taux d’erreur.
Ensuite, l’équipe est passée à ce qu’elle appelle un « code carbone », qui nécessite 30 qubits physiques (24 données et six corrections/détection), ce qui signifie que le matériel ne peut en héberger qu’un seul. Mais le code a également été optimisé pour le matériel. « Connaissant les fidélités des portes à deux qubits, sachant combien de zones d’interaction et quel degré de parallélisme vous pouvez avoir, nous optimisons ensuite nos codes de correction d’erreurs pour cela », a déclaré Svore.
Le code Carbone permet également d’identifier les erreurs difficiles à corriger correctement, permettant ainsi d’écarter ces résultats. Grâce à la correction des erreurs et à l’élimination des erreurs difficiles à corriger, le taux d’erreur est passé de 0,8 % à 0,001 %, soit un facteur de différence de 800.
Enfin, les chercheurs ont effectué des séries répétées d’opérations de porte suivies d’une détection et d’une correction d’erreurs sur un qubit logique à l’aide du code Carbon. Ceux-ci ont à nouveau montré une amélioration majeure grâce à la correction d’erreurs (environ un ordre de grandeur) après un tour. Cependant, au deuxième tour, la correction des erreurs n’avait réduit le taux d’erreur que de moitié, et tout effet était statistiquement insignifiant au troisième tour.
Ainsi, même si les résultats nous indiquent que la correction d’erreurs fonctionne, ils indiquent également que notre matériel actuel n’est pas encore suffisant pour permettre les opérations étendues que nécessiteront des calculs utiles. Svore a néanmoins déclaré : « Je pense que cela marque une étape cruciale sur la voie de calculs plus élaborés, tolérants aux pannes et fiables » et a souligné que cela a été réalisé sur du matériel commercial de production plutôt que sur une machine académique unique en son genre.