Une équipe de chercheurs d’IBM, en association avec l’UC Berkeley et l’Université Purdue, a réussi à extraire l’informatique quantique utile de l’un des ordinateurs NISQ (Noisy Intermediate Scale Quantum) actuels. L’équipe a utilisé l’une des dernières unités de traitement quantique (QPU) d’IBM, Eagle, pour effectuer des calculs qui devaient échouer au milieu du bruit qubit. Cependant, en utilisant un mécanisme de rétroaction intelligent entre le QPU Eagle 127 qubit d’IBM et les superordinateurs de l’UC Berkeley et de l’Université Purdue, IBM a réussi à prouver qu’il pouvait tirer des résultats utiles d’un QPU bruyant. La porte de l’utilité quantique est ouverte – et nous sommes bien plus tôt que prévu.
Nos ordinateurs quantiques de l’ère NISQ sont connectés à nos superordinateurs standard – les machines les plus puissantes connues de l’humanité, capables d’effectuer des billions d’opérations par seconde. Aussi puissants soient-ils, c’est une vérité universelle que lorsque deux sujets sont encordés ensemble, ils ne se déplacent qu’aussi vite que le permet le plus lent d’entre eux. Et le supercalculateur était déjà étiré pour cette expérience, utilisant des techniques avancées pour suivre la complexité de la simulation.
Lorsque la simulation des qubits est devenue trop complexe pour que le supercalculateur puisse simplement « forcer brutalement » les résultats, les chercheurs de l’UC Berkeley ont commencé à utiliser des algorithmes de compression – des états de réseau de tenseurs. Ces états de réseau de tenseurs (matrices) sont essentiellement des cubes de données, où les nombres qui composent les calculs sont représentés dans un espace tridimensionnel (x, y, z) capable de gérer des relations d’informations et des volumes plus complexes qu’une solution 2D plus habituelle. – pensez à un simple tableau Excel 2D (x, y) et aux nombreuses autres lignes que vous auriez à parcourir dans cette configuration si vous deviez envisager un autre plan d’information (z).
Cela signifie qu’il y a déjà une certaine utilité qui peut être extraite des ordinateurs quantiques NISQ – il y a des choses où ils peuvent produire des résultats qui seraient hors de portée – au moins en termes de temps et d’argent – pour les supercalculateurs standard, ou où les cerceaux nécessaires pour obtenir ces résultats rendrait l’effort plus important que le gain.
Il y a maintenant un va-et-vient entre les solutions fournies par nos ordinateurs quantiques de l’ère NISQ qui comportent quelques centaines de qubits (au mieux) et nos supercalculateurs standard qui comportent des billions de transistors. Au fur et à mesure que le nombre de qubits utiles disponibles augmente, les circuits avec des profondeurs plus profondes 60 utilisées dans le document seront explorés. À mesure que le nombre et la qualité des qubits augmentent, les supercalculateurs standard devront également suivre le rythme, en calculant les chiffres et en vérifiant une file d’attente aussi profonde que possible des résultats de l’informatique quantique.
« Il souligne immédiatement le besoin de nouvelles méthodes classiques », dit Anand. Et ils étudient déjà ces méthodes. « Maintenant, nous demandons si nous pouvons prendre le même concept d’atténuation des erreurs et l’appliquer aux simulations de réseaux de tenseurs classiques pour voir si nous pouvons obtenir de meilleurs résultats classiques. »
Essentiellement, plus vous pouvez prédire avec précision l’évolution du bruit dans votre système quantique, mieux vous savez comment ce bruit empoisonne les résultats corrects. La façon dont vous apprenez à prédire quelque chose est simplement de pousser dessus et d’observer ce qui se passe suffisamment de fois pour pouvoir identifier les leviers qui le font fonctionner.
Certains de ces leviers ont à voir avec comment et quand vous activez vos qubits (certains circuits utilisent plus de qubits, d’autres nécessitent que ces qubits soient arrangés en portes plus ou moins quantiques, avec des enchevêtrements plus complexes entre certains qubits…) Les chercheurs d’IBM ont dû apprendre précisément combien et quel bruit résultait du déplacement de chacun de ces boutons dans son Quantum Eagle de 127 qubits – parce que si vous savez comment introduire du bruit, alors vous commencez à le contrôler. Si vous comprenez comment il apparaît en premier lieu, vous pouvez en tenir compte, ce qui vous permet à son tour d’essayer d’empêcher ou de profiter de ce qui se passe.
Mais si vous n’exécutez que des calculs sur votre ordinateur bruyant, comment pouvez-vous savoir que ces calculs sont corrects ? C’est là qu’interviennent les superordinateurs standards – et la recherche d’une vérité terrain.
L’équipe d’IBM a eu accès à deux supercalculateurs – le Centre national de calcul scientifique pour la recherche énergétique (NERSC) du Berkeley National Lab et le supercalculateur Anvil financé par la NSF à l’Université Purdue. Ces supercalculateurs calculeraient les mêmes simulations quantiques qu’IBM a exécutées sur son QPU Eagle de 127 qubits – réparties selon les besoins en leur sein, et de manière à permettre la comparaison des deux résultats des supercalculateurs. Maintenant, vous avez une vérité de terrain – la solution que vous savez être correcte, réalisée et vérifiée par des supercalculateurs standard. Maintenant, le feu est vert pour comparer vos résultats bruyants avec les bons.
« IBM a demandé à notre groupe si nous serions intéressés à prendre en charge le projet, sachant que notre groupe était spécialisé dans les outils informatiques nécessaires à ce type d’expérience », a déclaré le chercheur diplômé Sajant Anand de l’UC Berkeley. « Je pensais que c’était un projet intéressant, au début, mais je ne m’attendais pas à ce que les résultats se produisent comme ils l’ont fait. »
Ensuite, il s’agit « juste » de résoudre un casse-tête « trouver les différences »: une fois que vous réalisez à quel point la présence de bruit a faussé les résultats, vous pouvez compenser sa présence et glaner la même « vérité de terrain » qui était présente dans le résultats des supercalculateurs standards. IBM appelle cette technique Zero Noise Extrapolation (ZNE).
C’est un processus symbiotique : l’équipe IBM responsable de l’article cherche également à apporter ses techniques d’atténuation des erreurs – et leurs équivalents à l’extrapolation zéro bruit – aux supercalculateurs standard. Entre l’augmentation de la puissance brute des développements matériels les plus récents et les optimisations d’algorithmes et de techniques (telles que l’utilisation d’algorithmes de compression intelligents), la puissance brute de supercalcul va augmenter, nous permettant de vérifier notre travail d’informatique quantique un peu plus loin dans l’ère de la post -Les ordinateurs quantiques NISQ et leur déploiement de la correction d’erreur quantique.
C’est le moment où la corde casse, et quantum sera relativement libéré de la nécessité de vérifier ses résultats avec des techniques classiques. C’est ce qui ralentit l’informatique quantique (au-delà de l’absence de correction d’erreur qui permettra aux qubits d’effectuer eux-mêmes les calculs, bien sûr).
Dans une interview avec Tom’s Hardware pour cet article, le Dr Abhinav Kandala, responsable chez Quantum Capabilities and Demonstrations chez IBM Quantum, l’a magnifiquement dit :
Sauf avec le quantum, vous pouvez alors augmenter la complexité du problème au-delà de ce que les supercalculateurs peuvent gérer – et parce que vous avez correctement modélisé l’impact du bruit sur le système, vous pouvez toujours effectuer les étapes de nettoyage sur vos résultats bruyants… avec un certain degré de confiance. Plus vous vous éloignez des résultats « concluants et véridiques » fournis par les superordinateurs standards, plus vous risquez d’introduire des erreurs fatales dans les calculs qui n’ont pas été (et ne pourraient pas être) prises en compte dans votre modèle de bruit.
Mais bien que vous puissiez faire confiance à vos résultats, vous avez en fait fourni des capacités de traitement quantique qui sont utiles, et au-delà de ce qui peut être réalisé avec les machines de Turing classiques de la génération actuelle comme le supercalculateur de Berkeley. C’est également au-delà de ce que l’on pensait possible dans nos ordinateurs actuels de l’ère NISQ (Noisy Intermediate Stage Quantum). Et il se trouve que de nombreux algorithmes conçus pour les dispositifs quantiques à court terme pourraient s’adapter aux 127 qubits du QPU Eagle d’IBM, qui peut fournir des profondeurs de circuit supérieures à 60 pas « d’une valeur » de portes quantiques.
Le Dr Kandala a ensuite ajouté: « Ce que nous faisons avec l’atténuation des erreurs qui exécute des circuits quantiques à faible profondeur et mesure ce qu’on appelle les valeurs d’attente mesurant les propriétés de l’état, ce n’est pas la seule chose que les gens veulent faire avec les ordinateurs quantiques, je veux dire pour déverrouiller le plein on a potentiellement besoin d’une correction d’erreur quantique et le sentiment dominant était que pour quelque chose d’utile à faire, on ne peut y accéder qu’une fois que vous avez un ordinateur quantique à erreur corrigée
« L’élément critique était de pouvoir manipuler le bruit au-delà de l’étirement des impulsions », dit le Dr Kandala. « Une fois que cela a commencé à fonctionner, nous avons pu faire des extrapolations plus compliquées qui pourraient supprimer le biais du bruit d’une manière que nous n’étions pas en mesure de faire auparavant. »
ZNE est susceptible de devenir un élément de base de toute approche informatique quantique – l’atténuation des erreurs est une exigence essentielle pour les ordinateurs NISQ sujets aux erreurs que nous avons actuellement et sera probablement nécessaire même lorsque nous arriverons à la porte de la correction des erreurs – une approche qui voit certains les qubits chargés de fonctions liées à la correction des erreurs dans les calculs d’autres qubits.
Le travail effectué par IBM ici a déjà eu un impact sur la feuille de route de l’entreprise – ZNE a cette qualité attrayante de créer de meilleurs qubits à partir de ceux que nous pouvons déjà contrôler au sein d’une unité de traitement quantique (QPU). C’est presque comme si nous avions une augmentation en mégahertz – plus de performances (moins de bruit) sans aucune logique supplémentaire. Nous pouvons être sûrs que ces leçons sont prises en compte et mises en œuvre dans la mesure du possible sur la voie d’un « million + qubits ».
Il est également difficile d’ignorer à quel point ce travail montre qu’il n’y a pas vraiment de course entre le quantique et le classique : le futur est en effet Fusion, pour jouer un peu avec la devise d’AMD d’autrefois. Cette fusion verra des éléments informatiques spécifiques répondant à des besoins de traitement spécifiques. Chaque problème, aussi complexe soit-il, a son outil, du classique au quantique ; et l’ingéniosité humaine exige que nous excellions à utiliser tous les nôtres.
Cette corde proverbiale entre les superordinateurs standard et les ordinateurs quantiques ne s’étend que jusqu’à présent, mais IBM trouve des moyens de plus en plus astucieux d’étendre sa longueur. Grâce à ces recherches, les ordinateurs quantiques commencent déjà à voir un peu plus loin. Peut-être que le Dr Kandala verra ce qu’il espère plus tôt que prévu : le terrain de jeu de l’utilité quantique est maintenant ouvert plus tôt que prévu. Voyons ce que les humains peuvent y faire, d’accord ?