Lors de son Quantum Summit aujourd’hui, IBM a annoncé le développement réussi de son QPU (Quantum Processing Unit) « Osprey » – son objectif de feuille de route de 433 qubits pour 2022. Le nouveau QPU augmente considérablement le nombre de qubits de travail au sein d’un seul QPU – le QPU « Eagle » de la génération précédente n’en transportait que 127.
Le nouveau lancement est une autre étape confiante pour la feuille de route agressive d’informatique quantique d’IBM, qui vise à fournir des QPU avec des dizaines de milliers (peut-être même des centaines de milliers) de qubits d’ici 2030.
« Le nouveau processeur ‘Osprey’ de 433 qubits nous rapproche du point où les ordinateurs quantiques seront utilisés pour résoudre des problèmes auparavant insolubles », a déclaré le Dr Darío Gil, vice-président senior d’IBM et directeur de la recherche.
« Nous développons et développons continuellement notre technologie quantique à travers le matériel, les logiciels et l’intégration classique pour relever les plus grands défis de notre époque, en collaboration avec nos partenaires et clients du monde entier. Ce travail s’avérera fondamental pour l’ère à venir du supercalcul quantique. . »
Le lancement d’Osprey est important pour IBM : en plein milieu de la feuille de route d’IBM, il porte la plus grande augmentation du nombre de qubits dans une seule puce. Comparé à Eagle, Osprey augmente le nombre de qubits de 3,4 fois ; il s’agit d’une augmentation encore plus importante du nombre de qubits que celle que la société prévoit d’atteindre dans trois ans, lorsqu’elle prévoit d’introduire le Kookaburra QPU de 4 158 qubits. Il est également plus élevé que tout autre saut de qubit depuis l’introduction de Falcon et de ses 27 qubits en 2019.
En raison du positionnement d’Osprey dans la feuille de route d’IBM – juste avant que la société ne commence à explorer la mise à l’échelle quantique en interconnectant plusieurs QPU l’année prochaine avec Heron et ses p couplages – l’augmentation du nombre de qubits sans compromis sur la qualité est exceptionnellement pertinente. Mais peut-être plus impressionnant est le fait que cette augmentation du nombre de qubits a été conçue en même temps qu’IBM a jeté la plupart des bases de ses futurs produits modulaires.
La société se tourne vers 2023 pour présenter ses QPU Heron évolutifs de 133 qubits, qui tireront parti des couplages p pour interconnecter plusieurs puces Heron. L’idée est qu’il est plus facile de mettre à l’échelle des qubits dans un package donné et de lier des packages séparés que de créer un QPU monolithique.
Cela pose des défis concernant la répartition de la charge de travail – il existe plusieurs façons de découper un problème quantique de volume plus élevé afin qu’il s’adapte à la puce (ou aux puces) dont vous disposez pour exécuter les circuits quantiques, et la façon dont cela est fait affecte gravement les performances. Mais la mise à l’échelle multi-puces est une nécessité, et l’adoption de cette approche signifiait la refonte de l’ensemble du sous-système électronique de contrôle – le pont entre l’informatique classique et quantique.
Selon le Dr Oliver Dial, architecte matériel en chef chez IBM Quantum, une amélioration significative est venue de la modification du mécanisme de contrôle des qubits à l’intérieur des réfrigérateurs à dilution de l’entreprise – le matériel responsable du refroidissement des qubits supraconducteurs vers le zéro absolu proche (-273,15 ° C).
Avant Osprey, IBM utilisait des câbles coaxiaux pour transmettre les informations de contrôle des micro-ondes vers les qubits d’exploitation. Maintenant, les câbles coaxiaux ont cédé la place aux câbles rubans flexibles (le même type qui est utilisé partout où il y a de l’électronique et des charnières, comme dans votre ordinateur portable). Ces câbles plats eux-mêmes occupent beaucoup moins d’espace et offrent un débit beaucoup plus élevé que la solution précédente tout en coûtant moins de temps et de ressources à déployer. Le Dr Dial dit qu’ils ont permis à IBM d’augmenter la densité de contrôle de 70 % tout en réduisant les coûts par cinq.
Un autre élément important de cette nouvelle génération quantique d’IBM était l’augmentation des performances du FPGA (Field-Programmable Gate Array) au sein du sous-système de contrôle.
Alors que l’avenir du contrôle qubit d’IBM passe par des ASIC (circuits intégrés spécifiques à l’application) spécifiques au quantum, les FPGA ont jusqu’à présent géré le gros du travail en raison de leur flexibilité – IBM peut prototyper différents schémas de contrôle dans la conception programmable du FPGA. Cela permet une expérimentation et une itération rapides jusqu’à ce que l’entreprise soit suffisamment confiante pour parcourir la route complète de l’ASIC. Le Dr Dial affirme que ce changement apportera une autre amélioration monumentale de l’efficacité énergétique en réduisant la puissance requise pour contrôler un seul qubit d’environ 100 W à seulement 10 milliwatts.
Fondamentalement, le Dr Dial dit que les qubits supraconducteurs d’Osprey ont montré des temps de cohérence comparables aux meilleurs de l’entreprise (malgré l’énorme augmentation du nombre de qubits), ce qui signifie que le volume quantique pur (une estimation des performances informatiques quantiques prise en charge par IBM et d’autres acteurs de l’industrie) est voué à augmenter en ligne avec le nombre de qubits.
Selon IBM, le nombre et la qualité des qubits dans Osprey sont tels qu’un système classique tentant de décrire l’état de calcul de ses qubits nécessiterait plus de bits disponibles qu’il n’y a d’atomes dans l’univers. Il semblerait que nous soyons déjà entrés dans l’étape de l’avantage quantique de l’équation.
Bien sûr, les qubits peuvent s’améliorer à la fois en nombre et en qualité, mais les solutions matérielles quantiques pures n’ont pas grand-chose à offrir à l’utilisateur moyen. Le Dr Dial n’a pas tardé à souligner que n’importe qui – vraiment n’importe qui – peut désormais développer la technologie quantique d’IBM via l’offre cloud de l’entreprise.
L’informatique quantique nécessite un effort d’abstraction sévère qui permet aux non-spécialistes quantiques d’interagir avec ces systèmes, et IBM a également doublé son logiciel Quiskit Runtime pour le rendre plus facile pour les utilisateurs – échanger le temps d’exécution pour la précision est aussi simple que de changer un paramétrage du logiciel.
Grâce à des améliorations de ses pilotes, à l’exécution de Quiskit et à des améliorations de circuits paramétrés tout au long de 2022, IBM a réussi à parcourir son score de 1 400 CLOPS jusqu’à environ 15 000 CLOPS – si les améliorations de performances basées sur les pilotes d’AMD sur ses GPU lui ont valu le surnom de « bon vin », Je me demande quelle métaphore serait appropriée pour cette augmentation de performances de près de 11 fois.
Les améliorations matérielles sont une moitié nécessaire du développement de tout nouveau système technologique ; mais l’autre moitié consiste en fait à utiliser ce matériel. À cette fin, IBM a également annoncé lors de son Quantum Summit son 100×100 Challenge, une initiative qui vise à mettre une profondeur d’opération de 100 qubit x 100 gate entre les mains des utilisateurs d’ici 2024. En tirant parti de l’architecture quantique modulaire de nouvelle génération de l’entreprise, Heron, IBM vise à défier les utilisateurs avec un « qu’est-ce qui convient ici? » question – quel type de problème de calcul quantique peut être traité dans ces contraintes ?
Pour tout ce que nous savons sur l’informatique quantique, quelque chose de vraiment spécial pourrait sortir de ce défi – il ne s’agit pas de savoir si l’humanité verra des gains significatifs lorsqu’elle commencera à résoudre des problèmes avec le calcul quantique. C’est simplement une question de comment et quand – et ce défi donne à IBM un moyen infaillible de maintenir cette conversation en cours. Ce qui est, après tout, l’une des préoccupations de l’entreprise pour son Quantum Summit 2022.
« L’IBM Quantum Summit 2022 marque un moment charnière dans l’évolution du secteur mondial de l’informatique quantique, alors que nous avançons le long de notre feuille de route quantique. Alors que nous continuons à augmenter l’échelle des systèmes quantiques et à les rendre plus simples à utiliser, nous continuerons à voir l’adoption et la croissance de l’industrie quantique », a déclaré Jay Gambetta, IBM Fellow et vice-président d’IBM Quantum. « Nos percées définissent la prochaine vague quantique, que nous appelons le supercalcul centré sur le quantique, où la modularité, la communication et l’intergiciel contribueront à améliorer la capacité de calcul à l’échelle et l’intégration des flux de travail quantiques et classiques. »
Sur la base de ces remarques et du rythme de développement quantique d’IBM (et d’une exécution parfaite, selon sa feuille de route), il semble que le pari de l’entreprise sur les qubits supraconducteurs porte ses fruits. Comme IBM l’a montré, il y a encore beaucoup de vie dans l’optimisation des systèmes quantiques de l’entreprise, mis à part l’augmentation des densités de qubit et des temps de cohérence qui ont permis le passage de l’Eagle à 127 qubits à l’Osprey à 433 qubits.
Osprey a maintenant pris son envol, mais IBM n’a jamais cessé de regarder vers l’avenir du quantique – et cela continue avec le Condor 2023, 1 121 qubits.