Nvidia accélère ses efforts pour relier les domaines du GPU et de l’informatique quantique grâce à cuQuantum, son Tensor-capable (s’ouvre dans un nouvel onglet)boîte à outils de simulation quantique. Grâce à cela, la société vise à accélérer les charges de travail de simulation de circuits quantiques d’une manière qui dépasse la portée des systèmes NISQ (Noisy Intermediate-Scale Quantum) actuels. Mais pour cela, l’entreprise parie sur une intégration plus poussée entre les systèmes quantiques et classiques vers des solutions hybrides. Sans surprise, les GPU sont à la pointe des développements quantiques de Nvidia.
Nvidia a pour objectif de créer une connexion à faible latence qui peut relier ses GPU – et leurs cœurs Tensor capables de simulation quantique – avec les QPU (Quantum Processing Units) actuels et à venir. L’objectif ici est de tirer parti du traitement parallèle extrêmement puissant du GPU, en les exploitant pour des charges de travail spécifiques au quantique telles que l’optimisation de circuit, l’étalonnage et la correction d’erreurs, tout en supprimant le goulot d’étranglement des communications entre les systèmes quantiques et classiques.
Un autre élément de l’approche de Nvidia en matière d’informatique quantique vise à offrir une couche logicielle commune qui n’est pas sans rappeler le modèle de programmation CUDA de l’entreprise. (s’ouvre dans un nouvel onglet).
L’idée est que ce modèle de programmation simplifie considérablement l’interaction au niveau du code avec les QPU et les simulations quantiques, ce qui se fait toujours dans ce qui équivaut à du code d’assemblage de bas niveau. L’objectif est de rationaliser un modèle de programmation unifié et quantique et une chaîne d’outils de compilateur (s’ouvre dans un nouvel onglet) qui résume différents QPU pour une utilisation plus ciblée des capacités quantiques. Nvidia espère faciliter la transition des charges de travail classiques aux charges de travail quantiques classiques en permettant aux utilisateurs de porter partiellement leurs applications HPC (High-Performance Computing) vers un QPU simulé, puis vers le processeur lui-même.
Selon NVidia, des dizaines d’organisations tirent déjà parti de sa boîte à outils cuQuantum pour soutenir leur travail quantique. Amazon Web Services propose déjà l’intégration cuQuantum via son service Braket (s’ouvre dans un nouvel onglet), présentant une accélération de 900x sur les charges de travail d’apprentissage automatique quantique. Parmi les autres plates-formes tirant parti de cuQuantum de Nvidia, citons Qsim de Google, Qiskit Aer d’IBM, PennyLane de Xanadu, la plate-forme Quantum Algorithm Design de Classiq. Nvidia a récemment battu un record du monde (s’ouvre dans un nouvel onglet) dans la simulation informatique quantique en tirant parti de son framework cuQuantum et de son supercalculateur Selene ultra-puissant, alimenté par ses SuperPOD DGX (s’ouvre dans un nouvel onglet).
Rejoindre l’écosystème cuQuantum en développement de Nvidia est Menten AI, une startup de découverte de médicaments qui vise à tirer parti de la bibliothèque de réseaux de tenseurs de cuQuantum pour simuler les interactions protéiques et de nouvelles molécules médicamenteuses. L’objectif est d’accélérer la conception de médicaments, dont les charges de travail sont naturellement adaptées à la nature probabiliste de l’informatique quantique.
« Alors que du matériel informatique quantique capable d’exécuter ces algorithmes est encore en cours de développement, des outils informatiques classiques tels que NVIDIA cuQuantum sont cruciaux pour faire progresser le développement d’algorithmes quantiques », a déclaré Alexey Galda, scientifique principal chez Menten AI.
Nvidia a réalisé une pénétration remarquable du marché HPC grâce à sa pile logicielle CUDA, et il semble que la société vise à répéter l’exploit pour le domaine quantique via cuQuantum. Dans ce qui représente l’un des domaines de recherche les plus complexes au monde, il semble certainement qu’un progiciel rationalisé aiderait à accélérer à pas de géant la route vers le quantique.