Les choses sont rarement telles qu’elles paraissent, et le monde de l’informatique quantique se prête mieux que la plupart à cette description. Décrit comme un changement fondamental dans nos capacités de traitement, le développement de l’informatique quantique s’est incroyablement accéléré au cours des dernières années. Pourtant, selon un article de recherche publié dans le journal de l’Association for Computing Machinery, l’informatique quantique pertinente (celle que l’on appelle généralement tourner en rond autour des ordinateurs classiques les plus puissants) nécessite encore des découvertes révolutionnaires dans un certain nombre de domaines avant de pouvoir détrôner une simple carte graphique.
L’élément le plus surprenant de l’article est la conclusion qu’un certain nombre d’applications resteront mieux adaptées à l’informatique classique (plutôt qu’à l’informatique quantique) plus longtemps qu’on ne le pensait auparavant. Les chercheurs affirment que cela est vrai même pour les systèmes quantiques fonctionnant sur plus d’un million de qubits physiques, dont l’équipe a simulé les performances dans le cadre de leurs recherches.
Considérant que le meilleur système d’aujourd’hui, IBM’s Osprey, ne contient toujours « que » 433 qubits (avec un lancement du système de 4 158 qubits promis par IBM pour 2025), l’échelle de temps vers un million de qubits s’étend plus loin que prévu.
Le problème, disent les chercheurs, ne concerne pas les applications ou les charges de travail elles-mêmes – la découverte de médicaments, les sciences des matériaux, la planification et les problèmes d’optimisation en général sont toujours dans le collimateur de l’informatique quantique. Le problème concerne les systèmes informatiques quantiques eux-mêmes – leurs architectures et leur incapacité actuelle et future à absorber les quantités énormes de données dont certaines de ces applications ont besoin avant même qu’une solution ne soit trouvée. Il s’agit d’un simple problème d’E/S, semblable à celui que nous connaissions tous avant que les SSD NVMe ne deviennent la norme, lorsque les disques durs bloquaient les processeurs et les GPU à gauche et à droite : les données ne peuvent être alimentées que si rapidement.
Pourtant, la quantité de données envoyées, la vitesse à laquelle elles atteignent leur destination et le temps de traitement sont tous des éléments de la même équation. Dans ce cas, l’équation est pour l’avantage quantique – le moment où les ordinateurs quantiques offrent des performances qui dépassent tout ce qui est possible pour les systèmes classiques. Et il semble que dans les charges de travail qui nécessitent le traitement de grands ensembles de données, les ordinateurs quantiques devront surveiller les GPU tels que l’A100 de Nvidia, probablement pendant très longtemps.
L’informatique quantique devra peut-être se contenter de résoudre de gros problèmes de calcul sur de petites données, tandis que le classique aura la tâche peu enviable de traiter les problèmes de « big data » – une approche hybride de l’informatique quantique qui gagne du terrain depuis quelques années.
D’après un article de blog (s’ouvre dans un nouvel onglet) par Matthias Troyer de Microsoft, l’un des chercheurs impliqués dans l’étude, cela signifie que des charges de travail telles que la conception de médicaments et le repliement des protéines, ainsi que la prévision météorologique et climatique seraient après tout mieux adaptées aux systèmes classiques, tandis que la chimie et la science des matériaux s’adapteraient parfaitement le projet de loi pour la philosophie « big compute, small data ».
Bien que cela puisse ressembler à un flop du défi du seau à glace pour les espoirs de l’informatique quantique, Troyer n’a pas tardé à souligner que ce n’est pas le cas : « Si les ordinateurs quantiques ne bénéficiaient qu’à la chimie et à la science des matériaux, cela suffirait. monde d’aujourd’hui se résument à des problèmes de chimie et de science des matériaux », a-t-il déclaré. « Des véhicules électriques meilleurs et plus efficaces reposent sur la recherche de meilleures chimies de batterie. Des médicaments anticancéreux plus efficaces et ciblés reposent sur la biochimie computationnelle. »
Mais il y a un autre élément dans la thèse des chercheurs, qu’il est plus difficile d’ignorer : il semble que les algorithmes informatiques quantiques actuels seraient insuffisants, à eux seuls, pour garantir le résultat « d’avantage quantique » souhaité. Plutôt que la complexité de l’ingénierie des systèmes d’un ordinateur quantique, il s’agit ici d’un simple problème de performances : les algorithmes quantiques en général ne fournissent tout simplement pas une accélération suffisante. L’algorithme de Grover, par exemple, offre une accélération quadratique par rapport aux algorithmes classiques ; mais selon les chercheurs, ce n’est pas suffisant.
« Ces considérations aident à séparer le battage médiatique de l’aspect pratique dans la recherche d’applications quantiques et peuvent guider les développements algorithmiques », indique le document. « Notre analyse montre qu’il est nécessaire pour la communauté de se concentrer sur des vitesses super-quadratiques, idéalement des accélérations exponentielles, et il faut examiner attentivement les goulots d’étranglement d’E/S. »
Donc, oui, c’est encore un long chemin vers l’informatique quantique. Pourtant, les IBM et les Microsoft du monde poursuivront régulièrement leurs recherches pour le permettre. Bon nombre des problèmes auxquels l’informatique quantique est confrontée aujourd’hui sont les mêmes que ceux auxquels nous avons été confrontés lors du développement de matériel classique – les processeurs, les GPU et les architectures d’aujourd’hui viennent d’avoir un démarrage beaucoup plus précoce et plus percutant. Mais ils devaient encore subir les mêmes itérations de conception et de performances que l’informatique quantique finira par subir, dans son nouveau calendrier courageux. Le fait que l’article ait été rédigé par des scientifiques de Microsoft, d’Amazon Web Services (AWS) et du Scalable Parallel Computing Laboratory de Zurich – toutes des parties ayant des intérêts directs dans le développement et le succès de l’informatique quantique – rend cet objectif d’autant plus probable.