Ils disent que les bonnes choses viennent par trois, et les États-Unis misent définitivement sur le Lawrence Livermore National Laboratory (LLNL) pour fournir exactement cela en matière de fusion froide. Après avoir réussi leur deuxième allumage par fusion avec un surplus d’énergie (ce qui signifie que plus d’énergie a été produite que nécessaire pour réaliser la réaction de fusion elle-même) dans un laboratoire national le 30 juillet, les États-Unis visent maintenant à stimuler la recherche et à faciliter un troisième allumage réussi – et au-delà. Pour ce faire, le pays est prêt à investir 112 millions de dollars supplémentaires dans une douzaine de projets de supercalcul.
La fusion (abréviation de fusion nucléaire) fait référence à la capacité de fusionner deux atomes légers en un seul, plus lourd : un processus qui, lorsqu’il réussit, conduit à la libération de quantités massives d’énergie sous forme d’électrons. Contrairement à la fission (qui fonctionne en décomposant des éléments lourds tels que l’uranium ou le plutonium), la fusion nucléaire devrait être une source d’énergie sûre et presque illimitée. Lorsqu’elle est bien faite, la fusion de deux atomes légers (tels que le deutérium et le tritium, chacun étant un isotope d’hydrogène qui transporte des électrons supplémentaires par rapport à l’hydrogène « ordinaire ») entraîne un surplus d’énergie qui est plus de quatre fois supérieur à la quantité que les processus de fission peuvent générer. Cela en fait également un processus valant environ quatre millions de fois la quantité d’énergie libérée par la combustion du charbon (sur une base par kilogramme) – ses mérites sont évidents.
C’est sur le dos de cette promesse que le nouveau programme Scientific Discovery through Advanced Computing (SciDAC) combine les deux programmes préexistants du ministère de la Défense dans le but de rationaliser les programmes investis dans la résolution de problèmes complexes d’énergie de fusion à l’aide de ressources de supercalcul, y compris les systèmes exascale.
« Le travail de modélisation et de simulation de ces partenariats offrira un aperçu de la multitude de processus physiques que les plasmas subissent dans des conditions extrêmes et guidera également la conception d’usines pilotes de fusion », a déclaré Jean Paul Allain, directeur associé des sciences du DoE pour FES.
Cependant, il reste encore beaucoup de travail à faire pour parvenir à un allumage durable du carburant excédentaire qui propulse l’humanité vers un avenir propre, économe en énergie et abondant. L’allumage par fusion du 30 juillet a fourni une production d’énergie supérieure à celle fournie dans la capsule de combustible à atomes légers (bien que l’on ne sache pas à quel point il était meilleur que les 2,05 mégajoules en entrée et 3,15 mégajoules en sortie obtenus en décembre de l’année dernière), mais qui ne prend en compte que l’énergie transmise à la pastille elle-même. Malheureusement, la façon dont l’énergie est délivrée dans la pastille (via 192 lasers) est encore extrêmement inefficace – LLNL devait pousser 322 mégajoules stupéfiants pour déclencher les lasers eux-mêmes, ce qui laissait encore le processus sur un déficit énergétique global.
Mais la voie à suivre consiste à mieux comprendre les processus quantiques entourant la fusion. Jusqu’à ce que les ordinateurs quantiques eux-mêmes puissent fournir une plate-forme informatique viable capable de casser ce code (et on ne sait pas combien de temps cela prendra – mais c’est probablement dans la décennie), les supercalculateurs basés sur l’informatique standard sont la meilleure façon dont nous devons examiner le chaos ordonné de processus qui se produisent lorsque le laser frappe la pastille.
Les 121 millions de dollars seront certainement une aubaine là-bas, mais ce ne sera certainement pas suffisant. Pourtant, nous, les humains, avons cette étrange façon de regarder plus loin – de chasser la carotte – plutôt que de simplement nous concentrer sur ce qui est juste devant nous. Cette injection de subventions en fait partie, et une injection saine dans le paysage du calcul haute performance (HPC) – aussi petite qu’elle soit en fin de compte.