Pas de panique, les gens du CERN ne se lancent pas des cartes graphiques sous la Suisse pour voir ce qui se passe lorsque des particules GPU entrent en collision. Ils utilisent en fait le silicium graphique de Nvidia pour réduire la quantité d’énergie dont il a besoin pour calculer ce qui se passe lorsque le Large Hadron Collider (LHC) entre en collision. autre des trucs.
Particules et choses. Quarks de beauté. Tu sais, des trucs scientifiques.
Ce n’est un secret pour personne que, alors que l’humble GPU a été conçu à l’origine dans le but exprès de projeter des polygones autour d’un écran de la manière la plus efficace, il s’avère que les prouesses de traitement parallèle des puces graphiques modernes en font un outil incroyablement puissant dans la communauté scientifique. Et un incroyablement efficace, aussi. En effet, A Large Ion Collider Experiment (ALICE) utilise des GPU dans ses calculs depuis 2010 et ses travaux ont maintenant encouragé leur utilisation accrue dans diverses expériences LHC.
La mauvaise nouvelle potentielle est que cela signifie qu’il y a encore un autre groupe désespéré pour la quantité limitée de silicium GPU sortant des fabs de TSMC et Samsung. Bien qu’au moins ce lot l’utilisera à des fins plus nobles que l’extraction de fausses pièces de monnaie.
D’accord, les gars ? Vous ne seriez pas simplement en train d’exploiter Ethereum à côté, n’est-ce pas ?
Du côté positif, les nœuds candidats du CERN utilisent actuellement la technologie de dernière génération. Pour le prochain LHC Run 3 – où la machine est remise en service pour une « période de production physique de trois ans » après une interruption de trois ans – les nœuds sont représentés en utilisant une paire de processeurs Milan à 64 cœurs d’AMD aux côtés de deux Nvidia Tesla basés à Turing GPU T4.
D’accord, personne ne leur dit à quel point l’architecture Ampere est plus efficace en termes de puissance de calcul directe, et je pense que nous serons bons. Quoi qu’il en soit, comme le calcule le CERN, s’il n’utilisait que des nœuds purement basés sur le processeur pour analyser les données, il lui faudrait environ huit fois plus de serveurs pour pouvoir exécuter ses algorithmes de reconstruction et de compression en ligne au rythme actuel. Ce qui signifie qu’il se sent déjà plutôt bien dans sa peau.
Étant donné que de telles augmentations d’efficacité s’additionnent véritablement pour une installation qui devrait fonctionner pendant trois ans d’affilée, passer de plus en plus au traitement GPU semble être un sacré bon plan. D’autant plus qu’à partir de cette année, l’expérience Large Hadron Collider Beauty (LHCb) traitera un nombre phénoménal de 4 téraoctets de données. par seconde en temps réel. Indépendamment du nom de cette expérience – ainsi nommée parce qu’elle vérifie une particule appelée « quark de beauté » ? – c’est une quantité effrayante de données à traiter.
« Tous ces développements se produisent dans un contexte d’évolution et de diversification sans précédent du matériel informatique », déclare Vladimir Gligorov de LHCb, qui dirige le projet d’analyse en temps réel. « Les compétences et les techniques développées par les chercheurs du CERN tout en apprenant à utiliser au mieux les GPU constituent la plate-forme idéale pour maîtriser les architectures de demain et les utiliser pour maximiser le potentiel physique des expériences actuelles et futures. »
Merde, on dirait qu’il a au moins un œil sur les générations plus récentes de GPU de station de travail Nvidia. Donc je suppose que nous sera finir par combattre les scientifiques pour le silicium graphique après tout.