Étant une entreprise qui sait certainement comment attirer l’attention sur elle-même et sur ses produits, Nvidia a publié un article de blog qui fait sans ambiguïté allusion à son intention d’introduire son architecture GPU de calcul de nouvelle génération, baptisée Hopper. Le billet de blog de la société s’intitule « Hopped Up » et annonce le discours d’ouverture de Jensen Huang à la conférence GTC qui aura lieu le mardi 22 mars 2022.
« Chaque GTC, Huang présente de nouvelles façons puissantes d’accélérer l’informatique de toutes sortes, et raconte une histoire qui met les dernières avancées en perspective », lit-on sur le blog. « Attendez-vous à ce que Huang présente de nouvelles technologies, produits et collaborations avec certaines des plus grandes entreprises mondiales. »
Le chef de Nvidia annonce traditionnellement de nouvelles architectures phares et technologies clés, il ne sera donc pas surprenant de voir Jensen Huang annoncer mardi l’architecture Hopper de nouvelle génération de la société pour le calcul haute performance (HPC) et les centres de données.
Hopper de Nvidia sera vraisemblablement le premier GPU de calcul multi-die de la société fabriqué à l’aide de la technologie de fabrication N5 (5 nm) de TSMC. Avec ses GPU Ampere orientés calcul, Nvidia a mis l’accent sur les charges de travail AI/DL/ML et les formats de données appropriés. Ces GPU offraient des performances formidables dans les charges de travail HPC traditionnelles (qui nécessitent une précision FP64) ; leurs principaux avantages résident dans le domaine des charges de travail émergentes. Nous ne connaissons pas la fonctionnalité critique de Hopper à ce stade, mais nous en apprendrons sans doute plus la semaine prochaine.
Étant donné que les charges de travail des centres de données et HPC modernes nécessitent une immense puissance de calcul, les développeurs de GPU informatiques ont tendance à construire des processeurs avec le nombre maximum d’unités d’exécution pour offrir des performances maximales. Mais construire un GPU très complexe et volumineux sur un processus de fabrication moderne est coûteux en termes de développement et coûteux en fabrication, car un petit défaut peut ruiner un morceau de silicium coûteux. En conséquence, des entreprises comme AMD, Nvidia et Intel passent à des conceptions multi-tuiles avec leurs architectures GPU de calcul de nouvelle génération.
Malheureusement, la description de l’événement ne révèle aucun détail précis sur Hopper. Le GTC de cette année se concentrera sur « l’informatique accélérée, l’apprentissage en profondeur, la science des données, les jumeaux numériques, la mise en réseau, l’informatique quantique et l’informatique dans le centre de données, le cloud et la périphérie ».
Avant même son introduction officielle, l’architecture Hopper de Nvidia a remporté au moins un contrat de supercalculateur. Fin 2021, le National Renewable Energy Laboratory (NREL) a annoncé son nouveau supercalculateur appelé Kestrel qui tirera parti de ce que Nvidia appelle le « GPU de calcul A100Next Tensor Core ». La machine sera mise en ligne en 2023 et fournira les performances d’environ 44 FP64 PetaFLOPS, ce qui correspond à ce que propose aujourd’hui le supercalculateur n°7 le plus puissant au monde.