Nvidia GTC 2023 Keynote Blog en direct

Rafraîchir

Et c’est la fin de ce discours d’ouverture du GTC 2023. Jensen passe en revue les différentes annonces, mais il y aura certainement plus à dire dans les prochains jours au fur et à mesure que les présentations et les détails supplémentaires seront révélés. Merci de vous joindre a nous.

(Crédit image : Nvidia)

Plus d’Omnivers (prenez une autre photo !), Cette fois avec les serveurs OVX qui proviendront de divers fournisseurs. Ceux-ci incluent les GPU Nvidia L40 Ada RTX, ainsi que les processeurs BlueField-3 de Nvidia pour la connectivité.

Il y aura également de nouveaux postes de travail, alimentés par des GPU Ada RTX, dans des configurations de bureau et d’ordinateur portable, « à partir de mars ». Ce qui veut dire maintenant, apparemment. Photos gratuites de Grace à double processeur, Grace-Hopper et BlueField-3.

Keynote Nvidia GTC printemps 2023

Planche Dual Grace (Crédit image : Nvidia)

Keynote Nvidia GTC printemps 2023

Planche Grace Hopper (Crédit image : Nvidia)

Keynote Nvidia GTC printemps 2023

Adaptateur BlueField-3 (Crédit image : Nvidia)

Keynote Nvidia GTC printemps 2023

(Crédit image : Nvidia)

Hé, regardez, il y a encore Racer RTX ! Je suppose que cela a raté la date de sortie qui était censée être en novembre dernier ou quelque chose comme ça. Là encore, nous avons eu le Portal RTX incroyablement exigeant à la place, alors c’est peut-être mieux si Racer RTX a un peu plus de temps pour les optimisations et quoi que ce soit d’autre avant qu’il ne devienne un jeu / démo / quoi que ce soit entièrement jouable.

Keynote Nvidia GTC printemps 2023

(Crédit image : Nvidia)

Nous passons maintenant à la robotique, Amazon parlant de ses robots Proteus qui ont été formés dans Nvidia Isaac Sim et sont maintenant déployés dans des entrepôts. Tout cela grâce à Nvidia Omniverse et à ses technologies associées telles que Replicator, Digital Twins, etc. Beaucoup d’autres noms sont en cours, pour ceux qui aiment garder une trace de ces choses. Sérieusement, le nombre de noms différents que Nvidia a pour divers outils, bibliothèques, etc. est ahurissant. Isaac Gym est aussi une chose maintenant, quelqu’un mérite d’être reconnu pour celui-là !

Quoi qu’il en soit, Omniverse couvre un large éventail de possibilités. Il couvre la conception et l’ingénierie, les modèles de capteurs, les fabricants de systèmes, la création et le rendu de contenu, la robotique, les données synthétiques et les actifs 3D, les intégrateurs de systèmes, les fournisseurs de services et les jumeaux numériques. (Oui, je viens de copier tout cela à partir d’une diapositive.) C’est gros, et ça fait beaucoup de choses utiles.

Keynote Nvidia GTC printemps 2023

(Crédit image : Nvidia)

L’un des avantages que Nvidia offre aux entreprises est l’idée d’avoir une plate-forme unique qui peut évoluer jusqu’aux plus grandes installations. C’est le premier que nous avons entendu lors de cette keynote où Nvidia mentionne spécifiquement sa solution Grace-Hopper, dont nous avons entendu parler par le passé. Nvidia a également annoncé ses nouveaux L4, L40 et H100 NVL.

Ce dernier est plutôt cool, car il s’agit d’une solution PCI Express qui utilise deux GPU Hopper H100 reliés entre eux par NVLink. À lui seul, grâce aux 160 Go de mémoire totale HBM2e, il peut gérer le modèle GPT-3 à 165 milliards de paramètres. (Dans nos tests d’une alternative ChatGPT exécutée localement publiée plus tôt cette semaine, à titre d’exemple, même un RTX 4090 de 24 Go ne pouvait gérer que le modèle de 30 milliards de paramètres.)

Fondements de l'IA Nvidia

(Crédit image : Nvidia)

Jensen parle maintenant de la façon dont l’industrie GPT (Generative Pre-trained Transformer) a besoin d’un équivalent « de base » pour ces modèles – un logiciel et un apprentissage approfondi de ce que TSMC fait pour l’industrie de la fabrication de puces. À cette fin, il annonce Nvidia AI Foundations.

Les clients peuvent travailler avec des experts Nvidia pour former et créer des modèles, qui peuvent continuer à se mettre à jour en fonction des interactions des utilisateurs. Il peut s’agir de modèles entièrement personnalisés, y compris des éléments tels que la génération d’images basées sur des bibliothèques d’images déjà détenues. Considérez-le comme une diffusion stable, mais conçu spécifiquement pour une entreprise comme Adobe, Getty Images ou Shutterstock.

Et nous n’avons pas simplement laissé tomber quelques noms là-bas. Nvidia a annoncé que ces trois sociétés travaillent avec l’outil Picasso de Nvidia, en utilisant « des images professionnelles sous licence responsable ».

Nvidia AI Foundations dispose également de BioNemo, un outil d’aide à la recherche de médicaments et à l’industrie de la prescription.

Keynote Nvidia GTC printemps 2023

(Crédit image : Nvidia)

Nvidia parle de son Hopper H100 depuis plus d’un an, mais il est enfin en pleine production et est déployé dans de nombreux centres de données, y compris ceux de Microsoft Azure, Google, Oracle, etc. Le cœur des derniers supercalculateurs DGX, illustré ci-dessus, se compose de huit GPU H100 avec des dissipateurs thermiques massifs regroupés sur un seul système.

Naturellement, obtenir votre propre configuration DGX H100 serait très coûteux, et les solutions DGX Cloud les offriront en tant que services à la demande. Des services comme ChatGPT, Stable Diffusion, Dall-E et d’autres ont tiré parti des solutions cloud pour certaines de leurs formations, et DGX Cloud vise à ouvrir cela à encore plus de personnes.

Keynote Nvidia GTC printemps 2023

(Crédit image : Nvidia)

C’est un grand, cuLitho, un nouvel outil pour aider à optimiser l’une des étapes majeures de la conception des processeurs modernes. Nous avons une plongée plus profonde distincte sur la lithographie computationnelle Nvidia, mais fondamentalement, la création des motifs et des masques utilisés pour les derniers processus de lithographie est extrêmement complexe et Nvidia dit qu’ils peuvent prendre des semaines pour les calculs derrière un seul masque. cuLitho, une bibliothèque pour la lithographie computationnelle, fournit jusqu’à 40 fois les performances des outils actuellement utilisés.

Avec cuLitho, un seul réticule qui prenait auparavant deux semaines peut désormais être traité en huit heures. Il fonctionne également sur 500 systèmes DGX contre 40 000 serveurs CPU, ce qui réduit les coûts d’alimentation de 9 fois.

Jensen parle maintenant du problème du voyageur de commerce et de l’algorithme NP-Hard où il n’y a pas de solution efficace. C’est quelque chose auquel beaucoup d’entreprises du monde réel doivent faire face, le problème de ramassage et de livraison. Le matériel et les bibliothèques de Nvidia ont contribué à établir un nouveau record dans le calcul des itinéraires optimaux pour la tâche, et AT&T utilise la technologie dans son entreprise.

Beaucoup plus de discussions sur d’autres bibliothèques, y compris cuOpt, Triton, CV-CUDA (pour la vision par ordinateur), VPF (codage et décodage vidéo python), les domaines médicaux, etc. Le coût du séquençage du génome est maintenant tombé à 100 $, apparemment, grâce à la technologie de Nvidia. (Ne vous inquiétez pas, quelqu’un vous facturera probablement encore plusieurs fois plus que cela si vous avez besoin que votre ADN soit séquencé.)

Nvidia cuQuantum

(Crédit image : Nvidia)

Pas de surprise, Jensen commence la couverture détaillée avec ChatGPT et OpenAI. L’une des révolutions les plus célèbres de l’apprentissage en profondeur a été avec AlexNet en 2012, un algorithme de reconnaissance d’images qui nécessite 262 pétaflops de calculs. Maintenant, l’un de ces chercheurs est à OpenAI, et GPT-3 a nécessité 323 zettaflops de calculs pour la formation. C’est plus d’un million de fois le nombre de calculs numériques à peine une décennie plus tard. C’est ce qui était requis comme base de ChatGPT.

Outre les calculs requis pour la formation des modèles utilisés dans l’apprentissage en profondeur, Nvidia dispose de centaines de bibliothèques pour aider diverses industries et modèles. Jensen parcourt un groupe des plus grandes bibliothèques et entreprises qui les utilisent.

La plateforme quantique de Nvidia, dont cuQuantum, est par exemple utilisée pour aider les chercheurs dans le domaine de l’informatique quantique. Les gens prédisent qu’au cours de la prochaine décennie ou deux (ou trois ?), nous verrons l’informatique quantique passer de la théorie à la pratique.

Nvidia je suis IA

(Crédit image : Nvidia)

Jensen commence par une discussion sur les exigences croissantes du monde numérique moderne, avec une croissance qui dépasse parfois le taux de la loi de Moore. Nous entendrons plusieurs leaders de l’industrie de l’IA, de la robotique, des véhicules autonomes, de la fabrication, de la science, etc.

« Le but de GTC est d’inspirer le monde sur l’art du possible de l’informatique accélérée et de célébrer les réalisations des scientifiques qui l’utilisent. »

Et maintenant, nous avons la dernière vidéo d’introduction « I Am AI », un incontournable du GTC depuis plusieurs années. Il est mis à jour à chaque fois avec de nouveaux segments, bien que la composition musicale sous-jacente ne semble pas avoir changé du tout. ChatGPT a fait une apparition, « aidant à écrire ce script ».

Source-138