Keynote Nvidia GTC 2022: toutes les dernières nouvelles, versions et plus

Rafraîchir

Et c’est terminé avec Nvidia GTC 2022 !

Huang complète le discours d’ouverture avec une foule de remerciements pour les développeurs et les travailleurs de l’entreprise du monde entier, et se termine sur une promesse de choses encore plus cool à venir à l’avenir.

« Nous nous efforcerons d’obtenir une autre augmentation d’un million de fois au cours de la prochaine décennie », a-t-il déclaré.

Avec cela, c’est de retour à une autre symphonie d’IA pour nous jouer.

Merci de suivre le blog en direct et restez à l’écoute pour plus d’informations sur Nvidia ici sur Tech Radar Pro!

Puis une dernière annonce majeure. Huang a complété le spectacle en annonçant Omniverse Cloud, un nouveau service conçu pour faciliter la collaboration de conception 3D en temps réel entre les créatifs et les ingénieurs.

Omniverse Cloud est censé réduire la complexité créée par la nécessité pour plusieurs concepteurs de travailler ensemble sur une variété d’outils différents et à partir d’une variété d’emplacements.

« Nous voulons qu’Omniverse atteigne chacun des dizaines de millions de designers, créateurs, roboticiens et chercheurs en IA », a déclaré Huang.

(Crédit image : Nvidia)

Ensuite, passons à quelques autres cas d’utilisation de l’Omnivers, notamment dans les soins de santé, la conception d’usine et même la formation de votre prochaine génération de robots.

Nvidia a beaucoup investi dans la conduite autonome ces dernières années et souhaite maintenir cette tendance.

La société a montré une vidéo de sa plate-forme Drive mise à jour pilotant une voiture sur des routes en direct, notant qu’elle montre maintenant l’intention de la prochaine étape et qu’elle gardera également un œil sur le conducteur.

Nvidia Hperion 8 voiture autonome

(Crédit image : Nvidia)

Nvidia a également annoncé Hyperion 9, la prochaine génération de sa plate-forme de voiture autonome, qui sera lancée dans les voitures expédiées en 2026.

Afin d’aider à guider ces véhicules, Nvidia indique qu’elle prévoit de cartographier toutes les principales autoroutes d’Amérique du Nord, d’Europe et d’Asie d’ici la fin de 2024 – toutes ces données pouvant également être téléchargées dans l’Omniverse pour la construction de simulations et de formation. .

Après avoir montré un avatar IA « Toy Jensen » légèrement cauchemardesque qui utilise l’IA pour fonctionner presque indépendamment, c’est parti pour la conduite et les véhicules autonomes.

Nvidia Jouet Jensen

(Crédit image : Nvidia)

Nvidia a de grands objectifs avec l’Omniverse, sa plate-forme de conception et de simulation 3D, et y met certainement beaucoup de poids.

La société utilise GTC comme rampe de lancement pour un ensemble de nouveaux outils et ressources pour Omniverse, y compris un cadre pour la création d’avatars numériques entièrement animés.

Il y a beaucoup à déballer ici, mais les entreprises pourraient utiliser Omniverse pour créer des jumeaux numériques de leurs installations à des fins d’optimisation de la sécurité, ou pour lancer des simulations pour aider au développement de la robotique.

Nvidia omnivers

(Crédit image : Nvidia)

Tous ces nouveaux programmes nécessitent beaucoup de puissance, dit Nvidia, et heureusement, ils ont exactement ce qu’il faut.

Le nouveau serveur NVIDIA OVX est alimenté par 8 Arm A40 et deux processeurs Ice Lake, et est idéalement configuré pour prendre en charge les énormes besoins informatiques créés par l’ominverse.

Après un balayage complet d’une foule d’autres modèles et bibliothèques d’IA, ainsi qu’un arrêt rapide pour mentionner la célèbre mission Apollo 13 (où le terme « jumeau numérique » a été inventé pour la première fois), c’est sur quelque chose d’un peu différent – l’Omniverse.

Grace figurera dans deux nouveaux méga modules multi-puces (MCM) de Nvidia : Grace Hopper et Grace CPU Superchip.

Le premier combine un processeur Grace et un GPU basé sur Hopper, tandis que le second connecte deux processeurs Grace ensemble.

Superpuce Nvidia Grace

(Crédit image : Nvidia)

Huang a ensuite fourni une mise à jour sur Grace, le tout premier processeur de centre de données de Nvidia, spécialement conçu pour l’IA.

Il dit que le nouveau processeur basé sur Arm « progresse de manière fantastique » et devrait être prêt à être commercialisé l’année prochaine.

Pour aider à éviter les goulots d’étranglement réseau traditionnels, Nvidia a également combiné un GPU H100 et CX-7 SmartNIC, le processeur réseau le plus avancé.

Le Nvidia H100 CNX « évite les goulots d’étranglement de la bande passante, tout en libérant le processeur et la mémoire système pour traiter d’autres parties de l’application », a expliqué Huang.

Nvdia H100 CNX

(Crédit image : Nvidia)

Nvidia dit qu’il peut également connecter jusqu’à 32 DGX (contenant 256 GPU H100 au total) avec sa technologie NVLink, créant un « pod DGX » qui atteint jusqu’à un EXAFLOP de performances AI.

Et ça va mieux. Plusieurs pods DGX peuvent être connectés ensemble pour créer des superpods DGS, que Huang a décrits comme des « usines d’IA modernes ».

Un tout nouveau supercalculateur développé par Nvidia, nommé Eos, comportera 18 pods DGX. Apparemment, il atteindra 4 fois le traitement de l’IA du supercalculateur le plus puissant du monde, Fugaku.

La société s’attend à ce qu’Eos soit en ligne dans les prochains mois et qu’il soit l’ordinateur d’IA le plus rapide au monde, ainsi que le modèle d’infrastructure d’IA avancée pour les partenaires matériels de NVIDIA.

Supercalculateur Nvidia Eos

(Crédit image : Nvidia)

Huang a également annoncé une nouvelle itération du système NVIDIA DGX, dont chacun contient huit GPU H100.

« L’IA a fondamentalement changé ce que le logiciel peut faire et comment il est produit. Les entreprises qui révolutionnent leurs industries avec l’IA réalisent l’importance de leur infrastructure d’IA », a-t-il déclaré.

« Nos nouveaux systèmes DGX H100 permettront aux usines d’IA d’entreprise d’affiner les données dans notre ressource la plus précieuse – l’intelligence. »

Le H100 est construit sur une toute nouvelle architecture GPU de Nvidia appelée Hopper, le successeur d’Ampere.

L’architecture Hopper sous-tendra la prochaine génération de GPU de centre de données de Nvidia, offrant un « saut de performance d’un ordre de grandeur par rapport à son prédécesseur ».

Il est maintenant temps pour du nouveau matériel !

La première annonce matérielle majeure est le Nvidia H100, un tout nouveau GPU Tensor Core pour accélérer les charges de travail AI.

Basé sur le processus 4N de TSMC, il dispose de 80 milliards de transistors et d’une bande passante de 4,9 To/s, et offre 60 TFLOP de performances FP64.

Nvidia H100

(Crédit image : Nvidia)

Nous examinons également Merlin 1.0, un cadre d’IA pour les systèmes de recommandation à grande échelle, et Nemo Megatron, qui est utilisé pour former de grands modèles de langage.

« L’IA va réinventer la visioconférence », déclare Huang, en présentant une démo de Maxine, la bibliothèque de l’entreprise pour les appels vidéo IA.

C’est certainement assez incroyable à voir, avec la bibliothèque capable de recentrer les yeux d’un orateur pour qu’ils soient centraux, puis de leur donner le super pouvoir de pouvoir soudainement parler une autre langue.

Cependant, il y a une petite ambiance de vallée étrange chez certains qui parlent dans une langue étrangère, la bouche semblant * juste * un peu décalée pour nous …

Modèle Nvidia Maxine ai

(Crédit image : Nvidia)

Les bibliothèques d’intelligence artificielle de Nvidia balayent l’ensemble du paysage technologique, note Huang, mettant en évidence Riva, Maxine, Nemo et Merlin parmi les titres phares.

Nvidia GTC 2022ai

(Crédit image : Nvidia)

Maintenant, c’est au matériel – c’est là que Nvidia ouvre vraiment la voie.

Tout d’abord, jetons un coup d’œil aux transformateurs, où Huang note que la technologie est idéale pour les plates-formes d’apprentissage automatique telles que le traitement du langage naturel, faisant de la traduction en direct une réalité pour les utilisateurs du monde entier.

Mais lorsqu’il s’agit de l’étape suivante, « les conditions sont prêtes pour les prochaines percées scientifiques », déclare Huang, avec des modèles virtuels, l’informatique quantique et même des médias prêts à se transformer.

« L’IA avance dans toutes les directions », dit-il.

Ensuite, un aperçu du jumeau numérique « Earth 2 » de Nvidia, qui utilise entre autres des données de prévisions météorologiques approfondies pour aider à simuler les champs climatiques et atmosphériques.

Les modèles créés par ces données pourraient être une étape vitale pour faire face au changement climatique, note Nvidia, y compris la prévision des tempêtes, des inondations et d’autres catastrophes naturelles.

Nvidia GTC 2022 IA

(Crédit image : Nvidia)

Jensen a poursuivi en expliquant comment la plate-forme d’IA de Nvidia est un spectacle courant dans le monde, avec trois millions de développeurs et 10 000 start-up utilisant la technologie.

Huang a noté qu’au cours de la dernière décennie, le matériel et les logiciels de Nvidia ont permis une augmentation de la vitesse d’un million de fois dans la technologie de l’IA.

Nvidia AI gtc 2022

(Crédit image : Nvidia)

Comme le veut la tradition, Nvidia a lancé le discours d’ouverture avec une démonstration de l’état d’avancement de sa capacité d’IA.

Le discours d’ouverture a commencé par une plongée en profondeur dans une réplique numérique du siège social de l’entreprise, avec de la musique également composée par son IA.

Le PDG Jensen Huang est ensuite apparu, vêtu d’une veste en cuir de marque, présentant une vidéo de cas d’utilisation de l’IA, des soins de santé à la construction, pour la présentation traditionnelle « Je suis l’IA » de l’entreprise.

Présentation de Nvidia GTC 2022

(Crédit image : Nvidia)

Source-130