lundi, décembre 23, 2024

Le grand moment de l’IA de NVIDIA est arrivé

Lorsque le fondateur et PDG de NVIDIA, Jensen Huang, a parlé poétiquement de l’intelligence artificielle dans le passé, cela ressemblait surtout à des fanfaronnades marketing – le genre de rhétorique noble que nous attendons d’un dirigeant avec un approvisionnement sans fin de vestes en cuir. Mais cette année, suite au battage médiatique autour du ChatGPT d’OpenAI, du Bing remanié de Microsoft et d’un grand nombre d’autres concurrents, la poussée de l’IA de NVIDIA semble enfin mener quelque part.

La GTC (GPU Technology Conference) de l’entreprise a toujours été une plate-forme pour promouvoir son matériel pour le monde de l’IA. Maintenant, c’est pratiquement une célébration de la bonne position de NVIDIA pour profiter de ce moment.

« Nous sommes au moment de l’iPhone pour l’IA », a déclaré Huang lors de son discours d’ouverture du GTC ce matin. Il n’a pas tardé à souligner le rôle de NVIDIA au début de cette vague d’IA : il a personnellement apporté un supercalculateur DGX AI à OpenAI en 2016, matériel qui a finalement été utilisé pour construire ChatGPT. Nous avons vu les systèmes DGX évoluer au fil des années, mais il est resté hors de portée pour de nombreuses entreprises (le DGX A100 s’est vendu 200 000 $ en 2020, soit la moitié du prix de son prédécesseur !). Alors qu’en est-il de tous les autres ?

C’est là qu’intervient le nouveau DGX Cloud de NVIDIA, un moyen (évidemment) en ligne d’exploiter la puissance de ses supercalculateurs IA. À partir d’un simple 36 999 $ un mois pour un seul nœud, c’est censé être un moyen plus flexible pour les entreprises d’augmenter leurs besoins en IA. DGX Cloud peut également fonctionner avec des appareils DGX sur site, car ils sont tous contrôlés avec le logiciel Base Command de NVIDIA.

NVIDIA affirme que chaque instance DGX Cloud est alimentée par huit de ses systèmes H100 ou A100 avec 60 Go de VRAM, ce qui porte la quantité totale de mémoire à 640 Go sur le nœud. Il existe un stockage hautes performances, comme vous vous en doutez, ainsi qu’une structure à faible latence qui connecte les systèmes entre eux. Cette quantité de puissance peut rendre la solution cloud plus tentante pour les clients DGX existants. Pourquoi dépenser 200 000 $ de plus pour un boîtier, alors que vous pouvez en faire tellement plus pour un abonnement mensuel moins élevé ? DGX Cloud sera alimenté par l’infrastructure cloud d’Oracle pour commencer, mais NVIDIA indique qu’il s’étendra à Microsoft Azure au prochain trimestre, ainsi qu’à Google Cloud et à d’autres fournisseurs « bientôt ».

Alors, qu’êtes-vous censé faire avec toutes ces intelligences de l’IA ? NVIDIA a également dévoilé AI Foundations, un moyen plus simple pour les entreprises de développer leurs propres grands modèles de langage (similaire à ChatGPT) et l’IA générative. De grandes entreprises comme Adobe, Getty Images et Shutterstock l’utilisent déjà pour créer leurs propres LLM. Il se connecte également directement à DGX Cloud avec NeMo, un service spécifiquement axé sur le langage, ainsi que NVIDIA Picasso, un service d’image, de vidéo et de 3D.

Aux côtés de DGX Cloud, NVIDIA a présenté quatre nouvelles plates-formes d’inférence pour s’attaquer aux tâches d’IA, dont NVIDIA L4, qui offre « 120 fois plus de performances vidéo alimentées par l’IA que les processeurs, combinées à une efficacité énergétique 99 % supérieure », selon la société. L4 peut également être utilisé pour des travaux tels que le streaming vidéo, l’encodage et le décodage, ainsi que la génération de vidéo AI. Il y a aussi NVIDIA L40, qui est dédié à la génération d’images 2D et 3D, ainsi que NVIDIA H100 NVL, une solution LLM avec 94 Go de mémoire et un Transformer Engine accéléré. (Cela permet d’offrir des performances d’inférence GPT3 12 fois plus rapides par rapport à l’A100, selon NVIDIA.)

Enfin, il y a NVIDIA Grace Hopper pour les modèles de recommandation, une plate-forme d’inférence qui fait exactement ce que son nom déclare. Et en plus d’être conçu pour les recommandations, il peut également alimenter des réseaux de neurones graphiques et des bases de données vectorielles.

Si vous êtes curieux de voir NVIDIA L4 en action, il sera disponible en avant-première sur les machines Google Cloud G2 dès aujourd’hui. Google et NVIDIA ont également annoncé que l’outil vidéo IA génératif Descript, ainsi que l’application artistique WOMBO, utilisent déjà L4 sur Google Cloud.

Source-145

- Advertisement -

Latest