Google a donné le coup d’envoi de Google I/O cet après-midi en parlant pendant plus d’une heure de ses nombreuses avancées en matière d’intelligence artificielle. La société a discuté de son nouveau modèle de grand langage (LLM) PaLM 2 pour l’IA générative, qui alimente l’outil de chatbot Bard. Il s’agit d’un pilier fondamental pour l’ajout de fonctionnalités basées sur l’IA dans l’ensemble du portefeuille de produits de Google, notamment Google Maps, Google Photos et Gmail (entre autres).
Dans cet esprit, il y a un besoin de puissance sérieuse dans le cloud pour alimenter les modèles dans la nature, car des millions (et éventuellement des milliards) d’utilisateurs envoient des demandes d’opérations aussi banales que la suppression d’une personne qui s’attarde à l’arrière-plan d’une image pour composer un e-mail entier pour vous sur la base d’une courte invite de texte. C’est là que le nouveau supercalculateur GPU A3 de Google entre en scène. Google affirme que les nouveaux supercalculateurs A3 sont « spécialement conçus pour former et servir les modèles d’IA les plus exigeants qui alimentent l’IA générative d’aujourd’hui et l’innovation des grands modèles de langage » tout en offrant 26 exaFlops de performances d’IA.
Chaque supercalculateur A3 est équipé de processeurs Intel Xeon Scalable de 4e génération soutenus par 2 To de mémoire DDR5-4800. Mais le véritable « cerveau » de l’opération provient des huit GPU Nvidia H100 « Hopper », qui ont accès à 3,6 TBps de bande passante bissectionnelle en exploitant NVLink 4.0 et NVSwitch.
Selon Google, A3 représente le premier déploiement au niveau de la production de son interface de données GPU à GPU, qui permet de partager des données à 200 Gbps tout en contournant le CPU hôte. Cette interface, que Google appelle l’Infrastructure Processing Unit (IPU), multiplie par 10 la bande passante réseau disponible pour les machines virtuelles (VM) A3 par rapport aux machines virtuelles A2.
« Les machines virtuelles A3 de Google Cloud, alimentées par les GPU NVIDIA H100 de nouvelle génération, accéléreront la formation et le service des applications d’IA génératives », a déclaré Ian Buck, vice-président du calcul hyperscale et haute performance chez NVIDIA. « Dans la foulée des instances G2 récemment lancées par Google Cloud, nous sommes fiers de poursuivre notre travail avec Google Cloud pour aider à transformer les entreprises du monde entier avec une infrastructure d’IA spécialement conçue. »
Si votre entreprise souhaite tirer parti des machines virtuelles A3, le seul moyen d’y accéder est de remplir le formulaire d’intérêt pour l’aperçu A3 de Google afin de rejoindre le programme d’accès anticipé. Mais comme Google l’indique clairement, la saisie de vos informations ne garantit pas une place dans le programme.