Graphcore a présenté aujourd’hui un nouveau processeur AI avec beaucoup de fanfare. Le nouveau processeur AI s’appelle Bow Intelligence Processing Unit, ou Bow IPU en abrégé, et a été préparé pour alimenter les systèmes informatiques Bow Pod AI de nouvelle génération de Graphcore.
Le Bow IPU est particulièrement intéressant pour la façon dont il a été fabriqué. Il s’agit du premier processeur 3D Wafer-on-Wafer (WoW) au monde, et a été conçu en étroite collaboration avec TSMC qui offrira une technologie similaire à ses autres clients. La technologie de fabrication 3D est déjà en route vers certaines puces grand public, et le succès revendiqué de Graphcore peut aider à mettre en lumière les possibilités à venir.
TSMC ajoute le facteur WoW
Graphcore a travaillé en étroite collaboration avec TSMC pour préparer l’IPU Bow. Il s’agit d’un processeur TSMC 7 nm, comme son prédécesseur, mais le nouveau mojo provient de la technologie d’empilement 3D. Avec l’IPU Bow, deux tranches sont collées ensemble pour former une matrice 3D. Graphcore explique que l’IPU Bow possède une plaquette pour le traitement de l’IA, avec 1 472 tuiles IPU-Core indépendantes, capables de gérer 8 800 threads et améliorées par 900 Mo de mémoire dans le processeur. La deuxième plaquette de la pile, connectée avec une liaison hybride Back Side Through Silicon Via (BTSV) et WoW, est conçue pour la fourniture d’énergie.
La nouvelle innovation d’emballage 3D, avec sa distribution d’énergie améliorée, permet des augmentations significatives de la vitesse d’horloge à la même taille de nœud de processus. C’est en grande partie grâce à ces améliorations architecturales de fabrication de puces que l’IPU Bow peut dépasser son prédécesseur 2D par ailleurs très similaire, qui, selon Graphcore, représente jusqu’à 40% dans les tâches de calcul de l’IA. De plus, un chiffre de performance par watt amélioré allant jusqu’à 16% est revendiqué.
S’interroger sur les performances
En ce qui concerne les nouveaux systèmes Bow Pod qui sont mis à disposition, ils sont tous basés sur des couches de machines IPU Bow-2000, chaque machine contenant quatre IPU Bow capables de fournir 1,4 PetaFLOPS de calcul AI. Le plus petit système livré, le Bow Pod 16, contient quatre machines Bow-2000, offrant ainsi 5,6 PetaFLOPS de calcul AI.
Graphcore indique que son haut de gamme Bow Pod 1024 à grande échelle fournit jusqu’à 350 PetaFLOPS de calcul AI. Il est important de noter que si vous travaillez déjà avec des systèmes Graphcore, les nouveaux systèmes Bow IPU peuvent utiliser le même logiciel que vous avez utilisé précédemment, sans modification.
Selon Graphcore, les nouveaux systèmes Bow Pod qui intègrent l’IPU Bow offrent « des performances jusqu’à 40% supérieures et une efficacité énergétique 16% supérieure pour les applications d’IA du monde réel que leurs prédécesseurs ».
Nous avons appris à prendre les déclarations de performance, les références et les comparaisons de première partie avec une pincée de sel malsaine. L’annonce d’aujourd’hui de Graphcore a déjà été quelque peu distinguée par l’analyste Dylan Patel, qui met en évidence un certain nombre de comparaisons injustes avec les systèmes Nvidia AI concurrents.
Certains des plus grands sujets de discorde sont que les systèmes Graphcore contiennent beaucoup plus de silicium, il a également choisi des modèles d’IA qui cachaient les déficits de capacité de mémoire du système Bow Pod. De plus, les comparaisons de prix n’étaient pas équitables, affirme Patel, car Graphcore a comparé ses systèmes à des Nvidia A100 de 80 Go plutôt qu’à des systèmes de 40 Go,
Graphcore indique que les systèmes Bow Pod sont disponibles immédiatement auprès de ses partenaires commerciaux dans le monde entier.
Bon ordinateur Graphcore
Aujourd’hui, Graphcore a également annoncé qu’il développait « un ordinateur IA ultra-intelligent qui dépassera la capacité paramétrique du cerveau ». Son soi-disant Good Computer, du nom du vétéran de Bletchley Park et pionnier de l’informatique Jack Good, devrait être lancé d’ici 2024.
The Good Computer sera alimenté par une IPU Bow de nouvelle génération et vise à fournir ; plus de 10 Exa-Flops de calcul en virgule flottante AI, jusqu’à 4 pétaoctets de mémoire avec une bande passante> 10 pétaoctets / s et prennent en charge des modèles AI avec jusqu’à 500 billions de paramètres.