Le PDG d’Intel, Pat Gelsinger, s’en est pris à son principal rival dans le domaine du calcul haute performance, qualifiant le succès de Nvidia dans la fourniture de GPU pour la modélisation de l’IA d' »extraordinairement chanceux ». Gelsinger a également laissé entendre que c’était Intel, et non Nvidia, qui l’aurait inventé actuellement dans le matériel d’IA si la société n’avait pas tué l’un de ses projets favoris il y a près de 15 ans.
Au cours d’une vaste discussion au MIT, on a demandé à Gelsinger ce que faisait Intel pour stimuler le développement de l’IA. Sa réponse ? Entre autres choses, pour souligner à quel point il pense que Nvidia a eu de la chance avec ses GPU accélérateurs d’IA.
Discutant de l’émergence des GPU comme arme de choix pour les derniers grands modèles d’IA, Gelsinger a expliqué qu’il pensait que Nvidia et son PDG, Jensen Huang, se trouvaient au bon endroit au bon moment.
« Jensen a travaillé très dur pour posséder un débit informatique, principalement pour les graphiques au début, puis a eu une chance extraordinaire », a déclaré Gelsinger. Gelsinger a également souligné que l’IA ne faisait pas partie du plan initial de Nvidia en matière de GPGPU ou de calcul général sur GPU. « Ils ne voulaient même pas soutenir leur premier projet d’IA », a observé Gelsinger.
De plus, Gelisnger a également affirmé que les choses auraient été très différentes si Intel n’avait pas annulé le projet Larrabee peu de temps après son départ pour 11 ans en dehors d’Intel avant de revenir en tant que PDG en février 2021.
« Quand j’ai été expulsé d’Intel il y a 13 ans, ils ont tué le projet qui aurait changé la forme de l’IA », a déclaré Gelsinger à propos de Larrabee.
Larrabee était un projet de GPU Intel bien avant ses cartes graphiques Arc actuelles, destiné à affronter Nvidia sur les marchés des jeux et des GPGPU grâce à des dizaines de minuscules cœurs de processeur x86. Les cartes graphiques de jeu ont été annulées fin 2009 et le reste du projet Larrabee s’est flétri par la suite.
Le moment exact où Nvidia a réellement commencé à développer ses GPU en tant qu’outils pour les modèles d’IA est discutable. Bien sûr, l’IA n’était pas de la partie lorsque l’entreprise a commencé à promouvoir le GPGPU.
Voici un passage d’un premier document Nvidia de 2007 décrivant l’utilisation et les avantages de sa plate-forme originale CUDA 1.0, le logiciel qui permet un calcul haute performance sur les GPU Nvidia, au-delà du simple traitement graphique et d’image.
« De nombreux algorithmes en dehors du domaine du rendu et du traitement d’images sont accélérés par le traitement parallèle des données, du traitement général du signal ou de la simulation physique à la finance informatique ou à la biologie computationnelle. »
C’était tout à fait typique du message de Nvidia à l’époque. En d’autres termes, aucune mention de l’IA comme application clé du GPGPU. Dans une certaine mesure, Gelsinger a donc raison.
D’un autre côté, c’est Nvidia qui a poussé le GPGPU vers l’avant, qui a développé les GPU CUDA et Nvidia pour en faire la puissante force qu’ils sont aujourd’hui. Nvidia n’a peut-être pas nécessairement vu la révolution de l’IA venir dès le début. Mais la société a misé bien plus que quiconque sur les GPU.
Alors Nvidia a-t-il eu de la chance ? En partie, certainement. Nvidia et Huang n’avaient pas vu venir la révolution de l’IA lorsqu’ils se sont lancés dans le projet GPGPU. Ou s’ils l’ont fait, ils ont manifestement omis de le mentionner. Mais il y a aussi un dicton attribué à tout le monde, du père fondateur Thomas Jefferson au golfeur professionnel Gary Player, qui s’applique sûrement ici et qui ressemble à ceci : « Je crois beaucoup à la chance, et je trouve que plus je travaille dur, plus j’ai de chance. il. »
Il sera intéressant de voir à quel point Intel aura de la chance au cours des prochaines années sous la direction de Gelsinger.