Tesla, Inc., la société d’énergie propre qui ne se limite pas à certaines des voitures électriques les plus recherchées au monde, est apparemment à la recherche d’une amélioration de son infrastructure de centre de données. Selon une nouvelle offre d’emploi sur le site Web de l’entreprise Tesla (repérée par Elektrek), l’entreprise cherche à embaucher un « responsable principal du programme d’ingénierie, centres de données ». Cette embauche est généralement une bonne étape pour toute entreprise prévoyant d’exploiter des centres de données construits sur du silicium personnalisé ou propriétaire – peut-être que Tesla cherche à construire un dojo pour ses accélérateurs Dojo AI ?
Le poste est basé à Austin, au Texas, où la société possède plusieurs installations axées sur la fabrication et la R&D. Cependant, cela ne signifie pas que ses effets ne prendront effet qu’à Austin – en particulier compte tenu des informations selon lesquelles Tesla a repris un certain nombre de centres de données de X (anciennement Twitter) à Sacramento. Il est également difficile de savoir si Tesla est simplement hyperbolique en ce qui concerne la « première du genre » de ces centres de données. Il existe plusieurs façons de répondre à cette définition qui n’implique pas autant de travail d’ingénierie qu’on pourrait s’y attendre.
Tesla a initialement annoncé son Dojo D1 (il semble que le nom du produit ait depuis été changé en Dojo V1) en 2021, alors même qu’il promettait d’augmenter la quantité de puissance de traitement disponible pour que l’entreprise puisse former ses systèmes d’IA autonomes. À l’époque, ces Dojo ASIC (Application-Specific Integrated-Circuit) étaient censés transporter jusqu’à 50 milliards de transistors chacun, délivrant environ 362 TeraFLOP de puissance par puce personnalisée.
Amélioration exponentielle à venir sur FSD Beta une fois que Dojo est opérationnel. pic.twitter.com/iDddgQ0Lzl21 juin 2023
On ne sait pas si Tesla a joué avec le design entre-temps (bien que nous dirions que c’est probable). Ce que nous savons, c’est qu’Elon Musk a précisé que le vaisseau de première génération n’inclura pas le traitement général de l’IA et se concentrera plutôt sur l’accélération de la « formation vidéo » pour les systèmes de vision par ordinateur de l’entreprise. Selon Musk, la V2 de Dojo répondra à ces limitations et deviendra éventuellement un processeur d’IA général à part entière, un peu comme le H100 de NVIDIA et son système de supercalcul DGX GH200.
Tesla a acheté un certain nombre d’accélérateurs GPU à Nvidia. L’entreprise s’en vantait déjà alors même qu’elle n’a déployé « que » 7 360 accélérateurs A110. Mais ce nombre a augmenté et l’entreprise vise à avoir jusqu’à 100 ExaFLOP sous la main d’ici octobre 2024 (en comptant déjà le déploiement de son supercalculateur Dojo).
La conception et la commande par Tesla de ses propres ASIC personnalisés et accélérateurs d’IA à usage général devraient donner à l’entreprise un contrôle accru sur les ensembles de fonctionnalités et réduire le coût total de possession (TCO) de ses centres de données. Mais encore une fois, toutes les entreprises qui conçoivent du silicium ces jours-ci prennent principalement du miel du même pot de marque TSMC; et il n’y a pas beaucoup de capacité pour tout le monde.
Ainsi, alors que Tesla bénéficiera probablement de plusieurs avantages en concevant et en intégrant ses propres systèmes de calcul haute performance (HPC), il est peu probable qu’Elon Musk trouve moins de raisons de se plaindre que « tout le monde et son chien » achètent des GPU. Il n’y a qu’un nombre limité de plaquettes à distribuer à l’ensemble des clients TSMC, et la plupart aimeraient également rester à la pointe de la fabrication.