Bien qu’il ait plaidé pour un arrêt de la formation à l’IA à l’échelle de l’industrie, Elon Musk aurait lancé un important projet d’intelligence artificielle au sein de Twitter. La société a déjà acheté environ 10 000 GPU et recruté des talents en IA de DeepMind pour le projet qui implique un grand modèle de langage (LLM), rapporte Business Insider.
Une source proche du dossier a déclaré que le projet d’IA de Musk en était encore à sa phase initiale. Cependant, l’acquisition d’une quantité importante de puissance de calcul supplémentaire suggère son dévouement à l’avancement du projet, selon un autre individu. Pendant ce temps, le but exact de l’IA générative n’est pas clair, mais les applications potentielles incluent l’amélioration de la fonctionnalité de recherche ou la génération de contenu publicitaire ciblé.
À ce stade, on ne sait pas quel matériel exact a été acheté par Twitter. Cependant, Twitter aurait dépensé des dizaines de millions de dollars pour ces GPU de calcul malgré les problèmes financiers persistants de Twitter, que Musk décrit comme une « situation financière instable ». Ces GPU devraient être déployés dans l’un des deux centres de données restants de Twitter, Atlanta étant la destination la plus probable. Fait intéressant, Musk a fermé le centre de données principal de Twitter à Sacramento fin décembre, ce qui a évidemment réduit les capacités de calcul de l’entreprise.
En plus d’acheter du matériel GPU pour son projet d’IA générative, Twitter embauche des ingénieurs supplémentaires. Plus tôt cette année, la société a recruté Igor Babuschkin et Manuel Kroiss, ingénieurs de la recherche en intelligence artificielle DeepMind, une filiale d’Alphabet. Musk recherche activement des talents dans l’industrie de l’IA pour concurrencer ChatGPT d’OpenAI depuis au moins février.
OpenAI a utilisé les GPU A100 de Nvidia pour former son bot ChatGPT et continue d’utiliser ces machines pour l’exécuter. À ce jour, Nvidia a lancé le successeur de l’A100, ses GPU de calcul H100 qui sont plusieurs fois plus rapides à peu près à la même puissance. Twitter utilisera probablement le Hopper H100 de Nvidia ou un matériel similaire pour son projet d’IA, bien que nous spéculions ici. Étant donné que la société n’a pas encore déterminé à quoi servira son projet d’IA, il est difficile d’estimer le nombre de GPU Hopper dont elle pourrait avoir besoin.
Lorsque de grandes entreprises comme Twitter achètent du matériel, elles achètent à des tarifs spéciaux lorsqu’elles achètent des milliers d’unités. Pendant ce temps, lorsqu’elles sont achetées séparément auprès de détaillants comme CDW, les cartes H100 de Nvidia peuvent coûter au nord de 10 000 $ par unité, ce qui donne une idée du montant que l’entreprise aurait pu dépenser en matériel pour son initiative d’IA.