Le lourd investissement de Microsoft dans ChatGPT n’a pas été un secret. La méga-société a investi dans OpenAI pendant un certain temps, insufflant à la société d’IA des milliards de dollars. Et c’est déjà payé, le nouveau Bing avec ChatGPT a été un succès retentissant malgré quelques trébuchements.
Maintenant, Microsoft ferait un autre pari sur l’IA, et s’il porte ses fruits, cela pourrait donner à l’entreprise un avantage considérable dans le paysage de l’IA en évolution rapide.
Selon L’information (s’ouvre dans un nouvel onglet), Microsoft travaille secrètement sur le projet Athena, une puce propriétaire conçue pour alimenter les supercalculateurs qui entraînent l’IA. L’espoir est que la puce sera prête pour la production de masse en 2024.
Actuellement, Microsoft est un peu en retard sur ce front. Alors que d’autres méga-corps comme Amazon, Alphabet (Google) et Meta (Facebook) ont déjà leurs propres puces propriétaires, Microsoft dépend de Nvidia pour son approvisionnement en puces AI.
Le projet Athéna en un coup d’œil
* Serait la première puce d’IA interne de Microsoft
* Devrait être utilisé en plus des puces Nvidia AI, pas les remplacer complètement
* Pourrait réduire les coûts d’exploitation de ChatGPT de 33 %
* Prévu d’utiliser des semi-conducteurs TSMC de 5 nm
* Pourrait être disponible pour une production de masse en 2024
Ce n’est pas une mauvaise chose en soi – Nvidia fabrique des puces IA depuis plus de 15 ans et est considéré comme le leader de l’industrie dans la fabrication de puces IA. De plus, la fabrication de puces en interne présente une barrière à l’entrée élevée en termes de coût.
Le projet Athena coûterait environ 100 millions de dollars par an, ce que seule une entreprise de la taille de Microsoft et de ses principaux concurrents peut se permettre.
Mais à long terme, les économies pourraient être énormes. La société de recherche SemiAnalysis déclare « Athena, si elle est compétitive, pourrait réduire le coût par puce d’un tiers par rapport aux offres de Nvidia ». Étant donné que les coûts actuels estimés d’exploitation de ChatGPT sont d’environ 700 000 $ par jour (SemiAnalysis indique qu’il en coûte environ 0,36 $ par invite), ces économies pourraient s’accumuler rapidement. Sur la seule base de ces calculs, Athena pourrait facilement faire économiser à Microsoft plus de 84 millions de dollars en coûts d’exploitation, en plus de toutes les mises à niveau de performances qu’Athena pourrait fournir.
On ne sait pas quand ces mises à niveau de performances arriveront, car cela semble d’abord être un effort pour réduire les coûts plutôt que d’essayer de dépasser Nvidia du premier coup. En fait, selon The Information, Microsoft ne considère même pas Athena comme un large remplaçant des puces AI de Nvidia, ce qui est logique étant donné que les deux sociétés ont récemment annoncé une collaboration pluriannuelle pour construire un supercalculateur de nouvelle génération.
Athena devrait être basé sur un processus de 5 nanomètres, qui est une technologie légèrement obsolète par rapport aux puces Nvidia haut de gamme, donc s’il n’est pas impossible qu’il puisse surpasser une puce Nvidia AI, cela semble peu probable.
En fin de compte, cela pourrait être une victoire pour les consommateurs. Si Microsoft peut développer avec succès sa propre puce AI pour augmenter celles qu’il obtient de Nvidia, il pourrait sérieusement améliorer sa capacité de supercalculateur, qui est actuellement rationnée en raison de la pénurie de puces AI de Nvidia. Combinez une capacité accrue avec des coûts d’exploitation réduits, et l’IA pourrait devenir plus accessible à tous. Et en tant que personne qui a fréquemment reçu un message d’erreur indiquant que ChatGPT est à pleine capacité, je n’aurais certainement rien à redire sur l’augmentation de la capacité.