Chaque fois que vous tapez une demande dans ChapGPT pour des conseils de cuisine, des recommandations TV ou pour faire vos devoirs (s’ouvre dans un nouvel onglet), cela coûte de l’argent à OpenAI. Mais combien, exactement ? Faire fonctionner le chatbot IA génératif pourrait coûter jusqu’à un million de dollars par jour à l’entreprise technologique.
L’information (s’ouvre dans un nouvel onglet) (via ComputerBase (s’ouvre dans un nouvel onglet)) rapporte qu’en partie à cause des coûts exorbitants de fonctionnement de ChatGPT, OpenAI aurait à peu près doublé ses pertes pour atteindre environ 540 millions de dollars l’année dernière. Il convient de noter que ces chiffres proviennent d’estimations d’analystes plutôt que de rapports financiers à jour, ils ne peuvent donc pas être traités comme exacts à 100 %. Mais nous savons que certaines des dépenses les plus importantes incluent ces coûts d’infrastructure quotidiens douloureusement élevés et le fait que l’entreprise a débauche les meilleurs talents de Google et d’Apple.
Selon un précédent rapport (s’ouvre dans un nouvel onglet), il faut une immense puissance de calcul pour répondre aux millions de requêtes quotidiennes sur ChatGPT d’OpenAI. Le chatbot AI génératif coûterait à l’entreprise entre 700 000 $ et 1 million de dollars par jour.
Dylan Patel, l’analyste en chef de SemiAnalysis, a déclaré à The Information que la plupart des coûts sont « basés sur les serveurs coûteux dont ils ont besoin » et que ces estimations étaient basées sur le modèle GPT-3, et non sur le GPT-4 actuel utilisé par OpenAI. Ces chiffres sont donc peut-être assez conservateurs compte tenu de la complexité supplémentaire et, par conséquent, du coût de chaque requête GPT-4.
Notez que ces estimations proviennent également d’avant le lancement du ChatGPT Plus payant d’OpenAI (s’ouvre dans un nouvel onglet)service premium, qui a été mis en ligne cette année. Ce service donne aux requêtes des réponses plus rapides et une priorité pendant les heures de pointe. OpenAI s’attend à atteindre 200 millions de dollars de ventes cette année et prévoit 1 milliard de dollars pour l’année prochaine, ce qui pourrait aider à compenser certains des coûts énormes et peut-être même à renverser ce déficit.
Jensen Huang, passionné d’IA et PDG de Nvidia (qui exploite les GPU qui alimentent ces serveurs coûteux), a récemment prédit que les futurs modèles d’IA exigeront encore plus de puissance au cours des dix prochaines années. (s’ouvre dans un nouvel onglet). Le patron de Nvidia a également déclaré que nous devrions bientôt nous attendre à voir des « usines d’IA partout dans le monde » alimenter diverses technologies d’IA.
Cela signifie que le récent investissement de 10 milliards de dollars de Microsoft (s’ouvre dans un nouvel onglet) dans OpenAI n’aurait pas pu tomber à un meilleur moment. Selon le rapport, le PDG d’OpenAI, Sam Altman, cherche également à lever jusqu’à 100 milliards de dollars au cours des deux prochaines années.
Pour aider à réduire ces coûts, Microsoft a travaillé avec AMD pour produire sa propre puce IA interne (s’ouvre dans un nouvel onglet), Athéna, depuis quatre ans. Cette nouvelle puce pourrait être lancée l’année prochaine et devrait être plus rentable que l’utilisation de GPU Nvidia pour exécuter des modèles d’IA.