mardi, novembre 12, 2024

Les cloud alternatifs sont en plein essor alors que les entreprises recherchent un accès moins cher aux GPU

L’appétit pour les cloud alternatifs n’a jamais été aussi grand.

Exemple concret : CoreWeave, le fournisseur d’infrastructure GPU qui a commencé sa vie comme une opération d’extraction de crypto-monnaie, a levé cette semaine 1,1 milliard de dollars de nouveaux financements auprès d’investisseurs dont Coatue, Fidelity et Altimeter Capital. Le cycle porte sa valorisation à 19 milliards de dollars post-argent, et son total à 5 ​​milliards de dollars de dette et de capitaux propres – un chiffre remarquable pour une entreprise de moins de dix ans.

Ce n’est pas seulement CoreWeave.

Lambda Labs, qui propose également une gamme d’instances GPU hébergées dans le cloud, a obtenu début avril un « véhicule de financement à usage spécial » pouvant atteindre 500 millions de dollars, quelques mois après avoir clôturé un cycle de série C de 320 millions de dollars. L’association à but non lucratif Voltage Park, soutenue par le crypto-milliardaire Jed McCaleb, a annoncé en octobre dernier qu’elle investirait 500 millions de dollars dans des centres de données soutenus par GPU. Et Together AI, un hébergeur de GPU cloud qui mène également des recherches sur l’IA générative, a décroché en mars 106 millions de dollars dans le cadre d’un cycle mené par Salesforce.

Alors pourquoi tout cet enthousiasme – et cet afflux d’argent – ​​pour l’espace cloud alternatif ?

La réponse, comme on peut s’y attendre, est l’IA générative.

À mesure que le boom de l’IA générative se poursuit, la demande de matériel informatique permettant d’exécuter et de former des modèles d’IA générative à grande échelle augmente également. Sur le plan architectural, les GPU sont le choix logique pour la formation, le réglage fin et l’exécution de modèles, car ils contiennent des milliers de cœurs qui peuvent fonctionner en parallèle pour exécuter les équations d’algèbre linéaire qui constituent les modèles génératifs.

Mais l’installation de GPU coûte cher. La plupart des développeurs et des organisations se tournent donc vers le cloud.

Les opérateurs historiques dans le domaine du cloud computing – Amazon Web Services (AWS), Google Cloud et Microsoft Azure – ne manquent pas de GPU et d’instances matérielles spécialisées optimisées pour les charges de travail d’IA générative. Mais pour au moins certains modèles et projets, les cloud alternatifs peuvent s’avérer moins chers et offrir une meilleure disponibilité.

Sur CoreWeave, la location d’un Nvidia A100 40 Go – un choix populaire pour la formation et l’inférence de modèles – coûte 2,39 $ de l’heure, ce qui équivaut à 1 200 $ par mois. Sur Azure, le même GPU coûte 3,40 $ par heure, soit 2 482 $ par mois ; sur Google Cloud, c’est 3,67 $ de l’heure, soit 2 682 $ par mois.

Étant donné que les charges de travail d’IA générative sont généralement exécutées sur des clusters de GPU, les deltas de coûts augmentent rapidement.

« Des entreprises comme CoreWeave participent à un marché que nous appelons les fournisseurs de cloud spécialisés » GPU en tant que service «  », a déclaré Sid Nag, vice-président des services et technologies cloud chez Gartner, à TechCrunch. « Compte tenu de la forte demande de GPU, ils proposent une alternative aux hyperscalers, où ils ont pris les GPU Nvidia et ont fourni une autre voie de commercialisation et d’accès à ces GPU. »

Nag souligne que même certaines grandes entreprises technologiques ont commencé à s’appuyer sur des fournisseurs de cloud alternatifs alors qu’elles se heurtent à des problèmes de capacité de calcul.

En juin dernier, CNBC a rapporté que Microsoft avait signé un accord de plusieurs milliards de dollars avec CoreWeave pour garantir qu’OpenAI, le fabricant de ChatGPT et un partenaire proche de Microsoft, disposerait d’une puissance de calcul adéquate pour entraîner ses modèles d’IA générative. Nvidia, le fournisseur de la majeure partie des puces CoreWeave, y voit une tendance souhaitable, peut-être pour des raisons d’effet de levier ; il aurait donné à certains fournisseurs de cloud alternatifs un accès préférentiel à ses GPU.

Lee Sustar, analyste principal chez Forrester, considère que les fournisseurs de cloud comme CoreWeave réussissent en partie parce qu’ils ne disposent pas du « bagage » d’infrastructure avec lequel les fournisseurs historiques doivent gérer.

« Compte tenu de la domination des hyperscalers sur le marché global du cloud public, qui nécessite de vastes investissements dans l’infrastructure et une gamme de services qui génèrent peu ou pas de revenus, les challengers comme CoreWeave ont la possibilité de réussir en se concentrant sur des services d’IA haut de gamme sans le fardeau d’un niveau hypercalorique. investissements en général », a-t-il déclaré.

Mais cette croissance est-elle durable ?

Sustar a des doutes. Il estime que l’expansion des fournisseurs de cloud alternatifs sera conditionnée par leur capacité à continuer à mettre en ligne des GPU en grand volume et à les proposer à des prix compétitifs.

La concurrence sur les prix pourrait devenir difficile à long terme, à mesure que des opérateurs historiques comme Google, Microsoft et AWS augmentent leurs investissements dans du matériel personnalisé pour exécuter et former des modèles. Google propose ses TPU ; Microsoft a récemment dévoilé deux puces personnalisées, Azure Maia et Azure Cobalt ; et AWS propose Trainium, Inferentia et Graviton.

« Les hypercaleurs exploiteront leur silicium personnalisé pour atténuer leur dépendance à l’égard de Nvidia, tandis que Nvidia se tournera vers CoreWeave et d’autres cloud IA centrés sur GPU », a déclaré Sustar.

Ensuite, il y a le fait que, même si de nombreuses charges de travail d’IA générative fonctionnent mieux sur les GPU, toutes les charges de travail n’en ont pas besoin, en particulier si elles ne sont pas urgentes. Les processeurs peuvent exécuter les calculs nécessaires, mais généralement plus lentement que les GPU et le matériel personnalisé.

Plus existentiellement, il existe un risque d’éclatement de la bulle de l’IA générative, ce qui laisserait les fournisseurs avec des montagnes de GPU et pas assez de clients les exigeant. Mais l’avenir s’annonce rose à court terme, estiment Sustar et Nag, qui s’attendent tous deux à un flux constant de nouveaux nuages.

« Les startups cloud orientées GPU donneront [incumbents] Il y a beaucoup de concurrence, en particulier parmi les clients qui sont déjà multi-cloud et peuvent gérer la complexité de la gestion, de la sécurité, des risques et de la conformité sur plusieurs cloud », a déclaré Sustar. « Ces types de clients cloud sont à l’aise pour essayer un nouveau cloud IA s’il dispose d’un leadership crédible, d’un solide soutien financier et de GPU sans temps d’attente.

Source-146

- Advertisement -

Latest