Run:ai lève 75 millions de dollars pour sa plateforme d’IA

Run:ai, basée à Tel Aviv, une startup qui permet aux développeurs et aux équipes d’exploitation de gérer et d’optimiser plus facilement leur infrastructure d’IA, a annoncé aujourd’hui qu’elle avait levé un financement de série C de 75 millions de dollars dirigé par Tiger Global Management et Insight Partners, qui a également dirigé le tour de table de série B de 30 millions de dollars de la société en 2021. Les investisseurs précédents TLV Partners et S Capital VC ont également participé à ce tour, ce qui porte le financement total de Run:ai à 118 millions de dollars.

La plate-forme Atlas de Run:ai aide ses utilisateurs à virtualiser et à orchestrer leurs charges de travail d’IA en mettant l’accent sur l’optimisation de leurs ressources GPU, qu’elles soient sur site ou dans le cloud. Il fait abstraction de tout ce matériel, tandis que les développeurs peuvent toujours interagir avec les ressources mises en commun via des outils standard tels que les ordinateurs portables Jupyter et les équipes informatiques peuvent obtenir de meilleures informations sur la manière dont ces ressources sont utilisées.

Le nouveau cycle intervient à un moment de croissance rapide pour l’entreprise. Son chiffre d’affaires récurrent annuel a été multiplié par 9 au cours de la dernière année, tandis que son personnel a plus que triplé, me dit l’entreprise. Le PDG de Run:ai, Omri Geller, attribue cela à un certain nombre de facteurs, notamment la capacité de l’entreprise à créer un réseau mondial de partenaires pour accélérer sa croissance et l’élan général de la technologie au sein de l’entreprise. « Alors que les organisations quittent la phase d’incubation et commencent à faire évoluer leurs initiatives d’IA, elles ne sont pas en mesure de respecter le rythme prévu d’innovation en IA en raison de graves difficultés de gestion de leur infrastructure d’IA », a-t-il déclaré.

Crédits image : Exécuter : ai

Il a également noté qu’il pensait que Run:ai avait un avantage car, à mesure que les entreprises modernisaient leur infrastructure, la plate-forme d’orchestration d’IA native dans le cloud de Run:ai qui se connecte aux environnements Kubernetes s’inscrit parfaitement dans cette tendance générale. Geller a noté que ces clients passent de plus en plus des expériences à la production – et c’est là que le besoin d’une plate-forme MLOps axée sur l’optimisation de l’utilisation du GPU comme Run:ai devient rapidement évident.

« Dans le cadre du développement de notre produit, nous avons ajouté des fonctionnalités uniques pour les aider à gérer efficacement leurs clusters de production d’IA et à déployer facilement l’inférence à grande échelle. Les charges de travail d’inférence nécessitent un débit maximal et une latence extrêmement faible », a-t-il déclaré. « Avec Run:ai coordonnant la planification des tâches sur les serveurs d’inférence, un débit maximal et une faible latence sont maintenus tout en optimisant l’utilisation du GPU à près de 100 %. »

La société prévoit d’utiliser le nouveau financement pour développer son équipe, mais Geller a également noté que la société envisagerait des acquisitions stratégiques pour améliorer sa plate-forme globale. « Notre approche sera toujours de développer en interne et nous n’avons pas de domaine d’acquisition précis en tête. Cependant, si l’opportunité se présente pour une acquisition stratégique d’une technologie qui accélérera notre délai de mise sur le marché et contribuera à accélérer la domination du marché, nous saisirons certainement l’opportunité », a-t-il déclaré.

« Alors que les entreprises de tous les secteurs se réinventent pour devenir des systèmes d’apprentissage alimentés par l’IA et le talent humain, il y a eu une augmentation mondiale de la demande de chipsets matériels d’IA tels que les GPU », a déclaré Lonne Jaffe, directrice générale d’Insight Partners. « Comme l’a récemment souligné le rapport Forrester Wave AI Infrastructure, Run:ai crée une valeur extraordinaire en apportant des capacités avancées de virtualisation et d’orchestration aux chipsets d’IA, ce qui permet aux systèmes de formation et d’inférence de fonctionner à la fois beaucoup plus rapidement et de manière plus rentable. En raison d’une demande explosive depuis 2020, Run:ai a presque quadruplé sa clientèle, et nous ne pourrions être plus enthousiastes à l’idée de doubler notre partenariat avec Omri et l’incroyable équipe Run:AI alors qu’ils s’appuient sur leur élan et leur mise à l’échelle. ”

Source-146