Jeudi, plusieurs grandes entreprises technologiques, dont Google, Intel, Microsoft, Meta, AMD, Hewlett-Packard Enterprise, Cisco et Broadcom, ont annoncé la formation du groupe promoteur Ultra Accelerator Link (UALink) pour développer une nouvelle norme d’interconnexion pour l’IA. puces accélératrices dans les centres de données. Le groupe vise à créer une alternative à la technologie d’interconnexion NVLink propriétaire de Nvidia, qui relie plusieurs serveurs qui alimentent les applications d’IA actuelles comme ChatGPT.
De nos jours, le cœur battant de l’IA réside dans les GPU, qui peuvent effectuer en parallèle un grand nombre de multiplications matricielles, nécessaires au fonctionnement de l’architecture de réseau neuronal. Mais un seul GPU ne suffit souvent pas pour les systèmes d’IA complexes. NVLink peut connecter plusieurs puces accélératrices d’IA au sein d’un serveur ou sur plusieurs serveurs. Ces interconnexions permettent un transfert de données et une communication plus rapides entre les accélérateurs, leur permettant de travailler ensemble plus efficacement sur des tâches complexes telles que la formation de grands modèles d’IA.
Cette liaison est un élément clé de tout système de centre de données d’IA moderne, et quiconque contrôle la norme de liaison peut effectivement dicter le matériel que les entreprises technologiques utiliseront. Dans cette optique, le groupe UALink cherche à établir une norme ouverte permettant à plusieurs entreprises de contribuer et de développer des avancées matérielles en matière d’IA au lieu d’être enfermées dans l’écosystème propriétaire de Nvidia. Cette approche est similaire à d’autres normes ouvertes, telles que Compute Express Link (CXL) — créée par Intel en 2019 — qui fournit des connexions haut débit et haute capacité entre les processeurs et les appareils ou la mémoire dans les centres de données.
Ce n’est pas la première fois que des entreprises technologiques s’alignent pour contrer un leader du marché de l’IA. En décembre, IBM et Meta, ainsi que plus de 50 autres organisations, ont formé une « AI Alliance » pour promouvoir les modèles d’IA ouverts et offrir une alternative aux systèmes d’IA fermés comme ceux d’OpenAI et de Google.
Compte tenu de la domination du marché par Nvidia, l’actuel leader du marché des puces IA, il n’est peut-être pas surprenant que la société n’ait pas rejoint le nouveau groupe promoteur UALink. Le récent succès financier massif de Nvidia la place dans une position de force pour continuer à tracer sa propre voie. Mais à mesure que les grandes entreprises technologiques continuent d’investir dans le développement de leurs propres puces d’IA, le besoin d’une technologie d’interconnexion standardisée devient plus pressant, notamment pour contrer (ou au moins équilibrer) l’influence de Nvidia.
Accélérer l’IA complexe
UALink 1.0, la première version de la norme proposée, est conçue pour connecter jusqu’à 1 024 GPU au sein d’un seul « pod » informatique, défini comme un ou plusieurs racks de serveurs. La norme est basée sur des technologies telles que l’architecture Infinity d’AMD et devrait améliorer la vitesse et réduire la latence de transfert de données par rapport aux spécifications d’interconnexion existantes.
Le groupe a l’intention de former le consortium UALink plus tard en 2024 pour gérer le développement en cours de la spécification UALink. Les entreprises membres auront accès à UALink 1.0 lors de leur adhésion, avec une version à bande passante plus élevée, UALink 1.1, dont la sortie est prévue au quatrième trimestre 2024.
Les premiers produits UALink devraient être disponibles dans les deux prochaines années, ce qui pourrait donner à Nvidia suffisamment de temps pour étendre le verrouillage propriétaire à mesure que le marché des centres de données IA se développe.