vendredi, novembre 22, 2024

Meta dévoile sa nouvelle puce d’IA personnalisée alors qu’elle s’efforce de rattraper son retard

Meta, déterminé à rattraper ses concurrents dans le domaine de l’IA générative, dépense des milliards pour ses propres efforts en matière d’IA. Une partie de ces milliards est consacrée au recrutement de chercheurs en IA. Mais une part encore plus importante est consacrée au développement de matériel, en particulier de puces pour exécuter et entraîner les modèles d’IA de Meta.

Meta a dévoilé aujourd’hui le dernier fruit de ses efforts de développement de puces, visiblement un jour après qu’Intel a annoncé son dernier matériel d’accélérateur d’IA. Appelée Meta Training and Inference Accelerator (MTIA) « nouvelle génération », successeur du MTIA v1 de l’année dernière, la puce exécute des modèles, notamment pour le classement et la recommandation d’affichage d’annonces sur les propriétés de Meta (par exemple Facebook).

Comparé au MTIA v1, qui a été construit sur un processus de 7 nm, le MTIA de nouvelle génération mesure 5 nm. (Dans la fabrication de puces, le « processus » fait référence à la taille du plus petit composant pouvant être construit sur la puce.) Le MTIA de nouvelle génération est une conception physiquement plus grande, dotée de plus de cœurs de traitement que son prédécesseur. Et bien qu’il consomme plus d’énergie – 90 W contre 25 W – il dispose également de plus de mémoire interne (128 Mo contre 64 Mo) et fonctionne à une vitesse d’horloge moyenne plus élevée (1,35 GHz contre 800 MHz).

Meta affirme que le MTIA de nouvelle génération est actuellement opérationnel dans 16 de ses régions de centres de données et offre des performances globales jusqu’à 3 fois supérieures à celles du MTIA v1. Si cette affirmation « 3x » semble un peu vague, vous n’avez pas tort – nous le pensons aussi. Mais Meta a seulement déclaré que ce chiffre provenait du test des performances de « quatre modèles clés » sur les deux puces.

« Comme nous contrôlons l’ensemble de la pile, nous pouvons obtenir une plus grande efficacité par rapport aux GPU disponibles dans le commerce », écrit Meta dans un article de blog partagé avec TechCrunch.

La présentation matérielle de Meta – qui intervient à peine 24 heures après une conférence de presse sur les diverses initiatives d’IA générative en cours de l’entreprise – est inhabituelle pour plusieurs raisons.

Premièrement, Meta révèle dans le billet de blog qu’elle n’utilise pas le MTIA de nouvelle génération pour les charges de travail de formation en IA générative pour le moment, bien que la société affirme avoir « plusieurs programmes en cours » pour explorer ce sujet. Deuxièmement, Meta admet que le MTIA de nouvelle génération ne remplacera pas les GPU pour l’exécution ou la formation des modèles, mais les complétera plutôt.

En lisant entre les lignes, Meta avance lentement – ​​peut-être plus lentement qu’elle ne le souhaiterait.

Les équipes d’IA de Meta sont presque certainement sous pression pour réduire les coûts. L’entreprise devrait dépenser environ 18 milliards de dollars d’ici fin 2024 en GPU pour former et exécuter des modèles d’IA générative, et – avec des coûts de formation pour des modèles génératifs de pointe s’élevant à plusieurs dizaines de millions de dollars – le matériel interne présente un alternative intéressante.

Et tandis que le matériel de Meta traîne, les concurrents prennent de l’avance, à la grande consternation des dirigeants de Meta, je suppose.

Google a rendu cette semaine sa puce personnalisée de cinquième génération pour la formation de modèles d’IA, TPU v5p, généralement disponible pour les clients Google Cloud, et a dévoilé sa première puce dédiée à l’exécution de modèles, Axion. Amazon possède plusieurs familles de puces IA personnalisées à son actif. Et l’année dernière, Microsoft s’est lancé dans la mêlée avec l’accélérateur Azure Maia AI et le processeur Azure Cobalt 100.

Dans le billet de blog, Meta affirme qu’il a fallu moins de neuf mois pour « passer du premier silicium aux modèles de production » du MTIA de nouvelle génération, ce qui, pour être honnête, est plus court que la fenêtre typique entre les TPU de Google. Mais Meta a beaucoup de rattrapage à faire s’il espère atteindre une certaine indépendance par rapport aux GPU tiers – et rivaliser avec sa rude concurrence.

Source-146

- Advertisement -

Latest