dimanche, décembre 22, 2024

Une croissance exponentielle génère 1 million de modèles d’IA sur Hugging Face

Jeudi, la plateforme d’hébergement d’IA Hugging Face a dépassé pour la première fois le million de listes de modèles d’IA, marquant une étape importante dans le domaine en pleine expansion de l’apprentissage automatique. Un modèle d’IA est un programme informatique (utilisant souvent un réseau neuronal) entraîné sur des données pour effectuer des tâches spécifiques ou faire des prédictions. La plate-forme, qui a commencé comme une application de chatbot en 2016 avant de devenir une plateforme open source pour les modèles d’IA en 2020, héberge désormais un large éventail d’outils pour les développeurs et les chercheurs.

Le domaine de l’apprentissage automatique représente un monde bien plus vaste que de simples grands modèles de langage (LLM) comme ceux qui alimentent ChatGPT. Dans un article sur X, Clément Delangue, PDG de Hugging Face, a expliqué comment son entreprise héberge de nombreux modèles d’IA de haut niveau, comme « Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable diffusion, Grok, Whisper, Olmo, Command ». , Zephyr, OpenELM, Jamba, Yi », mais aussi « 999 984 autres ».

La raison, selon Delangue, vient de la personnalisation. « Contrairement à l’erreur du « modèle unique pour les gouverner tous », écrit-il, « les modèles optimisés, spécialisés et personnalisés plus petits pour votre cas d’utilisation, votre domaine, votre langage, votre matériel et généralement vos contraintes sont meilleurs. En fait , ce que peu de gens réalisent, c’est qu’il existe presque autant de modèles sur Hugging Face qui sont privés d’une seule organisation : pour que les entreprises puissent développer l’IA en privé, spécifiquement pour leurs cas d’utilisation.

Un graphique fourni par Hugging Face montrant le nombre de modèles d'IA ajoutés à Hugging Face au fil du temps, de mois en mois.
Agrandir / Un graphique fourni par Hugging Face montrant le nombre de modèles d’IA ajoutés à Hugging Face au fil du temps, de mois en mois.

La transformation de Hugging Face en une plateforme majeure d’IA suit le rythme accéléré de la recherche et du développement en IA dans l’industrie technologique. En quelques années seulement, le nombre de modèles hébergés sur le site a considérablement augmenté parallèlement à l’intérêt pour le domaine. Sur X, Caleb Fahlgren, ingénieur produit chez Hugging Face, a publié un tableau des modèles créés chaque mois sur la plateforme (et un lien vers d’autres tableaux), en disant : « Les modèles deviennent exponentiels d’un mois à l’autre et septembre n’est même pas encore terminé. »

Le pouvoir du réglage fin

Comme l’a laissé entendre Delangue ci-dessus, le grand nombre de modèles sur la plateforme découle de la nature collaborative de la plateforme et de la pratique consistant à affiner les modèles existants pour des tâches spécifiques. Le réglage fin signifie prendre un modèle existant et lui donner une formation supplémentaire pour ajouter de nouveaux concepts à son réseau neuronal et modifier la façon dont il produit des résultats. Des développeurs et des chercheurs du monde entier apportent leurs résultats, créant ainsi un vaste écosystème.

Par exemple, la plate-forme héberge de nombreuses variantes des modèles Llama à poids ouverts de Meta qui représentent différentes versions affinées des modèles de base d’origine, chacune optimisée pour des applications spécifiques.

Le référentiel de Hugging Face comprend des modèles pour un large éventail de tâches. La navigation sur sa page de modèles affiche des catégories telles que l’image en texte, la réponse visuelle aux questions et la réponse aux questions documentaires dans la section « Multimodal ». Dans la catégorie « Vision par ordinateur », il existe des sous-catégories pour l’estimation de la profondeur, la détection d’objets et la génération d’images, entre autres. Les tâches de traitement du langage naturel telles que la classification de texte et la réponse aux questions sont également représentées, ainsi que des modèles d’apprentissage audio, tabulaire et par renforcement (RL).

Une capture d'écran de la page des modèles Hugging Face capturée le 26 septembre 2024.
Agrandir / Une capture d’écran de la page des modèles Hugging Face capturée le 26 septembre 2024.

Visage câlin

Lorsqu’elle est triée selon « la plupart des téléchargements », la liste des modèles Hugging Face révèle les tendances concernant les modèles d’IA que les gens trouvent les plus utiles. Au sommet, avec une avance considérable de 163 millions de téléchargements, se trouve Audio Spectrogram Transformer du MIT, qui classe le contenu audio comme la parole, la musique et les sons environnementaux. Vient ensuite, avec 54,2 millions de téléchargements, BERT de Google, un modèle linguistique d’IA qui apprend à comprendre l’anglais en prédisant les mots masqués et les relations entre les phrases, lui permettant ainsi de faciliter diverses tâches linguistiques.

Les cinq principaux modèles d’IA sont tous MiniLM-L6-v2 (qui mappe les phrases et les paragraphes sur des représentations vectorielles denses à 384 dimensions, utiles pour la recherche sémantique), Vision Transformer (qui traite les images sous forme de séquences de correctifs pour effectuer la classification des images) , et le CLIP d’OpenAI (qui connecte les images et le texte, lui permettant de classer ou de décrire le contenu visuel en utilisant le langage naturel).

Quel que soit le modèle ou la tâche, la plateforme ne cesse de croître. « Aujourd’hui, un nouveau référentiel (modèle, jeu de données ou espace) est créé toutes les 10 secondes sur HF », écrit Delangue. « A terme, il y aura autant de modèles que de référentiels de code et nous serons là pour ça ! »

Source-147

- Advertisement -

Latest