dimanche, décembre 22, 2024

Google et Meta mettent à jour leurs modèles d’IA au milieu de la montée en puissance d’« AlphaChip »

Agrandir / Il y a eu beaucoup d’actualités sur l’IA cette semaine, et les couvrir donne parfois l’impression de parcourir une salle remplie de CRT dingues, tout comme cette illustration de Getty Images.

La semaine a été très chargée en matière d’actualités sur l’IA grâce à OpenAI, avec notamment un article de blog controversé du PDG Sam Altman, le large déploiement du mode vocal avancé, les rumeurs sur les centres de données 5GW, les remaniements majeurs du personnel et les plans de restructuration spectaculaires.

Mais le reste du monde de l’IA ne suit pas le même rythme, faisant son propre travail et produisant de nouveaux modèles d’IA et de nouvelles recherches à la minute près. Voici un aperçu de quelques autres nouvelles notables sur l’IA de la semaine dernière.

Mises à jour de Google Gemini

Mardi, Google a annoncé des mises à jour de sa gamme de modèles Gemini, y compris la sortie de deux nouveaux modèles prêts pour la production qui reprennent les versions précédentes : Gemini-1.5-Pro-002 et Gemini-1.5-Flash-002. La société a signalé des améliorations de la qualité globale, avec des gains notables en mathématiques, en gestion de contextes longs et en tâches de vision. Google revendique une augmentation de 7 % des performances sur le benchmark MMLU-Pro et une amélioration de 20 % dans les tâches liées aux mathématiques. Mais comme vous le savez, si vous lisez Ars Technica depuis un certain temps, les benchmarks en matière d’IA ne sont pas aussi utiles que nous le souhaiterions.

Parallèlement aux mises à niveau du modèle, Google a introduit des réductions de prix substantielles pour Gemini 1.5 Pro, réduisant les coûts des jetons d’entrée de 64 % et les coûts des jetons de sortie de 52 % pour les invites inférieures à 128 000 jetons. Comme l’a noté le chercheur en IA Simon Willison sur son blog : « À titre de comparaison, le GPT-4o coûte actuellement 5 $/heure.[million tokens] entrée et 15 $/m de sortie et Claude 3.5 Sonnet est de 3 $/m d’entrée et 15 $/m de sortie. Le Gemini 1.5 Pro était déjà le moins cher des modèles frontières et maintenant il est encore moins cher. »

Google a également augmenté les limites de débit, Gemini 1.5 Flash prenant désormais en charge 2 000 requêtes par minute et Gemini 1.5 Pro gérant 1 000 requêtes par minute. Google rapporte que les derniers modèles offrent une vitesse de sortie deux fois supérieure et une latence trois fois inférieure par rapport aux versions précédentes. Ces changements pourraient rendre plus facile et plus rentable pour les développeurs de créer des applications avec Gemini qu’auparavant.

Meta lance Llama 3.2

Mercredi, Meta a annoncé la sortie de Llama 3.2, une mise à jour importante de sa gamme de modèles d’IA à poids ouverts que nous avons largement couverte dans le passé. La nouvelle version comprend des modèles de langage étendus (LLM) compatibles avec la vision dans des tailles de paramètres de 11 milliards et 90B, ainsi que des modèles légers en texte uniquement de paramètres 1B et 3B conçus pour les appareils périphériques et mobiles. Meta affirme que les modèles de vision sont compétitifs avec les principaux modèles à source fermée pour les tâches de reconnaissance d’images et de compréhension visuelle, tandis que les modèles plus petits surpasseraient leurs concurrents de taille similaire sur diverses tâches basées sur du texte.

Willison a fait quelques expériences avec certains des plus petits modèles 3.2 et a rapporté des résultats impressionnants concernant la taille des modèles. Le chercheur en IA Ethan Mollick a montré qu’il exécutait Llama 3.2 sur son iPhone à l’aide d’une application appelée PocketPal.

Meta a également présenté les premières distributions officielles « Llama Stack », créées pour simplifier le développement et le déploiement dans différents environnements. Comme pour les versions précédentes, Meta propose les modèles en téléchargement gratuit, avec des restrictions de licence. Les nouveaux modèles prennent en charge de longues fenêtres contextuelles pouvant aller jusqu’à 128 000 jetons.

L’IA AlphaChip de Google accélère la conception des puces

Jeudi, Google DeepMind a annoncé ce qui semble être une avancée significative dans la conception de puces électroniques basées sur l’IA, AlphaChip. Il a commencé comme projet de recherche en 2020 et constitue désormais une méthode d’apprentissage par renforcement pour la conception de configurations de puces. Google aurait utilisé AlphaChip pour créer des « configurations de puces surhumaines » dans les trois dernières générations de ses unités de traitement tenseur (TPU), qui sont des puces similaires aux GPU conçues pour accélérer les opérations d’IA. Google affirme qu’AlphaChip peut générer des configurations de puces de haute qualité en quelques heures, contre des semaines ou des mois d’effort humain. (Il semblerait que Nvidia ait également utilisé l’IA pour l’aider à concevoir ses puces.)

Notamment, Google a également publié un point de contrôle pré-entraîné d’AlphaChip sur GitHub, partageant les poids du modèle avec le public. La société a indiqué que l’impact d’AlphaChip s’est déjà étendu au-delà de Google, avec des sociétés de conception de puces comme MediaTek adoptant et s’appuyant sur la technologie pour leurs puces. Selon Google, AlphaChip a déclenché une nouvelle ligne de recherche en IA pour la conception de puces, optimisant potentiellement chaque étape du cycle de conception des puces, de l’architecture informatique à la fabrication.

Ce n’est pas tout ce qui s’est passé, mais ce sont là quelques faits marquants. L’industrie de l’IA ne montrant aucun signe de ralentissement pour le moment, nous verrons comment se déroulera la semaine prochaine.

Source-147

- Advertisement -

Latest