Google a annoncé mardi des mises à jour de sa famille de modèles d’IA Gemini lors de l’I/O, la conférence annuelle de l’entreprise destinée aux développeurs. Il déploie un nouveau modèle appelé Gemini 1.5 Flash, qui, selon lui, est optimisé pour la vitesse et l’efficacité.
« [Gemini] 1.5 Flash excelle dans la synthèse, les applications de chat, le sous-titrage d’images et de vidéos, l’extraction de données à partir de longs documents et tableaux, et bien plus encore », a écrit Demis Hassabis, PDG de Google DeepMind, dans un article de blog. Hassabis a ajouté que Google a créé Gemini 1.5 Flash parce que les développeurs avaient besoin d’un modèle plus léger et moins cher que la version Pro, annoncée par Google en février. Gemini 1.5 Pro est plus efficace et plus puissant que le modèle Gemini original de la société annoncé à la fin de l’année dernière.
Gemini 1.5 Flash se situe entre Gemini 1.5 Pro et Gemini 1.5 Nano, le plus petit modèle de Google qui s’exécute localement sur les appareils. Bien qu’il soit plus léger que le Gemini Pro, il est tout aussi puissant. Google a déclaré que cela a été réalisé grâce à un processus appelé « distillation », dans lequel les connaissances et compétences les plus essentielles de Gemini 1.5 Pro ont été transférées au modèle plus petit. Cela signifie que Gemini 1.5 Flash bénéficiera des mêmes capacités multimodales que Pro, ainsi que de sa longue fenêtre contextuelle – la quantité de données qu’un modèle d’IA peut ingérer simultanément – d’un million de jetons. Selon Google, cela signifie que Gemini 1.5 Flash sera capable d’analyser un document de 1 500 pages ou une base de code de plus de 30 000 lignes à la fois.
Gemini 1.5 Flash (ou l’un de ces modèles) n’est pas vraiment destiné aux consommateurs. Au lieu de cela, il s’agit d’un moyen plus rapide et moins coûteux pour les développeurs de créer leurs propres produits et services d’IA à l’aide d’une technologie conçue par Google.
En plus de lancer Gemini 1.5 Flash, Google met également à niveau Gemini 1.5 Pro. La société a déclaré avoir « amélioré » les capacités du modèle à écrire du code, à raisonner et à analyser l’audio et les images. Mais la plus grande mise à jour reste à venir : Google a annoncé qu’il doublerait la fenêtre contextuelle existante du modèle pour la porter à deux millions de jetons plus tard cette année. Cela le rendrait capable de traiter deux heures de vidéo, 22 heures d’audio, plus de 60 000 lignes de code ou plus de 1,4 million de mots en même temps.
Gemini 1.5 Flash et Pro sont désormais disponibles en avant-première publique dans AI Studio et Vertex AI de Google. La société a également annoncé aujourd’hui une nouvelle version de son modèle ouvert Gemma, appelée Gemma 2. Mais à moins que vous ne soyez un développeur ou quelqu’un qui aime bricoler dans la création d’applications et de services d’IA, ces mises à jour ne sont pas vraiment destinées au consommateur moyen. .
Restez informé de toutes les actualités de Google I/O 2024 directement ici!