vendredi, novembre 29, 2024

Google Assistant est désormais alimenté par Gemini – en quelque sorte

L’Assistant Google tel que nous le connaissions est en voie de disparition. Enfin, au moins ses tripes.

À la fin de l’année dernière, Google a ajouté les capacités d’IA de son chatbot Bard à Google Assistant, permettant à l’assistant virtuel de donner un sens aux images et d’exploiter les données contenues dans les e-mails, les documents et bien plus encore. Désormais, la société donne aux utilisateurs le choix de remplacer les modèles d’IA qui pilotent les compétences conversationnelles de Google Assistant par Gemini, la nouvelle famille de technologies GenAI de Google.

Bientôt, via une nouvelle application Gemini pour les appareils Android (qui remplace l’application Google Assistant existante) et une application Google mise à jour sur iOS (qui sera déployée dans les semaines à venir), les utilisateurs pourront accéder à un nouvel Assistant Google alimenté par Gemini. expérience. Ce sera uniquement mobile ; Les appareils Google Assistant tels que les haut-parleurs et écrans Nest et Home ne verront pas encore de changements.

L’expérience se présente sous la forme d’une superposition qui agit comme une interface pour les modèles Gemini et fournit des recommandations et des suggestions contextuelles, a déclaré Sissie Hsiao, vice-présidente de Google Assistant, à TechCrunch lors d’un point de presse.

« Cette superposition vous permet de faire des choses vraiment intéressantes avec Gemini », a-t-elle déclaré. « Par exemple, vous pouvez générer une légende basée sur une photo que vous avez déjà prise et qui se trouve derrière la superposition. Vous lisez peut-être un article, et afficher la superposition vous permet non seulement de comprendre l’article plus en profondeur, mais aussi de poser des questions sur l’article que vous lisez actuellement.

En effet, l’assistant alimenté par Gemini – qui, selon l’appareil, peut être invoqué d’un simple glissement de coin, d’une pression sur le bouton d’alimentation ou du mot clé « Hey Google » – peut accepter des images ainsi que du texte et des commandes vocales. Par exemple, vous pouvez télécharger une photo d’une plante avec les instructions « Je viens d’acheter cette plante — donnez-moi des conseils et des vidéos YouTube pour m’aider à en prendre soin » et l’assistant alimenté par Gemini fera de son mieux pour satisfaire la demande.

Si vous avez déjà essayé un modèle Gemini sur le Web via Bard, vous savez probablement que Gemini est capable d’effectuer une gamme de tâches GenAI – et cela n’a pas changé avec l’intégration de l’Assistant. Google donne quelques exemples d’invites dans le flux d’intégration, telles que « Aidez-moi à rédiger une réponse textuelle à mon ami qui est stressé au travail », « Donnez-moi quelques idées pour surprendre mon ami amateur de concerts le jour de son anniversaire » et « Aidez-moi à intégrer plus d’options à base de plantes dans mon alimentation. Comme sur le Web, Gemini dans Assistant peut également créer des images, même s’il n’est pas clair quel modèle effectue la génération ; Bard avait précédemment exploité Imagen 2 à cet effet.

Comme vous vous en doutez, les conversations avec l’Assistant Gemini sur mobile seront transférées vers les expériences Gemini sur le Web – et vice versa – si vous êtes connecté au même compte Google aux deux endroits.

Si, pour une raison quelconque, l’expérience Assistant basée sur Gemini ne vous convient pas, un écran de menu dans l’application Assistant sur Android et l’application Google sur iOS vous permet de revenir aux anciens modèles à tout moment.

Désormais, les modèles Gemini ne remplacent pas complètement les anciens modèles qui sous-tendent Google Assistant – du moins pas à ce stade. Les fonctionnalités telles que les phrases rapides, qui vous permettent de ne pas dire « Hey Google » pour des tâches spécifiques, continueront à utiliser les anciens modèles. Il en sera de même pour les fonctionnalités liées au réglage des minuteries, aux appels et au contrôle des appareils domestiques intelligents. De plus, Google note dans le menu de paramètres susmentionné que, même lorsque les modèles Gemini sont sélectionnés comme modèles par défaut dans l’Assistant, les applications intégrant l’Assistant comme Google Maps peuvent continuer à utiliser les anciens modèles.

Dans une démarche qui pourrait contrarier certains utilisateurs de longue date de Google Assistant, le plus performant des modèles Gemini, Gemini Ultra, n’est pas disponible pour alimenter Assistant gratuitement. Celui-ci et les capacités qu’il apporte, comme de meilleures compétences de raisonnement, de codage et de suivi des instructions, sont protégés par un nouveau produit, Gemini Advanced, qui fait partie d’un nouvel abonnement, le plan Google One AI Premium, au prix de 20 $ par mois. L’assistant gratuit alimenté par Gemini exploite le Gemini Pro, moins performant, qui a reçu un accueil médiocre lors de son lancement à Bard en décembre.

Google positionne le plan Google One AI Premium – une extension de son programme Google One existant, initialement disponible avec un essai gratuit de deux mois – comme le seul moyen d’accéder à ses dernières et meilleures fonctionnalités GenAI via Assistant, en fait. Les utilisateurs devront conserver un abonnement pour obtenir les futures mises à jour de Gemini Ultra, notamment des capacités multimodales étendues, des fonctionnalités de codage plus interactives et des capacités d’analyse de données plus approfondies.

Pour adoucir le pot, le plan AI Premium est livré avec 2 To de stockage et, dans un avenir proche, des fonctionnalités basées sur Gemini dans Gmail, Google Docs, Google Slides, Google Sheets et plus encore. Mais je me demande si cela suffira à apaiser les utilisateurs de Google Assistant qui perçoivent le plan AI Premium comme un effort pour facturer des mises à jour de modèles qui étaient auparavant gratuites.

Le nouvel assistant propulsé par Gemini est disponible en anglais à partir d’aujourd’hui aux États-Unis. Il sera disponible dans d’autres pays, ainsi qu’en japonais et en coréen, à partir de la semaine prochaine.

Source-146

- Advertisement -

Latest