La « multirecherche » de Google, alimentée par l’IA, qui combine du texte et des images en une seule requête, devient mondiale

Parmi d’autres annonces axées sur l’IA, Google a annoncé aujourd’hui que sa nouvelle fonctionnalité « multirecherche » serait désormais disponible pour les utilisateurs mondiaux sur les appareils mobiles, partout où Google Lens est déjà disponible. La fonction de recherche, qui permet aux utilisateurs de rechercher en utilisant à la fois du texte et des images, a été introduite pour la première fois en avril dernier comme un moyen de moderniser la recherche Google afin de mieux tirer parti des capacités du smartphone. Une variante de cela, « multisearch near me », qui cible les recherches sur les entreprises locales, sera également disponible dans le monde entier au cours des prochains mois, tout comme la multisearch pour le Web et une nouvelle fonctionnalité Lens pour les utilisateurs d’Android.

Comme Google l’a expliqué précédemment, la recherche multiple est alimentée par une technologie d’IA appelée Multitask Unified Model, ou MUM, qui peut comprendre des informations dans une variété de formats, y compris du texte, des photos et des vidéos, puis tirer des informations et des liens entre des sujets, des concepts et des idées. . Google a mis MUM au travail dans ses fonctionnalités de recherche visuelle Google Lens, où il permettrait aux utilisateurs d’ajouter du texte à une requête de recherche visuelle.

« Nous avons redéfini ce que nous entendons par recherche en introduisant Lens. Depuis, nous avons intégré Lens directement à la barre de recherche et nous continuons d’apporter de nouvelles fonctionnalités telles que les achats et l’aide aux devoirs étape par étape », a déclaré Prabhakar Raghavan, vice-président principal de Google en charge des produits de recherche, d’assistant, de géolocalisation, d’annonces, de commerce et de paiement. a déclaré lors d’une conférence de presse à Paris.

Par exemple, un utilisateur peut afficher une photo d’une chemise qu’il aime dans la recherche Google, puis demander à Lens où il pourrait trouver le même motif, mais sur un autre type de vêtement, comme une jupe ou des chaussettes. Ou ils pourraient pointer leur téléphone vers une pièce cassée sur leur vélo et taper dans la recherche Google une requête comme « comment réparer ». Cette combinaison de mots et d’images pourrait aider Google à traiter et à comprendre les requêtes de recherche qu’il n’aurait pas pu gérer auparavant, ou qui auraient été plus difficiles à saisir en utilisant uniquement du texte.

La technique est particulièrement utile pour les recherches d’achats, où vous pouvez trouver des vêtements que vous aimez, mais dans des couleurs ou des styles différents. Ou vous pouvez prendre une photo d’un meuble, comme un ensemble de salle à manger, pour trouver des éléments assortis, comme une table basse. Dans la recherche multiple, les utilisateurs pourraient également affiner et affiner leurs résultats par marque, couleur et attributs visuels, a déclaré Google.

La fonctionnalité a été mise à la disposition des utilisateurs américains en octobre dernier, puis étendue à l’Inde en décembre. À partir d’aujourd’hui, Google indique que la recherche multiple est disponible pour tous les utilisateurs du monde entier sur mobile, dans toutes les langues et tous les pays où Lens est disponible.

La variante « multisearch near me » va également bientôt se développer, a annoncé Google aujourd’hui.

Google a annoncé en mai dernier qu’il pourrait être en mesure de diriger les requêtes multi-recherches vers les entreprises locales (alias « multi-recherche près de chez moi »), ce qui renverrait les résultats de recherche des articles que les utilisateurs recherchaient pour cet inventaire correspondant chez les détaillants locaux ou d’autres entreprises. Par exemple, dans le cas du vélo avec la pièce cassée, vous pouvez ajouter le texte « près de chez moi » à une requête de recherche avec une photo pour trouver un magasin de vélos ou une quincaillerie locale qui avait la pièce de rechange dont vous aviez besoin.

Cette fonctionnalité sera disponible dans toutes les langues et tous les pays où Lens est disponible au cours des prochains mois, a déclaré Google. Il s’étendra également au-delà des appareils mobiles avec la prise en charge de la recherche multiple sur le Web dans les mois à venir.

En termes de nouveaux produits de recherche, le géant de la recherche a taquiné une fonctionnalité Google Lens à venir, notant que les utilisateurs d’Android pourraient bientôt rechercher ce qu’ils voient dans les photos et les vidéos sur les applications et les sites Web sur leur téléphone, tout en restant dans l’application ou sur le site Web. Google appelle cela « rechercher votre écran » et a déclaré qu’il sera également disponible partout où Lens est proposé.

Google a également partagé une nouvelle étape pour Google Lens, notant que les gens utilisent désormais la technologie plus de 10 milliards de fois par mois.

Source-146