Les lunettes intelligentes Ray-Ban Meta bénéficient de fonctionnalités de recherche visuelle basées sur l’IA

Les lunettes intelligentes Ray-Ban Meta sont sur le point de bénéficier de puissantes mises à niveau grâce aux améliorations de l’assistant IA du réseau social. L’entreprise s’oriente enfin vers l’information en temps réel de l’assistant embarqué, et elle commence à tester de nouvelles fonctionnalités « multimodales » qui lui permettent de répondre à des questions en fonction de votre environnement.

Jusqu’à présent, Meta AI avait une « limite de connaissances » fixée à décembre 2022, elle ne pouvait donc pas répondre aux questions sur l’actualité, ou sur des éléments tels que les scores des jeux, les conditions de circulation ou d’autres requêtes qui seraient particulièrement utiles lors de vos déplacements. Mais cela est en train de changer, selon Andrew Bosworth, directeur technique de Meta, qui a déclaré que toutes les lunettes intelligentes Meta aux États-Unis pourront désormais accéder aux informations en temps réel. Le changement est alimenté « en partie » par Bing, a-t-il ajouté.

Par ailleurs, Meta commence à tester l’une des capacités les plus intrigantes de son assistant, qu’elle appelle « IA multimodale ». Les fonctionnalités, d’abord pendant Connect, permettent à Meta AI de répondre à des questions contextuelles sur votre environnement et à d’autres requêtes basées sur ce que vous regardez à travers les lunettes.

Le nouveau de Meta AI

Méta

Les mises à jour pourraient grandement contribuer à rendre Meta AI moins fantaisiste et plus utile, ce qui était l’une de mes principales plaintes concernant mes lunettes intelligentes par ailleurs impressionnantes. Malheureusement, il faudra probablement encore un certain temps avant que la plupart des porteurs de lunettes intelligentes puissent accéder à la nouvelle fonctionnalité multimodale. Bosworth a déclaré que la version bêta à accès anticipé ne serait disponible aux États-Unis que pour un « petit nombre de personnes qui s’y inscrivent » dans un premier temps, l’accès élargi étant vraisemblablement prévu dans le courant de 2024.

Tous deux ont partagé quelques vidéos des nouvelles fonctionnalités qui donnent une idée de ce qui pourrait être possible. D’après les clips, il semble que les utilisateurs pourront activer la fonctionnalité avec des commandes commençant par « Hey Meta, regarde et dis-moi ». Zuckerberg, par exemple, demande à Meta AI de regarder une chemise qu’il tient et de lui demander des suggestions sur des pantalons qui pourraient correspondre. Il a également partagé des captures d’écran montrant Meta AI identifiant l’image d’un fruit et traduisant le texte d’un mème.

Dans un article publié sur Threads, Bosworth a déclaré que les utilisateurs pourraient également interroger Meta AI sur leur environnement immédiat ainsi que des questions plus créatives comme écrire des légendes pour les photos qu’ils viennent de prendre.

Source-145