Les lunettes intelligentes de marque Ray-Ban de Meta bénéficient de rappels et de fonctionnalités de traduction alimentés par l’IA

L’assistant IA de Meta a toujours été la fonctionnalité la plus intrigante de ses lunettes intelligentes Ray-Ban de deuxième génération. Alors que l’assistant génératif d’IA avait des capacités assez limitées lors du lancement des lunettes l’automne dernier, l’ajout d’informations en temps réel et de capacités multimodales a offert une gamme de nouvelles possibilités pour l’accessoire.

Désormais, Meta améliore considérablement les pouvoirs d’IA des lunettes intelligentes Ray-Ban Meta. La société a présenté un certain nombre de nouvelles capacités pour les cadres vieux d’un an sur scène lors de son événement Connect, notamment des rappels et des traductions en direct.

Avec les rappels, vous pourrez consulter les objets dans votre environnement et demander à Meta de vous envoyer un rappel à ce sujet. Par exemple, « Hey Meta, rappelle-moi d’acheter ce livre lundi prochain. » Les lunettes pourront également scanner les codes QR et appeler un numéro de téléphone inscrit devant vous.

De plus, Meta ajoute la prise en charge vidéo à Meta AI afin que les lunettes soient mieux en mesure de scanner votre environnement et de répondre aux requêtes sur ce qui vous entoure. Il existe d’autres améliorations plus subtiles. Auparavant, vous deviez lancer une commande par « Hey Meta, regarde et dis-moi » afin que les lunettes répondent à une commande basée sur ce que vous regardiez. Cependant, avec la mise à jour, Meta AI sera en mesure de répondre aux requêtes sur ce qui se trouve devant vous avec des demandes plus naturelles. Dans une démo avec Meta, j’ai pu poser plusieurs questions et suivis avec des questions telles que « hé Meta, qu’est-ce que je regarde » ou « hé Meta, parle-moi de ce que je regarde ».

Lorsque j’ai testé les capacités multimodales de Meta AI sur les lunettes l’année dernière, j’ai découvert que Meta AI était capable de traduire certains extraits de texte, mais avait du mal avec plus que quelques mots. Désormais, Meta AI devrait être capable de traduire des morceaux de texte plus longs. Et plus tard cette année, la société ajoute des capacités de traduction en direct pour l’anglais, le français, l’italien et l’espagnol, ce qui pourrait rendre les lunettes encore plus utiles en tant qu’accessoire de voyage.

Et même si je n’ai pas encore entièrement testé les nouvelles capacités de Meta AI sur ses lunettes intelligentes, il semble déjà avoir une meilleure compréhension des informations en temps réel que ce que j’ai trouvé l’année dernière. Lors d’une démonstration avec Meta, j’ai demandé à Meta AI de me dire qui est le président de la Chambre des représentants – une question à laquelle elle s’est trompée à plusieurs reprises l’année dernière – et elle a répondu correctement la première fois.

Restez informé de toute l’actualité de Méta Connect 2024!

Source-145