Les lunettes intelligentes de Meta peuvent désormais vous dire où vous avez garé votre voiture

Meta déploie certaines des fonctionnalités de ses lunettes intelligentes Ray-Ban alimentées par l’IA pour les utilisateurs aux États-Unis et au Canada. CTO Andrew Bosworth sur Threads que la mise à jour d’aujourd’hui des lunettes inclut une reconnaissance plus naturelle du langage, ce qui signifie que les commandes guinchées de « Hey Meta, regarde et dis-moi » devraient disparaître. Les utilisateurs pourront engager l’assistant IA sans la partie « regarder et » de l’invocation.

La plupart des autres outils d’IA présentés lors de l’événement Connect du mois dernier arrivent également sur les cadres aujourd’hui. Cela inclut les messages vocaux, les minuteries et les rappels. Les lunettes peuvent également être utilisées pour que Meta AI appelle un numéro de téléphone ou scanne un code QR. Le PDG Mark Zuckerberg a présenté les nouvelles fonctionnalités de rappel comme moyen de retrouver votre voiture dans un parking dans une bobine Instagram. Une omission notable de cette mise à jour est la fonctionnalité de traduction en direct, mais Bosworth n’a pas partagé de calendrier quant au moment où cette fonctionnalité sera prête.

Pour afficher ce contenu, vous devrez mettre à jour vos paramètres de confidentialité. Veuillez cliquer ici et visualisez le « Partenaires de contenu et de réseaux sociaux » réglage pour le faire.

Les lunettes intelligentes de Meta ont déjà fait la une des journaux une fois aujourd’hui après que deux étudiants de l’Université Harvard les aient utilisées essentiellement pour . Leur combinaison de technologie de reconnaissance faciale et d’un vaste modèle de traitement du langage a permis de révéler des adresses, des numéros de téléphone, des détails sur les membres de la famille et des numéros partiels de sécurité sociale.

Source-145