Apple a introduit avec l’iPhone 16 une nouvelle fonctionnalité appelée Visual Intelligence, qui semble être la réponse de l’entreprise à Google Lens. Dévoilée lors de son événement de septembre 2024, Visual Intelligence vise à aider les utilisateurs à interagir avec le monde qui les entoure de manière plus intelligente.
La nouvelle fonctionnalité est activée par un nouveau bouton tactile situé sur le côté droit de l’appareil, appelé Camera Control. D’un simple clic, Visual Intelligence peut identifier des objets, fournir des informations et proposer des actions en fonction de ce sur quoi vous pointez l’appareil. Par exemple, si vous pointez l’appareil vers un restaurant, vous obtiendrez des menus, des horaires ou des notes, tandis que si vous prenez une photo d’un dépliant pour un événement, vous pourrez l’ajouter directement à votre calendrier. Pointez l’appareil vers un chien pour identifier rapidement la race, ou cliquez sur un produit pour rechercher où vous pouvez l’acheter en ligne.
Plus tard cette année, Camera Control servira également de passerelle vers des outils tiers dotés d’une expertise dans un domaine spécifique, selon le communiqué de presse d’Apple. Par exemple, les utilisateurs pourront utiliser Google pour rechercher des produits ou exploiter ChatGPT pour résoudre des problèmes, tout en gardant le contrôle sur le moment et la manière dont ces outils sont consultés et sur les informations partagées. Apple a souligné que la fonctionnalité est conçue dans un souci de confidentialité, ce qui signifie que l’entreprise n’a pas accès aux détails de ce que les utilisateurs identifient ou recherchent.
Apple affirme que Visual Intelligence préserve la confidentialité des utilisateurs en traitant les données sur l’appareil lui-même, garantissant ainsi que l’entreprise ne sait pas sur quoi vous avez cliqué.
Retrouvez toutes les actualités de L’événement iPhone 16 d’Apple!