Apple apporte le suivi oculaire aux iPhones et iPads récents

Cette semaine, à l’approche de la Journée mondiale de sensibilisation à l’accessibilité, Apple publie sa série annuelle habituelle d’annonces concernant ses fonctionnalités d’assistance. Beaucoup d’entre eux sont utiles aux personnes handicapées, mais ont également des applications plus larges. Par exemple, Personal Voice, sorti l’année dernière, permet de préserver la voix d’une personne. Cela peut être utile à ceux qui risquent de perdre leur voix ou qui ont d’autres raisons de vouloir conserver leur propre signature vocale pour leurs proches en leur absence. Aujourd’hui, Apple apporte la prise en charge du suivi oculaire aux modèles récents d’iPhone et d’iPad, ainsi que des raccourcis vocaux personnalisables, des haptiques musicales, des signaux de mouvement du véhicule et bien plus encore.

La fonctionnalité la plus intrigante de l’ensemble est la possibilité d’utiliser la caméra frontale sur les iPhones ou les iPads (du moins ceux dotés de la puce A12 ou ultérieure) pour naviguer dans le logiciel sans matériel ni accessoires supplémentaires. Une fois cette option activée, les utilisateurs peuvent regarder leur écran pour se déplacer dans des éléments tels que des applications et des menus, puis s’attarder sur un élément pour le sélectionner.

Cette pause pour sélectionner est quelque chose qu’Apple appelle Dwell Control, qui est déjà disponible ailleurs dans l’écosystème de l’entreprise, comme dans les paramètres d’accessibilité de Mac. Le processus de configuration et d’étalonnage ne devrait prendre que quelques secondes, et l’IA intégrée à l’appareil est à l’œuvre pour comprendre votre regard. Il fonctionnera également avec des applications tierces dès le lancement, car il s’agit d’une couche du système d’exploitation comme Assistive Touch. Étant donné qu’Apple prenait déjà en charge le suivi oculaire dans iOS et iPadOS avec des appareils de détection oculaire connectés, la nouveauté d’aujourd’hui est la possibilité de le faire sans matériel supplémentaire.

Apple travaille également à améliorer l’accessibilité de ses commandes vocales sur les iPhones et iPads. Il utilise à nouveau l’IA sur l’appareil pour créer des modèles personnalisés pour chaque personne en configurant un nouveau raccourci vocal. Vous pouvez configurer une commande pour un seul mot ou une seule phrase, ou même un énoncé (comme « Oy ! » peut-être). Siri les comprendra et exécutera le raccourci ou la tâche désignée. Vous pouvez demander à ces applications de lancer ou d’exécuter une série d’actions que vous définissez dans l’application Raccourcis, et une fois configuré, vous n’aurez pas à demander au préalable à Siri d’être prêt.

Une autre amélioration apportée aux interactions vocales est « Écouter les discours atypiques », qui permet aux iPhones et aux iPads d’utiliser l’apprentissage automatique sur l’appareil pour reconnaître les modèles de parole et personnaliser leur reconnaissance vocale en fonction de votre façon unique de vocaliser. Cela ressemble au projet Relate de Google, qui est également conçu pour aider la technologie à mieux comprendre les personnes souffrant de troubles de la parole ou d’un discours atypique.

Pour créer ces outils, Apple a travaillé avec le Speech Accessibility Project du Beckman Institute for Advanced Science and Technology de l’Université de l’Illinois à Urbana-Champaign. L’institut collabore également avec d’autres géants de la technologie comme Google et Amazon pour poursuivre le développement de leurs produits dans ce domaine.

Pour ceux qui sont sourds ou malentendants, Apple apporte des fonctionnalités haptiques aux lecteurs de musique sur iPhone, en commençant par des millions de chansons sur sa propre application Musique. Lorsqu’elle est activée, l’haptique musicale jouera des frappes, des textures et des vibrations spécialisées en tandem avec l’audio pour apporter une nouvelle couche de sensations. Il sera disponible sous forme d’API afin que les développeurs puissent également apporter une plus grande accessibilité à leurs applications.

Les conducteurs handicapés ont besoin de meilleurs systèmes dans leurs voitures, et Apple résout certains de ces problèmes avec ses mises à jour de CarPlay. La commande vocale et les filtres de couleur arrivent sur l’interface des véhicules, facilitant le contrôle des applications en parlant et permettant aux personnes malvoyantes de voir les menus ou les alertes. À cette fin, CarPlay bénéficie également d’une prise en charge des textes en gras et en gros caractères, ainsi que d’une reconnaissance sonore des bruits tels que les sirènes ou les klaxons. Lorsque le système identifie un tel son, il affichera une alerte en bas de l’écran pour vous informer de ce qu’il a entendu. Cela fonctionne de manière similaire à la fonction de reconnaissance sonore existante d’Apple sur d’autres appareils comme l’iPhone.

Un graphique illustrant les signaux de mouvement du véhicule sur un iPhone.  À gauche se trouve le dessin d’une voiture avec deux flèches de chaque côté de l’arrière.  Le mot

Pomme

Pour ceux qui souffrent du mal des transports lorsqu’ils utilisent leur iPhone ou iPad dans des véhicules en mouvement, une nouvelle fonctionnalité appelée Vehicle Motion Cues pourrait atténuer une partie de cet inconfort. Étant donné que le mal des transports est basé sur un conflit sensoriel lié à la visualisation d’un contenu immobile alors que vous êtes dans un véhicule en mouvement, la nouvelle fonctionnalité vise à mieux aligner les sens conflictuels grâce aux points à l’écran. Lorsqu’ils sont activés, ces points alignent les quatre bords de votre écran et se balancent en réponse au mouvement qu’il détecte. Si la voiture avance ou accélère, les points reculeront comme en réaction à l’augmentation de la vitesse dans cette direction.

De nombreuses autres fonctionnalités seront ajoutées à la suite de produits de la société, notamment les sous-titres en direct dans VisionOS, un nouveau mode Lecteur dans Magnifier, la prise en charge du braille multiligne et un trackpad virtuel pour ceux qui utilisent Assistive Touch. On ne sait pas encore quand toutes ces mises à jour annoncées seront déployées, bien qu’Apple ait historiquement rendu ces fonctionnalités disponibles dans les prochaines versions d’iOS. Avec sa conférence des développeurs WWDC dans quelques semaines, il est probable que de nombreux outils actuels soient officiellement publiés avec le prochain iOS.

Cet article contient des liens d’affiliation ; si vous cliquez sur un tel lien et effectuez un achat, nous pouvons gagner une commission.

Source-145