Mardi matin, Apple a annoncé une nouvelle vague de fonctionnalités d’accessibilité pour ses différentes plates-formes informatiques, qui devraient être déployées plus tard cette année sous forme de mises à jour logicielles pour l’iPhone, l’iPad, le Mac et l’Apple Watch.
Apple a déclaré qu’il testerait en version bêta les sous-titres en direct capables de transcrire n’importe quel contenu audio – appels FaceTime, applications de visioconférence (avec attribution automatique pour identifier l’orateur), vidéo en streaming ou conversations en personne – en anglais sur iPhone, iPad et Mac . La poussée de Google pour les fonctionnalités Live Caption a commencé autour de la sortie d’Android 10 et est désormais disponible en anglais sur les appareils Pixel 2 et ultérieurs, ainsi que sur « sélectionner » d’autres téléphones Android et dans des langues supplémentaires pour Pixel 6 et Pixel 6 Pro. Il est donc bon de voir l’écosystème Apple rattraper son retard et le proposer à encore plus de personnes.
À l’instar de l’implémentation d’Android, Apple indique que ses sous-titres seront générés sur les appareils de l’utilisateur, en gardant les informations privées. La version bêta sera lancée plus tard cette année aux États-Unis et au Canada pour l’iPhone 11 et les versions ultérieures, les iPad avec le processeur A12 Bionic et les versions ultérieures, et les Mac avec les processeurs Apple Silicon.
L’Apple Watch étendra les commandes de reconnaissance gestuelle Assistive Touch qu’elle a ajoutées l’année dernière avec des actions rapides qui reconnaissent un double pincement pour mettre fin à un appel, rejeter les notifications, prendre une photo, mettre en pause/lire des médias ou démarrer une séance d’entraînement. Pour en savoir plus sur ce que font déjà les commandes gestuelles et sur leur fonctionnement, nous vous expliquons comment utiliser votre Apple Watch mains libres ici.
L’Apple Watch devient également plus facile à utiliser pour les personnes souffrant de handicaps physiques et moteurs grâce à une nouvelle fonction de mise en miroir qui ajoutera un contrôle à distance à partir d’un iPhone couplé. Apple Watch Mirroring inclut la technologie tirée d’AirPlay, ce qui facilite l’accès aux fonctionnalités uniques de la montre sans compter spécifiquement sur votre capacité à appuyer sur son petit écran ou sur ce que les commandes vocales peuvent activer.
Apple a déployé la reconnaissance sonore avec iOS 14 pour capter des sons spécifiques comme un avertisseur de fumée ou de l’eau qui coule et alerter les utilisateurs qui peuvent être sourds ou malentendants. Bientôt, la reconnaissance sonore permettra un réglage pour permettre une reconnaissance personnalisée des sons. Comme le montre cette capture d’écran, il peut écouter les alertes répétées et apprendre à saisir des alertes spécifiques à l’environnement de l’utilisateur, comme une alerte de sonnette inhabituelle ou un ding d’appareil.
De nouvelles améliorations apportées à son application de lecteur d’écran VoiceOver, aux fonctionnalités Speak Selection et Speak Screen ajouteront la prise en charge de 20 nouveaux « paramètres régionaux et langues », couvrant l’arabe (monde), le basque, le bengali (Inde), le bhojpuri (Inde), le bulgare, le catalan, Croate, farsi, français (Belgique), galicien, kannada, malais, mandarin (Liaoning, Shaanxi, Sichuan), marathi, shanghaïen (Chine), espagnol (Chili), slovène, tamoul, télougou, ukrainien, valencien et vietnamien. Sur Mac, le nouveau vérificateur de texte de VoiceOver recherchera les problèmes de formatage tels que les espaces supplémentaires ou les lettres majuscules, tandis que dans Apple Maps, les utilisateurs de VoiceOver peuvent s’attendre à de nouveaux retours sonores et haptiques qui indiqueront par où commencer pour les itinéraires à pied.
Chez Apple, nous concevons pour l’accessibilité à partir de zéro et nous innovons constamment au nom de nos utilisateurs. Les fonctionnalités de pointe que nous partageons aujourd’hui offriront aux personnes handicapées de nouvelles façons de naviguer, de se connecter et bien plus encore. https://t.co/Zrhcng95QA
– Tim Cook (@tim_cook) 17 mai 2022
Désormais, Apple indique que le traitement sur l’appareil utilisera des capteurs lidar et les caméras d’un iPhone ou d’un iPad pour la détection de porte. La nouvelle fonctionnalité à venir sur iOS aidera les utilisateurs à trouver des entrées à un nouvel emplacement, leur indiquera où il se trouve et décrira s’il fonctionne avec un bouton ou une poignée ainsi que s’il est ouvert ou fermé.
Tout cela fera partie du mode de détection qu’Apple ajoute à la loupe dans iOS, qui collecte également les fonctionnalités existantes qui permettent à la caméra de zoomer sur les objets à proximité et de les décrire ou reconnaître les personnes qui se trouvent à proximité et alerter l’utilisateur avec des sons, des paroles ou des retours haptiques. L’utilisation du capteur lidar signifie que la détection de personnes et la détection de porte nécessiteront un modèle d’iPhone Pro ou d’iPad Pro qui inclut la fonctionnalité.
Une autre nouvelle fonctionnalité en route est Buddy Controller, qui combine deux contrôleurs de jeu en un seul afin qu’un ami puisse aider quelqu’un à jouer à un jeu, similaire à la fonctionnalité Copilot sur Xbox.
Enfin, d’autres ajustements incluent le mode d’orthographe du contrôle vocal avec saisie lettre par lettre, des commandes pour ajuster le temps d’attente de Siri pour répondre aux demandes et des ajustements visuels supplémentaires pour Apple Books qui peuvent mettre en gras le texte, changer de thème ou ajuster la ligne, le caractère , et l’espacement des mots pour le rendre plus lisible.
Les annonces font partie de la reconnaissance par Apple cette semaine de la Journée mondiale de sensibilisation à l’accessibilité le 19 mai. Il note que les emplacements Apple Store offriront des sessions en direct pour aider les gens à en savoir plus sur les fonctionnalités existantes, et un nouveau raccourci Accessibility Assistant arrivera sur Mac et Apple Watch cette semaine pour recommander des fonctionnalités spécifiques en fonction des préférences de l’utilisateur.