Apple détaille les nouvelles fonctionnalités de l’iPhone telles que la détection de porte et les sous-titres en direct

La journée mondiale de sensibilisation à l’accessibilité est jeudi, Apple a donc consulté son blog de salle de rédaction cette semaine pour annoncer plusieurs nouvelles fonctionnalités d’accessibilité majeures destinées à l’iPhone, à l’Apple Watch, à l’iPad et au Mac.

L’un des plus largement utilisés sera probablement Live Captions, qui arrive sur iPhone, Mac et iPad. La fonctionnalité affiche des sous-titres de mise à jour en direct pilotés par l’IA pour la parole provenant de n’importe quelle source audio sur le téléphone, que l’utilisateur soit « sur un téléphone ou un appel FaceTime, utilise une application de vidéoconférence ou de médias sociaux, diffuse du contenu multimédia ou ait un conversation avec quelqu’un à côté d’eux. »

Le texte (que les utilisateurs peuvent redimensionner à volonté) apparaît en haut de l’écran et défile au fur et à mesure que le sujet parle. De plus, les utilisateurs de Mac pourront taper des réponses et les faire lire à haute voix à d’autres personnes lors de l’appel. Les sous-titres en direct entreront en version bêta publique sur les appareils pris en charge (« iPhone 11 et versions ultérieures, modèles d’iPad avec A12 Bionic et versions ultérieures, et Mac avec silicium Apple ») plus tard cette année.

Il y a aussi la détection de porte. Cela ne fonctionnera malheureusement que sur les iPhones et les iPads avec un capteur lidar (donc l’iPhone 12 Pro, l’iPhone 13 Pro ou les modèles récents d’iPad Pro), mais cela semble utile pour ceux qui sont aveugles ou malvoyants. Il utilise la caméra et les capteurs AR de l’iPhone, en tandem avec l’apprentissage automatique, pour identifier les portes et indiquer de manière audible aux utilisateurs où se trouve la porte, si elle est ouverte ou fermée, comment elle peut être ouverte et quelle écriture ou étiquette elle pourrait avoir.

La détection de porte rejoindra la détection de personnes et les descriptions d’images dans un nouveau « mode de détection » destiné aux utilisateurs aveugles ou malvoyants dans iOS et iPadOS. Cependant, le billet de blog d’Apple n’a pas précisé quand cette fonctionnalité serait lancée.

D’autres ajouts d’accessibilité qui, selon Apple, sont imminents incluent 20 nouvelles langues Voice Over, de nouveaux gestes de la main sur Apple Watch et une fonctionnalité qui permet aux joueurs de recevoir l’aide d’un « copain » avec un autre contrôleur de jeu sans déconnecter le leur. De plus, il existe de nouvelles personnalisations Siri et Apple Books destinées à étendre l’accessibilité pour les personnes handicapées, les personnalisations de la reconnaissance sonore et la mise en miroir de l’écran Apple Watch sur l’iPhone, ce qui permet aux utilisateurs de Watch d’accéder à de nombreuses fonctionnalités d’accessibilité disponibles sur l’iPhone mais pas sur la montre.

Les passionnés de technologie déplorent souvent que les smartphones (et la technologie personnelle en général) soient devenus stagnants, sans beaucoup de nouveaux développements passionnants. Mais cela ne pourrait pas être plus éloigné de la vérité pour de nombreuses personnes handicapées. Google, Apple et de nombreux chercheurs et startups ont fait des progrès significatifs, apportant de nouvelles fonctionnalités d’accessibilité puissantes aux appareils mobiles.

Image de l’annonce par Apple

Source-147