Les dernières fonctionnalités d’accessibilité de Google incluent une utilisation potentiellement intelligente de l’IA. La société met à jour son application Lookout pour Android avec une fonctionnalité « question et réponse d’image » qui utilise l’IA développée par DeepMind pour élaborer des descriptions d’images sans légendes ni texte alternatif. Si l’application voit un chien, par exemple, vous pouvez demander (via la frappe ou la voix) si ce chiot est joueur. Google invite une poignée de personnes aveugles et malvoyantes à tester la fonctionnalité, avec l’intention d’élargir l’audience « bientôt ».
Il sera également plus facile de se déplacer en ville si vous utilisez un fauteuil roulant – ou une poussette, d’ailleurs. Google Maps étend les étiquettes accessibles aux fauteuils roulants à tout le monde, vous saurez donc s’il y a une entrée sans marche avant de vous présenter. Si un emplacement n’a pas d’entrée conviviale, vous verrez une alerte ainsi que des détails sur d’autres hébergements (tels que des sièges adaptés aux fauteuils roulants) pour vous aider à décider si un lieu vaut le déplacement ou non.
Une poignée de mises à jour mineures pourraient encore être utiles. Live Caption pour les appels vous permet de saisir des réponses qui sont lues à haute voix aux destinataires. Chrome sur ordinateur (bientôt sur mobile) détecte désormais les fautes de frappe d’URL et suggère des alternatives. Comme annoncé, Wear OS 4 inclura une synthèse vocale plus rapide et plus cohérente lorsqu’il arrivera plus tard dans l’année.
Google a mis l’accent sur l’IA ces derniers mois et a lancé un déluge de fonctionnalités lors des I/O 2023. La mise à niveau de Lookout pourrait cependant être l’une des plus utiles. Bien que les descriptions de l’IA soient utiles, la fonction Q&R peut fournir des détails qui nécessiteraient normalement l’intervention d’un autre humain. Cela pourrait renforcer l’indépendance des personnes ayant des problèmes de vision.