Google a mis à jour certaines de ses applications d’accessibilité pour ajouter des fonctionnalités qui les rendront plus faciles à utiliser pour les personnes qui en ont besoin. Elle a déployé une nouvelle version de l’application Lookout, capable de lire à haute voix du texte et même des documents longs pour les personnes malvoyantes ou aveugles. L’application peut également lire les étiquettes des aliments, reconnaître les devises et indiquer aux utilisateurs ce qu’elle voit à travers la caméra et dans une image. Sa dernière version est livrée avec un nouveau mode « Rechercher » qui permet aux utilisateurs de choisir parmi sept catégories d’articles, notamment les sièges, les tables, les véhicules, les ustensiles et les salles de bains.
Lorsque les utilisateurs choisissent une catégorie, l’application sera capable de reconnaître les objets qui leur sont associés lorsque l’utilisateur déplace sa caméra dans une pièce. Il leur indiquera ensuite la direction ou la distance par rapport à l’objet, permettant ainsi aux utilisateurs d’interagir plus facilement avec leur environnement. Google a également lancé un bouton de capture dans l’application, afin de pouvoir prendre des photos et obtenir rapidement des descriptions générées par l’IA.
La société a également mis à jour son application Look to Speak. Look to Speak permet aux utilisateurs de communiquer avec d’autres personnes en sélectionnant dans une liste de phrases qu’ils souhaitent que l’application prononce à voix haute, à l’aide de gestes oculaires. Désormais, Google a ajouté un mode sans texte qui leur donne la possibilité de déclencher la parole en choisissant parmi un livre photo contenant divers émojis, symboles et photos. Mieux encore, ils peuvent personnaliser ce que chaque symbole ou image signifie pour eux.
Google a également étendu ses capacités de lecteur d’écran pour Lens dans Maps, afin de pouvoir indiquer à l’utilisateur les noms et catégories des lieux qu’il voit, tels que les distributeurs automatiques de billets et les restaurants. Cela peut également leur indiquer à quelle distance se trouve un emplacement particulier. En outre, il déploie des améliorations pour le guidage vocal détaillé, qui fournit des invites audio indiquant à l’utilisateur où il est censé aller.
Enfin, Google a rendu les informations sur les fauteuils roulants de Maps accessibles sur ordinateur, quatre ans après son lancement sur Android et iOS. La fonctionnalité Lieux accessibles permet aux utilisateurs de voir si le lieu qu’ils visitent peut répondre à leurs besoins : les entreprises et les lieux publics dotés d’une entrée accessible, par exemple, afficheront une icône de fauteuil roulant. Ils peuvent également utiliser cette fonctionnalité pour voir si un emplacement dispose de toilettes, de sièges et d’un parking accessibles. La société affirme que Maps dispose actuellement d’informations sur l’accessibilité de plus de 50 millions de lieux. Ceux qui préfèrent rechercher des informations sur les fauteuils roulants sur Android et iOS pourront désormais également filtrer facilement les avis axés sur l’accès aux fauteuils roulants.
Google a fait toutes ces annonces lors de la conférence des développeurs I/O de cette année, où il a également révélé qu’il avait fourni davantage de code open source pour la « souris » mains libres Project Gameface, permettant ainsi aux développeurs Android de l’utiliser pour leurs applications. L’outil permet aux utilisateurs de contrôler le curseur avec les mouvements de leur tête et leurs gestes faciaux, afin qu’ils puissent utiliser plus facilement leurs ordinateurs et téléphones.
Restez informé de toutes les actualités de Google I/O 2024 directement ici!
Cet article contient des liens d’affiliation ; si vous cliquez sur un tel lien et effectuez un achat, nous pouvons gagner une commission.