La nouvelle technologie de Google peut lire votre langage corporel, sans caméras

Et si votre ordinateur a décidé de ne pas émettre de jingle de notification parce qu’il a remarqué que vous n’étiez pas assis à votre bureau ? Et si votre téléviseur vous voyait quitter le canapé pour répondre à la porte d’entrée et mettait Netflix en pause automatiquement, puis reprenait la lecture lorsque vous vous asseyez ? Et si nos ordinateurs prenaient plus d’indices sociaux de nos mouvements et apprenaient à être des compagnons plus prévenants ?

Cela semble futuriste et peut-être plus qu’un peu envahissant – un ordinateur surveillant chacun de vos mouvements ? Mais cela semble moins effrayant une fois que vous apprenez que ces technologies n’ont pas besoin de s’appuyer sur une caméra pour voir où vous êtes et ce que vous faites. Au lieu de cela, ils utilisent un radar. La division Advanced Technology and Products de Google, mieux connue sous le nom d’ATAP, le département à l’origine de projets bizarres tels qu’une veste en jean tactile, a passé l’année dernière à explorer comment les ordinateurs peuvent utiliser le radar pour comprendre nos besoins ou nos intentions, puis réagir de manière appropriée.

Ce n’est pas la première fois que nous voyons Google utiliser un radar pour fournir à ses gadgets une conscience spatiale. En 2015, Google a dévoilé Soli, un capteur qui peut utiliser les ondes électromagnétiques du radar pour capter des gestes et des mouvements précis. Cela a été vu pour la première fois dans la capacité du Google Pixel 4 à détecter de simples gestes de la main afin que l’utilisateur puisse répéter des alarmes ou mettre en pause la musique sans avoir à toucher physiquement le smartphone. Plus récemment, des capteurs radar ont été intégrés à l’écran intelligent Nest Hub de deuxième génération pour détecter les mouvements et les schémas respiratoires de la personne qui dort à côté. L’appareil était alors capable de suivre le sommeil de la personne sans l’obliger à attacher une montre intelligente.

Le même capteur Soli est utilisé dans ce nouveau cycle de recherche, mais au lieu d’utiliser l’entrée du capteur pour contrôler directement un ordinateur, ATAP utilise plutôt les données du capteur pour permettre aux ordinateurs de reconnaître nos mouvements quotidiens et de faire de nouveaux types de choix.

« Nous pensons qu’à mesure que la technologie devient plus présente dans notre vie, il est juste de commencer à demander à la technologie elle-même de s’inspirer de nous », déclare Leonardo Giusti, responsable du design chez ATAP. De la même manière que votre mère peut vous rappeler de prendre un parapluie avant de sortir, peut-être que votre thermostat peut transmettre le même message lorsque vous passez devant et que vous y jetez un coup d’œil, ou que votre téléviseur peut baisser le volume s’il détecte que vous avez endormi sur le canapé.

Recherche radar

Un humain entrant dans l’espace personnel d’un ordinateur.

Avec l’aimable autorisation de Google

Giusti dit qu’une grande partie de la recherche est basée sur la proxémie, l’étude de la façon dont les gens utilisent l’espace autour d’eux pour arbitrer les interactions sociales. Au fur et à mesure que vous vous rapprochez d’une autre personne, vous vous attendez à un engagement et à une intimité accrus. L’équipe ATAP a utilisé cela et d’autres indices sociaux pour établir que les gens et les appareils ont leurs propres concepts d’espace personnel.

Le radar peut vous détecter en vous rapprochant d’un ordinateur et en entrant dans son espace personnel. Cela peut signifier que l’ordinateur peut alors choisir d’effectuer certaines actions, comme démarrer l’écran sans que vous n’ayez à appuyer sur un bouton. Ce type d’interaction existe déjà dans les écrans intelligents Google Nest actuels, bien qu’au lieu du radar, Google utilise des ondes sonores ultrasonores pour mesurer la distance d’une personne à l’appareil. Lorsqu’un Nest Hub remarque que vous vous rapprochez, il met en évidence les rappels en cours, les événements de l’agenda ou d’autres notifications importantes.

Source-144