La manipulation et la détection ont longtemps été considérées comme deux piliers essentiels pour libérer le potentiel de la robotique. Il y a un peu de chevauchement entre les deux, bien sûr. Les préhenseurs étant devenus un élément fondamental de la robotique industrielle, ces systèmes nécessitent les mécanismes appropriés pour interagir avec le monde qui les entoure.
La vision a longtemps été la clé de tout cela, mais les entreprises se tournent de plus en plus vers la tacticité comme méthode de collecte de données. Entre autres choses, cela donne au robot une meilleure idée de la pression à appliquer sur un objet donné, qu’il s’agisse d’un produit ou d’un être humain.
Il y a quelques mois, la startup basée à Édimbourg, en Écosse, Touchlab, a remporté le pitch lors de notre événement TC Sessions: Robotics, parmi une concurrence féroce. Les juges ont convenu que l’approche de l’entreprise en matière de création de peau robotique est importante et peut aider à libérer un potentiel de détection plus complet. Jusqu’à présent, le XPrize a également accepté. La société est actuellement finaliste du concours XPrize Avatar de 10 millions de dollars.
La société travaille actuellement avec la société de robotique allemande Schunk, qui fournit le préhenseur pour la finale XPrize.
« Notre mission est de créer cette peau électronique pour les robots afin de donner aux machines le pouvoir du toucher humain », a déclaré le co-fondateur et PDG Zaki Hussein, s’adressant à TechCrunch depuis le nouvel espace de bureau de l’entreprise. «Il y a beaucoup d’éléments qui entrent dans la reproduction du contact humain. Nous fabriquons cette technologie de détection. Il est plus fin que la peau humaine et peut vous donner la position et la pression où que vous le mettiez sur le robot. Et cela vous donnera également des forces 3D au point de contact, ce qui permet aux robots de faire des activités habiles et stimulantes.
Pour commencer, la société étudie les applications de téléopération (d’où tout le truc XPrize Avatar) – en particulier, l’utilisation du système pour faire fonctionner à distance des robots dans des hôpitaux en sous-effectif. À une extrémité, un robot TIAGo++ équipé de ses capteurs donne aux travailleurs humains une paire de mains supplémentaires ; de l’autre, un opérateur équipé d’un body VR haptique qui traduit toutes les données tactiles. Bien que ces technologies aient actuellement leurs limites.
« Nous avons une couche de logiciel qui traduit la pression de la peau sur la combinaison. Nous utilisons également des gants haptiques », explique Hussein. « Actuellement, notre peau recueille beaucoup plus de données que nous ne pouvons actuellement en transmettre à l’utilisateur via des interfaces haptiques. Il y a donc un petit goulot d’étranglement. Nous pouvons utiliser tout le potentiel de la meilleure interface haptique du jour, mais il y a un moment où le robot ressent plus que l’utilisateur n’en est capable.
Les informations supplémentaires recueillies par le robot sont traduites par une variété de canaux différents, tels que des données visuelles via un casque VR. La société est sur le point de lancer des pilotes dans le monde réel avec le système. « Ce sera en février », dit Hussein. «Nous avons un essai hospitalier de trois mois avec les patients gériatriques du service de soins aigus gériatriques. Il s’agit d’une première mondiale, où ce robot sera déployé dans cet environnement. »