De grands modèles de langage peuvent aider les robots domestiques à se remettre des erreurs sans aide humaine

Il existe d’innombrables raisons pour lesquelles les robots domestiques ont connu peu de succès après Roomba. Le prix, l’aspect pratique, le facteur de forme et la cartographie ont tous contribué à un échec après l’autre. Même lorsque tout ou partie de ces problèmes sont résolus, la question reste de savoir ce qui se passe lorsqu’un système commet une erreur inévitable.

Cela a également été un point de friction au niveau industriel, mais les grandes entreprises ont les ressources nécessaires pour résoudre les problèmes dès qu’ils surviennent. Nous ne pouvons cependant pas nous attendre à ce que les consommateurs apprennent à programmer ou à embaucher quelqu’un qui puisse les aider chaque fois qu’un problème survient. Heureusement, il s’agit d’un excellent cas d’utilisation des grands modèles de langage (LLM) dans le domaine de la robotique, comme le montrent de nouvelles recherches du MIT.

Une étude qui sera présentée à la Conférence internationale sur les représentations de l’apprentissage (ICLR) en mai prétend apporter un peu de « bon sens » dans le processus de correction des erreurs.

« Il s’avère que les robots sont d’excellents imitateurs », explique l’école. « Mais à moins que les ingénieurs ne les programment également pour s’adapter à tous les chocs et coups de pouce possibles, les robots ne savent pas nécessairement comment gérer ces situations, à moins de commencer leur tâche par le haut. »

Traditionnellement, lorsqu’un robot rencontre des problèmes, il épuise ses options préprogrammées avant de nécessiter une intervention humaine. Il s’agit d’un défi particulier dans un environnement non structuré comme une maison, où de nombreux changements dans le statu quo peuvent avoir un impact négatif sur la capacité d’un robot à fonctionner.

Les chercheurs à l’origine de l’étude notent que même si l’apprentissage par imitation (apprendre à accomplir une tâche par l’observation) est populaire dans le monde de la robotique domestique, il ne peut souvent pas tenir compte des innombrables petites variations environnementales qui peuvent interférer avec le fonctionnement régulier, nécessitant ainsi un système. pour repartir de la case départ. La nouvelle recherche résout ce problème, en partie, en divisant les démonstrations en sous-ensembles plus petits, plutôt que de les traiter comme faisant partie d’une action continue.

C’est là que les LLM entrent en scène, éliminant la nécessité pour le programmeur d’étiqueter et d’attribuer manuellement les nombreuses sous-actions.

« Les LLM ont un moyen de vous expliquer comment effectuer chaque étape d’une tâche, en langage naturel. La démonstration continue d’un humain est l’incarnation de ces étapes, dans l’espace physique », explique Tsun-Hsuan Wang, étudiant diplômé. « Et nous voulions connecter les deux, afin qu’un robot sache automatiquement à quelle étape il se trouve dans une tâche et soit capable de replanifier et de récupérer par lui-même. »

La démonstration particulière présentée dans l’étude consiste à entraîner un robot à ramasser des billes et à les verser dans un bol vide. C’est une tâche simple et reproductible pour les humains, mais pour les robots, c’est une combinaison de diverses petites tâches. Les LLM sont capables de lister et d’étiqueter ces sous-tâches. Lors des démonstrations, les chercheurs ont saboté l’activité de petites manières, par exemple en faisant dévier le robot de sa trajectoire et en faisant tomber des billes de sa cuillère. Le système a réagi en corrigeant automatiquement les petites tâches, plutôt que de repartir de zéro.

« Avec notre méthode, lorsque le robot fait des erreurs, nous n’avons pas besoin de demander à des humains de programmer ou de faire des démonstrations supplémentaires sur la façon de se remettre d’une panne », ajoute Wang.

C’est une méthode efficace pour éviter de perdre complètement la boule.

Source-146