UC Berkeley présente un apprentissage accéléré qui met les robots sur pied en quelques minutes

Les robots s’appuyant sur l’IA pour apprendre une nouvelle tâche nécessitent généralement un processus de formation laborieux et répétitif. Les chercheurs de l’Université de Californie à Berkeley tentent de simplifier et de raccourcir cela avec une technique d’apprentissage innovante qui permet au robot de combler les lacunes plutôt que de repartir de zéro.

L’équipe a partagé plusieurs axes de travail avec TechCrunch pour les présenter aux TC Sessions: Robotics aujourd’hui et dans la vidéo ci-dessous, vous pouvez en entendre parler – d’abord par Stephen James, chercheur à l’UC Berkeley.

« La technique que nous utilisons est une sorte de configuration d’apprentissage contrastive, où elle prend la vidéo YouTube et corrige un tas de zones, et l’idée est que le robot essaie ensuite de reconstruire cette image », James expliqué. «Il doit comprendre ce qui pourrait se trouver dans ces patchs afin de générer ensuite l’idée de ce qui pourrait se trouver derrière; il doit avoir une très bonne compréhension de ce qui se passe dans le monde.

Bien sûr, il n’apprend pas simplement en regardant YouTube, aussi courant que cela soit dans le monde humain. Les opérateurs doivent déplacer le robot lui-même, physiquement ou via un contrôleur VR, pour lui donner une idée générale de ce qu’il essaie de faire. Il combine ces informations avec sa compréhension plus large du monde glanée en remplissant les images vidéo, et peut éventuellement intégrer également de nombreuses autres sources.

L’approche donne déjà des résultats, a déclaré James : « Normalement, il faut parfois des centaines de démos pour effectuer une nouvelle tâche, alors que maintenant nous pouvons donner une poignée de démos, peut-être 10, et cela peut accomplir la tâche. »

Crédits image : Tech Crunch

Alejandro Escontrela est spécialisé dans la conception de modèles qui extraient des données pertinentes des vidéos YouTube, telles que les mouvements d’animaux, de personnes ou d’autres robots. Le robot utilise ces modèles pour informer son propre comportement, en jugeant si un mouvement donné semble être quelque chose qu’il devrait essayer.

En fin de compte, il tente de reproduire les mouvements des vidéos de sorte qu’un autre modèle qui les regarde ne puisse pas dire s’il s’agit d’un robot ou d’un vrai berger allemand qui poursuit cette balle.

Fait intéressant, de nombreux robots comme celui-ci apprennent d’abord dans un environnement de simulation, testant des mouvements essentiellement en réalité virtuelle. Mais comme l’explique Danijar Hafner, les processus sont devenus suffisamment efficaces pour qu’ils puissent sauter ce test, laissant le robot s’ébattre dans le monde réel et apprendre en direct à partir d’interactions comme marcher, trébucher et bien sûr être poussé. L’avantage ici est qu’il peut apprendre tout en travaillant plutôt que de devoir retourner au simulateur pour intégrer de nouvelles informations, ce qui simplifie encore la tâche.

« Je pense que le Saint Graal de l’apprentissage des robots est d’apprendre autant que possible dans le monde réel et aussi rapidement que possible », a déclaré Hafner. Ils semblent certainement se diriger vers cet objectif. Découvrez la vidéo complète du travail de l’équipe ici.

Source-146