Ce robot a franchi une ligne qu’il n’aurait pas dû franchir parce que les humains lui ont dit de le faire

La vidéo d’un robot de livraison de trottoir traversant une bande jaune d’avertissement et roulant sur une scène de crime à Los Angeles est devenue virale cette semaine, amassant plus de 650 000 vues sur Twitter et suscitant un débat sur la question de savoir si la technologie est prête pour les heures de grande écoute.

Il s’avère que l’erreur du robot, du moins dans ce cas, a été causée par des humains.

La vidéo de l’événement a été prise et publiée sur Twitter par William Gude, le propriétaire de Filmer la police LA, un compte de surveillance de la police basé à Los Angeles. Gude se trouvait dans la zone d’une fusillade présumée dans une école à Hollywood High School vers 10 heures du matin lorsqu’il a capturé sur vidéo le bot alors qu’il planait au coin de la rue, l’air confus, jusqu’à ce que quelqu’un soulève la bande, permettant au bot de continuer son chemin à travers la scène du crime.

Uber Spinout Serve Robotics a déclaré à TechCrunch que le système de conduite autonome du robot n’avait pas décidé de pénétrer sur la scène du crime. C’était le choix d’un opérateur humain qui opérait à distance le bot.

Les robots de livraison de l’entreprise ont une autonomie dite de niveau 4, ce qui signifie qu’ils peuvent se conduire eux-mêmes dans certaines conditions sans avoir besoin d’un humain pour prendre le relais. Serve pilote ses robots avec Uber Eats dans la région depuis mai.

Serve Robotics a une politique qui exige qu’un opérateur humain surveille et assiste à distance son bot à chaque intersection. L’opérateur humain prendra également le contrôle à distance si le bot rencontre un obstacle tel qu’une zone de construction ou un arbre tombé et ne peut pas comprendre comment le contourner dans les 30 secondes.

Dans ce cas, le robot, qui venait de terminer une livraison, s’est approché de l’intersection et un opérateur humain a pris le relais, conformément à la politique de fonctionnement interne de l’entreprise. Initialement, l’opérateur humain s’est arrêté devant le ruban jaune d’avertissement. Mais lorsque des passants ont soulevé la bande et l’ont apparemment « fait passer », l’opérateur humain a décidé de continuer, a déclaré le PDG de Serve Robotics, Ali Kashani, à TechCrunch.

« Le robot n’aurait jamais traversé (de lui-même) », a déclaré Kashani. « Il y a juste beaucoup de systèmes pour s’assurer qu’il ne traversera jamais jusqu’à ce qu’un humain donne son accord. »

L’erreur de jugement ici est que quelqu’un a décidé de continuer à traverser, a-t-il ajouté.

Quelle que soit la raison, Kashani a déclaré que cela n’aurait pas dû se produire. Serve a extrait les données de l’incident et travaille sur un nouvel ensemble de protocoles pour l’humain et l’IA afin d’empêcher cela à l’avenir, a-t-il ajouté.

Quelques étapes évidentes consisteront à s’assurer que les employés suivent la procédure d’exploitation standard (ou SOP), qui comprend une formation appropriée et l’élaboration de nouvelles règles sur ce qu’il faut faire si une personne essaie de faire passer le robot à travers une barricade.

Mais Kashani a déclaré qu’il existe également des moyens d’utiliser des logiciels pour éviter que cela ne se reproduise.

Les logiciels peuvent être utilisés pour aider les gens à prendre de meilleures décisions ou pour éviter complètement une zone, a-t-il déclaré. Par exemple, l’entreprise peut travailler avec les forces de l’ordre locales pour envoyer des informations à jour à un robot sur les incidents de police afin qu’il puisse parcourir ces zones. Une autre option consiste à donner au logiciel la capacité d’identifier les forces de l’ordre, puis d’alerter les décideurs humains et de leur rappeler les lois locales.

Ces leçons seront essentielles à mesure que les robots progresseront et élargiront leurs domaines opérationnels.

« Le plus drôle, c’est que le robot a fait ce qu’il fallait ; ça s’est arrêté », a déclaré Kashani. « Donc, cela revient vraiment à donner aux gens suffisamment de contexte pour prendre de bonnes décisions jusqu’à ce que nous soyons suffisamment convaincus que nous n’avons pas besoin de personnes pour prendre ces décisions. »

Les robots de Serve Robotics n’ont pas encore atteint ce point. Cependant, Kashani a déclaré à TechCrunch que les robots deviennent de plus en plus indépendants et fonctionnent généralement seuls, à deux exceptions près : les intersections et les blocages quelconques.

Le scénario qui s’est déroulé cette semaine va à l’encontre du nombre de personnes qui voient l’IA, a déclaré Kashani.

« Je pense que le récit en général est fondamentalement que les gens sont vraiment doués pour les cas marginaux, puis l’IA fait des erreurs, ou n’est peut-être pas prête pour le monde réel », a déclaré Kashani. « Assez curieusement, nous apprenons un peu le contraire, c’est-à-dire que nous constatons que les gens font beaucoup d’erreurs et que nous devons nous fier davantage à l’IA. »

Source-146