Tesla Full Self Driving nécessite une intervention humaine tous les 13 miles

Agrandir / Une société indépendante de tests automobiles a évalué Tesla FSD et a trouvé des résultats inquiétants.

PoneyWang/Getty Images

Le controversé « Full Self Driving » de Tesla est désormais capable d’une conduite assez avancée. Mais cela peut engendrer une complaisance imméritée, selon des tests indépendants. Le système de conduite partiellement automatisé a présenté un comportement dangereux qui a nécessité une intervention humaine plus de 75 fois au cours d’une conduite de plus de 1 000 milles (1 600 km) dans le sud de la Californie, soit en moyenne une intervention tous les 13 milles (21 km).

AMCI Testing a évalué les versions FSD 12.5.1, puis 12.5.3 dans quatre environnements différents : les rues de la ville, les autoroutes rurales à deux voies, les routes de montagne et les autoroutes interétatiques. Et comme le montrent ses vidéos, FSD était parfois capable d’adopter un comportement de conduite assez sophistiqué, comme se garer dans un espace entre des voitures garées pour laisser passer un véhicule venant en sens inverse, ou se déplacer à gauche pour laisser de la place aux piétons qui attendaient à un passage pour piétons que le feu change. AMCI a également félicité FSD pour la façon dont il a géré les virages aveugles à la campagne.

« Il est indéniable que FSD 12.5.1 est impressionnant, pour la vaste gamme de réponses de type humain qu’il permet, en particulier pour un système basé sur une caméra », a déclaré Guy Mangiamele, directeur d’AMCI Testing.

« Mais son apparente infaillibilité au cours des cinq premières minutes de fonctionnement du FSD engendre un sentiment de crainte qui conduit inévitablement à une dangereuse complaisance. Lorsque les conducteurs fonctionnent avec le FSD engagé, conduire avec les mains sur leurs tours ou loin du volant est incroyablement dangereux. Comme vous le verrez dans les vidéos, les moments les plus critiques d’erreur de calcul FSD sont des événements d’une fraction de seconde sur lesquels même les conducteurs professionnels, travaillant avec un état d’esprit de test, doivent se concentrer sur la capture », a déclaré Mangiamele.

Le comportement dangereux rencontré par AMCI consistait notamment à franchir un feu rouge et à traverser dans la voie venant en sens inverse sur une route sinueuse tandis qu’une autre voiture se dirigeait vers la Tesla. Pire encore, le comportement de FSD s’est avéré imprévisible – peut-être une conséquence de la dépendance de Tesla à l’égard de la boîte noire probabiliste qu’est l’apprentissage automatique ?

« Qu’il s’agisse d’un manque de puissance de calcul, d’un problème de mise en mémoire tampon lorsque la voiture prend du retard dans les calculs, ou d’un petit détail de l’évaluation environnante, il est impossible de le savoir. Ces échecs sont les plus insidieux. Mais il y a aussi des échecs continus de une simple insuffisance de programmation, comme le fait de ne changer de voie de départ qu’en direction d’une sortie d’autoroute à peine un dixième de mile avant la sortie elle-même, qui handicape le système et jette le doute sur la qualité globale de sa programmation de base », a déclaré Mangiamele.

Source-147