En mars 2023, un étudiant de Caroline du Nord descendait d’un autobus scolaire lorsqu’il a été heurté par une Tesla Model Y circulant à « vitesse d’autoroute », selon un rapport. enquête fédérale publiée aujourd’hui. Le conducteur de Tesla utilisait Autopilot, la fonction avancée d’aide à la conduite du constructeur automobile qui, selon Elon Musk, mènera à terme à des voitures entièrement autonomes.
L’étudiant de 17 ans qui a été heurté a été transporté par hélicoptère vers un hôpital où sa vie est en danger. Mais ce que l’enquête a découvert après avoir examiné des centaines d’accidents similaires, c’est un schéma d’inattention du conducteur, combiné aux lacunes de la technologie de Tesla, entraînant des centaines de blessés et des dizaines de morts.
Les conducteurs utilisant Autopilot ou le frère plus avancé du système, Full Self-Driving, « n’étaient pas suffisamment impliqués dans la tâche de conduite », et la technologie de Tesla « ne garantissait pas de manière adéquate que les conducteurs maintenaient leur attention sur la tâche de conduite », a conclu la NHTSA.
Les conducteurs utilisant Autopilot ou le frère plus avancé du système, Full Self-Driving, « n’étaient pas suffisamment impliqués dans la tâche de conduite »
Au total, la NHTSA a enquêté sur 956 accidents, depuis janvier 2018 jusqu’en août 2023. Parmi ces accidents, dont certains impliquaient d’autres véhicules heurtant le véhicule Tesla, 29 personnes sont mortes. Il y a également eu 211 accidents dans lesquels « le plan frontal de la Tesla a heurté un véhicule ou un obstacle sur son passage ». Ces accidents étaient souvent les plus graves : 14 personnes sont mortes et 49 ont été blessées.
La NHTSA a été incitée à lancer son enquête après plusieurs incidents au cours desquels des conducteurs de Tesla ont percuté des véhicules d’urgence à l’arrêt garés sur le bord de la route. La plupart de ces incidents ont eu lieu après la tombée de la nuit, le logiciel ignorant les mesures de contrôle de la scène, notamment les feux d’avertissement, les fusées éclairantes, les cônes et un panneau fléché lumineux.
Dans son rapport, l’agence a constaté que le pilote automatique – et, dans certains cas, le FSD – n’étaient pas conçus pour maintenir le conducteur engagé dans la tâche de conduite. Tesla affirme avertir ses clients qu’ils doivent faire attention lorsqu’ils utilisent le pilote automatique et le FSD, ce qui implique de garder les mains sur les roues et les yeux sur la route. Mais la NHTSA affirme que dans de nombreux cas, les conducteurs deviendraient trop complaisants et perdraient leur concentration. Et quand vient le temps de réagir, il est souvent trop tard.
Dans 59 accidents examinés par la NHTSA, l’agence a constaté que les conducteurs de Tesla disposaient de suffisamment de temps, « cinq secondes ou plus », avant de percuter un autre objet pour réagir. Dans 19 de ces accidents, le danger était visible pendant 10 secondes ou plus avant la collision. En examinant les journaux d’accidents et les données fournies par Tesla, la NHTSA a constaté que les conducteurs n’avaient pas réussi à freiner ou à diriger leur véhicule pour éviter le danger dans la majorité des accidents analysés.
« Des accidents sans tentative d’évitement ou sans tentative d’évitement tardive de la part du conducteur ont été constatés dans toutes les versions du matériel Tesla et dans toutes les circonstances d’accident », a déclaré la NHTSA.
La NHTSA a également comparé les fonctionnalités d’automatisation de niveau 2 (L2) de Tesla aux produits disponibles dans les véhicules d’autres sociétés. Contrairement à d’autres systèmes, le pilote automatique se désengagerait plutôt que de permettre aux conducteurs d’ajuster leur direction. Cela « décourage » les conducteurs de rester impliqués dans la conduite, a déclaré la NHTSA.
« Des accidents sans tentative d’évitement ou sans tentative d’évitement tardive de la part du conducteur ont été constatés dans toutes les versions de matériel Tesla et dans toutes les circonstances d’accident. »
Une comparaison des choix de conception de Tesla avec ceux de ses pairs L2 a identifié Tesla comme une exception du secteur dans son approche de la technologie L2 en ne faisant pas correspondre un système d’engagement du conducteur faible avec les capacités de fonctionnement permissives du pilote automatique.
Même le nom de marque « Autopilot » est trompeur, a déclaré la NHTSA, évoquant l’idée que les conducteurs n’ont pas le contrôle. Alors que d’autres entreprises utilisent une version quelconque de « assistance », « sens » ou « équipe », les produits de Tesla incitent les conducteurs à penser qu’ils sont plus capables qu’ils ne le sont. Le procureur général de Californie et le Département des véhicules automobiles de l’État enquêtent tous deux sur Tesla pour image de marque et marketing trompeurs.
La NHTSA reconnaît que son enquête pourrait être incomplète en raison de « lacunes » dans les données télémétriques de Tesla. Cela pourrait signifier qu’il y a beaucoup plus d’accidents impliquant le pilote automatique et le FSD que ce que la NHTSA a pu trouver.
Même le nom de marque « Autopilot » est trompeur, a déclaré la NHTSA.
Tesla a publié un rappel volontaire à la fin de l’année dernière en réponse à l’enquête, en publiant une mise à jour logicielle en direct pour ajouter davantage d’avertissements au pilote automatique. La NHTSA a annoncé aujourd’hui qu’elle ouvrait une nouvelle enquête sur le rappel après qu’un certain nombre d’experts en sécurité ont déclaré que la mise à jour était inadéquate et permettait toujours une utilisation abusive.
Les résultats vont à l’encontre de l’insistance de Musk selon laquelle Tesla est une société d’intelligence artificielle qui est sur le point de lancer un véhicule entièrement autonome pour un usage personnel. La société prévoit de dévoiler un robotaxi plus tard cette année, censé ouvrir la voie à cette nouvelle ère pour Tesla. Lors de la conférence téléphonique sur les résultats du premier trimestre de cette semaine, Musk a redoublé d’idées selon lesquelles ses véhicules étaient plus sûrs que les voitures conduites par des humains.
« Si vous disposez, à grande échelle, d’une quantité statistiquement significative de données qui montrent de manière concluante que la voiture autonome a, disons, un taux d’accidents deux fois inférieur à celui d’une voiture conduite par un humain, je pense que c’est difficile à ignorer », a déclaré Musk. « Parce qu’à ce stade, arrêter l’autonomie, c’est tuer des gens. »