La NHTSA conclut son enquête sur Tesla Autopilot après avoir lié le système à 14 décès

La National Highway Traffic Safety Administration (NHTSA) a conclu une enquête sur le système d’aide à la conduite Autopilot de Tesla après avoir examiné des centaines d’accidents, dont 13 incidents mortels qui ont entraîné 14 morts. L’organisation a jugé que ces accidents étaient dus à une mauvaise utilisation du système par le conducteur.

Cependant, la NHTSA a également constaté que « le faible système d’engagement du conducteur de Tesla n’était pas approprié pour les capacités opérationnelles permissives du pilote automatique ». En d’autres termes, le logiciel n’a pas donné la priorité à l’attention du conducteur. Les conducteurs utilisant le pilote automatique ou la technologie Full Self-Driving de l’entreprise « n’étaient pas suffisamment engagés », car Tesla « n’a pas veillé de manière adéquate à ce que les conducteurs maintiennent leur attention sur la tâche de conduite ».

L’organisation a enquêté sur près de 1 000 accidents entre janvier 2018 et août 2023, représentant 29 décès au total. La NHTSA a constaté qu’il y avait « des données insuffisantes pour procéder à une évaluation » pour environ la moitié (489) de ces accidents. Dans certains incidents, l’autre partie était en faute ou les conducteurs de Tesla n’utilisaient pas le système Autopilot.

Les plus graves ont été 211 accidents dans lesquels « le plan frontal de la Tesla a heurté un véhicule ou un obstacle sur son passage » et ceux-ci étaient souvent liés au pilote automatique ou au FSD. Ces incidents ont fait 14 morts et 49 blessés graves. L’agence a constaté que les conducteurs avaient suffisamment de temps pour réagir, mais ne l’ont pas fait dans 78 de ces incidents. Ces conducteurs n’ont pas réussi à freiner ou à diriger leur véhicule pour éviter le danger, même s’ils disposaient d’au moins cinq secondes pour bouger.

C’est là que les plaintes contre le logiciel entrent en jeu. La NHTSA affirme que les conducteurs deviendraient tout simplement trop complaisants, en supposant que le système gérerait tous les dangers. Quand est venu le temps de réagir, il était trop tard. « Des accidents sans tentative d’évitement ou sans tentative d’évitement tardive de la part du conducteur ont été constatés dans toutes les versions du matériel Tesla et dans toutes les circonstances d’accident », a écrit l’organisation. Le déséquilibre entre les attentes du conducteur et les capacités opérationnelles du pilote automatique a entraîné un « écart de sécurité critique » qui a conduit à « une mauvaise utilisation prévisible et des accidents évitables ».

La NHTSA s’est également offusquée de l’image de marque d’Autopilot, la qualifiant de trompeuse et suggérant qu’elle laisse les conducteurs supposer que le logiciel a un contrôle total. À cette fin, les entreprises concurrentes ont tendance à utiliser leur image de marque avec des mots tels que « aide à la conduite ». Le pilote automatique indique, eh bien, un pilote autonome. Le procureur général de Californie et le Département des véhicules automobiles de l’État enquêtent également sur Tesla pour image de marque et marketing trompeurs.

Tesla, d’autre part, affirme avertir les clients qu’ils doivent faire attention lorsqu’ils utilisent le pilote automatique et le FSD, selon Le bord. La société affirme que le logiciel comporte des indicateurs réguliers qui rappellent aux conducteurs de garder les mains sur les roues et les yeux sur la route. La NHTSA et d’autres groupes de sécurité ont déclaré que ces avertissements ne vont pas assez loin et qu’ils sont « insuffisants pour empêcher une mauvaise utilisation ». Malgré ces déclarations des groupes de sécurité, le PDG Elon Musk a récemment promis que l’entreprise continuerait à aller « jusqu’au mur pour l’autonomie ».

Les résultats ne pourraient représenter qu’une petite fraction du nombre réel d’accidents et d’accidents liés au pilote automatique et au FSD. La NHTSA a indiqué que « les lacunes dans les données télématiques de Tesla créent une incertitude quant à la fréquence réelle à laquelle les véhicules fonctionnant avec le pilote automatique activé sont impliqués dans des accidents ». Cela signifie que Tesla ne reçoit que des données sur certains types d’accidents, la NHTSA affirmant que l’entreprise collecte des données sur environ 18 % des accidents signalés à la police.

C’est dans cet esprit que l’organisation a ouvert une autre enquête sur Tesla. Celui-ci examine un récent correctif du logiciel OTA publié en décembre après le rappel de deux millions de véhicules. La NHTSA évaluera si le correctif de rappel du pilote automatique mis en œuvre par Tesla est suffisamment efficace.

Source-145