mardi, novembre 26, 2024

Une publicité du New York Times met en garde contre la « conduite entièrement autonome » de Tesla

Une publicité d’une page entière dans le New York Times de dimanche visait le logiciel « Full Self-Driving » de Tesla, le qualifiant de « pire logiciel jamais vendu par une entreprise du Fortune 500 » et offrant 10 000 $, le même prix que le logiciel lui-même à la première personne qui pourrait nommer « un autre produit commercial d’une entreprise du Fortune 500 qui a un dysfonctionnement critique toutes les 8 minutes ».

L’annonce a été retirée par The Dawn Project, une organisation récemment fondée visant à interdire les logiciels dangereux des systèmes critiques pour la sécurité qui peuvent être ciblés par des pirates de style militaire, dans le cadre d’une campagne visant à supprimer Tesla Full Self-Driving (FSD) du public. routes jusqu’à ce qu’il y ait « 1 000 fois moins de dysfonctionnements critiques ».

Le fondateur du groupe de défense, Dan O’Dowd, est également le PDG de Green Hill Software, une société qui construit des systèmes d’exploitation et des outils de programmation pour les systèmes de sécurité et de sûreté intégrés. Au CES, la société a déclaré que le véhicule iX de BMW utilise son système d’exploitation en temps réel et d’autres logiciels de sécurité, et a également annoncé la disponibilité de son nouveau produit logiciel en direct et de ses services de données pour les systèmes électroniques automobiles.

Malgré le biais concurrentiel potentiel du fondateur de The Dawn Project, le logiciel bêta FSD de Tesla, un système avancé d’assistance à la conduite auquel les propriétaires de Tesla peuvent accéder pour gérer certaines fonctions de conduite dans les rues de la ville, a fait l’objet d’un examen minutieux ces derniers mois après une série de vidéos YouTube montrant les failles du système sont devenues virales.

L’annonce du NYT intervient quelques jours seulement après que le département californien des véhicules à moteur a annoncé à Tesla qu’il « réexaminerait » son opinion selon laquelle le programme de test de l’entreprise, qui utilise des consommateurs et non des opérateurs de sécurité professionnels, ne relève pas de la réglementation du département sur les véhicules autonomes. Le California DMV réglemente les tests de conduite autonome dans l’État et oblige d’autres sociétés comme Waymo et Cruise qui développent, testent et prévoient de déployer des robotaxis pour signaler les accidents et les défaillances du système appelés « désengagements ». Tesla n’a jamais publié ces rapports.

Le PDG de Tesla, Elon Musk, a depuis vaguement répondu sur Twitter, affirmant que le FSD de Tesla n’a entraîné ni accident ni blessure depuis son lancement. La National Highway Traffic Safety Administration (NHTSA) des États-Unis enquête sur un rapport du propriétaire d’une Tesla Model Y, qui a signalé que son véhicule s’était engagé dans la mauvaise voie alors qu’il effectuait un virage à gauche en mode FSD, entraînant la collision du véhicule par un autre conducteur. .

Même s’il s’agissait du premier accident FSD, le pilote automatique de Tesla, l’ADAS du constructeur automobile qui équipe de série les véhicules, a été impliqué dans une douzaine d’accidents.

Parallèlement à la publicité du NYT, The Dawn Project a publié une vérification des faits de ses affirmations, se référant à sa propre analyse de sécurité FSD qui a étudié les données de 21 vidéos YouTube totalisant sept heures de temps de conduite.

Les vidéos analysées comprenaient les versions bêta 8 (publiées en décembre 2020) et 10 (publiées en septembre 2021), et l’étude a évité les vidéos avec des titres significativement positifs ou négatifs pour réduire les biais. Chaque vidéo a été notée selon l’évaluation des performances des conducteurs du California DMV, qui est ce que les conducteurs humains doivent réussir pour obtenir un permis de conduire. Pour réussir un test de conduite, les conducteurs californiens doivent avoir 15 erreurs de manœuvre ou moins, comme ne pas utiliser les clignotants lors du changement de voie ou maintenir une distance de sécurité par rapport aux autres véhicules en mouvement, et zéro erreur de conduite critique, comme s’écraser ou brûler un feu rouge. .

L’étude a révélé que FSD v10 a commis 16 erreurs de manœuvre de notation en moyenne en moins d’une heure et une erreur de conduite critique toutes les 8 minutes environ. Il y a eu une amélioration des erreurs au cours des neuf mois entre la v8 et la v10, selon l’analyse, mais au rythme actuel d’amélioration, « il faudra encore 7,8 ans (selon les données AAA) à 8,8 ans (selon les données du Bureau des transports) pour atteindre le taux d’accidents d’un conducteur humain.

L’annonce du projet Dawn fait des déclarations audacieuses qui doivent être prises avec un grain de sel, en particulier parce que la taille de l’échantillon est beaucoup trop petite pour être prise au sérieux d’un point de vue statistique. Si, cependant, les sept heures de séquences sont effectivement représentatives d’un lecteur FSD moyen, les résultats pourraient indiquer un problème plus important avec le logiciel FSD de Tesla et aborder la question plus large de savoir si Tesla devrait être autorisé à tester ce logiciel sur les voies publiques. sans aucune réglementation.

« Nous n’avons pas signé pour que nos familles soient des mannequins d’essais de collision pour des milliers de voitures Tesla conduites sur la voie publique… », lit-on dans l’annonce.

Les régulateurs fédéraux ont commencé à prendre des mesures contre Tesla et ses systèmes logiciels bêta Autopilot et FSD.

En octobre, la NHTSA a envoyé deux lettres au constructeur automobile ciblant son utilisation d’accords de non-divulgation pour les propriétaires qui obtiennent un accès anticipé à la version bêta de FSD, ainsi que la décision de l’entreprise d’utiliser des mises à jour logicielles en direct pour résoudre un problème dans le système de pilote automatique standard qui aurait dû faire l’objet d’un rappel. En outre, Consumer Reports a publié un communiqué au cours de l’été indiquant que la mise à niveau du logiciel FSD version 9 ne semblait pas suffisamment sûre pour les voies publiques et qu’elle testerait le logiciel de manière indépendante.

Depuis lors, Tesla a déployé de nombreuses versions différentes de son logiciel v10 – la 10.9 devrait être là d’un jour à l’autre, et la version 11 avec une « pile logicielle pour une seule ville/autoroute » et « de nombreuses autres mises à niveau architecturales » sortira en février, selon le PDG Elon Musk.

Les critiques de la dernière version 10.8 sont faussées, certains commentateurs en ligne disant que c’est beaucoup plus fluide, et beaucoup d’autres déclarant qu’ils ne se sentent pas du tout confiants dans l’utilisation de la technologie. Un fil de discussion passant en revue la dernière version de FSD sur la page subreddit de Tesla Motors montre que les propriétaires partagent des plaintes concernant le logiciel, l’un d’entre eux écrivant même : « Certainement pas encore prêt pour le grand public… »

Un autre commentateur a déclaré qu’il avait fallu trop de temps à la voiture pour tourner à droite sur « une route droite entièrement vide… Ensuite, elle a dû tourner à gauche et a continué à hésiter sans raison, bloquant la voie venant en sens inverse, pour ensuite accélérer soudainement une fois qu’elle l’avait fait sur la rue suivante, suivie d’une décélération tout aussi soudaine parce qu’elle a changé d’avis sur la vitesse et pensait maintenant qu’une route de 45 mph était de 25 mph.

Le conducteur a déclaré qu’il devait finalement se désengager complètement parce que le système ignorait complètement un prochain virage à gauche, celui qui devait se produire à une intersection standard « avec des feux et une visibilité dégagée dans toutes les directions et aucun autre trafic ».

La campagne du projet Dawn met en lumière un avertissement de Tesla selon lequel son FSD « peut faire la mauvaise chose au pire moment ».

« Comment quelqu’un peut-il tolérer un produit critique pour la sécurité sur le marché qui peut faire la mauvaise chose au pire moment », a déclaré le groupe de défense. « N’est-ce pas la définition de défectueux ? La conduite entièrement autonome doit être immédiatement retirée de nos routes.

Ni Tesla ni The Dawn Project n’ont pu être joints pour commenter.

Source-146

- Advertisement -

Latest