YouTube a supprimé une vidéo qui montre les conducteurs de Tesla effectuant leurs propres tests de sécurité pour déterminer si les capacités de conduite autonome complète (FSD) du véhicule électrique le feraient automatiquement s’arrêter pour les enfants qui traversent ou se tiennent sur la route, tel que rapporté pour la première fois par CNBC.
La vidéo, intitulé « Est-ce que Tesla Full-Self Driving Beta écrase vraiment les enfants? » a été initialement publié sur Chaîne YouTube de Whole Mars Catalog et implique le propriétaire et investisseur de Tesla, Tad Park, testant la fonction FSD de Tesla avec ses propres enfants. Pendant la vidéo, Park conduit une Tesla Model 3 vers l’un de ses enfants debout sur la route, puis réessaye avec son autre enfant traversant la rue. Le véhicule s’arrête avant d’atteindre les enfants les deux fois.
Comme souligné sur sa page d’assistance, YouTube a des règles spécifiques contre les contenus qui « mettent en danger le bien-être émotionnel et physique des mineurs ». La porte-parole de YouTube, Elena Hernandez, a déclaré à CNBC que la vidéo violait ses politiques contre contenu préjudiciable et dangereux et que la plate-forme « n’autorise pas le contenu montrant un mineur participant à des activités dangereuses ou encourageant des mineurs à faire des activités dangereuses ». YouTube n’a pas immédiatement répondu à Le borddemande de commentaire.
« J’ai déjà essayé la version bêta de FSD, et je ferais confiance à la vie de mes enfants avec eux », déclare Park lors de la vidéo maintenant supprimée. « Je suis donc très confiant qu’il va détecter mes enfants, et je contrôle également la roue pour pouvoir freiner à tout moment », a déclaré Park à CNBC que la voiture ne roulait jamais à plus de huit miles à l’heure, et « s’est assuré que la voiture reconnaissait l’enfant. »
Au 18 août, la vidéo comptait plus de 60 000 vues sur YouTube. La vidéo a également été publiée sur Twitter et reste toujours disponible pour être visionnée. Le bord a contacté Twitter pour voir s’il envisageait de le supprimer, mais n’a pas immédiatement répondu.
L’idée folle de tester le FSD avec de vrais enfants vivants et respirants apparu après une vidéo et campagne publicitaire posté sur Twitter a montré que les véhicules Tesla ne parvenaient apparemment pas à détecter et à entrer en collision avec des mannequins de la taille d’un enfant placés devant le véhicule. Les fans de Tesla ne l’achetaient pas, déclenchant un débat sur les limites de la fonctionnalité sur Twitter. Whole Mars Catalog, une chaîne Twitter et YouTube axée sur les véhicules électriques et dirigée par l’investisseur Tesla Omar Qazi, plus tard fait allusion à la création d’une vidéo impliquant de vrais enfants dans une tentative de prouver que les résultats originaux sont faux.
En réponse à la vidéo, la National Highway Traffic Safety Administration (NHTSA) a publié une déclaration mettant en garde contre l’utilisation d’enfants pour tester la technologie de conduite automatisée. « Personne ne devrait risquer sa vie, ou la vie de quelqu’un d’autre, pour tester les performances de la technologie des véhicules », l’agence a dit Bloomberg. « Les consommateurs ne devraient jamais essayer de créer leurs propres scénarios de test ou d’utiliser de vraies personnes, et en particulier des enfants, pour tester les performances de la technologie des véhicules. »
Le logiciel FSD de Tesla ne rend pas un véhicule entièrement autonome. Il est disponible pour les conducteurs Tesla pour un abonnement supplémentaire de 12 000 $ (ou 199 $ / mois). Une fois que Tesla a déterminé qu’un conducteur atteint un certain score de sécurité, il déverrouille l’accès à la version bêta du FSD, permettant aux conducteurs de saisir une destination et de faire conduire le véhicule à l’aide du pilote automatique, le système avancé d’assistance à la conduite (ADAS) du véhicule. Les conducteurs doivent toujours garder les mains sur le volant et être prêts à prendre le contrôle à tout moment.
Plus tôt ce mois-ci, le California DMV a accusé Tesla d’avoir fait de fausses déclarations concernant le pilote automatique et le FSD. L’agence allègue que les noms des deux fonctionnalités, ainsi que leur description par Tesla, impliquent à tort qu’elles permettent aux véhicules de fonctionner de manière autonome.
En juin, la NHTSA a publié pour la première fois des données sur les accidents d’assistance au conducteur et a constaté que les véhicules Tesla utilisant des véhicules à pilote automatique étaient impliqués dans 273 accidents du 20 juillet 2021 au 21 mai 2022. La NHTSA enquête actuellement sur un certain nombre d’incidents. où des véhicules Tesla utilisant la technologie d’assistance à la conduite sont entrés en collision avec des véhicules d’urgence en stationnement, en plus de plus de deux douzaines d’accidents Tesla, dont certains ont été mortels.