Tesla licencie un employé qui a publié des vidéos YouTube d’un accident de conduite entièrement autonome

Agrandir / Une Tesla avec Full Self-Driving activé, un moment avant de heurter une borne à San Jose.

L’ancien employé de Tesla, John Bernal, a déclaré qu’il avait été licencié pour avoir publié des vidéos YouTube sur la version bêta de la conduite autonome complète (FSD) de Tesla. Il créait les vidéos depuis environ un an. Bernal dit que Tesla a également coupé son accès à la bêta FSD dans le Tesla Model 3 2021 qu’il possède.

Le tir et la coupure de la bêta ont eu lieu peu de temps après que Bernal a publié une vidéo le 4 février d’un accident mineur dans lequel sa voiture Tesla a heurté une borne qui semble séparer une voie réservée aux voitures d’une piste cyclable à San Jose. Dans une vidéo ultérieure du 7 février fournissant une analyse image par image de la collision, Bernal a déclaré que « peu importe la gravité de cet accident, c’est la première collision bêta FSD filmée qui est irréfutable ».

« J’ai été licencié de Tesla en février, mon YouTube étant cité comme raison, même si mes téléchargements concernent mon véhicule personnel, hors du temps de l’entreprise ou de ma propriété, avec un logiciel que j’ai payé », a déclaré Bernal dans la dernière vidéo, qui était posté hier sur sa chaîne AI Addict. Bernal a montré un avis qu’il a reçu indiquant que son accès bêta à la conduite autonome complète était désactivé « sur la base de vos données de conduite récentes ». Mais cette explication n’a pas semblé avoir de sens car « le matin du licenciement, je n’ai eu aucune grève pour usage abusif sur mon véhicule », a-t-il déclaré.

Bernal a déclaré que son travail chez Tesla impliquait d’aider à développer FSD et à tester le logiciel. Sa nouvelle vidéo demandait à Tesla de réactiver la bêta sur sa voiture personnelle, mais expliquait qu’il continuait à tester la bêta Full Self-Driving dans un véhicule de remplacement. « Cette chaîne est destinée à éduquer le public… Je me soucie de trouver des bogues de sécurité importants, et je veux toujours aider. Heureusement, c’est la Silicon Valley, où il y a beaucoup de bêta à faire, donc aujourd’hui je suis dans une nouvelle Tesla », a-t-il déclaré.

Collision auto-conduite (analyse).

L’avis de licenciement « n’incluait pas la raison »

Nous avons contacté Tesla au sujet du licenciement de Bernal et mettrons à jour cet article si nous obtenons une réponse. Tel que rapporté par CNBC, Bernal a commencé à travailler pour Tesla « en tant que spécialiste de l’annotation de données en août 2020 » et « a été licencié la deuxième semaine de février de cette année, après avoir pris le rôle d’opérateur de test de systèmes avancés d’assistance à la conduite, selon les dossiers il a partagé avec CNBC. »

« L’avis de séparation écrit de Bernal n’incluait pas la raison de son licenciement », mais il a déclaré qu' »avant son licenciement, les responsables lui ont dit verbalement qu’il » avait enfreint la politique de Tesla « et que sa chaîne YouTube était un » conflit d’intérêts «  », CNBC a écrit. « Bernal a déclaré qu’il était toujours transparent à propos de sa chaîne YouTube, à la fois avec ses managers chez Tesla et avec le public… Bernal a déclaré qu’il n’avait jamais vu de politique l’interdisant de créer des revues de technologie automobile pendant son temps libre en utilisant sa propre propriété. »

CNBC a déclaré avoir obtenu une copie de la politique interne de Tesla en matière de médias sociaux et qu’elle « ne fait aucune référence directe à la critique des produits de l’entreprise en public. La politique stipule que ‘Tesla compte sur le bon sens et le bon jugement de ses employés pour s’engager dans des actions sociales l’activité des médias.' »

Bernal a affirmé qu’il « n’avait jamais rien divulgué dans ses vidéos que Tesla n’avait pas rendu public », affirmant que « les versions bêta de FSD que je démontrais étaient des produits de consommation finale », selon CNBC.

Premier accident en un an de tests

Dans la vidéo analysant l’accident, Bernal a déclaré qu’il avait testé le logiciel pendant plus d’un an et qu’il s’agissait de son « premier incident ». Il a également noté qu’il avait passé un an « à étiqueter ce logiciel pour Tesla » en tant qu’employé.

Lorsque l’accident s’est produit, Bernal laissait les fonctions d’auto-conduite complète contrôler la voiture, mais a déclaré qu’il « a activé les freins aussi fort que possible » une fois qu’il est devenu clair qu’il déviait de sa trajectoire. La Tesla a plié la borne au sol. « Heureusement, ce n’était que du plastique », a-t-il déclaré.

« Certains peuvent dire que j’aurais dû réagir plus tôt, ce que j’aurais dû. Cependant, au cours de mon année de test, le FSD est généralement très bon pour détecter les objets de dernière minute et ralentir pour les éviter », a-t-il déclaré. Bien qu’il ne s’agisse pas d’un accident majeur, Bernal a déclaré qu’il y avait « plusieurs autres cas dans la même vidéo du système FSD tentant d’aller directement vers d’autres bornes après en avoir déjà heurté une. Ce n’était pas un événement ponctuel ».

« Appels rapprochés, piétons, vélos! »

La chaîne AI Addict de Bernal compte près de 8 800 abonnés et les deux vidéos de l’accident ont totalisé environ 230 000 vues combinées. La plupart de ses vidéos au cours de l’année écoulée se concentrent sur Tesla Full Self-Driving. En plus des vidéos d’accidents du mois dernier, Bernal en a publié une en mars 2021 intitulée « Close Calls, Pedestrians, Bicycles! »

Bernal a déclaré à CNBC qu’après la première diffusion de la vidéo de mars 2021, « un responsable de mon équipe Autopilot a tenté de me dissuader de publier à l’avenir tout contenu négatif ou critique impliquant FSD Beta. Ils ont tenu une vidéoconférence avec moi mais n’ont jamais rien mis en en écrivant. »

Source-147