Tesla : il tue 2 personnes avec l'Autopilot activé, la justice le juge coupable
- 👨 Julien Russo
- Il y a 3 ans (Màj il y a 3 ans)
- 💬 5 coms
Le conducteur restera toujours le fautif aux yeux de la loi
Tesla l'a toujours dit, quand vous avez l'Autopilot activé, il est indispensable de rester attentif sur la route et ne pas regarder ailleurs, il est recommandé de se comporter comme si vous étiez en train de conduire. Cette exigence est surtout présente pour faire comprendre au propriétaire du véhicule que le logiciel de conduite autonome est en bêta et encore loin d'être irréprochable (même s'il a évité jusqu'ici une tonne d'accidents dans le monde).
En Californie, une affaire en justice fait beaucoup de bruit, elle concerne un homme de 27 ans qui possède une Tesla et qui roulait en ville avec l'Autopilot FSD, un programme spécial qui consiste à laisser la voiture gérer la conduite à 100% (avec une surveillance attentive permanente du départ jusqu'à l'arrivée).
Le problème, c'est que ce jeune homme a trop fait confiance au FSD, alors qu'il circulait dans une ville californienne, sa Tesla n'a pas su détecter que le feu de signalisation était au rouge, la voiture a continué son chemin et a percuté un autre véhicule.
Si à la base l'incident n'était que matériel, les choses ont rapidement dérapé puisque la voiture percutée a provoqué la mort de deux personnes.
Lors de l'apparition des premiers véhicules électriques autonomes, beaucoup se sont demandé "en cas d'accident avec le pilote automatique activé, qui est responsable ?", visiblement on a aujourd'hui la réponse. Pour la justice californienne, il ne fait aucun doute que le conducteur est l'unique responsable puisque c'est lui qui doit garder la maîtrise sur le véhicule et ne pas léguer une confiance aveugle envers un système de pilotage automatique.
Ce jeune chauffeur de 27 ans (qui était VTC avec plusieurs applications populaires) a officiellement été accusé d'homicide involontaire par deux chefs d'accusation. La justice a également informé qu'il y avait deux personnes à l'arrière de la Tesla pendant l'accident qui a eu lieu le 29 décembre 2019 à proximité de Los Angeles.
Pourquoi on apprend l'affaire aussi tardivement ?
Des accidents meurtriers sur la route, il y en a des centaines chaque année aux États-Unis, mais causé par un logiciel de pilotage automatique, c'est pour le moins inhabituel. L'affaire a pris beaucoup de temps à être médiatisée, elle a commencé à faire la Une des médias seulement la semaine dernière après que la chaîne locale KPIX 5 et l'Associated Press en ont fait un article avec plusieurs images de l'accident.
On apprend par ailleurs que l'agence fédérale américaine en charge de la sécurité routière (NHTSA) a également lancé une enquête afin de comprendre comment un tel accident a pu se produire. Après plusieurs mois d'investigations, la NHTSA met toute la responsabilité sur le conducteur qui aurait été imprudent et aurait pris la technologie développée par Tesla comme "trop sûre" :
Qu'un système de conduite automatisée L2 (niveau 2) soit engagé ou non, chaque véhicule disponible exige que le conducteur humain soit en réactivité à tout moment et les lois de tous les États tiennent le conducteur humain responsable du fonctionnement de leurs véhicules. Certaines fonctions avancées d'aide à la conduite peuvent promouvoir la sécurité en aidant les conducteurs à éviter les accidents et à atténuer la gravité des accidents qui se produisent, mais comme pour toutes les technologies et tous les équipements des véhicules à moteur, les conducteurs doivent les utiliser correctement et de manière responsable.
Comme l'a relayé l'Associated Press, le professeur de droit à l'université de Caroline du Sud Bryan Walker Smith a déclaré qu'il est inacceptable que Tesla ne soit pas "tenue pénalement, civilement ou moralement coupable" dans cette affaire.
Certes le conducteur de 27 ans est fautif et aurait dû être plus vigilant, mais derrière il y a aussi une faille dans le développement de l'Autopilot FSD, une erreur du logiciel qui a provoqué un accident. Le professeur pointe la responsabilité sur Tesla pour avoir laissé tester le FSD en conditions réelles avec un tel bug.
Depuis 2015, la NHTSA a répertorié environ 26 accidents liés directement à la conduite autonome, parmi ces catastrophes, 10 personnes sont décédées, d'autres ont gravement été blessés.
Pour le moment, Tesla n'a pas répondu à cette affaire qui fait un buzz phénoménal aux États-Unis depuis plusieurs jours.
Source