Tesla : il tue 2 personnes avec l'Autopilot activé, la justice le juge coupable

tesla iconeSommes-nous responsables des accidents d'une voiture électrique avec la conduite autonome activée ? La réponse est oui. Un propriétaire de Tesla aux États-Unis (plus précisément en Californie) vient d'en faire les frais après une erreur fatale de l'option Full Self Driving (FSD), comprenez la conduite entièrement autonome.

Le conducteur restera toujours le fautif aux yeux de la loi

Tesla l'a toujours dit, quand vous avez l'Autopilot activé, il est indispensable de rester attentif sur la route et ne pas regarder ailleurs, il est recommandé de se comporter comme si vous étiez en train de conduire. Cette exigence est surtout présente pour faire comprendre au propriétaire du véhicule que le logiciel de conduite autonome est en bêta et encore loin d'être irréprochable (même s'il a évité jusqu'ici une tonne d'accidents dans le monde).

En Californie, une affaire en justice fait beaucoup de bruit, elle concerne un homme de 27 ans qui possède une Tesla et qui roulait en ville avec l'Autopilot FSD, un programme spécial qui consiste à laisser la voiture gérer la conduite à 100% (avec une surveillance attentive permanente du départ jusqu'à l'arrivée).

Le problème, c'est que ce jeune homme a trop fait confiance au FSD, alors qu'il circulait dans une ville californienne, sa Tesla n'a pas su détecter que le feu de signalisation était au rouge, la voiture a continué son chemin et a percuté un autre véhicule.
Si à la base l'incident n'était que matériel, les choses ont rapidement dérapé puisque la voiture percutée a provoqué la mort de deux personnes.

tesla accident

Lors de l'apparition des premiers véhicules électriques autonomes, beaucoup se sont demandé "en cas d'accident avec le pilote automatique activé, qui est responsable ?", visiblement on a aujourd'hui la réponse. Pour la justice californienne, il ne fait aucun doute que le conducteur est l'unique responsable puisque c'est lui qui doit garder la maîtrise sur le véhicule et ne pas léguer une confiance aveugle envers un système de pilotage automatique.

Ce jeune chauffeur de 27 ans (qui était VTC avec plusieurs applications populaires) a officiellement été accusé d'homicide involontaire par deux chefs d'accusation. La justice a également informé qu'il y avait deux personnes à l'arrière de la Tesla pendant l'accident qui a eu lieu le 29 décembre 2019 à proximité de Los Angeles.

Pourquoi on apprend l'affaire aussi tardivement ?

Des accidents meurtriers sur la route, il y en a des centaines chaque année aux États-Unis, mais causé par un logiciel de pilotage automatique, c'est pour le moins inhabituel. L'affaire a pris beaucoup de temps à être médiatisée, elle a commencé à faire la Une des médias seulement la semaine dernière après que la chaîne locale KPIX 5 et l'Associated Press en ont fait un article avec plusieurs images de l'accident.

On apprend par ailleurs que l'agence fédérale américaine en charge de la sécurité routière (NHTSA) a également lancé une enquête afin de comprendre comment un tel accident a pu se produire. Après plusieurs mois d'investigations, la NHTSA met toute la responsabilité sur le conducteur qui aurait été imprudent et aurait pris la technologie développée par Tesla comme "trop sûre" :

Qu'un système de conduite automatisée L2 (niveau 2) soit engagé ou non, chaque véhicule disponible exige que le conducteur humain soit en réactivité à tout moment et les lois de tous les États tiennent le conducteur humain responsable du fonctionnement de leurs véhicules. Certaines fonctions avancées d'aide à la conduite peuvent promouvoir la sécurité en aidant les conducteurs à éviter les accidents et à atténuer la gravité des accidents qui se produisent, mais comme pour toutes les technologies et tous les équipements des véhicules à moteur, les conducteurs doivent les utiliser correctement et de manière responsable.

Comme l'a relayé l'Associated Press, le professeur de droit à l'université de Caroline du Sud Bryan Walker Smith a déclaré qu'il est inacceptable que Tesla ne soit pas "tenue pénalement, civilement ou moralement coupable" dans cette affaire.
Certes le conducteur de 27 ans est fautif et aurait dû être plus vigilant, mais derrière il y a aussi une faille dans le développement de l'Autopilot FSD, une erreur du logiciel qui a provoqué un accident. Le professeur pointe la responsabilité sur Tesla pour avoir laissé tester le FSD en conditions réelles avec un tel bug.
Depuis 2015, la NHTSA a répertorié environ 26 accidents liés directement à la conduite autonome, parmi ces catastrophes, 10 personnes sont décédées, d'autres ont gravement été blessés.

Pour le moment, Tesla n'a pas répondu à cette affaire qui fait un buzz phénoménal aux États-Unis depuis plusieurs jours.

Source

5 réactions

TESLACOUPABLE

si l'image qui illustre l'article est celle de l'accident, on devrait se demander à combien roulait cette voiture pour finir dans cet état ?

La justice estime que c'est la faute du conducteur, car c'est la règle sur la route, ont-il prit en compte que la voiture était géré par l'IA de la voiture.

Le logiciel n'est pas fiable mais comme c'est Tesla, on ne dit rien

21/01/2022 à 10h54

MayBeMe - iPhone premium

@hugrty - iPhone
Actuellement france ou usa c’est pareil, les mêmes options pour le PA sont disponibles et ils faut laisser les mains sur le volant ici où au USA.

20/01/2022 à 22h54

SamSuffit - iPhone premium

@MayBeMe - iPhone premium
C’est également mon avis…

20/01/2022 à 22h03

hugrty - iPhone

La réponse n’est pas oui, la réponse est oui pour le droit états-unien. En France la conduite autonome n’est pas permise justement car notre système juridique ne prévoit rien, et le législateur ne s’y penche toujours pas.

20/01/2022 à 18h43

MayBeMe - iPhone premium

Normal 🤷‍♂️ Après d’ici 30/50 ans les choses évolueront, tous sera connecté et centralisé, des normes etc. Les véhicules connaîtront la couleur du feu en réseau et l’état et la position de chaque véhicule également, tous sera connecté avec tous et l’on pourra revoir les lois avec de vrais systèmes autonomes fait pour. Nos infrastructures actuelles sont faites pour des humains et non des machines c’est pour ça qu’il faut que sa évolue.

20/01/2022 à 18h37

Donnez votre avis
Cliquez pour commenter
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles