L’Autopilot d’une Tesla Model X est pointé du doigt dans un accident mortel au Japon, le premier impliquant un piéton. Une plainte vient d’être déposée pour signaler un comportement anormal de l’assistant de conduite qui serait directement responsable de la collision.
L’Autopilot d’une Tesla est à nouveau mis en cause dans un accident mortel au Japon, le premier impliquant un piéton. Alors que son Autopilot était activé, un Model X aurait « subitement accéléré » pour venir percuter une moto, une camionnette, et un piéton le 29 avril 2018. La veuve et la fille du défunt viennent de déposer une plainte contre Tesla Inc. auprès de la cour fédérale de district de San José en Californie. Elles jugent que la firme et son assistant de conduite sont directement responsables de la mort de Yoshihiro Umeda, alors âgé de 44 ans.

Selon Bloomberg, la plainte décrit un comportement anormal de l’assistant de conduite, alors que le véhicule roulait à faible allure sur une voie express près de Tokyo. Lorsque la voiture le précédant a changé de file, le Model X aurait « brusquement » accéléré pour venir percuter une camionnette, une moto et un piéton en station sur le bord de la route à la suite d’un autre accident. Le document souligne également un dysfonctionnement du système embarqué, censé contrôler la vigilance du conducteur. Celui-ci se serait en effet assoupi peu de temps avant l’accident.
Autopilot : Volkswagen reconnaît la supériorité de Tesla dans une note confidentielle
Tesla pourrait dédouaner l’Autopilot en invoquant une erreur humaine
L’assistant de conduite de Tesla est régulièrement mis en cause dans des affaires similaires. Récemment, un ingénieur d’Apple avait signalé un problème d’Autopilot avant de perdre la vie au volant de son Model X. Les plaignants craignent que Tesla ne jette à nouveau toute responsabilité sur le conducteur.
Tesla va probablement présenter cet accident comme le seul résultat d’un conducteur somnolent et inattentif afin de détourner l’attention des défauts évidents de sa technologie automatisée.
Tonomi Umeda
Au-delà de l’aspect sensationnel des affaires impliquant Tesla, le fait divers souligne à nouveau la difficulté d’évaluer la fiabilité des systèmes d’assistance à la conduite. Les organismes d’homologation semblent démunis face à une IA qui ne peut pas être confrontée à toutes les situations possibles.
Tesla : des hackers trompent l’Autopilot des Model S et X pour les faire rouler à 140 km/h
Source : Bloomberg
Je dormais au volant lorsque mon camion a percuté 24 écoliers qui marchaient sur le trottoir. Afin d’abréger la souffrance des trois survivants j’ai activé la marche arrière… Le lendemain j’ai décidé de poursuivre Volvo.
endormi au volant !!! vite je vais déposé une plainte contre Renault , PSA , Mercedes etc…. avant que ces sociétés ne meurent fautent de vendre leurs véhicules obsolètes….
L’autopilote lorsqu’il est activé est en version Bêta, il est écrit noir sur blanc que le conducteur est responsable de son véhicule et qu’il doit faire attention lors de l’activation de la conduite semi autonome…
@belnea, c’est écrit… véhicules arrêtés sur le bord de la route suite à un accident. Si l’autopilot était activé, la responsabilité de Tesla devrait être engagé, mais bon les petites lignes vont les sauver probablement… tant pis s’ils claironnent partout que c’est quasiment une voiture autonome.
@belnea mais réfléchis espèce d’âne c’est un autre pays une autre façon d’appeler les choses d’autres règles évidemment la traduction correspond pas forcements à nos repères
y’a des piétons sur leur voie express ?