Autopilot : Tesla trouve un accord avec la famille de l’ingénieur d’Apple mort au volant de son Model X

Félix Cattafesta |

En mars 2018, l’ingénieur d’Apple Walter Huang est mort au volant de sa Tesla Model X à la suite d’un accident de la route. L’enquête a révélé que la voiture était en mode Autopilot et que l’homme était probablement en train de jouer à un jeu sur son téléphone. Tesla a visiblement réglé l’affaire à l’amiable, s’évitant ainsi un long procès sur le rôle qu’a pu jouer sa technologie d’aide à la conduite dans le crash.

L’actuel Model X présenté sur le site de Tesla.

Un document a révélé cet accord en début de semaine, sans divulguer le montant négocié. La Tesla du conducteur avait foncé dans une barrière d’autoroute à 114 km/h au niveau de Mountain View, en Californie. La voiture aurait été trompée par une ligne de voie décrite par les avocats de Tesla comme « effacée et presque oblitérée ». Le véhicule a alors dévié pour suivre une ligne plus claire sur la gauche avant d’entrer dans une barrière de sécurité.

Une des questions primordiales du procès aurait été de savoir si Tesla avait suffisamment prévenu ses clients par rapport aux faiblesses de son Autopilot. L’entreprise affirme qu’elle mentionne de manière très claire que les conducteurs doivent toujours avoir les mains sur le volant, ce qui n’était pas le cas de Walter Huang. Dans son manuel, Tesla explique que sa technologie peut ne pas fonctionner correctement lorsqu'elle n'est pas en mesure de déterminer avec précision le marquage ou quand une lumière vive interfère avec la vue de la caméra.

Si l’accord de l’affaire Huang n’a pas été validé par un juge, les avocats de Tesla affirment que les deux parties ont signé. Selon le Washington Post, l’Autopilot a été en lien avec 700 accidents depuis 2019, dont au moins 19 mortels. Tesla a jusqu’à présent remporté ses procès à ce sujet, avec une nouvelle victoire l’année dernière. Le vent pourrait tourner : le fabricant va devoir faire face à d’autres procès similaires dans les mois qui viennent.

Tags
avatar PTT91 | 

L’autopilot ne peut pas fonctionner sur des routes où tout le monde partage.
Indiscipline, trauvaux en tout genre, toute sort de moyens de transport et surtout les humains qui ne respectent pas les codes de la route.
Il ne faut pas rêver. Ce ne marchera jamais sauf pour des portions d’autoroute bien structurées.
AMHA

avatar BleuRooster | 

En même temps c’est écrit en gras BÊTA avec un avertissement à valider à la première activation.

Et il a pas mal d’alertes qui demande de remettre les mains régulièrement…..

Quand tu cherches tu trouves.

Pour ceux qui confondent l’auto pilote c’est pas la conduite autonome qui reste en option à 7.500€.

avatar Patrick_C | 

@BleuRooster

Une bêta n’a rien à faire sur les routes publiques, surtout pas avec ce pouvoir et une voiture de 2T. Le seul responsable ici est celui qui la met à disposition.

avatar pagaupa | 

Merveilleuses ces Tesla! 😂

avatar pagaupa | 

Comme quoi on peut être ingénieur et très con 😂

avatar zoubi2 | 

@pagaupa

"Comme quoi on peut être ingénieur et très con"

Hein? Quoi ? Vraiment ? Je pantoise...

avatar pagaupa | 

@zoubi2

Pantoisez! pantoisez! Je vous en prie…

avatar debione | 

Je pense que beaucoup dans leur jugement oublient comment fonctionne un humain.

Admettons que l'on fait un voyage tous les jours de 1h. La première fois qu'on le fera en autopilote, on sera super attentif. Paf, tout ce passe bien. A partir du combientième voyage on va se permettre de regarder 10 secondes par la fenêtre? Est-ce qu'au 300ième voyage qui se passe sans aucune encombre on sera toujours attentif, ou finalement on sera pas en train de regarder BeepBeep et Coyote? Ou répondre à un mail? Est-ce qu'au 600 ième voyage on va pas finalement profiter de se laisser aller à somnoler, parce que bon, se coucher complètement fait à 2 heures pour se lever à 6 on a plus 20 ans?

C'est en cela que le concept actuel vanté par Tesla amènera toujours à ce genre d'incident, non pas parce que le type est con comme un boulon, mais juste parce qu'il est .... humain.

avatar occam | 

@debione

Sympa.
Je trouve que vous avez très bien décrit une faille commune aux cerveaux humains : l’incapacité d’évaluer le risque cumulatif et multiplicatif sur la longue durée.
Daniel Kahneman, qui vient de mourir, a longuement travaillé là-dessus.

En gros, si vous répétez un grand nombre de fois une opération qui comporte un risque défini d’accident, vous avez tendance à considérer que le risque diminue après un nombre n d’itérations : tout s’est bien passé pendant 600 itérations, votre cerveau estime donc improbable qu’un accident advienne à la 601ème.
Or, c’est précisément la longue séquence qui fait augmenter le risque. Si l’on considère le risque moyen statistique d’accident comme un tirage au sort, la probabilité de tirer le « lot fatidique » est chaque fois la même. Mais la probabilité de pouvoir participer à un nouveau tirage n’est pas indépendante. Elle est conditionnelle, car elle dépend de la condition de ne pas s’être fait flinguer au tirage précédent. (La référence étant évidemment la roulette russe.) À chaque itération, il faut avoir survécu à toutes les précédentes pour pouvoir tirer un nouveau lot. À la longue, c’est de moins en moins probable.

C’est humain de ne pas savoir le calculer. C’est humain de croire qu’un truc qui marche n fois marchera n+1 fois, ou n+x. Mais, comme vous le dites si joliment, c’est « con comme un boulon » de ne pas en tenir compte quand on conçoit un système qui met en jeu la vie de, précisément, ce genre d’humain qui a foncièrement une mauvaise notion du risque, parce qu’il est humain.

avatar House M.D. | 

@occam

Merci à tous les deux de mettre un peu de logique dans cette affaire qui a tendance à provoquer des réactions passionnées…

avatar marc_os | 

@ occam

Votre commentaire sur le fait qu'on devrait parler de probabilité conditionnelle est très intéressant, mais j'aimerais apporter quelques "précisions"...

> Or, c’est précisément la longue séquence qui fait augmenter le risque.

En fait vous parlez de la probabilité que le conducteur ne fasse plus attention.
Mais il y a une autre probabilité indépendante du temps, c'est la probabilité d'erreur fatale de l'auto-pilote : Sans aucun pilote, la probabilité d'accident P est fixée par les capacités intrinsèques du système. Disons que P = Pmax.
Quand un "conducteur" fait attention, alors la probabilité d'accident baisse, voire est nulle - si le conducteur est "parfait". Alors P = 0.
S'il fait moins attention, alors la probabilité d'accident augmente, et s'il dort, alors elle est maximale.
Globalement on a donc P qui évolue au cours du temps de 0 (idéalement) au premier jour quand le conducteur fait attention, à Pmax quelques temps plus tard quand il rêvasse "au volant".

Moralité, proposer un auto-pilote non fiable, c'est comme proposer une voiture avec des freins qui ne marchent pas toujours et sur lesquels on ne peut pas toujours compter.
Mais curieusement les administrations fascinées par la tech autorisent cela. Ou peut-être est-ce une question de lobbyisme plutôt que de fascination...

avatar pagaupa | 

@debione

« non pas parce que le type est con comme un boulon, mais juste parce qu'il est .... humain. »
N’est-ce pas un pléonasme finalement ?

Pages

CONNEXION UTILISATEUR