26 mai 2022

Un accident mortel ravive les inquiétudes concernant les affirmations de Tesla sur l’Autopilot

TESLA OFFRE une option à 10 000 $ appelée « capacité de conduite autonome complète ». Elle comprend des bonus futuristes comme la possibilité de convoquer la voiture via une application dans un parking, et elle peut détecter et réagir aux feux de circulation et aux panneaux d’arrêt. La FSD, comme l’appellent les amateurs de Tesla, comprend l’Autopilote, une fonction qui conduit « automatiquement » sur les autoroutes, en changeant de voie, en maintenant la voiture dans sa voie et à une distance constante des autres véhicules.

Mais même les personnes qui achètent le système de conduite autonome intégrale ne possèdent pas de voiture autonome, et les véhicules équipés du système Autopilot ne peuvent pas se piloter automatiquement. De longs blocs de texte dans les manuels des propriétaires de Tesla décrivent quand, où et comment les fonctions doivent être utilisées : par un conducteur pleinement attentif qui tient le volant et qui est « attentif aux conditions de la route et au trafic environnant ». Selon le manuel, ce conducteur ne doit pas se trouver à proximité de rues urbaines, de zones de construction, de cyclistes ou de piétons. Comme Tesla l’indique sur son site Web, en caractères légèrement plus petits : « Les fonctions actuellement activées nécessitent une supervision active du conducteur et ne rendent pas le véhicule autonome. »

La nuance a peut-être échappé à deux hommes qui sont morts dans la banlieue de Houston, à Spring, au Texas, samedi soir, lorsque leur Model S de 2019 aurait percuté un arbre et pris feu. Il a fallu quatre heures aux pompiers locaux pour éteindre les flammes. Dans une interview accordée au Wall Street Journal, l’agent du comté de Harris, Mark Herman, a déclaré que si l’enquête préliminaire des autorités locales n’est pas terminée, elles pensent que personne n’était au volant du véhicule lorsqu’il s’est écrasé. « Nous en sommes presque sûrs à 99,9 % », a-t-il déclaré. Les corps des deux victimes auraient été retrouvés sur les sièges passagers et arrière. Herman a déclaré à Reuters que les hommes parlaient d’Autopilot avant de monter dans la voiture. « Nous avons des déclarations de témoins qui disent qu’ils sont partis pour tester le véhicule sans conducteur et pour montrer à l’ami comment il peut se conduire lui-même », a-t-il dit.

Tesla n’a pas répondu aux questions sur l’incident, mais le PDG Elon Musk a tweeté lundi soir que « les journaux de données récupérés jusqu’à présent montrent que le pilote automatique n’était pas activé et que cette voiture n’a pas acheté de FSD ». L’agent Herman n’a pas répondu aux appels téléphoniques, mais il a déclaré à Reuters lundi en fin de journée que les forces de l’ordre allaient signifier des mandats de perquisition à Tesla pour obtenir des données liées à l’accident.

La National Highway Traffic Safety Administration – l’agence gouvernementale qui supervise la sécurité des voitures – et le National Transportation Safety Board – une agence indépendante qui enquête sur les incidents notables – ont envoyé des équipes au Texas pour étudier l’accident. « Nous sommes activement engagés avec les forces de l’ordre locales et Tesla pour en savoir plus sur les détails de l’accident et nous prendrons les mesures appropriées lorsque nous aurons plus d’informations », a déclaré la NHTSA dans un communiqué. Il faudra probablement des semaines, voire des mois, avant que les résultats de l’enquête ne soient publiés.

Quoi qu’il en soit, l’incident met une fois de plus en évidence le fossé toujours béant entre la commercialisation de la technologie Tesla et ses véritables capacités, mises en évidence dans les boîtes de dialogue et les manuels d’utilisation des véhicules.

Il existe une petite industrie artisanale de vidéos sur des plateformes telles que YouTube et TikTok, dans lesquelles des personnes essaient de « tromper » le système Autopilot pour qu’il conduise sans conducteur attentif sur le siège avant ; certaines vidéos montrent des personnes qui « dorment » à l’arrière ou derrière le volant. Des propriétaires de Tesla ont même démontré que, une fois la ceinture de sécurité du conducteur bouclée, quelqu’un peut inciter une voiture en mode Autopilot à se déplacer pendant quelques secondes sans personne au volant.

Tesla, et en particulier Musk, ont un passé mitigé de déclarations publiques sur la conduite autonome et le pilotage automatique. Une Tesla en pilotage automatique émet des avertissements visibles et audibles aux conducteurs si ses capteurs ne détectent pas la pression de leurs mains sur le volant toutes les 30 secondes environ, et elle s’arrête si elle ne détecte pas les mains pendant une minute. Mais lors d’une apparition à 60 Minutes en 2018, Musk s’est assis au volant d’un Model 3 en mouvement, s’est penché en arrière et a mis ses mains sur ses genoux. « Maintenant, vous ne conduisez pas du tout », a déclaré le présentateur avec surprise.

Ce mois-ci, Musk a déclaré au podcasteur Joe Rogan : « Je pense que l’Autopilot devient suffisamment bon pour que vous n’ayez pas besoin de conduire la plupart du temps, sauf si vous le voulez vraiment. » Le PDG a également donné à plusieurs reprises des évaluations optimistes des progrès de son entreprise en matière de conduite autonome. En 2019, il a promis que Tesla aurait 1 million de robotaxis sur la route d’ici la fin de 2020. Mais à l’automne 2020, les représentants de l’entreprise ont écrit au California Department of Motor Vehicles pour leur assurer que la conduite autonome intégrale « restera largement inchangée à l’avenir », et que la FSD restera une « fonction avancée d’assistance au conducteur » plutôt qu’une fonction autonome.

Jusqu’à présent, la FSD n’a été diffusée qu’à un millier de participants au programme de test bêta de l’entreprise. Musk a tweeté le mois dernier à l’intention des testeurs bêta de la FSD : « Soyez toujours prudent, mais elle devient mature ».

Au moins trois personnes sont mortes dans des accidents mortels impliquant Autopilot. Après une enquête sur un accident mortel survenu en 2018 à Mountain View, en Californie, le NTSB a demandé au gouvernement fédéral et à Tesla de veiller à ce que les conducteurs ne puissent utiliser les fonctions de sécurité automatisées de Tesla que dans des endroits où elles sont sûres. Il a également recommandé à Tesla d’installer un système de surveillance plus robuste, pour s’assurer que les conducteurs font attention à la route. General Motors, par exemple, n’autorisera les utilisateurs de sa fonction automatisée SuperCruise que sur des routes pré-calculées. Une caméra placée face au conducteur détecte également si les yeux du conducteur sont dirigés vers la route.

Un porte-parole de la NHTSA a déclaré que l’agence avait ouvert des enquêtes sur 28 accidents liés à Tesla.

Les données publiées par Tesla suggèrent que ses véhicules sont plus sûrs que la moyenne des voitures américaines. Samedi, quelques heures avant l’accident mortel du Texas, M. Musk a tweeté que les Teslas avec le système Autopilot activé ont presque 10 fois moins de risques d’avoir un accident que le véhicule moyen, selon les données fédérales. Mais les experts soulignent que la comparaison n’est pas tout à fait pertinente. L’Autopilot n’est censé être utilisé que sur les autoroutes, alors que les données fédérales prennent en compte toutes sortes de conditions de conduite. Et les Teslas sont des voitures lourdes et luxueuses, ce qui signifie qu’elles sont plus sûres en cas d’accident.