Les logiciels autopilotes de Tesla ont la fâcheuse manie d’emboutir des véhicules de secours, ambulances ou camion de pompiers, une fois que ceux-ci sont à l’arrêt. Avec de nombreux blessés à la clef, et un accident mortel recensé. L’agence fédérale américaine chargée de la sécurité routière va mener l’enquête.
La première grande promesse de Tesla avant la voiture électrique abordable, c’était la conduite autonome. La firme d’Elon Musk s’était donné pour objectif de généraliser ses voitures capables de suivre d’elles-même un itinéraire, et surtout de réagir automatiquement aux imprévus de la route.
Une technologie qui rappelle fortement les écrits du grand écrivain de science-fiction Isaac Asimov et les thématiques qui lui étaient chères, comme par exemple les conséquences possibles de donner à une machine la responsabilité de prendre une décision en cas d’urgence. On peut légitimement se demander si la voiture ne va pas choisir de percuter un mur frontalement pour éviter un piéton, par exemple. Ou l’inverse.
Foncer sur l’ambulance
Mais pour l’heure la technologie ne semble guère au point, car la NHTSA, l’agence fédérale américaine chargée de la sécurité routière, vient d’ouvrir une enquête sur le logiciel autopilote des voitures Tesla sorties entre 2014 et 2021. Depuis 2018, l’agence a identifié 11 accidents impliquant une Tesla et qui semblaient pourtant parfaitement évitables. Or, à chaque fois, le véhicule roulait sous autopilote. Et à chaque fois, il a embouti un véhicule d’urgence à l’arrêt. Ces 11 accidents ont blessé 17 personnes et ont causé un décès.
Dans la majorité des cas, les faits se sont déroulés dans l’obscurité, et la Tesla a ignoré tous les avertissements qui signalaient la présence du véhicule de secours. La voiture n’a guère prêté attention aux cônes de signalisation, feux lumineux, ou encore flèches de déviation, mêmes illuminées.
Selon un porte-parole de la NHTSA, l’investigation n’en est qu’à ses prémisses, et l’objectif pour l’instant restait de collecter un maximum d’information sur le contexte de ces accidents. Il a ajouté qu’actuellement, aucune voiture trouvable dans le commerce n’est capable de se piloter toute seule sans qu’un être humain soit prêt à reprendre possession des commandes à chaque instant.
Autonome mais pas infaillible
Une autre piste avancée est la grande difficulté des logiciels de conduite à prendre en compte des objets immobiles, tant chez Tesla que chez Volvo, selon une enquête de Wired datant de 2018. La firme d’Elon Musk avait à l’époque déclaré que: » Le système de Cruise Control ne peut pas détecter tous les objets, et il peut ne pas freiner ou ne pas décélérer pour les véhicules à l’arrêt, notamment dans les situations où vous roulez à plus de 80 km/h et qu’un véhicule que vous suivez sort de votre trajectoire et qu’un véhicule ou un objet à l’arrêt se trouve soudainement devant vous. » Là aussi, c’est au conducteur d’être capable de faire la part des choses et de repasser en conduite manuelle. Un point qui, selon l’agence américaine de la sécurité routière, n’est peut-être pas assez rappelé dans le marketing de Tesla.
Pour aller plus loin :