Les premières Tesla 100% autonomes arrivent, malgré une enquête en cours suite à une série d’accidents graves

Elon Musk donne quatre semaines pour lancer la bêta publique de son système de conduite 100% autonome. Un délai qui semble impossible à tenir. D’autant plus que les voitures Tesla en circulation font justement l’objet d’une enquête : en pilote automatique, elles emboutiraient souvent des véhicules d’urgence à l’arrêt.

C’est l’objectif primaire de Tesla depuis des années, même si le développement de voitures 100% électriques et performantes a un peu pris la priorité : commercialiser une voiture entièrement autonome, capable de se piloter toute seule sans intervention humaine. Dans le jargon, on parle d’automatisation de niveau 4 quand le véhicule gère tout sur certaines routes (les autoroutes en général) et que le passager n’a rien à faire. L »autonomie totale sur tout type de route, y compris en ville, occupe le niveau 5. Et jusqu’à présent, c’est encore de la science-fiction : les véhicules les plus avancées restent de niveau 3, et le conducteur doit être prêt à reprendre le contrôle en cas de problème. Mais Elon Musk est persuadé qu’il peut passer un palier dans les semaines à venir.

Un mois pour révolutionner la conduite

L’entrepreneur texan a en effet annoncé que la bêta publique de son système de conduite 100% autonome devrait être déployée d’ici quatre semaines seulement. Celle-ci est déjà en test depuis un an, mais Musk veut passer à la vitesse supérieure et ouvrir la bêta FSD (Full Self-Driving) au grand public. Concrètement, cela concerne ceux qui ont acheté le pack « Capacité de conduite entièrement autonome ».

Les ambitions d’Elon Musk risquent toutefois de se heurter à la très dure réalité : l’entrepreneur est familier des déclarations ambitieuses que ses ingénieurs ne peuvent pas toujours suivre, en particulier en ce qui concerne les échéances. Dans ce cas précis, le patron de Tesla avait même fait preuve de réalisme le mois dernier, concédant que « la conduite autonome généralisée est un problème difficile à résoudre, car elle nécessite d’adapter l’IA au monde réel. Je ne m’attendais pas à ce que ce soit si difficile, même si la difficulté est évidente avec le recul. »

Des accidents en série

Un aveu de lucidité qui tombait peu avant que l’agence américaine pour la sécurité routière (NHTSA) ne lance une enquête sur, précisément, le logiciel de pilote automatique des véhicules de chez Tesla. Depuis 2018, celle-ci a identifié 11 accidents impliquant une Tesla et qui semblaient pourtant parfaitement évitables. Or, à chaque fois, le véhicule roulait sous autopilote. Et à chaque fois, il a embouti un véhicule d’urgence à l’arrêt. Ces 11 accidents ont blessé 17 personnes et ont causé un décès.

Rêve ou cauchemar pour Asimov

Erreur humaine d’un conducteur qui se pensait simple passager alors que nous n’en sommes qu’au niveau 3, ou erreur du logiciel qui réagirait mal aux gyrophares, nul ne le sait encore. Il n’empêche que si cette technologie progresse vite, il n’est de toute évidence pas encore sur le point de se généraliser. Il convient d’ailleurs de ne pas la bâcler, car la conduite autonome correspond à l’une des grandes prédictions -et des grandes inquiétudes- du génie de la science-fiction Isaac Asimov : l’être humain va confier sa vie aux décisions d’une machine, qui devra décider de la réaction à appliquer en cas d’imprévu : vaut-il mieux percuter un piéton, ou l’éviter en percutant de face un mur, tuant ainsi le passager ? Un dilemme que devra un jour résoudre un algorithme.

Pour aller plus loin :

Plus