11/12/2017

Certains constructeurs de véhicules autonomes préfèreraient se passer totalement du conducteur car ils trouvent trop dangereuse la phase de transition (dite de niveau 3) où le conducteur est encore derrière le volant pour réagir en cas de problème. Est-ce bien prudent, compte tenu des défis techniques et philosophiques que pose la conduite robotisée ?

Self driving Uber prototype in San Francisco

Les prochains tests des véhicules autonomes de l’entreprise Waymo (alias « Google cars ») se dérouleront sans personne derrière le volant pour reprendre la conduite en cas de danger ; les personnes présentes à bord seront donc uniquement des passagers, alors que jusqu’ici, il y avait aussi un ingénieur, par sécurité. En conséquence, c’est un algorithme qui opèrera les choix de conduite, en fonction des informations fournies par les capteurs du véhicule. De même, BMW souhaiterait ne pas produire de véhicules qui correspondent au niveau 3 d’autonomie, où le conducteur est présent et théoriquement en capacité de réagir. Ce constructeur commercialiserait donc directement, dans quelques années, des véhicules de niveaux d’autonomie supérieurs, dans lesquels le conducteur n’intervient pas, voire ne dispose pas de commandes pour agir.

Ce choix repose sur une conception selon laquelle les accidents viendraient essentiellement d’une défaillance humaine. C’est oublier que les véhicules autonomes connaissent également des accidents, y compris les Google cars. En outre, les conducteurs encore présents par précaution dans ce type de véhicules doivent régulièrement reprendre le volant du fait des prises de décision inadaptées de ces machines.

En matière de conduite autonome, l’enjeu serait donc de faire aussi bien que le conducteur, ce qui est loin d'être évident : avec des capteurs qui ne « voient » qu’à 150 ou 200 mètres au maximum, la capacité du véhicule à anticiper le choix d’une trajectoire est encore insuffisante. Or l’anticipation est une des clés de la sûreté d’une conduite. En outre, dans certains cas, des capteurs comme le lidar (mesure des distances par laser) peuvent ne pas voir ce qu’il faut, ou repérer des obstacles inexistants. En pareille situation de défaillance des aides à la conduite, le conducteur reste indispensable.

D’ailleurs, les utilisateurs identifient parfaitement ces dangers. En effet, face à la perspective d’utiliser un véhicule plus ou moins autonome, les trois principaux risques qui les inquiètent sont : principalement « les défaillances du système / les risques de panne ou d’accident » ; puis « ne pas réussir à repasser en mode manuel » ; et enfin « la prise de contrôle à distance du véhicule par une personne mal intentionnée » (Source : Baromètre de la prévention routière, vague 2, Allianz, février 2017).

En définitive, il n’est pas simple de se passer du conducteur : techniquement, par la complexité des situations de conduite ; mais aussi philosophiquement, par la difficulté des choix éthiques qui peuvent se poser sur la route. En effet, pour prendre rapidement une décision difficile, un algorithme devra-t-il se fier à la façon dont la plupart des humains réagissent ? Ou devra-t-il suivre certains principes, éventuellement déterminés par des équipes de réflexion pluridisciplinaires ? La réponse à cette question relève, in fine, d’Etats ou d’organisations internationales.

En attendant que de telles questions soient tranchées, la Ligue de Défense des Conducteurs demande à ce que, dans l’état actuel des capacités techniques des véhicules autonomes, les constructeurs automobiles laissent au conducteur le plus possible de moyens de réagir face au danger.