Un jour, sans doute moins proche qu’on ne le dit, la voiture autonome sans chauffeur révolutionnera la mobilité et la conduite automobile. L’erreur humaine est responsable de presque neuf accidents sur dix et la prise en main de la voiture par un logiciel pourrait donc sauver un nombre considérable de vies. Toutefois, il y aura toujours des accidents, à cause d’obstacles imprévisibles comme des véhicules avec chauffeur, des piétons, ou des objets de la nature. La question se posera alors de savoir comment la voiture autonome réagira. Si le choc est inévitable, elle devra trouver le moyen d’« optimiser » mais selon quels critères »
Certains scénarios peuvent prêter à confusion et, comme pour tous les robots, les choix engageront des questions éthiques’: vaut-il mieux heurter un enfant ou une personne âgée » Faut-il s’écraser contre un véhicule récent ou contre une vieille voiture » Dans certains cas, convient-il de sacrifier mes passagers » Si le coût est le critère décisif, les véhicules autonomes choisiront de percuter la voiture la moins chère. Si la collision est grave et que le risque qu’il y ait des blessés est élevé, la voiture autonome choisira de heurter le véhicule le plus sûr, celui qui protège donc mieux ses occupants. Ou bien elle choisira de percuter un motard qui porte un casque plutôt qu’un motard tête nue.
Aujourd’hui, la décision est prise, souvent en une fraction de seconde, par le conducteur lui-même. Demain, c’est un algorithme qui sera aux commandes. Un algorithme programmé par des humains. On peut bien sûr espérer qu’une combinaison d’intelligence artificielle auto-apprenante et de « deep learning » finisse par doter l’algorithme d’une éthique du jugement comparable à celle d’un humain adulte mais la mise en forme juridique de cette réalité prendra du temps.
Dilemme social. Des enquêtes conduites par le MIT montrent que l’exercice sera délicat en raison d’un « dilemme social » et d’injonctions contradictoires qu’il sera ardu de mettre en équations’: 76 % des personnes interrogées sont d’accord pour sacrifier le passager si on peut sauver ainsi dix piétons mais moins de 30 % d’entre elles sont prêtes à monter à bord d’un véhicule programmé de cette manière. Les autres veulent que le véhicule qui les transporte les protège à tout prix et refusent l’intervention des pouvoirs publics dans la conception de l’algorithme.
Et puis qui sera responsable en cas d’accident en mode automatique » Le propriétaire du véhicule, le constructeur, le concepteur de logiciels, le fournisseur de GPS » Le concept de conducteur sera remplacé par celui d’opérateur programmant le GPS. En théorie, le permis de conduire ne sera plus nécessaire. Les enfants pourront-ils alors occuper seuls un véhicule en marche » Pas sûr’: la question de leur responsabilité juridique compliquera encore la définition du « conducteur ». Au mois de février, le gouvernement fédéral américain, par la voix de la National Highway Traffic Safety Administration, a commencé à répondre. Il a reconnu que, dans la Google car autonome, c’est le logiciel et non la personne présente dans le véhicule qui sera considérée comme le conducteur. Il reste à inventer la responsabilité pénale d’un logiciel.
Stéphane Marchand est rédacteur en chef de ParisTech Review.
Laisser un commentaire
Vous devez être connecté(e) pour rédiger un commentaire.