Voiture autonome : un bouton pour choisir si tuer ou être tué

Par ,
le 22 janvier 2018
 0
Si les voitures autonomes sont le futur de l'industrie automobile et devraient permettre de réduire le nombre d'accidents sur les routes grâce à l'Intelligence Artificielle et leur flopée de capteurs, il est impossible de penser que les accidents ne seront plus qu'un lointain souvenir. Dans certaines situations l'accident est inévitable. Dans ce cas-là, que va faire la voiture autonome ?

La question éthique en soulève bien d'autres, notamment au niveau des assurances et de la responsabilité. Trois chercheurs de l'Université de Bologne ont imaginé une solution qui met le propriétaire de la voiture au centre de ce choix... qui changerait légèrement les différents degrés d'autonomie de ces futurs véhicules !

En cas d'accident inévitable allez-vous tuer ou être tué ?


Les scénarios où l'accident est inévitable sont légion : un enfant qui d'un coup court sur la route, une voiture hors de contrôle... Supposons que dans une de ces situations l'Intelligence Artificielle en arrive à la conclusion suivante : il y aura forcément un accident mais elle peut changer l'issue de celui-ci. Un exemple classique dans le domaine est celui du « car scolaire »  hors de contrôle qui arrive vers vous sur un pont étroit.

La voiture autonome en déduit donc ces deux solutions qui sont les seules possibles dans la situation : soit elle continue sa route pour vous sauver la vie mais va faire basculer le car dans le vide tuant tous ses passagers, soit elle se jette elle-même dans le vide vous tuant mais sauvant la vie des enfants du car. Comment peut-elle choisir ? Et, surtout, qui prendra la responsabilité de ce choix ?

01f4000008788658-photo-fotolia-clubic-voiture-autonome.jpg


Un bouton pour choisir si sauver sa propre vie ou celle des autres


Dans un article publié en septembre 2017 dans la revue Artificial Intelligence and Law, les chercheurs Giuseppe Contessa, Francesca Lagioia et Giovani Sartor de l'Université de Bologne ont imaginé ce qu'ils appellent un « Ethical Knob » soit un « Bouton Ethique ». Ce dernier serait embarqué dans les voitures autonomes et modifierait alors l'algorithme de l'Intelligence Artificielle dans ce cas très précis où l'accident et la mort sont inévitables.

L'idée est de permettre aux propriétaires des voitures autonomes de prendre leurs responsabilités : soit ils décident de sauver leur vie faisant preuve d'égoïsme, soit ils décident de sauver les autres faisant preuve l'altruisme.

Mais l'idée de laisser le choix a un avantage : une personne peut modifier son approche du problème en fonction de sa situation personnelle. On peut imaginer, par exemple, un père de famille qui mettrait le bouton en mode « altruiste » lorsqu'il va au travail mais en mode « égoïste » lorsqu'il a ses enfants sur la banquette arrière.

Au final, pour les amateurs de paradoxes éthiques et de la série The Good Place, la question est toujours la même : la réponse au Dilemme du Tramway que l'on doit à Philippa Foot en 1967. Dans ce problème, devenu un meme sur Internet, on a le choix entre tuer une personne et en sauver cinq ou en tuer cinq et en sauver une.

Modifié le 01/06/2018 à 15h36
scroll top