le vendredi 21 octobre 2016

Faut-il programmer votre voiture autonome pour vous sacrifier ?

L'accident est inévitable : une voiture autonome fonce sur un groupe de piétons. Doit-elle sauver son propriétaire ou le sacrifier ? La réponse parait évidente mais elle est plus complexe qu'il n'y parait.

L'annonce des capacités de conduite autonome des Tesla donne un nouvel écho à cet article, nous le republions donc pour ceux à qui il aurait échappé.

Le journal Science a publié cette semaine une recherche intitulée « Le dilemme social du véhicule autonome », repérée notamment par Le Monde. Trois chercheurs de l'École d'économie de Toulouse et du MIT ont transposé le « dilemme du tramway », une expérience de pensée philosophique initiée il y a 50 ans, à la voiture autonome.

Ils ont confronté un peu moins de 2 000 participants à toutes sortes de dilemmes moraux.

La majorité approuve qu'une voiture sacrifie un seul passager plutôt qu'un groupe de piétons. C'est conforme à la réaction humaine : de précédentes études montrent qu'une majorité de conducteurs se sacrifieraient si c'était le moindre mal.

Voiture autonome de Google en décembre 2014

À lire aussi : En cas d'accident de voiture autonome, qui sera responsable ?

Les voitures programmées pour sacrifier leurs occupants sont pour les autres


Mais les scores baissent en fonction de l'intitulé de la question : lorsque le cobaye est accompagné d'un membre de sa famille par exemple. Surtout, les répondants préfèreraient ne pas utiliser de telles voitures. Autrement dit, les voitures programmées pour sacrifier leurs occupants ne sont bonnes que pour les autres.

En outre les participants sont défavorables à une régulation rendant obligatoire l'autosacrifice. Ce qui mène les auteurs à la conclusion suivante : « la régulation pourrait être nécessaire mais contre-productive ». Ce code de conduite du véhicule autonome refreinerait effectivement les achats, alors que la machine est de toute manière beaucoup plus sûre que l'homme, et qu'elle sauvera des vies dans tous les cas.

Et vous, que répondriez-vous ? Les chercheurs du MIT ont mis en ligne la « Moral Machine », qui vous confronte à toutes sortes de situations. Faut-il tenir compte de l'âge des victimes, de leur bon droit, etc. ? L'année dernière dans le Washington Post, le responsable des voitures autonomes de Google estimait que « cette schématisation était discutable du point de vue éthique ». Pourtant il faudra bien transiger... Le débat ne fait que commencer !

À lire aussi :
Voiture autonome : le kit à 1000 dollars de George Hotz se précise
Tesla Model S : j'ai parcouru 1000 km au pilote automatique


Le dilemme social du véhicule autonome

Modifié le 21/10/2016 à 16h13
Commentaires