Les algorithmes font-ils des erreurs impensables pour l’homme ?

le 28 janvier 2017 à 14h34
0
Les algorithmes font désormais partie de notre quotidien, souvent sans qu'on ne le sache réellement. Les résultats de recherche de Google sont issus d'un algorithme, les prévisions météo sont issues d'un algorithme et même certaines opérations financières. Mais ces programmes informatiques devraient s'immiscer encore plus dans la vie des hommes.

Les voitures autonomes en sont un exemple : la voiture ne sera bientôt plus conduite par l'homme mais par un ordinateur qui va faire les choix. Cela pose des problèmes majeurs, tant au niveau de l'éthique qu'à celui de la programmation.

Les algorithmes et leur éthique en question



Dans un débat lancé par la Cnil le 23 janvier 2017, que nous rapporte Business Insider, la question de l'éthique des algorithmes a été soulevée. Cette question, hautement philosophique, fait intervenir des notions d'éthique comme de programmation et de sciences cognitives. Comment un algorithme choisit-il son action et en quoi ce choix est-il comparable, ou non, à celui d'un homme ?

Selon Rand Hindi, fondateur de l'entreprise Snaps, qui intervenait lors du débat, c'est simple : « En moyenne, les intelligences artificielles font beaucoup moins d'erreurs, mais elles font des erreurs que ne feraient jamais les humains », selon les propos relatés par Business Insider.

La question du chauffeur de Tramway et l'incompréhensibilité des algorithmes



Les philosophes connaissent les problèmes auxquels sont confrontés les programmeurs depuis des lustres : l'un des plus connus est celui « du chauffeur de tramway » pensé par Philippa Foot en 1967. La question est simple : réaliser une action qui nuit à une personne B mais qui bénéficie à un groupe de personnes A est-il moral ? Dans le cadre du chauffeur de Tramway, celui-ci a le choix de tuer plusieurs personnes ou une personne seulement. Que va-t-il choisir ?

Ce genre de problèmes éthiques, pour lesquels il n'y a pas de réponse donnée, posent des questions majeures quand il s'agit de programmer un algorithme : si on peut tenir un homme responsable de ses choix, peut-on tenir un algorithme responsable des siens ? Est-ce le programmeur qui est responsable ?

Dès lors que l'on accepte que les algorithmes réalisent des choix qui ne sont pas ceux que ferait un humain, le problème est encore plus complexe. AlphaGo, Intelligence Artificielle de DeepMind de Google, l'a prouvé en battant Lee Sedol, numéro 2 mondial de Go : après sa défaite, Lee Sédol a confié que les choix tactiques d'AlphaGo étaient bien au-delà de ceux qu'un homme aurait faits. Comment peut-on comprendre les choix des algorithmes ?

Modifié le 01/06/2018 à 15h36
Mots-clés : Nouvelles technologies
Cet article vous a intéressé ?
Abonnez-vous à la newsletter et recevez chaque jour, le meilleur de l’actu high-tech et du numérique.

Les dernières actualités

Suite aux protestations meurtrières, l’Indonésie ralentit Facebook, Whatsapp et Instagram
Ouya : la console stoppée pour de bon le 25 juin
Free va supprimer une partie de son offre mobile
Alpha Two : des infos dévoilées sur le taxi volant autonome d'Airbus
Jeff Bezos refuse de répondre à la lettre publique pour le climat de ses employés
L'éditeur de Firewatch lance Playdate, sa console de jeux indé de poche
La dégringolade continue : Panasonic aussi lâche Huawei
Atari : voici le joystick et la manette de la console néo-rétro Atari VCS
HP Omen lance sa gamme de périphériques gaming
Epic Games bloque les comptes d'utilisateurs ayant acheté trop de jeux pendant les soldes
scroll top