Obama trouve les algorithmes dangereux

Alexandre Broutart
10 mai 2016 à 15h40
0

La Maison Blanche s’intéresse au big data : dans un rapport, une porte-parole demande qu'une réflexion soit menée pour mieux encadrer l'analyse de données en masse.

Coup de frein dans l'analyse automatisée des données : alors que sociétés et administrations publiques s'y engouffrent éperdument, une directrice technique de l'administration d'Obama demande un temps-mort. Dans un rapport officiel, Megan Smith reconnait les avantages que pourrait avoir à l'avenir une telle technique, tout en pointant que pour l'heure, elle était source de discrimination sur le plan de l'emploi, du crédit, de l'éducation, et même de la Justice.

L'algorithme est bête souvent, méchant parfois. C'est un peu ce qui ressort du document de 29 pages qui vient d'être publié par l'administration Obama. Prenant soin de ne pas être taxé de rétrograde ou technophobe, le texte ne manque pas pour autant de lister les dérives actuelles de telles pratiques :
  • Beaucoup d'américains ne parviennent pas à obtenir de crédits car ils ne sont pas listés dans les bons fichiers.
  • Les nouvelles techniques de recrutement excluent de façon inexpliquée des candidats qui ont pourtant les compétences requises.
  • Les étudiants sont de plus en plus nombreux à se voir refuser l'accès aux études supérieures pour des motifs arbitraires et peu clairs.
  • La volonté croissante de l'exécutif d'utiliser les nouvelles techniques d'analyse de données peuvent représenter un risque.

Le rapport explique qu'il ne faut pas écouter les données aveuglément : selon Megan Smith - qui appuie sur les analyses de bon nombre d'universitaires -, un risque existe que l'homme délègue sa pensée et son analyse contre celle des algorithmes, et de cette dérive il faudrait se prémunir.

07905263-photo-obama-yolo.jpg
Le rapport « Big data: entre opportunité et droits fondamentaux » a été produit par le premier cercle des collaborateurs de Barack Obama


D'abord, elle explique que le big data ne répond pas au rêve d'objectivité qu'on voudrait bien lui prêter, où les chiffres parlent d'une seule voix, débarassée de la pesante subjectivité humaine. Selon la chercheuse Kate Crawford qui a servi de consultante dans l'établissement du rapport, les chiffres gardent toujours la trace de la pensée humaine : « On donne aux chiffres une voix, on leur soutire des conclusions hatives, leur trouvons un sens grâce à nos propres interprétations. »

Car c'est un peu le miroir aux alouettes du big data : penser que cette technique nous délivre enfin des parti-pris et préjugés humains, d'autant plus imparfaits qu'ils sont pour la plupart « inconscients », lit-on dans le rapport. Ainsi Megan Smith nous montre à quel point il est urgent d'exclure cette tentation de l'esprit, car ces parti-pris que nous fuyons, « sont aussi présents non seulement dans la collecte mais aussi dans l'analyse faite par les algorithmes auto-apprenants. »

« Il n'y a pas de données brutes »



La solution avancée par le dossier serait un « plan d'équité », appliqué à tous les systèmes d'extraction de données en masse. Celui-là préconise d'abord une transparence totale sur les algorithmes utilisés par les différentes institutions, et demande à ce que les « départements » d'analyse de données (en entreprise), respectent un « principe de responsabilité » : « les individus doivent garder le pouvoir de corriger des données qu'ils jugeraient incorrectes, ou même de contester les décisions prises par les algorithmes. »

08438108-photo-megan-smith.jpg
Megan Smith est directrice technique de l'administration d'Obama


Evoquée également, la possibilité de rendre interdite l'utilisation des données relatives aux réseaux sociaux, qui selon Megan Smith peut vite aboutir à une utilisation « abusive, discriminatoire et intrusive de la donnée. » Ce plan institutionnaliserait aussi la mise en commun du travail des data scientists avec celui des sociologues et des docteurs en sciences humaines (philosophie, linguistique psychologie...), afin que chaque conclusion soit prise à l'aune du contexte particulier qui englobe chaque donnée brute.

D'ailleurs pour Lisa Gitelman, une autre spécialiste du sujet, il n'y a pas de donnée brute, « le terme même de donnée brute est une oxymore ». Un point de vue qui amène les chercheurs comme Kate Crawford à statuer : « il faut arrêter de se focaliser sur le terme "big" de big data, il faut quelque chose de plus tridimensionnel, de la data "with depth" (avec de la profondeur). »

A lire également
Modifié le 01/06/2018 à 15h36
0 réponses
0 utilisateurs
Suivre la discussion

Les actualités récentes les plus commentées

Bruno Le Maire prend officiellement position sur la cryptomonnaie Libra
Toyota : 50% des véhicules vendus au premier semestre étaient des hybrides-électriques
La France va créer son commandement militaire de l'espace
Peugeot 3008 Hybrid : tout ce que l’on sait du futur SUV de la firme sochalienne
La Zone 51 envahie ? L'armée américaine pourrait répondre par la force
Evija : l'hypercar électrique de Lotus se charge en 9 petites minutes
Streaming vidéo : le coût écologique serait désastreux, selon l'association The Shift Project
La prochaine édition du CES va autoriser les sextoys féminins et interdire les
Neuralink : Musk annonce que la start-up est prête à tester sa technologie sur des humains
Que se passerait-t-il si Stadia disparaissait ? Un ponte de Google répond
scroll top