Obama trouve les algorithmes dangereux

Alexandre Broutart
10 mai 2016 à 15h40
0
Coup de frein dans l'analyse automatisée des données : alors que sociétés et administrations publiques s'y engouffrent éperdument, une directrice technique de l'administration d'Obama demande un temps-mort. Dans un rapport officiel, Megan Smith reconnait les avantages que pourrait avoir à l'avenir une telle technique, tout en pointant que pour l'heure, elle était source de discrimination sur le plan de l'emploi, du crédit, de l'éducation, et même de la Justice.

L'algorithme est bête souvent, méchant parfois. C'est un peu ce qui ressort du document de 29 pages qui vient d'être publié par l'administration Obama. Prenant soin de ne pas être taxé de rétrograde ou technophobe, le texte ne manque pas pour autant de lister les dérives actuelles de telles pratiques :
  • Beaucoup d'américains ne parviennent pas à obtenir de crédits car ils ne sont pas listés dans les bons fichiers.
  • Les nouvelles techniques de recrutement excluent de façon inexpliquée des candidats qui ont pourtant les compétences requises.
  • Les étudiants sont de plus en plus nombreux à se voir refuser l'accès aux études supérieures pour des motifs arbitraires et peu clairs.
  • La volonté croissante de l'exécutif d'utiliser les nouvelles techniques d'analyse de données peuvent représenter un risque.

Le rapport explique qu'il ne faut pas écouter les données aveuglément : selon Megan Smith - qui appuie sur les analyses de bon nombre d'universitaires -, un risque existe que l'homme délègue sa pensée et son analyse contre celle des algorithmes, et de cette dérive il faudrait se prémunir.

07905263-photo-obama-yolo.jpg
Le rapport « Big data: entre opportunité et droits fondamentaux » a été produit par le premier cercle des collaborateurs de Barack Obama


D'abord, elle explique que le big data ne répond pas au rêve d'objectivité qu'on voudrait bien lui prêter, où les chiffres parlent d'une seule voix, débarassée de la pesante subjectivité humaine. Selon la chercheuse Kate Crawford qui a servi de consultante dans l'établissement du rapport, les chiffres gardent toujours la trace de la pensée humaine : « On donne aux chiffres une voix, on leur soutire des conclusions hatives, leur trouvons un sens grâce à nos propres interprétations. »

Car c'est un peu le miroir aux alouettes du big data : penser que cette technique nous délivre enfin des parti-pris et préjugés humains, d'autant plus imparfaits qu'ils sont pour la plupart « inconscients », lit-on dans le rapport. Ainsi Megan Smith nous montre à quel point il est urgent d'exclure cette tentation de l'esprit, car ces parti-pris que nous fuyons, « sont aussi présents non seulement dans la collecte mais aussi dans l'analyse faite par les algorithmes auto-apprenants. »

« Il n'y a pas de données brutes »

La solution avancée par le dossier serait un « plan d'équité », appliqué à tous les systèmes d'extraction de données en masse. Celui-là préconise d'abord une transparence totale sur les algorithmes utilisés par les différentes institutions, et demande à ce que les « départements » d'analyse de données (en entreprise), respectent un « principe de responsabilité » : « les individus doivent garder le pouvoir de corriger des données qu'ils jugeraient incorrectes, ou même de contester les décisions prises par les algorithmes. »

08438108-photo-megan-smith.jpg
Megan Smith est directrice technique de l'administration d'Obama


Evoquée également, la possibilité de rendre interdite l'utilisation des données relatives aux réseaux sociaux, qui selon Megan Smith peut vite aboutir à une utilisation « abusive, discriminatoire et intrusive de la donnée. » Ce plan institutionnaliserait aussi la mise en commun du travail des data scientists avec celui des sociologues et des docteurs en sciences humaines (philosophie, linguistique psychologie...), afin que chaque conclusion soit prise à l'aune du contexte particulier qui englobe chaque donnée brute.

D'ailleurs pour Lisa Gitelman, une autre spécialiste du sujet, il n'y a pas de donnée brute, « le terme même de donnée brute est une oxymore ». Un point de vue qui amène les chercheurs comme Kate Crawford à statuer : « il faut arrêter de se focaliser sur le terme "big" de big data, il faut quelque chose de plus tridimensionnel, de la data "with depth" (avec de la profondeur). »

A lire également
Modifié le 01/06/2018 à 15h36
0
0
Partager l'article :

Les actualités récentes les plus commentées

La centrale nucléaire de Fessenheim va cesser définitivement ses activités cette nuit
Convention citoyenne pour le climat : Macron promet 15 milliards d'euros et des réponses
Vraiment efficace le toit solaire de Tesla ? Une famille fait le bilan après trois mois d'utilisation
Amazon : des hackers auraient réussi à contourner la double authentification
Les émissions de CO2 dues à l'automobile ont encore augmenté en 2019, la faute aux SUV
Aux États-Unis, la mortalité des abeilles depuis un an est inquiétante
L’iPhone 12, livré sans chargeur ni écouteurs ?
Pour Steve Sinofsky, ex boss de Windows, le Mac sous ARM sera
Reddit bannit un forum pro-Trump, accusé de promouvoir la haine, Twitch suspend sa chaîne
Selon Epic Games, la PS5 est
scroll top