À la rencontre de Norman, une IA psychopathe

0
Alors que pour Elon Musk, l'IA pourrait mener à une guerre mondiale, les usages qui en sont faits sont souvent assez pratiques. Certaines sont capables de détecter des conversations qui dérapent, d'autres font les courses à votre place et certaines apprennent par simple curiosité à jouer à des jeux. Mais que se passerait-il si l'IA avait un côté plus sombre ?

C'est la question que se sont posés des scientifiques du MIT, qui ont créé une IA complètement psychopathe en l'exposant à des données graphiques et morbides.

Norman IA


Une intelligence artificielle psychopathe

Créée par des scientifiques du MIT dans le cadre d'une expérience, Norman est la première intelligence artificielle à voir le côté sombre des choses. Cette intelligence artificielle a été exposée aux "coins les plus sombre de Reddit" et est en fait une étude de cas sur les dangers de l'IA, dans le cas où des données biaisées sont utilisées pour nourrir les algorithmes de machine learning.

Concrètement, Norman est formée pour effectuer du sous-titrage d'images. Cette intelligence artificielle a été exposée à des données biaisées, provenant d'un Reddit dédié à "documenter et observer la réalité dérangeante de la mort". Ses réponses ont ensuite été comparées avec celles données par une intelligence artificielle plus habituelle, sur des taches d'encre de Rorschach, souvent utilisées par les psychologues pour évaluer l'état d'esprit d'un patient.

Là où l'IA "normale", voit un groupe d'oiseaux assis au sommet d'un arbre, Norman voit quelqu'un être électrocuté. Quand l'IA "normale" voit un couple de personnes debout côte à côte, Norman voit un homme sauter d'une fenêtre. Pour l'ensemble des taches d'encre, Norman s'est donc illustrée en proposant des descriptions très graphiques et morbides. Vous pouvez retrouver l'ensemble de ces descriptions sur le site dédié à Norman.

Norman IA


De l'importance des données pour l'IA

En fait, l'expérience visait à prouver que les données sont plus importantes que l'algorithme en tant que tel. Comme l'indique l'équipe de chercheurs sur le site de présentation, "lorsque les gens parlent des algorithmes d'intelligence artificielle qui sont biaisés et peu justes, le coupable n'est souvent pas l'algorithme lui-même, mais les données avec lesquelles il a été nourri". Il s'agit donc d'une étude de cas pour montrer que l'intelligence artificielle peut mal tourner en fonction des données de départ sur lesquelles elle se base. Une étude de cas plutôt réussie, n'est-ce pas ?

Par chance, VOUS pouvez aider Norman à aller mieux en remplissant un sondage permettant de nourrir Norman avec des descriptions moins négatives.

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités du moment

La NASA va-t-elle transférer l’ISS au privé ?
L'acquisition de GitHub par Microsoft acclamée par la Fondation Linux
L'UE a voté un système d'alerte par SMS en cas d'attaque terroriste
Droits d'auteur : un projet de loi pourrait signer la fin de Wikipédia
E-commerce : bientôt une taxe au kilomètre pour la livraison ?
Microsoft lance le premier centre de données sous-marin
Le trio ayant escroqué Amazon condamné à 6 ans de prison
Le projet Common Voice de Mozilla désormais en français
Apple veut tuer GrayKey et Cellebrite
Enfin une liste scientifique des memes les plus populaires du Net !
Haut de page