3 mythes (erronés) sur l’intelligence artificielle

23 décembre 2023 à 18h30
15
Derrière l’IA se trouvent des humains qui font le gros du travail. © Anne Fehres & Luke Conroy & AI4Media / CC-BY 4.0
Derrière l’IA se trouvent des humains qui font le gros du travail. © Anne Fehres & Luke Conroy & AI4Media / CC-BY 4.0

L’IA s’est imposée dans notre vie depuis quelques mois maintenant, mais derrière les promesses quasi magiques de ces robots se cachent des limites bien concrètes. Revenons sur 3 mythes qui entourent encore l’intelligence artificielle et ses applications.

L’intelligence artificielle est partout. Depuis le raz-de-marée ChatGPT, il y a maintenant plus d’un an, de nombreuses facettes de notre vie quotidienne ont été bouleversées par l’IA. Les grands modèles de langage se sont immiscés partout, dans le traitement de l’actualité, dans les opérations de relation client, dans nos applications mobiles… Le tout à une vitesse qui dépasse tout ce que l’on a pu voir jusqu’à aujourd’hui.

Le robot conversationnel d’OpenAI, qui propulse bon nombre des autres applications d’IA que l’on retrouve chez les grandes entreprises, a changé la donne grâce à sa simplicité, son exhaustivité et son accessibilité sans pareille. En plus de savoir converser de manière fluide et efficace, ChatGPT est aussi capable de scanner et créer des images, d’analyser vos fichiers, de parler avec un charmant accent américain… Bref, au premier abord, on pourrait bien penser que cette IA sait environ tout faire.

Pourtant, comme toutes les intelligences artificielles, ChatGPT a ses limites. Des limites structurelles, qui s’expliquent par la manière dont la machine a été éduquée. Maintenant que l’IA semble s’être immiscée dans toutes les facettes de notre vie ou presque, il est temps de revenir sur quelques mythes erronés qui ont jonché cette année pleine de rebondissements numériques.

1 — L’IA est neutre

Derrière ses allures de robot impartial et froid, les tas de cartes graphiques, d’algorithmes et de données qui composent l’IA sont loin d’être les arbitres neutres et objectifs qu’on pourrait croire. Les réponses que va donner un robot conversationnel comme ChatGPT seront largement dépendantes des données qu’il aura ingérées.

Lors du Festival des Utopiales à Nantes, Raphaël Granier de Cassagnac, auteur de science-fiction et directeur de recherche au CNRS, illustrait cela avec un exemple simple. « Lorsque j’ai posé la question “le dollar restera-t-il une monnaie fiable ?” à une IA américaine et une IA chinoise, chacune m’a donné des réponses très différentes. Cela montre bien les biais d’apprentissage des IA. » Elene Usdin, photographe, illustratrice et autrice de bande dessinée, va même plus loin et qualifie l’IA « d’outil de conquête impérialiste puisqu’elle est éduquée aux normes d’un pays, en l’occurrence les États-Unis majoritairement ».

Ces biais se sont observés ces dernières années avec des exemples peu reluisants. En 2015, par exemple, les algorithmes de reconnaissance faciale de Google Photos avaient labellisé un homme noir avec l’étiquette « gorille », tout simplement parce que les systèmes avaient été majoritairement entraînés à reconnaître des personnes à la peau blanche. Plus récemment, en juillet 2022, OpenAI se félicitait des progrès faits par Dall-E (son IA de génération d’image) pour inclure « des personnes d’origines diverses », avouant à demi-mot que jusque là son logiciel générait des images très stéréotypées.

Le prompt « une photo de PDG » avant et après la « correction » opérée par OpenAI. © OpenAI
Le prompt « une photo de PDG » avant et après la « correction » opérée par OpenAI. © OpenAI

Les IA ne sont pas exemptes de biais, qu’ils soient culturels, racistes ou sexistes, puisqu’elles sont entraînées par des personnes elles-mêmes porteuses de biais. Des initiatives, comme celle du Laboratoire de l’Égalité, tentent cependant de corriger le tir en fournissant des bases de données plus représentatives de la diversité humaine.

2 — L’IA est universelle

Quand on se met à discuter avec ChatGPT, il est compliqué de le prendre en défaut sur sa connaissance des œuvres culturelles occidentales majeures. À tel point qu’on pourrait croire que le robot a tout lu, tout vu, qu’il parle toutes les langues et à une connaissance universelle du monde et de ses symboles. Sauf que… pas vraiment.

« En Chine, certaines ethnies minoritaires sont complètement absentes des données utilisées par les IA », expliquait Chen Qiufan, écrivain de science-fiction ayant travaillé pour Google et Baidu en Chine, lors des Utopiales 2023. « Quid des populations qui ne produisent aucune donnée numérique ? » enchaîne l’auteur.

Le problème est le même que pour les biais. Des IA qui n’ont pas de données à se mettre sous la dent ne pourront jamais comprendre le fonctionnement de certaines parties du monde, tout simplement car ces dernières ne produisent pas de traces numériques ingérables par les machines. Et cela ne s’arrête pas là, vient aussi la barrière de la langue.

« L’anglais est la langue prédominante dans le corpus, avec une grande majorité des données textuelles provenant de sources en anglais » avoue ChatGPT lui-même lorsqu’il est interrogé sur le sujet. D’après certaines études, la base de données utilisées par ChatGPT 3 est constituée à 93% de texte en langue anglaise. Le robot sait structurer des phrases dans tout un tas de langue grâce à un apprentissage multilingue, mais la machine « réfléchit » d’abord et avant tout en anglais et cela impacte mécaniquement sa perception de la réalité.

3 — L’IA est transparente

Plus perturbant encore que les biais qui peuvent changer la perception des IA, la façon de réfléchir de ces outils est loin d’être transparente. Contrairement à un programme informatique « classique » qui obéit à un code source (ouvert ou non) écrit par des humains, les IA « créent » en quelque sorte leurs propres raccourcis de pensée et de fonctionnement, que les développeurs derrière le logiciel eux-mêmes ne maîtrisent pas. C’est pour cela que ces machines sont souvent qualifiées de « boîtes noires ».

Avec les IA, on comprend ce qui rentre, mais pas toujours ce qui sort © Pdusit / Shutterstock
Avec les IA, on comprend ce qui rentre, mais pas toujours ce qui sort © Pdusit / Shutterstock

Ces comportements peuvent s’observer dans des situations anodines, comme quand l’IA de DeepMind commençait une partie de Go par un coup que personne ne parvenait complètement à expliquer… avant de gagner quelques manches plus tard, mais aussi dans des situations plus compliquées, comme quand des IA prennent des décisions peu éthiques sur les marchés financiers.

« On ne peut pas faire expliciter clairement à une IA les raisons pour lesquelles elle arrive à une conclusion », explique Sylvie Lainé, ingénieure en informatique et autrice. « Quand l’IA commencera à prendre en charge des questions de gestion, d’aide à la décision dans des domaines stratégiques, politiques, écologiques ou autres, ça posera de gros problèmes », continue la professeur en sciences de l’information à l’Université Jean-Moulin de Lyon. Le problème peut d’ailleurs se situer encore plus en amont selon elle : « les IA fonctionnent vers un objectif décidé par une personne ou un groupe de personnes qui n’ont pas forcément les motivations les plus transparentes. »

Face à ce problème, Raphaël Granier de Cassagnac estime « qu’on a besoin d’IA qui sont capables de citer leurs sources », voire même « de pouvoir choisir le corpus sur lequel une IA s’entraîne. »

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Corentin Béchade

Journaliste depuis quasiment 10 ans, j’ai écumé le secteur de la tech et du numérique depuis mes tout premiers chapôs. Bidouilleur (beaucoup), libriste (un peu), j’ai développé une spécialisation sur...

Lire d'autres articles

Journaliste depuis quasiment 10 ans, j’ai écumé le secteur de la tech et du numérique depuis mes tout premiers chapôs. Bidouilleur (beaucoup), libriste (un peu), j’ai développé une spécialisation sur les thèmes de l’écologie et du numérique ainsi que sur la protection de la vie privée. Le week-end je torture des Raspberry Pi à grands coups de commandes 'sudo' pour me détendre.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (15)

Francis7
Là où l’IA devient inutile voire dangereuse, c’est quand on lui demande quelque chose en rapport avec l’avenir : de prédire l’avenir.<br /> On ne peut pas demander à une IA si le Dollar va rester stable ou lui demander de prendre des décisions sur les marchés financiers, pour les exemples cités.<br /> Ce n’est pas comme un jeu d’échecs sur ordinateur qui peut prédire les coups suivants d’une case à une autre à partir de sa base de donnée. Tout ce qui est humain est beaucoup plus compliqué.
Squeak
Il faut juste arrêter de croire tout et n’importe quoi à propos de l’IA, ce n’est pas la panacée, ce ne sont que des algorithmes qui ne feront que faire ce qu’on a demandé de faire. Si un modèle n’a jamais été entraîné avec une image d’un chat, il sera incapable de savoir à quoi ressemble un chat tout simplement.<br /> La machine a pour principal avantage la capacité de traitement absolument phénoménale par rapport au cerveau humain, et non le jugement ou d’autres capacités à ressentir des émotions (je serai bien tenté d’ajouter «&nbsp;pour le moment&nbsp;» vu la vitesse où ça évolue).
Cynian90
@Squeak Quelle différence entre «&nbsp;capacité de traitement&nbsp;» et le jugement ?<br /> Et en prime, est-il nécessaire de ressentir des émotions pour émettre un bon jugement ?
F4FEnder
En même temps. Les humains sont également<br /> incapable de dessiner un chat s’ils n’en n’ont jamais vu. Il n’y a qu’à regarder les illustrations du moyen âge avec des lions ou des éléphants pour s’en rendre compte. Pourtant ils avaient lu des descriptions.
F4FEnder
Ce qui me dérange le plus c’est la façon où elle est entraînée.<br /> Demandez à dall-e de représenter une femme et il vous représente une femme de 18 à 20 ans de 1m70 pour 50kg généralement très belle, type magazine.<br /> Si tout est basé dans ce style c’est perturbant.
bizbiz
Quand une I.A. commencera à poser une question autre que «&nbsp;Comment puis-je vous aider aujourd’hui ?&nbsp;» , je pense que ce sera à nous de commencer à nous poser des questions.
Cynian90
Le cerveau humain semble faire la même chose quand il condense des exemples d’êtres humains en un prototype, une partie de la beauté semble provenir de la distance avec ce prototype.
Thorbald
La meme chose peut-etre dit d’un etre humain cela etant. Ca n’empache pas beaucoup de personnes de faire du previsionel sur le futur.
Squeak
Capacité de traitement pour moi : c’est la vitesse à laquelle une machine peut emmagasiner des informations, faire des liens entre-elles etc. Une IA peut absorber le contenu de dizaines de livres en quelques secondes et pourrait les résumer, créer d’autres histoires similaires, «&nbsp;inventer&nbsp;» de nouveaux personnages. Mais l’IA ne sait pas juger si le résultat qu’elle fournit est bien ou mal. Ce qui pourrait être dangereux et immoral.<br /> J’imagine qu’il existe déjà sur des sites underground des modèles d’IA entraînés avec des choses immorales, et donc pouvant produire des contenus vraiment trash. Et ça, c’est inquiétant.<br /> Il conviendra toujours à l’humain de contrôler l’IA pour éviter des dérives.
alinbilay9
Plus aucun humain ne peut battre un ordinateur aux échecs .Nous ne sommes que des robots biologiques avec des capacités limitées , rien de plus .<br /> Il y a plusieurs sortes de futur ,court-terme jusqu’à long terme .T<br /> out dépend de quoi on parle .<br /> D’ailleurs qui peut savoir si cet article a bien été rédigé par un humain ou par une AI ?
Cynian90
À mon avis, le contenu trash n’est pas un problème en soi, c’est comme maintenant, le contenu trash existe, mais tous les sites qu’on fréquente en général sont modérés.
SPH
Skynet prendra le contrôle des machines en 2024
Roger_Pimpon
Ne faut il pas considérer tout de même la variable économique, celle qui dicte en définitif à peu près tout. Si l’I.A est force de proposition à faible coût (capable de traiter un corpus énorme de données en un temps record comme aucun être humain … et surtout pour un coût ridicule par rapport à l’humain), il sera très tentant de retenir les propositions I.A dans une prise de décision. Parce que dans beaucoup de cas, la vitesse est primordiale. La course à la vitesse peut s’avérer celle première qu’il faut gagner pour remporter une compétition économique. Et que ces propositions ne soient pas parfaites (ici au sens optimales économiquement car par exemple tout ce qui relève de la déontologie … si gain avéré, on sait bien que l’humain s’assoit très vite dessus) n’est même pas vraiment à considérer (d’ailleurs il très difficile d’évaluer la portée réelle d’une décision à partir d’un certain niveau). Les humains ne prennent pas des décisions optimales, loin de là. Les prises de décisions sont très souvent réalisées par des groupes des personnes hors sol, qui n’ont du problème traité qu’une vision synthétique et biaisée, produite par les différentes couches de reporting. Il ne me semble pas déraisonnable d’envisager que l’I.A puisse, outre nous conditionner par production massive de données/informations biaisées, «&nbsp;indirectement&nbsp;» (le décideur aura l’illusion de la décision) commander aux humains à l’avenir. Et c’est une vision absolument effrayante.
philouze
"Là où l’IA devient inutile voire dangereuse, c’est quand on lui demande quelque chose en rapport avec l’avenir : de prédire l’avenir.<br /> On ne peut pas demander à une IA si le Dollar va rester stable ou lui demander de prendre des décisions sur les marchés financiers, pour les exemples cités."<br /> Je ne vois pas pourquoi tu lâches précisément ça ?!<br /> C’est au contraire dans ces logiques «&nbsp;floues&nbsp;» qu’elle est très bonne, sout le concept est justement dans le fait de deviner «&nbsp;la suite d’une proposition&nbsp;» par reconnaissance de schémas ( le T «&nbsp;transformers&nbsp;» de chat GPT)<br /> Et justement, ça fait un moment qu’on a déjo des IA qui aident voir qui jouent massivement en bourse car elles «&nbsp;voient&nbsp;» bien mieux que nous les tendances, les cycles etc.
philouze
«&nbsp;Et c’est une vision absolument effrayante.&nbsp;»<br /> Et si au contraire, c’était une vision rassurante ?<br /> Musk a toutes les peines du monde à empêcher une IA d’être «&nbsp;de gauche&nbsp;», lui qui voulait du réac et du droitardé primaire à l’américaine, achoppe sur le fait que les données «&nbsp;fiables&nbsp;» sont issues du monde de la recherche, et elle plaident rarement pour une vision réactionnaire sociétalement.<br /> des mesures récentes ont donné l’IA systématiquement plus empathique que les toubibs humains dans les essais de diagnostics (en plus du fait que GPT 4.5 s’est montré plus précis qu’eux )<br /> Par sa capacité à ne PAS avoir à travailler avec des données résumées et partielles, on a aussi de grande chances que les décisions politiques de IA, non influencées par nos biais, soient bien plus pertinentes que les nôtres dans absolument tous les domaines.<br /> L’IA ne va pas se contenter d’être meilleure pour jouer aux échecs, elle va l’être dans tous les domaines y compris ceux de la décision, c’est une simple question de temps.
Roger_Pimpon
Le «&nbsp;meilleur&nbsp;» lorsqu’on investie le champs infiniment complexe de l’humain, est quasi impossible à définir (déjà parce que souvent, mieux pour l’un, c’est moins pour l’autre). A un certain niveau de décision, il est impossible objectivement de pointer une décision comme la meilleure (on le fait souvent après coup, une fois l’histoire écrite, en réduisant tout à trois quatre causes et effets (on ramène le complexité du réel à notre petit niveau humain. Alors qu’un grain de poussière aurait pu transformer cette excellente décision en erreur absolue).<br /> L’homme est assurément plein de biais. Mais l’I.A l’est et le sera tout autant (comme vous le pointer sur le sujet de l’I.A de gauche). En revanche les biais de l’homme sont parfois bien identifiables, peuvent être pris compte (par exemple lorsqu’on constitue un jury), voir être corrigé. L’I.A est une boite «&nbsp;bien plus&nbsp;» noire, dont il est hasardeux et difficile d’infléchir les biais (énorme masse de données indéfinies =&gt; grosse inertie).<br /> Le meilleur n’est pas nécessairement le mieux.<br /> Oui je vous rejoint sur un point : on peut raisonnablement penser que l’I.A traitant plus de données, peut approcher des solutions efficaces dans tous les domaines.<br /> Mais avoir le pouvoir de décision est fondamentale pour l’humain, une des premières choses pour lequel l’humain se bat (toute l’histoire de l’humanité raconte ce combat de l’homme pour obtenir le pouvoir de décision). L’individu se bat pour être chef (et je pense en premier lieu pas pour exercer son pouvoir sur les autres, mais pour s’affranchir du pouvoir des autres. C’est le second point la motivation première, essentielle).<br /> Un travail pour lequel on vous ôte tout pouvoir de décision devient tout de suite une tâche purement aliénante (un préparateur de commande, boulot de merde, était tout de même une tâche moins aliénante quand vous n’étiez pas piloté par un algo. Dans les interstices, l’humain pouvait y glisser une part de décision).<br /> Une des raisons pour lesquelles l’homme joue, y trouve de l’apaisement, est justement que le jeu lui donne le pouvoir de décision. Qu’il peut l’exercer à volonté<br /> Et là on devrait se réjouir de renoncer au pouvoir de décision au profit d’une entité qu’on placerait donc au dessus de nous (enfin, nous, la part des gueux, car ceux qui seront à la tête de ces I.A veilleront eux bien à conserver leur position. Hors à perdre le contrôle de leur monstre).<br /> La force de l’I.A devrait être circonscrite à des domaines très précis, strictement délimités, où le gain serait à ce point indiscutable qu’il prévaudrait sur le renoncement au pouvoir de décision.<br /> Hors la course étant lancée, l’I.A étant aux mains d’entrepreneur privées, qui petits humains, sont pilotés par des intérêts personnels et médiocres se résumant bien souvent à un enrichissement maximal, c’est tout le contraire que se dessine.
philouze
Je peux te la proposer autrement :<br /> Si ton IA a toujours «&nbsp;plus raison que toi&nbsp;» dans absolument tous les domaines connus, et ce sera le cas à terme, si tu veux garder la décision, tu peux, c’est toi qui donnera le «&nbsp;Go&nbsp;»<br /> Mais c’est bien l’IA qui<br /> t’auras proposé les options les plus pertinentes, elles mêmes classées par ordre de pertinence<br /> t’auras expliqué pour chacune d’entre elles causes et conséquences de la décision<br /> aura pu prendre en compte, pour chacune d’entres elles, un nombre bien supérieure de critères, et leur avoir donné une pondération que peu d’hommes pourraient faire<br /> au final, 9.999x sur 10, si tu veux absolument décider, tu te borneras probablement à superviser et valider la décision d’une IA.<br /> ET je ne suis pas vraiment d’accord avec ton premier paragraphe, tu traduis ici NOS limitations, mais si l’IA gagne déjà en bourse comme au jeu de go, c’est précisément qu’elle a moins de biais.<br /> Bien sûr qu’elle en a,<br /> surtout si ses sources de données sont elles mêmes biaisées, mais plus on va l’alimenter en sources fiables et relues par les pairs, plus ses décisions dans un domaine précis seront celles d’une sorte de super-expert/chercheur de ce domaine, donc sans/moins de «&nbsp;parasitisme&nbsp;» permanent de nos idéologies.<br /> Une IA, surtout si on imagine une IA-G, pourra être «&nbsp;câblée&nbsp;» par une éthique utilitariste et des lois bayésiennes qui seront toujours plus «&nbsp;humanistes&nbsp;» et justes que ce qu’un humain lambda proposera.<br /> Et ce sera AMHO, après la claque Dall-E / MidJourney puis Chat-GPT, la prochaine grosse blessure narcissique de l’humain .<br /> et franchement, tant mieux !<br /> nous sommes de mauvais empathes, nous sommes souvent injustes, nous refusons souvent d’admettre des datas qui contreviennent à nos idéologies - pas la machine si elle est spécifiquement câblée pour ça.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet