Des chercheurs du MIT, d'Oxford et de Carnegie Mellon ont fait travailler 1 222 personnes sur des problèmes de mathématiques et de compréhension de texte. Ceux qui ont eu accès à l'IA pendant une dizaine de minutes ont rendu plus de réponses fausses que les autres. Le résultat se répète sur trois échantillons distincts observés dans les mêmes conditions.

Une partie du panel a pu solliciter l'intelligence artificielle pendant ses exercices. L'autre s'est débrouillée seule. Les utilisateurs d'IA ont aussi abandonné plus vite face à la difficulté. La béquille numérique réveille une paresse intellectuelle que les auteurs comparent au comportement de la grenouille plongée dans une eau qui chauffe lentement.
Selon Daron Acemoglu, Prix Nobel d'économie 2024, l'IA améliore aujourd'hui la qualité des décisions prises par des personnes formées avant son déploiement. Mais elle « érode les incitations à l'apprentissage qui soutiennent la connaissance collective à long terme ». Sur la durée, le stock de savoirs détenus individuellement s'effondre.
Plus on fait confiance à l'IA, moins on vérifie
Microsoft Research et Carnegie Mellon ont interrogé 319 travailleurs du savoir à partir de 936 cas réels d'usage d'IA générative au bureau. Plus on fait confiance à la machine, moins on vérifie ce qu'elle produit. À l'inverse, plus on a confiance dans ses propres compétences, plus on garde un œil critique sur la sortie.
Les auteurs y voient une ironie de l'automatisation. Mécaniser les tâches routinières prive l'utilisateur des occasions ordinaires où il exercerait son jugement. Quand surgit un cas inattendu, les muscles cognitifs ont fondu. Désormais, le travailleur ne réfléchit plus au problème, mais vérifie, intègre et supervise la réponse livrée.
Les utilisateurs intensifs qui jonglent entre plusieurs outils d'IA commettent par ailleurs 39 % d'erreurs majeures supplémentaires, d'après une enquête du Boston Consulting Group conduite auprès de 1 488 professionnels américains. L'« AI Brain Fry » se manifeste par du brouillard cognitif et des maux de tête.

L'écart entre l'entraînement et le test, mesuré sur des lycéens
En 2024, des lycéens entraînés aux mathématiques avec ChatGPT ont résolu 48 % de problèmes corrects en plus que leurs camarades sans IA. Pourtant, au contrôle final sans assistance, ils ont obtenu 17 % de résultats en moins. Pendant l'entraînement, la machine produit la réponse. L'élève ne construit pas le chemin pour y arriver. Rien n'est encodé en mémoire.
Les chercheurs de l'Université de Pennsylvanie ont testé un troisième groupe avec une version modifiée de ChatGPT, paramétrée comme un tuteur qui livre des indices sans révéler la solution. Pendant l'entraînement, ces élèves ont résolu 127 % de problèmes en plus que ceux sans IA. Au test final pourtant, ils n'ont obtenu aucun gain par rapport au groupe non assisté.
En 2025, au MIT Media Lab, Nataliya Kosmyna a poussé la mesure jusqu'à l'électroencéphalogramme. Les utilisateurs de ChatGPT ont affiché l'engagement cérébral le plus faible sur 32 régions analysées, comparés à ceux qui rédigeaient avec Google ou seuls. Plus parlant encore, quand on leur demande de retravailler un essai sans l'outil, ils peinent à se souvenir de leur propre texte. Les ondes alpha et thêta, liées à la mémoire profonde, restent faibles chez eux. La tâche a été menée, mais rien n'a été intégré aux réseaux mémoriels.
Nataliya Kosmyna recommandait à l'époque de développer le cerveau « de manière analogique » avant toute exposition à l'IA, et d'apprendre à utiliser ces outils sans déléguer le travail mental qui construit les apprentissages.
Source : arxiv