Sommes-nous face au nouveau mal du siècle ? La dépendance cognitive qu'entretiennent les plus jeunes avec les chatbots les enferment dans un confort intellectuel toxique où la contradiction n'existe plus. Pourquoi continuer à apprendre quand les perroquets de Google et OpenAI savent déjà tout ? La réponse cinglante d'une étude menée dans des dizaines de pays.

Trois ans et des poussières. C’est le temps qu’il aura fallu pour que la boîte de Pandore, ouverte un soir de novembre 2022 par OpenAI en lançant ChatGPT sur le marché, ne vienne ébranler les fondements de notre système éducatif. Les professeurs utilisent l'IA pour les aider dans leurs tâches, et cette technologie est aujourd'hui intégrée et encadrée au sein même de l'Éducation nationale depuis cette année. En effet, depuis la rentrée 2025, collégiens et lycéens français sont dans l'obligation de suivre des sessions obligatoires d'enseignement à l'IA, en partenariat avec les enseignants. Selon les mots d'Élisabeth Borne, alors ministre de l'Éducation nationale à ce moment là, comme il s'agit d'« une révolution déjà en marche qui bouleverse tout », il ne fallait pas rater le coche.
S'il semble difficile aujourd'hui de revenir sur cette décision puisque nous avons déjà marché trop loin dans le tunnel, une gigantesque étude menée par la prestigieuse Brookings Institution, vient vient porter l'estocade à cette vision béate de la modernité. Portant sur 50 pays et analysant l'usage de milliers d'élèves (de la maternelle à la terminale), elle conclut avec amertume : nous avons offert des béquilles à des enfants qui n'avaient pas encore fini d'apprendre à marcher.
Ce rapport, qualifié par ses auteurs de « premortem » (autopsie préventive réalisée avant que le désastre ne soit consommé, afin d'identifier les causes d'un échec que l'on peut encore éviter) brosse un portrait au vitriol de l'IA, qui, selon eux, atrophie déjà l'intellect de nos enfants. Jamais une génération n'avait eu autant accès au savoir tout en étant aussi incapable de le produire par elle-même : à force de chercher le chemin le moins cahoteux, nous nous sommes peut-être égarés en route.
L’IA sycophante : le doudou numérique qui empêche nos enfants de grandir
En intégrant ces outils dans les cursus, nous avons ouvert la porte à ce que les chercheurs appellent une « boucle de la fatalité » (doom loop) de la dépendance. Plus un éléve déléguera sa pensée et son raisonnement à l'IA, plus son habilté à analyser s'étiole, rendant l'usage de la machine indispensable pour compenser ce qu'il ne comprend pas.
Sur le terrain, le ressenti des premiers concernés est dévastateur vu de l'extérieur. « C’est facile. Tu n’as plus besoin d’utiliser ton cerveau », lâche un élève interrogé pour le rapport. D'aucun diront que, par le passé, nous avons aussi connu des délégations cognitives. Combien se sont insurgés face à l'arrivée de la calculette dans les écoles ? Ou encore des correcteurs orthographiques intégrés à Microsoft Word et autres logiciels d'édition de texte, qui ont forcément facilité le travail des élèves à la maison.
Ne confondons pas tout : en comparant des technologies qui n'ont rien à voir entre elles, nous établissons des fausses équivalences. Les exemples cités sont des outils d'extension et non de substitution, puisque c'est bien ce qu'est l'IA, qui, elle, s'approprie la fonction exécutive. Générant le fond en polissant la forme, elle évite au passage aux élèves l'effort de synthèse et de réflexion nécessaire aux élèves pour structurer leur pensée.
Pour Rebecca Winthrop, directrice de recherche chez Brookings, c'est de la pensée en kit : « Quand les gamins utilisent une IA générative qui leur livre la réponse sur un plateau, ils cessent de réfléchir par eux-mêmes. Ils n’apprennent plus à démêler le vrai du faux. Ils n’apprennent plus à construire un raisonnement solide, ni à s'ouvrir à d'autres points de vue, puisqu'en réalité, ils ne s'emparent plus du sujet ».
Par nature, les chatbots sont flatteurs et un modèle d'IA est programmé par défaut pour plaire et ne jamais heurter son interlocuteur. Il validera (avec quelques limites toutefois) les opinions de l'élève, là où un enseignant ou un camarade de classe apporterait la contradiction nécessaire à la forge du caractère.
C'est une forme d'absolutisme de la docilité qui castre l’esprit critique pour lui substituer une satisfaction utilisateur de court terme. Or, comme l'écrivait très justement Blaise Cendrars dans son ouvrage Bourlinguer en 1948 : « On ne vit pas dans l'absolu. Nul homme n'est coulé d'une seule pièce. Même un robot connaît la panne. Sans contradictions il n'y a pas de vie ». Un esprit qui ne connaît jamais la panne que redoutait Cendrars, finit par s'évaporer dans une autosatisfaction stérile, prisonnier d'une bulle de verre où seule sa propre voix, amplifiée par le bot, lui revient sans jamais être contestée. L'absence de turbulences dans le processus d'apprentissage est le pire ennemi qui soit, et à force de donner systématiquement raison à l'élève pour maximiser son engagement, les algorithmes lui ôtent son droit le plus fondamental : celui d'être bousculé par la vie et de grandir à travers ses propres paradoxes.

L’apartheid de la vérité : l’illusion du savoir pour tous
L'autre revers de la médaille, non moins cruel, mis en lumière par ce rapport, c'est que pour la première fois dans l'histoire des technologies éducatives, la fiabilité de l'information tend à devenir un produit premium. En France, le ministère pousse fortement l'utilisation d'outils souverains français et européens (comme ceux basés sur Mistral AI) intégrés dans des environnements sécurisés (ENT). Toutefois, les professeurs peuvent tout à fait utiliser des IA grand public (comme ChatGPT ou Gemini) pour préparer leurs supports, à condition de ne jamais y saisir de données personnelles d'élèves.
À l'échelle macroéconomique mondiale, en revanche, une nouvelle fracture sociale se creuse. « Nous savons que les communautés et les écoles les plus riches auront les moyens de s'offrir les modèles d'IA les plus sophistiqués. Cela signifie que […] les établissements vont devoir payer plus cher pour obtenir une information plus exacte. Et cela pénalise de plein fouet les écoles qui manquent de ressources ».
Les élèves issus de l'élite de la société pourront donc compter sur des tuteurs numériques de luxe, quand les autres, étudiant dans des établissements sous-financés, n'auront accès qu'à des modèles gratuits, truffés de biais et d'hallucinations.
Certains tiqueront peut-être quant à l'usage du mot « apartheid », mais une fois vidé de sa lourde substance historique, c'est un terme provenant de l'afrikaans signifiant « le fait d'être à part ». À cet égard, le terme a ici toute sa place : il décrit l'avénement d'une ségrégation technologique qui monnaye la frontière entre le vrai et le vraisemblable.
Si nous continuons à avancer ainsi à bride abattue, nous acceptons que le marché du privé et les Big Tech soient les seuls arbitres de la vérité. Sans régulations encore plus contraignantes que l'AI Act et autres cadres du même acabit, nous acceptons de facto que la souveraineté intellectuelle de nos enfants soit bradée aux intérêts boursiers de la Silicon Valley. Tout espoir n'est peut-être pas enterré, mais avouons tout de même que la machine s'est emballée bien trop vite pour que nos garde-fous éthiques ne soient autre chose que de dérisoires coups de frein dans le vide. C'est l'un des principes même du technoptimisme : pourquoi apprendre à pêcher quand une machine peut vous lâcher un poisson (parfois un peu rance, certes) directement dans la bouche ?
Source : NPR