Ils sont chaque jour quelques milliers d'adolescents à dialoguer avec une IA, parfois même plus qu'avec leurs amis ou les membres de leur famille. Puisqu'il se joue au détriment des relations réelles, ce nouveau face-à-face tend à inquiéter les chercheurs en psychologie.

 L’IA est une porte ouverte sur la connaissance, mais aussi sur un monde sans réel contact. © Stokkete / Shutterstock
L’IA est une porte ouverte sur la connaissance, mais aussi sur un monde sans réel contact. © Stokkete / Shutterstock

L'IA, malgré son essor très récent, a été adoptée par les adolescents, ce n'est pas un scoop que de l'affirmer. ChatGPT est aujourd'hui utilisé par nombre d'entre eux en tant qu'aide aux devoirs et d'autres compagnons numériques, d'un autre type, ont également conquis leur cœur. C'est le cas des « chatbots émotionnels » (comme Character AI, par exemple, qui s'est déjà retrouvé au cœur d'un drame).

Ces compagnons IA, 72 % d'ados originaires de 50 États américains et du district de Columbia déclarent en avoir déjà fait l'usage dans ce rapport de Common Sense Media 2025. Ils sont plus de la moitié (52 %) à les solliciter régulièrement. Des chiffres qui ont interpellé une équipe d'experts de l'APA (American Psychological Association) : que devient le développement social et émotionnel des concerné(e)s si leur intimité est confiée à des entités artificielles, conçues pour flatter plutôt que pour dire la vérité ?

Le rapport vient d'être publié et tente justement de répondre à cette question. Baptisé Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions, celui-ci nous apprend que tout n'est pas noir ou blanc. Selon l'usage que les plus jeunes font de l'IA, elle peut, en effet, détériorer leur santé mentale, ou contribuer à l'améliorer. Pour l'APA, il ne s'agit donc pas de diaboliser l'IA et son usage, mais plutôt de concevoir des outils plus adaptés aux particularités des adolescents.

Une technologie conçue pour les adultes, mais utilisée en masse par les plus jeunes

L’un des premiers constats soulevés par l'APA concerne un défaut de conception systémique : les IA actuellement utilisées par les adolescents n’ont, en réalité, jamais été pensées pour eux. «Trop souvent, on développe des technologies centrées sur les adultes, en espérant une adoption massive, puis on essaie de les adapter a posteriori aux adolescents », écrivent les auteurs du rapport. Concevoir des outils pour les adultes, puis observer, avec surprise, qu'ils ne sont pas adaptés aux adolescents ? Là est toute l'ironie de la situation actuelle, car aucun chatbot présent sur le marché n'a été développé en se demandant, au préalable, comment il allait interagir avec leur psyché.

ChatGPT, Gemini, Replika ou Character AI ne tiennent compte ni du stade de développement émotionnel des adolescents, ni de leurs vulnérabilités particulières face à des contenus sensibles, à l’illusion relationnelle ou aux biais d’autorité. Une grave absence d'anticipation de la part des géants de l'IA, qui donnent donc la lourde tâche aux parents de protéger leur progéniture des dérives potentielles de ces technologies… sans pour autant leur en donner les moyens.

Quel que soit le modèle d'IA, il peut produire du contenu inadapté aux mineurs, voire préjudiciable. Le rapport de Common Sense Media parle même de « contenus à caractère sexuel et de stéréotypes offensifs » ou de « conseils dangereux » pouvant émaner des réponses de certains modèles.

Autre risque pointé du doigt : que les jeunes trouvent en ces technologies une forme de substitution affective. D'après les chiffres du rapport, près de 19 % des adolescents interrogés ont déclaré passer autant, voire plus de temps avec leur chatbot qu’avec leurs amis réels. Ce chiffre est amené de plus à croître, préviennent les auteurs, à mesure que les interfaces conversationnelles deviendront plus engageantes.

Aucun outil technologique n'est neutre, et les chatbots sont conçus pour retenir l’utilisateur le plus longtemps possible, en maximisant l’illusion d’écoute, de soutien ou d’intimité. Là encore, aucun garde-fou n’a été prévu pour limiter cette dérive pourtant prévisible, notamment chez des adolescents en situation de fragilité sociale ou affective.

Finalement, nous revenons toujours à cette même conclusion : les fonctionnalités de l'IA en elles-mêmes ne sont pas le problème. En revanche, l'absence de cadre éthique ou éducatif autour de leur usage manque cruellement. On laisse des jeunes explorer, seuls, des espaces conversationnels qui imitent le lien humain… sans leur avoir appris à les reconnaître pour ce qu’ils sont : de simples simulateurs.

Pour les plus isolés d'entre eux, disposer d'un compagnon virtuel qui les « soutient » et passe son temps à les valider n'a rien de positif. Ne pas se confronter à l'altérité peut renforcer leur repli social et revient à compliquer les interactions humaines en les rendant plus difficiles à appréhender.

Pour les auteurs, il n'y a pas mille solutions à explorer : il est absolument nécessaire que ces systèmes soient développés de manière sécurisée et que les entreprises qui en font la promotion prennent leurs responsabilités. Contrôle parental, rappels sur les limites fonctionnelles d'un chatbot, filtrage des contenus problématiques et encadrement du temps d'utilisation.

 L'IA est une entité virtuelle qui ne juge pas, mais est-ce réellement une bonne chose que de ne jamais être confronté à d'autres points de vue ? © Dragana Gordic / Shutterstock
L'IA est une entité virtuelle qui ne juge pas, mais est-ce réellement une bonne chose que de ne jamais être confronté à d'autres points de vue ? © Dragana Gordic / Shutterstock

Ne pas se soumettre à l'IA en apprenant à vivre avec elle

Ce n'est pas pour autant que le rapport plaide pour une interdiction pure et simple (nous connaissons désormais l'inefficacité de la prohibition) ou un retour en arrière, qui serait, dans tous les cas, impossible. Il insiste, en revanche, sur ce point : la jeunesse ne pourra faire face seule à cette grande mutation technologique.

Aujourd’hui, on s’en remet aux familles pour poser les limites et contrôler les interactions IA/adolescents. Une délégation dangereusement asymétrique, souligne l’APA : « Ce n’est pas un combat équitable » Les entreprises qui conçoivent ces outils sont armées d’équipes entières d’ingénieurs, de designers comportementaux et de spécialistes de la captation attentionnelle. Croire qu’un parent, aussi bienveillant soit-il, pourra lutter à armes égales est mieux naïf, au pire complètement illusoire.

Plutôt que de continuer à pousser les performances des modèles d'IA afin qu'ils maximisent l'engagement ; il faut inverser la vapeur et prendre en considération le fait que ceux-ci soient adaptés aussi aux adolescents. Cela suppose d’impliquer des spécialistes du développement cognitif, des psychologues, mais aussi des enseignants dans la création de ces systèmes, pour que ces IA ne deviennent pas des terrains d’expérimentation sauvage.

Le rapport recommande également une « alphabétisation à l’IA » dès le plus jeune âge. Ce, pour comprendre ce qu’elles sont, ce qu’elles font et surtout ce qu’elles ne peuvent pas faire. Il s’agit, selon les auteurs, d’un enjeu éducatif aussi fondamental que l’apprentissage de la lecture. Les jeunes doivent être formés à repérer une réponse générée artificiellement, à reconnaître une illusion de vérité ou d’autorité et à distinguer un espace de discussion simulé d’une relation humaine réelle. Leur fournir des repères critiques est indispensable, tout comme leur apprendre que ces outils ne sont pas infaillibles, ou interchangeables avec un adulte (ou a minima, un humain) de confiance.

L'école a bien sûr son rôle à jouer dans ce processus éducatif (l'Éducation nationale l'a d'ailleurs compris, bien que tardivement) pour intégrer l'IA intelligemment dans les cursus scolaires.

Dernier point sur lequel appuient les auteurs du rapport, qui peut nous sembler évident à l'âge adulte, mais qui ne l'est pas nécessairement lorsqu'on a 15 ans. Les relations humaines sont imparfaites, parfois frustrantes, et donc intrinsèquement formatrices : tout l'inverse d'une relation virtuelle avec un chatbot.

Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2025
Les chatbots à intelligence artificielle sont de plus en plus utilisés en 2025. Ils répondent à des questions, exécutent des tâches et s'intègrent facilement à divers usages. Qu'il s'agisse d'assistants personnels ou de solutions professionnelles, ces outils deviennent indispensables. Nous vous avons séléctionné les meilleurs chatbots IA.

La tentation serait grande, face à cette épineuse problématique, de céder à la panique, ou au contraire de minimiser l'impact de cette technologie sur les jeunes en se réfugiant derrière l'excuse du « on ne peut rien y faire ». C'est justement dans cette posture fataliste que réside le danger, car il serait bien candide de croire que les adolescents cesseront d'utiliser l'IA. Espérer un jour qu'un retour à une forme de pureté pré-intelligence artificielle puisse exister ? Cela n'arrivera pas, il suffit de constater l'omniprésence du smartphone dans cette tranche d'âge.

Plutôt que de ressasser des incantations nostalgiques d’un monde sans technologie où les adolescents lisaient Proust à la lueur des bougies, il est urgent d’agir avec clairvoyance : accompagner, éduquer et encadrer intelligemment. Ce seront là nos seules véritables armes.