ChatGPT : à l'approche du Bac, l'incessant jeu du chat et de la souris entre les professeurs et les élèves

Samir Rahmoune
Publié le 07 juin 2024 à 11h07
L'application ChatGPT affiché sur le Google Play © Alexandre Boero / Clubic
L'application ChatGPT affiché sur le Google Play © Alexandre Boero / Clubic

ChatGPT est devenu un outil extrêmement utilisé par les élèves pour effectuer leurs devoirs. Mais si l'IA peut bien aider à la triche, elle est tout de même encore loin d'être parfaite !

Quand le chatbot d'OpenAI est devenu, dès les premiers mois de l'année 2023, un outil à la popularité incroyable dans le monde, nombreuses ont été les personnes à s'inquiéter des potentiels dommages que pouvait poser l'IA. Parmi les dangers listés, celui que les élèves fassent dorénavant faire leurs devoirs aux IA, et n'apprennent ainsi plus rien chez eux. Mais si c'est malheureusement désormais un peu trop souvent le cas, l'intelligence artificielle peut tout de même être repérée grâce à un certain nombre de défauts !

1 étudiant sur 2 utilise ChatGPT

L'IA est maintenant un outil utilisé par de nombreux Français au quotidien. Et parmi eux, on retrouve bien évidemment les étudiants, qui bénéficient avec le chatbot d'une intelligence pouvant faire le travail à leur place.

55% des étudiants explique ainsi faire un usage plus ou moins régulier de ChatGPT, moins de deux ans après la mise sur le marché de l'IA générative. Un problème dont sont parfaitement conscients les professeurs. « Un professeur suspecte toujours, désormais, qu'il y a ChatGPT derrière un devoir maison » a ainsi indiqué un professeur d'Histoire-Géographie au journal Le Figaro.

© Alexandre Boero / Clubic
© Alexandre Boero / Clubic

ChatGPT, le chatbot à l'ancienne

Pourtant, même si le chatbot mâche un peu trop le travail des élèves, il est encore loin de pouvoir se faire passer pour un être humain, qui écrirait ses devoirs avec son propre style. L'IA a ainsi un certain nombre de biais, qu'on pourrait même appeler des « tics », qui la trahissent. Et le premier d'entre eux tient à son vocabulaire bien spécifique.

En effet, les entreprises qui entraînent un modèle de langage – destiné à alimenter une IA - ont besoin d'une quantité de données extrêmement élevée. Elles ont donc tendance à utiliser le plus possible les données libres de droits, qui sont souvent les textes les plus anciens. Un outil comme ChatGPT a ainsi plus tendance que la moyenne à utiliser des mots désuets, qui peuvent détonner dans les copies d'élèves s'exprimant très différemment à l'oral.

Un style lourd, et trop régulier

Mais plus encore qu'un lexique d'Académicien du XVIIIe siècle, c'est le style très particulier des textes de ChatGPT qui le trahit. Au premier abord, les phrases semblent bien connectées entre elles, tout du moins logiquement. Mais au-delà d'un paragraphe, la manière de s'exprimer de l'IA ayant tendance à être constamment la même, c'est la lourdeur de la prose qui saute alors aux yeux.

Pour le meilleur, et souvent pour le pire, ChatGPT a en effet du mal à allonger les phrases, avec de multiples virgules, voire des points virgules. L'IA est incapable de changer de rythme à la manière d'un être humain qui, en même temps qu'il restitue une idée, le fait en l'exprimant à sa façon, de manière plus ou moins adroite, avec une maîtrise plus ou moindre grande de la langue, et donc à travers des transformations de rythme qui illustrent les hauts et les bas de la personne qui réfléchit. En étant d'une régularité d'horloge dans son écriture, ChatGPT trahit ses origines artificielles.

© Tada Images / Shutterstock.com

L'élève ne sait pas, l'IA invente

Enfin, et c'est sûrement ce qui a été le plus documenté sur les problèmes de l'IA, c'est qu'elle peut tout simplement affabuler ! « Quand ChatGPT ne sait pas, il invente, ou bien parle d'autre chose. J'avais fait un test sur les Orientales de Victor Hugo, ChatGPT m'avait répondu des choses qui avaient trait au romantisme, mais de toute évidence ne connaissait pas ce recueil » raconte le même professeur.

Or, quand un élève lui ne sait pas, il a beaucoup plus tendance à tout bonnement sécher, et à passer outre la question, plutôt que de commencer à inventer, de manière quelques fois très sophistiquée, une réponse qui est pourtant totalement fausse. Et ça sera là peut-être une des meilleures manières de repérer le travail d'une IA : avoir des difficultés à simplement dire « je ne sais pas ».

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Le Figaro

Par Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Fodger

GPT : Générateur Pour les Télétubbies

Perte de l’esprit critique, perte du sens de la rercherche, perte de la capacité d’analyse, perte du sens de l’effort.

sebstein

ChatGPT est un outil (à utiliser comme tel), au même titre qu’une calculette ou un Bescherelle.
Il me semble qu’on interdit pas à un maçon d’utiliser une truelle, même s’il peut s’en sortir avec sa main…

sebstein

Mais plus encore qu’un lexique d’Académicien du XVIIIe siècle, c’est le style très particulier des textes de ChatGPT qui le trahit.

C’est promptable

Rainforce

BacGPT

nicgrover

Il est vrai que la truelle pourrait faire le travail toute seule. Exemple typique Chat GPT…

sebstein

D’où ChatGPT fait le travail seul ? Le prompt il tombe du ciel par intervention divine ?
Et quand bien même tu estimes que le prompt engineering n’est pas un travail en soi (ce qui est déjà très discutable), ChatGPT n’est pas sensé faire le travail seul (encore un fois, il faut tout lire : « est un outil (à utiliser comme tel) »). C’est une utilisation impropre. Tout comme utiliser une truelle pour poser du carrelage ne donnera pas les résultats escomptés…

SlashDot2k19

Au vu des progrès rapide des programmes d’IA, il me semble que ce n’est plus pertinent de demander des devoirs à la maison aux élèves /étudiants. La probabilité de triche est beaucoup trop élevée.

Mimi9

Chat-GPT a juste remplacé le grand frère, le père , la mère ( oups Parent 1 / 2 ) pour les devoirs maison…si les profs n’avaient pas de coef’ permettant de pondérer la note c’est qu’ils sont bien couillons ( naïfs )

Loposo

Perso j’ai vu hier copilot, une blague , la recherche d’une info sur la R5, ca marquait qu’elle était sortie en 72 en 2 versions dont 1 électrique,…

prompt engineering en bien on en invente des trucs
une calculette ne remplace pas la logique pour résoudre une solution (ok il y a des app maintenant) un dictionnaire permet d’avoir une définition, mais ne va pas écrire à sa place

Personnellement, l’IA oui , mais la, c’est perdre l’esprit critique des résultats qu’il va fournir. Je le vois au taff, les jeunes ingés qui sortent utilisent chatgpt pour des calculs, mais au final, loupe pleins de choses, car ça ne va pas prendre en compte un environnement, des possibles problèmes , maintenance, montage… bref tout d’un projet industriel

Fodger

La truelle reste une truelle, elle ne change pas ta perception du monde.
Il faut voir au delà, les problèmes soulevés par un tel outil sont nombreux.

ChatGPT si, c’est un outil certes mais approximatif, qui ne détient pas la vérité quand déjà beaucoup, et surtout les plus jeunes ne jurent que par ça.
C’est un générateur, un agrégateur de contenu et avant tout un outil de désinformation.