Des universitaires peu scrupuleux auraient glissé des commentaires masqués dans leurs articles scientifiques, et ce, afin d'obtenir des retours positifs.

- Des chercheurs insèrent des commentaires cachés dans leurs articles pour influencer positivement l'évaluation par les pairs.
- Ces pratiques douteuses ont été découvertes sur Arxiv, impliquant des universitaires de 14 universités prestigieuses.
- Face à l'usage croissant de l'IA, l'intégrité scientifique est menacée par ces nouvelles méthodes peu éthiques.
Mais que se passe-t-il dans le milieu de la recherche ? Alors que les articles générés par l'IA sont de plus en plus nombreux dans Google Scholar, voici qu'un nouveau scandale remet en cause l'intégrité de certaines publications. Une nouvelle pratique douteuse vient, en effet, d'être mise en lumière : certains chercheurs insèrent des prompts IA dans leurs papiers pour influencer l'évaluation par les pairs. On vous explique.
Des instructions dissimulées au sein des papiers de recherche
Le quotidien Nikkei Asia a récemment partagé une nouvelle plutôt consternante : on aurait trouvé sur la plateforme en ligne Arxiv, qui permet aux chercheurs de déposer des pré-publications, pas moins de 17 articles contenant des prompts demandant à l'IA une bonne évaluation. Ces derniers sont généralement dissimulés en utilisant une police de très petite taille ou la couleur blanche.
Si certains commentaires se contentent de demander un « avis positif » à la technologie, d'autres vont plus loin et réclament des félicitations pour leurs « contributions marquantes, (leur) rigueur méthodologique et (le) caractère exceptionnel et novateur (de leurs écrits) ». Une pratique pas très honorable qui permettrait aux auteurs de faire valider plus facilement leurs articles.

Une réponse au laxisme de certains évaluateurs ?
Les fraudes concernent des articles en informatique et rédigés par des universitaires provenant d'établissements prestigieux comme l'Université Columbia aux États-Unis, l'Institut supérieur coréen des sciences et technologies (KAIST) en Corée du Sud ou encore l'Université Waseda au Japon. En tout 14 universités, localisées dans 8 pays différents, sont impliquées.
Interrogé par Nikkei Asia, un professeur de l'Université Waseda a tenté de justifier ces actions en estimant qu'il s'agissait d'un moyen pour rééquilibrer les choses. Face à l'avalanche de publications, certains évaluateurs s'en remettent, en effet, eux aussi à l'IA pour noter les articles. Cela est tout aussi problématique car l'usage de cette technologie pour analyser et noter les papiers est rigoureusement interdit par de nombreuses conférences.
On le sait, la compétition est rude dans le domaine de la recherche. Avec l'avènement de l'intelligence artificielle, ces pratiques sont vouées, hélas, à se multiplier. On espère toutefois que l'intégrité scientifique et l'éthique ne seront pas sacrifiées sur l'autel de la visibilité.
Source : TechCrunch