Wikipédia fait un choix très fort contre l'intelligence artificielle (IA). L'encyclopédie collaborative interdit l'utilisation des grands modèles de langage (LLM) dans la rédaction des articles.

Depuis 25 ans, Wikipédia permet à n'importe qui de contribuer au savoir en ligne, à condition de s'appuyer sur des sources vérifiables. La plateforme est aujourd'hui considérée comme la colonne vertébrale du savoir en ligne, mais son utilisation s'effrite dangereusement à cause de l'émergence de l'IA générative. Mais plutôt que de plier à ce nouveau dictat qui embarque tout sur son passage, elle a décidé de lutter contre.
Quelques exceptions
Wikipedia vient officiellement d'interdire à ses éditeurs d'utiliser des outils d'IA générative pour rédiger ou réécrire des articles. La décision, adoptée après une large consultation de la communauté, s'appuie sur un constat sans appel : les textes produits par des LLM comme ChatGPT ou Gemini « violent souvent plusieurs politiques éditoriales fondamentales » de l'encyclopédie, notamment ses exigences de neutralité et de vérifiabilité.
En pratique, les collaborateurs se battaient déjà depuis des mois contre des articles générés par IA, au point de créer un groupe dédié à leur suppression. L'année dernière, la plateforme mettait en outre fin à une fonctionnalité de résumés via IA. Des curateurs pointaient alors du doigt des risques d'erreurs factuelles, d'interprétations biaisées ou de simplifications excessives.
À noter que l'usage de l'IA restera malgré tout toléré pour des corrections basiques, à condition qu'un administrateur valide ensuite le contenu. Même son de cloche pour la traduction d'articles depuis une autre version de Wikipedia vers l'anglais, à condition que l'éditeur maîtrise suffisamment les deux langues pour en vérifier l'exactitude.

Pas de technique infaillible
En revanche, difficile de savoir comment l'usage de l'IA sera détecté. Car Wikipedia reconnaît que certains éditeurs humains peuvent naturellement écrire dans un style proche de celui d'un LLM, et déconseille donc de se baser sur des critères purement stylistiques. Concrètement, les modérateurs humains doivent évaluer la conformité du texte aux politiques éditoriales et l'historique récent de l'éditeur concerné, mais ils risquent malgré tout de laisser passer du contenu généré par IA, surtout sur les pages peu surveillées.
Autre point à prendre en compte, cette décision s'applique à Wikipédia en anglais, la plus grande version de l'encyclopédie. Chaque version linguistique est indépendante et fixe ses propres règles. Wikipédia en espagnol, par exemple, est allé plus loin en banissant l'usage des LLM sans aucune exception.
- L'immensité du contenu proposé
- L'accès aux fiches en mode hors ligne
- La gratuité