Wikipedia a 25 ans ! Un cap important pour cette initiative qui a toujours eu pour objectif de rendre le savoir fiable, collaboratif et accessible à tous. Pour l'occasion, la Fondation Wikimedia, qui gère cette encyclopédie mondialement connue, a vu les choses en grand.

Seul site du top 10 mondial géré par une organisation à but non lucratif, Wikipédia compte actuellement plus de 65 millions d’articles dans plus de 300 langues et plus de 15 milliards de consultations par mois. Les premiers résultats de l’étude « Usages et perception de Wikipédia par les français », parus ce jour, indiquent également que 85 % des français utilisent cette encyclopédie en ligne.
La Fondation Wikimedia lance aujourd'hui la campagne « Wikipédia 25 ». Afin de célébrer son anniversaire comme il se doit, plusieurs actions sont prévues. La Fondation Wikimedia a, tout d'abord, voulu mettre en lumière le quotidien et les motivations des 250 000 bénévoles qui contribuent chaque jour au projet via une capsule temporelle : disponible dès maintenant, elle permet d'en savoir plus sur le passé, le présent et l'avenir de Wikipédia. Un quiz interactif est également lancé pour faire découvrir différentes visions du Wikipédia de demain.
Mais ce n'est pas tout : aujourd'hui à 17h (16h UTC) un événement mondial sera diffusé en ligne sur YouTube, Instagram et TikTok, en complément de plusieurs événements physiques. Une mascotte anniversaire et des produits dérivés seront aussi de la partie ainsi qu'une carte d'anniversaire numérique, à signer sur vos réseaux sociaux.

Alors que pour ses 20 ans, Wikipédia se demandait comment faire face aux fake news et mettre en lumière la diversité des connaissances, la plateforme doit aujourd'hui faire face à un challenge encore plus important : l'intelligence artificielle. Cette évolution qui a d'ores et déjà bouleversé tant de choses dans le monde aura, à n'en point douter, un impact majeur sur la fameuse encyclopédie en ligne.
Mais la Fondation Wikimedia est prête à relever le défi : elle a renforcé son infrastructure technologique, mis en place une stratégie IA centrée sur l'humain et veille chaque jour à ce que les contributions des entreprises soient toujours faites de manière responsable. Elle a aussi lancé la solution commerciale Wikimedia Enterprise et tissé, dans ce cadre des partenariats avec de nombreuses sociétés Tech reconnues telles que Google, Meta, Amazon mais aussi Ecosia, Microsoft, Mistral AI, Perplexity, Pleias et ProRata. À ses yeux, tendre la main aux jeunes générations et réduire les inégalités de connaissance est également crucial.
Quelle est la place de Wikipédia à l'ère de l'IA ? Cette technologie peut-elle aider l'encyclopédie à remplir sa mission ? Et surtout, quid de la gouvernance humaine ? Selena Deckelmann, directrice Produit et Technologie de la Fondation Wikimedia a répondu à nos questions.
L'arrivée de l’IA a tout bousculé sur son passage. Quels changements avez-vous constatés jusqu'à présent dans le contenu de Wikipédia ?
Selena Deckelmann: Le contenu de Wikipédia alimente aujourd’hui les chatbots IA génératifs, les moteurs de recherche, les assistants vocaux ainsi que les résumés générés par l'IA. Nous assistons à une véritable explosion du contenu généré par des machines sur Internet. Il y a aussi de plus en plus de tentatives d’ajout de contenu IA de mauvaise qualité dans Wikipédia.
La stratégie IA de la Fondation Wikimedia donne la priorité à l’humain : dans ce cadre, les investissements et les développements futurs sont pensés pour soutenir les contributeurs humains qui sont au cœur de Wikipédia. Le but est qu'ils puissent consacrer leur précieux temps à accomplir ce qu’ils souhaitent accomplir et non à chercher des moyens d’atteindre leurs objectifs.
Avez-vous été amenés à repenser le rôle de Wikipédia dans l'écosystème numérique actuel ? Quels sont les impacts concrets pour les contributeurs ? Et pour les modérateurs ?
S.D : Bien que nous soyons en train de nous adapter à l'émergence de l'IA, une grande partie de Wikipédia n'a pas changé. Du côté des contributeurs, le jugement humain, la recherche de sources et le consensus ont plus de valeur que jamais. Pour les modérateurs bénévoles de Wikipédia, l'impact est, quant à lui, concret et parfois douloureux. Il y a plus de contenu à examiner, davantage de motifs à identifier et il faut aussi agir rapidement lorsque des contenus IA de mauvaise qualité sont repérés, ce qui constitue une pression supplémentaire. Les bénévoles ont réagi en faisant évoluer les politiques, les outils et les critères de suppression lorsqu'ils rencontrent des contenus douteux. C’est ce qu'ils ont toujours fait et c’est ce qu’ils continueront de faire.
Le nombre de pages vues par les humains sur Wikipédia est en baisse, d'environ 8 %, car au lieu de visiter directement le site, les gens consomment de plus en plus les informations de Wikipédia via des interfaces IA tierces. Cela a des implications réelles pour notre pérennité, car Wikipédia dépend des contributions bénévoles et des dons des lecteurs. Le travail bénévole créé pour le bien public est exploité et monétisé par des entreprises privées, souvent sans qu’il n’y ait aucune attribution ni soutien significatif en échange.
Nous sommes en plein paradoxe : à l'ère de l'IA, le site Wikipédia n'a jamais été aussi précieux et pourtant, il est devenu moins visible pour le public. Nous représentons malgré tout une part majeure de l'infrastructure des connaissances fondamentales d’internet, et ce, même si les gens ne se rendent pas compte qu'ils dépendent de nous.
Au-delà des expérimentations, comment l'IA est-elle concrètement utilisée sur Wikipédia aujourd'hui ? À quelles étapes précises du processus éditorial cette technologie intervient-elle, et quelles tâches restent strictement humaines ?
S.D : L'IA et l'apprentissage automatique font partie de Wikipédia depuis plus de dix ans, mais ils ont toujours eu un rôle de soutien. Ils nous aident à détecter le vandalisme et les modifications de mauvaise qualité, à hiérarchiser les files de révision pour les modérateurs bénévoles, à automatiser les tâches répétitives ou techniques mais aussi à soutenir le travail de traduction et d'accessibilité.
Les décisions éditoriales fondamentales restent strictement humaines. Ce sont les humains qui décident de ce qui doit figurer ou non dans Wikipédia, de l’évaluation des sources, de l’application de la neutralité et de la manière dont les désaccords sont résolus. Chaque modification, qu'elle soit assistée par l'IA ou non, est examinée au regard des normes communautaires et enregistrée en toute transparence.
L'IA aide-t-elle Wikimedia à modérer les informations et à publier plus rapidement, ou contribue-t-elle, au contraire, à la diffusion de fausses informations et complexifie votre travail de vérification ?
S.D : Les deux sont vrais. L'IA peut aider les modérateurs à travailler plus efficacement en signalant les modifications suspectes et en gérant les tâches répétitives, mais une utilisation irresponsable de l'IA générative comporte également des risques, notamment en ce qui concerne la diffusion de contenus fabriqués de toutes pièces ou provenant de sources peu fiables.
La force de Wikipédia réside dans sa gouvernance humaine. Alors que les contenus générés par l'IA prolifèrent, les bénévoles de Wikipédia examinent activement tous les contenus, révisent les politiques et adaptent les outils afin de garantir la fiabilité. Le jugement humain reste le meilleur garde-fou.
L'IA vous a-t-elle contraint à mettre en place de nouvelles règles ou de nouvelles protections ? Comment garantissez-vous la fiabilité de ses productions ?
S.D : Nous avions déjà des garde-fous, mais l'IA a obligé les éditeurs à les utiliser de manière plus rigoureuse. Les politiques de contenu de Wikipédia sont indépendantes du format. Que le contenu soit généré par des humains ou par l'IA, il doit répondre aux mêmes exigences de vérifiabilité, de neutralité et de sourcing.
Les communautés ont également introduit des règles plus strictes, comme des critères de suppression rapide pour les articles de mauvaise qualité générés par l'IA. Il y a aussi des initiatives organisées comme le WikiProject AI Cleanup.
La transparence est cruciale : les modifications sont enregistrées publiquement, les échanges sont visibles de tous et toutes les décisions sont contestables.
Avez-vous associé les bénévoles aux décisions relatives à l'intégration de l'IA ? Avez-vous constaté des inquiétudes ou des réticences de la part de la communauté et comment y avez-vous répondu ?
S.D : Les bénévoles sont très impliqués dans le projet et leurs commentaires influencent directement les résultats. Oui, il y a eu des réticences. Par exemple, en juin 2025, nous avons annulé un test qui portait sur des résumés générés par l'IA. Les éditeurs craignaient que cette fonctionnalité puisse nuire à la confiance et à l'intégrité éditoriale. La Fondation a écouté leurs avis et a suspendu cette expérimentation, car nous prenons très au sérieux les commentaires des bénévoles.
Nous n'avons pas peur d'admettre nos erreurs, je dirais même que cela fait partie de l'éthique de Wikipédia. À chaque fois que mon équipe lance un test, nous mettons la communauté dans la boucle pour obtenir des feedbacks rapides et changer de cap, si nécessaire.
Nous disposons de nombreux canaux de communication avec les bénévoles : listes de diffusion, Telegram, Discord, forums sur le wiki et autres plateformes. En plus de ces canaux, nous avons également un Conseil consultatif sur les produits et les technologies : il s’agit d’un groupe de bénévoles expérimentés et de confiance qui me rencontrent régulièrement pour me conseiller sur l'infrastructure, aussi bien sur les systèmes techniques que sur les processus organisationnels. Nos échanges portent souvent sur la manière dont nous présentons et communiquons nos expériences, un sujet particulièrement important ces dernières années.
La communication avec les bénévoles suit des normes strictes qui régissent l’endroit et la manière dont les discussions ont lieu. Cela inclut notamment les pages de discussion et autres forums communautaires. Nous comptons sur les bénévoles pour nous aider à trouver les moyens les plus efficaces et les plus appropriés de présenter de nouvelles idées ou des évolutions.
Quels enseignements avez-vous tirés de l’annulation de votre test et quelles leçons en avez-vous tiré pour l’avenir ?
S.D : Cela a prouvé que la confiance est l’atout le plus précieux de Wikipédia. Même les fonctionnalités d'IA partant de bonnes intentions doivent être alignées avec les attentes de la communauté et ses valeurs éditoriales. À l'avenir, nous pourrions privilégier des déploiements plus progressifs, fixer un cadre plus précis et renforcer un peu plus notre collaboration avec les bénévoles avant de généraliser une initiative qui pourrait affecter l'expérience des lecteurs.
Lors de votre conférence TEDx, vous avez émis le souhait d'une IA « radicalement inclusive et ouverte à tous ». Quelles actions concrètes avez-vous prévues pour atteindre cet objectif ?
S.D : Les sociétés Tech excluent de vastes pans du monde. Par exemple, et je l'ai dit lors de cette conférence, l'arabe est parlé par des centaines de millions de personnes, mais seulement 3 % du contenu en ligne est disponible dans cette langue. Cela signifie que plus de 5 % de la population mondiale n'a pas accès à un contenu compréhensible.
L'IA devrait combler les écarts, et non les creuser. Nous avons besoin d'outils déployés à grande échelle pour favoriser l'inclusion. Depuis ses débuts en 2001, Wikipédia a toujours eu pour objectif de devenir une source de connaissances multilingue, mais il y a encore d'importantes lacunes : l’encyclopédie existe dans plus de 300 langues actives, mais la plupart des éditions linguistiques comptent moins de 50 000 articles, alors qu'elles représentent plus de 1,5 milliard de locuteurs dans le monde.
Grâce à des initiatives telles que Abstract Wikipedia, nous augmentons la part d'articles rédigés dans des langues sous-représentées. Le projet utilise une nouvelle architecture technique pour aider les éditions linguistiques de taille modeste à devenir des socles de connaissances solides. Le premier élément majeur, Wikifunctions, lancé en version bêta, permet aux bénévoles de créer des fonctionnalités qui peuvent traduire le contenu des articles dans de nombreuses langues. L’objectif est de favoriser l'équité linguistique et de permettre à Wikipédia d’accomplir sa mission qui, je le rappelle, est de rendre le savoir accessible à tous, pas seulement à ceux qui ont une influence disproportionnée sur la technologie et à ceux qui leur ressemblent.
Quels bénéfices l'IA a-t-elle apportés à Wikipédia jusqu'à présent ? Avez-vous constaté de réelles améliorations en termes de qualité, d'efficacité ou de diversité du contenu ?
S.D : Grâce à l'IA et l'apprentissage automatique, on peut maintenant traduire mieux et à plus grande échelle, faire un travail de modération plus efficace mais aussi accueillir de nouveaux contributeurs, ce qui laisse aux bénévoles expérimentés plus de temps pour se concentrer sur des tâches à forte valeur ajoutée. Cette aide repose sur des modèles comportementaux, des petits ainsi que des grands modèles linguistiques.
L'IA regroupe une grande variété de technologies et d'outils utiles, et nous employons ces outils là où ils peuvent soutenir au mieux nos contributeurs. Cependant, l'IA ne remplacera pas la créativité ou le jugement humain. Sa valeur réside dans le fait qu'elle complète, et non qu'elle remplace, les personnes qui créent des connaissances.
D’un autre côté, quels sont les principaux risques que l’IA représente pour Wikipédia aujourd’hui ? Par exemple, avec les modèles populaires entraînés sur le contenu de Wikipédia, craignez-vous un « effet Ouroboros » ?
S.D : Les risques les plus importants sont l'extraction sans réciprocité et la perte de confiance. Lorsque les systèmes d'IA s'entraînent sur Wikipédia et remplacent les chemins d'accès vers notre plateforme, le travail accompli par nos bénévoles n’obtient plus aucune attribution. Les internautes ne savent pas non plus d'où proviennent les informations obtenues et ils ne sont donc plus en mesure d'évaluer correctement leur qualité.
Il existe un risque réel de boucle de rétroaction : les systèmes IA utilisent Wikipédia pour s’entraîner, ils génèrent du texte dérivé puis ré-injectent ce contenu dans l'écosystème informatif, où il est à nouveau consommé et ré-utilisé pour l'entraînement. Les modèles d'IA deviendront moins précis, moins diversifiés et leurs contenus seront moins vérifiables.
Wikipédia aide à éviter cela, car les humains utilisent leur jugement pour vérifier les sources, créer de nouveaux articles et réviser les anciens. Mais il sera impossible de continuer si nous ne pouvons pas maintenir notre infrastructure, à cause de la pression exercée par la collecte automatisée et par la diminution de l'engagement humain, qui affecte nos dons. C'est pourquoi nous avons créé Wikimedia Entreprise, un produit commercial destiné à tous ceux qui réutilisent ou distribuent du contenu provenant des projets Wikimedia, et ce, à grande échelle. Les entreprises Tech qui dépendent du contenu de Wikipédia doivent absolument l'utiliser de manière responsable et contribuer à la pérennité du projet.
Nous devons continuer à nous adapter, comme nous le faisons depuis 25 ans. Nous devons continuer à insister sur l'importance de maintenir des ensembles de données et des connaissances sélectionnés par des humains, qui alimentent tous les outils qu'ils utilisent. Mon équipe et moi-même voulons montrer que Wikipédia peut incarner une approche différente de l'IA, avec des systèmes plus ouverts, une attribution forte et l'indication systématique de l'origine des informations. Nous voulons aussi encourager les développeurs spécialisés en IA à préserver cette transparence.
Wikipédia fête son 25e anniversaire à un moment charnière pour le savoir en ligne. Comment voyez-vous son rôle évoluer dans les années à venir ? L’équilibre entre l’IA et les contributeurs humains va-t-il changer ?
S.D : Wikipédia est l'une des dernières initiatives qui tient les promesses des débuts d'Internet. C’est l'un des rares endroits où vous pouvez encore obtenir des connaissances fiables et dignes de confiance, et ce, gratuitement. Cela ne changera pas. Et nous devons cela aux bénévoles, des personnes comme vous qui donnent de leur temps pour partager leurs connaissances. Wikipédia montre que le consensus est possible : des personnes d'horizons, de perspectives et d'opinions politiques différents façonnent et modifient le contenu. Wikipédia est une encyclopédie vivante qui s'améliore constamment et qui n'est jamais figée ou définitive.
Wikipédia est également le seul site web mondial de premier plan géré par une organisation à but non lucratif. Il n'est pas financé par la publicité, il ne suit pas votre activité, il ne vend pas vos informations et il n'utilise pas d'algorithmes pour promouvoir son contenu. Wikipédia demeurera une référence, car il s'agit de l'un des ensembles de données les plus importants et les plus précieux au monde pour l'entraînement de l’intelligence artificielle. Des études ont d’ailleurs montré que les résultats des modèles sont nettement moins bons lorsque Wikipédia n'est pas utilisé comme base de données. Si l'IA peut jouer un rôle croissant dans l'accès à la connaissance, les contributeurs humains sont essentiels à la manière dont la connaissance est créée, vérifiée et préservée. À une époque où la vérité est de plus en plus remise en question, le besoin en informations fiables ne diminue pas, il ne fait que croître.
L'avenir de Wikipédia dépendra de notre capacité à garantir que le travail de nos incroyables bénévoles ne se perde pas dans des systèmes fermés. Wikipédia est plus qu'une encyclopédie, c'est la colonne vertébrale du savoir en ligne.
Je suis optimiste de nature. Lorsque Wikipédia a vu le jour, les gens étaient sceptiques et pensaient que ce projet ne fonctionnerait jamais. Mais 25 ans plus tard, nous sommes toujours là et nous sommes devenus l'une des marques les plus appréciées au monde. Nous avons survécu à de nombreux changements technologiques, qu’il s’agisse des smartphones, des réseaux sociaux ou du streaming, et je suis convaincue que nous avons les compétences et la passion nécessaires pour nous adapter à tout ce qui nous attend.
💬 À la rencontre de la tech
Au-delà des actualités et des tests, nous avons discuté avec les leaders de la Silicon Valley et les startups en pleine croissance à travers le monde pour mieux comprendre leurs enjeux, leurs visions et leurs valeurs. Découvrez comment ces acteurs clés façonnent l'avenir des technologies.
- L'immensité du contenu proposé
- L'accès aux fiches en mode hors ligne
- La gratuité