L'IA a été inventée pour faciliter la vie des utilisateurs. Mais force est de constater qu’elle facilite aussi celle des harceleurs : deepfakes pornographiques, raids numériques, flaming, sextorsion et autres attaques ont explosé avec l'arrivée de cette technologie. Aujourd’hui, 82 % des victimes de cyberviolences sont des femmes. Une réalité sur laquelle il ne faut pas fermer les yeux.

Les cyberviolences touchent massivement les femmes. © TSViPhoto / Shutterstock
Les cyberviolences touchent massivement les femmes. © TSViPhoto / Shutterstock

Imaginez. Vous découvrez un beau matin que des contenus pornographiques à votre effigie circulent sur le web. Vous n’avez rien fait, mais il a suffi d’une photo et de quelques mots tapés dans un chatbot pour salir votre image, avec toutes les conséquences psychologiques, sociales et professionnelles que cela implique. Pendant ce temps, le ou les auteurs restent dans l’ombre. Dans plus d’un tiers des cas, ils ont fait ça pour rire.

Entre les mains de personnes mal intentionnées, l’intelligence artificielle peut devenir une arme redoutable. Si les journalistes Léa Salamé et Rokhaya Diallo ou l’influenceuse EnjoyPhoenix en ont fait plus d’une fois les frais, derrière elles, on trouve des milliers de victimes anonymes qui ont aussi vécu cette amère expérience, avec des conséquences parfois dramatiques : 1 femme victime de cyberviolences sur 7 a tenté de se suicider.

À l’occasion de la Journée internationale de lutte pour les droits des femmes, nous nous sommes posé la question : comment l’IA est-elle devenue un accélérateur de cyberviolences faites aux femmes ? Et surtout, est-il possible de reprendre le contrôle ?

Harcèlement en ligne : comment l’IA a mis le feu aux poudres

L’IA a révolutionné nos usages mais, entre de mauvaises mains, elle peut aussi devenir une arme d’une violence inouïe.

Des outils un peu trop puissants ?

Autrefois, créer une vidéo truquée demandait des compétences techniques et de longues heures de travail. Aujourd’hui, des outils de génération d’images, de vidéos et de voix capables de produire en quelques secondes des résultats confondants de réalisme sont à la portée de tous, gratuitement.

Le résultat ? Une explosion des deepfakes, ces vidéos contrefaites qui font dire ou faire aux gens ce que l’on veut. Sur X.com, où les communautés de cyberharceleurs prospèrent, l’IA Grok a multiplié les contenus pornographiques, au point de s’attirer les foudres de la Commission européenne. Sur l’App Store et le Play Store, les applications permettant de produire des vidéos et images sexualisées abondent, sans que rien ne soit fait pour les interdire.

Des deepfakes de plus en plus perfectionnés pullulent sur le web. ©Smile Studio AP / Shutterstock
Des deepfakes de plus en plus perfectionnés pullulent sur le web. ©Smile Studio AP / Shutterstock

Vers une industrialisation de la haine

Le numérique a ouvert la porte à toutes sortes d’abus : arnaques vocales, doxxing, grooming en ligne… Mais l’IA donne aux personnes malveillantes la possibilité de faire voler en éclat toutes les limites. Détournée de ses usages principaux, elle est devenue un amplificateur de cyberviolences, capable de simuler des campagnes de haine massives et de submerger les victimes sous des flots de messages ininterrompus.

On utilise désormais cette technologie pour cibler plus facilement des personnes, en majorité féminines : en 2019, un rapport de Sensity AI expliquait déjà que 96 % des deepfakes étaient pornographiques, et que parmi ceux-ci, 99 % représentaient des femmes.

Et comme le rappelle si bien l’ONU Femmes, les biais sexistes font, hélas, partie de l’ADN de ces technologies : « développés par des équipes masculines, de nombreux outils de deepfakes ne sont même pas conçus pour fonctionner sur des images du corps d'un homme. »

Les cyberviolences, pourquoi c’est pire qu’avant ?

Entre les mains d'acteurs malveillants, l'IA industrialise le harcèlement en ligne, amplifie la domination masculine et exacerbe les inégalités déjà subies dans le monde réel.

Des violences virtuelles, mais des conséquences bien réelles

L'IA a dramatiquement amplifié les cyberviolences : les signalements de sextorsion ont bondi de 2,4 fois par rapport à 2023 et le harcèlement sexuel numérique a été multiplié par 6 entre 2016 et 2024.

L'impact de ces attaques est redoutable, au point d'être devenu, selon les dires de l'Ipsos, un véritable problème de santé publique : au delà de l'atteinte à la réputation, « on retrouve de nombreux symptômes de stress post-traumatique : hypervigilance (91%), troubles anxieux et dépressifs (88%) et insomnies (78%) et pensées suicidaires (49%) ». De nombreuses victimes augmentent également leur consommation d'alcool et de substances ou sont touchées par des troubles alimentaires.

La situation est d'autant plus préoccupante que les jeunes sont plus exposés à cette forme de violence : l'INSEE a, par exemple, montré que « 28 % des collégiens et 23 % des lycéens (sont) victimes de violence en ligne. » Les personnes issues de minorités ou étant en situation de handicap sont tout particulièrement visées.

Il y a aussi des conséquences financières : rien que pour les deepfakes, les pertes s'élèvent, d'un point de vue global, à 1,1 milliard de dollars, soit 3 fois plus qu'en 2024, essentiellement via les réseaux sociaux.

Les cyberviolences visent énormément de jeunes personnes. ©DimaBerlin / Shutterstock

Les autorités et les plateformes dépassées par l'ampleur du phénomène

L'IA est devenue l'outil favori des cyberharceleurs et les contenus malveillants ont explosé sur le web : les deepfakes seraient, par exemple, passés de 500 000 en 2023 à plus de 8 millions en 2025. Dans le même temps, ils se sont améliorés au point qu'il est aujourd'hui difficile de faire la part des choses. Face à cela, les outils de détection et de modération ne peuvent plus suivre.

Le problème, c'est que les fournisseurs IA ne semblent pas pressés de mettre un terme aux abus : comme l'explique l'écrivaine Laura Bates dans un article paru dans le Financial Times, les applis de deepfakes ont généré plus de 117 millions de dollars et « les géants de la technologie prélèvent une partie de leurs revenus, tirant ainsi activement profit des abus dont sont victimes les femmes et les filles grâce à ces applications. »

Du côté de la justice, on peine également à suivre le rythme : il faut compter 3 mois pour lever l'anonymat sur un compte malveillant et jusqu'à 18 mois pour aller au bout d'une action en diffamation en première instance. La loi SREN s'avère, quant à elle, difficilement applicable et il faudra attendre jusqu'au 2 août 2026 pour que la nouvelle législation IA européenne entre en vigueur. Pendant ce temps, un deepfake se génère en quelques secondes et se propage en quelques minutes. Dans la plupart des cas, il sera impossible de le faire disparaître totalement de la toile.

Comment mettre un frein aux cyberviolences ?

Pour combattre les cyberviolences, des moyens existent, mais seront-ils suffisants ?

Combattre le feu par le feu : comment utiliser l’IA contre l’IA ?

Œil pour œil, dent pour dent : pour lutter contre les cyberviolences dues à un usage abusif de l'intelligence artificielle, la meilleure arme reste encore cette technologie. On recense d'ores et déjà plusieurs initiatives :

  • Google, Meta et OpenAI ont rejoint la CP2A, une coalition permettant de créer des normes pour distinguer les générations IA des contenus authentiques.
  • Google a notamment conçu SynthID, un filigrane qui repère les images et vidéos faites avec l'IA ;
  • Le projet européen Creep crée des outils de lutte contre le cyberharcèlement ;
  • La start-up primée DataForEthic propose des solutions IA pour créer des « environnements de travail et d'apprentissage plus sûrs, éthiques et responsables » ;
  • Du côté des deepfakes, les outils de détection se multiplient aussi : ScannerDeepware, FakeCatcher, WeVerify et bien d'autres.

Mais ces avancées sont encore loin d'être des solutions miracle.

L'IA, meilleure arme contre l'IA ? © Mopic / Shutterstock

Une responsabilité numérique à redéfinir entièrement

En France, les mineurs victimes de cyberviolences peuvent contacter le 3018 pour obtenir une aide immédiate. La plateforme PHAROS permet également de signaler des contenus et comportements illicites en ligne. S'ils sont des aides essentielles, ces dispositifs sont loin d'être suffisants face à l'ampleur du phénomène. Car au-delà des technologies, c'est toute la chaîne de responsabilité qui doit être repensée, à l'échelle nationale mais aussi internationale.

Il est en effet crucial d'apporter une solution coordonnée. Il faut développer, certes, des outils de détection et de signalement, mais aussi mieux accompagner les victimes, former chaque citoyen à reconnaître les cybermenaces et à réagir face à elles, mettre en place un cadre juridique dissuasif et accélérer les procédures. Nous sommes, hélas, encore loin du compte.

Quelles que soient les actions mises en place, rien de tout cela ne sera efficace tant qu'on ne s'attaquera pas à la source du problème : comme l'explique Laure Salmona, directrice de l'association Féministes contre le cyberharcèlement, « pour lutter contre les cyberviolences, il faut combattre le sexisme hors-ligne ». Le problème n'est, au final, pas l'IA, mais la façon dont on s'en sert : les modèles ne font qu'amplifier des comportements et des biais déjà profondément ancrés dans notre monde.

L'enjeu réel est donc sociétal et tant que la technologie progressera plus vite que les législateurs, les éducateurs et les plateformes, les cyberviolences prospéreront. Canaliser la technologie ne suffira pas. Il faudra aussi et surtout interroger et affronter nos vulnérabilités humaines.

En cas de besoin ou d'urgence

En cas de danger immédiat
📞 17 (Police / gendarmerie)
📞 112 (urgence européenne)
📞 114 (SMS d’urgence pour personnes ne pouvant pas appeler)

Violences sexistes et sexuelles
📞 3919 – Violences Femmes Info
Écoute, information et orientation. Gratuit, anonyme, 24h/24, 7j/7.
Portail officiel : solidaritefemmes.org

Cyberharcèlement et violences numériques chez les jeunes
📞 3018 – Numéro national
Gratuit et anonyme. Tous les jours 9h–23h (téléphone + tchat + appli)
Portail officiel : e-enfance.org

Enfance en danger
📞 119 – Allô Enfance en Danger
Écoute et orientation pour les enfants en danger ou en risque de l’être, et pour toute personne inquiète. Gratuit, 24h/24, 7j/7.
Portail officiel : allo119.gouv.fr

Signaler un contenu illégal en ligne
PHAROS (plateforme du ministère de l’Intérieur)

Déposer plainte
Pré-plainte en ligne : https://www.pre-plainte-en-ligne.gouv.fr
Ou dans n’importe quel commissariat ou brigade de gendarmerie.

Accès au droit et accompagnement des victimes
📞 116 006 – France Victimes
Écoute et orientation, tous les jours (9h–20h)
Portail officiel : france-victime.fr