Le scandale autour de Grok n'était-il que la partie immergée de l'iceberg ? On dirait bien. Une nouvelle enquête révèle que les magasins d'applications respectifs d'Apple et Google laissent prospérer, et monétisent, des dizaines d'applications d'IA capables de créer des images sexuelles non consenties.

Selon une enquête, de nombreuses applications permettant de déshabiller numériquement les femmes sont disponibles sur les deux magasins d'applications. ©Koshiro K / Shutterstock
Selon une enquête, de nombreuses applications permettant de déshabiller numériquement les femmes sont disponibles sur les deux magasins d'applications. ©Koshiro K / Shutterstock

Ce 27 janvier, l'Union européenne ouvrait une enquête visant X.com et son chatbot Grok. En cause, la génération massive d'images pédopornographiques pendant la période des fêtes de fin d'année, une pratique qui va directement à l'encontre du Digital Services Act (DSA).

Et si Google et Apple ont fait l'objet de vives critiques pour ne pas avoir retiré l'application en question de l'App Store et du Google Play Store, le Tech Transparency Project (TTP), ONG qui enquête sur les pratiques des géants de la tech pour en révéler les dérives et les manquements, révèle que l'ampleur du phénomène dépasse largement le réseau social d'Elon Musk.

Une simple recherche suffit

Pour mener son investigation à bien, l'organisme a cherché des mots-clés comme « déshabiller » dans les deux plateformes, puis testé des dizaines d'applications mises en avant dans les résultats avec des images de femmes fictives créées par intelligence artificielle (IA).

Le constat est sans appel. 55 applications sur Android et 47 sur iOS permettaient effectivement de produire des images ou vidéos sexualisées à partir d'une simple photo, souvent sans aucun garde-fou. Parfois accessibles aux mineurs, elles cumulaient plus de 700 millions de téléchargements, et ont généré 117 millions de dollars de revenus, dont une part revient directement à Apple et Google, assure le TTP.

« Les deux entreprises affirment s'engager pour la sécurité et la sûreté des utilisateurs, mais elles hébergent une série d'applications qui peuvent transformer une photo innocente d'une femme en une image abusive et sexualisée », déplore l'ONG.

Les deepfakes sexuels se multiplient à vitesse grand V, conséquence directe de l'essor de l'IA. ©Stenko Vlad / Shutterstock
Les deepfakes sexuels se multiplient à vitesse grand V, conséquence directe de l'essor de l'IA. ©Stenko Vlad / Shutterstock

Sérieuses questions sur la protection de la vie privée

Au-delà de l'abus sexuel et du deepfake non consenti, ces applications posent aussi un risque sérieux de sécurité et de protection des données personnelles. Car une partie d'entre elles est développée par des sociétés basées hors d'Europe et des États-Unis, notamment en Chine ou en Asie du Sud-Est, avec des politiques de confidentialité floues sur le stockage des données à l'étranger.

Or, ces outils manipulent des images extrêmement sensibles, parfois issues de photos réelles, qui peuvent être conservées, réutilisées ou transmises sans réel contrôle. Dans le cas de la Chine, la législation locale peut même obliger les entreprises à partager certaines données avec les autorités.

De son côté, Apple indique avoir supprimé 28 applications identifiées dans l'étude du TTP. Même son de cloche chez la firme de Mountain View, qui assure avoir suspendu plusieurs logiciels mentionnés. Mais ce rapport révèle à quel point ces technologies se diffusent plus vite que les mécanismes de contrôle, qui nécessitent une optimisation de pointe pour tenter d'endiguer le phénomène.