Oui, Google scanne vos mails et documents Drive à la recherche de contenus pédopornographiques

Thibaut Keutchayan
Publié le 28 décembre 2021 à 16h15
© Clubic
© Clubic

Dans la lutte tentaculaire contre la pédopornographie, les principaux acteurs du stockage en ligne ont une part active à jouer afin de détecter des contenus potentiellement illégaux stockés par le biais de leurs services.

C'est notamment le cas de Google qui, comme Apple par exemple, s'active face à ce fléau. Et pour cela, YouTube comme les Drive sont passés au peigne fin.

La pédopornographie, une tendance tristement à la hausse

Il est ici fait état de la « hausse » estimée par Google des fichiers relevant de « Child Sexual Abuse Materials » (CSAM) stockés en son sein. Ce qui est d'autant plus désolant tout d'abord, c'est que la pratique n'est malheureusement pas nouvelle et n'a pas, pendant des décennies, fait l'objet d'une traque particulièrement virulente. Mais aussi, il convient de noter que les logiciels à même de détecter de potentiels contenus pédopornographiques sont, eux, de plus en plus précis. De quoi donner des chiffres qui font froid dans le dos.

Selon les services de Google, qui transmettent annuellement des rapports de transparence au National Center for Missing and Exploited Children (NCMEC), 1,5 million de contenus potentiellement CSAM, regroupés dans quelque 180 000 rapports, ont été transmis au NCMEC pour la période janvier-juin 2020. Pour le second semestre de l'année 2020, ce sont plus de 2,9 millions de contenus dans plus de 365 000 rapports qui ont été signalés par Google. Enfin, pour les six premiers mois de l'année 2021, 3,4 millions de contenus détectés et transmis dans 410 000 rapports sont parvenus au NCMEC. Plus du simple au double en seulement un an et demi, donc.

Mais au juste, comment s'y prend Google ?

Il n'est pas simple de traquer les contenus pédopornographiques, même si Google a, pour ses services, « l'avantage » de ne pas pratiquer un chiffrement de bout en bout, ce qui lui permet d'effectuer des scans potentiels sur les comptes de ses utilisateurs. Mais la question est soumise à de nombreux enjeux, notamment en ce qui concerne le respect du droit à la vie privée. La fronde d'utilisateurs, des services Apple entre autres, contre la volonté de la Pomme de scanner les fichiers pour en détecter de potentiels CSAM, montre que de telles actions n'avaient pas (du tout) fait l'unanimité.

De son côté, Google annonce œuvrer de deux manières, tout d'abord en recherchant, grâce à un logiciel nommé « CSAI Match » notamment employé sur YouTube, les représentations alphanumériques d'un même fichier déjà préalablement signalé comme illégal. Cela permet ainsi à la firme de signaler un contenu CSAM déjà identifié par le NCMEC et, par exemple, trouvé dans un e-mail stocké dans Gmail. Plus encore, Google utilise des outils d'analyse capables de détecter, notamment, des abus sur mineurs sur divers fichiers, y compris photo et vidéo.

Aller au-delà des photos et des vidéos

Ce qui est également traqué par Google, ce sont les dessins animés, films, ou encore œuvres d'art diverses qui pourraient constituer des contenus CSAM. Et dans le cas concret de l'art, la frontière devient aussi poreuse que complexe à définir. Un cas concret fut un détenteur de dessins animés détecté par les services de Google dans le Kansas en fin d'année 2020. D'abord transmis au NCMEC, les fichiers concernés n'ont pourtant pas permis de condamner celui qui serait en fait un artiste bien connu dans le milieu, dont l'identité n'a (logiquement) pas été révélée par Forbes puisqu'aucune poursuite n'a été engagée contre lui.

En effet, pour tomber sous le coup de la loi aux États-Unis, les cartoons doivent être particulièrement « obscènes » ou être dépourvus « d'intérêt littéraire, scientifique, artistique ou encore politique ». Ce cas ne fait qu'illustrer les chiffres évoqués au début de cet article, d'un côté sujets à caution, de l'autre, sombrement révélateurs de l'infamie que constitue la pédopornographie.

Et la firme de Mountain View, comme tant d'autres, a encore du pain sur la planche. D'une part, pour améliorer sa manière de trouver et signaler ces contenus illicites, et d'autre part pour limiter l'impact sur la vie privée qu'ont ces mesures sur le commun des mortels, afin de mieux les faire accepter et les rendre, ainsi, d'autant plus efficaces. Rappelons qu'en 2019, la France constituait le troisième pays hébergeant le plus de contenus pédopornographiques au monde, derrière les Pays-Bas et… les États-Unis.

Sources : Google, Forbes

Thibaut Keutchayan
Par Thibaut Keutchayan

Je m'intéresse notamment aux problématiques liant nouvelles technologies et politique tout en m'ouvrant à l'immense diversité des sujets que propose le monde de la tech' quand je ne suis pas en train de taper dans un ballon.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Proutie66

Là, je dis ok, même tant mieux.
Mais quelle est la limite ?

Baxter_X

La c’est vraiment le fond du débat… Être pour ou contre ce genre de pratiques, la je ne sais vraiment pas.
Il est impératif de lutter contre la pédopornographie, mais a quel prix ?

benben99

C’est certainement pas la seule chose que Google cherche dans vos mails.

Les agences américaines doivent aussi s’y donner a coeur joie dans la fouille de ces mails non chiffrés

HAL1

La fronde d’utilisateurs, des services Apple entre autres, contre la volonté de la Pomme de scanner les fichiers pour en détecter de potentiels CSAM, montre que de telles actions n’avaient pas (du tout) fait l’unanimité.

Sauf que ça n’a rien à voir puisqu’Apple avait prévu d’installer un mouchard en local pour scanner le contenu de l’appareil, et non pas le faire pour des fichiers déposés sur ses serveurs.

jvachez

C’est scandaleux, la cause est juste mais en faisant ça ils lisent le contenu et vont voir via les faux positifs ou autre du contenu qui ne les regarde pas.

TofVW

Comme s’ils ne le faisaient que pour cette raison ; quelqu’un en doutait ? Au moins, en avançant cette raison, ça permet de légitimer. :smirk:

Orezzo

ce cheval de Troie " pédopornographie ou terrorisme" ils ont bon dos pour vous faire passez la pilule qui sera bleue pour ceux qui comprendront .

tx41

surtout que j’ai un gros doute (ou un apriorisme) que ces sous humains de pédophiles (ou de terroristes) partagent/stockent leurs vices via et sur des services grand public. Des chiffres sont donné: « 1,5 million de contenus potentiellement CSAM, regroupés dans quelque 180 000 rapports » mais quid du nombre de perquisitions et mieux d’inculpations. Bref quand on voit comment en France les services de police/gendarmerie ont du mal à remonter les filières j’ai un peu de mal à avaler la pilule d’une solution aussi simple qu’un scan des données stockées quasi à la vue de tous.

Palou

ça surveille les sites pédophiles, mais pas les ventes d’armes ou de drogue ?

nikos40

@benben99 Les agences americaines recherchent des informations ciblés . La photo de de tante jeannette au Maroc . Ils en ont rien à faire