Oui, Google scanne vos mails et documents Drive à la recherche de contenus pédopornographiques

28 décembre 2021 à 16h15
24
© Clubic
© Clubic

Dans la lutte tentaculaire contre la pédopornographie, les principaux acteurs du stockage en ligne ont une part active à jouer afin de détecter des contenus potentiellement illégaux stockés par le biais de leurs services.

C'est notamment le cas de Google qui, comme Apple par exemple, s'active face à ce fléau. Et pour cela, YouTube comme les Drive sont passés au peigne fin.

La pédopornographie, une tendance tristement à la hausse

Il est ici fait état de la « hausse » estimée par Google des fichiers relevant de « Child Sexual Abuse Materials » (CSAM) stockés en son sein. Ce qui est d'autant plus désolant tout d'abord, c'est que la pratique n'est malheureusement pas nouvelle et n'a pas, pendant des décennies, fait l'objet d'une traque particulièrement virulente. Mais aussi, il convient de noter que les logiciels à même de détecter de potentiels contenus pédopornographiques sont, eux, de plus en plus précis. De quoi donner des chiffres qui font froid dans le dos.

Selon les services de Google, qui transmettent annuellement des rapports de transparence au National Center for Missing and Exploited Children (NCMEC), 1,5 million de contenus potentiellement CSAM, regroupés dans quelque 180 000 rapports, ont été transmis au NCMEC pour la période janvier-juin 2020. Pour le second semestre de l'année 2020, ce sont plus de 2,9 millions de contenus dans plus de 365 000 rapports qui ont été signalés par Google. Enfin, pour les six premiers mois de l'année 2021, 3,4 millions de contenus détectés et transmis dans 410 000 rapports sont parvenus au NCMEC. Plus du simple au double en seulement un an et demi, donc.

Mais au juste, comment s'y prend Google ?

Il n'est pas simple de traquer les contenus pédopornographiques, même si Google a, pour ses services, « l'avantage » de ne pas pratiquer un chiffrement de bout en bout, ce qui lui permet d'effectuer des scans potentiels sur les comptes de ses utilisateurs. Mais la question est soumise à de nombreux enjeux, notamment en ce qui concerne le respect du droit à la vie privée. La fronde d'utilisateurs, des services Apple entre autres, contre la volonté de la Pomme de scanner les fichiers pour en détecter de potentiels CSAM, montre que de telles actions n'avaient pas (du tout) fait l'unanimité.

De son côté, Google annonce œuvrer de deux manières, tout d'abord en recherchant, grâce à un logiciel nommé « CSAI Match » notamment employé sur YouTube, les représentations alphanumériques d'un même fichier déjà préalablement signalé comme illégal. Cela permet ainsi à la firme de signaler un contenu CSAM déjà identifié par le NCMEC et, par exemple, trouvé dans un e-mail stocké dans Gmail. Plus encore, Google utilise des outils d'analyse capables de détecter, notamment, des abus sur mineurs sur divers fichiers, y compris photo et vidéo.

Aller au-delà des photos et des vidéos

Ce qui est également traqué par Google, ce sont les dessins animés, films, ou encore œuvres d'art diverses qui pourraient constituer des contenus CSAM. Et dans le cas concret de l'art, la frontière devient aussi poreuse que complexe à définir. Un cas concret fut un détenteur de dessins animés détecté par les services de Google dans le Kansas en fin d'année 2020. D'abord transmis au NCMEC, les fichiers concernés n'ont pourtant pas permis de condamner celui qui serait en fait un artiste bien connu dans le milieu, dont l'identité n'a (logiquement) pas été révélée par Forbes puisqu'aucune poursuite n'a été engagée contre lui.

En effet, pour tomber sous le coup de la loi aux États-Unis, les cartoons doivent être particulièrement « obscènes » ou être dépourvus « d'intérêt littéraire, scientifique, artistique ou encore politique ». Ce cas ne fait qu'illustrer les chiffres évoqués au début de cet article, d'un côté sujets à caution, de l'autre, sombrement révélateurs de l'infamie que constitue la pédopornographie.

Et la firme de Mountain View, comme tant d'autres, a encore du pain sur la planche. D'une part, pour améliorer sa manière de trouver et signaler ces contenus illicites, et d'autre part pour limiter l'impact sur la vie privée qu'ont ces mesures sur le commun des mortels, afin de mieux les faire accepter et les rendre, ainsi, d'autant plus efficaces. Rappelons qu'en 2019, la France constituait le troisième pays hébergeant le plus de contenus pédopornographiques au monde, derrière les Pays-Bas et… les États-Unis.

Sources : Google, Forbes

Thibaut Keutchayan

Je m'intéresse notamment aux problématiques liant nouvelles technologies et politique tout en m'ouvrant à l'immense diversité des sujets que propose le monde de la tech' quand je ne suis pas en train...

Lire d'autres articles

Je m'intéresse notamment aux problématiques liant nouvelles technologies et politique tout en m'ouvrant à l'immense diversité des sujets que propose le monde de la tech' quand je ne suis pas en train de taper dans un ballon.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (24)

Proutie66
Là, je dis ok, même tant mieux.<br /> Mais quelle est la limite ?
Baxter_X
La c’est vraiment le fond du débat… Être pour ou contre ce genre de pratiques, la je ne sais vraiment pas.<br /> Il est impératif de lutter contre la pédopornographie, mais a quel prix ?
benben99
C’est certainement pas la seule chose que Google cherche dans vos mails.<br /> Les agences américaines doivent aussi s’y donner a coeur joie dans la fouille de ces mails non chiffrés
HAL1
La fronde d’utilisateurs, des services Apple entre autres, contre la volonté de la Pomme de scanner les fichiers pour en détecter de potentiels CSAM, montre que de telles actions n’avaient pas (du tout) fait l’unanimité.<br /> Sauf que ça n’a rien à voir puisqu’Apple avait prévu d’installer un mouchard en local pour scanner le contenu de l’appareil, et non pas le faire pour des fichiers déposés sur ses serveurs.
jvachez
C’est scandaleux, la cause est juste mais en faisant ça ils lisent le contenu et vont voir via les faux positifs ou autre du contenu qui ne les regarde pas.
TofVW
Comme s’ils ne le faisaient que pour cette raison ; quelqu’un en doutait ? Au moins, en avançant cette raison, ça permet de légitimer.
Orezzo
ce cheval de Troie " pédopornographie ou terrorisme" ils ont bon dos pour vous faire passez la pilule qui sera bleue pour ceux qui comprendront .
tx41
surtout que j’ai un gros doute (ou un apriorisme) que ces sous humains de pédophiles (ou de terroristes) partagent/stockent leurs vices via et sur des services grand public. Des chiffres sont donné: «&nbsp;1,5 million de contenus potentiellement CSAM, regroupés dans quelque 180 000 rapports&nbsp;» mais quid du nombre de perquisitions et mieux d’inculpations. Bref quand on voit comment en France les services de police/gendarmerie ont du mal à remonter les filières j’ai un peu de mal à avaler la pilule d’une solution aussi simple qu’un scan des données stockées quasi à la vue de tous.
Palou
ça surveille les sites pédophiles, mais pas les ventes d’armes ou de drogue ?
nikos40
@benben99 Les agences americaines recherchent des informations ciblés . La photo de de tante jeannette au Maroc . Ils en ont rien à faire
Olivier22
Alors comme c’est une cause morale, que çà concerne les enfants, plein de gens vont trouver çà super.<br /> Mais accepteriez vous, en rentrant chez vous, de trouver un inconnu dans votre bureau, occupé à lire tous vos documents privés sans votre accord ?<br /> Et qui vous prouvera qu’il n’a pas profité de sa lecture pour prendre un maximum d’informations vous concernant?<br /> La récolte de données à l’insu de votre plein gré: Une des plaies du siècle.
Droz
Le cloud, ce n’est pas chez nous.
jeanlucesi
Le mieux c’est de ne pas être chez Google.
bmustang
entièrement d’accord, ne pas laisser n’importe quoi dans le cloud ou les mails est encore mieux et c’est à nous de choisir ce que l’on veut
Palou
jeanlucesi:<br /> Le mieux c’est de ne pas être chez Google.<br /> et ce n’est pas mieux chez les autres, faut pas rêver
Mirada2000
Vu qu’aucun gouvernement considère que cette lutte rapporte et donc n’y met aucun moyen, heureusement que les sociétés privées le font.
jbobby
Google utilise des outils d’analyse d’images et de vidéos pour que les utilisateurs se disent qu’il s’agit simplement d’un programme qui lit leurs données. Donc que ce n’est pas très grave. Mais même une IA très fiable nécessite une vérification humaine. Des employés consultent donc les images/vidéos des utilisateurs.
xeno
Rien de nouveau, Google à toujours scanné pour ses propres besoins, là c’est juste une raison qui balancé pour justifié et parce que cela fait bien aux yeux des gens.<br /> Et puis pour rappel tout le monde peu scanner les messages des autres vu que tout e-mail est envoyé en clair sur la toile…
Orezzo
de quelle lutte parles-tu ?<br /> la pédopornographie est un crime comme le viol ou le vol et est traite au meme niveau
TotO
Google ferait bien de balayer devant son portail…
ABC
Google ne voient rien du tout. Ce sont des algorithmes qui analysent les représentations alphanumériques des fichiers. Comme lorsqu’on fait une recherche à partir d’une image dans google. C’est plus compliqué pour les fichiers non identifiés et les algorithmes doivent être associés à une identification humaine, seulement en cas de suspicions. Ça doit être très cadré et clair pour éviter les dérapages (traques politiques…).<br /> Si une image est authentifiée comme criminelle, je ne vois pas en quoi les détenteurs peuvent se prévaloir de la «&nbsp;liberté individuelle&nbsp;». Il n’y a pas de liberté sans garde fou.<br /> Si Google et autres ne font pas le ménage, ils pourraient en avoir à répondre devant la justice tôt ou tard. Quand on sait que le darkweb est devenu un repère pour les pédocriminels, le cloud de Google, Apple ou autre ne doit pas devenir un «&nbsp;darkweb bis&nbsp;». Malheureusement, la société est pleine de détraqués et de pervers qui sont une menace pour les enfants. Ce qui est illégal dans la vraie vie ne doit pas devenir possible dans le cloud «&nbsp;dématérialisé&nbsp;». Les enfants abusés visibles dans ces fichiers immondes sont des enfants bien réels.<br /> Et c’est tout aussi abject avec des dessins.<br /> Donc oui à la liberté de chacun, et donc oui pour la traque des contenus pédocriminels via des algorithmes. L’un ne peut pas aller sans l’autre. La liberté de chacun s’arrête là ou commence celle des autres et le respect des enfants est non négociable.
jeanlucesi
oui mais ce n’est pas chez google.
Fredolachique
A partir du moment ou tu utilise leurs services, tu accepte implicitement leurs règles. Donc si tu ne veux pas qu’ils rentrent chez toi, ne leur donne pas les clés.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet