Pédopornographie : Apple scanne déjà les e-mails depuis 2019 mais pas iCloud Photos

Thibaut Keutchayan
Publié le 01 septembre 2021 à 09h53
© Apple
© Apple

La lutte contre la pédopornographie, ou « Child Sexual Abuse Materials » (CSAM), est un enjeu de taille pour de nombreux services de stockage Cloud, dont celui d'Apple. Jusqu'à présent, la politique de prévention de l'entreprise se limitait pourtant à scanner les e-mails, presque rien de plus.

La firme de Cupertino pratique cette surveillance active des messages depuis 2019, mais ne s'intéresserait pas jusqu'ici aux photos stockées sur iCloud. De quoi faire douter de l'efficacité de sa stratégie dans ce domaine, du moins jusqu'à ce mois d'août, où de nouvelles mesures ont été annoncées… puis allégées.

La stratégie légère d'Apple dans la lutte contre les CSAM

Si elle n'en reste pas moins complexe, la guerre menée à l'encontre des adeptes de la pédopornographie progresse, notamment grâce à l'utilisation d'algorithmes croisés avec des banques d'images, afin de repérer les contenus inappropriés. Or, lorsque ces images, vidéos ou tout autre type de fichiers se retrouvent dans un Cloud individuel, il peut être plus compliqué de les repérer.

Si de nombreuses solutions existent, qui ne nuisent pas outre-mesure au respect de la vie privée, Apple se montre longue au démarrage. La firme de Cupertino a annoncé travailler depuis 2019 seulement sur le scan des e-mails reçus sur iCloud mail. Des mesures qui n'ont pas permis de confondre un grand nombre d'individus sur l'échange de fichiers CSAM, d'autant qu'Apple ne scanne pas les photos stockées dans iCloud.

Une mesure de précaution qui étonne, au point que la firme s'est emparée du sujet début août 2021, en annonçant la mise en place d'un outil permettant, grâce à un algorithme, de scanner les photos et ainsi repérer de potentiels contenus CSAM. Suivant le protocole de la mesure, si la détention de telles images est avérée après vérification humaine, le détenteur du compte est signalé aux autorités américaines, et jugé selon la loi en vigueur. Toutefois, les défenseurs de la vie privée ne l'entendaient pas de cette oreille.

Les limites de la vie privée en questions

La fronde revient encore et toujours sur le même motif à l'encontre de telles mesures : celui du respect de la vie privée. Apple en a fait l'un de ses piliers, et pourtant, l'enjeu autour de la pornographie infantile mérite que les détenteurs de contenus de ce type puissent comparaitre en justice. Le fait est que de nombreux experts clament qu'un tel outil algorithmique constituerait une fouille non-désirée par les utilisateurs des contenus uploadés sur iCloud. Et Apple a en partie donné raison à ces détracteurs, le 16 août dernier.

En conséquence, le seuil d'alerte avant qu'un humain ne prenne le relais dans l'analyse des contenus repérés est élevé à 30 fichiers minimum confondus par l'algorithme. En dessous de ce nombre, les individus pourront ainsi passer entre les mailles du filet.

Les messages d'Eric Friedman en disent long sur les pratiques d'Apple. © The Verge
Les messages d'Eric Friedman en disent long sur les pratiques d'Apple. © The Verge

Selon le directeur Anti-Fraude de l'entreprise, Apple en arrive tristement à être « la meilleure plateforme pour la distribution de pornographie infantile », d'après des contenus repérés par The Verge dans le cadre du procès entre Apple et Epic Games. Or, comme le relève 9to5Mac, « comment Apple aurait-il pu le savoir s'il n'avait pas scanné les comptes iCloud… ? ». De quoi placer la Pomme dans la tourmente, avant de nouvelles mesures plus efficaces ?

Par Thibaut Keutchayan

Je m'intéresse notamment aux problématiques liant nouvelles technologies et politique tout en m'ouvrant à l'immense diversité des sujets que propose le monde de la tech' quand je ne suis pas en train de taper dans un ballon.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Popoulo

« la meilleure plateforme pour la distribution de pornographie infantile ». « comment Apple aurait-il pu le savoir s’il n’avait pas scanné les comptes iCloud… ? ». Donc ils ferment les yeux ?
Apple, la marque préférée des pédos (et terroristes).

Salgendo

La RGPD interdit la fouille des mails et comptes en ligne , et encore heureux .
Qu’ils arrêtent les réseaux de pedo et traitent le problème à la source, c’est la base de la prévention.
Trop de dérives possibles si la vérification est faite directement chez l’ensemble des utilisateurs …

SPH

Les grandes oreilles américaines (et autre) savent tout ce qui transite par email. Mais ils n’interviennent pas pour ne pas se faire débusquer. :thinking:

HAL1

S’il fallait une preuve supplémentaire que le choix d’Apple de mettre en place en local, sur tous les iPhone faisant tourner iOS 15 (version qui sera rapidement incontournable) un mécanisme de surveillance des photos ne se justifie absolument pas par rapport au respect de la vie privée…

Donc la Pomme surveille les courriels qui transitent par ses serveurs pour débusquer du contenu pédo-pornographique. Par contre, elle ne veut pas surveiller les photos qui transitent par ses serveurs pour débusquer du contenu pédo-pornographique, mais affirme que c’est une meilleure approche de pratiquer cette surveillance sur l’appareil de l’utilisateur

Comment dit-on en anglais, déjà ? Ah oui : bullshit! :face_with_symbols_over_mouth:

Popoulo

Les pédos ont encore de beaux jours devant eux. Ouin ouin vie privée… blablabla…

zoup01

De toute façon, envoyer un e-mail, c’est envoyer une carte postale sans enveloppe…
Il suffit juste de s’en souvenir.

Muggsy68

Non car la carte postale ne contient pas obligatoirement l’adresse de la personne. Juste depuis où elle a été postée.

Muggsy68

Aucune réaction vis à vis de Facebook ? Tu fais une fixette dingue sur Apple c’est ouf.

Moins de déséquilibrés libres et on dormirait tous sur nos deux oreilles.

HAL1

Quel rapport ?

C’est sûr. Et pour ça acceptons sans sourciller l’installation d’un mouchard dans tous les iPhone tournant avec iOS 15 et la surveillance d’une société privée. Rappelez-vous : c’est pour protéger les enfants, alors c’est forcément impossible à critiquer. :roll_eyes:

Nervantoss

Pas convaincu, quand on voit l’affaire Epstein, ces gens qui ont le pouvoir et l’argent me feront pas croire que subitement la pedophilie est un problème pour eux.

C’est comme le terrorisme, on se cache derrière des causes morales pour justifier la surveillance de gens qui ont de plus en plus de raison de se révolter.