🔴 French Days en direct 🔴 French Days en direct

Apple veut repérer les contenus pédophiles sur iPhone avant leur publication sur iCloud

06 août 2021 à 10h50
25
© Apple
© Apple

Dans une volonté de protection des mineurs, Apple va commencer à vérifier les photos téléchargées sur son service iCloud dans une base de données de matériel pédopornographique (CSAM).

Pour le moment, ce système ne concerne que les appareils des utilisateurs américains.

Un système qui tient compte de la vie privée

Apple a annoncé ce jeudi qu’un système de vérification des photos prises sur les iPhone aux États-Unis avant qu’elles ne soient téléchargées vers ses services de stockage iCloud allait être mis en place. Son objectif est de s’assurer que le transfert ne correspond pas à des images connues d’abus sexuels sur des enfants, ou tout autre médias pédopornographiques.

Ce programme se nommerait « neuralMatch ». Il consisterait à confronter les images contenues dans l’iPhone d’une personne avec celles de la base de données sur les abus pédosexuels de la police américaine. Selon Apple, utiliser un système de comparaison au lieu d’analyse automatique d’image est suffisant pour respecter la vie privée des utilisateurs.

Plus précisément, lorsqu'un individu souhaite mettre en ligne une image sur le service de stockage iCloud d’Apple, l’iPhone crée, en amont, un hachage de l’image à télécharger et le compare à la base de données. Les images stockées uniquement sur le smartphone ne sont pas contrôlées, précise Apple.

Les autorités policières seront ensuite alertées si une image illégale est détectée sur le téléphone d’une personne. Une vérification humaine sera toutefois enclenchée avant le signalement d’un compte aux forces de l’ordre pour s’assurer de l’authenticité de toute correspondance avant de signaler un utilisateur.

Une précision extrêmement poussée

La nouvelle technologie d’Apple doit assurer un niveau de précision extrêmement élevé et entend réduire à moins d’une chance sur un billion par an le risque de signaler un utilisateur de manière erronée.

Pour sa part, le National Center for Missing & Exploited Children estime qu’Apple a pris la bonne décision : « Avec un si grand nombre de personnes utilisant des produits Apple, ces nouvelles mesures de sécurité ont le potentiel de sauver des vies pour les enfants qui sont attirés en ligne et dont les images horribles circulent dans les documents relatifs aux abus sexuels sur les enfants », spécifie John Clark, directeur général du NCMEC.

Après l’annonce de cette nouvelle technologie comparative, la question de l’équilibre entre la vie privée et la protection est revenue sur le devant de la scène. C'est surtout l’Electronic Frontier Foundation (EFF) qui a sévèrement critiqué la technologie d’Apple. Le groupe reproche même à l’entreprise de revenir sur sa position antérieure en matière de protection de la vie privée.

La fondation EFF a particulièrement exprimé son inquiétude quant au fait que le nouveau système d’Apple pourrait être élargi pour inclure des discours ou tout autre élément que les gouvernements pourraient ne pas approuver.

Pour l’instant, cette technologie ne concerne que les utilisateurs américains. Précisons que la plupart des autres grands fournisseurs de technologie (Google, Facebook, Microsoft) vérifient déjà les images de leurs services en les comparant à une base de données d’images connues.

Sources : Webpronews, Reuters

Benjamin Cabiron

Passionné depuis toujours par les nouvelles technologies. Je suis avec un œil vigilant le développement de la confidentialité sur le net. Également grand amateur de culture japonaise, j'engloutis les...

Lire d'autres articles

Passionné depuis toujours par les nouvelles technologies. Je suis avec un œil vigilant le développement de la confidentialité sur le net. Également grand amateur de culture japonaise, j'engloutis les romans de Haruki Murakami ou le dernier anime avec un malin plaisir.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (25)

LeToi
Ça m’a l’air assez casse-gueule comme cooperation, ils ont vraiment la confiance en leur algorithme de comparaison…
Fatima
Spécialité des multinationales et gouvernement américain, on utilise la peur et la sécurité pour contrôler et espionné tout le monde .
yam103
La boite de Pandore va pouvoir être ouverte, et pour une bonne raison.<br /> Puis on va au passage analyser les images pour des raisons commerciales, ou autres raisons moins justifiables.
jeanlucesi
Ils se présente toujours en sauveur pour pouvoir faire leur business .
Asakha1
Une vérification humaine sera toutefois enclenchée avant le signalement d’un compte aux forces de l’ordre pour s’assurer de l’authenticité de toute correspondance avant de signaler un utilisateur.<br /> J’imagine très bien la scène : «Oui monsieur, on a détecté une photo pédophilique sur votre appareil, pouvez-vous nous confirmer si c’est bien le cas ? Si oui, on vous transfert à la police immédiatement. Inutile de l’effacer, nous la conservons dans notre base de données comme preuve.<br /> Non, ce n’est pas ce genre de photo, ok, bonne journée ! »
Bruno02
[-…le système a seulement « un risque sur mille milliards » de créer de faux positifs. En cas d’erreur, les propriétaires pourront faire appel pour ne pas voir leurs comptes suspendus.<br /> …cet outil est « conçu dans le respect de la vie privée des utilisateurs »]<br /> :-l<br />
pecore
Quel intérêt de faire ça en prévenant les pédophiles à l’avance. Il leur suffira de garder leur photo sur leur téléphone ou d’utiliser un autre cloud. Tant qu’à attenter à la vie privée, autant que cela serve à quelque chose d’utile. Là ça ne sert à rien, ce n’est qu’un effet d’annonce.
HAL1
Si ce système se base sur des comparaisons et non pas des analyses des photos, cela signifie que ça ne peut fonctionner qu’avec les photos déjà connues, et non pas avec celles nouvellement prises, juste ? Auquel cas ça limite fortement l’intérêt, sans parler des dangers que cela représente pour la vie privée.
Oldtimer
J’ai une vidéo de mes enfants entrain de se barboter dans le bain. Comment va interpreter ça leur Siri ?
GRITI
Une vérification humaine sera toutefois enclenchée avant le signalement d’un compte aux forces de l’ordre pour s’assurer de l’authenticité de toute correspondance avant de signaler un utilisateur.<br /> Je plains les humains qui seront confrontés à de telles images.<br /> Respect pour les policiers/gendarmes qui bossent sur ces affaires. Ils doivent voir des choses que jamais je ne souhaiterais voir !!!
ultrabill
Leur IA a déjà du mal avec une simple reconnaissance faciale, le risque est énorme d’avoir des faux positifs. Et on se retrouve fiché.<br /> Le système ne fonctionnant qu’avec les photos stockées sur iCloud, désactiver la synchro et c’est fini… par contre le risque demeure pour ceux qui n’ont rien à se reprocher.
Francis7
Vous avez tous tout à fait raison mais d’un autre côté, je suis surpris que cela n’avait pas été envisagé bien avant.<br /> Apple a vos coordonnées bancaires et personnelles. La première chose à laquelle j’ai pensée en créant mon compte, c’est à leur arrière pensée pour repérer d’éventuels criminels de tous bords.<br /> Les USA sont dans cette logique que fliquer tout le monde. Edward Snowden nous avait prévenus à ses risques et périls.
Carmageddon
Pédophilie, le fameux 2ème mot après terrorisme pour que les gens soient prêts à perdre encore un peu de leurs vies privés, libertés… Vite un sondage !<br /> …Et tout cela pour rien, on peut très bien donner de fausses infos.<br /> Par exemple pour la carte SIM prépayée, cela me gonflait de donner mes vraies infos (question de principes et je m’y tiens), tant pis s’ils me coupaient ma ligne après 2 semaines, mais cela a fonctionné.<br /> Sinon je serais parti vers la carte ukrainienne : ########<br /> Le créateur du site a même indiqué quelque part qu’il y a beaucoup de politiques qui en demandent une. :-)))<br /> Faites ce que je dis, ne faites pas ce que je fais.<br /> Edit modo : lien enlevé !
_Troll
La pedophilie est quelque chose qui existe seulement depuis internet. Cette comparaison d images est donc necessaire pour la securite seulement de tous les utilisareurs. Les pedophiles sont si stupide qu ils vont echanger leur photo sur les serveurs clouds et donc se faire attraper tres facilement par la police.
tfpsly
Deux articles de OsNews semblent assez pessimistes sur ce scan des photos par Apple :<br /> Apple: critics of continuous iPhone photo scanning are “screeching voices of the minority”. Apple is going to scan all photos on every iPhone to see if any of them match against a dataset of photos – that Apple itself hasn’t verified – given to them by the authorities of countries in which this is rolled out, with final checks being done by (third party) reviewers who are most likely traumatized, overworked, underpaid, and easily infiltrated.<br /> The problem with perceptual hashes. Oliver Kuederle, who works with the image hashing technology used by Apple’s new technology that’s going to scan the photos on your iOS device continuously, explains that it is far, far from foolproof: «&nbsp;Perceptual hashes are messy. The simple fact that image data is reduced to a small number of bits leads to collisions and therefore false positives. When such algorithms are used to detect criminal activities, especially at Apple scale, many innocent people can potentially face serious problems.&nbsp;»<br /> Des experts en sécurité, vie privée, cryptographie etc. ont déjà publié une lettre ouverte affirmant que des dérives avec ce système sont plus que probables.<br /> “It’s impossible to build a client-side scanning system that can only be used for sexually explicit images sent or received by children. As a consequence, even a well-intentioned effort to build such a system will break key promises of the messenger’s encryption itself and open the door to broader abuses […] That’s not a slippery slope; that’s a fully built system just waiting for external pressure to make the slightest change.”<br /> The Center for Democracy and Technology has said that it is “deeply concerned that Apple’s changes in fact create new risks to children and all users, and mark a significant departure from long-held privacy and security protocols”<br /> while “Apple’s new detector for child sexual abuse material (CSAM) is promoted under the umbrella of child protection and privacy, it is a firm step towards prevalent surveillance and control”.<br /> Fundamental design flaws in Apple’s proposed approach have also been pointed out by experts, who have claimed that “Apple can trivially use different media fingerprinting datasets for each user. For one user it could be child abuse, for another it could be a much broader category”, thereby enabling selective content tracking for targeted users.<br /> Etc., la lettre est trop longue pour pouvoir être résumée ici.<br /> _Troll:<br /> La pedophilie est quelque chose qui existe seulement depuis internet<br /> ??? Ça doit être de l’ironie mal habillée (surtout vu le nom du posteur)? Non. Voir l’église catholique si besoin d’un exemple plus ancien.
_Troll
Ce n etait pas de l ironie mais juste un troll que je ne cache pas vu mon pseudo. Je partage votre point de vue, la pedophilie existe depuis toujours, mais elle est souvent presentee comme l unique mal d internet servant a justifier les atteintes a la vie privee et aux donnees personnelles.
DuboisS
@Oldtimer: Aucune crainte, sauf si celle-ci est dans la base de données sur les abus pédosexuels US ==&gt; «&nbsp;Il consisterait à confronter les images contenues dans l’iPhone d’une personne avec celles de la base de données sur les abus pédosexuels de la police américaine.&nbsp;»
Procyon92
Bizarrement personne ne commente<br /> Précisons que la plupart des autres grands fournisseurs de technologie (Google, Facebook , Microsoft) vérifient déjà les images de leurs services en les comparant à une base de données d’images connues.
HAL1
Procyon92:<br /> Précisons que la plupart des autres grands fournisseurs de technologie (Google, Facebook , Microsoft) vérifient déjà les images de leurs services en les comparant à une base de données d’images connues.<br /> Il est tout à fait normal que Google, par exemple, vérifie le contenu qui est mis à disposition publiquement sur YouTube, sur des serveurs lui appartenant.<br /> Cela n’a rien à voir avec ce qu’Apple va faire, à savoir analyser en local sur le téléphone des données et prendre des mesures lorsqu’elles seront téléversées sur un cloud privé.
cyrano66
Quand on aborde ce sujet sensible en tout point, tout le monde imagine des trucs bien degeu avec des jeunes enfants.<br /> Hors les mots ont un sens.<br /> A fortiori en droit.<br /> Et la il s’agit bien de respect des lois.<br /> Sachant que légalement dans le monde la pedophile se défini comme des relations sexuelles avec mineurs et que l’âge varie suivant les pays entre 12 et 21 ans.<br /> Ça ne va pas aider l’algorithme de comparaison.<br /> Bonne chance pour définir l’âge de certains ados, eux-mêmes équipés de smartphone et adeptes de selfies.<br /> Maintenant moi ce que je propose c’est que les assistants vocaux analysent ce qui se dit 24/24 et dénoncent aux autorités les paroles suspectes.<br /> Comme ça on sera enfin tranquille.
_Troll
Le cloud est par definition non privee, vous stockez des donnees sur des disques durs ne vous appartenant pas. Vous ne saurez jamais ce que va faire le proprietaire avec vos donnees.
_Troll
Les assistants vocaux enregistrent et analysent vos paroles en continu. Qui pourrait prouvez le contraire.
cyrano66
Perso peu me chaut.<br /> ces trucs ne rentreront pas chez moi.<br /> Grâce à Dieu je n’ai aucun handicap, et comme je fais parti de cette faible tranche de la population qui sait lire et écrire, je n’ai pas besoin d’une boîte qui le fait à ma place.
Blackalf
_Troll:<br /> Ce n etait pas de l ironie mais juste un troll que je ne cache pas vu mon pseudo.<br /> Certaines choses ne durent qu’un temps…
Yannick2k
alors Apple ne veut pas donner accès aux iPhone des terroristes mais se permet de checker les photos pour détecter des méchants… même si l’idée est louable, elle l’est aussi pour TOUS les méchants non?
Voir tous les messages sur le forum
Haut de page

Sur le même sujet