Apple laisse tomber sa détection d'images pédopornographiques

08 décembre 2022 à 15h45
3
© Shutterstock
© Shutterstock

La marque avait annoncé en 2021 une nouvelle fonctionnalité de détection d'images pédopornographiques qui avait créé la polémique.

Apple avait probablement de bonnes intentions, mais elle s'est embourbée dans une communication mal maîtrisée.

Des dispositifs imaginés pour sécuriser les messages reçus par les plus jeunes

Retour en 2021. Au cœur de l'été, Apple annonce une série de mesures destinées à protéger les plus jeunes d'images au contenu inadapté à leur jeune âge. Cette fonctionnalité, propre à iMessage, permet à iOS d'analyser en temps réel les photos reçues par un enfant, dont les parents l'ont ajouté au groupe familial iCloud.

L'image est automatiquement floutée et l'enfant reçoit différents messages l'informant du caractère violent ou sexuel de la photo. Il peut alerter l'un de ses parents, ignorer le message qui sera supprimé ou consulter la photo s'il le souhaite. Ce dispositif est aujourd'hui actif avec iOS 16.

Un autre système avait été présenté en parallèle. iOS allait pouvoir analyser toutes les images présentes dans sa bibliothèque photos et ces dernières seraient mises en correspondance avec une base de données incluant des milliers de photos pédopornographiques. En cas d'alerte, des modérateurs d'Apple examineraient manuellement les images détectées et prendraient les mesures appropriées, en désactivant le compte iCloud et en prévenant les autorités compétentes.

Apple abandonne son projet de détection automatique après de multiples critiques

À peine annoncé, le dispositif a été vivement critiqué de toutes parts. De nombreuses personnes se sont insurgées du système de surveillance mondial mis au point par Apple. Si le constructeur a tenté de rassurer, en expliquant que les données analysées étaient intégralement anonymisées, cela n'a pas réussi à calmer les esprits et Apple a alors mis en pause son projet à la fin de l'année 2021.

Alors que l'on était sans nouvelles de son avancement, le vice-président d'Apple en charge du logiciel, Craig Federighi, vient de mettre un coup d'arrêt au projet. Lors d'une interview au Wall Street Journal, portant sur l'ajout prochain du chiffrement des sauvegardes iCloud, ce dernier a indiqué que l'entreprise allait explorer de nouvelles pistes : « L'abus sexuel des enfants peut être évité avant qu'il ne se produise... C'est là que nous mettons notre énergie à aller de l'avant ».

Source : The Verge

Mathieu Grumiaux

Grand maître des aspirateurs robots et de la domotique qui vit dans une "maison du futur". J'aime aussi parler films et séries sur les internets. Éternel padawan, curieux de tout ce qui concerne les n...

Lire d'autres articles

Grand maître des aspirateurs robots et de la domotique qui vit dans une "maison du futur". J'aime aussi parler films et séries sur les internets. Éternel padawan, curieux de tout ce qui concerne les nouvelles technologies.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (3)

qotzo
comment l’IA peut-elle faire la différence entre un enfant et un nain ?
nicgrover
Euh la taille du pén… peut-être.
bennukem
Et si c’est un enfant nain ?
Voir tous les messages sur le forum
Haut de page

Sur le même sujet