🔴 Soldes : jusqu'à - 70% sur le high-tech 🔴 Soldes d'hiver : jusqu'à - 70% sur le high-tech

Apple laisse tomber sa détection d'images pédopornographiques

08 décembre 2022 à 15h45
3
enfant et télephone portable © Shutterstock
© Shutterstock

La marque avait annoncé en 2021 une nouvelle fonctionnalité de détection d'images pédopornographiques qui avait créé la polémique.

Apple avait probablement de bonnes intentions, mais elle s'est embourbée dans une communication mal maîtrisée.

Des dispositifs imaginés pour sécuriser les messages reçus par les plus jeunes

Retour en 2021. Au cœur de l'été, Apple annonce une série de mesures destinées à protéger les plus jeunes d'images au contenu inadapté à leur jeune âge. Cette fonctionnalité, propre à iMessage, permet à iOS d'analyser en temps réel les photos reçues par un enfant, dont les parents l'ont ajouté au groupe familial iCloud.

L'image est automatiquement floutée et l'enfant reçoit différents messages l'informant du caractère violent ou sexuel de la photo. Il peut alerter l'un de ses parents, ignorer le message qui sera supprimé ou consulter la photo s'il le souhaite. Ce dispositif est aujourd'hui actif avec iOS 16.

Un autre système avait été présenté en parallèle. iOS allait pouvoir analyser toutes les images présentes dans sa bibliothèque photos et ces dernières seraient mises en correspondance avec une base de données incluant des milliers de photos pédopornographiques. En cas d'alerte, des modérateurs d'Apple examineraient manuellement les images détectées et prendraient les mesures appropriées, en désactivant le compte iCloud et en prévenant les autorités compétentes.

Apple abandonne son projet de détection automatique après de multiples critiques

À peine annoncé, le dispositif a été vivement critiqué de toutes parts. De nombreuses personnes se sont insurgées du système de surveillance mondial mis au point par Apple. Si le constructeur a tenté de rassurer, en expliquant que les données analysées étaient intégralement anonymisées, cela n'a pas réussi à calmer les esprits et Apple a alors mis en pause son projet à la fin de l'année 2021.

Alors que l'on était sans nouvelles de son avancement, le vice-président d'Apple en charge du logiciel, Craig Federighi, vient de mettre un coup d'arrêt au projet. Lors d'une interview au Wall Street Journal, portant sur l'ajout prochain du chiffrement des sauvegardes iCloud, ce dernier a indiqué que l'entreprise allait explorer de nouvelles pistes : « L'abus sexuel des enfants peut être évité avant qu'il ne se produise... C'est là que nous mettons notre énergie à aller de l'avant ».

Source : The Verge

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
3
4
qotzo
comment l’IA peut-elle faire la différence entre un enfant et un nain ?
nicgrover
Euh la taille du pén… peut-être.
bennukem
Et si c’est un enfant nain ?
Voir tous les messages sur le forum

Derniers actualités

Sous la pression d’avocats humains, l'intelligence artificielle ne pourra finalement pas plaider
Malgré le bad buzz CNET, ce média populaire va lui aussi utiliser l'IA
Galaxy S23 : Samsung va-t-il augmenter son prix en France ?
Pour les soldes, Fnac propose une remise immédiate sur l'iPhone 14 Pro !
Chrome sur Android : vous pouvez désormais vraiment protéger vos onglets privés, voilà comment
Ces banques françaises auxquelles FTX doit de l'argent (MàJ)
Soldes Cdiscount : voilà un prix plus qu'intéressant pour ce casque Bose !
Data privacy week : quelle est la meilleure offre VPN pour votre cybersécurité ?
Voici 3 conseils pour améliorer votre sécurité en ligne ! (antivirus, vpn, ...)
Comment le fondeur franco-italien STMicroelectronics a doublé ses profits en 2022
Haut de page