Scan des photos : Apple répond face à la controverse

09 août 2021 à 18h05
23
© Shutterstock.com
© Shutterstock.com

Apple apporte des précisions sur les deux technologies qui vont être déployées dans le cadre d'un programme de renforcement de la sécurité des enfants en ligne.

La semaine dernière, Apple faisait savoir que le groupe allait scanner les photos stockées sur iCloud afin de repérer d'éventuels contenus pédocriminels aux États-Unis. Une annonce controversée, dont la firme de Cupertino a tenu à clarifier les contours.

Pas de conséquence sur la confidentialité des données

La marque à la pomme explique d'abord qu'il ne faut pas confondre les deux technologies qui vont être utilisées dans le cadre du renforcement de la sécurité de son écosystème à l'égard des enfants. La première concerne l'app Messages, qui va flouter des contenus jugés comme sexuellement explicites envoyés ou reçus par de jeunes utilisateurs ou utilisatrices.

L'analyse des contenus est alors effectuée sur l'appareil même ; les communications restent chiffrées et l'opération n'implique pas une réduction du respect de la vie privée.

Quand un contenu potentiellement inapproprié est repéré, l'enfant (de moins de 12 ans) reçoit un message d'avertissement. Il ou elle peut alors choisir de ne pas visionner l'image. S'il ou elle souhaite la voir, une notification pourra être envoyée à ses parents.

Des questions soulevées sur les abus possibles

L'autre volet de ce renforcement de la protection est lié uniquement à l'upload de photos sur iCloud. Dans ce cas, Apple va veiller à ce qu'aucun contenu catalogué comme « CSAM » (Child Sexual Abuse Material) ne puisse être téléversé.

Apple assure que son algorithme a été conçu pour éviter les faux positifs ou de détecter d'autres contenus. La société s'appuie sur une comparaison avec les bases de données d'organisations de protection de l'enfance.

Si un contenu est repéré comme potentiellement pédocriminel, il est soumis à une vérification humaine, il n'y a pas de système automatique qui avertit les autorités. Par contre, si les faits sont avérés après vérification, Apple est dans l'obligation de faire un rapport auprès de la police, la détention de telles images étant illégale outre-Atlantique.

Autre crainte balayée par Apple, le fait que d'autres contenus que CSAM soient recherchés par le système. L'entreprise fait savoir que la technologie a été créée pour ce seul but, et que si un gouvernement lui demandait de l'utiliser en quête d'autres contenus, elle refuserait.

Source : Apple

Alexandre Schmid

Gamer et tech enthusiast, j’ai fait de mes passions mon métier. Diplômé d’un Master en RNG sur Hearthstone. Rigole aux blagues d’Alexa.

Lire d'autres articles

Gamer et tech enthusiast, j’ai fait de mes passions mon métier. Diplômé d’un Master en RNG sur Hearthstone. Rigole aux blagues d’Alexa.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (23)

Styxou
Dès lors que l’image peut être soumise à vérification humaine, cela signifie qu’aucune image n’est protégée par un chiffrement, il est possible à Apple de voir l’ensemble des photos du téléphone synchronisées dans iCloud. Il suffit de modifier l’algorithme pour l’adapter comme un menu de mcdo aux spécificités locales (pédophiles, terroristes… journalistes, opposants politiques, artistes, défenseurs de la liberté).
Muggsy68
Pour les parano, vous avez un smartphone ? Internet ? Cartes bancaires ? Et vous êtes toujours vivants ? Ah…
NumLOCK
Les voici donc, ces nouvelles fonctionnalités offertes par le Cloud <br /> «&nbsp;Si vous n’acceptez pas nos nouvelles conditions générales, c’est que vous avez sûrement quelque chose à vous reprocher&nbsp;»
NumLOCK
L’argument qui tue: «&nbsp;si ça ne vous plaît pas qu’on scanne librement vos données, c’est que vous êtes parano&nbsp;».
Maxime.TE
Votre commentaire pose une question intéressante : quid du chiffrement ? Comment font-ils pour passer outre ? En d’autres termes, comment le justifie-t-il ?
Diwann
Rappel : les données stockées sur icloud ne sont PAS chiffrées avec un chiffrement de bout en bout. Apple dispose bien d’une master clé
Francis7
La technologie avance et avance encore. Les smartphones sont équipés d’appareil photo.<br /> Que voulez-vous que les ados fassent d’autre avec un smartphone que de photographier ou de filmer leur cul ? A quoi pourraient-ils s’intéresser d’autre ? Appeler leur grand-mère ? Ils ne vont pas aller photographier la Tour Eiffel ou le Musée du Louvre non plus.<br /> Les smartphones, les réseaux sociaux, les clouds et les sites web ne sont pas innocents non plus.<br /> Mais chacun vous dira qu’il n’est pas responsable de ce qui est publié sur les diverses plate-forme.<br /> Si c’est l’ado elle-même qui a photographié et filmé son cul pour le publier sur internet, visage masqué ?<br /> Quid et boule de gomme.
_Troll
Tout ce que l on photographie avec un smartphone n est pas strictement privee mais a moitie public.
Muggsy68
Je dis qu’il faut être cohérent.<br /> Si vous voulez être incognito il ne faut rien utiliser d’électronique.<br /> Du coup, il vous reste à vous convertir dans l’agriculture… et encore même la, carte bancaire et internet sont nécessaires.<br /> Croire que Google ne fait rien avec Android et leur cloud photo, croire que les chinois ne font rien alors même qu’en Chine vous avez une note sociale et reconnaissance faciale par caméra a chaque coin de rue est assez utopique.
jcc137
Si je me photographie chez moi, la photo est strictement privée.<br /> Si je photographie quelqu’un ou quelque chose à l’extérieur, mais que je ne la publie pas, la photo reste strictement privée.<br /> Dès lors qu’elle n’est pas publiée (de public, donc redue publique) la photo conserve un caractère privé.<br /> Si je photographie quelque chose avec art, la photo acquiert une propriété renforcée et protégée, et peut-être vendue.
_Troll
Ce que vous dites sur le droit d auteur d un photographe est exacte, donc Apple ainsi que toutes les autres entreprises qui scannent, analysent, upload vos photo de votre smartphone a votre insu a des fins plus ou moins claires, pedophiles, publicite, revente, entrainement d AI, classement sociale, etc devraient vous payer vos droit d auteur. Il en est de meme des photo stockees sur un cloud privee.
bafue
Il vont arrêter les Iphones au Vatican !!
cyrano66
“de moins de 12 ans”<br /> Voilà une précision qui manquait dans le sujet précédent.<br /> Et sinon strictement rien n’oblige à stocker ses photos sur iCloud.<br /> (même économiquement c’est une mauvaise idée.)<br /> Cupertino risque de commercialement regretter d’annoncer que les photos peuvent être regardées pour contrôler.<br /> Quant au flouttement dans Message c’est fait pour rassurer les parents.<br /> Les ados utilisent d’autres messageries à la mode toutes chiffrées.<br /> Du coup je crains que tout ça ne soit qu’un effet d’annonce. Peu de chance de démantèlement de réseaux qui ne sont quand même pas assez stupide pour utiliser les clouds pour stocker.
tfpsly
Marrant que Apple soit devenu le Big Brother de leur pub 1984 :<br />
HAL1
Exactement. D’autant plus que dans leur conférence de presse, (Apple to roll out photo checking system on country-by-country basis | Reuters) Apple a expliqué qu’ils allaient s’adapter aux législations des pays dans lesquels ils opèrent («&nbsp;In a media briefing on Friday, Apple said it would make plans to expand the service based on the laws of each country where it operates.&nbsp;»).
NumLOCK
Au contraire, je suis parfaitement cohérent.<br /> Le problème ce n’est pas la technologie, mais l’électronique grand public qui a pris un mauvais virage, avec des appareils connectés sur lesquels le public n’a plus aucun contrôle, mais qu’il continue pourtant d’acheter en masse. Le voilà, le nœud du problème.<br /> Dans le principe il suffirait de réfléchir, d’être conscient de ce qu’on achète et de garder la maîtrise de ses données… Mais ça fait bien longtemps que la majorité des gens ne se pose plus ce genre de question, car cela demanderait des efforts et des concessions. Alors on confie cette tâche (et le contrôle total) aux constructeurs de nos appareils, quelle brillante idée.
jcc137
En théorie, oui, Apple n’a aucun droit sur les photos privées. Mais je suppose (bien) que lorsque l’utilisateur accepte de placer ses photos dans le icloud, il donne autorisation implicitement ou explicitement, à Apple de cribler vos photos privées.<br /> Ce qui est paradoxal avec Apple, c’est que la société a refusé au FBI de donner le code d’accès à un iphone appartenant à un narco-criminel, mais qu’elle s’autorise à scanner des photos privées pour chasser d’autres criminels ???
Djudenne
Perso ce qui me gene, c’est le coté leur algo est bon et donc fait pas d’erreurs mais pas transmis directement a la police.<br /> Donc si l’algo est bon, en théroei aucun controle n’est necessaire, mais on sait tous que rien n’est parfait. De la, un employé va devoir visionner des images choquante quand c’est bien le cas, top comme boulot.<br /> Et si une erreur du système, la photo perso sera donc visioné par une personne qui n’est pas autorisée.<br /> Pour moi sur le principe je comprends leur démarche, mais ca ne devrait pas être a Appel de juger la photo si besoin de remonter a la police.<br /> Et surtout, Apple devrait prévenir la personne que la photo va etre regardé par quelqu’un et si erreur d’Appel, un dédomagement devrait être fournis a la personne qui a vu sa photo qui et quand même privée, vu que le Cloud est une espace perso hebergé ailleurs.<br /> Mais Apple a toujours fait ce qu’ils voulaient, ca changera pas ^^
kurdy34
Le problème comme souligné par Édouard Snowden c’est qu’une fois le système en place il n’y a qu’à en modifier les paramètres pour identifier d’autres types de contenu.<br /> twitter.com<br /> Edward Snowden (Snowden)<br /> No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.<br /> They turned a trillion dollars of devices into iNarcs—*without asking.* twitter.com/Snowden/status…Edward Snowden @Snowden🚨🚨 Apple says to "protect children," they're updating every iPhone to continuously compare your photos and cloud storage against a secret blacklist. If it finds a hit, they call the cops.<br /> iOS will also tell your parents if you view a nude in iMessage.<br /> https://t.co/VZCTsrVnnc<br /> 2:23 AM - 6 Aug 2021<br /> 24K<br /> 9.6K<br /> C’est dangereux parce que certes aujourd’hui Apple n’en ferait pas grand chose mais demain?<br /> Imaginez avoir pris des manifs en photo et être tagé comme terroriste potentiel dans 10 ans. Je noircis volontairement le trais mais on ne sait jamais de quoi l’avenir sera fait et notre historique numérique peut nous jouer des tours.
phil995511
Dans les faits une telle initiative reviendrait à casser le soit disant encryptage des iPhones. Si Apple prétend pouvoir accéder à nos données sans casser ce soit disant encryptage, on peut se demander à quel point ces iPhones ils seraient réellement sécurisés ou si ils en sont pas dans les faits de vraies passoires au niveau sécurité contenants de multiples backdors intégrées, ce qui me semble être l’hypothèse la plus probable…<br /> Apple se moque vraiment de ses clients !!! Ils disent vouloir appliquer ces fonctions sur téléphones de nos enfants, comme si nos bambins voulaient visionner des images à caractère porno ou réaliser eux même ?!?!<br /> Dans le fond Apple veux fliquer chacun de leurs clients alors qu’il doit y avoir un déviant sexuel poursuivable pénalement parlant pour 100’000 personnes, et encore… ça revient à se moquer purement et simplement des gens. Ce n’est qu’un prétexte pour accéder aux données privées de leurs clients et en faire on ne sait trop quoi avec !!! Part ailleurs les gouvernements n’ont pas besoin de Apple pour luter contre le crime et ils n’ont pas besoin non plus de tout savoir sur nous, c’est de la violation pure et simple de la sphère privée !!!<br /> C’est juste la honte !!!
HAL1
phil995511:<br /> Si Apple prétend pouvoir accéder à nos données sans casser ce soit disant encryptage […]<br /> Apple «&nbsp;n’accède&nbsp;» pas aux données présentes sur l’appareil. L’analyse des photos se fait en local, par des algorithmes, et l’entreprise est avertie lorsque les photos reconnues comme étant pédo-pornographiques (suite à une comparaison de signatures avec une base de données gérée par une organisation privée) sont téléversées dans iCloud (fonctionnalité activée sur la grande majorité des iPhone), où l’entreprise possède les clés de chiffrage.
Muggsy68
Zut. Je voulais répondre plus haut.<br /> Quand une maj OS est installé il faut « accepter » les CGU<br /> Idem pour le cloud.<br /> Donc c’est facile de dire qu’on fait ça dans notre dos.<br /> Fut un temps où j’avais arrêté d’utiliser Dropbox car ils se permettaient de fouiner tout le contenu de la box.
cid1
Ce qu’il ne faut pas oublier c’est que parfois, ce sont les parents eux mêmes qui prennent des photos pouvant être qualifiées de pédopornographiques et puis les publient sur facebook.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet