WhatsApp promet de ne laisser aucun gouvernement scanner vos messages

Maxime Aulne
Publié le 02 août 2022 à 10h25
Whatsapp

Un débat fait rage entre WhatsApp et les associations de défense des enfants. En ligne de mire, une technologie nommée EE2E (End to end encryption). Ce système utilisé par la firme américaine permet de sécuriser vos communications, rendant les données indéchiffrables par un tiers.

Un chiffrement de bout en bout qui rend impossible la lecture de vos messages par votre fournisseur d’accès internet, le gouvernement ou n’importe quelle entité annexe. Une sécurité pour vos données, certes, mais également un manque de contrôle mis en avant par certaines associations qui ajoutent que les messages directs représentent « la première ligne d’attaque » dans la cyberpédocriminalité. Un bras de fer a été entamé entre les deux parties.

Mieux contrôler pour protéger les plus jeunes

Cette question a été soulevée par l’UE lors de la Commission européenne datée du 11 mai 2022. Discussion qui a affiché des chiffres alarmants : 85 millions de photos et vidéos à caractère pédocriminel auraient circulé dans le monde en 2021. Une hausse de 64 % par rapport aux années précédentes.

Des mesures sont en cours d’étude, bien entendu relayées par certaines associations américaines qui dénoncent des entreprises comme WhatsApp. Ces positions tranchées ont poussé Will Cathcart, à la tête du service de messagerie instantanée, à réagir : « Il existe des techniques très efficaces qui n'ont pas été adoptées par le secteur et qui ne nous obligent pas à sacrifier la sécurité de tous », a-t-il déclaré. « Nous signalons (ces comportements à risques) plus que presque tous les autres services internet dans le monde », montrant tout de même une volonté de modération sur sa plateforme.

Rappelons également que la dernière mesure mise en place par Apple pour contrer ces dérives s’est soldée par un échec. Il s'agissait de passer les photos des détenteurs d'iPhone au peigne fin avant qu'elles soient transférées vers iCloud, cela afin de dénicher les images aux contenus abusifs. À ce sujet, Alan Woodward, professeur à l’université de Surrey, a déclaré auprès de BBC News : « Bien sûr, si vous dites : "Pensez-vous que les enfants doivent être protégés ?", tout le monde va dire "Oui". Mais si vous dites ensuite à quelqu'un : "Bon, je vais mettre quelque chose sur votre téléphone qui va scanner chacune de vos images et la comparer à la base de données", alors soudainement, vous commencez à réaliser ce que cela implique. » 

Une réglementation compliquée à mettre en œuvre

WhatsApp n’est pas la seule application à utiliser ce type de chiffrement, Signal et Telegram sont, elles aussi, adeptes du EE2E. Pour cause, cette « sécurité » lors des conversations est recherchée par un grand nombre d’utilisateurs, certains choisissant même ces applications pour cette fonctionnalité bien précise.

On comprend donc mieux pourquoi, face à ces remarques, Will Cathcart réplique : « Si nous devions réduire la sécurité (de nos conversations) dans le monde entier pour répondre aux exigences d'un seul pays, ce serait une erreur de notre part, rendant notre produit moins attrayant pour 98 % de nos utilisateurs en raison des exigences de 2 % d'entre eux. »

Une réponse qui fait grincer des dents l’association NSPCC (National Society for the Prevention of Cruelty to Children, association luttant contre la maltraitance des enfants au Royaume-Uni), ajoutant qu' « il est de plus en plus clair que la sécurité des enfants et la vie privée des adultes ne doivent pas nécessairement être opposées l'une à l'autre. Nous voulons une discussion sur ce à quoi peut ressembler une réglementation équilibrée ». Un sujet qui n’a pas fini de faire couler de l’encre.

Pour retrouver l’intégralité de ce débat passionnant, n’hésitez pas à écouter le podcast de la BBC The battle over encrypted message.

WhatsApp
  • Les fonctions de messagerie
  • Les options de personnalisation
  • Gratuit
9 / 10
Par Maxime Aulne

Passionné par le monde du Web, j'analyse son actualité et en restitue l'essentiel pour que chacun puisse comprendre ses enjeux et ses évolutions. Mon but : que chacun fasse du web son terrain de jeu."

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
_Troll

L’excuse des pedophiles… Avec eux au moins, on pourrait mettre Paris dans une bouteille.

HAL1

Une réponse qui fait grincer des dents l’association NSPCC (National Society for the Prevention of Cruelty to Children, association luttant contre la maltraitance des enfants au Royaume-Uni) […]

Et ils ne réalisent pas que, si par exemple ils arrivent à faire plier WhatsApp, les personnes souhaitant échanger du contenu pédo-pornographique s’empresseront de migrer vers une autre plate-forme ? Et qu’elles trouveront toujours un outil qui leur permet de le faire ?

Proutie66

S’ils promettent ça va.
Promis c’est promis.

HAL1

Si, c’est exactement ce dont on parle. Car du moment que tu acceptes que le contenu de ton appareil soit scanné, alors tu ouvres la porte à toutes les dérives possibles.
Avec l’argument « si ça peut sauver un et un seul enfant, alors allons-y », on pourrait justifier tout un tas de choses, comme la surveillance généralisée et permanente de l’ensemble de la population, que ce soit dans l’espace public mais également privé. Pourquoi par exemple ne pas exiger que nos téléphones portables enregistrent en permanence les images et le sons, et que les fabricants, les opérateurs réseau et la police aient accès à ces données ? Après tout, « si ça peut sauver un et un seul enfant »…

gothax

En plus ces pédophiles sont islamo-gauchistes pro Poutine non ?

phil995511

Certaines agences gouvernementales peuvent en effet abuser de faux prétextes pour essayer de faire passer des lois liberticides, les US font semble-t-il très fort en la matière.

HAL1

La question n’est pas de savoir ce que la démarche concerne, mais les risques qu’elle induit.

Sachant que la solution n’est pour l’instant pas en place, il n’y a en effet pas d’abus. Si elle l’était, nul ne peut dire s’il y aurait des abus ou non.

Et pourquoi, selon toi ?
La réponse : c’est justement parce que certaines personnes se soucient des libertés individuelles et tirent la sonnette d’alarme à chaque fois que des lois liberticides sont proposées, généralement toujours en utilisant le fameux argument « c’est pour protéger nos enfants ! ». Si ces personnes n’étaient pas là, on aurait très probablement beaucoup plus de caméras de sécurités dans l’espace publique et un flicage généralisé de tous les faits et gestes de chaque citoyen. Personnellement, ça ne me fait vraiment pas rêver comme perspective, mais chacun son truc…

Absolument pas. C’est un argument basé sur la proportionnalité de la réponse. Faut-il lutter contre la pédo-criminalité ? Sans l’ombre d’un doute. Faut-il installer des mouchards dans chaque appareil électronique dans l’espoir de détecter davantage de pédo-criminels ? Non, et 100x non.

Si Apple souhaite analyser toutes les photos et tous les documents qu’un utilisateur téléverse sur ses serveurs, il n’y a aucun problème, elle est tout à fait libre de le faire (et, au passage, elle le fait). Si Apple veut via une mise à jour logicielle installer sur l’ensemble des iPhone en circulation un mécanisme qui va scanner en local les photos dans chaque iPhone, c’est parfaitement inacceptable. L’entreprise voulait le faire, elle a dû reculer devant le tollé que ça a provoqué, et c’est une excellente chose.

Même chose pour WhatsApp. Ils souhaitent offrir des communications chiffrées de bout en bout ? C’est leur droit, et c’est une très bonne chose. Il est hors de question qu’une loi vienne les obliger à transporter les messages en clair sous prétexte de lutter contre la pédo-criminalité.

Un exemple parmi beaucoup d’autres :
https://information.tv5monde.com/info/loi-antiterroriste-et-surveillance-d-internet-en-france-c-est-une-violation-de-la-charte#:~:text=épreuve%20du%20terrorisme-,France%20%3A%20la%20loi%20antiterroriste%20et%20surveillance%20d’Internet%20"est,surveillance%20de%20masse%20sur%20Internet.

HAL1

Bien sûr que non. Il faut que ça soit stoppé avant d’être mis en place et que ça aille « trop loin ». C’est exactement ce qui a été fait avec le projet d’Apple de lancer une mise à jour avec un mécanisme pouvant scanner en local les photos dans chaque iPhone.
Si les personnes qui se soucient des libertés individuelles avaient, comme tu le préconises, attendu de voir s’il y a des abus pour agir, on peut être certains que jamais l’entreprise ne serait revenu en arrière et que la fonctionnalité aurait été déployée.

Justement pas, puisque dans ce cas précis ça a été stoppé avant que ça arrive. Ça serait bien de ne pas déformer la réalité.

En effet, je suis contre le fait d’instrumentaliser la protection des enfants pour mettre en place des lois ou des technologies qui vont menacer les libertés individuelles.
On se rappellera quand même que ton premier « argument » ci-dessus c’était « je n’ai rien à me reprocher, donc pas de souci », ce qui est ce qu’on peut imaginer de pire comme façon de raisonner.

C’est tellement classique. D’abord : « j’attends encore un seul exemple ». Et une fois qu’on en a donné un. « Oui, mais bon, bla bla bla, tu en as d’autres ? ».
Quel intérêt, puisque de toute façon aucun des exemples que je pourrais te donner ne te semblera satisfaisant ?

Je te laisse relire l’article : ce qui est proposé c’est que les services de messageries ne fasse plus de chiffrement de bout en bout, qui empêche aux services de messagerie et aux autorités de savoir quel type de contenu est échangé.

C’est marrant, mais c’est exactement le contraire de ce que tu dis ci-dessus avec le « ça sera stoppé en temps et en heures quand ça ira trop loin ». :roll_eyes:

Than

Comme toujours, le plus gros risque de ce genre de chose est politique.
Si on scan tes photos, ta liberté en prend un coup par défaut.
Parce que le jour où ton gouvernement considère que tu n’as pas le droit de ceci ou cela, ou se sert de toi pour atteindre quelqu’un d’autre, et bien c’est déjà trop tard.

Cf. l’activiste dont l’avion a été détourné pour le faire arrêter parce que les autorités du pays sur lequel l’avion passait (et ne faisait QUE passer) ont eu connaissance de qui voyageait dedans…
Et à la base l’avion ne devait pas passer par dessus, mais à côté du pays.

L’activiste est désormais en prison. Voilà un risque réel. Alors oui, les pays autour ont protesté, mais en attendant le type dort en prison pour avoir juste fait du travail de journaliste contre le pouvoir politique de son pays.

Attendre de voir ? Ahah.

dFxed

@Feladan @HAL1
Sans pour autant imaginer le pire, il semble que prévoir un outil de collecte sans l’encadrer est source de dérives. Par exemple, la reconnaissance faciale chinoise, et son social score.
L’idée en soit n’est pas forcément mauvaise, même si l’exécution est un peu trop répréssionniste, mais la dérive d’utilisation à des faims politiques et ethnique est juste inacceptable.
Donc ce que je comprends dans les propos de @HAL1 c’est qu’il faut limiter, encadrer l’usage. Et ça me paraît sain.
Cependant, la où j’ai l’impression que la paranoïa prends le dessus, c’est qu’il ne faut pas non plus imaginer que forcément un outil sera détourné.
Donc si demain Signal (j’ai quitté WhatsApp lorsque j’ai trouvé mes SMS en ligne sur fb sans mon accord) analyse mes messages, images vidéos à la recherche de contenu pedopornographique, ça m’ira très bien.

Édit : je parle des contenus qui transitent via l’application, et qui sont déchiffrés en local