WhatsApp promet de ne laisser aucun gouvernement scanner vos messages

02 août 2022 à 10h25
12
Whatsapp

Un débat fait rage entre WhatsApp et les associations de défense des enfants. En ligne de mire, une technologie nommée EE2E (End to end encryption). Ce système utilisé par la firme américaine permet de sécuriser vos communications, rendant les données indéchiffrables par un tiers.

Un chiffrement de bout en bout qui rend impossible la lecture de vos messages par votre fournisseur d’accès internet, le gouvernement ou n’importe quelle entité annexe. Une sécurité pour vos données, certes, mais également un manque de contrôle mis en avant par certaines associations qui ajoutent que les messages directs représentent « la première ligne d’attaque » dans la cyberpédocriminalité. Un bras de fer a été entamé entre les deux parties.

Mieux contrôler pour protéger les plus jeunes

Cette question a été soulevée par l’UE lors de la Commission européenne datée du 11 mai 2022. Discussion qui a affiché des chiffres alarmants : 85 millions de photos et vidéos à caractère pédocriminel auraient circulé dans le monde en 2021. Une hausse de 64 % par rapport aux années précédentes.

Des mesures sont en cours d’étude, bien entendu relayées par certaines associations américaines qui dénoncent des entreprises comme WhatsApp. Ces positions tranchées ont poussé Will Cathcart, à la tête du service de messagerie instantanée, à réagir : « Il existe des techniques très efficaces qui n'ont pas été adoptées par le secteur et qui ne nous obligent pas à sacrifier la sécurité de tous », a-t-il déclaré. « Nous signalons (ces comportements à risques) plus que presque tous les autres services internet dans le monde », montrant tout de même une volonté de modération sur sa plateforme.

Rappelons également que la dernière mesure mise en place par Apple pour contrer ces dérives s’est soldée par un échec. Il s'agissait de passer les photos des détenteurs d'iPhone au peigne fin avant qu'elles soient transférées vers iCloud, cela afin de dénicher les images aux contenus abusifs. À ce sujet, Alan Woodward, professeur à l’université de Surrey, a déclaré auprès de BBC News : « Bien sûr, si vous dites : "Pensez-vous que les enfants doivent être protégés ?", tout le monde va dire "Oui". Mais si vous dites ensuite à quelqu'un : "Bon, je vais mettre quelque chose sur votre téléphone qui va scanner chacune de vos images et la comparer à la base de données", alors soudainement, vous commencez à réaliser ce que cela implique. » 

Une réglementation compliquée à mettre en œuvre

WhatsApp n’est pas la seule application à utiliser ce type de chiffrement, Signal et Telegram sont, elles aussi, adeptes du EE2E. Pour cause, cette « sécurité » lors des conversations est recherchée par un grand nombre d’utilisateurs, certains choisissant même ces applications pour cette fonctionnalité bien précise.

On comprend donc mieux pourquoi, face à ces remarques, Will Cathcart réplique : « Si nous devions réduire la sécurité (de nos conversations) dans le monde entier pour répondre aux exigences d'un seul pays, ce serait une erreur de notre part, rendant notre produit moins attrayant pour 98 % de nos utilisateurs en raison des exigences de 2 % d'entre eux. »

Une réponse qui fait grincer des dents l’association NSPCC (National Society for the Prevention of Cruelty to Children, association luttant contre la maltraitance des enfants au Royaume-Uni), ajoutant qu' « il est de plus en plus clair que la sécurité des enfants et la vie privée des adultes ne doivent pas nécessairement être opposées l'une à l'autre. Nous voulons une discussion sur ce à quoi peut ressembler une réglementation équilibrée ». Un sujet qui n’a pas fini de faire couler de l’encre.

Pour retrouver l’intégralité de ce débat passionnant, n’hésitez pas à écouter le podcast de la BBC The battle over encrypted message.

WhatsApp
  • Les fonctions de messagerie
  • Les options de personnalisation
  • Gratuit
Whatsapp

WhatsApp est une application incontournable qui permet de discuter facilement avec vos contacts, quel que soit le modèle de leur téléphone, en vocal et en vidéo. Véritable référence utilisée par des milliards d'utilisateurs, cette appli est facile à prendre en main et disponible en français.

Whatsapp

WhatsApp est une application incontournable qui permet de discuter facilement avec vos contacts, quel que soit le modèle de leur téléphone, en vocal et en vidéo. Véritable référence utilisée par des milliards d'utilisateurs, cette appli est facile à prendre en main et disponible en français.

Maxime Aulne

Passionné par le monde du Web, j'analyse son actualité et en restitue l'essentiel pour que chacun puisse comprendre ses enjeux et ses évolutions. Mon but : que chacun fasse du web son terrain de jeu."

Lire d'autres articles

Passionné par le monde du Web, j'analyse son actualité et en restitue l'essentiel pour que chacun puisse comprendre ses enjeux et ses évolutions. Mon but : que chacun fasse du web son terrain de jeu."

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (12)

_Troll
L’excuse des pedophiles… Avec eux au moins, on pourrait mettre Paris dans une bouteille.
HAL1
Une réponse qui fait grincer des dents l’association NSPCC (National Society for the Prevention of Cruelty to Children, association luttant contre la maltraitance des enfants au Royaume-Uni) […]<br /> Et ils ne réalisent pas que, si par exemple ils arrivent à faire plier WhatsApp, les personnes souhaitant échanger du contenu pédo-pornographique s’empresseront de migrer vers une autre plate-forme ? Et qu’elles trouveront toujours un outil qui leur permet de le faire ?
Proutie66
S’ils promettent ça va.<br /> Promis c’est promis.
HAL1
Feladan:<br /> Le problème résiderait dans une dérive du système (genre tu flic n’importe quel commentaire raciste, que les données soient revendues à d’autres etc), ça je conçois. Mais on ne parle pas de ça présentement.<br /> Si, c’est exactement ce dont on parle. Car du moment que tu acceptes que le contenu de ton appareil soit scanné, alors tu ouvres la porte à toutes les dérives possibles.<br /> Avec l’argument « si ça peut sauver un et un seul enfant, alors allons-y », on pourrait justifier tout un tas de choses, comme la surveillance généralisée et permanente de l’ensemble de la population, que ce soit dans l’espace public mais également privé. Pourquoi par exemple ne pas exiger que nos téléphones portables enregistrent en permanence les images et le sons, et que les fabricants, les opérateurs réseau et la police aient accès à ces données ? Après tout, « si ça peut sauver un et un seul enfant »…
gothax
En plus ces pédophiles sont islamo-gauchistes pro Poutine non ?
phil995511
Certaines agences gouvernementales peuvent en effet abuser de faux prétextes pour essayer de faire passer des lois liberticides, les US font semble-t-il très fort en la matière.
HAL1
Feladan:<br /> Ici la démarche concerne la cyberpédocriminalité, et uniquement de ça.<br /> La question n’est pas de savoir ce que la démarche concerne, mais les risques qu’elle induit.<br /> Feladan:<br /> Il n’y a strictement aucun abus.<br /> Sachant que la solution n’est pour l’instant pas en place, il n’y a en effet pas d’abus. Si elle l’était, nul ne peut dire s’il y aurait des abus ou non.<br /> Feladan:<br /> De très nombreuses lois, pourraient avoir des dérives sérieuses. Mais n’en ont pas.<br /> Et pourquoi, selon toi ?<br /> La réponse : c’est justement parce que certaines personnes se soucient des libertés individuelles et tirent la sonnette d’alarme à chaque fois que des lois liberticides sont proposées, généralement toujours en utilisant le fameux argument « c’est pour protéger nos enfants ! ». Si ces personnes n’étaient pas là, on aurait très probablement beaucoup plus de caméras de sécurités dans l’espace publique et un flicage généralisé de tous les faits et gestes de chaque citoyen. Personnellement, ça ne me fait vraiment pas rêver comme perspective, mais chacun son truc…<br /> Feladan:<br /> Le coup du « tu ouvres la porte », n’est qu’un argument basé sur la peur.<br /> Absolument pas. C’est un argument basé sur la proportionnalité de la réponse. Faut-il lutter contre la pédo-criminalité ? Sans l’ombre d’un doute. Faut-il installer des mouchards dans chaque appareil électronique dans l’espoir de détecter davantage de pédo-criminels ? Non, et 100x non.<br /> Si Apple souhaite analyser toutes les photos et tous les documents qu’un utilisateur téléverse sur ses serveurs, il n’y a aucun problème, elle est tout à fait libre de le faire (et, au passage, elle le fait). Si Apple veut via une mise à jour logicielle installer sur l’ensemble des iPhone en circulation un mécanisme qui va scanner en local les photos dans chaque iPhone, c’est parfaitement inacceptable. L’entreprise voulait le faire, elle a dû reculer devant le tollé que ça a provoqué, et c’est une excellente chose.<br /> Même chose pour WhatsApp. Ils souhaitent offrir des communications chiffrées de bout en bout ? C’est leur droit, et c’est une très bonne chose. Il est hors de question qu’une loi vienne les obliger à transporter les messages en clair sous prétexte de lutter contre la pédo-criminalité.<br /> Feladan:<br /> J’attends encore les fameux abus qui n’ont jamais eu lieux <br /> Un exemple parmi beaucoup d’autres :<br /> https://information.tv5monde.com/info/loi-antiterroriste-et-surveillance-d-internet-en-france-c-est-une-violation-de-la-charte#:~:text=épreuve%20du%20terrorisme-,France%20%3A%20la%20loi%20antiterroriste%20et%20surveillance%20d’Internet%20"est,surveillance%20de%20masse%20sur%20Internet.
HAL1
Feladan:<br /> Ca sera stoppé en temps et en heure quand ça ira trop loin.<br /> Bien sûr que non. Il faut que ça soit stoppé avant d’être mis en place et que ça aille « trop loin ». C’est exactement ce qui a été fait avec le projet d’Apple de lancer une mise à jour avec un mécanisme pouvant scanner en local les photos dans chaque iPhone.<br /> Si les personnes qui se soucient des libertés individuelles avaient, comme tu le préconises, attendu de voir s’il y a des abus pour agir, on peut être certains que jamais l’entreprise ne serait revenu en arrière et que la fonctionnalité aurait été déployée.<br /> Feladan:<br /> Donc ça justifie ce que je dis : les dérives sont stoppées quand elles arrivent.<br /> Justement pas, puisque dans ce cas précis ça a été stoppé avant que ça arrive. Ça serait bien de ne pas déformer la réalité.<br /> Feladan:<br /> Tu ne connais ni la manière de faire, ni techniquement ce que ça engendrerai, que tu es déjà contre de base.<br /> En effet, je suis contre le fait d’instrumentaliser la protection des enfants pour mettre en place des lois ou des technologies qui vont menacer les libertés individuelles.<br /> On se rappellera quand même que ton premier « argument » ci-dessus c’était « je n’ai rien à me reprocher, donc pas de souci », ce qui est ce qu’on peut imaginer de pire comme façon de raisonner.<br /> Feladan:<br /> D’autres exemples ?<br /> C’est tellement classique. D’abord : « j’attends encore un seul exemple ». Et une fois qu’on en a donné un. « Oui, mais bon, bla bla bla, tu en as d’autres ? ».<br /> Quel intérêt, puisque de toute façon aucun des exemples que je pourrais te donner ne te semblera satisfaisant ?<br /> Feladan:<br /> Attendre de voir ce qui est proposé […]<br /> Je te laisse relire l’article : ce qui est proposé c’est que les services de messageries ne fasse plus de chiffrement de bout en bout, qui empêche aux services de messagerie et aux autorités de savoir quel type de contenu est échangé.<br /> Feladan:<br /> […] ou quantifier la probabilité d’un risque grave arrive …<br /> C’est marrant, mais c’est exactement le contraire de ce que tu dis ci-dessus avec le « ça sera stoppé en temps et en heures quand ça ira trop loin ».
Than
Comme toujours, le plus gros risque de ce genre de chose est politique.<br /> Si on scan tes photos, ta liberté en prend un coup par défaut.<br /> Parce que le jour où ton gouvernement considère que tu n’as pas le droit de ceci ou cela, ou se sert de toi pour atteindre quelqu’un d’autre, et bien c’est déjà trop tard.<br /> Cf. l’activiste dont l’avion a été détourné pour le faire arrêter parce que les autorités du pays sur lequel l’avion passait (et ne faisait QUE passer) ont eu connaissance de qui voyageait dedans…<br /> Et à la base l’avion ne devait pas passer par dessus, mais à côté du pays.<br /> L’activiste est désormais en prison. Voilà un risque réel. Alors oui, les pays autour ont protesté, mais en attendant le type dort en prison pour avoir juste fait du travail de journaliste contre le pouvoir politique de son pays.<br /> Attendre de voir ? Ahah.
dFxed
@Feladan @HAL1<br /> Sans pour autant imaginer le pire, il semble que prévoir un outil de collecte sans l’encadrer est source de dérives. Par exemple, la reconnaissance faciale chinoise, et son social score.<br /> L’idée en soit n’est pas forcément mauvaise, même si l’exécution est un peu trop répréssionniste, mais la dérive d’utilisation à des faims politiques et ethnique est juste inacceptable.<br /> Donc ce que je comprends dans les propos de @HAL1 c’est qu’il faut limiter, encadrer l’usage. Et ça me paraît sain.<br /> Cependant, la où j’ai l’impression que la paranoïa prends le dessus, c’est qu’il ne faut pas non plus imaginer que forcément un outil sera détourné.<br /> Donc si demain Signal (j’ai quitté WhatsApp lorsque j’ai trouvé mes SMS en ligne sur fb sans mon accord) analyse mes messages, images vidéos à la recherche de contenu pedopornographique, ça m’ira très bien.<br /> Édit : je parle des contenus qui transitent via l’application, et qui sont déchiffrés en local
HAL1
Than:<br /> Comme toujours, le plus gros risque de ce genre de chose est politique.<br /> Si on scan tes photos, ta liberté en prend un coup par défaut.<br /> Parce que le jour où ton gouvernement considère que tu n’as pas le droit de ceci ou cela, ou se sert de toi pour atteindre quelqu’un d’autre, et bien c’est déjà trop tard.<br /> Exactement. C’est bien pour cela qu’il faut être vigilant en amont, et ne pas attendre qu’une diminution des libertés soit mise en place pour réagir.<br /> Et il faut absolument éviter les simplifications de type « si tu n’as rien à te reprocher, tu ne devrais pas être contre » ou « c’est pour protéger nos enfants, tu ne t’opposes pas à ça ou bien ? ».<br /> Si une loi exige que des caméras soient installées dans chaque appartement et chaque maison et que les autorités aient accès 24 heures sur 24 aux images pour « protéger les enfants et améliorer la lutte contre la pédo-criminalité », la question ne sera pas de savoir si cela présente un risque pour le respect des libertés individuelles : le risque existera et sera considérable. Si cette loi n’est pas adoptée, le risque n’existera pas. C’est aussi simple que ça.<br /> dFxed:<br /> L’idée en soit n’est pas forcément mauvaise […]<br /> Pardon ?! L’idée en soi est totalement abominable ! <br /> dFxed:<br /> […] la dérive d’utilisation à des faims politiques et ethnique est juste inacceptable.<br /> Et cette dérive est indissociable de l’idée de base. Même dans une démocratie quasi-parfaite (et c’est quelque chose qui n’a jamais été atteint et le sera très probablement jamais) il serait impossible de se prémunir contre une telle dérive.<br /> dFxed:<br /> […] c’est qu’il ne faut pas non plus imaginer que forcément un outil sera détourné.<br /> Si, c’est justement ce qu’il faut imaginer si on veut évaluer le risque. La totalité des outils et des technologies inventés par l’être humain depuis l’aube de l’humanité ont été détournés dans des buts militaires ou criminels. On ne peut pas empêcher la recherche d’avancer (et ça serait une gigantesque erreur de vouloir le faire !), par contre on peut lutter autant que possible contre les dérives qui apparaîtront suite à de nouvelles inventions.<br /> À ce niveau, la reconnaissance faciale est un bon exemple récent.<br /> Feladan:<br /> Après j’ai peut être mal compris […]<br /> En effet, tu t’entêtes à ne pas vouloir comprendre, et c’est dommage.<br /> Je l’ai déjà dit, et je le répète : la lutte contre la pédo-criminalité est essentielle et devrait même être sacrément renforcée. Simplement, venir dire « il suffit de supprimer le chiffrement de bout en bout, de toute manière les personnes qui n’ont rien à se reprocher et qui ne sont pas contre le fait de mieux protéger les enfants n’ont aucune raison de s’y opposer » c’est malhonnête et ça ne peut en aucun cas être la solution.<br /> Y a-t-il d’autres solutions ? Peut-être, et si la National Society for the Prevention of Cruelty to Children ou d’autres associations qui visent à protéger les enfants veulent en proposer, alors c’est très bien. Pour l’instant, ce qu’on constate, c’est que lorsqu’on leur dit que la protection de la vie privée est importante ils « grincent des dents »…
dFxed
Appliquons le raisonnement que vous utilisez pour affirmer que l’idée en soi est mauvaise, pour vérifier l’alignement des inventions passées :<br /> Le moteur a combustion interne ? On en a fait des tanks et des avions pour tuer et détruire en masse. A l’aube de cette invention votre raisonnement l’aurai empêchée.<br /> L’électricité ? On tue des hommes avec, et parfois c’est hors de contrôle, et on provoque de graves incendies avec. Sans oublier les ravages écologiques qu’engendrent sa production.<br /> Encore une fois, en ayant ça en tête, difficile de l’autoriser.<br /> Pas besoin de continuer, on s’aperçoit vite que votre raisonnement est bien trop extrême pour pouvoir l’utiliser.<br /> Sans pour autant dénigrer le fond de votre pensée, il me semble qu’il faut savoir s’opposer à un danger et non pas un risque.<br /> Petit parallèle avec la construction de machines, où nous sommes tenu de supprimer les dangers, en les transformant en des risques acceptables. Par exemple, on carterise (mettre des portes et barrières) les machines pour supprimer le danger des parties mobiles (par exemple). Cependant, les capteurs et actionneurs bien que de sécurité ont toujours une probabilité de défaillance. On repousse donc ce danger en risque ayant une probabilité minime.<br /> Édit : typo
HAL1
dFxed:<br /> Pas besoin de continuer, on s’aperçoit vite que votre raisonnement est bien trop extrême pour pouvoir l’utiliser.<br /> Non, ce dont on s’aperçoit c’est que vous n’avez pas compris mon raisonnement et que vous avez complètement ignoré cette partie de mon commentaire :<br /> On ne peut pas empêcher la recherche d’avancer (et ça serait une gigantesque erreur de vouloir le faire !), par contre on peut lutter autant que possible contre les dérives qui apparaîtront suite à de nouvelles inventions.<br /> À ce niveau, la reconnaissance faciale est un bon exemple récent.<br /> Pour rappel, on ne parle pas ici « d’empêcher une invention », mais d’éviter que de faux-prétextes soient utilisés pour réduire les libertés individuelles. Ça n’a strictement rien à voir avec le fait « d’empêcher une invention ».
dFxed
Les prétextes d’empêcher, c’est vous qui les donnez jusqu’à présent.<br /> Dommage que vous ne voyez pas que votre propre raisonnement se mord la queue.<br /> Pour en revenir au sujet, vous fustigez la possibilité que des échanges soient scannés par WA, au prétexte des libertés individuelles. Donc vous souhaitez empêcher ce qui est pour vous une dérive.<br /> Mais en même temps, vous souhaitez que la pédopornographie soit combattue, et que les avancées technologiques se fassent.<br /> Ambivalent, surtout quand vous vous contentez de rejeter la solution proposée, sans en proposer d’autres.<br /> je ne rentrerais pas dans le débat des « libertés individuelles » ni dans la définition « d’empêcher une invention ».
HAL1
dFxed:<br /> Pour en revenir au sujet, vous fustigez la possibilité que des échanges soient scannés par WA, au prétexte des libertés individuelles. Donc vous souhaitez empêcher ce qui est pour vous une dérive.<br /> Mais en même temps, vous souhaitez que la pédopornographie soit combattue, et que les avancées technologiques se fassent.<br /> Ambivalent, surtout quand vous vous contentez de rejeter la solution proposée, sans en proposer d’autres.<br /> Ben voyons. C’est sûr que le monde est binaire, hein… Soit les échanges ne sont plus chiffrés de bout en bout et la pédo-criminalité est combattue, soit c’est l’exact inverse. <br /> On pourra avec plaisir continuer la discussion lorsque vous serez sorti de ces schémas manichéens.<br /> P.S. : Ça paraît hallucinant que je doive le souligner, mais actuellement les échanges sur WhatsApp sont chiffrés de bout en bout. Et je souhaite que cela continue à être le cas. Mais c’est sûr que c’est moi qui souhaite « empêcher », pas vrai…?
Than
Ce n’est pas parce qu’on souhaite défendre quelque chose qu’il faut fermer les yeux sur des méthodes qui apporteraient elles aussi un autre danger.<br /> Et le coup de « tant que c’est pas arrivé », allez l’expliquer à tous les activistes qui se sont fait chopper, emprisonner, voire tuer. Parce que ça, c’est AUSSI la réalité.<br /> C’est pas pour rien que les données sont une forme de champ de bataille de l’ère de l’information.<br /> C’est pas pour rien qu’on tape sur ceux qui en font des usages tordus, ou vendent des outils où l’éthique n’existe pas. Cf. le dernier gros logiciel espion d’une entreprise Israélienne (le fameux « projet pegazus ») qui a permis de surveiller, sous couvert de vouloir bien faire et de surveiller des terroristes, des politiques et des journalistes (entre autres).<br /> Ce qui est « marrant », c’est quand même que d’un côté on a des gens qui sont prêts à tout pour cacher des secrets d’entreprises, en dépit du bon sens parfois, mais qui n’ont aucun problème à l’idée d’avoir littéralement toute sa vie perso’ accessible à n’importe qui et n’importe quoi.<br /> Y’a rien de binaire dans ce monde.<br /> On ne dit pas qu’il faut interdire les petites cuillères parce qu’on peut pocher des yeux avec. Juste qu’il faut peut-être pas les réaliser dans une forme qui facilite le pochage d’oeil…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet