WhatsApp promet de ne laisser aucun gouvernement scanner vos messages

02 août 2022 à 10h25
12
Whatsapp

Un débat fait rage entre WhatsApp et les associations de défense des enfants. En ligne de mire, une technologie nommée EE2E (End to end encryption). Ce système utilisé par la firme américaine permet de sécuriser vos communications, rendant les données indéchiffrables par un tiers.

Un chiffrement de bout en bout qui rend impossible la lecture de vos messages par votre fournisseur d’accès internet, le gouvernement ou n’importe quelle entité annexe. Une sécurité pour vos données, certes, mais également un manque de contrôle mis en avant par certaines associations qui ajoutent que les messages directs représentent « la première ligne d’attaque » dans la cyberpédocriminalité. Un bras de fer a été entamé entre les deux parties.

Mieux contrôler pour protéger les plus jeunes

Cette question a été soulevée par l’UE lors de la Commission européenne datée du 11 mai 2022. Discussion qui a affiché des chiffres alarmants : 85 millions de photos et vidéos à caractère pédocriminel auraient circulé dans le monde en 2021. Une hausse de 64 % par rapport aux années précédentes.

Des mesures sont en cours d’étude, bien entendu relayées par certaines associations américaines qui dénoncent des entreprises comme WhatsApp. Ces positions tranchées ont poussé Will Cathcart, à la tête du service de messagerie instantanée, à réagir : « Il existe des techniques très efficaces qui n'ont pas été adoptées par le secteur et qui ne nous obligent pas à sacrifier la sécurité de tous », a-t-il déclaré. « Nous signalons (ces comportements à risques) plus que presque tous les autres services internet dans le monde », montrant tout de même une volonté de modération sur sa plateforme.

Rappelons également que la dernière mesure mise en place par Apple pour contrer ces dérives s’est soldée par un échec. Il s'agissait de passer les photos des détenteurs d'iPhone au peigne fin avant qu'elles soient transférées vers iCloud, cela afin de dénicher les images aux contenus abusifs. À ce sujet, Alan Woodward, professeur à l’université de Surrey, a déclaré auprès de BBC News : « Bien sûr, si vous dites : "Pensez-vous que les enfants doivent être protégés ?", tout le monde va dire "Oui". Mais si vous dites ensuite à quelqu'un : "Bon, je vais mettre quelque chose sur votre téléphone qui va scanner chacune de vos images et la comparer à la base de données", alors soudainement, vous commencez à réaliser ce que cela implique. » 

Une réglementation compliquée à mettre en œuvre

WhatsApp n’est pas la seule application à utiliser ce type de chiffrement, Signal et Telegram sont, elles aussi, adeptes du EE2E. Pour cause, cette « sécurité » lors des conversations est recherchée par un grand nombre d’utilisateurs, certains choisissant même ces applications pour cette fonctionnalité bien précise.

On comprend donc mieux pourquoi, face à ces remarques, Will Cathcart réplique : « Si nous devions réduire la sécurité (de nos conversations) dans le monde entier pour répondre aux exigences d'un seul pays, ce serait une erreur de notre part, rendant notre produit moins attrayant pour 98 % de nos utilisateurs en raison des exigences de 2 % d'entre eux. »

Une réponse qui fait grincer des dents l’association NSPCC (National Society for the Prevention of Cruelty to Children, association luttant contre la maltraitance des enfants au Royaume-Uni), ajoutant qu' « il est de plus en plus clair que la sécurité des enfants et la vie privée des adultes ne doivent pas nécessairement être opposées l'une à l'autre. Nous voulons une discussion sur ce à quoi peut ressembler une réglementation équilibrée ». Un sujet qui n’a pas fini de faire couler de l’encre.

Pour retrouver l’intégralité de ce débat passionnant, n’hésitez pas à écouter le podcast de la BBC The battle over encrypted message.

WhatsApp
  • Populaire
  • Riche en fonctionnalités

WhatsApp est une application incontournable qui permet de discuter facilement avec vos contacts quels que soit leur téléphone en vocal et en vidéo. Véritable référence utilisée par des millions d'utilisateurs, cette appli est facile à prendre en main et disponible en français.

WhatsApp est une application incontournable qui permet de discuter facilement avec vos contacts quels que soit leur téléphone en vocal et en vidéo. Véritable référence utilisée par des millions d'utilisateurs, cette appli est facile à prendre en main et disponible en français.

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
12
8
_Troll
L’excuse des pedophiles… Avec eux au moins, on pourrait mettre Paris dans une bouteille.
HAL1
Une réponse qui fait grincer des dents l’association NSPCC (National Society for the Prevention of Cruelty to Children, association luttant contre la maltraitance des enfants au Royaume-Uni) […]<br /> Et ils ne réalisent pas que, si par exemple ils arrivent à faire plier WhatsApp, les personnes souhaitant échanger du contenu pédo-pornographique s’empresseront de migrer vers une autre plate-forme ? Et qu’elles trouveront toujours un outil qui leur permet de le faire ?
Feladan
Je pense qu’au contraire, ils sont bien au courant, mais le coup du « Non mais ils vont aller ailleurs donc ne faisons rien du tout et restons aveugle », n’est pas trop un argument tenable :D.<br /> Je n’ai personnellement jamais trop compris cette bataille du « non mais je veux que tout soit privé ». Personnellement, je m’en cogne qu’un BOT scan la photo de mon meme ou les insultes que j’envoie à mes potes, si ça peut sauver un et un seul enfant, alors allez-y.<br /> Le problème résiderait dans une dérive du système (genre tu flic n’importe quel commentaire raciste, que les données soient revendues à d’autres etc), ça je conçois. Mais on ne parle pas de ça présentement.
Proutie66
S’ils promettent ça va.<br /> Promis c’est promis.
HAL1
Feladan:<br /> Le problème résiderait dans une dérive du système (genre tu flic n’importe quel commentaire raciste, que les données soient revendues à d’autres etc), ça je conçois. Mais on ne parle pas de ça présentement.<br /> Si, c’est exactement ce dont on parle. Car du moment que tu acceptes que le contenu de ton appareil soit scanné, alors tu ouvres la porte à toutes les dérives possibles.<br /> Avec l’argument « si ça peut sauver un et un seul enfant, alors allons-y », on pourrait justifier tout un tas de choses, comme la surveillance généralisée et permanente de l’ensemble de la population, que ce soit dans l’espace public mais également privé. Pourquoi par exemple ne pas exiger que nos téléphones portables enregistrent en permanence les images et le sons, et que les fabricants, les opérateurs réseau et la police aient accès à ces données ? Après tout, « si ça peut sauver un et un seul enfant »…
gothax
En plus ces pédophiles sont islamo-gauchistes pro Poutine non ?
phil995511
Certaines agences gouvernementales peuvent en effet abuser de faux prétextes pour essayer de faire passer des lois liberticides, les US font semble-t-il très fort en la matière.
Feladan
HAL1:<br /> Si, c’est exactement ce dont on parle.<br /> C’est ce qui est invoqué, mais ce n’est pas le sujet. Ici la démarche concerne la cyberpédocriminalité, et uniquement de ça. Il n’y a strictement aucun abus. Toi, tu imagines des abus futurs, possibles, mais peu probables. Il y a un gouffre. Peurs infondées (ou fondées pour toi), que tu n’arriveras jamais à étayer factuellement comme quoi ça se produira.<br /> Ce type de réflexion est associable à absolument et littéralement tout. De très nombreuses lois, pourraient avoir des dérives sérieuses. Mais n’en ont pas. AI, caméra de sécurité, mise sur écoute, etc etc.<br /> Le coup du « tu ouvres la porte », n’est qu’un argument basé sur la peur. Il n’est jamais suffisant à lui même pour interdire quoi que ce soit. On en a d’ailleurs eu un paquet récemment avec le Covid, l’Etat d’Urgence, le pass sanitaire etc.<br /> J’attends encore les fameux abus qui n’ont jamais eu lieux <br /> HAL1:<br /> Avec l’argument « si ça peut sauver un et un seul enfant, alors allons-y », on pourrait justifier tout un tas de choses<br /> Sauf que je ne justifie pas « tout un tas de chose », je justifie la démarche présente dans cette news. Nuance.<br /> Il ne faut pas changer le contexte d’un commentaire. Ou si tu n’es pas sûr, demande moi dans lequel j’ai prononcé la phrase.<br /> J’attends que tu me dise en quoi c’est disproportionné et abusif en l’état, et sans invoquer des « peurs » de choses possibles dans le futur. Peut être qu’il y a des raisons auxquelles je n’ai pas pensé.
HAL1
Feladan:<br /> Ici la démarche concerne la cyberpédocriminalité, et uniquement de ça.<br /> La question n’est pas de savoir ce que la démarche concerne, mais les risques qu’elle induit.<br /> Feladan:<br /> Il n’y a strictement aucun abus.<br /> Sachant que la solution n’est pour l’instant pas en place, il n’y a en effet pas d’abus. Si elle l’était, nul ne peut dire s’il y aurait des abus ou non.<br /> Feladan:<br /> De très nombreuses lois, pourraient avoir des dérives sérieuses. Mais n’en ont pas.<br /> Et pourquoi, selon toi ?<br /> La réponse : c’est justement parce que certaines personnes se soucient des libertés individuelles et tirent la sonnette d’alarme à chaque fois que des lois liberticides sont proposées, généralement toujours en utilisant le fameux argument « c’est pour protéger nos enfants ! ». Si ces personnes n’étaient pas là, on aurait très probablement beaucoup plus de caméras de sécurités dans l’espace publique et un flicage généralisé de tous les faits et gestes de chaque citoyen. Personnellement, ça ne me fait vraiment pas rêver comme perspective, mais chacun son truc…<br /> Feladan:<br /> Le coup du « tu ouvres la porte », n’est qu’un argument basé sur la peur.<br /> Absolument pas. C’est un argument basé sur la proportionnalité de la réponse. Faut-il lutter contre la pédo-criminalité ? Sans l’ombre d’un doute. Faut-il installer des mouchards dans chaque appareil électronique dans l’espoir de détecter davantage de pédo-criminels ? Non, et 100x non.<br /> Si Apple souhaite analyser toutes les photos et tous les documents qu’un utilisateur téléverse sur ses serveurs, il n’y a aucun problème, elle est tout à fait libre de le faire (et, au passage, elle le fait). Si Apple veut via une mise à jour logicielle installer sur l’ensemble des iPhone en circulation un mécanisme qui va scanner en local les photos dans chaque iPhone, c’est parfaitement inacceptable. L’entreprise voulait le faire, elle a dû reculer devant le tollé que ça a provoqué, et c’est une excellente chose.<br /> Même chose pour WhatsApp. Ils souhaitent offrir des communications chiffrées de bout en bout ? C’est leur droit, et c’est une très bonne chose. Il est hors de question qu’une loi vienne les obliger à transporter les messages en clair sous prétexte de lutter contre la pédo-criminalité.<br /> Feladan:<br /> J’attends encore les fameux abus qui n’ont jamais eu lieux <br /> Un exemple parmi beaucoup d’autres :<br /> https://information.tv5monde.com/info/loi-antiterroriste-et-surveillance-d-internet-en-france-c-est-une-violation-de-la-charte#:~:text=épreuve%20du%20terrorisme-,France%20%3A%20la%20loi%20antiterroriste%20et%20surveillance%20d’Internet%20"est,surveillance%20de%20masse%20sur%20Internet.
Feladan
HAL1:<br /> La question n’est pas de savoir ce que la démarche concerne, mais les risques qu’elle induit.<br /> La question concerne bien les deux : ce qui est proposé ET les risques (et d’autres paramètre, comme la probabilité de ces risques, etc). Si seul les risques t’intéresse, alors tu fais du cherry picking, autant arrêter là. Rester dans le « non mais regarde un jour il se pourrait se passer ça, on annule !!! » n’apporte rien.<br /> Il faut juger la chose telle qu’elle est également.<br /> HAL1:<br /> La réponse : c’est justement parce que certaines personnes se soucient des libertés individuelles et tirent la sonnette d’alarme à chaque fois que des lois liberticides sont proposées, généralement toujours en utilisant le fameux argument « c’est pour protéger nos enfants ! »<br /> Sauf quand les exemples donnés, sont bien en applications. Et les dérives non.<br /> Donc ici, tes mêmes personnes qui se « soucient des libertés individuelles et tirent la sonnette d’alarme », en feront tout autant lors de la venue des abus imaginaires dont tu parles. Problem solved . Ca sera stoppé en temps et en heure quand ça ira trop loin.<br /> HAL1:<br /> Faut-il installer des mouchards dans chaque appareil électronique dans l’espoir de détecter davantage de pédo-criminels ?<br /> J’ai du rater dans la news, peux-tu me dires où il y est questions de « mouchards dans chaque appareil électroniques » ? Encore une fois, tu fais preuve d’imagination d’un risque possible mais peu probable. Quand ça sera proposé, il sera tant de s’alarmer.<br /> Si tu voulais parler d’Apple : Guess what, ça a été refusé. Donc ça justifie ce que je dis : les dérives sont stoppées quand elles arrivent. La news concerne WhatsApp. Et rien n’est marqué comme aucun manière de faire n’est proposé.<br /> HAL1:<br /> Il est hors de question qu’une loi vienne les obliger à transporter les messages en clair sous prétexte de lutter contre la pédo-criminalité<br /> Tu ne connais ni la manière de faire, ni techniquement ce que ça engendrerai, que tu es déjà contre de base. C’est du purement idéologique.<br /> HAL1:<br /> Un exemple parmi beaucoup d’autres :<br /> Ce exemple ne concerne absolument pas ce que j’ai dis, mais bon. J’imagine que c’est une tentative de faire croire « qu’il y en a trop trop ». Mais si c’est là le seul exemple que tu as réussi à dénicher, malgré la pluralité des « risques » imaginaires qui ont été invoqués sur toutes les lois de la sorte…<br /> Alors ça me va, je te l’accorde. D’autres exemples ? Tu as pléthore de choix qui ont fait couler tout un tas de « risques » imaginaire à tout un tas de gens : reconnaissance faciale, caméra de sécurité en ville, Etat d’urgence Covid, pass sanitaire…<br /> Je pensais que tu allais au moins m’en trouver des dizaines perso <br /> Quoi qu’il en soit, il semble donc que l’argument principal est « les risques possibles ». Sans allez plus loin, c’est bien ce que je pensais dés le départ… Il faut aller un poil plus loin dans l’analyse… Comme je sais pas … Attendre de voir ce qui est proposé ou quantifier la probabilité d’un risque grave arrive … Je pense qu’on a fait le tour.<br /> Bonne continuation
HAL1
Feladan:<br /> Ca sera stoppé en temps et en heure quand ça ira trop loin.<br /> Bien sûr que non. Il faut que ça soit stoppé avant d’être mis en place et que ça aille « trop loin ». C’est exactement ce qui a été fait avec le projet d’Apple de lancer une mise à jour avec un mécanisme pouvant scanner en local les photos dans chaque iPhone.<br /> Si les personnes qui se soucient des libertés individuelles avaient, comme tu le préconises, attendu de voir s’il y a des abus pour agir, on peut être certains que jamais l’entreprise ne serait revenu en arrière et que la fonctionnalité aurait été déployée.<br /> Feladan:<br /> Donc ça justifie ce que je dis : les dérives sont stoppées quand elles arrivent.<br /> Justement pas, puisque dans ce cas précis ça a été stoppé avant que ça arrive. Ça serait bien de ne pas déformer la réalité.<br /> Feladan:<br /> Tu ne connais ni la manière de faire, ni techniquement ce que ça engendrerai, que tu es déjà contre de base.<br /> En effet, je suis contre le fait d’instrumentaliser la protection des enfants pour mettre en place des lois ou des technologies qui vont menacer les libertés individuelles.<br /> On se rappellera quand même que ton premier « argument » ci-dessus c’était « je n’ai rien à me reprocher, donc pas de souci », ce qui est ce qu’on peut imaginer de pire comme façon de raisonner.<br /> Feladan:<br /> D’autres exemples ?<br /> C’est tellement classique. D’abord : « j’attends encore un seul exemple ». Et une fois qu’on en a donné un. « Oui, mais bon, bla bla bla, tu en as d’autres ? ».<br /> Quel intérêt, puisque de toute façon aucun des exemples que je pourrais te donner ne te semblera satisfaisant ?<br /> Feladan:<br /> Attendre de voir ce qui est proposé […]<br /> Je te laisse relire l’article : ce qui est proposé c’est que les services de messageries ne fasse plus de chiffrement de bout en bout, qui empêche aux services de messagerie et aux autorités de savoir quel type de contenu est échangé.<br /> Feladan:<br /> […] ou quantifier la probabilité d’un risque grave arrive …<br /> C’est marrant, mais c’est exactement le contraire de ce que tu dis ci-dessus avec le « ça sera stoppé en temps et en heures quand ça ira trop loin ».
Than
Comme toujours, le plus gros risque de ce genre de chose est politique.<br /> Si on scan tes photos, ta liberté en prend un coup par défaut.<br /> Parce que le jour où ton gouvernement considère que tu n’as pas le droit de ceci ou cela, ou se sert de toi pour atteindre quelqu’un d’autre, et bien c’est déjà trop tard.<br /> Cf. l’activiste dont l’avion a été détourné pour le faire arrêter parce que les autorités du pays sur lequel l’avion passait (et ne faisait QUE passer) ont eu connaissance de qui voyageait dedans…<br /> Et à la base l’avion ne devait pas passer par dessus, mais à côté du pays.<br /> L’activiste est désormais en prison. Voilà un risque réel. Alors oui, les pays autour ont protesté, mais en attendant le type dort en prison pour avoir juste fait du travail de journaliste contre le pouvoir politique de son pays.<br /> Attendre de voir ? Ahah.
Feladan
Juste pour rectifier les déformations que tu fais (involontairement je pense) qui modifies mes propos, je n’argumenterai pas plus :<br /> HAL1:<br /> Il faut que ça soit stoppé avant d’être mis en place et que ça aille « trop loin »<br /> « En temps et en heure », ça ne signifie pas « après être mis en place ». Entre le moment actuel où on ne sait rien, et « c’est mis en place », y’a quand même quelques trucs.<br /> HAL1:<br /> comme tu le préconises, attendu de voir s’il y a des abus pour agir<br /> C’est bien ce qui a été fait : la méthode d’Apple était abusive. On l’a vu, ça a fait controverse. C’est exactement ce qui s’est passé.<br /> HAL1:<br /> Justement pas, puisque dans ce cas précis ça a été stoppé avant que ça arrive. Ça serait bien de ne pas déformer la réalité.<br /> J’ai dis « Quand elles arrivent », pas « quand c’est arrivé ». Exemple : une vague peut arriver, sans que tes pieds soient mouillés. Ca serait bien de ne pas déformer mes propos.<br /> HAL1:<br /> D’abord : « j’attends encore un seul exemple ». Et une fois qu’on en a donné un. « Oui, mais bon, bla bla bla, tu en as d’autres ? ».<br /> L’intérêt ? C’est que je t’ai donné tout un tas de domaines (presque une dizaines) où il y avait ces mêmes controverses, et tu n’as réussi qu’à me citer un seul exemple, qui, soit dit en passant, n’est même pas dans les domaines dont je parlais.<br /> L’intérêt est donc, de dire que tes dérives, sont extrêmement peu probables et n’arriveront probablement jamais dans nos pays.<br /> HAL1:<br /> Quel intérêt, puisque de toute façon aucun des exemples que je pourrais te donner ne te semblera satisfaisant ?<br /> On appelle ce que tu viens de faire, de l’ad hominem, tu me prête un comportement que je n’ai pas. L’idée de base, était de te prouver que des abus, il n’y en a pratiquement pas, et qu’ils sont bien stoppés quand ils arrivent, alors que pourtant, tous les sujets que j’ai cité, il y a des personnes comme toi qui disent « non mais y’aura des abus faut dire non avant !!! ».<br /> HAL1:<br /> Je te laisse relire l’article : ce qui est proposé c’est que les services de messageries ne fasse plus de chiffrement de bout en bout, qui empêche aux services de messagerie et aux autorités de savoir quel type de contenu est échangé<br /> Et je te laisse relire l’article en retour : ce qui est dit c’est que c’est LE PROBLÈME. Cela n’implique pas que la solution soit d’arrêter. Par exemple, on sait qu’il y a tout un tas de métadonnées collectées. Peut être y a t’il quelque chose d’exploitables ? Peut être même que l’idée sera de vérifier en local, uniquement quand ton téléphone l’a déchiffrée ?<br /> Mais au final on s’en fou, car juste le faire d’arrêter le chiffrement end-to-end, n’est pas un « abus ». On parlait d’abus de contrôle actuellement. Des centaines d’applications ne chiffrent pas.<br /> HAL1:<br /> C’est marrant, mais c’est exactement le contraire de ce que tu dis ci-dessus avec le « ça sera stoppé en temps et en heures quand ça ira trop loin »<br /> « Quantifier les probabilité qu’un risque arrive », n’est pas contradictoire avec « ça sera stoppé en temps et en heures quand ça ira trop loin ».
dFxed
@Feladan @HAL1<br /> Sans pour autant imaginer le pire, il semble que prévoir un outil de collecte sans l’encadrer est source de dérives. Par exemple, la reconnaissance faciale chinoise, et son social score.<br /> L’idée en soit n’est pas forcément mauvaise, même si l’exécution est un peu trop répréssionniste, mais la dérive d’utilisation à des faims politiques et ethnique est juste inacceptable.<br /> Donc ce que je comprends dans les propos de @HAL1 c’est qu’il faut limiter, encadrer l’usage. Et ça me paraît sain.<br /> Cependant, la où j’ai l’impression que la paranoïa prends le dessus, c’est qu’il ne faut pas non plus imaginer que forcément un outil sera détourné.<br /> Donc si demain Signal (j’ai quitté WhatsApp lorsque j’ai trouvé mes SMS en ligne sur fb sans mon accord) analyse mes messages, images vidéos à la recherche de contenu pedopornographique, ça m’ira très bien.<br /> Édit : je parle des contenus qui transitent via l’application, et qui sont déchiffrés en local
Feladan
dFxed:<br /> Sans pour autant imaginer le pire, il semble que prévoir un outil de collecte sans l’encadrer est source de dérives. Par exemple, la reconnaissance faciale chinoise, et son social score<br /> Tout à fait, et c’est bien ce que je dis.<br /> Dans une mesure comme celle-ci est annoncée il faut :<br /> attendre de voir ce qui est proposé pour juger du périmètre, du technique, etc<br /> attendre de votre l’encadrement<br /> imaginer et quantifier les risques de dérives (si tu as des grosses dérives qui sont sûre d’arriver, on va pas y aller, à l’inverse si des petites dérives peu probable (typiquement peu de chance que ce qui arrive en chine, arrive chez nous…), là, c’est pas la même.<br /> Mais pas « il peut avoir des dérives alors on stop tout ! » avant même de savoir ce qui est proposé… Moi, c’est ça que j’entends dans le discours de @HAL1 . Après j’ai peut être mal compris, mais si c’était une histoire d’encadrement/limitation, alors je suis 100% d’accord ^^’<br /> On ne sait pas ce qui veut être fait, ce qui sera fait, comment ça sera fait, ni quels risques cela pourrait engendrer, ni comment ça sera encadré, que certains sont déjà contre
HAL1
Than:<br /> Comme toujours, le plus gros risque de ce genre de chose est politique.<br /> Si on scan tes photos, ta liberté en prend un coup par défaut.<br /> Parce que le jour où ton gouvernement considère que tu n’as pas le droit de ceci ou cela, ou se sert de toi pour atteindre quelqu’un d’autre, et bien c’est déjà trop tard.<br /> Exactement. C’est bien pour cela qu’il faut être vigilant en amont, et ne pas attendre qu’une diminution des libertés soit mise en place pour réagir.<br /> Et il faut absolument éviter les simplifications de type « si tu n’as rien à te reprocher, tu ne devrais pas être contre » ou « c’est pour protéger nos enfants, tu ne t’opposes pas à ça ou bien ? ».<br /> Si une loi exige que des caméras soient installées dans chaque appartement et chaque maison et que les autorités aient accès 24 heures sur 24 aux images pour « protéger les enfants et améliorer la lutte contre la pédo-criminalité », la question ne sera pas de savoir si cela présente un risque pour le respect des libertés individuelles : le risque existera et sera considérable. Si cette loi n’est pas adoptée, le risque n’existera pas. C’est aussi simple que ça.<br /> dFxed:<br /> L’idée en soit n’est pas forcément mauvaise […]<br /> Pardon ?! L’idée en soi est totalement abominable ! <br /> dFxed:<br /> […] la dérive d’utilisation à des faims politiques et ethnique est juste inacceptable.<br /> Et cette dérive est indissociable de l’idée de base. Même dans une démocratie quasi-parfaite (et c’est quelque chose qui n’a jamais été atteint et le sera très probablement jamais) il serait impossible de se prémunir contre une telle dérive.<br /> dFxed:<br /> […] c’est qu’il ne faut pas non plus imaginer que forcément un outil sera détourné.<br /> Si, c’est justement ce qu’il faut imaginer si on veut évaluer le risque. La totalité des outils et des technologies inventés par l’être humain depuis l’aube de l’humanité ont été détournés dans des buts militaires ou criminels. On ne peut pas empêcher la recherche d’avancer (et ça serait une gigantesque erreur de vouloir le faire !), par contre on peut lutter autant que possible contre les dérives qui apparaîtront suite à de nouvelles inventions.<br /> À ce niveau, la reconnaissance faciale est un bon exemple récent.<br /> Feladan:<br /> Après j’ai peut être mal compris […]<br /> En effet, tu t’entêtes à ne pas vouloir comprendre, et c’est dommage.<br /> Je l’ai déjà dit, et je le répète : la lutte contre la pédo-criminalité est essentielle et devrait même être sacrément renforcée. Simplement, venir dire « il suffit de supprimer le chiffrement de bout en bout, de toute manière les personnes qui n’ont rien à se reprocher et qui ne sont pas contre le fait de mieux protéger les enfants n’ont aucune raison de s’y opposer » c’est malhonnête et ça ne peut en aucun cas être la solution.<br /> Y a-t-il d’autres solutions ? Peut-être, et si la National Society for the Prevention of Cruelty to Children ou d’autres associations qui visent à protéger les enfants veulent en proposer, alors c’est très bien. Pour l’instant, ce qu’on constate, c’est que lorsqu’on leur dit que la protection de la vie privée est importante ils « grincent des dents »…
dFxed
Appliquons le raisonnement que vous utilisez pour affirmer que l’idée en soi est mauvaise, pour vérifier l’alignement des inventions passées :<br /> Le moteur a combustion interne ? On en a fait des tanks et des avions pour tuer et détruire en masse. A l’aube de cette invention votre raisonnement l’aurai empêchée.<br /> L’électricité ? On tue des hommes avec, et parfois c’est hors de contrôle, et on provoque de graves incendies avec. Sans oublier les ravages écologiques qu’engendrent sa production.<br /> Encore une fois, en ayant ça en tête, difficile de l’autoriser.<br /> Pas besoin de continuer, on s’aperçoit vite que votre raisonnement est bien trop extrême pour pouvoir l’utiliser.<br /> Sans pour autant dénigrer le fond de votre pensée, il me semble qu’il faut savoir s’opposer à un danger et non pas un risque.<br /> Petit parallèle avec la construction de machines, où nous sommes tenu de supprimer les dangers, en les transformant en des risques acceptables. Par exemple, on carterise (mettre des portes et barrières) les machines pour supprimer le danger des parties mobiles (par exemple). Cependant, les capteurs et actionneurs bien que de sécurité ont toujours une probabilité de défaillance. On repousse donc ce danger en risque ayant une probabilité minime.<br /> Édit : typo
HAL1
dFxed:<br /> Pas besoin de continuer, on s’aperçoit vite que votre raisonnement est bien trop extrême pour pouvoir l’utiliser.<br /> Non, ce dont on s’aperçoit c’est que vous n’avez pas compris mon raisonnement et que vous avez complètement ignoré cette partie de mon commentaire :<br /> On ne peut pas empêcher la recherche d’avancer (et ça serait une gigantesque erreur de vouloir le faire !), par contre on peut lutter autant que possible contre les dérives qui apparaîtront suite à de nouvelles inventions.<br /> À ce niveau, la reconnaissance faciale est un bon exemple récent.<br /> Pour rappel, on ne parle pas ici « d’empêcher une invention », mais d’éviter que de faux-prétextes soient utilisés pour réduire les libertés individuelles. Ça n’a strictement rien à voir avec le fait « d’empêcher une invention ».
dFxed
Les prétextes d’empêcher, c’est vous qui les donnez jusqu’à présent.<br /> Dommage que vous ne voyez pas que votre propre raisonnement se mord la queue.<br /> Pour en revenir au sujet, vous fustigez la possibilité que des échanges soient scannés par WA, au prétexte des libertés individuelles. Donc vous souhaitez empêcher ce qui est pour vous une dérive.<br /> Mais en même temps, vous souhaitez que la pédopornographie soit combattue, et que les avancées technologiques se fassent.<br /> Ambivalent, surtout quand vous vous contentez de rejeter la solution proposée, sans en proposer d’autres.<br /> je ne rentrerais pas dans le débat des « libertés individuelles » ni dans la définition « d’empêcher une invention ».
HAL1
dFxed:<br /> Pour en revenir au sujet, vous fustigez la possibilité que des échanges soient scannés par WA, au prétexte des libertés individuelles. Donc vous souhaitez empêcher ce qui est pour vous une dérive.<br /> Mais en même temps, vous souhaitez que la pédopornographie soit combattue, et que les avancées technologiques se fassent.<br /> Ambivalent, surtout quand vous vous contentez de rejeter la solution proposée, sans en proposer d’autres.<br /> Ben voyons. C’est sûr que le monde est binaire, hein… Soit les échanges ne sont plus chiffrés de bout en bout et la pédo-criminalité est combattue, soit c’est l’exact inverse. <br /> On pourra avec plaisir continuer la discussion lorsque vous serez sorti de ces schémas manichéens.<br /> P.S. : Ça paraît hallucinant que je doive le souligner, mais actuellement les échanges sur WhatsApp sont chiffrés de bout en bout. Et je souhaite que cela continue à être le cas. Mais c’est sûr que c’est moi qui souhaite « empêcher », pas vrai…?
Than
Ce n’est pas parce qu’on souhaite défendre quelque chose qu’il faut fermer les yeux sur des méthodes qui apporteraient elles aussi un autre danger.<br /> Et le coup de « tant que c’est pas arrivé », allez l’expliquer à tous les activistes qui se sont fait chopper, emprisonner, voire tuer. Parce que ça, c’est AUSSI la réalité.<br /> C’est pas pour rien que les données sont une forme de champ de bataille de l’ère de l’information.<br /> C’est pas pour rien qu’on tape sur ceux qui en font des usages tordus, ou vendent des outils où l’éthique n’existe pas. Cf. le dernier gros logiciel espion d’une entreprise Israélienne (le fameux « projet pegazus ») qui a permis de surveiller, sous couvert de vouloir bien faire et de surveiller des terroristes, des politiques et des journalistes (entre autres).<br /> Ce qui est « marrant », c’est quand même que d’un côté on a des gens qui sont prêts à tout pour cacher des secrets d’entreprises, en dépit du bon sens parfois, mais qui n’ont aucun problème à l’idée d’avoir littéralement toute sa vie perso’ accessible à n’importe qui et n’importe quoi.<br /> Y’a rien de binaire dans ce monde.<br /> On ne dit pas qu’il faut interdire les petites cuillères parce qu’on peut pocher des yeux avec. Juste qu’il faut peut-être pas les réaliser dans une forme qui facilite le pochage d’oeil…
Voir tous les messages sur le forum

Derniers actualités

La mémoire Micron GDDR6X à 24 Gbps entre en production de masse
La DDR5-6000
Stadia permet à ses joueurs de streamer un jeu en petit comité
Cet ancien employé de Twitter espionnait les utilisateurs pour le compte de l'Arabie saoudite
Cyberharcèlement : en Europe, les parents protègent moins leurs enfants que dans le reste du monde
Apple déploie la 3e bêta publique d'iOS 16, d'iPadOS 16 et de macOS Ventura
Google veut faire de votre TV votre coach sportif
Taïwan a subi un pic de cybermenaces en marge de la visite de l'Américaine Nancy Pelosi
Ce vidéoprojecteur sera parfait pour vos soirées d'été !
Samsung annonce les Galaxy Watch 5 et ses Gala Buds 2 Pro
Haut de page