Procyon92
il y a 1 an

Le gars a été innocenté par la police qui n’a pu le lui dire car il n’avait plus de mail ni de numéro de téléphone valide/connu. Et lorsqu’il a recontacté Google ils n’ont pas voulu rouvrir ses comptes. 2eme effet kiss cool pour le gars pour gérer les problèmes de double authentification avec les services qui utilisaient son mail ou son numéro de portable…

6
dFxed
il y a 1 an
En réponse à Procyon92

Donc la détection c’est bien, la coupure des services avant décision de justice, ça l’est moins.

11
Gh0st
il y a 1 an
En réponse à Procyon92

Raison de plus pour ne pas placer tous ces oeufs dans le même panier :eyes:

1
MisterDams
il y a 1 an

Cette absence d’interlocuteur chez les GAFAM est affligeante… On peut au mieux cliquer sur un bouton qui fait une requête, mais personne ne traite « humainement » les demandes et ça rend toute communication impossible. Nombreux sont les cas de coupures injustifiées avec des victimes qui ne peuvent absolument pas plaider leurs causes.

Quand c’est juste un compte Twitter, c’est pas un drame (encore que, pour certains c’est une activité rémunérée), mais quand c’est un compte Google, les conséquences sont quand même hyper lourdes. L’adresse email est devenue une partie de l’identité, elle est fournie aux administrations, elle sert à valider des contrats…

Pire encore, bloquer le compte immédiatement n’est pas stratégique dans ce cas-là, ce n’est pas ce que ferait la police. Mieux vaut maintenir le compte actif et lever les alertes « en sous-marin » pour aider les autorités à intervenir ou remonter une filière.
Une fois qu’elle sait qu’elle est repérée, la personne réellement coupable a le temps de réagir avant intervention (se débarrasser des supports de stockage, détruire des preuves physiques, voire tout ce qu’on peut imaginer d’ignoble dans ce cas là), ce qui est contre productif.

9
soaf78
il y a 1 an
En réponse à dFxed

les gafam qui se substituent à la justice…

17
Baxter_X
il y a 1 an
En réponse à soaf78

Pour moi c’est ça le plus choquant!

5
Philmarc94
il y a 1 an
En réponse à Gh0st

Et comment on fait ? On achète Apple. Il n’y a pas 10 000 solutions pour un néophyte !

2
cid1
il y a 1 an

Google un espion, et une balance qui juge à la va vite en fermant ses comptes au pauvre type qui n’a rien fait à part recevoir une photo de sa nièce de…disons 14 ans…quelle I.A. mal barrée. :upside_down_face:

1
HAL1
il y a 1 an
En réponse à Philmarc94

Si l’idée est de « ne pas placer tous ses oeufs dans le même panier », acheter du matériel Apple n’est très certainement pas la solution…

12
Pernel
il y a 1 an

C’est beau l’IA. C’est bien de lutter contre la pédophilie (pas besoin de le préciser, enfin j’espère), mais qu’une IA qui plus est, pas au point, qui vérifie et surtout contact la police sans que ce soit vérifié par un humain (moins susceptible de se tromper sur ce genre de choses) c’est d’une d*bilité …

4
juju251 Super Modérateur
il y a 1 an

Alors …

Je vais être cynique, mais répétez après moi « Je m’en fout de mes données personnelles, je n’ai rien à cacher » …

Les personnes qui nous sortent sans honte cette tirade à longueur de sujets sur l’importance des données personnelles, vous commencez à voir le danger ou pas encore ?

Au cas où, je pose ça là :

Édité il y a 1 an
9
juju251 Super Modérateur
il y a 1 an

Oui, mais ça, ça n’a RIEN à voir.
C’est une tentative d’escroquerie (qui fonctionne malheureusement sur certaines personnes).

2
Bombing Basta
il y a 1 an
En réponse à juju251

Merci pour l’article, très intéressant, que je n’avais pas vu quand il est sortis.

1
bmustang
il y a 1 an

par ici le gros chèque

Édité il y a 1 an
CM35
il y a 1 an

Selon Klaus Schwab, « Si on n’a rien à cacher, il ne faut pas avoir peur » :joy:

1
/Troll
il y a 1 an

Il y a quelques temps de cela les gens mettaient un morceau de ruban adhesif ou un coup de tampon a l’arriere de leur enveloppe pour se proteger que personne ne l’ouvre et personne n’avait legalement le droit de l’ouvrir. De nos jours les particuliers et les entreprises utilisent tous ces services cloud, email, stockage, etc. en sachant tres bien que le contenu va etre lu et utiliser, pour la publicite cicblee, pour une soit disante protection, acheter ou hacke par un entreprise concurrente, pour entrainer des AI, ou lu par des employes.

3
Bruno02
il y a 1 an
En réponse à Philmarc94

C’est pareil chez Apple. Ce n’est pas la première fois que ça arrive ce genre de chose.

Édité il y a 1 an
Jsp75
il y a 1 an

On arrive de plus en plus à faire mieux que les pires films d’anticipation…

Garden Dwarf
il y a 1 an

La couille n’était pas que sur la photo, elle était aussi dans l’IA ^^

Anaël
il y a 1 an

Les gouvernement cherchent à sous-traiter une partie de la justice avec l’intelligence artificielle. Malheureusement, cette dernière ne peut pas (encore) trouver le contexte derrière une photo, et les métadonnées, c’est manipulable. Puis une grande majorité de gens utilise l’espace Cloud qui est forcément scanné pour des raisons publicitaires ou légales. Il faudra que les opérateurs Cloud sensibilisent les utilisateurs à ne pas stocker toute forme de nudité dans leur espace de stockage.
Pour les faux positifs, les lois peuvent changer. Des législateurs peuvent décréter que toute forme de nudité c’est de la pornographie, par facilité, et que si cela touche des personnes visiblement mineures (âge déterminé par l’IA)-> les autorités interviennent. Et personne ne se révoltera contre les GAFAM, qui affectent le droit d’existence sur les espaces online et offline.

Édité il y a 1 an
1