Facebook promet une IA pour détecter les vidéos à caractère terroriste

21 mars 2019 à 21h33
0
facebook screen.jpg

Incriminé pour son manque de réactivité, voire son inertie face au live diffusé par un terroriste lors de la fusillade de Christchurch, le réseau social Facebook promet de perfectionner son IA pour détecter les vidéos à caractère terroriste.

Qui est donc à blâmer ? La plateforme pour ne pas avoir « vu » au plus tôt qu'un Facebook Live d'une tuerie de 17 minutes était diffusé ? Ou les 200 spectateurs devant leur écran et qui n'ont pas pris la peine de signaler le contenu ? Le débat fait rage alors que cette attaque meurtrière a fauché 50 innocents. Face à ce macabre cas de figure, la firme a promis de renforcer son intelligence artificielle en expliquant les raisons techniques qui ont permis la diffusion complète d'un tel contenu.



Un Live sordide que Facebook n'a pas pu voir, même pas son IA

Trois principales raisons expliquent pourquoi ce sordide Live n'a pas pu être détecté à temps. Premièrement, les 30 000 modérateurs de Facebook n'ont pas pu être sur tous les fronts, surtout lorsqu'ils modèrent en moyenne 8 000 posts par jour. De plus et deuxièmement, aucun des 200 spectateurs du Live n'a pris la peine de notifier la violence du contenu - il aura fallu attendre 29 minutes après le début du Live pour qu'un utilisateur signale enfin le contenu.

Enfin, si l'IA de Facebook peut être capable de détecter les suicides et certains « actes dangereux », le système, en tant que machine learning, n'a pas été capable de détecter automatiquement le Live au vu de son volume de données antérieures. « Ces événements sont rares, bien heureusement », a déclaré Guy Rosen, l'un des vice-présidents de Facebook.

Facebook promet plus de réactivité et d'acuité à son IA

Depuis la diffusion de ce Live sordide, Facebook tente d'effacer coûte que coûte toute copie de la vidéo. Alors que, grâce à son IA et ses modérateurs, la firme a réussi à retirer plus d'1,2 millions de copies, Guy Rosen déplore qu'une « communauté de gens mauvais » ait constitué le noyau dur à l'origine de la rediffusion de plus de 300 000 copies de la vidéo en la convertissant dans plus de 800 formats différents pour échapper aux modérateurs.

Malgré tout, Facebook a été capable de détecter tous ces formats, mais la firme promet d'améliorer son IA pour « empêcher toute vidéo similaire de circuler à l'avenir » sur la plateforme, en la rendant plus réactive aux signalements et en perfectionnant son acuité.

Modifié le 07/05/2019 à 11h31
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités du moment

Xiaomi commence à déployer son service de paiement mobile Mi Pay
SpaceX prépare son prototype de vaisseau spatial Starship à une première vague de tests
Un nouveau prix
Directive Copyright : il vous reste une semaine pour convaincre l'UE de voter contre
La Xbox One S sans lecteur blu-ray sortirait le 7 mai
Samsung avance sur la caméra invisible sous l’écran
Le célèbre fabricant de montres Tag Heuer lance une smartwatch dédiée... au golf
Boeing décale de plusieurs mois les premiers tests habités de sa capsule CST-100 Starliner
19 médias et 13 pays lancent FactCheckEU pour protéger le débat des élections européennes
Haut de page