Facebook promet une IA pour détecter les vidéos à caractère terroriste

07 mai 2019 à 11h31
0
facebook screen.jpg

Incriminé pour son manque de réactivité, voire son inertie face au live diffusé par un terroriste lors de la fusillade de Christchurch, le réseau social Facebook promet de perfectionner son IA pour détecter les vidéos à caractère terroriste.

Qui est donc à blâmer ? La plateforme pour ne pas avoir « vu » au plus tôt qu'un Facebook Live d'une tuerie de 17 minutes était diffusé ? Ou les 200 spectateurs devant leur écran et qui n'ont pas pris la peine de signaler le contenu ? Le débat fait rage alors que cette attaque meurtrière a fauché 50 innocents. Face à ce macabre cas de figure, la firme a promis de renforcer son intelligence artificielle en expliquant les raisons techniques qui ont permis la diffusion complète d'un tel contenu.



Un Live sordide que Facebook n'a pas pu voir, même pas son IA

Trois principales raisons expliquent pourquoi ce sordide Live n'a pas pu être détecté à temps. Premièrement, les 30 000 modérateurs de Facebook n'ont pas pu être sur tous les fronts, surtout lorsqu'ils modèrent en moyenne 8 000 posts par jour. De plus et deuxièmement, aucun des 200 spectateurs du Live n'a pris la peine de notifier la violence du contenu - il aura fallu attendre 29 minutes après le début du Live pour qu'un utilisateur signale enfin le contenu.

Enfin, si l'IA de Facebook peut être capable de détecter les suicides et certains « actes dangereux », le système, en tant que machine learning, n'a pas été capable de détecter automatiquement le Live au vu de son volume de données antérieures. « Ces événements sont rares, bien heureusement », a déclaré Guy Rosen, l'un des vice-présidents de Facebook.

Facebook promet plus de réactivité et d'acuité à son IA

Depuis la diffusion de ce Live sordide, Facebook tente d'effacer coûte que coûte toute copie de la vidéo. Alors que, grâce à son IA et ses modérateurs, la firme a réussi à retirer plus d'1,2 millions de copies, Guy Rosen déplore qu'une « communauté de gens mauvais » ait constitué le noyau dur à l'origine de la rediffusion de plus de 300 000 copies de la vidéo en la convertissant dans plus de 800 formats différents pour échapper aux modérateurs.

Malgré tout, Facebook a été capable de détecter tous ces formats, mais la firme promet d'améliorer son IA pour « empêcher toute vidéo similaire de circuler à l'avenir » sur la plateforme, en la rendant plus réactive aux signalements et en perfectionnant son acuité.

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités du moment

Xiaomi commence à déployer son service de paiement mobile Mi Pay
SpaceX prépare son prototype de vaisseau spatial Starship à une première vague de tests
Un nouveau prix
Directive Copyright : il vous reste une semaine pour convaincre l'UE de voter contre
La pliure du Galaxy Fold se révèle plutôt visible (pour l'instant, en tout cas)
Comment régler les couleurs de son écran PC ?
4 techniques simples pour nettoyer son PC
Alimentation de 850 W pour le multi-GPU chez Corsair
USB Type-C : tout savoir sur la nouvelle norme USB
De Facebook... à Sexebook, réseau social coquin ?
Haut de page