Facebook promet une IA pour détecter les vidéos à caractère terroriste

21 mars 2019 à 21h33
0
facebook screen.jpg

Incriminé pour son manque de réactivité, voire son inertie face au live diffusé par un terroriste lors de la fusillade de Christchurch, le réseau social Facebook promet de perfectionner son IA pour détecter les vidéos à caractère terroriste.

Qui est donc à blâmer ? La plateforme pour ne pas avoir « vu » au plus tôt qu'un Facebook Live d'une tuerie de 17 minutes était diffusé ? Ou les 200 spectateurs devant leur écran et qui n'ont pas pris la peine de signaler le contenu ? Le débat fait rage alors que cette attaque meurtrière a fauché 50 innocents. Face à ce macabre cas de figure, la firme a promis de renforcer son intelligence artificielle en expliquant les raisons techniques qui ont permis la diffusion complète d'un tel contenu.



Un Live sordide que Facebook n'a pas pu voir, même pas son IA

Trois principales raisons expliquent pourquoi ce sordide Live n'a pas pu être détecté à temps. Premièrement, les 30 000 modérateurs de Facebook n'ont pas pu être sur tous les fronts, surtout lorsqu'ils modèrent en moyenne 8 000 posts par jour. De plus et deuxièmement, aucun des 200 spectateurs du Live n'a pris la peine de notifier la violence du contenu - il aura fallu attendre 29 minutes après le début du Live pour qu'un utilisateur signale enfin le contenu.

Enfin, si l'IA de Facebook peut être capable de détecter les suicides et certains « actes dangereux », le système, en tant que machine learning, n'a pas été capable de détecter automatiquement le Live au vu de son volume de données antérieures. « Ces événements sont rares, bien heureusement », a déclaré Guy Rosen, l'un des vice-présidents de Facebook.

Facebook promet plus de réactivité et d'acuité à son IA

Depuis la diffusion de ce Live sordide, Facebook tente d'effacer coûte que coûte toute copie de la vidéo. Alors que, grâce à son IA et ses modérateurs, la firme a réussi à retirer plus d'1,2 millions de copies, Guy Rosen déplore qu'une « communauté de gens mauvais » ait constitué le noyau dur à l'origine de la rediffusion de plus de 300 000 copies de la vidéo en la convertissant dans plus de 800 formats différents pour échapper aux modérateurs.

Malgré tout, Facebook a été capable de détecter tous ces formats, mais la firme promet d'améliorer son IA pour « empêcher toute vidéo similaire de circuler à l'avenir » sur la plateforme, en la rendant plus réactive aux signalements et en perfectionnant son acuité.

Modifié le 07/05/2019 à 11h31
0
0
Partager l'article :

Les actualités récentes les plus commentées

Covid-19 : Twitter connaît une hausse de 900% des discours racistes contre la Chine
Clubic, fête ses deux ans d'indépendance, plein d'optimisme
Une association pointe du doigt Amazon, qui livre toujours des produits hors hygiène et alimentaire
La nouvelle attestation de déplacement sur smartphone sera disponible le 6 avril
Office 365 devient Microsoft 365 et fait le plein de nouveautés
Apple rachète une application météo... et la ferme sur Android
Square-Enix avance (officieusement) la date de sortie de Final Fantasy VII Remake !
Renault prête 1 300 véhicules au personnel soignant, dont 300 ZOE électriques
Tesla Cybertruck : quelle est la répartition mondiale des précommandes ?
Le coronavirus ne booste pas le e-commerce, bien au contraire, selon la FEVAD
scroll top