Facebook promet une IA pour détecter les vidéos à caractère terroriste

21 mars 2019 à 21h33
0
facebook screen.jpg

Incriminé pour son manque de réactivité, voire son inertie face au live diffusé par un terroriste lors de la fusillade de Christchurch, le réseau social Facebook promet de perfectionner son IA pour détecter les vidéos à caractère terroriste.

Qui est donc à blâmer ? La plateforme pour ne pas avoir « vu » au plus tôt qu'un Facebook Live d'une tuerie de 17 minutes était diffusé ? Ou les 200 spectateurs devant leur écran et qui n'ont pas pris la peine de signaler le contenu ? Le débat fait rage alors que cette attaque meurtrière a fauché 50 innocents. Face à ce macabre cas de figure, la firme a promis de renforcer son intelligence artificielle en expliquant les raisons techniques qui ont permis la diffusion complète d'un tel contenu.



Un Live sordide que Facebook n'a pas pu voir, même pas son IA

Trois principales raisons expliquent pourquoi ce sordide Live n'a pas pu être détecté à temps. Premièrement, les 30 000 modérateurs de Facebook n'ont pas pu être sur tous les fronts, surtout lorsqu'ils modèrent en moyenne 8 000 posts par jour. De plus et deuxièmement, aucun des 200 spectateurs du Live n'a pris la peine de notifier la violence du contenu - il aura fallu attendre 29 minutes après le début du Live pour qu'un utilisateur signale enfin le contenu.

Enfin, si l'IA de Facebook peut être capable de détecter les suicides et certains « actes dangereux », le système, en tant que machine learning, n'a pas été capable de détecter automatiquement le Live au vu de son volume de données antérieures. « Ces événements sont rares, bien heureusement », a déclaré Guy Rosen, l'un des vice-présidents de Facebook.

Facebook promet plus de réactivité et d'acuité à son IA

Depuis la diffusion de ce Live sordide, Facebook tente d'effacer coûte que coûte toute copie de la vidéo. Alors que, grâce à son IA et ses modérateurs, la firme a réussi à retirer plus d'1,2 millions de copies, Guy Rosen déplore qu'une « communauté de gens mauvais » ait constitué le noyau dur à l'origine de la rediffusion de plus de 300 000 copies de la vidéo en la convertissant dans plus de 800 formats différents pour échapper aux modérateurs.

Malgré tout, Facebook a été capable de détecter tous ces formats, mais la firme promet d'améliorer son IA pour « empêcher toute vidéo similaire de circuler à l'avenir » sur la plateforme, en la rendant plus réactive aux signalements et en perfectionnant son acuité.

Modifié le 07/05/2019 à 11h31
Soyez toujours courtois dans vos commentaires
et respectez le réglement de la communauté.
0
0

Actualités récentes

Double Dragon 2: The Revenge sur Nintendo NES : les Fréro Delabagarre...
Microsoft et General Motors s'associent pour commercialiser des voitures autonomes
Soldes : le TOP des promos high-tech chez Amazon et Cdiscount
Comparatif des meilleurs logiciels de nettoyage sur Mac (2021)
Les voitures électriques les plus attendues de 2021
Zelda Ocarina of Time 64 : une version bêta qui intègre des éléments retirés du jeu final a été découverte
Que peut faire un « satellite espion » ?
Dormir en Tesla et, poster la vidéo sur TikTok : l'idée
Jouer sur Linux, c’est possible : on a essayé et on a adoré !
Test Philips 55OLED855 : un écran OLED très fin pour une image profonde
Haut de page