L’intelligence artificielle peut-elle être le rempart qui empêchera la diffusion des futures tueries de masse sur Internet ? C’est ce que pense Facebook : le réseau social souhaite entraîner ses algorithmes de reconnaissance d’image pour qu’ils puissent détecter les tueries filmées en vue subjective, avec un smartphone à la main ou une caméra-piéton (comme une bodycam accrochée au torse).
Le site communautaire souhaite en effet ne plus jamais retomber dans une situation telle que celle qu’il a vécue avec les attentats de Christchurch, en Nouvelle-Zélande. Le tueur, un Australien d’une trentaine d’années, a abattu 51 personnes et en a blessé 49 autres tout en filmant son parcours macabre en direct sur Facebook, via l’outil dédié du réseau social, et en misant sur la viralité du net.
Facebook était incapable de bloquer la séquence sur le champ, ses algorithmes n’étant pas taillés pour comprendre les scènes en cause. Ils savent reconnaître — parfois de manière imparfaite — de la nudité et certaines scènes de violence, ainsi que le contenu de certains autres types de vidéos, mais parce qu’ils ont été confrontés au préalable à des exemples similaires.
Concernant Christchurch, ce n’est que 12 minutes après la fin du direct (et 29 minutes après le début de la diffusion), alors que la vidéo avait atteint les 4 000 vues, que Facebook a été prévenu par des internautes qui ont signalé le contenu. Certes, les modérateurs ont agi seulement en quelques minutes, d’après Facebook, mais c’était déjà trop tard. La vidéo était partagée, dupliquée, transférée.
Se pose alors une question évidente : comment Facebook compte-t-il habituer ses outils à identifier une tuerie de masse filmée en vue subjective ? Va-t-il lui faire voir des archives de ce type, au risque de ne pas avoir assez de « matière »? Va-t-il regarder des jeux vidéo de type FPS, en misant sur le réalisme de certains titres ? En fait, c’est une approche bien plus simple qui sera mise en place.
Alliance avec la police pour avoir des vidéos
À partir d’octobre 2019, Facebook et la police londonienne vont faire cause commune sur ce dossier : l’entreprise américaine va fournir des caméras-piéton aux policiers pour avoir des vidéos pendant leur séance d’entraînement au tir. De cette façon, Facebook collectera de nombreuses séquences du point de vue d’un tireur, et sera ainsi en meilleure position pour repérer des vidéos de ce type.
Pour la police londonienne, l’outil pourrait même briser l’élan que le diffuseur cherche à donner à sa vidéo en la rendant virale : « Une technologie qui arrête automatiquement la diffusion en direct des attaques […] contribuerait également à empêcher la glorification de ces actes et la promotion des idéologies toxiques qui les sous-tendent », se félicite un agent de police cité par le Guardian.
Dans l’idéal, l’outil de Facebook doit pouvoir bloquer dans les secondes ou les minutes qui suivent le début d’une diffusion en direct s’il s’avère qu’il s’agit d’une fusillade mise en scène par un meurtrier animé par une idéologie politique ou religieuse. Il pourrait même intervenir dès la mise en ligne de la vidéo, en l’analysant avec qu’elle soit visible par le moindre internaute.
De façon générale, Facebook ne reste pas les bras ballants. En mai, l’entreprise américaine a promis d’investir dans la recherche pour supprimer ses angles morts (copies modifiées, annotées recadrées, etc). Entre autres choses, des partenariats ont été conclus avec plusieurs universités américaines et un investissement de 7,5 millions de dollars a aussi été annoncé. En outre, de nouvelles règles pour Facebook Live ont été édictées.
Des limites techniques
Bien sûr, certaines limites à l’exercice paraissent évidentes : il sera impossible pour les forces de l’ordre de proposer des scènes de tir avec une infinité de décors différents. Les stands de tir en intérieur ont l’inconvénient d’être similaires et de proposer des situations statiques. Cependant, les zones de tir en extérieur ainsi que les exercices et simulations en ville offriront de précieuses données.
En outre, même si l’arrière-plan de chaque vidéo change, des points communs persistent : position des mains et des bras, présence d’une arme à feu, fuite des personnes prises pour cible, persistance de certains éléments visuels à l’image et ainsi de suite. L’on pourrait aussi inclure des critères sonores, comme le claquement de l’arme qui est actionnée par le tireur.
Il reste à savoir si Facebook parviendra à trouver le bon dosage dans ses réglages, pour éviter de générer trop de faux positifs. L’algorithme pourrait en effet tout à fait confondre un jeu vidéo de type FPS (first person shooter) diffusé sur Facebook avec un vrai massacre. Ce serait alors contreproductif et les équipes de modération de Facebook seraient confrontées à de nombreuses plaintes de membres signalant un souci.
Il se posera aussi la question de la façon dont le système sera susceptible d’être berné. Le plan de Facebook, qui est en dans la droite ligne du solutionnisme technologique (c’est par la technologie que l’on va résoudre les maux du monde), sera peut-être à la peine face à des esprits retors, qui inventeront peut-être de nouveaux types d’attaques et de nouvelles façons de les mettre en scène.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Marre des réseaux sociaux ? Rejoignez-nous sur WhatsApp !