Vendredi 15 mars, 50 personnes ont été tuées dans une attaque terroriste islamophobe. Celle-ci a été perpétrée dans deux mosquées de la ville de Christchurch, en Nouvelle-Zélande. Le tireur a filmé et diffusé en direct son attaque, qui a ensuite été massivement diffusée sur les réseaux sociaux, comme l’ont rapporté Facebook et YouTube.
Un signalement 29 minutes après le début du direct
Dans des communiqués publiés lundi 18 mars, les deux plateformes détaillent la manière dont la vidéo a circulé en ligne. Au départ, c’est sur Facebook qu’elle est publiée, sous la forme d’un direct. Elle est visionnée à peine 200 fois en direct, mais aucun internaute ne pense alors à la signaler à la plateforme.
Ce n’est que 12 minutes après la fin du direct (et 29 minutes après le début du live), alors que la vidéo a atteint les 4 000 vues, que Facebook est alerté par des utilisateurs qui signalent le contenu. Les modérateurs le retirent, d’après le communiqué, en seulement quelques minutes. Dans la foulée, le réseau social contacte les forces de l’ordre.
Parmi les 4 000 personnes qui regardent la vidéo, quelqu’un en fait une copie. Cet internaute la met en ligne sur une plateforme de partage de fichiers puis publie le lien vers sa copie sur le forum 8chan, réputé pour être extrêmement problématique – à tel point que le site n’est plus référencé par Google depuis plusieurs mois.
Des republications difficiles à identifier
Facebook de son côté, continue son « ménage » en supprimant le profil du tireur, sur Facebook et Instagram, qui appartient au même groupe. L’entreprise s’attache aussi à éradiquer les faux profils que des internautes créent avec le nom du terroriste. Enfin, une empreinte de la vidéo de la tuerie est réalisée. Cela permet aux algorithmes du réseau social de repérer automatiquement les republications d’un contenu en analysant les images, puis de les supprimer.
En 24 heures, Facebook supprime 1,5 million de vidéos
Comme l’explique Facebook, certaines formes de republication sont difficiles à repérer. C’est le cas de captures d’écran vidéo : le fait que le contenu vidéo soit entouré d’autres contenus trompe les algorithmes. Au total, on compte 800 types de vidéos différentes (avec ou sans cadre, entières ou des extraits), basées sur la même vidéo de départ. Pour y remédier, la plateforme utilise alors une seconde empreinte, cette fois vocale.
En seulement 24 heures, Facebook supprime 1,5 million de vidéos de l’attaque. 1,2 million d’entre elles seront bloquées avant même d’avoir pu être publiées, lors de leur téléchargement.
Une diffusion d’un « niveau sans précédent »
Des vidéos sont aussi publiées sur YouTube, peu après le direct. La plateforme explique dans une série de tweets que des dizaines de milliers de vidéos ont été retirées. Le jour de l’attaque et les suivants, des centaines de comptes créés pour faire l’éloge de l’attaquant sont aussi bannis.
Pour éviter que des internautes tombent sur les vidéos que YouTube n’aurait pas repéré à temps, la plateforme suspend temporairement une fonctionnalité qui permet de trier les résultats d’une recherche par date de publication. Cela permet de faire remonter des contenus plus légitimes comme des vidéos publiées par des médias.
Le volume de vidéos en lien avec l’attaque publiées sur YouTube dans les 24 premières heures suivant les faits serait d’un « niveau sans précédent ». Jamais des republications auraient été aussi rapides et nombreuses, assure l’entreprise qui précise qu’un contenu était publié toutes les secondes environ.
Diffuser ces images est puni par la loi
Twitter a également hébergé de nombreuses vidéos de l’attaque. L’entreprise a indiqué qu’elle travaillait de concert avec les autorités néo-zélandaises, ainsi qu’avec Facebook, Google et Microsoft. Les 4 sont partenaires dans un programme de lutte contre le terrorisme. Ils se sont partagés les empreintes des 800 et quelques vidéos différentes qui circulaient sur Internet, afin de pouvoir rapidement les identifier, grâce à des algorithmes.
L’assaillant avait particulièrement bien préparé sur le Web l’aspect viral de son attaque. En plus de la vidéo, il avait publié en ligne un manifeste de plus de 70 pages. Il s’agissait d’une sorte d’auto-interview, dans laquelle il décrivait ses motivations racistes et appelait à la haine et à la violence contre les musulmans. Son action n’a pas seulement montré les limites de la modération automatisée et humaine des réseaux sociaux. Elle prouve aussi que ce sont les internautes (particuliers, médias ou autres) qui rendent parfois viraux des contenus.
Pour rappel, diffuser des images d’une attaque terroriste n’est pas seulement éthiquement condamnable. En France, la loi punit le partage de tels contenus. Les peines encourues vont jusque 7 ans de prison et 100 000 euros d’amende.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !