Monika Bickert, directrice de la politique des contenus de Facebook, était présente ce 15 mai 2018 à Paris, pour ouvrir le premier Forum Facebook, un événement organisé pour débattre autour de la politique de modération du réseau social.
En guise d’accompagnement, le réseau social a diffusé des chiffres sur la quantité de contenus et comptes problématiques détectés sur la plateforme au premier trimestre de 2018, contenus dans un rapport de 86 pages.
L’an dernier, Mark Zuckerberg avait promis d’embaucher 3 000 modérateurs supplémentaires pour contrôler ce qui est partagé sur son réseau social. Aujourd’hui, Monika Bickert confirme que le nombre de modérateurs est passé à 7 500 — une grande majorité étant contractuels et non embauchés directement par Facebook —.
D’après les données partagées ce 15 mai 2018 par Facebook, ces 7 500 personnes ont participé à identifier, signaler et supprimer 21 millions de contenus pornographiques ou de nudité impliquant des adultes, 3,4 millions de contenus violents et 837 millions de contenus relatifs à des spams. En tout, cela fait 25 millions de contenus problématiques supprimés entre janvier et mars 2018.
Rappelons qu’il y a plusieurs manières pour qu’un contenu problématique soit détecté avant d’être supprimé : un signalement par des utilisateurs, un repérage par des modérateurs, ou un repérage par algorithme. Mais cette dernière méthode présente des limites.
L’algorithme ne sait pas reconnaître les contenus haineux
Les algorithmes de détection des contenus problématiques ne fonctionnent pas tous efficacement. Si 96 % des contenus de nudité ou de pornographie ont été repérés par les robots de Facebook « avant qu’ils ne soient signalés par notre communauté », ce pourcentage descend à 86 % pour les contenus violents, mais atteint surtout 38 % lorsqu’il s’agit de contenus « qui comportent des discours haineux ».
Cela signifie que sur les 2,5 millions de contenus haineux supprimés, moins de la moitié ont pu être détectés par les algorithmes de la plateforme, montrant la difficulté qui réside dans le repérage automatisé de discours problématiques. Ce constat n’est pas vraiment surprenant : même les modérateurs humains ont des difficultés à définir des règles claires entre ce qui peut rester en ligne et ce qui doit être supprimé.
En mai 2017, certaines règles de modération de Facebook avaient fuité, montrant que des expressions comme « frapper un roux » et « allons tabasser les gros » étaient autorisées, tout comme des images de maltraitance animale ou des vidéos d’avortement, tant qu’elles ne contiennent pas de nudité.
Dans son communiqué, Facebook admet les limites de son algorithme : « Nous avons beaucoup de travail à accomplir pour prévenir les abus sur la plateforme. C’est en partie parce que la technologie comme l’intelligence artificielle, bien que prometteuse, est loin d’être efficace pour la plupart des contenus non conformes à notre politique. En effet, le contexte prend une place importante dans la décision. »
Des mesures pour signaler les contenus violents
La plateforme a également avancé un nombre de contenus qu’elle avait identifiés et traités comme problématiques, mais qu’elle n’a pas forcément supprimés. C’est le cas que quelques millions de contenus « liés à de la violence visuelle », comme par exemple des actes de violence qui seraient montrés dans un reportage vidéo.
Parmi 3,4 millions « liés à la violence visuelle » repérés par la plateforme, « la grande majorité (…) n’a pas été supprimée mais ils ont été accompagnés d’un message d’avertissement afin de prévenir et de protéger les utilisateurs sensibles », précise le rapport.
3 à 4 % de faux comptes
583 millions de faux comptes auraient été supprimés par Facebook au premier trimestre de 2018, « dont la plupart ont été désactivés quelques minutes après leur inscription », précise le réseau social. Facebook ajoute ne pas prendre en compte les tentatives de création de faux comptes dans son calcul global. « Sinon, les chiffres augmenteraient drastiquement », souligne le rapport.
Le géant de la tech estime qu’en ce moment, 3 à 4% des comptes actifs sur la plateforme sont des faux.
Dans son gros rapport, Facebook détaille la manière dont ses équipes comptent et détectent le nombre de faux comptes. « Nous prenons un échantillon d’utilisateurs actifs mensuels, et nous les estampillons ‘faux’ ou non (…) Les faux comptes peuvent être particulièrement difficiles à discerner : les examinateurs doivent s’intéresser à un profil qui contient très peu d’information, et déterminer si c’est un vrai ou s’il est vraiment faux. »
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !