Derrière les écrans, publié aux éditions La Découverte, fait partie des travaux qui révèlent les petites mains humaines indispensables au bon fonctionnement des plateformes numériques. Parmi ces invisibles au chevet de la machine : le modérateur. Son rôle est d’examiner les contenus postés par les utilisateurs d’une plateforme (un réseau social, une boutique en ligne…) afin de supprimer les contenus indésirables.
« Une cacophonie morale et politique »
Aux débuts d’Internet, la modération était bénévole et autogérée, les utilisateurs d’un forum s’en remettant généralement aux plus anciens ou aux plus impliqués afin de faire respecter certaines règles propres à la communauté. Avec l’avènement de l’Internet marchand, cette fonction s’est généralisée et standardisée. Les raisons pour cela sont aussi nombreuses que discordantes : assurer l’application de règles d’utilisation, stimuler la mise en ligne de contenus et les retours sur le site – eux-mêmes générateurs de profit –, protéger des relations commerciales, publicitaires et gouvernementales, protéger l’image de marque de l’entreprise… « Une cacophonie morale et politique » note avec justesse la préface d’Antonio A. Casilli. Malgré tout, comme l’explique Sarah T. Roberts, « le filtrage par des êtres humains de contenus générés par les utilisateurs sur les réseaux sociaux est un travail souvent secret et mal rémunéré », et ceux qui l’accomplissent ne forment pas un groupe homogène. Son enquête se meut alors en voyage, rendant visibles les conditions matérielles et socio-économiques de l’Internet contemporain.
Nous faisons un premier arrêt en Californie, dans une grande firme de la Silicon Valley surnommée MegaTech, où des « sous-traitants internes » modèrent des vidéos mises en ligne sur la plateforme. En 2011, ils en vérifiaient entre 1 500 et 2 000 par jour, avant que les contenus « faciles à traiter » comme la pornographie soient externalisés dans des pays du Sud économique. Qu’est-ce qu’une vidéo difficile ? Celle qui nécessite d’écouter des propos infâmes pour déterminer s’ils relèvent de l’appel à haine ou à la violence, celle qui montre des actes de pédocriminalité à signaler aux forces de l’ordre, ou la vidéo d’un massacre de guerre (est-ce de l’information, une dénonciation ou une glorification des actes commis ?).
À l’autre bout du monde, aux Philippines – le pays numéro 1 du secteur des centres d’appels –, nous rencontrons des modérateurs d’une application de rencontre. Leur rôle est de contrôler les mises à jour sur les profils d’usagers. Tous ont d’abord suivi un stage culturel pour mieux comprendre les mœurs des utilisateurs dont ils vérifient les profils. On leur a notamment appris à reconnaître les insultes racistes typiquement américaines (bien qu’ils confessent avoir de temps en temps besoin d’Urban Dictionnary). Pas de le temps d’avoir le coup de foudre pour un profil : chaque notification doit être traitée en 10 ou 15 secondes pour que les modérateurs restent compétitifs sur le marché mondial. Car quand les sous-traitants de MegaTech redoutent une externalisation aux Philippines, les Philippins, eux, craignent que leurs emplois ne partent vers l’Inde.
« Les entreprises de réseaux sociaux se sont exonérées de la responsabilité des méfaits »
Ils partagent d’ailleurs un autre un point commun : leur isolement et leur invisibilisation par rapport aux autres travailleurs du Web. Malgré leur importance, ils ne bénéficient pas de l’aura prestigieuse qui entoure d’autres professions liées au numérique (développeurs, ingénieurs, designers…) et cela se reflète dans la précarité qui leur est imposée. Pour Sarah T. Robert, cet effacement participe à donner aux espaces créés par les plateformes l’image d’un environnement « qui va de soi », mais également à évacuer la question de l’impact psychologique de la modération.
« Utilisant diverses tactiques de distanciation, tant géographiques qu’organisationnelles, pour ménager un espace entre les plateformes et les travailleurs, les entreprises de réseaux sociaux se sont exonérées de la responsabilité des méfaits qui, selon certains travailleurs, ont été causés par le temps passé à examiner ces contenus. » L’intelligence artificielle pourrait-elle être la solution ? « Nous en sommes loin » déclarait Monika Bickert, directrice de la politique des contenus de Facebook lors d’un colloque sur la modération en 2018.
Récemment, le réseau social a d’ailleurs été accusé de ne pas avoir agi assez rapidement pour freiner la propagation des thèses conspirationnistes QAnon. En effet, limiter le contenu qui fait réagir entre en contradiction avec le modèle économique de la plateforme, qui tire ses meilleurs chiffres des discours clivants et controversés. « Le contenu est une denrée trop précieuse », explique Roberts. « C’est l’appât qui attire les usagers et les incite à revenir sur ces sites pour faire défiler les mises à jour, regarder les nouvelles photos ou vidéos, lire les publications quotidiennes et recevoir les publicités. » Au fond, les modérateurs sont mis face à des questions cruciales pour notre époque : comment encourager des comportements et des échanges civiques en ligne ? Comment freiner une campagne de désinformation ?
Avec cet ouvrage, l’objectif de Sarah T. Roberts est d’ouvrir le débat sur les arbitrages que font les plateformes et mettre la lumière sur les conditions de travail des modérateurs. Comme un vœu, elle écrit : « J’espère que tous les autres travailleurs des coulisses des médias numériques apparaîtront au grand jour. »
Derrière les écrans. Les nettoyeurs du Web à l’ombre des réseaux sociaux, Sarah T. Roberts, traduit de l’anglais (États-Unis) par Sophie Renaut, préface d’Antonio A. Casilli, éditions La Découverte, 264 p., 22 €
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Marre des réseaux sociaux ? Rejoignez-nous sur WhatsApp !