L’affaire a éclaté au grand jour à la faveur d’un article mis en ligne sur ProPublica et signé par les journalistes Julia Angwin, Madeleine Varner et Ariana Tobin. Dans celui-ci, on apprend que Facebook a permis, du fait d’une dérive technique, de procéder au ciblage de profils clairement antisémites, grâce aux outils publicitaires que le réseau social met à disposition des annonceurs.
Ce ciblage pouvait être réalisé grâce aux catégories automatiquement générées par l’algorithme du site, sur la base des « centres d’intérêt » des membres du service. En fait, ces « centres d’intérêt » étaient interprétés à partir de l’expression anti-juive qui peut se manifester sur Facebook, notamment aux États-Unis, du fait d’un cadre bien plus permissif pour la liberté d’expression.
Marché des idées. De toutes les idées.
« Le droit américain ne connaît pas d’équivalent de la loi Gayssot qui interdit de tenir des propos antisémites ou négationnistes », rappelle Roseline Letteron, professeure de droit public à l’université Paris-Sorbonne. « Il n’existe pas, aux États-Unis, ‘d’ordre moral’ permettant d’interdire la circulation de certaines idées ». Outre-Atlantique, « la liberté d’expression s’entend comme un libre accès au marché des idées, quel que soit leur contenu, politique ou non, scandaleux ou non », relève-t-elle.
Un accès au marché des idées que Facebook s’est toutefois empressé de restreindre sur sa plateforme, considérant que si la liberté d’expression est telle qu’elle est aux États-Unis, le site a néanmoins autorité pour décider de ce qui peut être fait ou non sur son site. Ainsi, le réseau social s’est naturellement empressé de supprimer ces suggestions automatisées et a promis de se montrer plus vigilant, jugeant l’affaire contraire à ses valeurs.
Depuis, des précisions ont été apportées sur la façon dont Facebook entend gérer à l’avenir ce type d’incident. Sheryl Sandberg, la numéro deux de Facebook, s’est fendue d’un long commentaire sur sa page pour annoncer au public trois mesures devant renforcer les garde-fous contre les publicités ciblées motivées par la haine.
Tout d’abord, le site prévoit une clarification de ses règles publicitaires et un durcissement de ses procédures de vérification afin de « s’assurer que le contenu qui va à l’encontre des normes de notre communauté ne puisse pas être utilisé pour cibler les publicités. […] Ce type de ciblage a toujours été contraire à nos politiques et nous prenons d’autres mesures pour l’appliquer maintenant ».
Davantage d’examens et de surveillance d’origine humaine sur les processus automatisés
Sheryl Sandberg explique que cela vise tout ce qui s’attaque directement aux personnes en fonction de leur ethnie, de leur origine nationale, de leur appartenance religieuse, de leur orientation sexuelle, de leur sexe, de leur identité sexuelle ou de leur identité de genre, de leurs handicaps ou maladies.
Ensuite, Facebook annonce « davantage d’examens et de surveillance d’origine humaine à nos processus automatisés ». Le site précise que les options de ciblage existantes ont été examinées manuellement et que plus de 5 000 termes les plus couramment utilisés ont été vérifiés afin qu’ils collent avec les règles du site communautaire. Le site espère ainsi empêcher l’apparition de termes offensants.
Enfin, la plateforme compte aussi sur la coopération des internautes. « Nous travaillons à la création d’un programme pour encourager les gens sur Facebook à nous signaler directement les abus potentiels de notre système de publicité », écrit Sheryl Sandberg. Une aide qui ne sera pas superflue, comme en témoigne l’incapacité de Facebook d’empêcher le ciblage antisémite à l’origine de l’affaire.
Opinion et segment publicitaire
Reste à savoir si les nouvelles procédures de Facebook vont parvenir à remettre un peu d’ordre dans son algorithme de catégorisation publicitaire automatique. Pour Olivier Ertzscheid, maître de conférences en sciences de l’information et de la communication, il n’y a aucun doute à avoir sur « la capacité de Facebook (et des autres régies) à faire, sous la pression de l’opinion, temporairement le ménage manuellement ».
En revanche, explique-t-il, il « ne croit pas un seul instant que ce ménage sera effectué de manière pérenne et que ces biais, sortis par la porte de l’opinion publique effarouchée, ne reviendront pas par la fenêtre de l’intérêt commercial supérieur », à cause de la logique qui fait qu’une opinion produit un segment publicitaire ; le marché des idées est un marché tout court, en somme.
« Le plus inquiétant n’est pas que cette haine existe, ni que nous n’ayons toujours pas trouvé le moyen de l’éradiquer ; le plus inquiétant est qu’elle ait trouvé un marché », conclut-il.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.