Le 9 septembre 2017, l’Américaine Sloane Stephens a rejoint le cercle fermé des joueuses ayant remporté un Grand Chelem. En finale de l’US Open contre Madison Keys, Américaine elle aussi, la joueuse de tennis s’est imposée 6-3, 6-0, décrochant le plus important titre de sa carrière à l’âge de 24 ans.
Un match, une cérémonie, des discours, des rires, des larmes… sur le terrain, l’expérience sportive des hommes et femmes est relativement semblable — excepté le fait que les hommes doivent jouer en trois sets gagnants, contre deux pour les femmes. Néanmoins, les règles du jeu semblent changer au moment où les joueurs et joueuses quittent le terrain pour se prêter à l’exercice de l’interview.
En septembre 2015, Serena Williams avait remporté l’US Open en battant sa sœur Venus Williams. La joueuse avait répondu aux questions de la presse après sa victoire, et n’avait pas apprécié l’interrogation de l’un des journalistes qui lui demandait pourquoi elle ne souriait pas. En effet, certains estiment que cette question non liée au tennis n’aurait probablement pas été posée à un joueur masculin.
15 ans d’interviews passés au crible
Pour estimer si ce genre d’exemple est un cas isolé ou une forme récurrente de sexisme à l’égard des joueuses de haut niveau, des informaticiens de l’université Cornell, située à Ithaca dans l’État de New York, ont mis au point des algorithmes. Ceux-ci ont analysé des dizaines de milliers de questions posées lors de milliers de matchs de tennis, sur une période de quinze ans. L’objectif était ainsi d’observer si le genre des interviewé(e)s avait un impact sur le contenu des questions posées.
Leur travail permet, de manière plus large, de souligner les biais genrés qui persistent dans la société, notamment par l’intermédiaire du langage. Leurs travaux témoignent également de la façon dont les algorithmes peuvent découvrir de tels modes de pensée.
Les joueuses sont davantage interrogées sur des questions qui n’ont aucun rapport avec le tennis
Les outils développés par les universitaires ont confirmé que la question posée à Serena Williams était loin d’être un cas isolé. L’analyse des questions posées aux joueuses et joueurs de tennis a révélé que les femmes avaient davantage de chances d’être interrogées sur des sujets n’ayant aucun lien avec le tennis. En effet, 70 % des questions qui n’ont aucun rapport avec cette pratique sportive sont adressées aux joueuses.
À la demande de nos confrères du New York Times, les chercheurs ont également appliqué leurs algorithmes à l’édition de l’US Open de cette année. L’outil s’est penché sur les questions les plus atypiques posées aux joueuses et joueurs. Côté masculin, les joueurs ont dû répondre à des questions comme « Y avait-il des moments ou vous doutiez, ou non ? » et « Qu’est-ce que cela signifie pour vous d’être une source d’inspiration pour les personnes de petite taille ? »
Les joueuses, quant à elles, ont été interrogées sur leurs ongles ou leurs emplettes : « Connaissez-vous des joueuses qui ont fait leur manucure sur place ? » ou encore « Y a-t-il quelque chose en particulier que vous avez acheté quand vous êtes allée faire du shopping ? » En juillet, à Wimbledon, après sa défaite, Andy Murray épinglait pour sa part la question sexiste d’un journaliste.
Connaissez-vous des joueuses qui ont fait leur manucure ici ?
Comment l’algorithme a-t-il pu déterminer les combinaisons de mots qui n’avaient aucun lien avec le tennis ? Pour l’y aider, les chercheurs ont utilisé les commentaires sportifs qui étaient prononcés au cours des matchs. Ainsi, ils ont pu, en quelque sorte, entraîner l’algorithme à reconnaître les mots et expressions liés au tennis. Cet algorithme a ensuite pu être appliqué aux questions posées à l’issue du match aux joueurs et joueuses.
Bien évidemment, les algorithmes n’ont pas accompli ce travail seuls : il a fallu des mois de travail aux chercheurs pour analyser ces données. Néanmoins, ces recherches témoignent de la capacité d’une technologie à analyser notre langage — par nature pourtant éminemment humain.
D’ailleurs, si ces technologies savent identifier nos biais sexistes, pourquoi ne pas imaginer qu’elles soient capables de les reproduire ? C’est le cas, notamment, des intelligences artificielles qui travaillent sur le langage humain : une autre étude a récemment montré qu’elles n’étaient pas plus immunisées que nous contre les préjugés.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.