Depuis quelques mois, Google a ajouté une fonctionnalité de saisie automatique sur Gmail. Ce système, qui s’appelle Smart Compose, est une version moderne de notre bon vieux T9 : on commence à écrire un email, et la suite de notre phrase nous est suggérée. Il est pratique, mais n’est pas sans faille. Il arrive notamment qu’il ne trouve pas le véritable genre de nos interlocuteurs. Pour y remédier, l’entreprise a décidé de supprimer les pronoms des phrases suggérées, comme le rapporte l’agence Reuters dans un article posté mardi 27 novembre.
Pour Smart Compose, les investisseurs sont des hommes
Google avait remarqué que l’intelligence artificielle sur laquelle sont basées les suggestions présentait des biais. Elle se trompait parfois entre « him » (pronom désignant le masculin et « her » (pronom désignant le féminin). Un chercheur qui travaille chez Google avait par exemple tapé dans la fenêtre de rédaction d’un email « je rencontre un investisseur la semaine prochaine ». Gmail avait alors suggéré pour suite « Voulez-vous le rencontrer », alors même que rien n’indiquait que l’investisseur était un homme – en anglais, le terme est exactement le même pour un homme et une femme, contrairement au français.
Paul Lambert, chef de produit chez Google, a indiqué à Reuters que lui et son équipe avaient tenté de remédier à cela de différentes façons, sans succès. Ils ont finalement décidé de retirer tous les pronoms des suggestions Smart Compose.
L’IA avait été entraînée avec de vieux emails
Dans certains cas, le mégenrage peut s’avérer problématique. Il peut contribuer à reproduire des stéréotypes de genre, heurter des personnes LGBT, ou se solder par des annonces d’emplois peu inclusives envoyées par mail, par exemple.
Le biais était lié, comme dans beaucoup de cas similaires, à la manière dont l’intelligence artificielle a été entraînée. Pour apprendre à continuer les phrases des utilisateurs de Gmail, celle-ci a du « lire » de vieux mails envoyés via le service. Dans le cas des investisseurs, l’IA a appris qu’un investisseur avait plus de chances d’être un homme qu’une femme. Elle en a déduit que c’était toujours le cas.
Selon Paul Lambert, les IA « peuvent aussi refléter les biais cognitifs humains » . « Etre conscients de cela est un bon début, et nous continuons de discuter sur la façon dont nous pouvons le gérer », a-t-il dit.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Marre des réseaux sociaux ? Rejoignez-nous sur WhatsApp !