Des soldats nazis noirs, des vikings asiatiques, ou encore un pape d’origine africaine : depuis le 21 février 2024, des images générées par Gemini, l’intelligence artificielle de Google, font polémique sur X (anciennement Twitter). De nombreux utilisateurs du réseau social ont partagé des images loin de la véracité historique, mais aussi certaines ne respectant pas la réalité, en représentant par exemple les fondateurs de Google en tant que personnes asiatiques.
Google est ainsi accusé par plusieurs influenceurs américains d’extrême-droite de vouloir changer l’histoire avec des photos qui ne sont pas exactes, mais surtout, de vouloir effacer les personnes blanches, dont il aurait été impossible de créer des images. Alors que la polémique est en train d’être récupéré par l’extrême droite française, Google a annoncé « suspendre la génération d’images de personnes » sur Gemini de manière temporaire.
Une polémique lancée par des comptes d’extrême droite
La polémique a démarré le 21 février 2024, lorsque plusieurs d’influenceurs américains d’extrême droite ont publié sur X des photos générées par Gemini. Problème : les résultats sont inexacts d’un point de vue historique. En effet, pour la demande « génère une image de viking » Gemini a représenté des vikings noirs, ou bien d’origine asiatique. Même chose pour un prompt sur « un chevalier médiéval », sur le pape, ou encore sur des soldats nazis de 1943. À chaque fois, les résultats de Gemini montrent des hommes ou de femmes de couleur — et quasiment aucun homme blanc.
En plus de ces images inexactes, un dernier point a fait bondir ces observateurs : Gemini aurait purement et simplement refusé de générer des images de personnes blanches. Plusieurs internautes ont ainsi observé que lorsqu’ils demandaient à Gemini de générer des images de personnes noires, il s’exécutait sans broncher, mais que lorsqu’ils donnaient des instructions précises pour des personnes blanches, Gemini rejetait leur demande. L’IA aurait répondu qu’elle « ne pouvait pas répondre à des requêtes demandant de générer une image basée spécifiquement sur la race ou l’ethnicité d’une personne », selon une capture d’écran publiée par un utilisateur de X.
La génération d’image avec Gemini n’est pour l’instant disponible qu’aux États-Unis. Cependant, avec un VPN, Numerama a tenté de reproduire ses résultats, ce qui s’est avéré impossible : le 22 février au matin, l’IA de Google affichait un message d’erreur lorsqu’on lui demandait de produire une image, et indiquait qu’elle « ne pouvait pas encore générer d’image ».
Lors d’une autre tentative, l’IA a commencé à générer des images, avant de s’arrêter subitement. Contactée afin de savoir si Gemini avait été bridé, Google a indiqué à Numerama que l’entreprise s’efforçait de « résoudre les problèmes récents liés à la fonctionnalité génération d’images de Gemini. Dans l’intervalle, nous allons suspendre la génération d’images de personnes et nous rendrons bientôt disponible une version améliorée de cette fonctionnalité. »
La diversité des IA est une bonne chose
Google a également publié un message d’excuse sur X, reconnaissant le problème et indiquant avoir conscience de l’inexactitude des résultats de Gemini. « Nous nous efforçons d’améliorer immédiatement ce type de représentation. La génération d’images par l’IA de Gemini génère un large éventail de personnes. Et c’est généralement une bonne chose, car des gens du monde entier l’utilisent. Mais dans le cas présent, l’IA n’est pas à la hauteur. »
Google a raison de dire que la diversité est généralement une très bonne chose. Il a été prouvé que les intelligences artificielles sont habituellement biaisées, car elles s’entraînent sur des jeux de données qui le sont. Ainsi, Midjourney, la rivale directe de Gemini pour la génération d’images, a été critiquée parce qu’elle produisait des résultats très stéréotypés, que ce soit envers les femmes ou envers certaines ethnicités. Que Gemini ait tenté d’apporter plus de diversité dans ses résultats est louable, notamment pour des demandes d’images dépeignant le présent, ou le futur. Les personnes blanches ne représentant statistiquement pas la majorité des gens sur Terre, il est important de faire transparaitre cette diversité dans les images créées — comme il est important que la requête « docteurs » ne donne pas que des images d’hommes.
Mais dans un cadre historique, cette tentative a des effets beaucoup plus néfastes — notamment lorsque les images créées représentent des nazis noirs. Ce que l’histoire montre bien, c’est qu’il reste très compliqué de régler un problème tel que les biais des IA, qui existent depuis des années et sont très répandus. À vouloir trop corriger, Google est allé droit vers un autre problème.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.