C'est là toute la limite de l'exercice. En choisissant de s'appuyer exclusivement sur un algorithme pour classer automatiquement les photos dans sa nouvelle application de photographie, Google ne pouvait aller qu'au devant des ennuis. Et cela n'a pas manqué : quelques jours à peine après la sortie du logiciel, une polémique a surgi sur les réseaux sociaux.
En effet, l'outil de reconnaissance d'image utilisé par Google pour organiser les clichés par catégorie a eu le malheur de confondre deux personnes à la couleur de peau noire avec des… gorilles. Et pour ne rien arranger, il s'agit visiblement de la seule photo qui a reçu un classement inapproprié : les cinq autres clichés analysés par Google Photos ont été décrits correctement.
La polémique a été relayée sur Twitter par l'une des victimes de ce mauvais classement :
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— diri noir avec banan (@jackyalcine) 29 Juin 2015
Bien entendu, Google n'a pas tardé à réagir sur Twitter en répondant directement à l'intéressé. L'un des développeurs du réseau social a expliqué qu'il s'agissait d'une erreur dans l'apprentissage automatique visant à laisser une intelligence artificielle décrire automatiquement le contenu des photos, et insisté par la même occasion sur la complexité de ce processus.
@jackyalcine Holy fuck. G+ CA here. No, this is not how you determine someone's target market. This is 100% Not OK.
— Yonatan Zunger (@yonatanzunger) 29 Juin 2015
Malgré les faiblesses qui demeurent dans la reconnaissance d'image, des progrès sont quand même accomplis. L'an dernier, Google avait donné un petit aperçu de ses recherches effectuées en partenariat avec l'université de Stanford. L'un des algorithmes de la firme de Mountain View est ainsi capable de décrire précisément le contenu d'une photo (mais il n'y arrive pas à chaque fois).
Cette controverse rappelle en tout cas furieusement celle des mots-clés inappropriés sur Flickr. Le service de stockage de photos a en effet décidé d'ajouter automatiquement des tags à des photos sans demander d'abord l'avis au photographe.
Sauf que le système a connu des ratés : le tag "singe" a été ajouté sur une photo montrant un homme à la peau noire, tandis qu'un autre cliché révélant une femme maquillée a reçu le mot-clé "animal". Il y a aussi eu des images de l'intérieur du camp des concentration de Dachau décrites comme des salles de sport, et du gaz mortel Zyklon B décrit comme une canette de boisson ou une conserve de nourriture.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.