L’union américaine pour les libertés civiles (ACLU) s’était déjà inquiétée de voir l’outil de reconnaissance faciale d’Amazon mis à disposition des gouvernements. Le 26 juillet 2018, l’association à but non lucratif a montré que cet outil, baptisé Rekognition, était surtout loin d’être efficace.
Sur son site, l’ACLU explique avoir testé le système de reconnaissance faciale d’Amazon à l’aide de photographies des visages de 535 membres du Congrès américain. Elle les a confronté à 25 000 clichés « mugshot », ces photographies prises lors d’arrestations, où seuls le visage et les épaules du prisonnier sont cadrés, de face puis de profil.
28 membres identifiés comme criminels
L’association a alors laissé Rekognition travailler. Si aucun des membres du Congrès ne figurait dans la liste des photographies de prisonnier, l’outil de reconnaissance faciale d’Amazon a identifié 28 correspondances : autrement dit, Rekognition a considéré que ces membres du Congrès étaient des criminels.
« Les membres du Congrès qui ont été faussement identifiés dans la base de photos de criminels que nous avons utilisée pour ce test incluent des Républicains et Démocrates, des hommes et des femmes, des législateurs de tous âges, originaires de tout le pays », assure l’association américaine.
Un biais raciste
L’ACLU explique avoir utilisé les paramètres par défaut de Rekognition. L’association s’est d’ailleurs aperçue que la reconnaissance faciale de cet outil souffrait d’un biais raciste : 39 % des membres du Congrès identifiés comme des criminels se trouvent être des personnes non blanches (qui elles représentent 20 % des correspondances établies par l’outil).
« Si les forces de l’ordre utilisent Amazon Rekognition, il n’est pas difficile d’imaginer un policier obtenant un ‘match’ qui lui indiquerait qu’une personne à déjà été arrêtée pour port d’arme dissimulée, ce qui biaise cet officier avant même qu’il ait rencontré cette personne. Ou que les forces de l’ordre viennent sonner chez une personne pour l’interroger et fouiller sa maison, à cause d’une fausse pièce d’identité », alerte l’ACLU.
Amazon répond que l’outil était mal calibré
Sollicité par nos confrères de The Verge, un porte parole d’Amazon estime que les résultats sont liés à un mauvaise calibrage de Rekognition. L’association a en effet utilisé le seuil de confiance par défaut, établi à 80 %. Or, Amazon assure qu’il faut régler l’outil de reconnaissance faciale sur un seuil de 95 % lorsque les données sont aussi sensibles. Amazon estime que le réglage par défaut à 80 % est plutôt recommandé pour identifier des animaux ou des objets.
Néanmoins, l’ACLU reproche à Amazon de ne pas faire cette précision lors du processus d’installation de Rekognition, et de ne pas empêcher les forces de l’ordre qui utilisent son outil d’utiliser ce paramètre réglé par défaut.
Le logiciel d’Amazon, qui coûte moins de 12 dollars par mois, est certes abordable, mais l’ACLU tient surtout à démontrer son inefficacité. L’association s’inquiète d’autant plus de le voir utilisé à l’heure actuelle par des forces de l’ordre aux États-Unis.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !