C’est un sujet qui irrigue depuis les colonnes des revues spécialisées, mais aussi des publications plus généralistes : les algorithmes d’intelligence artificielle sur lesquels repose un éventail de plus en plus grand de produits et services contiennent-ils des biais pouvant causer du tort ? Autrement dit, y a-t-il un risque de discrimination à cause d’une conception imparfaite du système ?
À l’heure où ces dispositifs de traitement automatisé investissent un nombre croissant de secteurs, ou sont susceptibles de l’être, ces problématiques soulèvent des enjeux éthiques critiques. En effet, un mauvais calibrage d’une intelligence artificielle pourrait avoir des effets néfastes dans des domaines aussi critiques que l’embauche, les services sociaux, la justice ou les traitements médicaux.
C’est pour cette raison que l’Agence des droits fondamentaux de l’Union européenne vient de demander le 13 décembre, dans son rapport « Bien préparer l’avenir : l’IA et les droits fondamentaux », une hausse des financements pour la recherche pour identifier et étudier les effets potentiellement discriminatoires de l’IA, afin que des actions en amont soient prises pour en limiter, ou annuler, les effets.
Il ne s’agit pas là de la seule recommandation de l’Agence des droits fondamentaux. Six grandes pistes sont avancées par ses services. Outre la question des biais, elle rappelle que chaque IA devrait :
- respecter l’ensemble des droits fondamentaux,
- faire l’objet d’une évaluation avant et pendant son utilisation,
- être soumise à un système de supervision,
- détailler les règles qu’elle suit sur la protection des données
- et enfin laisser la possibilité à n’importe qui de contester ses décisions, de sorte d’avoir droit à une appréciation humaine en cas de désaccord.
« L’IA n’est pas infaillible, elle est créée par l’être humain, et les êtres humains peuvent faire des erreurs », a ainsi souligné Michael O’Flaherty, le directeur de l’Agence, ajoutant que «nous avons la possibilité de façonner une AI qui non seulement respecte nos droits humains et fondamentaux, mais qui les protège et les promeut également », par la clarification des règles existantes.
« Les effets discriminatoires générés sur certains groupes sont, en pratique, très difficiles à contester pour les individus », observe le rapport
La Commission européenne n’a toutefois pas attendu le rapport de l’Agence pour lancer des travaux. Début 2018 par exemple, elle a désigné 52 spécialistes de l’IA pour l’assister dans la réflexion sur les problématiques éthiques et sociétales de cette discipline. Cette instance a rendu ses premiers travaux quelques mois plus tard. Bruxelles avait par ailleurs partagé sa vision sur une IA adaptée à la réalité européenne.
Les travaux conduits par l’Agence ont été nourris par des études dans six pays européens, dont la France, mais aussi en Finlande, en Estonie, en Espagne et aux Pays-Bas. Ces recherches ont permis d’illustrer des expériences tirées de cas d’utilisation et souligné la ligne parfois ténue entre ce qui relève d’un cas discriminatoire d’une distinction fondée sur des éléments factuels.
C’est ce que suggère par exemple le propos d’une entreprise française dans le rapport, qui n’est pas nommée : « Pour la discrimination, c’est compliqué, car certaines maladies sont plus présentes dans certains groupes ethniques. Les prévisions tiennent compte du caractère sexuel, ethnique, génétique. Mais ce n’est pas discriminatoire ni une violation des droits de l’homme.»
Le rapport d’ailleurs que les algorithmes d’apprentissage automatique ont pour but « de catégoriser, de classer et de séparer ». Cette distinction « n’est pas en soi une mauvaise chose », poursuit le document, en citant le cas d’un prêt bancaire fondé sur les capacités financières des demandeurs. Ce qui est plus périlleux, c’est lorsque cela implique des attributs sensibles, comme le sexe, la religion ou l’ethnie.
L’IA qui peut aussi atténuer les biais humains
Mais à l’inverse, si le rapport aborde les risques de voir la discrimination être accentuée dans certaines circonstances, les algorithmes pourraient aussi l’atténuer, en corrigeant les a priori humains. « Dans certaines circonstances et dans certains domaines, l’utilisation d’algorithmes pourrait apporter une contribution positive en réduisant les préjugés et les stéréotypes », avance le rapport.
Celui-ci en continue en expliquant que « l’analyse de données algorithmiques peut produire des résultats susceptibles de dissiper les attitudes préjudiciables. Par exemple, la police prédictive pourrait, dans certains contextes, conduire à une police plus équitable et non discriminatoire en réduisant le recours à des jugements humains subjectifs ». En somme, l’IA pourrait aussi servir de correcteur à préjugés.
Il reste maintenant à la Commission, au Parlement et au Conseil européen de se saisir du sujet et d’envisager les suites à donner à ce rapport. Il est à noter que ce 14 décembre, la présidence allemande du Conseil de l’UE organise, avec l’Agence des droits fondamentaux, une conférence sur ce thème, intitulée L’IA à la manière européenne : protection des droits fondamentaux à l’ère de l’IA.
+ rapide, + pratique, + exclusif
Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.
Découvrez les nombreux avantages de Numerama+.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Si vous avez aimé cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à Numerama sur Google News.