L’alliance des partis de gauche aux élections législatives de 2024 s’est entendue sur un point en particulier concernant la tech et le numérique : il faut interdire la reconnaissance faciale.

La gauche entend être prête pour remporter les élections législatives de 2024. Contre toute attente, les partis politiques sont parvenus à s’entendre très vite pour mener campagne ensemble, sur un programme commun. Celui-ci a été dévoilé le 14 juin, quelques jours à peine après la décision d’Emmanuel Macron de dissoudre l’Assemblée nationale.

Le numérique ne tient pas une place centrale dans ce programme, conçu en toute hâte — le premier tour du scrutin est imminent, puisqu’il a été fixé au 30 juin. On trouve seulement une ligne directrice générale, quoique floue : il est question de réindustrialiser l’Europe en matière de numérique (ce qui inclut les semi-conducteurs).

On trouve cependant une mesure notable, qui concerne les libertés publiques. Le nouveau front populaire (qui regroupe le PS, LFI, le PCF, les Verts et une trentaine d’autres formations, dont le Parti pirate, Place publique, le NPA, Nouvelle Donne et Génération écologie) désire interdire la reconnaissance faciale.

L'Assemblée nationale // Source : Assemblée nationale
L’Assemblée nationale, théâtre de la bataille législative à venir. // Source : Assemblée nationale

Comme le signale la Commission nationale de l’informatique et des libertés Cnil), la reconnaissance faciale est une technique biométrique qui analyse les traits du visage pour identifier (c’est-à-dire une personne à l’image) ou authentifier (s’assurer que la personne est bien celle qu’elle prétend être) un individu.

La reconnaissance faciale est une approche différente de la simple détection de visage. Cette dernière consiste juste à dire si un visage apparait à l’image, sans dire à qui il appartient. Par exemple, une application photographique peut repérer la présence d’un ou plusieurs visages, mais être incapable de reconnaitre quelqu’un.

Autre engagement du nouveau front populaire : mener une évaluation indépendance des dispositifs de vidéosurveillance, en lien avec le défenseur des droits — poste occupé par Claire Hédon depuis 2020. L’institution a été amenée à régulièrement se prononcer sur cette technologie de surveillance, et notamment lors de deux textes pris sous la présidence Macron.

  • la loi relative à la sécurité globale, en 2020 ;
  • la loi sur la responsabilité pénale et la sécurité intérieure, en 2021.

Le cas de la vidéosurveillance algorithmique

La prise de position du nouveau front populaire sur la reconnaissance faciale et la vidéosurveillance doit aussi être remise dans un contexte d’actualité bien précis. La France accueillera à partir du 26 juillet les Jeux olympiques de Paris, et cela jusqu’au 8 septembre (avec les jeux paralympiques). Des très lourds enjeux de sécurisation sont liés à l’évènement.

Pour soutenir les forces de l’ordre, le gouvernement et le législateur vont notamment s’en remettre à plusieurs solutions technologiques pour éviter que les JO tournent mal. Parmi elles, la vidéosurveillance algorithmique (ou VSA). Il s’agit d’une solution qui va interfacer de l’intelligence artificielle à des caméras de vidéosurveillance.

L’idée ? Il ne s’agit pas de faire de la reconnaissance faciale, mais de capter des situations anormales : objet abandonné, détection d’une arme, véhicule à contre-sens, personne dans une zone interdite, personne à terre, départ de feu, mouvement de foule, densité excessive. La VSA est toutefois déjà très critiquée, même sans reconnaissance faciale.

caméra
Pas encore de vraie reco faciale, mais de la VSA. // Source : Joe Gadd

Plusieurs expérimentations de la VSA ont d’ores et déjà eu lieu en France, pour se préparer au 26 juillet — en profitant notamment de concerts, ou de certaines emprises de la SNCF). Le gouvernement a également suggéré que la vidéosurveillance par IA pourrait être prolongée bien après les JO — sa date de fin officielle est pour mars 2025.

La reconnaissance faciale dans l’espace public n’est pas déployée de façon massive aujourd’hui, mais cette perspective revient de temps à autre dans le champ politique. En 2022, des sénateurs, tout en se disant contre la société de surveillance, se montraient ouverts à des expérimentations. Une idée qui a été de nouveau avancée en 2023.

De son côté, la Cnil est défavorable à cette technologie biométrique. Début 2023, sa présidente, Marie-Laure Denis, appelait « les parlementaires à ne pas introduire de la reconnaissance faciale, c’est-à-dire de l’identification des personnes à la volée dans l’espace public. L’espace public est un lieu où s’exercent de nombreuses libertés publiques, liberté de manifestation, de culte et autres. »

La défenseure des droits est sur la même ligne : elle plaide pour « interdire explicitement l’intégration de technologies de reconnaissance faciale aux systèmes de surveillance existants (caméras piétons, vidéo-surveillance, etc.). » Et, sinon, de circonscrire cet usage aux « infractions les plus graves », avec de fortes restrictions.

Découvrez les bonus

+ rapide, + pratique, + exclusif

Zéro publicité, fonctions avancées de lecture, articles résumés par l'I.A, contenus exclusifs et plus encore.

Découvrez les nombreux avantages de Numerama+.

S'abonner à Numerama+

Vous avez lu 0 articles sur Numerama ce mois-ci

Il y a une bonne raison de ne pas s'abonner à

Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.

Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :

  • 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
  • 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
  • 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.

Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.

S'abonner à Numerama+

Abonnez-vous à Numerama sur Google News pour ne manquer aucune info !