Les Jeux Olympiques de Paris se dérouleront du 26 juillet au 11 août 2024 et, comme tout évènement d’ampleur, les moyens pour sécuriser les stades ainsi que leurs abords seront conséquents. Cette protection sera en partie confiée à la technologie : c’est durant les JO que sera déployée une vidéosurveillance algorithmique, en soutien des forces de l’ordre.
Cette vidéosurveillance algorithmique va consister, comme son nom l’indique, à mobiliser des caméras de vidéosurveillance et à raccorder les flux vidéo à des algorithmes capables de traiter et d’analyser les images, afin de détecter des évènements considérés comme à risque. Ce travail se fera en temps réel, pour intervenir au plus vite, si nécessaire.
Tout au long du parcours législatif du texte, adopté par le Parlement à la fin mai et publié au Journal officiel dans la foulée, le gouvernement a assuré que cette vidéosurveillance par intelligence artificielle (IA) n’effectuera aucune reconnaissance faciale des personnes apparaissant à l’écran. Il s’agit de se focaliser uniquement sur des situations « anormales ».
La publication fin août au Journal officiel du décret fixant les conditions de mise en œuvre de cette vidéosurveillance algorithmique permet de connaître aujourd’hui plus précisément lesdites situations inhabituelles que les autorités souhaitent surveiller durant la compétition — et au-delà, puisqu’il s’agit d’une expérimentation étendue jusqu’au 31 mars 2025.
Ce que va chercher la vidéosurveillance algorithmique
Huit évènements prédéterminés ont été retenus :
- présence d’objets abandonnés ;
- présence ou utilisation d’armes, parmi celles mentionnées à l’article R. 311-2 du code de la sécurité intérieure ;
- non-respect par une personne ou un véhicule, du sens de circulation commun ;
- franchissement ou présence d’une personne ou d’un véhicule dans une zone interdite ou sensible ;
- présence d’une personne au sol à la suite d’une chute ;
- mouvement de foule ;
- densité trop importante de personnes ;
- départs de feux.
Ces évènements ont été sélectionnés « en ce qu’ils sont susceptibles de présenter ou de révéler un risque d’acte de terrorisme ou d’atteinte grave à la sécurité des personnes », indique le décret. Ils peuvent être observés depuis des caméras, mais aussi à partir de drones qui pourront être déployés selon les circonstances et les besoins opérationnels.
Cette liste restreinte à huit évènements prédéterminés est vue favorablement dans la délibération de la Commission nationale de l’informatique et des libertés. Ainsi, « aucun traitement algorithmique ne pourra être conçu, acquis par l’État ou mis en œuvre en phase d’exploitation pour détecter d’autres évènements que ceux qui y sont énumérés. »
Ce ne sont pas non plus les intelligences artificielles qui auront le dernier mot. Les IA se contentent de signaler des scènes qui correspondent à ce pour quoi elles ont été conçues (avec les éventuels biais et erreurs que tout système peut comporter). Puis, des agents humains habilités sont « chargés de visionner les images captées », afin « de confirmer le signalement ou de lever le doute. »
Les autres services qui pourront bénéficier de l’analyse de ces images, et intervenir en cas de besoin, sont la police, la gendarmerie, les services d’incendie et de secours, et les unités de protection de la SNCF et de la RATP, pour la sûreté dans les transports en commun. Tous suivront une formation sur la protection des données personnelles et d’une formation sur l’emploi du système.
L’identification et la reconnaissance faciale écartées
Afin d’écarter le risque d’une utilisation détournée de cette vidéosurveillance par des algorithmes, le décret fixe une interdiction d’emploi à des fins d’identification des personnes. L’article deux du décret, précisément, interdit de mettre en œuvre la moindre technique de reconnaissance faciale, de manier des données biométriques ou de croiser ces traitements avec d’autres.
Ces traitements « n’utilisent aucun système d’identification biométrique, ne traitent aucune donnée biométrique et ne mettent en œuvre aucune technique de reconnaissance faciale. Ils ne peuvent procéder à aucun rapprochement, aucune interconnexion ni aucune mise en relation automatisée avec d’autres traitements de données à caractère personnel », prévient le décret.
Ces outils ne peuvent pas non plus « [produire] aucun autre résultat et ne peuvent pas fonder, par eux-mêmes, aucune décision individuelle ni aucun acte de poursuite ». Ils ne peuvent donc pas suivre un individu particulier dans la foule, même s’il n’est pas identifié. Cette absence de réidentification vise aussi d’autres données, comme la reconnaissance de vêtements.
Avant l’arrêt attendu de l’expérimentation, le gouvernement devra, au plus tard le 31 décembre 2024, remettre un rapport d’évaluation de la mise en œuvre de l’expérimentation, dont le contenu sera déterminé par décret en Conseil d’État et après avis de la Cnil. Quant à la Commission, elle devra être tenue informée tous les trois mois de l’état de l’expérimentation.
Vous avez lu 0 articles sur Numerama ce mois-ci
Tout le monde n'a pas les moyens de payer pour l'information.
C'est pourquoi nous maintenons notre journalisme ouvert à tous.
Mais si vous le pouvez,
voici trois bonnes raisons de soutenir notre travail :
- 1 Numerama+ contribue à offrir une expérience gratuite à tous les lecteurs de Numerama.
- 2 Vous profiterez d'une lecture sans publicité, de nombreuses fonctions avancées de lecture et des contenus exclusifs.
- 3 Aider Numerama dans sa mission : comprendre le présent pour anticiper l'avenir.
Si vous croyez en un web gratuit et à une information de qualité accessible au plus grand nombre, rejoignez Numerama+.
Marre des réseaux sociaux ? Rejoignez-nous sur WhatsApp !