Abonnez-vous à notre
Newsletter

Le métro parisien, laboratoire
de la vidéoprotection de demain

métro parisien

Avec l’intelligence artificielle et la reconnaissance faciale, le secteur de la sécurité électronique est promis à un bond technologique sans précédent. Doté d’un réseau dense de caméras, le métro parisien se mue alors en véritable terrain d’expérimentation. Sous le regard critique de la CNIL et des défenseurs des libertés.

Les professionnels de la sécurité électronique en sont convaincus : l’intelligence artificielle (IA) les amène vers une révolution des usages. Trois-cents d’entre eux ont été interrogés en 2019 par l’Association nationale de vidéoprotection (AN2V) pour l’enquête Pixel. Résultat : la moitié considère que l’IA et l’analytics (l’analyse automatisée des données) sont les premiers éléments qui vont bouleverser leur secteur dans les 10 prochaines années. Un tournant déjà amorcé à la RATP qui dispose d’un parc de plus de 51 000 caméras pour 4,5 millions d’usagers par jour.

La station Châtelet-les Halles, base d’entraînement des algorithmes

Plongeons dans les profondeurs du métro parisien, au cœur du labyrinthe de Châtelet-les Halles et de ses 750 000 voyageurs quotidiens. Ce site stratégique constitue un véritable terrain d’entraînement pour valider les nouvelles technologies au service de la sûreté des usagers. 

En février 2020, une note de l’IPR (Institut Paris Région, un organisme chargé d’étudier et d’analyser l’urbanisme et les transports d’Île-de-France pour les décideurs publics) a dévoilé les contours de ces exercices inédits. Elle indique que « la RATP enregistre les images filmées quotidiennement. En floutant les visages des usagers, pour créer une base d’apprentissage pour les prochains algorithmes et les entraîner aux conditions réelles de ses espaces ». Objectif : entraîner les algorithmes à déceler des comportements anormaux pour détecter rapidement rixes, mouvements de foule, objets abandonnés, intrusions sous tunnel, etc.

Selon l’IPR, les algorithmes buttent toutefois encore sur la complexité de l’analyse comportementale. Comment, en effet, enseigner à un algorithme ce qu’est un comportement “normal” dans l’espace public ? La définition même de cette “normalité” étant subjective. C’est la raison pour laquelle, lors de la crise du coronavirus, les expérimentations se sont tournées vers des situations et comportements plus précis.

Ainsi, à partir du 6 mai 2020, à la station Châtelet-les Halles, six caméras dotées d’un dispositif à base d’IA (mis au point par la start-up Datakalab) ont été utilisées. En pleine crise sanitaire, il s’agissait de compter les usagers porteurs d’un masque.  Sans identification des visages et à des fins de prévention selon la RATP. 

Une nouvelle expérimentation qui s’intègre dans le projet de création d’un « LAB IA vidéo », toutefois  stoppée un mois plus tard après une mise en garde de la CNIL (Commission nationale informatique & libertés).

Les réserves de la CNIL et des associations de défense des libertés

Dans un communiqué du 17 juin 2020, la CNIL rappelle en effet que les algorithmes de reconnaissance doivent être conformes au RGPD et à la Loi Informatique et Liberté tandis que « le recours à des caméras  ‘intelligentes’ n’est aujourd’hui prévu par aucun texte particulier »

Autre bémol : ces dispositifs ne permettent pas aux usagers de faire part de leur refus d’être filmés. Des réserves partagées par l’association la Quadrature du net et la Ligue des droits de l’homme qui considèrent la multiplication de ces nouveaux procédés comme une atteinte aux libertés.

Preuve qu’à l’ère de la reconnaissance faciale, l’enjeu du secteur de la vidéoprotection est bel et bien de concilier avancées technologiques et libertés individuelles. Un défi de taille.