Les avancées de l’IA sont considérables. Elles amènent l’Europe à se questionner sur son usage, notamment en matière d’identification biométrique. Pour Emmanuel Berthelot, spécialiste de l’intelligence embarquée dans la vidéosurveillance chez i-PRO EMEA, une IA éthique est possible. À condition de disposer d’un cadre qui protège véritablement les données personnelles des citoyens. Interview.

La vidéosurveillance est toujours plus performante grâce à l’intelligence artificielle. À quels enjeux répond-t-elle ? 

Emmanuel Berthelot

Emmanuel Berthelot : Aujourd’hui, le vrai défi de la vidéosurveillance porte sur deux aspects. Le premier concerne l’enregistrement d’images puis leur extraction pour relecture a posteriori, si besoin, par les forces de police.

La multiplicité des capteurs implique une multitude d’images à visionner pour trouver l’information utile. Les opérateurs peuvent y passer des heures… Une des optimisations offertes par l’IA consiste à extraire directement certaines données et caractéristiques pour gagner du temps. Par exemple, le nombre de personnes passées devant les caméras, la couleur de leurs vêtements, la direction prise par un individu, etc.

Le second besoin de la vidéosurveillance porte davantage sur la proactivité avec la surveillance en direct dans les aéroports, les grands centres commerciaux, l’industrie ou l’espace urbain. Dans ce cas, l’IA remonte des informations préqualifiées. Des entreprises travaillent actuellement à titre expérimental sur l’analyse comportementale : analyse des mouvements pour tenter de caractériser une agression en cours ou détection d’une personne qui passe en courant devant une caméra… autant d’informations importantes pour mettre en alerte un opérateur. Le but de l’IA embarquée dans les caméras est d’aider l’opérateur en lui mettant rapidement des informations pertinentes à disposition.

Aujourd’hui que réalise l’IA de plus innovant en matière de vidéosurveillance dans un cadre autorisé ? 

Sans aucun doute la classification d’objets dans une image. Les algorithmes dans intégrés dans les caméras Panasonic i-PRO et chez d’autres constructeurs peuvent détecter et classifier un objet. On peut déterminer s’il s’agit d’une personne, d’un véhicule, d’un colis, d’un deux-roues, etc. Il est possible de remonter des métadonnées qui caractérisent cet objet pour accélérer sa recherche dans d’autres images. 

L’objectif est de caractériser une menace imminente, la présence d’un individu ou d’un véhicule aux abords d’un site sensible, un colis abandonné, une personne qui maraude dans une zone… En somme, toute situation définie comme inhabituelle aux abords d’un secteur donné. Il s’agit d’informations proactives envoyées par les caméras. 

Pourquoi la question de l’usage éthique de l’IA dans la vidéosurveillance se pose-t-elle ?

Depuis deux ans, on assiste à une grande avancée sur les technologies de reconnaissance faciale [ou identification biométrique, NDLR]. Une maturité technologique est atteinte, notamment grâce aux progrès du deep learning et du machine learning. Le bond en avant des caméras est phénoménal et le coût d’investissement a drastiquement baissé. Les expérimentations ont donc commencé à se multiplier… mais dans un contexte juridique flou. 

Ce contexte amène à se poser des questions. Nous sommes techniquement capables de faire beaucoup de choses, mais que veut-on faire ? On s’interroge énormément en Europe mais d’autres continents se posent moins de questions : ils se disent, « ça existe, c’est performant, on le déploie » ! 

En Europe, on se questionne sur les garde-fous à appliquer dans l’usage des technologies de reconnaissance faciale, avec le souhait de ne pas aboutir à une utilisation massive et généralisée.

Emmanuel Berthelot

En Europe, on se questionne bien davantage sur les garde-fous à appliquer dans l’usage de ces technologies avec le souhait de ne pas aboutir à une utilisation massive et généralisée de la reconnaissance faciale. Aujourd’hui, c’est clairement le déploiement de la reconnaissance faciale qui est le sujet le plus « débattable ». 

Avec le terme d’IA éthique, à quoi fait-on réellement référence ? 

Sans cadre, chacun peut effectivement avoir sa vision de l’éthique… Le cadre qui nous rassemble aujourd’hui c’est le RGPD (Règlement général sur la protection des données) qui donne un cadre sur l’aspect biométrique. L’éthique est aujourd’hui définie par ce que la CNIL (Commission nationale de l’informatique et des libertés) autorise ou non. Et même si l’identification biométrique n’est pas autorisée en France, elle peut être soumise à autorisation de la CNIL. 

Mais lorsqu’il s’agit d’images prises dans l’espace public, qu’entend-on par protection des données à caractère personnel ?

Les enregistrements réalisés dans l’espace public détiennent des données personnelles qui sont enregistrées dans des serveurs. C’est autorisé pour le visionnage par des services enquêteurs. La règle, c’est qu’on ne doit pas pouvoir identifier les personnes, sauf en cas d’événement de sécurité (attaque, vol…). 

Le respect des données personnelles équivaut au respect de l’identité : on n’a pas le droit d’identifier une personne par caractère biométrique. Par exemple, le contrôle du port du masque dans le métro parisien a été retoqué par la CNIL, car la caméra était en capacité de désigner une personne dans une foule en indiquant qu’elle n’avait pas son masque. C’est le fait d’isoler une personne via la caméra qui a été refusé.

En revanche, les critères vestimentaires sont autorisés aujourd’hui car ils ne sont pas caractérisés comme des données personnelles. Idem pour la détection de la couleur des cheveux. La plupart des marques de caméras de dernière génération sont capables de fournir ces données.

En France, des opérateurs font des demandes d’utilisation auprès de la CNIL pour des expérimentations. Puis celle-ci prononce des autorisations ou pas. De ce fait, un cadre devient peu à peu plus visible via différentes « jurisprudences » qui découlent de ces projets. Aujourd’hui, on fait beaucoup de cas par cas sans cadre global au plan européen.

En avril 2021, la Commission européenne a présenté un projet de règlement pour encadrer les usages de l’IA de façon harmonisée, notamment dans la vidéosurveillance. Il vise à interdire le recours à l’identification biométrique sauf en cas de risque majeur. Est-ce que cela définirait ce cadre une bonne fois pour toutes ?

Ce règlement est totalement souhaitable ! Toute l’industrie de la vidéosurveillance, les constructeurs, revendeurs, installateurs et clients finaux ont besoin d’un cadre aujourd’hui. Tous ont besoin de savoir clairement ce qu’ils peuvent faire avec ce qui existe technologiquement.

Prenons par exemple la catégorisation homme ou femme, on ne sait pas si c’est autorisé ou non… Les caméras sont capables de donner une estimation du genre d’une personne. Est-ce une donnée personnelle ou pas dans la mesure où cette catégorisation ne permet pas à elle seule d’identifier une personne ? D’où l’intérêt du règlement européen qui va passer en revue tous les critères d’identification. 

La reconnaissance faciale semble être aujourd’hui le principal point d’achoppement. Ce règlement européen signera-t-il définitivement la mort de cette technologie ?

En Europe, possiblement. Cela tirerait un trait. C’est un débat important en France mais qui est tout aussi important en Allemagne et en Espagne. Il y a une demande forte d’encadrement sur cette technologie-là. Clairement, on devrait aboutir à une non-utilisation dans l’espace public, sauf lors d’événements pour contrer le risque attentat. C’est d’ailleurs le principal sujet sur ces technologies : repérer des personnes susceptibles de passer à l’acte. 

En vous écoutant, on comprend que les acteurs de la vidéosurveillance marchent sur des œufs. Les industriels attendent-ils vraiment ces clarifications ? 

Les constructeurs de vidéosurveillance souhaitent ce cadre éthique et transparent. C’est très important pour Panasonic, par exemple, de savoir dans quel cadre les technologies vont pouvoir être utilisées. 

Cela donne également des directions en matière de stratégie. Si demain on connaît clairement les cas d’utilisation de l’IA et de la reconnaissance faciale, des pans entiers de la R&D vont être abandonnés.

Il faut voir une législation sur l’IA comme un « go » qui donne une feuille de route et non comme un frein.

Emmanuel Berthelot

Ce règlement va donner une direction vers laquelle aller pour continuer à travailler et c’est une demande des constructeurs comme des utilisateurs. Il faut voir une législation sur l’IA comme un « go » qui donne une feuille de route et non comme un frein.

Tous les segments du marché sont favorables au cadre car aujourd’hui ils sont dans un inconfort. Tant que vous n’avez pas fait de demande à la CNIL pour l’utilisation d’une technologie pour votre cas particulier, vous ne savez pas ce que vous êtes autorisé à faire ou non. Les grandes organisations, les grands comptes ont ce cheminement, avec le travail d’un DPO (data protection officer) inclus dans leurs processus. Ça n’est pas nécessairement garanti sur de plus petites entités… Certains se disent « pas vu, pas pris »… 

Si l’Europe se questionne, d’autres pays comme la Chine et les États-Unis, sont beaucoup moins regardants. Comment utilisent-ils l’IA dans le domaine biométrique ?

En Chine, de ce que l’on en sait, il n’y a pas de restriction en matière de reconnaissance faciale. Dans l’espace urbain, dans les commerces, il n’y a aucun garde-fou. La donnée biométrique n’est pas considérée comme aussi sensible qu’en Europe, il n’y a pas de débat sur son utilisation. 

Aux États-Unis, nous sommes face à une législation par États. La Californie a été précurseur et a interdit l’identification biométrique. Mais le Texas n’a aucun problème avec ça. Des collèges ou universités en sont équipés face à la menace des tueries de masse. Ils se servent de tout l’arsenal technologique pour augmenter le niveau de sécurité des sites sensibles. 

Peut-on penser que l’Europe porte ce sujet de l’IA éthique au plan mondial comme elle l’a fait avec le RGPD qui a inspiré plusieurs pays ? Peut-elle créer un cercle vertueux ?

Le RGPD est un très bon exemple, décrié à sa sortie, il a finalement régulé l’utilisation des données sur internet. On constate que le RGPD a servi de modèle, en Australie par exemple, mais aussi dans des États américains comme la Californie. 

Sur un aspect économique, le RGPD a pu être un frein mais sur un plan éthique et sociétal, c’est un exemple. L’Europe a été à la pointe. Sur la réglementation de l’IA et l’identification biométrique, on pourrait continuer sur cette lancée en étant le continent qui se pose les bonnes questions sur ces évolutions technologiques. C’est souhaitable car ces interrogations sont légitimes. 

Emmanuel Berthelot

Area Sales Manager chez i-PRO EMEA

Emmanuel Berthelot est Area Sales Manager chez i-PRO EMEA en charge de l’offre vidéosurveillance et intelligence artificielle pour tout le sud de la France (Marseille, Bordeaux, Lyon). Il travaille depuis 8 ans sur les sujets d’intelligence embarquée dans les caméras et systèmes de vidéosurveillance. Précédemment, il a notamment collaboré deux ans au sein d’Anyvision, société israélienne spécialisée dans la reconnaissance faciale et le contrôle d’accès.

Lire aussi

Sécurité privée : vers un engorgement
des aéroports cet été ?

File d'attente dans un aéroport
Sécurité & Sûreté humaine
14 juin 2022

Alors que le trafic aérien reprend enfin ses droits, les aéroports font face à une pénurie de personnel. Depuis le printemps, les vols et la demande bondissent mais les employés manquent. On assiste donc dans l’aérien à un sérieux engorgement. Au programme : files d’attente et retards pour les passagers….

Données biométriques :
menace ou sécurité ?

Sécurité & Sûreté humaine
7 juin 2022

Reconnaissance faciale, empreinte digitale, mesures morphologiques… Que ce soit pour contrôler un accès ou prouver son identité, les techniques de biométrie sont multiples et n’ont pas fini de se développer. L’utilisation de ces données présente de réels avantages pour la sécurité publique, mais, dans certains pays, des dérives sont pointées…

Entreprise : l’implémentation ardue d’une culture de gestion de crise dans un monde à risques

Lilian LaugeratPrésident de Solace et expert en gestion des risques sûreté
Sécurité & Sûreté humaine
31 mai 2022

Depuis de nombreuses années, et en particulier depuis début 2020, il semblerait que l’un des termes les plus fréquemment utilisés soit le mot crise. Même si celle-ci peut revêtir des formes très variées, sa notion de gestion semble plus difficile à cerner. Que ce soit pour une organisation, une entreprise…