Vidéosurveillance algorithmique : le comité d'évaluation émet des doutes sur l'efficacité du dispositif mis en place pour les Jeux de Paris

Repérer des événements jugés suspects ou à risque, avant d'alerter en temps réel un opérateur, tel est l'objectif du dispositif testé sur Paris pendant les JO. Et les résultats sont inégaux, conclut un rapport remis mardi au ministère de l'Intérieur.
Article rédigé par Yannick Falt
Radio France
Publié
Temps de lecture : 6min
Vidéosurveillance algorithmique (photo d'illustration) (VINCENT ISORE / MAXPPP)

Le comité d'évaluation, chargé d'évaluer l'usage de la vidéosurveillance algorithmique (VSA) expérimentée pendant les Jeux olympiques de Paris 2024, émet des doutes sur l'efficacité du dispositif, dans un rapport consulté par Le Monde et franceinfo mercredi 15 janvier. Ce rapport a été remis mardi au ministère de l'Intérieur.

Pour rappel, la vidéosurveillance algorithmique est une technologie basée sur des logiciels associés à des caméras de surveillance pour repérer des événements jugés suspects ou à risque, avant d'alerter en temps réel un opérateur. Expérimentée pendant les JO, le gouvernement envisage depuis de généraliser le dispositif. Le texte de loi prévoit déjà une prolongation jusqu'au 31 mars 2025. Matignon indiquait attendre le rapport du comité d'évaluation pour prendre sa décision.

L'impact de l'éclairage

Dans ce rapport d'une centaine de pages consulté par franceinfo et par l'agence Radio France, il ressort "que le recours aux traitements algorithmiques mis en place dans le cadre de l'expérimentation s'est traduit par des performances techniques inégales, très variables en fonction des opérateurs et des cas d’usages, des contextes d’utilisation, ainsi que des caractéristiques techniques et du positionnement des caméras".

Le comité estime que l’intérêt du dispositif dans le cadre de l’expérimentation "dépend largement du contexte d’utilisation". Parmi les conclusions, le comité juge que la VSA est, par exemple, "moins efficace quand il y a peu d'éclairage" et que les résultats sont plus pertinents "dans les espaces clos ou semi-clos, notamment les couloirs du métro et les gares, par rapport aux résultats observés dans les espaces ouverts".

Des sans-abris confondus avec des objets abandonnés

Les performances techniques du dispositif sont "globalement satisfaisantes" pour certains cas d’usage comme "l’intrusion d’individus ou de véhicules dans une zone non autorisée, la circulation dans un sens non autorisé, ou encore la densité de personnes". Avec toutefois quelques réserves. En ce qui concerne la densité de personnes par exemple, "le logiciel a parfois eu du mal à comptabiliser un nombre d’individus trop resserrés (...) en raison de la hauteur d’emplacement des caméras". Le dispositif apparaît en effet "moins efficace lorsque les caméras sont trop proches du public, les corps n’étant pas entièrement visibles". À propos des mouvements de foule, l'efficacité du dispositif est "difficile à évaluer", explique le rapport. "Les quelques retours font état des difficultés rencontrées dans l’identification des véritables mouvements. Le traitement peut, en particulier, assimiler des groupes de personnes se déplaçant dans le même sens, sans précipitation particulière. Il est délicat de définir des mouvements de regroupement ou de dispersion rapide".

Autre point souligné par le rapport, celui des objets abandonnés. Les performances sont jugées "très inégales". Par exemple, il y a des confusions entre les objets sans surveillance et ceux dont la présence sur les lieux n'a rien d'anormal : "Le traitement y assimile ainsi régulièrement le mobilier urbain (bancs, panneaux) ou encore les matériels de nettoyage (poubelles, seaux et machines de nettoyage) et autres objets fixes ou usuels. Plus grave, il lui arrive d’assimiler des personnes assises ou statiques, notamment des sans domicile fixe".

Des principes à réaffirmer via la loi

Malgré tout, le rapport affirme que "les agents concernés sont globalement satisfaits de la mise en œuvre du dispositif". "L’intégration des écrans des caméras IA dans les salles de commandement, lorsqu’elle a été réalisée, a contribué à favoriser la complémentarité des caméras classiques et des caméras IA".

Pour le comité, "l'abandon, la prolongation ou la pérennisation" du dispositif est "un choix politique" qui ne relève pas de sa mission. Toutefois, le comité estime que si ce dispositif est mis en place, "une vigilance particulière s'impose (...) afin notamment de prévenir tout risque de détournement des finalités légales ou, plus fondamentalement, d’accoutumance au recours à une telle technologie à des fins de surveillance".

L'exécutif convaincu, les associations beaucoup moins

Si l'expérimentation est prolongée ou pérennisée, le comité estime important que le "législateur" réaffirme plusieurs principes généraux comme "le contrôle des parlementaires en amont et le renvoi à des projets de décrets soumis à la CNIL". Autre principes à réaffirmer : "L’interdiction de la reconnaissance faciale en dehors du contexte judiciaire, l’évaluation constante des enjeux pour les libertés publiques et les droits fondamentaux", ou encore "l’information claire du public quant à l’étendue exacte de l’utilisation des caméras équipées d’IA en ce qui concerne son droit d’accès". "Il est essentiel, insiste le comité, que l’information donnée soit suffisante pour garantir que le public soit éclairé et qu’il connaisse les droits qui lui sont reconnus par le droit européen et la législation nationale".

Laurent Nuñez, le préfet de police de Paris, s'est dit favorable à la généralisation du dispositif tout comme le ministère de l'Intérieur ou encore le ministre des Transports, Philippe Tabarot, dans un article du Parisien. Les associations de défense des libertés, quant à elles, redoutent une surveillance généralisée malgré la ligne rouge jusque-là fixée par le gouvernement : l'utilisation de la reconnaissance faciale.

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.