Nouveau monde. Des détecteurs de mensonge par intelligence artificielle aux frontières européennes
L’UE va tester dans plusieurs aéroports des détecteurs de mensonge faisant appel à l’intelligence artificielle afin de repérer les menaces potentielles.
Tout le monde connait le polygraphe, le fameux détecteur de mensonge que l’on voit dans les films américains, qui analyse les accélérations cardiaques ou les changements de température d’un individu pour savoir si celui-ci ment ou dit la vérité. Plus évolué, le système iBorderCtrl permet de détecter les "biomarqueurs de tromperie", c'est-à-dire les micro-expressions de visage, les mouvements des yeux, les changements de voix ou de posture qui peuvent traduire une anxiété et révéler ainsi une tentative de dissimulation.
Cette sorte de douanier virtuel se présente sous la forme d’un écran et d’une caméra qui pose des questions aux passagers ("Quel est l’objet de votre voyage ?", "Qu’y a-t-il dans votre valise ?", etc.). Les personnes présentant alors un risque élevé seront orientées vers des garde-frontières pour un contrôle plus poussé. Les gens auront préalablement envoyé leurs documents d’identité via une application.
iBorderCtrl va être expérimenté dans quelques aéroports en Hongrie, en Grèce, ou en Lettonie. Il a été mis au point par divers instituts, universités et entreprises spécialisés de plusieurs pays européens, sous l’égide de la société European Dynamics basée au Luxembourg et sous contrôle de la Commission européenne (le projet est expliqué ici).
Les risques de "faux positifs"
Le polygraphe est utilisé aux États-Unis mais pas en France où il est considéré comme pas assez fiable. De même, iBorderCtrl ne peut assurer 100% de réussite. Il y a des risques de "faux positifs", c'est-à-dire des erreurs d’appréciation. Par exemple, il arrive que l’on soit stressé par le simple fait de prendre l’avion. Il est donc prévu que le système pose aussi des questions anodines pour comparer les réactions. L’avantage de l’intelligence artificielle est d’être évolutive et perfectible au fil du temps.
Sécurité assistée par IA
Le Canada a mis en place l’an dernier dans les aéroports un système similaire baptisé Avatar, censé détecter les mensonges à partir des comportements physiologiques. En Espagne, un système pour détecter les faux dépôts de plainte pour vol est utilisé. Enfin, d’autres logiciels servent à repérer des individus au comportement étrange dans la foule. Enfin, n’oublions pas les outils d’analyse de dossiers judiciaires, comme le programme français Anacrim utilisé dans l’affaire Grégory, ou encore les systèmes, plus ou moins fiables, de prédiction qui tentent d’anticiper les crimes dans des zones géographiques en fonction de divers paramètres.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.