Cet article date de plus de trois ans.

Comment des systèmes d'intelligence artificielle interprètent nos émotions

Les logiciels qui tentent de repérer nos émotions se développent, mais leurs performances ne font pas l'unanimité.

Article rédigé par Anne-Laure Barral
Radio France
Publié
Temps de lecture : 3min
Un logiciel de reconnaissance faciale, en Chine (illustration). (LIU TAO / MAXPPP)

À Hong Kong, derrière leur écran, pendant l’école à distance, un logiciel scrute aujourd’hui le visage d’enfants pour évaluer leurs émotions. Ce logiciel, appelé 4 Little Trees, permet aussi au professeur d’estimer leur motivation et leurs futures notes. Une ville indienne vient d’annoncer qu’elle utiliserait un logiciel de reconnaissance des émotions pour repérer les femmes harcelées dans la rue et les transports. Des intentions louables pour régler des problèmes de société, mais ce qui inquiète une partie de la communauté scientifique, c’est la façon dont sont créés ces logiciels.

Secret industriel oblige, il n'y a pas de norme ou de règle commune de conception de ces systèmes. Mais comme beaucoup de logiciels d’intelligence artificielle, ils sont conçus pour apprendre à partir de milliers de données. La société Affectiva, qui a créé un logiciel de reconnaissance des émotions pour les besoins du marketing, affirme qu’elle l’a fait à partir des photos et vidéos de plus de sept millions de visages de 87 pays différents. Ces visages sont étiquetés comme exprimant la peur, la colère, le bonheur, la tristesse, le dégoût et la surprise.

Depuis les années 70, les travaux du psychologue américain Paul Ekman font autorité pour dire qu’on peut repérer ces six émotions dans les expressions du visage de beaucoup d’habitants sur la planète. Il l’a même testé sur des communautés de Papouasie-Nouvelle Guinée.

Mais aujourd'hui, ces travaux font l'objet de vifs débats entre les chercheurs. La revue scientifique Psychological Science in the Public Interest a tenté de les mettre d'accord sur un consensus, il y a trois ans. Certains estiment que les travaux d'Ekman sont dépassés. D'autres pensent qu'ils restent une base intéressante. Mais tous se demandent comment ces systèmes utilisent ces travaux scientifiques.

Un marché en développement

Déjà parce qu’il peut y avoir des erreurs d’étiquetage dans les bases de données du logiciel. Une étude du MIT a montré que certains logiciels faisaient jusqu’à 10% d’erreurs et au lieu de voir un crabe, ils voyaient un homard, or pour les visages c’est encore plus sensible. Des chercheurs de l’université de Glasgow contestent eux la nomenclature de Paul Ekman et montrent que tous les peuples n’interprètent pas de la même façon le plaisir. D’autres chercheurs viennent même de créer un jeu où vous devez duper l’ordinateur qui interprète vos émotions. Le ton de la voix, le teint qui change, les mouvements du corps peuvent en dire beaucoup aussi sur nous.

Certains chercheurs et professionnels demandent donc à ce que ces logiciels soient normés pour éviter les erreurs d’interprétation, surtout s’ils concernent l’éducation des enfants ou le contrôle de liberté. Le système Spot, utilisé par l’administration des transports aux États-Unis après le 11 septembre pour repérer les terroristes, fait l’objet de vives critiques, parce qu’il se focalise principalement sur les gens de couleur. Pourtant, aujourd’hui, ces systèmes d'intelligence artificielle des émotions se développent dans les contrôles aux frontières. La Grèce, la Hongrie et la Lettonie viennent de s’en doter. Des économistes estiment même qu’ils représenteront un marché de 37 milliards de dollars d’ici cinq ans

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.