Cet article date de plus d'un an.

Comment reconnaître les fausses images créées par une intelligence artificielle ?

Le pape François en doudoune blanche, Emmanuel Macron devant un tas d’ordures, un homme âgé au visage ensanglanté dans une manifestation, autant d’images qui ont fait le tour du monde. Problème : ces images ont été fabriquées de toutes pièces par une intelligence artificielle.
Article rédigé par franceinfo - Benjamin Vincent
Radio France
Publié Mis à jour
Temps de lecture : 2 min
Juxtaposition de fausses images "choc", générées grâce à une intelligence artificielle destinée à manipuler l'opinion ou à surprendre, et partagées sur les réseaux sociaux. (CAPTURE D'ÉCRAN)

Les fausses images se multiplient sur les réseaux, toujours plus crédibles. Beaucoup se font berner. Il existe pourtant quelques astuces pour faire la différence avec de vraies photos. À condition de prêter attention à certains détails que ces deepfakes, ces images truquées en profondeur, ne savent pas encore bien gérer mais pour combien de temps ? Ces détails, ce sont d’abord, les mains. Désormais, elles ont bien… cinq doigts mais quand on les regarde de près, il y a souvent encore quelque chose qui cloche. C’est le cas des mains du conseiller chinois au deuxième plan de l’image truquée de Vladimir Poutine à genou devant Xi Jinping. Idem pour les oreilles. Celles des deux présidents semblent déformées, presque à l’envers mais il faut vraiment zoomer pour le voir.

IA : pas à l'aise avec les inscriptions

Deuxième détail à surveiller : les inscriptions sur les pancartes, les uniformes, les écussons ou – en l’occurrence – la plaque de métal à l’avant de la casquette des policiers new-yorkais qui soi-disant essaient d’arrêter Donald Trump. Les intelligences artificielles ne sont toujours pas à l’aise avec ces inscriptions. Malheureusement, les personnalités comme l’ancien président américain captent toute notre attention quand on regarde ce genre d’images. Les visages des policiers autour sont loin d’être parfaits mais on n’y fait pas attention… pas encore. Il va donc falloir relever notre niveau de vigilance.

En cas de doûte et celui-ci risque d’être de plus en plus fréquent, il existe des sites pour en savoir plus sur une image, comme TinEye.com. Vous récupérez l’image doûteuse. Vous glissez-déposez le fichier sur la page d’accueil du site : commence alors une recherche inversée qui compare l’image aux plus de 59 milliards qui se trouvent dans sa base de données. Le site ne dit pas si une image est factice mais il vous indique tous les sites où elle apparait… ou pas. Sur ces sites, les commentaires vous mettront définitivement la puce à l’oreille.

Du sang dans les veines ? C'est bon signe !

Et puis, il y a l’espoir que représentent ces logiciels détecteurs d’images générées par de l’intelligence artificielle. Pour les images fixes, les chercheurs de l’université de Buffalo ont développé le DeepFake-o-meter, un logiciel qui détecte les deepfakes avec un taux de réussite de 94%. Et pour les deepfakes vidéo, Intel, l’an dernier, a annoncé FakeCatcher, un logiciel capable de dire si les humains dans une vidéo ont du sang qui circulent dans leurs veines : on parle alors d'humain certifié !

Reste le bon sens. Le choc des images exige désormais que nous nous posions systématiquement la question de leur réalité avant d’y croire ou – pire – de les partager… et c’est finalement plutôt rassurant : il sera toujours humain de se tromper.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.