Fausse vidéo d'Alain Delon : l'inquiétante multiplication des arnaques par "deepfake"

Une fausse vidéo d'Alain Delon circule sur les réseaux sociaux et fait croire que l'acteur a voulu léguer une partie de son héritage aux Français. Il s'agit en réalité d'un type d'arnaque de plus en plus répandu en ligne et qui inquiète les autorités.
Article rédigé par Armêl Balogog
Radio France
Publié
Temps de lecture : 2 min
Des vidéos truquées ("deepfake") utilisant l'image d'Alain Delon, circulent sur les réseaux sociaux. (CAPTURE D'ECRAN)

C'est une vidéo qui circule sur les réseaux sociaux, notamment sur Facebook. On y voit Alain Delon, installé face à une caméra. L'acteur explique que cette interview a été réalisée avant sa mort, le 18 août dernier, à 88 ans. "Si vous regardez cette vidéo, c'est que je suis déjà mort", semble dire Alain Delon. "J'ai décidé de distribuer une partie de mon argent à tous les Français et je pense que c'est la bonne chose à faire". On l'entend affirmer ensuite que "chacun pourra gagner 4 000 euros dès le premier jour" dans le casino en ligne qu'il aurait demandé à sa fille, Anouchka, de créer après sa disparition. Mais cette vidéo est fausse.

Il s'agit d'un "deepfake", une vidéo truquée, créée avec l'aide d'une intelligence artificielle, où l'on fait dire tout et n'importe quoi à qui l'on veut. Elle semble vraie parce que la voix d'Alain Delon est reproduite, elle est reconnaissable, et sa bouche semble vraiment prononcer les mots qu'on lui prête.

En l'occurrence, cette fausse vidéo d'Alain Delon est l'un des éléments d'une usurpation d'identité plus large faite par le site polonline.top, créé dans l'Est de l'Europe, comme l'a noté France 3, dans le but d'escroquer les gens. Méta, l'entreprise à laquelle appartient Facebook, a désactivé la vidéo depuis mais des copies circulent toujours sur les réseaux sociaux.

Souvent des "deepfakes" de célébrités

Ce n'est pas la première fois que l'image d'Alain Delon est utilisée dans des escroqueries. Victor Baissait, spécialiste des technologies, qui rassemble de nombreux "deepfakes" sur son site internet, en a trouvé plusieurs autres. Dans l'une d'elles, Alain Delon vanterait les mérites d'un médicament contre le diabète. Dans une autre, il ferait la promotion d'un traitement contre l'hypertension.

Et ce n'est pas la seule célébrité victime de ces "deepfakes". Les acteurs Omar Sy, Vincent Cassel, Marion Cotillard, le rappeur Naps, le footballeur Kylian Mbappé, ou encore le chanteur Florent Pagny ont aussi vu leur image être détournée. Aux États-Unis, la chanteuse Taylor Swift a fait l'objet d'un deepfake pornographique.

>> Lire aussi : "'Deepfakes' pornographiques : pourquoi la lutte contre les images générées par intelligence artificielle s'annonce difficile"

Médias et politiques aussi pris pour cible

Mais des personnalités politiques peuvent aussi en faire l'objet. Cela a été le cas de Bruno Le Maire, d'Élisabeth Borne. En juillet, Elon Musk, le patron critiqué de X, a fait scandale en partageant sur son réseau social un "deepfake" de Kamala Harris, la candidate démocrate à la présidentielle américaine, semblant dire que Joe Biden, le président américain, était sénile.

Ces vidéos peuvent aussi reprendre les codes des médias, ressemblant tantôt à des reportages tantôt à des extraits de journal télévisé. En février, un "deepfake" de la chaîne télévision France 24 affirmait qu'Emmanuel Macron avait annulé une visite prévue en Ukraine à cause de menaces qui pèseraient sur sa vie. La fausse information avait été partagée par Dmitry Medvedev, vice-président du Conseil de sécurité russe. Elle a été démentie par France 24 et par l'Élysée, qui dénonce une tentative de désinformation pro-russe.

>> Lire aussi : "Anne-Claire Coudray, Julian Bugier ou Gilles Bouleau ont-ils vraiment vanté les mérites d'une application en plein journal télévisé ?"

La lutte contre les "deepfakes", une "priorité absolue" 

Si la vidéo d'Alain Delon n'est pas parfaite – sa bouche n'est pas tout à fait synchronisée avec le son de sa voix reproduite – et s'il est possible de se dire que la déclaration est tellement étonnante et reprise nulle part ailleurs, qu'elle est sans doute fausse, elle est tout de même inquiétante car elle illustre la montée en puissance de l'utilisation de l'intelligence artificielle par les escrocs.

Ces détournements posent un réel problème parce que les vidéos sont de plus en plus ressemblantes et donc de plus en plus difficiles à identifier, avec les potentiels risques économiques, politiques et diplomatiques que cela peut représenter. 

Il n'est d'ailleurs par toujours facile de voir que les images sont fausses. En mai, une étude de Milan presse et CSA soulignait la difficulté à lutter contre ces fausses vidéos. 79% des sondés estimaient ne pas être suffisamment informés pour s'en protéger. Quelques mois auparavant, une arnaque par "deepfake" a coûté 26 millions de dollars à une entreprise de Hong Kong. 

En avril, Amnesty International a alerté sur les menaces liées aux technologies et en 2022 déjà, un rapport d'Europol estimait que la lutte contre les "deepfakes" devait être une "priorité absolue" des forces de l'ordre.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.