Intelligence artificielle : une escroquerie utilise l'image de l'acteur Alain Delon pour attirer des internautes vers un casino en ligne

Dans cette fausse publicité, une imitation de l'acteur décédé enjoint les internautes à jouer pour gagner 100 000 euros.
Article rédigé par franceinfo avec AFP
France Télévisions
Publié
Temps de lecture : 1 min
L'acteur français Alain Delon à Tokyo, au Japon, le 26 décembre 2022. (TOSHIAKI SHIMIZU / YOMIURI / AFP)

"Si vous regardez cette vidéo, c'est que je suis déjà mort. Je vous donnerai 100 000 euros si vous ne pouvez pas gagner dans mon casino en ligne." Une escroquerie utilisant l'image de l'acteur Alain Delon, mort le 18 août à l'âge de 88 ans, avait été visionnée plus de 2 millions de fois sur les réseaux sociaux mercredi 28 août. Objectif : attirer les internautes vers un casino en ligne.

Cette fausse publicité, qui utilisait la voix et l'image du comédien décédé a depuis été désactivée. Mais des vidéos alternatives avec l'acteur et redirigeant vers le casino subsistent.

De nombreuses personnalités touchées par les "deepfakes"

Sollicité par l'AFP, Meta a rappelé qu'il était contraire aux règles de la plateforme de publier des publicités avec des images de personnalités publiques de façon trompeuse afin de tenter d'escroquer des gens. Le géant des réseaux sociaux a ainsi expliqué avoir créé des modèles visant à détecter spécifiquement les contenus viraux utilisant des images de célébrités afin de mieux lutter contre eux.

Les deepfakes, ces contenus truqués en utilisant l'intelligence artificielle qui pullulent sur internet, alimentent une vague de désinformation qui touche de nombreuses personnalités, comme la star de la chanson Taylor Swift, et suscitent l'inquiétude avant des échéances électorales comme la présidentielle américaine. 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.