:
Reportage
"Une seule photo suffit" : quand l'intelligence artificielle démultiplie les deepfakes pornographiques
Le phénomène monte et inquiète : de faux contenus pornographiques, créés via l'intelligence artificielle, à partir d'une photo de personnalité ou même de monsieur ou madame tout le monde, appelés deepfakes, sont de plus en plus diffusés. Des montages hyperréalistes, dont les victimes sont le plus souvent des femmes, surtout celles qui ont de la visibilité sur les réseaux, influenceuses, ou youtubeuses comme Juju Fitcats.
Justine, de son vrai prénom, a 28 ans et fait des vidéos pour parler fitness ou nutrition mais à plusieurs reprises, des personnes malveillantes ont réalisé des trucages avec ses photos issues de son Instagram, de faux nus, hyperréalistes. "C'est très perturbant car les gens prennent de vraies photos qu'on a postées et ont une facilité à utiliser les technologies qui existent pour totalement modifier cette photo, en enlevant mes vêtements, en me recréant des seins...", explique-t-elle.
"On va prendre ma tête pour la mettre sur le corps d'une actrice porno en plein ébat sexuel avec un partenaire. C’est tellement bien fait parfois qu'on ne pourrait pas imaginer une seconde qu'en fait, j'étais au préalable habillée sur la photo."
Juju Fitcats, youtubeuseà franceinfo
C'est cela qu'on appelle des deepfakes à caractère sexuel : des photos et même des vidéos générées ou retouchées par des outils d'intelligence artificielle.
Et le phénomène devient de plus en plus courant grâce aux avancées technologiques. Il a toujours existé bien sûr, même avec des ciseaux et un tube de colle, on peut faire un découpage, un montage, faire dire n'importe quoi à une image, mais ce qui est nouveau, comme l’explique Tina Nikoukhah, chercheuse en traitement des images à l'ENS Paris-Saclay, c'est l'hyperréalisme permis par les progrès de l'intelligence artificielle. "Visuellement il y a quelques années, coller le visage de quelqu’un correctement pour que ça coïncide bien avec le corps, c'était difficile à faire. Il y a eu des progrès dans ce domaine-là. Mais là, c’est encore différent : ce n’est pas forcément le corps de quelqu'un d'autre, c'est un corps inventé, à partir de milliers de corps appris par le logiciel", décrypte la spécialiste.
"La différence aujourd'hui c’est qu'on n’a pas besoin d'avoir des heures et des centaines de vidéos d'une personne : une seule photo suffit."
Tina Nikoukhah, chercheuse en traitement des imagesà franceinfo
"Pire que ça, poursuit la chercheuse : on prend une photo de quelqu'un dans la rue, on la met dans cette application et on a une version de la personne déshabillée. C'est à la portée de tous. N'importe qui malheureusement peut les créer. Les plus jeunes sont encore plus geeks donc très à l'aise avec ce genre d'outils". Il n'y a effectivement pas besoin d'être diplômé en cybernétique. Nous avons fait le test avec l'un de ces outils en ligne. En trois clics, on a pu gratuitement déshabiller quelqu'un, à partir d'une photo piochée sur Internet. Ensuite, le service devient vite payant.
8 000 cas de "sextorsion" en France en 2023
N'importe qui désormais peut donc être victime de tels trucages. Il y a eu un cas d'ailleurs cet automne en Espagne : une vingtaine d'adolescentes ont vu circuler sur des boucles WhatsApp des photomontages pornographiques avec leurs visages, générées via l'intelligence artificielle. Les suspects étaient leurs camarades de classe. Âge moyen: 13 ans.
Les jeunes sont donc particulièrement vulnérables. En France, l'Office de lutte contre les violences faites aux mineurs (Ofmin) nous confirme d'ailleurs que le processus est déjà utilisé par des pédocriminels pour du chantage sexuel. L’ampleur du phénomène est difficile à chiffrer, mais si l'on regroupe les deepfakes et les contenus bien réels, ce sont 8 000 cas de "sextorsion" qui ont été signalés à cet organisme depuis début 2023. Deux avocats, par ailleurs, nous ont confirmé des cas de "citoyennes lambda" victimes de ces photomontages dont une trentenaire, piégée par un collègue de travail. Elle n'a pas souhaité témoigner. Ça reste très tabou, justement parce que peu de cas, pour l'heure, sont médiatisés.
Pour lutter contre le deepfake, mieux vaut diffuser le moins de photos de soi possible en ligne. Dans son projet de loi sur la sécurisation du numérique débattu en ce moment au Parlement, le ministre Jean-Noël Barrot a ajouté un amendement précisément pour que la diffusion de ces contenus truqués devienne un délit. "96% des hyper trucages sont des deepfakes porno et les femmes sont visées dans 99% des cas, rapporte le ministre. Il y avait donc urgence à agir. C'était un angle mort de notre droit. Nous allons taper plus fort : deux ans d'emprisonnement et 60 000 euros d'amende", annonce-t-il.
Le ministre entend aussi remettre la pression sur les plateformes, comme Google ou Telegram. Reste à voir si celles-ci joueront bien leur rôle de signalisation et de modération de ces contenus, comme le leur imposent les nouvelles règles européennes.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.