"Deepfakes" pornographiques : pourquoi la lutte contre les images générées par intelligence artificielle s'annonce difficile

Article rédigé par Luc Chagnon
France Télévisions
Publié
Temps de lecture : 11min
N'importe qui peut aujourd'hui apparaître "virtuellement" dans une photo ou une vidéo pornographique sans jamais y avoir participé. (ASTRID AMADIEU/FRANCEINFO)
N'importe qui peut aujourd'hui apparaître "virtuellement" dans une photo ou une vidéo pornographique sans jamais y avoir participé. Face à cette menace, la justice manque cruellement de moyens.

"Quand on m'a montré cette photo, j'ai été prise d'un énorme sentiment de honte." En décembre 2023, la journaliste Salomé Saqué découvre sur les réseaux sociaux une image d'elle posant sur les quais de Seine, la poitrine nue. L'image, publiée sans son accord, est extrêmement réaliste, et de nombreux internautes persuadés de sa véracité se fendent de remarques sexistes. Pourtant, elle le répète à franceinfo : "Cette scène n'a jamais eu lieu."

La journaliste n'est en fait qu'une des nombreuses nouvelles victimes d'une arme technologique de plus en plus accessible et dangereuse : les deepfakes pornographiques. Ces montages photo ou vidéo hyperréalistes sont en général illégaux, et peuvent ruiner la réputation et la vie des personnes dont ils reprennent l'image.

Leur utilisation a connu un nouveau coup d'accélérateur avec le développement de l'intelligence artificielle (IA). Au point que n'importe qui peut aujourd'hui en être victime. C'est le cas, tout particulièrement, des femmes, qu'elles soient célèbres (comme la chanteuse Taylor Swift) ou anonymes (comme des étudiantes visées par leurs camarades). "Il y a une certaine appréhension", reconnaît Samuel Comblez, directeur des opérations de la plateforme d'écoute 3018. "Pour le moment, on ne sait pas trop comment on va pouvoir empêcher cela."

Un business illégal

La menace n'est pas nouvelle. "Ces deepfakes ne sont que l'évolution d'un phénomène qui existait déjà", rappelle Rachel-Flore Pardo, avocate et cofondatrice de l'association Stop Fisha. Depuis des années, des sites et forums entiers sont dédiés au détournement de photos ou de vidéos de femmes célèbres, comme Emma Watson, ou Gal Gadot, afin de les intégrer à des images ou des films X. En France, des vidéastes ou influenceuses comme Léna Situations, Juju Fitcats ou Maghla sont très régulièrement ciblées par ces détournements. 

Mais avec le progrès technique, "les montages sont aujourd'hui si proches de la réalité qu'il est difficile de les reconnaître", alerte Rachel-Flore Pardo. A la racine de ce changement : le développement des IA génératives comme Midjourney ou Stable Diffusion, qui permettent de créer ou modifier une image sans avoir besoin de compétences techniques.

"Avant, il fallait des compétences en montage, un ordinateur puissant, beaucoup d'images de la personne visée… Aujourd'hui, les programmes sont beaucoup plus accessibles", explique Virginie Mathivet, docteure en IA et fondatrice de la société de conseil Hemelopse. Au point que le secteur devient un véritable business. Les sites et applications servant à "dénuder" artificiellement une personne sur une photo – ou plutôt remplacer ses vêtements par l'image d'un corps nu aux proportions similaires – se multiplient dans l'illégalité. Les sites de 34 entreprises du genre ont reçu plus de 24 millions de visites rien qu'en septembre 2023, selon un rapport (document PDF) de l'entreprise de veille numérique Graphika.

Leurs conditions d'utilisation réclament souvent aux utilisateurs de ne pas "dénuder" une personne sans son consentement, mais "on sait très bien qu'elles l'écrivent pour se couvrir juridiquement et qu'elles ne contrôlent rien", dénonce Virginie Mathivet. Certains de ces sites réalisent eux-mêmes des deepnudes de célébrités ou de femmes anonymes pour promouvoir leurs services, en violation directe de leurs propres conditions, dans des canaux consultés par franceinfo.

N'importe qui peut être touché

Puisqu'une seule photo suffit pour réaliser un deepfake, n'importe qui peut désormais être touché. Quelques affaires ont déjà défrayé la chronique à l'étranger : en Espagne, plus de 20 écolières ont porté plainte après que des photos d'elles "dénudées" ont été diffusées sur les réseaux. Aux Etats-Unis, des élèves ont été victimes de montages similaires, rapporte le site spécialisé 404 Media.

En France, ces deepfakes concernent encore majoritairement des femmes célèbres, selon les différents juristes et associations spécialisées interrogés par franceinfo. Aucune affaire "d'envergure impliquant des deepfakes" n'est en cours, assure la Direction générale de la police nationale auprès de Libération. Mais les autorités sont de plus en plus attentives, et quelques cas ponctuels d'anonymes apparaissent déjà. "J'ai été contactée par une lycéenne dont les camarades avaient utilisé une IA pour la 'dénuder' sur une photo", atteste par exemple auprès de franceinfo Laure Landes-Gronowski, avocate en droit des nouvelles technologies. La victime n'a pas souhaité témoigner.

En parallèle, le 3018 constate une hausse des actes de "sextorsion", lorsque des délinquants convainquent une victime de leur envoyer des nudes (des photos ou vidéos dénudées d'elle-même) pour ensuite la faire chanter. Ces délits, dont les victimes et les auteurs sont de plus en plus jeunes, se retrouvent facilités par l'IA, utilisée pour faire pression, même sans avoir obtenu de véritable nude. "Quand on va parler aux enfants dans les classes, ils savent que ça existe et que c'est facile d'accès", confirme le directeur des opérations de l'association. "Pour le moment, je n'ai pas l'impression qu'ils s'en emparent, mais je ne peux pas imaginer que ça en reste là."

"La lenteur de la justice entretient un sentiment d'impunité"

Face à ce raz de marée redouté par les professionnels, que peuvent faire les victimes ? Si ces images sont publiées sur un réseau social, leur premier réflexe doit être de les signaler. Les alertes transmises par les organisations considérées par les plateformes comme "signaleurs de confiance", comme le 3018, sont traitées très rapidement, insiste Samuel Comblez. Mais pour les utilisateurs individuels, le résultât est moins rapide et plus aléatoire.

Mais même en cas de suppression, il suffit d'une capture d'écran ou d'un téléchargement de l'image infamante pour que la menace persiste. "Un deepfake peut rester en ligne une heure et avoir des conséquences pendant des années", résume à franceinfo Ketsia Mutombo, cofondatrice de l'association Féministes contre le cyberharcèlement. Directrice des programmes de l'association féministe En avant toute(s), Louise Delavier corrobore cette analyse.

"Même pas besoin de le publier pour faire des dégâts, il suffit qu'il soit montré aux autres, par exemple aux camarades à l'école."

Louise Delavier, directrice des programmes de l'association féministe En avant toute(s)

à franceinfo

Il est également possible de porter plainte. L'article 226-8 du Code pénal punit les montages non consentis d'un an d'emprisonnement et de 15 000 euros d'amende – mais seulement "s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention". Une exception qui a poussé de nombreux groupes à réclamer la création d'un délit spécifique, introduit dans le projet de loi de sécurisation de l'espace numérique, qui devrait passer en commission mixte paritaire dans les prochaines semaines selon le média Contexte.

Le dépôt de plainte "est souvent un parcours du combattant", prévient Samuel Comblez. "Les commissariats refusent parfois tout simplement le dépôt de plainte", dénonce même Ketsia Mutombo. Et même quand la plainte est reçue, l'enquête peut se heurter à des difficultés techniques : "Il faut retrouver l'adresse IP de l'auteur, qui peut avoir été utilisée par plusieurs personnes, son compte peut avoir été désactivé entre-temps…", égrène la responsable associative. "Et si l'auteur ou la plateforme sont basés à l'étranger, il est presque impossible d'agir."

"Il n'y a pas d'anonymat sur internet", rétorque Alexandre Archambault, avocat spécialiste du droit du numérique. Le spécialiste souligne que des internautes sont régulièrement condamnés pour des propos haineux ou des partages de contenus illégaux. "Mais la lenteur de la justice entretient un sentiment d'impunité", reconnaît-il. Le verdict des spécialistes interrogés est unanime : le problème réside avant tout dans le manque de moyens, de personnel et de formation de la justice pour traiter correctement ces affaires et remonter la trace des criminels.

Pour les femmes les plus exposées, c'est donc la résignation qui domine. "Est-ce que je vais vraiment me farcir 5 heures de commissariat chaque jour pour chaque personne qui va mal agir comme ça sur internet ?", s'interrogeait Ultia, créatrice de contenus régulièrement victime de vagues de harcèlement sexiste, sur le plateau de l'émission "Popcorn" en 2022. "J'ai pas l'énergie pour le faire. Si je devais me présenter [au commissariat] à chaque fois qu'il y a un cas comme ça, ce serait infini."

"C'est le reflet du sexisme de la société"

La situation pourrait changer avec la prise de conscience de ces nouveaux risques. "Plus les procédures seront nombreuses, plus la justice devra se saisir du problème et y répondre avec les moyens appropriés", estime Rachel-Flore Pardo. "On a retrouvé des auteurs des fausses alertes à la bombe de l'automne 2023, même certains qui utilisaient un VPN [un réseau privé virtuel favorisant l'anonymat] étranger", rappelle Alexandre Archambault.

"Il a fallu mettre les moyens pour remonter leur trace, mais ça prouve que c'est possible."

Alexandre Archambault, avocat spécialiste du droit du numérique

à franceinfo

Pour dissuader les contrevenants, l'avocat estime également qu'il est possible de faire jouer l'article 226-8 du Code pénal, mais aussi le 226-4-1, qui sanctionne l'utilisation de données d'une personne en vue de "porter atteinte à son honneur" de peines pouvant aller jusqu'à deux ans de prison et 30 000 euros d'amende. Il évoque en outre la possibilité de passer devant le juge civil, qui protège le droit à la vie privée.

Les géants de l'IA peuvent par ailleurs agir en améliorant la traçabilité de leurs contenus, ou en empêchant au maximum leurs programmes de générer des images pornographiques non consenties. "Ça ne va pas faire disparaître des sites plus underground, mais ça compliquera la tâche pour la plupart des gens", estime Virginie Mathivet.

Le problème n'est toutefois pas seulement technique. "C'est le reflet du sexisme de la société : chaque nouvelle technologie est utilisée par certaines personnes pour tenter de réduire les femmes au silence", rappelle Salomé Saqué. Les deepfakes ne sont en général qu'un des nombreux moyens utilisés par des internautes pour harceler leurs cibles, des insultes aux moqueries en passant par le doxxing (la diffusion d'informations personnelles) ou le stalking (une forme d'espionnage numérique obsessionnel). "Le plus important, c'est donc l'éducation et la bataille des idées", résume Ketsia Mutombo. "Je suis convaincue que certains ne réalisent pas les conséquences de leurs messages ou de leurs montages", estime Salomé Saqué. "Il faut leur faire comprendre que c'est violent."

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.