L'intelligence artificielle est devenue une nouvelle arme inquiétante de la pédocriminalité, alertent des associations
Les contenus pédopornographiques en ligne se multiplient avec le développement des outils d'intelligence artificielle (IA). Cela banalise les violences sexuelles contre les enfants et complique le travail des autorités chargées de protéger les jeunes victimes réelles, alertent des fondations en Europe. L'intelligence artificielle générative permet de créer des vidéos d'enfants virtuels en train d'être violés ou des images d'adolescentes dénudées, dont seul le visage est réel.
En septembre 2023, en l'espace d'un mois seulement, plus de 20 000 images générées par intelligence artificielle ont été publiées sur un forum accessible sur le dark web, la partie clandestine d'internet, rapporte l'Internet Watch Foundation, l'une des principales associations européennes de lutte contre la diffusion de ces contenus. L'organisme, qui avait reçu 70 rapports sur ce phénomène entre avril 2023 et mars 2024, en a déjà reçu 74 en l'espace de six mois, entre avril et fin septembre 2024. Une progression qu'il juge "glaçante".
Un phénomène qui prend de l'ampleur
Le phénomène a pris de l'ampleur avec la démocratisation des IA génératives au carrefour des années 2022 et 2023. Si la plupart des logiciels grand public ont des limitations sur l'usage de certains termes et rendent ces créations impossibles, ce n'est pas le cas d'autres logiciels, actifs via le dark web.
"Dans quelques années, 95% des images pédocriminelles qui seront diffusées sur internet seront issues de l'intelligence artificielle", avait souligné en juillet Gabrielle Hazan, cheffe de l'Office des mineurs, service de police judiciaire dédié à la lutte contre les violences faites aux jeunes, sur France Inter.
Lancez la conversation
Connectez-vous à votre compte franceinfo pour commenter.