Cet article date de plus d'un an.

Les algorithmes d'Instagram facilitent la vente de pédopornographie, selon des chercheurs

Ces universitaires américains soulignent le rôle joué par les algorithmes du réseau social. Le "Wall Street Journal" confirme avoir été "inondé de contenus qui sexualisent les enfants" après un test.
Article rédigé par franceinfo avec AFP
France Télévisions
Publié Mis à jour
Temps de lecture : 1min
L'application mobile du réseau social Instagram, photo d'illustration du 21 avril 2022. (LORENZO DI COLA / NURPHOTO / AFP)

Instagram est la principale plateforme utilisée par des réseaux de pédophiles, selon une enquête du Wall Street Journal (en anglais) publiée mercredi 7 juin et menée avec des chercheurs de l'université de Stanford et de celle du Massachusetts. Le réseau social, qui appartient comme Facebook et WhatsApp à la maison-mère Meta, leur sert à promouvoir et vendre des contenus montrant des abus sexuels sur des mineurs.

"Instagram est actuellement la plus importante plateforme pour ces réseaux grâce à des fonctionnalités telles que les algorithmes de recommandation de contenus et la messagerie qui aide les vendeurs à entrer en contact avec les acheteurs."

Les chercheurs des universités de Stanford et du Massachusetts

cités par le "Wall Street Journal"

D'après le Wall Street Journal, une simple recherche avec des mots-clefs tels que #pedowhore ("pedo putain") ou #preteensex ("sexe pré-ado") permet d'accéder à des comptes qui promeuvent des contenus montrant des abus sexuels sur des mineurs. Souvent, ces profils "assurent être pilotés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels".

Une plainte déposée en mars

Les comptes ne disent pas directement qu'ils vendent des images pédopornographiques, mais ils comportent des menus avec des options, y compris celle de demander des actes sexuels spécifiques. Le rapport souligne le rôle joué par les algorithmes du populaire réseau social : un compte test créé par le quotidien américain s'est vu "inondé de contenus qui sexualisent les enfants" après avoir cliqué sur quelques recommandations de ce genre.

Meta n'a pas immédiatement répondu à une sollicitation de l'AFP. Le Wall Street Journal précise que le géant des réseaux sociaux a reconnu qu'il y avait des problèmes au sein de ses services de sécurité et a dit avoir créé un "groupe de travail" pour régler le problème. En mars dernier, des fonds de pension et d'investissement ont porté plainte contre Meta pour avoir "fermé les yeux" sur le trafic d'être humains et la pédocriminalité sur ses plateformes. 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.