Comment la modération tente de filtrer la face sombre des réseaux sociaux

Dans le fil des réseaux, franceinfo plonge dans les coulisses des réseaux sociaux où la modération est censée vous prémunir de contenus indésirables.
Article rédigé par Camille Laurent
Radio France
Publié
Temps de lecture : 3min
Entre liberté d'expression et protection de leur communauté, la modération sur les réseaux sociaux est un exercice d'équilibriste. (SEBASTIEN BOZON / AFP)

Désinformation, cyberharcèlement, images ultra-violentes, pédopornographie... Autant de faces sombres des réseaux sociaux que la modération est censée filtrer. Car qui dit liberté d'expression sur internet, dit aussi dérives en ligne. La modération repose sur le respect des législations nationales et internationales et des codes propres à chaque plateforme. Les médias, comme franceinfo, ont aussi leur propre charte déontologique édictant les règles à respecter quand on s'exprime sur internet.

Concrètement, la modération s'appuie de plus en plus sur des intelligences artificielles chargées de retirer automatiquement les contenus indésirables. Les plateformes comptent aussi sur leurs utilisateurs pour signaler ces contenus. En dernier recours, des humains interviennent pour trier, accepter ou supprimer à la main. Cette modération humaine est généralement confiée à des sous-traitants, comme Atchik, l'un des leaders français, où Sami Mauzi travaille en tant que modérateur : "C'est ultra-nécessaire de prendre du recul. Effectivement, on lit des messages qui peuvent être violents, racistes, etc. Mais au final, c'est aussi pour la bonne cause. C'est-à-dire que l'idée, c'est qu'il n'y ait personne qui vous menace, personne qui publie des contenus illicites. On est censé être les seuls à les voir. Ça permet que ça ne traîne pas sur les réseaux sociaux, que ça n'influence pas d'autres gens ou ça ne mène pas à des situations plus critiques que simplement des insultes. Donc au final, on se sent utile."

Un manque de transparence

Sami Mauzi estime être un modérateur chanceux, il n'a à modérer que des contenus textuels, pas comme pour Facebook. Dans le documentaire Les nettoyeurs du web d'Arte, des modérateurs philippins racontent qu'ils regardent en boucle les pires images. Une modératrice de Facebook a même fini par porter plainte pour stress post-traumatique en 2018. Malgré cela, les réseaux restent très opaques sur leur modération, regrette Xavier Degraux, consultant et formateur en réseaux sociaux à l'université de Liège en Belgique : "On voit qu'il y a des contextes insuffisamment sécurisés, il y a des gros problèmes de manipulation des foules aussi et des problèmes de transparence des règles propres à chaque plateforme", relève-t-il.

"En réalité, il y a toujours une, deux ou trois guerres de retard entre les régulateurs, les plateformes et ceux qui les utilisent de manière déplacée."

Xavier Degraux, consultant en réseaux sociaux

à franceinfo

Les plateformes ont fini par devoir communiquer sur leurs modérateurs, après l'opération transparence lancée l'été dernier par l'Union européenne. Avec son "Digital Service Act" (DSA), le règlement européen sur les services numériques en français, elle cherche à mieux réguler les réseaux sociaux. Avec un modérateur humain pour 22 000 utilisateurs, Tik Tok s'en sort le mieux, relève Xavier Degraux. Pour Facebook et Instagram, au sein de Meta, il y a un modérateur pour 240 000 utilisateurs. Pour X (ex-Twitter), on trouve un modérateur pour 120 000 utilisateurs, alors qu'Elon Musk a réduit l'équipe de modération à son arrivée.

X s'est fait rattraper sur ce sujet fin décembre. L'Union européenne a ouvert une enquête pour violation du DSA, insuffisance de modération et hébergement de contenus illégaux. Le réseau d'Elon Musk, chantre de la liberté d'expression, risque une amende pouvant atteindre 6% de son chiffre d’affaires, voire d'être banni de l'Europe.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.