Cet article date de plus de six ans.

Expliquez-nous... La régulation des propos violents sur les réseaux sociaux

Alors que les appels à une nouvelle journée de mobilisation des "gilets jaunes" se multiplient sur les réseaux sociaux, accompagnés parfois de messages violents, focus de franceinfo sur la régulation des contenus sur Twitter et Facebook.

Article rédigé par franceinfo - Emilie Gautreau
Radio France
Publié
Temps de lecture : 3min
Les principales applications de réseaux sociaux. (MUHAMMED SELIM KORKUTATA / ANADOLU AGENCY)

Le principe de base est que l'utilisateur s'engage à respecter les "règles" du réseau social. Chez Facebook, on appelle cela les "standards" de la commnauté.

Le risque, dans le cas contraire, est de voir sur Facebook ses publications supprimées, d'être incité, sur Twitter, à "supprimer le contenu interdit pour pouvoir à nouveau publier" ou de voir son compte temporairement ou définitivement suspendu.

Les contenus violents prohibés

Sur Twitter comme sur Facebook, la violence est prohibée. Cela dit, les deux réseaux ont bien conscience que ce qui peut être perçu par un utilisateur comme violent ne l'est pas forcément par un autre et que parfois le contexte local, culturel, politique, le langage utilisé, peuvent jouer. Les réseaux indiquent en tenir compte.

Facebook évoque la "crédibilité" de la violence ou des menaces. "Lorsque nous pensons qu’un contenu représente un réel risque de préjudice physique ou une atteinte directe à la sécurité publique", précise Facebook, "nous supprimons le contenu, désactivons les comptes concernés et collaborons avec les autorités."

Sont aussi interdits, sur les deux réseaux, les contenus liés à des individus ou des organismes dangereux, la promotion de crimes, l'appel à la violence organisée, les discours incitant à la haine.

Des règles qui ont leurs limites

Les limites à ces réglementations tiennent au fait qu'elles doivent s'appliquer à des millions voire des milliards de personnes, que la diffusion des contenus est très rapide, et que les modérateurs ne sont pas nécessairement basés dans les pays de diffusion des contenus. De plus, les outils de détection automatisée des messages problématiques - ou les logiciels qui repèrent des images ou vidéos postées qui ne sont pas autorisées- ne tiennent pas compte du contexte : le fait par exemple que des utilisateurs relaient certains messages pour mieux les dénoncer, ou le fait qu'une scène de nudité ait un caractère artistique.

Il est par ailleurs très difficile de lutter contre les contenus qui surfent avec l'illicite, qui contournent les systèmes de détection tout en étant très diffusés. D'autant qu'en général, plus un contenu est polémique, plus il génère de l'engagement (des commentaires, des réactions...)

La régulation sur signalements

Facebook, Twitter incitent donc surtout les utilisateurs à signaler rapidement les contenus indésirables, ou les fausses informations. Les deux réseaux ont affiché récemment leur volonté de respecter les règles européennes. 

Facebook, particulièrement mis en cause sur ces questions, indique modifier régulièrement les règles de modération pour s'adapter aux nouveaux problèmes qui apparaissent et avoir fortement augmenté le nombre de ses modérateurs.

Facebook a aussi, le mois dernier, annoncé la création d'une sorte de "cour d'appel" qui permettra de trancher sur les contenus controversés : savoir s'ils peuvent, ou non, rester en ligne. Le réseau social publiera aussi, à partir de l'an prochain et tous les trois mois, un rapport sur les contenus qui ont été écartés du site.

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.