Comment les réseaux sociaux s'organisent-ils pour gérer les excès de leurs utilisateurs ?

Un règlement européen, le DSA, impose notamment aux plateformes sociales de rendre public, depuis 2024, leurs moyens de supervision. Et instaure une instance d'appel en cas de contestation de leurs décisions.
Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 3min
On trouve de tout sur les réseaux sociaux. L’Union européenne s’est dotée d’un règlement sur les services numériques,  avec une première obligation pour les plateformes et les intermédiaires en ligne : la mise en place d'un système de signalement des contenus illicites. (Illustration) (DA-KUK / E+ / GETTY IMAGES)

L’Union européenne s’est dotée d’un règlement sur les services numériques, le DSA pour Digital Services Act, qui fixe des obligations qui s’imposent, depuis le 17 février 2024, à toutes les plateformes et les intermédiaires en ligne qui offrent leurs services sur le marché européen : fournisseurs d’accès à Internet, places de marché, cloud, réseaux sociaux, plateformes de voyage et d'hébergement, etc.

Des rapports semestriels présentant les actions de supervision

La première obligation est la mise en place d’un système de signalement des contenus illicites. Et une publication des moyens mis en œuvre pour modérer les contenus. Et c’est en ce moment que cela se passe, puisque les plus grandes plateformes doivent diffuser chaque année, en avril et octobre, un "rapport de transparence".

Une page sur le site de la Commission européenne rassemble en accès libre ces documents semestriels, émanant des principaux sites internationaux. Ils sont une quinzaine à ce jour : du commerçant chinois AliExpress à l’encyclopédie en ligne Wikipedia.

Une recension des demandes de retrait et de fermeture de comptes

Ces bilans présentent les chiffres précis concernant les retraits de contenus, les fermetures de comptes, les requêtes émanant des Etats, ainsi que les effectifs consacrés à la modération des contenus en fonction des langues utilisées.

TikTok indique que de janvier à juin 2024, il a reçu 144.000 signalements de contenus illégaux, dont 29% jugés contraires aux conditions d’utilisation ou aux législations de l’UE. Autre exemple, le vendeur à prix cassés, Shein, a reçu de février à juillet 2024, 62 demandes des autorités concernant des produits illégaux ou dangereux commercialisés sur son site. Le groupe META (pour Facebook et Instagram) affirme disposer de 540 modérateurs francophones. Tandis que LinkedIn en aligne 32, et le service YouTube de Google en annonce 304.

Une nouvelle instance en cas de contestation

Ce n’est pas un tribunal mais un "centre de recours" (Appeals Center Europe). C’est une instance installée fin octobre, à Dublin, grâce à une dotation initiale et en principe unique de Meta de 13,7 millions d’euros. Elle traitera d’ici la fin 2024 les contestations de décisions prises par Facebook, TiKtok et Youtube sur les situations de harcèlement, les incitations à la haine ou la suppression de comptes.

C’est un dispositif extrajudiciaire prévu par l’article 21 du règlement européen, le DSA. Sa pratique verra s’il dispose d’une indépendance vis-à-vis des plateformes. Sachant qu’à terme il devra s’autofinancer, puisqu’un recours sera payant : 5 euros pour les particuliers, et 95 euros pour les entreprises. Remboursés, si la contestation était fondée.

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.