Coronavirus : comment les réseaux sociaux ont tenté de soigner le mal de la désinformation
Face aux contenus erronés qui ont circulé sur Facebook et Twitter, les deux géants d'internet ont mis en place des outils pour lutter contre les fausses nouvelles autour de la pandémie. Mais ces remèdes ont-ils été efficaces ?
"Nous ne combattons pas seulement une épidémie. Nous combattons une 'infodémie'." Le 15 février, face à la pandémie de Covid-19 qui se profile, le directeur général de l'Organisation mondiale de la santé (OMS) sonne l'alarme. A l'occasion de la Conférence de Munich sur la sécurité (en anglais), Tedros Adhanom Ghebreyesus martèle : "Les fausses informations se répandent plus rapidement et plus facilement que ce virus, et elles sont toutes aussi dangereuses."
Des faux soupçons visant le milliardaire Bill Gates aux théories du complot sur le déploiement de la 5G en passant par les prétendus "scandales d'Etat", les fake news autour du coronavirus ont pullulé sur internet et les réseaux sociaux. Signalements de publications, diffusion d'informations vérifiées, limitations algorithmiques... Les plateformes ont souhaité se positionner comme remparts face aux infox. Mais cela a-t-il été efficace ?
Des fake news autour de huit thèmes
Imran Ahmed a été frappé par la multiplication des fausses informations sur le coronavirus. "Pour la première fois, nous avons réalisé que la désinformation coûtait des vies, et pas seulement loin de nous, regrette le directeur du Centre pour contrer la haine en ligne à Londres (Royaume-Uni). A cause de certaines fake news, des gens ont par exemple refusé de se laver les mains." Un constat que faisait elle-même la BBC (en anglais) en mai, agrégeant les récits d'empoisonnements, d'agressions et d'autres conséquences funestes de cette "infodémie".
Une "infodémie" qu'il est toutefois difficile d'évaluer. Mais la production d'articles de fact-checking, écrits en réaction aux fake news, pourraient être un indicateur pertinent. Selon l'Institut Reuters pour l'étude du journalisme (en anglais), le nombre d'articles de vérification en langue anglaise aurait justement augmenté de 900% entre janvier et mars. Une hausse constatée aussi par Cristina Tardáguila, directrice adjointe du Réseau international de fact-checking (IFCN). Depuis le début de l'épidémie, les 88 organisations de sa "Coronavirus Facts Alliance" (en anglais) – à laquelle appartient franceinfo – ont écrit pas moins de 7 115 articles.
Pour autant, toutes les organisations qui en font partie savent pertinemment que beaucoup de mensonges ont encore besoin d'être 'fact-checkés'. Mais nous n'avons aucune idée de l'étendue de l'univers des fake news.
Cristina Tardáguilaà franceinfo
De quoi lui permettre d'observer "huit vagues de désinformation" ou plutôt huit thèmes récurrents autour du coronavirus que sont l'origine du virus ; les images de soi-disant évanouissements de personnes contaminées ; les faux remèdes et les fausses mesures préventives ; les accusations envers la Chine ; la prétendue suprématie d'une race ou d'une religion sur le Covid-19 ; le hameçonnage au temps du confinement (les attaques en ligne auraient augmenté de 30 000% dans le monde depuis janvier, rapporte France Inter) ; les fake news diffusées par des politiques, ou attribuées à eux et enfin la manipulation des statistiques, notamment au moment du déconfinement.
Ces vagues ont traversé la planète avec le virus. Certaines ont pu être définitivement 'débunkées' [discréditées] comme la soupe de chauve-souris mais d'autres, comme la 5G, nous mènent la vie dure.
Cristina Tardáguilaà franceinfo
De nouveaux remèdes face à la désinformation
Face à la diffusion d'infox, plusieurs plateformes en ligne ont décidé de mieux armer leurs utilisateurs en innovant. Twitter et Facebook ont par exemple mis sur pied des pages d'agrégation de contenus officiels sur le Covid-19 provenant de médias reconnus et d'autorités comme l'OMS ou le ministère de la Santé pour la France.
D'après Facebook (en anglais), l'initiative aurait attiré "deux milliards d'utilisateurs" au moins une fois. L'OMS a aussi diffusé des messages via des "chatbots" (des systèmes de conversations automatiques) sur les applications WhatsApp et Messenger, propriétés de la plateforme créée par Mark Zuckerberg. Mais Twitter n'est pas en reste : le 10 juin, le réseau social a débuté le test d'une nouvelle fonctionnalité et tout utilisateur qui souhaite partager un article sans l'avoir lu sur la plateforme doit confirmer son choix. Une manière de lutter contre la diffusion des infox au titre accrocheur.
Dans la même veine, la messagerie WhatsApp limite depuis avril les partages d'information à grande échelle : à partir d'un certain nombre de partages avec d'autres utilisateurs, un même message ne peut plus être transféré que dans une seule conversation à la fois. Une barrière introduite en 2018, modifiée en 2019 et réévaluée face au coronavirus, qui aurait permis d'ores et déjà de réduire de 70% le transfert de messages repartagées à de nombreuses reprises, selon les informations de franceinfo.
Car la lutte contre les fausses informations n'est pas une nouveauté : en novembre 2016, Google et Facebook avaient été accusés d'avoir favoriser l'élection du président américain Donald Trump en laissant des fake news circuler sur leurs plateformes. Depuis, interpellées de surcroît par l'Union européenne, les plateformes ont développé des politiques de lutte contre la désinformation.
Des comptes et des messages supprimés
Du côté de Facebook, le repérage des infox est effectué de trois manières : par une modération "humaine", un repérage automatique et le travail de 60 organismes de fact-checking partenaires, dont 5 médias français. Grâce à 7 500 évaluations produites par ces derniers, le réseau social affirme (en anglais) ainsi avoir affiché des avertissements sur plus de 50 millions de publications durant la pandémie. Des avertissements qui renvoient tous vers des articles de fact-checking sur le Covid-19 et qui enclenchent une limitation algorithmique drastique de leur diffusion.
De quoi contenir, a priori, la diffusion d'infox : selon l'entreprise (en anglais), en voyant ces mentions à l'écran, les utilisateurs ignorent la publication originale "95% du temps". Et lorsque ces publications créent "un danger imminent" pour la personne, le géant de la Silicon Valley irait même jusqu'à les supprimer : "des centaines de milliers" de contenus auraient subi ce sort au mois de mars.
De son côté, Twitter a déclaré qu'il ciblait lui aussi les publications mensongères sur le Covid-19. "Nos systèmes automatisés ont détecté plus de 4,3 millions de comptes qui ciblaient des discussions autour [du] Covid-19 avec des spammeurs ou manipulateurs", rapporte Twitter à franceinfo. "Mais contrairement à Facebook, Twitter ne donne pas de verdict", observe Cristina Tardáguila.
Une mention permet aux utilisateurs de consulter une page qui agrège des informations vérifiées sur le Covid-19. Mais il ne dit pas ce qui est vrai et ce qui est faux.
Cristina Tardáguilaà franceinfo
Une méthode (en anglais) introduite juste avant l'épidémie et qui a fait beaucoup parler d'elle lorsque deux tweets du président Donald Trump sur le vote par correspondance se sont faits épingler en mai – là où Facebook, a contrario, exempte les politiques, hormis pour leurs publicités. Et lorsque les publications paraissent "dangereuses", Twitter affirme aller jusqu'à les supprimer – à peine 1 100 en deux semaines fin mars (en anglais). C'est le cas de deux tweets du président brésilien Jair Bolsonaro, enlevés du réseau social à la fin mars pour leur opposition aux règles sanitaires de confinement.
Enfin, Twitter a poursuivi sa campagne de suppression de comptes reliés à des Etats à des fins de manipulation. Dans un communiqué du 12 juin (en anglais), le réseau social affirme avoir supprimé 23 750 comptes chinois (et 150 000 autres dédiés à la diffusion de leur contenu) regroupés dans un fonds d'archive accessible en ligne. Comme le révèle l'Observatoire d'internet de l'université de Stanford (en anglais), la campagne de désinformation attribuée à la Chine continentale concernait notamment le Covid-19. Il y était "fait l'éloge de la réaction de la Chine face au virus", parfois comparée aux mesures prises par "les Etats-Unis et Taïwan".
We’re disclosing new state-linked information operations to our public archive — the only one of its kind in the industry. Originating from the People’s Republic of China (PRC), Russia, and Turkey, all associated accounts and content have been removed. https://t.co/obRqr96iYm
— Twitter Safety (@TwitterSafety) June 11, 2020
Des mesures insuffisantes ?
Mais ces mesures ne sont pas totalement efficaces, à en croire plusieurs études. C'est le cas d'une recherche conduite par le l'Institut Reuters pour l'étude du journalisme publiée en avril (en anglais). Parmi 225 infox ou informations partiellement fausses, l'équipe de chercheurs a constaté que 59% d'entre elles ne comportaient aucun avertissement sur Twitter. Facebook et YouTube obtiennent eux de meilleurs résultats avec respectivement 24% et 27%.
Le Centre contre la haine en ligne (CCDH) pointe lui aussi des failles dans un rapport publié en juin (PDF en anglais) : la société britannique a rassemblé 649 publications issues de Facebook, Instagram et Twitter partageant des infox sur le coronavirus. Et leur constat est sans appel : 90,6% d'entre elles n'ont été ni étiquetées ni supprimées – Twitter, là aussi, semble à la traîne, avec seulement 3,3% de messages supprimés.
We reported 649 posts containing misinformation about Covid-19 to @Twitter @Facebook & @Instagram, who all claim to take action against such posts.
— Center for Countering Digital Hate (@CCDHate) June 4, 2020
▪️41 (6.3%) were removed
▪️13 (2%) of accounts posting them were taken down
▪️7 (1.1%) were flagged as false
▪️90.6% remain online pic.twitter.com/jdVvU6FPjy
"Ces mesures partent de bonnes intentions (...) mais les réseaux sociaux devraient les appliquer correctement", analyse Imran Ahmed, directeur du CCDH. "Soit ce sont des règles introduites pour soigner leur image, soit leur système n'est pas fait pour cela. Mais dans les deux cas, le public y perd", accuse-t-il. Imran Ahmed pointe également le plus grand recours à la détection automatique des infox choisi par les plateformes, peut-être moins performante, les équipes de modération ne pouvant effectuer les opérations à leur domicile – ce que rapportait également Le Monde en mars.
NewsGuard et Avaaz (en anglais) ont aussi abouti à des résultats imparfaits. Mais Cristina Tardáguila tempère : "Il peut y avoir une grande différence dans ces chiffres selon ce qu'on considère comme étant ou non une fake news. Il n'existe pas aujourd'hui de définition unique et acceptée par tous de l'expression 'fake news'. Comment, dès lors, peut-on mesurer cela ?" s'interroge la directrice du Réseau international de fact-checking.
L'Union européenne veut plus de transparence
Alertée en mars sur la multiplication d'infox autour du Covid-19 par les dirigeants européens (PDF), l'Union européenne a réagi le 10 juin, appelant les plateformes en ligne à "accentuer leurs efforts" malgré "des mesures positives", comme l'a demandé Věra Jourová, vice-présidente de la Commission européenne chargée des valeurs et de la transparence.
Mis en place en septembre 2018, le Code européen de bonnes pratiques contre la désinformation (en anglais) avait déjà été signé par Facebook, Google, Twitter ou encore Microsoft. L'objectif ? Accompagner et coordonner les plateformes dans leur effort contre les fake news, avec des rapports à soumettre. Et justement : à partir du mois de juin, ces mêmes entreprises seront invitées à publier, dans le cadre du Code, "des rapports mensuels sur leurs politiques et actions visant à lutter contre la désinformation liée [au Covid-19]".
"Les vérificateurs de faits, les chercheurs et les organisations de la société civile ont un rôle essentiel à jouer, affirme une communication de la Commission européenne. Mais certaines plateformes ne leur ont pas donné suffisamment de moyens pour le faire pendant la crise de santé publique actuelle."
Il est dès lors nécessaire que les plateformes des médias sociaux intensifient leurs efforts, partagent plus d'informations et fassent preuve d'une plus grande transparence et rendent compte davantage.
La Commission européennele 10 juin 2020
Des déclarations loin d'être une première. En octobre 2019, la Commission appelait déjà les plateformes en ligne à établir "une coopération constructive avec un plus grand nombre d'organisations" et réclamait un meilleur "accès aux données" pour les chercheurs indépendants. Créé en juin 2020, l'Observatoire européen des médias numériques (EDMO) aura ainsi pour mission de coopérer avec les réseaux sociaux. L'objectif : rendre leurs données accessibles à des chercheurs ainsi qu'à des fact-checkeurs.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.