Facebook : les fact-checkeurs font-ils vraiment "trop d'erreurs", comme l'affirme Mark Zuckerberg ?
"Nous allons nous débarrasser des fact-checkeurs." C'est par cette phrase que Mark Zuckerberg, le fondateur de Meta, maison mère de Facebook, a annoncé mardi 7 janvier 2025 qu'il allait mettre fin au programme de fact-checking sur ses réseaux sociaux aux États-Unis. Une décision prise dans un contexte où la désinformation se répand de plus en plus sur les réseaux sociaux. Mais cette décision s'inscrit aussi dans un contexte politique, où le créateur de Facebook a tendance à se rapprocher de Donald Trump, le futur président des États-Unis, grand désinformateur et grand critique des vérificateurs de l'information.
Pour justifier cette décision, Mark Zuckerberg a avancé plusieurs arguments assez virulents contre les fact-checkeurs. Le Vrai ou Faux a décidé d'en vérifier deux.
Les fact-checkeurs de Facebook font 0,02% d'erreurs
Le patron de Meta a commencé son annonce en expliquant qu'il avait mis en place ce service de fact-checking avec de bonnes intentions, pour lutter contre la désinformation. Le programme a été mis en place après l'élection de 2016 aux États-Unis qui a conduit à l'arrivée de Donald Trump à la Maison Blanche pour la première fois et qui a vu les fausses informations augmenter de façon exponentielle sur les réseaux sociaux.
Dans ce programme, Meta rémunère plus de 80 médias à travers le monde pour qu'ils vérifient les publications sur ses réseaux sociaux Facebook, Instagram et Threads. En France, par exemple, l'AFP et Les Surligneurs travaillent avec Meta - ce n'est pas le cas de Radio France ni de franceinfo. Les publications jugées fausses ou trompeuses sont affublées d'une petite étiquette le précisant, leur visibilité est limitée, les internautes qui les ont publiés en sont informés et les récidivistes peuvent faire l'objet de restrictions. Cela s'ajoute aux conditions d'utilisation des réseaux, aux règles de respect et de pudeur des plateformes.
Neuf ans après la création du programme, "le problème c'est qu'il y a trop d'erreurs", affirme Mark Zuckerberg en parlant à la fois du fact-checking et des autres postes supprimés des plateformes. "Même si seulement 1% des publications est censuré par accident, ça fait des millions de personnes. Ça fait trop d'erreurs, et trop de censure."
Mais les fact-checkeurs font-ils vraiment trop d'erreurs ? Pour le savoir, il faut consulter les chiffres publiés par Meta lui-même. Le groupe n'a pas publié de données mondiales qui comprennent ses trois réseaux sociaux, mais en octobre 2024 il a fait connaître des chiffres au niveau européen dans un rapport remis à la Commission européenne pour montrer dans quelle mesure Facebook respecte le "Digital Services Act", le règlement européen sur les services numériques.
Selon ce rapport (archivé ici), le programme de fact-checking de Facebook a jugé fausses ou partiellement fausses près de 19 millions de publications sur le réseau social entre avril et septembre 2024 en Europe. Sur ce total, 0,9% des vérifications ont fait l'objet d'une réclamation par les internautes, soit environ 170 000 publications. Et finalement, après un nouveau contrôle, les étiquettes "faux" ou "à moitié faux" de seulement 5 400 posts ont été enlevées. Autrement dit, les fact-checkeurs n'ont fait que 0,02% d'erreur. Un pourcentage qui tend à infirmer l'argument de Mark Zuckerberg.
En vérité, la plupart des publications qui sont supprimées ou rétrogradées sur Facebook le sont parce qu'elles ont enfreint les règles du réseau, ce qui n'a rien à voir avec le fact-checking. Au total, 73,7 millions de publications ont été supprimées ou rétrogradées dans la même période en Europe. Parmi elles, deux millions ont finalement été blanchies après réclamation, soit un taux d'erreur de 2,7%.
Les trois quarts des utilisateurs de Facebook plébiscitent le programme de fact-checking
Le patron de Meta a aussi déclaré que "les fact-checkeurs ont été trop biaisés politiquement et ont détruit la confiance, bien plus qu'ils ne l'ont renforcée". Vrai ou Faux ?
Il n'y a aucune étude qui permette de dire, globalement, si les fact-checkeurs de Meta ont été "biaisés politiquement". Cette partie de l'affirmation de Mark Zuckerberg ne peut donc être ni confirmée ni infirmée. En revanche, il est possible de vérifier la deuxième partie de son affirmation sur la confiance qu'auraient détruite les fact-checkeurs.
Il faut reconnaître qu'il y a des interrogations légitimes sur l'efficacité et l'utilité du fact-checking. D'aucuns pensent qu'il est bon de vérifier les fausses informations, au contraire d'autres estiment que ça leur donne encore plus d'audience.
Plusieurs études ont cependant montré que le fact-checking avait un effet positif. L'une, dirigée par un universitaire canadien et publié en septembre 2021, a mené une expérimentation en Argentine, au Nigeria, en Amérique du Sud et au Royaume-Uni et a conclu que le fact-checking réduisait la croyance dans les fausses informations dans tous ces pays. "Nos résultats soulignent que le fact-checking peut servir d'outil pivot pour la lutte contre la désinformation", concluait-elle.
Une autre étude, relayée par le New York Times, concluait que, si la désinformation avait continué sur internet, bien moins d'Américains avaient consulté des sites d'informations fallacieux et trompeurs entre l'élection présidentielle de 2016 et celle de 2020 grâce au travail des fact-checkeurs de Facebook. Selon elle, 5,6% des visites sur des sites de désinformation américain en 2020 venaient directement de Facebook, soit trois fois moins qu'en 2016, avant le lancement du programme que Mark Zuckeberg entend supprimer.
"Nous savons que ce programme est efficace", écrit d'ailleurs Meta sur son site internet. Le groupe a fait un sondage auprès de ses utilisateurs (archivé ici) pour savoir ce qu'ils pensent du programme de fact-checking et, selon lui, les trois quarts ont dit que les étiquettes "faux" ou "à moitié faux" étaient appropriées et qu'ils seraient d'accord pour en voir davantage. Dans un autre article sur son site (archivé ici), Meta affirme par ailleurs que 95% de ses utilisateurs ne cliquent pas sur les publications quand elles sont estampillées fausses.
On peut tout de même concéder au patron de Meta que le fact-checking peut avoir des conséquences imprévues. Une étude datant de juin dernier a montré par exemple que si le fact-checking était efficace pour réduire la désinformation, il pouvait aussi avoir tendance à réduire la confiance des gens dans tout type d'information, y compris quand elles sont vraies.
Les notes de la communauté sont-elles efficaces pour lutter contre la désinformation ?
Mark Zuckerberg a expliqué vouloir remplacer le programme de fact-checking par des notes de la communauté, comme sur le réseau social X d'Elon Musk où des internautes peuvent commenter des publications pour dire qu'elles sont fausses ou pour ajouter du contexte. Néanmoins, leur utilité pour lutter contre la désinformation fait encore plus débat.
Christine Balagué, professeure à l'Institut Mines-Télécom et fondatrice du réseau de recherche "Good in Tech" qui travaille sur la désinformation, explique à l'AFP que "le problème [avec les notes] est de faire reposer la vérification sur la foule. [Elle] peut dire quelque chose de juste, mais il peut aussi y avoir des gens malveillants qui sont là pour diffuser et propager de la désinformation". Elle ajoute néanmoins que, selon des chercheurs, ces notes permettent de diminuer "à peu près 20% de la diffusion de la désinformation" sur X. Elles ne servent donc pas à rien.
Dans un communiqué où elle déplore la décision du patron de Meta, l'European fact-checking standards netword (EFCSN) rappelle néanmoins que, selon plusieurs recherches, les notes de la communauté n'ont eu qu'un impact très marginal sur la désinformation pendant l'élection présidentielle américaine de 2024 et que la plupart des contenus que les journalistes fact-checkeurs ont trouvé faux ou trompeurs n'avaient reçu aucune note de la communauté.
Lancez la conversation
Connectez-vous à votre compte franceinfo pour commenter.