Trois questions sur le futur marquage des contenus générés par l'IA sur les réseaux sociaux du groupe Meta

L'entreprise californienne va étiqueter les sons, images et vidéos identifiés comme ayant été créés avec l'intelligence artificielle. Ses dirigeants promettent une mise en œuvre de cette nouvelle politique à partir du mois de mai.
Article rédigé par franceinfo
France Télévisions
Publié Mis à jour
Temps de lecture : 7min
Un smartphone avec les applications du groupe Meta, le 4 février 2024. (JONATHAN RAA / AFP)

Une nouvelle fonctionnalité pour mieux encadrer les sons, images et vidéos générés par l'Intelligence artificielle (IA). Le groupe Meta va identifier sur ses réseaux les contenus générés par l'intelligence artificielle (IA) à partir du mois de mai. "Nous sommes d'accord avec l'argument (...) selon lequel notre approche actuelle est trop étroite", explique Monika Bickert, vice-présidente en charge des politiques de contenus de la maison mère de Facebook, Instagram et Threads, dans une note de blog publié vendredi 5 avril.

Ce changement promis par le groupe fondé par Mark Zuckerberg entérine une nouvelle approche de Meta vis-à-vis de l'IA. Mais, sans surprise, ce futur étiquetage de masse se heurte à des problématiques techniques. Franceinfo vous explique.

1 Pourquoi Meta adopte-t-il une nouvelle politique pour les contenus générés par l'IA ?

En mai 2023, un clip vidéo fait grand bruit. On y voit le président américain, Joe Biden, touchant la poitrine de sa petite-fille avant de l'embrasser. Accompagnée de la légende "pédophile malade", la vidéo devient virale sur Facebook. Mais il s'agit en fait d'un montage basé sur une vidéo tournée après les élections de mi-mandat en octobre 2022. Dans les images originales, le 46e président des Etats-Unis échange en réalité avec sa petite-fille un autocollant "J'ai voté", avant de l'embrasser sur la joue. 

Saisi par un utilisateur du réseau social, le Conseil de surveillance, organisme indépendant du groupe Meta, a alors pointé une faille importante : le contenu n'est pas en infraction avec la politique du groupe. L'organisme a toutefois adressé dans son rapport une critique à la politique de Meta, jugée "peu convaincante, incohérente et confuse". Le Conseil a réclamé à la multinationale américaine de "réviser sa politique en matière de médias manipulés" et d'intelligence artificielle.

A cette politique de modération dépassée, s'ajoutent les inquiétudes concernant l'impact de l'IA générative sur l'opinion publique. Au cours d'une réunion organisée le 4 mai 2023 à la Maison Blanche avec les dirigeants de Google, Microsoft, OpenAI et Anthropic, pour évoquer les risques que comporte le développement des intelligences artificielles, la vice-présidente américaine, Kamala Harris, a appelé les entreprises à la responsabilité, en vue de l'élection présidentielle américaine de novembre 2024.

D'après elle, l'IA pourrait "augmenter considérablement les menaces qui pèsent sur la sécurité, rogner sur les droits humains et la confidentialité, et saper la confiance du public dans la démocratie".

Face à ces critiques multiples et venues du sommet de l'Etat américain, le groupe californien a acté un changement de cadre. Dans un billet de blog publié le 6 février, le président des affaires internationales de Meta, Nick Clegg, a annoncé l'ambition de son entreprise : certifier la provenance des images diffusées sur les réseaux sociaux de son groupe. Meta étiquettera donc d'un "Made with AI" ("réalisé avec l'IA") l'ensemble des images présentant "des signaux (...) montrant qu'elles sont générées par l'intelligence artificielle".

Monika Bickert, vice-présidente en charge des politiques de contenus du groupe, explique les raisons de cette évolution du groupe californien. "Notre politique relative aux médias manipulés a été rédigée en 2020, à une époque où les contenus réalistes générés par l'IA étaient rares et où la préoccupation majeure concernait les vidéos", souligne-t-elle dans une note publiée le 5 avril.

2 Comment Meta va-t-il détecter les contenus générés par une IA ? 

Cette labellisation des contenus produits par l'IA s'appuiera d'abord sur l'analyse des métadonnées qui définissent les propriétés associées à un fichier ou à une image, comme l'explique le Journal du Net. Mais pour réaliser cette opération numérique à grande échelle, Meta doit s'entendre sur "des normes communes" avec les entreprises à l'origine des logiciels d'IA générative comme "OpenAI, Microsoft, Adobe, Midjourney et Shutterstock".

Outre la détection de ces "metadata", la maison mère de Threads, Facebook et Instagram, veut identifier toute présence de "watermarking", un filigrane invisible à l'œil nu, de la taille d'un pixel, apposé sur les images générées par une IA. Comme l'explique Pierre Fernandez, doctorant à l'Institut national de recherche en sciences et technologies du numérique (Inria), à nos confrères de 20 Minutes, ce tatouage numérique "permet de rajouter de l'information pour faire la distinction entre le réel et le faux".

Cette analyse d'authenticité aura lieu avant la publication d'une image sur un réseau social de Meta. "A chaque fois qu'on dépose une image (...), il y a du traitement : soit de la compression d'image, du changement de taille... Cela ne coûte pas grand-chose de rajouter une petite brique de détection à l'intérieur", souligne à l'AFP Gaëtan Le Guelvouit, expert en tatouage numérique à l'Institut de recherche technologique b-com.

Meta a par ailleurs précisé qu'il va continuer à retirer de ses plateformes tout contenu – qu'il soit créé par un humain ou une IA – allant à l'encontre de ses règles "contre l'ingérence dans le processus électoral, l'intimidation, le harcèlement, la violence (...) ou toute autre politique figurant dans nos normes communautaires".

3 Où en sont les autres réseaux sociaux ?

Meta n'est pas le seul réseau social confronté à l'abondance des contenus générés par une IA. En septembre 2023, TikTok a offert une nouvelle fonctionnalité à ses utilisateurs permettant d'apposer un label "contenu généré par l'IA". Cet option repose toutefois sur le volontariat et son application n'est pas obligatoire pour les vidéos et photos créées par une IA et publiées sur la plateforme. "Les créateurs (...) pourront l'appliquer à tout contenu entièrement généré ou modifié de manière significative", souligne le réseau social chinois dans un billet de blog.

Le réseau social X (ex-Twitter), propriété d'Elon Musk, a adopté de son côté une politique de marquage reposant sur un outil collaboratif : les "community notes" ("notes de la communauté"). Présentées comme des garde-fous pour combattre la désinformation portée par l'IA, ces notes doivent être approuvées par plusieurs internautes avant publication.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.