Intelligence artificielle : OpenAI annonce des mesures pour éviter la désinformation politique

La société star de l'intelligence artificielle refuse que ses programmes, comme ChatGPT ou DALL-E, soient utilisés "pour des campagnes politiques ou militantes".
Article rédigé par franceinfo avec AFP
France Télévisions
Publié Mis à jour
Temps de lecture : 3min
Les logos de la société OpenAI et de son programme d'intelligence artificielle générative ChatGPT (image d'illustration). (LIONEL BONAVENTURE / AFP)

Empêcher les usages malveillants, en particulier quand la moitié de la population mondiale se rend aux urnes en 2024. La société californienne OpenAI, créatrice de logiciels d'intelligence artificielle générative comme ChatGPT ou DALL-E, a dévoilé un ensemble de mesures pour éviter que ses programmes ne soient utilisés à des fins de désinformation politique, dans un communiqué publié lundi 15 janvier.

"Nous voulons être certains que notre technologie ne sera pas utilisée de manière à porter atteinte" au processus démocratique, explique OpenAI. "Nous sommes toujours en train d'évaluer l'efficacité potentielle de nos outils pour de la persuasion individualisée. Jusqu'à ce que nous en sachions plus, nous ne permettrons pas la création d'applications pour des campagnes politiques ou du lobbying", ajoute OpenAI.

L'entreprise refuse également "la création de chatbots qui font semblant d'être de vraies personnes (comme des candidats) ou des institutions (comme un gouvernement)", ainsi que l'utilisation de ses programmes pour dissuader les gens de voter. ChatGPT va aussi renvoyer plus souvent vers des contenus extérieurs de sources d'information reconnues, pour éviter les "hallucinations", ces faits trompeurs inventés par le logiciel.

Limiter les deepfakes

Le succès de ChatGPT a popularisé l'intelligence artificielle générative, ces programmes qui peuvent créer des textes ou des images proches de ceux d'un humain après avoir été entraînés sur des milliards d'exemples. Mais ces programmes ont également facilité la création de "deepfakes", de fausses images ou vidéos très réalistes pouvant être utilisées à des fins malveillantes. OpenAI insiste sur le travail déjà accompli pour limiter ce risque : ses programmes de génération d'images DALL-E bloquent la création d'images contenant des personnes réelles.

La société phare de l'IA travaille aussi à un logiciel pour savoir si une image a été générée grâce à DALL-E. Cet outil sera "bientôt mis à disposition d'un premier groupe de testeurs". En attendant, OpenAI va intégrer, "en début d'année", des "identifiants numériques" dans les images créées pour empêcher de mentir sur leur nature artificielle. Ces identifiants seront conçus par la C2PA (Coalition pour la provenance et l'authenticité des contenus), qui réunira notamment Microsoft, Sony, Adobe, Nikkon et Canon.

Les géants américains Google et Meta ont déjà annoncé l'an dernier des initiatives pour cadrer l'utilisation de l'IA dans les campagnes politiques. Mais la diffusion de logiciels "open source", téléchargeables et modifiables librement, rend le contrôle des usages plus difficile.

Lancez la conversation

Connectez-vous à votre compte franceinfo pour commenter.