Cet article date de plus de quatre ans.

Nouveau monde. GPT-3, cette intelligence artificielle qui écrit des articles (presque) toute seule

Plusieurs médias, dont le quotidien britannique The Guardian, ont confié à une intelligence artificielle de la société Open AI la rédaction d'éditoriaux. Le résultat est étonnant mais il faut se garder de toute interprétation abusive. 

Article rédigé par franceinfo, Jérôme Colombain
Radio France
Publié Mis à jour
Temps de lecture : 3min
Un article écrit pour The Guardian par GPT-3, un générateur de langage d'OpenAI. (CAPTURE D'ECRAN)

« Je ne suis pas un humain. Je suis un robot. [...] Mon cerveau n'est pas un cerveau sensible. Mais il est capable de prendre des décisions rationnelles et logiques. [...] Et maintenant je peux écrire cette chronique. ». Voilà comment débute l’article publié par The Guardian, présenté comme "écrit par un robot". Il s'agit d'une tribune qui tente de rassurer les humains en expliquant que l’intelligence artificielle n’est pas là pour prendre leur place, et que Stephen Hawking a tout faux lorsqu’il dit le contraire. « En fait, je n'ai pas le moindre intérêt à vous nuire de quelque façon que ce soit », écrit encore cet auteur 100% numérique.

On a déjà vu des articles rédigés par des logiciels, mais, jusque-là, il s'agissait de compte-rendus sportifs ou boursiers assez basiques. Ce texte va plus loin. D'abord, il ne s'agit pas d'un compte-rendu mais d'un éditorial, faisant appel à des références et à des notions abstraites, pimenté d'envolées presque lyriques. Le texte est plutôt bien écrit et facile à lire. 

Fausse intelligence

Cette chronique a été produite par l'intelligence artificielle GPT-3, émanant de la société américaine Open AI, fondée notamment par Elon Musk. Il s'agit d'une intelligence artificielle génératrice de langage, présentée comme la plus puissante du moment, avec 175 milliards de paramètres. GPT-3 succède à GPT-2, et elle a déjà fait parler d'elle à plusieurs reprises depuis sa sortie cet été. Plusieurs textes ont  été produits, parfois comparés avec emphase à ce que pourraient écrire de grands auteurs. 

Cependant, il faut relativiser. L’intelligence artificielle n’a pas fait le boulot toute seule. D'abord, elle a été programmée (par un étudiant de Berkeley, Liam Port) à partir d’éléments bien précis fournis par The Guardian. On lui a imposé le sujet et on lui a fourni un corpus de données. Un peu comme on donne un sujet de rédaction à un collégien. Ensuite, cette tribune est la synthèse de huit essais générés par GPT-3, qui n’étaient pas tous très bons, et qui ont été édités par The Guardian. Enfin, il est important de préciser que GPT-3 n'a, évidemment, aucune conscience de ce qu’elle écrit, dont elle ne comprend absolument pas le sens. Il s'agit seulement d'un travail statistique sur les mots. Il s'agit d'une fausse intelligence. 

Générateur de fake news

N’empêche, on imagine ce que pourrait donner, dans quelques années, ce type d'outils. Il sera sans doute capable de produire le meilleur, mais aussi le pire s'il est utilisé, par exemple, pour générer de fausses nouvelles (fake news).  Demain, la rédaction d'articles sera-t-elle une tâche subalterne, confiée à des intelligences artificielles ? Le travail d'auteur ou de journaliste consisterait alors uniquement à corriger et à valider des textes générés automatiquement.

Avouons-le, l'auteur de cette chronique a hâte de pouvoir utiliser une intelligence artificielle pour écrire ses prochaines chroniques, pendant qu'il ira se consacrer à des tâches plus récréatives...

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.