"Il peut déjà s'exprimer avec des nuances" : ChatGPT, l'intelligence artificielle capable de discuter avec des humains
Le site ChatGPT compte plus d'un million d'utilisateurs, cinq jours seulement après son lancement. Mais discuter avec une machine si performante pose des questions éthiques.
Quand les humains et les robots peuvent discuter ensemble. Ce n'est pas le scénario d'un film de science fiction, ça se passe en ce moment sur internet, via un site qui cartonne baptisé ChatGPT. Lancé le 30 novembre, plus d'un million d'utilisateurs l'ont déjà testé.
Les réponses du site aux questions sont assez bluffantes, tant elles se rapprochent d'une interaction qu'on pourrait avoir avec un autre humain. De manière quasi-instantanée, le chat répond sur tous les sujets de manière construite, avec une argumentation sans sentiment et sans faute de français. Les réponses font parfois même référence aux précédents messages de la discussion. L'outil est donc plus performant que les chats robotiques sur nos téléphones ou sur les sites de banque par exemple.
ChatGPT, pour "generative pre-trained transformer", outil de langage pré-entraîné en français, est le dernier modèle de l'entreprise Open AI, une start up américaine fondée il y a cinq ans par Sam Altman et Elon Musk, le patron de Tesla et Space X. Cet outil de discussion a absorbé quantité de textes sur internet mais a aussi été transformé par des humains. "Sur internet, il y a tout un tas d'informations disponibles", explique Anis Ayari, ingénieur en intelligence artificielle qui possède également une chaîne de vulgarisation sur Youtube. "Avec les bonnes techniques, on est capable de relier les informations. Ensuite, on demande à des humains comment est-ce qu'ils parlent et ChatGPT va apprendre à parler. Aujourd'hui, il peut déjà s'exprimer avec des nuances."
"Quand il n'est pas sûr, il va le dire. Comme ce qu'on fait, nous, les humains."
Anis Ayari, ingénieur en intelligence artificielleà franceinfo
Un outil utile aux développeurs
Le programme n'est finalement pas relié à internet, il fonctionne uniquement sur ses données stockées dans d'immenses "data center". Les dernières remontent à 2021, ChatGPT n'est donc pas capable de vous donner les résultats de la Coupe du monde de football au Qatar, il n'a jamais entendu parlé d'un roi Charles III au Royaume-Uni.
Ce site ne peut donc bien-sûr pas servir à s'informer, mais il a des utilités très concrètes. "Il y a toute une communauté qui s'en est emparée, dont je fais partie", détaille Anis Ayari. "C'est la communauté des développeurs qui doivent écrire du code, par exemple. Aujourd'hui ce robot est parfaitement capable d'écrire du code. On lui dit : 'Je veux une application mobile qui est capable de me donner la météo, à quoi ressemblerait le code ?' Eh bien, il va vous cracher le code." Le programme est aussi capable aussi de créer des poèmes dans le style de Paul Verlaine, de fournir une recette de crêpes ou encore de rédiger une dissertation complète sur le bonheur.
La quantité des données, pas la qualité
Mais ChatGPT peut aussi retranscrire des propos racistes, sexistes ou homophobes. Certains internautes ont réussi à obtenir le mode d'emploi d'une bombe artisanale. Il peut être aussi vecteur de fausses informations : il suffit de quelques secondes pour obtenir un article complet sur la fin de l'impôt sur le revenu, avec des réactions des syndicats et du patronat. C'est une des limites éthiques de cet outil pointées du doigt par Claire Mathieu, informaticienne et spécialiste des algorithmes. "Il fait des textes qui n'ont aucune valeur de vérité alors qu'il s'exprime de manière assez catégorique", explique la mathématicienne. "Cet outil, qui veut faire des phrases qui ont du sens, qui sont raisonnables, qui ont l'air cohérentes, va trouver des bouts de phrases qui correspondent à la majorité des documents qu'il a analysé ou en tout cas aux tendances qui émergent à partir des documents auxquels il a eu accès dans le passé, plus que à ce qui aurait une certaine valeur de vérité."
L'outil se base sur le nombre de données et pas sur leur qualité. Anis Ayari donne un exemple : "Si de nombreuses données disent que les pommes rouges sont bonnes, le programme va intégrer que le rouge est délicieux. Et si on lui demande ce qui est meilleur entre une tarte au citron et un extincteur, le chat répondra l'extincteur, qui est rouge..."
Faut-il s'inquiéter ? Ou faut-il faire confiance au sens critique des humains ? C'est ce que plaide Laurence Devillers, professeur en intelligence artificielle à Paris Sorbonne, chercheure au CNRS.
"C'est assez rapide d'en voir les limites. On peut se dire que le chat fait des choses intéressantes. En même temps, ne me dites pas que vous avez été déçu par d'autres réponses que vous a fait le système ?"
Laurence Devillers, professeure en intelligence artificielle et chercheure au CNRSà franceinfo
"Il faut d'abord vérifier par soi-même", estime Laurence Devillers. "Il faut juste qu'on s'assure d'un certain contrôle et éviter trop de manipulation de ces outils." Un contrôle qui n'est pas si simple à mettre en place. Open AI, l'entreprise à l'origine de ChatGPT reconnaît elle-même que les réponses incorrectes ou incensées restent difficiles à corriger.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.