Intelligence artificielle : "Il faut des discussions mondiales" car "il est nécessaire de réguler", plaide la spécialiste Laurence Devillers
La chercheuse au CNRS et professeure en IA à Sorbonne Université était l'invitée du "8h30 franceinfo", jeudi 2 mars 2023.
"Il faut des discussions mondiales", car "il est nécessaire de réguler" l'utilisation de l'intelligence artificielle (IA), affirme Laurence Devillers, chercheuse au CNRS et professeure en IA à Sorbonne Université, invité du 8h30 franceinfo, jeudi 2 mars 2023. "En ce moment, on est en train de pousser vers une culture anglo-saxonne puisque dans ces ChatGPT par exemple, on a 46% d'Anglais et moins de 5% de Chinois ou de Français", développe-t-elle. ChatGPT est un logiciel capable de générer toutes sortes de textes en fonction des requêtes des utilisateurs. "C'est une prise de pouvoir effective, il est nécessaire de réguler", ajoute-t-elle.
À la suite de Microsoft qui s'est allié à la société OpenAI, à l'origine de ChatGPT, les géants américains de la tech comme Google, Meta, Apple ou Snapchat cherchent à développer des modèles capables de produire du texte ou des images. "Il faut regarder quels sont les projets proposés et s'apercevoir que c'est l'humain qui a le 'lead' pour savoir ce qui est nouveau ou pas. Lorsque vous êtes devant une génération d'une IA, vous pouvez avoir 1 000 possibles et certains vont être exceptionnellement intéressants pour l'humain, d'autre absolument sans intérêt pour l'humain", explique la spécialiste en IA. De quoi craindre un remplacement de l'humain par l'intelligence artificielle ? "Non", répond Laurence Devillers.
"Mais certaines tâches peuvent l'être", nuance-t-elle. "Il faut contrôler. Par exemple, ChatGPT est capable de faire des choses formidables et en même temps de générer des 'fake news', donc on a besoin d'avoir des humains dans l'IA, des experts dans les boucles que nous allons construire", poursuit-elle.
Quelques développeurs, des milliards d'utilisateurs
"L'Intelligence artificielle n’a pas de morale", rappelle-t-elle. "Elle a intégré nos données. On pourrait lui inculquer que ça, c’est le bien", décrypte Laurence Devillers. "Ce n’est pas aux industriels de décider de qui doit être censuré ou non mais plutôt à la société. Ces systèmes sont dirigés par une poignée d’ingénieurs et des milliards de gens qui vont l'utiliser", souligne-t-elle, avant de conclure qu'il ne faut pas avoir une "confiance aveugle dans ces systèmes". "C'est la première règle à avoir", assure la spécialiste.
-------------------------
Retrouvez l'intégralité du "8h30 franceinfo" du jeudi 2 mars 2023 :
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.