Intelligence artificielle : pourquoi Elon Musk et des centaines d’experts réclament une "pause" de six mois
Depuis trois ou quatre ans, nous sommes passés dans une nouvelle génération d’intelligence artificielle : elle est générative et crée du contenu. Auparavant, la recherche avait surtout progressé dans le domaine de l’apprentissage automatique (le "deep learning") : en alimentant les bases de données des ordinateurs, on a pu leur apprendre des tâche précises, comme par exemple à jouer les meilleurs coups aux échecs, à reconnaître une tumeur sur une image médicale ou à identifier une imitation parmi des peintures d'art.
Ces systèmes répondent à une demande précise. Mais désormais, les intelligences "génératives" sont capables de créer de l'inédit : rédiger un article, une thèse, dessiner, composer de la musique, etc. Le logiciel de conversation et de rédaction, ChatGPT, fait partie de ces dernières innovations. Et sa dernière version, GPT 4, (qui n’est pas encore publique, mais que des experts ont pu tester), se révèle semble-t-il particulièrement bluffante.
Ce qui impressionne autant dans ChatGPT 4, c'est sa capacité à tenir des raisonnements à la fois de bon sens et très élaborés, et sa capacité à raisonner à partir d'images ou de schéma. Par exemple, il a été demandé à cette intelligence artificielle de résoudre un problème d’examen de polytechnique en physique, pour cela, il fallait trouver la bonne consigne au bon endroit du document en PDF et ensuite raisonner à partir d'un schéma. Le logiciel y est parvenu. La crainte, c'est que cette puissance des algorithmes, qui impressionne les experts eux-mêmes, puisse être mal maîtrisée ou mal employée et qu'elle n'ouvre la voie à davantage de désinformations et à toute sorte de piratages. D'où le besoin de protocoles de sécurité, selon les signataires de cette pétition.
Un coup d'épée dans l'eau ?
Même si de grands noms de la tech et de la recherche ont signé cette pétition, tous les experts ne sont pas d'accord. Pour Jamal Atif, professeur à Paris Dauphine et délégué scientifique chargé des intelligences artificielles au Centre national de la recherche scientifique (CNRS) : "Bien sûr, il faut de l'éthique et un cadre réglementaire, mais il est illusoire de vouloir stopper la recherche. Au contraire, il est de la responsabilité des États de développer la recherche publique sur l'intelligence artificielle, afin de mieux les comprendre les enjeux, et de mieux légiférer."
Autre urgence, intéresser le grand public et les élus, à ces enjeux de l’intelligence artificielle, comme on le fait pour le climat ou la recherche en génétique. Car la rapidité actuelle des innovations permet d’envisager plusieurs futurs possibles sur l'influence, plus ou moins grande, de l'intelligence artificielle dans notre société. Les enjeux sont tels qu'il faut s’y intéresser dès à présent.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.