L'intelligence artificielle transforme une étude scientifique en un zoo très étrange
L'histoire, rapportée par le magazine américain Vice, illustre l'utilisation de l'intelligence artificielle par certains universitaires, sans vraiment contrôler le résultat. Chaque année, les chercheurs publient des centaines d'articles sur leurs avancées scientifiques. Une de ces études, publiée dans la revue scientifique américaine Frontiers, a attiré l'attention de la communauté, et pas seulement celle des amateurs des "Fonctions cellulaires des cellules souches spermatogoniales en relation avec la voie de signalisation JAK/STAT", le titre de l’étude.
Cette publication a été rédigée par des chercheurs de l'hôpital Hong Hui et de l'université Jiao Tong en Chine. Elle comprend des dizaines de calculs, de diagrammes et d'images. Le problème ? La majorité des images ont été générées avec l'intelligence artificielle MidJourney, le cousin de ChatGPT de l’entreprise OpenAI.
Une des images représentait, sans perturber les comités de relecture, un rat avec un énorme pénis. En effet, l'attribut du rat était deux fois plus grand que l'animal lui-même. D'autres images, censées représenter des diagrammes, ont transformé les informations scientifiques en pizzas et des textes en hiéroglyphes indéchiffrables.
Des erreurs graphiques générées par l’IA
Les images ont toutes été créditées à MidJourney, mais ne semblent pas avoir été contrôlées. Un auteur a utilisé des "prompt art" sans se rendre compte des réponses données par l’IA. Un prompt art est une série de commandes textuelles à fournir aux générateurs d’images comme MidJourney, Dall-E, etc., pour que ces derniers puissent produire le document graphique souhaité.
Personne ne sait comment les erreurs ont pu passer les filtres avant la publication. Le règlement de Frontiers n’interdit pas les images générées par l’IA. Il est demandé aux auteurs d’indiquer la provenance des documents, ce qui a été fait.
De plus, l'article est passé entre plusieurs mains, d'abord au sein des deux universités chinoises, puis celles d'un correcteur américain et enfin d'un dernier en Inde. Autant de personnes qui ne semblent pas avoir été choquées ! Ou, malheureusement, et c'est plus inquiétant, cela démontre l'infiltration de l'IA dans certaines publications scientifiques, poussant des revues sérieuses comme Nature à interdire, depuis juin 2023, les images générées par l'IA afin de protéger l'intégrité des contenus scientifiques.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.