Les avis sur les restaurants générés par l'IA sont indiscernables de ceux des humains, selon une étude

Des chercheurs aux États-Unis ont mené une expérience mêlant des critiques authentiques à d'autres générées par ChatGPT-4. Résultat, les participants à l'étude se révèlent incapables de faire la différence.
Article rédigé par franceinfo - Damien Bancal
Radio France
Publié
Temps de lecture : 2 min
Selon une étude, les personnes testées sont plus enclines à considérer les critiques générées par l'IA, que celles des humains, comme réelles. Photo d'illustration. (CHADCHAI RA-NGUBPAI / MOMENT RF / GETTY IMAGES)

En cette période estivale, vous êtes peut-être à la recherche d'un bon restaurant. Mais attention aux avis que vous pouvez trouver sur Internet, car les critiques gastronomiques peuvent être totalement manipulées par l'intelligence artificielle (IA). Une récente étude a révélé que les critiques de restaurants générées par l'intelligence artificielle sont indiscernables des critiques écrites par des humains.

Par exemple, la critique suivante a été manipulée par les chercheurs : "La pizza aux palourdes blanches du chef est une révélation. La croûte, caressée par la chaleur intense du four à charbon, atteint un équilibre parfait entre croustillant et moelleux. Garnie de palourdes fraîchement décortiquées, d'ail, d'origan et d'une pincée de fromage râpé, elle témoigne de la magie que peuvent évoquer des ingrédients simples et de haute qualité." Ce passage semble authentique et bien écrit. Pourtant, à l'exception du nom de la pizzeria et de sa situation géographique, il a été entièrement généré par ChatGPT-4, l’intelligence artificielle d’OpenAI, imitant le style de Pete Wells, un célèbre critique gastronomique.

Le phénomène d'hyperréalisme de l'IA

Même si certains peuvent reconnaître les tournures de phrases comme "révélation" ou "caressée par la chaleur" comme des clichés courants dans les critiques culinaires, la majorité des lecteurs pourraient les trouver tout à fait crédibles. L'architecte derrière cette expérience, Balazs Kovacs, professeur de comportement organisationnel à la Yale School of Management aux États-Unis, a utilisé Chat GPT-4 pour imiter un grand nombre d'avis Yelp, une plateforme web. Les participants à l'étude, de véritables personnes, n'ont pas pu faire la différence entre les avis authentiques et ceux produits par l'IA. En réalité, ils étaient même plus enclins à considérer les critiques générées par l'IA comme réelles.

Ce phénomène, où les avis synthétiques semblent plus convaincants que les vrais, est connu sous le nom d'hyperréalisme de l'IA. Ces découvertes soulèvent des questions importantes sur l'avenir de la critique gastronomique. Si les IA peuvent produire des critiques si convaincantes, quel sera l'avenir des critiques humaines ? Devons-nous redéfinir les critères de fiabilité et d'authenticité dans un monde où les machines peuvent tromper même les lecteurs les plus avisés ? La question est posée sur la table.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.