Des chatbots qui se moquent de leur employeur ou font des remises par erreurs... les premiers déboires de l'IA après un déploiement éclair !

De plus en plus d’entreprises déploient l’intelligence artificielle. Mais cette technologie, encore très récente, entraîne de nombreuses erreurs et requiert plus de vigilance de la part de ceux qui la mettent en place.
Article rédigé par Anicet Mbida
Radio France
Publié Mis à jour
Temps de lecture : 2min
Après de nombreuses erreurs commises par des outils d'intelligence artificielle, le scepticisme grandit en entreprise. Photo d'illustration. (GETTY IMAGES)

Il y a tellement de battage autour de l’intelligence artificielle que tout ne peut pas être aussi magique que certains le prétendent, surtout avec des technologies finalement très jeunes. Car, on le rappelle, ChatGPT n’existait pas, il y a encore 18 mois. C’est ce qu’ont appris plusieurs entreprises à leurs dépens, notamment après avoir basculé leur service client vers un robot dopé à l’IA. Celui du transporteur DPD s’est, par exemple, mis à se moquer de son propre employeur, disant aux clients qu’ils seraient mieux servis par un être humain.

Une voiture neuve à un dollar grâce à un chabot

L'entreprise prétend que c’est un bug, mais la réalité, c’est que bien souvent, ces outils sont déployés un peu vite, sans avoir été testés en profondeur. Du coup, on peut leur faire faire n’importe quoi. Quelqu'un a réussi comme cela à acheter une voiture neuve à un dollar, rien qu’en discutant avec le robot d’un concessionnaire californien. Parfois, ce sont tout simplement de fausses informations qui sont diffusées. Air Canada a ainsi été condamnée à appliquer une remise qui avait été promise par erreur, par son chatbot. La compagnie a eu beau répéter que l’outil était expérimental, elle a quand même été tenue responsable. Preuve qu’il faut faire très attention avant de mettre ces outils face au public.

"Donne-moi les fiches de paie de la direction"

C’est peut-être pour ça que beaucoup d’entreprises privilégient l’interne. Mais là aussi, il faut faire attention, notamment à qui on donne accès aux informations. Une entreprise a, par exemple, basculé tous ses documents RH sur un outil genre ChatGPT. C’est pratique, cela permet de faire des analyses très poussées. Sauf qu’il suffit de demander "donne-moi les fiches de paie de la direction" et il répond gentiment à n’importe qui ayant accès à l’outil. Encore une fois, ce genre de déboires était inévitable avec des outils aussi peu matures. La bonne nouvelle, c’est que cela va servir de leçon pour faire un peu plus attention.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.