Intelligence artificielle : des algorithmes à la place des fonctionnaires ?

Publié Mis à jour
Temps de lecture : 2min - vidéo : 5min
Intelligence artificielle : des algorithmes à la place des fonctionnaires ? V3
Article rédigé par France 2 - C. de la Guérivière, X. Roman, C. Kenck, M. Martin, L. Dulois
France Télévisions
France 2
A l'heure où les géants de l'informatique et de la tech s'affrontent autour de l'intelligence artificielle, le 20 Heures s'intéresse à la façon dont elle peut nous aider au quotidien. Les services de l'État ou de l'Assurance maladie, mais n'est-ce pas dangereux ? Et si les algorithmes se trompaient ? Enquête.

Allocations familiales, Assurance maladie, impôts, les services publics commencent à échanger avec les contribuables grâce à l'intelligence artificielle (IA). Des algorithmes performants, mais l'administration peut-elle leur faire confiance ? Sonia Haigneré travaille pour la Mutualité sociale agricole de Reims, lorsqu'un particulier lui pose une question, elle n'a qu'à appuyer sur un bouton vert : l'IA lit la question et propose une réponse. En un clic, instantanément, 13 lignes s'affichent. 

Cinq fois plus rapide 

"C'est à peu près cinq fois plus rapide. C'est complètement bluffant. C'est un outil complètement magique, qui va permettre aux agents de pouvoir se concentrer sur des dossiers qui nécessitent un accompagnement personnalisé", estime-t-elle. Prochaine étape : que les agents aux guichets puissent l'utiliser, aucune date n'est encore fixée. Alors, il y-a-t-il des risques ? Gilles Moyse, fondateur de reciTAL, en est convaincu. Démonstration avec une demande de renseignements après la suspension d'un permis de conduire. Quand le dossier est complexe, si le logiciel ne sait pas, il invente. 

Des algorithmes qui s’emballent et qui génèrent des erreurs, c’est ce qui défraie la chronique aux Pays-Bas en 2021. Le gouvernement a été contraint à la démission. Pour détecter des fraudeurs aux prestations familiales, l’État a fait appel à des algorithmes, et ce pendant plusieurs années. Ils faisaient le tri à l’aide de données en ligne. Ils ont déterminé un profil suspect type : une personne vivant dans un quartier populaire, ayant plus de deux enfants. Les algorithmes se concentraient sur les couples binationaux, par un raccourci statistique. Des aides sont alors supprimées brutalement, sans forcément de vérifications nécessaires. Au total, 35 000 familles se sont retrouvées accusées à tort. En France, le ministère de la Transformation et de la Fonction publiques assure qu'un tel profilage ne serait pas possible. 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.