Cet article date de plus de six ans.

Nouveau monde. La Cnil invite à "garder la main" sur l’intelligence artificielle

L’intelligence artificielle, c’est bien à condition d'être éthique. La Commission nationale de l'informatique et des libertés publie des préconisations à propos de la  "moralité" des algorithmes.

Article rédigé par franceinfo, Jérôme Colombain
Radio France
Publié
Temps de lecture : 2min
L'entrée de la Cnil à Paris. (ETIENNE LAURENT / AFP)

Le rapport qu'a publié le 15 décembre dernier la Commission nationale informatique et libertés (Cnil) annonce la couleur : il s’intitule "Comment permettre à l’Homme de garder la main". Dans ce long document de 75 pages, qui synthétise un an de débats avec des experts et des entreprises, la Cnil, présidée par Isabelle Falque-Pierrotin, estime que l’intelligence artificielle doit améliorer la vie des hommes mais qu’elle doit se développer sous certaines conditions d’éthique.

Loyauté et vigilance

La Cnil, qui veille sur les libertés numériques des Français, veut mettre de la morale dans les algorithmes. En tout cas, de la "loyauté" et de la "vigilance". Pour cela, elle fait six propositions parmi lesquelles : former à "l’éthique informatique" les professionnels, les concepteurs de logiciels et aussi les citoyens, rendre les algorithmes "compréhensibles" (certains algorithmes d’intelligence artificielle utilisés, par exemple, pour octroyer des crédits bancaires ne sont même pas compris par les banquiers eux-mêmes) ou encore créer une plateforme nationale d’audit des algorithmes.

Plus de transparence

La Cnil prend l’exemple du logiciel APB (chargé de gérer les affectations des bacheliers jusqu’à la dernière rentrée scolaire) qui ne fait pas véritablement appel à l’intelligence artificielle, mais quand même à de puissants algorithmes qui ont suscité pas mal de débats ces derniers temps. Avec un peu plus de transparence, les choses auraient sans doute été différentes.

L’intelligence artificielle fait peur 

D'après un sondage IFOP commandé par la Cnil, 52 % des Français se sentiraient mal à l’aise face aux algorithmes. La Commission de l'informatique et des libertés veut donc poser de grands principes. Par exemple, elle souhaite que l’on puisse éviter "les biais" qui peuvent donner naissance à de la "mauvaise intelligence artificielle". Par exemple : des programmes qui deviennent racistes ou homophobes parce qu’ils ont été nourris de mauvaises informations. Tout cela est ambitieux. Encore faudra-t-il étendre ces bons principes au-delà des frontières nationales. Sur l’intelligence artificielle, on attend aussi le rapport du député La République en marche (LREM) Cédric Villani en janvier prochain.    

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.