Cet article date de plus d'un an.

Intelligence artificielle : le message du conseiller spécial du gouvernement britannique qui plaide pour un encadrement rapide

Dans une interview au "Times", Matt Clifford a insisté sur l’importance de réguler immédiatement les recherches faites autour de l’IA, comparant le moment où nous nous situons aux prémices de l’épidémie de Covid, lorsqu’en janvier 2020, on jugeait le coronavirus très loi de nous.
Article rédigé par Marion Lagardère
Radio France
Publié Mis à jour
Temps de lecture : 3min
L'intelligence artificielle sur un smartphone. (SOPA IMAGES / LIGHTROCKET)

Face aux progrès fulgurants et exponentiels des logiciels d’intelligence artificielle, on ne compte plus ces mises en garde, chaque semaine en apporte une nouvelle venant à chaque fois d’un parrain de l’IA, ou d’un pionnier du secteur désabusé. Mardi, c’est Matthew Clifford, le conseiller en intelligence artificielle du 10 Downing Street, donc du Premier ministre britannique Rishi Sunak qui a fait la Une du Times qui a titré avec cette phrase terrible : " IA, nous avons deux ans pour sauver le monde"

>> Corée du Sud : plusieurs villes utilisent une intelligence artificielle pour parler au téléphone aux personnes âgées isolées

La sentence est alarmante, et immédiatement, elle a été reprise telle quelle partout, le quotidien The Independent a même résumé en titrant que d’après le conseiller du Premier ministre, " l’intelligence artificielle pourrait tuer de nombreux humains d’ici deux ans". Mais en réalité, ce que dit Matt Clifford est bien plus intéressant que cette déformation catastrophiste de ses propos. Parce que le journaliste du Times, dans cette interview filmée, lui pose la question qui nous intrigue tous : certes, on parle "des dangers" de l’IA, mais concrètement, quels sont ces dangers ?

"Que fait-on de ce que l’on sait ?" 

Ce à quoi Clifford répond que "la palette des risques est très large, mais ça peut être assez effrayant, par exemple une IA pourrait être utilisée pour disséminer une arme biologique ou lancer une attaque informatique de grande ampleur". Mais il ajoute que face à ces probabilités, la réalité, c’est que personne, aucun expert ne sait ni ce qui va se passer, ni quand, et qu’au lieu d’essayer de faire des prédictions, il faut encadrer, réguler.


Le journaliste lui demande tout de même "Combien de temps nous reste-t-il pour agir ?", et Clifford répond : "Si nous ne nous nous intéressons pas à tout ça maintenant, eh bien, dans deux ans, on va se retrouver avec des logiciels vraiment puissants." Fin de la citation. Pas de menace d’extinction de l’humanité, ni de monde effondré, donc. Non, en fait, en écoutant Matt Clifford, on comprend que ce qui devrait nous alarmer, ce sont les humains, ceux qui font l’IA, mais aussi ceux qui regardent, qui se font peur, puis finissent par dire "A quoi ça sert qu’on régule, si la Chine ne le fait pas, si la Russie ne le fait pas ?"

Un peu comme pour le réchauffement climatique, on sait, mais on attend. Clifford, lui, compare le défi que nous affrontons avec l’IA à l’épidémie de Covid. Il dit que nous avons aujourd’hui la même attitude qu’en janvier 2020, lorsqu’il y avait quelques contaminations, mais qu’on ne se sentait pas concernés. Pour le climat, le Covid, l’intelligence artificielle, la question est "Que fait-on de ce que l’on sait ?" 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.