Cet article date de plus d'un an.

"Pour que ces technologies ne soient pas utilisées à mauvais escient" : l'Union européenne propose un règlement pour réguler les intelligences artificielles

La régulation de l'intelligence artificielle est une des questions majeures pour plusieurs dirigeants de la planète. L'Union européenne va voter mercredi un projet de règlement sur le sujet.
Article rédigé par Boris Hallier
Radio France
Publié
Temps de lecture : 5min
Un photomontage sur le nouveau visuel de ChatGPT 4 et Open AI. Image d'illustration. (ROMAIN DOUCELIN / HANS LUCAS / AFP)

Comment peut-on réguler les dérives de l'intelligence artificielle ? Joe Biden, Rishi Sunak et d'autres dirigeants se posent cette question, Londres va même accueillir le premier sommet mondial sur ce sujet prochainement. De son côté, l'Union européenne se positionne clairement en pointe, avec un projet de règlement sur l'intelligence artificielle. Ce texte, présenté comme ambitieux, va être voté mercredi 14 juin par les députés européens à Strasbourg. Il est en préparation depuis plusieurs années, la version initiale de la Commission européenne date d'avril 2021, soit avant l'irruption de ChatGPT ou de ces logiciels capables de créer des photos plus vraies que nature.

>> "Un jour, les IA nous regarderont comme des fossiles" : le cinéma d’anticipation s'inquiète depuis longtemps des capacités de l'intelligence artificielle

Ces systèmes d'intelligence artificielle générative se sont invités dans le débat, et les députés ont dû en prendre en compte, reconnaît Geoffroy Didier, vice-président de la commission Intelligence artificielle au Parlement européen. "Il a donc fallu que nous nous adaptions à cette nouvelle réalité sociétale en l'incluant dans les travaux parlementaires qui étaient en cours", développe-t-il. "Il y aura des obligations de déclaration de la part de tous les concepteurs de ces technologies pour que tous ceux qui ont accès à ces technologies sachent qu'il s'agit bien d'une intelligence artificielle et que ces technologies-là ne soient pas utilisées à mauvais escient pour truquer la réalité ou pour tromper ceux qui les observent." Un exemple : les photos générées par une intelligence artificielle devront à l'avenir porter une mention qui indiquera qu'il s'agit d'une fausse image.

Une pyramide sur les niveaux de risques

Des voix se sont élevées ces derniers mois pour appeler à la vigilance. Et pas n'importe lesquelles : des créateurs de ces technologies, comme Sam Altman lui-même, le papa de ChatGPT. Il craint d'avoir ouvert la boîte de Pandore. "Il y a de nombreux risques", explique-t-il.

"Ce qui m'inquiète particulièrement, c'est que ces modèles pourraient être utilisés pour de la désinformation à grande échelle. Je suis inquiet aussi parce que ces systèmes pourraient servir à mener des attaques informatiques."

Sam Altman, créateur de ChatGPT

Le réglement de l'Union européenne prévoit notamment une pyramide de risque avec quatre niveaux. Le premier niveau désigne les programmes les moins risqués, qui ne nécessitent pas de contrôle particulier, certains jeux vidéo par exemple. À l'inverse, le quatrième niveau concerne les risques "inacceptables" comme les bases de données de reconnaissance faciale, qui seraient tout simplement interdites.

>> TEMOIGNAGES. Intelligence artificielle : "triche" pour certains, "ressource" pour d'autres, l'utilisation de ChatGPT fait débat entre étudiants et enseignants à l'université

Mais entre le premier et le dernier niveau, on retrouve deux catégories : technologie à risque limité ou technologie à haut risque. Toute la difficulté est de savoir dans laquelle de ces deux catégorie classer les logiciels que l'on voit émerger comme ChatGPT, qui est capable de rédiger une dissertation à la place d'un élève, voire même de remplacer certains métiers de secrétaires.

Faire la part des choses entre le créateur et l'utilisateur

D'autres voix plaident pour une régulation qui ne freine pas trop l'innovation. En tête, Cédric O, ancien secrétaire d'Etat au Numérique. Selon lui, l'Europe risque de se tirer une balle dans le pied. "Le texte tel que proposé par le Parlement demande une telle surcharge administrative et il fait peser tellement de contraintes techniques sur ceux qui développent ou adoptent les technologies d'intelligence artificielle", affirme-t-il. "Ce qui est un énorme problème, parce que c'est vraiment une révolution qui est proche de ce qu'on a connu avec l'automatisation dans les usines ou l'énergie nucléaire. Donc réguler, oui, mais il faut aussi faire en sorte qu'on ait des entreprises qui maîtrisent ces technologies."

>> "Il ne faut pas voir l'intelligence artificielle comme un ennemi" : ces travailleurs qui utilisent ChatGPT comme assistant personnel à l'insu de leur employeur

Dans ce domaine, l'Europe et la France ont du potentiel pour faire face aux technologies américaines ou chinoises. La start-up LightOn, un ChatGPT à la française, basée à Paris, propose des logiciels aux entreprises pour automatiser certaines tâches. Laurent Daudet, son co-fondateur, appelle les régulateurs à trouver le juste milieu et qui fait la part des choses. "Il faut bien établir la responsabilité du producteur de modèles qui ne livre pas un produit fini, il livre juste les briques technologiques", argumente-t-il.

"C'est l'utilisateur final qui lui va décider que cette brique technologique, il va l'utiliser pour faire une aide pour son moteur de recherche interne ou une aide pour faire la désinformation."

Laurent Daudet, co-fondateur de LightOn

à franceinfo

Le débat est loin d'être terminé. Les députés votent le projet de règlement mardi 13 avril, mais il y aura ensuite une série de négociation entre la Commission européenne, le Conseil de l'Union européenne et le Parlement européen. Le texte devrait donc évoluer d'ici son adoption prévue en fin d'année.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.