Cet article date de plus d'un an.

Reconnaissance faciale, "deepfakes", ChatGPT... Comment l'Union européenne veut réguler l'intelligence artificielle

Le Parlement européen a approuvé mercredi un texte visant à réguler le secteur.
Article rédigé par franceinfo
France Télévisions
Publié Mis à jour
Temps de lecture : 7min
Le logo de l'application d'intelligence artificielle générative ChatGPT sur un téléphone. (JAAP ARRIENS / NURPHOTO / AFP)

L'Union européenne entend poser le premier cadre juridique au monde contre les dérives de l'intelligence artificielle (IA). Réuni en session plénière à Strasbourg, le Parlement européen a adopté, mercredi 14 juin, sa position sur l'"Artificial Intelligence Act", une proposition de règlement déposée en avril 2021 par la Commission européenne. Les eurodéputés réclament de nouvelles interdictions, comme la reconnaissance faciale dans les lieux publics par des systèmes dédiés.

Le texte doit à présent faire l'objet d'une série de négociations entre les différentes institutions en vue de parvenir à un accord. Le commissaire Thierry Breton, qui a porté le texte avec sa collègue Margrethe Vestager, a appelé à conclure le processus dans "les prochains mois""L'IA soulève de nombreuses questions sur le plan social, éthique et économique. (...) Il s'agit d'agir vite et de prendre ses responsabilités", a-t-il déclaré mercredi. Mais le règlement n'entrera pas en application avant 2026, dans le meilleur des cas. Franceinfo détaille les grands axes de ce plan.

Des limites strictes à la reconnaissance faciale

Le projet européen repose sur une classification des intelligences artificielles en fonction du niveau des "risques" qu'elles présentent. L'UE entend ainsi interdire les systèmes qui posent un "risque inacceptable" parce qu'ils constituent une "menace pour les personnes", peut-on lire sur le site du Parlement européen. Cette catégorie regroupe en particulier les "systèmes d'identification biométrique en temps réel et à distance", comme la reconnaissance faciale dans les lieux publics.

Le projet de règlement présenté par la Commission européenne prévoit cependant des exceptions pour que les forces de l'ordre puissent avoir accès à ces dispositifs d'identification, sous réserve de disposer d'une autorisation judiciaire ou administrative, pour prévenir une attaque terroriste, rechercher des enfants portés disparus ou une personne visée par un mandat européen après un "crime grave". Les eurodéputés ont amendé ces exceptions pour n'autoriser l'usage de systèmes d'identification qu'"a posteriori", et uniquement "pour la poursuite d'infractions graves et seulement après autorisation judiciaire".

Par ailleurs, l'Union européenne entend prohiber les systèmes de notations sociales, qui visent à classer des personnes en fonction de leur comportement ou de leur statut socio-économique. Un tel dispositif existe déjà en Chine pour accéder à certains services, comme les transports.

Les technologies visant à manipuler des personnes vulnérables, comme des enfants ou des personnes handicapées, sont également dans le viseur du règlement. Il s'agit par exemple des jouets équipés d'assistants vocaux qui inciteraient à des comportements dangereux, détaille la présentation du projet de règlement de la Commission (PDF). Enfin, cette catégorie contient aussi les systèmes qui ont recours à des "manipulations subliminales" (via, par exemple, des ultrasons) pouvant entraîner un danger physique ou psychologique pour les utilisateurs qui y sont exposés. 

Des contrôles pour les technologies à "haut risque"

L'Union européenne veut aussi imposer une série de règles aux intelligences artificielles considérées comme "à haut risque". Cette catégorie regroupe "tous les systèmes qui devront faire l'objet d'une évaluation des agences nationales avant leur mise en application", explique sur France Inter Nathalie Devillier, docteure en droit et experte pour la Commission européenne sur les questions d'intelligence artificielle. 

Les IA utilisées dans des domaines sensibles, comme la gestion et l'exploitation des infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre ou encore la gestion des migrations et du contrôle des frontières, sont notamment concernées. Les eurodéputés ont également ajouté à cette liste les systèmes utilisés "pour influencer les électeurs lors de campagnes politiques", ainsi que les dispositifs "des systèmes de recommandations utilisés par les plateformes de médias sociaux", détaille un communiqué du Parlement.

Ces technologies seront soumises à plusieurs obligations, dont la nécessité de prévoir un contrôle humain ou de mettre en place un système de gestion du risque. Le respect des règles sera contrôlé par des autorités de surveillance désignées dans chaque pays membre. Les eurodéputés souhaitent en outre soutenir le droit des citoyens à porter plainte contre des systèmes d'IA et à recevoir des explications concernant les décisions fondées sur des technologies classées à "haut risque".

Des règles de transparence pour les IA à "risque limité"

Dans les secteurs où les risques sont considérés comme "limités", la Commission et le Parlement européen plaident pour des règles de "transparence minimale". Les utilisateurs devront être notifiés qu'ils sont face à une IA. Cela inclut notamment les applications qui génèrent ou manipulent des contenus audiovisuels, comme les "deepfakes", illustre le Parlement.

Toutefois, ces technologies ne seront pas soumises à une évaluation préalable avant leur mise sur le marché. "L'exploitant [pourra] exploiter son système tout de suite, mais il a une obligation de transparence, il doit expliquer comment le système fonctionne", résume Nathalie Devillier. 

Enfin, dans les domaines où les risques sont considérés comme "minimes", le texte ne prévoit "pas d'encadrement spécifique", rapporte le site de vie publique. Les objets connectés du quotidien, de la maison, comme les machines à laver, les frigos, ainsi que les montres connectées, entreraient dans cette catégorie, relate France Inter.

Des exigences spécifiques pour les IA génératives comme ChatGPT

Le projet de règlement entend, par ailleurs, mieux prendre en compte les IA génératives de contenus, comme ChatGPT ou Midjourney, en leur imposant des règles de transparence. Outre la nécessité d'informer clairement l'utilisateur qu'il est en relation avec une machine, les applications devront également spécifier qu'un contenu (image, son, texte) a été créé artificiellement. Il doit aussi être stipulé que ces technologies ne peuvent pas être "utilisées à mauvais escient pour truquer la réalité ou pour tromper ceux qui les observent", souligne Geoffroy Didier, vice-président de la commission sur l'intelligence artificielle au Parlement européen, auprès de franceinfo.

Les eurodéputés souhaitent en outre que les entreprises derrière ces systèmes soient obligées de concevoir un modèle pour l'empêcher de générer des contenus illégaux. De plus, elles seront tenues de publier les données qui, protégées par des droits d'auteur (textes scientifiques, musiques, photos, etc.), ont été utilisées pour développer leurs algorithmes.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.