Sommet mondial sur l'IA : les gouvernements lancent leurs réglementations

Le premier sommet mondial sur les risques de l'intelligence artificielle s'est ouvert le 1er novembre près de Londres. Il intervient au moment où Joe Biden a annoncé récemment des mesures pour encadrer l’IA et éviter les risques liés à cette technologie.
Article rédigé par franceinfo - Loubna Anaki, Pierre Bénazet
Radio France
Publié
Temps de lecture : 5 min
La vice-présidente des États-Unis, Kamala Harris, au sommet mondial sur les risques de l'intelligence artificielle, à Londres (NEIL HALL / MAXPPP)

Le premier sommet mondial sur les risques de l'intelligence artificielle s'est ouvert le mercredi 1er novembre, près de Londres, le gouvernement britannique voulant jouer un rôle pivot dans son encadrement. L'Union européenne n'a cependant pas attendu son voisin puisqu'elle travaille depuis 2018 sur une loi visant à légiférer l'intelligence artificielle qui sera en application directe dans les 27 pays.

Le débat a été long puisque la popularité de l'IA générative, comme ChatGPT, a entraîné de nouvelles propositions qui sont en cours d'élaboration. Le Royaume-Uni ne fait que suivre le mouvement parce que son espoir est d'imposer son cadre juridique sur le modèle de la régulation des plateformes et des réseaux sociaux que l'UE impose pour opérer sur son territoire, alors que ce sont les États-Unis qui dominent l'industrie des nouvelles technologies.

Ce règlement est le plus compliqué de l'histoire législative de l'UE puisqu'il a engendré le plus d'amendements lors de son examen. Les 27 États de l'UE se sont mis d'accord en décembre, les députés européens en juin et les négociations entre eux doivent aboutir d'ici la fin de l'année. Ce sont les outils de surveillance de l'IA qui risquent d'être les plus durement négociés, comme les outils de données biométriques de reconnaissance faciale ou de notation sociale, utilisés par la Chine pour la surveillance de masse. Le Parlement les juge intrusif mais les 27 voudraient pouvoir les autoriser dans des cas exceptionnels de lutte contre la criminalité et le terrorisme par exemple.

Les principes généraux de réglementation sont prêts à être activés

Pour l'IA générative, le règlement prévoit d'empêcher la création de contenu illégal. En général, Speaker 2:, une mention de l'intervention de l'intelligence artificielle dans la création du contenu, ainsi qu'une mention des données utilisées si elles sont protégées par des droits d'auteur, sont attendues.

L'idée du Parlement est d'avoir des systèmes d'IA qui garantissent la sécurité, la transparence et la non-discrimination. De leur côté, les 27 ont établi une gradation entre les différents types d'applications de l'intelligence artificielle avec quatre catégories qui vont de risque limité à risque élevé, puis inacceptable. Les Européens envisagent des amendes qui pourraient atteindre 20 à 30 millions d'euros et 4 à 6% du chiffre d'affaires mondial de l'entreprise.

Les États-Unis, pays pionnier face aux risques liés à l’IA.

La Maison Blanche avait déjà demandé, en juillet 2023, aux groupes leaders de ce domaine, comme Google, Meta et Microsoft, de réaliser des tests de sécurité de leurs produits pour s’assurer par exemple que ces produits ne peuvent pas être piratés et utilisés à mauvais escient. Cependant, avec ce décret, le gouvernement se place, en position de superviseur de ces tests. Le texte oblige en effet, les entreprises à partager automatiquement leurs résultats avant la mise sur le marché de leurs produits. Le gouvernement pourra également s’assurer que les tests sont bien respectés.

Joe Biden appelle également les différents ministères et agences fédérales à établir des chartes pour encadrer l’utilisation de l’intelligence artificielle, notamment dans les écoles ou encore les laboratoires de recherche et les centrales nucléaires.

Parmi les autres mesures adoptées, il y a le développement d’outils pour identifier facilement les contenus produits par intelligence artificielle. Ces contenus peuvent être dangereux, notamment dans le cadre d’une campagne électorale ou au niveau de la sécurité nationale d’un pays. Le président américain souhaite également que les développeurs s’engagent à faire en sorte que leurs produits ne soient pas porteurs de biais discriminatoires. Cela s’est déjà vu, à plusieurs reprises, notamment dans le cas de Chat GPT qui donne parfois des réponses jugées racistes.

Ce décret de Joe Biden est tout de même assez limité, puisque pour avoir un réel changement, il faut qu'une loi d'encadrement soit votée par le Congrès américain. Or elle n'est actuellement pas à l'ordre du jour. Le président américain estime pour sa part que cela va permettre à son gouvernement de ne pas être dépassé par cette technologie qui évolue très rapidement. Washington voulant être à la pointe de la régulation de l’intelligence artificielle.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.