Si l'intelligence artificielle peut tout, comment éviter qu'elle fasse n'importe quoi ?
Photo, textes, vidéos, l’intelligence artificielle semble savoir tout faire. Comment peut-on savoir désormais, si l’auteur d'une de ces créations est un humain ? Il ne s’agit pas tant de savoir qui a conçu l’image ou la vidéo, que de savoir si celles-ci représentent des situations réelles, ou si elles sont uniquement le fruit d’un travail algorithmique.
C’est déterminant, par exemple, pour établir l’authenticité d’une prise de vue qui pourrait, si elle était fabriquée artificiellement, être utilisée à des fins de désinformation. C’est l’importance de la traçabilité d’une image ou d’un film. Pour identifier les deepfakes ou hypertrucage.
Un filigrane pour désigner les créations générées par une IA ?
On ne peut plus compter sur les "erreurs de jeunesse" de la technologie, qui ajoutaient un sixième doigt aux personnages, ou butaient sur la conception de jambes réalistes pour les humanoïdes numériques que l’on mettait en scène.
Aujourd’hui, les productions sont de plus en plus crédibles. Les équipes de l’entité DeepMind de Google ont publié fin octobre 2024 un article dans la revue scientifique Nature qui propose la piste d’un filigrane, la solution SynthID.
Il s'agirait d'intégrer un marquage, évidemment invisible à l’œil nu, dans toutes les productions émanant d’un modèle d’intelligence artificielle. Qu’il s’agisse de textes, d’images ou de séquences animées. L’idée étant que l’on puisse rechercher la présence de ce tatouage numérique, en cas de doute sur l’origine de la création.
Un marqueur qui reste contournable
À l’instar des antivols mis sur les vêtements dans un magasin, des techniques existeront toujours pour neutraliser ou effacer le dispositif. Par exemple, lors de l’analyse de textes. Il faut que le marquage résiste à des modifications délibérées, comme le remplacement de certains mots, de la paraphrase, voire des traductions. Les tests montrent une meilleure performance pour les textes longs et plutôt créatifs. L’outil serait moins efficace pour des sujets abordés de manière très factuelle et synthétique.
Cela confirme qu’il ne faut pas compter sur une seule technologie pour repérer les contenus problématiques. Et qu’il revient à chacun/e de conserver un regard critique et réfléchi sur les images, textes ou vidéos qui lui passent sous les yeux. Surtout si ces productions sont chargées en émotion, ou ont une portée politique. Il ne faut pas renoncer à l’intelligence humaine pour apprécier leur réalité et leur pertinence.
Des mesures de protection à intégrer dès la conception des modèles d’intelligence artificielle
Cette prise en compte originelle de la sécurisation vaut pour toutes les atteintes visant les Grands Modèles de Langage (en anglais LLM, pour Large Language Model). Ce sont ces mécanismes d'apprentissage automatique capables de comprendre des requêtes et de générer des contenus. Le Laboratoire d'Innovation Numérique (LINC) de la CNIL, la Commission Nationales Informatique et Libertés, a publié en octobre 2024 deux notes présentant les principales familles de risques en la matière.
Pour commencer, il y a le risque de régurgitation. Lorsque vous interrogez une IA et que celle-ci fournit dans ses réponses des données personnelles provenant des séances ayant servi à son entraînement préalable. De même, l’IA a pu recevoir pour consigne de générer un texte invitant l’utilisateur à communiquer des informations destinées à demeurer confidentielles. On comprend alors l’importance de soigner l’anonymisation des jeux de données servant à l’apprentissage des IA.
Il faut aussi anticiper la génération de réponses toxiques. Comme lorsque l'IA, par exemple, est sollicitée pour concevoir des contenus haineux ou violents. Ou pour élaborer des programmes informatiques malveillants.
Instaurer une culture de la sécurité
Les principales recommandations en matière de sécurisation ont été présentées dans un document établi avant l’été 2024, par l’Agence nationale de sécurité des systèmes d’information (ANSSI).
Elle rappelle l’importance de documenter l’ensemble des processus d’élaboration des modèles d’intelligence artificielle : de la qualité des informations utilisées en amont, à l’identification des personnes autorisées à intervenir sur les bibliothèques de données et les règles algorithmiques, jusqu’au contrôle des conditions de stockage, notamment dans le cloud, de l’ensemble de cette machinerie numérique.
Au-delà des seuls techniciens, il est souhaitable que le grand public, de plus en plus amené à manier ces outils d’IA, se familiarise avec ces principes de précaution. Alors que l’IA est appelée à jouer un rôle grandissant dans nos vies personnelles et professionnelles.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.