L'IA réussit désormais les tests permettant de distinguer les humains des robots

L'Université polytechnique fédérale de Zürich publie les résultats d'une expérience qui démontre la capacité d'une intelligence artificielle à leurrer les dispositifs visant à établir que les internautes/mobinautes sont bien des êtres humains.
Article rédigé par Nicolas Arpagian
Radio France
Publié
Temps de lecture : 5min
Le logo de CAPTCHA, site web de protection et de vérification pour différencier les humains des robots. (Illustration) (ZAK00 / DIGITAL VISION VECTORS / GETTY IMAGES)

Vous avez déjà certainement été amené, en naviguant sur Internet, et en voulant accéder à un site, à répondre à un questionnaire destiné – est-il écrit – à établir que vous n’êtes pas un robot mais bien une véritable personne. Il peut s’agir de recopier une série de chiffres ou de lettres ou de cliquer sur des images comportant un lampadaire ou une devanture de magasin. C’est ce qu’on appelle un test CAPTCHA – un acronyme qui signifie en anglais "Test public de Turing complètement automatique ayant pour but de différencier les humains des ordinateurs".

Alan Turing est un brillant mathématicien britannique qui a établi en 1950 un test fondé sur la faculté d'une machine à imiter la conversation humaine. Ce terme de CAPTCHA est une marque commerciale déposée en 2000 par l’Université Carnegie Mellon aux Etats-Unis. Ces petits formulaires servent notamment à éviter que des automates se connectent en grand nombre et viennent, par exemple, saturer l’accès à un site Internet.

Google a créé en 2009 son propre modèle de Captcha. Et depuis 2012, après avoir été une reconnaissance de texte, Google l’a remplacé par des images notamment issues de photographies de l’espace public, prises sur Google Street Map. D’ailleurs, Google profite aussi de chacun de nos clics pour entraîner, à cette occasion, ses propres intelligences artificielles avec les réponses des internautes. Par exemple, qui confirment par leur clic la présence d’un feu tricolore ou d’un animal sur l’image.

Seuls les humains réussissaient jusqu'à présent cet exercice de reconnaissance

Mi-septembre 2024, trois chercheurs de l’Ecole polytechnique fédérale de Zürich en Suisse ont établi une méthode qui permet de leurrer à 100% les tests ReCaptcha de Google. Alors que jusqu’alors les meilleurs scores étaient de 68 à 71% de réussite.

Qu’est-ce que cette découverte apporte comme changement ? Cela abaisse le niveau de sécurité des sites.

  • Qu’il s’agisse de fausser les chiffres de fréquentation, en suscitant un doute sur la réalité de l’audience, potentiellement constituée de visites d'automates,
  • De rendre possible la création d’une multitude de comptes utilisateurs de manière automatisée, pour disposer ensuite de profils fictifs utilisés à des fins d’escroquerie,
  • Ou de faciliter l’accès aux données, dès lors qu’un robot peut entrer puis naviguer dans un site et aspirer des données. Un sujet devenu important, alors que la chasse auxdites données est ouverte, pour alimenter des bases documentaires afin de nourrir les modèles d’intelligence artificielle.

L’IA peut-elle devenir malicieuse ?

La plupart des grandes plateformes d’IA ont prévu d’interdire des usages habituellement considérés comme illicites. Mais la créativité humaine travaille à trouver des moyens de contournement de ces blocages.

Ainsi en 2023, des essais en laboratoire conduits par OpenAI sur ChatGPT-4, avaient abouti à ce que cette IA propose des scénarios pour tromper ces systèmes de Captcha. L’algorithme avait été corrigé pour éviter ce type de dévoiement. Mais c’est un travail continu pour prendre en compte les possibles usages déviants.

Vers d’autres formes de contrôle à l’entrée des sites ?

Le risque est alors qu’on élabore des dispositifs qui vont rendre plus compliqué l’accès à un site Internet. Ce qui freinerait la fluidité de la navigation et compliquerait les usages numériques. Sans oublier que des versions encore plus complexes à résoudre, pourraient mettre en difficulté des internautes/mobinautes déficients visuels. Qui sont déjà pénalisés par ces tests de reconnaissance d’images.

Il s’agit alors d’enrichir la palette des technologies mises à contribution, pour détecter s’il s’agit d’un humain ou d’un robot. Cela peut s’effectuer par exemple en analysant l’historique de navigation ou les mouvements de souris, jugés trop mécaniques. Certains sites envisagent de renoncer aux CAPTCHA pour revenir aux classiques demandes de confirmation par e-mail ou SMS.

Ces travaux universitaires illustrent une nouvelle fois l’éternel combat numérique du glaive et du bouclier. Pour établir des mesures de protection qui devront évoluer avec l’ingéniosité des attaquants. Sans pour autant faire fuir l’utilisateur de bonne foi. Un équilibre finalement très humain. 

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.