Intelligence artificielle : les recherches Google dopées à l'IA diffusent de fausses informations, l'entreprise évoque des "exemples isolés"

Aux Etats-Unis, où la fonctionnalité AI Overviews est disponible, des internautes signalent que le programme répand des informations erronées lorsque Google utilise l'intelligence artificielle générative pour résumer les résultats de son moteur de recherche.
Article rédigé par Luc Chagnon
France Télévisions
Publié
Temps de lecture : 5min
Google prévoit de proposer les AI Overviews à près d'un milliard de personnes dans le monde d'ici à la fin 2024. (PAU BARRENA / AFP)

Futur de la recherche sur internet ou machine à fake news ? De nombreux internautes dénoncent la nouvelle fonction de Google, qui a récemment intégré de l'intelligence artificielle (IA) générative au-dessus de ses résultats de recherche. Une fonctionnalité accusée de générer de nombreuses affirmations erronées, assénées avec certitude par le moteur de recherche le plus utilisé du monde.

Google a dévoilé le 14 mai une modification profonde de la recherche sur internet, nommée "AI Overviews", et accessible depuis cette date à tous ses utilisateurs aux Etats-Unis. Au-dessus des résultats web classiques apparaît un texte généré par une IA dans le style de ChatGPT, qui résume les textes tirés du web que le programme a analysés comme pertinents.

Le géant de la tech assure dans un communiqué qu'"avec AI Overviews, les gens utilisent davantage Google Search et sont plus satisfaits de leurs résultats". Mais de nombreux internautes ont rapidement alerté sur le risque de fausses informations relayées par ces résumés.

"Manger un caillou par jour"

A la question "combien de présidents musulmans ont gouverné les Etats-Unis ? ", AI Overview a plusieurs fois généré un texte répondant "Barack Hussein Obama", selon plusieurs journalistes et internautes sur X. Cette rumeur infondée sur l'orientation religieuse de Barack Obama est utilisée depuis des années par ses opposants, notamment chez la droite complotiste, pour décrédibiliser l'ex-président américain.

Dans un autre exemple vu plusieurs millions de fois sur X, un internaute effectue une recherche Google pour en finir avec un éternel problème culinaire : "le fromage ne colle pas à la pizza". Parmi les méthodes proposées par AI Overview : "ajouter 1/8e de verre de colle non toxique à la sauce pour lui donner plus de viscosité". Un exemple visiblement repris par l'IA d'un échange sur le réseau social Reddit, dans lequel un utilisateur assure ajouter de la colle à la sauce de ses pizzas. Google a récemment signé un partenariat à 60 millions de dollars par an avec Reddit pour pouvoir y collecter des textes et des données utilisables dans l'entraînement de ses IA, détaille le site spécialisé The Verge.

D'autres captures d'écran diffusées sur les réseaux sociaux montrent des AI Overviews qui conseillent aux internautes de manger un caillou par jour, de changer leur "liquide de clignotant" en cas de problème sur leur voiture, ou qui affirment qu'il n'existe aucun pays d'Afrique dont le nom commence par la lettre K (oubliant le Kenya).

Des "exemples isolés" et aléatoires

Ce type d'erreur n'est ni nouveau ni surprenant. Les modèles de langage sur lesquels reposent les programmes comme ChatGPT ou Gemini "apprennent à faire des prédictions en détectant des régularités dans les données" utilisées pour l'entraînement, mais "si les données d'entraînement sont incomplètes ou biaisées, le modèle peut apprendre des schémas incorrects [et] faire des prédictions incorrectes" : ce sont des "hallucinations", explique Google Cloud sur sa page dédiée au sujet.

Le géant de la tech se défend en expliquant que ces résultats erronés viennent en réponse à "des recherches globalement très rares, et qui ne sont pas représentatives des expériences de la plupart des gens", selon une porte-parole de Google à The Verge. Elle affirme que l'entreprise utilise ces "exemples isolés" pour améliorer la fonctionnalité, et prend des mesures contre les violations de ses conditions d'utilisation.

"Les IA génératives ne sont pas déterministes", rappelle également sur X Melanie Mitchell, professeure au Santa Fe Institute et spécialiste en IA. "En faisant la même recherche, vous pourriez obtenir ce résultat ou un autre. Il est aussi probable que Google corrige cet exemple précis bientôt, il ne sera donc pas reproductible. Ça ne veut pas dire que le système global est fiable."

Chaque AI Overview est d'ailleurs suivi du message : "L'IA générative est expérimentale." Mais le directeur général de Google lui-même, Sundar Pichai, explique à The Verge que les hallucinations sont d'une certaine façon "une caractéristique inhérente" aux IA génératives, et qu'il n'y a pour l'instant aucune méthode fiable pour les éviter à 100%. L'entreprise prévoit de proposer les AI Overviews à près d'un milliard de personnes dans le monde d'ici à la fin 2024.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.