Pourquoi Elon Musk est-il en guerre contre Gemini, l'intelligence artificielle de Google ?
Le patron de Tesla a-t-il un problème avec Google ? Dans un premier tweet, le 22 février, Elon Musk qualifie l'intelligence artificielle générative de Google, appelée Gemini, de "woke racist". En cause : des problèmes concernant la fonctionnalité Gemini, critiquée pour des incohérences historiques dans les images qu'elle crée. Sur les réseaux sociaux, des utilisateurs ont pointé certaines créations inexactes, notamment en matière de genre et d'origine, semblant sous-représenter les personnes blanches. Une requête sur un soldat allemand de 1943 a par exemple donné lieu à des images de militaires asiatiques ou à la peau noire.
Le lendemain, Elon Musk assure sur X avoir parlé au téléphone avec un cadre de Google, prétendant que la sous-représentation de personnes blanches et d'hommes relève "des préjugés raciaux et sexistes" de l'outil.
Si le PDG de Google, Sundar Pichai, a dénoncé les erreurs "totalement inacceptables" de son application d'intelligence artificielle Gemini dans une lettre à ses équipes, et a confirmé que "les efforts [de Gemini] pour éliminer les préjugés" ne sont pas au point, les propos d'Elon Musk donnent l'impression qu'il fait la pluie et le beau temps sur les sujets liés à l'intelligence artificielle (IA). "Elon Musk se caractérise par une forte implication sur ces sujets mais avec très peu de résultats concrets", tempère Maxime Moffront, consultant senior chez Rhapsodies Conseil et spécialiste de l'IA.
"Ses déclarations ne sont pas vraiment prises au sérieux au point de nécessiter une réponse" de la part des entreprises visées, ajoute-t-il. D'ailleurs, la tentative de Google avec Gemini n'a pas inquiété outre mesure la Sillicon Valley selon le spécialiste de l'IA : la firme a simplement mis en pause la génération d'images humaines.
La polémique a surtout été reprise par des internautes marqués à l'extrême droite, aux Etats-Unis comme en France. "Mais cela montre la capacité d'Elon Musk à augmenter la visibilité des dialogues relativement extrémistes et avec, l'augmentation importante de la désinformation sur X notamment", dit-il.
Elon Musk, ambigu sur l'IA
Ainsi, selon l'expert, le patron de SpaceX et Tesla mise de plus en plus sur "un discours techno-solutionniste qui s'appuie sur une population relativement 'droitisée' et 'extrémisée' du spectre médiatique". Une stratégie exacerbée par le nouveau fonctionnement de X depuis son rachat par Elon Musk, "notamment concernant la rémunération des utilisateurs sur la version Premium", rappelle Maxime Moffront. En effet, plus un contenu est visible et génère des interactions, plus il est rémunérateur. Or, ce sont les contenus violents, haineux ou complotistes qui se partagent le plus et engendrent de la désinformation pour laquelle le réseau X est souvent pointé.
En outre, Elon Musk ne semble pas être un acteur sérieux de l'intelligence artificielle générative. "L'expérimentation Grok n'a pas servi à grand-chose", rappelle le consultant de Rhapsodies. En effet, le projet de cet "anti-chatGPT" dont la marque de fabrique était les réponses teintées de sarcasme est en fait "un argument de vente pour X Premium", selon Maxime Moffront sans être un réel concurrent à Meta, OpenIA et Mistral, les vrais mastodontes du marché.
OpenIA a pourtant été fondée par... Elon Musk lui-même, "en tant qu'organisme de recherche sur l'intelligence artificielle mais il s'est retiré du dispositif en 2018, donc avant les grandes avancées qu'on a l'occasion de voir en ce moment avec GPT-4" explique-t-il. Le fantasque homme d'affaires avait également appelé à une pause dans le développement de nouveaux systèmes d’intelligence artificielle quelques mois avant la sortie de Grok, illustrant son ambiguïté sur le sujet.
Quelle représentativité pour les IA génératives ?
Il n'en reste pas moins que "les enjeux d'éthique dans l'IA sont très importants aujourd'hui", explique Maxime Moffront. Et pour ce qui est de Google semble devoir faire ses preuves après de précédents scandales. Déjà en 2015, "Google avait été épinglé lors de la sortie de l'outil Aria de reconnaissance faciale et de tags automatiques des photos sur certains téléphones". Un développeur américain avait dénoncé le biais raciste présent dans l'outil qui identifiait les personnes noires comme gorilles. Un problème toujours pas résolu près de dix ans après selon Numerama.
"Il y a également eu le renvoi d'une chercheuse, Timnit Gebru, en 2020 qui était la spécialiste de l'éthique pour l'IA de Google et qui a été renvoyée pour éviter la publication d'un article sur les défauts et les risques des grands modèles de langage (LLM) utilisées par l'IA", relate Maxime Moffront. "Plusieurs éléments ont eu tendance à montrer que Google avait peu d'intérêt pour l'éthique en intelligence artificielle. Les efforts de Google aujourd'hui avec Gemini donnent donc un signal positif sur les efforts de Google en termes d'éthique", analyse-t-il.
En outre, Google a besoin de retrouver une place de choix face à Microsoft : "Aujourd'hui, malgré que Google soit un énorme acteur de l'intelligence artificielle, il n'est plus leader d'opinion sur le sujet face à Open IA et, dans une moindre mesure, Mistral, deux entités soutenues par Microsoft", détaille Maxime Moffront.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.