Quand une intelligence artificielle apprend via le regard d'un bébé

Des universitaires américains ont appris à une intelligence artificielle à découvrir le monde, comme le ferait un bébé, via un modèle vivant, Sam, deux ans.
Article rédigé par franceinfo - Damien Bancal
Radio France
Publié
Temps de lecture : 2 min
Sam, deux ans, a servi de guide d'apprentissage à une intelligence artificielle. (CAPTURE D'ECRAN)

Sam est un petit Australien de 2 ans. Il vit à Adelaïde et il a porté depuis l'âge de 6 mois, une caméra frontale, deux heures par semaine. Objectif de l’expérience : collecter des images de l'interaction de l'enfant, dans sa vie de tous les jours. Le garçonnet a ainsi servi de modèle d'apprentissage pour une intelligence artificielle inspirée de la structure du cerveau, mis au point par des chercheurs américains de l'université de New York.

L’étude a eu pour but de découvrir si un réseau neuronal serait capable d'apprendre tout seul à reconnaître les objets, via le regard du bébé et les mots dictés à l’enfant. Les 61 heures d'images tirées de la vie de Sam ont permis à l'Intelligence artificielle de se créer un "petit cerveau". Quand l'enfant prenait une balle, et que le mot était prononcé, l'IA apprenait que l'objet rond était une balle. Quand Sam voyait un chien, le réseau neuronal cherchait à relier le mot chien à l'image de l'animal. L’IA a eu plus de difficulté face à des mots plus généralistes comme "jouet".

Un apprentissage contrastif

L'IA a utilisé une technique appelée "apprentissage contrastif". Elle comparaît les informations pour en déduire le bon résultat. Pour le moment, cette IA a été capable, 6 fois sur 10, de classer un objet comme étant une balle ou un bol. En revanche, les résultats ont été plus mitigés pour les mots "pomme" et "chien", le modèle réussissant 3 fois sur 10.

Publiée il y a quelques jours dans le magazine Science, l’étude doit permettre de comprendre l’apprentissage du langage. Les résultats indiquent que l’IA peut aider à analyser comment les humains apprennent, explique Wai Keen Vong, co-auteur de l’étude et chercheur en IA à l’Université de New York. Cela n'était pas clair auparavant, car d'autres modèles d'apprentissage des langues tels que ChatGPT d’OpenAI ont un apprentissage à partir de milliards de points de données, très loin d’être comparables aux expériences réelles d'un nourrisson.

L’expérience du bébé s’impose face à l’IA


Parmi les premières données, on découvre que le nourrisson peut apprendre beaucoup de choses dès ses premiers jours en établissant des associations uniquement entre différentes sources sensorielles. L’IA n’a appris qu’en établissant des associations entre les images et les mots qu’elle a vus ensemble sans autre connaissance préalable du langage. Le chercheur explique que cela remet en question certaines théories des sciences cognitives selon lesquelles, pour donner un sens aux mots, les bébés ont besoin de connaissances innées sur le fonctionnement du langage.

De son côté, l'IA a eu du mal à apprendre le mot "main", qui est généralement mémorisé très tôt dans la vie d'un bébé. La simple et bonne raison est que l’IA n’a pas de main, le bébé, lui, les utilise rapidement et accumule plus d’expérience que l’intelligence artificielle. Une étude qui tend à se renouveler avec d’autres petits Sam, les enfants et leurs environnements pouvant varier considérablement.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.