États-Unis : l'intelligence artificielle en question après le suicide d’un adolescent

Publié
Temps de lecture : 1min - vidéo : 2min
États-Unis : l'intelligence artificielle en question après le suicide d’un adolescent
États-Unis : l'intelligence artificielle en question après le suicide d’un adolescent États-Unis : l'intelligence artificielle en question après le suicide d’un adolescent (France 2)
Article rédigé par France 2 - N. Tabouri, P-Y. Salique, A. Lay, C. Vignal, S. Testor, L. Michel, @RevelateursFTV
France Télévisions
France 2
Aux États-Unis, un adolescent s’est donné la mort. Quelques mois plus tôt, il avait eu des échanges avec un robot conversationnel généré par intelligence artificielle. Récit du drame.

Aux États-Unis, un adolescent de 14 ans s’est suicidé au mois de février. Plusieurs mois avant sa mort, il avait entamé une conversation avec une intelligence artificielle. Sa mère, Megan Garcia, ignorait tout de cette relation virtuelle. "Je ne savais pas qu’il parlait à une intelligence artificielle avec une voix si humaine, avec la capacité à imiter les émotions et les sentiments humains", a-t-elle déclaré sur le plateau de CBS.

La mère porte plainte contre l’entreprise

Son fils utilisait un agent conversationnel, créé par l’entreprise character.ai. Au fil des mois, il s’était laissé enfermer dans cette relation. Dans les conversations, l’adolescent abordait le sujet du suicide et confiait avoir un plan. Le personnage virtuel ne l’en a pas dissuadé, et la mère du jeune homme a porté plainte contre character.ai. L’entreprise américaine s’est dite bouleversée par le drame et s’est engagée à renforcer ses mesures de sécurité.

Regardez l’intégralité du reportage dans la vidéo ci-dessus.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.