États-Unis : l'intelligence artificielle en question après le suicide d’un adolescent
Aux États-Unis, un adolescent de 14 ans s’est suicidé au mois de février. Plusieurs mois avant sa mort, il avait entamé une conversation avec une intelligence artificielle. Sa mère, Megan Garcia, ignorait tout de cette relation virtuelle. "Je ne savais pas qu’il parlait à une intelligence artificielle avec une voix si humaine, avec la capacité à imiter les émotions et les sentiments humains", a-t-elle déclaré sur le plateau de CBS.
La mère porte plainte contre l’entreprise
Son fils utilisait un agent conversationnel, créé par l’entreprise character.ai. Au fil des mois, il s’était laissé enfermer dans cette relation. Dans les conversations, l’adolescent abordait le sujet du suicide et confiait avoir un plan. Le personnage virtuel ne l’en a pas dissuadé, et la mère du jeune homme a porté plainte contre character.ai. L’entreprise américaine s’est dite bouleversée par le drame et s’est engagée à renforcer ses mesures de sécurité.
Regardez l’intégralité du reportage dans la vidéo ci-dessus.
Commentaires
Connectez-vous à votre compte franceinfo pour participer à la conversation.