Cet article date de plus de cinq ans.

Nouveau monde. Un assistant vocal a-t-il le droit d’exprimer ses opinions ?

L’assistant Siri d’Apple a été reprogrammé afin de ne froisser personne lorsqu’il s’exprime sur certains sujets.

Article rédigé par franceinfo, Jérôme Colombain
Radio France
Publié
Temps de lecture : 2min
Présentation du HomePod, assistant vocal d'Apple, à San Jose (Californie), le 6 juin 2017. (MAXPPP)

Si vous demandez à Siri "es-tu féministe"', il vous répondra "je crois en l’égalité et je traite les gens avec respect". Avant, il faisait une réponse plus percutante : "Je ne comprends rien à cette histoire de genre". Mais, selon The Guardian, Siri a mis de l’eau dans son vin et opté pour le politiquement correct afin de ne froisser personne.

Ces mises à jour datent de l’an dernier. D’autres réponses ont également été réécrites, notamment, suite au mouvement #MeToo. Avant, lorsque les utilisateurs disaient à Siri "salope", l’assistant répondait "je rougirais si je pouvais". Cela se voulait humoristique mais c’était sexiste. Maintenant, il/elle botte en touche : "Je ne tiens pas à répondre cela".

Rester neutre à tout prix

Chaque assistant vocal a son style (nous avons fait le test). A propos du féminisme, Alexa renvoie vers la définition du féminisme sur Wikipédia tandis que Google Home, lui, n'hésite pas à se mouiller avec la réponse suivante : "Je crois fort en l’égalité, on peut donc dire que je suis féministe". Contrairement à Apple, Google lâche le mot "féministe".

Rappelons que toutes les réponses des assistants vocaux sont écrites à l’avance par des équipes qui font très attention aux moindres détails. Au-delà de l’aspect conversationnel, cela engage l’image de l’entreprise. Les marques établissent donc des règles internes précises. 

Apple, qui soigne son image de compagnie ouverte et sensible aux causes des minorités, ne souhaite pas trop, pour autant, s'aventurer imprudemment sur certains terrains glissants afin de ne gêner personne. Il est précisé, ainsi, qu’un « être artificiel ne doit pas faire croire qu’il est un être humain, ne doit pas enfreindre les normes éthiques et morales humaines dans la région où il opère et ne doit pas imposer ses propres principes, valeurs ou opinions à un humain ».

A l’heure où les utilisateurs, notamment les enfants, conversent de plus en plus avec les assistants et ont tendance à les personnifier, la neutralité apparaît comme un rempart contre les malentendus.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.