« Non, une Intelligence Artificielle n’est pas une personne ! » 

Partie 1

En mai 2018, le PDG de Google a dévoilé, devant une audience de technophiles et de journalistes du monde entier, sa solution Google Duplex[1]. L’assistant vocal devait prendre un rendez-vous pour le compte d’une jeune femme, dans un salon de coiffure. Le logiciel a appelé la professionnelle, il a dialogué avec elle pour trouver un rendez-vous qui convienne, a réservé la date, avant de raccrocher, comme l’aurait fait n’importe quelle assistante. Le système a parlé avec un timbre de voix féminin et des expressions humaines caractéristiques. L’interlocutrice n’a jamais réalisé qu’elle avait affaire à une machine. Les observateurs ont salué la performance, mais beaucoup n’ont pas dissimulé leur malaise devant cette parfaite imitation de l’humain. Quelque temps plus tard, l’entreprise a réalisé une nouvelle présentation, au début de laquelle le programme s’est identifié. Cette mesure cosmétique n’a pas calmé les esprits.

La somme de toutes les peurs de l’IA

La démonstration fut une réussite technique indiscutable et elle reçut un accueil enthousiaste de la part du public présent, acquis dès le départ à sa cause. Tel ne fut pas le cas sur les réseaux sociaux et dans les grands médias généralistes, où elle a d’abord réactivé les peurs associées à l’Intelligence Artificielle.

A commencer par les craintes pour la pérennité de millions d’emplois. Avec cet outil ou son équivalent pour réceptionner des demandes[2], un centre d’appel serait en mesure de traiter des millions de communications simultanées sans qu’aucun client ne se doute qu’il dialogue avec un robot. Au final, les téléconseillers ou les agents d’accueil humains se chargeraient d’une faible proportion des cas, requérant une expertise très précise. A terme, on assisterait à de nombreux dialogues entre deux assistants vocaux, l’un requérant un rendez-vous et l’autre traitant la requête.

Les usages malveillants de l’assistant vocal effraient. Un semblable outil aux mains de « trolls » se convertirait en arme de harcèlement massive. On frémit devant des corbeaux logiciels, impossibles à confondre par leur mimétisme de l’humain, et leur capacité démultipliée de nuisance ! Faudra-t-il attendre qu’un mauvais plaisantin réserve, en l’espace d’une heure, tous les restaurants de Paris, Londres et New-York réunis, pour une soirée, avant que des solutions alternatives ne soient trouvées ?

La vallée de l’étrange, ou la machine manipulatrice

Les inhabituelles réactions négatives qui ont suivi la démonstration, portent à croire que l’IA de Google se serait aventurée dans la vallée de l’étrange(uncanny valleyen anglais). Le roboticien japonais Masahori Mori a théorisé le concept en 1972, sur la base du trouble que l’on éprouve devant certains robots humanoïdes. Plus la machine ressemble à l’humain, plus ses imperfections sont soulignées, et plus elles nous paraissent monstrueuses. Alors, le malaise s’installe. L’entité entre dans la fameuse vallée. Cependant, elle n’est pas condamnée à y rester. Elle peut en ressortir, en changeant tout ou partie de son aspect ou de son comportement inquiétant.

En omettant sa nature non-humaine à son interlocutrice, l’assistant vocal Google Duplex est entré dans la vallée de l’étrange. La coiffeuse est devenue, à son insu, le cobaye d’une expérience inédite, menée par la machine. Le public a assisté au premier canular téléphonique de l’Histoire, réalisé par une Intelligence Artificielle aux dépens d’un humain. Beaucoup se sont figurés à la place de la jeune femme. Ils ont imaginé derrière la voix faussement humaine de l’assistant, une machine prédatrice, qui n’existait jusqu’alors que dans les œuvres de science-fiction.

En principe, à l’issue d’un canular téléphonique ou d’une caméra cachée, l’auteur revient s’expliquer et s’excuser auprès de la victime. Cette séquence n’a été ni présentée ni même mentionnée, renforçant une sensation désagréable de manipulation de l’humain.

Un choix marketing étonnant

Les fabricants essaient d’imiter au plus près l’homme, y compris en faisant croire que leurs machines éprouvent de l’affection[3]. Un prix international récompense chaque année l’assistant vocal « le plus humain »[4]. D’après les chercheurs[5], les robots les plus proches de l’humain remportent plus de succès, car nous les croyons, par nature, plus efficaces.

Dans le cas de Google Duplex, on comprend moins l’intérêt d’imiter une voix humaine pour contacter un tiers. Au contraire, si l’interlocuteur se rend compte de la mystification, le propriétaire de l’assistant vocal pourrait en payer les conséquences, comme l’annulation de son rendez-vous.

Pourquoi la première entreprise numérique au monde et leader incontesté de l’Intelligence Artificielle a-t-elle décidé de jouer la transgression ? Elleaurait pu démontrer toutes les fonctionnalités de sa solution, insister sur sa capacité à tenir une conversation[6], tout en bridant des voix et des expressions jugées trop humaines dans la version commercialisée. L’entreprise OpenAI, financée notamment par Elon Musk et Microsoft, a développé un outil très performant de génération automatique de texte[7]. Le programme est en mesure d’assister dans l’écriture de textes, de romans, d’articles de journaux, mais il pourrait servir à générer automatiquement des fausses nouvelles (fake news). OpenAI a décidé de ne pas le commercialiser, bien que, en l’espèce, l’intérêt businesssoit manifeste.

A l’issue de la présentation de son assistant vocal, le géant de Mountain View a surtout réussi à faire peur. Or, en marketing, il est préférable de délivrer des messages positifs.

Cette tentative d’humaniser les machines cacherait-elle d’autres motivations ?

Emmanuel Bertrand-Egrefeuil.

Partie 2 ici

Vous pouvez télécharger ce texte en cliquant sur le texte suivant : Non, une Intelligence Artificielle n’est pas une personne ! Partie 1

NOTES

[1]https://www.lemonde.fr/pixels/article/2018/05/16/le-terrifiant-assistant-google-qui-appelle-le-coiffeur-a-votre-place_5299701_4408996.html

[2]Google a annoncé début mai 2019 sa solution CallJoy, dérivée de Duplex, d’opérateur téléphonique virtuel pour répondre aux clients des petites entreprises.

[3]Non, une Intelligence Artificielle n’est pas une personne !NXU, mai 2019.

[4]Le prix Loebner est une compétition qui récompense, chaque année, les agents conversationnels satisfaisant le mieux les critères du test de Turing (test pour évaluer la distinction entre un robot et un humain. Voir plus avant dans l’article).

[5]Laurence Devillers, Des robots et des hommes, mythes, fantasmes et réalité, Plon, p. 135.

[6]Dans la seconde partie de la démonstration, l’assistant vocal appelle un restaurant. Un échange s’ensuit qui n’aboutit pas un rendez-vous, car le restaurant ne prend des réservations qu’à partir de 5 personnes.

[7]https://edition.cnn.com/2019/02/18/tech/dangerous-ai-text-generator/index.html