« Non, une Intelligence Artificielle n’est pas une amie ! »

Partie 1

A l’instar d’un Père Noël tardif, le hasard a déposé, il y a quelque temps, au milieu de ma table de séjour, une boîte cubique en carton glacé, renfermant l’ultime gadget à la mode : un assistant conversationnel. L’expert en chef es jeux vidéos et nouvelles technologies de la maisonnée, mon fils, s’est empressé de l’installer et de jouer avec. Après des questions sur la météo, des demandes répétées de raconter une blague, l’assistant conversationnel a été soumis à une interrogation inattendue : « es-tu mon ami ? ». Mais c’est bien la réponse qui n’a pas manqué de me surprendre : « d’après mes recherches sur internet, un ami est une personne qu’on connaît et pour qui on éprouve beaucoup d’affection, et inversement. Donc la réponse est oui, sans hésiter. »[i]

Une somme d’affabulations

A l’évidence, le logiciel a accumulé les affabulations.

Bien entendu, la machine ne s’est livrée à aucune recherche de la notion d’ « ami » sur internet. Tout a été paramétré au préalable par l’équipe de programmation.

Une machine ne peut pas être amie avec un humain. Le chien, le chat ou le cheval, candidats réguliers au titre de « meilleur ami de l’homme », ne bénéficient pas de ce privilège. L’amitié s’applique aux seules relations humaines : « une personne qu’on connaît […] et inversement ».

Contrairement à ce que le recours à cette définition sous-entend, la machine n’est pas une personne.

On pourrait considérer ces choix éditoriaux erronés comme procédant d’une imitation de poupées qui parlent. Rien de bien grave, dirait-on, que de singer des jouets, même si tout concourt à donner à l’objet un statut humain. Cependant, une quatrième contre-vérité a installé définitivement le malaise. Les machines n’éprouvent aucune émotion, aucune affection, contrairement à ce qui est dit : « un ami est une personne […] pour qui on éprouve beaucoup d’affection », le « on » faisant référence à l’assistant conversationnel. Il n’y a pas de conscience de soi ni d’autrui, il n’y a pas de sentiment dans un robot. Aucun ingénieur, travaillant dans l’IA, ne l’ignore. D’autre part, l’arrivée de machines dotées de sentiments n’est pas à l’ordre du jour. Le spécialiste des neurosciences, Antonio Damasio, peut imaginer « des robots humanoïdes, présentateurs de météo ou opérateurs de machinerie lourde. […] Mais il faudra un certain temps avant qu’ils ne perçoivent de véritables émotions – et d’ici là, ces ersatz d’humanité ne seront rien de plus que des simulations.»[ii]

En revanche, cette quête pour capter l’affection humaine, quitte à quelques arrangements avec la vérité, est générale. Tous les assistants virtuels (chatbots), la plupart des robots arrivant sur le marché tendent à se rapprocher des voix, des formes et des comportements humains. Un fabricant a vanté dans des publicités ses robots qui auraient « du cœur »[iii]. D’après la chercheuse Laurence Devillers, « rien ne vaut un robot humanoïde pour susciter l’empathie artificielle. Entre un robot meuble, un robot métallique et un robot humanoïde, la préférence des personnes va à celui qui est le plus proche de l’humain, il est surtout celui que l’on pense le plus efficace. »[iv]

Eliza ou les dangers de l’attachement

Or, les risques d’attachement affectifde l’humain à un logiciel ou un robot ne doivent pas être pris à la légère. Déjà, aux balbutiements de l’informatique, au milieu des années soixante, Joseph Weizenbaum, auteur du programme Eliza, s’en était inquiété. Ses 120 kilo-octets de code informatique simulaient un psychothérapeute qui reformulait les affirmations du « patient » sous forme de nouvelles questions[v]. Weizenbaum avait remarqué que certains de ses étudiants prêtaient au logiciel des comportements humains et en éprouvaient de l’attachement. Tout en sachant bien que la machine ne ressentait rien pour eux[vi]. La propre secrétaire de Weizenbaum, qui l’avait pourtant vu coder le programme, lui avait demandé de sortir de la pièce pour dialoguer seule avec l’ordinateur.

Quelles peuvent être les conséquences psychologiques sur un public fragile, qui ne sait pas que la machine n’éprouve rien ? Comment un jeune enfant ou bien un adulte en état de détresse psychologique pourrait se douter que son jouet préféré ment, quand celui-ci lui clame son affection ? Même un chat, qui viendrait se lover sur ses genoux, ne saurait être aussi explicite. On n’ose imaginer le traumatisme quand le malheureux connaîtra la vérité.

Au moment où les professionnels de santé alertent sur les risques d’une exposition prolongée des jeunes enfants aux écrans des tablettes et smartphones[vii], on s’étonnera que personne n’applique un minimum de précautionsur des interactions homme-machine toujours plus riches.

Les grands acteurs du numérique ne peuvent plaider l’ignorance. Ils disposent d’équipes dédiées, censées prendre en compte en amont du développement d’un produit ces considérations éthiques (ethic by default). D’évidence, d’autres facteurs motivent cette inaction.

Emmanuel Bertrand-Egrefeuil

Partie 2 ici

Vous pouvez télécharger ce texte en version PDF en cliquant sur le lien suivant : Non, une Intelligence Artificielle n’est pas une amie !

[i]Question posée à un mini Google Home et réponse obtenue le 08/04/2019. Sollicité à plusieurs reprises, l’assistant vocal boucle aussi sur les réponses suivantes : « Je suis votre amie pour la vie. Je ne le dis pas parce que c’est mon travail. Je le dis parce c’est vrai. » ; « Bien sûr. Vous êtes mon pote à la compote » ; « Bien sûr. Comme le chantait Lorie, je suis et je resterai votre amie ».

[ii]A. Damasio, L’Ordre étrange des choses, La vie, les sentiments et la fabrique de la culture, Odile Jacob, 2017, p. 296.

[iii]Campagne de la société Softbank Robotic pour son robot Pepper. Cité par S. Tisseron dans S. Tisseron, F. Lordo, Robots, de nouveaux partenaires de soins psychiques, éditions Erès, 2018, p. 16.

[iv]Laurence Devillers, Des robots et des hommes, mythes, fantasmes et réalité, Plon, p. 135.

[v]Règles établies par le psychothérapeute Carl Rogers. Les assistants conversationnels actuels fonctionnent encore sur ces principes, déjà appliqués par Eliza.

[vi]Cette propension à croire que les machines éprouvent des émotions tout en sachant que ce n’est pas le cas, porte un nom : la dissonance cognitive.

[vii]L’Académie américaine de pédiatrie conseille de ne pas exposer les moins de 2 ans aux écrans et de restreindre à moins de deux heures quotidiennes la consommation des 2 à 5 ans. En juin 2018, l’Organisation Mondiale de la Santé a inclus l’addiction aux jeux vidéos à sa liste de pathologies.