Cognitif & IA

« Non, une Intelligence Artificielle n’est pas une amie ! » Partie 2

« Non, une Intelligence Artificielle n’est pas une amie ! »

L’exploitation commerciale de l’amitié

Voilà plusieurs années que la Silicon Valley utilise l’affection et l’amitié à des fins commerciales.

Facebook s’enrichit, depuis ses débuts, des liens unissant ses membres, qui se déclarent « amis ». Le réseau social lit les discussions, revend les photos échangées, profite des contacts des uns et des autres pour étendre son audience et celle de ses publicités, et délègue son animation à ses 2 milliards de membres[i]. L’anthropologue britannique Robin Dunbar a établi le premier que l’humain pouvait éprouver de l’empathie avec un maximum de 120 à 150 personnes, une limite physiologique due à la taille de son cerveau. Pour les comptes dépassant ce fameux nombre de Dunbar, il faudrait plutôt parler de connaissances. La superficialité de certains de ces « amis », aux abonnés absents quand on en a besoin, fait régulièrement l’objet de moqueries[ii]. Ils participent néanmoins au succès du réseau social.

Facebook a assis sa réussite sur son bouton « J’aime » (« like »)[iii]. Chaque individu recherche une reconnaissance sociale, nous apprend la psychologie. Cette quête se traduit désormais en chasse au plus grand nombre de « like » … auprès de ses amis.

L’autre facteur de succès de Facebook vient de l’information « en couple » que chaque membre peut afficher sur son compte. Son fondateur, Mark Zuckerberg, avait relevé, bien avant quiconque dans le monde du numérique, l’importance de présenter à ses proches sa nouvelle relation amoureuse[iv]. Désormais, vous êtes en droit de vous inquiéter sérieusement, si votre petite amie n’a toujours pas mis votre photo sur son mur Facebook, après plusieurs mois de relation, et persiste à y conserver celles de son ex et d’autres prétendants[v].

Depuis le début de la décennie, de multiples robots compagnons, anthropomorphes, au sourire avenant, ont envahi le marché[vi].Moyennant quelques centaines ou milliers d’euros, ils ont commencé à offrir généreusement leur « affection » et leur « amitié » d’esprits de silicium.

Auparavant, les entreprises promettaient d’aider ou d’accompagner leurs clients, d’être à leur service, de prendre soin d’eux, de les protéger. Aucune n’était allée jusqu’à proposer son affection, ou l’affection de ses salariés, encore moins celle de ses machines. L’association SOS amitié[vii], elle-même, n’offre pas l’amitié de ses courageux bénévoles ; elle se limite (et c’est déjà énorme) à « accueillir depuis plus de cinquante ans les appels de détresse de tous ceux qui ont besoin d’être entendus en France. » Quoi de plus inédit et de plus « disruptif », pour reprendre un terme à la mode, que de vendre de l’affection et de l’amitié ! Derrière la promesse d’une empathie des machines avec l’humain, se cache un énorme marché potentiel : celui des crèches, des centres de loisirs, des aides à domicile, ou des accompagnants des maisons de retraite. La bataille commerciale a déjà commencé.

Des alertes restées lettre morte

Depuis le programme Eliza, l’informatique a réalisé des avancées gigantesques. Le risque d’attachement à des machines toujours plus sophistiquées s’est accentué. Les alertes éthiques se sont faites plus précises.

Dans son rapport sur l’éthique de la recherche sur la robotique de novembre 2014[viii], la CERNA[ix]invite à la « prudence dans la communication sur les capacités émotionnelles des robots et sur l’imitation de la nature et du vivant, notamment parce que l’expression des émotions, au sens humain, par un robot, est un leurre, et parce que l’imitation du vivant peut amener, volontairement ou pas, à prêter à l’artefact des caractéristiques du vivant. »[x]

Dans le même ordre d’idées, la charte 2017 de l’Institut pour l’étude des relations homme-robots (IERHR) recommande d’ « écarter le risque de confusion entre l’homme et la machine ». Elle préconise l’interdiction des « publicités toxiques qui prétendent nous vendre des robots « ayant des émotions » »[xi]

Malgré leurs engagements éthiques de façade, les destinataires de ces recommandations y sont restés sourds, jusqu’à présent.

Mettre fin aux mensonges

En France, l’article L. 121-1 du Code de la consommation pose un principe général d’interdiction des pratiques commerciales déloyales et trompeuses ; la loi relative à la consommation dite loi Hamon du 17 mars 2014 poursuit l’objectif de meilleure information du consommateur. Dire ou sous-entendre qu’une machine éprouve des sentiments ou bien qu’elle est une personne, est un mensonge et tombe sous le coup de la loi.

Dans les années à venir, ces intelligences logicielles occuperont toujours plus notre espace domestique. Elles prendront en charge des tâches que nous leur aurons volontiers abandonnées. Le développement de la robotique dans la santé connaîtra de formidables progrès. Des expériences menées, avec des accompagnants, auprès de malades d’Alzheimer ou de personnes souffrant de Troubles du Spectre Autistique (TSA) ont montré les effets bénéfiques de la compagnie de robots, comme partenaires de soins psychiques[xii]. En médecine physique et réadaptative, les patients, gagneront en autonomie, au quotidien[xiii]. Dans le même temps, la recherche continuera sur l’interaction affective entre humains et robots ; les programmes seront toujours plus intelligents. Et d’autres questions éthiques se poseront.

Emmanuel Bertrand-Egrefeuil.

Vous pouvez retrouver ce texte en version PDF en cliquant sur le lien suivant : Non, une Intelligence Artificielle n’est pas une amie ! partie 2

NOTES

[i]Fin 2018, Facebook revendiquait 2,32 milliards d’utilisateurs actifs chaque mois. Source journaldunet.

[ii]Voir le sketch « Face de bouc » des Bodins.

[iii]https://siecledigital.fr/2016/08/11/comportements-attitudes-derriere-like-facebook/

[iv]Voir le biopic The Social Network, de David Fincher, sorti en 2010.

[v]https://www.marieclaire.fr/etes-vous-victime-de-stashing-dans-votre-couple,1227738.asp

[vi]Pepper,Built Robotics, Qoobo, Anthouse, Cosmo Anki, Hub Robot, Koova 2, THR3, Xian’er, Gitasont les patronymes de ces compagnons de silicium.

[vii]SOS Amitié est inspirée des Samaritansbritanniques, engagés dans la lutte contre le suicide, depuis les années 50. La première association S.O.S Amitié a vu le jour à Boulogne-Billancourt en 1960. Constituée en fédération, SOS Amitié regroupait en 2017 44 associations et 1600 bénévoles.

[viii]Rapport d’éthique de la recherche sur la robotique du Cerna accessible sur http://cerna-ethics-allistene.org

[ix]Cerna : Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene. Allistene : Alliance des sciences et technologies du numérique.

[x]Recommandation [IVI-6]. Ibid.p.38.

[xi]https://www.ierhr.org/charte-ethique/. Consulté le 21/03/2019.

[xii]Collectif d’auteurs dans S. Tisseron, F. Lordo, Robots, de nouveaux partenaires de soins psychiques, Rééducation fonctionnelle assistée par robot humanoïde, éditions Erès, 2018.

[xiii]Ibid.p. 157-165.

Une réflexion au sujet de « « Non, une Intelligence Artificielle n’est pas une amie ! » Partie 2 »

  1. Merci pour ce nouveau texte aussi précis que concis.
    Nous y voilà, on nous vend l’amitié qui est justement cette relation humaine qui ne se vend pas. L’échange marchand est devenu la mesure de l’échange non marchand. L’échange marchand se fait passer pour ne pas en être en marchandant l’échange non marchand.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *