Les biais cognitifs et l’IA
Temps de lecture: 3 minutes
Depuis de très nombreuses années nous essayons de comprendre l’humain et son fonctionnement : psychologie, sociologie, psychologie sociale, neurosciences, sciences cognitives ou encore les neuro-disciplines comme la neuro-ergonomie, neuro-éducation, neuro-économie ou le neuro-marketing (ce dernier est interdit en France).
Dès la fin du 19ème siècle avec Wilhelm Wundt (qui, dès 1879, crée le premier laboratoire consacré à la psychologie expérimentale affirmant ainsi la psychologie comme un science à part entière) ou encore Gustave Lebon (et sa “psychologie des foules”, selon lui les foules peuvent être manipulées et ont ainsi une capacité destructrice) ou enfin en 1928 avec Edouard L. Bernays (et sa “fabrique du consentement” où à travers son ouvrage Propaganda, il fait la démonstration de comment manipuler des foules)… les travaux sur le sujet ne manquent pas !
Plus récemment, avec l’avènement du Big Data puis de l’IA (permettant de valoriser ces données), les directions marketing investissent de plus en plus dans cette compréhension du fonctionnement de notre cerveau.
A quelles fins ?
Cette meilleure compréhension vise principalement à mieux servir le client, afin de concrètement augmenter les ventes et la fidélisation.
L’objectif de cette série d’articles sur les biais cognitifs et l’IA n’est pas de dénoncer cette nouvelle pratique marketing (marketing comportemental) que nous ne pouvons pas empêcher mais de donner de la transparence auprès du plus grand nombre en la vulgarisant.
Nous sommes convaincus que le plus grand défi de l’IA réside dans l’accompagnement aux changements induits, ce qui passe par de la transparence et de l’information ! 🙂
Cet irrésistible plaisir
Pour conclure cette introduction, remontons en 1954, où les chercheurs Olds et Milner ont découvert par un (heureux?) hasard une zone particulière sur le cerveau d’un rat..
Ils ont découvert (voir le détail de l’expérimentation) qu’en stimulant une zone du cerveau, ils parvenaient à procurer une forme d’addiction (équivalent à du plaisir ? ou à une forme de démangeaison néfaste ?) auprès du rat.
En disposant en effet un système de levier permettant aux rats d’exciter tout seul cette zone du cerveau, l’expérimentation a montré toute la difficulté qu’ont eu les rats à arrêter d’actionner le levier.
Telle une très forte addiction, une ratte en est venue à délaisser ses petits jusqu’à leur mort et un autre rat est décédé car il avait arrêté de s’hydrater et de se reposer, focalisés tous 2 uniquement sur ce levier générateur de “plaisir” ou “soulagement”.
Nous connaissons tous dans notre quotidien ce genre de stimuli addictif (nous parlons là indirectement de la sécrétion de dopamine que nous développerons plus tard), les exemples ne manquent pas : notre téléphone portable, les jeux, les séries télévisées, flâner sur internet…
En agissant directement sur une zone du cerveau avec des électrodes, les 2 chercheurs ont ainsi réussi à littéralement manipuler le comportement des rats, une manipulation qui a même amené certains rats à la mort.
Existe-il d’autres moyens – sans passer par des électrodes branchés sur son cerveau – permettant de manipuler nos comportements ?
C’est ce que nous développerons dans notre prochain article !
Stéphane Mallet, Senior Webmaster et membre de la Commission IA de NXU Think Tank
Luc Truntzler, Spécialiste en robotique sociale et interface homme-machine et Président de la Commission IA de NXU Think Tank
On attend avec impatience la série d’articles. Merci
On peut se poser finalement deux questions, opposées et symétriques :
– comment lutter contre les biais cognitifs pou une IA dite éthique et digne de confiance ?
– comment se servir de l’IA pour cerner les biais cognitifs du cerveau humain ?
Merci pour vos encouragements.
Vous avez une série de vidéos proposée par Lê Nguyên (Dr en mathématiques appliquées) sur les IA dans laquelle, parmi beaucoup d’autres informations, il parle justement de la robustesse des IA, ou comment les rendre robustes (bienveillantes). On comprend très vite que cette question devrait être (ou est) un champ de recherche à part entière.
Outre les problèmes statistiques : 1 erreur sur 100.00, est-ce acceptable alors que l’IA traite des millions ou milliards d’opérations à la seconde ? Et si cette même IA fait des recommandations de vidéo ? Que va-t-elle proposer à quelqu’un de dépressif en cas d’erreur ?
Viennent aussi les questions d’éthique. Qu’est-ce qui est éthique ? Qu’est-ce qui est moralement acceptable et ne l’est plus ? Où est la frontière ? Comment la coder dans une IA. Peut-elle outrepasser son circuit de récompense ? Peut-elle se recoder elle-même ? Dans quelles limites ?
Ou encore le fameux exemple de l’IA qui doit prendre une décision : jeter votre voiture contre un arbre (avec vous) ou écraser le piéton ? Qui est responsable ? Est-ce moral ?
Et bien d’autres problèmes très intéressants.
Voici le lien au cas où, Lê fournit une montagne de sources si vous souhaitez aller plus loin.
https://cutt.ly/EjdyZeE
A bientôt