J’utilise le terme critique au sens étymologique du terme, à savoir jugement, discernement et analyse.

Après avoir lu cet ouvrage, il est difficile pour moi d’utiliser le sens commun du terme, c’est à dire « démarche négative de contestation » (Larousse).

Ce livre est un très beau résumé prospectif, offrant des pistes de réflexion intéressantes. On ne peut contester la très bonne connaissance de l’auteur pour son sujet !

A certains égards, je suis étonné qu’il soit plus traité d’Intelligence Artificielle que de biotechnologies vu ses compétences originelles. Je regrette presque qu’il ne se soit pas plus exprimé sur ce domaine.

De même qu’une comparaison entre cognition humaine et computationnelle plus approfondie m’aurait semblé intéressante.  Nonobstant, le sujet sera traité par NXU très prochainement…

En lisant le livre, certains passages ont attiré mon attention. J’ai donc rédigé les lignes qui vont suivre dans un but réflexif, pour apporter une interrogation, des remarques ou un complément.

1 –  Cognition :

Qu’est-ce que l’intelligence ? Dans quelle mesure peut-on utiliser ce terme pour l’artificiel ? Qu’y a-t-il de commun entre cognition humaine et computationnelle ?

Laurent Alexandre, évoquant les différentes étapes d’évolution de l’Intelligence Artificielle, précise que celle-ci est véritablement née avec le deep learning, cessant d’être une sorte d’abus de langage. Je reste assez mesuré sur le terme « intelligence » que l’on utilise de façon générique autant pour l’IA que pour l’homme ou un animal. Pourtant sa présentation de l’intelligence humaine est inapplicable à l’intelligence artificielle.

L’auteur nous dit : « la phase 3 de l’IA …. Contextuelle, capable de mémoire et de transversalité. Cette 3eme génaration d’IA qui émerge à peine ne serait disponible que vers 2030. » Nous en sommes donc assez loin. Mais comment peut-on évaluer cette échéance ?

Il pointe une différence cognitive notable entre humain et artificiel : « Il ne faut en effet au petit humain qu’un nombre limité d’associations image-nom pour faire le lien, alors qu’il en faut des millions à l’IA ».

Notre ami Thierry Berthier évoque le « gavage d’un système automatisé de collecte et d’analyse par des données fausses ou orientées constitue un immense danger. » Comme le réseau de neurones de Tay dérangeant pour ses interventions racistes (page 31). Nous avons là un grand classique de l’informatique : lorsqu’on renseigne des fichiers de données fausses (en entrée), on a des aberrations en sortie… Je ne peux m’empêcher de faire le parallèle avec l’humain. Éduquez et formez un petit humain avec des âneries et vous pouvez avoir n’importe quoi en sortie… voyez les extrémistes de tout bord !

Pour autant, ça ne valide pas l’adéquation cognitif humain versus cognitif computationnel… parce qu’avec l’humain ce n’est pas systématique…

A l’exact moment de la singularité cette différence se gommera-t-elle ? Juste avant que l’on soit dominés…

L’IA actuelle nous dépasse dans certains domaines. Ceux du traitement de gros volumes de données, d’algorithmes et calculs massifs pour ne citer qu’eux ; la rapidité d’analyse et la rigueur d’application des algorithmes et du traitement des données qui lui sont fournies ; traitement « à postériori » … or l’humain intuitif est plus rapide que l’IA pour appréhender son environnement « à priori » et réagir de façon adéquate …

Mais l’IA sera plus vite « éduquée » (là aussi, une bonne réflexion sémantique s’impose) alors qu’un humain mettra 20 à 25 ans…

Bref, il y a de réelles différences. Et ce, factuellement aujourd’hui. Peut-on utiliser les mêmes expressions pour comparer des choses qui au fond ne sont pas si facilement comparables ?

La singularité…  si tant est qu’elle advienne : Laurent Alexandre indique que l’avènement de l’IA forte n’est « heureusement » pas pour tout de suite. Je ressens une forme de doute. Ou une interrogation. Evidemment, Il faudrait évoquer les conditions technologiques le permettant. Aujourd’hui, on ne cite que la loi de Moore et l’augmentation des capacités de nos machines. Pas le changement de paradigme d’une technologie qui commence à dater.

Le problème au fond, c’est la conscience. Et la conscience d’avoir conscience. Mais aussi l’intuition évoquée plus haut. L’homme est doté de connaissance « à priori » (au sens Kantien du terme). Il a des facultés innées et partagées (sens commun). Comment faire naitre une IA avec des connaissances « à priori », sans l’avoir au préalable éduqué ?

Page 246, « Kurzweil prévoit que la machine dépassera l’intelligence humaine en 2029 et qu’en 2045 elle sera un milliard de fois plus puissante que les 8 milliards de cerveaux humains réunis » ; La courbe ne s’infléchira-t-elle pas ?

Je partage le point de vue selon lequel « l’IA sera probablement distribuée dans les ordinateurs du monde ». Il est certain que si elle avait conscience de sa capacité d’interconnexion, de l’enrichissement mutuel de toutes les IAs interconnectées dans le monde, les scénarios sont très difficiles à imaginer. Inquiétants, si l’on est négatif et fascinants dans le cas contraire.

Pourrons nous télécharger un cerveau dans une machine (page 267) ? Délire ? Ce scénario est souvent évoqué par les transhumanistes.  « Aux yeux des transhumanistes… devenir une intelligence purement virtuelle permettrait de voyager à la vitesse de la lumière, copier sa conscience en de multiples endroits … ». Le transhumanisme est-il une religion (Laurent Alexandre le confirme) ? Bien évidemment …. Puisque nous venons de lire la définition de l’âme version 21ème siècle… On pourrait presque déstabiliser la frontière entre immanence et transcendance… A partir de quand passe-t-on de la technoscience à la croyance ?

Du reste l’auteur ne souhaite pas une telle évolution : « Une vie éternelle serait au fond une vie d’ennui », « une vie sans fin serait une prison insupportable ». Je suis sceptique sur notre capacité à concrétiser une vie éternelle. Ce qui n’empêche pas un prolongement significatif et en bonne santé. Mais si les transhumains atteignent ce but, pourquoi faut-il accepter cette enveloppe charnelle, ce corps imparfait (le corps est-il au fond un objet mais pas forcément l’être ? … sujet abordé en commission philosophie de NXU), fragile, vieillissant, et contraignant.

La noosphère de Teilhard de Chardin évoquée page 277 est une fusion des consciences. Dieu est partout. Nous n’existons pas individuellement au-delà de la mort. J’aime beaucoup les religions… Pourquoi ne serions-nous plus une individualité après l’avoir été avant ? Mais bon… c’est un autre sujet…

Dans notre monde moderne il s’agit donc d’une connexion à la matrice. Qu’en sera-t-il quand chacun, dans la matrice, détectera les tendances de son voisin, y compris les moins avouables ? Si les hommes ne pensent qu’au sexe, ça promet beaucoup d’embarras…

Pour conclure ce paragraphe, je recommande les pages 295 et suivantes : « dessine-moi une IA », 15 scénarios pour l’avenir. Laurent Alexandre propose de lui envoyer de nouveaux scénarios par mail. On va y réfléchir, mais il a déjà bien fait le travail…

2 – Quelques mots sur l’impact tangible de l’Intelligence Artificielle :

L’IA nous permet de lire à livre ouvert sur notre passé (génome des premiers hominidés… évènements astrophysiques survenus un dix-milliardième de seconde après le big bang), page 35… vertigineuse IA !

Pour caractériser de façon quantifiée Laurent Alexandre rappelle les chiffres de la loi de Moore. « La puissance informatique a été multipliée par près de cent million de milliard en 80 ans… ». Rappelons-nous que cette accélération est exponentielle.

« En matière de sécurité, il est désormais évident que seul l’IA peut nous protéger des attaques ultras sophistiquées ». Je recommande Itrust, la société de l’un des VP de NXU ayant développé un outil d’analyse comportementale (Machine Learning) que cite notre ami Thierry Berthier dans ses conférences et Laurent Alexandre aussi tout récemment. Vu les interconnexions multiples, se développant de façon exponentielle, les attaques virales peuvent venir de n’importe où, remonter par capillarité, se déployer dans nos entreprises, dans nos objets connectés, nos nanos robots intervenant par exemple dans nos veines ! On a effectivement besoin d’outils performants pour se protéger. Les dictionnaires de virus ne suffisent plus. Il faut aussi changer nos habitudes, même au prix de quelques contraintes, et surtout utiliser des logiciels à base d’IA, capables d’apprendre, de réagir très vite, anticiper ou bloquer toute intrusion immédiatement détectée. La cybersécurité est un énorme enjeu d’avenir dont on ne se préoccupe pas assez et ou les entreprises renâclent à investir. C’est un peu comme l’assurance… On ne veut pas en payer le prix, mais on est bien content d’être couverts. Une cyber attaque peut couler une entreprise et demain tuer un homme en piratant sa voiture, des avions, un robot !

3 – QI

Schématiquement, le QI est la résultante de l’inné, de l’acquis et l’environnement de chacun (« le vécu », soit son lot de traumatismes positifs ou négatifs qui façonnent notre cerveau).  Pages 81 à 88 se trouvent des explications passionnantes sur le QI et ensuite sur le cerveau ; fabuleux système neuro biologique ! Nous n’en avons probablement compris qu’une petite partie, et sans doute n’imageons nous pas l’ampleur et la complexité des découvertes restant à faire.

L’amélioration du QI répondra à la pression sociale en faveur de l’égalité nous dit l’auteur.  « Il sera aussi jugé dangereux de maintenir des écarts de capacité cognitives ne serait-ce que parce que les moins doués pourraient être manipulés par l’IA ». « Les élites de 2050 craindront que les gens moins doués ne détruisent l’ordre social » … comme… « les bourgeois ont imposé la vaccination et l’hygiène car les microbes des pauvres les menaçaient » ….  L’intelligence est à l’origine de la pire des inégalités… Je relève ces phrases parce qu’on n’en parle pas ! Et que ça interpelle.

Le déterminisme génétique convoque, l’étroite relation entre désavantagés socialement et désavantagés génétiquement page 211. Qui s’est posé la question avant ?

Ceci devrait s’aggraver… particulièrement pour ceux qui n’accompagnent pas et n’utilisent pas les progrès technologiques actuels et futurs.

La démocratie aura du mal à fonctionner dans un tel contexte, avec de tels écarts, et laissera ainsi la place à des états virtuels extra-nationaux créés pour ceux y trouvant leur compte (transhumains, hommes augmentés, riches etc.) ! Ce sera donc la fin des états géographico-physiques qui ne gèreront plus que des infrastructures locales et ne disposeront même pas de moyens suffisants pour accompagner les laissés pour comptes de la modernité ou les marginalisés volontaires (se définissant souvent humanistes, mais sans doute conservateurs…) !

4 – Biotechnologies

Pour Laurent Alexandre, on peut repérer les marques génétiques liées à la couleur des yeux, mais il est plus difficile de le faire avec l’intelligence vu le nombre de facteurs. Idem pour la santé. Il ne s’agit donc pas « d’éteindre ou allumer les interrupteurs de ces marqueurs à sa guise » parce qu’ils sont complexes. J’aurais aimé qu’il s’attarde un peu plus sur la nature de la complexité ; ce sont des sujets évoqués dans les premières publications de NXU. Nous allons lancer une commission « biotechnologies » pour faire un état des lieux. Modifier le génome est d’une part très complexe, mais on en mesure difficilement les implications et répercussions. Le vivant interagit en permanence avec son environnement. Et cette interaction produit des phénomènes « complexes » (au sens scientifique du terme) dont je ressens une forte difficulté pour en assurer la maîtrise. Certains biologistes disent « qu’ils bricolent », d’autres « qu’ils font de la cuisine ». Ça en dit long sur le sujet. Peut-être est-ce la raison pour laquelle Laurent Alexandre s’attarde plus sur le C de cognitif que le B de biotechnologies.

5 – Ethique

L’auteur évoque les normes éthiques que l’on doit inculquer à l’IA (qui la voiture autonome doit-elle tuer ?). L’éthique suppose une définition à décliner philosophiquement, sémantiquement et juridiquement. NXU crée une commission pour ça ou seront évoqués les grands principes de l’éthique (Weber, Jaunas, etc.) avec la déclinaison d’une grammaire de catégories pour analyser les risques (plausible, probable, possible, certain, etc.). Le but étant de définir l’éthique de responsabilité à l’égard des générations futures. Il y a déjà plusieurs publications sur notre site à ce propos. Personnellement je n’adhère pas au principe de précaution tous azimuts (cette remarque n’engage que moi), mais une analyse de fond pour mieux comprendre ou décider objectivement. Réglementer… je n’aime pas ce mot… (ceci n’engage que moi là aussi) car souvent les réglementations « de l’émotion », dogmatiques ou clientélistes sont contre productives. Particulièrement en France, par faiblesse des politiques, on ne sait détricoter ce qui ne marche pas. Il serait tant de réhabiliter le mot « réglementation » pour qu’il soit enfin intelligent, porteur de sens, de responsabilité, vecteur de progrès, et non liberticide et punitif !

Page 293, « Ethicien des intelligences sera un des métiers les plus passionnants du futur ».  Je suis totalement d’accord. Laurent Alexandre considère plus que jamais d’actualité, la question posée en 1964 par Norbert Wiener « jusqu’où peut-on déléguer la décision aux robots ? ». Ceci peut-il s’articuler avec l’idée d’une IA forte prenant le pouvoir ?

6 – Education/ formation

Vous voulez du révolutionnaire, en voici. Les technologies vont nous conduire vers un changement radical de prise en charge de l’éduction et la formation. Laurent Alexandre nous propose une prospective passionnante. Comme pour les reste ceci va s’accélérer. Je redoute de fortes résistances…

« L’école reproduit et entérine les différences d’intelligences qui préexistaient » nous dit-il. Elle devait pourtant corriger ces différences…  Et : « l’environnement familial est la source essentielle des différences de performances » ; cette remarque ponctue une étude de Bourdieu et Passeron sur ce sujet. J’ai toujours dit ça à mes enfants !

Il faudra donc personnaliser non seulement la formation, mais l’éducation et apporter un accompagnement culturel.

Pour aller dans ce sens, l’auteur nous développe un long plaidoyer sur la formation personnalisée, l’utilisation des Mooc (les meilleurs au monde…),  une formation interactive, flexible, tout au long de la vie, avec  rigueur scientifique d’évaluation des méthodes pédagogiques (personnalisation de l’apprentissage en fonction des caractéristiques génétiques), IA, gestion de la complexité cérébrale, structure, modification de synapses, création de neurones, fonctionnement, formation des enseignants aux Neurosciences etc. C’est génial !

Dans cet esprit, page 176 la remarquable vision de Allsiter Heath : les enfants apprennent via les meilleurs tutoriels mondiaux et font leurs devoirs en classe avec des exercices en ligne et accompagnés par les profs (voir des profs superstars) …

Tout ce système s’appuie sur le processus cognitif, c’est-à-dire un écosystème complexe composé de généticiens, neurobiologistes, neuro-électroniciens, neuro-éthiciens, spécialistes de l’IA appliquée à l’éducation.

CQFD ! Nous disposons déjà de tous les outils permettant enfin de personnaliser la formation et faire en sorte que celle-ci accompagne toute une vie. A la décharge des systèmes éducatifs traditionnels, sans ces moyens, c’était quand même plus difficile avant, même s’ils étaient naturellement perfectibles.

Luc Marta de Andrade, Président de NXU Think Tank et U-Need Consulting.

Pour télécharger la version PDF de l’article, cliquez ici : Critique de la guerre des intelligence