Résumé. Quel est le statut éthique des principes éthiques pour une IA digne de confiance ?

Ethique humaine, IA et éthique artificielle

Les êtres humains ont toujours vécu selon des règles éthiques, ces règles ayant toujours constitué le signe de l’exception ou de la spécificité humaine : l’homme est un animal éthique. D’un autre côté, nous vivons déjà et nous vivrons toujours plus dans un environnement d’IA généralisée. Dès lors la question des rapports entre IA, éthique et humanité est inévitable. Il s’agit alors de savoir ce que l’IA fait à l’éthique et même si l’IA n’engage pas de changer de/la morale.

« Depuis cinq siècles, notre morale est fondée … sur ce postulat humaniste d’une singularité de l’espèce humaine. Nous devons désormais inventer une autre morale qui s’en affranchit » (Gilles Dowek, in Intelligence artificielle, Champs, 2018, p. 246).

La question éthique se formule traditionnellement de deux manières : comment vivre pour être heureux ? que dois-je faire pour être vertueux ? La première formulation relève plutôt de l’éthique (bien = bonheur = vertu), la seconde plutôt de la morale (bien = vertu = devoir). Mais éthique et morale ont la même racine et sont utilisées aujourd’hui indifféremment l’une pour l’autre dans la philosophie contemporaine.

Si l’on transpose et on applique à l’IA la question éthique dans sa double formulation ou composante, il s’agit de savoir comment bien vivre avec l’IA? Que devons-nous faire ou avec quelle IA voulons-nous vivre ? Il est de notre responsabilité de déterminer le monde de l’IA dans lequel nous aspirons à vivre.

Plus précisément la réflexion éthique sur l’IA s’articule autour de trois problèmes.

1/L’IA intime désormais de définir des règles éthiques pour des SIA[1]  : soit le problème de la programmation éthique des IA (SIA) ;

2/ L’IA oblige à un encadrement éthique parce que son développement et son usage peuvent massivement contrevenir aux valeurs fondatrices des sociétés modernes : soit le problème de la préservation l’humain au cœur de l’IA, ou d’une IA digne de confiance, éthique, responsable, inclusive, etc.[2] ;

3/L’IA pose la question de la reconnaissance potentielle du statut éthique à une SIA : soit le problème de la considérabilité morale des IA et/ou SIA (APAM[3]).

Ces trois problèmes soulignent un fait majeur : peut-être pour la première fois de son histoire, l’humanité tente de définir éthiquement les conditions de son progrès technologique. Toute la question est de savoir si cet encadrement est simplement un accompagnement décoratif ou une orientation normative effective et donc ce que “éthique” peut signifier, précisément, en l’occurrence. L’humanité contemporaine se trouve en même temps deux fois dans cette situation tout à fait inédite : par la révolution IA et par l’évolution climatique de l’anthropocène — c’est pourquoi, les enjeux de l’éthique de l’IA et de l’éthique environnementales ne devraient pas pouvoir être séparés.

Autrement dit, le monde contemporain est plus éthique à tous égards. L’actualité de l’éthique n’est pas seulement un effet de mode, mais une nécessité historique. Ce besoin d’éthique s’explique par l’extension de la responsabilité induite par le progrès techno-scientifique. En effet, jusqu’à une période récente, le cercle de l’éthique était relativement étroit. Schématiquement il concernait :

(a) le rapport de l’homme à l’autre homme — étaient exclus de l’éthique, la nature, l’animal, la machine — ce n’est plus le cas ;

(b) une temporalité resserrée autour du présent de l’action et de la responsabilité engagée par l’action passée (responsabilité de) : étaient exclus de l’éthique, l’avenir des générations futures (responsabilité pour) et les effets imprévisibles de la puissance humaine sur la nature (cf. H. Jonas, Le principe responsabilité) — ce n’est plus le cas ;

(c) les limites de la finitude humaine : étaient exclus de l’éthique tout ce qui touche aux fins de l’existence, la naissance et la mort. C’est pourquoi à défaut d’un pouvoir sur la vie, la sagesse se concentrait sur la maîtrise de la crainte de la mort — ce n’est plus le cas, et certains rêvent et promettent de vaincre technologiquement la finitude (mort à la mort).

 Or ce que l’humanité était contrainte de subir, elle est en passe de pouvoir le maîtriser : ce qui était donné, elle peut le faire. From chance to choice. Mais l’impossible en devenant possible, la finitude humaine en étant prise en charge techno-scientifiquement, la normativité éthique doit être repensée. Aussi le progrès technoscientifique, celui de l’IA en pointe, conduit à un renversement de perspective : l’éthique ne consiste plus à assumer la finitude indépassable (désirer ce qui ne dépend que de soi, imiter l’ordre de la nature, etc. comme dans l’éthique antique) mais pour ainsi dire à la protéger. L’éthique se présente désormais comme la préservation, voire le refuge de l’humain face à l’IA. La finitude a longtemps passé (métaphysiquement) pour l’essence de l’humanité (homme = être raisonnable mais fini) et la faillibilité pour l’essence de la finitude (être fini donc faillible). Or tout se passe comme si, aujourd’hui, on chargeait l’éthique de préserver l’humain, c’est-à-dire la finitude, c’est-à-dire la faillibilité, dans et contre le monde technoscientifique de l’IA qui rêve peut-être du contraire — l’IA touche par un bord à l’utopie trans-humaniste. Aussi l’exigence éthique de l’IA est-elle, le plus souvent, abordée sous l’angle de la crainte, de la menace d’une dépossession et d’une domination de l’humanité des hommes par les machines intelligentes.

Pourtant cette approche éthique de l’IA sub specie calamitatis n’est peut-être pas la meilleure ou la seule possible. D’une part, l’humain n’est pas  (réductible à) l’éthique. D’autre part, la technologie fait partie intégrante de l’humanité. Mais évidemment, l’IA n’est pas n’importe quelle technologie, la révolution de l’IA n’est pas une révolution comme une autre, puisqu’elle médiatise tous les rapports humains, sociaux et collectifs, en délégant à des machines ”l’intelligence“ qui avait toujours passé pour la prérogative de l’humanité. C’est pourquoi il peut être utile d’essayer de préciser les rapports entre éthique et IA autour de l’humain.

Selon nous, ces rapports suivent deux logiques, en droit, distinctes. D’un côté, on tente dans l’urgence de poser des normes éthiques à la conception, au développement et à l’usage des SIA, afin de préserver les valeurs humaines. Autrement dit, on tente de soumettre l’IA à l’éthique humaine (qu’on pourrait appeler en quelque sorte “éthique naturelle” par analogie avec l’intelligence naturelle). De l’autre, on tente de programmer des règles éthiques à des SIAautonomes ou à des APAM[4]. Autrement dit, on tente de produire une “éthique artificielle“ (AI ethics). L’éthique artificielle intègre bien les normes de l’éthique humaine (naturelle), et il est encore loin (ou impossible) le temps où une IA pourrait se représenter ou “conscientiser” de manière autonome les normes de son action (IA forte). Mais l’éthique artificielle ne peut manquer de changer l’éthique humaine, ne serait-ce qu’en posant le problème de la considérabilité morale des APAM. Il se pourrait alors que le rapport éthique/IA ne soit pas seulement d’application et de subordination (encadrer éthiquement l’IA) mais que, la dynamique historique étant portée par l’IA, l’éthique artificielle conduise à un renouvellement, voire à une refondation de l’éthique : l’IA non pas objet mais sujet d’éthique ?

Dans le présent article, on ne traitera que le deuxième problème éthique posé par l’IA qu’on peut nommer l’ “éthicisation”[5] du développement de l’IA.

Ethiciser le développement de lIA : pour une éthique de la responsabilité de l’IA

Le problème de la préservation des valeurs éthiques humaines face au développement exponentiel et non réglementé de l’IA retient l’attention aujourd’hui de tous les acteurs concernés par cette révolution technologique. On souligne l’impératif de défendre les valeurs éthiques fondamentales attachées à la vie humaine. Une IA n’est éthiquement “acceptable” que si :

  1. sont protégées les données personnelles parce que l’éthique commence par le respect de la liberté individuelle ;
  2. sont évitées les discriminations parce que l’éthique repose sur le principe de la dignité et de l’égalité des personnes ;
  3. est préservé le pluralisme individuel et culturel : parce que l’éthique reconnaît à chacun le droit à la différence et à libre détermination de sa vie
  4. est défendu le bien commun ou l’intérêt général des sociétés et de l’humanité entière parce que l’éthique doit être universelle dans sa visée et profiter à tous.

Donc un monde humain, c’est un monde éthique ; et un monde éthique garantit la liberté individuelle, l’égalité et la dignité des personnes, le pluralisme, l’intérêt général.

Plusieurs textes ou chartes ont été récemment publiés qui s’attachent à définir les conditions éthiques de l’IA :« La déclaration de Montréal pour un développement responsable de l’intelligence artificielle » en 2018, les « lignes directrices en matière d’éthique directeurs pour une IA digne de confiance » par l’UE en 2019. L’UNESCO, en s’appuyant sur deux de ses organes consultatifs d’experts, la Commission mondiale d’éthique des connaissances scientifiques et des technologies (COMEST) et le Comité international de bioéthique (CIB) veille au même projet, défini par Audrey Azoulay, sa directrice générale, en ces termes :

« Il est de notre responsabilité de mener un débat universel et éclairé, afin d’entrer dans cette nouvelle ère les yeux grands ouverts, sans sacrifier les valeurs qui sont les nôtres, et permettre d’aboutir à un socle commun de principes éthiques ».

Le nombre des principes éthiques retenus varient : 10 pour la déclaration de Montréal, 4 pour celle de l’UE. L’UE vise principalement et plus largement une « IA digne de confiance » — dont l’éthique est une des trois caractéristiques. Une IA digne de confiance est, en effet, définie comme “devant être” :

  • licite, en assurant le respect des législations et réglementations applicables ;
  • éthique, en assurant l’adhésion à des principes et valeurs éthiques ;
  • robuste, tant sur le plan technique que social « car même avec de bonnes intentions, les systèmes IA peuvent causer des préjudices involontaires ».

Et la finalité d’une IA digne de confiance est de servir l’humain :

« Les systèmes d’IA doivent être centrés sur l’humain, en s’appuyant sur l’engagement de mettre leur utilisation au service de l’humanité et du bien commun, avec pour objectif d’améliorer le bien-être et la liberté des êtres humains »

— et l’éthique est le moyen ou « un pilier essentiel pour garantir et développer une IA digne de confiance ».

Les principes éthiques (d’uneIA digne de confiance au service de l’humain) retenus sont les suivants :

  1. le principe du respect de l’autonomie humaine : les êtres humains « doivent conserver leur autodétermination totale et effective et de prendre part au processus démocratique ». Donc lesIA « ne devraient pas subordonner, contraindre, tromper, manipuler, conditionner ni régenter des êtres humains ».
  2. le principe de la prévention contre toute atteinte : les systèmes d’IA ne doivent pas nuire aux être humain, ce qui englobe « la protection de la dignité humaine ainsi que de l’intégrité mentale et physique ».
  3. le principe de l’équité qui implique de veiller à « une répartition égale et juste des bénéfices et de coûts » et à ce que certains individus ou certains groupes « ne fassent pas l’objet de biais injustes, de discrimination et de stigmatisation ».
  4. le principe de l’explicabilité : les processus doivent aussi transparents que possibles et pouvoir être expliqués aux personnes concernées, ce qui oblige à « une attention particulière » des « algorithmes à effet “boîte noire” » (!)

Enfin, pour parvenir à une IA digne de confiance, la commission propose une « liste de sept exigences qui devraient être respectées, s’appuyant sur les principes », applicables à toutes les parties prenantes dans le cycle de vie de lIA(développeur, prestataires, utilisateurs, la société au sens large) :

  • action humaine et contrôle humain
  • robustesse technique et sécurité
  • respect de la vie privée et gouvernance des données
  • transparence
  • diversité, non discrimination et équité
  • bien-être sociétal et environnemental
  • responsabilité

La déclaration de Montréal est plus sobre dans son préambule et sa présentation mais retient une liste plus étendue de dix principes (qui intègre, en fait, plusieurs « exigences » du texte de l’UE) :

1. principe de bien-être : il est précisé que les systèmes IA (SIA) « doivent permettre d’accroître le bien-être de tous les êtres sensibles »

2. principe de respect de l’autonomie : les SIA doivent être utilisés et développés dans le but de respecter et « d’accroître le contrôle des individus sur leur vie et leur environnement »

3. principe de protection de l’intimité et de la vie privée contre l’intrusion, l’acquisition, l’usage par des SIA de données personnelles

4. principe de solidarité : les SIA doivent maintenir des « liens de solidarité entre les personnes et les générations »

5. principe de participation démocratique : les SIA « doivent pouvoir être soumis à un débat et un contrôle démocratique »

6. principe d’équité : les « SIA doivent contribuer à la réalisation d’une société juste et équitable »

7. principe d’inclusion de la diversité « sociale et culturelle » : les SIA « ne doivent pas restreindre l’éventail des choix de vie et des expériences personnelles »

8. principe de prudence : « toutes les personnes impliquées dans le développement des SIA doivent faire preuve de prudence » en anticipant autant que possible les conséquences néfastes de leur usage et en employant les moyens pour les éviter

9. principe de responsabilité : les SIA « ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise »

10. principe du développement soutenable : le développement et l’utilisation des SIA doivent « assurer une soutenabilité écologique forte de la planète ».

Ces recommandations sont évidemment précieuses et louables, avec des différences notables — la déclaration de Montréal est peut-être plus écologique et inclusive, concernant « tous les êtres sensibles ». Néanmoins, aucune n’est contraignante — en quoi elles sont effectivement “éthiques”. L’usage systématique du verbe modal (doit/doivent), conjugué parfois au conditionnel (« devraient ») en est la preuve. L’encadrement éthique de l’IA est parfois confié à la volonté subjective (comme dans le principe 8. sur la prudence, dans la déclaration canadienne). Autrement dit, une IA éthique, responsable, digne de confiance serait une IA conçue, développée, utilisée par des individus éthiques, responsables et dignes de confiance — ce que le principe 8. prudence illustre à lui seul. Aporie bien connue qui est celle de l’éducation (Kant) : seule une humanité éthique pourrait concevoir, développer, utiliser une IA éthique — à moins que l’IA ne puisse aider à l’éducation éthique des individus et des groupes, par exemple en mettant à jour les préjugés “immoraux”qui biaisent les algorithmes…

Mais la simple possibilité ou l’obligation individuelle et/ou indéterminée (comme la compatibilité avec une « soutenabilité écologique forte », dans le principe 10. de la déclaration canadienne) des principes éthiques risquent de peser peu face à l’ordre de la nécessité technique et des intérêts économiques des entreprises et même des Etats. Car la régulation éthique est souvent vue comme un frein à la compétitivité dans le contexte de la concurrence du marché mondial. Michael Kratios (conseiller technologique du président américain) exprimait clairement à l’OCDE le risque que la réglementation fait peser sur l’innovation, surtout face à des Etats moins soucieux d’éthique :

« Nous sommes convaincus que se précipiter pour imposer des règles couteuses et multiples, ce serait céder notre avantage compétitif à des gouvernements qui ne partagent pas nos valeurs ».  

Cette position n’est pas exclusivement américaine. Tous les Etats, alors mêmes qu’ils souscrivent aux principes éthiques d’une IA digne de confiance, entendent faciliter l’essor d’entreprises nationales — et la France ne fait pas exception[6].

Ainsi, l’éthique de l’IA intervient dans un monde globalisé par l’économie mais divisé par les systèmes éthiques — ce que les résultats de Moral Machine révèlent d’une certaine façon, su sujet des règles éthiques des véhicules autonomes. L’Europe, les Etats-Unis ont-ils intérêt à s’imposer des règles éthiques dans le développement industriel des SIA, face à la Chine qui n’a pas les mêmes scrupules ou les mêmes valeurs éthiques ? Le progrès éthique de l’IA peut-il se faire au détriment de la compétitivité ? Le gagnant en éthique ne serait-il pas fatalement le perdant en économie ?

Finalement, l’éthique (sans impératif, ce qui la distingue de la“morale”) de l’IA se heurte au seul “impératif” véritablement inconditionnel, qui n’est pas éthique mais économique. L’IA est le nouveau graal : par exemple, on peut même dire que la commercialisation des données engendrées par le flux des vies individuelles est un nouvel infini économique[7]. Le nombre d’investissement dans l’IA augmente chaque année de 31% depuis 2011. Or que finance-t-on ? La recherche sur la voiture autonome (23%) mais aussi bien les systèmes de reconnaissance faciale. Le principe de protection de l’intimité peut-il proscrire la recherche sur les SIA de reconnaissance faciale ? Le « principe d’autonomie » peut-il interdire la recherche et la production de SALA (système d’arme létale autonome) ? Récemment, le conseil d’administration d’Amazon a refusé d’interdire la vente à la police américaine le service de reconnaissance faciale au motif qu’

« une technologie nouvelle ne devait pas être interdite ou condamnée à cause de mauvais usages potentiels ».

Dans ces conditions, on peut craindre que la recommandation éthique ne soit que le supplément d’âme de l’économie — même si rien n’est écrit d’avance et si les efforts de l’Europe, du Canada, de l’Unesco sont réels et évidemment bénéfiques et visent à s’opposer à cette tendance.

L’éthique de lIA, une éthique équivoque

Aussi le discours sur l’éthique de l’IA est-il largement ambigu. L’équivocité y même constitutive.

Quel est le statut du discours éthique à propos de l’IA ? Certainement pas radical ou premier. Par exemple, aucune instance qui promeut l’éthique de l’IA ne suggère que, compte-tenus de certains risques éthiques majeurs potentiels liés aux disruptions multiples, il serait sage et prudent que l’humanité renonce collectivement à développer l’IA ou du moins certaines SIA. Il est manifeste que le pessimisme moral (soit la thèse selon laquelle le progrès technologique induit une régression éthique) est devenu inaudible. Même la morale comme système normatif où la loi est prescriptive ou l’interdit inconditionnel, semble avoir disparu du monde. L’éthique de l’IA épouse parfaitement la déontologie manageriale (il faut être positif) et l’idéologie néo-libérale (il faut s’adapter[8]). Sous ce point de vue, l’éthique de l’IA signe la défaite définitive de la morale (comme discours susceptible de normer ou d’interdire absolument l’action) ou constitue la démonstration définitive que la morale n’aura été qu’une illusion qui appartient au passé de la raison pratique. Au commencement de l’éthique, il y a la reconnaissance pleinement assumée d’un ordre de nécessité : d’une part  que l’IA est un fait socio-techno-historique irréductible (There is no alternative) ; d’autre part que le développement de l’IA est souhaitable comme un bien.

Aussi le discours éthique sur l’IA est-il constamment ambivalent. D’un côté, il reprend le lieu commun “humaniste” selon lequel une (toute) technologie est axiologiquement neutre. L’IA n’est ni bonne ni mauvaise en soi : tout dépend de l’usage et de la fin qu’on lui assigne. Donc l’IA n’est pas un bien mais peut être un bien ou un mal et, étant donné sa puissance, un bien considérable ou un mal immense.

Mais de l’autre, le développement de l’IA est désirable et désiré comme un bien, en dépit des risques potentiels et des effets déjà réels. Ce qui est un bien, ce n’est pas l’IA en tant que telle, mais la potentialité des bénéfices possibles pour le bien-être individuel et collectif qu’elle ouvre —  ce qui ramène finalement à la fable des abeilles de Mandeville (1714)  : les vices de l’IA aujourd’hui feront les vertus publiques de demain[9] :

« L’intelligence artificielle constitue un progrès scientifique et technologique majeur qui peut engendrer des bénéfices sociaux considérables en améliorant les conditions de vie, la santé et la justice, en créant de la richesse, en renforçant la sécurité publique ou en maîtrisant l’impact des activités humaines sur l’environnement et le climat » (Déclaration de Montréal).

Le progrès de l’IA, en étant la condition d’une amélioration “sociétale” globale, est un bien. Sans doute le progrès de l’IA n’est pas éthique par lui-même, et c’est justement la raison pour laquelle il ne peut être abandonné au jeu du marché et de la compétitivité. L’éthique doit normer l’IA. Mais, malgé tout le progrès technologique de l’IA est porteur d’un bien immense. Du moins il “doit” ou “devrait” l’être … en suivant les principes éthiques des déclarations.

Ainsi, l’éthique de l’IA se joue ici à trois niveaux, hésitant constamment entre l’exigence normative et la visée du bien-être :

1. niveau moral “déontologique ” : “il faut ”encadrer l’IA par des principes ;

2. niveau proprement éthique : l’IA est désirable comme un bien ou pour le bien-être de l’humanité

3. niveau éthique pragmatique : les principes éthiques ne sont pas strictement impératifs : le progrès doit, devrait, pourrait être un bien pour l’humanité s’il suivait des règles éthiques.

Ensuite, à l’examen critique, l’éthique de l’IA ne présente guère d’unité. Là encore, l’éthique de l’IA prouve incontestablement que l’éthique a changé d’époque. L’éthique normative est révolue : place à l’éthique appliquée et au pluralisme éthique (« principalisme »), effectif en bioéthique et dans les sociétés démocratiques multiculturelles.

Ainsi l’éthique de l’IA admet une pluralité de principes sans chercher à les déduire, à les ordonner ou à les prioriser. Ces principes ne sont pas vraiment universels, comme le reconnaît d’ailleurs la déclaration canadienne, mais correspondent aux « intuitions de bases » (J. Rawls) d’une société juste, libérale et démocratique, moderne.

On insiste sur la nécessité d’une interprétation souple et « cohérente », sans que la règle de la cohérence soit elle-même formulée : l’idée même de hiérarchie est abandonnée ­­— ce qui, pour le coup, est anti-rawlsien. Les principes sont aussi assez vagues pour épouser les évolutions technologiques futures, être traduits politiquement et juridiquement. Malgré leur caractère ”occidentalo-centriste“, ils peuvent servir de base à une discussion internationale. Donc ce sont des principes pratiques appliqués ou applicables, comme le précise la déclaration de Montréal :

« Bien qu’ils soient présentés sous forme de liste, ils ne sont pas hiérarchisés. Le dernier principe n’est pas moins important que le premier. Mais il est possible, selon les circonstances, d’attribuer plus de poids à un principe qu’à un autre, ou de considérer qu’un principe est plus pertinent qu’un autre.

Bien qu’ils soient divers, ils doivent faire l’objet d’une interprétation cohérente afin d’éviter tout conflit qui empêche leur application. D’une manière générale, les limites de l’application d’un principe sont tracées par le domaine d’application d’un autre principe.

Bien qu’ils reflètent la culture morale et politique de la société dans laquelle ils ont été élaborés, ils constituent une base pour un dialogue interculturel et international.

Bien qu’ils puissent être interprétés de diverses manières, ils ne peuvent pas être interprétés de n’importe quelle manière. Il est impératif que l’interprétation soit cohérente.

Bien que ce soit des principes éthiques, ils peuvent être traduits en langage politique et interprétés de manière juridique. »

Finalement, l’éthique de l’IA se présente comme un double discours, qui risque d’illustrer ce qu’on appelle désormaisl’ethical washing. Les entreprises aiment les valeurs qui le leur rendent bien. Le “test d’éthique” (comme on parle du test de Turing) de l’éthique de l’IA pourrait-être celui-ci : La norme éthique est ou peut être rentable. Mais si elle ne l’était pas ou plus, si donc elle était un frein ou un obstacle au développement de l’IA, faudrait-il la rendre obligatoire ? Le principe éthique peut-il résister à la tentation de faire tout ce qu’on est capable de faire techniquement (loi de Gabor) et contre les profits induits ou prévisibles par la recherche et l’innovation qui définissent désormais le projet de la science (techno-science) ?

Le texte sur les « Lignes directrices en matière d’éthique pour une IA digne de confiance » est aussi assez confus sur la fin réellement poursuivie par la commission. L’éthique n’est pas la fin, mais un moyen d’une « IA digne de confiance » dont la fin ultime est l’humain. Si on lit bien, il faut comprendre : l’éthique est en vue de l’IA digne de confiance qui est en vue de l’humain. L’éthique y a un statut subordonné. Mais puisque l’humain est la fin de l’IA digne de confiance, et que faute de définition, il semble identifiable aux principes et aux exigences éthiques, on peut tout aussi bien conclure que la fin d’une IA digne de confiance est éthique.

L’équivoque porte enfin sur la notion d’ « IA digne de confiance », présentée comme l’ « ambition fondatrice ». Il s’agit de permettre aux sociétés d’avoir « confiance dans le développement économique de la technologie » et de ses applications, l’éthique étant précisément le cadre pour rendre l’IA digne de confiance. La référence à l’éthique joue donc manifestement un double jeu : normer le développement de l’IA mais aussi adapter la transition vers une société de l’IA, en amortissant ses effets disruptifs sans rompre la confiance qui est le socle des sociétés et d’un développement durable. C’est ce qui explique le thème omni-récurrent de l’ “adaptabilité” dans toute la littérature sur l’éthique de l’IA. L’adaptabilité — notion qui n’a rien en soi d’éthique, mais qui est couplée avec la notion d’acceptabilité qui relève de l’éthique appliquée — est la norme implicite d’une IA éthique et responsable. Ou encore une IA digne de confiance est un impératif autant économique qu’éthique, sans jamais que les deux aspects soient précisément distingués et articulés.

Ainsi la vision de la Commission repose explicitement sur « trois piliers », d’où, d’ailleurs, la référence explicite à l’éthique disparaît au profit du droit :

« La vision de la commission repose sur trois piliers : i) accroître les investissements publics et privés dans l’IA afin d’intensifier le recours à l’IA, ii) se préparer aux changements socioéconomiques, et iii) garantir un cadre juridique approprié afin de renforcer les valeurs européennes »

L’ordre de priorité semble assez clair : avant tout investir dans l’IA pour intensifier l’IA (logique économique), et seulement ensuite anticiper, adapter la société aux changements de l’IA (logique sociale), et définir un cadre de règles (éthico-juridiques) pour renforcer « les valeurs européennes ». Est-ce donc pour construire une société plus éthique qu’il faut investir dans l’IA ? Inversement, est-ce pour le progrès de l’humanité qu’il faut introduire l’éthique dans le développement de l’IA ou pour renforcer l’acceptabilité et l’adhésion sociales de l’IA?

On comprend qu’on puisse s’interroger sur les principes éthiques d’une IA digne de confiance, à l’instar du philosophe Thomas Metzinger, membre du groupe d’experts de la Commission européenne, qui a travaillé sur les « lignes directrices pour une intelligence artificielle éthique » (sur tagesspiegel.de).

L’IA peut-elle être digne de confiance ? N’est-ce pas un non-sens conceptuel, parce que (a) aucune technique n’est absolument fiable — ou alors on fait preuve d’un surprenant optimisme technologique ; (b) la dignité ou l’indignité de confiance est spécifiquement humaine ; (c) une IA peut être efficace et robuste, mais utilisée par un pouvoir malveillant, donc contraire à l’éthique. (d) En termes kantiens, on dira, comme on l’a suggéré déjà, que le concept d’une IA digne de confiance relève de l’impératif pragmatique plutôt que ou, du moins, autant que de l’impératif moral. Les entreprises ont besoin de stabilité, donc d’une IA digne de confiance, pour prévoir et développer les performances technologiques futures les plus prometteuses. Si tu veux la croissance économique, alors tu dois vouloir une IA innovante et performante, alors tu dois vouloir une IA digne de confiance, alors tu dois vouloir un encadrement éthique du développement de l’IA.

Ainsi, le discours sur l’IA digne de confiance ne relève pas ou pas exclusivement de l’éthique, mais accompagne le développement industriel d’une stratégie d’investissement à grande échelle. Il sert deux maîtres à la fois, et peut-être pas à égalité.

Ensuite, les directives sont assez tièdes, court-termistes, délibérément vagues, sans caractère obligatoire. Tout ce qui pouvait être limitatif a été supprimé de la rédaction finale par des représentants puissants de l’industrie comme « lignes rouges », « principes non négociables » au nom d’une vision positive. Il en conclut que l’industrie organise le débat éthique pour retarder une réglementation contraignante. Un risque de fake ethics produit par des philosophes industriels, des labels ou des comités financés par les industries du numérique (Facebook pour TU Munich par exemple) n’est pas improbable.

L’Europe porte certainement la responsabilité historique d’une véritable éthique de l’IA, face à la Chine (qui se présente comme un « totalitarisme numérique 2.0 » et aux Etats-Unis (discrédités par l’administration actuelle). Mais la condition selon Metzinger, serait qu’à présent, la société civile reprenne la main sur l’éthique dont l’industrie a auto-organisé le débat. Les principes éthiques qu’elle promeut sont une plus-value socio-économique dans la compétition mondiale de l’IA.

 

Une IA éthique au-delà la plus-value de l’éthique de l’IA ?

Cette analyse “critique” de l’éthique de l’IA, sur l’un des trois problèmes éthiques que pose l’IA, n’a ni la prétention ni l’ambition de condamner le travail consultatif, multi-sectoriel, pluridisciplinaire en plein essor. Le monde de l’IA sera peut-être plus éthique que le monde technologique d’aujourd’hui, et grâce à l’Europe.  Aussi un progrès éthique par la réflexion sur une IA (plus) éthique n’est-il pas exclu — à l’instar de Moral Machine et l’AI ethics qui peuvent servir à tester les intuitions éthiques.

Il s’agit seulement de dégager certains “biais” et certaines limites de la réflexion éthique sur l’IA. Ainsi d’un certain esprit pro-technologique, libéral de l’IA qui en évalue les effets éthiques en négligeant sa “matière sombre”, si l’on peut dire, comme les « esclaves du clic »[10] qui rendent possible l’apprentissage machine et qui sont en l’angle mort de l’éthique sur l’IA. On surestime peut-être trop de risques indirects en sousestimant les risques directs :

« le battage médiatique autour d’une possible super-intelligence malveillante en cours de développement pourrait détourner l’attention de la nécessité de réfléchir à la manière dont l’IA affecte déjà notre vie quotidienne »[11].

L’approche éthique de l’IA ne peut rester centrée sur l’individu et sur la psychologie morale. Il faut y intégrer aussi l’examen des forces du capitalisme numérique à l’œuvre dans l’IA. Et on ne peut ignorer une tendance au techno-optimisme du capitalisme numérique ou même du techno-libéralisme de l’IA. On croit trop naïvement peut-être que l’IA aura une incidence bénéfique sur le bien-être de l’humanité, notamment accélérant les tâches, en améliorant la coordination entre les individus et les institutions, en libérant du temps libre pour la réalisation d’objectifs épanouissants, tout en préservant un niveau de vie élevé sans l’accomplissement d’un travail pénible et non désiré. On retrouve le même argument du vieil Aristote dans les Politiques : le jour où les navettes pourront tisser toutes seules, il ne sera plus besoin d’esclaves. Mais, au moins dans la phase actuelle, l’accélération des moyens techniques de communication n’entraîne pas mécaniquement la suppression du travail non désiré, l’augmentation du temps libre, mais bien plutôt une accélération du changement social, une pénurie du temps, une anxiété accrue dans le monde du travail, etc. — ce que naguère on nommait “aliénation”. L’IA donc ne supprime pas les esclaves mais en crée de nouveaux et engendre, pour l’heure, une prolétarisation du travail. Donc il faut savoir aussi s’affranchir d’une certaine théorie libérale de la justice, même matinée d’inclusion et de souci environnemental, et introduire les concepts de capitalisme et de gouvernementalité numérique (vs la gouvernance éthique), d’externalisation des fonctions cognitives, d’exploitation des travailleurs (micro-travailleurs du clic), des disparités Nord-Sud, etc., si l’on veut se donner une vue éthique plus complète sur l’IA et sur une éthique désirable de l’IA.

Le terme d’éthique est ancien et fédérateur : qui professerait ouvertement son désir de ne pas adopter une conduite éthique ? Mais la référence systématique à l’éthique est devenue une sorte d’élément de langage. Observée depuis Sirius, elle laisserait facilement supposer qu’elle constitue le dernier trait (à la mode) de la novlang économico-adminstrativo-managériale[12] que parlent tous les dirigeants de toutes les instances de pouvoir, truffée d’anglicismes, teinté de culture “start up”, et surtout dépolitisée — ce que l’éthique satisfait au-delà de toute espérance, en normant, sans la contraindre, l’activité économique. On dit “valeur” comme on dit buiseness process. Il serait ruineux que l’éthique ne soit ainsi que la non politique dont le néo-libéralisme a besoin pour continuer de prospérer et de produire certains effets sont éthiquement problématiques. Finalement, l’éthique est la condition nécessaire non suffisante d’une IA au service de l’humain. Elle ne remplace ni le droit ni la politique et pourrait parfois donner le sentiment qu’elle en cache l’urgence.

Laurent Cournarie, Professeur de chaire supérieure 1ère Supérieure Philosophie


[1] Il vaudrait sans doute mieux parler de SIA (système d’IA) plutôt que d’IA qui a le défaut de substantialiste l’IA et d’alimenter une peur irrationnelle au sujet de son développement. On utilisera toutefois l’une ou l’autre expression indifféremment.

[2] Cf. le rapport de la CNIL (décembre 2017) sur Les enjeux éthiques des algorithmes et de lintelligence artificielle ; La déclaration de Montréal pour un développement responsable de l’IA en 2018  (et le rapport de l’UE sur Les lignes directrices en matière d’éthique pour une IA digne de confiance (ec.europa.eu)

[3] Cf. infra, note 3.

[4] APAM « agent pratique artificiel modulaire » : (a) un agent « pratique » poursuit de manière intelligente un but pratique en s’adaptant à ses objectifs (par exemple, feux de signalisation, limitation de vitesse, passage de piétons, circulation…) et prenant d’elle- même des décisions pratiques appropriées (ralentir, freiner, s’arrêter, changer d’itinéraire…) ; (b) un agent pratique « artificiel » parce qu’elle est une IA (programme informatique qui commande des séries d’impulsions électroniques) ; (c) un agent pratique artificiel « modulaire » parce qu’elle n’est capable, contrairement à l’agent humain, que d’un spectre restreint de buts pratiques.

Cf. S. Chauvier, « L’éthique artificielle », l’Encyclopédie philosophique : http://encyclo-philo.fr/ethique-artificielle-a/ ; L. Cournarie, « L’éthique artificielle ou l’éthique d’après l’intelligence artificielle », http://www.philopsis.fr/IMG/pdf/l_e_thique_artificielle_ou_l_e_thique_d_apre_s_l_intelligence_artificielle.pdf

[5] « Moralisation » est préférable en français mais ici déplacé.

[6] Cf. le discours du Président Macron « AI for humanity », Collège de France, 29/03/2018, elysee.fr.

[7] Cf. Eric Sadin, La siliconisation du monde : lirrésistible expansion du libéralisme numérique, 2016, L’Echappée.

[8] Cf. B. Stiegler, Il faut s’adapter, Gallimard, 2019.

[9] Sous-titre : « Les vices privés font les vices publiques” (https://www.institutcoppet.org/wp-content/uploads/2011/01/La-fable-des-abeilles.pdf)
Cf. aussi Les recherches sur l’origine de la vertu (publiées la même année) que Dany Robert-Dufour considère comme le texte fondateur ésotérique du capitalisme, dans son essai Baise ton prochain ­ Une histoire souterraine du capitalisme, Actes Sud, 2019.

[10] Cf. A. Casili, En attendant les robots, Seuil, 2019.

[11] P. Boddington, Toward a code of Ethics for Artificial Intelligence, OUP, 2017.

[12] Cf. La Langue du Management et de l’économie à l’ère néolibérale. Formes sociales et littéraires, Presses universitaires de Strasbourg, 2015.   Le discours managérial néo-libéral. par exemple utilise constamment l’injonction de “se faire du bien”, “devenir soi-même” (une sémantique “pseudo-éthique”), un vocabulaire compliqué, des néologismes (réactique, accueillance), des termes à la mode (pertinence, efficience, compétence, excellence, confiance, performance, gouvernance), multiplie les sigles et les anglicismes, abuse de phrases à l’infinitif (organiser, améliorer, devenir …) — qui élude la question du sujet de l’action.

LAISSER UN COMMENTAIRE

Veuillez renseigner votre commentaire
Please enter your name here