Cognitif & IAEmmanuel Bertrand-EgrefeuilIntermédiaire

 Prérequis d’une éthique de l’intelligence artificielle

Logo NXU sans fond

 Prérequis d’une éthique de l’intelligence artificielle 

Partie 1 : Éthique d’une technique 

Depuis quelque temps, l’éthique se retrouve au coeur de l’actualité de l’Intelligence Artificielle. En 2017, Microsoft, dont le cofondateur Bill Gates avait exprimé ses craintes face à de possibles machines supérieurement intelligentes, présentait un guide de règles éthiques. En juin 2018, Google énonçait sept principes qu’elle s’engageait à respecter. Il y a peu, la firme de Mountain View mettait en place un comité d’éthique sur l’IA, avant de le dissoudre une semaine plus tard, devant la polémique suscitée par la nomination d’une universitaire ultra-conservatrice. Début 2019, Facebook a annoncé la création à Munich d’un organisme indépendant qui y serait consacré. Mais l’initiative la plus significative vient de l’Europe. Elle a mis en place, courant 2018, une commission de 52 experts qui a déjà produit des premiers résultats. 

Ce besoin soudain d’éthique étonne. L’intelligence artificielle est une technique informatique. Par le passé, rares sont les techniques ayant soulevé des questions d’ordre éthique. L’arc et l’arbalète ont fait l’objet d’une interdiction par le deuxième concile du Latran en 1139. Les successeurs du pape Innocent II renouvelleront l’injonction, avec l’efficacité que l’on sait. Bien plus tard, à l’issue de la Seconde guerre mondiale, le procès de Nuremberg des médecins nazis sera l’occasion d’invoquer des principes éthiques universels. Durant la guerre froide, la menace que représentaient les arsenaux nucléaires de chaque camp installa un nouvel équilibre de la terreur, qui permit d’éviter leur usage. C’est finalement sur un sujet distinct des armes, les manipulations génétiques, que des réflexions éthiques poussées ont été institutionnalisées, à partir des années 80. La France a été pionnière dans le domaine, installant un comité consultatif national d’éthique (CCNE) dont les travaux et les recommandations font encore référence, aujourd’hui. 2 

Le physicien et astronome Stephen Hawking s’est inquiété le premier d’une intelligence artificielle supérieure qui pourrait mettre fin à la race humaine. En 2015, il cosignait avec l’entrepreneur Elon Musk et un millier de personnalités et chercheurs, un appel à l’interdiction des robots-tueurs autonomes. Les pétitionnaires redoutaient que cette course aux armes dotées d’IA ne conduise à une guerre. Ils craignaient aussi « qu’elles n’apparaissent sur le marché noir et dans les mains de terroristes, de dictateurs souhaitant contrôler davantage leur population et de seigneurs de guerre souhaitant perpétrer un nettoyage ethnique »i. Deux ans plus tard, Vladimir Poutine ne les contredisait pas, en prophétisant que « le leader dans le domaine de l’IA sera le maître du monde »ii. 

 

1- Morgane Tual, Stephen Hawking et Elon Musk réclament l’interdiction des « robots tueurs », Le Monde, 27 juillet 2015.

2- https://www.clubic.com/technologies-d-avenir/actualite-835436-elon-musk-ia-conduira-guerre-mondiale.html.



Emmanuel Bertrand-Egrefeuil 

Vous pouvez télécharger ce texte en version PDF en cliquant ici : 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *