En juin 2018, le premier ministre canadien Justin Trudeau et le président français Emmanuel Macron se retrouvent dans le cadre du G7, à Ottawa. Quelques mois avant, le célèbre mathématicien Cédric Villani a remis son rapport “Donner un sens à l’intelligence artificielle” qui fixe la feuille de route de la France[1].

J’imagine la discussion qu’ils ont eue :

– Justin Trudeau: “ Alors Emmanuel, ça y est, vous vous lancez vraiment dans l’IA?”
– Emmanuel Macron: “ Oui, j’y vois plus clair. On va mettre des moyens sur quatre enjeux : l’écologie, les transports, la santé et la cybersécurité. On voudrait aussi impulser la construction d’un éco-système européen de la donnée”.
– JT: “Un genre de Google européen?”
– EM: “Non pas vraiment, on ne veut pas d’un géant privé, plus un commun qui faciliterait la coopération entre les acteurs économiques, mais qui pourrait aussi renforcer les politiques publiques”
– JT: “Je vois, c’est intéressant, mais cela ne va pas être facile, c’est vraiment un autre modèle, basé sur un cadre de valeurs différent”.
– EM: “Oui, c’est l’ambiguïté qu’on a voulu mettre en avant dans le titre du rapport Villani. “Donner un sens”, ce n’est pas seulement de la politique industrielle, c’est aussi l’inscrire dans des valeurs partagées”.
– JT: “Comme nous avec la Déclaration de Montréal[2]. Je crois que cette fois, avec l’IA, on ne pourra pas s’affranchir d’une discussion de fond sur les valeurs de la science et de la technique. Cette discussion ne devrait pas se limiter à des Etats ou à des régions du monde, c’est trop important. Regarde Poutine, il a dit que celui qui maîtrisera l’IA dominera le monde. C’est la course aux armements, on ne peut pas continuer ainsi”.
– EM: “ Tu as complètement raison. On doit montrer que sur un tel sujet, on peut travailler ensemble au-delà du business et des enjeux géopolitiques.
– JT: “Que penses-tu d’un groupe d’experts issus de plusieurs pays qui bosseraient ensemble, pour nous aider à prendre des décisions cohérentes, un peu comme le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC)”.
– EM: “Un GIEC de l’IA? Ça sonne bien”.

Le 7 juin, les deux Etats déclarent : 

« La France et le Canada soulignent la nécessité de disposer de capacités d’anticipation et de coordination pour favoriser la confiance et le développement de l’intelligence artificielle. A cette fin, ils appellent la création d’un groupe international d’étude, capable de devenir la référence mondiale afin de comprendre et partager les résultats de la recherche sur les enjeux et les meilleures pratiques liés à l’intelligence artificielle. Cette initiative visera à créer une expertise internationalement reconnue, et à mettre en commun des capacités pluridisciplinaires d’analyse, d’anticipation et de coordination dans le champ de l’intelligence artificielle, selon une approche inclusive et multipartite ». 

D’une déclaration commune, l’initiative devient multipartite rassemblant quinze membres fondateurs: l’Allemagne, l’Australie, le Canada, la République de Corée, les États-Unis, la France, l’Inde, l’Italie, le Japon, le Mexique, la Nouvelle-Zélande, le Royaume-Uni, Singapour, la Slovénie, et l’Union européenne. Le « Partenariat Mondial pour l’Intelligence Artificielle » (en anglais GPAI pour « Global Partnership on AI ») est né[3]. Le Brésil, l’Espagne, les Pays-Bas, et la Pologne les rejoignent en décembre 2020, à l’issue du Sommet de Montréal, et Israël, la Belgique, l’Ireland, le Danemark, la République Tchèque, la Slovénie et la Suède en novembre 2021.

Les experts sont répartis en cinq groupes, l’IA responsable, la gouvernance des données, l’avenir du travail, l’innovation et la commercialisation, l’IA et la réponse à la pandémie, autour d’un leitmotiv: « favoriser un développement responsable de l’IA fondé sur des principes de droits de l’homme, d’inclusion, de diversité, d’innovation et de croissance économique ». Cela semble très consensuel, mais ces principes sont pourtant discriminants. Ils précisent avec qui, actuellement, nous « pouvons faire monde » avec l’IA.

J’ai intégré le “Future of Work working group” du Partenariat Mondial pour l’Intelligence Artificielle sur proposition de la France, avec Laurence Devillers, spécialiste de la robotique sociale. Notre mission consiste à réaliser des analyses techniques critiques qui contribueront à la compréhension collective de la manière dont l’IA peut être utilisée sur le lieu de travail, de façon à simultanément autonomiser les travailleurs et augmenter la productivité[4].

Nous sommes organisés en six sous-groupes de travail:

  • La réalisation d’un catalogue mondial de cas d’usage réels de l’IA dans les organisations,
  • Les besoins de formation générés par l’IA,
  • La coopération humain-machine,
  • La détection et la correction de biais des techniques d’IA utilisées sur le lieu de travail,
  • Les enjeux de sécurité et de conditions de travail,
  • La mise en place d’un laboratoire vivant sur l’avenir du travail.

Depuis deux ans, j’ai la chance de piloter la construction du catalogue. Concrètement, je coordonne les activités de « GPAI-Junior Investigators »[5] qui enquêtent au sein de leurs pays respectifs sur des cas d’usages réels. Notre catalogue compte plus de 150 applications aujourd’hui, plusieurs sont d’ailleurs situées à Toulouse. Les utilisations sont d’une incroyable diversité : suivre l’état psychologique des éléphants, prédire la consommation de gaz, sélectionner des prestataires de formation, prioriser les requêtes des habitants d’une ville, réduire le gaspillage à la cantine, diagnostiquer des maladies de peau, assister vocalement un technicien, prévenir la fuite des talents, mesurer le bonheur au travail, prédire la natalité d’enfants prématures, recruter les futurs collaborateurs, comparer des rapports d’incidents dans des centrales nucléaires…

La constitution du catalogue se réalise à partir d’un guide d’entretien qui structure l’échange entre les enquêteurs et les répondants, concepteurs, clients, managers ou utilisateurs d’une application. Cinq dimensions sont abordées : 

  • Les buts poursuivis par l’organisation,
  • La participation des travailleurs et de leurs représentants dans la définition de ces buts et du système d’intelligence artificielle,
  • Le design des interactions humains-machines,
  • La considération des enjeux éthiques,
  • Les impacts sur les travailleurs et les organisations.

Notre enquête est qualitative, il ne s’agit pas de répondre à des questions à choix multiples pour réaliser un traitement statistique. Nous voulons comprendre en profondeur ce qui se joue pour les organisations, les travailleurs et l’activité dès lors qu’un système d’IA est invité à la fête. Nous publions des rapports accompagnés de recommandations[6]. Cette année, nous avons énoncé trois types de recommandation aux Etats pour :

  • Le succès d’une expérimentation, autrement dit le passage difficile de la preuve de concept (PoC) à la mise en production (2 recommandations)
  • Autonomiser le travailleur (3),
  • Développer des systèmes justes et équitables (2).

Notre rapport a été remis en main propre au président Macron, lors du Forum de Paris sur la Paix[7] qui se déroulait en même temps que notre Somme de Paris, les 11 & 12 novembre 2021.

 

Dans mes prochains articles, je présenterai nos recommandations.

Prochain article: « Prototypes are easy, production is hard »

Auteur :  Yann FergusonIcam Expert chez Global Partnership on Artificial Intelligence

 

[1] Consultable ici : https://www.vie-publique.fr/rapport/37225-donner-un-sens-lintelligence-artificielle-pour-une-strategie-nation. L’introduction et les 10 pages de résumé offrent un bon aperçu.
[2] La « Déclaration de Montréal pour un développement responsable de l’IA » est probablement le travail le plus abouti en matière d’Ethique de l’IA. Présenté dans une version préliminaire en novembre 2017, sa version officielle a été présentée en décembre 2018. Plus encore que le texte de la Déclaration, ce sont les différents « Rapports de coconstruction » décrivant le processus de fabrication qui sont lui donnent tout son sens. Voir : https://www.declarationmontreal-iaresponsable.com/
[3] Voir son site : https://gpai.ai/fr/
[4] Voir l’interview de Yuko Harayama, notre co-chair.
[5] Ces enquêteurs sont des doctorants qui cumulent la compétence d’enquêteur avec des connaissances sur l’IA. Inédite dans ces institutions internationales qui recourent généralement à des consultants, cette modalité de travail donne du sens à notre enquête en préparant la future génération d’experts.
[6] Disponibles sur notre page : https://gpai.ai/fr/projets/avenir-du-travail/
[7] La vidéo est ici : https://magazine.gpai.paris/emmanuel-macron-recoit-le-premier-rapport-du-gpai/

Pour en savoir plus sur la commission Economie et la rejoindre :

Pour lire d’autres articles :