Recommandation 2 : « Encourager et améliorer l’intégration de la recherche académique »

Tous les chercheurs ont eu, ont, ou auront à subir le bon mot du Général De Gaulle lors d’une visite du CNRS : « Des chercheurs qui cherchent, on en trouveMais des chercheurs qui trouvent, on en cherche… ». Mon compteur personnel avoisine les cinquante occurrences. On peut y voir une critique du manque de créativité des chercheurs, ou d’utilité à court terme. La relation linéaire exprimée lors de l’Exposition Universelle de Chicago en 1933, « La science découvre, l’industrie applique, et l’homme suit », est excessivement simple. D’une part, elle ne tient pas compte du temps, d’autre part, elle introduit une communauté d’intérêts entre des mondes sociaux pourtant distincts. C’est parfois le cas, lorsqu’une urgence, sanitaire par exemple, impose l’agenda de la recherche. Mais c’est oublier que cette recherche dans l’urgence mobilise des résultats antérieurs d’une recherche non rentable, peu efficiente, développée depuis des décennies.

Ainsi, de nombreux travaux en mathématiques « sans intérêt », au sens économique du terme, se sont révélés décisifs lorsqu’ils ont été fécondés par de nouvelles potentialités techniques imaginées par des esprits ingénieux. Démontré en 1640, le petit théorème de Fermat – qui permet la détection de certains nombres non premiers – n’était qu’une curiosité aussi abstraite qu’inutile. Il est subitement devenu d’une importance cruciale, avec le développement de la cryptographie pour les transactions par cartes bancaires.

« C’est ainsi que les découvertes des mathématiques pures sont sources d’applications à la fois primordiales et inattendues, parfois au bout de plusieurs siècles, et après des détours que nul n’aurait osé imaginer. Les mathématiques sont donc très utiles, même si leurs applications sont impossibles à prévoir »[1], expliquait Cédric Villani, bien avant qu’il ne formalise la stratégie française en intelligence artificielle en 2018.

Aujourd’hui, en dépit de ces différences de cultures, d’intérêts ou de temporalités, ces mondes sociaux sont loin de vivre des mondes parallèles et leur collusion régulière est même stigmatisée sous l’appellation de la « technoscience ». Ce terme critique cette confusion et son exploitation par les sociétés néo-libérales. L’intelligence artificielle et le momentum que cette discipline et ses applications traversent actuellement forment justement un point de rencontre. Car pour le rapport Villani « ces technologies représentent beaucoup plus qu’un programme de recherche : elles déterminent notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes ». Cette rencontre s’incarne notamment dans les « 3IA » pour « Institut Interdisciplinaire d’Intelligence Artificielle », chargé non seulement d’accélérer notre effort de recherche mais aussi son attractivité et sa diffusion. Il en résulte des moyens importants et surtout la construction de partenariats avec l’industrie, en vue de former un « circuits-court d’interactions avec la recherche de pointe ». Le 3IA toulousain, Aniti, pour Artificial and Natural Intelligence Toulouse Institute, est un des quatre 3IA (avec ceux de Paris, Grenoble et Nice) français[2].

Le Partenariat Mondial pour l’Intelligence Artificielle, qui a pour mission d’apporter des éclairages aux dirigeants des Etats-membres, adopte des objectifs similaires, puisqu’il s’agit de « combler le fossé entre la théorie et la pratique sur l’IA en soutenant la recherche de pointe et les activités appliquées sur les priorités liées à l’IA »[3]. Pour autant, n’étant pas un organisme de recherche mais un groupe d’experts, le PMIA rassemble plus largement « des esprits engagés et l’expertise de la science, de l’industrie, de la société civile, des gouvernements, des organisations internationales et du monde universitaire pour favoriser la coopération internationale ». Si le Future of Work Working Group se compose majoritairement de chercheurs de différentes disciplines (informaticiens, roboticiens, prospectivistes, sociologues, politologues, etc.), notre équipe comprend aussi des industriels, des partenaires sociaux, des acteurs de l’action publique, etc. En ce sens, les interviews que nous menons sur les cas d’usages réels de l’IA au travail comprennent une série de questions sur les modalités de coopération entre différents acteurs, notamment au moment de la conception du système. Dans notre rapport de 2021, nous avons présenté quelques constats provisoires sur l’état de cette coopération avec la recherche au moment du design de l’application. On les résume ainsi : les partenariats sont nombreux, intéressants mais perfectibles.

Ils enrichissent les projets de deux manières principales :

  • Une valeur ajoutée technique: l’objectif du partenariat est d’améliorer les performances du système d’IA lui-même.

Un développeur : « L’IA ne peut être développée sans les universités. Ils fournissent des connaissances dans des domaines que je ne pourrais pas exploiter tout seul, parce qu’ils vous donnent un spectre de connaissances. En tant que programmeur vous sortez avec des connaissances sur des caméras ou d’autres choses techniques. Ils expliquent quel est le vrai problème, quelles sont les données nécessaires, comment ils les extraient, puis vous devez trier et filtrer pour les consommer dans le modèle. Ils vous racontent tout, comment ils font les choses et vous les aidez ».

Manager d’une entreprise : « Malgré notre connaissance de la technologie des barrages et de la production d’énergie, nous n’avons aucune connaissance de l’IA, donc les chercheurs externes ont été essentiels pour le développement du projet ».

  • Une valeur ajoutée sociétale: l’objectif du partenariat est d’aborder des questions sociales, des savoirs et des compétences généralement peu présentes dans l’entreprise et dans les équipes de développeurs.

Un développeur : « Nous avons travaillé sur l’approche centrée sur l’utilisateur avec un ergonome. Nous avons parcouru la littérature sur deux sujets : chatbot et industrie 4.0., sous l’angle de mettre l’humain au cœur de l’industrie. Dans le cadre de projets européens, nous travaillons également avec un sociologue et un anthropologue spécialisé dans l’intégration de l’IA d’IA dans les environnements de travail. Ils participent aux expérimentations dans les usines et réalisent des interviews. L’objectif est de mieux comprendre comment les travailleurs réagissent à notre solution afin de pouvoir paramétrer certains aspects de la coopération homme-machine ».

Malgré ces importantes contributions de la recherche académique au développement de systèmes d’IA dédiés au travail, trois types de réserves sont exprimés sur cette collaboration :

  • Les intérêts des acteurs économiques, pratiques divergent de ceux des chercheurs, universitaires.

Un développeur : « Nous n’avons pas besoin de travailler avec des chercheurs car nos problématiques sont très pratiques. Nos intérêts ne sont pas alignés ».

  • Les modes opératoires des acteurs économiques et des chercheurs académiques sont trop différents. Cela pénalise les projets.

Un manager : « Un projet de développement doit suivre un calendrier, avec des jalons qui fixent les livrables. Les chercheurs ne savent pas travailler en mode projet industriel ».

Un développeur : « Nous ne le faisons pas car nos projets doivent être réalisables rapidement. Les délais de recherche sont trop longs, ils ne sont pas rentables à court terme ».

  • Les contributions des chercheurs ne répondent pas aux normes de transparence, d’explicabilité et d’auditabilité que s’imposent certaines entreprises.

Un manager : « J’ai inclus des chercheurs pour que notre agent conversationnel puisse améliorer la compréhension du sens des mots, au-delà de l’analyse syntaxique. Je voulais une analyse lexicale. Il s’agissait de mieux comprendre le sens, comme l’ironie. Parfois, un « merci » par exemple a plusieurs significations. Leur solution semblait fonctionner, mais leur système n’était pas du tout transparent. Ils prenaient des centaines de conversations pour entraîner leur algorithme, mais ils ne pouvaient pas vraiment nous expliquer comment ils parvenaient à ce niveau de performance. Notre entreprise a posé certaines exigences qui nous ont conduit à rejeter la « boîte noire ». Nous ne pouvions pas intégrer leur système ».

  • Les chercheurs ne s’intéressent pas suffisamment à la dimension applicative des systèmes d’IA et ne tiennent pas compte des métiers.

Un développeur : « Nous étions en concurrence avec un groupe de chercheurs en mathématiques qui n’avaient aucune connaissance de l’entreprise et ne cherchaient pas à en acquérir. J’ai posé beaucoup de questions pour apprendre, et nous avions une personne sur place qui faisait le lien entre le métier et nous. C’est pourquoi nous avons gagné ».

Riches d’opportunités par les entreprises comme pour les chercheurs, ces partenariats rencontrent encore des difficultés culturelles, que des instituts comme Aniti et des groupes comme le PMIA entreprennent d’abord de qualifier puis de surmonter.

C’est le sens de notre deuxième recommandation : « Encourager et améliorer l’intégration de la recherche académique ».

Pour autant, cette démarche peut être critiquée. Lier à ce point recherche et industrie, que les motifs soient d’ordre politique, économique, scientifique ou éthique ne risque-t-il pas de nous éloigner de l’idéal d’une recherche nourrie uniquement par la quête de nouvelles connaissances ? Le très technophobe Eric Sadin parle en ce sens d’« étroitesse éthique » : « cet alignement des scientifiques et des ingénieurs à la doxa technico-économique représente un vice de notre temps, dans la mesure où ce sont des formes de pluralités dans le champ de la recherche qui se trouvent dorénavant asphyxiées »[4]. En tant que sociologue, je ne peux qu’être sensible à cette interpellation philosophique. Mais elle contredit mon expérience éthique vécue qui s’élargit au contraire considérablement au sein du PMIA. D’un petit cercle d’éthiciens férus de Jacques Ellul, Günther Anders ou Yvan Illich[5], ma réflexion éthique évolue désormais dans un ensemble de réseaux multi-acteurs, multi-niveaux, multi-cultures aux intérêts certes souvent divergents mais dont les différences sont la matière première et le principal défi à une éthique de la discussion. En d’autres termes, si critiquer avec ses pairs est réconfortant, dialoguer avec l’autre est conquérant ! Le premier délimite des territoires pour la pensée, le second en ouvre de nouveaux.

 

Prochain article : « L’IA au travail : pourquoi faire simple quand on peut faire compliqué ? »

Auteur :  Yann FergusonIcam Expert chez Global Partnership on Artificial Intelligence

 

[1] « Les illuminations mathématiques de Cédric Villani », https://bibliobs.nouvelobs.com/essais/20120823.OBS0285/les-illuminations-mathematiques-de-cedric-villani.html
[2] https://aniti.univ-toulouse.fr/
[3] https://gpai.ai/fr/
[4] Voir Sadin, E. 2018. L’intelligence artificielle ou l’enjeu du siècle. Anatomie d’un antihumanisme radical, Paris, L’Échappée.
[5] Ces trois auteurs sont incontournables pour équiper sa critique. On pense notamment (et respectivement) au Bluff technologique (1988), L’obsolescence de l’homme (1956), et La convivialité (1973)

Pour en savoir plus sur la commission Economie et la rejoindre :

Pour lire d’autres articles :