Recommandation 1: Établir les principes méthodologiques d’un PoC au-delà des performances du système d’IA

 

La distinction introduite par Elon Musk entre prototype et production évoque celle entre couramment admise entre invention et innovation, cristallisée autour de trois grandes dimensions :

  • La temporalité : l’invention est un moment, l’innovation un processus.
  • L’invention est considérée comme le « bien », l’innovation est l’affectation d’un sens à ce bien.
  • L’invention est une promesse d’efficacité que l’innovation refuse toujours partiellement

La pénétration sociale d’une technique est liée au système de valeurs des groupes sociaux. L’histoire des techniques est ainsi parsemée de refus déroutants : refus de la roue par l’Amérique précolombienne, de l’étrier par les indiens, de la flèche par les aborigènes, du Concorde par les américains… Ces techniques étaient connues, fonctionnaient, mais elles ont été rejetées pour de multiples motifs : coût des infrastructures nécessaires à l’usage à la roue, incompatibilité spirituelle de l’étrier, peur de se blesser avec la flèche en courant (alors que le boomerang est plus sûr, mais aussi plus économique…il revient…), rivalité (entre autres) pour le Concorde.

Le constat d’Elon Musk vaut autant pour les applications de l’intelligence artificielle au travail que pour les voitures autonomes ou les fusées. La plupart des applications contenues dans notre catalogue sont des preuves de concept (Proof of Concept, ou PoC). Ceux-ci répondent à des problématiques assez consensuelles, telles que :

  • Automatiser une tâche à laquelle les travailleurs ne sont pas attachés
    • Ex : Automatiser la prédiction de la consommation de gaz
  • Automatiser une tâche facteur de troubles musculo-squelettiques ou de stress
    • Ex : Automatiser la détection des menaces sur les vidéos des caméras de surveillance pour réduire le temps passé derrière les écrans
  • Automatiser une tâche qui était jusqu’à présent mal réalisée et faisait perdre du temps
    • Ex : Détecter la présence et la taille des graffitis sur un train pour anticiper le besoin de nettoyage au centre de maintenance
  • Automatiser une tâche que les travailleurs ne savent pas faire
    • Ex : Détecter le niveau d’humidité dans une usine de briques pour réduire la non-qualité du produit
  • Automatiser une tâche avec des résultats immédiatement supérieurs aux méthodes précédentes
    • Ex : Identifier la présence d’espèces d’oiseaux protégées dans les parcs éoliens
  • Automatiser une tâche répétitive et chronophage
    • Ex : Réduire la charge de réponse aux emails (jusqu’à 80% du temps de travail)
  • Automatiser les tâches de surveillance pour recentrer les travailleurs sur les interventions
    • Ex : Automatiser la surveillance des éléphants dans un zoo pour libérer du temps pour les soins.

Les résultats sont souvent satisfaisants et l’expérimentation considérée comme réussie. Pourtant, la plupart des PoCs ne passent pas au stade de la production. La performance est donc une condition nécessaire mais non suffisante, car les systèmes d’IA posent d’importants défis aux entreprises. Nous avons ainsi mis en lumière trois types d’explication qui freinent cette mise en mise en production.

Réorganiser : les systèmes d’IA impliquent de repenser l’organisation de l’activité

La réalisation d’un PoC est un projet temporaire qui mobilise différents participants qui sont encouragés à coopérer pour la réussite de l’expérimentation. Pour passer en production, cette coopération temporaire doit être rendue permanente. Cela implique une réorganisation des composantes de l’organisation, ce qui constitue une transformation majeure. Ce fournisseur explique comment le besoin de données en quantité, qualité et diversité suffisantes met les organisations en difficulté :

 » Beaucoup de gens utilisent l’IA pour faire de la R&D sans se soucier de la mise en production. Quand on met en production, on se pose de nouvelles questions : Quelles données ? Pourquoi le faisons-nous ? Quelles variables ? Quelles sont les configurations optimales ? Nous passons d’un processus centré sur les processus à un processus centré sur les données. Dans le premier cas, on crée l’application, puis on cherche les données nécessaires. Dans le second, on change de mode d’organisation, les gens sont obligés de travailler ensemble. Cela remet en cause les silos de l’organisation. « 

Parfois, l’application implique de repenser complètement le poste de travail pour rendre son intégration possible. Par exemple, dans une centrale nucléaire, une application automatise l’évaluation de la cohérence entre les rapports d’incidents des experts et ceux produits par les capteurs. Cela permet aux utilisateurs de comprendre l’écart entre la mesure des risques et leur perception afin de mieux les appréhender. L’application atteint un excellent niveau de performance, mais elle n’est pas utilisée. La focalisation sur son efficacité a occulté son intégration dans le poste de travail. L’agent gère déjà plusieurs interfaces, l’IA en rajoute une, ce qui alourdit sa tâche.

Socialiser : les systèmes d’IA déstabilisent le système de valeurs associé à l’activité

L’intégration des systèmes d’IA dans le système de valeurs d’une organisation est essentielle pour développer la confiance des travailleurs. C’est notamment le cas avec l’utilisation des chabots. Tous les concepteurs craignent que ses dysfonctionnements soient rendus public : « Les réponses générées par le bot sont toutes écrites à l’avance, le bot ne les formule pas tout seul. Notre client voulait éviter la boîte noire et une expérience « Tay », c’est-à-dire un chatbot qui devient raciste et sexiste en apprenant des utilisateurs« , explique un concepteur de chatbots. Dans d’autres cas d’utilisation, le système d’IA pose des problèmes d’attribution de responsabilité en cas d’incident. « Robert », un cobot (un néologisme formé à partir des mots « coopération » et « robot ») a bien été mis en production, mais après d’importantes difficultés qui ont conduit à des changements. Robert assiste les laborantins d’une usine de production de yaourts. Sa mission ? S’occuper de toutes les tâches dites « à faible valeur ajoutée » du processus : récupérer les produits dans les boîtes, scanner, vérifier dans la base de données que le produit détenu est bien celui à tester. Il ouvre le produit et reproduit le protocole des opérateurs. Le cobot automatise les tâches répétitives pour réduire les troubles musculo-squelettiques. Les opérateurs gardent la dimension la plus valorisante, l’analyse :  » Il y avait des mots interdits, explique le chef de projet. Nous n’avions pas le droit de parler d’intelligence. Ce sont les opérateurs qui sont intelligents, pas les machines. L’analyse reste 100% humaine, on aurait peut-être pu l’automatiser, mais ce n’était pas souhaité ».

Cependant, la fabrication de produits laitiers est soumise à des contraintes sanitaires strictes qui génèrent de forts enjeux de traçabilité et de responsabilité. Or, le cobot génère une zone de non-droit qui ralentit son acceptabilité. Qui est responsable s’il commet une erreur ? Quel service est prêt à prendre sa tutelle ? Les négociations sont difficiles car les répercussions des scandales sanitaires dans le secteur sont graves. Finalement, le responsable qualité accepte de se porter garant pour débloquer le projet. Mais le cobot pose une autre difficulté. Il est techniquement conçu pour évoluer au milieu de ses « collègues » humains. Or, cette propriété ne satisfait pas aux critères de sécurité. L’organisme certificateur ne sait pas comment gérer un accident du travail avec ce cobot, car il ne peut pas imputer les responsabilités pour réparer les préjudices subis. « Le cobot est confiné dans un espace délimité, que l’on peut voir mais qui n’est pas clôturé, comme c’est habituellement le cas. Il reste visible grâce aux baies vitrées afin qu’il puisse aussi être une vitrine à la vue de tous ». Le milieu professionnel n’est pas prêt à accueillir complètement le cobot. Le cobot n’est pas enfermé ou caché, mais il est isolé.

La pratique : les systèmes d’IA transforment, produisent ou détruisent des pratiques professionnelles

Les systèmes d’IA transforment les activités d’un métier, produisent de nouvelles pratiques ou les détruisent. Lechnologie nous « permet » ou nous « oblige » à faire, mais aussi nous « empêche » ou « ne permet pas » de faire[1]. Plusieurs situations ont été relevées :

  • Le système d’IA génère une tâche inintéressante, par ex : Lorsque ce chatbot n’a pas la réponse à une question, un employé reçoit une alerte qui l’enjoint d’enrichir sa base de connaissances. Cette mission a été baptisée « AI trainer » (c’est chic !). Le premier AI trainer a été associé à l’ensemble du PoC. Bien que peu intéressante, cette tâche avait du sens. Mais lorsque cet employé est parti, son remplaçant n’y a trouvé aucun intérêt. Le chatbot a été fermé faute d’entraîneur.
  • Le système d’IA détruit les pratiques professionnelles, par ex : Ce système d’IA est un assistant vocal au poste de travail pour les techniciens de l’industrie. Ils interagissent avec lui pour remédier à des situations où le manque d’informations ou d’utilitaires les contraint à une interruption non souhaitée de leur activité. L’assistant vocal pourrait notamment permettre aux techniciens de cette entreprise de reporter des données dans des tableurs directement depuis leur poste de travail, sans se rendre dans la salle de saisie dédiée. Mais ce n’est pas la seule fonction de cette salle, qui est aussi un « sas » de respiration et d’échange. L’environnement de production est en effet bruyant, ce qui provoque un stress auditif et réduit les possibilités de discussion. Cette salle offre une amélioration ponctuelle de leurs conditions de travail, autorise une pause qui n’en est pas une. Les techniciens y sont attachés ; la supprimer les rendrait certes plus productifs, mais au prix de leur bien-être.
  • Le système d’IA transforme les pratiques professionnelles, par ex : Dans cette entreprise aéronautique, une application facilite le réglage d’une porte, opération délicate nécessitant en moyenne une dizaine d’itérations. L’application doit réduire ces occurrences de réglage à deux en prenant en compte plus de données. Au début, les utilisateurs participent à sa conception, jusqu’à ce qu’ils en perçoivent les enjeux : « On sait que les gens qui font ça ont une très forte valeur ajoutée, mais on ne veut pas que le réglage repose sur eux, explique un technicien. L’intelligence est dans la machine, les managers veulent pouvoir mettre n’importe qui à la tâche. La personne est « la main » de l’application. La déspécialisation et la polyvalence dégradent la valeur de l’expertise. On dissocie la compétence du métier. Pour moi, le système devrait flatter l’expertise au lieu de la réduire.»

Réorganiser, socialiser, pratiquer… ces dimensions sont trop souvent occultées dans les expérimentations, qui se déploient dans des « micromondes sociaux » : des conditions sociales simplifiées qui ne correspondent pas aux environnements réels de travail. Le Partenariat Mondial pour l’Intelligence artificielle recommande en ce sens d’ « établir les principes méthodologiques d’un PoC au-delà des performances du système d’IA ». A partir des connaissances produites sur les retours d’expérience, les acteurs de l’intégration de l’IA au travail ont besoin d’outils et de compétences pour penser leur solution au-delà de leur performance technique.

Prochain article: « Des chercheurs qui cherchent, des chercheurs qui trouvent, etc. »

Auteur :  Yann FergusonIcam Expert chez Global Partnership on Artificial Intelligence

 

[1] Voir l’article de Marc-Eric Bobillier-Chaumon. L’acceptation située des technologies dans et par l’activité : premiers étayages pour une clinique de l’usage. Psychologie du travail et des organisations, Elsevier Masson, 2016, 22 (1),

Pour en savoir plus sur la commission Economie et la rejoindre :

Pour lire d’autres articles :