« Un robot n’est pas tout à fait une machine.

Un robot est une machine fabriquée pour imiter de son mieux l’être humain. »

Asimov, « La cité des robots»

La robotique de service envahit nos foyers et notre quotidien. Assistants vocaux, fours connectés, tondeuses et aspirateurs « autonomes », etc., ils sont appelés à simplifier notre quotidien, quand ils ne sont pas considérés comme un membre de la famille à part entière. D’ailleurs, de véritables relations sociales se nouent avec petits et grands. Les aspirateurs autonomes se voient affublés parfois un petit nom quand ils ne sont pas sondés sur leurs angoisses existentielles, inspirées ou non de Lamartine.

Plus prosaïquement, comment allons-nous réagir aux étourderies, maladresses voire espiègleries dudit robot s’il devait écraser malencontreusement le sympathique hamster de vos enfants ? Entre les promesses d’un monde meilleur et les angoisses de l’enfer robotique connecté, où placer le curseur ? Évidemment la notion de responsabilité fait débat : Qui sera désigné responsable, qui paiera les frais (le fabricant, l’éditeur du logiciel, les assureurs etc..) ?

Objets inanimés, avez-vous un gardien ?

Tout robot est considéré comme “une chose” au regard du droit positif et, faute de disposition législative particulière, le régime de droit commun de responsabilité du fait des choses (Art. 1242 du Code civil) pourrait être mobilisé pour obtenir réparation de la perte de son compagnon. La responsabilité pèserait alors sur le gardien de la chose, c’est-à-dire, sur la personne qui disposerait des pouvoirs d’usages, de contrôle et de direction du robot. En vérité je n’aurais alors qu’à me flageller car après tout je disposais de la “pleine maitrise” de mon compagnon mécanique… Peut-être aurais-je simplement dû lire avec attention ses conditions générales d’utilisation comme tout bon « père de famille »[1]

Quidde l’autonomie décisionnelle du robot « maladroit » ? Après tout, la décision (« inconsciente ? ») d’écraser l’animal était celle de ce dernier et non la mienne… La notion de contrôle ne semble-t-elle pas, en tout état de cause, absente ? L’introduction d’une réelle « autonomie décisionnelle » n’empêcherait-elle pas de me reconnaître la qualité de gardien et donc de responsable ? En réalité, notre robot ne serait-il pas responsable de ses actes ?

« L’autonomie, c’est l’antithèse de la garde » (E. Wéry). Si on arrivait à créer un robot parfait, doté d’une intelligence artificielle, permettant une réelle autonomie décisionnelle on chamboulerait tout le régime juridique car on aurait créé un « objet » physique non humain qui ne serait, en théorie, sous la garde de personne. Un tel objet appellerait, pour de nombreux auteurs, à la création d’un statut juridique autonome qui se situerait entre celui de l’Homme et celui de l’objet. Dans sa résolution de 2017[2], le Parlement européen appelle d’ailleurs de ses vœux l’établissement d’une personnalité électronique.Entre détracteurs et partisans de la mise en place d’une personnalité juridique, support juridique d’un régime de responsabilité propre à ces nouveaux acteurs technologiques, la problématique est loin d’être tranchée.

Objets inanimés, avez une sécurité suffisante ?

Au stade de la contribution à la dette, l’analyse du cadre juridique français, dans l’hypothèse d’un dommage causé par une « chose », un robot, appelle à une observation majeure quant à l’introduction d’objets autonomes, qui se révèleraient, a posteriori, défaillants.

Fixé par la loi n°98-389 du 19 mai 1998, le régime de responsabilité dit de « plein droit » offre ainsi une alternative au régime de droit commun de la responsabilité. Les articles 1245 à 1245-17 du code civil prévoient ainsi la responsabilité du producteur si le produit mis en circulation ne présente pas une sécurité « suffisante », c’est-à-dire à laquelle « on peut légitimement s’attendre ».

Toutefois, si des présomptions graves, précises et concordantes suffisent à établir la relation de causalité, et notamment après lecture des conditions générales d’utilisation, il apparaît extrêmement difficile d’établir le caractère défectueux d’un robot, objet par nature extrêmement complexe. Est-ce le logiciel qui est défaillant ? Est-ce un capteur lié au système de reconnaissance de l’environnement dont notre défunt hamster était acteur… ? Quelle responsabilité doit alors être engagée ? Celle du fabricant ? Celle du concepteur du logiciel ? Des capteurs ? Des composants électroniques ?

L’analyse des données collectées par le robot s’avèrera essentielle afin de déterminer avec précision la chaine de responsabilité. Pour autant l’accès aux données peut se heurter au RGPD, voire au secret des affaires ?

 

Les algorithmes,collectent massivement, voire de manière imperceptible, nos données pour fonctionner et offrir aux consommateurs un service personnalisé. Quidainsi de l’exploitation de ces données qui sont susceptibles, dans leur plus grande majorité, de relever de la réglementation européenne sur les données personnelles… Quidégalement des potentielles atteintes au respect des libertés fondamentales de l’être humain et notamment de sa vie privée ou de sa dignité à travers l’utilisation de robots domestiques. Par ailleurs, les données relatives à l’apprentissage peuvent-elles être réutilisées pour développer des mises à jour des systèmes robotiques ? Pourraient-elles être alors potentiellement incriminées ? Sont-elles susceptibles d’appropriation ? De la réponse à ces problématiques dépend en partie l’acceptabilité juridique et sociale de la technologie robotique.

La question de la preuve rend ainsi les recherches sur les mécanismes d’explicabilité de l’IA, sur le développement d’une IA hybride, essentielle.

Objets inanimés, sortez couverts !

En toute hypothèse, concernant la détermination de la chaine de responsabilité, il sera question de déterminer si un recours en contribution de l’assureur payeur appelé solvens, est envisageable et si oui, selon quelles modalités ? Le risque robotique n’existe pas, encore …Pour autant, il apparaît, que le développement de la robotique et de ses services appelle à la création d’un régime d’assurance spécifique…

Cette hypothèse est également retenue par les partisans de l’établissement d’un statut juridique autonome qui souhaiteraient par ce biais doter les robots, lors de leur mise en circulation, d’un numéro d’immatriculation, d’une police d’assurance obligatoire et d’un fond de compensation pour garantir l’indemnisation des victimes. Quidcependant de la personne en charge de la constitution ou de la reconstitution de ce dernier…

Le droit apparaît donc de plus en plus inadapté aux évolutions technologiques : les Intelligences Artificielles se développent sous l’influence de l’Homme et parallèlement adoptent des comportements très proches de ceux de ses maîtres et concepteurs : du droit à l’erreur à la volonté de nuire, comment gérer le risque ?Comment éviter les « effets de bord », c’est-à-dire que les robots ne trichent, ne détruisent ou n’adoptent un comportement à risque pour optimiser leur mission ?

Des problématiques de sécurité, de fiabilité et d’explicabilité des robots dépend l’acceptabilité de la robotique de service. Quel est le prix que nous sommes prêts à concéder à l’innovation ? Elle se paye en compromis plus ou moins acceptables sur nos droits et libertés fondamentaux voire en monnaie de hamster… Sans vouloir brider l’innovation, essentielle, il est de plus en plus primordial d’être réactif pour recadrer légalement ces nouveaux dispositifs suite à l’expérience terrain.

France Charruyer, Avocate IP/IT/DATA et DPO, Présidente de la Commission Juridique, son blog d’articles ici
Luc Truntzler, Président de Inbenta France, Président de la Commission Cognitif & IA

Vous pouvez télécharger cet essai en cliquant sur le lien suivant : Mon aspirateur autonome a écrasé mon hamster! Qui est responsable ?

[1]https://www.village-justice.com/articles/hommage-bon-pere-famille-une-modification-terminologique-une-autre,30786.html

[2]http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_FR.html?redirect