Où est la Politique Européenne sur les Données face au Covid-19 ? Une possibilité mal appréhendée ?

On aurait pu croire avec toute la littérature sur l’avancée de l’Intelligence Artificielle et ses avancées fulgurantes que nous serions sauvés aujourd’hui face à cette crise sanitaire ! Bien évidemment, il est question de Deep learning.

A ce jour, il n’est pas de test, encore moins de vaccins mis sur le marché élaborés sur la base de l’Intelligence Artificielle et scientifiquement approuvés ; et pourtant, l’IA a pour moteur la donnée. Or, avec le CORONAVIRUS, les données ont été disponibles en Chine et aujourd’hui, étant donné qu’il s’agit d’une pandémie, elles sont à disposition partout dans le monde, surtout en Europe, en Italie.

Certains avancent que la Chine est par ailleurs très avancée dans cette technologie puisque le régime et la culture, donc la mentalité, se prête à la capture des données, leur exploitation et utilisation. (cf ce lien).

Il faut croire qu’il n’y a pas eu assez de données. Si c’est le cas, cela confirmerait que pour une efficience de l’Apprentissage statistique, il faut des données incommensurables. Or, en Europe depuis l’entrée en vigueur du RGPD, il sera difficile, voire impossible, pour une entreprise privée de prendre l’initiative de collecter des données pour tenter de mettre sur le marché des tests, voire un vaccin à l’aide de l’Intelligence Artificielle. En effet, le RGPD, dans son Article 6 dispose qu’il est « interdit de traiter des données concernant la santé ».

A présent, les sanctions prononcées par la CNIL (Commission Nationale de l’Informatique et des Libertés) ou ses homologues Européens peuvent être très élevées pour les PME et donc assez dissuasives.

En revanche, une telle entreprise privée, mandatée par l’Etat français, peut y procéder sous certaines conditions, par dérogation à l’Article 6. En effet, selon les Articles 31 du même texte précité :

« I.-Sont autorisés par arrêté du ou des ministres compétents, pris après avis motivé et publié de la Commission nationale de l’informatique et des libertés, les traitements de données à caractère personnel mis en œuvre pour le compte de l’Etat et :

1° Qui intéressent la sûreté de l’Etat, la défense ou la sécurité publique ; » « IV.-Pour l’application du présent article, les traitements qui répondent à une même finalité, portent sur des catégories de données identiques et ont les mêmes destinataires ou catégories de destinataires peuvent être autorisés par un acte réglementaire unique. Dans ce cas, le responsable de chaque traitement adresse à la commission un engagement de conformité de celui-ci à la description figurant dans l’autorisation. »

Ainsi, pour des traitements liés aux tests et ceux liés à l’élaboration de vaccins, un seul acte réglementaire peut être publié avec l’avis du CNIL.

Concernant cette demande d’avis, l’Article 33 de la même loi en facilite la démarche au Gouvernement, d’autant plus qu’il a été autorisé à légiférer par voie d’Ordonnances afin de permettre une réactivité dans uns situation de « guerre ».

« Les demandes d’avis portant sur les traitements intéressant la sûreté de l’Etat, la défense ou la sécurité publique peuvent ne pas comporter tous les éléments d’information énumérés ci-dessus. Un décret en Conseil d’Etat, pris après avis de la Commission nationale de l’informatique et des libertés, fixe la liste de ces traitements et des informations que les demandes d’avis portant sur ces traitements doivent comporter au minimum. »

Santé Humaine

Soit sous l’impulsion de l’Etat français ou européens, soit des Institutions européennes, une ou plusieurs entreprises auraient pu proposer un/des projet(s) communs, harmonisés, ou bien simplement coordonnés ; afin de permettre à l’Europe qui cherche un positionnement sur l’Intelligence Artificielle d’exposer sa vision de l’utilisation d’une IA « humaniste ». L’Europe aurait pu être pionnière dans ce domaine, disposant de ses propres données au travers de sa population contaminée.

D’autant plus que l’annonce des sommes et l’affichage médiatique auraient pu être traduits concrètement dans une solution holistique de recherche de tests et de vaccins contre le Covid-19.

Sachant que la Santé et l’aide à la solution d’une pandémie telle que celle du CORONAVIRUS peut être une des valeurs à promouvoir dans la recherche à l’aide de l’IA.

C’est un choix de société que d’orienter l’IA plutôt que de la subir.

L’Europe avait vraiment une occasion pour tenter une politique coordonnée des Start-ups intéressées dans ce domaine, dans toute l’Europe, pour ensuite orienter leurs recherches à travers les Etats dans un but de santé publique et non de surveillance publique.

Bien évidemment, cette politique n’est pas exclusive du soutien aux laboratoires dans la recherche à la résorption de la crise, comme la Commission Européenne a pu le faire pour le laboratoire CUREVAC, d’après les médias.

Il suffit donc d’une politique concertée pour élaborer la vision d’une IA protectrice plutôt qu’inquisitrice.

Pour le moment, nous assistons à des politiques étatiques, qui semblent être nationalistes, égocentriques plutôt qu’harmonisées et surtout solidaires. En effet, le manque de solidarité fait “courir un danger mortel à l’Union européenne”, a averti ce samedi 28 mars l’ancien président de la Commission européenne Jacques Delors, dans une déclaration transmise à l’AFP » (cf lien ici)

Aujourd’hui, les textes autorisant une intervention européenne concertée ont été adoptés, les moyens financiers ne manquent pas, les données sur des patients européens sont disponibles, que reste-t-il pour l’Intelligence Artificielle « humaniste » Européenne?

Youssoupha Sy, Executive MBA