Cognitif & IA

Et si les algorithmes d’IA évoluaient également suivant des lois darwiniennes ?

Logo NXU sans fond

Et si les algorithmes d’IA évoluaient également suivant des lois darwiniennes ?

Par Thierry Caminel

Nous vivons une révolution technologique, amenée par des systèmes basés sur des techniques d’Intelligence Artificielle (IA) qui sont sur le point de faire aussi bien que les humains pour une large gamme d’activités, telles que conduire une voiture, répondre aux demandes des clients, recommander un livre, ou diagnostiquer des maladies. Ces systèmes sont constitués de centaines de milliers d’algorithmes informatiques enchevêtrés, qui évoluent rapidement, tellement rapidement que cela suscite de nombreuses inquiétudes quant aux impacts sur les sociétés humaines. Mais quelles sont les lois qui régissent ces évolutions ?

Dans cet article, nous proposons une réponse provocante à cette question : nous suggérons que les lois darwiniennes, qui régissent l’évolution biologique et culturelle, régissent aussi l’évolution des algorithmes informatiques.  Les mêmes mécanismes sont à l’œuvre pour créer de la complexité, des cellules aux humains, des humains aux robots.

Plus précisément, nous nous concentrerons sur la théorie du Darwinisme Universel, une version généralisée des mécanismes de variation, de sélection et d’hérédité proposés par Charles Darwin, déjà appliquée pour expliquer l’évolution dans une grande variété d’autres domaines, comme l’anthropologie, la musique, la culture ou la cosmologie. Selon cette approche, de nombreux processus évolutifs peuvent être décomposés en trois composantes : 1/ Variation d’une forme ou d’un modèle donné, typiquement par mutation ou recombinaison ; 2/ Sélection des variantes les plus adaptées ; 3/ Hérédité ou rétention, permettant de conserver et transmettre ces variations.

Nous commencerons par donner des exemples simples, pour illustrer comment ce mécanisme s’intègre bien dans l’évolution des algorithmes « open source ». Cela nous amènera à considérer les grandes plateformes numériques comme des organismes, où les algorithmes sont sélectionnés et transmis. Ces plateformes ont un rôle important dans l’émergence des techniques d’apprentissage automatique, et nous étudierons cette évolution du point de vue darwiniste dans la section 2.  Dans la troisième section, nous élargirons notre champ d’action et nous ferons nôtre la vision selon laquelle les gènes et certains éléments de la culture peuvent être considérés comme des algorithmes, de même que la concurrence pour les emplois entre l’homme et les machines peut être assimilée à un processus darwinien, mû par le passage des algorithmes humains aux algorithmes numériques. Dans la dernière section, nous étudierons plus en détail certaines des boucles de rétroaction qui sous-tendent l’évolution des algorithmes biologiques, culturels et numériques. Ces boucles de rétroaction aident à comprendre la fantastique rapidité d’évolution des algorithmes que nous voyons de nos jours, et mènent à des aperçus troublants sur le transhumanisme et les conséquences potentielles de l’IA dans nos sociétés.

1 – L’Évolution Darwinienne des Algorithmes Informatiques

Commençons par un exemple. De nombreux chercheurs et entreprises travaillent à l’amélioration du noyau du système d’exploitation open source ‘Linux’. Qu’ils travaillent sur de nouveaux concepts, ou sur une légère amélioration des algorithmes, le processus allant d’une idée d’amélioration au changement introduit dans la version principale du noyau (le ‘tronc’) est long, et beaucoup d’idées ou de propositions n’auront pas de suites. Mais si une modification est acceptée, alors le changement sera conservé pendant longtemps dans la base de code Linux. Elle servira de référence pour les travaux futurs, et pourrait être à un moment donné déployé sur des millions d’ordinateurs sous Linux, des smartphones aux supercalculateurs.

Nous voyons que la description du darwinisme universel ci-dessus est valable pour notre exemple: 1/ Des variantes des nombreux algorithmes Linux sont continuellement créées, typiquement en changeant une partie d’un algorithme existant ou en combinant différents algorithmes (souvent développés dans un autre contexte) 2/ Les meilleures variations apportant un bénéfice sont sélectionnées, et mises dans une version du noyau Linux 3/ Cette version du noyau est intégrée dans des milliers de produits, et deviennent la base de nouvelles évolutions. Tout comme les gènes survivent et continuent d’évoluer après la mort des cellules, les algorithmes de votre smartphone continuent d’évoluer après que vous ayez décidé de la changer pour un nouveau avec des algorithmes améliorés ou plus de fonctionnalités.

Plus généralement, tout le mouvement open-source suit ce processus évolutif. Sur Github par exemple – la plus grande plate-forme de développement open-source, des millions de projets existent et sont continuellement copiés, modifiés et recombinés par des millions de développeurs de logiciels. Certains changements sont sélectionnés pour être introduits dans la ligne principale d’un produit et deviennent stables et susceptibles d’être réutilisés dans de nombreux projets, tandis que la plupart d’entre eux sont oubliés. L’analogie avec l’évolution des gènes est forte :  le contenu génétique des organismes mute et se recombine avec d’autres continuellement, et, parfois, des changements apportent un avantage et sont conservés dans de longues lignées de descendants.

Les codes des projets open-sources les plus intéressants sont intégrés en combiné dans de grandes plateformes de Cloud Computing, comme celle détenue par Amazon (Amazon Web Services) ou ses concurrents tels que Microsoft, Google ou Alibaba, qui proposent des services facilitant la composition de milliers d’algorithmes qu’elles mettent à disposition. Ces services sont utilisés par ces entreprises pour leurs besoins propres, mais aussi par d’autres entreprises, notamment les startups pour développer de nouvelles idées à moindre coût. Ces startups, à leur tour, peuvent mettre en open-source leurs propres variantes, qui pourront éventuellement être intégrées à ces plateformes. Ces plateformes servent ainsi de catalyseurs : elles font appliquer le processus évolutif darwiniste décrit ci-dessus en accélérant la combinaison, la sélection et la rétention des algorithmes.

2 – Évolution darwiniste des algorithmes de l’IA

Les services fournis par ces plateformes permettent de collecter beaucoup de données, ce qui conduit également à une percée majeure dans la dynamique d’évolution des algorithmes. En effet, les techniques d’apprentissage automatique permettent de créer des algorithmes à partir de données. Historiquement, la plupart des algorithmes ont été créés méticuleusement par les humains. Mais de nos jours, les systèmes d’apprentissage automatique utilisent des méta-algorithmes (par exemple, les réseaux de neurones artificiels) pour créer de nouveaux algorithmes. Ces algorithmes peuvent être appelés ‘modèles’ ou ‘agents’. Ils sont généralement créés en étant alimentés par de très grands ensembles de données d’exemples (« Big Data ») mais pas seulement.

Les progrès des algorithmes pour jouer au jeu de Go illustrent cette évolution. Pendant des décennies, les programmeurs ont développé et amélioré manuellement des algorithmes pour évaluer les positions et les mouvements du jeu. Mais de nos jours, les meilleurs logiciels utilisent des techniques d’apprentissage automatique, et en particulier les réseaux neuronaux profonds (« Deep Learning »). Ces réseaux ont, dans une première étape, été entraînés à évaluer des positions du jeu Go à partir d’un catalogue d’un million de parties jouées par des humains. Ceci a permis à Google AlphaGo de gagner contre des champions du monde humains. Puis, une nouvelle version appelée AlphaZero a supprimé cette contrainte, et a appris à évaluer la position en jouant des milliers de parties contre elle-même.  Le processus peut être considéré comme darwiniste : après chaque jeu, quelques changements sont introduits dans la version qui a gagné pour produire d’autres versions, qui jouent les unes contre les autres, etc.  Et juste en changeant les règles initiales, AlphaZero a appris en quelques heures à devenir aussi un grand maître aux échecs !

Aux niveaux inférieurs, il existe un mécanisme similaire appelé « apprentissage par renforcement » (Reinforcement learning). C’est l’une des méthodes clés à l’origine de l’explosion de l’IA que nous observons actuellement, utilisée notamment pour la traduction automatique, les assistants virtuels ou les véhicules autonomes.  Le but est d’optimiser une séquence d’action pour atteindre un but de manière optimale (par exemple dans le jeu de Go, une séquence de placement de pierres pour maximiser l’encerclement du territoire adverse). Dans cet algorithme, un agent (c’est-à-dire un algorithme) sélectionne une action sur la base de ses expériences passées. Il reçoit une récompense numérique qui mesure le succès de son résultat, et cherche à apprendre à sélectionner les actions qui maximisent cette récompense. Au fil du temps, les agents apprennent ainsi comment atteindre un but.  Pour améliorer le processus, un grand nombre de réseaux de neurones programmés au hasard peuvent être testés en parallèle. Les meilleurs sont sélectionnés et dupliqués avec de légères mutations aléatoires, et ainsi de suite pendant plusieurs générations. Cette approche est appelée « neuroévolutive » et basée sur des « algorithmes génétiques », illustrant la similitude avec l’évolution biologique. La fonction qui mesure le progrès vers les objectifs peut aussi être remplacée par une mesure de nouveauté, qui récompense un comportement différent de celui des individus précédents. Les chercheurs qui travaillent sur ces techniques d’IA, comme Ken Stanley, sont explicitement inspirés par la propension naturelle de l’évolution naturelle à découvrir perpétuellement la nouveauté.

3 – Le darwinisme et la numérisation des algorithmes humains

On discute beaucoup des impacts de l’IA sur les activités humaines, et il y a un consensus sur le fait que les robots et les agents virtuels, alimentés par des algorithmes d’IA, pourraient remplacer les humains dans de nombreuses activités.   Or, ces activités sont permises par nos capacités cognitives, qui sont la conséquence de centaines de milliers d’années d’évolution darwinienne. On peut donc considérer qu’il y a une certaine équivalence entre les algorithmes et ces fonctions cognitives, et que celles-ci peuvent être considérées comme des algorithmes biochimiques. Par exemple, des algorithmes numériques comme ceux de la vision par ordinateur sont comparables, et potentiellement interchangeables, avec des fonctions codées dans les gènes. Cette analogie a amené l’expert en robotique Gill Pratt à poser la question suivante : » Est-ce qu’une explosion cambrienne est imminente pour la robotique?« , parce que l’invention de la vision au Cambrien a été la clé de voûte de l’explosion des formes de vie, et que quelque chose de semblable pourrait se passer si la vision est donnée aux ordinateurs. Les machines pourraient par exemple apprendre comment le monde physique fonctionne en « voyant » des milliers de vidéos, tout comme un bébé apprend la gravité et la conservation de l’inertie en observant le monde qui l’entoure. C’est actuellement un sujet de recherche actif pour les chercheurs en IA.

L’interchangeabilité des algorithmes entre l’humain et les machines est abordée par Yuval Noah Harari dans son best-seller « Homo Deus: Une brève histoire du futur« . L’un des concepts clés qu’il développe est que les organismes ont des algorithmes biochimiques pour « calculer » ce que l’on considère généralement comme des « sentiments » ou des « émotions », comme la meilleure décision à prendre pour éviter un prédateur, ou pour choisir un partenaire sexuel.  Bien que ce ne soit pas explicitement mentionné dans le livre, ces algorithmes suivent un processus darwinien : ils se sont améliorés au cours de millions d’années d’évolution, et, si les sentiments de certains ancêtres ont conduit à une erreur, les gènes qui façonnent ces sentiments ne sont pas passés à la génération suivante. Harari soutient que les algorithmes numériques et les algorithmes biochimiques ont la même nature, et que les premiers sont susceptibles de devenir plus efficaces pour la plupart des tâches que les derniers.

Certains chercheurs, comme Richard Dawkins, considèrent également que les comportements ou les pratiques qui se propagent au sein d’une culture suivent des processus de Darwinisme universel. Les pratiques culinaires, les techniques agricoles, les croyances religieuses ou les stratégies guerrières sont des exemples typiques, mais les processus et le savoir-faire des entreprises entrent également dans cette catégorie.  Le fait est que la plupart des mèmes sont des algorithmes : les recettes de cuisine sont de fait un exemple courant pour expliquer ce qu’est un algorithme. On peut donc considérer la transformation numérique des processus et des compétences dans les entreprises comme une transformation de la nature des algorithmes sous-jacents, depuis des algorithmes culturels vers des algorithmes numériques. Ceux-ci ont d’abord été développés par des informaticiens, qui ont codé explicitement des processus d’entreprises devenus de plus en plus automatisés. Mais ils sont maintenant complétés par l’apprentissage automatique, ce qui permet d’augmenter encore le niveau d’automatisation (par exemple en utilisant des algorithmes d’intelligence artificielle qui comprennent le langage naturel ou optimisent des activités complexes), ou d’améliorer les processus, en analysant le flux de données toujours croissant. Les entreprises n’ont d’autre choix que de s’adapter. Alors que le monde est de plus en plus bouleversé par les bouleversements numériques, la phase de Charles Darwin « ce n’est pas l’espèce la plus forte qui ne survit ni la plus intelligente ; c’est celle qui s’adapte le mieux au changement » est plus que jamais vraie.

Cette transformation numérique de l’entreprise conduit également à une compétition entre les humains et les machines, comme l’expliquent Erik Brynjolfsson et Andrew McAfee dans leur livre « Race Against The Machine« .  C’est en effet une compétition darwiniste entre des formes d’algorithmes. Par exemple, les algorithmes basés sur l’apprentissage automatique d’Amazon sont en compétition avec ceux acquis par les libraires pour conseiller un client. Amazon développe aussi des systèmes basés sur l’IA pour le contrôler ses centres de données, gérer ses entrepôts et systèmes logistiques et automatiser les processus métier, ce qui leur permet de diminuer inexorablement l’intervention humaine.  Quant aux algorithmes sous-jacents, ils sont continuellement améliorés par les développeurs, mais beaucoup ne sont même pas embauchés par Amazon grâce aux communautés Open Source. Les algorithmes sont également améliorés par de l’apprentissage automatique, en utilisant l’énorme quantité de données générées acquises par la plate-forme. Les humains peuvent difficilement rivaliser.

 

Vous voulez connaitre la suite ? Téléchargez l’intégralité du texte en format PDF, en cliquant sur le lien suivant: Et si les algorithmes d’IA évoluaient également suivant des lois darwiniennes

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *