« Il n’est pas nécessaire d’expliquer comment l’IA prend ses décisions pour l’appliquer au milieu financier »

La controverse liée à l’intelligence artificielle n’est pas nouvelle ; pour mieux comprendre ses applications possibles dans le secteur de la finance, il convient de revenir sur plusieurs distinctions importantes : outil vs. usage, machine learning vs. reinforcement learning, explicabilité vs. maitrise des risques.

NDLR : Cet article est le premier d’une série de trois sur les enjeux et limites de l’intelligence artificielle (IA) dans le domaine financier. Henri Gérard, titulaire d’un PhD en mathématiques appliquées, s’est beaucoup intéressé à la théorie des jeux, le robust learning et les mesures de risque en finance. Aujourd’hui entrepreneur, il a co-fondé Beagle dans le but d’aider les jeunes professionnels à mieux gérer leurs finances personnelles. 

Pour comprendre la pertinence et les dangers de l’Intelligence Artificielle appliquée aux problématiques financières, il convient de faire un rapide retour en arrière sur les trois grandes phases que cette notion aujourd’hui très en vogue a successivement connues. 

Du canard de Vaucanson au micro-processeur, la controverse traverse les époques 

Un des premiers exemples de controverse semblable à celle qu’on trouve aujourd’hui autour de l’IA remonte au début du XVIIIème siècle, et à la création par le scientifique Vaucanson d’un canard automate capable de marcher, se dandiner, manger et digérer. La question qui agite toutes les lèvres à l’époque n’est pas sans rappeler celle qui divise la communauté scientifique aujourd’hui au sujet de l’IA : « Peut-on dire d’une machine qui ressemble à un canard et qui bouge comme un canard que c’est un canard ? ». La différence est que de nos jours, les automates sont moins effrayants qu’il y a trois siècles et que leur raffinement a permis l’élaboration de machines bien plus complexes et utiles. 

La deuxième vague est marquée par l’apparition des premiers ordinateurs et des programmes informatiques, à partir de laquelle une machine devient capable d’exécuter une série d’instructions. On passe d’un automate par nature mono-tâche à une machine capable d’exécuter des tâches de nature différente. C’est ce qui fait qu’en 1965, Herbert Alexander Simon prophétise une des craintes propres à la modernité : « D’ici vingt ans, des machines seront capables de faire tout travail que l’homme peut faire ». Crainte qui continue encore aujourd’hui à diviser l’opinion publique… sans qu’elle n’ait pu être vérifiée, même un demi siècle plus tard.

Quid de la troisième vague ? C’est la phase que nous traversons actuellement, et qui constitue un changement de paradigme par rapport aux deux phases précédentes : aujourd’hui, nous ne demandons pas à la machine de nous fournir la bonne réponse mais la réponse la plus probable. Et comme les phases précédentes, cette période alimente un certain nombre de fantasme qu’il nous faut clarifier… 

Faire la différence entre l’IA comme outil et l’utilisation qu’on en fait

Quand on se demande si l’Intelligence Artificielle va remplacer l’homme, on tombe dans le travers qui consiste à confondre un outil, neutre par essence, avec l’utilisation qui peut en être faite. Un marteau n’est ni bon ni mauvais en soi. En revanche, la société a acté depuis longtemps que l’utilisation d’un marteau pour planter un clou constitue un usage réglementaire alors que son utilisation pour frapper quelqu’un est néfaste et susceptible d’être sanctionnée. Suivant le même schéma de pensée, on peut choisir de se servir de l’IA pour épauler l’être humain dans son travail aussi bien que pour le remplacer. 

L’IA, entendue comme un ensemble de techniques mathématiques, constitue donc un outil. Intéressons-nous ensemble aux usages possibles de cet outil en laissant de côté la controverse philosophique visant à départager le bon usage du mauvais.

Parmi les usages possibles de l’IA, concentrons-nous sur deux usages particulièrement adaptés à la finance. Le machine learning d’abord, terme largement éculé ces dernières années, est une technique reposant sur l’IA qui consiste à « entraîner » l’ordinateur sur un grand nombre de données. En quoi consiste exactement cet entraînement ? A associer à un événement donné une probabilité qu’il se produise.

Le machine learning comme estimation d’une probabilité 

Prenons un exemple concret : si je demande combien j’ai de chance d’obtenir un 6 quand je lance un dé, la réponse immédiate est ⅙. Nul besoin d’IA pour parvenir à cette conclusion. Si maintenant je demande quelle est la chance que votre salle de bains subisse un dégât des eaux, la réponse est plus délicate à obtenir. Difficile, mais pas impossible : c’est ce que font par exemple les compagnies d’assurance, lorsqu’elles recensent les sinistres de nombreuses personnes pour déterminer les chances qu’arrive un événement en fonction de plusieurs critères. La conclusion d’un tel travail pourrait être la suivante : dans un appartement de plus de 10 ans, en ville, dans 1 cas sur 100, il y a un dégât des eaux. Voilà à quoi peut ressembler le machine learning. Cette première étape nous montre que les outils d’IA sont déjà utilisés dans le domaine financier – et le sont d’ailleurs depuis plusieurs années.

En revanche, cette technique n’est pas sans poser de problèmes : un ordinateur est certes capable d’analyser beaucoup plus de données historiques qu’un humain. Mais la précision des résultats dépend avant tout de la fiabilité de la base de données utilisée pour calculer. En quoi le reinforcement learning diffère-t-il du machine learning ?

Le reinforcement learning comme aide à la prise de décision

Le reinforcement learning poursuit un but différent de celui du machine learning : prendre des décisions dans un contexte incertain. Alors que le machine learning permettait d’élaborer à partir de données choisies des scenarii plus ou moins probables, le reinforcement learning consiste à dire quelle est la meilleure décision à prendre face à ces scenarii. Ainsi, après avoir défini un objectif de long terme, un algorithme de reinforcement learning va comparer une multitude de décisions à court terme sur de nombreux scenarii et déterminer la suite de décisions qui nous rapproche le plus de l’objectif final. 

Vous le pressentez peut-être déjà, mais cette technique mathématique, qui repose sur une branche connue sous le nom de Multistage Stochastic Optimization, soulève quelques problèmes : d’abord, il y a la question réglementaire, qui impose aux acteurs d’être en mesure de rendre compte des décisions qu’ils prennent – ce qui est compliqué lorsque l’on ne sait pas comment tourne la machine qui permet de les prendre. Ensuite, cette technique requiert de définir clairement un objectif final, car il ne peut y avoir de « meilleure » décision que par rapport à un objectif précis.

L’utilisation de l’IA mise face à ses limites ?

L’un des problèmes sous-jacents à l’utilisation du machine learning est donc la qualité des données. Il apparaît par exemple difficile générer un scénario de krach boursier crédible si l’on entraîne l’ordinateur avec les données des cours entre 2009 et 2019…

L’utilisation du reinforcement learning vient elle aussi avec sa dose de limites : la première d’entre elles, c’est celle de l’objectif à fixer. L’IA seule est incapable de définir un objectif. Le jeu paperclip, qui développe une IA dont l’objectif est de faire des trombones, illustre bien cette limite. L’IA poursuit en effet son objectif (la production de trombones) jusqu’à détruire la planète Terre. Lorsque l’on utilise des outils de reinforcement learning dans la finance et dans la gestion de patrimoine en particulier, la première question à se poser est donc la suivante : « quel est le but poursuivi ?, Pourquoi voulez-vous investir votre argent ? »… et l’on s’aperçoit assez rapidement que les réponses apportées peuvent différer de : « maximiser mon rapport rendement / risque ».

La deuxième limite que l’on peut mettre au jour, c’est celle portant sur la robustesse des décisions, qui est loin d’être toujours garantie. En déployant des outils de reinforcement learning dans la finance, il faut maîtriser les décisions que va prendre un algorithme lorsqu’il va passer d’un jeu de données test à un jeu de données réelles. C’est à ce niveau qu’intervient la notion de gestion de risque. Quelles contraintes, issues du savoir humain, peut-on imposer à l’algorithme pour éviter des situations absurdes ?

En définitive, l’utilisation du reinforcement learning se heurte à l’explicabilité des décisions prises, c’est-à-dire la capacité à rendre compte de ces dernières. En entreprise, un décisionnaire se voit souvent demander de justifier les décisions qu’il a prises – le but étant de comprendre comment s’améliorer par la suite. Une des principales limites des outils d’intelligence artificielle aujourd’hui, c’est l’incapacité d’expliquer la décision prise par l’IA. L’explicabilité des décisions constitue pourtant un enjeu crucial en finance, où les investisseurs et les gestionnaires de portefeuille sont souvent assujettis à des obligations fiduciaires.

Dépasser le problème de l’explicabilité afin de décupler la productivité humaine 

Dans quelle mesure le fait de ne pas pouvoir expliquer les ressorts d’une prise de décision doit-il freiner cette dernière ? Si l’on prend l’exemple du chien d’avalanche chargé de retrouver les personnes bloquées sous la neige, on se rend compte qu’il n’est pas nécessaire de savoir comment le chien procède pour parvenir au but fixé – en l’occurrence, sauver des vies. On demandera des comptes au maître chien et non au chien lui-même. Avoir une IA qui rendrait compte de toutes ses décisions n’est donc pertinent que si cette IA est autonome à 100%. Avant d’arriver à ce degré d’autonomie, qui n’est peut-être pas souhaitable, il est d’ores et déjà possible de déployer des outils de reinforcement learning pour les experts. 

Comment appliquer cette approche au milieu financier ? 

Le financier est là pour construire une relation de confiance avec le client et l’aider à définir ses objectifs de long terme. Le reinforcement learning va lui permettre de tester des millions de décisions à court terme dans des milliers de scenarii. L’outil propose ainsi des séquences d’actions optimisées pour atteindre l’objectif défini par une personne humaine. Même s’il ne peut rendre compte de la manière qui a amené la machine à prendre la décision, l’expert pourra valider la décision finale en étant capable de la relier à l’objectif défini initialement. 

Loin d‘être une utopie lointaine, l’automatisation de la prise de décision par des algorithmes constitue un sujet très actuel. L’enjeu consiste à déployer progressivement ces algorithmes aux côtés d’êtres humains pour décupler leur productivité et non pour les remplacer.

La recette magique pour réussir cette intégration dans le monde financier ? Maîtriser les risques de l’outil plutôt que de vouloir supprimer tous les risques qui sont liés à son utilisation. Ce faisant, il deviendra plus facile de créer un climat de confiance autour de l’IA…


Suggestions d'articles