Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
Le champ long
5 octobre 2022

L'intelligence artificielle et la stabilité des marchés

L'intelligence artificielle est de plus en plus utilisée pour résoudre toutes sortes de problèmes auxquels sont confrontés les gens et les sociétés. Cette chronique examine les avantages et les risques potentiels de l'emploi de l'IA sur les marchés financiers. Si elle pourrait bien révolutionner la gestion des risques et la supervision financière, elle menace également de déstabiliser les marchés et d'accroître le risque systémique.
L'intelligence artificielle (IA) est utile pour contrôler de manière optimale un système existant, un système dont les risques sont clairement compris. Elle excelle dans la recherche de modèles et les mécanismes de contrôle. Compte tenu d'un nombre suffisant d'observations et d'un signal fort, elle peut identifier des structures dynamiques profondes de manière beaucoup plus robuste que n'importe quel humain et est de loin supérieure dans les domaines qui nécessitent l'évaluation statistique de grandes quantités de données. Elle peut le faire sans intervention humaine.
Nous pouvons laisser une machine IA aux commandes quotidiennes d'un tel système, qui s'autocorrige et apprend automatiquement de ses erreurs et atteint les objectifs de ses maîtres humains.
Cela signifie que la gestion des risques et la surveillance microprudentielle sont bien adaptées à l'IA. Les questions techniques sous-jacentes sont clairement définies, tout comme les objectifs de haut et de bas niveau.
Toutefois, les mêmes qualités qui rendent l'IA si utile pour les autorités microprudentielles sont aussi la raison pour laquelle elle pourrait déstabiliser le système financier et augmenter le risque systémique, comme l'ont expliqué Danielsson et al. (2017).
Gestion des risques et surveillance microprudentielle
Dans les applications à grande échelle réussies, un moteur d'IA exerce un contrôle sur de petites parties d'un problème global, où la solution globale est simplement des sous-solutions agrégées. Contrôler séparément toutes les petites parties d'un système équivaut à contrôler le système dans son intégralité. La gestion des risques et les réglementations micro-prudentielles sont des exemples d'un tel problème.
La première étape de la gestion du risque est la modélisation du risque, ce qui est simple pour l'IA. Cela implique le traitement des prix du marché à l'aide de techniques statistiques relativement simples, un travail qui est déjà bien avancé. L'étape suivante consiste à combiner la connaissance détaillée de toutes les positions détenues par une banque avec des informations sur les individus qui décident de ces positions, créant ainsi un moteur d'IA de gestion du risque avec une connaissance du risque, des positions et du capital humain.
Bien que nous ayons encore du chemin à parcourir pour y parvenir, la plupart des informations nécessaires se trouvent déjà dans l'infrastructure informatique des banques et il n'y a pas d'obstacles technologiques insurmontables sur le chemin.
Il ne reste plus qu'à informer le moteur des objectifs de haut niveau d'une banque. La machine peut alors exécuter automatiquement les fonctions standard de gestion des risques et d'allocation d'actifs, fixer des limites de position, recommander qui doit être licencié et qui doit recevoir des primes, et conseiller sur les classes d'actifs dans lesquelles investir.
Il en va de même pour la plupart des contrôles micro-prudentiels. En effet, l'IA a déjà donné naissance à un nouveau domaine appelé technologie de régulation, ou "regtech".
Il n'est pas si difficile de traduire le règlement d'une agence de surveillance, désormais pour la plupart en anglais simple, en un moteur logique informatisé formel. Cela permet à l'autorité de valider ses règles pour en assurer la cohérence et donne aux banques une interface de programmation d'applications pour valider les pratiques par rapport aux règlements.
Pendant ce temps, l'IA de supervision et l'IA de gestion des risques des banques peuvent s'interroger automatiquement l'une l'autre pour assurer la conformité. Cela signifie également que toutes les données générées par les banques deviennent structurées et étiquetées de manière optimale et automatiquement traitables par l'autorité pour la conformité et l'identification des risques.
Il y a encore du chemin à parcourir avant que l'IA de supervision/gestion des risques ne devienne une réalité pratique, mais ce qui est décrit ci-dessus est éminemment concevable compte tenu de la trajectoire des progrès technologiques. Le principal obstacle sera probablement d'ordre juridique, politique et social plutôt que technologique.
La gestion des risques et la surveillance micro-prudentielle sont les cas d'utilisation idéaux pour l'IA - ils font respecter des règles clairement définies et des processus générant de grandes quantités de données structurées. Ils ont un comportement humain étroitement surveillé, des objectifs précis de haut niveau et des résultats directement observés.
La stabilité financière est différente. Là, l'accent est mis sur le risque systémique (Danielsson et Zigrand 2015), et contrairement à la gestion des risques et à la surveillance microprudentielle, il est nécessaire de considérer le risque de l'ensemble du système financier. C'est beaucoup plus difficile car le système financier est à toutes fins pratiques infiniment complexe et toute entité - humaine ou IA - ne peut espérer saisir qu'une petite partie de cette complexité.
L'utilisation généralisée de l'IA dans la gestion des risques et la supervision financière peut accroître le risque systémique. Il y a quatre raisons à cela.
1. Rechercher le risque dans les mauvais endroits
La gestion des risques et l'IA réglementaire peuvent se concentrer sur le mauvais risque - le risque qui peut être mesuré plutôt que le risque qui compte.
L'économiste Frank Knight a établi la distinction entre le risque et l'incertitude en 1921. Le risque est mesurable et quantifiable et se traduit par des distributions statistiques que nous pouvons ensuite utiliser pour exercer un contrôle. L'incertitude n'est rien de tout cela. Nous savons qu'elle est pertinente mais nous ne pouvons pas la quantifier, il est donc plus difficile de prendre des décisions.
L'IA ne peut pas bien gérer l'incertitude car il n'est pas possible d'entraîner un moteur d'IA contre des données inconnues. La machine est très douée pour traiter des informations sur des choses qu'elle a vues. Elle peut gérer les contrefactuels lorsque ceux-ci surviennent dans des systèmes aux règles clairement énoncées, comme avec l'AlphaGo Zero de Google (Silver et al. 2017). Il ne peut pas raisonner sur l'avenir lorsque celui-ci implique des résultats qu'il n'a pas vus.
La gestion et la surveillance des risques sont principalement axées sur le risque, et non sur l'incertitude. Le marché boursier en est un exemple et nous sommes bien placés pour gérer le risque qui en découle. Si le marché baisse de 200 milliards de dollars aujourd'hui, l'impact sera minime car il s'agit d'un risque connu.
L'incertitude capture le danger que nous ne savons pas qu'il existe jusqu'à ce qu'il soit trop tard. En 2008, des pertes potentielles et non réalisées de moins de 200 milliards de dollars sur les prêts hypothécaires à risque ont mis le système financier à genoux. S'il n'y a pas d'observations sur les conséquences des prêts hypothécaires à risque placés dans des CDO avec des garanties de liquidité, il n'y a rien sur quoi s'entraîner. L'incertitude qui en résulte sera ignorée par l'IA.
Bien que les gestionnaires de risques et les superviseurs humains puissent également passer à côté de l'incertitude, ils sont moins susceptibles de le faire. Ils peuvent évaluer les connaissances actuelles et historiques à l'aide de l'expérience et de cadres théoriques, ce que l'IA ne peut pas faire.
2. Optimisation contre le système
Un grand nombre d'agents économiques bien dotés en ressources ont de fortes incitations à prendre de très gros risques qui ont le potentiel de leur apporter de gros profits au détriment d'un danger important pour leurs institutions financières et le système en général. C'est exactement le type d'activité que la gestion et la surveillance des risques visent à contenir.
Ces agents optimisent contre le système, visant à saper les mécanismes de contrôle afin d'en tirer profit, en identifiant les domaines où les contrôleurs ne sont pas suffisamment vigilants.
Ces agents hostiles ont un avantage inhérent sur ceux qui sont chargés de les contrôler, car chacun d'eux ne doit résoudre qu'un petit problème local et leur charge de calcul est bien inférieure à celle de l'autorité. De nombreux agents pourraient agir simultanément de la sorte et il suffirait que quelques-uns, voire un seul, réussissent pour qu'une crise éclate. Pendant ce temps, dans une course à l'armement de l'IA, les autorités perdent probablement face à la puissance de calcul du secteur privé.
Si ce problème a toujours été inhérent à la gestion et à la surveillance des risques, il risque de s'aggraver à mesure que l'IA prend en charge des fonctions essentielles. Si nous pensons que l'IA fait son travail, alors que nous ne pouvons pas vérifier comment elle raisonne (ce qui est impossible avec l'IA) et que nous ne surveillons que les résultats, nous devons lui faire confiance. Si ensuite elle semble gérer sans grandes pertes, elle gagnera notre confiance.
Si nous ne comprenons pas comment un moteur de supervision/gestion des risques IA raisonne, nous ferions mieux de nous assurer de spécifier sa fonction objectif correctement et de manière exhaustive.
Paradoxalement, plus nous faisons confiance à l'IA pour faire son travail correctement, plus il peut être facile de la manipuler et de l'optimiser contre le système. Un agent hostile peut apprendre comment le moteur d'IA fonctionne, prendre des risques là où il ne regarde pas, jouer avec les algorithmes et donc miner la machine en se comportant de manière à éviter de déclencher ses alarmes ou, pire encore, à la pousser à regarder ailleurs.
3. La complexité endogène
Même dans ce cas, le moteur d'IA travaillant sur ordre de l'autorité macroprudentielle pourrait avoir une chance de s'en sortir si la structure du système financier restait constante, de sorte que le problème est simplement celui de ressources informatiques suffisantes.
Mais ce n'est pas le cas. Le système financier modifie constamment sa structure dynamique simplement en raison de l'interaction des agents qui le composent, dont beaucoup optimisent le système et créent délibérément des complexités cachées. C'est la racine de ce que nous appelons le risque endogène. (Danielsson et al. 2009).
La complexité du système financier est endogène, et c'est pourquoi l'IA, même conceptuellement, ne peut pas remplacer efficacement l'autorité macro-prudentielle comme elle peut remplacer l'autorité micro-prudentielle.
4. L'intelligence artificielle est procyclique
Le risque systémique est accru par l'homogénéité. Plus nos perceptions et nos objectifs sont similaires, plus nous créons de risque systémique. La diversité des perceptions et des objectifs atténue l'impact des chocs et agit comme une force anticyclique de stabilisation et de minimisation du risque systémique.
Les réglementations financières et les pratiques standard de gestion des risques poussent inévitablement à l'homogénéité. L'IA l'est encore plus. Elle favorise les meilleures pratiques et les modèles standardisés les plus performants qui se ressemblent beaucoup, et tout cela, aussi bien intentionné et positif soit-il, augmente également la procyclicité et donc le risque systémique.
Conclusion
L'intelligence artificielle est utile pour éviter que les échecs historiques ne se répètent et elle prendra de plus en plus en charge les fonctions de supervision financière et de gestion des risques. Nous obtenons des règles plus cohérentes et une conformité automatique, le tout à des coûts bien inférieurs à ceux des dispositifs actuels. Le principal obstacle est politique et social, et non technologique.
Du point de vue de la stabilité financière, la conclusion inverse s'impose.
Nous pourrions passer à côté du type de prise de risque le plus dangereux. Pire encore, l'IA peut faciliter le jeu du système. Il se peut qu'il n'y ait aucune solution à cela, quelle que soit la trajectoire future de la technologie. Le problème de calcul auquel est confronté un moteur d'IA sera toujours bien plus élevé que celui de ceux qui cherchent à le miner, notamment en raison de la complexité endogène.
Pendant ce temps, la formalité et l'efficacité mêmes de la machine de gestion/supervision des risques augmentent également l'homogénéité des croyances et des réponses, amplifiant encore la procyclicité et le risque systémique.
Le résultat final de l'utilisation de l'IA pour la gestion du risque financier et la supervision est susceptible d'être une volatilité plus faible mais des queues plus grosses ; c'est-à-dire un risque quotidien plus faible mais un risque systémique plus important.

Publicité
Publicité
Commentaires
Le champ long
Publicité
Le champ long
un blog de Jérôme Longchamp
Archives
Publicité