Didier Darcet (de Gavekal Intelligence Solutions, abrégé en Gavekal IS) explique comment, de client de Gavekal qu'il était d'abord, il en est venu à travailler avec Charles Gave et son fils Louis, après avoir attiré l'attention de ces derniers et de leurs collaborateurs sur l'intérêt que représente la démarche scientifique dans l'analyse des risques financiers. Le but était de tester, de manière rationnelle, la validité des hypothèses développées par Gave, pendant de nombreuses années, à partir de son expérience et de sa compréhension des marchés financiers, concernant par exemple l'influence de la croissance ou de l'inflation sur les actions.
Les bases de données se sont considérablement développées au cours des dernières décennies, ainsi que la capacité de traitement, ce qui permet de tester scientifiquement les hypothèses, dont il faut garder une mémoire. L'état d'esprit requis consiste à approcher avec logique les questions économiques et financières, de façon à en comprendre les relations causales, en ayant une approche intellectuelle des méthodes d'apprentissage et de recherche. Il s'agit, en intelligence artificielle, de construire des réseaux de neurones capables d'apprendre par eux-mêmes à partir de variables d'entrée, de réponses et de vérifications.
Plutôt que de simplement utiliser des techniques d'intelligence artificielle, il fallait contrôler le processus à l'intérieur pour comprendre, par exemple, le poids donné à telle variable économique, et en vérifier la cohérence par rapport à une logique économique. L'expérience consistait d'abord à observer le comportement du réseau par rapport aux mêmes paramètres dans trois pays différents (les États-Unis, le Japon et l'Allemagne), avant d'étendre l'observation à quarante pays différents. La bonne méthode de prise de décision n'est donc pas forcément celle qui alimente le réseau avec un maximum de données afin de complexifier les formules, mais plutôt celle qui s'attache à trouver les paramètres déterminants.
Il y a, par conséquent, un travail d'élimination de l'information. Pour autant, ce travail ne suffit pas à surmonter l'incertitude. Quand on parle d'un marché qui monte, il faut d'abord définir les termes, et se demander si c'est significatif ou si ce n'est que du bruit. On se base alors sur un signal, et on étudie les relations de ce signal avec le bruit qui l'entoure. Par exemple, le S&P 500, depuis 70 ans, gagne trois points de base par jour (0,03 %), avec une volatilité de 1 % (soit trente fois plus). Dans ce cas, traiter le marché au quotidien revient à chercher un signal bruité à 97 %. Même si l'on étend la plage de temps, l'incertitude reste forte et il est honnête de le reconnaître. Il vaut mieux, en effet, dire que l'on ne sait pas car, quand on sait, la prise de décision est d'autant plus claire.
Les experts ont développé ce qu'ils appellent, dans le jargon du métier, le pôle Quant. L'idée est d'essayer de prendre les données non pour faire des prévisions mais pour voir, par exemple, si des attentes logiques peuvent découler de constellations répétitives d'événements. On ne peut rien prévoir, mais il est possible de mesurer un état, comme en physique, et on sait, à partir d'une bonne description, que certains chemins sont impraticables. La dépression inflationniste qui touchait l'Angleterre dans les années 1970 était, comme son nom l'indique, marquée à la fois par l'inflation et par la dépression, d'où une chute des profits. Acheter des actions, dans un tel contexte, revient à vouloir sortir de la monnaie : c'est une fuite. Dans les métiers de la finance, des centaines de milliards de dollars sont dépensées dans une recherche qui, ce qui est étonnant, porte sur 20 % des résultats attendus (80 % restant dans une zone grise).
La vérification économique et la recherche fondamentale ont pour but de faire gagner de l'argent, avec une probabilité d'erreur importante : c'est une école de modestie. La finance statistique a commencé au début du vingtième siècle avec Louis Bachelier (1870-1946). Sur un marché, on observe des tendances et, autour de ces tendances, une agitation aléatoire, qui rejoint le mouvement brownien en physique. La méthode adoptée s'apparente à une simulation de jets de dés. Le fait de jeter un dé un million de fois confirme de plus en plus, selon la courbe de Gauss, la probabilité pour le 6 de sortir une fois sur six. Sachant que, dans un portefeuille donné, il peut y avoir, mettons, 1 chance sur 10 de perdre plus de 10 %, on devient capable de calculer le prix d'une option ou celui du risque (ce qui est utile aussi dans les assurances).
Les équations de Bachelier étant approximativement justes au premier ordre, elles ne sont pas justes au deuxième ordre. L'importance du deuxième ordre se comprend à l'aune de la différence entre la physique de Newton et la physique d'Einstein, qui apparaît quand on prend en compte le fait que certains objets ont une grande vitesse, ce qui peut avoir des conséquences pratiques (comme la géolocalisation des téléphones portables). Ce constat amène aux caractéristiques propres des actifs financiers, et aux notions de fragilité et d'antifragilité telles que développées par Nassim Taleb. Apple est une entreprise fragile en ce sens, car sa rente dépend d'une adaptation à un environnement défini, qui peut toujours connaître des bouleversements susceptibles de remettre cette rente en question.
La croissance ricardienne repose sur la disponibilité des matières premières pour une zone densément peuplée, entraînant une meilleure utilisation du temps, du travail et de l'énergie : c'est l'exemple, fragile, du corridor entre Saint-Pétersbourg et l'Inde, qui ne repose sur aucune invention, ne faisant que copier ce qui a déjà été fait en Chine, au Japon, aux États-Unis et en Europe au dix-neuvième siècle. Selon la loi des avantages comparatifs de David Ricardo (1772-1823), chacun continue à faire ce qu'il sait faire de mieux. La croissance schumpétérienne, elle, repose sur l'invention : c'est l'exemple, anti-fragile, d'Elon Musk. Le modèle malthusien, lui, repose sur l'idée qu'il n'y aura pas assez de ressources pour tout le monde. Aujourd'hui, en reprenant mathématiquement le modèle de Nassim Taleb, on arrive à mesurer précisément le degré de fragilité (en baisse en cas d'agitation) ou d'antifragilité (en hausse en cas d'agitation) de n'importe quel actif.
Une start-up a besoin de financements au départ pour essayer de créer ses produits disruptifs, qui vont susciter le chaos. Pendant cette phase, elle n'a pas de chiffre d'affaire. Puis, elle reste perdante s'il ne se passe finalement rien, ou devient gagnante si elle parvient à casser la rente de l'autre. Pouvant mesurer ces rapports de fragilité et d'antifragilité de façon précise, on peut dire par exemple que la fragilité du S&P 500 vaut 3, celle de Google -0,5 au premier ordre. Au deuxième ordre, on sait qu'un actif fragile va gagner de l'argent dans des conditions stables. Cette asymétrie du marché était inconnue du temps de Bachelier. Elle est comparable aux changements d'état en thermodynamique (comme l'eau liquide se transformant en vapeur à 100 degrés).
Il y a donc deux états dans un portefeuille : celui, habituel, où il ne se passe rien, et celui, sur les côtés, où il faut redoubler de méfiance, parce que c'est là que les pertes éventuelles seront les plus importantes. Gavekal IS a réussi à conceptualiser et à mesurer ces deux états. Une notion-clé est celle de corrélation. Quand la foule augmente sur les quais aux heures de pointe, des files indiennes se créent naturellement pour réguler le passage. La dispersion des résultats dans un système selon l'agitation a amené les experts à reprendre l'idée du portefeuille permanent d'Harry Browne (1933-2006), celui qui permettrait de traverser toutes les situations.
La question est de savoir si l'on veut que son portefeuille soit comparable à une Jeep (to stay rich) ou à une Ferrari (to get rich). En résumé, il y a quatre grandes classes d'actifs à équilibrer dans un portefeuille, selon les risques que l'on est prêt à prendre : les actions, les obligations d'État, le cash et l'or (ces deux derniers correspondant à une valeur présente, tandis qu'actions et obligations sont orientées vers l'avenir). Le cash n'a pas de volatilité, les obligations une volatilité de 10 %, les actions une de 15 % et l'or une de 20 %. On s'est aperçu que, dans un portefeuille orienté vers la pérennisation, le résultat de l'équilibrage pouvait donner une volatilité de seulement 6,5 % au lieu des 12 % attendus, ce qui confirme l'intérêt de ce modèle, qui peut rapporter de 3 % à 4 % par an.
L'équilibrage doit précéder une phase plus tactique consistant par exemple, selon les circonstances économiques ou monétaires, soit à remplacer des obligations (selon des critères de rentabilité), soit à réduire des actions (selon des critères de sécurité). Il faut surveiller le cadran économique, les deux principaux facteurs de valorisation des actions étant l'inflation et la croissance. Dans une zone de croissance ricardienne comme l'Inde en 2023, la redistribution est phénoménale, cependant les Américains maîtrisent toujours le traitement de l'information (dont, justement, l'intelligence artificielle), qui reste un autre aspect déterminant de la création de valeur.
Les bases de données se sont considérablement développées au cours des dernières décennies, ainsi que la capacité de traitement, ce qui permet de tester scientifiquement les hypothèses, dont il faut garder une mémoire. L'état d'esprit requis consiste à approcher avec logique les questions économiques et financières, de façon à en comprendre les relations causales, en ayant une approche intellectuelle des méthodes d'apprentissage et de recherche. Il s'agit, en intelligence artificielle, de construire des réseaux de neurones capables d'apprendre par eux-mêmes à partir de variables d'entrée, de réponses et de vérifications.
Plutôt que de simplement utiliser des techniques d'intelligence artificielle, il fallait contrôler le processus à l'intérieur pour comprendre, par exemple, le poids donné à telle variable économique, et en vérifier la cohérence par rapport à une logique économique. L'expérience consistait d'abord à observer le comportement du réseau par rapport aux mêmes paramètres dans trois pays différents (les États-Unis, le Japon et l'Allemagne), avant d'étendre l'observation à quarante pays différents. La bonne méthode de prise de décision n'est donc pas forcément celle qui alimente le réseau avec un maximum de données afin de complexifier les formules, mais plutôt celle qui s'attache à trouver les paramètres déterminants.
Il y a, par conséquent, un travail d'élimination de l'information. Pour autant, ce travail ne suffit pas à surmonter l'incertitude. Quand on parle d'un marché qui monte, il faut d'abord définir les termes, et se demander si c'est significatif ou si ce n'est que du bruit. On se base alors sur un signal, et on étudie les relations de ce signal avec le bruit qui l'entoure. Par exemple, le S&P 500, depuis 70 ans, gagne trois points de base par jour (0,03 %), avec une volatilité de 1 % (soit trente fois plus). Dans ce cas, traiter le marché au quotidien revient à chercher un signal bruité à 97 %. Même si l'on étend la plage de temps, l'incertitude reste forte et il est honnête de le reconnaître. Il vaut mieux, en effet, dire que l'on ne sait pas car, quand on sait, la prise de décision est d'autant plus claire.
Les experts ont développé ce qu'ils appellent, dans le jargon du métier, le pôle Quant. L'idée est d'essayer de prendre les données non pour faire des prévisions mais pour voir, par exemple, si des attentes logiques peuvent découler de constellations répétitives d'événements. On ne peut rien prévoir, mais il est possible de mesurer un état, comme en physique, et on sait, à partir d'une bonne description, que certains chemins sont impraticables. La dépression inflationniste qui touchait l'Angleterre dans les années 1970 était, comme son nom l'indique, marquée à la fois par l'inflation et par la dépression, d'où une chute des profits. Acheter des actions, dans un tel contexte, revient à vouloir sortir de la monnaie : c'est une fuite. Dans les métiers de la finance, des centaines de milliards de dollars sont dépensées dans une recherche qui, ce qui est étonnant, porte sur 20 % des résultats attendus (80 % restant dans une zone grise).
La vérification économique et la recherche fondamentale ont pour but de faire gagner de l'argent, avec une probabilité d'erreur importante : c'est une école de modestie. La finance statistique a commencé au début du vingtième siècle avec Louis Bachelier (1870-1946). Sur un marché, on observe des tendances et, autour de ces tendances, une agitation aléatoire, qui rejoint le mouvement brownien en physique. La méthode adoptée s'apparente à une simulation de jets de dés. Le fait de jeter un dé un million de fois confirme de plus en plus, selon la courbe de Gauss, la probabilité pour le 6 de sortir une fois sur six. Sachant que, dans un portefeuille donné, il peut y avoir, mettons, 1 chance sur 10 de perdre plus de 10 %, on devient capable de calculer le prix d'une option ou celui du risque (ce qui est utile aussi dans les assurances).
Les équations de Bachelier étant approximativement justes au premier ordre, elles ne sont pas justes au deuxième ordre. L'importance du deuxième ordre se comprend à l'aune de la différence entre la physique de Newton et la physique d'Einstein, qui apparaît quand on prend en compte le fait que certains objets ont une grande vitesse, ce qui peut avoir des conséquences pratiques (comme la géolocalisation des téléphones portables). Ce constat amène aux caractéristiques propres des actifs financiers, et aux notions de fragilité et d'antifragilité telles que développées par Nassim Taleb. Apple est une entreprise fragile en ce sens, car sa rente dépend d'une adaptation à un environnement défini, qui peut toujours connaître des bouleversements susceptibles de remettre cette rente en question.
La croissance ricardienne repose sur la disponibilité des matières premières pour une zone densément peuplée, entraînant une meilleure utilisation du temps, du travail et de l'énergie : c'est l'exemple, fragile, du corridor entre Saint-Pétersbourg et l'Inde, qui ne repose sur aucune invention, ne faisant que copier ce qui a déjà été fait en Chine, au Japon, aux États-Unis et en Europe au dix-neuvième siècle. Selon la loi des avantages comparatifs de David Ricardo (1772-1823), chacun continue à faire ce qu'il sait faire de mieux. La croissance schumpétérienne, elle, repose sur l'invention : c'est l'exemple, anti-fragile, d'Elon Musk. Le modèle malthusien, lui, repose sur l'idée qu'il n'y aura pas assez de ressources pour tout le monde. Aujourd'hui, en reprenant mathématiquement le modèle de Nassim Taleb, on arrive à mesurer précisément le degré de fragilité (en baisse en cas d'agitation) ou d'antifragilité (en hausse en cas d'agitation) de n'importe quel actif.
Une start-up a besoin de financements au départ pour essayer de créer ses produits disruptifs, qui vont susciter le chaos. Pendant cette phase, elle n'a pas de chiffre d'affaire. Puis, elle reste perdante s'il ne se passe finalement rien, ou devient gagnante si elle parvient à casser la rente de l'autre. Pouvant mesurer ces rapports de fragilité et d'antifragilité de façon précise, on peut dire par exemple que la fragilité du S&P 500 vaut 3, celle de Google -0,5 au premier ordre. Au deuxième ordre, on sait qu'un actif fragile va gagner de l'argent dans des conditions stables. Cette asymétrie du marché était inconnue du temps de Bachelier. Elle est comparable aux changements d'état en thermodynamique (comme l'eau liquide se transformant en vapeur à 100 degrés).
Il y a donc deux états dans un portefeuille : celui, habituel, où il ne se passe rien, et celui, sur les côtés, où il faut redoubler de méfiance, parce que c'est là que les pertes éventuelles seront les plus importantes. Gavekal IS a réussi à conceptualiser et à mesurer ces deux états. Une notion-clé est celle de corrélation. Quand la foule augmente sur les quais aux heures de pointe, des files indiennes se créent naturellement pour réguler le passage. La dispersion des résultats dans un système selon l'agitation a amené les experts à reprendre l'idée du portefeuille permanent d'Harry Browne (1933-2006), celui qui permettrait de traverser toutes les situations.
La question est de savoir si l'on veut que son portefeuille soit comparable à une Jeep (to stay rich) ou à une Ferrari (to get rich). En résumé, il y a quatre grandes classes d'actifs à équilibrer dans un portefeuille, selon les risques que l'on est prêt à prendre : les actions, les obligations d'État, le cash et l'or (ces deux derniers correspondant à une valeur présente, tandis qu'actions et obligations sont orientées vers l'avenir). Le cash n'a pas de volatilité, les obligations une volatilité de 10 %, les actions une de 15 % et l'or une de 20 %. On s'est aperçu que, dans un portefeuille orienté vers la pérennisation, le résultat de l'équilibrage pouvait donner une volatilité de seulement 6,5 % au lieu des 12 % attendus, ce qui confirme l'intérêt de ce modèle, qui peut rapporter de 3 % à 4 % par an.
L'équilibrage doit précéder une phase plus tactique consistant par exemple, selon les circonstances économiques ou monétaires, soit à remplacer des obligations (selon des critères de rentabilité), soit à réduire des actions (selon des critères de sécurité). Il faut surveiller le cadran économique, les deux principaux facteurs de valorisation des actions étant l'inflation et la croissance. Dans une zone de croissance ricardienne comme l'Inde en 2023, la redistribution est phénoménale, cependant les Américains maîtrisent toujours le traitement de l'information (dont, justement, l'intelligence artificielle), qui reste un autre aspect déterminant de la création de valeur.