Modèles de simulations en allocation d’actifs

Je voudrais ici réagir devant cette forme de marketing qui est produite à l’aide des modèles mathématiques en finance. Souvent, ce n’est que de la poudre aux yeux. Mais, lorsque l’on sait décrypter le langage pseudo-technique (on en met plein la vue : si le client n’y comprend rien, on passe pour des cadors croit-on), on pourrait même trouver à en rire.
allocation et distributionDans le contexte de placement d’un investisseur institutionnel, il lui faut en général déterminer un portefeuille ou une allocation stratégique selon, en fonction de diverses contraintes (comptables, réglementaires, de risque,…). Les outils à base de modèles mathématiques et de simulation numérique (dite de Monte Carlo) sont souvent mis en avant pour établir ce type de stratégie d’investissement.
En se plaçant du point de vue client, je vais prendre ici l’exemple de la présentation type d’un modèle d’allocation d’actifs pour en commenter les atouts exprimés la plupart du temps. A travers ces remarques, nous tenterons de dégager les points essentiels de conception de ces modèles et nous verrons qu’il faut garder un certain recul sur les arguments donnés.

Atout n°1 : « Ce modèle est toujours « propriétaire » et au top des derniers développements »
Comprendre conçu en interne (pas d’achat d’un logiciel), c’est tout. Est-ce une feuille de tableur développée sur un coin de PC ou un outil intégré et bien pensé après quelque temps de recherche interne ? Un client (ou prospect) investisseur devrait pouvoir exiger de voir le modèle fonctionner, en y injectant ses propres paramètres.

Atout n°2 : « Il couvre les « principales ou l’essentiel des classes d’actifs » constituant l’univers d’investissement du client.  Notez que « d’autres classes d’actifs peuvent être incluses » »
Ne pas être dupe : une autre classe d’actifs pourrait être modélisée simplement en modifiant les paramètres d’un modèle existant (voir aussi Atout n°5). L’effort est donc très relatif.

Atout n°3 : La modélisation vante son « amélioration vis à vis du classique modèle moyenne-variance : les rendements ne suivent pas une distribution normale, les queues de distributions sont épaisses, les corrélations sont instables », etc.
C’est le minimum à attendre car le modèle moyenne-variance a plus de 50 ans ! D’ailleurs, si certains se vantent encore d’utiliser le modèle de H. Markowitz, (dont le contexte calculatoire était très éloigné de nos ressources actuelles), vous n’avez pas besoin d’eux.

Atout n°4 : Une recherche modèle d’envergure. On rencontre en général 2 approches : la modélisation des facteurs de risque de marché (taux d’intérêt, inflation, risque action avec des sauts,…)  puis une modélisation des classes d’actifs à partir de ces facteurs ou bien la modélisation directe de chacune des classes
Le point non précisé (et pour cause !) est que la modélisation est unidimensionnelle. Or, quelque soit la qualité du travail, considérer les actifs un par un pour ensuite modéliser une dépendance entre eux est à mon avis une erreur fondamentale de conception. Je l’ai d’ailleurs faite pendant longtemps car c’est ainsi que l’on nous enseigne les choses. Et puis 1 dimension c’est plus facile que 20 ou 50 (selon le nombre d’actifs en portefeuille). En réalité, je suis persuadé qu’il faut modéliser globalement, c’est-à-dire en utilisant des lois jointes dès le départ.
Toutefois, dans le domaine des marchés financiers, personne n’est capable d’établir définitivement une loi de probabilité (encore moins à plusieurs dimensions). De plus, elle n’est probablement pas stable dans le temps et elle se résume surtout à un outil nous permettant de manipuler notre ignorance.

Atout n°5 : Une expertise dans la manipulation des modèles. On parle des « paramètres » ou de la « calibration » des modèles
Là est le point crucial, car c’est ici que l’on peut faire dire ce que l’on veut à l’outil. C’est pourquoi lorsque vous comparez les résultats de simulations de 2 modèles (ou sociétés), ce sont surtout leurs hypothèses qu’il faut comparer, et mieux encore leur imposer des conditions identiques lorsque cela est possible.
En réalité, le paramétrage d’un modèle nécessite l’utilisation d’autres modèles ou bien une évaluation à dire d’expert.

Atout n°6 : « Les paramètres sont estimés pour que la distribution modélisée colle à celle des principaux indices » (supposés représentés chaque classe d’actifs)
Ici, le modèle est calé sur le passé. Pourquoi ne pas directement utiliser la loi de distribution passée alors ? Les sources d’erreur de modélisation en seront largement réduites ! Les techniques de calibration sont aussi sujettes à caution. Si on parle de régression linéaire par exemple, cela suppose une loi d’erreur gaussienne. Est-ce correct ?

Atout n°7 : Les résultats de la simulation
Après 10 000 tirages aléatoires (vraiment ? ou seulement 1000 ? Pourquoi pas 1 000 000 ?), on obtient la distribution de probabilité empirique de n’importe quel portefeuille de classe d’actifs (avec des hypothèses de rebalancement simplifiées en général qui ont pourtant un impact essentiel sur la loi finale simulée). Cette distribution permet de construire une multitude de critères afin de sélectionner le portefeuille : Value at Risk (VaR), VaR Conditionnelle (CVaR) et autre « Tail Risk », Tracking Error, Volatilité, Maximum Drawdown… C’est ici que le choix des paramètres est le plus visible : ils permettent de déplacer la distribution de probabilité vers la droite si besoin, c’est-à-dire vers les événements favorables.
Les résultats seront souvent présentés sous la forme d’une frontière efficiente : risque en abscisse, performance attendue en ordonnée, preuve que les vieilles habitudes sont tenaces, alors que le choix devra prendre en compte plus que deux mesures. J’ai souvent entendu dire alors : « les clients aiment bien », « ils ne comprennent que cela ». Et donc ? Ne peut-on pas prendre le temps d’expliquer et d’accompagner son client ? Est-ce un manque de professionnalisme ou une incapacité à le faire ?

Atout n°8 : Diversifier !
Comme je le disais plus haut, l’approche scientifique cautionne implicitement le bien fondé de l’approche, alors attention au leurre ! La deuxième raison est l’argument de diversification. Une conclusion systématique de ces modèles sera : plus vous diversifiez, mieux vous gérez votre risque. C’est ainsi que l’on vous propose d’introduire dans votre portefeuille (d’acheter donc) de nouveaux actifs, peu liquides en général (ce sont ceux qui diversifient le mieux, c’est la magie de la corrélation) et donc marginalement plus dangereux (mais ouf la diversification est là dit-on).
Malheureusement, le modèle est souvent, implicitement encore une fois sans même que leurs concepteurs en aient conscience cette fois, construit pour que la diversification fonctionne car fondé par exemple sur une matrice de corrélation. Cette diversification est théorique. Pour que cet argument soit acceptable, le modèle doit pouvoir simuler la diversification réelle des marchés.
La diversification utile doit protéger suffisamment un capital en cas de choc (c’est-à-dire la réalisation d’un événement non anticipé, celui où les corrélations de vos actifs tendent vers 1) et non réduire une mesure de risque lorsque tout va bien.

Faut-il rejeter les modèles ?
Je ne crois pas, mais il faut les utiliser en étant sceptique, leur laisser le moins de place possible, ou encore utiliser ceux qui déforment le moins l’information initiale.
Une bonne question à se poser est : est-ce que le modèle que j’utilise peut créer des situations jamais vues auparavant avec une probabilité non nulle, ces événements qualifiés de cygnes noirs par N. Taleb ?
S’assurer que le gérant d’actifs s’en serve dans ses choix d’investissement même (et surtout) lorsqu’il n’a pas de client en face de lui est aussi une façon de se rassurer (un peu).

Ce que je propose
Il n’y a pas de méthode parfaite mais l’approche globale en loi de probabilité me semble la plus robuste et c’est celle que j’ai développée depuis plusieurs années maintenant.  On pourrait la qualifier d’approche « empiritative » (empirique et quantitative) : exploiter les données, utiliser l’information objective et non plonger dans une modélisation figée trop rapidement.
Comme toutes les méthodes non paramétriques, elle a l’avantage de ne pas faire d’hypothèse ad-hoc sur la forme de la distribution tout en offrant la même maniabilité que l’approche paramétrique. Elle est sûrement beaucoup plus simple et plus rapide à implémenter.

One Response to Modèles de simulations en allocation d’actifs

  1. Ping: Publié sur Le Cercle Les Echos : Qu’attendre d’un modèle de simulation de Monte Carlo pour l’allocation d’actifs | Allocation et Gestion d'Actifs

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

%d blogueurs aiment cette page :