Publié sur Le Cercle Les Echos : Qu’attendre d’un modèle de simulation de Monte Carlo pour l’allocation d’actifs

MC CercleJ’ai publié un article sur Le Cercle Les Echos (cliquez sur l’image) qui reprend un billet écrit sur ce blog en septembre 2013 où je commente les présentations marketing des modèles quantitatifs d’allocation. J’y présente également les points qui me paraissent indispensables à un tel outil, points souvent absents des modèles généralement utilisés.

 

Publicités

Sur-réplication et Volatilité Incertaine : Options Européennes, Américaines et Passeports

Sur-réplication et Volatilité Incertaine : Options Européennes, Américaines et Passeports (PhD Thesis, 196p)
Malgré une littérature académique très riche, il n’y a pas de consensus pour modéliser la volatilité stochastique d’un sous-jacent. Une approche s’est alors développée où l’on recherche les stratégies qui vont (sur-)couvrir l’actif contingent quel que soit le modèle, tant que la volatilité reste dans un intervalle dont les bornes sont connues, sans autre restriction.

Un premier objectif de cette thèse a consisté à unifier et étendre les résultats déjà existants sur les options européennes dans un cadre commun. Un deuxième but a été de traiter le cas des options américaines. Nous caractérisons le prix par un problème de contrôle stochastique sur la volatilité et sur les temps d’arrêt. Un dernier objectif est de traiter les options passeports européennes et américaines. La caractérisation est encore un problème de contrôle stochastique où intervient de plus un contrôle sur la stratégie de trading de l’acheteur de l’option.

Ces caractérisations ne sont valables que pour des profils d’options très réguliers inexistants dans la pratique. Nous les étendons également au cas réaliste où la fonction payoff est continue.
D’un point de vue analytique, le calcul des prix demande la résolution d’une équation d’Hamilton-Jacobi-Bellman (HJB) – cas européen – ou d’un système d’inéquations de type HJB – cas américain -, munis d’une condition initiale.

password : volincertaine

Super-hedging Strategies and Uncertain Volatility : European, American and Passport Options
Despite a large number of theoretical works, there is no unique way to model the stochastic volatility of an underlying. A new approach has been developed where one determines the (super)hedging strategies which are admissible for any model where the volatility is lying in a known interval without other restriction.

In this thesis, our first objective standardizes and develops the existing results on European options in a common setting. A second objective is the study of American options. We characterize the price by a stochastic control problem with a control over volatility and over stopping times. A last objective is the study of European and American passport options. The prices are characterized by the same kind of stochastic control problem with moreover a control over all the trading strategies of the option’s buyer.

All those characterizations are valid for only very smooth payoff functions. We extend them to the practical case where the payoff functions are merely continuous.
From an analytic point of view the computation of those prices is given by the resolution of Hamilton-Jacobi-Bellman (HJB) equations (European case) or of a system of HJB inequations (American case) with an initial condition.

Modèles de simulations en allocation d’actifs

Je voudrais ici réagir devant cette forme de marketing qui est produite à l’aide des modèles mathématiques en finance. Souvent, ce n’est que de la poudre aux yeux. Mais, lorsque l’on sait décrypter le langage pseudo-technique (on en met plein la vue : si le client n’y comprend rien, on passe pour des cadors croit-on), on pourrait même trouver à en rire.
allocation et distributionDans le contexte de placement d’un investisseur institutionnel, il lui faut en général déterminer un portefeuille ou une allocation stratégique selon, en fonction de diverses contraintes (comptables, réglementaires, de risque,…). Les outils à base de modèles mathématiques et de simulation numérique (dite de Monte Carlo) sont souvent mis en avant pour établir ce type de stratégie d’investissement.
En se plaçant du point de vue client, je vais prendre ici l’exemple de la présentation type d’un modèle d’allocation d’actifs pour en commenter les atouts exprimés la plupart du temps. A travers ces remarques, nous tenterons de dégager les points essentiels de conception de ces modèles et nous verrons qu’il faut garder un certain recul sur les arguments donnés.

Atout n°1 : « Ce modèle est toujours « propriétaire » et au top des derniers développements »
Comprendre conçu en interne (pas d’achat d’un logiciel), c’est tout. Est-ce une feuille de tableur développée sur un coin de PC ou un outil intégré et bien pensé après quelque temps de recherche interne ? Un client (ou prospect) investisseur devrait pouvoir exiger de voir le modèle fonctionner, en y injectant ses propres paramètres.

Atout n°2 : « Il couvre les « principales ou l’essentiel des classes d’actifs » constituant l’univers d’investissement du client.  Notez que « d’autres classes d’actifs peuvent être incluses » »
Ne pas être dupe : une autre classe d’actifs pourrait être modélisée simplement en modifiant les paramètres d’un modèle existant (voir aussi Atout n°5). L’effort est donc très relatif.

Atout n°3 : La modélisation vante son « amélioration vis à vis du classique modèle moyenne-variance : les rendements ne suivent pas une distribution normale, les queues de distributions sont épaisses, les corrélations sont instables », etc.
C’est le minimum à attendre car le modèle moyenne-variance a plus de 50 ans ! D’ailleurs, si certains se vantent encore d’utiliser le modèle de H. Markowitz, (dont le contexte calculatoire était très éloigné de nos ressources actuelles), vous n’avez pas besoin d’eux.

Atout n°4 : Une recherche modèle d’envergure. On rencontre en général 2 approches : la modélisation des facteurs de risque de marché (taux d’intérêt, inflation, risque action avec des sauts,…)  puis une modélisation des classes d’actifs à partir de ces facteurs ou bien la modélisation directe de chacune des classes
Le point non précisé (et pour cause !) est que la modélisation est unidimensionnelle. Or, quelque soit la qualité du travail, considérer les actifs un par un pour ensuite modéliser une dépendance entre eux est à mon avis une erreur fondamentale de conception. Je l’ai d’ailleurs faite pendant longtemps car c’est ainsi que l’on nous enseigne les choses. Et puis 1 dimension c’est plus facile que 20 ou 50 (selon le nombre d’actifs en portefeuille). En réalité, je suis persuadé qu’il faut modéliser globalement, c’est-à-dire en utilisant des lois jointes dès le départ.
Toutefois, dans le domaine des marchés financiers, personne n’est capable d’établir définitivement une loi de probabilité (encore moins à plusieurs dimensions). De plus, elle n’est probablement pas stable dans le temps et elle se résume surtout à un outil nous permettant de manipuler notre ignorance.

Atout n°5 : Une expertise dans la manipulation des modèles. On parle des « paramètres » ou de la « calibration » des modèles
Là est le point crucial, car c’est ici que l’on peut faire dire ce que l’on veut à l’outil. C’est pourquoi lorsque vous comparez les résultats de simulations de 2 modèles (ou sociétés), ce sont surtout leurs hypothèses qu’il faut comparer, et mieux encore leur imposer des conditions identiques lorsque cela est possible.
En réalité, le paramétrage d’un modèle nécessite l’utilisation d’autres modèles ou bien une évaluation à dire d’expert.

Atout n°6 : « Les paramètres sont estimés pour que la distribution modélisée colle à celle des principaux indices » (supposés représentés chaque classe d’actifs)
Ici, le modèle est calé sur le passé. Pourquoi ne pas directement utiliser la loi de distribution passée alors ? Les sources d’erreur de modélisation en seront largement réduites ! Les techniques de calibration sont aussi sujettes à caution. Si on parle de régression linéaire par exemple, cela suppose une loi d’erreur gaussienne. Est-ce correct ?

Atout n°7 : Les résultats de la simulation
Après 10 000 tirages aléatoires (vraiment ? ou seulement 1000 ? Pourquoi pas 1 000 000 ?), on obtient la distribution de probabilité empirique de n’importe quel portefeuille de classe d’actifs (avec des hypothèses de rebalancement simplifiées en général qui ont pourtant un impact essentiel sur la loi finale simulée). Cette distribution permet de construire une multitude de critères afin de sélectionner le portefeuille : Value at Risk (VaR), VaR Conditionnelle (CVaR) et autre « Tail Risk », Tracking Error, Volatilité, Maximum Drawdown… C’est ici que le choix des paramètres est le plus visible : ils permettent de déplacer la distribution de probabilité vers la droite si besoin, c’est-à-dire vers les événements favorables.
Les résultats seront souvent présentés sous la forme d’une frontière efficiente : risque en abscisse, performance attendue en ordonnée, preuve que les vieilles habitudes sont tenaces, alors que le choix devra prendre en compte plus que deux mesures. J’ai souvent entendu dire alors : « les clients aiment bien », « ils ne comprennent que cela ». Et donc ? Ne peut-on pas prendre le temps d’expliquer et d’accompagner son client ? Est-ce un manque de professionnalisme ou une incapacité à le faire ?

Atout n°8 : Diversifier !
Comme je le disais plus haut, l’approche scientifique cautionne implicitement le bien fondé de l’approche, alors attention au leurre ! La deuxième raison est l’argument de diversification. Une conclusion systématique de ces modèles sera : plus vous diversifiez, mieux vous gérez votre risque. C’est ainsi que l’on vous propose d’introduire dans votre portefeuille (d’acheter donc) de nouveaux actifs, peu liquides en général (ce sont ceux qui diversifient le mieux, c’est la magie de la corrélation) et donc marginalement plus dangereux (mais ouf la diversification est là dit-on).
Malheureusement, le modèle est souvent, implicitement encore une fois sans même que leurs concepteurs en aient conscience cette fois, construit pour que la diversification fonctionne car fondé par exemple sur une matrice de corrélation. Cette diversification est théorique. Pour que cet argument soit acceptable, le modèle doit pouvoir simuler la diversification réelle des marchés.
La diversification utile doit protéger suffisamment un capital en cas de choc (c’est-à-dire la réalisation d’un événement non anticipé, celui où les corrélations de vos actifs tendent vers 1) et non réduire une mesure de risque lorsque tout va bien.

Faut-il rejeter les modèles ?
Je ne crois pas, mais il faut les utiliser en étant sceptique, leur laisser le moins de place possible, ou encore utiliser ceux qui déforment le moins l’information initiale.
Une bonne question à se poser est : est-ce que le modèle que j’utilise peut créer des situations jamais vues auparavant avec une probabilité non nulle, ces événements qualifiés de cygnes noirs par N. Taleb ?
S’assurer que le gérant d’actifs s’en serve dans ses choix d’investissement même (et surtout) lorsqu’il n’a pas de client en face de lui est aussi une façon de se rassurer (un peu).

Ce que je propose
Il n’y a pas de méthode parfaite mais l’approche globale en loi de probabilité me semble la plus robuste et c’est celle que j’ai développée depuis plusieurs années maintenant.  On pourrait la qualifier d’approche « empiritative » (empirique et quantitative) : exploiter les données, utiliser l’information objective et non plonger dans une modélisation figée trop rapidement.
Comme toutes les méthodes non paramétriques, elle a l’avantage de ne pas faire d’hypothèse ad-hoc sur la forme de la distribution tout en offrant la même maniabilité que l’approche paramétrique. Elle est sûrement beaucoup plus simple et plus rapide à implémenter.

Pricing d’options et méthodes d’arbre

Pricing d’options et méthodes d’arbre
Cet article est une analyse numérique des méthodes d’arbres pour la valorisation d’options standard. Son intérêt est de montrer qu’une évolution simple de la méthode de base qu’est l’algorithme de Cox Ross Rubinstein (CRR) permet de sécuriser à la fois la détermination du prix mais aussi des grecques, le delta en particulier ici.