Stratégie flexible et patrimoniale sur indice actions

Cet article présente un indicateur de market timing uniquement fondé sur des prix, et de leurs variations, d’un actif financier, ici l’indice S&P 500.

Les principes que nous souhaitons appliquer sont les suivants :
– lors d’un mouvement extrême (que nous qualifions un peu plus bas) d’un actif, celui-ci est suivi un comportement de « retour à la moyenne » en général, nous pouvons donc utiliser ces observations exceptionnelles pour anticiper une force de rappel.
– la détermination de ces mouvements extrêmes est réalisée par l’utilisation de la loi de probabilité des mouvements sur le sous-jacent retenu.

Premier outil : la distribution des rendements périodiques
La période de temps utilisée dans cet exemple est la journée. Cette période n’est pas un horizon de temps (de gestion) mais la fréquence d’intervention (trop ?) observée sur un fonds flexible classique.

Nous utilisons, assez arbitrairement, les données sur le S&P 500 depuis le 31/12/1986 (trouvées sur Yahoo !). Le choix de cette date répond à plusieurs critères :
– Construire une distribution à partir d’un nombre suffisant de données et tester le comportement de l’indicateur lors de la crise de 2008
– Ne pas intégrer de données trop anciennes, même si cela reste possible
– Pouvoir comparer des indicateurs créés à partir d’autres indices plus récents, ceci sur une même période de temps de déroulé.

Au 24 août2015, la distribution est représentée dans la figure ci-dessous.

distribution1jour

Nous avons indiqué les performances à +/- 2 écart-types et la dernière performance. Notons à ce stade que beaucoup d’auteurs supposent que la probabilité contenu entre les doubles écart-types est de 95% (assimilation de la distribution à une loi normale) hors c’est souvent loin d’être le cas. Aller au delà des 2 écart-types n’est pas toujours si exceptionnel que cela et c’est pourquoi nous ne nous contentons pas de ces limites.

Nous avons placé également la dernière performance quotidienne de notre historique. Celle-ci est bien au delà des droites définissant les doubles écart-types. Ceci nous amène à l’outil suivant.

Deuxième outil : la probabilité cumulée de la performance quotidienne de l’actif
Cette performance de -4% possède, grâce à la distribution construite, donc une probabilité de réalisation qui se mesure comme la probabilité d’obtenir une performance plus faible que -4%, soit l’aire sous la courbe de distribution à gauche de la droite rouge. Nous complétons ci-dessous notre premier graphique avec cette information.

distribution1jourbis

Construction de l’indicateur
Si nous répétons cette construction chaque jour de notre historique, nous obtenons une série de probabilité cumulée qui indique le caractère plus ou moins exceptionnelle de la situation dans laquelle nous nous trouvons jour après jour.

Indice1jour

Le franchissement de la ligne rouge supérieure (respectivement inferieure) traduit une pression de vente (respectivement d’achat). On identifie par exemple les zones de tension et les points lors des crises de 2008-2009 et 2011-2012. L’indicateur au 24 août 2015 indiquait également une force de rappel d’achat.

Validation de l’indicateur
Une approche courante de validation est la construction d’un backtest qui traduit l’application d’une stratégie d’investissement liée à notre indicateur. Bien évidemment, celui ne reflète pas un investissement réel mais permet de lire s’il y a ou non pertinence de cet indicateur.
Une première stratégie (en bleu ci-dessous) est de simuler un investissement en fonction de la confiance dans le rebond attendu le lendemain que l’on mesure comme le complémentaire à la probabilité cumulée de la dernière performance quotidienne.
Une seconde stratégie plus simple (en gris) est de n’investir (à 100%) que si cette confiance est au dessus d’un certain niveau élevé, par exemple 80% (nous n’envisageons que des positions longues). Dans les autres cas, nous ne nous exposons pas.

L’application de ces stratégies donnent les résultats suivants, l’indice S&P500 est en rouge, base 100 fin 2006 :

 

Backtest2006

 

Sans être fantastique, l’effet de protection attendue par une stratégie flexible est capté dans une proportion suffisamment forte pour être intéressant. Le départ base 100 avant l’année 2008 induit visuellement un écart de performance qu’il faut relativiser. Pour cela, nous donnons dans le tableau suivant quelques caractéristiques classiques. L’année 2015 s’achève ici au 24/08/2015.

backtest2_v0

Une approche plus précise aurait utilisé des instruments financiers réels (l’indice n’étant pas directement investissable), par exemple, en investissant dans un ETF S&P 500 total return, puis en ajustant l’exposition fournie par l’indicateur en mettant en place une couverture à l’aide de contrats futures sur S&P 500. Les contrat futures restant négociables après la clôture du marché cash, il n’y a aucun problème à préparer son exposition pour le lendemain. De plus, ces mouvements ne sont pas brutaux en fin de journée mais sont perçus bien plus tôt, nous donnant ainsi très rapidement dans la journée, le délai nécessaire à la mise en œuvre de la stratégie. La stratégie profiterait alors également des dividendes des composants de l’indice.

Conclusion
Au vu de ces résultats, ce type d’indicateur peut donner une information intéressante concernant les mouvements de marché actions. Il demande toutefois une forte réactivité (quotidienne) qui n’est pas toujours accessible à l’investisseur.

CECI N’EST PAS UNE RECOMMANDATION D’INVESTISSEMENT.

Publicités

Construction d’un processus d’allocation d’actifs

Ce document est une aide, une réflexion, permettant de développer une gestion d’allocation d’actifs en respectant une cohérence d’étapes entre les phases stratégiques, tactiques, sélection des supports et ajustement du portefeuille réel. On n’oublie pas les inputs commerciaux : cahier des charges, benchmarking, etc.

Vers un processus d’investissement en allocation d’actifs_Definitions et Etapes

MdP : allocprocess

Allocation d’actifs pour tous

Attention, cet article n’est pas un conseil en investissement (voir l’avertissement en bas de page).

Dans ce billet, nous allons simplifier l’exercice de la construction de portefeuille en nous plaçant dans le contexte suivant.

Sur un (seul) horizon, par exemple 3 ans, les objectifs sont :
– surperformance du fonds en euros
– protection du capital (protection et non garantie,…)
– perte acceptable de, par exemple, 10% (mais cela peut être 0%)

Le profil de risque de l’investisseur
Une deuxième étape est de se fixer un comportement d’investisseur : quel gérant voulez-vous être ? actif ou non ? Notre hypothèse sera pas actif du tout, voire faignant quitte à en oublier son investissement jusqu’à la date butoir des trois ans.

On peut trouver (encore !) des fonds en euro ont des rendements qui oscillent aujourd’hui entre 2% et 3%. Une hypothèse prudente est de prendre le TMG (Taux Minimal Garanti). Une autre hypothèse, que nous retenons pour l’exemple, est de formuler un objectif de rendement sur 3 ans d’environ 5% net (soit moins de 1.6% par an). L’idée principale est de trouver un actif quasiment sans risque sur l’horizon retenu et d’avoir une idée précise de son rendement, cela peut donc être aussi une obligation d’Etat de maturité 3 ans (ou même le livret A pour lequel le rendement est plus faible et l’enveloppe d’exonération fiscale limitée).

Toute cette réflexion sert à déterminer un « coussin » sur l’horizon choisi (les 10% de perte en capital et l’abandon des 5% de rentabilité sur la part investie en fonds en euros) que vous êtes prêt à mettre en jeu pour espérer surperformer l’actif sans risque retenu.

L’investissement
Vous êtes prêts à  vous retrouver dans 3 ans avec 90% de votre mise initiale. En tenant compte de la rentabilité nette (quasi certaine) de l’actif sans risque, vous y investissez 90 % / (1+ 5%) soit environ 86%. Ainsi calibré, vous aurez dans 3 ans récupéré les 90% attendus.

Il reste donc 14% de votre mise initiale que vous êtes prêts à risquer totalement sur l’horizon de 3 ans. Cette somme, vous pouvez l’investir comme vous le souhaitez : acheter des actions, faire du trading, utiliser des options,… (toutefois, les frais d’investissement liés aux intermédiaires, consommeront une partie de votre enveloppe de 14%).
Si vous choisissez des OPCVM actions, il est très improbable pour que vous perdiez la totalité de votre investissement, alors qu’avec des options il est possible de tout perdre (avec la contrepartie de pourvoir amplifier la hausse éventuelle du sous-jacent utilisé).
Mon choix serait de prendre un maximum de risque sur cette part, car le profil de risque a déjà été sécurisé par la démarche précédente.

Quelques remarques
La principale difficulté de cet exercice est de réussir à déterminer son véritable profil de risque. Il est possible que 3 ans soit un horizon trop long, que les 10% de la mise initiale vous paraissent trop élevés, etc. Ces paramètres définissent votre capacité à prendre du risque, prenez donc un certain temps de réflexion ou faites-vous accompagner par un spécialiste.

Avec cette approche, vous avez en réalité construit vous-même votre produit « garanti » (à 90% sur 3 ans), proche d’un produit que pourrait vous proposer votre banque. Avec quelques différences tout de même : vous choisissez quand vous investissez (les produits bancaires ont des fenêtres de souscription), vous choisissez l’horizon de temps, les supports d’investissement (qui sont tous les deux imposés par la banque sinon) et vous maîtrisez les frais (pensez par exemple à un contrat d’assurance en vie dans une banque en ligne).

 

Avertissement

Les données chiffrées, commentaires et analyses figurant dans ce document reflètent l’opinion de l’auteur sur les marchés, leur évolution, leur réglementation et les questions fiscales, sur la base de son expertise, des analyses économiques et des informations en sa possession. Cependant, ils ne seront en aucun cas être interprétées comme comprenant un quelconque engagement ou garantie que ce soit de la part de l’auteur, de l’un de ses employeurs ou de l’une de ses sociétés.

Tout placement comporte des risques spécifiques tels que : le risque de marché, le risque de liquidité. Toute utilisation d’un modèle entraîne à minima un risque de modèle et un risque opérationnel.

Tous les investisseurs ou utilisateurs potentiels doivent prendre des mesures antérieures et des conseils de spécialistes pour analyser les risques et établir leur propre opinion indépendamment de l’auteur afin de déterminer la pertinence de la prestation fournie par l’auteur.

Ce document est non contraignant et son contenu n’a pas été examiné par un vérificateur externe. Ce document a été préparé uniquement à des fins d’information.

 

Principes de gestion de patrimoine

Pour gérer un patrimoine, le sien ou celui des autres, encore faut-il bien s’entendre sur une définition.

Le patrimoine est au particulier ce que le bilan est à l’entreprise : une photo, à un instant donné des actifs et des passifs. Toutefois, au contraire du bilan qui est évalué en valeur comptable (mais pas toujours, voir par exemple la page Assurances et en particulier celle consacrée à Solvabilité 2), le patrimoine est évalué en valeur de marché, c’est-à-dire valeur d’échange qu’une contrepartie est prête à payer pour l’acquérir. C’est donc la richesse (algébrique, c’est-à-dire positive ou négative) détenue et la forme sous laquelle celle-ci est possédée au moment où l’on procède à l’évaluation.

Poursuivant l’analogie du bilan, l’actif représente les choses pour lesquelles on dispose d’un droit : des objets, des titres, l’immobilier, du capital, des créances,… alors que le passif représente les obligations souscrites : emprunt, dettes,…

La valeur de chaque poste du bilan n’est pas stable dans le temps. Cette instabilité en nécessite la gestion d’où l’activité de « gestion de patrimoine ».

Cette activité va donc  s’articuler autour des facteurs qui ont un impact sur la valeur du patrimoine et la première mission sera de préserver le capital qu’il représente.
La vocation du patrimoine est d’augmenter (plus vite que l’inflation), c’est l’objectif d’une deuxième mission du gérant de patrimoine.
Il faut également assurer la pérennité du patrimoine : sa transmission dans le temps et la gestion de la succession (conjoint, enfants, petits-enfants, legs, …). Ce troisième pilier aura alors un impact sur l’horizon de temps de certains investissements.
Ensuite, le patrimoine devrait générer des revenus pour satisfaire, selon, les besoins de base (logement, nourriture,…) et les besoins « plaisirs » : on parlera de la jouissance de son patrimoine.

L’environnement dans lequel se déroule cette activité va exposer le patrimoine à un ensemble de risques très divers : risques de perte de valeurs des actifs ( risques financiers de marché, de crédit, d’immobilier,..), risque de liquidité, risque réglementaire et fiscal. Tout ceci va développer un ensemble de contraintes que la gestion de patrimoine doit intégrer.

En lien avec la pérennité du patrimoine, il est aussi judicieux de se pencher sur la prévoyance (santé, décès) du propriétaire du patrimoine. L’exercice de simulation de décès est primordial pour envisager les solutions les plus adaptées, solutions qui devront évoluer avec le temps (avec l’âge et le risque dépendance, avec les modifications de règles fiscales,…).

 

L’allocation fine en actions

Cet article s’intéresse aux choix d’investissement au sein de la classe d’actif actions. Ces choix sont :

– géographique : domestique vs non domestique

– sectoriel

– de style : growth vs value

– de taille : Grande vs petite capitalisation

– de type : gestion active (ie choisir un gérant pouvant créer de l’alpha) vs gestion passive (ie choisir un ETF ou le bêta d’un marché)

L’allocation stratégique prendra en compte souvent le facteur géographique ou sectoriel alors que l’allocation tactique s’engagera en complément sur des choix de style, plus rarement sur des choix de taille. Le dernier point « type » est pour ainsi dire quasiment toujours oublié ou subit sans résulter d’un véritable choix d’investissement.

Si toutefois un allocataire veut prendre en compte ces facteurs de manière globale, il va mesurer leurs corrélations afin d’établir un portefeuille optimal en fonction de ses anticipations. Cela va résulter en un portefeuille finalement équilibré, sans grandes convictions, chacun de ces facteurs ayant tous eu leurs heures de gloire dans le passé. Mais il y a plus grave et cette approche est en réalité une erreur de conception profonde du processus d’investissement. De même, réserver ces choix pour l’allocation tactique implique que ces choix ne relèvent que du market timing (ie en réaction à une nouvelle information) sans prêter d’attention à.

Or si on sait anticiper les cycles favorables à l’un ou l’autre de ces facteurs, notre processus d’investissement est énormément enrichi. On pourra même y ajouter un cycle plus connu nous permettant de choisir entre actions et obligations.

Un exemple
Prenons le facteur taille. Une allocation standard est de choisir la répartition en capitalisation des marchés, soit en Europe 80% Large et 20% Small. Or si on étudie la performance relative de ces deux marchés, on se rend compte que « Small » est un facteur pays, les petites entreprises étant beaucoup plus sensibles à une conjoncture locale alors que les grandes entreprises sont mondialisées. De là, une conjoncture nationale étant schématiquement donnée par des conditions budgétaires et fiscales qui sont loin d’avoir une folle dynamique, il est aisé de trancher entre grandes et petites capitalisations.

Synthèse
Ainsi, il semble efficace de porter attention aux facteurs ci-dessus, d’identifier quelques indicateurs caractérisant leur attractivité relative afin d’apporter une peu plus de dynamisme à l’allocation stratégique tout en évitant les principaux défauts de l’allocation tactique, à savoir le risque de réaction émotionnelle, la multiplicité des coûts de transaction si les dérivés ne sont pas utilisés, la difficulté intrinsèque du market timing, une rentabilité parfois non pertinente et les moyens énormes nécessaires à la surveillance des marchés. Cette approche apparaît ainsi appropriée aux investisseurs institutionnels, aux gérants de patrimoine ou aux banquiers privés.

Mise en oeuvre
Mener cette analyse est relativement accessible. Une bonne base de données et la maîtrise de  la construction de  loi de probabilités permet de concevoir des outils simples, robustes et facilement mis à jour.

Le choix du taux sans risque

Établir une référence qui définit la rémunération d’un investissement sans risque est un exercice difficile. Cet article soulève quelques points importants et propose une solution acceptable sans être parfaite.

Sur les marchés
En pratique, et c’est loin d’être un gage de bonne réponse, le taux sans risque est défini comme le taux zéro-coupon des titres nationaux ou supranationaux les plus sûrs. Dans certaines situations, les intervenants utilisent la courbe des taux Euribor (ou Libor) lorsqu’il s’agit d’analyser les titres à court-terme ou à taux variables. Dans d’autres cas, c’est la courbe des taux swaps standards qui est retenu, pour les dérivés de crédit par exemple.
Ces deux derniers choix sont perturbants : ils introduisent clairement un risque bancaire, loin d’être négligeable. Quant aux titres d’États, la sécurité de certains a été fortement chahutée depuis 2007.

La liquidité
Toutefois, ces approches mettent en évidence la nécessité d’ajouter une autre composante au terme sans risque, c’est la notion de temps : maturité de zéro-coupon, courbe de taux. Le taux d’intérêt étant la compensation économique d’un abandon de la part du prêteur de la disponibilité de sa monnaie, la question de la durée pendant laquelle il accepte cette indisponibilité devient central dans la définition du taux sans risque.
Par exemple, pour un investisseur particulier, sa banque peut-être considéré sans risque à 15 jours, mais sur 10 ans, ceci n’est pas certain.

Point de vue
L’exemple précédent soulève la remarque suivante : le taux sans risque ne dépend pas seulement de l’emprunteur (l’État, une banque centrale) mais également du prêteur.
Reprenons notre investisseur particulier. Pour un patrimoine inférieur à 22950€, le taux sans risque (garanti par l’État français) peut être celui de la rémunération du livret A, à condition de placer (prêter) sa monnaie pour une durée multiple d’un demi-mois. Bien évidemment, pour une entreprise, il s’agit d’une autre référence, par exemple le taux d’intérêt qui rémunère sa trésorerie (en banque…). Enfin, il est possible que l’investisseur n’est pas accès à un taux réellement sans risque.

Fiscalité et autre frais
Ceci nous amène à  considérer la fiscalité attachée à la production d’un intérêt, a fortiori s’il est supposé acquis sans risque. Car l’intérêt effectivement touché a supporté un prélèvement qui dépend du statut fiscal de celui qui le perçoit. De plus, certains frais liés à la transaction peuvent s’ajouter.

Comment s’en sortir ?
A ce stade, nous voyons que le taux sans risque devrait prendre en compte les contraintes qui s’imposent à chaque type d’investisseur. Difficile alors d’en donner une définition applicable à chacun.
Imaginons un portefeuille de titres. Il est possible que plusieurs horizons d’investissement s’y superposent. Est-ce qu’il faut alors considérer plusieurs taux sans risque, pour un seul et même investisseur ? Lorsqu’il s’agit de faire des calculs de manière industrielle, ceci n’est pas possible.

Je suggère de retenir les paramètres suivant :
1. Le premier est l’horizon d’investissement le plus court au sein du portefeuille de titres considéré. Cet horizon indique l’exigence de liquidité optimale que vous souhaitez sur le portefeuille. Il pourra s’agir de la journée, de la semaine,…
2. L’horizon en tête, soit vous avez besoin de pouvoir investir dans un taux sans risque et alors vous identifiez le taux d’intérêt qui vous est accessible par l’intermédiaire en qui vous avez le plus confiance, soit  vous n’avez pas besoin d’investir sans risque et vous utilisez une référence (monétaire, obligataire) présente sur le marché qui vous concerne :  ici pour l’Euro, l’EONIA, l’EURIBOR, le taux de rémunération des deposit des chambres de compensation, le TAM, le T4M,… (les deux derniers devenant désuets)
3. Selon le besoin, ce taux sera ou non net de fiscalité.

Pour résumer
Un taux par zone monétaire.
L’horizon d’investissement le plus court que vous ayez.
Un taux qui vous est accessible réellement ou à défaut une référence monétaire sur cet horizon.
Avec en mémoire que : le sans risque n’existe pas ( d’ailleurs le prêteur lui même génère un risque qui lui est propre (sa survie, celle des intermédiaires qu’il a choisi,…), le taux « sans risque » est propre à chaque entité, et peut évoluer en fonction de l’évolution des objectifs de cette entité.

Un exemple
Au sein des reportings qu’une société de gestion de portefeuille produit régulièrement pour rendre compte de son travail (que les fonds soient ouverts ou dédiés), de nombreux calculs sont réalisés en utilisant un taux sans risque : le calcul du bêta d’un portefeuille (d’après le CAPM), le ratio de Sharpe et tout un tas d’indicateurs plus ou moins pertinents. Pour déterminer la référence, plusieurs critères interviennent :
– qu’elle soit dans la base de donnée, c’est donc une donnée de marché que l’on peut traiter de manière industrielle,
– qu’elle soit adaptée à la liquidité (ou la valorisation du fond). si on peut acheter vendre des parts tous les jours ou tous les mois ce n’est pas pareil et en y mettant du capital, l’investisseur accepte un placement sur cet horizon de temps minimum. Il comparera donc la rémunération « sans risque » qu’il pourrait obtenir sur ce même horizon,
– qu’elle soit adaptée à l’expression de l’objectif (EONIA + 300 points de base par exemple) si pertinent,
– qu’elle soit la plus avantageuse possible pour le reporting. Eh oui, entre deux références qui ont du sens, on prendra celle dont les résultats ressortent le mieux en général. Par exemple, plus le taux sans risque est faible plus le ratio de Sharpe sera important.

Ainsi, un fond à valorisation journalière aura pour référence l’EONIA.  En revanche, pour un hedge fund dont la fenêtre est de 6 mois, l’EURIBOR sur cette durée pourra être plus approprié, même si ce n’est pas le choix retenu par le gérant.

Modèles de simulations en allocation d’actifs

Je voudrais ici réagir devant cette forme de marketing qui est produite à l’aide des modèles mathématiques en finance. Souvent, ce n’est que de la poudre aux yeux. Mais, lorsque l’on sait décrypter le langage pseudo-technique (on en met plein la vue : si le client n’y comprend rien, on passe pour des cadors croit-on), on pourrait même trouver à en rire.
allocation et distributionDans le contexte de placement d’un investisseur institutionnel, il lui faut en général déterminer un portefeuille ou une allocation stratégique selon, en fonction de diverses contraintes (comptables, réglementaires, de risque,…). Les outils à base de modèles mathématiques et de simulation numérique (dite de Monte Carlo) sont souvent mis en avant pour établir ce type de stratégie d’investissement.
En se plaçant du point de vue client, je vais prendre ici l’exemple de la présentation type d’un modèle d’allocation d’actifs pour en commenter les atouts exprimés la plupart du temps. A travers ces remarques, nous tenterons de dégager les points essentiels de conception de ces modèles et nous verrons qu’il faut garder un certain recul sur les arguments donnés.

Atout n°1 : « Ce modèle est toujours « propriétaire » et au top des derniers développements »
Comprendre conçu en interne (pas d’achat d’un logiciel), c’est tout. Est-ce une feuille de tableur développée sur un coin de PC ou un outil intégré et bien pensé après quelque temps de recherche interne ? Un client (ou prospect) investisseur devrait pouvoir exiger de voir le modèle fonctionner, en y injectant ses propres paramètres.

Atout n°2 : « Il couvre les « principales ou l’essentiel des classes d’actifs » constituant l’univers d’investissement du client.  Notez que « d’autres classes d’actifs peuvent être incluses » »
Ne pas être dupe : une autre classe d’actifs pourrait être modélisée simplement en modifiant les paramètres d’un modèle existant (voir aussi Atout n°5). L’effort est donc très relatif.

Atout n°3 : La modélisation vante son « amélioration vis à vis du classique modèle moyenne-variance : les rendements ne suivent pas une distribution normale, les queues de distributions sont épaisses, les corrélations sont instables », etc.
C’est le minimum à attendre car le modèle moyenne-variance a plus de 50 ans ! D’ailleurs, si certains se vantent encore d’utiliser le modèle de H. Markowitz, (dont le contexte calculatoire était très éloigné de nos ressources actuelles), vous n’avez pas besoin d’eux.

Atout n°4 : Une recherche modèle d’envergure. On rencontre en général 2 approches : la modélisation des facteurs de risque de marché (taux d’intérêt, inflation, risque action avec des sauts,…)  puis une modélisation des classes d’actifs à partir de ces facteurs ou bien la modélisation directe de chacune des classes
Le point non précisé (et pour cause !) est que la modélisation est unidimensionnelle. Or, quelque soit la qualité du travail, considérer les actifs un par un pour ensuite modéliser une dépendance entre eux est à mon avis une erreur fondamentale de conception. Je l’ai d’ailleurs faite pendant longtemps car c’est ainsi que l’on nous enseigne les choses. Et puis 1 dimension c’est plus facile que 20 ou 50 (selon le nombre d’actifs en portefeuille). En réalité, je suis persuadé qu’il faut modéliser globalement, c’est-à-dire en utilisant des lois jointes dès le départ.
Toutefois, dans le domaine des marchés financiers, personne n’est capable d’établir définitivement une loi de probabilité (encore moins à plusieurs dimensions). De plus, elle n’est probablement pas stable dans le temps et elle se résume surtout à un outil nous permettant de manipuler notre ignorance.

Atout n°5 : Une expertise dans la manipulation des modèles. On parle des « paramètres » ou de la « calibration » des modèles
Là est le point crucial, car c’est ici que l’on peut faire dire ce que l’on veut à l’outil. C’est pourquoi lorsque vous comparez les résultats de simulations de 2 modèles (ou sociétés), ce sont surtout leurs hypothèses qu’il faut comparer, et mieux encore leur imposer des conditions identiques lorsque cela est possible.
En réalité, le paramétrage d’un modèle nécessite l’utilisation d’autres modèles ou bien une évaluation à dire d’expert.

Atout n°6 : « Les paramètres sont estimés pour que la distribution modélisée colle à celle des principaux indices » (supposés représentés chaque classe d’actifs)
Ici, le modèle est calé sur le passé. Pourquoi ne pas directement utiliser la loi de distribution passée alors ? Les sources d’erreur de modélisation en seront largement réduites ! Les techniques de calibration sont aussi sujettes à caution. Si on parle de régression linéaire par exemple, cela suppose une loi d’erreur gaussienne. Est-ce correct ?

Atout n°7 : Les résultats de la simulation
Après 10 000 tirages aléatoires (vraiment ? ou seulement 1000 ? Pourquoi pas 1 000 000 ?), on obtient la distribution de probabilité empirique de n’importe quel portefeuille de classe d’actifs (avec des hypothèses de rebalancement simplifiées en général qui ont pourtant un impact essentiel sur la loi finale simulée). Cette distribution permet de construire une multitude de critères afin de sélectionner le portefeuille : Value at Risk (VaR), VaR Conditionnelle (CVaR) et autre « Tail Risk », Tracking Error, Volatilité, Maximum Drawdown… C’est ici que le choix des paramètres est le plus visible : ils permettent de déplacer la distribution de probabilité vers la droite si besoin, c’est-à-dire vers les événements favorables.
Les résultats seront souvent présentés sous la forme d’une frontière efficiente : risque en abscisse, performance attendue en ordonnée, preuve que les vieilles habitudes sont tenaces, alors que le choix devra prendre en compte plus que deux mesures. J’ai souvent entendu dire alors : « les clients aiment bien », « ils ne comprennent que cela ». Et donc ? Ne peut-on pas prendre le temps d’expliquer et d’accompagner son client ? Est-ce un manque de professionnalisme ou une incapacité à le faire ?

Atout n°8 : Diversifier !
Comme je le disais plus haut, l’approche scientifique cautionne implicitement le bien fondé de l’approche, alors attention au leurre ! La deuxième raison est l’argument de diversification. Une conclusion systématique de ces modèles sera : plus vous diversifiez, mieux vous gérez votre risque. C’est ainsi que l’on vous propose d’introduire dans votre portefeuille (d’acheter donc) de nouveaux actifs, peu liquides en général (ce sont ceux qui diversifient le mieux, c’est la magie de la corrélation) et donc marginalement plus dangereux (mais ouf la diversification est là dit-on).
Malheureusement, le modèle est souvent, implicitement encore une fois sans même que leurs concepteurs en aient conscience cette fois, construit pour que la diversification fonctionne car fondé par exemple sur une matrice de corrélation. Cette diversification est théorique. Pour que cet argument soit acceptable, le modèle doit pouvoir simuler la diversification réelle des marchés.
La diversification utile doit protéger suffisamment un capital en cas de choc (c’est-à-dire la réalisation d’un événement non anticipé, celui où les corrélations de vos actifs tendent vers 1) et non réduire une mesure de risque lorsque tout va bien.

Faut-il rejeter les modèles ?
Je ne crois pas, mais il faut les utiliser en étant sceptique, leur laisser le moins de place possible, ou encore utiliser ceux qui déforment le moins l’information initiale.
Une bonne question à se poser est : est-ce que le modèle que j’utilise peut créer des situations jamais vues auparavant avec une probabilité non nulle, ces événements qualifiés de cygnes noirs par N. Taleb ?
S’assurer que le gérant d’actifs s’en serve dans ses choix d’investissement même (et surtout) lorsqu’il n’a pas de client en face de lui est aussi une façon de se rassurer (un peu).

Ce que je propose
Il n’y a pas de méthode parfaite mais l’approche globale en loi de probabilité me semble la plus robuste et c’est celle que j’ai développée depuis plusieurs années maintenant.  On pourrait la qualifier d’approche « empiritative » (empirique et quantitative) : exploiter les données, utiliser l’information objective et non plonger dans une modélisation figée trop rapidement.
Comme toutes les méthodes non paramétriques, elle a l’avantage de ne pas faire d’hypothèse ad-hoc sur la forme de la distribution tout en offrant la même maniabilité que l’approche paramétrique. Elle est sûrement beaucoup plus simple et plus rapide à implémenter.