Stratégie Flexible (suite de l’article du 12 septembre 2015)

Cet article poursuit les travaux présentés ici

Nous prolongeons tout d’abord les backtests de la stratégie flexible jusqu’au 12/05/2016.

Graphe_mai2016

Le tableau de caractéristiques est également mis à jour ci-dessous.

backtest2_mai16

Nous constatons que le comportement de la stratégie est plutôt décevant sur la période qui a suivi la première étude, soit de septembre à mi mai 2016. La flexibilité doit pourtant être une solution d’investissement tout terrain. L’horizon de temps de 1 jour est un paramètre du backtest que nous pouvons faire évoluer. Nous répétons notre procédure précédente sur un horizon d’un mois et nous combinons les deux signaux pour obtenir le backtest 3 suivant.

Graphe_mai2016v2

 

Les caractéristiques de ce backtest présente une volatilité et un maximum drawdown plus importants. L’année 2012 est plutôt décevante alors que la stratégie profite bien mieux des années 2007-2009 ou 2013-2015. La performance est fortement améliorée sur la période mais l’investisseur doit accepter ici une détention plus longue pour en bénéficier.

backtest3_mai2016

Soyons bien conscient qu’un backtest ne prouve rien. Une preuve nécessite une démonstration qui partirait d’hypothèses minimales acceptables pour aboutir à une conclusion favorable sur la démarche. Le backtest n’est qu’un exemple et on espère 1. qu’il fournira des signaux à venir suffisamment longtemps pour générer une performance positive, 2. que nous serons assez lucide pour détecter, avant catastrophe, la fin de la pertinence de ces signaux.

Publicités

Value, Growth, styles et gestion quantitative

Value et Growth sont deux termes qui définissent une typologie d’émetteurs d’actions selon certains critères financiers.

1. Définition d’introduction
La définition la plus simple à ma connaissance est un positionnement par rapport à deux ratios financiers :
– value (ou valorisation) rassemble les sociétés attractives selon leur prix P aujourd’hui, donc sous-valorisées et qui présentent un potentiel d’appréciation si le marché les jugent comme telles.
– growth (ou croissance) rassemble les sociétés attractives selon la croissance de leurs bénéfices futurs E (comme Earnings) à venir.

Ainsi, le ratio P/E, ou noté PE(R) (pour Price Earnings Ratio) permet une première segmentation de l’univers : le P/E d’un titre aujourd’hui est élevé si son prix P est élévé et/ou ses bénéfices actuels sont faibles, c’est le cas des valeurs de croissance. A l’inverse, un P/E faible indique une valeur dont le prix est relativement faible rapporté à ses bénéfices actuels, cela définit les valeurs value.

De même, leur valorisation de marché (toujours le P) s’écartera peu de la valorisation comptable B (pour Book Value) dans le cas d’une valeur sous valorisée : le ratio PB ou P/BV (Price to Book Value Ratio) sera faible pour les valeurs value. Au contraire, pour les valeurs de croissance dont le prix anticipe déjà les bénéfices futures, le prix sera élevé et le ratio P/BV également.

2. Méthodologies MSCI et Stoxx
Ces styles présentant des caractéristiques attractives, les fournisseurs d’indices ont élaboré des méthodologies quantitatives afin de segmenter leur univers selon les approches de valorisation et de croissance.
Ces méthodologies sont vues plus en détail dans ce billet (Value et Growth selon Stoxx et MSCI). Nous en proposons ici un résumé.

  • Stoxx
    Stoxx caractérise les styles à partir de 6 critères de valorisation (P/E projeté et réalisé, P/B, dividend yield) et de croissance (croissance des EPS – Earnings per Share – réalisée et projetée) confondu. Les valeurs sont ensuite classées pour appartenir à l’une des 3 catégories : value – neutre – growth.
    Dans cette approche, il existe donc des valeurs ni value ni growth qu’on ne retrouve pas dans leurs indices de styles.

Stoxx revoit les styles tous les semestres en Mars et Septembre et raisonne à partir des univers Large/Mid/Small

  • MSCI
    MSCI caractérise pour chaque valeur de l’univers considéré (Large+Mid ou Small) son type value et son type growth.
    Les 3 critères value sont : B/P, E/P, D/P (D pour Dividend).
    Les 5 critères growth sont : croissance CT et LT des EPS forward, taux de croissance interne, croissance LT des EPS historiques, croissance et la croissance LT des SPS, Sales per Share (critère non utilisé pour financières).
    Une valeur alors peut être soit Value, soit Growth, soit Value et Growth, soit Non Value et Non Growth.
    Le style du titre est ensuite affiné pour une affectation dans les indices Value ou Growth selon des règles de pondération.
    MSCI revoit les indices de styles tous les semestres en Mai et Novembre.

3. Du style à la gestion quantitative
Nous voici déjà avec 3 définitions qui conduiront à des univers value et growth différents. L’intérêt des définitions à partir des ratios est qu’elles permettent une quantification et donc une gestion quantitative de ces styles de manière active. En réalité, derrière un nom, l’investisseur doit s’attacher aux informations qu’il souhaite utiliser pour générer ses idées d’investissement. Par exemple, les valeurs de rendement forment un autre style et représentent les titres délivrant un dividende régulier, de préférence monétaire, et dont l’évolution du cours de bourse est assez stable.

Chaque ratio ou mesure d’analyse financière va permettre de développer un style. Les plus pertinent(e)s vont permettre de mettre en place un stock picking quantitatif, en général à l’aide de scoring.
A partir de ce scoring nous pouvons établir des portefeuilles (fictifs à ce stade, si on traite 30 mesures et 10 secteurs, on regarde 300 portefeuilles) long des meilleures valeurs et short des moins bonnes pour la mesure retenue.
L’observation de ces portefeuilles permet de dégager les styles qui dirigent le marché au cours du temps. Lorsqu’on détecte une persistance dans ces forces (par des outils statistiques par exemple), on peut alors investir sur les portefeuilles dominants (ou leur partie longue seulement), ou si on est benchmarké sur-pondérer les titres du portefeuille long et sous-pondérer les valeurs du portefeuille short afin de dégager une surperformance.
Dans cette démarche, on portera une attention particulière au turnover à l’intérieur de chaque portefeuille.

Pourquoi utiliser des obligations convertibles synthétiques dans un OPCVM ?

Le problème se pose versus l’utilisation d’obligations convertibles « pures » à laquelle se restreignent certaines gestions.

Synthétiques = obligation + call, ou structuration par une banque (mais risque sur le marché secondaire donc moins utilisé par les gestionnaires d’actifs)

L’obligation est parfois remplacé par du cash ou du taux variable pour éviter le risque de hausse des taux.

Deux risques sur les convertibles « pures » :

  • Le yield peut devenir négatif (pas possible avec une obligation à taux fixe)
  • Avec le dividende, s’il n’y a pas de clause de protection, risque d’un profil concave

Intérêts pour compléter une gestion convertibles par des synthétiques :

  • Moins chers selon le cycle
  • Meilleure convexité selon le cycle et selon le gisement
  • Choix possible d’une maturité plus courte => meilleure sensibilité de l’option, possibilité d’une gestion plus fine des grecques. Par exemple, réduction du Véga en réduisant les maturités et donc diminution du risque de baisse de volatilité implicite
  • Meilleure liquidité, compense les lacunes du marché primaire
  • Profil sur des sous-jacents sans émetteur => meilleure diversification, compense les lacunes du marché primaire

Avantage au physique en cas d’OPA à cause des clauses de protection et cours soutenus par le déficit d’offre.

Sentiment de dégradation des performances lorsque les gestions convertibles associent des synthétiques. Quelles explications ?

  • Mauvais strike, maturité ?
  • Effet thêta ?
  • Call trop cher (pas de call spread) ?
  • Pas de put?
  • Conjoncturel : les synthétiques s’utilisent quand le marché des convertibles subit des tensions => la dégradation viendrait des conditions macroéconomiques ?

Stratégie flexible et patrimoniale sur indice actions

Cet article présente un indicateur de market timing uniquement fondé sur des prix, et de leurs variations, d’un actif financier, ici l’indice S&P 500.

Les principes que nous souhaitons appliquer sont les suivants :
– lors d’un mouvement extrême (que nous qualifions un peu plus bas) d’un actif, celui-ci est suivi un comportement de « retour à la moyenne » en général, nous pouvons donc utiliser ces observations exceptionnelles pour anticiper une force de rappel.
– la détermination de ces mouvements extrêmes est réalisée par l’utilisation de la loi de probabilité des mouvements sur le sous-jacent retenu.

Premier outil : la distribution des rendements périodiques
La période de temps utilisée dans cet exemple est la journée. Cette période n’est pas un horizon de temps (de gestion) mais la fréquence d’intervention (trop ?) observée sur un fonds flexible classique.

Nous utilisons, assez arbitrairement, les données sur le S&P 500 depuis le 31/12/1986 (trouvées sur Yahoo !). Le choix de cette date répond à plusieurs critères :
– Construire une distribution à partir d’un nombre suffisant de données et tester le comportement de l’indicateur lors de la crise de 2008
– Ne pas intégrer de données trop anciennes, même si cela reste possible
– Pouvoir comparer des indicateurs créés à partir d’autres indices plus récents, ceci sur une même période de temps de déroulé.

Au 24 août2015, la distribution est représentée dans la figure ci-dessous.

distribution1jour

Nous avons indiqué les performances à +/- 2 écart-types et la dernière performance. Notons à ce stade que beaucoup d’auteurs supposent que la probabilité contenu entre les doubles écart-types est de 95% (assimilation de la distribution à une loi normale) hors c’est souvent loin d’être le cas. Aller au delà des 2 écart-types n’est pas toujours si exceptionnel que cela et c’est pourquoi nous ne nous contentons pas de ces limites.

Nous avons placé également la dernière performance quotidienne de notre historique. Celle-ci est bien au delà des droites définissant les doubles écart-types. Ceci nous amène à l’outil suivant.

Deuxième outil : la probabilité cumulée de la performance quotidienne de l’actif
Cette performance de -4% possède, grâce à la distribution construite, donc une probabilité de réalisation qui se mesure comme la probabilité d’obtenir une performance plus faible que -4%, soit l’aire sous la courbe de distribution à gauche de la droite rouge. Nous complétons ci-dessous notre premier graphique avec cette information.

distribution1jourbis

Construction de l’indicateur
Si nous répétons cette construction chaque jour de notre historique, nous obtenons une série de probabilité cumulée qui indique le caractère plus ou moins exceptionnelle de la situation dans laquelle nous nous trouvons jour après jour.

Indice1jour

Le franchissement de la ligne rouge supérieure (respectivement inferieure) traduit une pression de vente (respectivement d’achat). On identifie par exemple les zones de tension et les points lors des crises de 2008-2009 et 2011-2012. L’indicateur au 24 août 2015 indiquait également une force de rappel d’achat.

Validation de l’indicateur
Une approche courante de validation est la construction d’un backtest qui traduit l’application d’une stratégie d’investissement liée à notre indicateur. Bien évidemment, celui ne reflète pas un investissement réel mais permet de lire s’il y a ou non pertinence de cet indicateur.
Une première stratégie (en bleu ci-dessous) est de simuler un investissement en fonction de la confiance dans le rebond attendu le lendemain que l’on mesure comme le complémentaire à la probabilité cumulée de la dernière performance quotidienne.
Une seconde stratégie plus simple (en gris) est de n’investir (à 100%) que si cette confiance est au dessus d’un certain niveau élevé, par exemple 80% (nous n’envisageons que des positions longues). Dans les autres cas, nous ne nous exposons pas.

L’application de ces stratégies donnent les résultats suivants, l’indice S&P500 est en rouge, base 100 fin 2006 :

 

Backtest2006

 

Sans être fantastique, l’effet de protection attendue par une stratégie flexible est capté dans une proportion suffisamment forte pour être intéressant. Le départ base 100 avant l’année 2008 induit visuellement un écart de performance qu’il faut relativiser. Pour cela, nous donnons dans le tableau suivant quelques caractéristiques classiques. L’année 2015 s’achève ici au 24/08/2015.

backtest2_v0

Une approche plus précise aurait utilisé des instruments financiers réels (l’indice n’étant pas directement investissable), par exemple, en investissant dans un ETF S&P 500 total return, puis en ajustant l’exposition fournie par l’indicateur en mettant en place une couverture à l’aide de contrats futures sur S&P 500. Les contrat futures restant négociables après la clôture du marché cash, il n’y a aucun problème à préparer son exposition pour le lendemain. De plus, ces mouvements ne sont pas brutaux en fin de journée mais sont perçus bien plus tôt, nous donnant ainsi très rapidement dans la journée, le délai nécessaire à la mise en œuvre de la stratégie. La stratégie profiterait alors également des dividendes des composants de l’indice.

Conclusion
Au vu de ces résultats, ce type d’indicateur peut donner une information intéressante concernant les mouvements de marché actions. Il demande toutefois une forte réactivité (quotidienne) qui n’est pas toujours accessible à l’investisseur.

CECI N’EST PAS UNE RECOMMANDATION D’INVESTISSEMENT.

Publié sur l’Agéfi : Solvabilité 2 et la gestion sous mandat des obligations convertibles

Agefi S2 convertibles    J’ai publié dans l’Agéfi (Communauté Solvabilité 2, cliquez sur l’image) cet article qui présente un outil pour la gestion dédiée des obligations convertibles lorsque l’investisseur institutionnel impose des contraintes liées à l’utilisation d’un budget de risque donné sous la forme d’un SCR global ou par facteurs de risque.

Modèles de simulations en allocation d’actifs

Je voudrais ici réagir devant cette forme de marketing qui est produite à l’aide des modèles mathématiques en finance. Souvent, ce n’est que de la poudre aux yeux. Mais, lorsque l’on sait décrypter le langage pseudo-technique (on en met plein la vue : si le client n’y comprend rien, on passe pour des cadors croit-on), on pourrait même trouver à en rire.
allocation et distributionDans le contexte de placement d’un investisseur institutionnel, il lui faut en général déterminer un portefeuille ou une allocation stratégique selon, en fonction de diverses contraintes (comptables, réglementaires, de risque,…). Les outils à base de modèles mathématiques et de simulation numérique (dite de Monte Carlo) sont souvent mis en avant pour établir ce type de stratégie d’investissement.
En se plaçant du point de vue client, je vais prendre ici l’exemple de la présentation type d’un modèle d’allocation d’actifs pour en commenter les atouts exprimés la plupart du temps. A travers ces remarques, nous tenterons de dégager les points essentiels de conception de ces modèles et nous verrons qu’il faut garder un certain recul sur les arguments donnés.

Atout n°1 : « Ce modèle est toujours « propriétaire » et au top des derniers développements »
Comprendre conçu en interne (pas d’achat d’un logiciel), c’est tout. Est-ce une feuille de tableur développée sur un coin de PC ou un outil intégré et bien pensé après quelque temps de recherche interne ? Un client (ou prospect) investisseur devrait pouvoir exiger de voir le modèle fonctionner, en y injectant ses propres paramètres.

Atout n°2 : « Il couvre les « principales ou l’essentiel des classes d’actifs » constituant l’univers d’investissement du client.  Notez que « d’autres classes d’actifs peuvent être incluses » »
Ne pas être dupe : une autre classe d’actifs pourrait être modélisée simplement en modifiant les paramètres d’un modèle existant (voir aussi Atout n°5). L’effort est donc très relatif.

Atout n°3 : La modélisation vante son « amélioration vis à vis du classique modèle moyenne-variance : les rendements ne suivent pas une distribution normale, les queues de distributions sont épaisses, les corrélations sont instables », etc.
C’est le minimum à attendre car le modèle moyenne-variance a plus de 50 ans ! D’ailleurs, si certains se vantent encore d’utiliser le modèle de H. Markowitz, (dont le contexte calculatoire était très éloigné de nos ressources actuelles), vous n’avez pas besoin d’eux.

Atout n°4 : Une recherche modèle d’envergure. On rencontre en général 2 approches : la modélisation des facteurs de risque de marché (taux d’intérêt, inflation, risque action avec des sauts,…)  puis une modélisation des classes d’actifs à partir de ces facteurs ou bien la modélisation directe de chacune des classes
Le point non précisé (et pour cause !) est que la modélisation est unidimensionnelle. Or, quelque soit la qualité du travail, considérer les actifs un par un pour ensuite modéliser une dépendance entre eux est à mon avis une erreur fondamentale de conception. Je l’ai d’ailleurs faite pendant longtemps car c’est ainsi que l’on nous enseigne les choses. Et puis 1 dimension c’est plus facile que 20 ou 50 (selon le nombre d’actifs en portefeuille). En réalité, je suis persuadé qu’il faut modéliser globalement, c’est-à-dire en utilisant des lois jointes dès le départ.
Toutefois, dans le domaine des marchés financiers, personne n’est capable d’établir définitivement une loi de probabilité (encore moins à plusieurs dimensions). De plus, elle n’est probablement pas stable dans le temps et elle se résume surtout à un outil nous permettant de manipuler notre ignorance.

Atout n°5 : Une expertise dans la manipulation des modèles. On parle des « paramètres » ou de la « calibration » des modèles
Là est le point crucial, car c’est ici que l’on peut faire dire ce que l’on veut à l’outil. C’est pourquoi lorsque vous comparez les résultats de simulations de 2 modèles (ou sociétés), ce sont surtout leurs hypothèses qu’il faut comparer, et mieux encore leur imposer des conditions identiques lorsque cela est possible.
En réalité, le paramétrage d’un modèle nécessite l’utilisation d’autres modèles ou bien une évaluation à dire d’expert.

Atout n°6 : « Les paramètres sont estimés pour que la distribution modélisée colle à celle des principaux indices » (supposés représentés chaque classe d’actifs)
Ici, le modèle est calé sur le passé. Pourquoi ne pas directement utiliser la loi de distribution passée alors ? Les sources d’erreur de modélisation en seront largement réduites ! Les techniques de calibration sont aussi sujettes à caution. Si on parle de régression linéaire par exemple, cela suppose une loi d’erreur gaussienne. Est-ce correct ?

Atout n°7 : Les résultats de la simulation
Après 10 000 tirages aléatoires (vraiment ? ou seulement 1000 ? Pourquoi pas 1 000 000 ?), on obtient la distribution de probabilité empirique de n’importe quel portefeuille de classe d’actifs (avec des hypothèses de rebalancement simplifiées en général qui ont pourtant un impact essentiel sur la loi finale simulée). Cette distribution permet de construire une multitude de critères afin de sélectionner le portefeuille : Value at Risk (VaR), VaR Conditionnelle (CVaR) et autre « Tail Risk », Tracking Error, Volatilité, Maximum Drawdown… C’est ici que le choix des paramètres est le plus visible : ils permettent de déplacer la distribution de probabilité vers la droite si besoin, c’est-à-dire vers les événements favorables.
Les résultats seront souvent présentés sous la forme d’une frontière efficiente : risque en abscisse, performance attendue en ordonnée, preuve que les vieilles habitudes sont tenaces, alors que le choix devra prendre en compte plus que deux mesures. J’ai souvent entendu dire alors : « les clients aiment bien », « ils ne comprennent que cela ». Et donc ? Ne peut-on pas prendre le temps d’expliquer et d’accompagner son client ? Est-ce un manque de professionnalisme ou une incapacité à le faire ?

Atout n°8 : Diversifier !
Comme je le disais plus haut, l’approche scientifique cautionne implicitement le bien fondé de l’approche, alors attention au leurre ! La deuxième raison est l’argument de diversification. Une conclusion systématique de ces modèles sera : plus vous diversifiez, mieux vous gérez votre risque. C’est ainsi que l’on vous propose d’introduire dans votre portefeuille (d’acheter donc) de nouveaux actifs, peu liquides en général (ce sont ceux qui diversifient le mieux, c’est la magie de la corrélation) et donc marginalement plus dangereux (mais ouf la diversification est là dit-on).
Malheureusement, le modèle est souvent, implicitement encore une fois sans même que leurs concepteurs en aient conscience cette fois, construit pour que la diversification fonctionne car fondé par exemple sur une matrice de corrélation. Cette diversification est théorique. Pour que cet argument soit acceptable, le modèle doit pouvoir simuler la diversification réelle des marchés.
La diversification utile doit protéger suffisamment un capital en cas de choc (c’est-à-dire la réalisation d’un événement non anticipé, celui où les corrélations de vos actifs tendent vers 1) et non réduire une mesure de risque lorsque tout va bien.

Faut-il rejeter les modèles ?
Je ne crois pas, mais il faut les utiliser en étant sceptique, leur laisser le moins de place possible, ou encore utiliser ceux qui déforment le moins l’information initiale.
Une bonne question à se poser est : est-ce que le modèle que j’utilise peut créer des situations jamais vues auparavant avec une probabilité non nulle, ces événements qualifiés de cygnes noirs par N. Taleb ?
S’assurer que le gérant d’actifs s’en serve dans ses choix d’investissement même (et surtout) lorsqu’il n’a pas de client en face de lui est aussi une façon de se rassurer (un peu).

Ce que je propose
Il n’y a pas de méthode parfaite mais l’approche globale en loi de probabilité me semble la plus robuste et c’est celle que j’ai développée depuis plusieurs années maintenant.  On pourrait la qualifier d’approche « empiritative » (empirique et quantitative) : exploiter les données, utiliser l’information objective et non plonger dans une modélisation figée trop rapidement.
Comme toutes les méthodes non paramétriques, elle a l’avantage de ne pas faire d’hypothèse ad-hoc sur la forme de la distribution tout en offrant la même maniabilité que l’approche paramétrique. Elle est sûrement beaucoup plus simple et plus rapide à implémenter.