Un principe essentiel de gestion

La prise de décision est un acte profondément psychologique.

Elle est fondée sur un ensemble d’informations que notre cerveau (ou parfois notre ordinateur) intègre et compile pour agir. Plus on acquière d’information, plus notre prise de décision se complexifie et plus les points principaux sont noyés au milieu d’un bruit. C’est là que les ennuis débutent.

Car fondamentalement, il y a une insuffisance dans ce processus. La prise de décision peut en effet être réalisée d’après ce que l’on sait, mais elle doit prendre en compte également :

  • ce que l’on croit savoir, c’est-à-dire l’erreur possible sur l’information
  • ce que l’on ne sait pas, c’est à dire l’incertitude globale

Ces trois notions – information, erreur, incertitude – doivent être réconciliées afin d’agir correctement.

L’exemple de la gestion d’un portefeuille d’actions

Dans les approches courantes de stock-picking, il y a un travail d’analyse fondamentale réalisé sur la société Z afin de décider (ou non) d’investir.

Ensuite, à partir des mêmes informations sur Z, le gérant décide d’un poids cible au sein de son portefeuille, selon sa « conviction ». Or cette notion est très floue car les titres ne sont pas tous analysés et investis au même moment. La définition même de portefeuille nécessite pourtant de considérer tous les titres simultanément dans la construction (le gérant « achète » son portefeuille tous les jours). Il va alors être difficile de positionner la conviction du titre Z avec la conviction des titres A, B, C,… déjà en portefeuille depuis peut-être plusieurs mois voire années. Et si ce travail n’est pas fait alors le résultat n’est qu’un empilage d’idées d’investissement, et non un portefeuille d’investissement.

Le gérant estime souvent le potentiel d’un titre en estimant une valorisation de la société selon des hypothèses, par exemple, de croissance des cash flows, d’augmentation de marge, de chiffre d’affaire,… Il est plus rare que le gérant évalue la sensibilité de ce potentiel à ses hypothèses. Enfin, selon les approches, cet upside est soit une espérance de performance, soit parfois simplement la performance attendue si les hypothèses se réalisent,… le côté négatif, et donc au global l’incertitude, n’est pas pris en compte lors la construction de la position. Ce comportement amène une vue trop optimiste de son portefeuille et de son opinion. De plus, on alloue le portefeuille avec les mêmes informations que la sélection : si on se trompe, on se trompe deux fois.

 

Procéder par étapes indépendantes

Afin de se protéger de ce biais dans la formation de l’opinion, il faut séparer la sélection (l’entrée en portefeuille binaire oui/non) de l’allocation («j’ai décidé d’en mettre, combien j’en mets ?»). Cette dissociation est rarement réalisée, même dans certaines (pas toutes) gestions quantitatives où les deux approches sont confondues (l’optimisation de portefeuille à la Markowitz au sein d’un indice effectue ces deux étapes simultanément par exemple). Or cette séparation donne l’opportunité de gérer l’incertitude qui n’est pas prise en compte dans la sélection de titres.

L’idée est donc de ne pas utiliser les mêmes arguments pour la sélection et pour construire les positions. Par exemple, si les titres en portefeuille doivent être traités de manière uniforme : il est naturel de les équipondérer. Tous les titres vont a priori contribuer de la même manière à la performance du portefeuille. Ainsi le poids cible de chaque titre est 1/N(t) où N (t) est le nombre de titres sélectionnés à l’instant t.

Une deuxième manière d’allouer est de compléter l’information utilisée par la sélection, par exemple si on dispose d’une bonne mesure d’incertitude de privilégier les titres où l’incertitude est la plus faible (approche d’allocation low risk au sein d’une sélection donnée). Une troisième façon est d’introduire la dépendance entre les titres qui entraine souvent des estimations statistiques aux résultats peu robustes (corrélations linéaires). Dans tous les cas, tenir compte de l’incertitude permet de rendre le portefeuille moins sensible aux erreurs de sélection (risque spécifique).

Ceci amène une autre réflexion sur l’évolution de la gestion de portefeuille. Inversons le problème. Plutôt que de sélectionner les bons titres puis de construire le portefeuille qui surperformera l’indice, partons du portefeuille donné par l’indice et utilisons l’analyse fondamentale (ou un autre moyen plus quantitatif) pour éliminer les mauvais risques. L’élimination est en effet un processus plus simple à mettre en œuvre et donne des résultats plus robustes. A suivre !

Publicités

Alpha et Beta, quand les praticiens utilisent la théorie

Ce sont peut-être les deux termes les plus entendus dans une conversation avec un gérant d’actifs (pour peu que vous l’écoutiez ;-)).

Ces termes proviennent de la superposition d’un modèle d’évaluation théorique et d’un modèle statistique, ce qui peut engendrer des confusions.

Au départ il y a la théorie développée par H. Markowitz, Jensen et d’autres à partir des années 1950 afin de décrire la prime de risque (espérée ou réalisée selon les cas, définie comme la différence rentabilité – rentabilité sans risque) d’un actif en fonction de celle du « marché ». Le marché représente la totalité des actifs risqués. Ce modèle d’évaluation s’appelle le CAPM (ou MEDAF en français).
Très vite, M. Sharpe propose en parallèle un modèle de régression linéaire afin d’expliquer la rentabilité d’un instrument financier quelconque par la rentabilité d’un actif de référence (un indice en général). Son objectif est de simplifier l’estimation de la matrice de variance-covariance d’un portefeuille d’actifs.

Les deux approches n’ont aucun lien théorique mais, le coefficient de régression linéaire (version Sharpe) et la sensibilité d’un actif en fonction du marché dans le CAPM (version Markowitz) ont la même formule :

bêta = covariance (Rentabilité de l’actif, Rentabilité de la référence) / Variance de la référence

C’est aujourd’hui la version régression linéaire qui est utilisée, un actif pouvant ainsi avoir plusieurs bêtas différents selon l’indice de référence utilisé. En effet, dans le CAPM, la référence reste le marché au global.

Evidemment, comme toute mesure, le problème de son estimation n’est pas bien résolu : fenêtre de données, périodes glissantes, périodicité des données, modèle d’estimation (régression linéaire ou quantile, filtre de Kalman,…) car il en résulte une valeur assez instable selon la pratique de calcul retenue.

L’alpha (de Jensen) est l’écart constaté entre la rentabilité du CAPM et la rentabilité réalisée (donc sur une période choisie) et parfois par abus, l’écart de performance entre la performance du fonds et celle de la référence (i.e en fusionnant l’effet marché de l’effet spécifique). Il ne faut pas le confondre dans le modèle de régression linéaire, avec la constante (ou l’ordonnée à l’origine) souvent notée α .

Les indicateurs sont donc différents (il réside un écart de rentabilité entre celle réalisée et celle prévue par le modèle statistique). Dans les deux visions, ils traduisent la performance positive ou négative qui n’est pas expliquée par l’indicateur de référence. C’est pourquoi on le nomme souvent « alpha du gérant ». C’est la version alpha du CAPM qui est en général retenue (écart exact entre la rentabilité réalisé et celle du marché pondérée par le bêta).

Certaines manipulations, volontaires ou non, de ces notions laissent parfois croire à la création d’alpha positif alors qu’il n’en est rien.

Comment construire un portefeuille d’actifs sous contrainte ?

Place du processus d’optimisation dans la construction de portefeuille

Un portefeuille est constitué d’actifs et est complètement défini par le poids de ces actifs à un instant donné. Nous supposons qu’il est autofinancé : il n’y a pas de liquidité extérieure qui viennent le renflouer entre deux instants d’observation. L’optimisation consiste à trouver le poids de chaque actif en fonction d’anticipations et de conditions plus ou moins fortes d’investissement.

Les étapes de construction de portefeuilles sont les suivantes :

  1. horizon de gestion, univers d’investissement (notamment finesse : classe d’actifs, instruments,…) et contraintes de l’investisseur (s’il y en a)
  2. Accord sur la manière de gérer le portefeuille : choix d’un processus de gestion (allocation strétégique ou non, phase tactique, rebalancements,…)
  3. Estimation d’anticipation sur un horizon (identique ou inférieur à l’horizon de gestion) sur les composants de l’univers, en général performance et risque (souvent volatilité) mais cela dépend du modèle d’optimisation choisi.
  4. Intégration des anticipations dans un modèle d’optimisation prenant en comptes toutes les contraintes. C’est le point que l’on va préciser dans cette note.
  5. Implémentation du portefeuille réel de départ (montée en charge, reprise de portefeuille ou non,…).
  6. Surveillance et choix tactiques en cours de vie.

 

Fonction d’utilité et critères

Nous considérons deux grandes problématiques de construction de portefeuilles : lorsque tous les actifs appartiennent à une même classe : ils sont donc dans la même catégorie de risque ; et lorsque plusieurs classes d’actifs entre en jeu : il y a alors un actif moins risqué que les autres (voire sans risque).

Dans le second cas, le portefeuille de risque minimum n’a pas d’intérêt et implique d’avoir des critères supplémentaires qui limitent la quantité d’actifs faiblement risqués.

Les critères vont être des contraintes sur les poids a priori (pas de vente à découvert, poids maximal d’une catégorie d’actifs) ou sur les caractéristiques du portefeuille (espérance minimale, VaR, tracking error, etc.). La fonction d’utilité est aussi l’une des caractéristiques du portefeuille qui est maximisée (en général l’espérance de performance) ou minimisée (un risque) si cela a un sens.

 

Un modèle souple et riche

Le modèle doit pouvoir s’ajuster à la plupart des contraintes de l’investisseur externe. L’approche par simulations de Monte Carlo (ou par scénarios) se prête bien à ce besoin. La mise en place de ce modèle se fait à travers les étapes suivantes :

  1. Choix des techniques de simulations des actifs marginaux : modèle à facteur, modèle direct, bootstrap,…
  2. Choix des techniques de modélisation des dépendances entre actifs : corrélations, copules, approche dynamique ou non,… ou approche multi variée globale.
  3. Simulations de portefeuilles dont les poids respectent les contraintes fixées a priori
  4. Choix du meilleur portefeuille parmi tout ceux simulés en fonction de la distribution de chacun

 

On peut utiliser deux outils similaires dans la production des résultats mais différents dans la manière de simuler les actifs :

Le premier a une approche modèle + copules, qui a une version bis à modèles économétriques avancées (plus précis mais plus lent). Les modèles sont soit issus de la littérature, soit développés en interne, soit enfin issu d’une procédure d’identification à la Box-Jenkins avec un choix de copules.

Le second utilise le bootstrap par bloc qui a l’avantage de capter totalement la structure de risque des actifs les uns par rapport aux autres. Cette méthode semble fournir des portefeuilles plus robustes (i.e. moins sensible aux incertitudes des paramètres) que les optimisations « à l’aveugle ».

La calibration est un mixte des anticipations et, lorsque le paramétrage le nécessite, d’une estimation historique.

L’approche permet de comparer toutes les allocations simulées. Conditionnellement aux paramètres, nous pouvons aisément choisir, par simple comparaison le portefeuille le plus adapté sur la période étudiée. L’avantage principal réside dans la diversité et la multiplicité des critères de choix que nous pouvons utiliser, en particulier sur des horizons de temps différents (par exemple à 3 mois et un an).

Les critères sont le plus souvent (implicitement) imposés : VaR 95% >0 par exemple, volatilité inférieure à 10%,… Puis parmi ces portefeuilles, on choisi celui dont la performance (moyenne, médiane, ou autres) est maximale.

Lorsque le critère n’est pas imposé, nous choisissons d’optimiser le ratio de Sharpe, pour deux raisons :

– c’est une mesure tenant compte à la fois de la performance et d’un risque

– la maximisation du ratio de Sharpe implique de minimiser la probabilité d’avoir une performance inférieure à celle du taux sans risque. Ce résultat est universel et indépendant des modèles choisis. De plus cette minimisation reste le critère le plus naturel de tout investisseur prêt à prendre du risque « à condition » qu’il soit rémunérateur.

Stratégie flexible et patrimoniale sur indice actions

Cet article présente un indicateur de market timing uniquement fondé sur des prix, et de leurs variations, d’un actif financier, ici l’indice S&P 500.

Les principes que nous souhaitons appliquer sont les suivants :
– lors d’un mouvement extrême (que nous qualifions un peu plus bas) d’un actif, celui-ci est suivi un comportement de « retour à la moyenne » en général, nous pouvons donc utiliser ces observations exceptionnelles pour anticiper une force de rappel.
– la détermination de ces mouvements extrêmes est réalisée par l’utilisation de la loi de probabilité des mouvements sur le sous-jacent retenu.

Premier outil : la distribution des rendements périodiques
La période de temps utilisée dans cet exemple est la journée. Cette période n’est pas un horizon de temps (de gestion) mais la fréquence d’intervention (trop ?) observée sur un fonds flexible classique.

Nous utilisons, assez arbitrairement, les données sur le S&P 500 depuis le 31/12/1986 (trouvées sur Yahoo !). Le choix de cette date répond à plusieurs critères :
– Construire une distribution à partir d’un nombre suffisant de données et tester le comportement de l’indicateur lors de la crise de 2008
– Ne pas intégrer de données trop anciennes, même si cela reste possible
– Pouvoir comparer des indicateurs créés à partir d’autres indices plus récents, ceci sur une même période de temps de déroulé.

Au 24 août2015, la distribution est représentée dans la figure ci-dessous.

distribution1jour

Nous avons indiqué les performances à +/- 2 écart-types et la dernière performance. Notons à ce stade que beaucoup d’auteurs supposent que la probabilité contenu entre les doubles écart-types est de 95% (assimilation de la distribution à une loi normale) hors c’est souvent loin d’être le cas. Aller au delà des 2 écart-types n’est pas toujours si exceptionnel que cela et c’est pourquoi nous ne nous contentons pas de ces limites.

Nous avons placé également la dernière performance quotidienne de notre historique. Celle-ci est bien au delà des droites définissant les doubles écart-types. Ceci nous amène à l’outil suivant.

Deuxième outil : la probabilité cumulée de la performance quotidienne de l’actif
Cette performance de -4% possède, grâce à la distribution construite, donc une probabilité de réalisation qui se mesure comme la probabilité d’obtenir une performance plus faible que -4%, soit l’aire sous la courbe de distribution à gauche de la droite rouge. Nous complétons ci-dessous notre premier graphique avec cette information.

distribution1jourbis

Construction de l’indicateur
Si nous répétons cette construction chaque jour de notre historique, nous obtenons une série de probabilité cumulée qui indique le caractère plus ou moins exceptionnelle de la situation dans laquelle nous nous trouvons jour après jour.

Indice1jour

Le franchissement de la ligne rouge supérieure (respectivement inferieure) traduit une pression de vente (respectivement d’achat). On identifie par exemple les zones de tension et les points lors des crises de 2008-2009 et 2011-2012. L’indicateur au 24 août 2015 indiquait également une force de rappel d’achat.

Validation de l’indicateur
Une approche courante de validation est la construction d’un backtest qui traduit l’application d’une stratégie d’investissement liée à notre indicateur. Bien évidemment, celui ne reflète pas un investissement réel mais permet de lire s’il y a ou non pertinence de cet indicateur.
Une première stratégie (en bleu ci-dessous) est de simuler un investissement en fonction de la confiance dans le rebond attendu le lendemain que l’on mesure comme le complémentaire à la probabilité cumulée de la dernière performance quotidienne.
Une seconde stratégie plus simple (en gris) est de n’investir (à 100%) que si cette confiance est au dessus d’un certain niveau élevé, par exemple 80% (nous n’envisageons que des positions longues). Dans les autres cas, nous ne nous exposons pas.

L’application de ces stratégies donnent les résultats suivants, l’indice S&P500 est en rouge, base 100 fin 2006 :

 

Backtest2006

 

Sans être fantastique, l’effet de protection attendue par une stratégie flexible est capté dans une proportion suffisamment forte pour être intéressant. Le départ base 100 avant l’année 2008 induit visuellement un écart de performance qu’il faut relativiser. Pour cela, nous donnons dans le tableau suivant quelques caractéristiques classiques. L’année 2015 s’achève ici au 24/08/2015.

backtest2_v0

Une approche plus précise aurait utilisé des instruments financiers réels (l’indice n’étant pas directement investissable), par exemple, en investissant dans un ETF S&P 500 total return, puis en ajustant l’exposition fournie par l’indicateur en mettant en place une couverture à l’aide de contrats futures sur S&P 500. Les contrat futures restant négociables après la clôture du marché cash, il n’y a aucun problème à préparer son exposition pour le lendemain. De plus, ces mouvements ne sont pas brutaux en fin de journée mais sont perçus bien plus tôt, nous donnant ainsi très rapidement dans la journée, le délai nécessaire à la mise en œuvre de la stratégie. La stratégie profiterait alors également des dividendes des composants de l’indice.

Conclusion
Au vu de ces résultats, ce type d’indicateur peut donner une information intéressante concernant les mouvements de marché actions. Il demande toutefois une forte réactivité (quotidienne) qui n’est pas toujours accessible à l’investisseur.

CECI N’EST PAS UNE RECOMMANDATION D’INVESTISSEMENT.

Un draft de processus de gestion des risques

Ce document résulte d’une réflexion rapide lors de la création d’un fonds flexible dont les choix d’investissement doivent démontrer une asymétrie de performance entre participation à la hausse et à la baisse des marché (la convexité).
On explique comment combiner les différents investissements à l’intérieur d’une enveloppe de risque globale. On peut alors parler d’une approche en risque Top Down dans un premier temps puis Bottom Up si la situation le permet.

Processus_TOP_DOWN_BOTTOM_UP de_repartition_des_risques_riskprocess
MdP : riskprocess

 

Mandat de gestion sous contraintes Solvabilité 2 : le cas des obligations convertibles

Dorénavant, lorsqu’un assureur délègue sa gestion financière, il peut imposer à ses assets managers de nouvelles contraintes provenant de la directive Solvabilité 2. Celles-ci expriment la volonté (nécessité ?) de limiter la consommation de fonds propres (exprimée par les Solvency Capital Requirement ou SCR) qui se traduit par un pilotage approprié de l’exposition des facteurs de risques identifiés par la réglementation par la ou les sociétés de gestion qui doivent mettre en place des processus d’investissement adaptés.

Comme nous l’avons déjà illustré dans l’article Pilotage du (B)SCR : l’opportunité de la formule standard, nous pouvons identifier les contributions des composant d’un SCR lorsqu’on utilise la formule standard. Nous réexaminons rapidement ce point sur le SCR marché puis nous l’illustrerons avec le cas particulier des obligations convertibles.

 

Décomposition du SCR marché

Afin d’ illustrer la décomposition du SCR marché, nous supposons qu’une entreprise obtient pour chaque facteur de risque retenu par la directive les résultats du premier graphique ci-dessous, ramenés en pourcentage du SCR marché. Les données sont fictives mais les ordres de grandeur sont respectés :

SCR marché

L’effet de diversification, obtenu par la matrice de corrélation « up » car celle donnant le SCR le plus élevé, est mesuré comme l’écart entre le SCR marché (100) et la somme algébrique des SCR des sous-modules (138). La formule standard permet d’aller un peu plus loin et de répartir ce montant de diversification sur chacun des facteurs et d’obtenir ainsi la contribution réelle de chacun au SCR marché. Les résultats apparaissent dans le second graphique :

Decomposition SCR marché

 

De cette manière, on constate que les risques concentration et contracyclicité sont négligeables, ce qui n’était pas évident au départ. Le risque devise est aussi bien plus limité qu’on pouvait le croire.

Cette décomposition du SCR va pouvoir s’appliquer dès lors qu’une matrice de corrélation entre plusieurs facteurs de risque intervient. C’est pourquoi son utilisation devient extrêmement pertinente dans la gestion d’un panier d’obligations convertibles.

 

Formule standard et obligations convertibles

Les obligations convertibles ne font pas l’objet d’un traitement explicite dans la directive Solvabilité 2. Afin de les intégrer dans les actifs de placements, l’assureur doit donc utiliser un modèle interne (simplifié) consistant à d’abord à déterminer l’exposition de l’obligation convertible à chacun des facteurs de risque retenu par la directive puis à appliquer les chocs de la formule standard pour en déduire les SCR action, taux, devise, crédit (l’immobilier n’intervenant pas et le risque de concentration devant se calculer globalement) de la ligne concernée.

Pour illustrer, nous prenons un portefeuille équipondéré de 10 obligations convertibles en euros et pour chacune nous calculons sa consommation en capital qu’engendre sa détention. Dans ce cadre, seul le SCR taux d’intérêt à la hausse est retenu.

SCR OC

En appliquant la matrice de corrélation adéquate, on obtient un « SCR convertibles » de 20,5%. Ce niveau en absolu ne signifie pas grand-chose puisque le SCR action, crédit et taux seront additionnés aux autres SCR action, crédit ou taux des autres positions avant que l’on applique la matrice de corrélation. En revanche, une diminution de ce niveau indiquera une réduction de la consommation du capital.

Afin d’examiner ce portefeuille, nous pouvons, comme avant, décomposer ce SCR pour comprendre comment chaque ligne contribue à sa valeur. Le tableau suivant indique le SCR marginal (MSCR) et la contribution (CSCR) au SCR global 

 Contributions SCR OC

Nous voyons que les lignes CB4, CB5 and CB6 contribuent pour prêt de 50% au SCR convertibles. Ainsi, pour adapter le portefeuille au contexte de Solvabilité 2, le gestionnaire devra réduire l’impact de ces trois lignes. En réalité, l’ajout d’un petit programme d’optimisation va permettre d’obtenir un outil de pilotage assez fin du portefeuille en fonction de sa consommation en capital. Autre information intéressante, la comparaison des lignes CB1 (choc action prépondérant) et CB3 (choc crédit prépondérant) : notre approche permet d’apprécier qu’au sein du portefeuille, ces deux lignes contribuent de manière équivalente.

 

SCR et optimisation de portefeuille

La première idée serait de minimiser le SCR convertibles de ce portefeuille, mais ceci n’a pas beaucoup de pertinence. En effet, ce type d’optimisation fournit un portefeuille ultraconcentré. Ici par exemple on aurait 50% CB2 et CB10 pour un SCR convertibles de 11,3.

Il semble plus intéressant d’appliquer le fonctionnement suivant. L’assureur accorde un budget en SCR ou en SCR par facteur de risque que le gérant d’obligations convertibles est libre de répartir sur sa sélection de titres. En ce sens, avec la décomposition du SCR, on peut optimiser les pondérations du portefeuille selon des critères plus fin comme une contribution égale de toutes les lignes au SCR convertibles ou encore, une contribution à la performance égale à la contribution au SCR.

Poursuivant notre exemple ci-dessus, une optimisation afin que chaque ligne contribue identiquement au SCR convertibles donne le résultat du tableau suivant.

optimisation SCR

Une caractéristique intéressante de cette technique est la réduction du SCR total (17% contre 20,5%). On peut en réalité montrer que ceci est un résultat général : le SCR d’un portefeuille équipondéré est toujours supérieur à celui d’un portefeuille à contributions égales de SCR. Notons également que le portefeuille reste investi sur l’ensemble des titres sélectionnés au contraire du portefeuille de SCR minimum. Dans un cadre général, il est donc possible de contraindre le portefeuille de manière très précise pour satisfaire aux exigences du client assureur.

 

En conclusion

À aujourd’hui, la directive Solvabilité 2 ne se substitue pas totalement à la réglementation précédente (devenue Solvabilité 1). En effet, les exigences existantes sur le provisionnement ou sur les normes comptables permettant de dégager le résultat imposable par exemple continuent de s’appliquer. Les assets managers vont donc être soumis à des contraintes supplémentaires qui s’ajoutent aux contraintes existantes (gestion des plus ou moins values et de la réserve de capitalisation, prise en compte de la dépréciation durable des titres non amortissables,…). Notre illustration ici montre comment utiliser la formule standard afin de satisfaire à ces nouvelles exigences de gestion.

 

NB : cet article est fortement inspiré d’un papier que j’ai écrit en 2011 « Solvency II : The ultimate formula for Managing Solvency Capital Requirement »

Utilisation des produits dérivés en gestion de portefeuille

Utilisation des produits dérivés en gestion de portefeuille
Ce papier a pour source une formation donnée en 2010 à 60 collaborateurs d’une société de gestion d’actifs : gérants, commerciaux et fonctions transverses. A la demande des éditeurs, une version allégée a été publiée dans Portfolio Theory and Management, Use of Derivatives (chapitre 24), Edited by H. Kent Baker and Greg Filbeck, Oxford University Press, 2013.
J’y présente en premier lieu l’utilisation des futures sur indices action puis le reste du document est consacré à la prise de positions optionnelles dans le cadre global de la gestion de portefeuille : scénario, analyse et gestion des risques, performance.

NB : le mot de passe du fichier est strategiesderives