Small Data en assurance vie : en finir avec les lois de mortalité artificielles

Cet article illustre l’utilisation des techniques du small data pour l’estimation de loi de mortalité en assurance vie.

Afin de mettre en œuvre différentes constructions de loi de mortalité dans un contexte de données limitées, nous allons utiliser un exemple emprunté au chapitre 6 de Tosetti et al.

Les données fournies correspondent aux 15 variables aléatoires de durée de vie Tz pour z=70,…,84 pour les 15 groupes de populations (les données brutes sont en annexe). Dans un premier temps, pour chaque groupe, nous appliquons le modèle binomial classique associé à une probabilité de décès 1 0 qz = P(Tz ϵ [0,1]), noté q(z) ou qz. Son estimation fréquentiste est le rapport nombre de décès / nombre d’individus observés, soit :

en reprenant les notations de Tosetti. Les intervalles de confiances exacts à 95% sont également donnés dans le graphique ci-dessus.

Comme signalé par les auteurs, il reste un problème fondamental de construction : on s’attend à avoir les q(z) croissants avec l’âge z, or il y a dans l’estimation des décrochements trop importants. Etant donné la taille des intervalles de confiance, ceci confirme bien que nos données sont trop pauvres pour être utilisées sans autre traitement.

Les auteurs proposent des lissages par ajustements selon successivement des fonctions croissantes « simples », par décalage d’âge avec la table TPRV93 (l’exemple date un peu…) et avec les lois de Gompertz et Makeham. Petauton évoque d’autres méthodes devenues standard : moyennes mobiles,  splines et surtout Whittaker-Henderson qui peuvent aussi être appliquées.

 

Les méthodes précédentes peuvent être efficaces mais :

  • Elles sont sans véritable fondement quant à leur utilisation. Par exemple, pourquoi utiliser une distance en carré et non en valeur absolue ou en quantile dans la méthode Wittacker-Henderson ? Comment choisir le juste nombre de nœuds et leur place dans la méthode par splines ? La taille de la fenêtre dans la moyenne mobile ? Ces approches tendent à considérer les valeurs anormales comme aberrantes alors même qu’elles seraient situées dans l’intervalle de confiance exact.
  • Elles sont justifiées a posteriori par un test du chi deux, qui n’est qu’asymptotique. Or dans notre exemple, les données sont peu nombreuses et elles pourraient l’être encore moins ! L’appréciation est réalisée « en moyenne ».
  • Elles ne tiennent pas compte de l’incertitude des données initiales.
  • Le choix du paramétrage z = 2, h = 5 de l’approche Whittacker-Henderson est en général réalisé a posteriori, en comparant par exemple différents graphiques qui, à vue d’œil, lisse au mieux la courbe tout en restant fidèle à l’évolution globale des données. Une procédure rigoureuse et systématique d’un tel choix apparait lourde et difficile à mettre en place.
  • Quant à la méthode du décalage d’âge, elle intègre les éventuels défauts de sa table de référence et reste une méthode économique pour obtenir un lissage acceptable, en fait déjà réalisé dans la construction de la table de référence. La métrique utilisée (ici la distance du chi deux) n’est toutefois pas la seule utilisable.

 

Globalement, les méthodes présentées ont toutes le défaut de nécessiter des choix arbitraires. L’approche small data propose une alternative afin d’éviter cet inconvénient majeur dans le cadre d’une démarche scientifique et les défauts particuliers relevés plus haut.

 

Les techniques vues en assurance non vie ne sont pas directement applicables car la « physique » des données n’est pas la même :

  • en assurance non vie, on observe 1 phénomène dont le résultat peut tomber dans K classes
  • Ici on observe des expériences de mortalité indépendantes (pour K classes d’âges observés) dont le résultat est décès dans l’année ou non
  • Utiliser la loi reconstituée du taux de survie à un âge donné (pour nous ramener à l’estimation d’une seule loi de probabilité come en assurance non vie) n’est pas possible car nous n’avons pas d’échantillon d’observation pour cette loi.

 

L’approche consiste alors à estimer chacun des taux de mortalité à partir d’échantillons indépendants en imposant l’hypothèse de croissance avec l’âge.

L’estimation s’obtient par simulation de Monte Carlo. Le graphique ci-dessous représente différentes reconstitutions.

Quelques rappels des bénéfices de l’approche small data :

  • La technique reste cohérente avec la « physique » des données
  • C’est une technique d’estimation et non un pur outil numérique de lissage
  • Pas de sensibilité au paramétrage d’une technique
  • Pas de sensibilité à une métrique
  • On peut disposer de l’incertitude pour chaque taux :

Nous avons obtenu une estimation pour la famille qz des taux de décès annuel. Ces taux de décès permettent de reconstituer une table de mortalité adaptée à l’information disponible sans introduire de modélisation exagérée ou d’avoir recours à un paramétrage dont le réglage est trop discrétionnaire et non réellement justifiable.

Ces estimations ont tenu compte d’un avis d’expert qui impose une croissance des taux de décès annuel avec l’âge atteint. Ceci a pu être réalisé sans l’introduction d’une forme paramétrique quelconque sur les taux.

Cette approche permet d’intégrer en amont les contraintes de construction de la table d’expérience sans autre choix de modèles et/ou paramètres, choix toujours délicat à justifier.

 

Bibliographie

Tosetti Alain, Béhar Thomas, Fromenteau Michel, Ménart Stéphane, Assurance, Comptabilité – Réglementation – Actuariat, AAA, Economica, 2011

 

Données utilisées

Publicités

Small Data en assurance non vie : estimation d’une distribution d’événements extrêmes

En poursuivant notre exploration de la modélisation d’événements rares, nous nous plaçons dans la suite directe des articles précédents donnant à la fois des explications sur le bien-fondé de l’approche small data et les bases de l’outil mathématique. Une application directe à la segmentation du tarif avait été proposée.

Nous étudions maintenant la queue de distribution de la fréquence de sinistres pour des tranches de coûts extrêmes. Les données initiales sont fournies ci-dessous.

 

Les lois obtenues s’interprètent comme des lois conditionnelles à l’observation de coûts supérieurs à 200.

Les observations sont en quantité limité et le nombre de sinistres n’est pas décroissant avec le coût comme on pourrait d’y attendre, notamment si le nombre d’observations totales augmente.

 

Estimation à l’aide d’une loi de Pareto

L’utilisation d’une loi de Pareto est assez classique dans ce genre d’utilisation. Elle va imposer la décroissance attendue.

La loi de Pareto lisse les observations empiriques. Elle provoque des écarts importants : dans les faits, la fréquence de la tranche 801-1600 est réduite de moitié ! (voir graphique ci-dessous). De plus, elle augmente la fréquence des sinistres de plus faible coût de 3,5% ce qui n’apparait pas très prudent pour envisager une tarification sur cette base. Signalons que la loi de Pareto estimée n’a pas ici non plus de variance, ce qui peut sembler difficilement compatible avec un phénomène observable.

Lorsque l’on pratique un test du chi deux, l’ajustement de Pareto est rejeté. Cependant, ce test n’est qu’asymptotiquement valable et son utilisation reste discutable. Pourtant, l’ajustement de Pareto a bien « rectifié » la loi de probabilité comme nous l’attendions, c’est-à-dire, une décroissance des fréquences des sinistres avec leur coût.

 

L’approche small data

Au lieu de choisir une loi qui présente la décroissance des probabilités souhaitée, nous introduisons cette hypothèse au cœur de l’approche bayésienne : c’est une hypothèse a priori supplémentaire. Notre information initiale est donc enrichie par cet avis exogène, c’est l’avis d’expert.

Techniquement, les estimations s’obtiennent cette fois par simulation de Monte Carlo, la décroissance ne permettant pas d’identifier simplement la loi de distribution, comme nous avions obtenu une loi Beta en l’absence de ce type de contrainte. On obtient la représentation graphique présentée ici.

 

Analyse comparée

On peut montrer que l’approche bayésienne est plus cohérente avec les données que la modélisation par une loi de Pareto.

En effet, la distance du chi deux pour l’approche bayésienne est plus faible qu’avec la loi de Pareto (1,88 contre 7,93).

Une autre façon, moins liée à une métrique arbitraire est de comparer la probabilité de réalisation de l’échantillon sous chacune des deux lois. Pour l’approche bayésienne on obtient une probabilité 10 fois supérieure.

Le véritable avenir de la gestion active

La peur du robot ?
A force d’opposer l’approche fondamentale et la gestion systématique, on ne voit pas qu’elles sont au contraire compatibles, complémentaires et bientôt indispensables l’une à l’autre. Certes, il faudra pour cela peut-être bousculer quelques esprits mais on peut essayer des les y préparer ici.

Le robot peut proposer un  ensemble de service qui menacent dès aujourd’hui une partie de l’activité de CGPI : sélections d’OPC/FIA, allocations de ces fonds, passage d’ordres, suivi des risques et reporting, selon un profil du client. D’autres « systèmes » proposent du conseil en stock-picking. Pour le moment, Morgan Stanley équipe son réseau de distribution  d’intelligence artificielle mais combien de temps la banque aura-t-elle besoin de conseillers ?

[ajout du 17/08/2017. Nouvel article sur la robotisation du traitement des IPO par Goldman Sachs]

Le robot s’occupe donc déjà de nos allocations. Celui qui remplacera l’analyse fondamentale est sûrement déjà né quelque part. Il remplacera d’abord l’analyste, le gérant puis peut-être même un jour le patron de boite cotée en optimisant les investissements en fonction de contraintes satisfaisant les principaux actionnaires à des horizons plus ou moins longs.

Prendre du recul
D’ici là, il faut penser autrement. L’instrument financier est un moyen, un « objet » intermédiaire, pour bénéficier de gains (algébriques) provenant de sources multiples, pas toujours toutes identifiées, souvent corrélées : la croissance, l’inflation, la confiance en l’avenir,… Lorsque l’instrument  financier est confondu (dans l’esprit de l’investisseur) avec le sous-jacent réel (typiquement une action et la société dont l’action représente une part de capital), c’est alors que les risques sont les plus forts. L’analyse fondamentale porte sur la société, son développement, etc… Elle permet de comprendre les particularités de l’entreprise étudiée, sa spécificité. C’est important mais c’est incomplet. Lorsqu’il travaille ainsi, le gérant se comporte uniquement en analyste financier. Il doit penser autrement. Penser autrement car les facteurs d’influence sont multiples et ne se déduisent pas clairement d’un bilan comme le facteur psychologique, ou celui de market timing par exemple.
Une société de gestion ne peut donc plus se contenter de mettre en avant sa seule gestion fondamentale car elle négligerait un ensemble de facteurs pouvant balayer en quelques minutes un travail d’analyse de plusieurs semaines.

Les pistes de développement pour les sociétés de gestion
Dans un premier temps, une société de gestion peut rapidement faire évoluer ses processus d’investissement dans deux directions :
– recréer de l’alpha en présentant des portefeuilles ultra concentrés (25 lignes, pour respecter facilement la règle des 5/10/20/40) avec des entreprises dont les spécificités sont parfaitement connu de l’analyste. Avec plus de lignes, l’alpha est souvent détruit au profit du bêta, le risque systématique devient prépondérant. C’est d’ailleurs le cas des gestions passives qui si elle ne se cachent pas derrière un indice, doivent nécessairement gérer le risque spécifique en le diluant par une multitude de titres en portefeuille.
– prendre un indice (classique, smart,…) et ELIMINER les titres inapropriés. Son analyse fondamentale ne sert plus à sélectionner au sein d’un univers pas toujours bien défini, mais à retirer les composants les moins fiables d’un ensemble de titres bien déterminés. Une composante de construction de portefeuille pourra s’y superposer. Les risques sont activement gérés.

Dans un second temps, elle peut réfléchir à la mise en place de nouveaux processus d’investissement qui :
– la positionne dans l’air du temps
– conserve son coeur de métier qu’est l’analyse fondamentale

L’air du temps ce sont les stratégies smart beta, factor investing, …. Ces stratégies sont automatisées, des indices existent afin de les benchmarker. Ces stratégies sont fondées sur la matière première de l’analyste à savoir les éléments de bilan de l’entreprise, en les classifiant pour en choisir les titres les plus représentatifs d’une typologie bien choisie (value, growth, quality, low vol, low beta, momentum,…). La solution n’est plus très loin : les portefeuilles deviennent des assemblages de briques, les gérants pratiquent l’allocation factorielle active au sein de leur classe d’actifs et cette sélection de facteurs est créatrice d’alpha.

En termes de marketing, c’est royal, le meilleur des deux mondes, la recontre de la gestion passive et active (« pastive » ? « acsive » ?), le mélange de la gestion fondamentale et systématique (systémentale ? fondamatique ?). En termes de gestion des risques, les gérants, qui connaissent le coeur des entreprises, peuvent piloter le risque spécifique et dégager alors des performances moyennes supérieures aux gestions automatisées en évitant les déceptions.

Vraiment mieux que le bêta

Dans l’article Mieux que le bêta, nous rappelions un calcul plus général, moins soumis à un choix de modèle et donc moins critiquable. Ce billet étend l’approche proposée afin d’améliorer l’utilisation de l’espérance conditionnelle.
Alors que nous avions précédemment étudié les performances jointes sur une période fixe (la journée), nous proposons ici de faire sauter cette contrainte périodique.

Le marché de référence est donné par l’indice Euro Stoxx et nous souhaitons analyser (voire comprendre et anticiper) le comportement une valeur (et par extension un portefeuille) lorsque l’indice chute de -10%. Nous cherchons donc la sensibilité d’un titre ou d’un portefeuille à un scénario se réalisant sur un indice de référence.

Sur l’historique le plus profond possible, identifions les périodes où l’Euro Stoxx perd -10%. Pour chacune de ces périodes, la valeur Danone, déjà utilisée, réalise une performance. Ce groupe décrit la loi de probabilité (historique) de la performance de Danone conditionnellement à l’événement « Euro Stoxx fait -10% ».

La moyenne de cette distribution nous donne la perte à laquelle s’attendre en moyenne. On peut alors la compléter par un écart-type, un quantile afin d’évaluer l’incertitude de cette mesure. Puis en balayant une série de niveaux pertinents : -10%, -9%,…,+9%,+10%, on disposera :
– de la sensibilité (moyenne) du titre, du portefeuille pour chacun des scénarios
– de la loi de distribution de cette sensibilité, donc en particulier de l’incertitude autour de la sensibilité moyenne

Voici les résultats pour Danone sur la période du 31/12/2000 au 05/09/2016.

sensimoyenne_danoneCe graphe nous renseigne sur la sensibilité de Danone relativement au risque de marché mesuré par les performances de l’indice SXXE. Celle-ci n’est pas stable.
Pour préciser l’incertitude, le graphe suivant présente l’espérance conditionnelle dans une bande délimitée par un écart-type.esp_ec_danone

Nous pouvons préciser également le nombre de scénarios utilisés pour chaque niveau de performance considérée, sur l’échelle de droite dans le graphique ci-dessous.

esp_nb_danone
Pour être plus précis, on peut représenter la distribution conditionnelle sous forme d’histogramme, par exemple ici pour le scénario -5% :
distribution_danone_sxxe_5

Comparé à l’approche à période fixe, nous avons pu enrichir les scénarios extrêmes qui n’avaient pas ou peu de réalisations sur la période retenue.
Cette méthode donne une information complète (l’ensemble des données sont utilisées) et robuste  (non sensible à un choix de modèle) quant au risque de marché auquel s’expose un portefeuille. Elle fournit directement des stress tests de marché que peut exiger la réglementation et rien n’empêche ensuite de se focaliser sur quelques scénarios particuliers (Brexit,…).

 

Réduction du risque de défaut, de contrepartie et de crédit

Comme nous l’avons déjà évoqué, dès qu’un intervenant externe intervient dans la transaction, un risque de contrepartie génère un SCR dédié que les produits soient standards comme les obligations d’entreprises ou plus complexes comme les produits dérivés, structurés ou titrisés.

La diversification des émetteurs est un premier outil de réduction du risque de perte en cas de trop forte concentration. La directive Solvabilité 2 l’incite d’ailleurs : une trop forte concentration d’un même émetteur immobilise du capital. Toutefois, comme nous l’avons déjà mentionné, elle est inefficace en cas de mouvement défavorable global de marché. Un élément important est donc de répartir son portefeuille sur différents types d’entreprises. Cette diversification sectorielle peut apporter une protection lorsque les facteurs de risque affectant les émetteurs sont limités à un domaine industriel. Dans une autre mesure, la diversification géographique peut jouer un rôle protecteur au sein même de la zone Euro. Au-delà, cela impliquerait de couvrir l’exposition à une devise (quand elle apporte un risque réel plus important que le seul risque de l’émetteur).

 

Les produits dérivés de crédit offre un accès à la protection des risques extrêmes liés à une contrepartie (cf. [3] par exemple pour une présentation générale des dérivés de crédit). L’exposition au risque de défaut des obligations d’entreprises ou des prêts peut être réduite en achetant un Credit Default Swap (CDS) qui, en échange d’un paiement de primes à échéances régulières, offre une protection (sous forme d’un remboursement du partie du principal) jusqu’à l’échéance suivante. Mais attention, dès lors qu’un transfert de risque de défaut est engagé, le risque de la contrepartie (qui accepte ce risque) doit être évalué et pris en compte à travers un SCR dédié dans le cadre de Solvabilité 2.

Au choix, la protection porte sur un seul émetteur (mono support) ou sur un ensemble d’émetteurs (macro couverture). Dans ce dernier cas, le panier d’entités de référence n’est toujours pas la réplication des émetteurs effectivement en portefeuille mais celle d’un indice de marché. Un risque de base subsiste qui entraine un risque économique réel et une réduction seulement partielle du SCR spread.

 

En allant plus loin, il existe des CDS « first to default basket » qui ne protègent que du premier événement de crédit parmi le panier, des CDS subordonnés [respectivement séniors] qui compensent les pertes d’un portefeuille en cas de défaut jusqu’à [respectivement à partir] d’un certain montant ou encore des CDS à tranches pour des pertes d’un montant compris entre deux bornes (point d’attachement et point de détachement), et également des options sur CDS (ou CD Swaptions).

Mentionnons un autre produit, les options sur spread de credit (CSO pour Credit Spread Options) dont le sous-jacent est un produit soumis au risque de spread de crédit, soit directement, soit à travers une obligation. Un put permettra à son acheteur de vendre un titre obligataire à prix évalué avec un spread fixé à l’avance (c’est le spread d’exercice). Contrairement au CDS, les CSO ne sont pas déclenchées par un événement de crédit prédéfini, mais exercées selon les variations du spread de crédit. Le SCR crédit pourra être encadré à l’aide de ces options.

 

Notons que même si une chambre de compensation intervient pour sécuriser la transaction, le risque de contrepartie de cet organisme ne doit pas être oublié.

Réduction du risque action

 

  • La diversification

La diversification consiste à répartir l’investissement sur des actifs dont les variations de prix sont plus ou moins peu dépendantes les unes des autres. Cette approche, quantifiée d’abord par H. Markowitz, peut s’appliquer globalement, entre classes d’actifs, lors de la construction d’une allocation, mais aussi intra classes, par exemple au sein d’une poche actions. La diversification a pour principal effet de lisser les performances (réduire la volatilité) sans protéger des risques extrêmes, le risque de marché étant le risque prépondérant. Solvabilité 2, toutefois, invite avec le paramétrage des matrices de corrélation à diversifier ses expositions pour réduire le niveau de SCR. Cet effet sera surtout efficace lors de l’agrégation des modules du SCR de marché.

Pour gérer le risque réel de perte, il semble plus approprié de mettre en place une couverture contre le risque de baisse des actions plutôt que de désinvestir partiellement ou totalement cette classe d’actifs. Les produits dérivés standardisés fournissent les outils nécessaires à cette approche.

 

  • Les produits dérivés

La couverture d’une position longue en action par l’acquisition d’une option de vente permet à la fois de réduire le risque de perte et de limiter l’exigence de capital réglementaire. Cette stratégie place l’assureur en position d’assuré : il achète en effet une protection contre un risque potentiel de la baisse de valeur d’un sous-jacent et conserve le bénéfice d’une hausse éventuel du marché action (position dite asymétrique ou convexe.)

Toutefois, l’achat de put peut avoir un coût relativement élevé. Approximativement, avec un niveau de volatilité implicite de 20%, un put de prix d’exercice 80% de maturité 1 an vaut 1.1% du montant que l’on souhaite couvrir, à 40% de volatilité, la valeur du put devient supérieure à 6%. C’est déjà partir avec un sérieux handicap en termes de rendement. Cette approche demande donc une bonne prise en compte des conditions de marché et de savoir arbitrer l’achat de put avec par exemple la vente (d’un panier) de futures en cas d’anticipation de baisse du marché des actions (cf. [1] pour plus de détails).

Acheter des positions optionnelles de maturités longues ne signifie pas conserver cette position jusqu’à l’expiration du produit. En effet, pour profiter à plein de la directive S2, il faut conserver une maturité longue, mais surtout, il faut adapter cette couverture à l’évolution du marché. Continuons notre exemple. Admettons que le marché progresse de 15% en 6 mois. Le prix d’exercice du put est maintenant à 70% du marché, et donc beaucoup moins protecteur. De plus, avec une maturité moitié moindre (et même éventuellement après l’effet Dampener après une hausse du marché), son effet sur réduction du SCR est divisé environ par 5 et sa valeur s’est aussi fortement réduite. La gestion des risques doit donc nécessairement être active pour être réellement efficace.

Dans ces situations, le transfert de risque action se fait au détriment d’un risque de contrepartie, aussi bien lorsque le produit est structuré par une banque que lorsque le produit est compensé par une chambre. Pour un produit listé, ce nouveau SCR est inférieur à 1%, sa contribution au SCR global encore plus faible pour laisser attractif ce type d’approche.

La délégation de ce type de gestion, appelée overlay, soulève également un point important de la communication entre le délégué et le délégataire. On peut imaginer, c’est déjà le cas chez certains organismes, que cette fonction soit conservée en interne afin de garder la main sur la couverture et faciliter les indispensables rapports sur des positions qui par définition sont volatiles.

 

Pour résumer, il faudra donc arbitrer entre le coût de la couverture, le choix de la bonne maturité, du prix d’exercice et la réduction de SCR engendrée ou souhaitée. On voit donc qu’il faut envisager des stratégies dynamiques d’options de maturité longue afin de réduire le coût de la couverture et d’optimiser la charge en capital. Attention cependant à ne pas surpondérer l’importance de la réduction du SCR dans la démarche de couverture : la protection des pertes économiques réelles est prépondérante.

Un autre point d’attention est la liquidité du marché des options longues, mais gageons que celle-ci devrait s’améliorer si de telles stratégies étaient mises en place par un grand nombre d’acteurs.

Dans le cadre d’un programme de couverture systématique sous Solvabilité 2 enfin, les options d’expiration inférieure à 1 an ont une protection du capital mieux reconnue que leur utilisation ponctuelle.

 

  • Les participations stratégiques

Ce type d’investissement est moins exigeant en capital, mais peut difficilement d’adapter à une gestion actif-passif. L’assureur devient acteur dans une entreprise et ne peut (en théorie) arbitrer ces positions. Le sens de la réglementation est de favoriser les investissements pérennes dans le tissu économique formé par les PME, mais s’exposer aux grandes entreprises restent possible. C’est alors un moyen de recevoir un dividende plus récurent où la consommation en capital est environ divisé par 2.

 

  • Les obligations convertibles

Ces instruments peuvent en effet se présenter comme un substitut à l’investissement en action et une manière indirecte de s’exposer à travers un produit dérivé actions. Instrument convexe sur ce facteur de risque, certaines obligations convertibles ont une consommation en capital divisée par 3 alors que l’exposition action n’est réduite que de 50%. Il faut cependant tenir compte des autres risques (taux, crédit en particulier) pour les intégrer au sein d’un portefeuille global, mais ces dettes d’entreprises se prêtent volontiers à une gestion dite « Solvency 2 – friendly » dès lors que l’on peut identifier leurs contributions au SCR (voir [2] par exemple).

Concernant le risque réel, ce sont des produits à options donc exposés à la volatilité et dont la liquidité n’est pas toujours assurée. La connaissance précise de ce marché est indispensable. Il s’en suit qu’une personne prudente devrait en déléguer la gestion à un spécialiste tout en imposant un processus d’investissement conforme à ses besoins.

Réduction du risque de l’allocation d’actifs

En général, l’atténuation de risque à l’actif ne peut pas uniquement se décliner simplement module après module. En effet, par le jeu de la diversification (quel que soit le type de risque considéré), le risque global n’est pas la somme de risques individuels.

Toutefois, concernant Solvabilité 2 il est en pratique difficile de réduire le SCR marché avec, par exemple, une simple introduction d’une (petite) portion d’actions à côté d’un portefeuille d’obligations d’Etat. Le paramétrage est en effet peu favorable (à ce jour le choc action de type 1 est de 46.5%). C’est donc avant tout par des techniques de réduction de risque reconnues par la réglementation et appliquées catégorie par catégorie que le coût en capital pourra être réellement contrôlé et piloté.

En quoi consiste l’atténuation du risque

La couverture des risques financiers est une composante d’un processus global de gestion des risques assurantiels. La souplesse de réactivité d’une intervention sur les marchés financiers en fait un outil de pilotage à court ou moyen terme très efficace dont nous allons exposer les principales idées.

De manière générale, la gestion des risques consiste à sélectionner les risques auxquels s’exposer en raison du bénéfice à en retirer et réduire ou éliminer les risques les moins engageants. C’est une prise de positions réfléchies et maîtrisables par des techniques d’atténuation des risques de marché.

Le risque à considérer prend plusieurs formes. Le risque économique d’un actif ou d’une classe d’actifs est une exposition qui implique une perte potentielle mais réelle sur les avoirs de l’organisme d’assurance. Sous Solvabilité 2, le régulateur définit un coussin sensé amortir les pertes extrêmes telles que calibrées par le paramétrage de la directive. Cette enveloppe de risque, le capital de solvabilité requis (SCR), se traduit alors en pratique par une immobilisation de capital. La gestion financière d’un organisme d’assurance va donc principalement s’articuler autour de la performance attendue (nécessaire), du risque économique (en intégrant ceux « oubliés » par la directive), du SCR, du niveau du ratio de solvabilité (le rapport capital disponible / SCR) et la stabilité de ce ratio. Les objectifs de cette gestion consistent à maximiser le ratio et à en minimiser sa variation (maximiser sa stabilité). L’actif de l’assureur, dont la modulation est plus aisée que son passif, est le principal outil de pilotage à court ou moyen terme.

Notons, sans aller plus loin, que l’impact des normes comptables (type IFRS) doit également être pris en compte et optimisé dans la mise en place d’une solution globale des gestions des risques.