Small Data pour l’extension de table de mortalité en assurance vie

On observe souvent la mortalité d’une partie des classes d’âges d’une population et se pose la question d’apprécier la mortalité sur les classes d’âges non observées (en général des classes d’âges plus élevées. Dans l’exemple utilisé dans l’article Small Data en assurance vie : en finir avec les lois de mortalité artificielles, les données sont disponibles de 70 à 84 ans. On peut s’interroger alors sur les taux de mortalité aux âges supérieurs. 130 ans est un âge limite souvent utilisé pour la fermeture des tables.

Parmi les approches classiques d’extension de table de mortalité, l’approche Denuit-Goderniaux (DG) permet de prolonger les lissages usuels. Ses caractéristiques, qui conduisent à critiquer cette méthode sont :

  • C’est un modèle paramétrique
  • qui intègre des contraintes sur la forme de la table
  • dont les résultats sont très dépendants du choix d’une métrique (estimation de paramètres par régression linéaire)
  • Enfin, il est souvent nécessaire d’utiliser un lissage de jonction entre les taux déjà lissés et les taux extrapolés.

Ces points ont déjà tous été commentés dans les articles « small data » précédents. D’ailleurs, cette approche est plus une technique d’extrapolation qu’une véritable technique d’extension : cette astuce numérique s’éloigne assez vite de la physique (ou de la réalité) de l’estimation de loi probabilité que l’on cherche à réaliser.

 

L’approche bayésienne travaille avec 60 classes d’âges, de 70 à 129 ans, de manière identique à la précédente (présenté dans cet article).

De même, toujours à l’aide de simulations de Monte Carlo, nous obtenons un taux de mortalité sur l’ensemble des tranches d’âges supérieurs.

Les deux techniques de prolongement donnent des résultats très différents ! Pourquoi ? L’écart entre les deux courbes représente l’enrichissement artificiel de l’information par le modèle paramétrique qui présente une forme convexe sur la tranche d’âge 85 à 110 ans environ puis une forme concave sur le reste de la courbe. Cette information complètement exogène provient de « l’observation »  de tables de mortalités plus riches qui ont ces caractéristiques de mortalité et qui ont été intégrées au sein de l’approche.

L’approche bayésienne travaille elle avec une information beaucoup moins riche. Cette information minimale peut être complétée sur l’expertise exogène le permet. Par exemple, nous pouvons contrôler la convexité de la courbe en enrichissant l’information aux âges 95 et 101 ans puis la concavité aux âges 120 et 127 ans.

Cette fois on obtient une courbe plus conforme aux attentes.

Les résultats sont identiques mais les différences sont énormes !

  • Avec l’approche bayésienne, on a l’avantage d’avoir une totale maîtrise des étapes de modélisation et de pouvoir évaluer le besoin d’information complémentaire pour construire la loi de mortalité pas à pas.
  • On peut ainsi piloter la construction de la table
  • On ne subit plus le modèle paramétrique
  • La méthode est souple. Si on voulait imposer des taux de mortalité à certains âges au modèle DG, il devient une autre méthode qui nécessite d’autres techniques de calibrage.
  • Grâce à l’approche bayésienne, on ne change pas de méthode, on n’intègre de l’information.

 

Publicités

Small Data en assurance vie : en finir avec les lois de mortalité artificielles

Cet article illustre l’utilisation des techniques du small data pour l’estimation de loi de mortalité en assurance vie.

Afin de mettre en œuvre différentes constructions de loi de mortalité dans un contexte de données limitées, nous allons utiliser un exemple emprunté au chapitre 6 de Tosetti et al.

Les données fournies correspondent aux 15 variables aléatoires de durée de vie Tz pour z=70,…,84 pour les 15 groupes de populations (les données brutes sont en annexe). Dans un premier temps, pour chaque groupe, nous appliquons le modèle binomial classique associé à une probabilité de décès 1 0 qz = P(Tz ϵ [0,1]), noté q(z) ou qz. Son estimation fréquentiste est le rapport nombre de décès / nombre d’individus observés, soit :

en reprenant les notations de Tosetti. Les intervalles de confiances exacts à 95% sont également donnés dans le graphique ci-dessus.

Comme signalé par les auteurs, il reste un problème fondamental de construction : on s’attend à avoir les q(z) croissants avec l’âge z, or il y a dans l’estimation des décrochements trop importants. Etant donné la taille des intervalles de confiance, ceci confirme bien que nos données sont trop pauvres pour être utilisées sans autre traitement.

Les auteurs proposent des lissages par ajustements selon successivement des fonctions croissantes « simples », par décalage d’âge avec la table TPRV93 (l’exemple date un peu…) et avec les lois de Gompertz et Makeham. Petauton évoque d’autres méthodes devenues standard : moyennes mobiles,  splines et surtout Whittaker-Henderson qui peuvent aussi être appliquées.

 

Les méthodes précédentes peuvent être efficaces mais :

  • Elles sont sans véritable fondement quant à leur utilisation. Par exemple, pourquoi utiliser une distance en carré et non en valeur absolue ou en quantile dans la méthode Wittacker-Henderson ? Comment choisir le juste nombre de nœuds et leur place dans la méthode par splines ? La taille de la fenêtre dans la moyenne mobile ? Ces approches tendent à considérer les valeurs anormales comme aberrantes alors même qu’elles seraient situées dans l’intervalle de confiance exact.
  • Elles sont justifiées a posteriori par un test du chi deux, qui n’est qu’asymptotique. Or dans notre exemple, les données sont peu nombreuses et elles pourraient l’être encore moins ! L’appréciation est réalisée « en moyenne ».
  • Elles ne tiennent pas compte de l’incertitude des données initiales.
  • Le choix du paramétrage z = 2, h = 5 de l’approche Whittacker-Henderson est en général réalisé a posteriori, en comparant par exemple différents graphiques qui, à vue d’œil, lisse au mieux la courbe tout en restant fidèle à l’évolution globale des données. Une procédure rigoureuse et systématique d’un tel choix apparait lourde et difficile à mettre en place.
  • Quant à la méthode du décalage d’âge, elle intègre les éventuels défauts de sa table de référence et reste une méthode économique pour obtenir un lissage acceptable, en fait déjà réalisé dans la construction de la table de référence. La métrique utilisée (ici la distance du chi deux) n’est toutefois pas la seule utilisable.

 

Globalement, les méthodes présentées ont toutes le défaut de nécessiter des choix arbitraires. L’approche small data propose une alternative afin d’éviter cet inconvénient majeur dans le cadre d’une démarche scientifique et les défauts particuliers relevés plus haut.

 

Les techniques vues en assurance non vie ne sont pas directement applicables car la « physique » des données n’est pas la même :

  • en assurance non vie, on observe 1 phénomène dont le résultat peut tomber dans K classes
  • Ici on observe des expériences de mortalité indépendantes (pour K classes d’âges observés) dont le résultat est décès dans l’année ou non
  • Utiliser la loi reconstituée du taux de survie à un âge donné (pour nous ramener à l’estimation d’une seule loi de probabilité come en assurance non vie) n’est pas possible car nous n’avons pas d’échantillon d’observation pour cette loi.

 

L’approche consiste alors à estimer chacun des taux de mortalité à partir d’échantillons indépendants en imposant l’hypothèse de croissance avec l’âge.

L’estimation s’obtient par simulation de Monte Carlo. Le graphique ci-dessous représente différentes reconstitutions.

Quelques rappels des bénéfices de l’approche small data :

  • La technique reste cohérente avec la « physique » des données
  • C’est une technique d’estimation et non un pur outil numérique de lissage
  • Pas de sensibilité au paramétrage d’une technique
  • Pas de sensibilité à une métrique
  • On peut disposer de l’incertitude pour chaque taux :

Nous avons obtenu une estimation pour la famille qz des taux de décès annuel. Ces taux de décès permettent de reconstituer une table de mortalité adaptée à l’information disponible sans introduire de modélisation exagérée ou d’avoir recours à un paramétrage dont le réglage est trop discrétionnaire et non réellement justifiable.

Ces estimations ont tenu compte d’un avis d’expert qui impose une croissance des taux de décès annuel avec l’âge atteint. Ceci a pu être réalisé sans l’introduction d’une forme paramétrique quelconque sur les taux.

Cette approche permet d’intégrer en amont les contraintes de construction de la table d’expérience sans autre choix de modèles et/ou paramètres, choix toujours délicat à justifier.

 

Bibliographie

Tosetti Alain, Béhar Thomas, Fromenteau Michel, Ménart Stéphane, Assurance, Comptabilité – Réglementation – Actuariat, AAA, Economica, 2011

 

Données utilisées

Assurance n°27 Provisions techniques en assurance vie

Elles sont définies à l’article R331-3 du code des assurances.
Un engagement ne peut être provisionné qu’au titre d’une seule des catégories mentionnées.
Nous passons en revue les principales.

1. Provisions mathématiques (PM)
Elles sont calculées comme la différence entre les valeurs actuelles probables des engagements respectivement pris par l’assureur et par les assurés (exception pour les Euros Croissance et les Euros Diversifiés). De loin le poste de provisions techniques (PT) le plus grand. Elles doivent être calculées :
– d’après des taux d’intérêt au plus égaux à ceux retenus par l’établissement du tarif
– d’après les tables de mortalité appropriées en vigueur à l’époque du tarif.

Ainsi, taux technique <= taux du tarif

Pour les contrats en unité de compte (UC), l’engagement de l’assureur porte sur le nombre  d’UC et non sur un montant. Ainsi, les PM sont égalent à la valeur de réalisation des UC à l’inventaire. Toutefois, en cas de garantie plancher, une provision spécifique complète la PM.

2. Provision pour participation aux bénéfices (PPB), ex Provision pour Excédents (PPE)
Elle correspond au montant appartenant aux bénéficiaires, non immédiatement payable après la liquidation de l’exercice le produisant.
Attention la PPB n’est pas la participation aux bénéfices (PB) pour laquelle un montant minimum est défini par la réglementation.
Le calcul est global, et non contrat par contrat (sauf en cas de cantons) et spécifique pour les contrats diversifiés.
La distribution doit se faire sous 8 ans, sous peine d’imposition de l’entreprise d’assurance (pour un montant qui ne lui appartient pas !).
La reprise de PPB est possible pour servir le TMG (Taux minimal garanti), mais non le taux technique (qui engage directement l’assureur).

3. Provision globale de gestion (PGG)
Provision pour couvrir les charges de gestion future des contrats non couvertes par ailleurs.
La PM contient les chargements évalués a priori, mais si la valeur réelle des frais est supérieur au coût théorique, les PM sont insuffisantes d’où le besoin de PGG. Plusieurs caractéristiques :
– provisionnement par famille de contrats, pas de compensation de l’une à l’autre
– calcul cohérent avec la comptabilité analytique et les recettes futures des contrats déjà souscrits
– pour chaque ensemble homogène de contrats,
PGG = VAP charges de gestion future – VAP ressources futures issues des contrats

4. Provision pour Aleas Financiers (PAF)
Provision globale destinée à compenser la baisse de l’actif.
Si 80% rendement de l’actif <= (intérêts techniques + PB garantie) / PM alors
PAF = PM avec taux prudent – PM comptables

5. Provision pour Risque d’Exigibilité (PRE)
Provision globale pour faire face à l’insuffisance de liquidité des placements. C’est approximativement la moins value latente des actifs non amortissables.

6. Provision pour frais d’acquisition reportés (PFAR)
Provision destinée à couvrir les charges résultant du report des frais d’acquisition en fonction de la durée des contrats.
Attention cette provision est à l’actif, en représentation des PT. La PFAR est inférieure à la différence entre les PM et les PM sans chargement pris en compte dans l’engagement des assurés.

7. Provision pour Sinistres  à Payer (PSAP)
Voir les provisions non vie. Provision forfaitaire en assurance vie. En cas de décès, existence d’une PSAP si l’exercice se clôt avant le règlement.

8. Provision pour égalisation (PE)
Provision destinée à faire face aux fluctuations de sinistralité, pour les assurances de groupe, en cas de risque décès.

9. Provision de diversification
Provision destinée à absorber les fluctuations des actifs du contrat. Elle appartient aux adhérents.

On ajoute souvent à cette liste, bien que ce ne soit pas une provision :

10. Réserve de capitalisation
Réserve permettant de lisser les résultats liées aux plus ou moins value des actifs amortissables. Plus de détails dans les provisions non vie.

Provisions techniques solvabilité 2
Les provisions techniques sont la somme du Best Estimate (BE) et du Risk Margin :
Best Estimate = VAP des flux futurs avec une courbe de taux adaptée. En particulier, cela tient compte :
– des possibilités de rachats,
– d’un versement supérieur au taux technique (aspect commercial)
Le calcul est brut (hors réassurance, titrisation)

Risk Margin = Supplément pour réaliser un transfert d’engagement après d’une autre entreprise d’assurance, i.e. coût de nouveaux fonds propres pour prendre en compte les engagements transférés.

Obligation de participation aux bénéfices pour les assurés
Article L331-3.
La rémunération maximale de l’assureur est (approximativement car le calcul dans les textes est plus précis) 15% des produits financiers et 10% des bénéfices techniques (liés à la mortalité, la gestion des contrats) avec un plancher de 4.5% des primes décès, ceci à l’exclusion des contrats à capital variable (UC, PERP,…)
Dans le cadre de solvabilité 2, elle est contenue dans le Best Estimate qui tient compte des bénéfices discrétionnaires futurs.

Assurance n°22 Contrats non réclamés

Depuis 2007, les assureurs ont obligation de rechercher le bénéficiaire en cas de décès d’un assuré.

Le contrat doit indiquer les modalités de revalorisation post mortem.

L’ACPR en contrôle la bonne application, sur pièce et sur place.