Small Data en assurance vie : en finir avec les lois de mortalité artificielles

Cet article illustre l’utilisation des techniques du small data pour l’estimation de loi de mortalité en assurance vie.

Afin de mettre en œuvre différentes constructions de loi de mortalité dans un contexte de données limitées, nous allons utiliser un exemple emprunté au chapitre 6 de Tosetti et al.

Les données fournies correspondent aux 15 variables aléatoires de durée de vie Tz pour z=70,…,84 pour les 15 groupes de populations (les données brutes sont en annexe). Dans un premier temps, pour chaque groupe, nous appliquons le modèle binomial classique associé à une probabilité de décès 1 0 qz = P(Tz ϵ [0,1]), noté q(z) ou qz. Son estimation fréquentiste est le rapport nombre de décès / nombre d’individus observés, soit :

en reprenant les notations de Tosetti. Les intervalles de confiances exacts à 95% sont également donnés dans le graphique ci-dessus.

Comme signalé par les auteurs, il reste un problème fondamental de construction : on s’attend à avoir les q(z) croissants avec l’âge z, or il y a dans l’estimation des décrochements trop importants. Etant donné la taille des intervalles de confiance, ceci confirme bien que nos données sont trop pauvres pour être utilisées sans autre traitement.

Les auteurs proposent des lissages par ajustements selon successivement des fonctions croissantes « simples », par décalage d’âge avec la table TPRV93 (l’exemple date un peu…) et avec les lois de Gompertz et Makeham. Petauton évoque d’autres méthodes devenues standard : moyennes mobiles,  splines et surtout Whittaker-Henderson qui peuvent aussi être appliquées.

 

Les méthodes précédentes peuvent être efficaces mais :

  • Elles sont sans véritable fondement quant à leur utilisation. Par exemple, pourquoi utiliser une distance en carré et non en valeur absolue ou en quantile dans la méthode Wittacker-Henderson ? Comment choisir le juste nombre de nœuds et leur place dans la méthode par splines ? La taille de la fenêtre dans la moyenne mobile ? Ces approches tendent à considérer les valeurs anormales comme aberrantes alors même qu’elles seraient situées dans l’intervalle de confiance exact.
  • Elles sont justifiées a posteriori par un test du chi deux, qui n’est qu’asymptotique. Or dans notre exemple, les données sont peu nombreuses et elles pourraient l’être encore moins ! L’appréciation est réalisée « en moyenne ».
  • Elles ne tiennent pas compte de l’incertitude des données initiales.
  • Le choix du paramétrage z = 2, h = 5 de l’approche Whittacker-Henderson est en général réalisé a posteriori, en comparant par exemple différents graphiques qui, à vue d’œil, lisse au mieux la courbe tout en restant fidèle à l’évolution globale des données. Une procédure rigoureuse et systématique d’un tel choix apparait lourde et difficile à mettre en place.
  • Quant à la méthode du décalage d’âge, elle intègre les éventuels défauts de sa table de référence et reste une méthode économique pour obtenir un lissage acceptable, en fait déjà réalisé dans la construction de la table de référence. La métrique utilisée (ici la distance du chi deux) n’est toutefois pas la seule utilisable.

 

Globalement, les méthodes présentées ont toutes le défaut de nécessiter des choix arbitraires. L’approche small data propose une alternative afin d’éviter cet inconvénient majeur dans le cadre d’une démarche scientifique et les défauts particuliers relevés plus haut.

 

Les techniques vues en assurance non vie ne sont pas directement applicables car la « physique » des données n’est pas la même :

  • en assurance non vie, on observe 1 phénomène dont le résultat peut tomber dans K classes
  • Ici on observe des expériences de mortalité indépendantes (pour K classes d’âges observés) dont le résultat est décès dans l’année ou non
  • Utiliser la loi reconstituée du taux de survie à un âge donné (pour nous ramener à l’estimation d’une seule loi de probabilité come en assurance non vie) n’est pas possible car nous n’avons pas d’échantillon d’observation pour cette loi.

 

L’approche consiste alors à estimer chacun des taux de mortalité à partir d’échantillons indépendants en imposant l’hypothèse de croissance avec l’âge.

L’estimation s’obtient par simulation de Monte Carlo. Le graphique ci-dessous représente différentes reconstitutions.

Quelques rappels des bénéfices de l’approche small data :

  • La technique reste cohérente avec la « physique » des données
  • C’est une technique d’estimation et non un pur outil numérique de lissage
  • Pas de sensibilité au paramétrage d’une technique
  • Pas de sensibilité à une métrique
  • On peut disposer de l’incertitude pour chaque taux :

Nous avons obtenu une estimation pour la famille qz des taux de décès annuel. Ces taux de décès permettent de reconstituer une table de mortalité adaptée à l’information disponible sans introduire de modélisation exagérée ou d’avoir recours à un paramétrage dont le réglage est trop discrétionnaire et non réellement justifiable.

Ces estimations ont tenu compte d’un avis d’expert qui impose une croissance des taux de décès annuel avec l’âge atteint. Ceci a pu être réalisé sans l’introduction d’une forme paramétrique quelconque sur les taux.

Cette approche permet d’intégrer en amont les contraintes de construction de la table d’expérience sans autre choix de modèles et/ou paramètres, choix toujours délicat à justifier.

 

Bibliographie

Tosetti Alain, Béhar Thomas, Fromenteau Michel, Ménart Stéphane, Assurance, Comptabilité – Réglementation – Actuariat, AAA, Economica, 2011

 

Données utilisées

Small data en assurance non vie : prévision de risques d’intensité jamais observée

Cet article prolonge directement le précédent : estimation d’une distribution d’événements extrêmes en assurance non vie. Il s’agit maintenant d’estimer la possibilité qu’un événement jamais observé se réalise.

Pour rappel, nous avons modélisé les données fournies dans le tableau ci-dessous correspondant à la fréquence d’évènements extrêmes en sinistre auto :

Afin d’estimer la probabilité d’évènements non observés, nous ajoutons une classe de risque « 6401 et + » dans la modélisation de la distribution. Evidemment, la fréquence empirique pour cette classe est nulle.

Dans le cas de l’utilisation d’une loi paramétrique, bien que les hypothèses changent, il s’agit d’un simple prolongement sur les nouvelles classes. Nous prolongeons donc la loi de Pareto sur ce nouveau support.

Dans le cas bayésien, puisque le cadre présente un nouveau contexte, on s’y adapte : le  modèle est bien différent de celui de l’article précédent, les calculs doivent être reconduits dans ces nouvelles conditions.

Les différentes estimations sont présentées ci-dessous.

On peut encore juger de la meilleure cohérence avec les données dans ce cadre. La probabilité de l’échantillon est sous l’approche bayésienne 0,0406% vs 0,014% sous Pareto.

Toutefois, faire des comparaisons, c’est bien mais cela ne suffit pas pour s’imposer. L’approche bayésienne a d’abord un intérêt par ce qu’elle n’a pas les défauts des approches paramétriques :

  • Si une loi ne convient, on ira en piocher une autre dans notre sac à loi. Ce choix est factice car la loi existe déjà pour modéliser un autre problème et on espère l’utiliser, la caler, pour un nouveau phénomène.
  • Les techniques de calibration ne sont pas uniques et chacune pourra donner des résultats différents
  • Et enfin ces approches éliminent l’incertitude en considérant la loi obtenue comme exacte. Les données sont oubliées.

Tous ces défauts qui plaident pour l’approche bayésienne dans un contexte de données rares, ce que j’ai appelé le small data, dont les avantages sont :

  • une information minimale
  • Prise en compte d’avis d’expert
  • Prise en compte des classes sans observations
  • On conserve l’incertitude de l’estimation. Dans notre exemple, on peut calculer des écart-types (on dispose en réalité de toute la distribution pour chaque probabilité) :
  • Souplesse de la méthode
  • Un modèle vraiment dédié au problème étudié
  • Pas de calibrage

On pourrait penser que cet article et les précédents ne font que relancer l’éternel débat pour ou contre bayésien. En réalité, nous avançons dans ce débat car nous proposons un choix systématique de loi a priori afin de refléter notre absence d’information initiale et nous mettons de côté l’utilisation de loi conjuguée puisque l’approche par simulations de Monte Carlo nous permet d’obtenir des résultats sans se soucier d’une facilité quelconque de calcul.

L’enrichissement de l’information que permet l’approche bayésienne au fur et à mesure que de nouvelles observations sont disponibles nous rapproche également d’une technique ancienne remise au goût du jour par un nouveau vocabulaire : le « machine learning » qui consiste à savoir bien extraire l’information à partir de l’observation de phénomènes suffisamment stationnaires.

 

Pour rappel, quelques références sur l’approche bayésienne :

  • Beauzamy Bernard, Méthodes probabilistes pour l’étude des phénomènes réels, SCMSA, 2004
  • Beauzamy Bernard, Méthodes Probabilistes Pour La Gestion Des Risques Extrêmes, SCMSA, 2016
  • Dacunha-Castelle Didier, Chemins de l’aléatoire, Champs Flammarion, 2002
  • Dacunha-Castelle Didier, Duflo Marie, Probabilités et Statistiques, 1. Problèmes à temps fixes, éd. Masson, coll. Math. Appl. pour la Maîtrise, 1982 (rééd. 1990)
  • Jacquard Albert, Les probabilités, Que sais-je ? n°1571, PUF, 2000
  • Laplace Pierre Simon, Théorie analytique des probabilités, 1812 (1ère édition)
  • Saporta Gilbert, Probabilités, Analyse des données et Statistiques, 2ème édition, Technip, 2006
  • Schwarz Daniel, Le jeu de la science et du hasard, Champs Flammarion, 1999

Small Data en assurance non vie : estimation d’une distribution d’événements extrêmes

En poursuivant notre exploration de la modélisation d’événements rares, nous nous plaçons dans la suite directe des articles précédents donnant à la fois des explications sur le bien-fondé de l’approche small data et les bases de l’outil mathématique. Une application directe à la segmentation du tarif avait été proposée.

Nous étudions maintenant la queue de distribution de la fréquence de sinistres pour des tranches de coûts extrêmes. Les données initiales sont fournies ci-dessous.

 

Les lois obtenues s’interprètent comme des lois conditionnelles à l’observation de coûts supérieurs à 200.

Les observations sont en quantité limité et le nombre de sinistres n’est pas décroissant avec le coût comme on pourrait d’y attendre, notamment si le nombre d’observations totales augmente.

 

Estimation à l’aide d’une loi de Pareto

L’utilisation d’une loi de Pareto est assez classique dans ce genre d’utilisation. Elle va imposer la décroissance attendue.

La loi de Pareto lisse les observations empiriques. Elle provoque des écarts importants : dans les faits, la fréquence de la tranche 801-1600 est réduite de moitié ! (voir graphique ci-dessous). De plus, elle augmente la fréquence des sinistres de plus faible coût de 3,5% ce qui n’apparait pas très prudent pour envisager une tarification sur cette base. Signalons que la loi de Pareto estimée n’a pas ici non plus de variance, ce qui peut sembler difficilement compatible avec un phénomène observable.

Lorsque l’on pratique un test du chi deux, l’ajustement de Pareto est rejeté. Cependant, ce test n’est qu’asymptotiquement valable et son utilisation reste discutable. Pourtant, l’ajustement de Pareto a bien « rectifié » la loi de probabilité comme nous l’attendions, c’est-à-dire, une décroissance des fréquences des sinistres avec leur coût.

 

L’approche small data

Au lieu de choisir une loi qui présente la décroissance des probabilités souhaitée, nous introduisons cette hypothèse au cœur de l’approche bayésienne : c’est une hypothèse a priori supplémentaire. Notre information initiale est donc enrichie par cet avis exogène, c’est l’avis d’expert.

Techniquement, les estimations s’obtiennent cette fois par simulation de Monte Carlo, la décroissance ne permettant pas d’identifier simplement la loi de distribution, comme nous avions obtenu une loi Beta en l’absence de ce type de contrainte. On obtient la représentation graphique présentée ici.

 

Analyse comparée

On peut montrer que l’approche bayésienne est plus cohérente avec les données que la modélisation par une loi de Pareto.

En effet, la distance du chi deux pour l’approche bayésienne est plus faible qu’avec la loi de Pareto (1,88 contre 7,93).

Une autre façon, moins liée à une métrique arbitraire est de comparer la probabilité de réalisation de l’échantillon sous chacune des deux lois. Pour l’approche bayésienne on obtient une probabilité 10 fois supérieure.

Le small data en Assurance : pourquoi ? comment ?

L’assurance a besoin de comprendre les phénomènes pour lesquelles elle offre une forme de garantie. Cette compréhension passe par la modélisation de la fréquence de ces phénomènes et la modélisation de leur intensité.

Pourquoi une autre approche méthodologique de modélisation des phénomènes assurables ?
Lorsque les données sont rares, et nous nous placerons uniquement dans ce cadre, plusieurs arguments motivent cette réflexion.

  • En premier lieu, une utilisation des outils statistiques mal adaptée
    En effet, les principaux résultats statistiques supposent avoir suffisamment d’observations pour admettre que les théorèmes asymptotiques soient applicables et que l’expérience produisant la donnée est répétable infiniment. De plus, les statistiques sont appropriées lorsque les lois de probabilités sont parfaitement identifiées et en cohérence avec le phénomène observé. Les phénomènes qui nous intéressent ici, en particulier rares, n’ont pas de loi identifiée, on reste dans l’estimation.
  • On peut mentionner également des choix de modèles étonnants
    Par exemple, utiliser des lois à support infini alors que les phénomènes observés sont bornées  (bornes pas toujours observables). Un tel attachement à ces lois poussent parfois à les tordre en les tronquant par exemple d’où des difficultés calculatoires. Particulièrement pour les phénomènes extrêmes (ou rares), l’utilisation de certaines lois paramétriques s’est répandue d’abord pour leur maniabilité ce qui ne doit pas être l’argument principal !
  • Ensuite souvent les paramétrages sont arbitraires
    Certains modèles peuvent être calibrées de plusieurs façons donnant des résultats différents d’où une ambiguïté ou un besoin de « sélection de calibration dans la sélection de modèles » d’une grande lourdeur.
  • Enfin, l’approche paramétrique était justifiée lors de moyens de calculs limités.
    Aujourd’hui, ce n’est plus le cas et on doit pouvoir mettre en œuvre des méthodes qui ne sont plus soumises à ces contraintes de calculs.

 

Comment appliquer le small data en assurance ?
Avec une volonté de suivre une démarche rigoureuse, on s’est donné les principes suivants :

1-On ne veut pas de modélisation abusive et donc on introduit un jeu d’hypothèses minimales et pas plus

2-On doit tenir compte de l’incertitude autour des données dans notre façon de travailler. Car les résultats ne sont que des estimations de la vraie loi inconnue. L’incertitude est un moyen de mesurer la qualité de l’information donnée par l’échantillon,  cela permet d’évaluer le degré de confiance en la projection, de prendre une marge de sécurité, de décider ou non d’un programme de réassurance.

3-Dans un contexte pédagogique, le choix dans un premier temps d’utiliser des données « publiques » : publiées, déjà manipulées et pour lesquelles d’autres méthodes sont habituellement utilisées pour faciliter la comparaison, dont les résultats sont admis par le plus grand nombre. L’idée est bien de ne pas sortir des données d’un chapeau avec lesquelles tout fonctionnerait miraculeusement.

4-Une fois la démarche bien comprise et admise, on pourra l’appliquer à des données propres à une compagnie d’assurance.

 

Quel outil mathématique ?
L’outil mathématique à la base de cette démarche, ce sont les probabilités bayésiennes. Elles se présentent de la manière suivante.

On a le cas classique de la production de pièces défectueuses ou non. Si p est la probabilité connue d’avoir une pièce défectueuse, le nombre de pièces défectueuses après N pièces fabriquées suit une loi binomiale B(N,p)

  • p se déduit en général des observations p = x / N si x est le nombre observé de pièces défectueuses (estimation correcte asymptotiquement)
  • Si p est inconnue, aléatoire, sans information, tous les choix sont possibles et donc sans avis particulier on donne le même poids à toutes les valeurs de son support. Cela revient à choisir une loi uniforme sur [0,1] a priori. C’est le choix dit d’information minimale qu’on va retrouver tout au long de l’utilisation de l’approche small data.
  • En appliquant une formule de Bayes, sachant la production X=x de pièces défectueuses, on peut déterminer sa densité a posteriori la  densité

  • C’est une loi Beta (les lois binomiale et uniforme se conjuguent bien) dont l’espérance, x+1 / N+2, est notre estimation de p.

Ceci se généralise lorsque le nombre de classe passe de 2 (pièce défectueuse ou non) à K classes. L’estimation des probabilités pi est alors xi +1 / N+K pour i=1,…,K.

On pourra aussi introduire d’autres contraintes dans la modélisation et les estimations seront obtenus grâce à des simulations de Monte Carlo.

Pour les détails techniques sur ces résultats, on pourra se reporter au livre de Gilbert Saporta, Probabilités, Analyse des données et Statistiques, 2ème édition, Technip, 2006 et précisément les pages 317-319.

Le régime Cat Nat

Textes de référence : Loi en 1982 (suite aux inondations de la Saône fin 1981). Articles L125-1 et suivants du code des Assurances.

1. Fonctionnement assurantiel du régime
a/ C’est une garantie en cas de dommages matériels directs et non assurables ayant pour cause l’intensité anormale d’un agent naturel :
– matériels (et non corporels) à concurrence de leur valeur fixée et dans les limites et conditions du contrat socle.
– directs (et non les conséquences comme par exemple liés à une coupure d’électricité lors d’une inondation)
– non assurables : pas de liste, évolue avec le marché. Exemples de périls : inondations, coulées de boue, séisme,… Par opposition, sont assurables grêle, gel, poids de la neige, TOC

b/ assurance non obligatoire mais imposée (= extension obligatoire) dans les contrats de dommages aux biens (hors récolte, véhicules aériens ou maritimes) sauf forme de clauses types obligatoires incluses aux contrats socles :
– garantie illimitée dans les limites des contrats socles (valeurs, exclusions,…)
– les biens non assurés contre incendie (terrains, clôtures, ponts, routes,…) sont exclus de la garantie cat nat
– il existe un système spécifique pour les calamités agricoles (d’où hors cat nat)
– couvre la perte d’exploitation (si au contrat socle)

c/ financement par taux de prime appliquée à la prime du contrat socle (6% pour véhicule terrestre hors RC, 12% pour les autres).
Si refus d’assurance (faculté de l’assureur si réalisation du sinistre) : BCT

d/ franchises obligatoires, uniformes, non rachetables.
Générale [subsidence], non pro 380€ [1520€], pro 10% dommages (min 1140€) [3050€], pro perte d’exploitation 3 jours ouvrés min 1140€ [3050€].
Franchises modulables à la hausse pour les communes sans plan de prévention.

e/ Gestion des contrats et sinistres
Par les assureurs après reconnaissance de l’Etat de cat nat par arrêté interministériel suite à demande communale.
Puis expertises (lien de causalité), indemnisation après abattements et franchises.
Problème de la subsidence car des arrêtés peuvent être pris après plusieurs années.
Provision pour Egalisation (PE) : constituée en franchise d’impôt (sur 10 ans) pour charges exceptionnelles

2. Réassurance
– possible mais non obligatoire
– CCR avec garantie de l’Etat seule à proposer sans plafond
– CCR 95% de ce marché (=760M€ sur 1.26G€ de CA en 2013), pas de monopole
– CCR gère fond national de gestion des risques en agriculture, fond de prévention des risques naturels majeurs (expropriation préventive suite à Xynthia notamment)

Schéma de réassurance. 2 niveaux : QP 50/50 en % du CA (= montant de primes cat nat) puis stop loss sur la part conservée par la cédante (franchise, = plafond S/P, en % du CA cat nat, par exemple 200%, sans plafond).
Appel de l’Etat en garantie si charge sinsitre > 90%  de la PE.
Exemple : CA 1M€. Si Sinistres 50K€, Assureur 25K€, Réassureur 25K€.
Si sinistres = 10 M€, Assureurs 5M€ / Réassureurs 5M€ puis Comme 5M€ / 1 M€ > 2, la réassurance ramène à 2 / 1 M€ en prenant en charge 3 / 1 M€

Sinistralité, en % des communes : inondations 59% (arrêtés) et coût 58%, sécheresse 9% et 38% des coûts.

3. Au global, régime hybride, mi privé (assurance), mi public (réassurance)
En Europe. Allemagne et Italie, Etat (ponctuel ou permanent). GB privé, Etat très limité. Espagne monopole de l’Etat.
Australie, Canada, certains états us : hybride comme en France.

Projet de réforme : plus de transparence, incitation à la prévention et aux comportements responsables (renforcement lien indemnisation/prévention)

Assurance n°23 Les autres acteurs du monde de l’assurance

FFSA
Fédération Française des Sociétés d’Assurance
250 SA + SAM + succursales étrangères
90% du marché français, 100% de l’activité internationale
Se décompose en FFSAA pour 120 SA, et FFSAM pour 130 SAM

Missions :
– représenter les intérêts de ses membres
– outil de concertation
– outil technique
– information du public
– actions de prévention

Exemple : AXA Assurances IARD Mutuelle et Vie Mutuelle, CCR

GEMA
Groupement des Entreprises Mutuelles d’Assurance.
Les SAM MSI (Mutuelles Sans Intermédiaire)
46 mutuelles issues d’entreprise mutualiste
Exemple : MAAF, MACIF, MACSF

ROAM
Réunion des Organismes d’Assurance Mutuelle
52 organismes dont 47 SAM professionnelles, généralistes ou spécialisées, avec ou sans intermédiaires.
Exemple : AG2R, Malakoff Médéric, SMABTP

CTIP
Centre Technique des Institutions de Prévoyance (association loi 1901)
Missions :
– représenter les IP
– développement des IP
– centre d’expertise
– études
Exemple : Humanis, Mornay, Réunica

FNMF
Fédération Nationale de la Mutualité Française
800 mutuelles et union (Livre II env. 500 mutuelles, 95% du total des cotisations)
Gère les services de soin et d’accompagnement mutualiste
Exemple : Harmonie Mutelle, Mutuelle Générale, MGEN

FNIM
Fédération Nationale Indépendante des Mutuelles

Autres organismes français liés à l’activité d’assurance
CCR
Caisse Centrale de Réassurance, SA d’assurance détenue à 100% par l’Etat.
62% de son CA sont avec garantie de l’Etat : risques exceptionnels de transport, RC navires et nucléaires, cat nat (91% du CA de cette branche), attentats et terrorisme.
Garantie nécessaire car la mutualisation n’est pas réalisée.
Gestion de fonds publics : fonds national de Gestion des Risques en Agriculture par exemple.
La couverture Catastrophes Naturelles provient de 4 dispositifs :
– les phénomènes assurables : tempêtes, grêle, poids de la neige, gel ne sont pas dans le régime cat nat et bénéficient de garanties contractuelles
– les dommages aux récoltes : par le FNGRA
– les risques naturels moyens : indemnisation des expropriations par précaution
– les autres : le régime cat nat (détaillé plus tard)

ANC
Autorité des Normes Comptables

Autres organismes internationaux
IASB
International Accounting Supervisory Board. Edite les normes comptables internationales comme les International Financial Reporting Standards

IAIS
International Association of Insurance Supervisors. Pour une entente sur les contrôles minimums, l’harmonisation

EIOPA
European Insurance and Occupational Authority
Autorité Européenne des Assurances et des Pensions Professionnelles.
Dispose de pouvoirs réglementaires et de médiation contraignante
Organise les travaux de réflexion sur la supervision, les actions d’harmonisation, la production de normes techniques.
Pour Solvabilité 2, participe aux travaux, organise les QIS, réglemente et un pouvoir de médiation contraignante sur les autorités nationales est prévu par les directives.

Le pilier I de Solvabilité 2 : les exigences quantitatives

Ce pilier est la transformation des exigences quantitatives dite Solvabilité 1 qui se présentait sous 3 axes :

Le bilan prudentiel est établit en valorisant les actifs à leur valeur d’échange dans des conditions normales et les passifs à leur montant de transfert (d’engagements auprès d’un autre assureur) dans des conditions normales, sans tenir compte de la qualité de crédit de l’entreprise. L’objectif est une valorisation en valeur de marché et un niveau de fonds propres suffisants.

Les provisions techniques sont la somme du Best Estimate (BE) et du Risk Margin, où
– Le BE est la moyenne pondérée par leur probabilité des flux futurs, actualisés sur une courbe de taux sans risque pertinente. Le calcul est brut (de réassurance,…) et tient compte de tous les contrats en portefeuille, des rachats, des prestations discrétionnaires futures, des impôts différés,…
– Le Risk Margin est le montant de fonds propres supplémentaires nécessaires pour couvrir les engagements repris en cas de transfert, c’est donc une valeur actuelle probable de SCR futurs.

Les placements sont valorisés en valeur de marché, et si les données sont insuffisantes, des modèles peuvent être utilisés.

La réassurance se valorise comme les provisions techniques et la titrisation en tenant compte a. de la différence temporelle entre le recouvrement et le paiement et b. de pertes probables pour défaut de la contrepartie.

Les fonds propres sont la somme des fonds propres de base et des fonds propres auxiliaires :
– les fonds propres de base sont constitués de l’excédent de l’actif par rapport au passif, des passifs subordonnés, des impôts différés en cas de perte déductible (ce qui implique de projeter les comptes sociaux pour déterminer les impôts futurs)
– les fonds propres auxiliaires correspondent au capital non appelé, lettres de crédit, garanties et tout ce qui est juridiquement contraignant (rappels de cotisation,…)

Les fonds propres sont classifiés selon leur disponibilité pour former les fonds propres éligibles (à la couverture des exigences quantitatives) :
– tiers 1 : Fonds propres de base disponibles (supérieur à 1/3 des fonds propres éligibles)
– tiers 2 : Fonds propres de base disponibles en cas de liquidation et Fonds propres auxiliaires disponibles ou disponibles en cas de liquidation
– tiers 3 : Autres fonds propres de base ou auxiliaires (inférieur à 1/3 des fonds propres éligibles)

Ainsi, tous les fonds propres ne sont pas éligibles pour couvrir les exigences quantitatives

Le SCR, Solvency Capital Requirement, ou capital de solvabilité requis est l’exigence quantitative qui doit être couverte par les fonds propres éligibles. Les calculs se font sous l’hypothèse de continuité d’activité et correspond à la VaR à 99.5% à 1 an des fonds propres de base. Il couvre les risques de souscription vie, non vie, santé, les risques de marché, de contrepartie et opérationnels. Le calcul doit être fait tous les ans (pour le moment), à partir de la formule standard ou d’un modèle interne.

Le MCR, Minimum Capital Requirement, ou minimum de capital requis est le seuil de fonds propres éligibles en deçà duquel le risque est inacceptable. Il est déterminé comme la somme d’un seuil absolu (selon les branches d’activité) et d’un montant fonction linéaire de variables du bilan. Il est obligatoirement compris entre 25% et 45% du SCR.

Le modèle interne est partiel ou intégral. Il doit aboutir au calcul de la VaR 99.5% à 1 an des fonds propres de base et doit être utilisé pour d’autres travaux que la calcul du SCR.