Retour sur le Small Data et ses applications en assurance

Les travaux qui ont été présentés proposent une technique de modélisation probabiliste lorsque les données sont rares. En effet, dans ce contexte, il semble peu justifié d’utiliser des approches statistiques. Pour illustrer l’approche probabiliste, nous avons emprunté des exemples à l’assurance non vie et à l’assurance vie lorsque les données sont effectivement rares.

L’objectif principal était de présenter une approche complémentaire, un autre point de vue sur les données et d’en mesurer les impacts en imaginant cette méthode mise en application chez les assureurs. Des arguments objectifs sont là pour se forger une première opinion. Nous les rappelons brièvement :

  • Présence de données qu’il n’est pas possible d’obtenir par répétition ou dont la répétition est limitée. Ces données ne sont qu’une information qui influence notre vision initiale. L’hypothèse de répétition restreindrait le champ d’application aux seuls phénomènes où une telle caractéristique est acceptable.
  • Une probabilité caractérisant une information concernant un phénomène, celle-ci peut évoluer à mesure que notre information évolue elle-même grâce au théorème de Bayes

Dans tous les cas, la méthode proposée ici s’expose peu, au moins de notre point de vue, aux critiques des approches paramétriques et non paramétriques. L’idée est d’utiliser des hypothèses minimales afin de construire des lois de probabilités robustes et en accord avec l’’ensemble des informations disponibles au moment du calcul. Cette approche permet aussi simplement de profiter des compléments d’information au fil du temps afin de d’enrichir les lois de distribution. Enfin, cette approche permet de tenir compte de l’incertitude de la loi de distribution alors que dans les pratiques habituelles, celle-ci une fois élaborée, est supposée complètement connue, ce qui n’est jamais le cas.

D’un point de vue méthodologique, nous avons utilisé une méthode qui évite les écueils des approches usuellement introduites. A ceux qui réfutent notre choix bayésien, nous l’avons utilisé dans le but d’introduire l’information à disposition de la manière la plus neutre possible, avec une loi a priori uniforme, et de travailler constamment avec l’incertitude liée à nos calculs, incertitude trop souvent oubliée.

D’un point de vue opérationnel, nous avons un même outil qui permet de traiter la construction des lois de probabilités indispensables à l’activité d’assurance. On peut donc imaginer que la mise en place d’une telle approche permettrait de simplifier les modules de calculs et donc une partie des systèmes d’information et technologique des assureurs.

D’un point de vue développement, nous pouvons envisager que ces techniques permettent de créer de nouveaux produits d’assurance ou de réassurance pour lesquels les estimations purement statistiques ne sont pas pertinentes.

D’ailleurs, comme l’évoquait déjà André Laurent en 1964 [Laurent], « Les courbes de réforme [du matériel industriel] ne se distinguent a priori des courbes de mortalité humaine que par la substitution à l’unité homme de l’unité machine. Les règles de calcul actuariel et les méthodes de prévision utilisées en démographie humaine peuvent ainsi être transposées au domaine industriel […] » [Laurent]. Cette remarque permet même d’envisager des applications industrielles : étude du vieillissement du matériel pour établir un processus de renouvellement, amélioration de l’amortissement comptable, optimisation de la durée économique d’utilisation. Sans oublier que certains de ces champs pourraient à leur tour devenir des supports pour la création de produits d’assurance originaux.

Ainsi, comme l’affirme Marcel Boll, [Boll], « L’actuariat est une des branches les plus importantes des mathématiques appliquées et constitue en quelque sorte la mise en pratique de la science du hasard ». L’actuaire, plus que jamais, au-delà de son expertise assurantielle ou financière doit se révéler probabiliste, statisticien, data manager et innovateur.

 

[Boll] Boll Marcel, L’exploitation du hasard, Que sais-je ? n°57, PUF, 1971

[Laurent] Laurent André-G., La méthode statistique dans l’industrie, Que-sais-je ?; PUF n°451, 1964

Publicités

Small Data pour l’extension de table de mortalité en assurance vie

On observe souvent la mortalité d’une partie des classes d’âges d’une population et se pose la question d’apprécier la mortalité sur les classes d’âges non observées (en général des classes d’âges plus élevées. Dans l’exemple utilisé dans l’article Small Data en assurance vie : en finir avec les lois de mortalité artificielles, les données sont disponibles de 70 à 84 ans. On peut s’interroger alors sur les taux de mortalité aux âges supérieurs. 130 ans est un âge limite souvent utilisé pour la fermeture des tables.

Parmi les approches classiques d’extension de table de mortalité, l’approche Denuit-Goderniaux (DG) permet de prolonger les lissages usuels. Ses caractéristiques, qui conduisent à critiquer cette méthode sont :

  • C’est un modèle paramétrique
  • qui intègre des contraintes sur la forme de la table
  • dont les résultats sont très dépendants du choix d’une métrique (estimation de paramètres par régression linéaire)
  • Enfin, il est souvent nécessaire d’utiliser un lissage de jonction entre les taux déjà lissés et les taux extrapolés.

Ces points ont déjà tous été commentés dans les articles « small data » précédents. D’ailleurs, cette approche est plus une technique d’extrapolation qu’une véritable technique d’extension : cette astuce numérique s’éloigne assez vite de la physique (ou de la réalité) de l’estimation de loi probabilité que l’on cherche à réaliser.

 

L’approche bayésienne travaille avec 60 classes d’âges, de 70 à 129 ans, de manière identique à la précédente (présenté dans cet article).

De même, toujours à l’aide de simulations de Monte Carlo, nous obtenons un taux de mortalité sur l’ensemble des tranches d’âges supérieurs.

Les deux techniques de prolongement donnent des résultats très différents ! Pourquoi ? L’écart entre les deux courbes représente l’enrichissement artificiel de l’information par le modèle paramétrique qui présente une forme convexe sur la tranche d’âge 85 à 110 ans environ puis une forme concave sur le reste de la courbe. Cette information complètement exogène provient de « l’observation »  de tables de mortalités plus riches qui ont ces caractéristiques de mortalité et qui ont été intégrées au sein de l’approche.

L’approche bayésienne travaille elle avec une information beaucoup moins riche. Cette information minimale peut être complétée sur l’expertise exogène le permet. Par exemple, nous pouvons contrôler la convexité de la courbe en enrichissant l’information aux âges 95 et 101 ans puis la concavité aux âges 120 et 127 ans.

Cette fois on obtient une courbe plus conforme aux attentes.

Les résultats sont identiques mais les différences sont énormes !

  • Avec l’approche bayésienne, on a l’avantage d’avoir une totale maîtrise des étapes de modélisation et de pouvoir évaluer le besoin d’information complémentaire pour construire la loi de mortalité pas à pas.
  • On peut ainsi piloter la construction de la table
  • On ne subit plus le modèle paramétrique
  • La méthode est souple. Si on voulait imposer des taux de mortalité à certains âges au modèle DG, il devient une autre méthode qui nécessite d’autres techniques de calibrage.
  • Grâce à l’approche bayésienne, on ne change pas de méthode, on n’intègre de l’information.

 

Small Data en assurance vie : en finir avec les lois de mortalité artificielles

Cet article illustre l’utilisation des techniques du small data pour l’estimation de loi de mortalité en assurance vie.

Afin de mettre en œuvre différentes constructions de loi de mortalité dans un contexte de données limitées, nous allons utiliser un exemple emprunté au chapitre 6 de Tosetti et al.

Les données fournies correspondent aux 15 variables aléatoires de durée de vie Tz pour z=70,…,84 pour les 15 groupes de populations (les données brutes sont en annexe). Dans un premier temps, pour chaque groupe, nous appliquons le modèle binomial classique associé à une probabilité de décès 1 0 qz = P(Tz ϵ [0,1]), noté q(z) ou qz. Son estimation fréquentiste est le rapport nombre de décès / nombre d’individus observés, soit :

en reprenant les notations de Tosetti. Les intervalles de confiances exacts à 95% sont également donnés dans le graphique ci-dessus.

Comme signalé par les auteurs, il reste un problème fondamental de construction : on s’attend à avoir les q(z) croissants avec l’âge z, or il y a dans l’estimation des décrochements trop importants. Etant donné la taille des intervalles de confiance, ceci confirme bien que nos données sont trop pauvres pour être utilisées sans autre traitement.

Les auteurs proposent des lissages par ajustements selon successivement des fonctions croissantes « simples », par décalage d’âge avec la table TPRV93 (l’exemple date un peu…) et avec les lois de Gompertz et Makeham. Petauton évoque d’autres méthodes devenues standard : moyennes mobiles,  splines et surtout Whittaker-Henderson qui peuvent aussi être appliquées.

 

Les méthodes précédentes peuvent être efficaces mais :

  • Elles sont sans véritable fondement quant à leur utilisation. Par exemple, pourquoi utiliser une distance en carré et non en valeur absolue ou en quantile dans la méthode Wittacker-Henderson ? Comment choisir le juste nombre de nœuds et leur place dans la méthode par splines ? La taille de la fenêtre dans la moyenne mobile ? Ces approches tendent à considérer les valeurs anormales comme aberrantes alors même qu’elles seraient situées dans l’intervalle de confiance exact.
  • Elles sont justifiées a posteriori par un test du chi deux, qui n’est qu’asymptotique. Or dans notre exemple, les données sont peu nombreuses et elles pourraient l’être encore moins ! L’appréciation est réalisée « en moyenne ».
  • Elles ne tiennent pas compte de l’incertitude des données initiales.
  • Le choix du paramétrage z = 2, h = 5 de l’approche Whittacker-Henderson est en général réalisé a posteriori, en comparant par exemple différents graphiques qui, à vue d’œil, lisse au mieux la courbe tout en restant fidèle à l’évolution globale des données. Une procédure rigoureuse et systématique d’un tel choix apparait lourde et difficile à mettre en place.
  • Quant à la méthode du décalage d’âge, elle intègre les éventuels défauts de sa table de référence et reste une méthode économique pour obtenir un lissage acceptable, en fait déjà réalisé dans la construction de la table de référence. La métrique utilisée (ici la distance du chi deux) n’est toutefois pas la seule utilisable.

 

Globalement, les méthodes présentées ont toutes le défaut de nécessiter des choix arbitraires. L’approche small data propose une alternative afin d’éviter cet inconvénient majeur dans le cadre d’une démarche scientifique et les défauts particuliers relevés plus haut.

 

Les techniques vues en assurance non vie ne sont pas directement applicables car la « physique » des données n’est pas la même :

  • en assurance non vie, on observe 1 phénomène dont le résultat peut tomber dans K classes
  • Ici on observe des expériences de mortalité indépendantes (pour K classes d’âges observés) dont le résultat est décès dans l’année ou non
  • Utiliser la loi reconstituée du taux de survie à un âge donné (pour nous ramener à l’estimation d’une seule loi de probabilité come en assurance non vie) n’est pas possible car nous n’avons pas d’échantillon d’observation pour cette loi.

 

L’approche consiste alors à estimer chacun des taux de mortalité à partir d’échantillons indépendants en imposant l’hypothèse de croissance avec l’âge.

L’estimation s’obtient par simulation de Monte Carlo. Le graphique ci-dessous représente différentes reconstitutions.

Quelques rappels des bénéfices de l’approche small data :

  • La technique reste cohérente avec la « physique » des données
  • C’est une technique d’estimation et non un pur outil numérique de lissage
  • Pas de sensibilité au paramétrage d’une technique
  • Pas de sensibilité à une métrique
  • On peut disposer de l’incertitude pour chaque taux :

Nous avons obtenu une estimation pour la famille qz des taux de décès annuel. Ces taux de décès permettent de reconstituer une table de mortalité adaptée à l’information disponible sans introduire de modélisation exagérée ou d’avoir recours à un paramétrage dont le réglage est trop discrétionnaire et non réellement justifiable.

Ces estimations ont tenu compte d’un avis d’expert qui impose une croissance des taux de décès annuel avec l’âge atteint. Ceci a pu être réalisé sans l’introduction d’une forme paramétrique quelconque sur les taux.

Cette approche permet d’intégrer en amont les contraintes de construction de la table d’expérience sans autre choix de modèles et/ou paramètres, choix toujours délicat à justifier.

 

Bibliographie

Tosetti Alain, Béhar Thomas, Fromenteau Michel, Ménart Stéphane, Assurance, Comptabilité – Réglementation – Actuariat, AAA, Economica, 2011

 

Données utilisées

Le small data au service de l’assurance : application à la segmentation du tarif en auto

Lorsque l’on souhaite prendre en compte plusieurs facteurs de tarification et que l’on étudie la fréquence de sinistres en assurance automobile, nous pouvons nous retrouver dans une situation où les données sont rares.

En effet, si on utilise 5 facteurs (puissance du véhicule, lieu d’usage, type d’usage, âge, expérience de conduite), chacun découpé en 4 modalités, on obtient 45 = 1024 primes pures à estimer. Statistiquement, les données sont insuffisantes pour chaque occurrence, et on se résout alors à une approximation permettant le calcul, souvent une technique de décorrélation des facteurs afin de les traiter individuellement.

Plus précisément, lorsque l’on utilise le modèle multiplicatif, on suppose de plus que les marges (i.e. le total de sinistres pour chaque facteur) sont bien évaluées alors que les sinistres de chaque occurrence ne le sont pas. Autrement dit, curieusement on accepte une incertitude locale, mais pas d’incertitude globale.

Il est alors possible avec notre modélisation d’éviter l’introduction cette double hypothèse artificielle afin de traiter cette tarification.

Traitons donc pour illustrer un exemple emprunté au chapitre 5 de Tosetti et al.

Deux facteurs sont utilisés :

  • puissance du véhicule avec 3 modes (petit, moyen, grand) et
  • expérience de conduite avec 2 modes (novice ou expérimentés),

soit 6 classes de sinistres (et autant sans sinistre). Les données sont les suivantes

 

Approche standard : le modèle multiplicatif

Le modèle multiplicatif permet alors d’obtenir une estimation d’une probabilité pour chaque segment.

              

Ainsi, l’algorithme a « créé » 0.847 sinistre dans le segment  novices / moyen

Approche par le small data

En appliquant l’approche bayésienne du small data, chacune des six probabilités s’estime à partir d’un modèle à 2 classes. Dans le segment des novices/petit, il y a 1109 assurés et 4 sinistres observés. La fréquence est estimée par (4+1) / (1109 +2) = 0,450%, soit 4,991 sinistres théoriques. On obtient alors :

Et des sinistres théoriques évalués ci-dessous :

Les avantages du small data sont clairs :

  • on dispose si on le souhaite de l’incertitude autour de notre estimation, espérance d’une variable aléatoire,
  • aucune hypothèse n’a été nécessaire sur la forme des fréquences
  • aucune hypothèse n’a été faire sur l’exactitude des marges.

 

Le small data en Assurance : pourquoi ? comment ?

L’assurance a besoin de comprendre les phénomènes pour lesquelles elle offre une forme de garantie. Cette compréhension passe par la modélisation de la fréquence de ces phénomènes et la modélisation de leur intensité.

Pourquoi une autre approche méthodologique de modélisation des phénomènes assurables ?
Lorsque les données sont rares, et nous nous placerons uniquement dans ce cadre, plusieurs arguments motivent cette réflexion.

  • En premier lieu, une utilisation des outils statistiques mal adaptée
    En effet, les principaux résultats statistiques supposent avoir suffisamment d’observations pour admettre que les théorèmes asymptotiques soient applicables et que l’expérience produisant la donnée est répétable infiniment. De plus, les statistiques sont appropriées lorsque les lois de probabilités sont parfaitement identifiées et en cohérence avec le phénomène observé. Les phénomènes qui nous intéressent ici, en particulier rares, n’ont pas de loi identifiée, on reste dans l’estimation.
  • On peut mentionner également des choix de modèles étonnants
    Par exemple, utiliser des lois à support infini alors que les phénomènes observés sont bornées  (bornes pas toujours observables). Un tel attachement à ces lois poussent parfois à les tordre en les tronquant par exemple d’où des difficultés calculatoires. Particulièrement pour les phénomènes extrêmes (ou rares), l’utilisation de certaines lois paramétriques s’est répandue d’abord pour leur maniabilité ce qui ne doit pas être l’argument principal !
  • Ensuite souvent les paramétrages sont arbitraires
    Certains modèles peuvent être calibrées de plusieurs façons donnant des résultats différents d’où une ambiguïté ou un besoin de « sélection de calibration dans la sélection de modèles » d’une grande lourdeur.
  • Enfin, l’approche paramétrique était justifiée lors de moyens de calculs limités.
    Aujourd’hui, ce n’est plus le cas et on doit pouvoir mettre en œuvre des méthodes qui ne sont plus soumises à ces contraintes de calculs.

 

Comment appliquer le small data en assurance ?
Avec une volonté de suivre une démarche rigoureuse, on s’est donné les principes suivants :

1-On ne veut pas de modélisation abusive et donc on introduit un jeu d’hypothèses minimales et pas plus

2-On doit tenir compte de l’incertitude autour des données dans notre façon de travailler. Car les résultats ne sont que des estimations de la vraie loi inconnue. L’incertitude est un moyen de mesurer la qualité de l’information donnée par l’échantillon,  cela permet d’évaluer le degré de confiance en la projection, de prendre une marge de sécurité, de décider ou non d’un programme de réassurance.

3-Dans un contexte pédagogique, le choix dans un premier temps d’utiliser des données « publiques » : publiées, déjà manipulées et pour lesquelles d’autres méthodes sont habituellement utilisées pour faciliter la comparaison, dont les résultats sont admis par le plus grand nombre. L’idée est bien de ne pas sortir des données d’un chapeau avec lesquelles tout fonctionnerait miraculeusement.

4-Une fois la démarche bien comprise et admise, on pourra l’appliquer à des données propres à une compagnie d’assurance.

 

Quel outil mathématique ?
L’outil mathématique à la base de cette démarche, ce sont les probabilités bayésiennes. Elles se présentent de la manière suivante.

On a le cas classique de la production de pièces défectueuses ou non. Si p est la probabilité connue d’avoir une pièce défectueuse, le nombre de pièces défectueuses après N pièces fabriquées suit une loi binomiale B(N,p)

  • p se déduit en général des observations p = x / N si x est le nombre observé de pièces défectueuses (estimation correcte asymptotiquement)
  • Si p est inconnue, aléatoire, sans information, tous les choix sont possibles et donc sans avis particulier on donne le même poids à toutes les valeurs de son support. Cela revient à choisir une loi uniforme sur [0,1] a priori. C’est le choix dit d’information minimale qu’on va retrouver tout au long de l’utilisation de l’approche small data.
  • En appliquant une formule de Bayes, sachant la production X=x de pièces défectueuses, on peut déterminer sa densité a posteriori la  densité

  • C’est une loi Beta (les lois binomiale et uniforme se conjuguent bien) dont l’espérance, x+1 / N+2, est notre estimation de p.

Ceci se généralise lorsque le nombre de classe passe de 2 (pièce défectueuse ou non) à K classes. L’estimation des probabilités pi est alors xi +1 / N+K pour i=1,…,K.

On pourra aussi introduire d’autres contraintes dans la modélisation et les estimations seront obtenus grâce à des simulations de Monte Carlo.

Pour les détails techniques sur ces résultats, on pourra se reporter au livre de Gilbert Saporta, Probabilités, Analyse des données et Statistiques, 2ème édition, Technip, 2006 et précisément les pages 317-319.

Assurances : maitriser le hasard lié aux phénomènes réels, mais pas seulement

Un zeste d’histoire

Dès l’antiquité, on trouve des traces d’assistance mutuelle : chacun apporte une petite somme au sein d’une association pour porter secours ou soutenir lors de la réalisation de certains événements. Mais c’est avec le développement du transport maritime que se met en place les prêts à la grosse aventure d’abord chez les Grecs et les Romains, plus généralement à partir du 12ème siècle, transformé ensuite, après un interdit papal, en garantie sur la valeur d’un navire et de sa marchandise apportée en échange du versement préalable d’une somme plus petite. De cette époque nous reste les termes police, qui signifie alors preuve (de l’existence du contrat), assurance qui vient de l’assurete c’est-à-dire la garantie, et prime, la somme payée en avance étant dénommée praemium.

Côté assurance vie, c’est à Londres en 1762 que s’installe la première société d’assurance vie fondée sur les tables de mortalité, The Equitable Life Assurance Society. Ce développement est possible grâce aux travaux de Blaise Pascal et sa géométrie du hasard en 1654, puis de l’astronome Halley sur les premières tables de mortalité en 1693 alors qu’en Italie, les premières tontines voient le jour en 1652.

De ces pratiques, il a été vite compris qu’un assureur doit préférer un grand nombre de risques de peu d’importance à un petit nombre de gros risques. Il se trouve dans le cas d’un jeu de durée non finie contre un partenaire beaucoup plus riche (l’ensemble de ces assurés), ce qui implique pour éviter sa ruine (certaine) que le jeu ne soit pas équitable, donc que la prime soit majorée. C’est la même chose pour les casinos et la française des jeux, mais ceux-là vendent de l’espoir en suggérant un risque factice, les assureurs vendent de la sécurité contre un risque effectif du monde réel.

 

L’utilité sociale de l’assurance

Car l’assurance s’occupe de phénomènes réels. Et ceux-ci sont souvent accompagnés d’une composante humaine. Prenons un exemple socialement délicat. Aujourd’hui, de nombreuses habitations sont situées en zone inondable. Il n’y a pas d’aléa : la zone sera inondée un jour ou l’autre. Selon la théorie assurantielle, ces habitations ne peuvent donc bénéficier d’une garantie classique contre les inondations car seuls les événements incertains sont assurables. (en revanche, il existe un aléa concernant la date de survenance du sinistre, comparable à l’assurance vie où le décès est certain, mais son apparition inconnue). C’est pourquoi l’assurance va au-delà des principes probabilistes par une gestion sociale de certains risques en organisant des fonds de garantie alimentés de manière forfaitaire, c’est-à-dire sans lien (puisque prélevé sur un ensemble de contrats, tous risques confondus) dans le cas des inondations, avec la topographie du lieu pouvant bénéficier de la garantie.

 

Évaluation des risques : attention aux interprétations

Définir le risque

Le mot « risque » serait issu de l’italien « risicare » signifiant « doubler un promontoire », puis ensuite « hasard qui peut causer une perte », donc la possible réalisation d’un événement défavorable.

Keynes précise que l’incertitude ne peut être appréciée sans lui adjoindre une part de subjectivité alors que le risque est une forme d’incertitude qui existe dans les lois de la nature, de la physique et qui peut être évalué à l’aide de probabilité objective. L’incertitude autour de la mesure d’une grandeur est un risque d’erreur probabilisable (c’est pour ce type d’incertitude qu’aurait été créée la loi de distribution normale). En finance, par exemple, l’incertitude autour de la valorisation d’une entreprise est soumise à la subjectivité humaine puisqu’aucune valeur de référence n’existe (au contraire de la position d’une étoile, même si on sait mal l’estimer).

L’évaluation des risques se représente souvent par la détermination de la probabilité de la réalisation d’un événement néfaste. Les exemples suivants, s’ils illustrent la démarche, donnent quelques signaux d’alertes dans l’interprétation des nombres.

 

Exemples en assurance

Selon Solvabilité 2, les fonds propres seraient déterminés afin qu’une faillite ne se produise qu’avec une probabilité 1/200 chaque année. Ceci est souvent traduit en affirmant que l’organisme d’assurance fera faillite une fois tous les 200 ans en moyenne. Voyons rapidement en quoi cette traduction est malheureuse. En effet, celle-ci suppose déjà que les exercices annuels sont indépendants ce qui est loin d’être vrais, les bons résultats d’une année créant un peu plus de fonds propres pour l’année suivante. Mais entrons un peu dans les détails mathématiques. En acceptant cette hypothèse d’indépendance, la probabilité d’un défaut la nème année de l’organisme vaut (1-0.5%)n-1 x (0.5%) (loi géométrique de paramètre 0.5%). L’espérance est bien 1/0.5% = 200 ans et son écart-type environ 199.5 ans. L’écart-type est du même ordre que la moyenne ce qui rend cette dernière peu informative. La probabilité d’occurrence du défaut au bout de 200 ans est extrêmement faible, environ 1.8 10-3. Il est plus envisageable de faire défaut avant. D’ailleurs l’année de défaut la plus probable est l’année n°1 !

Prenons un angle différent et considérons les 595 (selon l’ACPR en 2015) organismes d’assurance en France soumis à Solvabilité 2. Tous vont avoir une probabilité théorique 1/200 de faire défaut. Quelle est alors, pour une année donnée, la probabilité d’avoir au moins un défaut ? Si on suppose les organismes indépendants, ce qui est une hypothèse peu conservatrice, cette probabilité est proche de 95%. On peut également évaluer la probabilité d’avoir exactement 1, 2,…, 10 défauts,… par une loi binomiale de paramètres 595 et 1/200. Nous résumons ceci par le graphique ci-dessous.

6-distri_nb_defaut

La distribution totale nous indique que le nombre de défauts le plus probable est 2 et son espérance de défaut est proche de 3 défauts par an (avec un écart-type de 1.7).

Plus le temps passe, ou plus les épreuves sont importantes, plus il devient probable d’observer un événement, jugé impossible tellement sa probabilité est faible : la répétition presque indéfinie crée l’invraisemblance.

Poussons un peu plus loin la provocation. Il est relativement simple de construire un événement réaliste, pour le moment fictif, qui provoquerait la ruine d’une société d’assurance : par exemple un accident d’avion sur des installations nucléaires… Il est impossible en revanche d’estimer rigoureusement cette probabilité et d’affirmer qu’elle serait inférieure aux 0.5% à atteindre. Avec un tel niveau de gravité, les probabilités ne veulent pas dire grand-chose (voir également les réflexions de Nassim Taleb sur la détermination des petites probabilités).

Le small data ou la fin des lois de probabilités artificielles

Le monde réel est limité

Dans un cadre d’univers borné, un phénomène réel est par nature limité : les valeurs observées ont des bornes maximales et minimales (pas toujours observables). Cette simple remarque devrait éliminer d’office toute modélisation par des lois de probabilité à support infini. Malheureusement, beaucoup de praticiens semblent attachés à ces distributions de probabilité alors pour ne pas trop s’en éloigner, ils sont amenés à les tordre en les tronquant ce qui induit d’autres difficultés, calculatoire notamment.

Stop aux réflexes inadaptés

D’autres d’habitudes peu rigoureuses nous tiennent au corps, comme par exemple la recherche d’une loi de probabilité académique dès que la loi de Gauss ne fonctionne pas, sans même tenter de rechercher la loi de distribution « réelle ». Cette simplification est acceptable dans une phase exploratoire, qui doit être suivie d’une seconde qui discute des hypothèses sous-jacentes. L’analyse ne peut s’abstenir d’une véritable démarche scientifique même si son cadre de travail est le monde réel et l’entreprise.

Trop souvent, les outils mathématiques existants sont utilisés de manière brute sans souci de leur validité. Cela peut se produire par exemple avec le test asymptotique du chi deux ou lorsqu’on utilise un modèle de régression sans avoir contrôlé la stationnarité des données ou des résidus. Les attentats du 11 septembre 2001 ont également révélé aux assureurs que leurs hypothèses d’indépendance de certaines branches d’activité étaient abusives.

Particulièrement pour les phénomènes extrêmes (ou rares), l’utilisation des lois paramétriques (loi GEV par exemple) s’est répandue sans justification scientifique poussée, l’argument principal étant la maniabilité. Le faible nombre de paramètres dont elles dépendent permet une calibration au phénomène étudié avec un faible nombre de données à disposition. Or les phénomènes réels auxquels s’exposent les entreprises nécessitent un soin plus approfondi et des lois de probabilité adaptées.

D’autres l’ont déjà dit

Nicolas Bouleau explique à ce sujet : « Ayant observé durant une période d’un siècle dans une certaine région des enregistrements sismiques de magnitude comprise entre 0 et 2, est-il possible d’en déduire avec quelle probabilité se produira un séisme d’une magnitude supérieure à 4 ? A un problème ainsi posé, rares seraient ceux qui répondrait par l’affirmative, néanmoins l’usage de plus en plus répandu dans le milieu des ingénieurs de procédures rapides utilisant les lois des valeurs extrêmes conduit à des affirmations de ce type, dont l’enjeu socio-politique est important notamment par l’habit de scientificité qui leur est donné. Après avoir rappelé les fondements de la théorie des lois des valeurs extrêmes et relevé quelques-unes des hypothèse cruciales, difficiles à vérifier en pratique, qui la sous-tendent, nous montrons que la méthode qui consiste à caler les paramètres d’une des trois lois de valeurs extrêmes à partir des extrêmes d’un échantillon fini dont la loi est mal connue, est fortement encouragée par la pression sociale de quantifier les risques graves d’autant plus que tels errements, par la rareté même des événements considérés sont peu réfutables. » [Bouleau Nicolas, Splendeurs et misères des lois de valeurs extrêmes, Risques, 3, 1991, p.85-92].

Puis il poursuit : «  […] toute démarche attribuant une valeur numérique précise pour la probabilité d’un phénomène rare est suspecte, sauf si les lois physiques régissant le phénomène sont explicitement et exhaustivement connues ».

Ces phénomènes ne peuvent donc simplement se résumer par un seul nombre et le croire promet des interprétations douteuses et donc dangereuses lorsque son utilisation se généralise au sein de la société.

Osons !

Engager des changements de méthodes est compliqué. Même lorsque les interlocuteurs entendent les défauts de leurs pratiques, ils se réfugient derrière un comportement conformiste, arguant que leurs voisins font comme eux. Il leur est trop dangereux de ne pas agir ou penser comme le reste du troupeau. Effectivement, pendant de nombreux siècles, notre civilisation a cru notre planète au centre du monde et que le Soleil lui tournait autour. Pourtant, comme le dit Warren Buffet : « vous n’avez jamais raison ou tort parce que les autres sont d’accord avec vous, vous avez raison parce que vos données sont exactes et votre raisonnement juste ».

Il faut donc oser. Oser ne pas simplifier par l’utilisation de résultats académiques, pratiques d’un point de vue calculatoire, mais possiblement dévastateur car leurs hypothèses ne sont pas satisfaites. C’est possible car il existe d’autres manières moins contestables scientifiquement pour analyser les problèmes qui se présentent dans le monde réel.

Notices de l’ACPR sur Solvabilité 2

Si vous n’avez encore rien lu sur Solvabilité 2, voici de quoi rattraper votre retard.

http://acpr.banque-france.fr/textes-de-reference/notices.html

 

Le régime Cat Nat

Textes de référence : Loi en 1982 (suite aux inondations de la Saône fin 1981). Articles L125-1 et suivants du code des Assurances.

1. Fonctionnement assurantiel du régime
a/ C’est une garantie en cas de dommages matériels directs et non assurables ayant pour cause l’intensité anormale d’un agent naturel :
– matériels (et non corporels) à concurrence de leur valeur fixée et dans les limites et conditions du contrat socle.
– directs (et non les conséquences comme par exemple liés à une coupure d’électricité lors d’une inondation)
– non assurables : pas de liste, évolue avec le marché. Exemples de périls : inondations, coulées de boue, séisme,… Par opposition, sont assurables grêle, gel, poids de la neige, TOC

b/ assurance non obligatoire mais imposée (= extension obligatoire) dans les contrats de dommages aux biens (hors récolte, véhicules aériens ou maritimes) sauf forme de clauses types obligatoires incluses aux contrats socles :
– garantie illimitée dans les limites des contrats socles (valeurs, exclusions,…)
– les biens non assurés contre incendie (terrains, clôtures, ponts, routes,…) sont exclus de la garantie cat nat
– il existe un système spécifique pour les calamités agricoles (d’où hors cat nat)
– couvre la perte d’exploitation (si au contrat socle)

c/ financement par taux de prime appliquée à la prime du contrat socle (6% pour véhicule terrestre hors RC, 12% pour les autres).
Si refus d’assurance (faculté de l’assureur si réalisation du sinistre) : BCT

d/ franchises obligatoires, uniformes, non rachetables.
Générale [subsidence], non pro 380€ [1520€], pro 10% dommages (min 1140€) [3050€], pro perte d’exploitation 3 jours ouvrés min 1140€ [3050€].
Franchises modulables à la hausse pour les communes sans plan de prévention.

e/ Gestion des contrats et sinistres
Par les assureurs après reconnaissance de l’Etat de cat nat par arrêté interministériel suite à demande communale.
Puis expertises (lien de causalité), indemnisation après abattements et franchises.
Problème de la subsidence car des arrêtés peuvent être pris après plusieurs années.
Provision pour Egalisation (PE) : constituée en franchise d’impôt (sur 10 ans) pour charges exceptionnelles

2. Réassurance
– possible mais non obligatoire
– CCR avec garantie de l’Etat seule à proposer sans plafond
– CCR 95% de ce marché (=760M€ sur 1.26G€ de CA en 2013), pas de monopole
– CCR gère fond national de gestion des risques en agriculture, fond de prévention des risques naturels majeurs (expropriation préventive suite à Xynthia notamment)

Schéma de réassurance. 2 niveaux : QP 50/50 en % du CA (= montant de primes cat nat) puis stop loss sur la part conservée par la cédante (franchise, = plafond S/P, en % du CA cat nat, par exemple 200%, sans plafond).
Appel de l’Etat en garantie si charge sinsitre > 90%  de la PE.
Exemple : CA 1M€. Si Sinistres 50K€, Assureur 25K€, Réassureur 25K€.
Si sinistres = 10 M€, Assureurs 5M€ / Réassureurs 5M€ puis Comme 5M€ / 1 M€ > 2, la réassurance ramène à 2 / 1 M€ en prenant en charge 3 / 1 M€

Sinistralité, en % des communes : inondations 59% (arrêtés) et coût 58%, sécheresse 9% et 38% des coûts.

3. Au global, régime hybride, mi privé (assurance), mi public (réassurance)
En Europe. Allemagne et Italie, Etat (ponctuel ou permanent). GB privé, Etat très limité. Espagne monopole de l’Etat.
Australie, Canada, certains états us : hybride comme en France.

Projet de réforme : plus de transparence, incitation à la prévention et aux comportements responsables (renforcement lien indemnisation/prévention)