Retour sur le Small Data et ses applications en assurance

Les travaux qui ont été présentés proposent une technique de modélisation probabiliste lorsque les données sont rares. En effet, dans ce contexte, il semble peu justifié d’utiliser des approches statistiques. Pour illustrer l’approche probabiliste, nous avons emprunté des exemples à l’assurance non vie et à l’assurance vie lorsque les données sont effectivement rares.

L’objectif principal était de présenter une approche complémentaire, un autre point de vue sur les données et d’en mesurer les impacts en imaginant cette méthode mise en application chez les assureurs. Des arguments objectifs sont là pour se forger une première opinion. Nous les rappelons brièvement :

  • Présence de données qu’il n’est pas possible d’obtenir par répétition ou dont la répétition est limitée. Ces données ne sont qu’une information qui influence notre vision initiale. L’hypothèse de répétition restreindrait le champ d’application aux seuls phénomènes où une telle caractéristique est acceptable.
  • Une probabilité caractérisant une information concernant un phénomène, celle-ci peut évoluer à mesure que notre information évolue elle-même grâce au théorème de Bayes

Dans tous les cas, la méthode proposée ici s’expose peu, au moins de notre point de vue, aux critiques des approches paramétriques et non paramétriques. L’idée est d’utiliser des hypothèses minimales afin de construire des lois de probabilités robustes et en accord avec l’’ensemble des informations disponibles au moment du calcul. Cette approche permet aussi simplement de profiter des compléments d’information au fil du temps afin de d’enrichir les lois de distribution. Enfin, cette approche permet de tenir compte de l’incertitude de la loi de distribution alors que dans les pratiques habituelles, celle-ci une fois élaborée, est supposée complètement connue, ce qui n’est jamais le cas.

D’un point de vue méthodologique, nous avons utilisé une méthode qui évite les écueils des approches usuellement introduites. A ceux qui réfutent notre choix bayésien, nous l’avons utilisé dans le but d’introduire l’information à disposition de la manière la plus neutre possible, avec une loi a priori uniforme, et de travailler constamment avec l’incertitude liée à nos calculs, incertitude trop souvent oubliée.

D’un point de vue opérationnel, nous avons un même outil qui permet de traiter la construction des lois de probabilités indispensables à l’activité d’assurance. On peut donc imaginer que la mise en place d’une telle approche permettrait de simplifier les modules de calculs et donc une partie des systèmes d’information et technologique des assureurs.

D’un point de vue développement, nous pouvons envisager que ces techniques permettent de créer de nouveaux produits d’assurance ou de réassurance pour lesquels les estimations purement statistiques ne sont pas pertinentes.

D’ailleurs, comme l’évoquait déjà André Laurent en 1964 [Laurent], « Les courbes de réforme [du matériel industriel] ne se distinguent a priori des courbes de mortalité humaine que par la substitution à l’unité homme de l’unité machine. Les règles de calcul actuariel et les méthodes de prévision utilisées en démographie humaine peuvent ainsi être transposées au domaine industriel […] » [Laurent]. Cette remarque permet même d’envisager des applications industrielles : étude du vieillissement du matériel pour établir un processus de renouvellement, amélioration de l’amortissement comptable, optimisation de la durée économique d’utilisation. Sans oublier que certains de ces champs pourraient à leur tour devenir des supports pour la création de produits d’assurance originaux.

Ainsi, comme l’affirme Marcel Boll, [Boll], « L’actuariat est une des branches les plus importantes des mathématiques appliquées et constitue en quelque sorte la mise en pratique de la science du hasard ». L’actuaire, plus que jamais, au-delà de son expertise assurantielle ou financière doit se révéler probabiliste, statisticien, data manager et innovateur.

 

[Boll] Boll Marcel, L’exploitation du hasard, Que sais-je ? n°57, PUF, 1971

[Laurent] Laurent André-G., La méthode statistique dans l’industrie, Que-sais-je ?; PUF n°451, 1964

Publicités

Le small data au service de l’assurance : application à la segmentation du tarif en auto

Lorsque l’on souhaite prendre en compte plusieurs facteurs de tarification et que l’on étudie la fréquence de sinistres en assurance automobile, nous pouvons nous retrouver dans une situation où les données sont rares.

En effet, si on utilise 5 facteurs (puissance du véhicule, lieu d’usage, type d’usage, âge, expérience de conduite), chacun découpé en 4 modalités, on obtient 45 = 1024 primes pures à estimer. Statistiquement, les données sont insuffisantes pour chaque occurrence, et on se résout alors à une approximation permettant le calcul, souvent une technique de décorrélation des facteurs afin de les traiter individuellement.

Plus précisément, lorsque l’on utilise le modèle multiplicatif, on suppose de plus que les marges (i.e. le total de sinistres pour chaque facteur) sont bien évaluées alors que les sinistres de chaque occurrence ne le sont pas. Autrement dit, curieusement on accepte une incertitude locale, mais pas d’incertitude globale.

Il est alors possible avec notre modélisation d’éviter l’introduction cette double hypothèse artificielle afin de traiter cette tarification.

Traitons donc pour illustrer un exemple emprunté au chapitre 5 de Tosetti et al.

Deux facteurs sont utilisés :

  • puissance du véhicule avec 3 modes (petit, moyen, grand) et
  • expérience de conduite avec 2 modes (novice ou expérimentés),

soit 6 classes de sinistres (et autant sans sinistre). Les données sont les suivantes

 

Approche standard : le modèle multiplicatif

Le modèle multiplicatif permet alors d’obtenir une estimation d’une probabilité pour chaque segment.

              

Ainsi, l’algorithme a « créé » 0.847 sinistre dans le segment  novices / moyen

Approche par le small data

En appliquant l’approche bayésienne du small data, chacune des six probabilités s’estime à partir d’un modèle à 2 classes. Dans le segment des novices/petit, il y a 1109 assurés et 4 sinistres observés. La fréquence est estimée par (4+1) / (1109 +2) = 0,450%, soit 4,991 sinistres théoriques. On obtient alors :

Et des sinistres théoriques évalués ci-dessous :

Les avantages du small data sont clairs :

  • on dispose si on le souhaite de l’incertitude autour de notre estimation, espérance d’une variable aléatoire,
  • aucune hypothèse n’a été nécessaire sur la forme des fréquences
  • aucune hypothèse n’a été faire sur l’exactitude des marges.

 

Le small data en Assurance : pourquoi ? comment ?

L’assurance a besoin de comprendre les phénomènes pour lesquelles elle offre une forme de garantie. Cette compréhension passe par la modélisation de la fréquence de ces phénomènes et la modélisation de leur intensité.

Pourquoi une autre approche méthodologique de modélisation des phénomènes assurables ?
Lorsque les données sont rares, et nous nous placerons uniquement dans ce cadre, plusieurs arguments motivent cette réflexion.

  • En premier lieu, une utilisation des outils statistiques mal adaptée
    En effet, les principaux résultats statistiques supposent avoir suffisamment d’observations pour admettre que les théorèmes asymptotiques soient applicables et que l’expérience produisant la donnée est répétable infiniment. De plus, les statistiques sont appropriées lorsque les lois de probabilités sont parfaitement identifiées et en cohérence avec le phénomène observé. Les phénomènes qui nous intéressent ici, en particulier rares, n’ont pas de loi identifiée, on reste dans l’estimation.
  • On peut mentionner également des choix de modèles étonnants
    Par exemple, utiliser des lois à support infini alors que les phénomènes observés sont bornées  (bornes pas toujours observables). Un tel attachement à ces lois poussent parfois à les tordre en les tronquant par exemple d’où des difficultés calculatoires. Particulièrement pour les phénomènes extrêmes (ou rares), l’utilisation de certaines lois paramétriques s’est répandue d’abord pour leur maniabilité ce qui ne doit pas être l’argument principal !
  • Ensuite souvent les paramétrages sont arbitraires
    Certains modèles peuvent être calibrées de plusieurs façons donnant des résultats différents d’où une ambiguïté ou un besoin de « sélection de calibration dans la sélection de modèles » d’une grande lourdeur.
  • Enfin, l’approche paramétrique était justifiée lors de moyens de calculs limités.
    Aujourd’hui, ce n’est plus le cas et on doit pouvoir mettre en œuvre des méthodes qui ne sont plus soumises à ces contraintes de calculs.

 

Comment appliquer le small data en assurance ?
Avec une volonté de suivre une démarche rigoureuse, on s’est donné les principes suivants :

1-On ne veut pas de modélisation abusive et donc on introduit un jeu d’hypothèses minimales et pas plus

2-On doit tenir compte de l’incertitude autour des données dans notre façon de travailler. Car les résultats ne sont que des estimations de la vraie loi inconnue. L’incertitude est un moyen de mesurer la qualité de l’information donnée par l’échantillon,  cela permet d’évaluer le degré de confiance en la projection, de prendre une marge de sécurité, de décider ou non d’un programme de réassurance.

3-Dans un contexte pédagogique, le choix dans un premier temps d’utiliser des données « publiques » : publiées, déjà manipulées et pour lesquelles d’autres méthodes sont habituellement utilisées pour faciliter la comparaison, dont les résultats sont admis par le plus grand nombre. L’idée est bien de ne pas sortir des données d’un chapeau avec lesquelles tout fonctionnerait miraculeusement.

4-Une fois la démarche bien comprise et admise, on pourra l’appliquer à des données propres à une compagnie d’assurance.

 

Quel outil mathématique ?
L’outil mathématique à la base de cette démarche, ce sont les probabilités bayésiennes. Elles se présentent de la manière suivante.

On a le cas classique de la production de pièces défectueuses ou non. Si p est la probabilité connue d’avoir une pièce défectueuse, le nombre de pièces défectueuses après N pièces fabriquées suit une loi binomiale B(N,p)

  • p se déduit en général des observations p = x / N si x est le nombre observé de pièces défectueuses (estimation correcte asymptotiquement)
  • Si p est inconnue, aléatoire, sans information, tous les choix sont possibles et donc sans avis particulier on donne le même poids à toutes les valeurs de son support. Cela revient à choisir une loi uniforme sur [0,1] a priori. C’est le choix dit d’information minimale qu’on va retrouver tout au long de l’utilisation de l’approche small data.
  • En appliquant une formule de Bayes, sachant la production X=x de pièces défectueuses, on peut déterminer sa densité a posteriori la  densité

  • C’est une loi Beta (les lois binomiale et uniforme se conjuguent bien) dont l’espérance, x+1 / N+2, est notre estimation de p.

Ceci se généralise lorsque le nombre de classe passe de 2 (pièce défectueuse ou non) à K classes. L’estimation des probabilités pi est alors xi +1 / N+K pour i=1,…,K.

On pourra aussi introduire d’autres contraintes dans la modélisation et les estimations seront obtenus grâce à des simulations de Monte Carlo.

Pour les détails techniques sur ces résultats, on pourra se reporter au livre de Gilbert Saporta, Probabilités, Analyse des données et Statistiques, 2ème édition, Technip, 2006 et précisément les pages 317-319.

Évaluation des risques : attention aux interprétations

Définir le risque

Le mot « risque » serait issu de l’italien « risicare » signifiant « doubler un promontoire », puis ensuite « hasard qui peut causer une perte », donc la possible réalisation d’un événement défavorable.

Keynes précise que l’incertitude ne peut être appréciée sans lui adjoindre une part de subjectivité alors que le risque est une forme d’incertitude qui existe dans les lois de la nature, de la physique et qui peut être évalué à l’aide de probabilité objective. L’incertitude autour de la mesure d’une grandeur est un risque d’erreur probabilisable (c’est pour ce type d’incertitude qu’aurait été créée la loi de distribution normale). En finance, par exemple, l’incertitude autour de la valorisation d’une entreprise est soumise à la subjectivité humaine puisqu’aucune valeur de référence n’existe (au contraire de la position d’une étoile, même si on sait mal l’estimer).

L’évaluation des risques se représente souvent par la détermination de la probabilité de la réalisation d’un événement néfaste. Les exemples suivants, s’ils illustrent la démarche, donnent quelques signaux d’alertes dans l’interprétation des nombres.

 

Exemples en assurance

Selon Solvabilité 2, les fonds propres seraient déterminés afin qu’une faillite ne se produise qu’avec une probabilité 1/200 chaque année. Ceci est souvent traduit en affirmant que l’organisme d’assurance fera faillite une fois tous les 200 ans en moyenne. Voyons rapidement en quoi cette traduction est malheureuse. En effet, celle-ci suppose déjà que les exercices annuels sont indépendants ce qui est loin d’être vrais, les bons résultats d’une année créant un peu plus de fonds propres pour l’année suivante. Mais entrons un peu dans les détails mathématiques. En acceptant cette hypothèse d’indépendance, la probabilité d’un défaut la nème année de l’organisme vaut (1-0.5%)n-1 x (0.5%) (loi géométrique de paramètre 0.5%). L’espérance est bien 1/0.5% = 200 ans et son écart-type environ 199.5 ans. L’écart-type est du même ordre que la moyenne ce qui rend cette dernière peu informative. La probabilité d’occurrence du défaut au bout de 200 ans est extrêmement faible, environ 1.8 10-3. Il est plus envisageable de faire défaut avant. D’ailleurs l’année de défaut la plus probable est l’année n°1 !

Prenons un angle différent et considérons les 595 (selon l’ACPR en 2015) organismes d’assurance en France soumis à Solvabilité 2. Tous vont avoir une probabilité théorique 1/200 de faire défaut. Quelle est alors, pour une année donnée, la probabilité d’avoir au moins un défaut ? Si on suppose les organismes indépendants, ce qui est une hypothèse peu conservatrice, cette probabilité est proche de 95%. On peut également évaluer la probabilité d’avoir exactement 1, 2,…, 10 défauts,… par une loi binomiale de paramètres 595 et 1/200. Nous résumons ceci par le graphique ci-dessous.

6-distri_nb_defaut

La distribution totale nous indique que le nombre de défauts le plus probable est 2 et son espérance de défaut est proche de 3 défauts par an (avec un écart-type de 1.7).

Plus le temps passe, ou plus les épreuves sont importantes, plus il devient probable d’observer un événement, jugé impossible tellement sa probabilité est faible : la répétition presque indéfinie crée l’invraisemblance.

Poussons un peu plus loin la provocation. Il est relativement simple de construire un événement réaliste, pour le moment fictif, qui provoquerait la ruine d’une société d’assurance : par exemple un accident d’avion sur des installations nucléaires… Il est impossible en revanche d’estimer rigoureusement cette probabilité et d’affirmer qu’elle serait inférieure aux 0.5% à atteindre. Avec un tel niveau de gravité, les probabilités ne veulent pas dire grand-chose (voir également les réflexions de Nassim Taleb sur la détermination des petites probabilités).

Le small data, approche inspirée d’une vieille technique

Dans l’approche classique, la loi de probabilité du phénomène (accident, catastrophe naturelle, décès,…) est supposée parfaitement connue une fois estimée. L’estimation est fréquentiste, suppose que l’évènement est répétable à l’infini et ne fournit pas toujours d’intervalle de confiance. Les résultats ne sont alors qu’asymptotiques, on l’oublie trop souvent, hypothèse parfois peu réaliste dans des situations pratiques. Il en est de même des tests d’adéquation de loi, type chi deux, qui n’ont qu’une validité asymptotique, c’est-à-dire lorsque l’on a suffisamment (et pour cause !) de données pour caractériser parfaitement les lois en jeu.

Avec le small data, nous utilisons uniquement des outils probabilistes. En effet, les statistiques sont appropriées lorsque les lois de probabilités sont parfaitement identifiées et en cohérence avec le phénomène observé. Pour citer Daniel Schwarz : « La méthode statistique vise à induire, à partir d’un échantillon, des propriétés d’une population, parfois bien déterminée, mais souvent abstraite, forgée à l’image de l’échantillon », alors que « dans le calcul des probabilités, une démarche déductive permet au sein d’une population, des prédictions pour les échantillons qui en sont tirés au sort ». Les phénomènes qui nous intéressent ici, en particulier rares, n’ont pas de loi identifiée.

Ainsi, notre parti va être de construire une loi de probabilité en introduisant le minimum d’information factice et celle-ci sera enrichie à mesure que nous obtenons de l’information. Cet outil est bien connu, parfois controversé (mais sans volonté de polémique) : il s’agit de l’approche bayésienne. Ainsi, nous allons donc considérer que les lois de probabilités que nous cherchons à identifier sont elles-mêmes aléatoires.

Une probabilité étant une fonction à valeurs dans [0,1], en l’absence d’information plus précise à ce stade, et pour tenir compte de l’incertitude, il est naturel de supposer qu’elle suit une loi uniforme sur cet intervalle. Cette hypothèse est assez classique et nous la retrouvons chez de nombreux auteurs. Son origine remonterait à Laplace et ses travaux connus sous le nom de loi de succession de Laplace, qui explique que pour un phénomène non démontré, mais seulement observé, la probabilité qu’il se produise à nouveau est N+1 / N+2 si N est le nombre de réalisations antérieures.

Cette approche présente enfin l’avantage de pouvoir tenir compte d’une opinion exogène provenant par exemple d’une caractéristique admise grâce à l’observation d’un phénomène analogue. Nous disposons maintenant de notre outil de base pour traiter les données rares, le small data, outil aux applications multiples, notamment pour l’estimation de loi de probabilité en assurance.

Références :

Beauzamy Bernard, Méthodes probabilistes pour l’étude des phénomènes réels, SCMSA, 2004

Dacunha-Castelle Didier, Chemins de l’aléatoire, Champs Flammarion, 2002

Dacunha-Castelle Didier, Duflo Marie, Probabilités et Statistiques, 1. Problèmes à temps fixes, éd. Masson, coll. Math. Appl. pour la Maîtrise, 1982 (rééd. 1990)

Jacquard Albert, Les probabilités, Que sais-je ? n°1571, PUF, 2000

Laplace Pierre Simon, Théorie analytique des probabilités, 1812 (1ère édition)

Saporta Gilbert, Probabilités, Analyse des données et Statistiques, 2ème édition, Technip, 2006

Schwarz Daniel, Le jeu de la science et du hasard, Champs Flammarion, 1999

Le small data ou la fin des lois de probabilités artificielles

Le monde réel est limité

Dans un cadre d’univers borné, un phénomène réel est par nature limité : les valeurs observées ont des bornes maximales et minimales (pas toujours observables). Cette simple remarque devrait éliminer d’office toute modélisation par des lois de probabilité à support infini. Malheureusement, beaucoup de praticiens semblent attachés à ces distributions de probabilité alors pour ne pas trop s’en éloigner, ils sont amenés à les tordre en les tronquant ce qui induit d’autres difficultés, calculatoire notamment.

Stop aux réflexes inadaptés

D’autres d’habitudes peu rigoureuses nous tiennent au corps, comme par exemple la recherche d’une loi de probabilité académique dès que la loi de Gauss ne fonctionne pas, sans même tenter de rechercher la loi de distribution « réelle ». Cette simplification est acceptable dans une phase exploratoire, qui doit être suivie d’une seconde qui discute des hypothèses sous-jacentes. L’analyse ne peut s’abstenir d’une véritable démarche scientifique même si son cadre de travail est le monde réel et l’entreprise.

Trop souvent, les outils mathématiques existants sont utilisés de manière brute sans souci de leur validité. Cela peut se produire par exemple avec le test asymptotique du chi deux ou lorsqu’on utilise un modèle de régression sans avoir contrôlé la stationnarité des données ou des résidus. Les attentats du 11 septembre 2001 ont également révélé aux assureurs que leurs hypothèses d’indépendance de certaines branches d’activité étaient abusives.

Particulièrement pour les phénomènes extrêmes (ou rares), l’utilisation des lois paramétriques (loi GEV par exemple) s’est répandue sans justification scientifique poussée, l’argument principal étant la maniabilité. Le faible nombre de paramètres dont elles dépendent permet une calibration au phénomène étudié avec un faible nombre de données à disposition. Or les phénomènes réels auxquels s’exposent les entreprises nécessitent un soin plus approfondi et des lois de probabilité adaptées.

D’autres l’ont déjà dit

Nicolas Bouleau explique à ce sujet : « Ayant observé durant une période d’un siècle dans une certaine région des enregistrements sismiques de magnitude comprise entre 0 et 2, est-il possible d’en déduire avec quelle probabilité se produira un séisme d’une magnitude supérieure à 4 ? A un problème ainsi posé, rares seraient ceux qui répondrait par l’affirmative, néanmoins l’usage de plus en plus répandu dans le milieu des ingénieurs de procédures rapides utilisant les lois des valeurs extrêmes conduit à des affirmations de ce type, dont l’enjeu socio-politique est important notamment par l’habit de scientificité qui leur est donné. Après avoir rappelé les fondements de la théorie des lois des valeurs extrêmes et relevé quelques-unes des hypothèse cruciales, difficiles à vérifier en pratique, qui la sous-tendent, nous montrons que la méthode qui consiste à caler les paramètres d’une des trois lois de valeurs extrêmes à partir des extrêmes d’un échantillon fini dont la loi est mal connue, est fortement encouragée par la pression sociale de quantifier les risques graves d’autant plus que tels errements, par la rareté même des événements considérés sont peu réfutables. » [Bouleau Nicolas, Splendeurs et misères des lois de valeurs extrêmes, Risques, 3, 1991, p.85-92].

Puis il poursuit : «  […] toute démarche attribuant une valeur numérique précise pour la probabilité d’un phénomène rare est suspecte, sauf si les lois physiques régissant le phénomène sont explicitement et exhaustivement connues ».

Ces phénomènes ne peuvent donc simplement se résumer par un seul nombre et le croire promet des interprétations douteuses et donc dangereuses lorsque son utilisation se généralise au sein de la société.

Osons !

Engager des changements de méthodes est compliqué. Même lorsque les interlocuteurs entendent les défauts de leurs pratiques, ils se réfugient derrière un comportement conformiste, arguant que leurs voisins font comme eux. Il leur est trop dangereux de ne pas agir ou penser comme le reste du troupeau. Effectivement, pendant de nombreux siècles, notre civilisation a cru notre planète au centre du monde et que le Soleil lui tournait autour. Pourtant, comme le dit Warren Buffet : « vous n’avez jamais raison ou tort parce que les autres sont d’accord avec vous, vous avez raison parce que vos données sont exactes et votre raisonnement juste ».

Il faut donc oser. Oser ne pas simplifier par l’utilisation de résultats académiques, pratiques d’un point de vue calculatoire, mais possiblement dévastateur car leurs hypothèses ne sont pas satisfaites. C’est possible car il existe d’autres manières moins contestables scientifiquement pour analyser les problèmes qui se présentent dans le monde réel.

Le risque dépendance

Le terme dépendance s’applique aux personnes dépendant d’une aide extérieure. La perte d’autonomie avant 60 ans relève du handicap. Ici nous discutons des personnes âgées.

Mesure du risque : grille AGGIR (Autonomie Gérontologie Groupes Iso-Ressources)
Cette grille définie des groupes homogènes de personnes nécessitant les mêmes ressources. C’est une approche franco-française, il existe d’autres outils internationaux : Activités de la Vie Quotidienne (AVQ), Activités Instrumentales de la Vie Quotidienne (AIVQ).
L’évaluation de la perte d’autonomie de la personne en identifiant ce qu’elle fait ou pas. Des variables sont codifiées A fait seul, B fait partiellement, C ne fait pas, pour donner un GIR de 1 (les plus dépendants) à 6 peu dépendants. Il existe un manuel de codage afin d’uniformiser les appréciations mais le résultat dépendra tout de même de qui codifie…

Régime de base, l’APA (Aide Personnalisée d’Autonomie), créée en 2001
Elle est accordée aux GIR de 1 à 4 et régie par le code de l’action sociale et des familles. Les GIR 5 et 6 peuvent obtenir une aide sociale de la part des caisses de retraites).
Gérée et payée par les conseils généraux (les départements), c’est une prestation en nature adaptée aux besoins identifiés de prise en charge.
D’autres conditions sont requises pour la percevoir : résider en France, être âgé de plus de 60 ans (prestation liée à la vieillesse).
On peut remarquer que c’est une prestation hybride : entre l’aide sociale (prestation en nature, spécialisée, par le département) et la prestation universelle (égalitaire, sans condition de ressources, non subsidiaire à l’obligation alimentaire).

L’APA à domicile
Le GIR et le besoin d’aide sont évalués par le service médico-social du département. Un plan d’aides (humaine, technique, en logement) est défini ainsi que son financement : plafond selon GIR (1312€ en GIR 1 en 2010), participation financière de la personne selon ses ressources, adaptation selon l’entourage.

L’APA en établissement, les EHPAD (Etablissement d’Hébergement des Personnes Agées Dépendantes)
Le financement est réparti selon la comptabilité analytique suivante : l’hébergement est payé par la personne (au moins 1500€/mois), la dépendance est financée par l’APA (avec un talon correspond aux niveaux GIR 5 et 6 à charge de la personne), les soins sont pris en charge par l’assurance maladie.

Au total, il y a environ 1 million de bénéficiaires dont 65% à domicile (chiffres de 2007).

La Caisse Nationale de Solidarité pour l’Autonomie (CNSA)
Elle finance l’aide pour la perte d’autonomie (handicapés et personnes âgées), assure un traitement égalitaire sur tout le territoire et une expertise, répartir un budget de 21G€ dont 1/3 environ pour l’APA en soutient aux départements.

Couverture Privée
5.5M de personnes sont couvertes (dont 3.6M par les mutuelles, chiffre de 2010).
Le montant de cotisations est de 538M€ pour 166M€ de prestations, caractéristiques d’un risque long en début de fonctionnement.
Les principaux acteurs sont la MGEN et la Mutuelle Générale.

 

Assurance n°24 Provisions techniques, généralités

Les provisions techniques représentent les engagements de l’assureur et sont :
– suffisantes pour le règlement intégral de ces engagements vis à vis des assurés, des entreprises réassurées et bénéficiaires de contrats
– calculées sans déduction des réassurances cédées à des entreprises (i.e. brutes de réassurance)

Elles sont un des 3 grands éléments du passif d’une entreprise d’assurance. Pour rappel, on y trouve 3 grands types d’engagement de caractéristiques différentes :
1. Fonds propres (ou capital social), engagement envers les actionnaires ou les sociétaires
2. Dette, engagement de montant connu, dû non immédiatement aux créanciers. La maturité est connue, le bénéficiaire pas toujours.
3. Provisions techniques : engagement (dette) sans avoir la connaissance ni du montant, ni de la date de paiement.
Le terme provision signifie « anticipation de charges », le terme technique rapporte à l’activité d’assurance i.e. en relation avec les assurés (non technique pour les autres activités). Ce sont environ 60 à 70% du passif en assurance non vie, plus de 80% en assurance vie.