Small data en assurance non vie : prévision de risques d’intensité jamais observée

Cet article prolonge directement le précédent : estimation d’une distribution d’événements extrêmes en assurance non vie. Il s’agit maintenant d’estimer la possibilité qu’un événement jamais observé se réalise.

Pour rappel, nous avons modélisé les données fournies dans le tableau ci-dessous correspondant à la fréquence d’évènements extrêmes en sinistre auto :

Afin d’estimer la probabilité d’évènements non observés, nous ajoutons une classe de risque « 6401 et + » dans la modélisation de la distribution. Evidemment, la fréquence empirique pour cette classe est nulle.

Dans le cas de l’utilisation d’une loi paramétrique, bien que les hypothèses changent, il s’agit d’un simple prolongement sur les nouvelles classes. Nous prolongeons donc la loi de Pareto sur ce nouveau support.

Dans le cas bayésien, puisque le cadre présente un nouveau contexte, on s’y adapte : le  modèle est bien différent de celui de l’article précédent, les calculs doivent être reconduits dans ces nouvelles conditions.

Les différentes estimations sont présentées ci-dessous.

On peut encore juger de la meilleure cohérence avec les données dans ce cadre. La probabilité de l’échantillon est sous l’approche bayésienne 0,0406% vs 0,014% sous Pareto.

Toutefois, faire des comparaisons, c’est bien mais cela ne suffit pas pour s’imposer. L’approche bayésienne a d’abord un intérêt par ce qu’elle n’a pas les défauts des approches paramétriques :

  • Si une loi ne convient, on ira en piocher une autre dans notre sac à loi. Ce choix est factice car la loi existe déjà pour modéliser un autre problème et on espère l’utiliser, la caler, pour un nouveau phénomène.
  • Les techniques de calibration ne sont pas uniques et chacune pourra donner des résultats différents
  • Et enfin ces approches éliminent l’incertitude en considérant la loi obtenue comme exacte. Les données sont oubliées.

Tous ces défauts qui plaident pour l’approche bayésienne dans un contexte de données rares, ce que j’ai appelé le small data, dont les avantages sont :

  • une information minimale
  • Prise en compte d’avis d’expert
  • Prise en compte des classes sans observations
  • On conserve l’incertitude de l’estimation. Dans notre exemple, on peut calculer des écart-types (on dispose en réalité de toute la distribution pour chaque probabilité) :
  • Souplesse de la méthode
  • Un modèle vraiment dédié au problème étudié
  • Pas de calibrage

On pourrait penser que cet article et les précédents ne font que relancer l’éternel débat pour ou contre bayésien. En réalité, nous avançons dans ce débat car nous proposons un choix systématique de loi a priori afin de refléter notre absence d’information initiale et nous mettons de côté l’utilisation de loi conjuguée puisque l’approche par simulations de Monte Carlo nous permet d’obtenir des résultats sans se soucier d’une facilité quelconque de calcul.

L’enrichissement de l’information que permet l’approche bayésienne au fur et à mesure que de nouvelles observations sont disponibles nous rapproche également d’une technique ancienne remise au goût du jour par un nouveau vocabulaire : le « machine learning » qui consiste à savoir bien extraire l’information à partir de l’observation de phénomènes suffisamment stationnaires.

 

Pour rappel, quelques références sur l’approche bayésienne :

  • Beauzamy Bernard, Méthodes probabilistes pour l’étude des phénomènes réels, SCMSA, 2004
  • Beauzamy Bernard, Méthodes Probabilistes Pour La Gestion Des Risques Extrêmes, SCMSA, 2016
  • Dacunha-Castelle Didier, Chemins de l’aléatoire, Champs Flammarion, 2002
  • Dacunha-Castelle Didier, Duflo Marie, Probabilités et Statistiques, 1. Problèmes à temps fixes, éd. Masson, coll. Math. Appl. pour la Maîtrise, 1982 (rééd. 1990)
  • Jacquard Albert, Les probabilités, Que sais-je ? n°1571, PUF, 2000
  • Laplace Pierre Simon, Théorie analytique des probabilités, 1812 (1ère édition)
  • Saporta Gilbert, Probabilités, Analyse des données et Statistiques, 2ème édition, Technip, 2006
  • Schwarz Daniel, Le jeu de la science et du hasard, Champs Flammarion, 1999
Publicités

Assurances : maitriser le hasard lié aux phénomènes réels, mais pas seulement

Un zeste d’histoire

Dès l’antiquité, on trouve des traces d’assistance mutuelle : chacun apporte une petite somme au sein d’une association pour porter secours ou soutenir lors de la réalisation de certains événements. Mais c’est avec le développement du transport maritime que se met en place les prêts à la grosse aventure d’abord chez les Grecs et les Romains, plus généralement à partir du 12ème siècle, transformé ensuite, après un interdit papal, en garantie sur la valeur d’un navire et de sa marchandise apportée en échange du versement préalable d’une somme plus petite. De cette époque nous reste les termes police, qui signifie alors preuve (de l’existence du contrat), assurance qui vient de l’assurete c’est-à-dire la garantie, et prime, la somme payée en avance étant dénommée praemium.

Côté assurance vie, c’est à Londres en 1762 que s’installe la première société d’assurance vie fondée sur les tables de mortalité, The Equitable Life Assurance Society. Ce développement est possible grâce aux travaux de Blaise Pascal et sa géométrie du hasard en 1654, puis de l’astronome Halley sur les premières tables de mortalité en 1693 alors qu’en Italie, les premières tontines voient le jour en 1652.

De ces pratiques, il a été vite compris qu’un assureur doit préférer un grand nombre de risques de peu d’importance à un petit nombre de gros risques. Il se trouve dans le cas d’un jeu de durée non finie contre un partenaire beaucoup plus riche (l’ensemble de ces assurés), ce qui implique pour éviter sa ruine (certaine) que le jeu ne soit pas équitable, donc que la prime soit majorée. C’est la même chose pour les casinos et la française des jeux, mais ceux-là vendent de l’espoir en suggérant un risque factice, les assureurs vendent de la sécurité contre un risque effectif du monde réel.

 

L’utilité sociale de l’assurance

Car l’assurance s’occupe de phénomènes réels. Et ceux-ci sont souvent accompagnés d’une composante humaine. Prenons un exemple socialement délicat. Aujourd’hui, de nombreuses habitations sont situées en zone inondable. Il n’y a pas d’aléa : la zone sera inondée un jour ou l’autre. Selon la théorie assurantielle, ces habitations ne peuvent donc bénéficier d’une garantie classique contre les inondations car seuls les événements incertains sont assurables. (en revanche, il existe un aléa concernant la date de survenance du sinistre, comparable à l’assurance vie où le décès est certain, mais son apparition inconnue). C’est pourquoi l’assurance va au-delà des principes probabilistes par une gestion sociale de certains risques en organisant des fonds de garantie alimentés de manière forfaitaire, c’est-à-dire sans lien (puisque prélevé sur un ensemble de contrats, tous risques confondus) dans le cas des inondations, avec la topographie du lieu pouvant bénéficier de la garantie.

 

Évaluation des risques : attention aux interprétations

Définir le risque

Le mot « risque » serait issu de l’italien « risicare » signifiant « doubler un promontoire », puis ensuite « hasard qui peut causer une perte », donc la possible réalisation d’un événement défavorable.

Keynes précise que l’incertitude ne peut être appréciée sans lui adjoindre une part de subjectivité alors que le risque est une forme d’incertitude qui existe dans les lois de la nature, de la physique et qui peut être évalué à l’aide de probabilité objective. L’incertitude autour de la mesure d’une grandeur est un risque d’erreur probabilisable (c’est pour ce type d’incertitude qu’aurait été créée la loi de distribution normale). En finance, par exemple, l’incertitude autour de la valorisation d’une entreprise est soumise à la subjectivité humaine puisqu’aucune valeur de référence n’existe (au contraire de la position d’une étoile, même si on sait mal l’estimer).

L’évaluation des risques se représente souvent par la détermination de la probabilité de la réalisation d’un événement néfaste. Les exemples suivants, s’ils illustrent la démarche, donnent quelques signaux d’alertes dans l’interprétation des nombres.

 

Exemples en assurance

Selon Solvabilité 2, les fonds propres seraient déterminés afin qu’une faillite ne se produise qu’avec une probabilité 1/200 chaque année. Ceci est souvent traduit en affirmant que l’organisme d’assurance fera faillite une fois tous les 200 ans en moyenne. Voyons rapidement en quoi cette traduction est malheureuse. En effet, celle-ci suppose déjà que les exercices annuels sont indépendants ce qui est loin d’être vrais, les bons résultats d’une année créant un peu plus de fonds propres pour l’année suivante. Mais entrons un peu dans les détails mathématiques. En acceptant cette hypothèse d’indépendance, la probabilité d’un défaut la nème année de l’organisme vaut (1-0.5%)n-1 x (0.5%) (loi géométrique de paramètre 0.5%). L’espérance est bien 1/0.5% = 200 ans et son écart-type environ 199.5 ans. L’écart-type est du même ordre que la moyenne ce qui rend cette dernière peu informative. La probabilité d’occurrence du défaut au bout de 200 ans est extrêmement faible, environ 1.8 10-3. Il est plus envisageable de faire défaut avant. D’ailleurs l’année de défaut la plus probable est l’année n°1 !

Prenons un angle différent et considérons les 595 (selon l’ACPR en 2015) organismes d’assurance en France soumis à Solvabilité 2. Tous vont avoir une probabilité théorique 1/200 de faire défaut. Quelle est alors, pour une année donnée, la probabilité d’avoir au moins un défaut ? Si on suppose les organismes indépendants, ce qui est une hypothèse peu conservatrice, cette probabilité est proche de 95%. On peut également évaluer la probabilité d’avoir exactement 1, 2,…, 10 défauts,… par une loi binomiale de paramètres 595 et 1/200. Nous résumons ceci par le graphique ci-dessous.

6-distri_nb_defaut

La distribution totale nous indique que le nombre de défauts le plus probable est 2 et son espérance de défaut est proche de 3 défauts par an (avec un écart-type de 1.7).

Plus le temps passe, ou plus les épreuves sont importantes, plus il devient probable d’observer un événement, jugé impossible tellement sa probabilité est faible : la répétition presque indéfinie crée l’invraisemblance.

Poussons un peu plus loin la provocation. Il est relativement simple de construire un événement réaliste, pour le moment fictif, qui provoquerait la ruine d’une société d’assurance : par exemple un accident d’avion sur des installations nucléaires… Il est impossible en revanche d’estimer rigoureusement cette probabilité et d’affirmer qu’elle serait inférieure aux 0.5% à atteindre. Avec un tel niveau de gravité, les probabilités ne veulent pas dire grand-chose (voir également les réflexions de Nassim Taleb sur la détermination des petites probabilités).

Comment construire un portefeuille d’actifs sous contrainte ?

Place du processus d’optimisation dans la construction de portefeuille

Un portefeuille est constitué d’actifs et est complètement défini par le poids de ces actifs à un instant donné. Nous supposons qu’il est autofinancé : il n’y a pas de liquidité extérieure qui viennent le renflouer entre deux instants d’observation. L’optimisation consiste à trouver le poids de chaque actif en fonction d’anticipations et de conditions plus ou moins fortes d’investissement.

Les étapes de construction de portefeuilles sont les suivantes :

  1. horizon de gestion, univers d’investissement (notamment finesse : classe d’actifs, instruments,…) et contraintes de l’investisseur (s’il y en a)
  2. Accord sur la manière de gérer le portefeuille : choix d’un processus de gestion (allocation strétégique ou non, phase tactique, rebalancements,…)
  3. Estimation d’anticipation sur un horizon (identique ou inférieur à l’horizon de gestion) sur les composants de l’univers, en général performance et risque (souvent volatilité) mais cela dépend du modèle d’optimisation choisi.
  4. Intégration des anticipations dans un modèle d’optimisation prenant en comptes toutes les contraintes. C’est le point que l’on va préciser dans cette note.
  5. Implémentation du portefeuille réel de départ (montée en charge, reprise de portefeuille ou non,…).
  6. Surveillance et choix tactiques en cours de vie.

 

Fonction d’utilité et critères

Nous considérons deux grandes problématiques de construction de portefeuilles : lorsque tous les actifs appartiennent à une même classe : ils sont donc dans la même catégorie de risque ; et lorsque plusieurs classes d’actifs entre en jeu : il y a alors un actif moins risqué que les autres (voire sans risque).

Dans le second cas, le portefeuille de risque minimum n’a pas d’intérêt et implique d’avoir des critères supplémentaires qui limitent la quantité d’actifs faiblement risqués.

Les critères vont être des contraintes sur les poids a priori (pas de vente à découvert, poids maximal d’une catégorie d’actifs) ou sur les caractéristiques du portefeuille (espérance minimale, VaR, tracking error, etc.). La fonction d’utilité est aussi l’une des caractéristiques du portefeuille qui est maximisée (en général l’espérance de performance) ou minimisée (un risque) si cela a un sens.

 

Un modèle souple et riche

Le modèle doit pouvoir s’ajuster à la plupart des contraintes de l’investisseur externe. L’approche par simulations de Monte Carlo (ou par scénarios) se prête bien à ce besoin. La mise en place de ce modèle se fait à travers les étapes suivantes :

  1. Choix des techniques de simulations des actifs marginaux : modèle à facteur, modèle direct, bootstrap,…
  2. Choix des techniques de modélisation des dépendances entre actifs : corrélations, copules, approche dynamique ou non,… ou approche multi variée globale.
  3. Simulations de portefeuilles dont les poids respectent les contraintes fixées a priori
  4. Choix du meilleur portefeuille parmi tout ceux simulés en fonction de la distribution de chacun

 

On peut utiliser deux outils similaires dans la production des résultats mais différents dans la manière de simuler les actifs :

Le premier a une approche modèle + copules, qui a une version bis à modèles économétriques avancées (plus précis mais plus lent). Les modèles sont soit issus de la littérature, soit développés en interne, soit enfin issu d’une procédure d’identification à la Box-Jenkins avec un choix de copules.

Le second utilise le bootstrap par bloc qui a l’avantage de capter totalement la structure de risque des actifs les uns par rapport aux autres. Cette méthode semble fournir des portefeuilles plus robustes (i.e. moins sensible aux incertitudes des paramètres) que les optimisations « à l’aveugle ».

La calibration est un mixte des anticipations et, lorsque le paramétrage le nécessite, d’une estimation historique.

L’approche permet de comparer toutes les allocations simulées. Conditionnellement aux paramètres, nous pouvons aisément choisir, par simple comparaison le portefeuille le plus adapté sur la période étudiée. L’avantage principal réside dans la diversité et la multiplicité des critères de choix que nous pouvons utiliser, en particulier sur des horizons de temps différents (par exemple à 3 mois et un an).

Les critères sont le plus souvent (implicitement) imposés : VaR 95% >0 par exemple, volatilité inférieure à 10%,… Puis parmi ces portefeuilles, on choisi celui dont la performance (moyenne, médiane, ou autres) est maximale.

Lorsque le critère n’est pas imposé, nous choisissons d’optimiser le ratio de Sharpe, pour deux raisons :

– c’est une mesure tenant compte à la fois de la performance et d’un risque

– la maximisation du ratio de Sharpe implique de minimiser la probabilité d’avoir une performance inférieure à celle du taux sans risque. Ce résultat est universel et indépendant des modèles choisis. De plus cette minimisation reste le critère le plus naturel de tout investisseur prêt à prendre du risque « à condition » qu’il soit rémunérateur.

Le régime Cat Nat

Textes de référence : Loi en 1982 (suite aux inondations de la Saône fin 1981). Articles L125-1 et suivants du code des Assurances.

1. Fonctionnement assurantiel du régime
a/ C’est une garantie en cas de dommages matériels directs et non assurables ayant pour cause l’intensité anormale d’un agent naturel :
– matériels (et non corporels) à concurrence de leur valeur fixée et dans les limites et conditions du contrat socle.
– directs (et non les conséquences comme par exemple liés à une coupure d’électricité lors d’une inondation)
– non assurables : pas de liste, évolue avec le marché. Exemples de périls : inondations, coulées de boue, séisme,… Par opposition, sont assurables grêle, gel, poids de la neige, TOC

b/ assurance non obligatoire mais imposée (= extension obligatoire) dans les contrats de dommages aux biens (hors récolte, véhicules aériens ou maritimes) sauf forme de clauses types obligatoires incluses aux contrats socles :
– garantie illimitée dans les limites des contrats socles (valeurs, exclusions,…)
– les biens non assurés contre incendie (terrains, clôtures, ponts, routes,…) sont exclus de la garantie cat nat
– il existe un système spécifique pour les calamités agricoles (d’où hors cat nat)
– couvre la perte d’exploitation (si au contrat socle)

c/ financement par taux de prime appliquée à la prime du contrat socle (6% pour véhicule terrestre hors RC, 12% pour les autres).
Si refus d’assurance (faculté de l’assureur si réalisation du sinistre) : BCT

d/ franchises obligatoires, uniformes, non rachetables.
Générale [subsidence], non pro 380€ [1520€], pro 10% dommages (min 1140€) [3050€], pro perte d’exploitation 3 jours ouvrés min 1140€ [3050€].
Franchises modulables à la hausse pour les communes sans plan de prévention.

e/ Gestion des contrats et sinistres
Par les assureurs après reconnaissance de l’Etat de cat nat par arrêté interministériel suite à demande communale.
Puis expertises (lien de causalité), indemnisation après abattements et franchises.
Problème de la subsidence car des arrêtés peuvent être pris après plusieurs années.
Provision pour Egalisation (PE) : constituée en franchise d’impôt (sur 10 ans) pour charges exceptionnelles

2. Réassurance
– possible mais non obligatoire
– CCR avec garantie de l’Etat seule à proposer sans plafond
– CCR 95% de ce marché (=760M€ sur 1.26G€ de CA en 2013), pas de monopole
– CCR gère fond national de gestion des risques en agriculture, fond de prévention des risques naturels majeurs (expropriation préventive suite à Xynthia notamment)

Schéma de réassurance. 2 niveaux : QP 50/50 en % du CA (= montant de primes cat nat) puis stop loss sur la part conservée par la cédante (franchise, = plafond S/P, en % du CA cat nat, par exemple 200%, sans plafond).
Appel de l’Etat en garantie si charge sinsitre > 90%  de la PE.
Exemple : CA 1M€. Si Sinistres 50K€, Assureur 25K€, Réassureur 25K€.
Si sinistres = 10 M€, Assureurs 5M€ / Réassureurs 5M€ puis Comme 5M€ / 1 M€ > 2, la réassurance ramène à 2 / 1 M€ en prenant en charge 3 / 1 M€

Sinistralité, en % des communes : inondations 59% (arrêtés) et coût 58%, sécheresse 9% et 38% des coûts.

3. Au global, régime hybride, mi privé (assurance), mi public (réassurance)
En Europe. Allemagne et Italie, Etat (ponctuel ou permanent). GB privé, Etat très limité. Espagne monopole de l’Etat.
Australie, Canada, certains états us : hybride comme en France.

Projet de réforme : plus de transparence, incitation à la prévention et aux comportements responsables (renforcement lien indemnisation/prévention)

Réassurance

Besoin de réassurance
Menace de la mutualité des assurés malgré homogénéité, dispersion ou division des risques : cumuls de risque, statistiques passées et sinistres d’ampleur exceptionnelle. La réassurance est une autre forme de répartition des risques.

Définition
Opération par laquelle un réassureur s’engage auprès d’un assureur à prendre en charge, moyennant rémunération, tout ou partie des sommes dues aux assurés en raison de sinistres. C’est un transfert de risque, (au contraire de la coassurance qui est un partage des risques).

Le rôle des courtiers est important (conseil et courtage). Le schéma suivant définit quelques termes usuels.

Reassurance1

Caractéristiques juridiques
1. droit de réassurance = droit coutumier (non écrit). Le droit du contrat d’assurance ne s’applique pas mais le code civil et les relations de bonne foi.
2. l’assureur direct reste seul responsable vis à vis de ses assurés qui ne connaissent pas le réassureur.
3. les litiges sont résolus par des arbitres (clause compromissoire de renoncement à un juge)
4. la réassurance s’effectue sur un ensemble de contrats d’où l’emploi des termes « traité » ou « convention » de réassurance.
5. contrôle par l’ACPR depuis 2008 + agrément administratif

3 modes de réassurance
Avant même de pratiquer une nouvelle branche d’assurance, recherche de réassureurs. La relation commerciale entre assureurs et réassureurs distingue 3 formes :

1. réassurance facultative :
l’assureur propose le risque, le réassureur accepte ou non (note de couverture). Se pratique pour de grands risques (dépassement de capacité de souscription, risques industriels par exemple), des risques spéciaux ou technologiques (plateformes pétrolières).
Inconvénients :
– Pour l’assureur : couverture de réassurance avant souscription du risque, gestion risque par risque d’où une lourdeur.
– pour le réassureur : risque d’anti-sélection (compensé par la possibilité de refus), nécessite une bonne connaissance du risque.

2. réassurance facultative-obligatoire (fac-ob). Peu courante. L’assureur propose, le réassureur accepte obligatoirement, pour une catégorie de risque, sur une période donnée. Accord général (et non un risque particulier).
Intérêts :
– pour l’assureur : rapide, pas de contrôle d’antisélection par le réassureur
– pour le réassureur : obtient l’exclusivité de la réassurance et donc une bonne connaissance du risque

3. réassurance obligatoire : le cas le plus courant. Sur un exercice, pour une catégorie de risque.
Simplicité de gestion, pas d’anti-sélection. Engagement selon le sérieux de la cédante et statistiques.

Catégories de traités de réassurance
1. proportionnelle (selon capitaux assurés)
cède une proportion de prime et réassureur accepte une même proportion de risque. Le réassureur verse une commissionpour participer aux frais (acquisition, gestion) négociée dans le traité (fixe ou à échelle).
– en quote part : proportion cédée de tous les risques (et même proportion des primes). Profil portefeuille stable mais engagement réduit. Montant de primes cédées important. Utile pour démarrage d’activité avec soutien.
– en excédent de plein : pour chaque catégorie Sinistre Maximum Possible SMP et plein (de rétention/de conservation). QP cédée = excédent de plein de la catégorie / capitaux assurés = (capitaux assurés – plein)+ / capitaux assurés. Engagement limité sans céder les petits risques mais estimation du plein difficile. Attention, le proportion est différente pour chaque catégorie de risque en fonction de l’éxcédent de plein.

2. non proportionnelle (selon montant des sinistres)
Engagement du réassureur de payer certains montants selon la réalisation d’un événement d’un sinistre, une perte (notion de seuil)
– en excédent de sinistre
L’assureur définit la priorité (i.e. le montant max de sinistres assurés).
Au delà de ce seuil, le réassureur prend en charge dans la limite d’un plafond.
Portée = étendue de l’engagement du réassureur. Plafond = priorité + portée.
Exemple  100 XS 50 : priorité = 50, portée = 100
Soit sinistre/sinistre, soit par événement (= somme de sinistres). L’événement consomme de la garantie reconstituée selon les conventions (gratuite, tel tarif,…)
– en excédent de perte (stop loss)
Assureur fixe un seuil plafond pour son rapport Sinistres / Primes. Le réassureur prend en charge au delà de ce seuil. Permet une protection de l’assureur pour une catégorie (par exemple grêle).

Marché de la réassurance
SCOR, CCR, une centaine de réassureur dans le monde.
CA assurance 4600G$ vs CA réassurance 230G$ (en 2012)
Taux de cession 8% en dommages, 2.2% en santé

 

Le risque dépendance

Le terme dépendance s’applique aux personnes dépendant d’une aide extérieure. La perte d’autonomie avant 60 ans relève du handicap. Ici nous discutons des personnes âgées.

Mesure du risque : grille AGGIR (Autonomie Gérontologie Groupes Iso-Ressources)
Cette grille définie des groupes homogènes de personnes nécessitant les mêmes ressources. C’est une approche franco-française, il existe d’autres outils internationaux : Activités de la Vie Quotidienne (AVQ), Activités Instrumentales de la Vie Quotidienne (AIVQ).
L’évaluation de la perte d’autonomie de la personne en identifiant ce qu’elle fait ou pas. Des variables sont codifiées A fait seul, B fait partiellement, C ne fait pas, pour donner un GIR de 1 (les plus dépendants) à 6 peu dépendants. Il existe un manuel de codage afin d’uniformiser les appréciations mais le résultat dépendra tout de même de qui codifie…

Régime de base, l’APA (Aide Personnalisée d’Autonomie), créée en 2001
Elle est accordée aux GIR de 1 à 4 et régie par le code de l’action sociale et des familles. Les GIR 5 et 6 peuvent obtenir une aide sociale de la part des caisses de retraites).
Gérée et payée par les conseils généraux (les départements), c’est une prestation en nature adaptée aux besoins identifiés de prise en charge.
D’autres conditions sont requises pour la percevoir : résider en France, être âgé de plus de 60 ans (prestation liée à la vieillesse).
On peut remarquer que c’est une prestation hybride : entre l’aide sociale (prestation en nature, spécialisée, par le département) et la prestation universelle (égalitaire, sans condition de ressources, non subsidiaire à l’obligation alimentaire).

L’APA à domicile
Le GIR et le besoin d’aide sont évalués par le service médico-social du département. Un plan d’aides (humaine, technique, en logement) est défini ainsi que son financement : plafond selon GIR (1312€ en GIR 1 en 2010), participation financière de la personne selon ses ressources, adaptation selon l’entourage.

L’APA en établissement, les EHPAD (Etablissement d’Hébergement des Personnes Agées Dépendantes)
Le financement est réparti selon la comptabilité analytique suivante : l’hébergement est payé par la personne (au moins 1500€/mois), la dépendance est financée par l’APA (avec un talon correspond aux niveaux GIR 5 et 6 à charge de la personne), les soins sont pris en charge par l’assurance maladie.

Au total, il y a environ 1 million de bénéficiaires dont 65% à domicile (chiffres de 2007).

La Caisse Nationale de Solidarité pour l’Autonomie (CNSA)
Elle finance l’aide pour la perte d’autonomie (handicapés et personnes âgées), assure un traitement égalitaire sur tout le territoire et une expertise, répartir un budget de 21G€ dont 1/3 environ pour l’APA en soutient aux départements.

Couverture Privée
5.5M de personnes sont couvertes (dont 3.6M par les mutuelles, chiffre de 2010).
Le montant de cotisations est de 538M€ pour 166M€ de prestations, caractéristiques d’un risque long en début de fonctionnement.
Les principaux acteurs sont la MGEN et la Mutuelle Générale.

 

Réduction du risque de taux

Le SCR de taux Solvabilité 2 met en évidence les écarts de duration entre les investissements et les engagements (en particulier les taux garantis et les taux techniques des différents contrats) mais également les écarts sur chaque segment de la courbe de taux. Il est en effet courant pour des engagements de retraite que les actifs détenus par les assureurs aient une duration plus faible que leur passif (ou inversement en assurance dommage), cet écart focalisant toute l’attention. Ne pas tenir compte de mouvements de la courbe de taux plus complexes que la simple translation implique des risques de pertes liés à la convexité et des coûts en termes d’immobilisation de capital.

Une première solution, évidente, est de modifier son portefeuille obligataire en allongeant ou réduisant les maturités des titres détenus. Toutefois, des ventes peuvent entraîner des mouvements indésirables sur la réserve de capitalisation. Dans ce cas, l’utilisation de produits dérivés pourra être plus appropriée.

L’objectif est de modifier la duration de l’obligation en la combinant avec un swap de taux qui échange un taux fixe contre un taux flottant ou vice versa. En effet, on rappelle que la duration d’une obligation à taux flottant est très faible. Si l’on souhaite augmenter la duration, il faut recevoir le coupon à taux fixe et payer le taux variable (swap prêteur), à l’inverse pour diminuer la duration, c’est un swap emprunteur qu’il faut conclure. Ainsi, la combinaison d’un panier de swap et d’un modèle de gamme des taux (pour analyser les déplacements non parallèles de la courbe de taux) à son portefeuille obligataire permet une gestion fine du risque de taux.

Plus élaboré, il est possible d’utiliser ces swaps comme sous-jacent de produits optionnels. Selon le besoin on achète alors une swaption sur swap payeur ou receveur de taux fixe. D’autres produits optionnels, les caps bénéficient de (donc couvrent) la hausse de taux à condition que le mouvement de taux génèrent un profit supérieur à la prime et plafonnent (ou capent) le coût d’un emprunt à taux variable. Les floors bénéficient d’une baisse de taux et ainsi fixent un plancher minimum (le floor) de rémunération à un emprunt à taux variable. Leurs combinaisons, tel le collar, permettent d’affiner les positions en fonction des anticipations.

Ces produits dérivés engendrent un risque de défaut de la contrepartie sur les intérêts (non le principal) et donc un coût en capital associé. De plus, par exemple pour un swap, l’écart de notation entre les deux intervenants est rémunéré par un spread qui s’ajoute ou se soustrait selon. Leur utilisation ne peut donc se borner à une simple analyse de taux.

Construction d’un processus d’allocation d’actifs

Ce document est une aide, une réflexion, permettant de développer une gestion d’allocation d’actifs en respectant une cohérence d’étapes entre les phases stratégiques, tactiques, sélection des supports et ajustement du portefeuille réel. On n’oublie pas les inputs commerciaux : cahier des charges, benchmarking, etc.

Vers un processus d’investissement en allocation d’actifs_Definitions et Etapes

MdP : allocprocess

Un draft de processus de gestion des risques

Ce document résulte d’une réflexion rapide lors de la création d’un fonds flexible dont les choix d’investissement doivent démontrer une asymétrie de performance entre participation à la hausse et à la baisse des marché (la convexité).
On explique comment combiner les différents investissements à l’intérieur d’une enveloppe de risque globale. On peut alors parler d’une approche en risque Top Down dans un premier temps puis Bottom Up si la situation le permet.

Processus_TOP_DOWN_BOTTOM_UP de_repartition_des_risques_riskprocess
MdP : riskprocess