REASS2
REASS2
REASS2
Résumé
Le coeur de ce mémoire est l’étude de la théorie de la crédibilité et son application à
la tarification des traités en excédent de sinistre en réassurance non-vie. L’objectif étant
d’augmenter la fiabilité des taux de primes avancés par les actuaires tarificateurs.
Dans ce mémoire, nous travaillons avec les primes pures de réassurance (estimations
des pertes attendues) et non avec les primes réellement souscrites. Nous tenons également
à préciser que le terme crédibilité ne renvoie pas à un questionnement sur l’exactitude et
la précision des données fournies par la cédante mais plutôt à un questionnement sur le
poids statistique à attribuer à ces données comme projection des pertes futures.
Abstract
This dissertation deals with the credibility theory and its application to the pricing of
excess-of- loss treaties in non-life reinsurance. The objective is to increase the reliability of
premium rates proposed by the actuaries and the underwriters.
The actuary who wants to price layers of an excess-of-loss reinsurance treaty generally has
at its disposal the claims of the cedent gathered from previous years of experience. This
historical database of losses may be long or short, depending on the age of the cedent on
the market. If the layer he wants to price is a working layer, he can determine a premium
rate from the cedent’s historical claims experience only. However, for non-working layers,
because of the scant supply of data that is typical of reinsurance, the rate derived by an
experience-rating method is unreliable. Then actuaries may use information from the
market and resort to a market rating method.
In this report, we work with reinsurance pure premiums (estimates of the expected
losses) and not with premiums actually subscribed. We should also point out that when
we use the term credibility, we are not questioning the accuracy of the data provided by
the cedant, but noting its partial statistical weight as a projection of future expectations.
Remerciements
J’adresse un grand merci à Cécile Vuong et Alpha Bah, qui ont été successivement mes
tuteurs au cours de cette alternance. Je tiens à les remercier pour les précieux conseils
qu’ils m’ont prodigués.
Je saisis l’occasion de remercier Sophia Mealy, mon ancienne tutrice, pour m’avoir donné
la chance de découvrir le monde de la réassurance lors d’un stage à Novae Re à Zürich et
pour m’avoir proposé son aide lors de l’élaboration de ce mémoire.
Je n’oublie pas non plus tous ceux qui m’ont apporté leur aide par leurs relectures atten-
tives, leurs corrections et suggestions. En particulier, mes parents, ma tante ainsi que mes
tuteurs, Nabil et Alpha. Je leur en suis très reconnaissante.
Enfin, je tiens à remercier du fond du coeur mes parents pour leur soutien sans faille tout
au long de mes années d’études.
Sommaire
2 Tarification 11
2.1 Contexte d’une cotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Appréciation de la fiabilité des données . . . . . . . . . . . . . . . 11
2.1.2 Branches courtes, branches longues . . . . . . . . . . . . . . . . . . 12
2.1.3 Tranches travaillantes, tranches non travaillantes . . . . . . . . . . 12
2.1.4 Les clauses particulières . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.5 Prime pure, prime technique et prime commerciale . . . . . . . . . 13
2.1.6 Les différents modes de versement de la prime . . . . . . . . . . . 14
2.2 Tarification sur expérience . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Préparation des données : obtention d’une statistique “as if” . . . . 15
2.2.2 Méthode non paramétrique : le Burning Cost . . . . . . . . . . . . 16
2.2.3 Méthode paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.4 Un exemple de cotation en branche longue . . . . . . . . . . . . . 21
2.3 Tarification marché . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3.2 Construction d’une courbe marché . . . . . . . . . . . . . . . . . . 29
2.3.3 Les outils benchmark : d’autres approches marché . . . . . . . . . . 31
8 Résultats et conclusions 95
8.1 Illustrations de quelques résultats théoriques . . . . . . . . . . . . . . . . . 95
8.1.1 Modèles bayésiens . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.1.2 Modèle non bayésien . . . . . . . . . . . . . . . . . . . . . . . . . . 98
8.2 Choix du portefeuille marché : lacune théorique des modèles de crédibilité 98
8.2.1 Une question préoccupante . . . . . . . . . . . . . . . . . . . . . . 98
Préambule
Comme dans toute entreprise, fixer un prix de vente est une tâche très importante. En
réassurance, la fixation du prix de vente, appelée la cotation, est encore plus délicate
dans la mesure où le “prix de revient” ne peut pas être connu avec certitude. Il ne peut
être qu’estimé. Il est donc impératif pour les réassureurs de mettre en place des modèles
permettant d’estimer ce prix au plus juste en fonction des données disponibles afin de faire
preuve de crédibilité vis-à-vis de leurs clients.
Ce mémoire est divisé en trois grandes parties. La première partie permet de bien com-
prendre les rouages du monde de la réassurance. Elle décrit également les grandes étapes
du processus d’une cotation en réassurance. La deuxième partie de ce rapport présente les
modèles de crédibilité et s’intéresse à ceux qui peuvent être appliqués à la réassurance.
Nous décrivons tout d’abord la crédibilité bayésienne qui permet de définir un cadre
commun pour les modèles suivants : Bühlmann et Bühlmann-Straub. Nous présentons
ensuite une deuxième approche plus intuitive fondée sur les incertitudes relatives aux
erreurs commises lors du processus de cotation. Enfin, la dernière partie présente les
résultats obtenus pour le marché de la réassurance automobile britannique et permet
d’analyser la cohérence des différents modèles de crédibilité étudiés.
Un néophyte ne pourra pas faire l’impasse de la première partie s’il veut comprendre
les modèles présentés aux chapitres 4 et 5 mais les lecteurs familiers avec la réassurance
et la tarification sont encouragés à commencer leur lecture directement au chapitre 3
qui ouvre la deuxième partie. La troisième et dernière partie, quant à elle, est totalement
dépendante de la deuxième. Par ailleurs, nous tenons à préciser que la structure de ce
mémoire est plus complexe qu’une simple opposition théorie/application. En effet, de
nombreuses illustrations et plusieurs applications viennent étayer les propos des deux
premières parties.
1. Stéphane Bonche est diplômé de l’Institut des Actuaires Français, a rédigé son mémoire sur la crédibilité
appliqué à la réassurance et a travaillé pendant plusieurs années à New Re.
2. Mark Cockroft est un actuaire qualifié membre de l’institut des actuaires britanniques, the Institute and
Faculty of Actuaries. Il occupe le poste de directeur de l’actuariat à Qatar Re.
3. Pietro Parodi est également un actuaire qualifié britannique. Il est actuellement directeur à Swiss Re.
Partie I
Chapitre 1
Introduction Générale
1.1.1.2 Principe
La réassurance permet aux compagnies d’assurance de transférer une partie de leur risque
et de se prémunir notamment contre la survenance d’événements extrêmes qui pourraient
mettre en péril leur solvabilité. La réassurance concerne principalement les grands risques
indépendants (avion, navire, usine, etc.), les risques émergents (pollution, atome, res-
ponsabilité civile professionnelle,etc.) et les risques extrêmes (catastrophe naturelle, crise
politique, défaillance technologique).
A cette première distinction entre traités et facultatives, s’ajoute une différenciation selon
le mode de souscription qui peut être proportionnel ou non-proportionnel. Dans le premier
cas, il s’agit essentiellement de la réassurance Quote-Part ou QP (Quota Share) pour
laquelle tous les élements du risque (capital, primes et sinistres) sont partagés proportion-
nellement entre l’assureur et le réassureur. Dans le second cas, le réassureur n’interviendra
que sur une tranche, c’est-à-dire qu’à partir d’un seuil, la priorité, et dans la limite d’un
certain plafond, la portée. Il s’agit le plus souvent de réassurance en excédent de sinistre
(XS, Excess of Loss, XL) ou en excédent de perte annuelle (Stop Loss). Les spécificités de
chacun de ces traités seront expliquées plus en détails dans la partie 1.2.
Le diagramme circulaire à droite sur la figure 1.1 montre que les contrats de réassurance
facultative restent marginaux. Dans la suite du mémoire, on ne s’intéressera qu’aux traités
de réassurance.
Ce sont fréquemment des catastrophes naturelles qui marquent la fin d’un cycle et le
début d’un autre. Car qui dit catastrophe naturelle dit, bien souvent, sinistres graves syno-
nymes de pertes importantes. Et qui dit pertes importantes dit majoration draconienne
des primes de réassurance. La figure 1.2 illustre les principaux cycles sur le marché de la
réassurance depuis le début des années 1990.
in Mio USD
140
Wilma
Rita
Katrina
120
TdT Japon
Charley
Frances Inondations THA
100 Songda TdT NZL
Ivan Tornades US
Anatol Jeanne Irene
Lothar
80
Martin
Andrew Bart
Floyd
60
Kobe Kyrill
40
20
1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012
F IGURE 1.2 – Montants agrégés des sinistres évènements naturels majeurs de 1991 à 2011
Une fois les cotations et parts récupérées, la compagnie d’assurance conjointement avec
le courtier va choisir un taux qu’elle va essayer de placer sur le marché pour approcher
1. Source : Fédération Française des Sociétés d’Assurances
d’autres réassureurs à qui elle n’avait pas demandé de coter. La compagnie d’assurance
choisit également un apériteur, généralement il s’agit du réassureur dont le taux a été re-
tenu (réassureur leader). Ce réassureur est désigné pour représenter le pool de réassureurs
et est responsable de la partie contractuelle c’est-à-dire de l’élaboration du contrat ainsi
que des négociations éventuelles. Si la somme des parts acceptées par les réassureurs est
supérieure à 100%, on dit que le contrat est surplacé et tous les réassureurs n’obtiendront
pas la totalité de ce qu’ils avaient demandé. Si, au contraire, la somme des parts acceptées
est inférieure à 100%, on dit que le programme est sous-placé. C’est là que la partie
négociation commence. Par exemple, on peut essayer de négocier avec certains réassu-
reurs pour qu’ils prennent plus que ce qu’ils avaient accepté intialement moyennant une
augmentation de part sur d’autres traités du même client que ces réassureurs voudraient
obtenir.
4M
3M
2M
Part du réassureur
1M Conservation de l’assureur
Ce type de couverture est intéressant pour les cédantes disposant d’un capital insuffisant
et désirant se développer. En effet, la cédante peut souscrire plus de primes pour le même
niveau de capital tout en maintenant sa marge de solvabilité. Par contre, ce type de traité
ne permet pas d’obtenir un lissage des résultats dans le temps. En effet, le ratio S/P
demeure le même avant et après application du Quote-Part. De plus, ce type de traité ne
permet pas de se protéger contre la survenance de sinistres extrêmes.
Pour un Excédent de Plein, à la différence du Quote-Part, le taux de cession est défini pour
chaque police selon la formule suivante :
Si − R C
xi = min max ,0 ,
Si Si
Si est la somme assurée totale pour la police no i. R désigne le “plein de rétention”, souvent
appelé simplement “plein” et correspondant au montant maximal que la cédante souhaite
payer par sinistre. C, enfin, est la capacité de l’Excédent de Plein qui est communément
défini en nombre de pleins. R et C sont définis contractuellement.
Ainsi
− Si Si ≤ R, la cédante conserve entièrement le risque de la police no i.
Si −R
− Si R < Si ≤ C, la cédante cède Si % au réassureur
C
− Si Si > C, la cédante cède Si % au réassureur.
4M
3M
2M
Part du réassureur
C = 3 Pleins = 1.5M
1M Conservation de l’assureur
R = 1 Plein = 0.5M
F IGURE 1.4 – Traité en Excédent de Plein avec un plein de conservation de 0.5M et une capacité de
3 pleins
6M
T2
portée 2
Charge de T 2
3M priorité 2
T1 portée 1 Charge de T 1
2M priorité 1
Conservation de l’assureur
0 1 2 3 4
− Lorsque le traité XS que l’on doit coter est défini par risque, le traité s’applique à
chaque sinistre survenant durant la période de couverture.
− Lorsque le traité est défini par événement, le traité s’applique au montant cumulé
de tous les sinistres causés par un même événement. Il peut s’agir d’une catas-
trophe naturelle (tremblement de terre, tempête,...) ou humaine (attentat terroriste,
émeute,...). Il faut signaler que la définition de l’événement doit être stipulée au
préalable dans le contrat afin d’éviter tout litige.
− Lorsque la couverture est définie par risque et par événement, la cédante est couverte
pour tout type de sinistre, événementiel ou individuel.
4M
3M
priorité
2M
catastrophe
1M
dernier sert à se protéger contre la survenance d’un événement exceptionnel, une catas-
trophe, qui occasionnerait de multiples sinistres individuels. Or, un orage exceptionnel,
par exemple, n’aura pas nécessairement un gros impact sur le résultat d’une année tandis
qu’un nombre important d’orages pourra mettra en péril ce résultat. D’où la nécessité du
traité en excédent de perte annuelle plus communément appelé Stop-Loss.
La CCR se range aujourd’hui parmi les vingt-cinq premiers réassureurs mondiaux, les
quatre premières places étant occupées dans l’ordre par Munich Re, Swiss Re, Hanover
Re et SCOR. L’entreprise intervient dans la plupart des branches et des marchés de la
réassurance internationale (et compte plus de 3 500 clients répartis dans plus de 120 pays).
Elle est organisée en trois pôles opérationnels : le siège social à Paris pour la région Europe
et Asie et deux succursales, l’une à Toronto pour le Canada et la deuxième à Beyrouth
au Liban pour l’ensemble des pays du Moyen-Orient, y compris Chypre et l’Afrique du Nord.
Avec plus de 270 collaborateurs dans le monde, la CCR a réalisé en 2014 un chiffre
d’affaires de 1.3 Milliards d’euros. L’activité Non-Vie, ventilée autour de deux segments,
traité et business solutions & spécialités représente un peu moins de la moitié du porte-
feuille du groupe (44%).
En outre, une convention passée avec les pouvoirs publics habilite la CCR à offrir des cou-
vertures en réassurance avec une garantie de l’État pour certaines catégories particulières
d’assurance sur le territoire français, concernant notamment le domaine des catastrophes
naturelles. Cette garantie de l’État ne confère pas pour autant à la CCR le monopole de la
réassurance des catastrophes naturelles. En effet, tout assureur reste libre de se garantir
auprès du réassureur de son choix, voire de prendre le risque de ne pas se réassurer. Il n’en
reste pas moins que la CCR apporte au régime d’indemnisation des catastrophes naturelles
une garantie de solvabilité et de sécurité pour les assurés.
Chapitre 2
Tarification
L’objectif de ce mémoire n’est pas de fournir une description complète des méthodes de
tarification utilisées en réassurance non-vie, sujet trop vaste et trop ardu pour être traité
en intégralité dans cette partie. Néanmoins, nous présenterons les différentes étapes du
processus de cotation, leurs intérêts et leurs fonctionnements, étapes qu’il faut connaître
pour aborder sereinement la suite du mémoire. En outre, dans cette partie, nous nous
intéresserons exclusivement aux traités en excédent de sinistre. De ce fait, nous n’aborde-
rons pas la tarification des traités proportionnels qui est assez différente puisqu’elle ne se
traduit pas par un calcul de prime mais par un calcul de rentabilité.
Il est important que l’actuaire lise attentivement ces documents afin de pouvoir appré-
hender la nature du risque couvert. Il doit être particulièrement attentif à l’évolution des
assiettes de primes et à l’évolution de l’exposition au risque. Malheureusement, d’une
cotation à l’autre, l’information dont dispose l’actuaire tarificateur varie extrêmement, tant
par sa forme que par son contenu, selon les cédantes, les courtiers et les pays. Et il arrive
bien souvent que les informations fournies soient insuffisantes ou pas assez détaillées, il
s’ensuit alors de nombreux échanges entre le réassureur et le courtier afin de clarifier les
points nécessaires. Ainsi, par exemple, le courtier ou la cédante peuvent avoir sélectionné
les exercices constituant la statistique de sorte à laisser tomber une année lourdement
déficitaire.
Lorsque l’on effectue une cotation, il est nécessaire de choisir un horizon de modéli-
sation ou, autrement dit, une longueur d’historique. Historique à partir duquel nous allons
modéliser la sinistralité future de la cédante. Bien entendu, l’horizon choisi ne sera pas le
même pour une branche longue et pour une branche courte. L’étude porte en général sur
dix années complètes en long et cinq années en court. Toutefois, l’horizon de modélisation
peut être adapté au cas par cas selon la nature de l’affaire étudiée. En effet, il se peut que
certaines cédantes, arrivées récemment sur le marché, ne disposent pas de cinq années
d’historique. De plus, il existe de fortes différences selon les pays et selon les marchés. Par
exemple pour la RC automobile, l’existence ou non de barème 1 conditionne très fortement
les développements observés.
La partie 2.2.4 traite un exemple de cotation en branche longue. Les méthodes de déroule-
ment des sinistres seront évoquées et utilisées mais ne seront pas extensivement détaillées
car elles ne constituent pas l’élément essentiel de ce mémoire.
Dans la suite du mémoire, nous allons considérer la définition suivante. Une tranche
est dite travaillante si le nombre moyen de sinistres touchant annuellement la tranche est
strictement supérieur à un et si le pourcentage de portée atteinte est strictement supérieur
à 80%. Le pourcentage de portée atteinte désigne le ratio suivant :
max (Xki )
1≤i≤n
ratiok =
portée
1. Dans certains pays, des barèmes sont mis en place pour simplifier les procédures entre compagnies
d’assurances et donc pour faciliter la gestion des sinistres. En France, notamment, un barème de responsabilité a
été mis en place en mai 1968 par la convention d’indemnisation directe des assurés (IDA).
Cette franchise est appelée AAD pour “Annual Aggregate Deductible” en anglais et se
comporte comme une franchise annuelle sur la somme agrégée des paiements dus par
le réassureur à sa cédante. Lorsque cette clause est mise en place, les premiers sinistres
rentrant dans l’XS demeurent donc, en partie ou en totalité, à la charge de la cédante. Le
fonctionnement de cette clause est également décrit page 18.
La clause de reconstitution
Le réassureur, qui a conclu un traité XS, s’engage à couvrir au maximum un montant égal
à la portée au dessus de la priorité. Ainsi la cédante est couverte contre la survenance du
premier (éventuel) sinistre dépassant la priorité. Qu’en est-il du deuxième ? Dans un XS
sans reconstitutions, le réassureur s’engage à payer au maximum une fois la portée de
l’XS. Mais ce cas de figure est assez rare, le traité prévoit un général un certain nombre de
reconstitutions. Si le traité prévoit n reconstitutions, le réassureur paiera au maximum
(n + 1) fois la portée. Il est même assez courant que le traité prévoie un nombre illimité
de reconstitutions. Ces reconstitutions peuvent être gratuites ou payantes auquel cas la
cédante devra verser au réassureur une “prime de reconstitution”.
Cette clause oblige le réassureur à reverser dans des proportions définies contractuel-
lement une partie de son bénéfice à la cédante si le solde de réassurance à la fin de
l’exercice est positif.
La clause d’indexation
Cette clause ne concerne que les traités pluriannuels pour lesquels, la véritable valeur
des bornes du traité est modifiée au fil du temps du fait de l’érosion monétaire. La clause
d’indexation permet de recalculer chaque année les bornes du traité sur la base d’un indice
économique reflétant l’évolution du coût des sinistres pour la branche couverte.
La clause de stabililité
La clause de stabilité est une clause que l’on trouve fréquemment dans les traités XS
longs et, comme nous l’avons expliqué précédemment, pour ces types de couvertures, des
années peuvent s’écouler entre la survenance du sinistre et son règlement. Or, du fait
de l’inflation, la rétention d’un traité XS peut baisser en valeur relative au détriment du
réassureur qui va devoir supporter l’essentiel du surcoût lié aux inflations. C’est donc pour
protéger le réassureur contre ces évolutions défavorables des bornes du traité que la clause
de stabilité est souvent intégrée.
− Les frais de courtage : ils servent à rémunérer le courtier de réassurance. Ils sont
généralement exprimés en pourcentage de la prime commerciale.
− Le coût du capital : il permet de rémunérer l’actionnaire.
Il se peut qu’il n’y ait pas de différences entre la prime commerciale et la prime technique.
Dans ce cas, le souscripteur accepte ou refuse l’affaire au prix technique calculé par l’ac-
tuaire. Toutefois, en général, ces deux notions sont bien distinctes.
Chargement de sécurité
Frais de gestion Modifiée en fonction de
Frais de courtage la politique commerciale
Retours sur investissement du réassureur
Lorsque la prime est forfaitaire, le taux de prime est fixe et n’est soumis à aucun ajuste-
ment ultérieur. Le paiement de cette prime peut s’effectuer en un ou plusieurs versements.
Lorsque la prime est ajustable, le réassureur exige une prime provisoire appelée prime
de dépôt, à l’ouverture du contrat, qui est de l’ordre de 80%, 90% de la prime technique.
Cette prime est ensuite réajustée, à la fermeture du contrat, lorsque les frais réels à charge
du contrat ont été déterminés.
Soit
n l’année de cotation
Ik l’indice de l’année k
Sk la valeur d’un sinistre de l’année k
Sk n la valeur “as if” d’un sinistre de l’année k vue l’année n
Alors on a :
In
Sk n = Sk ×
Ik
Le choix des indices est particulièrement délicat à cause du nombre important de facteurs
à prendre en compte et leurs influences importantes sur les résultats de la cotation. En
outre, il faut être attentif à l’évolution de la politique de souscription de la cédante et au
phénomène de “super inflation” en responsabilité civile. On désigne par ce terme le fait
que le montant des indemnisations versées aux victimes d’accident progresse plus vite que
l’activité économique. Autrement dit l’augmentation du coût des sinistres corporels à long
terme dépasse la croissance du PIB.
Notons BC
d l’estimateur du taux de prime de réassurance :
Pn−1 n
Ci
BC = Pi=0
d
n−1 n
i=0 Pi
La méthode paramétrique repose sur le modèle collectif qui permet une étude séparée de
la fréquence et de la sévérité des sinistres. Ce qui offre de réels avantages, notamment
une meilleure analyse du programme. Par exemple, seule la fréquence sera impactée par
une modification du nombre de polices couvertes. Nous signalons qu’un abus de langage
communément employé en réassurance consiste à assimiler la fréquence au nombre de
sinistres observés sur une période. C’est pourquoi, dans la suite du mémoire, le terme
fréquence pourra qualifier des quantités supérieures à 1.
Notons N la variable aléatoire décrivant le nombre de sinistre durant une année donnée,
(Xi )i=1,..,N les coûts des sinistres survenus durant cette même année et S le coût total de
ces sinistres :
N
X
S= Xi
i=1
Nous supposons que les variables aléatoires N, X1 , X2 , ...XN sont mutuellement indé-
pendantes et que les coûts individuels des sinistres X1 , X2 , ..., XN sont identiquement
distribués. Il est alors possible d’extraire la loi et les deux premiers moments de la charge
brute des sinistres :
∞
X
∗n
FS (x) = P (S ≤ x) = P (N = n)FX (x)
n=1
∗n
où FX est la “nième” convolution de la fonction de réparttion de X.
∞
X ∞
X
E(S) = E(S|N = i)P (N = i) = iE(X)P (N = i) = E(X)E(N )
i=1 i=1
Ces formules peuvent facilement être adaptées aux différentes tranches de réassurance.
On pourrait alors se contenter d’un calcul empirique des espérances et variances pour
donner un prix aux tranches que l’on veut coter. Cependant, cela conduirait à offrir des
couvertures trop chères pour les tranches non travaillantes très peu sinistrées. De plus,
cela ne permettrait pas de prendre en compte les queues de distribution qui ne sont pas
forcément réalisées dans la statistique de la cédante. Il est donc plus judicieux de chercher
la distribution complète de S. Pour ce faire, nous utilisons la méthode de simulations de
Monte Carlo. L’idée étant de modéliser la sinistralité de la cédante en utilisant des lois
paramétriques connues et maitrisées les mieux adaptées possibles et ensuite de générer
un certain nombre de portefeuilles sinistres possédant les caractéristiques du portefeuille
initial de la cédante.
Modélisation de la sinistralité
Dans un premier temps, il faut choisir un seuil de modélisation compris entre le seuil
communiqué par le courtier revalorisé et la priorité de la tranche que l’on cherche à coter.
Le choix du seuil de modélisation est important. Si on le choisit trop près de la priorité,
on risque de ne pas “récupérer assez de sinistres” et si on le choisit trop éloigné de la
priorité (typiquement en dessous de 50% de la priorité), la loi de modélisation ne sera pas
forcément adaptée pour décrire ce qui se passe au delà de la priorité. Ainsi, dans l’exemple
ci-dessous, le seuil le plus adapté est le seuil no 2.
priorité
seuil 3
seuil 2
seuil 1
Dans un deuxième temps, il faut tester plusieurs lois pour la fréquence (Poisson ou
Binomiale Négative) et pour la sévérité (Pareto, Log-normale, Pareto généralisée). Pour
ces différentes paires de lois, on estime les paramètres associés par la méthode du maxi-
mum de vraisemblance ou la méthode écart-quantile et ensuite on effectue des tests de
Il est important de signaler que lorsque l’on cherche à coter plusieurs tranches non
travaillantes successives d’un traité, on effectue, en général, une seule modélisation pour
l’ensemble de ces tranches. En particulier, on utilisera les mêmes paramètres de la loi de
Pareto pour toutes les tranches non travaillantes du traité.
Simulations stochastiques
En général, cette approche est utilisée pour les tranches non travaillantes et également,
pour les tranches affichant des particularités non “linéaires” du type AAL, AAD ou primes
de reconstitutions, que la tranche soit travaillante ou non. L’algorithme ci-dessous décrit
la façon selon laquelle nous simulons la fréquence (modélisée par une loi de Poisson de
paramètre θ), la sévérité (modélisée par une loi de Pareto de paramètre α au seuil λ) pour
obtenir le taux pur pour une tranche de réassurance l xs d.
for i ←− 1, .., n
. N = rpoiss(1, θ)
. if N = 0 then
. Si = 0
. else
. v = rpareto(N, α, a)
. for j ←− 1, ..., N
. wj = min(max(0, vj + a − d), l)
. end for
. Si = sum(wj )
. end if
end for
mean(Si )
EP I
Cet algorithme peut facilement être implémenté sur n’importe quel logiciel de programma-
tion. Il faut, quand même, préciser que l’algorithme tel qu’il est présenté ci-dessus ne tient
pas compte des conditions non linéaires du type AAL ou AAD. Dans le cas où la cédante
exige ou le réassureur conseille la mise en place de ces particularités contractuelles, il
faudra modifier l’algorithme en conséquence :
Période de
couverture
Durée de vie du sinistre
Paiements
Survenance Déclaration Clôture
F IGURE 2.3 – Les différentes étapes de la vie d’un sinistre en branche longue
Dans le cas de la tarification des branches longues, il faut tenir compte du fait que la valeur
des sinistres déclarés va encore évoluer (dérive des sinistres). L’information transmise
au réassureur concernant la sinistralité de la cédante prend alors la forme d’un triangle
dans lequel est repertorié les différents sinistres avec leur année de survenance et leur
développement. Suivant l’orientation du triangle, le développement s’effectue “par
année” ou “par cadence”. Si l’angle droit du triangle se situe à gauche, on a un développe-
ment par cadence, sinon il s’agit d’un développement par année.
L’évalution finale des sinistres, à la clôture d’un exercice, est appelée ultime (“ultimate”
en anglais). La somme de tous les sinistres payés et des suspens constitue une estimation
de l’ultime. Toutefois, cette estimation est imparfaite car il faut tenir compte de la dérive
des sinistres connus et du fait qu’il est probable que des sinistres soient encore déclarés
pour les années de souscription antérieures. Ce sont des sinistres tardifs. Ces derniers se
décomposent en deux types : les IBNER (Incurred But Not Enough Reserved) et les IBNYR
(Incurred But Not Yet Reported).
IBNR
IBNER IBNYR
Les IBNER permettent de valoriser la dérive des sinistres connus. Il sont définis comme la
différence entre le montant ultime des sinistres connus observés et rattachés à la période
étudiée et le montant courant de leur évaluation. Il faut noter que les IBNER peuvent être
négatifs ou nuls contrairement à ce que sous-entend l’appelation “Not Enough”.
La provision pour IBNYR permet, quant à elle, d’anticiper l’apparition de sinistres non
encore déclarés. Nous pouvons distinguer deux types d’IBNYR :
− Les sinistres tardifs : ces sinistres correspondent à ceux que l’assuré ne déclare à
l’assureur que plusieurs années après leur survenance.
− Les sinistres cachés : ces sinistres sont bien déclarés par l’assuré à l’assureur durant
l’année de survenance. Cependant, lors de la première évaluation du sinistre l’assu-
reur estime que le coût total du sinistre est inférieur au seuil de communication et
de ce fait ne le déclare pas. Malheureusement, une ou plusieurs années plus-tard,
lors d’une réévalution du sinistre, l’estimation du coût total du sinistre dépasse le
seuil de communication.
En pratique les IBNYR sont souvent appelés IBNR (Incurred But Not Reported) même si
en théorie ce dernier terme désigne l’ensemble des IBNER et des IBNYR.
En outre, pour les branches longues, la méthode de détermination du taux pur par
simulation doit être légèrement modifiée. En effet, les montants des sinistres à indemniser
estimés à l’ultime vont être versés régulièrement jusqu’à la date de consolidation, date
à laquelle on estime que l’état de santé de la victime ne devrait plus évoluer, c’est “la
cadence des règlements”. En général, une date de consolidation et un cadencement sont
définis pour chaque pays et pour chaque branche. Au cours du service de la rente, jusqu’à
la date de consolidation, les investissements du réassureur vont lui rapporter des produits
financiers. Il faut donc actualiser l’échéancier de flux dû au cadencement des règlements
en fonction des rendements espérés des placements du réassureur. En particulier, comme
l’actualisation des flux représente l’escompte de produits financiers futurs, plus la cadence
des règlements est lente, plus le réassureur profite des produits financiers.
Voyons ce que cela signifie sur l’exemple suivant. Notons S la valeur estimée d’un si-
nistre à l’ultime et Se la valeur actualisée de ce même sinistre après prise en compte
des produits financiers futurs. Supposons que la consolidation intervienne au bout de la
troisième année et que les règlements aient lieu selon le cadencement suivant :
S
e
α%S β%S γ%S
On n’utilisera Se plutôt que S pour le calcul du taux pur afin de prendre en compte
les produits financiers réalisés sur les trois années.
Les données utilisées sont issues des statistiques réelles d’une cédante britannique du
marché RC automobile mais par souci de confidentialité et de simplification de l’exemple,
elles ont été largement modifiées et élaguées. Nous supposons, en outre, que les tranches
que l’on cherche à coter ne présentent pas de conditions “non linéaires” de type AAD ou
AAL et que les reconstitutions sont gratuites et illimitées.
Nous allons coter les tranches 3 000 000 xs 2 000 000 et 5 000 000 xs 5 000 000. Il s’agit
de tranches classiques sur le marché RC automobile au Royaume-Uni.
On constate une baisse de l’assiette de prime depuis 2013 accompagnée d’une baisse
du nombre de polices en portefeuille.
Dans le triangle fourni ci-après, l’évolution des sinistres est donnée en nombre d’années de
développement, le développement s’effectue donc “par cadence”. Ainsi, par exemple, le
premier sinistre du triangle vaut 899 049 £, 4 ans après sa date de survenance.
1 2 3 4 5 6
2009 Paid 7 514 23 920 171 470 227 006 205 539 220 185
Outstanding 114 353 759 632 616 466 672 043 715 677 829 030
Incurred 121 867 783 632 787 936 899 049 921 216 1 049 215
2009 Paid 19 309 110 152 187 363 295 079 3 373 744 3 377 959
Outstanding 1 452 810 2 105 028 2 030 529 2 014 408 420 597 416 381
Incurred 1 472 119 2 215 180 2 217 892 2 309 487 3 794 341 3 794 340
2010 Paid 14 629 23 481 220 289 259 943 259 943
Outstanding 481 410 451 506 70 000 10 000 10 000
Incurred 496 039 474 987 290 289 269 943 269 943
2010 Paid 11 012 64 061 181 183 578 306 650 387
Outstanding 1 729 964 1 713 415 1 736 211 2 387 858 2 785 692
Incurred 1 740 976 1 777 476 1 917 394 2 966 164 3 436 079
2010 Paid 0 0 0 0 11 802
Outstanding 0 5 490 90 000 113 860 492 477
Incurred 0 5 490 90 000 113 860 504 279
2011 Paid 1 001 7 005 20 412 31 697
Outstanding 169 262 163 258 610 603 599 358
Incurred 170 263 170 263 631 015 631 055
2011 Paid 723 1 323 66 110 108 153
Outstanding 22 241 31 668 276 181 1 261 439
Incurred 22 964 32 991 342 291 1 369 592
2011 Paid 2 153 5 312 89 725 331 449
Outstanding 878 899 876 190 591 455 31 955
Incurred 881 052 881 502 681 180 363 404
2011 Paid 88 22 564 24 501 35 173
Outstanding 100 009 1 204 964 1 177 576 1 166 905
Incurred 100 097 1 227 528 1 202 077 1 202 078
2011 Paid 31 980 5 134 13 800
Outstanding 100 009 30 000 896 883 888 673
Incurred 100 040 30 980 902 017 902 473
2012 Paid 18 810 26 690 37 475
Outstanding 581 944 569 064 558 279
Incurred 600 754 595 754 595 754
2012 Paid 1 070 3 558 5 093
Outstanding 100 009 100 009 1 840 473
Incurred 101 079 103 567 1 845 566
2012 Paid 16 026 300 421 514 636
Outstanding 5 306 687 5 502 497 5 920 323
Incurred 5 322 713 5 802 918 6 464 959
2013 Paid 15 160 176 009
Outstanding 100 009 5 621 305
Incurred 115 169 5 797 314
2013 Paid 0 12 124
Outstanding 269 481 731 781
Incurred 269 481 743 905
Ainsi si l’on note P R pour prime revalorisée et E pour mesure d’exposition, on a par
exemple :
E2014
P R2014 = P R2015 ×
E2015
Le travail à effectuer sur le triangle de sinistralité est plus long. Il peut être découpé
en trois étapes.
La première étape consiste à “décumuler” les payés ce qui permet d’avoir une idée de ce
qui est effectivement réglé chaque année. Ainsi, par exemple, pour le premier sinistre de
2009, le réassureur a payé 55 536 lors de la quatrième année de son développement. Le
résultat de cette étape sur le triangle initial figure à la page suivante.
1 2 3 4 5 6 1 2 3 4 5 6
2009 Paid 7 514 23 920 171 470 227 006 205 539 220 185 2009 Paid 7 514 16 406 147 550 55 536 -21 467 14 646
Outstanding 114 353 759 632 616 466 672 043 715 677 829 030 Outstanding 114 353 759 632 616 466 672 043 715 677 829 030
Incurred 121 867 783 632 787 936 899 049 921 216 1 049 215 Incurred
2009 Paid 19 309 110 152 187 363 295 079 3 373 744 3 377 959 2009 Paid 19 309 90 843 77 211 107 716 3 078 665 4 215
Outstanding 1 452 810 2 105 028 2 030 529 2 014 408 420 597 416 381 Outstanding 1 452 810 2 105 028 2 030 529 2 014 408 420 597 416 381
Incurred 1 472 119 2 215 180 2 217 892 2 309 487 3 794 341 3 794 340 Incurred
2010 Paid 14 629 23 481 220 289 259 943 259 943 2010 Paid 14 629 8 852 196 808 39 654 0
Outstanding 481 410 451 506 70 000 10 000 10 000 Outstanding 481 410 451 506 70 000 10 000 10 000
Incurred 496 039 474 987 290 289 269 943 269 943 Incurred
2010 Paid 11 012 64 061 181 183 578 306 650 387 2010 Paid 11 012 53 049 117 122 397 123 72 081
Outstanding 1 729 964 1 713 415 1 736 211 2 387 858 2 785 692 Outstanding 1 729 964 1 713 415 1 736 211 2 387 858 2 785 692
Outstanding 0 5 490 90 000 113 860 492 477 Outstanding 0 5 490 90 000 113 860 492 477
2011 Paid 1 001 7 005 20 412 31 697 2011 Paid 1 001 6 004 13 407 11 285
Outstanding 169 262 163 258 610 603 599 358 Outstanding 169 262 163 258 610 603 599 358
Incurred 170 263 170 263 631 015 631 055 Incurred
2011 Paid 723 1 323 66 110 108 153 2011 Paid 723 600 64 787 42 043
Outstanding 22 241 31 668 276 181 1 261 439 Outstanding 22 241 31 668 276 181 1 261 439
2011 Paid 2 153 5 312 89 725 331 449 2011 Paid 2 153 3 159 84 413 241 724
Outstanding 878 899 876 190 591 455 31 955 Outstanding 878 899 876 190 591 455 31 955
Incurred 881 052 881 502 681 180 363 404 Incurred
2011 Paid 88 22 564 24 501 35 173 2011 Paid 88 22 476 1 937 10 672
Outstanding 100 009 1 204 964 1 177 576 1 166 905 Outstanding 100 009 1 204 964 1 177 576 1 166 905
Incurred 100 097 1 227 528 1 202 077 1 202 078 Incurred
2011 Paid 31 980 5 134 13 800 2011 Paid 31 949 4 154 8 666
Outstanding 100 009 30 000 896 883 888 673 Outstanding 100 009 30 000 896 883 888 673
2012 Paid 18 810 26 690 37 475 2012 Paid 18 810 7 880 10 785
Outstanding 581 944 569 064 558 279 Outstanding 581 944 569 064 558 279
2012 Paid 1 070 3 558 5 093 2012 Paid 1 070 2 488 1 535
Outstanding 100 009 100 009 1 840 473 Outstanding 100 009 100 009 1 840 473
2012 Paid 16 026 300 421 514 636 2012 Paid 16 026 284 395 214 215
Outstanding 5 306 687 5 502 497 5 920 323 Outstanding 5 306 687 5 502 497 5 920 323
2013 Paid 15 160 176 009 2013 Paid 15 160 160 849
Outstanding 100 009 5 621 305 Outstanding 100 009 5 621 305
Outstanding 269 481 731 781 Outstanding 269 481 731 781
1 2 3 4 5 6 1 2 3 4 5 6
2009 Paid 14 054 30 686 275 980 103 875 -40 152 27 394 2009 Paid 14 054 44 740 320 720 424 595 384 443 441 837
Outstanding 213 888 1 420 827 1 153 047 1 256 999 1 338 613 1 550 630 Outstanding 213 888 1 420 827 1 153 047 1 256 999 1 338 613 1 550 630
Incurred Incurred 227 942 1 465 567 1 473 767 1 681 594 1 723 056 1 962 467
2009 Paid 36 116 169 914 144 417 201 474 5 758 380 7 884 2009 Paid 36 116 206 030 350 446 551 920 6 310 300 6 318 184
Outstanding 2 717 357 3 937 275 3 797 931 3 767 778 786 691 778 805 Outstanding 2 717 357 3 937 275 3 797 931 3 767 778 786 691 778 805
Incurred Incurred 2 753 473 4 143 305 4 148 377 4 319 698 7 096 991 7 096 989
2010 Paid 24 651 14 916 331 633 66 819 0 2010 Paid 24 651 39 567 371 200 438 019 438 019
Outstanding 811 204 760 814 117 954 16 851 16 851 Outstanding 811 204 760 814 117 954 16 851 16 851
Incurred Incurred 835 855 800 381 489 154 454 870 454 870
2010 Paid 18 556 89 391 197 357 669 175 121 461 2010 Paid 18 556 107 947 305 304 974 479 1 095 940
Outstanding 2 915 090 2 887 204 2 925 617 4 023 680 4 694 053 Outstanding 2 915 090 2 887 204 2 925 617 4 023 680 4 694 053
Outstanding 0 9 251 151 655 191 861 829 852 Outstanding 0 9 251 151 655 191 861 829 852
2011 Paid 1 520 9 114 20 353 17 131 2011 Paid 1 520 10 634 30 987 48 118
Outstanding 256 952 247 837 926 938 909 868 Outstanding 256 952 247 837 926 938 908 868
Incurred Incurred 258 471 258 471 957 925 957 986
2011 Paid 1 098 911 98 351 63 824 2011 Paid 1 098 2 008 100 360 164 184
Outstanding 33 763 48 074 419 262 1 914 953 Outstanding 33 763 48 074 419 262 1 914 953
2011 Paid 3 268 4 796 128 145 366 954 2011 Paid 3 268 8 064 136 209 503 163
Outstanding 1 334 231 1 330 118 897 870 48 510 Outstanding 1 334 231 1 330 118 897 870 48 510
Incurred Incurred 1 337 499 1 338 182 1 034 079 551 673
2011 Paid 134 34 120 2 941 16 201 2011 Paid 134 34 254 37 194 53 395
Outstanding 151 821 1 829 220 1 787 643 1 771 444 Outstanding 151 821 1 829 220 1 787 643 1 771 444
Incurred Incurred 151 954 1 863 474 1 824 838 1 824 839
2011 Paid 47 1 441 6 306 13 156 2011 Paid 47 1 488 7 794 20 949
Outstanding 151 821 45 542 1 361 532 1 349 068 Outstanding 151 821 45 542 1 361 532 1 349 068
2012 Paid 25 725 10 777 14 750 2012 Paid 25 725 36 502 51 252
Outstanding 795 885 778 270 763 520 Outstanding 795 885 778 270 763 520
2012 Paid 1 463 3 403 2 099 2012 Paid 1 463 4 866 6 965
Outstanding 136 775 136 775 2 517 088 Outstanding 136 775 136 775 2 517 088
2012 Paid 21 918 388 947 292 967 2012 Paid 21 918 410 865 703 832
Outstanding 7 257 590 7 525 385 8 137 846 Outstanding 7 257 590 7 525 385 8 137 846
2013 Paid 18 679 198 182 2013 Paid 18 679 216 861
Outstanding 123 221 6 926 010 Outstanding 123 221 6 926 010
Outstanding 332 028 901 627 Outstanding 332 028 901 627
Nous ne nous intéressons plus maintenant qu’aux montants encourus du dernier tri-
angle (triangle de l’étape 3), que nous reportons dans le triangle ci-dessous. Ensuite, afin
d’extrapoler les sinistres jusqu’à l’ultime, nous calculons les coefficients de liquidation.
Pour cela nous utilisons la méthode classique en actuariat,“Chain Ladder”. Toutefois, nous
ne tenons compte que des montants du triangle ci-dessous qui sont supérieurs au seuil
revalorisé.
Notons Ci,j le montant cumulé des encourus pour les sinistres survenus en i après j
années de développement et fj le facteur de développement de l’année de survenance j à
l’année de survenance j + 1, également nommé coefficient de liquidation de l’année j. On
a: Pm
k=1 Ck,j+1
fj = P m
k=1 Ck,j
1 2 3 4 5 6
2009 227 942 1 465 567 1 473 767 1 681 594 1 723 056 1 962 467
2009 2 753 473 4 143 305 4 148 377 4 319 698 7 096 991 7 096 989
2010 835 855 800 381 489 154 454 870 454 870 467 217
2010 2 933 646 2 995 150 3 230 920 4 998 159 5 789 993 5 947 155
2010 0 9 251 151 655 191 861 849 739 872 804
2011 258 471 258 471 957 925 957 986 1 272 446 1 306 985
2011 34 861 50 083 519 622 2 079 137 2 761 617 2 836 578
2011 1 337 499 1 338 182 1 034 079 551 673 732 760 752 650
2011 151 954 1 863 474 1 824 838 1 824 839 2 423 845 2 489 638
2011 151 868 47 030 1 369 325 1 370 018 1 819 728 1 869 122
2012 821 610 814 772 814 772 949 290 1 260 896 1 295 121
2012 138 239 141 641 2 524 053 2 940 773 3 906 086 4 012 112
2012 7 279 507 7 936 251 8 841 678 10 301 433 13 682 895 14 054 301
2013 141 900 7 142 871 7 436 565 8 664 336 11 508 419 11 820 800
2013 332 028 916 565 954 255 1 111 798 1 476 748 1 516 832
14M
12M
10M
8M
6M Avec IBNER
4M Sans IBNER
2M
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
F IGURE 2.6 – Effet des IBNER sur les montants des sinistres
1 2 3 4 5 6
2009 1 1 1 2 2 2
2010 1 1 1 1 1 1
2011 0 1 1 2 2 2
2012 1 1 2 3.33 3.33 3.33
2013 0 1 1.25 2.08 2.08 2.08
3
Avec IBNYR
2
Sans IBNYR
1
Nous constatons que les IBNYR ont un effet important sur la fréquence des deux dernières
années. Pour 2014, le nombre de sinistres à l’ultime fait plus que doubler après prise en
compte des IBNYR.
La méthode de “Chain Ladder” est simple à mettre en oeuvre et c’est pourquoi nous
l’avons utilisée dans cet exemple mais en pratique, cette méthode ne doit pas être ap-
pliquée car elle consiste à traiter la sinistralité annuelle dans sa globalité alors qu’en
réassurance on travaille avec des sinistres individuels. On peut montrer que cette méthode
conduit, notamment, à surestimer la fréquence des sinistres. Afin de conserver l’approche
sinistre par sinistre, il est possible de recourir à la méthode de Schnieper présentée au
21ème colloque ASTIN à New York au début des années 1980.
Nous utilisons les montants et les nombres de sinistres ultimes pour estimer les para-
mètres des lois Poisson et Pareto, θ et α respectivement, par la méthode du maximum de
vraisemblance :
k
1X
θ̂ = ni ≈ 2.083
k i=1
Pk
Où i=1 ni est le nombre de sinistres dépassant le seuil de modélisation SM sur l’en-
semble de la période 2009 − 2014 et où k désigne la longueur de l’historique (ici k = 5 car
aucun sinistre n’a été reporté en 2014).
n
α̂ = Pn xi
≈ 1.253
i=1 ln SM
Cet exemple donne une idée du travail effectué par un actuaire tarificateur. Toutefois, nous
sommes loin d’avoir balayé toutes les subtilités d’un traité RC automobile. Nous invitons
ceux qui s’y intéresseraient à consulter le mémoire d’Hervé Nessi [25].
Cela dit, cette définition reste assez vague. Il nous faut encore définir ce que sous-tend
l’expression “prix représentatif”, c’est-à-dire qu’il nous faut expliquer comment on obtient
un prix marché et une courbe des taux marché. C’est ce que nous allons faire dans un
premier temps. Dans un deuxième temps, nous présenterons d’autres approches marché
assez différentes. Il s’agit d’approches “benchmark ”. Le principe étant d’obtenir un taux
marché par comparaison du traité que l’on veut tarifer avec d’autres traités en portefeuille
de composition similaire.
( h i
1 1−α
1−α (l + d) − d1−α si α 6= 1
I1 =
ln( d+l
d ) si α = 1
1 −α −α
I2 = d − (l + d)
α
−α
(l + d)
I3 =
α
En remplaçant I1 , I2 et I3 dans l’expression de E[Xl,d ], on obtient :
( α h 1−α
i
λ 1−α
(l + d) − d si α 6= 1
E[Xl,d ] = 1−α
l+d
λ ln( d ) si α = 1
Par conséquent, dans le cadre du modèle collectif, la prime pure pour la tranche l xs d
peut être calculée de la façon suivante :
En remplaçant E[Xl,d ] par son expression et en supposant que Nλ suit une loi de Poisson
de paramètre θ, on obtient :
h i
λα
( 1−α
θ × 1−α (l + d) − d1−α si α 6= 1
E[Sl,d ] =
l+d
θ × λ ln( d ) si α = 1
En particulier, dans le cadre de ce modèle, on remarque que le taux d’une tranche illimitée
de priorité p, que l’on note ∞ xs p, est la somme des taux des tranches l xs p et ∞ xs
l + p. Bien entendu, cela est vrai uniquement si l’on a utilisé la même loi de Pareto pour
modéliser les tranches supérieures à p (ce qui est le cas en général puisque, la plupart du
temps, on utilise une seule modélisation pour coter les tranches non travaillantes d’un
traité) et si le paramètre de forme associé est strictement supérieur à 1.
A priori, cela peut paraître simple : une addition des primes et un rassemblement des
sinistres des cédantes. A posteriori, cela l’est beaucoup moins. Ce n’est pas tant le fait que
l’on travaille avec un nombre relativement important de cédantes mais plutôt les disparités
contractuelles entre les traités qui rendent l’agrégation complexe :
− Tout d’abord, il faut choisir une longueur d’historique appropriée. En effet, les statis-
tiques des cédantes du marché ne démarrent pas toutes la même année. On peut
conserver la longueur d’historique maximale pour notre groupe de cédantes en
gardant à l’esprit qu’il n’est pas approprié de considérer un historique supérieur à
cinq années en court et supérieur à dix années en long.
− Dans un deuxième temps, il faut tenir compte du fait que le seuil de communication
d’une cédante n’est pas nécessairement le même que celui d’une autre cédante. Il
faut alors considérer le seuil de communication maximal et supprimer les sinistres
qui ne dépassent jamais ce seuil au cours de leur développement.
− Enfin, il faut tenir compte de la gestion comptable et des dates de prise d’effet des
différents traités de notre portefeuille marché et uniformiser nos données de sinistres
(un triangle en long, une liste de sinistres en court) en conséquence. Ce dernier point
est de loin le plus complexe et nous invitons le lecteur à se reporter au chapitre 6
pour se faire une idée des étapes à suivre.
Une fois notre agrégation terminée, nous pouvons appliquer les méthodes de la partie 2.2
pour obtenir le taux marché de la tranche que l’on souhaite coter. Il existe des marchés
matures pour lesquels les tranches de réassurance sont standardisées. C’est le cas du
marché britannique de l’automobile sur lequel porte l’application de la troisième partie.
Pour ces marchés, il suffit de calculer le taux marché pour chacune des tranches standards.
Néanmoins, en réassurance, la plupart des marchés ne sont pas standardisés, il peut alors
être intéressant de construire une courbe marché afin de ne pas avoir à réappliquer les
méthodes de tarification sur expérience à chaque nouvelle tranche.
taux souscrit
7%
•
6%
5%
4%
3% Courbe marché
• pour un seuil à 4M
2% • Courbe marché
• pour un seuil à 2M
1% • •• •• •• •• •• •
0 2 4 6 8 10 12 14 16 18 20 priorité en M
La détermination d’un prix marché par agrégation des données des cédantes est une
approche laborieuse et contraignante (en particulier le fait qu’il faille choisir le seuil de
communication maximal). C’est pourquoi, les actuaires préfèrent recourir à des méthodes
“benchmark”. Pour ces approches benchmark, on ne s’intéresse pas aux primes pures mais
aux primes réellement souscrites.
S’il semble naturel de supposer que l’intensité des sinistres demeure constante d’année
en année, le taux de remise ν, le taux de chargement c et le nombre attendu de sinistres
E[Nλ ] peuvent, quant à eux, varier d’une année à l’autre. En divisant la prime P (d, l) par
l’EPI, on obtient le taux benchmark :
" α−1 #
α−1
P (d, l) ν(1 + l)E[Nλ ] λ λ λ
π(d, l, γ, λ, α) = = −
EP I | EP{z I } α−1 d l+d
γ
Soit un marché donné de la réassurance. Soit (di , li )i=1,...,n l’ensemble des tranches des
traités en excédent de sinistre de ce marché pour lesquelles les taux leaders 3 ri = r(di , li )
sont disponibles. Ces taux correspondent à des proportions des assiettes de primes notées
Pi . La détermination des paramètres inconnus, γ, λ et α, des taux benchmark πi =
πi (di , li , γ, λ, α) correspondant, se ramène au problème d’optimisation suivant :
k N (t) 2
X X (r(t) − π (t) )
i i
f (γ1 , γ2 , . . . , γk , λ, α) = min (t)
k≤5
t=1 i=1 πi
Nous posons k ≤ 5 car nous estimons qu’au delà de 5 années les taux ne sont plus compa-
rables.
Il est également possible d’utiliser les taux commerciaux souscrits par la compagnie
de réassurance ou les taux techniques obtenus par les actuaires plutôt que les taux leaders.
Tout dépend de ce que l’on veut : un taux cohérent avec les taux du marché global ou un
taux cohérent avec nos habitudes de souscription et avec notre portefeuille marché.
Pour pouvoir comparer facilement les prix de différentes tranches de réassurance, nous
réduisons une tranche de réassurance l xs d au milieu de cette tranche d + 2l . De plus, afin
de manipuler des grandeurs sans unités, nous divisons la valeur centrale des tranches par
la somme assurée totale.
3. Le taux leader correspond au taux retenu conjointement par la cédante et le courtier au terme des cotations
et placé sur le marché.
RoL
100%
cédante 6
10%
cédante 5
cédante 4
cédante 3
1%
cédante 2
cédante 1
0.1%
0.01% 0.1% 1% 10% 100%
F IGURE 2.9 – Comparaison du RoL de différents traités en fonction de la valeur centrale de la tranche
cotée en échelle log-log
La méthode est simple. On représente sur un graphique en échelle log-log, les données de
l’ensemble des cédantes du marché puis on ajuste une droite de régression au nuage de
points. Cette droite de régression est la “droite marché”. Calculer la pente et l’ordonnée à
l’origine de cette droite revient en fait à calculer les paramètres α et λ de la loi de Pareto
ajustée à l’ensemble des données marché (cf annexe A.3).
Ainsi, si l’on veut obtenir un taux marché pour une tranche d’un traité XS pour lequel on
dispose de peu de données, il faut, dans un premier temps, définir un marché contenant
des traités similaires à celui que l’on doit tarifer et construire pour le marché ainsi défini
un graphique semblable à celui représenté ci-dessus. Puis dans un second temps, il suffit
de calculer la valeur centrale de la tranche, de la diviser par la valeur assurée totale et de
lire, sur le graphique construit, la valeur du RoL correspondante.
Partie II
A présent que nous avons planté le décor, à savoir la tarification des traités en excédent de
sinistre, nous allons pouvoir expliquer plus avant les objectifs des prochains chapitres et la
finalité de ce mémoire.
Objectif :
Il arrive que la tranche du traité XS que l’on cherche à tarifer ne soit pas suffi-
samment sinistrée pour que la prime de réassurance obtenue par les méthodes de
tarification décrites au chapitre 2 soit suffisamment précise et fiable. Cela est fré-
quent pour les tranches hautes mais cela arrive également pour les tranches basses lorsqu’il
s’agit d’affaires nouvelles. L’idée qui est au centre de ce mémoire est d’augmenter la
fiabilité de la prime cotée en pondérant la prime individuelle et la prime marché.
Approche Stochastique
(Poisson/Pareto)
cc : estimation de la prime du client
π
πbc πc
m
b = z × πbc + (1 − z) × πc
π m
Cadre :
En général, les tranches d’un traité XS peuvent être divisées schématiquement en trois
zones :
− Les tranches basses. Il s’agit des tranches travaillantes. Ces tranches sont suffisam-
ment sinistrées pour qu’une cotation par la méthode du Burning Cost soit fiable. Si
nous appliquons les modèles qui sont développés dans la suite du mémoire à ces
tranches, nous obtenons un facteur de crédibilité z égal à 1.
− Les tranches médianes. Ce sont des tranches non travaillantes mais présentant une
sinistralité non nulle. Pour ces tranches, il peut être très intéressant de pondérer le
taux obtenu par l’approche stochastique et un taux marché.
− Les tranches hautes. Pour les tranches les plus hautes des programmes de réassurance,
notamment les tranches illimitées, la crédibilité n’est pas d’un grand secours puisque
à la fois la prime individuelle et la prime marché sont beaucoup trop imprécises pour
gagner en précision par leur combinaison.
Il est à noter que l’on n’observe pas systématiquement ce découpage pour chaque traité.
Ainsi, par exemple, toutes les tranches d’un traité XS peuvent être travaillantes ou inverse-
ment non travaillantes.
Cadre du mémoire
z≈0
0<z<1
Zone 3 : tranches hautes
z≈1
Conservation de l’assureur
Par conséquent, si les modèles qui seront développés par la suite peuvent s’appliquer
à n’importe quelle tranche d’un traité en excédent de sinistre, ils n’ont véritablement
d’intérêt que pour les tranches médianes de ces traités.
Chapitre 3
La théorie de la Crédibilité
3.1 Introduction
Même si la théorie de la crédibilité s’étend naturellement à la réassurance, ce n’est pas au
sein de cette activité qu’elle est née et s’est développée. C’est en assurance directe et plus
particulièrement en assurance responsabilité civile que cette théorie a trouvé le meilleur
terrain de développement.
crédible. Un peu plus tard, en 1945, Arthur L. Bailey pose les bases d’une nouvelle théorie,
la crédibilité des moindres carrés également nommée crédibilité “européenne”. Cette
approche vise à trouver une estimation de la vraie valeur de la prime en minimisant
l’erreur entre l’estimation et la vraie valeur. Les travaux de Bühlmann et Bühlmann-Straub
entrepris à la fin des années 1960 et développés dans le cadre de la statistique bayé-
sienne prennent racine dans ceux d’Arthur L. Bailey. Enfin, en 1992, Joseph A. Boor
développe la crédibilité des “incertitudes”. Cette dernière approche propose une nouvelle
méthode pour le calcul du facteur de crédibilité fondée sur les incertitudes relatives aux
erreurs commises lors de la détermination de la prime individuelle et de la prime collec-
tive. Cette dernière approche, bien qu’apparue tardivement, est sans doute la plus intuitive.
avec N (le nombre de sinistres engendrés par un assuré durant une année) supposé de
loi de poisson de paramètre λ et (Xi )i=1,..,n (les coûts des sinistres engendrés par ce
même assuré durant l’année considérée) supposées i.i.d de moyenne µ, de variance σ 2 et
indépendantes de N .
Autrement dit, on accorde à l’assuré une crédibilité totale si la probabilité que la charge de
S − E[S]
p ∼ N (0, 1)
V ar[S]
cE[S]
−p ≤ zε/2
V ar[S]
Donc
cλµ
−p ≤ zε/2
λ(σ 2 + µ2 )
λ ≥ λmin
2 !
zε/2 2 σ
λmin = 2 1+
c µ
Si on adopte le même raisonnement que pour la crédibilité totale, on est amené à détermi-
ner le facteur de crédibilité tel que :
|S − E[S]|
P z≥c ≤ε
E[S]
( q
z = nn0 si n ≤ n0
z = 1 sinon
Ainsi, bien que le risque puisse être en quelque sorte modélisé, l’assureur n’a bien souvent
qu’une vague idée du potentiel de pertes que représente un contrat et plus particulièrement
un nouveau contrat. En fait, il n’a qu’une perception a priori, perception qu’il se fait à
partir des variables de tarification. Ces variables permettent de répartir les contrats du
portefeuille d’une compagnie d’assurance ou de réassurance en classes, les contrats d’une
même classe ayant un niveau de risque relativement semblable. Ainsi, par exemple, les
deux variables de tarification principales communément utilisées par les réassureurs, sont
la branche et le type de traité. Toutefois, chaque contrat possède des caractéristiques
propres que l’on ne peut ni observer ni quantifier qui le distinguent des autres contrats
d’une même classe. Afin de modéliser ces différences, on suppose que chaque contrat est
caractérisé par un paramètre (ou profil) de risque qui lui est propre.
u(θ)L(x; θ)
u(θ|x) =
u(x)
∝ u(θ)L(x; θ)
X1 , X2 , . . .
Θ∼U X ∼ Fθ
L’objectif de l’actuaire tarificateur est de trouver pour chaque contrat caractérisé par le
paramètre de risque θ le meilleur estimateur π(θ)d de la prime individuelle.
P Bayes = π(Θ)
] = E[π(Θ)|X]
Preuve.
h i 2 2
[ − π(Θ))(
E (π(Θ) ] π(Θ)[ − π(Θ))|X = π(Θ)E[
] π(Θ)|X]
[ [ −π(Θ)
− E[π(Θ)π(Θ)|X] ] + π(Θ)
]
| {z }
=0
D’où :
2 2 2
E [ − π(Θ)
π(Θ) [ − π(Θ)
= E π(Θ) ] ] − π(Θ)
+ E π(Θ) ]
Et donc finalement :
2 2
E [ − π(Θ)
π(Θ) ≤E ] − π(Θ)
π(Θ) ]
Les observations
L’information a priori
x1 , x 2 , . . . x n
X1 , . . . , Xi , . . . , Xn
Loi a priori de densité u(θ)
Xi |θ ∼ Fθ
Loi a posteriori de
densité u(θ|x1 , . . . , xn )
Estimation de la
]
prime de Bayes π(Θ)
La famille U doit être assez grande pour contenir les distributions qui peuvent décrire le
collectif mais aussi petite qu’il est possible de représenter notre connaissance du collectif.
Idéalement, les familles U et F devraient être choisies de manière à ce que la prime de
Bayes puisse s’exprimer analytiquement.
L’un des principaux intérêts d’utilisation des familles de distributions conjuguées est que
la distribution a posteriori obtenue sur une période peut être utilisée comme a priori
de la période suivante. Nous appelerons formules de mise à jour, les règles permettant
de passer de la distribution a priori à la distribution a posteriori. On renvoie le lecteur
au paragraphe 4.3 du chapitre 4 pour une explication plus détaillée des méthodes de
modélisation de l’information a priori et notamment d’estimation des hyperparamètres.
Nous cherchons à trouver, pour chaque risque individuel i, un estimateur de la prime indi-
viduelle π(Θi ). Bühlmann a restreint son cadre de travaille à la classe des estimateurs qui
sont linéaires en les observations, (Xij )1≤i≤I,1≤j≤n . Nous allons montrer que le meilleur
estimateur linéaire en les observations est une prime de crédibilité.
Dans le modèle de Bühlmann, on se place dans le cadre où les deux hypothèses sui-
vantes sont vérifiées :
\
\
Notons π(Θi ) le meilleur estimateur linéaire en les observations de π(Θ).
Preuve.
\
\
L’estimateur de crédibilité π(Θi ) est de la forme :
I n
\
\ (i)
XXd(i)
π(Θi ) = a0 + akj Xkj
d
k=1 j=1
où
n
1X
X̄k = Xkj
n j=1
et
I
(i) d(i) (i) (i)
X 2
a0 , ak = argmin E [( π(Θi ) − a0 − ak X̄k
d
k=1
Si l’on substitue la première équation aux dérivées partielles, dans les I suivantes, on
obtient :
I
(i)
X
E X̄j π(Θi ) − E [π(Θi )] E[X̄j ] = ak E[X̄j X̄k ] − E[X̄j ]E[X̄k ] ∀1 ≤ j ≤ I
k=1
Soit
I
X (i)
Cov X̄j , π(Θi ) = ak Cov X̄k , X̄j , ∀1 ≤ j ≤ I
k=1
Or
Cov X̄k , X̄j , = δjk V ar[X̄j ]
Donc (i)
Cov X̄j , π(Θi ) = aj V ar[X̄j ] ∀ 1 ≤ j ≤ I
Or (
E[π(Θi )] = E[E[Xi |Θi ]] = E[Xi ] = E[X̄i ]
2
E[X̄i π(Θi )] = E[E[X̄i π(Θi )|Θi ]] = E[π(Θi ) ]
D’où
2 2
Cov(X̄i , π(Θi )) = E[π(Θi ) ] − E[π(Θi )] = V ar[π(Θi )] = τ 2
E[σ 2 (Θi )] σ2
V ar[X̄i ] = + V ar[π(Θi )] = + τ2
n n
En outre,
E[π(Θi )] = E[X̄i ] = π0
On obtient donc :
(i) n
ai =
d
n + σ 2 /τ 2
(i) (i)
a0 = 1 − ai π0
d d
(i)
Enfin, en notant z = ai , on retrouve l’expression de la prime de Bühlmann énoncée dans
d
le théorème 3.
Nous remarquons que l’estimateur de crédibilité π(Θi ), bien que basé sur l’ensemble
des observations du portefeuille, ne dépend que des observations associées au risque i.
2
σ2
σ/π0
R= =
τ2 τ /π0
√
R s’interprète comme le rapport entre la variabilité interne du risque et l’hétérogénéité
du portefeuille. En effet : p
σ E[V ar(Xj |Θi )]
=
π0 E[Xj ]
τ
= CoV [π(Θi )]
π0
Où (
σ2
2
σX̄ i
= E V ar(X̄i |Θ) = n
σh2 = τ 2 = V ar[π(Θ)]
En effet,
n τ2 σh2
z= 2 = 2 = 2 2
n + στ 2 τ 2 + σn σh + σX̄ i
Cette écriture est plus naturelle et intuitive que celle du théorème 3 dans la mesure
Preuve.
" 2 #
\ h 2 i
E \
π(Θi ) − π(Θi ) = E z X̄i + (1 − z)π0 − π(Θi )
h 2 i h i
2 2
= z2 E
X̄i − π(Θi ) +(1 − z) E (π0 − π(Θi )) +2z(1 − z) E (X̄i − π(Θi ))(π0 − π(Θi ))
| {z } | {z } | {z }
2 =0
= σn =τ 2
Donc " 2 #
\ σ2 2
E \
π(Θi ) − π(Θi ) = z2 + (1 − z) τ 2
n
Or
n τ2
z= =
n + σ 2 /τ 2 τ 2 + σ 2 /n
Donc
σ2 1−z 2
= τ
n z
D’où
" 2 #
\ σ2
E \
π(Θi ) − π(Θi ) = (1 − z)τ 2 = z
n
C’est une hypothèse forte qui ne se trouve jamais vérifiée en pratique (la taille d’un
contrat change toujours au fil du temps). Afin de tenir compte des variations de l’exposi-
tion au risque, Bühlmann et Straub ont généralisé le modèle précédent en attribuant un
poids aux pertes annuelles. On a :
De plus, intuitivement, on s’attend à ce que l’expérience d’un “gros” contrat soit plus
stable dans le temps que celle d’un “petit” contrat. Autrement dit, la variance condition-
nelle devrait être décroissante avec l’exposition au risque. Les hypothèses du modèle de
Bühlmann-Straub sont les suivantes :
\
\
π(Θi ) = zi × X̄i + (1 − zi ) × π0
où
X ωij
Xi = Xij ,
j
ωi•
X
ωi• = ωij ,
j
ωi•
zi = 2 ,
ωi• + στ 2
Preuve.
Nous ne démontrons pas ce théorème mais la démonstration figure dans le livre de
Bühlmann & Gisler [3] publié en 2005.
θk
P (Nj = k|Θ = θ) = e−θ , pour k ∈ N
k!
− (H2 ) Θ est distribuée selon une loi Gamma de paramètres a et b, Θ a donc pour
densité :
ba a−1 −bθ
u(θ) = θ e , pour θ ≥ 0
Γ(a)
Nous pouvons donner une interprétation très simple des paramètres de structure.
a a E[Θ] E[Θ]2
E[Θ] = et V ar[Θ] = 2 donc b = et a =
b b V ar[Θ] V ar[Θ]
Ainsi a et b peuvent être vus comme des mesures de l’homogénéité de la classe. Plus a et
b sont petits plus la distribution de Θ est dispersée autour de la moyenne. b s’interprète
également comme la précision de l’a priori : plus b est grand, plus V ar[Θ] est petit et donc
plus l’information a priori est précise.
[
[ = z × N̄ + (1 − z) × π0
π(Θ)
n
z=
n + σ 2 /τ 2
où
a
τ 2 = V ar[π(Θ)] = V ar[Θ] =
b2
a
σ 2 = E[σ 2 (Θ)] = E[V ar[N |Θ]] =
b
Donc
n
z=
n+b
On constate que le facteur de crédibilité est croissant avec le nombre d’années d’observation
et décroissant avec b. Ce qui n’est pas surprenant car plus on dispose d’informations
individuelles, plus on accorde de crédit au passé sinistre de l’assuré et plus le collectif est
homogène, plus on accorde de crédit à la prime collective.
Il faut donc déterminer uθ|N , la densité a posteriori de Θ sachant N, pour obtenir la prime
de Bayes.
La dernière ligne dePcalcul correspond au noyau de la densité d’une loi Gamma de pa-
0 n 0
ramètres a = a + j=1 nj et b = b + n. Par conséquent les lois Gamma et Poisson
sont des lois conjuguées puisqu’elles vérifient la définition 2. On se rend bien compte sur
cet exemple de l’intérêt de l’utilisation de lois conjuguées. Il est, en effet, très facile de
déterminer les paramètres de la distribution a posteriori.
De plus Pn Pn
0
Bayes a a + j=1 nj n j=1 nj b a
P = 0 = = × + ×
b b+n n+b n n+b b
Et donc Pn
Bayes j=1 nj a [
P =z× + (1 − z) × [
= π(Θ)
n b
Nous avons donc démontré que pour les lois conjuguées Gamma et Poisson, la prime de
Bayes et la prime de crédibilité de Bühlmann sont confondues.
Par conséquent :
n b
E[Θ|N] = N̄ + E[Θ]
n+b n+b
Chapitre 4
La crédibilité bayésienne
appliquée à la réassurance
C’est Straub [32] qui le premier, en 1971, à chercher à appliquer les modèles de crédibilité
développés par Bühlmann à la réassurance en excédent de sinistre. Patrik et Mashitz
[28] ont ensuite repris son travail et l’ont développé dans leur article de 1990. Toutefois,
ces trois auteurs bornent leur travaux à la crédibilité des nombres de sinistres et ne
considérent pas les pertes agrégées, qui sont pourtant le réel élément d’intérêt lors de la
tarification d’un excédent de sinistre. Un peu plus tard, Cockroft [7] a établit une formule
de crédibilité pour les charges agrégées de sinistres en s’appuyant sur un article écrit par
Ole Hesslager [15]. Dans cette partie, nous décrivons, implémentons et comparons les
différentes approches de crédibilité bayésienne appliquées à la réassurance.
Considérons un traité en excédent de sinistre dont l’on cherche à coter l’une des tranches
l xs d. On note c le seuil de communication de la cédante. Cette dernière transmet
donc la liste des sinistres dont le montant dépasse le seuil c durant une période [0, T ].
Dans ce chapitre, nous nous bornons aux modèles fréquence/sévérité classiques du type
Poisson/Pareto.
Notons Θd =qd Θ. On a :
E[Nd |Θ] = Θd = qd · E[N |Θ]
λ α
En particulier, si X ∼ Pareto(λ, α) alors qd = P (X > d) = d et
α
λ
E[Nd |Θ] = · E[N |Θ]
d
Autrement dit, une fois que le paramètre de forme α de la loi de Pareto est calibré au seuil
de modélisation λ, on peut obtenir facilement la fréquence de sinistralité de tranches plus
élevées.
Preuve.
P (qd Θ ≤ x) = P (Θ ≤ x/qd )
Z x/qd a a−1 −bθ
b θ e
= dθ
0 Γ(a)
Soit
0 0 0
Θ 1
Θ = Θd = qd Θ alors Θ = qd et dΘ = qd dΘ .
n ωi•
avec z = s’il s’agit du théorème de Bühlmann et z = s’il s’agit du théorème
n+b ωi• + b
de Bühlmann-Straub.
\
\ λ ¯ a
π(Θ d ) = θd = zd × Nd + (1 − zd ) × qd
c
b
Si X suit une loi de Pareto de paramètres (λ, α), le facteur de crédibilité peut se réécrire,
par exemple, dans le cas du modèle de Bühlmann :
n
zd = α
n + b/( λd )
0.6
Facteur de
0.4
crédibilité
0.2
0.0
2e+06 20
4e+06 15 n
tio
Pr 6e+06 erva
10 bs
io
rit d'o
é es
né
8e+06 5 d'an
bre
m
No
1e+07 0
Comme pour le modèle Poisson/Gamma développé supra, nous constatons que le facteur
de crédibilité augmente avec le nombre d’années d’observation n et décroît lorsque b
augmente. Ce qui n’est pas étonnant si l’on se souvient que b est une mesure de l’ho-
mogénéité du collectif. En outre, nous remarquons que le facteur de crédibilité décroît
également lorsque la priorité augmente. Ce qui n’est pas surprenant non plus puisque plus
la priorité augmente, plus le nombre de sinistres dépassant la priorité est faible et moins
on accorde d’importance à la prime calculée sur base expérience. La figure 4.1 représente
le graphique 3D obtenu lorsque l’on fait varier simultanément la priorité de 1 M à 10 M
(peu importe l’unité monétaire), la longueur de l’historique de 0 à 20 années, pour un seuil
de modélisation égal à 0.75 M et les paramètres suivants : b = 5 et α = 1.2.
Il existe une deuxième méthode qui consiste à appliquer directement aux taux de primes
le facteur de crédibilité, zd , calculé grâce aux résultats de la section 4.1.1 :
b = zd × πbc + (1 − zd ) × πc
π m
Bien entendu, cette méthode n’est mathématiquement pas fondée. Stéphane Bonche l’ap-
plique sans vergogne dans son mémoire [1] arguant que c’est un gain considérable en
terme de temps et de communication. De plus, selon lui, les résultats ne diffèrent pas
trop de ceux que l’on obtiendrait avec un modèle adapté aux pertes agrégées de sinistres.
Nous aurons l’occasion de discuter ce propos une fois que nous aurons présenté l’approche
combinant fréquence et sévérité. Nous y reviendrons, notamment, dans la troisième et
dernière partie de ce mémoire dédiée à une application 1 .
Ces deux mises en oeuvre possibles sont illustrées sur la figure 4.2. La première est
indiquée en traits pointillés et rouges alors que la deuxième apparaît en traits pleins et
noirs.
Agrégation des
“données cédantes”
extrapolation extrapolation
Statistiques ultimes
Sinistres corrigés de l’inflation, des IBNR,. . .
nc
zc = nc +b
λ λ
θˆc , αˆc λ λ λ
profil de risque θˆm , αˆm λ
αˆc λ , θ̂λ = zc × θˆc + (1 − zc ) × θˆm Θ ∼ Gamma(a, b)
Simulations Simulations
stochastiques stochastiques
nc
zcd = nc +b/qd
• • • • • • • •
• • • •
• • • • • •
Soit une variable aléatoire X de loi de Pareto de paramètres (λ, Ψ). Selon la définition
américaine, sa fonction de répartition s’écrit :
Ψ
λ
Fλ,Ψ (x) = 1 −
λ+x
Théorème 1.
n
X λ + xi
Ψ|X ∼ Gamma(s + n, t + ln )
i=1
λ
Preuve.
−(Ψ+1) Ψ λ Ψ+1
X|Ψ ∼ Pareto (Ψ, λ) donc : f (x) = ΨλΨ (λ + x) = λ ( λ+x )
ts e−tψ ψ s−1
Ψ ∼ Gamma(s, t) donc : v(ψ) = Γ(s)
La dernière
Pn ligne correspond au noyau de la densité d’une loi Gamma de paramètres s + n
et t + i ln λ+x
λ
i
. Au passage, nous avons également établi les règles de mise à jour
des paramètres s et t permettant de passer de la distribution a priori à la distribution a
posteriori.
Comme précédemmment N (j) désigne le nombre de sinistres FGU reportés par les assurés
(j) (j) (j)
à l’assureur pendant la période j et Y1 , Y2 , ...., Yk les montants correspondants où k
(j)
est une réalisation de la variable N . Nous faisons les hypothèses suivantes :
(j) (j)
En outre, nous notons Yd,i , i = 1, ...Nd les coûts des sinistres FGU dépassant la priorité,
(j) (j)
Xd,i , i
= 1, ...Ndles charges correspondantes pour la tranche l xs d et Z (j) la charge
agrégée de cette tranche.
(j) (j)
Xd,i = min(Yd,i , l + d) − d
(j)
Nd
(j)
X
(j)
Z = Xd,i
i=1
Comme dans la partie précédente, l’indice de période (j) est omis dans les prorpiétés et
démonstrations qui suivent.
∀i Xd,i ∼ Xd
Ψ
λ
Nd |Θ ∼ Poisson(Θd ) où Θd = Θ
λ+d
Θd ∼ Gamma(a, b/qd )
Nous notons Φ la paire de paramètres (Θd , Ψ) et nous désignons par er (Φ) le moment
centrale d’ordre r de la distribution de la charge agrégée Z conditionnellement à Φ.
Pour cela, nous allons appliquer le théorème de Bühlmann. Nous en profitons pour
rappeler l’expression de la prime de crédibilité.
[
[ = z × X̄ + (1 − z) × E[π(Θ)] où z = n σ2 E[σ 2 (Θ)]
π(Θ) avec ρ = 2 =
n+ρ τ V ar[π(Θ)]
Les équivalences de notations entre les deux modèles sont les suivantes :
Θ ∼ Φ = (Θd , Ψ)
π(Θ) ∼ e1 (Φ)
σ 2 (Φ) ∼ e2 (Φ)
En adaptant les notations, la meilleure estimation de la prime individuelle, que l’on note
\
e\
1 (Φ), peut s’écrire :
\
e\
1 (Φ) = z × Z̄ + (1 − z) × E[e1 (Φ)]
avec
σ 2 = E[e2 (Φ)]
2 2
τ 2 = V ar[e1 (Φ)] = E[e1 (Φ) ] − E[e1 (Φ)]
Pr r−1
πj (Ψ)E[Z r−j |Φ] pour r = 1, 2, ... où πj (Ψ) = E[Xd j |Ψ]
Lemme 3. er (Φ) = Θd j=1 j−1
Preuve.
Nous ne démontrons pas ce lemme mais la démonstration figure dans l’article de Goovaerts
datant de 1984 intitulé Insurance Premiums.
D’après le lemme 1 :
2
2
X 1
E[Z |Φ] = Θd πj (Ψ)E[Z 2−j |Φ]
j=1
j − 1
= Θd π1 (Ψ)E[Z|Φ] + Θd π2 (Ψ)
2
= [Θd π1 (Ψ)] + Θd π2 (Ψ)
Lemme 5.
Ψ
E[e1 (Φ)] = (a/b)E[[λ/λ + d] π1 (Ψ)]
Ψ
E[e2 (Φ)] = (a/b)E[[λ/λ + d] π2 (Ψ)]
Preuve.
Ce lemme découle directement du précédent.
Lemme 6.
r Ψ−j !
X r r−j j λ+d
πr (Ψ) = (λ + d)r (−1) 1−
j=0
j Ψ−j λ+d+l
Preuve.
Lemme 7.
∞ i X i−r
X λ+l+d 1 i−1 l
πr (Ψ) = (λ + d)r ln (−1) Ψl gr (i − l)
i=r
λ + d i! l
l=0
où
r
X r−j m
gr (m) = (−1) j
j=0
Preuve. Ψ−j
λ+d
Nous pouvons réécrire λ+d+l de la façon suivante :
Ψ−j
λ+d λ+d
= e(Ψ−j) ln( λ+d+l )
λ+d+l
∞ i
X λ+l+d (Ψ − j)i
= ln
i=0
λ+d i!
∞ i
(j − Ψ)i−1
X λ+l+d
= 1 − (Ψ − j) ln
i=1
λ+d i!
Or, si m < r, gr (m) = 0, on peut donc réécrire la somme infinie de sorte à retrouver
l’expression du lemme.
Preuve.
D’après le lemme précédent :
∞ i−r
i X
X
r λ+l+d i−1 l
πr (Ψ) = (λ + d) ln (−1) Ψl gr (i − l)
i=r
λ + d l
l=0
En substituant ce résultat dans les expressions de E[e1 (Φ)] et de E[e2 (Φ)] du lemme , on a
pour r = 1, 2 :
∞
" Ψ i X i−r #
a λ r
X λ+l+d 1 i−1 l l
E[er (Φ)] = E (λ + d) ln (−1) Ψ gr (i − l)
b λ+d i=r
λ+d i! l
l=0
∞ i X i−r " Ψ #
a r
X λ+l+d 1 i−1 l λ
= (λ + d) ln (−1) gr (i − l)E Ψl
b i=r
λ + d i! l λ + d
l=0
Comme Ψ est distribué selon une Gamma de paramètres (s, t), la propriété suivante est
vérifiée :
Γ(s + u)ts
E(Ψu e−νΨ ) = s+u
Γ(s)(t + ν)
Et par conséquent :
∞ i X i−r l
i − 1 (−1) gr (i − l)Γ(s + l)ts
a r
X λ+l+d 1
E[er (Φ)] = (λ + d) ln s+l
b i=r
λ+d i! l Γ(s) t + ln λ+d
l=0 λ
Preuve.
D’après le lemme 5,
Ψ
a λ
e1 (Φ) = π1 (Ψ)
b λ+d
D’après le lemme 6,
Ψ 1 Ψj !
a λ X 1 j λ+d
e1 (Φ) = (λ + d) (−1)j 1−
b λ+d j=0
j Ψ−j λ+d+l
Donc Ψ Ψ1 !
a λ 1 λ+d
e1 (Φ) = (λ + d) 1−
b λ+d Ψ−1 λ+d+l
2
Théorème 10. E[e1 (Φ) ] peut s’écrire :
2 ∞ i X i−1
ts X
2 a(λ + d) λ+l+d 1 i−1 l
E[e1 (Φ) ] = ln (−1)
b Γ(s) i=1 λ+d i! l
l=0
∞
!
X Γ[1; s + j + l, t + 2 ln λd ]
×{ Γ(1; s, t)Γ(s + j + l) − s+j+l
j=0 [t + 2 ln λd ]
∞
X λ + l + d Γ[1; s + j + l, t + ln λd + ln λu ]
+ Γ(1; s, t)Γ(s + j + l) s+j+l
j=0
λ+d [t + ln λd + ln λu ]
∞
X Ωj [1; s + l, t + 2 ln λd ]
+ [1 − Γ(1; s, t)]Γ(s + l) s+l
j=1 [t + 2 ln λd ]
∞
X λ + l + d Ωj [1; s + l, t + ln λd + ln λu ]
− [1 − Γ(1; s, t)]Γ(s + l) s+l
}
j=1
λ+d [t + ln λd + ln λu ]
loi Gamma.
Preuve.
La démonstration de ce théorème étant asez longue et n’étant pas essentielle pour la
compréhension globale du mémoire, nous renvoyons le lecteur intéressé à l’article de
Cockroft, Clark et Peacok [7].
1 ts e−tx x−j+s t
Ωj (x; s, t) = − Ωj−1 (x; s, t)
j−s Γ(s) j−s
avec j > 0 si s ∈
/N
et j > s si s ∈ N
Ω0 (x; s, t) = 1 − Γ(x; s, t)
Z ∞ −tΨ
ts e
Ωs (x; s, t) = dΨ
Γ(s) x Ψ
Les lemmes et les théorèmes précédents ont donc permis d’obtenir une expression analy-
tique du facteur de crédibilité :
n E[e2 (Φ)]
z= avec ρ = 2 2.
n+ρ E[e1 (Φ) ] − E[e1 (Φ)]
Il faut préciser, néanmoins, que la prime de crédibilité calculé par le biais du modèle
de Cockroft est le meilleur estimateur linéaire de la prime individuelle mais ce n’est pas
nécessairement le meilleur estimateur de cette prime puisque le meilleur estimateur est
l’estimateur bayésien et que rien ne nous prouve que ces deux estimateurs soient confon-
dus.
0.3 0.3
0.2 0.2
z
0.1 0.1
15
4e+06
1e+06 5
es
10
né
3e+06
an
d'
2e+06
e
br
Pr
om
es
ior 10
né
N
Pr ité 2e+06
an
ior 5
i 3e+06
d'
té
e
br
om
N
1e+06
4e+06 15
F IGURE 4.3 – Facteur de crédibilité en fonction de la priorité et du nombre d’années pour un seuil
égale à 0.5 M selon deux angles différents
Comme pour le modèle purement fréquentiel, vérifions que ce que renvoie notre pro-
gramme est crédible. En particulier, vérifions que le facteur de crédibilité augmente
lorsque la longueur de l’historique augmente et diminue lorsque la priorité augmente.
La figure 4.3 représente le graphique 3D que l’on obtient lorsque l’on fait varier simultané-
ment la priorité de 0.7 M à 4 M, la longueur de l’historique de une à quinze années, pour
un seuil de modélisation égal à 0.5 M et les paramètres de structure suivants : a = 1.86,
b = 1.6, s = 9.1 et t = 2.7. Le facteur de crédibilité varie entre 0 et 0.4 et vérifie bien
les deux propriétés évoquées précédemment. Si on considère maintenant un seuil plus
élevé (toujours inférieur à la priorité), égale à 0.65 M, on obtient un graphique légèrement
différent. En particulier, il n’est plus vrai que le facteur de crédibilité ne fait que diminuer
avec la priorité. En effet, il augmente d’abord légèrement jusque 1.5 M puis diminue
ensuite comme dans le graphique précédent. Ce phénomène est en fait justifié et n’est pas
très étonnant si on se rappelle ce qui a été expliqué dans la partie 2.2.3 concernant le
choix du seuil de modélisation. Il sera plus crédible d’utiliser un seuil égale à 0.65 M pour
coter un traité de priorité 1 M ou 1.5 M plutôt que pour coter un traité de priorité égale à
0.7 M.
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
15
4e+06
1e+06 5
es
10
né
3e+06
an
d'
2e+06
e
br
Pr
om
ior 10 es
né
N
Pr ité 2e+06
an
ior 5
i 3e+06
d'
té
e
br
om
N
1e+06
4e+06 15
F IGURE 4.4 – Facteur de crédibilité en fonction de la priorité et du nombre d’années pour un seuil
égale à 0.65 M selon deux angles différents
Agrégation des
“données cédantes”
extrapolation extrapolation
Statistiques ultimes
Sinistres corrigés de l’inflation, des IBNR,. . .
λ λ
θˆc , αˆc λ profil de risque θˆm , αˆm λ
Θ ∼ Gamma(a, b)
Ψ ∼ Gamma(s, t)
Simulations Simulations
stochastiques stochastiques
nc
zcd,l = nc +ρ
• • • • • • • •
• • • •
• • • • • •
marché et de les modéliser par une distribution Gamma plausible. Il s’agit d’une approche
subjective.
Dans leur article, Gary Patrik et Isaac Mashitz [21] propose à l’adresse des actuaires
et souscripteurs un questionnaire à points basé sur la qualité des données, l’évolution
de la composition du portefeuille cédante,. . . . Selon l’intervalle dans lequel se trouve le
total des points accumulés à l’issu du questionnaire, des paramètres a et b sont proposés.
Néanmoins ce questionnaire et les études sous-jacentes datent de 1990, il n’est pas donc
pas sûr qu’ils soient encore d’actualité aujourd’hui. En outre, nous cherchons une méthode
plus fine et plus fiable qu’une procédure qui conduirait à l’utilisation systématique de
certains paramètres.
Une idée qui ne semble pas absurde est d’estimer les paramètres des lois Gamma par
la méthode des moments en utilisant les estimations des paramètres de fréquence et
d’intensité de chaque cédante. Soit un marché constitué de l cédantes.
Fréquence Sévérité
1 θ1 ψ1
.. .. ..
. . .
l θl ψl
TABLE 4.1 – Paramètres des lois Poisson et Pareto pour les cédantes du marché
l
s 1X
E[Ψ] = = ψk = ψ̄
t l
k=1
l
s 1 X 2
V ar[Ψ] = = (ψk − ψ̄)
t2 l−1
k=1
Cependant, cette méthode suppose de travailler avec un marché pour lequel on dispose de
suffisamment de cédantes. Par ailleurs, il pourrait être également intéressant de prendre
en considération les données d’exposition (les assiettes de prime, les nombres de polices à
la fin de chaque exercice,. . . ) dans le calcul des paramètres a priori.
Dans les formules suivantes, les périodes correspondent aux indices supérieurs et les
numéros des sinistres aux indices inférieurs. Supposons que l’on dispose de k années
d’historique, les variables N et X étant supposées indépendantes, on a :
k
(j) (j)
Y
fΘ,Ψ|N,X (θ, ψ|nj ,x1 , . . . , x(j)
n ,j = 1...k) ∝ L(nj |θ) × L(x1 , . . . , x(j)
n |ψ) × uΘ (θ) × vΨ (ψ)
j=1
k nj
!ψ+1
Y θnj e−θ Y ψ λ ba e−bθ θa−1 ts e−tψ ψ s−1
= (j)
j=1
nj ! i=1 λ λ + xi Γ(a) Γ(s)
θm e−kθ Y ψ nj λnj ψ ba e−bθ θa−1 ts e−tψ ψ s−1
= Q ψ+1
j nj ! j (j) Γ(a) Γ(s)
Q
i (λ + xi )
θm e−kθ m mψ ln(λ) −(ψ+1) Pj Pi ln(λ+x(j)
i )
ba e−bθ θa−1 ts e−tψ ψ s−1
= Q ψ e e
j nj ! Γ(a) Γ(s)
!!
(j)
λ+x )
i
P P
t+ j i ln λ ψ
∝ θa+m−1 e−(b+k)θ ψ s+m+1 e
Pk
où m = j=1 nj
Prior Posterior
a a+m
b b+k
s s+m
P
t t + ij yij
Ψ|X, N, Θ ∼ Ψ|X
Θ|X, N, Ψ ∼ Θ|N
. xt ∼ fx|y (·|yt )
end for
(xt )t , (yt )t et (xt , yt )t sont des chaînes de Markov. Nous ne définissons pas ce terme ma-
thématiquement mais nous aurons l’occasion de l’employer par la suite. Bien entendu,
l’algorithme ci-dessus sera plus facile à mettre en oeuvre dans le cas où les lois de X et
de Y sont conjuguées. En effet, il suffira alors de mettre à jour les paramètres des lois
conjuguées à chaque itération.
for t ←− 1, . . . , N
for t ←− 1, . . . , N
1 2 3 4 5
2.495 1.985 3.215 _ 19.180
2.120 1.810 2.105 _ 1.915
2.095 1.625 1.765 1.790
1.700 _ 1.715 _ 1.755
1.650 _ _ _ _
TABLE 4.2 – Données issues d’un portefeuille automobile et extraites de l’article de Rytgaard [31]
Nous devons indiquer à winBUGS, les vecteurs des observations x = (2.495, 2.120, 2.095,
1.700, 1.650, 1.985, 1.810, 1.625, 3.215, 2.105, 1.765, 1.715, 19.180, 1.915, 1.790, 1.755)0 et
n = (5, 3, 4, 0, 4)0 , les lois Gamma choisies a priori, Gamma(1, 0.0001) et nous devons
également spécifer des valeurs intiales θ0 et ψ0 . Le code WinBUGS utilisé se trouve dans
l’annexe D.
Afin de contrôler la convergence, nous allons faire tourner trois chaînes de Markov en pa-
rallèle, pour chaque paramètre, en spécifiant des valeurs initiales différentes pour chaque
chaîne. Les valeurs intiales choisies pour la chaîne 3 correspondent aux estimateurs θ̂M V
et ψ̂M V de θ et ψ calculés par maximum de vraisemblance dans le cadre de la statistique
classique où l’on considère θ et ψ constants.
Nous nous attendons à ce que les trois chaînes convergent vers la même valeur au
bout de plusieurs milliers d’itérations. Le graphique ci-dessous représente les trois chaînes
obtenues pour le paramètre θ après 40 000 itérations (les 20 000 premières itérations ne
sont pas affichées).
Chaîne no 1 2 3
θ0 2 0.90 3.2
ψ0 1000 2 2.47
6
5
4
3
2
1 TABLE 4.3 – Valeurs intiales des trois chaînes de Markov
Pour alléger le graphique précédent, nous allons afficher les chaînes (θt+100 )t .
6
5
4
3
2
1
F IGURE 4.7 – Les trois chaînes de Markov obtenues pour le paramètre θ en n’affichant qu’une
itération sur 100
Comme nous pouvons le constater, les chaînes semblent quasiment confondues. Il existe
une méthode plus précise permettant de vérifier la convergence. Il s’agit du test de Brooks-
Gelman-Rubin. Ce test compare les variations à l’intérieur et entre les chaînes. Pour cela,
il calcul un ratio correspondant grossièrement aux variations internes divisées par les
variations externes. Si ce ratio tend vers 1 alors on peut affirmer qu’il y a convergence de
toutes les chaînes de Markov vers une unique distribution. Dans le cas de notre exemple,
la convergence est évidente.
1.025
1.020
1.015
1.010
1.005
1.000
C’est la “magie” de l’algorithme de Gibbs : peu importe la loi a priori, on converge vers
la vraie valeur. Après 40 000 itérations de nos trois chaînes combinées, nous obtenons les
estimations a posteriori suivantes :
θ ψ
0.5
0.6
0.4
0.5
0.3
0.4
0.3
0.2
0.2
0.1
0.1
0.0
0.0
1 2 3 4 5 6 7 1 2 3 4 5 6
F IGURE 4.9 – Histogrammes et densités obtenues à l’équilibre pour le paramètre θ à gauche et pour
le paramètre ψ à droite
Les densités a posteriori ressemblent bien à des distributions Gamma. Ce que peut confir-
mer un QQplot.
5
6
Empirical quantiles
4
5
4
3
3
2
2
1 2 3 4 5 6 7 1 2 3 4 5 6
Theoretical quantiles Theoretical quantiles
F IGURE 4.10 – QQ-plot. En ordonnées on trouve les quantiles empiriques et en abscisses les quantiles
théoriques
Enfin, il ne nous reste plus qu’à estimer les paramètres de ces lois Gamma. Au choix, nous
pouvons utiliser la méthode des moments ou la méthode du maximum de vraisemblance
via la fonction fitdist du package fitdistrplus de R par exemple. Ces deux mé-
thodes conduisent à des résultats sensiblement identiques.
a = 16.58
b = 4.87
s = 17.01
t = 6.50
Par conséquent, pour ce modèle, le taux marché pourrait être estimé approximativement
à partir des hyperparamètres, a, b, s, t, issus de la calibration. On pourrait donc utiliser
ce modèle comme un outil de tarification à part entière, indépendamment des outils de
tarification existants qui calculent les estimateurs des taux de primes stochastiquement.
Néanmoins, l’estimateur empirique X̄ ne donne des résultats satisfaisants que pour les
tranches travaillantes. Or, nous voulons justement appliquer ces modèles pour les tranches
non travaillantes peu sinistrées. C’est pourquoi nous avons préféré, même si cela n’est
pas complétement rigoureux, utiliser les modèles bayésiens pour déterminer le facteur de
crédibilité uniquement et utiliser les outils de tarification pour estimer les taux de primes
stochastiquement, comme expliqué dans les schémas 4.2 et 4.5.
Chapitre 5
Nous allons nous contenter de décrire brièvement ce nouveau modèle dans la mesure où il
est exposé avec force détails dans l’article de Bonche et Parodi. Par contre, nous insisterons
davantage sur la façon dont nous avons appliqué le modèle étant donné que cela résulte
souvent de choix personnels. Dans la suite de cette partie, nous utilisons l’écart-type d’un
estimateur comme mesure de l’incertitude liée à cet estimateur (ie comme mesure de
l’erreur commise lors de l’estimation).
b =z×π
π bc + (1 − z) × π
bm
σc = V ar(b
πc )
σm = V ar(b
πm )
Le modèle développé par Bonche et Parodi repose sur quatre hypothèses qui sont les
suivantes :
1. π
bm = πm + σm εm
2. πc = πm + σh εh
3. π
bc = πc + σc εc
4. E[εm εh ] = 0, E[εc εh ] = 0 et E[εc εm ] = ρm,c
Et où ρm,c modélise la corrélation entre les données du client et les données marché.
σh2 + σm
2
− ρm,c σm σc
z= 2
σh + σm + σc2 − 2ρm,c σm σc
2
Or, le taux marché étant estimé à partir d’un échantillon beaucoup plus important que
celui utilisé pour calculé le taux de prime du client, il est logique que σm soit inférieur à
σc . Par conséquent, le facteur de crédibilité ainsi défini est toujours inférieur ou égal à 1.
z
1
0.6
0.5
0 1 ρm,c
De plus, dans le cas où le client que l’on veut tarifer ne fait pas parti du marché, la
σh2 + σm
2
z=
σh2 + σm + σc2
2
b = z d,l × π
π d d,l + (1 − z d,l ) × π
c
d d,l
m
2 2
d,l
(σhd,l ) + (σm
d,l
) − ρd,l d,l d,l
m,c σm σc
z = 2 2 2
(σhd,l ) + (σm
d,l
) + (σcd,l ) − 2ρd,l d,l d,l
m,c σm σc
Parodi et Bonche ont démontré que dans ce cas particulier le facteur de crédibilité
z d,l ne dépend pas de la tranche [d; d + l] et peut s’écrire :
2 2
(σhθ ) + (σm
θ
) − ρθm,c σm
θ θ
σc
z d,l = z = 2 2 2
(σhθ ) + (σm
θ ) + (σ θ ) − 2ρθ σ θ σ θ
c m,c m c
Où σcθ , σm
θ
sont les erreurs commises lors de l’estimation des paramètres de fréquence de
la cédante et du marché respectivement et où σhθ modèlise l’hétérogénéité fréquentielle du
marché.
Bien que ce facteur de crédibilité soit calculé uniquement à partir des nombres de si-
nistres de l’ensemble des cédantes du marché, il s’applique aux taux de primes.
Nous allons utiliser une approche bootstrap afin d’estimer, par le biais de simulations,
les erreurs liées aux estimations des taux de prime du client et du marché. Le bootsrap
désigne un ensemble de méthodes consistant à faire de l’inférence statistique sur de
“nouveaux” échantillons tirés à partir d’un échantillon initial. Il est naturel d’avoir recours
à cette méthode car elle est souvent utiliser pour obtenir des intervalles de confiance
d’estimateurs dont la distribution est inconnue.
x1
∗(N ) θ ∗N
∗(N )
x2
.
.
Client ou marché x1
∗(3) θ ∗3
.
x1
....
. ∗(2)
x1 θ ∗2
x2 n tirages Ecart-type
.
. avec remise
∗(N )
xn ∗(1)
x1
∗(1)
sθ
. x2
.
θ ∗1
. .
.
.
xn
x∗(1)
n
Statistique
ultime
échantillons
bootstrap
C’est cette procédure que nous utiliserons au chapitre 7 pour mettre en oeuvre le modèle
fréquentiel au détail près que nous ne travaillerons pas directement avec les fréquences
mais les taux de fréquences, c’est à dire que nous diviserons les fréquences des échantillons
bootstrap obtenues par l’assiette de prime de l’année de cotation (2015 en l’occurence)
avant de calculer les écart-types, sθc et sθm . Ce qui explique que les nombres obtenus soient
si faibles (se reporter aux tableaux G.2 et G.3).
Par ailleurs, pour pouvoir appliquer la méthode bootstrap, il faut que l’échantillon de dé-
part soit suffisamment grand. En effet, si l’échantillon initial est de taille n, après n tirages
avec remise, il est possible d’obtenir 2n−1
n échantillons différents. Ainsi, par exemple, si
l’échantillon intial est constitué de 5 données, on ne peut obtenir que 126 échantillons
bootstrap différents et donc 126 valeurs différentes pour la statistique d’intérêt. Et par
conséquent, l’écart-type obtenu après 1 000 simulations, par exemple, sera complétement
faussé.
Avec Wc = j wcj où wcj désigne l’assiette de prime de l’année j. Wc est donc la somme
P
des assiettes de prime des années appartenant à l’horizon de cotation considéré.
σh2 + σm−c
2
z=
σh2 2
+ σm−c + σc2
Cependant, cette méthode est un peu maladroite car pour calculer le taux de prime
crédibilisé de deux cédantes appartenant à un même portefeuille marché, il est nécessaire
de calculer deux taux marché différents. De plus, cela représente un travail considérable
car cela nous oblige, pour chaque cédante, à retirer du triangle obtenu par agrégation, les
sinistres de la cédante considérée et à recalculer les montants ultimes.
extrapolation Distribution de
l’estimateur θ\m−c
Statistique
ultime Bootstrap Variance
2
σm−c
Agrégation Agrégation
Estimateur du
. MV
.. θc
n
Variance
. pondérée
.. σh2 zc
cédante n θb1
..
..
cédante 1
Portefeuille marché • • • •
extrapolation • •
Estimateur Simulations • • • cf algorithme page 18
du MV stochastiques
θbc , α
b πbc d,l
Cédante à coter
79
Dans la deuxième partie de ce mémoire, nous avons présenté trois modèles de crédibilité.
Les deux premiers modèles dérivent du théorème de Bühlmann qui s’appuie sur la théorie de
la crédibilité et les statistiques bayésiennes. Le troisième modèle, développé beaucoup plus
récemment, n’utilise pas des outils aussi complexes et sophistiqués que les deux premiers.
Pourtant, l’expression du facteur de crédibilité diffère peu de celles obtenues par le biais des
deux premiers modèles. De plus, ce dernier et troisième modèle permet de pallier certains
défauts des modèles bayésiens.
1. George Edward Pelham Box (né le 18 octobre 1919 à Gravesend, Kent, Angleterre) est un statisticien, qui a
apporté d’importantes contributions aux domaines du contrôle qualité, des séries temporelles et de l’inférence
bayésienne.
Partie III
Cas pratique
Application au marché
britannique de l’automobile
Ce cas pratique va nous permettre, bien entendu, d’appliquer les modèles de crédibilité
développés dans les chapitres précédents mais ce sera également l’occasion d’apporter
des éléments de réponses à des questions pour lesquelles il n’existe pas d’explications
théoriques toutes faites. Ainsi, par exemple, la théorie ne nous dit pas comment choisir
notre portefeuille marché même s’il est évident qu’un marché constitué de trop peu de
cédantes n’aura qu’un intérêt très limité.
Pour ce faire, nous allons calculer les facteurs de crédibilité et les primes crédibilisées des
traités de plusieurs cédantes appartenant à différents groupes marchés constitués à partir
du portefeuille automobile britannique de la CCR.
Tout d’abord, nous prenons le temps de décrire brièvement le marché choisi pour l’étude et
de détailler l’étape de préparation des données. Ensuite, nous nous attardons sur la mise
en oeuvre des modèles de crédibilité avant de présenter les résultats obtenus et de tirer un
certain nombre de conclusions. Enfin le dernier chapitre est consacré aux limites de notre
étude et aux extensions possibles.
Chapitre 6
Présentation de l’étude et
préparation des données
∞
Il s’agit d’un marché mature : les données
25
fournies sont nombreuses et en général
complètes et exactes. Les tranches sont stan-
dardisées. En effet, la grande majorité des 15
automobiles du marché des particuliers. Une “ flotte ” est un ensemble de véhicules ap-
partenant à un même propriétaire, ou assurés par une même entité juridique. En général,
on considère comme contrat “ flotte ”, un contrat couvrant quatre véhicules ou plus. A
l’intérieur d’une flotte, tous les véhicules sont soumis aux mêmes règles tarifaires, les
primes de chacun d’eux sont recouvrées en une seule fois et les conditions du contrat sont
applicables indistinctement à tous. La tarification de ces contrats est différente des autres.
Elle requiert notamment davantage d’expertise.
Commençons par exclure les cédantes “ atypiques ”. Pour cela, nous allons utiliser les
profils de risque des assurés transmis par les courtiers. Ces profils de risque nous donnent
accès au pourcentage de flottes et de non flottes, au pourcentage d’hommes et de femmes
et aux âges des assurés de chaque traité. Nous décidons d’exclure les cédantes possédant
plus de 50% de flottes et n’assurant qu’une seule tranche d’âge (par exemple, certaines
cédantes n’assurent que les moins de 30 ans et d’autres que les plus de 60 ans). Après
avoir exclu les cédantes jugées “ atypiques ”, il nous reste 20 cédantes.
Ainsi, nous avons construit un groupe de cédantes “ comparables ” mais pas nécessairement
très homogène. On peut se demander quelle est la taille du groupe la plus pertinente et si
l’on ne gagnerait pas en fiabilité en considérant un groupe constitué de moins de cédantes
(mais toujours suffisamment grand) et plus homogène. Afin d’éclaircir cette question, à
partir du groupe de 20 cédantes, nous allons construire des sous-groupes de plus en plus
petits et de plus en plus homogènes. Commençons par chercher les variables qui pourraient
constituer des critères d’homogénéité.
taux purs
en %
6%
•
5%
4% •
3% •
• • •
• •
•• • •
2% • •• • • •
• • • Taux purs pour
• la tranche 5 xs 5
1% •• •
••
••
0 500 000 000 1 000 000 000 1 500 000 000 2 000 000 000 EPI
F IGURE 6.1 – Représentation des taux purs de la tranche 5 xs 5 des cédantes CCR en fonction des
estimations de l’assiette de primes 2015
Nous observons le même type de graphique pour toutes les tranches standards. Par consé-
quent, l’assiette de prime ne semble pas avoir une grande influence sur la détermination
du taux pur. En outre, le graphique que l’on obtient en traçant les taux purs en fonction
non plus de l’assiette de primes mais du nombre de polices en fin d’exercice n’est pas plus
concluant. Il n’existe donc pas de relation évidente entre la taille du portefeuille et les taux
purs, pour le marché automobile britannique du moins.
taux purs
en %
6%
5% ••
•
•
4% •
• • •
•
3% •
• •
• •
2% • • • • Taux purs pour
• •
• la tranche 5 xs 5
1% •
• • •
•
0 5 10 15 20 25
θ̂
F IGURE 6.2 – Représentation des taux purs de la tranche 5 xs 5 des cédantes CCR en fonction de la
fréquence de sinistralité
Par conséquent, nous allons tirer profit de la fréquence de sinistralité annuelle pour consti-
tuer à partir de notre groupe de 20 cédantes des sous-groupes plus homogènes. Nous
utilisons la formule présentée en 5.2.2 pour constituer des groupes de 15, 12, 9, 6 et 3
cédantes les plus homogènes possibles. Il est judicieux de constituer des sous-groupes
emboîtés afin de pouvoir ensuite comparer pour une même cédante mais pour différents
groupes marché les taux crédibilisés obtenus. Enfin, nous renumérotons les compagnies de
sorte que les cédantes n◦ 1, n◦ 2, n◦ 3 appartiennent aux 6 groupes marchés, les cédantes
n◦ 4, n◦ 5, n◦ 6 aux 5 plus grands groupes marchés,. . .
Il est important de signaler qu’en pratique s’ajoute une contrainte supplémentaire : notre
marché doit contenir la cédante que l’on veut tarifer. Si la cédante que l’on cherche à coter
est elle-même atypique (par exemple, elle ne couvre que les personnes âgées), soit on
dispose de suffisamment de cédantes atypiques pour obtenir un taux marché, soit il est
vain de calculer un taux marché et il faut recourir à des avis d’experts.
Lorsqu’un traité de réassurance est comptabilisé par année de souscription, les sinistres
ayant touchés une police souscrite au cours de l’année d’exercice N sont imputés à l’exer-
cice N , quelle que soit leur date de survenance et quelle que soit leur date de paiement.
Ainsi, le réassureur peut être engagé pour des sinistres dont la date de survenance est
postérieure à la date de résiliation du traité.
Dans le cas d’un traité géré comptablement par année de survenance, un sinistre sera
obligatoirement rattaché à l’exercice au cours duquel il est survenu, quelle soit la date à
laquelle a été souscrite la police touchée par ce sinistre et quelle soit la date de règlement
de ce sinistre. Ainsi, le réassureur peut avoir à payer pour une police qui aurait été souscrite
avant la souscription du traité de réassurance.
Afin d’agréger les triangles de sinistralité des 20 traités constituant notre marché, il nous
faut choisir entre l’un des deux modes de comptabilisation présentés. En fait, nous sommes
contraints d’utiliser une gestion par année de survenance. En effet, le courtier fournit
toujours les dates d’occurences des sinistres mais il ne fournit pas systématiquement les
dates de souscriptions des polices associées. Par conséquent, il nous faut modifier les
triangles des traités gérés par exercice de souscription.
Sinistre
Sinistre
Nous allons considérer que notre traité “ marché ” se renouvelle au 1er janvier. Le schéma
ci-dessous, décrit le problème dans le cas d’un traité renouvelable au 1er avril.
P R2013 fictive
F IGURE 6.5 – Calcul de la prime fictive de réassurance versée au 1er janvier dans le cas d’un traité
renouvelé au 1er avril
Tn , seuiln
.... T3 , seuil3
T1 , seuil1
Chapitre 7
Nous allons suivre les procédures indiquées sur les schémas des pages 56, 64 et 80. Nous
invitons le lecteur à les consulter. Toutefois, auparavant, nous devons nous assurer que
nous sommes bien dans le cadre d’application de ces modèles de crédibilité. En particulier,
en ce qui concerne les modèles bayésiens, il faudra vérifier que, pour chaque cédante et
pour chaque traité marché fictif, le modèle Poisson/Pareto pour les lois fréquence/sévérité
n’est pas une trop mauvaise approximation. En outre, nous avons vu que le problème
se simplifie considérablement lorsque l’on peut supposer que la distribution décrivant
l’intensité des sinistres est la même pour toutes les cédantes du marché considéré. Nous
allons donc commencer par tester cette hypothèse.
p-valeur = P (Dm,n ≥ D0 | H0 )
Autrement dit, si les deux échantillons provenaient d’une même loi, on obtiendrait une
statistique D supérieure à la statistique observée D0 avec une probabilité égale à la p-
valeur. Ainsi, si la p-valeur est élevée, on accepte l’hypothèse nulle et si elle est faible, on
la rejette.
0.8
Dm,n
0.6
0.4
0.2
0
−4 −2 0 2 4
Résultats
Seuil en ( M £) Nombre de tests positifs Nombre de tests négatifs Manque de données
1 12 8 0
1.5 14 4 2
3 16 2 2
Les résultats détaillés par cédante et par seuil sont fournis dans le tableau E. Pour certains
traités, aucun sinistre ne dépasse les seuils de 1.5 million £ ou de 3 millions £ et donc
le test n’a pas pu être effectué. A partir de 1.5 million £, l’approximation selon laquelle
une seule courbe de sévérité (celle de notre portefeuille marché) pourrait être ajustée aux
données empiriques de toutes les cédantes du marché, devient raisonnable puisque que le
test est positif pour près de trois quart des cédantes.
les différents taux marché. Pour un seuil de modélisation égal à 1.5 million, nous obtenons
les résultats suivants :
TABLE 7.2 – Taux purs estimés stochastiquement pour les 20 cédantes du portefeuille marché
hhh
hh
Tranches
hTaux
hhhh
purs
Groupe de 20 Groupe de 15 Groupe de 12 Groupe de 9 Groupe de 6 Groupe de 3
cédantes cédantes cédantes cédantes cédantes cédantes
TABLE 7.3 – Taux marché estimés stochastiquement pour les différents groupes marchés
Nous remarquons que les taux de prime varient beaucoup d’un groupe à un autre. Le choix
du portefeuille marché aura donc un impact significatif sur le taux de prime crédibilisé.
b =z×π
π bc + (1 − z) × π
bm
Où π
b est le taux de prime crédibilisé et π
bc , π
bm les taux purs estimés stochastiquement de
Si πbc < π bm alors πb > π bc , c’est-à-dire que le taux pur calculé sur l’expérience de si-
nistralité de la cédante sous-estime le taux pur réel. Inversement, si π bm alors π
bc > π b<πbc ,
le taux pur stochastique de la cédante sur-estime le taux pur réel.
Modèle fréquentiel
Longueur de l’historique de
la cédante à tarifer
nc
zcd = nc +b/qd
λ α
Probabilité qu’un sinistre dépasse la priorité d
qd = P (X > d) = d • Ce paramètre dépend bien entendu
de la tranche cotée
• Il dépend également du marché considéré
• Paramètre de la loi Gamma (il est identique pour toutes les cédantes du
décrivant Θ, le profil de risque marché, α étant estimé à partir de la
de la cédante statistique agrégée)
• Ce paramètre est identique
pour toutes les cédantes du
marché considéré
nc
zcd,l = nc +ρ
E[e2 (Φ)] Coefficient de crédibilité ρ(a, b, s, t, d, l)
ρ= E[e1 (Φ)2 ]−E[e1 (Φ)]2 • Ce paramètre dépend de la tranche cotée
• Ce paramètre dépend aussi du marché
considéré décrit par le prodil de risque
(Θ, Ψ) de lois Gamma(a,b) et Gamma(s,t)
σh2 + σm−c
2
z=
σh2 + σm−c
2 + σc2
Bien entendu, dans ce cas, la statistique d’intérêt est le paramètre de fréquence. Rappelons
que le paramètre de fréquence de la loi de Poisson est estimé comme suit :
Pk k
i=1 ωi ni X
θ̂ = avec ωi• = ωi
ωi• i=1
La remarque énoncée à la page 78 est d’autant plus vraie que le paramètre de fréquence est
calculé pour un seuil fixé et donc uniquement à partir des sinistres dépassant ce seuil. Par
conséquent, nous ne pourrons appliquer la méthode bootstrap que si la statistique ultime
considérée contient suffisamment de sinistres dépassant le seuil de modélisation choisi.
Nous considérons qu’en dessous de 10 sinistres, l’échantillon est trop petit pour obtenir un
écart-type fiable. Nous choisissons un seuil de modélisation égal à 1 500 000 afin d’obtenir
un facteur de crédibilité pour les tranches 3 xs 2, 5 xs 5 et 15 xs 10. Les statistiques de 2
des 20 cédantes du portefeuille marché ne disposent pas d’assez de données au delà de ce
seuil. Nous ne pourrons donc pas calculer de facteur de crédibilité pour ces 2 cédantes.
Nous implémentons les tirages avec remise sous R ou VBA. Nous effectuons systéma-
tiquement 1 000 rééchantillonages afin de disposer d’un nombre important de réalisations
distinctes de la statistique d’intérêt.
θ )2 +(σ θ )2 −ρθ
(σh θ θ
n n E[e2 (Φ)] m m,c σm σc
z= α z= n+ρ où ρ = E[e1 (Φ)2 ]−E[e1 (Φ)]2
z= 2 θ )2 +(σ θ )2 −2ρθ
n+b/ λ (σ θ ) +(σm c m,c
θ σθ
σm c
d h
Modèle de Cockroft :
pour déterminer la valeur du
coefficient de crédibilité ρ
• Implémentation informatique
sous R (cf section 4.2.3)
Chapitre 8
Résultats et conclusions
Pour ne pas ennuyer le lecteur avec des successions de tableaux, nous avons placé les
résultats receuillis dans les annexes F et G . Nous précisons que les résultats discutés dans
ce chapitre sont ceux obtenus pour un seuil de modélisation égal à 1.5 M. Des calculs ont
également été menés pour un seuil égal à 4 M et les résultats associés ont été reportés
dans les annexes H et I.
Facteur de crédibilité
en %
100%
90%
80% Tranche 15 xs 10
70%
60% Tranche 5 xs 5
50%
40% Tranche 3 xs 2
30%
20%
10% nombre d’années
d’observation
0 1 2 3 4 5 6 7 8 9 10
F IGURE 8.1 – Facteurs de crédibilité obtenus pour le modèle fréquence/sévérité et pour les trois
tranches standards étudiées
Facteur de crédibilité
en %
100%
90%
80% Tranche 15 xs 10
70%
60% Tranche 5 xs 5
50%
40% Tranche 3 xs 2
30%
20%
10% nombre d’années
d’observation
0 1 2 3 4 5 6 7 8 9 10
F IGURE 8.2 – Facteurs de crédibilité obtenus pour le modèle fréquentiel et pour les trois tranches
standards étudiées
Nous pouvons formuler quelques remarques générales concernant les deux graphiques
précédents :
− Plus l’horizon de modélisation est important, plus le facteur de crédibilité est élevé,
c’est-à-dire plus on accorde de crédit à la prime calculée sur l’expérience de la
cédante uniquement.
− Le facteur de crédibilité des tranches basses est plus élevé que celui des tranches
hautes. Autrement dit, plus la tranche est haute (priorité élevée), plus on accorde de
poids à la prime marché.
− Plus le groupe est petit et homogène, plus le facteur de crédibilité est faible. Cette
propriété apparaît de façon plus évidente sur les figures 8.3 et 8.4 ci-après. Ce qui
signifie qu’on accorde plus de poids aux données marché. Cela met en évidence une
des failles des modèles bayésiens ; ils ne tiennent pas compte de l’incertitude liée
aux données marché. En effet, les groupes constitués de 6 ou 3 cédantes sont certes
plus homogènes que les groupes constitués de plus de cédantes mais les taux marché
obtenus sont moins fiables car calculés à partir d’un nombre moins important de
données.
En outre, les graphiques précédents montrent qu’il existe des différences significatives
entre les deux modèles de crédibilité bayésienne. Tout d’abord, le nuage de points de la
figure 8.1 est beaucoup plus resserré que celui de la figure 8.2. En effet, le facteur de
crédibilité du modèle purement fréquentiel décroît plus rapidement lorsque la priorité
augmente que celui calculé par le biais du modèle fréquence/sévérité. Globalement, nous
constatons que l’approche combinée fréquence/sévérité donne davantage de poids aux
données de la cédante et donc à la prime d’expérience alors que l’approche purement
fréquentielle donne plus de poids à la prime marché. Néanmoins, les différences entre les
deux modèles s’atténuent pour les tranches basses. Ce que confirme le tableau 8.1.
Facteur de crédibilité
en %
100%
90% Tranche 15 xs 10
80% Tranche 5 xs 5
70% Tranche 3 xs 2
F IGURE 8.3 – Facteurs de crédibilité obtenus pour la cédante n◦ 1 et pour le modèle fréquence/sévérité
Facteur de crédibilité
en %
100%
80% Tranche 15 xs 10
60% Tranche 5 xs 5
40% Tranche 3 xs 2
20%
Groupe de Groupe de Groupe de Groupe de Groupe de Groupe de
20 cédantes 15 cédantes 12 cédantes 9 cédantes 6 cédantes 3 cédantes
F IGURE 8.4 – Facteurs de crédibilité obtenus pour la cédante n◦ 1 et pour le modèle purement
fréquentiel
T 3 xs 2 T 5 xs 5 T 15 xs 10
10 1.39% 10.29% 28.57%
9 1.71% 11.12% 27.94%
8 2.29% 12% 31.44%
7 1.75% 12.81% 30.99%
6 2.02% 14.11% 32.8%
5 3.61% 16.31% 31.77%
4 4.59% 19.52% 35.9%
3 7.09% 19.53% 30.68%
2 12.73% 18.65% 30.24%
TABLE 8.1 – Écarts entre les facteurs de crédibilité obtenus pour les modèles bayésiens
Le tableau G.3 de l’annexe G montre que σhθ décroît lorsque la taille du groupe dimi-
nue. Ce qui est rassurant puisqu’il était dans notre dessein de former des groupes de plus
en plus petits mais aussi de plus en plus homogènes. A l’inverse, le tableau G.2 montre
θ
que l’incertitude liée au paramètre marché, modélisée par σm−c , croit lorsque la taille du
groupe diminue. Ce qui est logique puisque plus le groupe est petit, plus la prime marché
est sujette à une erreur d’estimation importante. En effet, si le groupe marché est plus
petit, la base de données pertes servant au calcul des paramètres est plus réduite et par
conséquent l’information fournie par le marché est moins riche.
Ces deux phénomènes inverses expliquent les différences flagrantes observées entre ce mo-
dèle et les modèles de crédibilité bayésienne pour les résultats des plus petits groupes. Ils
permettent, en particulier, de justifier le fait que, dans ce modèle, le facteur de crédibilité
ne fait pas que décroître lorsque la taille du groupe diminue.
Facteur de crédibilité
en %
100%
90% Cédante n◦ 3
80% Cédante n◦ 2
70% Cédante n◦ 1
F IGURE 8.5 – Facteurs de crédibilité des cédantes n◦ 1, n◦ 2 et n◦ 3 pour les différents groupes marché
Taux de prime
en %
Par ailleurs, nous constatons que, pour un même modèle de crédibilité, d’un groupe
marché à un autre, le taux de prime crédibilisé peut varier significativement. On note
jusque 0.5% d’écart. L’assiette de prime de la cédante (cédante n◦ 3) étant de l’ordre de
90 000 000 £, cela donne un écart de prix de l’ordre de 450 000 £. Le choix du portefeuille
marché n’est donc pas neutre.
Dans le cas où l’hypothèse d’une distribution de sévérité unique est vérifiée, le facteur de
crédibilité z est indépendant la tranche cotée l xs d, dans les autres cas il en dépend.
Si l’on choisit de construire un portefeuille marché à partir d’un grand nombre de cédantes
(par exemple l’ensemble des clients du réassureurs pour le secteur concerné), le terme
1. Se reporter au tableau 7.3
σh2 modélisant l’hétérogénéité du portefeuille, sera élevé et prépondérant par rapport aux
autres termes obtenus par bootstrap : σh2 >> σm 2
, σh2 >> σc2 . Par conséquent z sera très
proche de 1 et il n’y aura pas beaucoup de d’écarts entre le taux estimé stochastiquement
et le taux crédbilisé. C’est pour cela que les valeurs des facteurs de crédibilité obtenues
pour notre plus grand groupe marché et reportées dans le tableau G.1 sont très proches
de 1, variant de 97.12% à 99.96%. Considérer trop de cédantes peut donc fausser le modèle.
Chapitre 9
Bilan et Perspectives
D’autre part, on a des modèles bayésiens qui se sont construits et affinés au fil du temps
avec en dernier date la contribution de Mark Cockroft en 2003 1 . Ces modèles s’appuient
et donc nécessitent de s’imprégner d’une théorie mathématique difficile et ésotérique, la
théorie de la crédibilité. Ils sont également utilisés comme support des outils de tarification
existants. Le modèle développé par Cockroft peut même être employé comme outil de
tarification à part entière.
La principale difficulté lors de la mise en oeuvre des deux modèles bayésiens étudiés
concerne la calibration du modèle. A cela, se rajoute, pour le modèle fréquence/sévérité,
le calcul du coefficient de crédibilité qui nécessite une programmation substantielle. Pour
le modèle purement fréquentiel, par contre, les difficultés s’arrêtent à la calibration du mo-
dèle. En effet, pour ce dernier modèle, le facteur de crédibilité s’exprime très simplement.
Nous avons énuméré en 4.4, quelques défauts de ces deux modèles. En particulier, ce ne
sont pas des modèles “taillés sur mesure” pour la tarification des traités de réassurance.
Par conséquent, leur application s’avère un peu maladroite.
Le modèle développé par Bonche et Parodi est théoriquement plus complet que les modèles
de crédibilité bayésienne puisqu’il tient compte de l’incertitude liée aux données marché.
Toutefois, la mise en oeuvre qui en est faite dans ce mémoire n’est pas optimale. En
particulier, le subterfuge qui consiste à retirer les statistiques de la cédante de la statis-
tique marché agrégée pour s’affranchir de la corrélation des cédantes du marché, rend la
méthode laborieuse, fastidieuse et surtout inapplicable pour les cédantes pour lesquelles
on dispose de très peu de données. Des recherches supplémentaires sont donc nécessaires
afin de faciliter l’application de ce modèle. En particulier, il faudrait trouver une formule
analytique pour la corrélation.
Puisqu’un schéma vaut sans doute mieux qu’un long discours, nous dressons un tableau en
guise de résumé des propos ci-dessus.
tement aux taux de prime sans hypothèses. crédibilité séparée pour les différentes tranches.
• Ce modèle peut être utilisé comme outil de tarifi- • Modèle récent datant de 2008 et développé par
cation à part entière. des spécialistes de la réassurance.
• Modèle en adéquation avec les méthodes de
tarification employées en réassurance.
Avantages • Pour ces modèles, une procédure entièrement automatisée est envisageable.
• La prime de crédibilité est le meilleur estimateur de la prime pure au regard du critère de l’erreur quadratique.
• Plus de liberté concernant le choix des lois de
fréquence et de sévérité.
• Ces modèles viennent en support des outils de tarification traditionnels.
• Requiert une programmation substantielle. • L’hypothèse d’une distribution de sévérité unique n’est pas toujours raisonnable et doit être testée sur les données.
• Rien ne permet de prédire la convergence ou la • Il n’est pas possible de calculer un facteur de cré-
non-convergence. dibilité pour les affaires pour lesquelles on dispose
de très peu de données, pour les affaires nouvelles
notamment.
• Les lois modélisant la fréquence et le coût des sinistres (Poisson/Pareto) sont imposées par le modèle. • Mise en oeuvre laborieuse et fastidieuse.
• Ne prend pas explicitement en compte l’incertitude du prix du marché dans la formule du facteur de crédibilité.
102
Inconvénients • Ne tient pas compte de l’interaction entre les données de la cédante et les données du marché.
• Modèles basés sur des théories développées dans les années 1960 dans un cadre strictement assurantiel.
TABLE 9.1 – Bilan sur les modèles de crédibilité mis en oeuvre dans le mémoire
Les tarifs des réassureurs sont-ils crédibles?
Les modèles de crédibilité introduits dans la deuxième partie de ce mémoire font abs-
traction des conditions non linéaires. S’il est indéniable que la présence d’une AAL ou
d’une AAD aura un impact sur la prime technique et donc sur la prime commerciale, la
cédante étant en droit d’attendre une réduction du montant de la prime, on peut par
contre suspecter que l’impact sur le facteur de crédibilité servant à pondérer la prime
individuelle et la prime marché sera minime. Certes, une tranche l xs d avec une AAD
aura tendance à “augmenter” la rétention d et donc à diminuer le facteur de crédibilité.
Inversement une tranche l xs d avec une AAL aura tendance à “diminuer” la limite l du
traité donc à augmenter le facteur de crédibilité. Mais, il y a fort à parier que ces variations
soient infimes. Il est donc possible de contourner le problème en calculant un facteur de
crédibilité grâce aux modèles développés dans ce mémoire, c’est-à-dire sans tenir compte
des éventuelles conditions non linéaires de la tranche à tarifer, mais en faisant attention
de les prendre en compte dans le calcul du taux marché.
En fait, ce n’est pas tant l’organisation standardisée des traités que la profusion des
données disponibles qui fait du marché de l’automobile britannique un cadre d’étude
particulièrement agréable pour l’application de nos modèles. En effet, le fait que l’on
puisse disposer pour ce marché de nombreuses données, données qui sont en général
complètes et exactes, permet de calculer des taux marché fiables. Ce qui n’est pas le cas de
tous les marchés loin s’en faut. C’est également un marché pour lequel l’hypothèse d’une
courbe de sévérité unique est vérifiée. Beaucoup de travail reste encore à faire pour savoir
comment mettre en oeuvre le modèle de Bonche et Parodi dans le cas où cette hypothèse
n’est pas validée.
Au début de cette partie, nous avons listé plusieurs questions auxquelles nous avons répondu.
Malheureusement, nous n’avons pas pu apporter de réponse mathématique et théorique satis-
faisante à la question portant sur le choix du portefeuille marché. L’actuaire devra donc se
fier à son bon sens pour choisir le portefeuille marché adéquat. Dans l’Actuarial Standard of
Practice No.25 publié par l’Actuarial Standards Board, il est écrit “Any credibility procedure
requires the actuary to exercise informed judgment, using relevant information. The use of
credibility procedures is not always a precise mathematical process”.
Conclusion Générale
Au terme de cette étude, nous espérons que les travaux présentés dans ce rapport, auront
permis de sensibiliser le lecteur aux problèmes inhérents à la tarification des traités de
réassurance et surtout, lui auront apporté une compréhension plus profonde des modèles
de crédibilité pouvant être mis en place pour pallier au manque d’information lors de la
tarification d’un traité en excédent de sinistre. Nous espérons également que ces travaux
serviront de tremplin vers des recherches plus approfondies sur le sujet.
Partis du constat que, la taille de l’historique des sinistres disponible a un impact si-
gnificatif sur la finesse de l’estimation de la prime pure et sur l’erreur commise lors de cette
estimation, nous avons cherché à développer des méthodes permettant d’augmenter la
fiabilité des taux de primes des tranches peu sinistrées des traités en excédent de sinistre.
Pour ce faire, nous avons pensé à incorporer dans le calcul de la prime des informations
provenant du marché. L’idée est alors venue naturellement de pondérer les estimateurs
de la prime pure individuelle et de la prime marché par un coefficient appelé facteur de
crédibilité. Les modèles présentés, dans ce mémoire, portent sur le calcul de ce facteur.
Dans un premier temps, nous avons présenté les différentes facettes et les mécanismes qui
régissent la réassurance non vie. Nous avons notamment abordé les aspects techniques de
la tarification en nous focalisant plus particulièrement sur les traités en excédent de sinistre.
Nous nous sommes ensuite attaqués au problème proprement dit en l’envisageant sous
l’angle de la crédibilité bayésienne et à la lumière des théorèmes démontrés par Bühl-
mann et Straub dans les années 1960. Des concepts bayésiens et du modèle de Bühlmann,
nous avons tiré deux autres modèles ; un modèle purement fréquentiel pour les nombres
de sinistres mais pouvant s’appliquer, sous certaines hypothèses, aux primes pures de
réassurance et un modèle plus complet pour les pertes agrégées. Pour ces modèles, l’infor-
mation marché est résumée par des lois Gamma dont les paramètres doivent être estimés.
Les quelques articles traitant du sujet n’abordent pas ce problème de calibration et se
contentent de paramètres empiriques basés sur des études difficilement généralisables ou
des jugements d’experts. Pour sortir de cette impasse, nous avons eu recours à l’échantillon-
nage de Gibbs. Cet algorithme nous a permis d’obtenir, à partir de l’historique des sinistres
disponible, une calibration plausible et fiable. En outre, les modèles de Bühlmann et Straub
n’ont pas été conçus initialement pour servir à la tarification des traités de réassurance.
De ce fait, les modèles bayésiens présentent quelques défauts et s’avèrent ne pas être en
parfaite adéquation avec les méthodes de tarification utilisées en réassurance.
Nous nous sommes alors tournés vers un troisième modèle non bayésien développé
par Pietro Parodi et Stéphane Bonche, deux actuaires spécialistes de la réassurance. Il
s’agit d’un modèle construit sur mesure pour la tarification des traités en excédent de
sinistre en réassurance. Il est donc plus complet et mieux adapté au cadre de l’étude.
Enfin, nous avons appliqué ces trois modèles à un secteur spécifique de la réassurance, le
marché de l’automobile en Grande-Bretagne. Il faut reconnaître que si nous avons choisi
ce marché, ce n’est pas par hasard mais parce que c’est un marché doté de caractéris-
tiques intéressantes pour notre étude. En effet, c’est un marché mature pour lequel les
actuaires peuvent avoir confiance en les données fournies par les cédantes, pour lequel
les tranches de réassurance sont standardisées et surtout, pour lequel l’hypothèse selon
laquelle l’intensité des sinistres varie très peu d’une cédante à une autre du marché est
validée. Les résultats obtenus sont venus confirmer et illustrer les constats théoriques des
parties précédentes.
Enfin, au-delà des aspects techniques, ce travail sur la crédibilité a été enrichissant à
plusieurs égards. Nous avons été confrontés à un sujet très technique faisant appel à
des théories mathématiques ardues et où les publications sont assez rares. Ce travail a
été l’occasion de discuter avec certains spécialistes du domaine exerçant dans diverses
compagnies de réassurance. Il ressort de ces échanges que :
− La question du “taux marché” est un sujet un peu obscur. L’expression “taux marché”
recouvre des réalités très différentes d’une compagnie à une autre, parfois même
d’un actuaire à un autre. Ainsi, il est utilisé tantôt pour désigner les prix fixés en
interne et tantôt pour désigner les prix leader. De même, tantôt il désigne un taux
benchmark, tantôt un taux de prime calculé sur l’expérience agrégée de l’ensemble
des cédantes du marché. C’est d’ailleurs, cette dernière définition qui a été retenue
pour notre étude.
− Peu de compagnies de réassurance ont développé des modèles de crédibilité à
proprement parler. La plupart n’en n’ont pas ou se contentent de modèles de crédi-
bilité empiriques reposant sur des jugements d’experts et conduisant à l’utilisation
systématique de certains facteurs de crédibilité.
En général, même en l’absence de modèles de crédibilité, les actuaires tarificateurs, de
leur propre chef, cherchent à mélanger les résultats issus de l’expérience de la cédante et
ceux issus de l’expérience agrégée de l’ensemble des cédantes du marché en appliquant
un facteur de pondération dont le choix, bien souvent arbitraire, est justifié par une
connaissance approfondie des incertitudes du processus de cotation. Cela fait partie
du métier de l’actuaire d’acquérir une bonne maîtrise des outils de tarification, de leur
complexité et de leur limites.
Bibliographie
[6] Chopin Nicolas (2014-2015) Statistiques 1. Notes brèves. Cours dispensé à l’École
Nationale de la Statistique et de l’Adminsitration Économique.
[7] Cockroft Mark, Clark Lane et Peacock LLP (2004) Bayesian Credibility for Excess of
Loss Reinsurance Rating. Giro Conference.
[8] Dudley Claire (2006) Bayesian Analysis of an Aggregate Claim Model Using Various
Loss Distributions. Université Heriot Watt d’Edinmbourg.
[9] Dupuis Jérôme (Septembre 2007) Statistique bayésienne et algorithmes MCMC.
IMAT. Master 1.
[10] Furet Aurélie (2008) Impacts de la Volatilité des IBNR dans une Cotation en Réassu-
rance. Mémoire EURIA.
[11] Garnier Stella (2012). Aplication of Credibility Theory to Health Pricing. Mémoire
présenté devant le Centre d’Etudes Actuarielles.
[12] Garon Geneviève (1999). Théorie de la Crédibilité : Modèles de Bühlmann et de
Bühlmann-Straub et applications. Mémoire présenté à la Faculté des études supé-
rieures de l’Université Laval.
[13] Gibbons J.D, Chakraborti S. (2003) Non-parametric statistical inference. McGraw-
Hill. NewYork.
[14] Goulet Vincent (2008) Mathématiques Actuarielles IARD II (Théorie de la Crédibilité).
Cours Université Laval.
[15] Hesselager Ole (1993) A class of Conjugate Priors with Applications to Excess-of-Loss
Reinsurance. ASTIN Bulletin, Vol 23, No 1.
[16] Hulin Laurence (septembre 2015) Comment tarifer a priori...sans a priori. Biblio-
thèque tangente 57.
[17] Hulin Laurence, Daniel Justens (septembre 2015) La tarification a posteriori. Une
belle application des chaînes de Markov. Bibliothèque tangente 57.
[18] Hürlimann W. (2007) Benchmark Rates for XL Reinsurance Revisited : Model Com-
parison for the Swiss MTPL Market. BELGIAN ACTUARIAL Bulletin, Vol.7, No 1.
[19] Jal Pierre (2015) Réassurance Non Vie. Cours dispensé à l’Institut de Sciences
Financières et d’Assurances.
[20] Laurent Stéphane (mars 2007) Analyse bayésienne avec winBUGS et R.
[24] Morel David.(2013) Pricing Catastrophe Excess of Loss Reinsurance using Market
Curves. Casualty Actuarial Society.
[25] Nessi Hervé (2007) Prise en Compte de la Variable Temps dans la Tarification d’un
Traité XS RC Automobile France. Mémoire présenté devant le jury du CEA.
[26] Parodi Pietro (Octobre 2014) Pricing in General Insurance. Chapman and Hall/CRC
Textbook.
[27] Parodi Pietro et Bonche Stéphane (2008) Uncertainty-Based Credibility and its
Applications. CASUALTY ACTUARIAL SOCIETY. Volume 4.
[28] Patrik Gary et Mashitz Isaac (1990) Credibility for Treaty Reinsurance Excess Pricing.
CAS Discussion paper.
[29] Petauton Pierre (2013) Une Nouvelle Estimation des Paramètres d’un Modèle de
Crédibilité. Bulletin Français d’Actuariat. Volume 13. n◦ 25.
[30] Poulin Mathieu (2010) Analyse des Solutions Actuarielles en Tarification des Traités
de Réassurance Non-Proportionnels Non-Vie. Mémoire présenté devant le jury du
CEA.
[31] Rytgaard Mette (1990) Estimation in the Pareto distribution. ASTIN Bulletin, Vol 20,
201-216.
[32] Schmutz Markus et Doerr Richard R. (Avril 1998) The Pareto Model in Property
Reinsurance. Swiss Reinsurance Company.
[33] Straub Erwin (1971) Estimation of the number of excess claims by means of the
credibility theory, ASTIN Bulletin, Vol.5, No 3.
[34] Thérond Pierre (2014-2015) Théorie de la Crédibilité. Cours dispensé à l’Institut de
Sciences Financières et d’Assurances.
[35] Verlaak Robert, Hürlimann Werner, Beirlant Jan ( Août 2005) Quasi-likelihood
Estimation of Benchmark Rates for Excess of Loss Reinsurance Programs. ASTIN
Colloquium Zürich.
4.1 Paramètres des lois Poisson et Pareto pour les cédantes du marché . . . . . 66
4.2 Données issues d’un portefeuille automobile et extraites de l’article de
Rytgaard [31] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3 Valeurs intiales des trois chaînes de Markov . . . . . . . . . . . . . . . . . 70
4.4 Estimations des paramètres du modèle Poisson-Pareto . . . . . . . . . . . 71
8.1 Écarts entre les facteurs de crédibilité obtenus pour les modèles bayésiens 97
9.1 Bilan sur les modèles de crédibilité mis en oeuvre dans le mémoire . . . . 102
Annexe A
λk
P (X = k) = e−λ · ∀k∈N
k!
On a alors :
E[N ] = V ar[N ] = λ
Densité de la loi
0.35 de Poisson
0.30 λ=2
0.25
0.20
0.15 λ = 10
0.1 λ = 15
0.05
0
0 5 10 15 20
Pour certaine branche, il peut être intéressant de considérer une volatilité plus importante,
on préfère alors avoir recours à la distribution Binomiale Négative.
On a alors :
1−p
E[N ] = n ×
p
1−p
V ar[N ] = n × 2
p
Donc :
V ar[N ] > E[N ]
Densité de la loi
binomiale négative
0.30
0.25
n = 7, p = 0.7
0.20
0.15 n = 7, p = 0.5
0.1 n = 7, p = 0.3
0.05
0
0 5 10 15 20 25
Cette loi est caractérisée par deux paramètres, un paramètre de forme α et un para-
mètre d’échelle, le seuil, λ. En général, on fixe le seuil λ et on cherche le α associé à ce
seuil.
αλα
f (x) = 1]λ;+∞[ (x)
xα+1
En échelle Log-Log, cette fonction densité est une droite affine de pente (α + 1) et d’ordon-
née à l’origine ln(α) + α ln(λ).
−10
α = 1
−20
α = 2
α = 3
α = 8
α = 5
−30
−40
−50
4 5 6 7 8 9 10
ln( x
a
)
Donc : α
λ
P (X > x) = ∀x>λ
x
Par conséquent, plus α est petit, plus la queue de la distribution est épaisse (et donc plus
la probabilité de sinistres importants est élevée).
La variance vaut : (
α
(α−1)2 (α−2) λ si ∀ α > 2
V ar[X] =
∞ si α ≤ 2
Cet estimateur étant biaisé, on lui préfère souvent l’estimateur débiaisé suivant :
n−1
α
b = Pn xi
i=1 ln( λ )
Nous avons présenté la loi de Pareto selon sa défintion “ européenne ”. Il existe d’autres
écritures possibles de la loi de Pareto. La définition “ américaine ” est la suivante :
αλα
f (x) = 1]λ;+∞[ (x)
(x + λ)α+1
λ α
(
1 − ( x+λ ) si x > 0
F (x) =
0 si x ≤ 0
Il s’agit bien sûr de la même loi mais dans un cas, on s’intéresse à la valeur des dépasse-
ments depuis l’origine 0 et dans l’autre à la valeur des dépassements depuis le seuil, λ.
Si X suit une loi de Pareto “ européenne ” de paramètres (λ, α) alors X − λ est distribué
selon une Pareto “ américaine ” de paramètres (λ, α).
avec Z ∞
Γ(a) = e−x · xa−1 dx
0
Et la variance à :
a
V ar[X] =
b2
2
a = 0.5
1.5
a = 10
Densité
1
a = 4
a = 2
0.5 a = 1
0
0.5 1 1.5 2 2.5 3
x
Annexe B
1
1914 Crédibilité Américaine
Arthur H. Mowbray
2
1945 Crédibilité des Moindres Carrés
Arthur L. Bailey
3
1967 Crédibilité Bayésienne
Hans Bühlmann & Erwin Straub 4
1971 Première application à la Réassurance
Erwin Straub
5
6
1991 Modèle de crédibilité fréquentiel en Réassurance
Gary Patrik & Isaac Mashitz
1992 Crédibilité des Incertitudes
Joseph A. Boor
Annexe C
Modèle de Cockroft
Lemme 8
r Ψ−j !
X r r−j j λ+d
µr (Ψ) = (λ + d)r (−1) 1−
j=0
j Ψ−j λ+d+l
Preuve. Z Ψ
l
Ψ −(Ψ+1) λ+d
µr (Ψ) = y r Ψ(λ + d) (λ + d + y) dy + lr
0 λ+d+l
Z l+d Ψ
r Ψ −(Ψ+1) r λ+d
= (x − d) Ψ(λ + d) (λ + x) dx + l
l λ+d+l
Z l+d Ψ
r Ψ −(Ψ+1) r λ+d
= [(λ + x) − (λ + d)] Ψ(λ + d) (λ + x) dx + l
l λ+d+l
Z l+d X r Ψ
r j r−j r−j Ψ −(Ψ+1) λ+d
= (λ + x) (−1) (λ + d) Ψ(λ + d) (λ + x) dx + lr
l j=0
j λ+d+l
r Z l+d Ψ
X r r−j r−j Ψ −(Ψ−j+1) r λ+d
= (−1) (λ + d) Ψ(λ + d) (λ + x) dx + l
j=0
j l λ+d+l
r −(Ψ−j) −(Ψ−j)
X r r−j r Ψ−j (λ + d) − (λ + l + d)
= (−1) (λ + d) Ψ(λ + d)
j=0
j Ψ−j
r Ψ
r λ+l+d λ+d
+ (λ + d) −1
λ+d λ+d+l
r
X r Ψ−j !
r−j r Ψ λ+d
= (−1) (λ + d) 1−
j=0
j Ψ−j λ+d+l
r j Ψ
r
X r r−j λ+d λ+d
+ (λ + d) (−1)
j=0
j λ+d+l λ+d+l
r
" Ψ−j ! Ψ−j #
X r r−j r Ψ λ+d λ+d
= (−1) (λ + d) 1− +
j=0
j Ψ−j λ+d+l λ+d+l
r
" !#
Ψ−j
X r r−j r j λ+d
= (−1) (λ + d) 1 + 1−
j=0
j Ψ−j λ+d+l
r r Ψ−j !
r
X r r−j r
X r r−j j λ+d
= (λ + d) (−1) +(λ + d) (−1) 1−
j=0
j j=0
j Ψ−j λ+d+l
| {z }
=0
Annexe D
model
{
for(i in 1 :16) {
y[i] ∼ dpar(psi, 1.5)
}
for(i in 1 :5) {
n[i] ∼ dpois(theta)
}
psi ∼ dgamma(1, 0.0001)
theta ∼ dgamma(1, 0.0001)
}
list(
y = c(2.495, 2.120, 2.095, 1.700, 1.650, 1.985, 1.810, 1.625,
3.215, 2.105, 1.765, 1.715, 19.180, 1.915, 1.790, 1.755),
n = c(5, 3, 4, 0, 4)
)
list(
psi = 1000,
theta= 2
)
Annexe E
Annexe F
T 3 xs 2 T 5 xs 5 T 15 xs 10 T 3 xs 2 T 5 xs 5 T 15 xs 10
10 99.22% 98.04% 97.11% 10 98.88% 97.76% 96.83%
9 98.40% 96.89% 93.23% 9 98.17% 95.95% 93.01%
8 97.57% 95.25% 91.41% 8 97.37% 94.00% 90.52%
7 95.22% 92.81% 87.99% 7 95.19% 92.11% 85.98%
6 93.22% 90.44% 85.65% 6 92.86% 89.65% 80.74%
5 91.80% 87.64% 77.44% 5 91.72% 86.76% 74.48%
4 88.56% 84.55% 75.67% 4 88.31% 84.01% 68.57%
3 85.90% 80.78% 69.48% 3 84.99% 78.99% 66.65%
2 83.13% 74.59% 65.29% 2 82.31% 74.02% 63.21%
T 3 xs 2 T 5 xs 5 T 15 xs 10 T 3 xs 2 T 5 xs 5 T 15 xs 10
10 97.49% 94.43% 91.65% 10 93.36% 82.87% 80.34%
9 96.07% 92.71% 89.32% 9 91.43% 81.04% 79.66%
8 93.84% 89.83% 86.18% 8 89.63% 78.42% 75.44%
7 90.20% 88.76% 83.69% 7 86.18% 77.20% 73.09%
6 88.87% 84.10% 79.79% 6 83.20% 76.49% 69.87%
5 85.00% 81.95% 76.18% 5 79.52% 74.32% 65.13%
4 81.75% 78.89% 73.22% 4 76.00% 71.03% 56.78%
3 77.18% 70.46% 68.41% 3 67.28% 62.13% 45.12%
2 72.23% 68.98% 61.94% 2 59.36% 51.22% 32.99%
T 3 xs 2 T 5 xs 5 T 15 xs 10 T 3 xs 2 T 5 xs 5 T 15 xs 10
10 89.74% 76.89% 71.00% 10 87.14% 70.12% 60.77%
9 86.10% 72.61% 67.25% 9 85.47% 67.19% 57.30%
8 84.51% 67.57% 62.41% 8 82.37% 59.81% 48.45%
7 82.87% 61.01% 58.95% 7 80.99% 58.30% 48.19%
6 78.24% 58.48% 51.74% 6 76.14% 56.55% 45.30%
5 75.07% 53.06% 49.78% 5 75.40% 47.13% 34.87%
4 69.98% 46.82% 37.92% 4 66.82% 35.87% 24.01%
3 60.33% 39.59% 28.79% 3 57.67% 29.60% 19.76%
TABLE F.1 – Facteurs de crédibilité obtenus pour le modèle combiné fréquence/sévérité lorsque le
seuil de modélisation est égal à 1 500 000
T 3 xs 2 T 5 xs 5 T 15 xs 10 T 3 xs 2 T 5 xs 5 T 15 xs 10
10 97.83% 87.75% 68.54% 10 95.35% 84.39% 66.25%
9 96.69% 85.77% 65.29% 9 94.12% 82.26% 63.59%
8 95.28% 83.25% 59.97% 8 90.54% 80.04% 60.27%
7 93.47% 80.00% 57.00% 7 87.30% 77.16% 56.81%
6 91.20% 76.33% 52.85% 6 84.05% 72.99% 52.63%
5 88.19% 71.33% 45.67% 5 81.14% 69.84% 44.10%
4 83.97% 65.03% 39.77% 4 77.69% 62.41% 38.65%
3 78.81% 61.25% 38.80% 3 73.32% 55.60% 34.78%
2 70.40% 55.94% 35.05% 2 63.32% 43.72% 30.31%
T 3 xs 2 T 5 xs 5 T 15 xs 10 T 3 xs 2 T 5 xs 5 T 15 xs 10
10 77.95% 65.04% 37.86% 10 60.16% 57.40% 26.40%
9 75.21% 63.10% 36.02% 9 57.95% 48.44% 23.42%
8 71.44% 60.73% 35.27% 8 53.99% 44.60% 16.81%
7 63.99% 57.49% 28.41% 7 49.66% 38.13% 14.18%
6 60.22% 52.96% 24.52% 6 45.92% 31.81% 12.28%
5 57.34% 46.20% 20.42% 5 41.30% 28.59% 10.71%
4 51.87% 41.11% 13.50% 4 39.87% 25.93% 7.80%
3 45.21% 36.14% 10.34% 3 38.12% 24.42% 6.51%
TABLE F.2 – Facteurs de crédibilité obtenus pour le modèle purement fréquentiel lorsque le seuil de
modélisation est égal à 1 500 000
Annexe G
2 2 2
Cédantes (σcθ ) θ
(σm−c ) θ)
(σh zθ
TABLE G.1 – Résultats obtenus pour les 20 cédantes du portefeuille marché lorsque le seuil de
modélisation est égal à 1 500 000
θ 2
TABLE G.2 – Estimation de l’erreur commise lors de l’estimation de la fréquence marché σm−c pour différents groupes marché
125
hhhh Marché privé de
hhhh
Groupe de 20 cédantes Groupe de 15 cédantes Groupe de 12 cédantes Groupe de 9 cédantes Groupe de 6 cédantes Groupe de 3 cédantes
la cédante n◦ :
hhh
hhh
1 2.915 10−15 9.603 10−16 2.848 10−16 1.945 10−16 1.942 10−16 1.821 10−16
2 2.933 10−15 1.974 10−16 1.749 10−16 1.740 10−16 1.713 10−16 1.431 10−16
3 2.789 10−15 1.696 10−16 1.666 10−16 1.374 10−16 1.042 10−16 9.855 10−17
4 2.849 10−15 3.521 10−16 2.954 10−16 1.886 10−16 1.749 10−16 X
5 2.853 10−15 3.188 10−16 1.995 10−16 1.867 10−16 1.710 10−16 X
6 2.770 10−15 1.715 10−16 1.493 10−16 1.206 10−16 1.093 10−16 X
2
TABLE G.3 – Estimation de l’hétérogénéité σhθ des différents groupes marché
126
``` z θ
``` Groupe de 20 cédantes Groupe de 15 cédantes Groupe de 12 cédantes Groupe de 9 cédantes Groupe de 6 cédantes Groupe de 3 cédantes
```
Cédantes n◦ : `
1 99.69% 99.08% 96.96% 95.65% 95.66% 97.13%
2 99.77% 96.73% 96.34% 96.34% 96.38% 97.52%
3 97.72% 72.41% 72.06% 68.21% 62.43% 78.44%
4 97.35% 81.98% 79.26% 70.99% 69.55% X
5 99.37% 94.68% 91.81% 91.32% 90.63% X
6 99.75% 96.15% 95.61% 94.65% 94.15% X
7 97.81% 85.91% 66.64% 65.97% X X
TABLE G.4 – Estimation du facteur de crédibilité pour les cédantes des différents groupes marché considérés
127
Les tarifs des réassureurs sont-ils crédibles?
Annexe H
T 5 xs 5 T 15 xs 10 T 5 xs 5 T 15 xs 10
10 97.35% 96.90% 10 94.45% 93.71%
9 95.11% 94.54% 9 93.48% 92.55%
8 92.34% 90.08% 8 91.40% 89.21%
7 92.14% 89.87% 7 90.85% 88.15%
6 97.78% 89.39% 6 89.88% 86.66%
5 83.70% 78.85% 5 82.55% 76.58%
4 82.65% 76.23% 4 80.72% 66.90%
3 80.14% 70.39% 3 76.54% 64.08%
2 72.19% 65.74% 2 71.30% 55.89%
T 5 xs 5 T 15 xs 10 T 5 xs 5 T 15 xs 10
10 89.34% 88.32% 10 82.21% 79.66%
9 88.97% 87.93% 9 82.19% 79.56%
8 84.92% 83.62% 8 79.29% 75.77%
7 84.67% 82.82% 7 78.06% 74.61%
6 82.71% 80.51% 6 74.26% 69.92%
5 79.75% 76.91% 5 69.77% 64.24%
4 77.99% 74.61% 4 64.48% 57.77%
3 71.75% 66.91% 3 54.28% 44.62%
2 69.62% 63.85% 2 40.73% 33.21%
T 5 xs 5 T 15 xs 10 T 5 xs 5 T 15 xs 10
10 72.32% 67.10% 10 64.64% 58.80%
9 72.27% 67.31% 9 62.25% 55.95%
8 66.66% 60.10% 8 60.94% 54.41%
7 66.35% 59.73% 7 60.02% 53.39%
6 58.82% 51.42% 6 58.47% 50.52%
5 55.69% 48.22% 5 46.74% 35.08%
4 41.53% 27.13% 4 31.72% 24.90%
3 36.26% 25.06% 3 29.72% 18.17%
TABLE H.1 – Facteurs de crédibilité obtenus pour le modèle fréquence/sévérité lorsque le seuil de
modélisation est égal à 4 000 000
T 5 xs 5 T 15 xs 10 T 5 xs 5 T 15 xs 10
10 87.34% 68.25% 10 78.38% 61.33%
9 85.86% 64.06% 9 77.85% 56.24%
8 84.07% 59.44% 8 74.06% 49.36%
7 82.22% 56.48% 7 71.73% 47.73%
6 79.83% 51.91% 6 68.55% 43.98%
5 76.30% 44.62% 5 64.45% 39.39%
4 71.78% 38.46% 4 59.23% 34.42%
3 65.23% 30.40% 3 51.55% 26.48%
2 55.72% 22.83% 2 41.88% 20.24%
T 5 xs 5 T 15 xs 10 T 5 xs 5 T 15 xs 10
10 77.98% 54.46% 10 70.39% 44.64%
9 76.04% 51.32% 9 68.25% 42.52%
8 73.52% 46.66% 8 65.22% 37.95%
7 70.87% 43.63% 7 62.32% 35.72%
6 67.58% 39.85% 6 58.54% 31.75%
5 63.08% 34.00% 5 53.77% 27.10%
4 57.53% 28.46% 4 48.11% 22.65%
3 49.97% 21.69% 3 40.26% 16.28%
2 40.44% 16.72% 2 33.61% 11.48%
TABLE H.2 – Facteurs de crédibilité obtenus pour le modèle purement fréquentiel lorsque le seuil de
modélisation est égal à 4 000 000
Annexe I
2 2 2
Cédantes (σcθ ) θ
(σm−c ) θ)
(σh zθ
TABLE I.1 – Résultats obtenus pour les 20 cédantes du portefeuille marché lorsque le seuil de
modélisation est égale à 4 000 000
λ
TABLE I.2 – Estimation de l’erreur commise lors de l’estimation de la fréquence marché σm pour différents groupes marché
131
hhhh Marché privé de
hhhh
hhh Groupe de 20 cédantes Groupe de 15 cédantes Groupe de 12 cédantes Groupe de 9 cédantes Groupe de 6 cédantes Groupe de 3 cédantes
la cédante no : hhh
1 4.798 10−16 9.703 10−17 7.842 10−17 5.847 10−17 4.752 10−17 3.936 10−17
2 4.842 10−16 9.515 10−17 4.511 10−17 2.966 10−17 3.541 10−17 3.533 10−17
3 4.702 10−16 9.676 10−17 3.757 10−17 6.773 10−17 2.570 10−17 3.021 10−17
4 4.758 10−16 7.004 10−17 6.694 10−17 5.122 10−17 4.879 10−17 X
5 4.760 10−16 1.091 10−16 6.543 10−17 4.421 10−17 3.413 10−17 X
6 4.680 10−16 9.343 10−17 3.516 10−17 2.998 10−17 3.073 10−17 X
TABLE I.4 – Estimation du facteur de crédibilité pour les cédantes des différents groupes marché considérés
133