Mémoire Christophides
Mémoire Christophides
Mémoire Christophides
Mémoire présenté
devant l’Institut de Science Financière et d’Assurances
pour l’obtention
du diplôme d’Actuaire de l’Université de Lyon
le 23 septembre 2008
Bibliothèque :
Mme SONNIER Michèle
1
Résumé. Les études quantitatives (QIS) de Solvency II, dont la quatrième vient de
s’achever, ont pour but de calibrer au mieux les différents paramètres nécessaires au
calcul de la marge de solvabilité (SCR). Celle-ci, d’après la définition qu’en donne
la Commission Européenne, est paramétrée pour supporter toutes les pertes sur une
année calendaire. Concernant le provisionnement en assurance non vie, les méthodes
actuarielles classiques mesurent le risque jusqu’au développement ultime des charges
et non sur une seule année calendaire, ce qui entraı̂ne une sur calibration du risque de
réserves, plus particulièrement sur les branches longues.
L’objet de ce mémoire est d’adapter les méthodes de provisionnement classiques comme
la méthode de Chain Ladder, de Bornhuetter-Ferguson ou du bootstrap pour mesurer
le risque à un an. Il sera présenté dans ce mémoire chacune de ces méthodes en détail
dans leur version classique avec une vision du risque à l’ultime (long terme) et dans
leur version modifiée avec une vision sur un horizon de un an (court terme). En plus de
celles-ci, il sera présenté une méthode de calcul de risque à un an basée sur la volatilité
des facteurs de développement. Dans l’optique de travailler sur une année calendaire et
de mesurer les éventuels chocs pouvant impacter la nouvelle année, nous allons décrire
un outil permettant de diagnostiquer les tendances impactant les années calendaires
(la méthode de Zenwirth) et une méthode permettant de mesurer le risque de taux
d’intérêt sur un horizon de un an.
Abstract. The quantitative impact studies (QIS) whose lattest version (QIS 4) has
just finished, aims to calibrate the different parameters necessary for the calculation
of the Solvency Capital Requirement (SCR). From the definition of the Solvency Di-
rective framework, the SCR is parametrized to take into account the losses for the
next 12 months. Nevertheless, in non life insurance reserving, the classical actuarial
methods measure risk until ultimate development of losses and not only for a calendar
year. This leads to an overparametrization of the reserve risk, particularly on long tail
business.
The purpose of this report is to adapt reserving methods like Chain Ladder, Bornhuetter-
Ferguson or the bootstrap method to measure the one year reserve risk. All of these
methods are fully describe in their classical version (long terme view) and in their
modified one (short term view). Moreover, it will be presented a method of calculation
of the one year risk based on the volatility on the link ratio. Always with the view of
working on a one year time horizon, we have described a tool to diagnostic calendar
years trends (Zenwirth method) and a method which allows for the measurement of
the impact of interest rate risk in a one year time horizon.
2
Table des matières
1 Définition du risque à un an 10
3 Méthodes Bootstrap 32
3.1 Méthode du bootstrap . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Modification de la méthode du bootstrap pour l’obtention du
risque à un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Méthode directe . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2 Méthode récursive . . . . . . . . . . . . . . . . . . . . . . 37
3
III Méthodes de type Bornhuetter Ferguson 64
6 Un modèle de Bornhuetter Ferguson stochastique 65
6.1 Méthode de Bornhuetter-Ferguson . . . . . . . . . . . . . . . . . 65
6.2 Modèle de calcul de la volatilité à partir du loss ratio combiné . . 66
6.2.1 Modélisation de la volatilité . . . . . . . . . . . . . . . . . 67
6.2.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2.3 Prise en compte d’un facteur de queue . . . . . . . . . . . 71
8 Modèles bayésiens 82
8.1 Markov chain Monte Carlo (MCMC) . . . . . . . . . . . . . . . . 82
8.2 Modèles bayésiens implémentés sous WinBUGS . . . . . . . . . . 84
8.2.1 Un modèle bayésien pour la méthode de Chain Ladder . . 84
8.2.2 Un modèle bayésien pour la méthode de Bornhuetter-
Ferguson . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.2.3 Modification de ces méthodes pour l’obtention du risque
à un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.3 Modèle GLM bayésien de Verall pour la méthode de Bornhuetter-
Ferguson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
Annexes 101
4
E Codes WinBUGS 123
E.1 Code relatif à la Bayesian p-value . . . . . . . . . . . . . . . . . 123
E.2 Codes relatifs à la méthode de Chain Ladder bayésienne . . . . . 124
E.2.1 A l’ultime . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
E.2.2 A un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
E.3 Codes relatifs à la méthode de Bornhuetter Ferguson bayésienne 127
E.3.1 A l’ultime . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
E.3.2 A un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5
Introduction
L
Tolle, lege
6
0.5%, i.e. ruin would occur once every 200 years (see Article 101). The Sol-
vency Capital Requirement is calculated using Value-at-Risk techniques, either
in accordance with the standard formula, or using an internal model : all poten-
tial losses over the next 12 months, including adverse revaluation of assets and
liabilities, are to be assessed. The Solvency Capital Requirement reflects the true
risk profile of the undertaking, taking account of all quantifiable risks, as well
as the net impact of risk mitigation techniques.
Le risque de réserve est alors défini comme une partie du risque de souscrip-
tion (qui couvre le risque sur les primes et sur les réserves) comme suit :
Underwriting risk means the risk of loss, or of adverse change in the value of
insurance liabilities, due to inadequate pricing and provisioning.
Le risque de marge est le coût financier de l’incertitude des provisions sur toute
la durée de vie du portefeuille.
Des participants à QIS 3 ont émis des objections concernant les calibrations
de Solvency II du risque de réserve qu’ils considèrent comme trop élevées. Par
exemple, la volatilité choisie pour la branche Responsabilité civile est de 15%
pour QIS 3 et QIS 4, pour la branche worker compensation, elle est de 15% pour
QIS 3 et de 10% pour QIS 4. Cette calibration semble plus consistante avec une
approche à l’ultime plutôt que sur un horizon de un an. Par conséquent, si le
risque de réserve est sur calibré, cela entraı̂ne un niveau de prudence inapproprié
lors de l’application de la méthodologie Coût du Capital (CoC) de Solvency II.
L’étude de AISAM-ACME (cf [1]) sur l’évaluation du risque de réserve et du
risque de marge sous Solvency II, qui a réuni une dizaine de participants sur 7
pays, a conclu que la calibration du risque de réserve pour la formule standard
serait plus appropriée avec une approche sur un horizon de un an, si elle était
7
divisée par 2 ou 3.
De plus, les participants ont calculé le CoC en utilisant la calibration QIS 3
et leur calibration obtenue à l’aide de modèles sur un horizon de un an. Ces
résultats ont été traduits en un pourcentage du best estimate et en une VaRx%
de sorte que x produise le même montant que le CoC. En utilisant la calibration
QIS 3 pour le risque de réserve, le risque de marge est équivalent à une VaR qui
est en général au dessus de 90%, voire de 95%. Rappelons que la première étude
quantitative QIS 1 fixée un risque de marge avec une VaR75% . En considérant
la calibration sur des méthodes à horizon un an, la méthode du Coût de Capital
CoC fournit des VaR dont le niveau de prudence se situe entre 70 et 85%.
La calibration du risque de réserve, en concordance avec la définition du SCR,
doit donc refléter l’approche sur un an, plutôt qu’à l’ultime. Ainsi, il est impor-
tant de ce point de vue, de développer et de décrire des méthodes actuarielles
idoines.
La dernière étude quantitative QIS 4 n’a toujours pas tranché le problème,
car les calibrations, même si elles sont légèrement plus faibles que pour QIS
3, restent à des niveaux élevés. La question a été soulevée (cf [7] page 34-35
TS.XIII.B.12) lors des échanges questions-réponses, et le sujet semble être ac-
tuellement toujours à l’étude :
Question : We ask for more explanations about the standardized method for
the calculation of the entity specific standard deviation for reserve risk :
We need an explicit definition of the RunOff y , which is the « absolute run-off
result of the undiscounted net best estimate provision PCOy » : Is it the dif-
ference between the ultimate cost estimated at year 2006 and the ultimate cost
estimated at year 2007 ?
What is the year y : is it the occurrence year (or underwriting year for decen-
nial insurance) or the accounting year ? Indeed in the AISAM/ACME study it
was the accounting year, and the run-off result of year y was calculated for the
whole provision (booked at year y for all occurrence years). It was calculated for
many accounting years y, and the entity specific standard deviation was equal to
the standard deviation of the run-off results calculated for years y (See page 15
of the AISAM/ACME study). In QIS4 it seems y is the occurrence (or under-
writing) year ?
Answer : RunOffy is meant to be the difference between
the best estimate claims provision (or estimated ultimate) at the beginning of
year y
the sum of the best estimate claims provision at the end of year y and the
payments made during year y which correspond to the claims provision at the
beginning of the year (i.e. payments which are not subject to premium but re-
serve risk).
RunOffy relates to the risk of a run-off loss of the whole technical provisions
during a one year time horizon. In that sense, y is the end point of an obser-
ved one year time horizon. To increase clarity, the notation RunOffy might be
replaced by RunOff y,y+1 . Accordingly, PCOy means « PCO at the beginning of
year y »in TS.XVII.D.9.
As laid out in TS.XIII.B.37, non-life risk assessment is still a work in progress,
in particular for long tailed business. Accordingly, the methodology in TS.XVII.D
will need to be reviewed thoroughly following QIS4.
Il faut noter enfin l’utilisation possible de modèles internes pour évaluer le SCR.
8
Cette solution est acceptable si la formule standard (le « benchmark ») n’est pas
trop éloignée du « risque réel »choisi. Plus grand est l’écart entre le modèle in-
terne et la formule standard et plus difficile sera la validation de celui-ci. La
calibration de la formule standard reste donc un enjeu crucial, spécialement
pour les assureurs travaillant sur des branches longues.
9
Chapitre 1
Définition du risque à un an
10
Première partie
11
Chapitre 2
D
Res, non verba
Hypothèses 2.1.1.
– (H1) Indépendance des exercices d’origine : Cij est indépendant de Ckj pour
i 6= k et j ∈ {1, . . . , J}
– (H2) ∀j ∈ {1, . . . , J}, ∃fj | ∀i ∈ {1, . . . , I}, E[Ci,j+1 |Ci1 , . . . , Cij ] = fj Cij
– (H3) ∀j ∈ {1, . . . , J}, ∃σj | ∀i ∈ {1, . . . , I}, Var[Ci,j+1 |Ci1 , . . . , Cij ] =
σj2 Cij .
Remarque 2.1.1. L’hypothèse (H3) est une hypothèse analogue à l’hypothèse
(H2), mais sur la variabilité du triangle. Elle permet de calculer l’erreur de
prédiction. Graphiquement, (H2) s’interprète, pour j fixé, en l’alignement des
couples
(Cij , Ci,j+1 )i=0,...,I−j .
Quant à (H3), cela signifie que, pour j fixé, les résidus
12
(où fbj est un estimateur du paramètre fj ) ne doivent faire apparaı̂tre aucune
structure non aléatoire.
Mack a prouvé dans son article (cf. [16]) les résultats suivants :
Théorème 2.1.1. (i) On note D := {Cij , i + j ≤ I + 1}. On a :
J−1
Y
E[CiJ |D] = fj Ci,I−i+1 .
j=I−i+1
Théorème 2.1.2. (i) L’estimateur C biJ = fbI−i+1 . . . fbJ−1 Ci,I−i+1 est un esti-
mateur sans biais de E[CiJ |D].
(ii) L’estimateur Rbi du montant de provision E[Ri |D] avec Ri = CiJ − Ci,I−i+1
définit par Ri = CiJ − Ci,I−i+1 est un estimateur sans biais.
b b
avec, de plus, 4
σ
bJ−2 2 2
σ
bJ−1 = min 2 , max(b
σ J−3 , σ
b J−2 ) .
σ
bJ−3
Cette écriture décompose la MSEP en deux termes, l’erreur de process qui me-
sure la variabilité interne du modèle (quel est l’écart avec la moyenne ?) et
l’erreur d’estimation, liée à l’estimation des vraies facteurs de développement
fj . L’erreur de process provient du caractère stochastique du processus CiJ et
peut-être calculé explicitement. L’erreur d’estimation vient du fait que l’on a
estimé les coefficients de Chain Ladder réel fj par fbj . C’est cette dernière erreur
qui pose en fait les principales difficultés. Quelques rappels et commentaires sur
l’erreur d’estimation dans le cadre du modèle de Mack sont rappelés en annexe
A. La MSEP peut s’estimer à l’aide de la formule suivante :
13
Théorème 2.1.4. (i) Pour chaque année d’accident i, il vient :
J−1
2
X bj2
σ 1 1
MSEP(
\ R bi ) = C + I−j .
biJ
j=I−i+1 fb2
j
Cbij X
Ckj
k=1
Cette expression est la somme de deux termes principaux, dont le premier cor-
respond à l’erreur de process et le second à l’erreur d’estimation.
(ii) Un estimateur de la MSEP agrégée du montant total des provisions pour
l’ensemble du portefeuille est donné par :
I
! I
J J−1
X X X X bj2
σ
MSEP
\ R = MSEP(R
b i ) + 2C C .
bi biJ bkJ
I−j
i=2 i=2 k=i+1 j=I−i+1 b2
X
f Clj
j
l=1
Exemple 2.1.1. Dans la suite du rapport, nous utiliserons les données présentées
à la page suivante.
14
AY/DY 1 2 3 4 5 6 7 8 9 10 11 12
i/k j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8 j=9 j=10 j=11 j=12
i=1 0.78 3.69 80.41 1,161.81 1,417.75 1,185.93 1,468.08 1,634.68 1,965.64 2,586.03 3,162.91 3,795.08
i=2 13.53 286.25 423.31 653.52 828.38 1,365.25 1,682.87 1,949.71 2,194.54 2,584.03 2,803.33 3,592.90
i=3 266.24 496.37 559.44 514.70 1,729.59 1,985.30 1,953.91 2,814.16 3,344.12 5,462.98 7,213.18 7,693.99
i=4 152.41 285.64 247.43 600.02 863.40 2,334.32 2,838.70 3,623.71 4,420.17 6,417.69 6,866.58 8,006.83
i=5 167.40 333.30 976.91 1,368.29 1,835.96 2,562.60 2,670.70 3,308.59 4,516.72 5,708.82 6,605.09 7,829.11
i=6 2.03 420.55 597.45 663.77 1,014.91 1,635.49 2,285.81 5,652.14 6,662.27 7,854.22 8,411.08 9,027.45
i=7 0.69 7,222.35 8,445.33 9,426.32 10,287.86 10,730.20 7,628.96 8,892.89 11,168.48 14,206.44 15,365.34 17,028.30
i=8 3.97 234.29 1,139.88 1,517.21 3,176.39 4,186.06 6,492.90 8,810.42 11,086.99 13,684.20 15,279.40 18,736.54
i=9 0.25 559.04 3,059.85 4,997.69 6,946.12 8,250.87 11,550.23 15,412.06 20,019.46 23,080.06 26,991.12 31,461.97
i=10 17.97 358.96 1,081.21 3,522.72 8,088.15 12,042.87 16,793.43 22,199.69 30,933.27 34,637.65 39,820.71 49,963.24
i=11 180.39 245.24 533.22 2,935.46 7,702.01 10,461.77 13,917.55 17,749.81 24,373.09 28,644.87 33,984.40
i=12 84.81 1,722.60 3,412.29 7,810.25 11,367.66 16,532.00 22,085.18 26,798.15 34,467.87 39,884.36
i=13 0.05 901.51 3,672.03 5,174.45 10,264.82 14,737.59 22,741.11 27,442.59 34,787.89
i=14 60.23 2,607.29 10,212.05 21,977.25 32,859.19 46,222.90 57,855.39 71,066.05
i=15 802.36 9,912.44 18,346.54 33,964.82 59,128.90 84,212.96 107,113.49
i=16 1,978.40 9,607.46 20,137.38 37,122.08 64,141.48 83,669.17
i=17 100.30 3,147.35 10,095.12 22,279.05 30,503.34
i=18 199.86 1,182.13 1,700.91 2,592.05
i=19 0.00 1.03 827.70
i=20 2.01 2.40
15
i=21 0.20
LDFs 9.800 2.164 1.868 1.620 1.363 1.278 1.264 1.298 1.191 1.149 1.186 1.162
CDFs 759.427 77.493 35.805 19.165 11.833 8.682 6.795 5.376 4.141 3.477 3.026 2.552
2
σk 4,857,164.30 38,751 1,876.56 833.25 280.78 396.69 300.32 48.76 121.60 40.23 66.04 107.31
AY/DY 13 14 15 16 17 18 19 20 21
i/k j=13 j=14 j=15 j=16 j=17 j=18 j=19 j=20 j=21
i=1 4,505.27 4,993.13 5,901.05 5,969.02 6,359.25 6,549.35 7,359.44 8,087.60 9,133.17
i=2 4,685.34 4,923.93 5,298.98 4,926.78 5,276.39 5,933.75 9,111.70 9,752.54
i=3 10,320.56 11,450.67 11,722.77 12,490.07 13,198.26 13,954.51 14,101.15
i=4 8,300.71 9,342.08 10,331.80 10,786.63 11,662.18 12,674.20
i=5 9,215.88 10,258.24 11,457.86 11,957.46 13,389.07
i=6 10,342.52 12,811.56 13,735.81 16,069.38
i=7 18,877.71 21,115.09 24,727.55
i=8 23,812.16 27,166.96
i=9 34,494.74
i=10
i=11
i=12
i=13
i=14
i=15
i=16
i=17
i=18
i=19
i=20
i=21
LDFs 1.133 1.111 1.064 1.081 1.072 1.156 1.083 1.129 1.000
CDFs 2.195 1.937 1.744 1.639 1.516 1.414 1.223 1.129 1.000
2
σk 23.60 35.72 54.93 6.81 10.42 578.56 3.33 0.02 0.00
16
On remarque que les hypothèses ne sont pas vérifiées pour j = 1, car les points
(Ci1 , Ci,2 )i=0,...,I−1 ne sont pas vraiment alignés et que les résidus forment une
structure qui ne semble pas très aléatoire. C’est d’ailleurs cette première année
de développement qui pose problème. Pour les années suivantes, à partir de
j = 5, les hypothèses sont raisonnablement vérifiées.
Dans cet exemple et les suivants, pour ne pas avoir à manipuler des nombres
trop volumineux, on exprimera la standard error of prediction, définie par la
racine de l’erreur de prédiction plutôt que la MSEP elle-même. L’application
des formules classiques du modèle de Mack nous permet d’obtenir les résultats
suivants :
AY Ci,J Ri √ Modèle
√ de Mack √
Process Risk Parameter risk Total risk
i=1 9,133 0 - - -
i=2 11,013 1,261 4 10 17
i=3 17,248 3,147 245 227 334
i=4 17,927 5,253 3,322 2,305 4,043
i=5 20,295 6,906 3,573 2,630 4,437
i=6 26,341 10,272 4,102 3,426 5,344
i=7 43,135 18,407 5,586 5,746 8,013
i=8 52,630 25,463 6,405 7,086 9,552
i=9 75,731 41,237 7,879 10,254 12,932
i=10 127,483 77,520 11,417 17,607 20,985
i=11 102,820 68,836 10,943 14,332 18,032
i=12 138,693 98,808 13,275 19,437 23,537
i=13 144,048 109,260 15,303 20,469 25,557
i=14 382,075 311,009 26,087 54,558 60,474
i=15 727,880 620,767 47,184 106,687 116,655
i=16 726,378 642,709 61,273 109,189 125,206
i=17 360,948 330,445 50,111 55,070 74,457
i=18 49,676 47,084 25,456 7,904 26,655
i=19 29,636 28,808 30,937 5,274 31,383
i=20 186 184 11,196 91 11,196
i=21 149 149 76,270 532 76,272
covariance 278,989
Total 2,447,523 132,497 431,970 451,844
Les montants de sinistres ultimes Ci,J sont décrits en colonne 2 par année
d’accidents, de même que le montant des provisions Ri dans la colonne sui-
17
vante. On obtient, en particulier, un montant de provisions (obtenu de ce fait
avec la méthode de Chain Ladder) de 2 447 523. Les trois dernières colonnes
détaillent l’erreur de prédiction, ventilée en erreur de process et erreur d’estima-
tion, par année d’accident. L’erreur standard de prédiction agrégée par année
d’accident est de 451 844, se répartissant pour 132 497 en erreur de process
et pour 431 970 en erreur d’estimation. L’agrégation de cette erreur n’est pas
seulement la somme des erreurs par année d’acident (cf. théorème 2.1.4), mais
un terme de covariance s’y ajoute, valant ici 278 989.
2.2.1 Généralités
On se place au temps t = I et on considère l’année calendaire (I, I + 1] sui-
vante. De manière peu formelle, les CDR correspondent aux sinistres encourus
les années précédentes, c’est-à-dire à la différence entre les réserves au temps
t = I et au temps t = I + 1, ajustée des paiements effectués durant l’année
calendaire (I, I + 1]. Nous supposerons que les hypothèses de la méthode de
Chain Ladder sont vérifiées.
Nous noterons Cij les charges cumulées pour l’année de déclaration i ∈ {1, . . . , I}
et l’année de développement j ∈ {1, . . . , J}. Nous supposerons pour simplifier
que I = J. Les informations connues au temps t = I sont inclues dans l’en-
semble :
DI := {Cij ; i + j ≤ I}.
Au temps t = I + 1, de nouvelles observations ont été obtenues et l’ensemble
des informations connues est :
18
Plus formellement, cela signifie que l’on étend la tribu engendrée par les ob-
servations DI à la tribu engendrée par les observations DI+1 . Tout au long de
cette section, on se placera sous des hypothèses un peu plus strictes que les
hypothèses du modèle de Chain Ladder. Plus précisément, on supposera que :
Hypothèses 2.2.1. – Les payements cumulés Cij , pour i ∈ {1, . . . , I}, sont
indépendants.
– les (Cij )j=1,...,J forment une chaı̂ne de Markov et il existe des constantes
fj > 0 et σj > 0 telles que, pour tout 2 ≤ j ≤ J et 1 ≤ i ≤ I, on ait :
E(Cij |Ci,j−1 ) = fj−1 Ci,j−1
2
Var(Cij |Ci,j−1 ) = σj−1 Ci,j−1 .
Remarque 2.2.1. Cette hypothèse est un peu plus forte que celle de Mack,
qui supposait seulement que le premier et le second moment de Ci,j+1 ne
dépendaient que de Cij et non de Cil pour l < j.
Il est de plus facile de voir que ce modèle satisfait les hypothèses du modèle de
Chain Ladder et que l’on a :
J−1
Y J−1
Y
E[Ci,J |DI ] = Ci,I−i+1 fj et E[Ci,J |DI+1 ] = Ci,I−i+2 fj .
j=I−i+1 j=I−i+2
et
I−j+1
X
Ci,j+1 I−j+1
i=1
X
fbjI+1 = où SjI+1 = Ci,j .
SjI+1 i=1
On montre (cf [16]) que les fbj sont des estimateurs sans biais de fj et sont non
corrélés. De plus, conditionnellement à Ci,I−i ,
I I I
C
bi,J = Ci,I−i+1 fbI−i+1 . . . fbj−1
est un estimateur sans biais de E[Ci,J |DI ] pour j ≥ I − i + 1 et, conditionnel-
lement à Ci,I−i+2 ,
Cb I+1 = Ci,I−i+2 fbI+1 . . . fbI+1
i,J I−i+2 j−1
est un estimateur sans biais de E[Ci,J |DI+1 ] pour j ≥ I − i + 2.
On note également que, étant donné Ci,I−i+1 ,
b DI = C
R I
bi,J − Ci,I−i+1
i
est un estimateur sans biais de E[RiI |DI ] et que étant donné Ci,I−i+2 ,
bDI+1 = C
R b I+1 − Ci,I−i+2
i i,J
19
Définition 2.2.1. Le CDR réel pour l’année d’accident i et l’année calendaire
(I, I + 1] est donné par
CDRi (I+1) = E[RiI |DI ]−(Zi,I−i+2 +E[RiI+1 |DI+1 ]) = E[Ci,J |DI ]−E[Ci,J |DI+1 ],
CDR
[ i (I + 1) = R bDI+1 ) = C
bDI − (Zi,I−i+2 + R b I+1 .
bI − C
i i i,J i,J
Remarque 2.2.3. Le CDR réel CDRi (I + 1) est estimé par le CDR observable
CDR
[ i (I +1). Dans la prochaine section, on quantifiera la qualité de cette estima-
tion (vue prospective). De plus, le CDR observable CDR[ i (I + 1) est la position
qui apparaı̂t au compte de résultat au 31/12/I. Dans la prochaine section, on
quantifiera de même la qualité de cette position (vue rétrospective).
20
Cette décomposition ne donne plus clairement une séparation entre l’erreur de
process et l’erreur d’estimation, car l’erreur de process influence aussi la volati-
lité de fbjI+1 et l’erreur d’estimation est alors sous estimée. Les deux termes de
la formule précédente sont évalués explicitement dans les deux lemmes suivants.
Lemme 2.2.1. Sous les hypothèses du modèle, « l’erreur de process »des CDR
pour l’année de survenance i ∈ {1, . . . , I} et l’année courante (I, I + 1], étant
donné les observations DI , est donnée par :
I
(σI−i+1 )2 /(fI−i+1
I
)2
Var(CDRi (I + 1)|DI ) = E[Ci,J |DI ]2 .
Ci,I−i+1
Preuve. Elle n’est pas difficile. On renvoie au lemme 4.2 de l’article [19].
avec
!2
σI
(b )2 /(fbI−i+1
I
)2
J−1
X CI−j+1,j (σbj I )2 /(fbjI )2
bI
∆ i,J = I−i+1 I + .
SI−i+1 j=I−i+2
SjI+1 SjI
où
ΦIi,J = Var CDRi (I + 1) − CDR
[ i (I + 1) DI = Var(CDRi (I + 1)|DI )
[ i (I + 1) DI − 2Cov CDR
+ Var CDR [ i (I + 1), CDRi (I + 1) DI .
21
Lemme 2.2.3. L’estimateur de la MSE conditionnelle de l’estimateur des CDR
au temps t = I + 1 pour l’année courante (I, I + 1] et pour toute année de
survenance i ∈ {1, . . . , I} est :
2
I b Ii,J + ∆
b Ii,J ,
MSEP
\ CDR (I+1)|D CDR
i I
[ i (I + 1) = Cbi,J Φ
L’agrégation autour des années d’accident doit tenir compte des corrélations
entre celles-ci. En effet, la même observation est utilisée pour estimer les coeffi-
cients de Chain Ladder et est appliquée à des années d’accident différentes. La
MSEP agrégée du CDR réel est estimée par :
Théorème 2.2.1. L’estimateur de la MSE conditionnelle des CDR réels agrégés
au temps t = I + 1 pour l’année courante (I, I + 1] et pour toute année de sur-
venance i ∈ {1, . . . , I} est :
I
! I
X X
MSEP
\ PI CDR (I+1)|D
i=1 i I
CDR
[ i (I + 1) = \ CDR
MSEP [ i (I + 1)
i=1 i=1
X
I bI b Ii + Λ
b Ii,J
+2 C
bi,J Ci,J Ψ
k>i>1
b I = 0 pour i > 1,
où Ψ i,1
! !−1
I
(b
σI−i+1 )2 /(fbI−i+1
I
)2 σI
(b )2 /(fbI−i+1
I
)2
bI =
Ψi 1+ I+1
1 + I−i+1 b Ii,J
Φ
SI−i+1 Ci,I−i+1
et où
J−1
!2
Ci,I−i+1 (b I
σI−i+1 )2 /(fbI−i+1
I
)2 X CI−j+1,j σjI )2 /(fbjI )2
(b
Λi,J = I+1 I
+ .
SI−i+1 SI−i+1 j=I−i+2
SjI+1 SjI
22
Reste alors à évaluer la « variance de process »des CDR observables :
Lemme 2.2.5. On estime la variance des CDR observables pour l’année cou-
rante (I, I + 1] par :
I
! I
X X
I
2 X
Var
d [ i (I + 1) DI
CDR = C
bi,J b Ii,J + 2
Γ C I bI b I
bi,J Ck,J Υi,J ,
i=1 i=1 k>i>1
où,
b Ii,J
Γ = Var
d CDR [ i (I + 1) DI
" # J−1
!
I
(b
σI−i+1 )2 /(fbI−i+1
I
)2 Y σ I )2 /(fbI )2
(b
= 1+ . 1 + l I+1 l CI−l+1,l − 1,
Ci,I−i+1 (Sl )2
l=I−i+2
Remarque 2.2.5. On remarque que Var
d CDR [ i (I + 1) DI ≥ Var
d CDRi (I + 1) DI .
Le théorème suivant résume les deux lemmes précédents et donne une estimation
de la MSEP du CDR observable agrégée :
I
X
I
2 X
MSEP
\ PI [ (0) = C
bi,J b Ii,J + ∆
Γ b Ii,J +2 C I bI
bi,J Ck,J Υb Ii,J + Λ
b Ii,J .
i=1 CDRi (I+1)|DI
i=1 k>i>1
Lemme 2.2.6. Si les aj sont des scalaires positifs tels que 1 aj , alors
J
Y J
X
(1 + aj ) − 1 ≈ aj .
j=1 i=1
23
On redéfinit alors les notations suivantes :
!2
J−1
X CI−j+1,j (σbj I )2 /(fbjI )2
b Ii,J :=
Φ
j=I−i+2
SjI+1 CI−j+1,j
I
b Ii,J + (b
b Ii,J :=Φ σI−i )2 /(fbI−i
I
)2 b Ii,J
Γ ≥Φ
Ci,I−i+1
I
b Ii,J + (b
b Ii,J :=Φ σI−i+1 )2 /(fbI−i+1
I
)2 b Ii,J .
Υ I+1
≥Φ
SI−i+1
σjI )2 /(fbjI )2
(b
1
CI−j+1,j
pour des données typiques. Le même raisonnement s’applique aux autres quan-
tités. Pour de plus amples détails, on renvoie à [20].
24
puisque en effet le lemme 2.2.1 montre que l’on estime Var(CDR
d i (I + 1)|DI )
I
2 I
par Ci,J Φi,J . Néanmoins, pour des données typiques, les termes d’ordre
b b
supérieurs sont négligeables et l’on obtient une égalité approximative de ces
deux estimateurs.
Théorème 2.2.3. (MSEP conditionnelle agrégée) L’estimateur de la MSEP
conditionnelle des CDR réels agrégés au temps t = I + 1 pour l’année courante
(I, I + 1] et pour toute année de survenance i ∈ {1, . . . , I} est :
I
! I I
!
X X X
MSEP
\ PI CDR (I+1)|D
i=1 i I
CDR
[ i (I + 1) = MSEP
\ CDR (I+1)|D
i I
CDR
[ i (I + 1)
i=1 i=1 i=1
X
I bI b Ii,J b Ii,J
+2 C
bi,J Ck,J Φ +Λ
k>i>1
25
De même, en comparant cette formule avec celle de Mack (théorème 2.4.1), on
remarque que la MSEP des CDR réels agrégés considère l’erreur d’estimation
pour la diagonale suivante (j = I − i + 1), mais écrase toutes les erreurs d’esti-
mations des diagonales d’après (j ≥ I − i + 1) par le facteur CI−j+1,j /SjI+1 ≤ 1.
Ces approximations permettent d’obtenir une décomposition naturelle qui au-
torise une interprétation simple comparable à la formule de Mack. Il est à noter
que cette décomposition (et donc son interprétation) n’est valable que pour les
formules approchées et non pour les formules exactes.
2.2.4 Exemple
Les données utilisées proviennent du triangle présenté dans la section précédente.
Le triangle de la page suivante contient les payements cumulés présentés dans
la section précédente ainsi que les payements cumulés estimés pour la nouvelle
diagonale. Celle-ci ne constitue pas une donnée et son estimation a été réalisée
par ailleurs à l’aide de la méthode du bootstrap. Cela va permettre le calcul
explicite des CDR observables.
26
j=1 2 3 4 5 6 7 8 9 10 11
i=1 0.8 3.7 80.4 1161.8 1417.7 1185.9 1468.1 1634.7 1965.6 2586.0 3162.9
2 13.5 286.3 423.3 653.5 828.4 1365.2 1682.9 1949.7 2194.5 2584.0 2803.3
3 266.2 496.4 559.4 514.7 1729.6 1985.3 1953.9 2814.2 3344.1 5463.0 7213.2
4 152.4 285.6 247.4 600.0 863.4 2334.3 2838.7 3623.7 4420.2 6417.7 6866.6
5 167.4 333.3 976.9 1368.3 1836.0 2562.6 2670.7 3308.6 4516.7 5708.8 6605.1
6 2.0 420.6 597.5 663.8 1014.9 1635.5 2285.8 5652.1 6662.3 7854.2 8411.1
7 0.7 7222.3 8445.3 9426.3 10287.9 10730.2 7629.0 8892.9 11168.5 14206.4 15365.3
8 4.0 234.3 1139.9 1517.2 3176.4 4186.1 6492.9 8810.4 11087.0 13684.2 15279.4
9 0.2 559.0 3059.9 4997.7 6946.1 8250.9 11550.2 15412.1 20019.5 23080.1 26991.1
10 18.0 359.0 1081.2 3522.7 8088.2 12042.9 16793.4 22199.7 30933.3 34637.6 39820.7
11 180.4 245.2 533.2 2935.5 7702.0 10461.8 13917.5 17749.8 24373.1 28644.9 33984.4
12 84.8 1722.6 3412.3 7810.2 11367.7 16532.0 22085.2 26798.2 34467.9 39884.4 47552.9
13 0.1 901.5 3672.0 5174.4 10264.8 14737.6 22741.1 27442.6 34787.9 42356.4
14 60.2 2607.3 10212.0 21977.3 32859.2 46222.9 57855.4 71066.1 92631.5
15 802.4 9912.4 18346.5 33964.8 59128.9 84213.0 107113.5 135237.7
16 1978.4 9607.5 20137.4 37122.1 64141.5 83669.2 109000.8
17 100.3 3147.4 10095.1 22279.0 30503.3 42560.1
18 199.9 1182.1 1700.9 2592.0 4170.7
19 0.0 1.0 827.7 1402.62
20 2.0 2.4 11.1
21 0.2 4.2
27
fbjI 9.800 2.164 1.868 1.620 1.363 1.278 1.264 1.298 1.191 1.149 1.186
fbI+1
j 9.801 2.164 1.867 1.619 1.367 1.285 1.263 1.300 1.196 1.159 1.124
j=12 13 14 15 16 17 18 19 20 21
i= 1 3795.1 4505.3 4993.1 5901.1 5969.0 6359.3 6549.3 7359.4 8087.6 9133.2
2 3592.9 4685.3 4923.9 5299.0 4926.8 5276.4 5933.8 9111.7 9752.5 11013.0
3 7694.0 10320.6 11450.7 11722.8 12490.1 13198.3 13954.5 14101.1 14917.6
4 8006.8 8300.7 9342.1 10331.8 10786.6 11662.2 12674.2 14195.7
5 7829.1 9215.9 10258.2 11457.9 11957.5 13389.1 13685.1
6 9027.4 10342.5 12811.6 13735.8 16069.4 16980.0
7 17028.3 18877.7 21115.1 24727.6 31896.2
8 18736.5 23812.2 27167.0 40703.6
9 31462.0 34494.7 39503.7
10 49963.2 58590.0
11 30028.5
12
13
14
15
16
17
18
19
20
21
fbjI 1.162 1.133 1.111 1.064 1.081 1.072 1.156 1.083 1.129 1.000
fbI+1
j 1.166 1.137 1.214 1.131 1.075 1.058 1.145 1.071 1.129 1.000
i bDI+1
Zi,I−i + R b DI
R CDR
[ i (I + 1)
i i
1 - - -
2 1,260 1,261 0.36
3 2,745 3,147 402
4 4,502 5,253 750
5 5,564 6,906 1,342
6 8,820 10,272 1,451
7 25,533 18,407 -7,126
8 45,393 25,463 -19,930
9 50,980 41,237 -9,743
10 94,122 77,520 -16,602
11 52,085 68,836 16,750
12 113,328 98,808 -14,519
13 123,328 109,260 -14,068
14 342,390 311,009 -31,381
15 677,630 620,767 -56,864
16 715,441 642,709 -72,732
17 370,296 330,445 -39,851
18 51,095 47,084 -4,011
19 28,410 28,808 398
20 431 184 -247
21 351 149 -202
Total 2,713,704 2,447,523 -266,181
28
i bI
∆ bI
Φ bI
Ψ bI
Γ bI
Λ bI
Υ
i,k i,k i,k i,k i,k i,k
1 0 0 0 0 0 0
2 0.00000 0.00000 0.00000 0.00000 0.00000 0.00000
3 0.00017 0.00000 0.00020 0.00020 0.00008 0.00009
4 0.01640 0.00004 0.03414 0.03418 0.00534 0.01111
5 0.00200 0.00363 0.00068 0.00431 0.00182 0.00381
6 0.00190 0.00368 0.00036 0.00404 0.00181 0.00377
7 0.00261 0.00370 0.00196 0.00566 0.00203 0.00428
8 0.00224 0.00387 0.00107 0.00494 0.00196 0.00416
9 0.00209 0.00395 0.00053 0.00448 0.00191 0.00403
10 0.00263 0.00396 0.00159 0.00555 0.00212 0.00447
11 0.00232 0.00412 0.00138 0.00550 0.00203 0.00440
12 0.00219 0.00418 0.00076 0.00494 0.00202 0.00435
13 0.00254 0.00422 0.00247 0.00668 0.00209 0.00467
14 0.00220 0.00430 0.00041 0.00471 0.00207 0.00443
15 0.00312 0.00434 0.00176 0.00610 0.00245 0.00502
16 0.00330 0.00460 0.00290 0.00751 0.00250 0.00541
17 0.00295 0.00482 0.00495 0.00978 0.00236 0.00542
18 0.00432 0.00490 0.12255 0.12744 0.00232 0.00690
19 0.00863 0.00493 0.64954 0.65447 0.00234 0.01121
20 0.21158 0.00499 3,444.12 3,444.12 0.00230 0.21427
21 12.54039 0.00500 258,033.60 258,033.61 0.00289 12.54250
et que comme les sinistres des différentes années d’accident sont indépendants,
on a !
X I XI
Var
d VarCDRi (I + 1)|DI = Var
d (CDRi (I + 1)|DI ) .
i=1 i=1
On estime l’écart-type des CDR réels par 100 020, ce qui signifie qu’il n’est
pas improbable que le CDR réel soit dans l’intervalle ±266 181. La racine de
l’estimation de la MSEP entre le CDR réel et observable est de 244 589, ce qui
signifie qu’il est plus probable que le CDR réel ait le même signe que le CDR
observable. De plus, l’incertitude de prédiction du CDR observable autour de 0
étant de 272 407, il est donc pas improbable que l’on ait un CDR observable de
-266 181. Le risque de marge, ie la marge de solvabilité, doit donc être directe-
ment relié à cette valeur de 272 407. Il s’agit d’une vision à court terme, qui doit
29
être correcte pour traiter le long terme. Pour le traiter, on peut par exemple
ajouter un coût du capital à l’ultime afin de s’assurer que le futur capital de
solvabilité puisse être financé.
σjI )2 /(fbjI )2
(b
1 .
CI−j,j
Cette hypothèse est valable pour des données standards. Malheureusement, nos
données ne le sont pas, et en particulier pour la première année d’accident. Son
hétérogénéité est telle que l’on a par exemple
σ1I )2 /(fb1I )2
(b
'258 034
C20,1
σ2I )2 /(fb2I )2
(b
'3 444.
C19,2
Les hypothèses du lemme 2.2.6 ne sont donc pas vérifiées ce qui pourraient en-
traı̂ner un biais dans l’approximation de la MSEP des CDR. Certains termes
n’apparaı̂traient alors plus comme négligeables. Néanmoins, les approximations
restent très proches des valeurs exactes, ce qui permet de conclure que l’uti-
lisation de celles-ci n’entraı̂nent pas de pertes d’informations substantielles et
demeurent un bon compromis entre précision et simplicité de calculs.
30
que cette méthode essaie de combiner les informations provenant du triangle
des charges et du triangle des payés afin d’obtenir une prédiction plus fiable du
montant des réserves. R. Dahms a présenté un modèle stochastique permettant
de combiner ces deux sources d’incertitude et de quantifier l’écart type de la
prédiction de la méthode de Munich Chain Ladder. Ce modèle a été revisité
dans une optique solvabilité avec une vision à un an et la MSEP des CDR
estimée dans [21].
31
Chapitre 3
Méthodes Bootstrap
Var(Cij ) = φµij .
avec α1 = β1 = 0. Renshaw et Verall ont montré en 1998 dans [27] que pour un
triangle de liquidation à incréments positifs, les valeurs prévues par un modèle
de Poisson (simple ou équidispersé) à lien log et les provisions par année d’ori-
gine et totale coı̈ncident avec les éléments correspondants calculés à l’aide de la
méthode de Chain Ladder.
De ce fait, on applique la méthode de Chain Ladder à chaque étape de la
procédure bootstrap avec des allers retours cumulés incréments. Plus précisément,
la méthode du bootstrap appliquée au provisionnement se décompose ainsi :
1. Ne pas oublier que l’on travaille avec un triangle de charges cumulées. Si
l’on a affaire à un triangle d’incréments, la première étape est alors de cal-
32
culer le triangle de charges cumulées, puis les coefficients de développement
et la provision correspondante par la méthode Chain Ladder.
2. Estimation du triangle ajusté : à partir de la diagonale du triangle, on
obtient de manière récursive les coefficients du triangle ajustés en divisant
les données du triangle non ajustées par les facteurs de développement.
3. Calcul du triangle des incréments ajustés Z bij . L’application directe de la
méthode du bootstrap sur les éléments (Cij )i+j≤I du triangle supérieur ne
s’avère pas pertinente car les valeurs prises par les variables explicatives
ne sont pas aléatoires. C’est pourquoi l’on procède au rééchantillonage des
résidus de Pearson.
(P )
4. Calcul des résidus de Pearson rij , ajustés via les degrés de liberté des
données :
(P ) Zij − Zbij
rij = q .
Zbij
33
simuler une réalisation d’une loi de Poisson de moyenne µf ij /φ, puis de
b
multiplier le résultat par φ. Les modélisations sont alors des multiples
b
de φ,b ce qui est un inconvénient, surtout si φ est grand. Il peut alors
être jugé préférable d’utiliser une loi Gamma paramétrée de sorte que
sa moyenne soit µf ij et sa variance φµ
bf ij .
Les simulations ne seront alors plus des multiples de φ. b Toutefois, la
procédure du bootstrap peut générer quelquefois des moyennes négatives
µfij et des réajustements sont dans ce cas nécessaires pour éviter que la
variance ne soit négative. On peut par exemple simuler avec la valeur
absolue de la moyenne et corriger ultérieurement le signe du payement.
Exemple 3.1.1. La procédure bootstrap sur nos données donnent les résultats
suivants. Le triangle ajusté obtenue à l’étape 2 est :
1 2 3 4 5 6 7 8 9 10 11
1 13.3 130.8 283.2 529.2 856.9 1,170.7 1,511.2 1,901.1 2,453.4 2,909.7 3,332.7
2 21.3 208.3 451.1 842.8 1364.7 1864.5 2406.7 3027.7 3,907.3 4,634.1 5,307.7
3 22.8 223.3 483.5 903.4 1,462.8 1,998.5 2,579.7 3,245.3 4,188.1 4,967.2 5,689.3
4 23.1 226.4 490.3 916.0 1,483.3 2,026.6 2,615.9 3,290.8 4,246.8 5,036.8 5,769.0
5 25.9 253.4 548.7 1,025.3 1,660.2 2,268.2 2,927.8 3,683.2 4,753.2 5,637.4 6,456.9
6 33.3 326.4 706.8 1,320.6 2,138.4 2,921.5 3,771.1 4,744.0 6,122.3 7,261.1 8,316.7
7 65.5 642.2 1,390.5 2,598.1 4,207.1 5,747.8 7,419.3 9,333.5 12,045.1 14,285.7 16,362.4
8 70.7 692.7 1,500.0 2,802.6 4,538.1 6,200.2 8,003.2 10,068.0 12,992.9 15,409.8 17,650.0
9 101.2 991.9 2,147.7 4,012.7 6,497.7 8,877.4 11,459.0 14,415.4 18,603.3 22,063.8 25,271.3
10 169.5 1,661.4 3,597.3 6,721.2 10,883.4 14,869.4 19,193.5 24,145.3 31,160.0 36,956.3 42,328.7
11 136.1 1,333.8 2,888.1 5,396.2 8,738.0 11,938.2 15,409.8 19,385.5 25,017.4 29,671.1 33,984.4
12 183.0 1,793.0 3,882.3 7,253.7 11,745.7 16,047.5 20,714.2 26,058.4 33,628.8 39,884.4
13 189.3 1,854.8 4,016.1 7,503.7 12,150.6 16,600.6 21,428.1 26,956.5 34,787.9
14 499.0 4,889.8 10,587.7 19,782.2 32,032.8 43,764.5 56,491.4 71,066.1
15 946.1 9,271.6 20,075.4 37,509.2 60,737.5 82,982.0 107,113.5
16 953.9 9,348.3 20,241.7 37,819.8 61,240.5 83,669.2
17 475.1 4,656.3 10,082.2 18,837.7 30,503.3
18 65.4 640.7 1,387.3 2,592.0
19 39.0 382.3 827.7
20 0.2 2.4
21 0.2
12 13 14 15 16 17 18 19 20 21
1 3,933.8 4,549.1 5,129.7 5,668.4 6,439.4 6,910.7 7,344.4 8,306.0 8,834.1 9,879.7
2 6,265.0 7,244.9 8,169.7 9,027.6 10,255.5 11,006.1 11,696.9 13,228.3 14,069.3
3 6,715.4 7,765.7 8,757.0 9,676.5 10,992.8 11,797.3 12,537.7 14,179.3
4 6,809.5 7,874.6 8,879.7 9,812.1 11,146.8 11,962.6 12,413.4
5 7,621.5 8,813.6 9,938.5 10,982.2 12,476.0 13,389.1
6 9,816.7 11,352.1 12,801.1 14,145.3 16,069.4
7 19,313.6 22,334.4 25,185.1 27,829.8
8 20,833.4 24,091.9 27,167.0
9 29,829.3 34,494.7
10 49,963.2
11
12
13
14
15
16
17
18
19
20
21
34
1 2 3 4 5 6 7 8 9 10 11
1 -3.61 -11.10 -6.44 55.93 -4.16 11.90 -3.32 -11.87 -9.89 8.06 7.86
2 -1.76 6.58 -7.12 -8.57 -15.95 1.74 -10.13 -14.92 -22.47 -13.14 -18.38
3 53.55 2.20 -12.83 -21.46 29.10 -12.70 -25.27 7.92 -14.12 50.40 40.17
4 28.24 -5.16 -16.99 -3.72 -13.40 41.79 -3.67 4.45 -5.42 45.11 -10.99
5 29.22 -4.29 21.28 -4.10 -6.97 5.05 -22.55 -4.49 4.43 10.87 2.82
6 -5.69 7.69 -10.95 -23.20 -17.13 -6.10 -7.18 80.57 -10.41 1.65 -16.12
7 -8.41 290.55 18.22 -6.85 -19.56 -29.38 -42.90 -15.61 -8.79 17.69 -21.15
8 -8.33 -16.49 3.63 -26.92 -1.92 -16.80 12.46 5.84 -12.59 3.85 -14.31
9 -10.54 -11.68 41.54 1.77 -11.30 -23.14 14.83 17.49 6.81 -7.14 13.04
10 -12.22 -31.29 -28.96 -12.82 6.56 -0.52 6.81 6.78 21.55 -28.85 -2.71
11 3.99 -34.37 -33.73 -2.22 25.88 -8.17 -0.28 -2.39 13.87 -5.88 16.41
12 -7.62 0.73 -9.18 18.56 -14.64 13.81 13.63 -9.07 1.20 -11.14
13 -14.44 -19.66 13.76 -35.30 6.83 0.36 48.00 -11.68 -5.77
14 -20.62 -29.22 26.52 28.15 -12.98 15.82 -10.19 -11.86
15 -4.91 9.03 -23.94 -14.44 13.34 19.99 -8.32
16 34.83 -8.77 -3.66 -4.70 24.69 -20.34
17 -18.06 -18.42 21.69 38.47 -33.46
18 17.46 17.81 -8.75 -9.49
19 -6.56 -19.40 18.97
20 3.74 -1.26
21 0.00
12.00 13.00 14.00 15.00 16.00 17.00 18.00 19.00 20.00 21.00
1 1.33 4.02 -4.04 16.71 -26.59 -3.92 -12.28 -5.13 9.14 0.00
2 -5.69 3.78 -23.69 -17.31 81.40 -15.37 -1.33 44.18 -7.25
3 -17.87 51.07 4.63 -22.42 -15.89 -3.57 0.61 -38.74
4 3.25 -24.81 1.20 1.97 -25.29 2.20 10.01
5 1.83 5.92 -2.59 5.07 -27.01 18.02
6 -23.96 -5.90 28.14 -12.03 9.80
7 -24.90 -22.38 -12.06 19.76
8 5.09 33.43 5.30
9 -1.36 -25.10
10 30.14
11
12
13
14
15
16
17
18
19
20
21
35
On remarque tout d’abord que le montant des réserves est très semblable à
celui obtenu par la méthode de Chain Ladder, ce qui est normal puisque le
modèle sous-jacent que l’on a choisi reproduit cette méthode. Toutefois, l’erreur
de prédiction est quant à elle légèrement plus élevée, puisqu’elle est de l’ordre
de 512 000 contre 450 000 pour le modèle de Mack. Il est à noter que la méthode
du bootstrap n’est sûrement pas la méthode la plus indiquée pour traiter nos
données, car celles-ci sont loin d’être homogènes. Cette méthode ne tient pas
compte des changements de tendances intervenants sur les années d’accident.
La tendance à la baisse qui se reflète sur les 3 dernières années ainsi que les
irrégularités de certains millésimes sont complètement gommées par la méthode
du bootstrap. Il est donc possible que celle-ci conduise à une sur estimation de
l’erreur de prédiction.
36
Exemple 3.2.1. Le calcul du risque à un an donne quant à lui un résultat de
296 666 :
Moyenne Erreur de prédiction VaR75% VaR95%
2,251,442 296,666 2,434,315 2,754,179
La distribution empirique des réserves est présentée ci-après.
37
Les résidus ajustés sont définis par
ij − µ
ij :=
σ
avec
I−1 I−i I−1 I−i
1 XX 1 XX 2
µ := ij , σ := (ij − µ ) .
N i=0 j=1 N i=0 j=1
Attention ici, certaines hypothèses techniques doivent être envisagées pour les
résidus i,j (cf. annexe A). Il est nécessaire de faire un grand nombre de simu-
lations afin de assurer une certaine fiabilité du résultat.
A chaque itération bootstrap, l’estimation de l’ultime C b I+1 à la fin de l’année
iJ
I est obtenue en appliquant la méthode de Chain Ladder au triangle élargi à la
nouvelle diagonale bootstrap :
avec
I−j
X
Cij + C
ei,J−i+1
I+1 i=0
fei,j−1 = I−j+1
, j = 1, . . . , J.
X
Cij
i=0
38
Deuxième partie
Interlude : Risques
calendaires et Impact de
chocs de taux sur un an
39
Chapitre 4
où θ est le vecteur des paramètres, M = (Mij ) est la matrice design définissant
le modèle et ij est une erreur de moyenne nulle. Celles-ci sont supposées
indépendantes et identiquement distribuées de loi normale de variance σ 2 . Le
modèle le plus fréquemment utilisé est le modèle de Chain Ladder qui prend la
forme
Yij = µ + αi + βj + ij
où µ est la moyenne globale, αi la tendance de l’année d’origine, et βj celle de
l’année de développement. Pour des raisons techniques, α0 = β0 = 0.
40
– Soustraire τ aux estimations de provisions et de charges sinistres. Les mo-
ments d’ordre 2 restent inchangés.
Toutefois, l’ajout d’une constante relativement grande par rapport aux incréments
peut entraı̂ner, une fois passé au log, un lissage des données et donc biaiser le
résultat.
41
La matrice M de notre exemple illustratif s’écrit ici :
i=1 i=2 i=3 i=4 j=2 j=3 j=4
1 0 0 0 0 0 0
1 0 0 0 1 0 0
1 0 0 0 0 1 0
1 0 0 0 0 0 1
0 1 0 0 0 0 0
0 1 0 0 1 0 0
0 1 0 0 0 1 0
0 0 1 0 0 0 0
0 0 1 0 1 0 0
0 0 0 1 0 0 0
42
Les futurs paiements sont alors Yb = Mf θ. La matrice de variance-covariance
des log-incréments associée au risque de paramètre est obtenue en évaluant
σ 2 Mf (t Mf Mf )−1t Mf ,
(i,j) Z
bij Parameter Risk Total Risk
(2, 4) 1,041 70 89
(3, 3) 2,681 157 211
(3, 4) 1,152 84 103
(4, 2) 10,650 720 913
(4, 3) 2,803 203 251
(4, 4) 1,204 101 120
Le montant des provisions est estimé par 2 316 483 et l’erreur de prédiction
totale par 119 102. Cette dernière est beaucoup plus faible que les erreurs es-
timées précédement dérivées des méthodes de type Chain Ladder. Comment
peut-on expliquer un tel écart ? Je pense que cette valeur assez basse est liée
43
au retraitement des données. En effet, nos données présentent des incréments
négatifs, qui rendent l’emploi de la méthode impossible en l’état en raison de la
présence du logarithme. Le fait d’ajouter 5 000 à tous les incréments a eu pour
effet de lisser après passage au logarithme toutes les données de faible montant
et donc peut-être de masquer une partie de l’erreur d’estimation. En effet, si
l’on retraite en égalisant à 0 tous les log-incréments problématiques, la valeur
de l’erreur de prédiction dépasse le million ! Cela pose le problème de la vali-
dité de l’erreur obtenue avec les méthodes linéaires sur les log incréments pour
des données pouvant présenter des incréments négatifs. Par contre, le moment
d’ordre 1 des réserves semble correct.
Les paramètres obtenus sont classés dans le tableau suivant :
θ θ
i=1 8.13892763 j=2 0.20566957
i=2 8.14977964 j=3 0.27656683
i=3 8.19666601 j=4 0.4009415
i=4 8.20062626 j=5 0.50493808
i=5 8.21748615 j=6 0.47299536
i=6 8.2483186 j=7 0.42606274
i=7 8.29981256 j=8 0.52678856
i=8 8.38924107 j=9 0.59151814
i=9 8.49574769 j = 10 0.54757713
i = 10 8.65098419 j = 11 0.49583587
i = 11 8.5570885 j = 12 0.56420373
i = 12 8.6762769 j = 13 0.56618437
i = 13 8.66469472 j = 14 0.53790916
i = 14 9.10411926 j = 15 0.50999443
i = 15 9.46221916 j = 16 0.4325982
i = 16 9.42725001 j = 17 0.47416649
i = 17 8.95436798 j = 18 0.46719427
i = 18 8.41672026 j = 19 0.57909161
i = 19 8.40751906 j = 20 0.50111418
i = 20 8.41459857 j = 21 0.56815425
i = 21 8.51723239
On trouve aussi σ b = 0.2139925. De plus, nous avons tracé sur les graphiques
ci-dessous, les résidus en fonction des années d’accident, de développement et
des valeurs prédites ainsi que le QQ-plot des résidus :
44
Les résidus en fonction des valeurs prédites présentent une structure non aléatoire
les premières années, ce qui n’est pas en faveur du modèle. Le QQ-plot met
en doute la normalité des résidus, ce que confirme un test de Shapiro. Les
résidus ne sont même pas indépendants entre eux et présentent une structure
de dépendance suggérée par le tracé de la fonction d’autocorrélation empirique
suivante :
Ce graphique est le tracé des covariances entre les résidus. Les pointillés bleus
correspondent au seuil en deça duquel on peut conclure que les corrélations sont
nulles avec une probabilité de 95%. On remarque alors que le graphique montre
des corrélations non nulles entre certains résidus.
Tout ceci plaide en une certaine prudence concernant les résultats obtenus,
particulièrement au niveau du moment d’ordre 2. Il est à noter que la méthode
ci-dessus ne sélectionne pas les paramètres significatifs, ie. conserve tous les
paramètres de la régression sans chercher à éliminer ceux qui ne seraient pas
significatifs. Un grand nombre de paramètres sont du même ordre de grandeur,
ce qui fait penser que le modèle (qui reproduit celui de Chain Ladder) est
certainement sur paramétrisé. La section suivante traite de ce problème et la
méthode de Zenwirth y apporte une solution.
avec
Cov(Z
bij , Z
bkl ) = Z bkl eCov(Ybij ,Ybkl )−1
bij Z (∗)
45
et
Var(Yb ) = σ 2 [Id + Mfoy (t Mfoy Mfoy )−1 t Mfoy ].
Puisque la méthode de Christophides donne le même montant de réserve que la
méthode de Chain Ladder, le montant des provisions restera identique. Seule la
variance est ici modifiée. Toutefois, si on utilise une autre méthode de régression
sur les log-incréments que celle-ci, (par exemple en ne conservant que les pa-
ramètres significatifs), il conviendrait de réestimer les incréments Zij pour i+j ≥
I + 3 à l’aide d’une méthode déterministe comme Chain Ladder, avant de les
réinjecter dans la formule (∗).
Exemple 4.1.2. Avec notre triangle, le risque à un an évalué par la méthode
Christophides est de 38 489. La valeur est faible, mais cohérente avec l’erreur
estimée pour l’ultime. Les mêmes remarques faites à propos de cette dernière
s’appliquent pour l’erreur à un an.
46
est équivalent à
/ i1
i1 + i2
ou à
CC / −i2
CC
CC
CC
C!
i1 + i2
En effet, une tendance sur les années calendaires i est égale à cette même ten-
dance sur les années d’accident et sur les années de développement :
>>
>>
>>
>>
i
est égale à
/i
i
Ainsi, une tendance i3 sur les années d’accident est égale à une tendance sur les
années calendaires i3 à laquelle on doit soustraire la tendance correspondante
sur les années de développement, ie
i3
est égale à
?? / −i3
??
??
??
i3
Ceci permet de comprendre les liens entre les différentes tendances comme
résumés graphiquement supra.
On souhaite avoir des paramètres de régression dans les trois directions. En
général, des changements n’apparaissent pas tous les ans, donc le modèle op-
timal (que l’on aura identifié sur un triangle particulier) sera parcimonieux au
niveau des paramètres. Ces paramètres pourront donner une idée claire des ten-
dances passées sur les incréments.
47
où αi est un paramètre pour l’année d’accident i, γj est la tendance moyenne
entre les années de développement j − 1 et j et ιt est l’inflation moyenne entre
les années calendaires t − 1 et t.
L’actuaire doit identifier le modèle le plus approprié aux données afin d’obtenir
des informations de tendance et de stabilité.
La régression s’écrit Y = M θ + avec M définit par les règles énoncées dans la
définition suivante.
Les valeurs prédites pour chaque cellule du triangle de log incréments sont alors
1 2 ··· j ··· J
Pj Pj PJ PJ−1
1 α1 α1 + γ1 + ι1 ··· α0 + γk + r=1 ιr ··· α0 + k=1 γk + r=1 ιr
P2 Pjk=1 Pj
2 α2 + ι1 α 1 + γ1 + r=1 ιr ··· α0 + γk + r=1 ιr ···
k=1
. . . . .
. . . . .
. . . . .
Pi−1 Pi Pj Pi+j−1
i αi + r=1 ιr α i + γ1 + r=1 ιr ··· αi + γ + ιr
k=1 k r=1
. . .
. . .
. . .
PI−1
I αI + r=1 ιr
48
Remarque 4.2.1. Dans son article, Zenwirth a exhibé des données réelles dont
les facteurs de développement de Chain Ladder sont très stables, alors qu’il y
avait des changements de tendances dramatiques sur les années calendaires. La
méthode de Chain Ladder ne permet pas de détecter ces changements de ten-
dances et suppose au contraire que ceux-ci restent constants tout au long du
développement.
On peut trouver aussi dans [2] un exemple de données très volatiles, mais pour
lesquelles il n’y a que peu de changements de tendances.
La méthode de Zenwirth s’utilise donc comme un outil de diagnostic permet-
tant d’obtenir des informations sur la stabilité et les changements de tendance
des données au niveau des années d’accident, de développement et des années
calendaires. Toutefois, la mise en oeuvre de la méthode n’est pas aisée ; elle doit
s’adapter à toutes nouvelles données et son interprétation est non évidente.
Les années d’accident sont complètement homogènes alors que l’on a une ten-
dance de -0.2 sur les années de développement. On rajoute une tendance de 0.1
sur les années calendaires 1978 jusqu’à 1982, de 0.3 de 1982 à 1983 et de 0.15 de
1983 à 1991, comme illustré par le schéma suivant. De plus, un terme d’erreur
suivant une loi normale N (0, 0.1) vient de plus perturbé les données construites.
Cette tendance se projette sur les années de développement de sorte que celle-ci
devient pour les années 1978 à 1982 de -0.2+0.1=-0.1, de -0.2+0.3=0.1 pour les
années 1982 et 1983 et de -0.2+0.15=-0.05 pour les années de développement
entre 1983 et 1991. Les tendances des années de développement pour chaque
année d’accident sont représentées dans le graphique ci-dessous. Ce graphique
permet de se faire une idée de la manière dont les tendances sur les années
calendaires se projettent sur les années de développement et d’accident sans
incorporer de termes d’erreurs.
49
source : Zenwirth [2]
Dans un premier temps, afin de déterminer le modèle le plus adapté (en faisant
l’hypothèse que l’on ne le connait pas !), on teste celui pour lequel la tendance
est identique sur toutes les années d’accident, de développement et calendaires,
ie on teste γk = γ, ιt = ι et αi = α. Une régression effectuée à l’aide du logiciel
R nous fournit l’estimation des paramètres suivants :
50
Tab. 4.1 – Résidus en fontion des années calendaires
La structure des résidus n’est pas aléatoire et 3 tendances sur les années calen-
daires se dessinent sur le graphique, une pour les 4 premières années (de 1978
à 1982), la deuxième sur une seule année et une dernière tendance sur les 8
dernières années (de 1983 à 1991). Ce graphique suggère de choisir trois pa-
ramètres ι distincts sur les années calendaires concernées afin de tenir compte
des tendances observées. Une nouvelle régression fournit alors les résultats sui-
vants :
Paramètres Estimation Sdt Error p-value
α 11.51492 0.0069201 <2e-16
γ -0.20001 0.000376 <2e-16
ι1 0.098582 0.002358 <2e-16
ι2 0.304255 0.00499 <2e-16
ι3 0.150127 0.000515 <2e-16
Fort heureusement, nous retrouvons les tendances telles que nous les avons
construites. Les graphiques suivants (cf. table 4.2) nous permettent de vérifier
qu’aucune tendance nette ne se dégage au niveau des années d’accident, de
développement et calendaires.
Nous avons tracé sur le premier graphique les résidus associés à chaque année
d’accident, sur le deuxième, les résidus associés à chaque année de développement,
et à chaque année calendaire sur le troisième. Sur le quatrième, on a représenté
les résidus en fonction des valeurs prédites. Ces graphiques montrent des struc-
tures aléatoires, sans qu’aucune tendance nette ne s’en dégage. Enfin, un test
de Shapiro sur les résidus nous permet d’accepter la normalité de ceux-ci (la
p-valeur qui est la probabilité de rejeter (H0 ) à tort étant plus grande que 0.05,
on accepte (H0 )) :
shapiro.test(lm$residuals) W = 0.9792, p-value = 0.09718
51
Tab. 4.2 – Graphiques des résidus en fonction des années d’accident de
développement et calendaires
52
On peut vérifier de plus à l’aide de la fonction d’autocorrélation que les résidus
ne sont pas corrélés et sont identiquement distribués :
Ce graphique est le tracé des covariances entre les résidus. Les pointillés bleus
correspondent au seuil en deça duquel on peut conclure que les corrélations sont
nulles avec une probabilité de 95%. Ici, toutes les corrélations sont nulles, ex-
cepté la première, ce qui est normale puisqu’il s’agit de la variance.
53
F-statistic : 24.4 on 2 and 228 DF, p-value : 2.492e-10
54
gamma qui n’est pas significatif. On reparamétrise en ne conservant que les
deux tendances les plus marquées, à savoir une première tendance γ1 sur les 5
premières années, et une deuxième γ2 sur les 15 années suivantes. Les paramètres
de régression obtenues avec le logiciel R sont alors les suivants :
Paramètres Estimation Sdt Error p-value
α 1.91636 0.44388 2.36e-05
γ1 0.69619 0.09217 1.03e-12
γ2 -0.22946 0.04457 5.69e-07
ι 1.98e-01 0.03081 7.51e-10
55
Paramètres Estimation Sdt Error p-value
α1 1.82405 0.41216 1.50e-05
α2 -3.88812 0.63382 3.78e-09
γ1 0.45487 0.09414 2.50e-06
γ2 -0.28444 0.04232 1.45e-10
ι 3.03e-01 0.03335 <2e-16
Les graphiques suggèrent que l’on a capturé toutes les tendances sur les années
d’accident, de développement et calendaires. Quelques essais supplémentaires,
en rajoutant un paramètre sur les années d’accident ou calendaires, ne donnent
rien de plus significatif. Il est à remarquer que les résidus sont regroupés en une
famille de points qui ne donnent pas l’impression d’être complètement aléatoires.
Le tracé de la fonction d’autocorrélation empirique suggère qu’ils ne sont pas
indépendants entre eux et qu’ils formeraient une moyenne mobile MA(1) d’ordre
1. Un test de Shapiro rejette l’hypothèse de normalité des résidus.
56
Toutefois, la méthode de Zenwirth nous a permis de détecter des changements
de tendance aux années 5 et 15. La première concerne uniquement les années de
développement, alors que la suivante concerne aussi les années d’accident. Cette
dernière tendance renforce l’idée que l’on avait suggéré supra d’une modification
de l’activité liée à ce triangle (run off ?). Il semble, que malgré la forte volatilité
des données, la tendance sur les années calendaires soit restée constante. Ce
triangle présentant des données a priori hétérogènes semblerait représenter des
tendances plutôt homogènes.
57
Chapitre 5
I l s’agit dans cette section de déterminer l’impact d’un choc de taux sur
une année calendaire. Puisque l’escompte des provisions n’est pas au-
torisé (sauf dans le cas d’un portefeuille de rentes), l’impact d’un choc
de taux n’a de sens que sur l’évaluation de provisions économiques.
Ces provisions sont importantes à évaluer pour avoir une appréciation juste de
celles-ci, dans le cadre par exemple, d’un modèle DFA ou des nouvelles normes
IFRS.
Dans un cadre comptable, l’impact du taux d’intérêt a son importance si la
société possède un portefeuille de rentes. Dans ce cas, les risques pouvant at-
teindre le portefeuille ne se limitent plus seulement au risque de taux, mais
incluent aussi un risque de changement de table ou de mortalité.
58
On remarque la forme peu usuelle de celle-ci, qui témoigne de la crise de liqui-
dités initiée par les sub primes. Elle dénote en effet de mauvaises anticipations à
court terme, mais de plutôt bonnes à long terme. Il faut aussi noter que l’Insti-
tut des Actuaires a décidé de ne pas publier de courbes dont le taux à très long
terme soit inférieur au taux à long terme.
On souhaite estimer le montant des provisions RI+1 vu au temps t = I + 1. Il
y a maintenant deux sources d’incertitude, d’une part, les charges de la nou-
velle diagonale et d’autre part, la courbe de taux dans un an. De nouvelles
diagonales peuvent être simulées à l’aide du bootstrap. Pour simuler de nou-
velles courbes de taux, on peut calibrer sur la courbe IA un modèle de taux de
type Cox Ingersoll Ross (CIR), processus qui se simule facilement à l’aide de la
méthode d’Euler. Toutefois, j’ai préféré utiliser des courbes générées à l’aide du
générateur de scénarios économiques en monde réel (CAP : Link (ESG)) de To-
wers Perrin. Celles-ci ont été établies à partir d’hypothèses économiques au 30
mai 2008, et ne correspondent pas forcément aux courbes de taux telles qu’elles
le seront dans un an. Pour cette raison, j’ai fixé le taux à un an de ces courbes
à 1.03, le rendant déterministe afin d’obtenir un proxy acceptable des futures
courbes dans un an. Ce proxy l’est d’autant plus que le nombre de simulations
est grand, et il est possible que 1 000 simulations ne soient probablement pas
suffisantes. Pour s’en convaincre, on pourrait tracer l’évolution du risque à un
an obtenue par la méthode décrite infra en fonction du nombre de simulation
afin d’en observer la convergence.
Année 2 3 4 5 6 7 8 9 10 11
Diagonale 11,013 14,918 14,196 13,685 16,980 31,896 40,704 39,504 58,590 30,028
Année 12 13 14 15 16 17 18 19 20 21
Diagonale 47,553 42,356 92,632 135,238 109,001 42,560 4,171 1,403 11 4
59
Tab. 5.2 – Distribution des provisions indexées
est en fait un risque de sur inflation, une inflation (constante) étant projetée
avec le triangle.
Signalons toutefois qu’un moyen possible de se prémunir contre l’incertitude sur
l’inflation future serait d’acheter sur le marché financier un swap indexé sur
l’inflation, afin de se garantir un taux d’inflation constant chaque année. Par
ce biais, on se ramènerait dans le cadre plus strict des hypothèses du modèle
de Chain Ladder. Un swap indexé sur le taux protègerait de la même façon
contre le risque de taux. Ce swap peut se voir comme la partie du capital
économique allouée aux réserves correspondant à la part d’incertitude sur le
taux ou l’inflation, en supposant en particulier que le marché est parfait. Bien
entendu, ce produit a un coup. Rappelons ici brièvement le fonctionnement d’un
swap indexé sur l’inflation :
Un swap d’inflation est un swap, où lors de chaque date de payement (par
exemple tous les ans), la partie A paye à la partie B le taux d’inflation en
vigueur lors de la période prédéfinie, tandis que la partie B paye à la partie A
un taux fixe. On trouvera dans l’article [18] de plus amples détails sur ce produit
ainsi que les formules analytiques permettant de le tarifer. Ces formules sont
dérivées de raisonnements classiques d’absence d’opportunités d’arbitrage.
Nous allons très brièvement donner un aperçu du modèle de Jarrow et Yildirim
(JY) de modélisation du taux d’inflation et du taux nominal. Rappelons que
le taux nominal est le taux fixé lors de la négociation du contrat de prêt, alors
que le taux d’intérêt réel est égal au taux d’intérêt nominal diminué du taux
d’infation. Le modèle JY est basé sur l’analogie qui consiste à considérer le taux
réel comme taux d’intérêt d’une économie étrangère et le taux d’inflation comme
le taux de change entre le taux nominal (domestique) et le taux réel (étranger).
En 2003, JY ont montré la proposition suivante :
Proposition 5.1.1. En notant par Qn (resp. Qr ) la mesure risque-neutre du
60
taux d’intérêt nominal (resp. réel), les dynamiques du taux nominal, réel et
d’inflation instantanés sont données par :
N φi K,
où K est le taux fixé au contrat et N est sa valeur nominale, tandis que la partie
A paye à la partie B la jambe variable
I(Ti )
N ψi −1 , (?)
I(ti−1 )
61
Exemple 5.1.2. La deuxième approche, par simulation, sera privilégiée ici.
Un certain nombre de constantes doivent être fixées, ainsi que les fonctions
déterministes θr et θn ajustant les taux nominaux et réels. La calibration de ces
constantes avec le marché est une partie à la fois délicate et intéressante, mais
n’est pas l’objet de ce mémoire. Il a été choisi les valeurs suivantes, de manière
plus ou moins arbitraire, en ayant pris soin de vérifier que les processus obtenus
engendrent des valeurs réalistes :
σn = 0.25, σr = σI = 0.2
ρ = 0.5, an = 0.6, ar = 0.6
θn (t) = 1.02t0.0028 , θn (t) = 1.05t0.0028 .
62
5.2 Au niveau des provisions comptables
Contrairement à tout le reste du mémoire, on se place ici dans le cas d’un porte-
feuille de rentes. De ce fait, aucune simulation n’a été effectuée. La détermination
d’un risque de taux est ici plus compliquée, car on a deux effets supplémentaires
à prendre en compte, d’une part l’effet table de mortalité et d’autre part l’ef-
fet seuil d’actualisation imposé par la réglementation. En effet, d’après l’article
A.331-10 du code des Assurances, le taux d’actualisation doit être inférieur à
60% du TME (taux moyen des emprunts français calculé sur une base semes-
trielle), sans pouvoir dépasser 3.5%. Par ailleurs, s’ajoute au risque de taux, un
risque de table et de mortalité.
63
Troisième partie
Méthodes de type
Bornhuetter Ferguson
64
Chapitre 6
Un modèle de Bornhuetter
Ferguson stochastique
65
d’où le montant des réserves pour l’année i :
1
Ri = (1 − pcI−i )Mi =Mi 1 −
fI−i+2 fI−i+3 . . . fI
1
=Mi (fI−i+2 fI−i+3 . . . fI − 1).
fI−i+2 fI−i+3 . . . fI
Pour la méthode de Chain Ladder, une estimation des réserves pour l’année
d’accident i est donnée par
Ri = Ci,I−i+1 (fI−i+2 fI−i+3 . . . fI − 1).
Ainsi, la différence entre la méthode de Bornhuetter-Ferguson et la méthode de
Chain Ladder est le facteur multiplicatif utilisé pour multiplier les facteurs de
développement. Pour la méthode de Chain Ladder, il s’agit de l’élément diagonal
Ci,I−i+1 alors que pour la méthode de Bornhuetter-Ferguson, il s’agit de
1
Mi .
fI−i+2 fI−i+3 . . . fI
Exemple 6.1.1. Les montants de primes par millésime étant inconnus, nous
les avons choisi arbitrairement. De même, on a choisit un loss ratio de 115%
ce qui nous semble cohérent au vu du déroulé de la branche longue représentée
par ce triangle. Les résultats qui suivent sont alors à nuancer fortement, car ils
sont très sensibles au niveau des montants de primes choisis. Les hypothèses
retenues sont indiquées dans les deux premières colonnes du tableau ci-dessous,
et les résultats obtenus dans les colonnes suivantes.
i primes S/P Ch ult a priori Provision Ch ult a posteriori
i = 1 10,960 1.15 12,604 0 9,133
i = 2 13,216 1.15 15,198 1,740 11,492
i = 3 20,697 1.15 23,802 4,342 18,443
i = 4 21,512 1.15 24,739 7,249 19,923
i = 5 24,354 1.15 28,007 9,531 22,920
i = 6 20,000 1.15 23,000 8,969 25,038
i = 7 15,000 1.15 17,250 7,361 32,089
i = 8 15,000 1.15 17,250 8,346 35,513
i = 9 90,877 1.15 104,509 56,906 91,401
i = 10 152,979 1.15 175,926 106,977 156,940
i = 11 123,384 1.15 141,891 949,93 128,977
i = 12 166,431 1.15 191,396 136,355 176,240
i = 13 172,858 1.15 198,786 150,779 185,567
i = 14 458,490 1.15 527,263 429,192 500,258
i = 15 550,000 1.15 632500 539,422 646,536
i = 16 650,000 1.15 747,500 661,398 745,067
i = 17 700,000 1.15 805,000 736,970 767,474
i = 18 123,384 1.15 141,891 134,448 137,080
i = 19 24,354 1.15 28,007 27,225 28,053
i = 20 20,000 1.15 23,000 22,703 22,706
i = 21 10,000 1.15 11,500 11,485 11,485
Le montant des réserves, calculé comme la somme des provisions, est de 3 156 432.
Ce montant est plus élevé que celui donné par la méthode de Chain Ladder, mais
encore une fois, n’ayant pas à disposition le montant des primes et des loss ra-
tio, ce résultat est purement illustratif et n’a pas de sens en lui-même. Il est
complètement dépendant du niveau de la prime et du loss ratio. Les charges
ultimes a posteriori sont simplement calculés comme la somme du montant des
provisions par année d’accident et de la dernière diagonale.
66
notera dans cette section CiJ le montant de pertes ultimes attendues l’année
d’accident i, et vi le volume de primes acquises correspondant. Soit wi le volume
de primes émises comptablement et pi les commissions spécifiques à une année
calendaire. On n’utilisera pas ici le loss ratio qi := CiJ /vi , mais le loss ratio
combiné ri := qi + pi /wi . Soit T ⊆ {1, . . . , I} le sous ensemble des années
d’accident obtenu en éliminant les effets spécifiques à certaines années qui ne
reflètent pas la tendance globale, comme un volume de prime faible ou un loss
ratio exorbitant. Le loss ratio pur moyen est défini par
X
qi
i∈T
qb :=
|T |
et le loss ratio combiné moyen par
X
ri
i∈T
rb := .
|T |
On peut aussi utiliser des moyennes pondérées (en fonction de la volatilité du
volume de primes sous-jacent)
X
qi vi
i∈T
qbv := X
vi
i∈T
Si vI+1 est le volume de prime estimé pour la nouvelle année calendaire, alors la
perte attendue pour la nouvelle année d’accident, obtenue comme la réalisation
d’une variable aléatoire notée XB , est en moyenne E(XB ) = rbvI+1 := µ ou
E(XB ) = rbv vI+1 := µv .
67
On suppose que pour simplifier I = J et que T = {1, . . . , I}. De plus, on
supposera que les hypothèses suivantes sont vérifiées :
Hypothèses 6.2.1. – Pour tout j, les incréments Zi,j pour 1 ≤ i ≤ I sont
indépendants
– Il existe des constantes mj et sj telles que
Zi,j
∀i, E =mj
vi
Zi,j sj
∀i, Var =
vi vi
– Le calcul des réserves est fait selon ce modèle.
Remarque 6.2.1. On remarque la similarité des hypothèses précédentes avec
les hypothèses 2.2.1 du modèle sous jacent au claim development result.
(I)
Un estimateur m b j de mj , qui est le volume des pertes incrémentales pour
l’année de développement j étant donné les informations au temps t = I, est
donné par l’expression suivante
I+1−j
X
Zij
(I) i=1 Zj,<
∀j ∈ {1, . . . , J}, m
bj = I+1−j
=: .
X vj,<
vi
i=1
Un estimateur de sj est
I+1−j 2
1 X Zij (I)
∀j ∈ {1, . . . , I − 1}, sb2j = vi −m
bj .
I − j i=1 vi
Remarque 6.2.2. On remarque ici encore la similarité avec le modèle de Mack.
On a ici un modèle parallèle sur les incréments plutôt que sur les pertes cumulées
où les mj jouent le rôle des facteurs de développement fj et les sj ceux des
variances σj .
La perte totale de l’année calendaire suivante I + 1 est calculée comme
I
X
TI+1 = b I+1 − C
C bI + C b I+1
i,J i,J I+1,1 .
i=2 | {z }
| {z } nouvelle AY
anciennes AYs
Remarquer ici que l’on prend en compte toute la nouvelle diagonale en incluant
l’estimation de CI+1,1 , comme le représente le schéma ci-dessous :
68
On a alors la proposition suivante
Proposition 6.2.1. La variance des pertes totales pour l’année calendaire (I, I+
1] est
2 I
vI+2−k s2k
2 v++ vI+2−k X v++ vI+2−k
σB := Var(TI+1 ) = + 2 1+ .
v+ vk,≤ vk,<
k=2
6.2.2 Exemple
En utlisant notre triangle de données, on conserve les mêmes montants de primes
par millésime choisis dans le chapitre précédent :
i=1 i=2 i=3 i=4 i=5 i=6 i=7
vi 10,960 13,216 20,697 21,512 24,354 20,000 15,000
i=8 i=9 i=10 i=11 i=12 i=13 i=14
vi 15,000 90,877 152,979 123,384 166,431 172,858 458,490
i=15 i=16 i=17 i=18 i=19 i=20 i=21
vi 550,000 650,000 700,000 123,384 24354 20,000 10,000
69
j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8 j=9 j=10 j=11
i=1 0.8 2.9 76.7 1,081.4 255.9 -231.8 282.2 166.6 331.0 620.4 576.9
i=2 13.5 272.7 137.1 230.2 174.9 536.9 317.6 266.8 244.8 389.5 219.3
i=3 266.2 230.1 63.1 -44.7 1,214.9 255.7 -31.4 860.3 530.0 2,118.9 1,750.2
i=4 152.4 133.2 -38.2 352.6 263.4 1,470.9 504.4 785.0 796.5 1,997.5 448.9
i=5 167.4 165.9 643.6 391.4 467.7 726.6 108.1 637.9 1,208.1 1,192.1 896.3
i=6 2.0 418.5 176.9 66.3 351.1 620.6 650.3 3,366.3 1,010.1 1,191.9 556.9
i=7 0.7 7,221.7 1,223.0 981.0 861.5 442.3 -3,101.2 1,263.9 2,275.6 3,038.0 1,158.9
i=8 4.0 230.3 905.6 377.3 1,659.2 1,009.7 2,306.8 2,317.5 2,276.6 2,597.2 1,595.2
i=9 0.2 558.8 2,500.8 1,937.8 1,948.4 1,304.8 3,299.4 3,861.8 4,607.4 3,060.6 3,911.1
i=10 18.0 341.0 722.2 2,441.5 4,565.4 3,954.7 4,750.6 5,406.3 8,733.6 3,704.4 5,183.1
i=11 180.4 64.8 288.0 2,402.2 4,766.6 2,759.8 3,455.8 3,832.3 6,623.3 4,271.8 5,339.5
i=12 84.8 1,637.8 1,689.7 4,398.0 3,557.4 5,164.3 5,553.2 4,713.0 7,669.7 5,416.5
i=13 0.1 901.5 2,770.5 1,502.4 5,090.4 4,472.8 8,003.5 4,701.5 7,345.3
i=14 60.2 2,547.1 7,604.8 11,765.2 10,881.9 13,363.7 11,632.5 13,210.7
i=15 802.4 9,110.1 8,434.1 15,618.3 25,164.1 25,084.1 22,900.5
i=16 1,978.4 7,629.1 10,529.9 16,984.7 27,019.4 19,527.7
i=17 100.3 3,047.1 6,947.8 12,183.9 8,224.3
i=18 199.9 982.3 518.8 891.1
i=19 0.0 1.0 826.7
i=20 2.0 0.4
i=21 0.2
m
cj 0.00119 0.01052 0.01372 0.02210 0.03009 0.03211 0.03267 0.03476 0.05152 0.04389 0.04259
s
bj 0.435 180.342 11.296 13.848 40.352 16.501 87.996 50.659 30.300 78.298 15.250
j=12 j=13 j=14 j=15 j=16 j=17 j=18 j=19 j=20 j=21
i=1 632.2 710.2 487.9 907.9 68.0 390.2 190.1 810.1 728.2 1,045.6
i=2 789.6 1,092.4 238.6 375.1 -372.2 349.6 657.4 3,177.9 640.8
i=3 480.8 2,626.6 1,130.1 272.1 767.3 708.2 756.2 146.6
70
i=4 1,140.2 293.9 1,041.4 989.7 454.8 875.5 1,012.0
i=5 1,224.0 1,386.8 1,042.4 1,199.6 499.6 1,431.6
i=6 616.4 1,315.1 2,469.0 924.3 2,333.6
i=7 1,663.0 1,849.4 2,237.4 3,612.5
i=8 3,457.1 5,075.6 3,354.8
i=9 4,470.8 3,032.8
i=10 10,142.5
i=11
i=12
i=13
i=14
i=15
i=16
i=17
i=18
i=19
i=20
i=21
m
cj 0.06401 0.07505 0.08527 0.06586 0.03387 0.04138 0.03940 0.09214 0.05663 0.09540
s
bj 59.298 172.653 78.310 93.562 40.887 2.939 2.724 222.057 1.930 -
Bien que légèrement inférieur au montant des réserves prédit par la méthode
de Borhuetter-Ferguson, les réserves sont ici estimées par 2 646 430 et sont du
même ordre de grandeur que les valeurs estimées jusqu’à présent. Le risque à
un an est de 166 332 et est inférieur au montant estimé par les méthodes de
type Chain Ladder. Toutefois, nous avons pris en compte dans son évaluation les
données exogènes que sont les primes. Il faut insister sur le fait que le résultat
obtenu est sensible au niveau de primes choisi. Celles-ci n’étant pas connue,
on ne peut pas comparer le risque à un an obtenu par cette méthode avec
ceux obtenus précédemment. Pour que ces montants soient comparables, ils
doivent être estimées avec des méthodes incluant un niveau de données exogènes
équivalent. La section précédente nous le permettra.
Un estimateur m b[ j +1
peut être déterminé en supposant connu une cadence de
paiement (p1 , . . . , pJ ) avec p1 + · · · + pJ = 1. On supposera que cette cadence
71
reste constante tout au long du temps. Alors, on peut estimer m[
j +1
, étant donné
les observations au temps t = I et t = I + 1 par
J
X
pi
j j
(h) i=j+1 X (h)
X (h)
∀h ∈ {I, I + 1}, m
b[ = j
m
bk =: q m
bk .
j +1
k=1 k=1
X
pi
i=1
et
J
X
pi
j j
(I) i=j+2 X (I)
X (I)
m
bR = j
m
b k =: qR m
bk .
k=1 k=1
X
pi
i=1
72
Chapitre 7
Mesure du risque à un an à
partir de la volatilité des
facteurs de développement
L e modèle suivant est issu d’un article de Ward et Lee [33]. Cet ar-
ticle décrit un modèle de capital économique et de retour sur capital
sur une année calendaire pour une compagnie d’assurance compre-
nant plusieurs branches d’activités, en agrégeant les distributions des
risques opérationel, de crédit, de marché, sur les réserves, les catastrophes, la
vie, et la gestion actif-passif. Nous serons moins ambitieux et nous cantonnerons
à l’étude du risque sur les réserves sur une année calendaire. Nous évaluerons
aussi dans la mesure du possible la distribution associée aux réserves.
Ce modèle utilise une approche basée sur la volatilité des facteurs de développe-
ment et incorpore un risque de process, de paramètre et un risque systématique.
Cette méthode utilise une estimation des charges ultimes, notée ULE.
On estime un triangle de charges ultimes attendues via une approche mêlant la
méthode de Chain Ladder et de Bornhuetter-Ferguson :
!
1
ULEij = 1 − ILEi + CDFγj Cij ,
CDF1−γ
j
Exemple 7.0.1. Nous appliquons cette méthode sur nos données avec un choix
de γ = 0.3, un loss ratio de 115% et en conservant les mêmes montants de primes
73
par millésime choisis dans le chapitre précédent. Le triangle ULE des charges
ultimes attendues obtenue est alors :
i j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8 j=9 j=10 j=11
1 12,488 12,018 11,809 13,826 13,344 12,095 11,917 11,428 10,952 11,094 11,206
2 15,151 15,531 15,195 14,860 14,241 14,461 14,215 13,745 12,938 12,602 12,104
3 25,520 24,500 23,494 22,038 23,210 22,355 21,050 21,130 20,120 21,794 22,890
4 25,615 24,615 23,442 23,064 22,163 23,754 23,314 23,120 22,358 23,727 22,913
5 28,962 27,904 28,577 27,782 26,893 26,739 25,429 24,859 24,566 24,599 24,311
6 22,793 23,456 22,869 21,699 21,051 21,061 21,047 25,276 24,697 24,802 24,128
7 17,089 43,064 40,547 37,928 35,781 33,971 26,295 26,665 27,975 30,688 30,721
8 17,113 17,293 19,175 18,747 20,857 21,456 24,277 26,529 27,850 29,929 30,601
9 103,504 101,597 104,922 103,405 100,552 97,266 97,705 97,840 96,515 94,373 93,983
10 174,363 168,878 164,716 162,207 161,699 160,203 159,764 158,497 158,232 152,739 150,380
11 141,844 136,043 131,858 131,055 132,890 130,642 129,519 127,577 126,739 124,219 123,890
12 190,173 188,640 185,741 186,117 181,308 180,850 180,592 176,818 173,393 169,369
13 196,872 192,651 193,287 186,180 185,073 183,181 187,215 182,999 178,540
14 522,626 511,786 514,059 513,841 502,711 499,513 492,195 482,534
15 632,277 638,955 634,494 634,833 644,414 654,220 657,441
16 754,771 747,358 745,337 742,937 749,538 742,847
17 797,981 778,297 768,762 757,163 726,247
18 141,987 139,498 135,274 130,222
19 27,738 26,678 28,141
20 22,793 21,914
21 11,391
i j=12 j=13 j=14 j=15 j=16 j=17 j=18 j=19 j=20 j=21
1 11,088 11,039 10,759 11,039 10,609 10,388 9,983 9,475 9,416 9,133
2 12,068 12,366 11,636 11,165 10,159 9,817 9,859 11,678 11,355
3 21,637 23,142 22,783 21,531 21,447 20,965 20,614 18,110
4 22,502 20,982 20,559 20,189 19,745 19,461 19,395
5 23,839 23,524 22,887 22,574 22,059 22,243
6 23,018 22,831 24,145 23,651 25,364
7 30,849 31,203 32,140 34,784
8 33,112 37,450 39,520
9 91,930 87,914
10 150,780
11
12
13
14
15
16
17
18
19
20
21
ULEi,j−1
wij = X .
ULEk,j−1
k
74
La volatilité des facteurs de développement est définie pour j = 1, . . . , J − 1,
par :
v !2
u
uX
(j)
X
σLDF = t 2
wij Xij − wij Xij
i i
v !2
u
uX ULE 2
i,j−1 ULEij X 1
=t P − P ULEij
i k ULEk,j−1 ULEi,j−1 i k ULEk,j−1
v X 2
u
u ULE ij
u
u 1 X ULE2ij i
=u P − X .
t
i ULE i,j−1 i ULEi,j−1
ULEi,j−1
i
(j)
Cette méthode produit I −1 valeurs de σLDF et il est souhaitable d’obtenir aussi
(J) (J+1)
σLDF et σLDF . Pour cela, on calcule un facteur de queue via une régression log-
(1) (J−1)
linéaire, ie à travers un ajustement de σLDF , . . . , σLDF par une courbe exponen-
tielle. On choisit les poids ωj pour l’année de développement j de la régression
suivants : √
J −j+1
ωj = J
.
X p
j
j=1
75
La facteur de queue est définie par
d = em
et finalement, on pose
(J) (J−1)
σLDF = d σLDF
(J+1) (J−1)
σLDF = d2 σLDF .
Exemple 7.1.1. (Suite de l’exemple 7.0.1.) Les volatilités des facteurs de
développement et les intervalles de confiance à 97.5% associés (construit avec le
test du χ2 ) pour le risque de process sont résumés dans le tableau suivant :
j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8
LDF Vol 0.0102 0.1028 0.0166 0.0169 0.0244 0.0162 0.0342 0.0309
2.5% 0.0050 0.0503 0.0080 0.0079 0.0111 0.0072 0.0148 0.0129
97.5% 0.0174 0.1756 0.0288 0.0295 0.0433 0.0291 0.0627 0.0576
j=9 j=10 j=11 j=12 j=13 j=14 j=15 j=16
LDF Vol 0.0192 0.0367 0.0170 0.0298 0.0599 0.0392 0.0480 0.0474
2.5% 0.0077 0.0141 0.0062 0.0103 0.0194 0.0118 0.0131 0.0115
97.5% 0.0366 0.0713 0.0338 0.0611 0.1266 0.0859 0.1098 0.1143
j=17 j=18 j=19 j=20 j=21 j=22
LDF Vol 0.0142 0.0141 0.1248 0.0107 0.01097 0.0112
2.5% 0.0029 0.0023 0.0151 0.0008 0.0000
97.5% 0.0365 0.0393 0.3889 0.0393 0.0548
76
7.3 Risque systématique
En plus des risques observables sur le triangle de charges historiques, il y a un
risque qui mesure les changements relatifs au marché ou à la réglementation
et qui peut avoir un impact négatif sur les résultats futurs. Ce risque est des-
tiné à capturer ce qui n’est pas observable sur les données et doit donc être
modélisé séparement. Il est supposé être indépendant du risque de process et de
paramètre et être proportionnel aux charges ultimes. Ce risque peut donc être
attribué proportionnelement à deux sources, d’une part au niveau des charges
ultimes estimées et d’autre part à la partie impayée de celles-ci.
Soit 0 < q < 1 la proportion de risque systématique attribuée à la partie im-
payée des pertes ultimes. Dans ce cas, 1 − q représente la proportion de risque
systématique attribuable au niveau absolu des charges ultimes. Si σsyst est le
risque systématique total, alors la proportion de risque systématique attribuable
au niveau absolu des pertes ultimes est
σsyst (1 − q).
Si CDFj est le facteur de développement cumulé pour l’année de développement
j, alors (1 − 1/CDFj ) est le pourcentage de pertes ultimes qui reste impayé.
D’après la définition de q, la proportion de risque systématique attribuée aux
pertes ultimes impayées est
1
σsyst q 1 − .
CDFj
Finalement, le risque systématique pour l’année de développement j est donné
par la formule suivante
(j) 1
σsyst = σsyst q 1 − +1−q ,
CDFj
où σsyst est le risque systématique total et q la portion de ce risque attribuable
(j)
à la partie impayée des pertes ultimes. On suppose de plus que σsyst est parfai-
(i) (j) (j)
tement corrélé avec σsyst pour tout i, et non corrélé avec σLDF et σULE .
77
La volatilité total est obtenue en agrégeant les volatilités σj pour chaque année,
en tenant compte des corrélations de celles-ci.
Soient X (i) et X (j) les variables aléatoires représentant les distributions pour
les années de développement i et j. Soit ρij la corrélation entre X (i) et X (j) .
On a :
Cov(X (i) , X (j) ) σij
ρij = =: .
σ i σj σi σj
Puisque la volatilité est composée de trois éléments (risque de process, risque de
paramètre et risque systématique), et étant donné les hypothèses d’indépendance
entre ces risques, il vient :
(i) (j)
σsyst σsyst
ρij = .
σ i σj
Enfin, la volatilité totale, qui mesure le risque à un an, est définit par
1 ρ12 ... ρ1,n+1 σ1 .ULE1
2
σ = (σ1 .ULE1 , . . . , σn+1 .ULEn+1 ) .
.. .
.. . .. .
.. ..
.
.
ρn+1,1 ... ρn+1,n 1 σn+1 .ULEn+1
Exemple 7.4.1. (Suite de l’exemple 7.0.1.) La volatilité totale associée à
chaque année de développement est :
78
Le risque à un an pour ce triangle est alors de :
σ = 159 070.
La comparaison de cette estimation est possible car l’on a estimé une valeur du
risque à un an dans le cadre d’un modèle stochastique de Bornhuetter-Ferguson
à la section précédente. On trouve ici un résultat très comparable et cohérent
au 166 332 obtenue précédemment.
79
nous agrègerons les 21 distributions marginales lognormales à l’aide de la matrice
de corrélation définie précédemment, c’est-à-dire que la structure de dépendance
est supposée suivre une copule normale. Le choix de cette copule permet, en cas
d’intégration numérique, de pouvoir utiliser des approximations polynomiales
pour la fonction de répartition normale et pour son inverse.
La méthode d’aggrégation de deux distributions consiste à d’abord transformer
les données à l’aide de la fonction de répartition normale pour leur appliquer en-
suite la densité de la normale bivariée afin de calculer les probabilités associées
à toutes les combinaisons de pertes. Etant données deux distributions
x1 prob(x1 ) y1 prob(y1 )
A = ... .. . ..
et B = .. ,
. .
xm prob(xm ) ym prob(ym )
80
Exemple 7.5.2. (Suite et fin de l’exemple 7.0.1.) La distribution agrégée
obtenue est la suivante :
Probability Value
0.001% -727,571
0.10% -727,571
0.30% -559,137
0.50% -547,217
0.70% -532,339
. .
. .
. .
99.93% 455,174
99.95% 464,144
99.97% 497,746
99.99% 580,991
99.999% 580,991
81
Chapitre 8
Modèles bayésiens
82
tistique puisque cela autorise l’utilisation de modèles compliqués décrivant des
problèmes réels permettant d’estimer la distribution sous jacente avec justesse.
Rappelons qu’une chaı̂ne de Markov est un processus stochastique (θ(1) , . . . , θ(t) )
telle que la distribution de θ au temps t+1 étant donnés les précédents θ(i) (pour
i = t, . . . , 1) ne dépendent que de θ(t) . De plus, f (θ(t+1) |θ(t) ) est indépendant de
t. Enfin, quand la chaı̂ne de Markov est irréductible, apériodique et récurrente
positive, la distribution de θ(t) tend vers une distribution stationnaire indépen-
dante de la distribution d’origine θ(0) .
Pour générer un échantillon de f (θ|y), on doit construire une chaı̂ne de Markov
avec les deux propriétés précédentes, ie f (θ(t+1) |θ(t) ) doit être facile à générer et
la distribution stationnaire doit être la distribution a posteriori f (θ|y) cherchée.
Il s’agit donc de construire une chaı̂ne de Markov satisfaisant cela, puis de
sélectionner une valeur d’origine et de générer des valeurs jusqu’à atteindre
la distribution stationnaire. Puis, on supprime les t0 premières observations
afin d’annuler l’effet du choix des valeurs initiales et l’on conserve l’échantillon
{θ(t0 +1) , . . . , θ(t0 +t) }.
Les deux algorithmes les plus populaires sont l’algorithme de Metropolis-Hastings
et l’algorithme de rééchantillonage de Gibbs présentés ci-dessous.
Exemple 8.1.1. Algorithme de Metropolis-Hastings. L’algorithme se décom-
pose en les points suivants :
1. Générer θ0 à partir d’une distribution initiale q(θ|θ(t) )
2. Calculer
f (θ0 |y)q(θ(t) |θ0 )
α = min 1,
f (θ(t) |y)q(θ0 |θ(t) )
3. Choisir θ(t+1) = θ0 avec probabilité α, sinon choisir θ(t+1) = θ(t) .
Remarque 8.1.1. Il existe deux classes de lois instrumentales q :
– les lois indépendantes, qui constituent une généralisation de la méthode de
rejet, q(θ(t) |θ0 ) = h(θ(t) ). Les bonnes familles de h satisfont à la condition de
domination
f (θ(t) |y)
≤ M.
h(y)
– Les lois symétriques q(θ(t) |θ0 ) = h(|θ(t) − θ0 |). Dans ce cas,
f (θ0 |y)
α = min 1, .
f (θ(t) |y)
Exemple 8.1.2. Algorithme de rééchantillonage de Gibbs. Il s’agit d’un
cas particulier du précédent. C’est cet algorithme qui est implémenté dans Win-
BUGS. Dans cet algorithme, chaque composante est remise à jour à chaque
étape à partir de la distribution conditionnelle a posteriori. Etant donné un
état de la chaı̂ne θ(t) , on estime
(t+1) (t) (t)
θ1 à partir de f (θ1 |θ2 , θ3 . . . , θp(t) , y)
(t+1) (t+1) (t)
θ2 à partir de f (θ2 |θ1 , θ3 , . . . , θp(t) , y)
..
.
(t+1) (t+1) (t+1)
θp(t+1) à partir de f (θp |θ1 , θ2 , . . . , θp−1 , y),
83
où p est le nombre de composantes du vecteur de paramètres θ. Simuler
(t+1) (t+1) (t)
f (θj |θ\j , y) := f (θj |θ1 , . . . , θj−1 , θj+1 , . . . , θp(t+1) , y)
est relativement simple, car il s’agit d’une distribution univariée avec f (θj |θ\j , y) ∝
f (θ|y) et toutes les variables exceptées θj sont conservées constantes. Pour simu-
ler des modèles multivariés complexes, il suffir de savoir simuler les distributions
conditionnelles complètes des différentes variables du modèle au pas à pas. C’est
là qu’intervient l’appellation Monte Carlo de MCMC.
L’algorithme de Gibbs est un cas particulier de l’algorithme de Metropolis-
Hastings car, quand la densité proposée q(θ0 |θ(t) ) est égale à la densité condi-
tionnelle a posteriori f (θj |θ\j , y), on a α = 1 et l’on accepte toujours le chan-
gement.
84
différents poids τij = τ weight[i, j]. L’actuaire peut choisir son modèle en fonc-
tion de son expérience et des données dont il dispose (primes émises, nombre de
sinistres pour la dernière année de développement).
On suppose ensuite que les paramètres de la moyenne θj sont des variables
aléatoires de loi normale :
θj ∼ N (µθ , τθ )
pour j = 1, . . . , I − 1.
Enfin, afin d’avoir un modèle statistique complètement déterminé, il convient
d’attribuer aux paramètres restants une distribution sous-jacente. Nous teste-
rons les paramétrisations suivantes :
τ ∼ Γ(0.001, 0.001)
µθ ∼ N (1, 0.001)
τθ ∼ Γ(0.001, 0.001).
85
adapté aux données. On aurait pu par exemple choisir le modèle suivant :
τ ∼ Γ(1.5625, 0.0025)
µθ ∼ N (1, 1)
τθ ∼ Γ(1.5625, 0.0025).
√ √
Ici, les paramètres d’écart type 1/ τ et 1/ τθ des distributions conditionnelles
de devfac[i, j] et de θj ont pour moyenne et variance respective 0.054 et 0.038. La
différence principale avec le modèle précédent réside dans la différence d’ordre
de grandeur des variances. Dans ce premier cas, on a choisi des distributions
a priori dites non informatives, c’est-à-dire, des distributions qui expriment
peu d’informations ou des informations vagues sur une variable aléatoire, par
exemple, cette variable est positive ou est inférieure à un certain seuil. Des dis-
tributions a priori non informatives sont en général choisies pour être utilisées
sans être modifiées pour un large panel de données différentes. Toutefois, un
des problèmes posés par les distributions a priori non informatives est qu’elles
doivent engendrer une distribution a posteriori propre, ie dont la somme vaut 1.
A contrario, des distributions dont la somme n’est pas même pas forcément finie
sont dites impropres. Certains statisticiens utilisent des distributions impropres
comme distributions a priori non informatives, mais l’interprétation n’en est
que plus difficile, puisqu’elles ne définissent plus de densités de probabilité.
Le dernier modèle possède des paramètres de variance plus faibles et définit
donc plutôt des distributions a priori informatives, ie donnant une information
sur la variable aléatoire.
Comment savoir lequel de ces modèles est le meilleur ? Aucun des deux, c’est cer-
tain, car il est rare qu’un modèle statistique s’adapte parfaitement aux données,
mais le mieux que l’on puisse espérer est d’avoir sélectionné un modèle in-
terprétable, sensible, consistant avec l’historique et l’expérience et dont les
prédictions sont correctes.
Remarque 8.2.1. Un moyen de choisir un modèle pourrait être de simuler un
nouvel échantillon de données répliquées pour tous les modèles sélectionnés et
de comparer leurs caractéristiques aux données originales. Soit x les données
originales et xrep les données répliquées. Soit θ le vecteur des paramètres incon-
nus pour le modèle associé aux données observées. On suppose que les valeurs
(xrep , θ) sont générées conjointement. Soit T (x, θ) une mesure de discrépance
utilisée pour comparer les données originales et répliquées. Le choix de T (x, θ)
va dépendre du contexte du problème. Si l’on est intéressé par la dispersion des
données, on sera conduit à choisir T1 (x, θ) = max(xi ) − min(xi ) ou
I
X
T2 (x, θ) = (xi − x̄)2 .
i=1
peut aussi être utilisée. Les valeurs de T (xrep , θ) sont calculées et doivent être
comparées à celles de T (x, θ). Pour cela, on peut utiliser la Bayes p-value. Cette
86
p-value est définie par la probabilité a posteriori que les données répliquées
soient plus extrêmes au sens de la mesure de discrépance que les données origi-
nales, étant donné un modèle, ie
où la probabilité est prise sous la loi a posteriori de (xrep , θ). Si cette probabilité
est proche de 0 ou de 1, alors le modèle est suspect.
Le code permettant de calculer cette probabilité est présenté en annexe E.
Puis, les réserves sont alors calculées comme la somme des incréments futurs :
Exemple 8.2.1. Nous allons appliquer les méthodes décrites dans cette sec-
tion sur les données utilisées tout au long de ce rapport. Rappelons que ces
données sont des données réelles et n’ont pas été retraitées. Elles présentent
une forte hétérogénéité entre les années d’accident. En particulier, le montant
nul de C19,1 rend impossible le déroulement des programmes s’ils sont laissés
en l’état. Les faibles montants apparaissant certaines années d’accident pour la
première année de développement laissent supposer qu’un modèle statistique ou
un modèle linéaire (généralisé) aurait peu de chances de convenir.
Le modèle a été choisi de façon à avoir une Bayesian p-value la plus proche
possible de 0.5. Le modèle défini par
τ ∼ Γ(0.01, 0.01)
µθ ∼ N (1, 0.01)
τθ ∼ Γ(0.01, 0.01).
est celui qui a été retenu. Il a été comparé aux modèles précédents en jouant
sur les paramètres. La Bayesian p-value est très faible, de l’ordre de 0.161 avec
une erreur de 0.01561. Sa valeur rend le modèle suspect, aucun modèle meilleur
n’a été trouvé.
Il n’est alors pas surprenant que le modèle bayésien pour la méthode de Chain
Ladder appliqué à ce triangle donne un résultat aberrant. L’algorithme MCMC
sous WinBugs diverge. On observe que le programme et le modèle sont sensibles
aux données initiales et qu’un lissage des données fait converger l’algorithme et
donnerait des résultats plus cohérents. L’application du programme transformé
pour capturer le risque à un an diverge de la même manière : les résultats sont
environ la moitié de ceux trouvés précédemment, mais restent d’un ordre de
grandeur bien supérieur à ceux espérés. Il se pourrait aussi qu’une erreur de
programmation ou une méconnaissance du logiciel WinBugs aient conduit à ces
résultats.
Toutefois, l’application du modèle de Chain Ladder non stochastique sous Win-
BUGS, même si son intérêt est plus que limité, donne des résultats en accord
avec ceux trouvés précédemment. Le montant des provisions est résumé dans le
tableau ci-dessous pour chaque millésime : On trouve un montant de provisions
87
Tab. 8.1 – Statistique des réserves
88
ultimes pour la première année de développement est donné par :
et la dernière par :
ultimate[i]((1 − R[i, J − 1]) .
Le montant des réserves est alors égal à la somme des quantités ci-dessus sur le
triangle inférieur. Cette partie s’écrit sous la forme algorithmique suivante :
pour tout i. Le montant des primes émises est supposé connu. Le loss ratio peut
être soit fixé, soit stochastique. On supposera que les loss ratio associés aux
différentes années de survenance sont indépendants et identiquement distribués
de loi normale de paramètre mu.lossratio et de précision 1600 où le paramètre
sous jacent mu.lossratio est normalement distribué de moyenne 1.15 et d’écart-
type 0.1 :
89
Tab. 8.2 – Statistiques des réserves
90
Ces résultats concordent avec ceux obtenus par de précédentes méthodes. Les
graphiques ci-dessous (table 8.3) montrent l’évolution du montant des réserves
pour le millésime i en fonction des itérations et rassurent quant à la convergence
du processus. Le dernier graphique indique de plus, les intervalles de confiance
d’ordre 2.5% et 97.5% successifs autour du montant des réserves totales.
91
Tab. 8.3 – Evolution des différentes simulations des réserves par année d’acci-
dent
92
Tab. 8.4 – Statistiques, densité et évolution des différentes simulations des
réserves totales
93
8.3 Modèle GLM bayésien de Verall pour la méthode
de Bornhuetter-Ferguson
Cette section est directement inspirée de Verall (cf. [31] et [32]). Dans cette
section, on notera Zij les incréments et Cij les montants cumulés. Le modèle
de Poisson surdispersé est le modèle stochastique sous-jacent à la méthode de
Chain Ladder. Rappelons que si X ∼ P(µ) suit une loi de Poisson de paramètre
µ, alors Y = φX suit une loi de Poisson surdispersé avec EY = φµ et V (Y ) =
φ2 µ = φEY . Le paramètre de dispersion φ est en général plus grand que 1. Ce
modèle peut être défini par :
J
X
Zij |x, y, φ ∼ P(xi yj ) surdispersé avec yk = 1.
k=1
xi |αi , βi ∼ Γ(αi , βi ).
f (Zkl |Zij , i = 1, . . . , I, j = 1, . . . , I − i + 1, φ)
ZZ
= f (Zkl |x, y, φ)f (x, y|Zij , i = 1, . . . , I, j = 1, . . . , I − i + 1, φ)dxdy
Z Z !
= f (Zkl |x, y, φ)f (x|(Zij )i=1,...,I,j=1,...,I−i+1 , φ)dx f (y|(Zij )i=1,...,I,j=1,...,I−i+1 , φ)dy.
| {z }
=f (Zij |Ci1 ,...,Zi,j−1 ,y,φ)
On vérifie (cf [31]) que Zij |Zi1 , . . . , Zi,j−1 , y, φ suit une loi binomiale négative
de paramètre
Ci,j−1 βi φ + Sj−1
αi + et
φ βi φ + Sj
Pj
avec Sj = k=1 yk . La moyenne de la distribution de Zij |Zi1 , . . . , Zi,j−1 , y, φ
pour la méthode Bayésienne est
C yj
αi + i,j−1
φ βi φ+Sj
Ci,j−1 αi
φ βi φ+Sj−1
= z ij + (1 − z ij ) yj ,
Sj−1 βi
βi φ+Sj
94
avec
Sj−1
zij = .
βi φ + Sj−1
Il s’agit d’une formule de crédibilité. La proportion de charges ultimes yj qui
apparaı̂t chaque année de développement j est multipliée par la moyenne a
priori des charges ultimes
αi
βi
pour la méthode de Bornhuetter-Ferguson ou par une estimation de la charge
ultime
Ci,j−1
Sj−1
pour la méthode de Chain Ladder. On a ici une combinaison des deux méthodes,
chacune étant à une extrémité.
Il reste à estimer les paramètres des colonnes yj . Un moyen de le faire est d’esti-
mer d’abord les paramètres des colonnes en utilisant une estimation déterministe
extérieure, par exemple avec la méthode de Chain Ladder. C’est cette approche
qui est utilisée dans la méthode de Bornhuetter Ferguson, mais ce n’est pas
souhaitable ici car on souhaite avoir une approche stochastique. Un moyen de
procéder est alors de définir des distributions impropres a priori pour les pa-
ramètres des colonnes et de les estimer en premier, avant d’appliquer les dis-
tributions a priori pour estimer les paramètres de lignes. L’avantage de cette
méthode est que les paramètres des colonnes sont fixés et sont identiques à ceux
obtenus par la méthode de Chain Ladder.
Comme on n’a pas besoin d’introduire des informations exogènes sur les pa-
ramètres des colonnes, on peut utiliser une distribution gamma et utiliser le rai-
sonnement classique a priori - a posteriori bayésien comme l’on a fait précédem-
ment. On obtient une distribution qui est très proche de la distribution binomiale
négative précédente pour le modèle de Poisson surdispersé, la contrainte
J
X
yk = 1
k=1
sur les colonnes étant remplacée par une nouvelle contrainte sur les lignes :
I
X
0 0
Zij |x , y , φ ∼ P(x0i yj0 ) surdispersé avec x0k = 1.
k=1
95
Pi−1
La moyenne de cette distribution est (γi − 1) m=1 Zmj . En la comparant
à la moyenne obtenue par la méthode de Chain Ladder, (fi − 1)Ci,j−1 =
Pj−1
(fi − 1) m=1 Zim , on peut voir que leurs formes sont identiques, l’indexation
étant sur les lignes plutôt que sur les colonnes.
Ce modèle peut alors reproduire la technique de Bornhuetter-Ferguson en utili-
sant une information a priori connue pour les paramètres de lignes ou la tech-
nique de Chain Ladder en utilisant une distribution a priori impropre pour les
paramètres de lignes.
Enfin, les distributions a priori ayant été définies pour les paramètres xi , il
est nécessaire d’avoir une relation entre les nouveaux paramètres γi et les pa-
ramètres originaux xi . Cette relation est donnée par :
γ1 = 1
1
x2 1 − fn
γ2 = 1+
C1n
1
x2 1 − PI
fk
k=I−i+2
γi = 1+ i−1 I i−1 I−k+1
, i = 3, . . . , I.
X X Y X
CmI + γl Cmk
m=1 k=I−i+3 l=I−k+2 m=1
Les paramètres des colonnes sont donc estimés en premier en utilisant une distri-
bution impropre (leur estimation sera donc celle impliquée par Chain Ladder).
Ils sont ensuite intégrés dans le modèle binomiale négatif. Les informations a
priori peuvent être définies en terme de distributions avec les paramètres xi et
converties en les paramètres γi en utilisant les formules ci-dessus. Les paramètres
de la distribution a priori des paramètres de lignes αi et βi sont estimés à partir
de l’écart-type et de l’espérance de xi :
esperance de xi
βi = et αi = βi × esperance de xi
variance de xi
Remarque 8.3.1. Dans son article, Verall fournit le code WinBUGS qu’il a
utilisé sur son triangle de dimension 10. Il y a peu de modification à faire pour
adapter le code au triangle qui nous sert d’illustration, qui est de dimension 21.
Pourtant WinBUGS ou OpenBUGS affichent une erreur de type overflow qui
sous entendrait qu’il y aurait trop de noeuds embriqués les uns dans les autres
( ?). Il s’agirait peut-être d’un problème de dimension plutôt que de données ou
plus prosaı̈quement d’une mauvaise installation informatique de la license, ne
me permettant pas de jouı̈r de la pleine puissance du logiciel.
Toutefois, il apparaı̂t que le code de R. Verall n’est pas programmé de la façon
la plus optimale qui soit, donc une solution pourrait consister à reprogrammer
l’algorithme de la méthode de Verall. Une façon élégante de procéder consiste-
rait de plus à piloter WinBUGS à partir du logiciel R à l’aide de la librairie
R2WinBUGS développée par Stéphane Laurent en 2007. En effet, d’une part,
cela pourrait fournir un outil préparé utilisable en pratique, et d’autre part,
cette extension de WinBUGS sur R fournit des tests et des outils statistiques
de diagnostics de convergence, ce qui ne permet pas WinBUGS. Ne sachant
pas comment faire fonctionner ce code, je ne présente pas de simulations pour
cette partie. Sur un autre jeu de données, ce code a parfaitement fonctionné
96
et a donné des résultats probants. Nous renvoyons à l’annexe F pour plus de
commentaires et pour le code WinBUGS
Le calcul du risque à un an suit la même méthodologie que celle décrite dans la
section précédente. La simulation du risque à un an par la méthode de Verall
n’a pas été envisagée our les données présentées jusque là dès lors que la simu-
lation du risque ultime ne fonctionnait pas, mais l’a été pour le nouveau jeu de
données de l’annexe F. Nous renvoyons le lecteur à cet annexe dans laquelle se
trouve le code modifié pour capturer le risque à un an.
97
Chapitre 9
Pour conclure ce mémoire, le tableau suivant récapitule tous les résultats obtenus
pour les différentes méthodes testées.
98
Conclusion
Tout au long de ce mémoire, nous avons passé en revue les méthodes clas-
siques actuarielles de provisionnement. On s’est attaché à décrire, d’une part
les méthodes de type Chain Ladder ne nécessitant pas de données exogènes, et
d’autre part, des méthodes de type Bornhuetter-Ferguson pouvant incorporer
des avis d’experts. Ces dernières permettent de définir des modèles plus flexibles
s’adaptant mieux aux données. Mais leurs avantages font aussi la difficulté de ces
modèles, notamment des modèles bayésiens, puisqu’ils nécessitent un choix au
préalable d’un modèle statistique idoine (il n’existe pas de modèles par défaut)
dont les valeurs initiales ne soient pas trop éloignées des valeurs réelles. De plus,
pour ce type de modèles, il n’existe pas de moyens certains de s’assurer que le
modèle a bien convergé.
Tous les modèles classiques de provisionnement ont une vision à l’ultime, c’est-
à-dire étudient la variabilité de l’estimation des réserves par rapport à sa valeur
à la fin de leurs développements.
Le projet Solvency II permet d’homogénéiser le calcul de la marge de solvabilité
(SCR) à travers un calcul plus juste économiquement. Le SCR doit permettre
de couvrir les pertes potentielles avec une certaine probabilité sur un horizon de
12 mois. Concernant la partie provisionnement, cela nécessite donc de calibrer
le risque de réserve (la volatilité) sur un an, ce que ne permet pas en l’état les
méthodes actuarielles classiques de provisionnement.
L’objectif de ce mémoire a été de décrire comment les adapter pour mesurer le
risque à un an. Nous avons présenté le principe général de calcul du risque à un
an et son application à la méthode de Christophides et aux modèles bayésiens,
ainsi que les adaptations plus spécifiques du modèle de Mack et de la technique
bootstrap. Il a été présenté de plus, deux méthodes de détermination des réserves
et du risque à un an, qui est pour l’une d’entre elle, une partie d’une méthode
plus générale de détermination de capital économique basée sur la volatilité des
facteurs de développement et pour l’autre une méthode stochastique sous ja-
cente à la méthode de Bornhuetter Ferguson basée sur les loss ratio combinés.
Dans l’optique de travailler sur une année calendaire, on a décrit par ailleurs
l’impact d’un choc de taux ou de (sur) inflation sur le risque à un an et un outil
de diagnostic des tendances pouvant impacter une année calendaire, tendances
qui ne sont pas détectables avec les seuls coefficients de développement de Chain
Ladder.
Si finalement Solvency II est calibré sur la base d’un horizon à un an, il restera
encore à faire connaı̂tre ces méthodes, à mieux les comprendre, à les améliorer,
à en développer de nouvelles ou à construire une méthode de référence qui serait
99
l’équivalent de la méthode de Chain Ladder. Ces méthodes font actuellement
l’objet de beaucoup de recherches, tant dans le cadre de modèles internes confi-
dentiels que dans le domaine public et permettent de mieux appréhender cette
vision de risque à court terme.
100
Annexe A
D := {Cij ; i + j ≤ I}.
Bj := {Cil ; l ≤ j}.
Hypothèses A.1.1.
– Les charges cumulées Cij pour les différentes années de déclaration i sont
indépendantes.
– Il existe des constantes fl > 0, σl ≥ 0 (l = 0, . . . , J − 1) telles que, pour tout
i ∈ {0, . . . , I}, pour tout j ∈ {0, . . . , J}, on ait :
p
Cij = fj−1 Ci,j−1 + σj−1 Ci,j−1 εij ,
où εij sont des variables aléatoires indépendantes de moyenne nulle, de va-
riance 1.
101
Remarque A.1.1. On rappelle que :
– Les coefficients fj représentent les facteurs de développement (link ratio).
– Il est facile de montrer que les hypothèses A.1.1 du modèle impliquent les
hypothèses suivantes du modèle de Mack :
E(Cij |Bj−1 ) = E(Cij |Ci,j−1 ) = fj−1 Ci,j−1
2
Var(Cij |Bj ) = Var(Cij |Ci,j−1 ) = σj−1 Ci,j−1
Remarque A.1.2. Une des faiblesses liées à ces hypothèses est que théorique-
ment, il est possible que Cij soit négatif. Cela contredit le modèle de Chain
Ladder puisque cela autoriserait la variance à devenir négative ! Le modèle ci-
dessus n’ajusterait alors pas tout à fait le modèle de Chain Ladder et serait
légèrement différent de celui-ci. C’est donc à la suite de ctte critique que ces
hypothèses ont été modifiées en les hypothèses 2.2.1.
L’estimateur classique du coefficient de Chain Ladder
I−j−1
X Ci,j+1
fbj = PI−j−1
i=0 i=0 Ci,j
est, conditionnellement à Bk (k ≤ j), un estimateur sans biais de fj (cf. [16]).
Ainsi, un estimateur sans biais de E(Ci,j |D) est donné par :
J−1
Y
C
bi,J = Ci,I−i fbj .
j=I−i
On montre (cf [16]) que les fbj sont non corrélés, et que, conditionnellement à
Bi−1 , C
bi,J est un estimateur sans biais de E(Ci,j |D).
L’erreur de process, Var(Ci,J |D), dûe à la variabilité interne des données échan-
tillonnées (la variance stochastique mesure l’écart avec la moyenne), peut se
calculer explicitement (cf [16] p218).
L’erreur d’estimation mesure le biais commis en tentant d’estimer la moyenne et
vient du fait que l’on a estimé, étant données les informations D, les coefficients
fj de Chain Ladder par fbj . Ainsi, d’après la remarque A.1.1 :
J−1 J−1
!2
2 Y Y
bi,J − E(Ci,j |D) = C 2
C i,I−i fbj − fj .
j=I−i j=I−i
102
Comme les facteurs réels de développement ne sont pas connus, on ne peut
pas calculer l’erreur d’estimation explicitement. On essaie alors d’estimer les
fluctuations de fbj autour de fj . On peut pour cela, rééchantillonner la série
chronologique et évaluer les volatilités des données rééchantillonnées. Il y a plu-
sieurs façons de procéder (cf [5]).
A.2.1 Approche 1
On approxime l’erreur d’estimation par sa moyenne, conditionnellement à l’in-
formation connue, i.e., on souhaite estimer :
" J−1 J−1
!2 # " J−1 J−1
!2 #
Y Y Y Y
2 2
E Ci,I−i fj −
b fj BI−i = Ci,I−i E fj −
b fj BI−i .
j=I−i j=I−i j=I−i j=I−i
En utilisant la non corrélation conditionelle des fbj , et le fait que fbj sont des
estimateurs sans biais de fj , il vient :
" J−1 J−1
!2 # J−1
!
Y Y Y
E fj −
b fj BI−i = Var fj BI−i
b
j=I−i j=I−i j=I−i
J−1
! J−1
Y 2 Y
= E fbj BI−i − fj2
j=I−i j=I−i
2
Ici, la difficulté principale vient du fait que les estimateurs fbj sont négativement
corrélés, et donc ne sont pas indépendants. Le produit précédent ne peut donc
pas se calculer simplement.
Proposition A.2.1. Sous les hypothèses A.1.1, on a
Cov fb2 , fb2 < 0. j−1 j
103
On remarque que la borne supérieure ne peut pas être calculée explicitement.
Il est nécessaire pour l’estimer d’appliquer des simulations ou des techniques de
bootstrap.
Preuve. cf.[34]
Si on agrége les différentes années d’accident, la MSEP n’est pas la somme des
MSEP des des années d’accident, mais il s’y ajoute aussi un terme de covariance
qu’il faut pouvoir estimer ou borner.
I
! I
X X
MSEP C
biJ = MSEP CbiJ
i=0 i=0
X h ih i
+2 biJ − E(CiJ |D) C
C bkJ − E(CkJ |D) .
0≤k<i≤I
h ih i
biJ − E(CiJ |D) C
C bkJ − E(CkJ |D)
J−1
Y J−1
Y J−1
Y J−1
Y
= Ci,I−i Ck,I−i fbj − fj fbj − fj .
j=I−i j=I−i j=I−k j=I−k
J−1
Y J−1
Y J−1
Y J−1
Y J−1
Y J−1
Y
E fbj − fj fbj − fj BI−i = Cov fbj , fbj BI−i .
j=I−i j=I−i j=I−k j=I−k j=I−i j=I−k
I−k−1 J−1 J−1 J−1 J−1
Y Y X σj2 /fj2 Y Y
fj · fj2 · h i ≤ Cov fbj , fbj BI−i
[I−1−j]
j=I−i j=I−k j=I−k E Sj BI−i j=I−i j=I−
I−k−1 J−1 J−1
Y Y σj2 Y
≤ fj E [I−1−j]
+ fj2 BI−i − fj2 .
j=I−i j=I−k Sj j=I−k
104
A.2.2 Approche 2
Mack dans [16] obtient la formulation suivante :
J−1 J−1
!2
2 Y Y
2
C
bi,J − E(Ci,j |D) = Ci,I−i fbj − fj
j=I−i j=I−i
J−1
!
X X
2
= Ci,I−i Sk2 +2 Sk Sl
k=I−i+1 k<l
J−1
!
X X
2
≈ Ci,I−i E(Sk2 |Bk ) +2 E(Sk Sl |Bl )
k=I−i+1 k<l
J−1
X
2
= Ci,I−i E(Sk2 |Bk ),
k=I−i+1
où Sk = fbI−i+1 . . . fbk−1 (fk −fbk )fk+1 . . . fj−1 . On obtient alors le célèbre théorème
de Mack :
Si on remplace les estimateurs fbk par les coefficients réels fk , on obtient l’erreur
d’estimation modifiée de Mack :
J−1 J−1
M ack 2
Y X σj2 /fj2
EE
g = Ci,I−i fj2 [I−j−1]
.
j=I−i j=I−i Sj
A.2.3 Approche 3
Cette fois, M. Buchwalder, H. Bühlmann, M. Merz and M. Wüthrich (BBMW)
dans [5], ont choisi de calculer la moyenne selon les distributions conditionnelles,
plus précisément, on approche l’erreur d’estimation par :
J−1 J−1
!2 J−1 J−1
!
2
Y Y Y Y
2 2 2
Ci,I−i fbj − fj ≈ Ci,I−i E fj |Bj −
b fj .
j=I−i j=I−i j=I−i j=I−i
Dk
Ici, BBMW génèrentde 2nouveaux facteurs de développements fbl de sorte que
Dk 2
[I−j−1]
E (fbj )2 |D = E fbj |D = fbj + σj2 /Sj . BBWM approchent l’erreur
d’estimation par :
J−1 J−1
!2 ! J−1
! J−1
!
2
Y Y
2
Y 2 σj2 Y
E Ci,I−i fbj − fj D ≈ Ci,I−i fbj + [I−j−1]
− fj2 ,
j=I−i j=I−i j=I−i Sj j=I−i
105
ce que l’on notera par la suite EE BBM W . On peut montrer (cf [5]) qu’une
approximation linéaire de la formule de BBMW nous permet de retrouver la
formule de Mack et que l’on a :
M ack
EE
g ≤ EE BBM W .
Remarque A.2.1. Comme remarqué par Mack et al. dans [17], l’approche 3
de BBMW peut être retrouvée en approchant
Y
fbl2
l
par
Y
E(fbl2 |Bl )
l
ce qui suppose que les fbl2 ne soient pas corrélés. Puisqu’ils sont négativement
corrélés (cf. Prop A.2.1), la formule de BBMW surestime l’erreur d’estimation,
ce qui explique pourquoi elle est systématiquement supérieure à celle de Mack.
Signalons de plus, qu’il en est de même de la formule de Murphy, puisque celle-ci
est par essence très proche de l’approche de BBMW.
et par ailleurs,
M ack
≤ E EE BBM W |BI−i
E EE
g |BI−i
" J−1 ! # J−1
!
2
Y 2 σj2 Y
= C E
i,I−i fbj + [I−j−1]
BI−i − fj2
j=I−i Sj j=I−i
Les bornes du théorème A.2.1 sont aussi des bornes de l’erreur d’estimation de
Mack en moyenne. De plus, l’erreur d’estimation de BBMW est exactement la
borne supérieure donnée par le théorème A.2.1.
106
Bornes de l’Erreur de Prédiction
Inf Mack Sup
- - -
20 17 32
335 334 493
4,044 4,043 4,710
4,277 4,437 5,370
5,100 5,344 6,994
7,502 8,013 11,688
8,799 9,552 14,383
11,633 12,932 20,782
19,232 20,985 35,483
16,418 18,032 28,791
21,614 23,537 38,975
24,738 25,557 40,853
55,418 60,474 108,710
106,802 116,655 210,597
109,535 125,206 213,481
65,107 74,457 107,063
26,177 26,655 15,137
31,238 31,383 9,758
11,196 11,196 147
76,272 76,272 823
257,906 451,834 683,208
Je m’attendais à ce que les bornes soient plus ressérées autour de la tendance cen-
trale, ce qui est souvent le cas. Ici, l’incertitude autour de l’erreur de prédiction
semble très élevée, ce qui toutefois va dans le sens des écarts d’estimation impor-
tants observés que l’on obtient pour cette erreur avec la méthode de bootstrap
ou de Bornhuetter-Ferguson.
j−1 j−1
!2
Y Y
2
= Ci,I−j+1 fbl − fl .
l=I−i+1 l=I−i+1
Mack a suggéré dans son papier originel de 1993 (cf. [16]) d’estimer eij par
j−1 j−1
2
Y Y bl2
σ
ec
ij = Ci,I−j+1 fbl2 · .
l=I−i+1 l=I−i+1 fb2 Sl
l
107
La principale objection formulée à l’encontre de BBMW est qu’en prenant le
produit
j−1
Y
E[fbl2 |Bl ],
l=I−i+1
ils ne tenaient pas compte de la corrélation négative entre les carrés des facteurs
de développement.
La question est de savoir laquelle de ces deux formules est en moyenne la plus
exacte. La réponse va dépendre de la manière dont on définit cette moyenne.
Certains auteurs considèrent cette moyenne sur tous les coins supérieurs droits
possibles du triangle. C’est une définition possible, mais pas la seule. Une autre
manière de la définir serait par exemple de faire varier les coefficients de Chain
Ladder réels fj puis de prendre la moyenne sur toutes les valeurs possibles de
fj qui pourraient être observées sur le triangle supérieur D. Cette approche
s’inscrit dans un point de vue bayésien.
On suppose que les coefficients de Chain Ladder réels t f = (f1 , . . . , fJ−1 ) sont
des réalisations d’un vecteur aléatoires t F = (F1 , . . . , FJ−1 ).
On suppose de plus que, sachant F, les (Cij )j=1,...,J forment une chaı̂ne de
Markov. Cette hypothèse est un peu plus forte que celle de Mack, qui supposait
seulement que le premier et le second moment de Ci,j+1 ne dépendaient que de
Cij et non de Cil pour l < j.
On notera aussi
Ci,j+1
Dij =
Ci,j
et Dj le vecteur aléatoire t Dj = (D1j , . . . , DI−j,j ).
où c−1
ij = Ck,1 dk1 . . . dk,j−1 .
La distribution jointe a posteriori de F peut alors être explicitée par
b 2
J−1 1 (fj −fj )
Y 1 2 2 −1
uD (f ) ∝ q e σj Sj .
−1
2πσj2 Sj
j=1
108
Ainsi a posteriori, étant donné un triangle d’observation D, les variables aléatoires
F1 , . . . , FJ−1 sont indépendantes, normalement distribuées avec
j−1 j−1
" #
Y Y
b Bayes
C = Ci,I−i+1 E Fl D = Ci,I−i+1 fbj = C
bij
ij
i=I−i+1 i=I−i+1
J−1
Y Sj τj−2 PI−j Ci,j+1 τ −2 θj
uD (θ1 , . . . , θJ−1 ) ∝ θj e i=1 j , pour θj ∈ R+ .
j=1
109
PI−j
Sj τj−2 + 1 et i=1 Ci,j+1 τj−2 .
On peut alors montrer que les deux premiers moments de Fj sont
Mais d’un point de vue bayésien, la réponse est positive car les variables Fl
sont a posteriori indépendantes.
– Aussi bien dans l’approche classique que bayésienne, la formule de Mack est
une approximation de Taylor à l’ordre 1 de la formule de BBMW, donc la
différence entre ces formules est relativement petite et nullement essentielle
pour des besoins pratiques.
110
où
J−1 k−1 J−1
bn2
X Y
2 2
Y σ
Γ
b I−i = fbm σ
bk fbn + [I−n−1]
k=I−i m=I−i n=k+1 Sn
J−1
! J−1
Y bj2
σ Y
∆
b I−i = fbj2 + [I−j−1]
− fbj2 ,
j=I−i Sj j=I−i
avec
k
[k]
X
Sj = Cij .
i=0
La mean square error of prediction pour les réserves totales est alors
X I
X I
X
MSEP(R)
\ = MSEP(R
\ i) + 2 Ci,I−i C
bk,I−i ∆
b I−i ,
i i=0 k=i+1
avec
I−i−1
Y
C
bk,I−i = Ck,I−k fbj .
j=I−k
Exemple A.2.2. Sur les données utilisées tout au long de ce rapport, on obtient
les résultats suivants :
i msep(R
[ i) i msep(R
[ i)
1 0.0 12 23,597.2
2 20.3 13 25,639.4
3 334.8 14 60,634.0
4 4,043.6 15 117,024.9
5 4,437.8 16 125,731.7
6 5,346.1 17 74,901.0
7 8,021.4 18 26,920.6
8 9,564.6 19 31,748.6
9 12,950.3 20 11,371.5
10 21,025.9 21 85,079.0
11 18,077.0 cov 279,470
mse(R)
d 454,388
On retrouve un résultat très similaire à celui obtenu par la méthode de Mack.
Remarque A.2.4. Cette approche par la crédibilité a été généralisée au calcul
de la MSEP des CDR pour la vision du risque à un an dans l’article [3] de
Bühlmann, Gisler, De Felice, Moriconi et Wüthrich.
A.3 Conclusion
– La première approche ne pouvant aboutir à un calcul explicite, on a pu borner
la moyenne de l’erreur d’estimation.
– Ces bornes sont aussi des bornes pour l’erreur moyenne d’estimation de la
formule de Mack. La borne supérieure correspond à la moyenne de l’erreur
d’estimation de la formule BBMW.
– Pour des données types, ces bornes sont proches en valeur l’une de l’autre.
De plus, leur volatilité est faible. Cela signifie qu’en pratique, on peut utiliser
l’une ou l’autre indifférement.
– Cela montre aussi que la formule de Mack est, en moyenne, suffisament précise,
et ainsi, recommandée pour son utilisation en pratique.
111
Annexe B
Estimation de la variance
des pertes sur une année
calendaire (preuve de la
prop. 6.2.1)
avec
I+1−k
X
Zik
(I) i=1 Zk,<
m
bk = I+1−k
=
X vk,<
vi
i=1
et
(I+1) Zk,≤
m
bk = ,
vk,≤
112
donc il suit que
I
(I) (I+1) (I)
X
b I+1 − C
C b I = Zi,I−i+2 − vi m
b I−i+2 + vi m −m .
i,J i,J bk bk
k=I−i+3
Cette différence est d’espérance nulle, mais de variance strictement positive. Les
pertes ultimes genérées pendant l’année calendaire I + 1 sont alors estimés par
I
X
TI+1 = b I+1 − C
C I
bi,J + b I+1
C
i,J I+1,J
i=2 | {z }
| {z } nouvelles AY
vieilles AYs
avec
I
(I+1)
X
b I+1 = ZI+1,1 + vI+1
C m .
I+1,1 bk
k=2
On a
(I+1) Zk,≤ vk,< Z< vI+2−k ZI+2−k,k
m
bk = = · + · ,
vk,≤ vk,≤ vk,< vk,≤ vI+2−k
| {z } | {z }
non variable variable
d’où
I I
X (I) vI+2−k X ZI+2−k,k (I) b I+1
TI+1 = Zi,I−i+2 − vi m
b I−i+2 +vi −m
b k +C
I+1,J
i=2
vk,≤ vI+2−k
k=2
| {z }
= 0
(I+1) (I)
car la différence m
bk −m b k de volume de pertes incrémentales attendues
entre k = 2 et k = I − i + 2 est nulle, car déjà observée. Donc
I I
X v+ vI+2−k ZI+2−k,k (I)
X vk,< (I) vI+2−k ZI+2−k,k
TI+1 = −m
bk + ZI+1,1 + vI+1 mb +
vk,≤ vI+2−k vk,≤ k vk,≤ vI+2−k
k=2 k=2
| {z } | {z }
vieilles AYs nouvelle AY
I I
X v++ vI+2−k ZI+2−k,k X v+ vI+2−k − vI+1 vk,< (I)
= ZI+1,1 + · − ·m
bk .
vk,≤ vI+2−k vk,≤
k=2 k=2
On souhaite calculer
2
Var(TI+1 ) = Var(TI+1 |DI ) + E E[TI+1 |DI ] − TbI+1 .
I 2 I 2
2
X v++ vI+2−k s2k X v++ vI+2−k s2k
Var(TI+1 |DI ) = vI+1 s1 + = ,
vk,≤ vI+2−k vk,≤ vI+2−k
k=2 k=1
113
car v++ = v≤ quand k = 1. De plus,
I
!2
2 v++ vI+2−k
(I)
X
E E[TI+1 |DI ] − TbI+1 = E mk − m
bk
vk,≤
k=1
" I
#
X v++ vI+2−k (I)
= Var mk − m
bk
vk,≤
k=1
I 2
X v++ vI+2−k h
(I)
i
= Var mbk
vk,≤
k=1
I 2
X v++ vI+2−k s2k
= .
vk,≤ vk,<
k=1
D’où le résultat :
I 2
X v++ vI+2−k
Var(TI+1 ) = vI+2−k 1 + s2k
vk,≤ vk,<
k=1
X I 2
2 vI+1 v++ vI+2−k
=s1 vI+1 1 + + vI+2−k 1 + s2k
v+ vk,≤ vk,<
k=2
I 2 2
v++ X sk vI+2−k v++ vI+2−k
=s21 vI+1 + 2 1 +
v+ vk,≤ vk,<
k=2
114
Annexe C
Codes relatifs à
l’implémentation du
bootstrap sur R
O
C.1
n a regroupé dans cette annexe les codes R relatifs au chapitre traitant
des méthodes bootstrap. La première section comporte le code de la
procédure classique, alors que l’on trouvera dans la deuxième le code
de la procédure modifiée afin de capturer le risque à un an.
Bootstrap classique
library(stats)
library(MCMCpack)
library(fBasics)
linkratio<-function(x){
I<-nrow(x)
J<-ncol(x)
z<-x
nbsimu<-10000 #nombre de simulations
provtotal<-rep(0,nbsimu)#simulations du total des provisions
n<-sum(x!=0) #nombre de résidus
p<-2*I-1 #nombre de paramètre à estimer
deg_lib<-n-p #nombre de degrés de liberté
ajus_res<-sqrt(n/(n-p)) #degré d’ajustement des résidus
f<-c(rep(0,J-1),1) #link ratio
#-----------------------------------------------------------------
#données cumulées
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))
}
#-----------------------------------------------------------------
#link ratio
#-----------------------------------------------------------------
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}
#-----------------------------------------------------------------
#Remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 2:J){
115
x[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j-1]*f[j-1]
}
r<-rep(0,I)
R<-0
for(i in 1:I){
r[i]<-x[i,J]-x[i,J-i+1]
}
R<-sum(r) #best estimate des provisions
#-----------------------------------------------------------------
#données ajustées
#-----------------------------------------------------------------
for(j in 1:(J-1)){
x[,J-j]<-c(x[1:j,J-j+1]/f[J-j],x[j+1,J-j],rep(0,J-j-1))
}
#-----------------------------------------------------------------
#incrément
#-----------------------------------------------------------------
y<-matrix(0,J,J)
y[,1]<-x[,1]
for(j in 2:J){
y[,j]=x[,j]-x[,j-1]
y[,j]<-c(y[-((J-j+2):J),j],rep(0,j-1))
}
#-----------------------------------------------------------------
#résidus et résidus ajustés
#-----------------------------------------------------------------
for(j in 1:J){
z[,j]=c((z[1:(J-j+1),j]-y[1:(J-j+1),j])/sqrt(y[1:(J-j+1),j]),
rep(0,j-1))
}
chi2<-sum(z^2) #Statistique de Pearson
phi<-chi2/deg_lib #scale parameter
z<-z*ajus_res
for(k in 1:nbsimu){
#-----------------------------------------------------------------
#rééchantillonnage des résidus
#-----------------------------------------------------------------
yy<-c(as.vector(z[z!=0]),0,0) #rééchantillone les résidus non nuls!
yy<-sample(yy,replace=FALSE)
x[,1]<-yy[1:J]
M<-J
m<-J+1
for(j in 2:J){
M<-M+J-j+1
x[,j]=c(yy[m:M],rep(0,j-1))
m<-m+J-j+1
}
#-----------------------------------------------------------------
#incréments rééchantillonnés
#-----------------------------------------------------------------
for(j in 1:J){
x[,j]=x[,j]*sqrt(y[,j])+y[,j]
}
#-----------------------------------------------------------------
#données cumulées rééchantillonnées et link ratio
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))
}
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}
#-----------------------------------------------------------------
#Remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 2:J){
x[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j-1]*f[j-1]
116
}
#-----------------------------------------------------------------
#incréments futurs
#-----------------------------------------------------------------
t<-matrix(0,J,J)
for(j in 2:J){
t[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j]-x[-(1:(J-j+1)),j-1]
}
#-----------------------------------------------------------------
#Simulation des payements par une loi Gamma
#-----------------------------------------------------------------
s<-sign(t) #correction des éventuels signes négatifs
for(j in 2:J){
t[-(1:(J-j+1)),j]=rinvgamma(j-1,abs(t[-(1:(J-j+1)),j])/phi+2,
abs(t[-(1:(J-j+1)),j])*(abs(t[-(1:(J-j+1)),j])/phi+1))
}
t<-s*t
prov=rep(0,I)
for(i in 1:I){
prov[i]=sum(t[i,])
}
provtotal[k]=sum(prov)
}
#-----------------------------------------------------------------
#Résultats et histogramme
#-----------------------------------------------------------------
resultat<-rep(0,5)
resultat[1]<-nbsimu
resultat[2]<-mean(provtotal)
resultat[3]<-sd(provtotal)
resultat[4:5]<-quantile(provtotal,probs=c(0.75,0.95))
resultat<-as.data.frame(resultat)
rownames(resultat)<-c("Nombre simulations","moyenne",
"erreur de prédiction","quantile 75%","quantile 95%")
return(resultat)
}
link2<-function(x){
I<-nrow(x)
J<-ncol(x)
z<-x
provtotal<-rep(0,nbsimu) #simulations du total des provisions
n<-sum(x!=0) #nombre de résidus
p<-2*I-1 #nombre de paramètre à estimer
deg_lib<-n-p #nombre de degrés de liberté
ajus_res<-sqrt(n/(n-p)) #degré d’ajustement des résidus
f<-c(rep(0,J-1),1) #link ratio
#-----------------------------------------------------------------
#données cumulées
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))
}
#-----------------------------------------------------------------
117
#link ratio
#-----------------------------------------------------------------
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}
#-----------------------------------------------------------------
#Remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 2:J){
x[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j-1]*f[j-1]
}
r<-rep(0,I)
R<-0
for(i in 1:I){
r[i]<-x[i,J]-x[i,J-i+1]
}
R<-sum(r) #best estimate des provisions
#-----------------------------------------------------------------
#données ajustées
#-----------------------------------------------------------------
for(j in 1:(J-1)){
x[,J-j]<-c(x[1:j,J-j+1]/f[J-j],x[j+1,J-j],rep(0,J-j-1))
}
#-----------------------------------------------------------------
#incrément
#-----------------------------------------------------------------
y<-matrix(0,J,J)
y[,1]<-x[,1]
for(j in 2:J){
y[,j]=x[,j]-x[,j-1]
y[,j]<-c(y[-((J-j+2):J),j],rep(0,j-1))
}
#-----------------------------------------------------------------
#résidus et résidus ajustés
#-----------------------------------------------------------------
for(j in 1:J){
z[,j]=c((z[1:(J-j+1),j]-y[1:(J-j+1),j])/sqrt(y[1:(J-j+1),j]),
rep(0,j-1))
}
chi2<-sum(z^2) #Statistique de Pearson
phi<-chi2/deg_lib #scale parameter
z<-z*ajus_res
for(k in 1:nbsimu){
#-----------------------------------------------------------------
#rééchantillonnage des résidus
#-----------------------------------------------------------------
yy<-c(as.vector(z[z!=0]),0,0) #rééchantillone les résidus non nuls!
yy<-sample(yy,replace=FALSE)
x[,1]<-yy[1:J]
M<-J
m<-J+1
for(j in 2:J){
M<-M+J-j+1
x[,j]=c(yy[m:M],rep(0,j-1))
m<-m+J-j+1
}
#-----------------------------------------------------------------
#incréments rééchantillonnés
#-----------------------------------------------------------------
for(j in 1:J){
x[,j]=x[,j]*sqrt(y[,j])+y[,j]
}
#-----------------------------------------------------------------
#données cumulées rééchantillonnées et link ratio
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))
118
}
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}
#-----------------------------------------------------------------
#Estimation de la diagonale suivante et simulation par une loi gamma
#-----------------------------------------------------------------
for(j in 2:J){
x[J-j+2,j]=x[J-j+2,j-1]*f[j-1]
}
s<-sign(x)
for(j in 2:J){
x[J-j+2,j]=rinvgamma(1,abs(x[J-j+2,j])/phi+2,abs(x[J-j+2,j])
*(abs(x[J-j+2,j])/phi+1))
x[J-j+2,j]=x[J-j+2,j]*s[J-j+2,j]
}
#-----------------------------------------------------------------
#Calcul des LDFs et remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}
for(j in 3:J){
x[-(1:(J-j+2)),j]=x[-(1:(J-j+2)),j-1]*f[j-1]
}
#-----------------------------------------------------------------
#incréments futurs
#-----------------------------------------------------------------
t<-matrix(0,J,J)
for(j in 2:J){
t[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j]-x[-(1:(J-j+1)),j-1]
}
prov<-rep(0,I)
for(i in 1:I){
prov[i]=sum(t[i,])
}
prov2<-rep(0,I)
for(i in 2:I){
prov2[i]=x[i,J]-x[J-i+2,i]
}
provtotal[k]=sum(prov)
} #accolade boucle en k
resultat<-rep(0,4)
resultat[1]<-mean(provtotal)
resultat[2]<-sd(provtotal)
resultat[3:4]<-quantile(provtotal,probs=c(0.75,0.95))
resultat<-as.data.frame(resultat)
rownames(resultat)<-c("moyenne","risque à un an","quantile 75%",
"quantile 95%")
return(resultat)
}
119
Annexe D
Codes R relatifs à la
méthode de Christophides
design[1:way[1],1]=1
for (j in 2:I){
design[(way[j-1]+1):way[j],j]=1
}
for (j in 2:I){
design[wdy==j,j+I-1]=1
}
120
yfit<-design%*%theta
m<-I*(I-1)/2
designf<-matrix(0,m,2*I-1) #matrice design future
wayf<-rep(seq(2,I),seq(1,I-1))
for (j in 1:I){
designf[wayf==j,j]=1
}
wdyf<-I
for (i in 1:(I-2)){wdyf<-c(wdyf,(I-i):I)}
for (j in 2:I){
designf[wdyf==j,j+I-1]=1
}
yfitf<-designf%*%theta
pariskY<-rep(0,m) #risque de paramètre sur les logincréments
totriskY<-rep(0,m) #risque de prédiction
pariskY<-diag(designf%*%qr.solve(t(design)%*%design)%*%t(designf))
#on ne garde que les éléments diagonales
pariskY<-pariskY*sigma^2
totriskY<-pariskY+sigma^2
YY<-array(0,c(m,m))
YY<-(diag(1,m)+designf%*%qr.solve(t(design)%*%design)%*%t(designf))
*array(sigma^2,c(m,m)) #erreur de prédiction
X<-rep(0,m) #incréments
sdX<-rep(0,m)
X<-exp(yfitf+totriskY/2) ## X<-exp(yfitf+rep(sigma^2/2,m))
sdX<-diag(X%*%sqrt(exp(totriskY)-1))^2 #vecteur de la variance de X
toto<-array(0,c(m,m))
for (i in 1:m){ for (j in 1:m){ toto[i,j]<-X[i]*X[j]*(exp(YY[i,j])-1)}}
sqrt(sum(toto)) #matrice variance covariance de X
incf<-matrix(0,I,I)
w<-cumsum(seq(1,I-1,1))
incf[2,]<-c(rep(0,I-1),X[1:w[1]])
for(i in 3:I){
incf[i,]<-c(rep(0,I-i+1),X[(w[i-2]+1):w[i-1]])
}
prov<-rep(0,I)
for (i in 1:I){
prov[i]<-sum(incf[i,])
}
provtotal<-sum(prov)-5000
provtotal
w1<-rep(seq(1,I,1),seq(I,1,-1))
plot(wdy,epsilon) #residus vs délais
plot(yfit,epsilon) #residus vs valeurs prévues
plot(w1,epsilon) #residus vs année
qqnorm(epsilon) #QQ plot des résidus
121
for (i in 2:20){
titi[i]<-titi[i-1]+i-1
}
for (i in 1:m){
if(sum(i==titi)>0) designfoy[i,]<-designf[i,]
}
YYoy<-array(0,c(m,m))
YYoy<-(diag(1,m)+designfoy%*%qr.solve(t(design)%*%design)%*%t(designfoy))
*array(sigma^2,c(m,m))
totooy<-array(0,c(m,m))
for (i in 1:m){
for (j in 1:m){
totooy[i,j]<-X[i]*X[j]*(exp(YYoy[i,j])-1)
}
}
sqrt(sum(totooy))#Risque à un an}
122
Annexe E
Codes WinBUGS
123
p.repsum <- step( x.repsum - x.sum ) # 1 if x.repsum >= x.sum
p.repmin <- step( x.repmin - x.min ) # 1 if x.repmin >= x.min
p.repmax <- step( x.repmax - x.max ) # 1 if x.repmax >= x.max
x.sum <- sum( x[] )
x.min <- ranked( x[], 1 )
x.max <- ranked( x[], 210)
x.repsum <- sum( x.rep[] )
x.repmin <- ranked( x.rep[], 1 )
x.repmax <- ranked( x.rep[],210 )
for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}
for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- z[i, j+1] / max(z[i, j],1)
}
}
for(i in 2:21){
for(j in (21-i+1):20){
124
z[i,j+1]<- z[i,j]*devfac[i,j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}
for(i in 1:21){
for(j in 1:20){
devfac[i,j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
mu.df[i,j]<-max(min(theta[j],100),0.01)
tau.df[i,j]<-min(max(0.001,tau*weight[i,j]),1000)
weight[i,j]<-1
}
}
for(j in 1:20){
theta[j]~dnorm(mu.theta, tau.theta)
}
tau~dgamma(0.01, 0.01)
mu.theta~dnorm(1, 0.01)
tau.theta~dgamma(0.01, 0.01)
for (i in 2:21){
oustand.row[i]<-sum(y[i,(21+2-i):21])
}
oustand.row[22]<-sum(oustand.row[2:21])
}
DATA
list(y = structure(.Data = c(0.779,3.685,80.405,1161.81,
1417.747,1185.926,1468.08,1634.679,1965.64,2586.03,
3162.908,3795.084,4505.268,4993.128,5901.053,5969.015,
6359.252,6549.347,7359.442,8087.595,9133.17,
13.529,286.254,423.307,653.515,828.381,1365.249,
1682.869,1949.705,2194.538,2584.032,2803.33,3592.898,
4685.337,4923.93,5298.982,4926.782,5276.394,5933.754,
9111.702,9752.536,NA,
266.239,496.368,559.441,514.701,1729.593,1985.295,1953.91,
2814.162,3344.115,5462.983,7213.181,7693.993,10320.562,
11450.667,11722.772,12490.068,13198.263,13954.509,14101.149,
NA,NA,
152.405,285.637,247.427,600.021,863.404,2334.322,
2838.697,3623.712,4420.172,6417.69,6866.58,8006.827,
8300.707,9342.08,10331.799,10786.631,11662.18,12674.199,
NA,NA,NA,
167.397,333.299,976.905,1368.287,1835.964,2562.597,
2670.695,3308.594,4516.715,5708.816,6605.092,7829.111,
9215.884,10258.24,11457.864,11957.455,13389.072,NA,NA,
NA,NA,
2.025,420.552,597.452,663.767,1014.909,1635.485,2285.811,
5652.143,6662.267,7854.215,8411.081,9027.449,10342.515,
12811.557,13735.811,16069.382,NA,NA,NA,NA,NA,
0.688,7222.349,8445.327,9426.32,10287.864,10730.197,
7628.957,8892.886,11168.478,14206.437,15365.336,
17028.298,18877.712,21115.087,24727.55,NA,NA,NA,NA,NA,NA,
3.974,234.293,1139.877,1517.206,3176.391,4186.061,
6492.901,8810.422,11086.991,13684.201,15279.401,
18736.544,23812.164,27166.955,NA,NA,NA,NA,NA,NA,NA,
0.247,559.037,3059.851,4997.694,6946.121,8250.871,
11550.225,15412.061,20019.459,23080.057,26991.124,
31461.972,34494.739,NA,NA,NA,NA,NA,NA,NA,NA,
17.972,358.962,1081.211,3522.72,8088.152,12042.868,
16793.425,22199.689,30933.27,34637.647,39820.711,
49963.244,NA,NA,NA,NA,NA,NA,NA,NA,NA,
180.388,245.235,533.221,2935.461,7702.014,10461.767,
13917.548,17749.814,24373.087,28644.874,33984.396,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,
84.808,1722.596,3412.287,7810.247,11367.66,16531.995,
22085.175,26798.15,34467.866,39884.358,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,
0.054,901.507,3672.031,5174.447,10264.817,14737.592,
22741.114,27442.586,34787.89,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,
60.233,2607.292,10212.048,21977.254,32859.193,46222.9,
125
57855.394,71066.052,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
802.359,9912.443,18346.543,33964.818,59128.901,84212.957,
107113.486,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
1978.401,9607.457,20137.376,37122.077,64141.482,83669.165,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
100.301,3147.351,10095.123,22279.049,30503.337,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
199.86,1182.132,1700.914,2592.048,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
0.001,1.028,827.702,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,
2.009,2.402,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
0.196,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA),
.Dim = c(21, 21)))
INITS
list(theta=c(1500,45,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),
tau=1, mu.theta=1,tau.theta=1000,
devfac= structure(.Data =
c(NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1
),
.Dim = c(21, 20)))
E.2.2 A un an
Le code suivant a été testé, mais sans résultat convergent.
MODEL{
for(i in 1:21){
z[i,1]<-y[i,1]
}
for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}
for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- z[i, j+1] / z[i, j]
}
}
for(i in 1:21){
for(j in 1:(21-i+1)){
mu.df[i, j]<- theta[j]
tau.df[i, j]<-tau *weight[i,j]
weight[i, j]<-1
devfac[i, j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
}
126
}
for(j in 1:21){
theta[j]~dnorm(mu.theta, tau.theta)
}
tau~dgamma(0.1, 0.1)
mu.theta~dnorm(1, 0.01)
tau.theta~dgamma(0.1, 0.1)
for(i in 2:21){
z[i,21-i+2]<-z[i, 21-i+1]*devfac[i, 21-i+1]
}
for(j in 2:20){
volwtdevfac[j]<- sum(z[1:(21-j+1), j+1]) / sum(z[1:(21-j+1), j])
}
for(i in 3:21){
for (j in (21-i+2):20){
z[i,j+1]<-z[i,j] * volwtdevfac[j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}
for (i in 3:21){
oustand.row[i]<-sum(y[i,(21+3-i):21])
}
oustand.row[22]<-sum(oustand.row[3:21])
}
}
for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}
for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- max(0.01,z[i, j+1] / z[i, j])
}
}
for(i in 2:21){
for(j in (21-i+1):20){
z[i,j+1]<- z[i,j]*devfac[i,j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}
for(i in 1:21){
for(j in 1:20){
mu.df[i,j]<-theta[j]
tau.df[i,j]<-max(0.001,tau*weight[i,j])
weight[i,j]<-1
devfac[i,j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
}
}
127
for(j in 1:20){
theta[j]~dnorm(mu.theta, tau.theta)
}
tau~dgamma(0.01, 0.01)
mu.theta~dnorm(1, 0.01)
tau.theta~dgamma(0.01, 0.01)
for(i in 1:21){
for(j in 1:20){
R[i, j]<-1/prod(devfac[i, j:20])
}
}
mu.lossratio~dnorm(1.15,100)
for(i in 1:21){
lossratio[i]~dnorm(mu.lossratio,1600)
ultimate[i]<-premium[i]*max(0.5,lossratio[i])
}
for(i in 1:21){
bfcell.curr[i,1]<- ultimate[i]*R[i,1]
for(j in 2:20){
bfcell.curr[i,j]<- ultimate[i]*(R[i, j]-R[i, j-1])
}
bfcell.curr[i,21]<- ultimate[i]*(1-R[i,20])
}
for (i in 2:21){
outstand.row[i]<-sum(bfcell.curr[i,(21+2-i):21])
}
outstand.row[22]<-sum(outstand.row[2:21])
}
}
DATA
list(y = structure(.Data = c(0.78,2.91,76.72,1081.41,255.94,-231.82,
282.15,166.6,330.96,620.39,576.88,632.18,710.18,487.86,907.93,
67.96,390.24,190.09,810.1,728.15,1045.58,
13.53,272.73,137.05,230.21,174.87,536.87,317.62,266.84,244.83,
389.49,219.3,789.57,1092.44,238.59,375.05,-372.2,349.61,
657.36,3177.95,640.83,NA,
266.24,230.13,63.07,-44.74,1214.89,255.7,-31.39,860.25,529.95,
2118.87,1750.2,480.81,2626.57,1130.11,272.11,767.3,708.2,
756.25,146.64,NA,NA,
152.41,133.23,-38.21,352.59,263.38,1470.92,504.38,785.02,
796.46,1997.52,448.89,1140.25,293.88,1041.37,989.72,454.83,
875.55,1012.02,NA,NA,NA,
167.4,165.9,643.61,391.38,467.68,726.63,108.1,637.9,1208.12,
1192.1,896.28,1224.02,1386.77,1042.36,1199.62,499.59,1431.62,
NA,NA,NA,NA,
2.03,418.53,176.9,66.32,351.14,620.58,650.33,3366.33,1010.12,
1191.95,556.87,616.37,1315.07,2469.04,924.25,2333.57,NA,NA,NA,
NA,NA,
5,7221.66,1222.98,980.99,861.54,442.33,-3101.24,1263.93,
2275.59,3037.96,1158.9,1662.96,1849.41,2237.38,3612.46,NA,
NA,NA,NA,NA,NA,
3.97,230.32,905.58,377.33,1659.19,1009.67,2306.84,2317.52,
2276.57,2597.21,1595.2,3457.14,5075.62,3354.79,NA,NA,NA,
NA,NA,NA,NA,
5,558.79,2500.81,1937.84,1948.43,1304.75,3299.35,3861.84,
4607.4,3060.6,3911.07,4470.85,3032.77,NA,NA,NA,NA,NA,NA,NA,
NA,
17.97,340.99,722.25,2441.51,4565.43,3954.72,4750.56,5406.26,
8733.58,3704.38,5183.06,10142.53,NA,NA,NA,NA,NA,NA,NA,NA,NA,
180.39,64.85,287.99,2402.24,4766.55,2759.75,3455.78,3832.27,
6623.27,4271.79,5339.52,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
84.81,1637.79,1689.69,4397.96,3557.41,5164.34,5553.18,
712.98,7669.72,5416.49,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
5,901.45,2770.52,1502.42,5090.37,4472.78,8003.52,4701.47,
7345.3,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
60.23,2547.06,7604.76,11765.21,10881.94,13363.71,
11632.49,13210.66,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
128
802.36,9110.08,8434.1,15618.28,25164.08,25084.06,22900.53,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
1978.4,7629.06,10529.92,16984.7,27019.41,19527.68,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
100.3,3047.05,6947.77,12183.93,8224.29,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
199.86,982.27,518.78,891.13,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
10,1.03,826.67,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,
2.01,0.39,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
2,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA),
.Dim = c(21, 21)),
premium=c(10960,
13216,20697,21512,24354,20000,15000,15000,90877,152979,
123384,166431,172858,458490,550000,650000,700000,123384,24354,
20000,10000
))
INITS
list(theta=c(1500,45,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),
tau=1,mu.theta=1,tau.theta=1, mu.lossratio=1.15,
lossratio=c(1.15,1.15,1.15,1.15,1.15,1.15,
1.15,1.15,1.15,1.15,1.15,1.15,1.15,1.15,
1.15,1.15,1.15,1.15,1.15,1.15,1.15),
devfac= structure(.Data =
c(NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1
),
.Dim = c(21, 20)))
E.3.2 A un an
Le code précédent a été modifié pour calculer le risque à un an dans la même
logique que le code de la méthode de Chain Ladder.
MODEL{
for(i in 1:21){
z[i,1]<-y[i,1]
}
for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}
for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- z[i, j+1] / z[i, j]
129
}
}
for(i in 1:21){
for(j in 1:(20-i+2)){
mu.df[i, j]<-theta[j]
tau.df[i, j]<-tau*weight[i,j]
weight[i, j]<-1
devfac[i, j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
}
}
for(j in 1:21){
theta[j]~dnorm(mu.theta, tau.theta)
}
tau~dgamma(0.1, 0.1)
mu.theta~dnorm(1, 0.1)
tau.theta~dgamma(0.1, 0.1)
for(i in 2:21){
z[i,21-i+2]<-z[i, 21-i+1]*devfac[i, 21-i+1]
}
for(j in 2:20){
volwtdevfac[j]<- sum(z[1:(21-j+1), j+1]) / sum(z[1:(21-j+1), j])
}
for(i in 3:21){
for (j in (21-i+2):20){
z[i,j+1]<-z[i,j] * volwtdevfac[j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}
for(i in 3:21){
for(j in (21-i+2):20){
devfac[i, j]<- z[i, j+1] / z[i, j]
}
}
for(i in 1:21){
for(j in 1:20){
R[i, j]<-1/prod(devfac[i, j:20])
}
}
#mu.lossratio~dnorm(1.15,10)
for(i in 1:21){
lossratio[i]~dnorm(1.15,100)
ultimate[i]<-premium[i]*max(0.5,lossratio[i])
}
for(i in 1:21){
bfcell.curr[i,1]<- ultimate[i]*R[i,1]
for(j in 2:20){
bfcell.curr[i,j]<- ultimate[i]*(R[i, j]-R[i, j-1])
}
bfcell.curr[i,21]<- ultimate[i]*(1-R[i,20])
}
for (i in 2:21){
outstand.row[i]<-sum(bfcell.curr[i,(21+2-i):21])
}
outstand.row[22]<-sum(outstand.row[2:21])
}}
130
Annexe F
Les données précédemment utilisées dans ce mémoire avec lesquels les simula-
tions ont été effectuées ont l’inconvénient de présenter de nombreuses irrégularités
et de la volatilités. De plus, les données de primes et de loss ratio attendu
n’étaient pas connues. Il était dans ce cas intéressant d’étudier assez brièvement
les résultats obtenus par les différentes méthodes présentées dans ce mémoire
pour un autre jeu de données. En effet, le fait de choisir le montant des primes
me permet d’obtenir pour les méthodes de type Bornhuetter-Ferguson tous les
résultats possibles. Donc, à l’opposé du choix précédent, le triangle choisi ici est
celui de l’exemple 1.1 du livre de C. Partrat et alii (cf. [26]) :
AY/DY j=1 j=2 j=3 j=4 j=5 j=6
i=1 3,209 4,372 4,411 4,428 4,435 4,456
i=2 3,367 4,659 4,696 4,720 4,730
i=3 3,871 5,345 5,398 5,420
i=4 4,239 5,917 6,020
i=5 4,929 6,794
i=6 5,217
131
D’autre part, un test de Student à 5 degrès de liberté montre que l’on ne peut
pas rejeter l’hypothèse
5
1 X Ci2
(H0 ) : f1 = µ :=
5 i=1 Ci1
132
manière général plutôt que le choix d’une méthode de détermination du risque
à un an. Penser que le risque sur le montant des provisions soit d’environ 25%
du montant est alors assez gênant. Pour cette raison, je serais tenté de croire en
les résultats produits par la méthode des CDR, du bootstrap ou de Verall.
En regardant plus en détails les résultats obtenus pour la méthode de Chris-
tophides, on remarque que l’erreur de prédiction ultime associée au premier
développement de la charge sinistre de l’année 6 (correspondant à i = 6 et
j = 2) est anormalement élevée :
Mack Formulas
i Process risk Parameter risk Total risk
1 0 0 0
2 1 1 1
3 2 2 3
4 4 3 5
5 27 16 31
6 60 32 68
Cov 308
Total 80
133
loi normale ou lognormale. La moyenne µ correspondant à la loi normale suit-
elle normale dont les paramètres suivent un loi gamma ? Comment calibrer le
modèle et estimer les valeurs initiales ? Y a-t-il un modèle par défaut ? Autant
de questions qui rendent difficiles l’utilisation de ce modèle.
134
R[3]< - sum(fit[17:18])
R[4] <- sum(fit[19:21])
R[5] <- sum(fit[22:25])
R[6] <- sum(fit[26:30])
Total <- sum(R[2:6])
}
#DATA
list(
row=c(1,1,1,1,1,
2,2,2,2,
3,3,3,
4,4,
5,
1,
2,2,
3,3,3,
4,4,4,4,
5,5,5,5,5),
Y=c(3367,1292,37,24,10,
3871,1474,53,22,
4239, 1678,103,
4929,1865,
5217,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
D=c(3209, 1163, 39, 17, 7,
6576, 2455, 76, 24,
10447, 3929, 129,
14686, 5607,
19615,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
DD=c(
17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
E=c(17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
f=c(1.005, 1.002,1.004, 1.011, 1.381),
ultm=c(NA,4752,5456,6086,6947,7367),
ultv=c(NA,25,25,25,25,25)) #Précision
#INITIAL VALUES
list(u =c(4000,4000,4500,5000,5500,6000),
Z=c(NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,
NA,NA,
NA,
0,
0,0,
0,0,0,
0,0,0,0,
0,0,0,0,0,
0,0,0,0,0,0))
135
fréquente de cette méthode de tout recoder afin que le code fonctionne facilement
pour tout type de triangle. De plus une interface R ou Excel serait envisageable
et plus conviviale.
MODEL{
# Model for Data
for( i in 1 : 15 ) {
Z[i] <- Y[i]
pC[i]<-D[i]
# Zeros trick
zeros[i]<- 0
zeros[i] ~ dpois(phi[i])
phi[i]<-(-pC[i]*log(1/(1+g[row[i]]))-Z[i]*log(g[row[i]]/(1+g[row[i]])))/scale
}
a1[19]<- a[row[19]]*DD[19-15]/scale
b1[19]<- 1/(gamma[row[19]]*scale)
Z[19]~dgamma(a1[19],b1[19])
Y[19]<-Z[19]
fit[19]<-Y[19]
a1[22]<- a[row[22]]*DD[22-15]/scale
b1[22]<- 1/(gamma[row[22]]*scale)
Z[22]~dgamma(a1[22],b1[22])
Y[22]<-Z[22]
fit[22]<-Y[22]
a1[26]<- a[row[26]]*DD[26-15]/scale
b1[26]<- 1/(gamma[row[26]]*scale)
Z[26]~dgamma(a1[26],b1[26])
Y[26]<-Z[26]
fit[26]<-Y[26]
Cum[24]<-Cum[23]*f[1]
Z[18]<-Cum[24]-Cum[23]
Y[18]<-Z[18]
fit[18]<-Y[18]
for(i in 1 : 2 ) {
136
Cum[25+i]<-Cum[25+i-1]*ff[i+3]
Z[i+19]<-Cum[25+i]-Cum[25+i-1]
Y[i+19]<-Z[i+19]
fit[i+19]<-Y[i+19]
}
for(i in 1 : 3 ) {
Cum[28+i]<-Cum[28+i-1]*ff[i+2]
Z[i+22]<-Cum[28+i]-Cum[28+i-1]
Y[i+22]<-Z[i+22]
fit[i+22]<-Y[i+22]
}
for(i in 1 : 4 ) {
Cum[32+i]<-Cum[32+i-1]*ff[i+1]
Z[i+26]<-Cum[32+i]-Cum[32+i-1]
Y[i+26]<-Z[i+26]
fit[i+26]<-Y[i+26]
}
# DATA
list(
row=c(1,1,1,1,1,
2,2,2,2,
3,3,3,
4,4,
5,
1,
2,2,
3,3,3,
4,4,4,4,
5,5,5,5,5),
Y=c(3367,1292,37,24,10,
3871,1474,53,22,
4239, 1678,103,
4929,1865,
5217,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
D=c(3209, 1163, 39, 17, 7,
6576, 2455, 76, 24,
10447, 3929, 129,
14686, 5607,
19615,
NA,
NA,NA,
137
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
DD=c(
17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
E=c(17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
Cum=c(3209, 4372, 4411, 4428, 4435, 4456,
3367, 4659, 4696, 4720, 4730,
3871, 5345, 5398, 5420,
4239, 5917, 6020,
4929, 6794,
5217,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
f=c(1.005, 1.002,1.004, 1.011, 1.381),
ff=c(1.381, 1.011, 1.004, 1.002, 1.005),
ultm=c(NA,4752,5456,6086,6947,7367),
ultv=c(NA,25,25,25,25,25))
#INITIAL VALUES
list(u =c(4000,4000,4500,5000,5500,6000),
Z=c(NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,
NA,NA,
NA,
0,
0,NA,
0,NA,NA,
0,NA,NA,NA,
0,NA,NA,NA,NA,
0,NA,NA,NA,NA,NA))
138
Bibliographie
[1] AISAM-ACME. Aisam-acme study on non life long tail liabilities. Reserve
risk and risk margin assesment under Solvency II, 2007.
[2] G. Barnett and B. Zenwirth. Best estimates for reserves. Proceedings of
the CAS, LXXXVII(166-167) :Institute of Actuaries, London, 2000.
[3] B. Bühlmann, M. De Felice, A. Gisler, F. Moriconi, and M.V. Wüthrich.
Recursive credibility formula for chain ladder factors and the claims deve-
lopment result. ETH Preprint, 2008.
[4] H. Böhm and H. Glaab. Modellierung des kalenderjahr-risikos im additi-
ven und multiplikativen schadenreservierungsmodell. Talk presented at the
German ASTIN Colloquium, 2006.
[5] M. Buchwalder, H. Bühlmann, M. Merz, and M.V. Wüthrich. The mean
square error of prediction in the chain-ladder reserving method (mack and
murphy revisited). ASTIN Bulletin, 36(2) :521–542, 2006.
[6] CEIOPS. Qis4 technical specifications. Available on the CEIOPS website,
2008.
[7] CEIOPS. Quantitative impact study 4, questions and answers - list of
methodological issues raised by participants and supervisors. available on
the CEIOPS website, 2008.
[8] S. Christophides. Regression models based on log-incremantal payements.
Claims Reserving Manual, 2 :Institute of Actuaries, London, 1990.
[9] M. De Felice and F. Moriconi. Process error and estimation error of year-
end reserve estimation in the distribution free chain-ladder model. Alef
Working Paper - Version B - Rome, 2006.
[10] P. England and R. J. Verall. Analytic and bootstrap estimates of predic-
tion errors in claims reserving. Insurance : Mathematics and Economics,
25 :281–293, 1999.
[11] P. England and R. J. Verall. Addendum to ’analytic and bootstrap esti-
mates of prediction errors in claims reserving’. Actuarial Research Papers
No. 138, Departement of Actuarial Science and Statistics, City University,
London, EC1V 0HB, 2002.
[12] P. England and R. J. Verall. Stochastic claims reserving in general insu-
rance. British Act. J., 8(3) :443–518, 2002.
[13] A. Gisler. The estimation error in the chain-ladder reserving method : a
bayesian approach. ASTIN Bulletin, 36(2) :554–565, 2006.
[14] A. Gisler and M.V. Wüthrich. Credibility for the chain-ladder reserving
method. preprint (Accepted by ASTIN Bulletin, 2007.
139
[15] J. Jacquemin, F. Planchet, and P. Thérond. Modèles Financiers en Assu-
rance. 2005.
[16] T. Mack. Distribution-free calculation of the standard error in the chain-
ladder reserving method. ASTIN Bulletin, 23(2) :213–225, 1993.
[17] T. Mack, G. Quarg, and C. Braun. The mean square error of prediction in
the chain-ladder reserve estimates. ASTIN Bulletin, 36(2) :543–552, 2006.
[18] F. Mercurio. Pricing and inflation-indexed derivatives. Product and Busi-
ness Development Group - Banca IMI, 2005.
[19] M. Merz and M.V. Wüthrich. Prediction error of the expected claims
development result in the chain ladder method. North American Actuarial
J, 2007.
[20] M. Merz and M.V. Wüthrich. Modelling the claims development result or
solvency purposes. Preprint, 2008.
[21] M. Merz, M.V. Wüthrich, and R. Dahms. Claims development result for
combined claims incurred and claims paid data. Preprint (available on
Mario Wüthrich homepage), 2008.
[22] M. Merz, M.V. Wüthrich, and N. Lysenko. Uncertainty of the claims de-
velopment result in the chain ladder method. Scand. Actuar. J, 2007.
[23] D. Murphy. Chain ladder reserve risk estimators. Casualty Actuarial So-
ciety, 2007.
[24] I. Ntzoufras. Aspects of bayesian model and variable selection using mcmc.
Dep. of Statistics, Athens University of Economics and Business, Thesis,
1999.
[25] Commission of the European Communities. Amended proposal for a direc-
tive of the european parliament and of the council on the taking-up and
pursuit of the business of insurance and reinsurance (solvency ii). 2008.
[26] C. Partrat, E. Lecoeur, J.M. Nessi, E. Nisipasu, and O. Reiz. Provisionne-
ment technique en Assurance non vie - Perspectives actuarielles modernes.
2008.
[27] A. E. Renshaw and R. J. Verall. A stochastic model underlying the chain-
ladder technique. B.A.J., 4 :903–923, 1998.
[28] D. P. M. Scollnik. Actuarial modeling with mcmc and bugs. North Ame-
rican Actuarial Journal, 5(2) :96–124, 2001.
[29] D. P. M. Scollnik. Modelling size-of-loss distributions for exact data in
winbugs. Journal of Actuarial Practice, 10(1-2) :193–218, 2002.
[30] D. P. M. Scollnik. Bayesian reserving models inspired by chain ladder
methods and implemented using winbugs. ARCH, 2, 2004.
[31] R. J. Verall. A bayesian generalized linear model for the bornhuetter-
ferguson method of claims reserving. North American Actuarial Journal,
8(3) :67–89, 2004.
[32] R. J. Verall. Obtaining predictive distributions for reserves which incorpo-
rate expert opinion. Variance, 1(1) :53–80, 2007.
[33] L.S. Ward and H.D. Lee. Practical application on the risk-adjusted return
on capital framework.
140
[34] M.V. Wüthrich, H. Bühlmann, and M. Merz. Bounds in the estimation
error in the chain ladder method. Scandinavian Actuarial Journal, 2006.
[35] B. Zenwirth. Probabilistic development factor models with applications to
loss reserve variability, prediction intervals, and risk based capital. Casualty
Actuarial Society Forum, 2 :447–605, 1994.
141