Escolar Documentos
Profissional Documentos
Cultura Documentos
GM5
Rapport de PFE
Etude des mthodes destimation
de la Value-at-Risk
2009
2010
SOMMAIRE
CHAPITRE 1
I.
II.
PRESENTATION DE LA VALUE-AT-RISK
INTRODUCTION
PRESENTATION GENERALE
2.1 DEFINITION GENERALE
2.2 UTILISATION DE LA VAR
2.3 TYPES DE RISQUES MESURES PAR LA VAR
2.4 COMMENT ADAPTER LA VAR EN ASSURANCE ?
2.4.1. Rsum du principe de fonctionnement dune socit dassurance
2.4.2. Adaptation de la VaR en assurance
2.4.3. Utilisation de la VaR dans dans le calcul du besoin en fonds propres
III.
DEFINITION PROBABILISTE DE LA VALUE-AT-RISK
3.1 DEFINITION DE LA VAR
3.1.1. Distribution des profits et pertes (P&L)
3.1.2. Dfinition probabiliste de la VaR
3.2
CHAPITRE 2
I.
II.
ESTIMATION DE LA VALUE-AT-RISK
III.
ESTIMATION NON PARAMETRIQUE
3.1 SIMULATION HISTORIQUE (HS HISTORICAL SIMULATION)
3.1.1. Principe et dfinition
3.1.2. Exemple dutilisation : Cours de clture AXA du 25/10/2007 au 23/10/2009
3.1.3. Limites de la Simulation Historique
3.1.4. Prvision de la VaR selon la mthode de Simulation Historique
3.1.5. Exemple de prvision de la VaR HS
IV.
9
11
12
14
14
16
17
18
18
ESTIMATION PARAMETRIQUE
2.1 PRELIMINAIRES : APPROCHE UNIVARIEE
2.2 APPROCHE VARIANCE COVARIANCE
2.3 METHODE RISKMETRICS
2.4 AVANTAGES ET LIMITES DES METHODES DESTIMATION PARAMETRIQUES
3.4
5
5
6
7
9
17
INTRODUCTION
3.2
3.3
18
19
21
23
24
25
25
25
27
33
33
35
36
38
38
39
40
40
42
ESTIMATION SEMI-PARAMETRIQUE
45
2
4.1
45
CHAPITRE 3
I.
II.
INTRODUCTION
II.
51
51
CHAPITRE 4
I.
LIMITES DE LA VALUE-AT-RISK
45
46
48
INTRODUCTION
52
52
54
55
55
57
57
57
57
58
59
60
61
61
III.
ETUDE DES 5 DISTRIBUTIONS UTILISEES POUR LA SIMULATION
3.1 ETUDE LA DISTRIBUTION NORMALE
3.2 ETUDE LA DISTRIBUTION DE WEIBULL
3.3 ETUDE DE LA DISTRIBUTION LOGNORMALE
3.4 ETUDE DE LA DISTRIBUTION 30% PARETO ET 70% LOGNORMALE
3.5 ETUDE DE LA DISTRIBUTION 70% PARETO ET 30% LOGNORMALE
3.6 FONCTIONS DE DENSITE ET DE REPARTITION DES 5 DISTRIBUTIONS
62
63
64
65
66
67
68
IV.
SIMULATIONS
4.1 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION NORMALE
4.2 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION LOGNORMALE
4.3 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION DE WEIBULL
4.4 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 30% PARETO 70% LOGNORMALE
4.5 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 70% PARETO 30% LOG NORMALE
4.6 CONCLUSION FINALE
69
70
72
74
76
78
80
V. ANNEXES DU CHAPITRE 4
5.1 DESCRIPTION DES 5 DISTRIBUTIONS : EXPLICATION DU CODE R
81
81
5.2
84
Distribution de Champernowne
Largeur de fentre
CHAPITRE 5
86
86
90
I.
90
90
95
II.
RESULTATS OBTENUS
2.1 VARIABLE MONTANT
2.2 VARIABLE LOG(MONTANT)
98
98
99
III.
ANNEXES DU CHAPITRE 5
CHAPITRE 6
100
107
I.
PRINCIPE
1.3 QUEL MODELE UTILISER ?
1.4 ALGORITHME DE SIMULATION
107
107
108
II.
EXEMPLE DAPPLICATION
2.1 TRAVAIL PRELIMINAIRE
2.2 SIMULATION DES TRAJECTOIRES
108
108
110
110
111
CHAPITRE 7
I.
II.
DONNEES
113
113
FONCTIONS
2.1 FONCTION VAR.GPD
2.2 FONCTION VAR.NORM
2.3 FONCTION VAR.BACKTEST
116
116
117
119
BIBLIOGRAPHIE
120
Chapitre 1
Prsentation de la Value-at-Risk
I. Introduction
Apparue pour la premire fois la fin des annes 80 dans le domaine de
lassurance, la Value-at-Risk (VaR) est devenue en moins dune dizaine dannes, une
mesure de rfrence du risque sur les marchs financiers. Cest la banque JP Morgan,
qui a popularis ce concept avec son systme RiskMetrics implment en 1994. La
Value-at-Risk est notamment utilise dans la rglementation prudentielle dfinie
dans le cadre des accords de Ble II. (cf. II/ Utilisation de la VaR)
Exemple 1 :
Un client utilise son compte courant pour effectuer des paiements: si la banque
autorise le client tre dcouvert, il y a risque de crdit.
Exemple 2 :
La banque ngocie sur le march des changes une vente terme d'euros contre
dollars avec une autre banque. A lchance, la banque acheteuse met son
paiement eu euros en direction de sa contrepartie. Elle sexpose au risque que la
banque mettrice ne paie pas les dollars.
Risques oprationnels
Le comit de Ble dfinit le risque oprationnel comme le "risque de pertes
provenant de processus internes inadquats ou dfaillants, de personnes et systmes
ou d'vnements externes". Cette dfinition recouvre les erreurs humaines, les
fraudes et malveillances, les dfaillances des systmes d'information, les problmes
lis la gestion du personnel, les litiges commerciaux, les accidents, incendies,
inondations, etc
Des dfaillances spectaculaires, comme celle de la Barings, ont attir l'attention des
autorits de tutelle sur la ncessit de doter les banques de mcanisme de
prvention et de couverture contre les risques oprationnels, via la constitution de
fonds propres ddis.
2.4
10
11
de
de
un
de
=
Cest la probabilit que le rsultat de la compagnie soit infrieur un certain montant
.
La probabilit de ruine dune compagnie est la probabilit que le capital initial
connu, soit absorb par un rsultat dficitaire, i.e.
12
= ( )
La VaR correspond au capital minimal ncessaire pour ne pas tre en ruine avec une
probabilit suprieure 1 .
= = | 1
Lien avec la rglementation europenne
Dans le prolongement de la rforme Ble II pour les banques, lUnion
Europenne a tabli un nouveau cadre rglementaire en matire de gestion des
risques pour les compagnies dassurance, baptis Solvency II. Par rapport la
directive Solvency I, cette rforme est beaucoup plus sensible aux risques rels
supports par la compagnie. Diffrents niveaux dadaptation sont possibles, jusquau
dveloppement de modles internes. Solvency II impose ainsi un vritable dispositif
de mesure et de supervision du risque.
Lun des piliers de cette rforme dtermine des exigences quantitatives
respecter, notamment sur lharmonisation des provisions et linstauration de minima
de fonds propres. Le Minimum de Solvabilit Requis est lune de ces exigences. Son
objectif est de renforcer les assurances contre la rptition de situations
exceptionnelles.
Plusieurs mthodes de calcul sont ltude :
Risk-Based Capital
Mthode factorielle, chaque type de risque est couvert par un montant de capital
donn.
Value-at-Risk
Montant de capital permettant davoir une probabilit de ruine infrieure 0,5% sur
une anne, en prenant compte de lensemble des risques encourus par lentit.
13
0,4
0,3
0,2
0,1
0
-0,15
-0,1
-0,05
0,05
0,1
0,15
4
3
2
1
0
-0,15
-0,1
-0,05
0,05
0,1
14
0,15
15
/ = 1 +
Les valeurs positives indiquent des profits et les valeurs ngatives indiquent des
pertes.
Exemple :
Dans le cas o lon ne reoit aucun paiement intermdiaire entre les dates t-1 et t :
Si le prix de lactif a augment :
> 1 donc 1 > 0
Les P&L sont gnralement exprims sous forme de rendements gomtriques, nots
, et dfinis par :
= ln
+
1
16
o .
= 1
17
Chapitre 2
I.
Estimation de la Value-at-Risk
Introduction
Dans cette partie, nous allons prsenter les diffrentes techniques destimation
de la Value-at-Risk. Ces diffrentes mthodes sont rparties en 3 catgories :
les mthodes destimation paramtriques
les mthodes destimation non paramtriques
les mthodes destimation semi-paramtriques
18
2.1
(H1) On suppose que la distribution des P&L la date est une distribution
normale desprance et de variance 2
~ , 2
On cherche donc la valeur de la VAR la date pour un taux de couverture de
telle que :
~ 0,1
= 1
= 1
o : - esprance de la distribution des P&L
- 2 variance de la distribution des P&L
19
20
=
=1
Lhypothse principale est donc que les distributions des rendements des actifs
qui composent le portefeuille suivent une loi normale, i.e.
~ ,
=
=1
=
=1
o :
= 1 , 2 , ,
= 1 , 2 , ,
, =
=
, =1
=
, =1
o :
le vecteur reprsente le poids des actifs dans le portefeuille
le vecteur reprsente lesprance des rendements des actifs du portefeuille
21
Dans le cas dun portefeuille dactifs corrls entre eux, la formule de calcul de
la VaR associe un taux de couverture de est la suivante :
= 1
=
1
2
o :
le vecteur reprsente le poids des actifs dans le portefeuille
le vecteur reprsente lesprance des rendements des actifs du
portefeuille
la matrice est la matrice de covariance des actifs du portefeuille
En pratique, on estime et sur les donnes.
22
2.3
Mthode RiskMetrics
=
La volatilit conditionnelle des rendements du portefeuille va tre une
combinaison linaire de linnovation passe et de la valeur passe de la volatilit :
= 1 + 1 1
Dans le cas dun portefeuille dactifs corrls entre eux, la VaR issue de
RiskMetrics dfinie pour un taux de couverture de peut scrire sous la forme :
1
2
o :
est estime partir de la formule = 1 + 1 1
paramtre de lissage (on fixe souvent = 0,97)
23
24
= 1, ,
=1,,
25
sont indpendants et
26
=1
, 100
On classe ensuite les valeurs des rendements par ordre croissant et on obtient alors
le graphe des fractiles de la distribution des rendements.
Pour obtenir la VaR, il suffit de prendre en abscisse le taux de couverture souhait
(par exemple 5%) et en ordonne on obtient le fractile correspondant i.e. la Value-atRisk pour le taux de couverture considr.
27
Fractiles AXA
0,25
0,2
0,15
0,1
0,05
0
-0,05
-0,1
-0,15
-0,2
-0,25
A laide du logiciel R
Script R
axa<-read.csv("C:/Users/Pauline/Desktop/PFE SVN/Fichiers de
donnes Excel/coursAXA.csv", header=TRUE, sep=";")
attach(axa)
#Reprsentation graphique du cours et des rendements du Nasdaq
du 22 juin 2004 au 20 juin 2006
plot(Cours,type="l",lwd=2,col="blue",xlab="Temps",ylab="Cours
de l'action AXA",main="Cours de l'action AXA \ndu 25/10/2007
au 23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
plot(Rendement,type="l",lwd=1.5,col="dark
magenta",xlab="Temps",ylab="Rendements de l'action
AXA",main="Rendements quotidiens AXA \ndu 25/10/2007 au
23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
28
#Test de normalit
qqnorm(Rendement,col="dark blue",xlab="Fractiles thoriques
d'une loi Normale",ylab="Fractiles empiriques",main="QQ Plot
des rendements\ndu cours de l'action
AXA",cex.main=0.8,cex.axis=0.8,cex.lab=0.8,pch=20)
shapiro.test(Rendement)
# Shapiro-Wilk normality test
#data: Rendement
#W = 0.9471, p-value = 1.55e-12
Sorties obtenues
29
31
Donnes :
date t
25/10/2007
26/10/2007
29/10/2007
30/10/2007
31/10/2007
01/11/2007
02/11/2007
05/11/2007
06/11/2007
07/11/2007
08/11/2007
09/11/2007
12/11/2007
13/11/2007
14/11/2007
15/11/2007
16/11/2007
19/11/2007
20/11/2007
21/11/2007
22/11/2007
23/11/2007
26/11/2007
27/11/2007
28/11/2007
29/11/2007
30/11/2007
14/10/2009
15/10/2009
16/10/2009
19/10/2009
20/10/2009
21/10/2009
22/10/2009
23/10/2009
valeur de
l'actif
30,17
29,96
30,35
30,45
30,86
30,37
30,04
29,52
29,25
28,83
28
27,2
27,52
27,58
28,19
27,57
27,14
26,28
26,46
25,68
25,33
26,42
25,88
26,58
27,29
27,4
27,93
19,49
19,715
19,2
19,5
19,475
19,045
18,525
18,44
rendement de l'actif
0,015364364
-0,006984895
0,012933359
0,003289477
0,013374853
-0,016005568
-0,010925452
-0,017461827
-0,009188426
-0,014463062
-0,029212001
-0,028987537
0,01169604
0,002177859
0,021876433
-0,02223908
-0,015719571
-0,032200461
0,006825965
-0,02992168
-0,013723015
0,042131835
-0,020650829
0,026688584
0,026361281
0,004022679
0,019158367
0,028097582
0,011478254
-0,026469488
0,015504187
-0,001282874
-0,022326992
-0,027683429
-0,004598953
32
Rendements
ordonns
-0,203500389
-0,140606455
-0,133914051
-0,114514778
-0,113309556
-0,113307885 = VAR(1%)
-0,106264266
-0,099116434
-0,096209865
-0,095802912
-0,09476866
-0,093372315
-0,088769817
-0,08761261
-0,086511502
-0,085157808
-0,081563107
-0,081319684
-0,080866964
-0,080461556
-0,077648267
-0,077142876
-0,076743335
-0,074753115
-0,073570193
-0,070793052 = VAR(5%)
-0,069851439
0,127392977
0,129299972
0,137792157
0,156309872
0,161480184
0,176197839
0,18223649
0,192679273
1
=
, 100
Plus la largeur de fentre est petite, plus les prvisions sont volatiles.
Plus la largeur de fentre est grande, plus les prvisions sont rigides. La VaR
prvue convergera vers la VaR non conditionnelle et tendra donc vers une valeur
constante dans le temps.
33
34
Cours du Nasdaq
1800
22/04/2006
22/02/2006
22/12/2005
22/10/2005
22/08/2005
22/06/2005
22/04/2005
22/02/2005
22/12/2004
22/10/2004
22/08/2004
22/06/2004
1700
Rendements
Prvisions de la VaR HS 5%
0
-0,01
-0,02
-0,03
Soit
=1
1
=
=1
avec pour = 1, ,
=1
, 100
Par ailleurs, on peut btir un intervalle de confiance pour la VaR pour un risque
donn :
1 = /2 , 1 /2
avec
/2 =
1 /2 =
=1
36
, 100 /2
=1
, 100 1 /2
37
38
1
1
,
2 ,
1
1
1
1
1
2
,
1
3
1
1
0 < < 1
2) On ordonne ensuite les rentabilits (et les pondrations qui leur sont
associes) dans lordre croissant.
39
1
=
=1
40
avec :
le noyau :
le paramtre de lissage
la taille de lchantillon
=1
On a donc :
Exemples de noyau :
1
Noyau naf
1 1;1
Noyau triangulaire
= 1 1 1;1
Noyau gaussien
Noyau dEpanechnikov
Noyau Triweight
35
1
2
32
2
2
1 2 1 1;1
1 2 3 1 1;1
41
Sorties obtenues :
42
Sorties obtenues :
43
Sorties obtenues :
44
= 1 , , =
Cependant, si on considre right-end point de F, i.e. le point tel que :
= | < 1
On remarque que :
=
> =
0 < 1
1 = 1
La loi de converge donc vers une loi dgnre (prenant seulement les valeurs 0
ou 1) lorsque n tend vers linfini.
Le principe de la thorie des valeurs extrmes va donc tre didentifier la famille de
loi vers laquelle va converger et destimer F par cette fonction, lorsque n tend
vers linfini.
On veut donc trouver les distributions limites telles que :
lim
45
non dgnre
iid.
lim
0
,
0
>0
=
1
,
,
0
>0
Type 3 : Gumbel
=
, et sont appeles les distributions standards de valeurs extrmes.
> 0, lim
Dans la pratique, la majorit des lois usuelles appartiennent lun des 3 MDA
de Gumbel, Frchet ou Weibull.
46
Exemple :
Les distributions exponentielles, Gamma et Log-normale appartiennent au MDA
Gumbel (distributions queues fines).
Les distributions de Pareto, Log-Gamma et de Student appartiennent au MDA
Frchet (distributions queues lourdes).
Les distributions uniformes appartiennent au MDA Weibull (distributions sans
queue).
= 1 +
0
47
= , >
On appelle right-end point de F, le point tel que : = | < 1
On cherche donc partir de la distribution F de X, dfinir une distribution
conditionnelle par rapport au seuil pour les variables alatoires dpassant ce
seuil. On dfinit alors la distribution conditionnelle des excs par :
= < | > =
+
1
pour 0
= < | > =
1
pour
48
Lobjectif de la mthode POT est de dterminer par quelle loi de probabilit il est
possible destimer cette distribution conditionnelle des excs.
Le thorme de Picklands, Balkema et Haan est le rsultat thorique central de la
thorie des valeurs extrmes :
Thorme : [Picklands, Balkema et Haan]
Si F appartient lun des 3 MDA de Gumbel, Frchet ou Weibull, alors il existe une
fonction de rpartition des excs au-del du seuil , note qui peut tre approche
par une loi de Pareto Gnralise (GPD) telle que :
lim ,
=0
1 1+
0
= 0
0; 0
0;
< 0
49
=1
1+
et donc :
= +
50
Chapitre 3
Limites de la Value-at-Risk
I. Introduction
La Value-at-Risk prsente lavantage indniable dtre simple interprter. Elle
permet dobtenir une vision globale du risque en lexprimant sous la forme dune
seule valeur, correspondant la perte maximale encourue.
Cependant, cette mesure de risque ne donne aucune information sur la svrit
de la perte, ou de la ruine dans le cas de son utilisation pour lvaluation du besoin en
fonds propres dune compagnie dassurance. Elle ne permet pas de connatre
lampleur des pertes extrmes au-del de la Value-at-Risk.
Ainsi, deux positions, que ce soit des portefeuilles dans le cas dune approche
bancaire, ou des centres de profit dans le cas dune approche assurance, peuvent
avoir la mme Value-at-Risk, et cependant des risques extrmes compltement
diffrents.
Cette mesure de risque peut donc entraner des agents prendre de mauvaises
dcisions dinvestissement ou prendre volontairement plus de risques.
51
Soient X et Y :
Les distributions de pertes et profits associes deux portefeuilles (approche
bancaire)
Les rsultats de deux centres de profit de socits dassurance (approche
assurance)
Soit . une mesure de risque sur un horizon donn,
Dans lapproche bancaire, reprsente le risque associ la possession du
portefeuille X pendant une certaine dure (souvent exprim en montant de
perte maximal).
Dans lapproche assurance, reprsente le besoin en fonds propres.
Cette mesure de risque est dite cohrente si elle satisfait les axiomes suivants :
i.
( + ) = ()
Sous-additivit :
+ +
Interprtation : Un portefeuille constitu de sous-portefeuilles ne doit pas tre plus
risqu que la somme des risques associs aux sous-portefeuilles. De mme en
assurance, la fusion de deux centres de profit ne cre pas de risque supplmentaire.
La diversification tend diminuer le risque global.
52
iii.
Homognit positive :
0
Monotonie :
Interprtation : Si les rsultats du centre de profit X sont toujours infrieurs ceux de
Y, le besoin en capital pour X doit tre suprieur celui de Y.
Laxiome de sous-additivit est le plus important.
En effet, si les risques sont sous-additifs, laddition des risques individuels donne une
sorte denveloppe ou borne suprieure des risques. Si ce nest pas le cas, lutilisation
du risque agrg comme indicateur de risque global peut entraner une sous
valuation de ce risque global.
53
2.2
Exemple :
Considrons lensemble des scnarios quiprobables suivants pour deux
portefeuilles X et Y.
Scnarios
X+Y
-5
27
26
53
37
34
71
16
-3
13
32
17
49
-19
-11
-30
-7
42
35
22
12
34
-13
-26
-39
10
-2
VaR 90%
13
11
30
NB : Dans cet exemple, les donnes correspondent des pertes ou profits et non
des rendements.
On a : 90% + 90% = 13 + 11 = 24 et 90% + = 30
Donc 90% + 90% 90% +
Lagrgation des 2 portefeuilles X et Y entrane une augmentation du risque .
54
Chapitre 4
Charpentier Arthur, Oulidi Abder : Beta kernel quantile estimators of heavy-tailed loss
distributions. Statistics and Computing, Volume 20, 35-55 (2009)
I.
Introduction
55
Pour chaque distribution, les performances des neuf estimateurs proposs ont
pu tre compares avec le critre de lerreur quadratique moyenne (MSE Mean
Squared Error) :
=1
o :
56
2.1
2.2
= 1
1
=
=1
3
1
4
numrique
2.3
=
=1
=
=1
+1
, +1
+1
+1 +1
+1 1
+1 1
o :
+1
, +1
2.4
, , =
=1
=1
=
=1
o :
58
1
+1
2.5
Lestimateur de Park est trs similaire lestimateur dHarrel-Davis car il sagit encore
dune somme pondre des statistiques dordre. Le noyau utilis est un noyau Bta
asymtrique.
,
=1
o :
,
est la fonction de rpartition de la distribution Bta de
=
+1
= +1
1
+1
Les 4 estimateurs restants ont t labors par Charpentier et Oulidi. Ils sont
construits partir des estimateurs noyau de la densit de la distribution, et utilisent
des noyaux Bta asymtriques.
Pour ces 4 estimateurs, il est ncessaire de transformer pralablement lchantillon
initial 1 , ,
afin dobtenir un chantillon transform 1 , , =
(1 ), , ( ) ayant une distribution proche de la distribution uniforme sur
lintervalle 0; 1 (cf. Annexe du chapitre 4 5.2 Simulation : Explication du code R
Distribution de Champernowne).
59
2.6
1
=
1 ; ;
0 < < 1
=1
o :
1 ; ; reprsente la fonction de densit de la distribution Bta de
paramtres et avec
+1
1
+1
1
+1
1
=
=1 0
1 ; ;
1 , , , = 1 (1 ), , ( ) ,
60
2.7
Le principe est le mme que pour lestimateur utilisant le noyau Bta1, cependant le
noyau Bta a t modifi afin de rduire le biais sur les bords. On utilise donc le
noyau suivant :
2 ; ; =
,
2, 1 2
0,2
1 2, 1
= 2 2 + 2.5 44 + 6 2 + 2.25 2
,
=
,
1
0 ,
61
0,1
62
=
2
Fonction de densit
2
Queue de distribution
fine
Symtrie de la distribution
symtrique
VaR(95%)
6,644854
63
64
1
2
Queue de distribution
Symtrie de la distribution
VaR(95%)
0; +
moyenne
asymtrique
2,276017
65
0,70
0,30
2
Fonction de densit
=
+
0; +
+ +1
2
Queue de distribution
paisse
Symtrie de la distribution
asymtrique
VaR(95%)
2,917
66
0,30
0,70
2
Fonction de densit
=
+
0; +
+ +1
2
Queue de distribution
paisse
Symtrie de la distribution
asymtrique
VaR(95%)
4,828
67
3.6
68
IV. Simulations
Le travail de ralisation a t ralis laide du logiciel R. Pour plus de dtails
concernant lexplication du code, se rfrer lannexe 5.2 du chapitre 4.
On rappelle ci-dessous le nom des diffrents estimateurs utiliss.
R : Quantile empirique suggr par le logiciel R
E : Quantile obtenu en inversant lestimateur noyau de la fonction de
rpartition obtenu avec le noyau dEpanechnikov
HD : Estimateur dHarrel-Davis
PDG : Estimateur de Padgett
PRK : Estimateur de Park
B1 : Estimateur utilisant le noyau Bta1
MACRO B1 : Estimateur MACRO-Bta de Gouriroux et Montfort (2006)
utilisant le noyau Bta1
B2 : Estimateur utilisant le noyau Bta2
MACRO B2 : Estimateur MACRO-Bta de Gouriroux et Montfort (2006)
utilisant le noyau Bta2
On prsente dans ce qui suit les rsultats obtenus pour chaque distribution tudie.
69
4.1
=
=1
Ecart-type
1 2
Type de la distribution
2
Distribution symtrique queue fine
VAR(95%)
6,644854
Densit
70
Rapport MSE
0.9657184
0.8751344
0.8640298
2.067519
0.752854
0.8831294
0.7008016
0.7539837
B2
71
=
= 0,5
Ecart-type
Densit
Type de la distribution
0; +
2
Distribution asymtrique queue moyenne
VAR(95%)
2,276017
72
Rapport MSE
0.9288698
0.9911004
0.995089
2.55509
0.911929
0.7464002
0.5906554
0.7471264
B2
73
= ,
=1
Paramtre dchelle
Type de la distribution
1
=
+
Distribution asymtrique queue fine
VAR(95%)
2,078111
Densit
74
Rapport MSE
0.8860268
0.9150579
0.909908
2.268103
0.8177963
0.8372592
0.7371448
0.7823687
B2
75
Moyenne
=0
Ecart-type
= 0,5
Densit
Type de la distribution
0,70
0,30
+ +1
0; +
2
Distribution asymtrique queue paisse
VAR(95%)
2,917
76
Rapport MSE
3.792388
1.435686
2.766881
4.126024
0.7621095
0.7570776
0.6684107
0.6098167
MACRO B2
77
Moyenne
=0
Ecart-type
= 0,5
Densit
Type de la distribution
0,30
0,70
+ +1
0; +
2
Distribution asymtrique queue paisse
VAR(95%)
4,828
78
Rapport MSE
1.214980
1.443129
1.742604
4.280306
0.6804064
1.313138
1.412731
1.031424
B1
79
4.6
Estimateur
E
HD
PDG
PRK
B1
MACB1
B2
MACB2
Meilleur
Conclusion finale
Normale
Lognormale
Weibull
0.9657184
0.8751344
0.8640298
2.067519
0.752854
0.8831294
0.7008016
0.7539837
B2
0.9288698
0.9911004
0.995089
2.55509
0.911929
0.7464002
0.5906554
0.7471264
B2
0.8860268
0.9150579
0.909908
2.268103
0.8177963
0.8372592
0.7371448
0.7823687
B2
30%Pareto
70% Lognormale
3.792388
1.435686
2.766881
4.126024
0.7621095
0.7570776
0.6684107
0.6098167
MACRO B2
70%Pareto
30% Lognormale
1.214980
1.443129
1.742604
4.280306
0.6804064
1.313138
1.412731
1.031424
B1
On peut voir que les estimateurs utilisant les noyaux Bta1 et Bta2 sont les
plus performants. Ils donnent de bons rsultats la fois pour les distributions
queues fines moyennes ou paisses. Dans tous les cas de figure, lestimateur de Park
est le moins performant. Le rapport de MSE pour cet estimateur varie entre
2,067519 et 4,280306. Par ailleurs, on peut remarquer que les estimateurs dHarrelDavis, Epanechnikov et Padgett donnent globalement de meilleurs rsultats sur les
distributions queues fines ou moyennes. Enfin, on peut galement remarquer que
les rsultats ne sont pas uniformment les mmes. On observe plus de diffrences
entre les estimateurs pour les distributions queues paisses : lintervalle de
variation des valeurs des estimateurs est beaucoup plus large pour les 2 distributions
queues paisses, savoir le mlange 70% Pareto/30% Log normale et le mlange
30% Pareto/70% Log normale.
Les conclusions que nous pouvons tirer de cette simulation rejoignent donc
celles mises dans larticle par Charpentier et Oulidi. Cependant, on observe des
divergences dans les rsultats concernant lestimateur de Padgett. En effet, cet article
montre que cet estimateur a de trs mauvaises performances pour les trois
catgories de distribution, avec un rapport de MSE atteignant 2.542 103 pour le
mlange 70% Pareto 30% Log normale, pour = 200 et = 0,95 (cf. Table 18 de
larticle), alors que dans notre tude, les rsultats sont bien meilleurs.
80
V. Annexes du chapitre 4
5.1 Description des 5 distributions : Explication du code R
Avant de commencer le travail de simulation proprement dit, nous allons tudier les
5 distributions considres. Ce script R permet pour chaque distribution de :
reprsenter graphiquement la fonction de densit
reprsenter graphiquement la fonction de rpartition
calculer le quantile dordre = 0,95 et le reprsenter sur le graphe de la
fonction de rpartition
Script R Calcul des densits, fonctions de rpartition et du quantile dordre 0.95
library(actuar)
x1<-seq(0,10,0.001)
x2<-seq(0,5,0.001)
x3<-seq(0.001,5,0.001)
x4<-seq(0.001,7,0.001)
#Normal distribution
d1<-dnorm(x1,mean=5,sd=1)
fdr1<-pnorm(x1,mean=5,sd=1)
q1<-qnorm(0.95,mean=5,sd=1) #6.644854
#Weibull distribution
d2<-dweibull(x2,shape=1.5,scale=1)
fdr2<-pweibull(x2,shape=1.5,scale=1)
q2<-qweibull(0.95,shape=1.5,scale=1) #2.078111
#Lognormal distribution
d3<-dlnorm(x3,meanlog=0,sdlog=0.5)
fdr3<-plnorm(x3,meanlog=0,sdlog=0.5)
q3<-qlnorm(0.95,meanlog=0,sdlog=0.5) #2.276017
#Mixture Pareto/lognormal
#30%-70%
d4<-0.7*dlnorm(x4,meanlog=0,sdlog=0.5)+0.3*dpareto(x4,shape=1.5,scale=1)
fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)
quantiles4<-cbind(x4,fdr4)
q4<-quantiles4[fdr4>0.95][1] #2.917
#70%-30%
d5<-0.3*dlnorm(x4,meanlog=0,sdlog=0.5)+0.7*dpareto(x4,shape=1.5,scale=1)
fdr5<-0.3*plnorm(x4,meanlog=0,sdlog=0.5)+0.7*ppareto(x4,shape=1.5,scale=1)
quantiles5<-cbind(x4,fdr5)
q5<-quantiles5[fdr5>0.95][1] #4.828
81
Script R - Graphiques
#Densits
plot(x1,d1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark
magenta", xlab="",ylab="Normal
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x2,d2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark
magenta",xlab="",ylab="Weibull
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x3,d3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark
magenta",xlab="",ylab="Lognormal
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x4,d4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal :
mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal
density",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x4,d5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal :
mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal
density",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
#Fonctions de rpartition
plot(x1,fdr1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark
magenta",xlab="",ylab="Normal cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q1,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x2,fdr2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark
magenta",xlab="",ylab="Weibull cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q2,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x3,fdr3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark
magenta",xlab="",ylab="Lognormal cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q3,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x4,fdr4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal
: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative
df",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q4,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x4,fdr5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal
: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative
df",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q5,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
82
Remarque : Pour les lois usuelles le logiciel R donne directement le quantile dordre
recherch.
Exemples :
Distribution normale
q1<-qnorm(0.95,mean=5,sd=1)
Distribution de Weibull
q2<-qweibull(0.95,shape=1.5,scale=1)
q3<-qlnorm(0.95,meanlog=0,sdlog=0.5)
inf
| 0,95
Exemple :
Mlange Pareto/ Log normale 30%/70%
fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)
quantiles4<-cbind(x4,fdr4)
q4<-quantiles4[fdr4>0.95][1]
83
84
85
,, =
+
+ + + 2
o > 0, 0 et > 0
La densit associe est dfinie par :
0
,,
+ 1 +
=
+ + + 2
1
+1
86
1/2
Algorithme de simulation
for(i in 1:2000)
{
#Normal distribution
BootX1<-rnorm(200,mean=5,sd=1)
#Estimation des paramtres de la fonction de Champernowne
#La fonction LChamp reprsente loppos de la log vraisemblance de la
distribution de Champernowne
#La fonction permet de trouver les paramtres a et C qui minimise cette
fonction et donc maximise la vraisemblance. Le vecteur c(1,1) correspond
aux valeurs initiales des paramtres dans lalgorithme de la fonction nlm.
est1<-nlm(LChamp,c(1,1),X=BootX1)
#Statistiques ordonnes
X1ord<-sort(BootX1,decreasing=FALSE)
#Empirical quantile
Q1[i]<-quantile(BootX1,0.95)
#E estimate
dens_ep1<-density(BootX1,kernel="epanechnikov")
FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)
FFEp1<-cbind(dens_ep1$x,FnEp1)
Q2[i]<-FFEp1[FnEp1>=0.95][1]
#HD estimate
for(j in 1:200){B[j]<-(integrate(Beta,(j-1)/200,j/200))$value}
Q3[i]<-t(B) %*% X1ord
#PDG Padgett
for(j in 1:200)
{
K1[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,
mean=0,sd=1)
K2[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,
mean=0,sd=1)
}
Q4[i]<-t(K1) %*% X1ord
#PRK Park
for(j in 1:200)
{BPark[j]<-pbeta(j/200,((j/200)/b)+1,((1-(j/200))/b)+1)-pbeta((j-1)/200,
(((j-1)/200)/b)+1,((1-((j-1)/200))/b)+1)}
Q5[i]<-t(BPark) %*% X1ord
#Transformation de l'chantillon
Y1<-pchampernowne(BootX1,est1$estimate[1],median(BootX1),est1$estimate[2])
#Inverse de la fonction de Champernowne
xx<-seq(0,50,0.005)
Yref1<-pchampernowne(xx,est1$estimate[1],median(BootX1),est1$estimate[2])
InvChamp1<-cbind(xx,Yref1)
87
#Beta1 B1
for(d in 1:999)
{x<-d/1000
densNoyauBeta1[d]<-1/200*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}
YY<-seq(0.001,0.999,0.001)
for(m in 1:999) {FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest6[i]<-FFB1[FB1>=0.95][1]
Q6[i]<-InvChamp1[Yref1>=Qest6[i]][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999) {FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest7[i]<-FFBMACRO1[FBMACRO1>=0.95][1]
Q7[i]<-InvChamp1[Yref1>=Qest7[i]][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,(1-x)
/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999) {FBBis1[m]<-sum(densNoyauBetaBis1[1:m])}
FFB1<-cbind(YY,FBBis1)
Qest8[i]<-FFB1[FBBis1>=0.95][1]
Q8[i]<-InvChamp1[Yref1>=Qest8[i]][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1)}
for(m in 1:999){FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest9[i]<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q9[i]<-InvChamp1[Yref1>=Qest9[i]][1]
}
88
89
Chapitre 5
I.
91
92
93
94
1.2
95
96
Le quantile dordre 0,95 de la distribution des log montants est denviron 2,3.
Dans ce qui suit, on se propose destimer les quantiles dordre 0,95 de ces deux
distributions laide des neuf estimateurs que nous avons tudis dans le chapitre
prcdent.
97
II.
Rsultats obtenus
2.1
Variable Montant
Le tableau ci-dessous regroupe les valeurs des diffrents estimateurs de la VaR 95%
pour la distribution des montants.
Estimateur
R
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2
VaR(95%)
9,972647
10,09040
9,837975
9,836038
10,69525
9
9,845
10,24
9,625
MSE
0,01386577
0,01813655
0,01866202
0,5221551
0,94604219
0,01629376
0,07147763
0,12085844
98
2.2
Variable log(Montant)
Le tableau ci-dessous regroupe les valeurs des diffrents estimateurs de la VaR 95%
pour la distribution des log montants.
Estimateur
R
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2
VaR(95%)
2,299829
2,276961
2,282039
2,281806
2,369797
2,32
2,32
2,41
2,275
MSE
0,000522945
0,000316484
0,000324829
0,004895521
0,000406869
0,000406869
0,012137649
0,000616479
99
III.
Annexes du chapitre 5
2167
1.000
1.321
1.778
3.385
2.967
263.300
8.507452
482.198
18.73685
#LLoss
length(LLoss)
summary(LLoss)
sd(LLoss)
kurtosis(LLoss)
skewness(LLoss)
#Results
#Length
#Min.
#1st Qu.
#Median
#Mean
#3rd Qu.
#Max.
#Sd
#Kurtosis
#Skewness
2167
0.000
0.2785
0.5756
0.7870
1.0880
5.5730
0.7167199
4.179029
1.761092
100
Graphiques
#Plots
#Loss
TSLoss<-ts(Loss,start=1980,frequency=205) #Environ 17 obs par mois donc
205 par an
plot(TSLoss,type="h",col="dark blue",main="Srie temporelle des montants
de 2167 sinistres incendie\n(1980-1990)",xlab="Temps",ylab="Montants en
Millions de DK")
Fn<-ecdf(Loss)
plot(Fn,main="Fonction de rpartition des montants des sinistres
incendie",xlab="Montants en Millions de DK",ylab="Fonction de rpartition
des montants",col="dark blue",pch="",lwd=3)
plot(Fn,main="Fonction de rpartition des montants des sinistres
incendie",xlab="Montants en Millions de DK",ylab="Fonction de rpartition
des montants",xlim=c(0,50),col="dark blue",pch="",lwd=3)
abline(h=0.95,col="red",lty=3,lwd=2)
abline(v=quantile(Loss,0.95),col="red",lty=3,lwd=2)
#Boxplot + hist
xhist<-hist(Loss,nclass=40,plot=FALSE)
top <- max(c(xhist$counts))
nf <- layout(c(2,1),c(2,2),TRUE)
par(mar=c(5,2,1,1))
boxplot(Loss,col="light blue",xlab="Montants en Millions de
DK",horizontal=TRUE)
par(mar=c(0,2,4,1))
barplot(xhist$counts, ylim=c(0, top), space=0,col="light
green",main="Variable Montant des sinistres incendie\nHistogramme et bote
moustaches")
#LLoss
LLoss<-log(Loss)
plot(ecdf(LLoss),main="Fonction de rpartition des log montants\nDanish
Data",xlab="log(Montants)",ylab="Fonction de rpartition des log
montants",col="dark blue",pch="",lwd=3)
abline(h=0.95,col="red",lty=3,lwd=2)
abline(v=quantile(LLoss,0.95),col="red",lty=3,lwd=2)
#Boxplot + hist
xhist<-hist(LLoss,nclass=30,plot=FALSE)
top <- max(c(xhist$counts))
nf <- layout(c(2,1),c(4,1),TRUE)
par(mar=c(5,2,1,1))
boxplot(LLoss,col="light blue",xlab="log Montants en Millions de
DK",horizontal=TRUE)
par(mar=c(0,2,5,1))
barplot(xhist$counts, ylim=c(0, top), space=0,col="light
green",main="Variable log Montant des sinistres incendie\nHistogramme et
bote moustaches")
101
102
{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]
Q13<-InvChamp1[Yref1>=Qest13][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1x)/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999)
{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }
FFB1<-cbind(YY,FBBis1)
Qest15<-FFB1[FBBis1>=0.95][1]
Q15<-InvChamp1[Yref1>=Qest15][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }
for(m in 1:999)
{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q17<-InvChamp1[Yref1>=Qest17][1]
#Q1
#Q3
#Q5
#Q7
#Q9
#Q11
#Q13
#Q15
#Q17
9.972647
10.09040
9.837975
9.836038
10.69525
9
9.845
10.24
9.625
104
YY<-seq(0.001,0.999,0.001)
for(m in 1:999)
{FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest11<-FFB1[FB1>=0.95][1]
Q11<-InvChamp1[Yref1>=Qest11][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999)
{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]
Q13<-InvChamp1[Yref1>=Qest13][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1x)/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999)
{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }
FFB1<-cbind(YY,FBBis1)
Qest15<-FFB1[FBBis1>=0.95][1]
Q15<-InvChamp1[Yref1>=Qest15][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }
for(m in 1:999)
{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q17<-InvChamp1[Yref1>=Qest17][1]
#Q1
#Q3
#Q5
#Q7
#Q9
#Q11
#Q13
#Q15
#Q17
2.299829
2.276961
2.282039
2.281806
2.369797
2.32
2.32
2.41
2.275
106
Chapitre 6
I.
Principe
1.3
2
+
2
o
est estim par la moyenne empirique de la distribution de lactif
est estim par lcart-type empirique de la distribution de lactif
suit une loi normale 0,1
107
1.4
Algorithme de simulation
Supposons quon veuille dterminer la VaR 95% sur une dure de 5 jours dun
portefeuille donn. Lalgorithme est alors le suivant:
1. Valoriser le portefeuille la date t=0, 0
2. Gnrer une trajectoire des diffrents actifs composants le portefeuille la
date = 5 ,
3. Rvaluer le portefeuille la date = 5 , 5 . On obtient ainsi :
= 5 0 .
4. Rpter les tapes 2 et 3 autant de fois que souhait.
Si on ralise par exemple 10 000 simulations, la VaR 95% est la 500me plus faible
valeur de .
Travail prliminaire
=
1
1
On obtient ainsi 2 distributions de rendements :
108
et 2
Soient :
1 la moyenne empirique de la distribution 1
2 la moyenne empirique de la distribution 2
1 lcart-type empirique de la distribution 1
2 lcart-type empirique de la distribution 2
et 2
1 + 2
2
1 2 + 2 2 + 212 1 2
2
Les valeurs numriques obtenues partir des donnes sont regroupes dans les deux
tableaux ci-dessous :
Coefficient de corrlation
SP500
Paramtres
Moyenne
Ecart-type
DJ
0,00031
0,01080
DJ
0,962
SP500
0,00031
0,01078
Portefeuille
0,0003
0,0107
109
2.2
2
+
2
=1,,1000
2
42 + 42
2
110
-13,93%
=1,,1000
=1,,42
2) Pour chaque trajectoire (i.e. pour fix), on calcule de proche en proche les
2
1 + 1
2
avec : 0 = 1 = 1, ,1000
42 rendement du portefeuille dans 2 mois pour la me trajectoire
3) Pour = 1, ,1000 on calcule la variation du rendement du portefeuille :
= 42 0 = 42 1
111
-13,78%
1,15
1,1
1,05
0,95
0,9
0,85
0,8
P0
P2
P4
P6
P8 P10 P12 P14 P16 P18 P20 P22 P24 P26 P28 P30 P32 P34 P36 P38 P40 P42
Cependant, on remarque quon obtient des valeurs trs proches pour la VaR :
-13,93% pour la simulation directe
-13,78% pour la simulation de proche en proche
Il est donc plus intressant dutiliser la 1re mthode, beaucoup moins coteuse en
calculs.
112
Chapitre 7
I.
Donnes
Compagnie
ALCOA INC.
AMERICAN EXPRESS CO.
BOEING CO.
CITIGROUP INC.
CATERPILLAR INC.
DUPONT E I DE NEMOURS CO.
DISNEY CO WALT HLDG CO.
EASTMAN KODAK CO.
GENERAL ELECTRIC CO.
GENERAL MOTORS CORP.
HOME DEPOT INC.
HONEYWELL INTERNATIONAL.
HEWLETT-PACKARD CO.
INTERNATIONAL BUSINESS MACHINES CO.
INTEL CO.
INTERNATIONAL PAPER CO.
JOHNSON & JOHNSON.
JP MORGAN CHASE AND CO.
COCA COLA CO.
MCDONALDS CORP.
3M COMPANY.
ALTRIA GROUP INC.
MERCK & CO INC.
MiCROSOFT CORPORATION.
PROCTER & GAMBLE CO.
SBC COMMUNICATIONS INC.
AT & T CORP.
UNITED TECHNOLOGIES CORP.
WAL-MART STORES INC.
EXXON MOBIL CORP.
113
Le second jeu de donnes est compos des taux de change entre 5 devises :
o Japan Yen (JPY)
o Euro (EUR)
o US dollar (USD)
o Franc Suisse (CHF)
o La Livre Sterling (GBP)
Les donnes couvrent la priode du 3 janvier 2000 au 22 aot 2003.
On considre 4 taux de change explicits dans le tableau ci-dessous :
Nom de variable
EURUSD
USDJPY
USDCHF
GBPUSD
Taux de change
EUR sur USD
USD sur JPY
USD sur CHF
GBP sur USD
Exemple au 17-02-2008
1 EUR = 1,3773 USD
1 USD = 90,6207522 JPY
1 USD = 1,06610035 CHF
1 GBP = 1,5771 USD
Les 4 graphiques ci-aprs dcrivent lvolution de ces 4 taux de change sur la priode
du 3 janvier 2000 au 22 aot 2003.
114
115
II. Fonctions
Deux fonctions permettent ensuite de donner une estimation de la VaR et lExpected
Shortfall pour une srie de donnes prsentant un risque. LExpected Shortfall
correspond la perte moyenne en cas de dpassement de la VaR.
= | > = + | >
2.1
Fonction VaR.gpd
Arguments
ydat
p
p.tr
init
116
2.2
Fonction VaR.norm
Cette fonction estime la VaR pour un facteur de risque unique laide dune
approximation lognormale. Il existe 2 expressions de la VaR ainsi calcule, suivant
quelle soit de type court ou long :
= 1 +
= 1
Utilisation de la fonction
VaR.norm( ydat , p=0.99 , dt=1 , type="long" , drift.appx=FALSE ,
lin.appx=TRUE )
Arguments
ydat
p
dt
type
lin.appx
117
Exemple
#VaR GPD et lognorm pour les 4 taux de change
z1<-VaR.gpd(USDJPY[!is.na(USDJPY)])
z2<-VaR.norm(USDJPY[!is.na(USDJPY)])
z1$VaR
z2$VaR
z1$VaR.interval
z1$ES
z1$ES.interval
x1<-VaR.gpd(EURUSD[!is.na(EURUSD)])
x2<-VaR.norm(EURUSD[!is.na(EURUSD)])
x1$VaR
x2$VaR
x1$VaR.interval
x1$ES
x1$ES.interval
y1<-VaR.gpd(USDCHF[!is.na(USDCHF)])
y2<-VaR.norm(USDCHF[!is.na(USDCHF)])
y1$VaR
y2$VaR
y1$VaR.interval
y1$ES
y1$ES.interval
s1<-VaR.gpd(GPDUSD[!is.na(GPDUSD)])
s2<-VaR.norm(GPDUSD[!is.na(GPDUSD)])
s1$VaR
s2$VaR
s1$VaR.interval
s1$ES
s1$ES.interval
Rsultats obtenus
Fonction
utilise
Taux de
change
USD/JPY
EUR/USD
USD/CHF
GBP/USD
VaR.gpd
VaR.norm
VaR
ES
IC VaR
IC ES
VaR
1,636566
1,609425
1,619008
1,262735
2,112686
1,866881
1,917267
1,437066
1,485; 1,882
1,516 ; 1,760
1,518 ; 1,785
1,201 ; 1,369
1,343 ; 1,600
1,709 ; 2,121
1,734 ; 2,219
1,343 ; 1,600
1,674734
0,0167368
0,02180417
0,01844153
2.3
Fonction VaR.backtest
Arguments
x
VaR
p
Vecteur dobservations
Estimation de la VaR pour un niveau de confiance p
Niveau de confiance utilis pour lestimation de la VaR
Exemple
i<-EURUSD[!is.na(EURUSD)]
i1<-VaR.gpd(i)
i2<-VaR.norm(i)
i1$VaR
i2$VaR
i1$VaR.interval
i1$ES
i1$ES.interval
VaR.backtest(i,i1$VaR,p=0.01)
VaR.backtest(i,i2$VaR,p=0.01)
119
Bibliographie
120