Você está na página 1de 120

Pauline REQUENA

GM5

Rapport de PFE
Etude des mthodes destimation
de la Value-at-Risk

A lattention de M. Bruno PORTIER

2009
2010

SOMMAIRE
CHAPITRE 1
I.
II.

PRESENTATION DE LA VALUE-AT-RISK

INTRODUCTION

PRESENTATION GENERALE
2.1 DEFINITION GENERALE
2.2 UTILISATION DE LA VAR
2.3 TYPES DE RISQUES MESURES PAR LA VAR
2.4 COMMENT ADAPTER LA VAR EN ASSURANCE ?
2.4.1. Rsum du principe de fonctionnement dune socit dassurance
2.4.2. Adaptation de la VaR en assurance
2.4.3. Utilisation de la VaR dans dans le calcul du besoin en fonds propres

III.
DEFINITION PROBABILISTE DE LA VALUE-AT-RISK
3.1 DEFINITION DE LA VAR
3.1.1. Distribution des profits et pertes (P&L)
3.1.2. Dfinition probabiliste de la VaR

3.2

COMMENT ESTIMER LA VALUE-AT-RISK ?

CHAPITRE 2
I.
II.

ESTIMATION DE LA VALUE-AT-RISK

III.
ESTIMATION NON PARAMETRIQUE
3.1 SIMULATION HISTORIQUE (HS HISTORICAL SIMULATION)
3.1.1. Principe et dfinition
3.1.2. Exemple dutilisation : Cours de clture AXA du 25/10/2007 au 23/10/2009
3.1.3. Limites de la Simulation Historique
3.1.4. Prvision de la VaR selon la mthode de Simulation Historique
3.1.5. Exemple de prvision de la VaR HS

METHODE BOOTSTRAP DE SIMULATION HISTORIQUE


WEIGHED HISTORICAL SIMULATION (WHS)

3.3.1. Les diffrentes pondrations possibles


3.3.2. Aged-weighted HS ou Mthode Hybride

IV.

9
11
12

14
14
16
17

18
18

ESTIMATION PARAMETRIQUE
2.1 PRELIMINAIRES : APPROCHE UNIVARIEE
2.2 APPROCHE VARIANCE COVARIANCE
2.3 METHODE RISKMETRICS
2.4 AVANTAGES ET LIMITES DES METHODES DESTIMATION PARAMETRIQUES

3.4

5
5
6
7
9

17

INTRODUCTION

3.2
3.3

SIMULATION HISTORIQUE ET SIMULATION PARAMETRIQUE DE LA DENSITE

18
19
21
23
24
25
25
25
27
33
33
35

36
38
38
39

40

3.4.1. Principe et dfinition


3.4.2. Exemple dapplication sous R

40
42

ESTIMATION SEMI-PARAMETRIQUE

45
2

4.1

THEORIE DES VALEURS EXTREMES

45

4.1.1. Cadre danalyse


4.1.2. Thorme limite de Fisher-Tippett
4.1.3. Mthode des excs et distribution de Pareto gnralise

CHAPITRE 3
I.
II.

INTRODUCTION

II.

51
51

LA VALUE-AT-RISK, UNE MESURE DE RISQUE COHERENTE ?


2.1 DEFINITION DUNE MESURE DE RISQUE COHERENTE
2.2 NON SOUS-ADDITIVITE DE LA VALUE-AT-RISK

CHAPITRE 4
I.

LIMITES DE LA VALUE-AT-RISK

45
46
48

ETUDE DUN ARTICLE DE RECHERCHE

INTRODUCTION

52
52
54
55
55

DESCRIPTION DES ESTIMATEURS ETUDIES


2.1 QUANTILE EMPIRIQUE (R)
2.2 ESTIMATEUR DE QUANTILE EPANECHNIKOV (E)
2.3 ESTIMATEUR DHARREL-DAVIS (HD)
2.4 ESTIMATEUR DE PADGETT (PDG)
2.5 ESTIMATEUR DE PARK (PRK)
2.6 ESTIMATEUR UTILISANT LE NOYAU BETA1 (B1)
2.7 ESTIMATEUR UTILISANT LE NOYAU MODIFIE BETA2 (B2)
2.8 ESTIMATEUR MACRO-BETA DE GOURIEROUX ET MONTFORT (2006) UTILISANT LES NOYAUX
BETA1 ET BETA2 (MACRO B1 ET MACRO B2)

57
57
57
57
58
59
60
61
61

III.
ETUDE DES 5 DISTRIBUTIONS UTILISEES POUR LA SIMULATION
3.1 ETUDE LA DISTRIBUTION NORMALE
3.2 ETUDE LA DISTRIBUTION DE WEIBULL
3.3 ETUDE DE LA DISTRIBUTION LOGNORMALE
3.4 ETUDE DE LA DISTRIBUTION 30% PARETO ET 70% LOGNORMALE
3.5 ETUDE DE LA DISTRIBUTION 70% PARETO ET 30% LOGNORMALE
3.6 FONCTIONS DE DENSITE ET DE REPARTITION DES 5 DISTRIBUTIONS

62
63
64
65
66
67
68

IV.
SIMULATIONS
4.1 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION NORMALE
4.2 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION LOGNORMALE
4.3 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION DE WEIBULL
4.4 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 30% PARETO 70% LOGNORMALE
4.5 ESTIMATION DE LA VAR DANS LE CAS DE LA DISTRIBUTION 70% PARETO 30% LOG NORMALE
4.6 CONCLUSION FINALE

69
70
72
74
76
78
80

V. ANNEXES DU CHAPITRE 4
5.1 DESCRIPTION DES 5 DISTRIBUTIONS : EXPLICATION DU CODE R

81
81

5.2

SIMULATIONS : EXPLICATION DU CODE R

84

Distribution de Champernowne
Largeur de fentre

CHAPITRE 5

86
86

ESTIMATION DE LA VAR SUR DES DONNEES REELLES

90

I.

ETUDE DESCRIPTIVE DES DONNEES


1.1 ETUDE DE LA VARIABLE MONTANT
1.2 ETUDE DE LA VARIABLE LOG(MONTANT)

90
90
95

II.

RESULTATS OBTENUS
2.1 VARIABLE MONTANT
2.2 VARIABLE LOG(MONTANT)

98
98
99

III.

ANNEXES DU CHAPITRE 5

CHAPITRE 6

100

LA VAR MONTE CARLO

107

I.

PRINCIPE
1.3 QUEL MODELE UTILISER ?
1.4 ALGORITHME DE SIMULATION

107
107
108

II.

EXEMPLE DAPPLICATION
2.1 TRAVAIL PRELIMINAIRE
2.2 SIMULATION DES TRAJECTOIRES

108
108
110

2.2.1. Algorithme pour =


2.2.2. Algorithme pour =

110
111

CHAPITRE 7
I.
II.

ETUDE DU PACKAGE VAR DU LOGICIEL R

DONNEES

113
113

FONCTIONS
2.1 FONCTION VAR.GPD
2.2 FONCTION VAR.NORM
2.3 FONCTION VAR.BACKTEST

116
116
117
119

BIBLIOGRAPHIE

120

Chapitre 1

Prsentation de la Value-at-Risk

I. Introduction
Apparue pour la premire fois la fin des annes 80 dans le domaine de
lassurance, la Value-at-Risk (VaR) est devenue en moins dune dizaine dannes, une
mesure de rfrence du risque sur les marchs financiers. Cest la banque JP Morgan,
qui a popularis ce concept avec son systme RiskMetrics implment en 1994. La
Value-at-Risk est notamment utilise dans la rglementation prudentielle dfinie
dans le cadre des accords de Ble II. (cf. II/ Utilisation de la VaR)

II. Prsentation gnrale


2.1 Dfinition gnrale
La Value-at-Risk correspond au montant des pertes qui ne devraient pas tre
dpasses pour un niveau de confiance donn sur un horizon temporel donn. Le
niveau de confiance choisi est en gnral de 95 ou 99%.
Considrons :
un seuil de risque de % , quivalent un seuil de confiance de 1 %
un horizon temporel N
La VaR permet de rpondre laffirmation suivante :
Nous sommes certains, 1 %, que nous n'allons pas perdre plus de V euros
sur les N prochains jours .
La valeur V correspond la VaR.
Il sagit donc de la perte maximale potentielle qui ne devrait tre atteinte quavec
une probabilit donne (ou un risque donn) sur un horizon temporel donn.
Exemple :
Si une banque annonce une VaR quotidienne de 1 million deuros sur son
portefeuille pour un niveau de confiance de 99%, cela implique quil y a seulement
une chance sur 100, sous des conditions normales de march, que la perte associe
la dtention de ce portefeuille sur une journe excde 1 million deuros.
Autrement dit :
La VaR au seuil de confiance de 99% 1 jour, que l'on notera, VaR (99%, 1j), gale
1 million d'euros signifie qu'un jour sur cent en moyenne, le portefeuille est
susceptible d'enregistrer une perte suprieure cette somme de 1 million d'euros.

2.2 Utilisation de la VaR


La VaR est utilise aussi bien par les institutions financires et les rgulateurs
que par les entreprises non financires. Les institutions financires ont t les
premires utiliser cet outil. En effet, la diversification des risques financiers, la
complexit des nouveaux instruments financiers et lvolution de la rgulation ont
pouss les institutions financires mettre en place des systmes centraliss de
surveillance et de management des risques. De leur ct, les rglementations doivent
valuer ces risques financiers afin dimposer aux institutions financires un niveau
minimal de capitaux disponibles. Par ailleurs, le management centralis des risques
est utile toute entreprise expose des risques financiers. Les entreprises non
financires, comme les multinationales par exemple, utilisent quant elles la VaR
pour se prmunir contre le risque de change.
La VaR peut donc tre utilise :
de faon passive : reporting des risques
Lobjectif est de mesurer un risque agrg (1re utilisation par la banque JP Morgan).
Cest une mesure du risque simple interprter car elle sexprime sous forme dun
montant maximal de perte, et elle permet de synthtiser en une seule mesure une
apprciation sur le risque global.
de faon dfensive : contrle des risques
Lobjectif est de dterminer des positions limites ne pas dpasser, qui seront
imposes aux traders ou aux business units. Au-del de ces limites, il nest plus
possible de prendre une position sans lautorisation dun responsable risque. Cette
mthode vise limiter la prise de risque au-del dune limite acceptable.
Pour tre pertinent, le contrle des risques doit tre global. Les dveloppements
informatiques associs, sont donc des applications dites transverses , souvent
complexes, regroupant des informations en provenance de tous les centres
d'activits.
de faon active : management des risques
La VaR est utilise dans lallocation du capital entre les tradeurs, les business lines, les
produits et ou les institutions.

Exemple 1 : Rglementation prudentielle Ble II et capital rglementaire


La rglementation Ble II autorise les banques dterminer leur capital ncessaire
pour rpondre au risque de march par un modle interne utilisant la VaR(99%,
10j). Le capital rglementaire exig vaut gnralement 3 fois la VaR(99%, 10j).

Exemple 2 : problme dallocation des fonds propres


Il sagit, pour le dirigeant dentreprise, dvaluer dabord le montant de fonds
propres ncessaire pour couvrir lactivit globale (notamment pour viter la faillite)
et ensuite de trouver une cl de rpartition de ces ressources entre les diffrentes
branches qui composent cette activit. Cette cl doit associer des exigences de
rendement et de matrise du risque tout en restant comprhensible et justifie en
interne.

2.3 Types de risques mesurs par la VaR


La Value-at-Risk permet de mesurer diffrents risques, sur diffrents marchs
(march des changes, march financier, march des produits drivs), et pour
diffrents actifs risque (change, actions, obligations, options, etc)
Lobjectif de la VaR est de fournir une mesure du risque total de portefeuille.
Par consquent, la VaR doit tenir compte des effets de levier et de diversification.
En effet, la diversification d'un portefeuille de titres ou d'actifs permet en
variant les types de placements, soit de rduire le risque pour un niveau de
rentabilit donn, soit d'amliorer la rentabilit pour un niveau de risque donn.
Pour un groupe la diversification permet de rduire le risque de volatilit des
rsultats.
La VaR mesure donc diffrents risques financiers, gnralement classs en
quatre grandes catgories :
Risques de march
Il sagit du risque de perte li lvolution des niveaux ou la volatilit des prix du
march. Les diffrents facteurs de risques lis au march sont les taux, les cours de
change, les cours des actions et les prix des matires premires. Toute variation de
ces donnes a un impact sur les positions et les portefeuilles dtenus par la salle. Il
sagit du principal champ dutilisation de la VaR.
Risques de liquidit
Il est compos du risque de liquidit dactifs (asset liquidity risk) et du risque de
liquidit de financement (cash flow risk).
LAsset Liquidity Risk est le risque de ne pouvoir vendre son prix un titre financier. Il
peut se traduire, soit par une impossibilit effective de le vendre, soit par une dcote.
Le Cash Flow Risk est li au fait que les banques reoivent majoritairement des
dpts court terme de leurs clients et font des prts moyen et long terme. Il peut
donc se crer un dcalage entre les sommes prtes et les sommes disponibles, car

ces dernires peuvent tre insuffisantes. Dans ce cas on parle de manque de


liquidits.
Risques de crdit
Il rsulte de l'incertitude quant la possibilit ou la volont des contreparties ou des
clients de remplir leurs obligations. Il existe un risque pour une banque, ds quelle se
met en situation dattendre une entre de fonds de la part dun client ou dune
contrepartie du march.

Exemple 1 :
Un client utilise son compte courant pour effectuer des paiements: si la banque
autorise le client tre dcouvert, il y a risque de crdit.
Exemple 2 :
La banque ngocie sur le march des changes une vente terme d'euros contre
dollars avec une autre banque. A lchance, la banque acheteuse met son
paiement eu euros en direction de sa contrepartie. Elle sexpose au risque que la
banque mettrice ne paie pas les dollars.

Risques oprationnels
Le comit de Ble dfinit le risque oprationnel comme le "risque de pertes
provenant de processus internes inadquats ou dfaillants, de personnes et systmes
ou d'vnements externes". Cette dfinition recouvre les erreurs humaines, les
fraudes et malveillances, les dfaillances des systmes d'information, les problmes
lis la gestion du personnel, les litiges commerciaux, les accidents, incendies,
inondations, etc
Des dfaillances spectaculaires, comme celle de la Barings, ont attir l'attention des
autorits de tutelle sur la ncessit de doter les banques de mcanisme de
prvention et de couverture contre les risques oprationnels, via la constitution de
fonds propres ddis.

2.4

Comment adapter la VaR en assurance ?

Nous avons vu que la Value-at-Risk a t cre historiquement au sein de


banques dinvestissement pour contrler le risque du march. Comme ce sont en
effet les oprations de trading qui gnrent la majeure partie du risque de march
dune banque, la VaR est utilise pour mesurer le risque des positions prises par les
grants de portefeuille. Ces positions changent frquemment et peuvent tre
libres rapidement. Par consquent, les banques valuent leur risque de march
pour des horizons courts. En pratique, la VaR est donc estime pour une journe ou
quelques jours. La mthodologie de calcul de la VaR a t tudie pour le secteur
bancaire, et elle nest pas directement applicable dans le secteur de lassurance.

2.4.1. Rsum du principe de fonctionnement dune socit dassurance


Contre le versement dune somme appele prime, une socit, soit une
mutuelle, soit une socit de capitaux, sengage procder une indemnisation en
cas de ralisation dun sinistre. Le risque couvert est donc transfr entirement ou
en partie de lassur lassureur. La socit dassurance peut se permettre dassumer
le risque dans la mesure o elle procde une addition de nombreux risques
similaires, cohrents et non corrls entre eux. Lassureur bnficie donc dun effet
de mutualisation des risques, qui est la base mme de lactivit dassurance.
Etant donn que les primes sont verses avant la ralisation du sinistre,
lassureur est en trsorerie positive. La compagnie dassurance dispose donc de fonds
qui doivent tre placs plus ou moins longue chance sur les marchs financiers,
afin de bnficier dun rendement intressant. La compagnie dassurance doit
cependant sassurer quelle dispose dune certaine liquidit pour faire face au
paiement des sinistres.
Les pouvoirs publics ont prouv le besoin de rguler ce secteur et dassurer
une supervision prudentielle. Toutes ces rgles sont rassembles dans le Code des
Assurances. Le but de cette supervision est de permettre la compagnie dassurance
de respecter ses engagements lgard des assurs.

Lun des grands principes de la supervision concerne la qualit des actifs :


Rgle de cumul
Une socit dassurance doit limiter la part de chaque type de titres dans son
portefeuille (ex : actions, obligations, placements immobiliers).
Rgle de dispersion
Une socit dassurance ne doit pas sexposer un seul metteur. Elle ne doit pas
possder plus de 5% de titres dun mme metteur.
Rgle de congruence
Une socit dassurance doit limiter le risque de change en tablissant un lien entre
les placements et les engagements en devise.

10

2.4.2. Adaptation de la VaR en assurance


Lobjectif de la gestion financire en assurance est donc loptimisation du
portefeuille, via le couple rendement/risque, tout en respectant les contraintes
rglementaires et les engagements lgard des assurs et des actionnaires. Les
socits dassurance dfinissent donc une politique dinvestissement prudente et
long terme.
Une socit dassurance achte donc des actifs financiers qui garantissent un
rendement long terme lui permettant de respecter ses engagements envers ses
assurs et ses actionnaires. Son but nest pas de spculer. Le portefeuille dune
socit dassurance est par consquent beaucoup plus stable dans le temps que celui
dune institution financire.
Nanmoins, les assureurs doivent obtenir un rendement plus court terme de
leur portefeuille dactifs tout en matrisant son risque. Cela impacte aussi la politique
financire court et long terme. Notamment, le risque de march doit tre valu
conformment au timing de reporting financier, gnralement trimestriel et annuel.
Cette valuation du risque de march peut tre utilise comme un indicateur de la
solvabilit de lentreprise face de brutales volutions du march, et permettre de
fixer le montant des fonds propres annuels. Par consquent, les socits dassurance
devraient chercher estimer leur risque de march via la VaR pour des horizons
allant de 3 mois un an. Par consquent, lestimation de la VaR journalire dans le
secteur de lassurance na aucun sens.
Par ailleurs, une spcificit inhrente au secteur de lassurance est la forte
proportion des produits de dette (obligations, prts et dpts) dans les portefeuilles
des socits.
Ces diffrentes caractristiques influencent donc lestimation du risque
march. Pour adapter la VaR dans le domaine de lassurance, il est ncessaire
modifier la mthodologie de calcul, en considrant des horizons plus longs, et
portefeuille stable sur la priode destimation, comprenant une grande quantit
produits de taux.

11

de
de
un
de

2.4.3. Utilisation de la VaR dans dans le calcul du besoin en fonds propres


Quest ce que le besoin en fonds propres ?
Le besoin en fonds propres est d la fois des contraintes de solvabilit et de
rentabilit. Dans le domaine de lassurance Non Vie, le besoin de fonds propres
dpend de plusieurs points de vue :
celui des assurs, des organismes de contrle et des agences de notations
Contraintes de solvabilit
celui des actionnaires et du management de la compagnie
Contraintes de rentabilit
Il peut tre dfini de faon interne ou externe :
Vision interne de la compagnie
Il sagit du niveau de capital dont souhaite disposer la compagnie, afin de respecter
lobjectif de solvabilit quelle sest fixe, i.e. pour maintenir son activit. Ce capital
est valu partir des risques propres la compagnie et est fond sur ses propres
estimations, issues de donnes qui peuvent tre confidentielles.
Vision externe du besoin en capital
Il sagit du niveau de capital dsir par des acteurs extrieurs lentreprise, savoir,
les organismes de contrle qui dterminent un capital rglementaire, et les agences
de notations qui valuent le niveau de capital exig par le march

La Value-at-Risk, une mesure de risque pour valuer le besoin en fonds


propres
Une des mesures de risque permettant dvaluer le besoin en fonds propres dune
compagnie dassurance est donc la Value-at-Risk. Pour cela, on doit dfinir une
probabilit de ruine :
Dun point de vue probabiliste, on considre la variable alatoire , reprsentant le
rsultat de la compagnie (en assurance, peut galement reprsenter la charge
agrge des sinistres). On dfinit alors la fonction de rpartition de :

=
Cest la probabilit que le rsultat de la compagnie soit infrieur un certain montant
.
La probabilit de ruine dune compagnie est la probabilit que le capital initial
connu, soit absorb par un rsultat dficitaire, i.e.
12

= ( )
La VaR correspond au capital minimal ncessaire pour ne pas tre en ruine avec une
probabilit suprieure 1 .

= = | 1
Lien avec la rglementation europenne
Dans le prolongement de la rforme Ble II pour les banques, lUnion
Europenne a tabli un nouveau cadre rglementaire en matire de gestion des
risques pour les compagnies dassurance, baptis Solvency II. Par rapport la
directive Solvency I, cette rforme est beaucoup plus sensible aux risques rels
supports par la compagnie. Diffrents niveaux dadaptation sont possibles, jusquau
dveloppement de modles internes. Solvency II impose ainsi un vritable dispositif
de mesure et de supervision du risque.
Lun des piliers de cette rforme dtermine des exigences quantitatives
respecter, notamment sur lharmonisation des provisions et linstauration de minima
de fonds propres. Le Minimum de Solvabilit Requis est lune de ces exigences. Son
objectif est de renforcer les assurances contre la rptition de situations
exceptionnelles.
Plusieurs mthodes de calcul sont ltude :
Risk-Based Capital
Mthode factorielle, chaque type de risque est couvert par un montant de capital
donn.
Value-at-Risk
Montant de capital permettant davoir une probabilit de ruine infrieure 0,5% sur
une anne, en prenant compte de lensemble des risques encourus par lentit.

13

III. Dfinition probabiliste de la Value-at-Risk


3.1 Dfinition de la VaR
La Value-at-Risk dfinie pour un taux de couverture de correspond au quantile
dordre de la distribution de profits et pertes (profits and looses, P&L) associe la
dtention dun actif ou dun portefeuille dactifs sur une priode donne.

Fonction de rpartition de rendements sous l'hypothse gaussienne


Donnes: Rendements AXA du 24-10-2007 au 23-10-2009
1
0,9
0,8
0,7
0,6
0,5
Probabilit
cumule F(x)

0,4
0,3
0,2
0,1
0
-0,15

-0,1

-0,05

0,05

0,1

0,15

Fonction de densit de rendements sous l'hypothse gaussienne


Donnes: Rendements AXA du 24-10-2007 au 23-10-2009
10
9
8
7
6
5
Densit de
probabilit f(x)

4
3
2
1
0
-0,15

-0,1

-0,05

0,05

0,1

Figure 1 : La VaR, un fractile de la distribution des P&L

14

0,15

La VaR d'un portefeuille dpend essentiellement de 3 paramtres :


La distribution des profits et des pertes (P&L) du portefeuille ou de lactif
Souvent cette distribution est suppose gaussienne, mais beaucoup d'acteurs
financiers utilisent des distributions historiques. La difficult rside alors dans la taille
de l'chantillon historique : s'il est trop petit, les probabilits de pertes leves sont
peu prcises, et s'il est trop grand, la cohrence temporelle des rsultats est perdue,
car on compare des rsultats non comparables. Les donnes de P&L partir
desquelles on calcule une VaR sont gnralement exprimes sous forme de
rendements.
Le niveau de confiance choisi (95 ou 99% en gnral)
C'est la probabilit que les pertes ventuelles du portefeuille ou de l'actif ne
dpassent pas la VaR.
L'horizon temporel choisi (priode de dtention de lactif)
Ce paramtre est trs important car plus l'horizon est long plus les pertes peuvent
tre importantes.

15

3.1.1. Distribution des profits et pertes (P&L)


On note :
la valeur dun actif ou dun portefeuille la date t
lensemble des paiements intermdiaires obtenus entre les dates t-1 et t
Les profits et pertes associs la dtention de lactif ou du portefeuille sont alors
dfinis par :

/ = 1 +
Les valeurs positives indiquent des profits et les valeurs ngatives indiquent des
pertes.
Exemple :
Dans le cas o lon ne reoit aucun paiement intermdiaire entre les dates t-1 et t :
Si le prix de lactif a augment :
> 1 donc 1 > 0

il sagit dun profit

Si le prix de lactif a baiss :


< 1 donc 1 < 0

il sagit dune perte

Les P&L sont gnralement exprims sous forme de rendements gomtriques, nots
, et dfinis par :

= ln

+
1

Les rendements gomtriques supposent que les paiements intermdiaires sont


r-investis en continu, et garantissent que le prix des actifs nest jamais ngatif.
Un rendement positif indique un gain ( > 0) et un rendement ngatif indique une
perte ( < 0).
On suppose que est une variable alatoire relle, caractrise par sa fonction de
densit
Cette fonction de densit est appele la distribution des profits et pertes (P&L).

16

3.1.2. Dfinition probabiliste de la VaR


On se fixe :
un horizon temporel dune journe (dtention de lactif pendant 1 journe)
un taux de couverture
La Value-at-Risk, note
distribution des P&L.


o .

correspond loppos du fractile dordre de la

= 1

dsigne la fonction de rpartition associe la fonction de densit .

NB : La VaR correspond gnralement une perte, donc il sagit dune valeur


ngative. Pour simplifier, on dfinit donc la VaR en valeur positive, cest pourquoi on
prend loppos du fractile.

3.2 Comment estimer la Value-at-Risk ?


La VaR nest donc rien dautre quun fractile de la distribution de Profits et
Pertes (P&L). Si la distribution est connue, on en dduit immdiatement la VaR.
Lestimation de la Value-at-Risk consiste donc estimer la fonction de densit
associe la distribution P&L, ou les paramtres de cette densit, ou directement le
fractile.

17

Chapitre 2
I.

Estimation de la Value-at-Risk

Introduction

Dans cette partie, nous allons prsenter les diffrentes techniques destimation
de la Value-at-Risk. Ces diffrentes mthodes sont rparties en 3 catgories :
les mthodes destimation paramtriques
les mthodes destimation non paramtriques
les mthodes destimation semi-paramtriques

II. Estimation paramtrique


Les mthodes destimation paramtriques de la VaR reposent sur 3 hypothses
simplificatrices :
1. Les distributions des rendements des actifs qui composent le portefeuille
suivent une loi normale ;
2. La relation entre les variations de valeur du portefeuille et les variations des
variables du march sont linaires ;
3. Les produits drivs (Futures, Swaps, ) sont linaires. (Une exception : les
options)
Remarque : Ces hypothses sont trs contraignantes mais on peut corriger la
non-normalit des distributions en introduisant des coefficients dasymtrie
(coefficient de Skewness) ou daplatissement (coefficient de Kurtosis).
Nous allons donc dcrire dans cette partie trois approches destimation
paramtrique de la VaR :
lapproche univarie
lapproche variance-covariance
La mthode RiskMetrics

18

2.1

Prliminaires : Approche univarie

On considre la VAR associe la distribution P&L dun seul actif (change,


action, obligation, etc.). En dautres termes, on considre le rendement global du
portefeuille comme celui dun actif particulier et on calcule la VaR directement sur ce
rendement agrg.

(H1) On suppose que la distribution des P&L la date est une distribution
normale desprance et de variance 2

~ , 2
On cherche donc la valeur de la VAR la date pour un taux de couverture de
telle que :

Daprs lhypothse (H1) :


~ 0,1

Et par consquent, si dsigne la fonction de rpartition de la loi normale


0,1 , on obtient :

= 1

Sous lhypothse H1, la VaR associe un taux de couverture de est dfinie


par :

= 1
o : - esprance de la distribution des P&L
- 2 variance de la distribution des P&L

19

NB : En ralisant ces calculs sur une distribution journalire des rendements, on


exprime une VaR horizon dun jour. Pour passer dun horizon dun jour un horizon
de X jours, on utilisera la formule suivante : =

20

2.2 Approche variance covariance


Il sagit dune approche multivarie de la VaR. Au lieu de considrer le
rendement global du portefeuille comme celui dun actif particulier, on prend en
compte explicitement les corrlations entre les actifs du portefeuille.
On considre un portefeuille de actifs corrls entre eux. Soit le
rendement du portefeuille dactifs la date ,

=
=1

Lhypothse principale est donc que les distributions des rendements des actifs
qui composent le portefeuille suivent une loi normale, i.e.

~ ,

On dfinit donc la rentabilit espre du portefeuille, i.e. son esprance par :

=
=1

=
=1

o :

= 1 , 2 , ,
= 1 , 2 , ,

On dfinit ensuite la volatilit du portefeuille, i.e. sa variance par :

, =

=
, =1

=
, =1

o :
le vecteur reprsente le poids des actifs dans le portefeuille
le vecteur reprsente lesprance des rendements des actifs du portefeuille

la matrice = 1, est la matrice de covariance des actifs du


portefeuille

21

On aboutit donc la dfinition suivante :

Dans le cas dun portefeuille dactifs corrls entre eux, la formule de calcul de
la VaR associe un taux de couverture de est la suivante :

= 1
=

1
2

o :
le vecteur reprsente le poids des actifs dans le portefeuille
le vecteur reprsente lesprance des rendements des actifs du
portefeuille
la matrice est la matrice de covariance des actifs du portefeuille
En pratique, on estime et sur les donnes.

22

2.3

Mthode RiskMetrics

Ce modle a t dvelopp par la banque JP Morgan au dbut des annes 90. Il


diffre de lapproche Variance-covariance au niveau du calcul de la volatilit des
rendements du portefeuille.
La volatilit est estime en utilisant ses valeurs passes ainsi que celles des
rendements en accordant plus de poids aux valeurs les plus rcentes. Ceci permet de
pouvoir sadapter plus facilement aux changements de conditions de march et de
pouvoir mieux tenir compte des vnements extrmes.
On note la volatilit des rendements du portefeuille la date :

=
La volatilit conditionnelle des rendements du portefeuille va tre une
combinaison linaire de linnovation passe et de la valeur passe de la volatilit :

= 1 + 1 1

o est un paramtre de lissage (par exemple, = 0,97)


On aboutit donc la dfinition suivante :

Dans le cas dun portefeuille dactifs corrls entre eux, la VaR issue de
RiskMetrics dfinie pour un taux de couverture de peut scrire sous la forme :

1
2

o :
est estime partir de la formule = 1 + 1 1
paramtre de lissage (on fixe souvent = 0,97)

23

2.4 Avantages et limites des mthodes destimation


paramtriques
Le principal avantage des mthodes destimation paramtriques est que les
calculs sont simples et rapides, et ncessitent de connatre uniquement la matrice de
variance-covariance des rendements du portefeuille.
Cependant, ces mthodes restent inadaptes aux portefeuilles non linaires,
aux queues de distribution paisses et aux distributions non normales de
rendements.

24

III. Estimation non paramtrique


Dans cette partie, nous allons prsenter diffrentes mthodes destimation non
paramtrique de la Value-at-Risk.
Dans le cas de lestimation non paramtrique, on nimpose a priori aucune
distribution paramtrique de pertes et profits. Dans cette section, on considrera une
approche univarie de la VaR, i.e. le portefeuille est considr comme un actif
particulier possdant un rendement global.

3.1 Simulation historique (HS Historical Simulation)


Il sagit de la mthode la plus simple raliser, et certainement la plus utilise
actuellement.
3.1.1. Principe et dfinition
Le principe de cette mthode est destimer la VaR par le fractile empirique des
rendements passs.
Soit 1 , 2 , , une suite de rendements dun actif ou dun portefeuille, pour
allant de 1 . On dispose dune srie de ralisations 1 , 2 , , associe cette
suite de variables alatoires.
Problme : On ne dispose que dune seule ralisation pour chaque variable
alatoire . Il est donc impossible destimer la densit associe chaque variable
et par consquent la VaR.
La mthode de simulation historique va donc reposer sur lhypothse suivante :
(H1) On suppose que les rendements
identiquement distribus i.e.

= 1, ,

=1,,

25

sont indpendants et

Grce cette hypothse, on dispose maintenant dun chantillon de ralisations


1 , 2 , , dune variable alatoire de densit . . On peut donc estimer la
VaR :
Sous lhypothse H1, un estimateur convergent de la VaR pour un taux de couverture
de est dfini par le fractile empirique dordre associ aux ralisations
historiques des rendements 1 , 2 , ,

26

=1

, 100

3.1.2. Exemple dutilisation : Cours de clture AXA du 25/10/2007 au


23/10/2009
1re tape : Tlcharger les cours de bourse sur Internet en format TXT
(URL : http://www.abcbourse.com )
2me tape : Enregistrer au format CSV afin de pouvoir exploiter les donnes sous
Excel ou R
3me tape : Exploitation des donnes
On dispose donc du cours de clture de laction AXA du 25/10/2007 au 23/10/2009.
A partir de ces valeurs, on calcule le rendement associ :
Soit la valeur de lactif la date , le rendement associ est dfini par :
= ln

Ensuite, on peut exploiter ces donnes sous Excel ou R


A laide dExcel
On peut ainsi visualiser le graphe des rendements quotidiens dAXA du 25/10/2007
au 23/10/2009 :
Rendements quotidiens AXA du 25/10/2007 au 23/10/2009
0,3
0,2
0,1
0
-0,1
-0,2
-0,3

Figure 2 : Rendements quotidiens du cours dAXA sous Excel

On classe ensuite les valeurs des rendements par ordre croissant et on obtient alors
le graphe des fractiles de la distribution des rendements.
Pour obtenir la VaR, il suffit de prendre en abscisse le taux de couverture souhait
(par exemple 5%) et en ordonne on obtient le fractile correspondant i.e. la Value-atRisk pour le taux de couverture considr.

27

Fractiles AXA
0,25
0,2
0,15
0,1
0,05
0
-0,05
-0,1
-0,15
-0,2
-0,25

Figure 3 : Fractiles AXA sous Excel

A laide du logiciel R
Script R
axa<-read.csv("C:/Users/Pauline/Desktop/PFE SVN/Fichiers de
donnes Excel/coursAXA.csv", header=TRUE, sep=";")
attach(axa)
#Reprsentation graphique du cours et des rendements du Nasdaq
du 22 juin 2004 au 20 juin 2006
plot(Cours,type="l",lwd=2,col="blue",xlab="Temps",ylab="Cours
de l'action AXA",main="Cours de l'action AXA \ndu 25/10/2007
au 23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
plot(Rendement,type="l",lwd=1.5,col="dark
magenta",xlab="Temps",ylab="Rendements de l'action
AXA",main="Rendements quotidiens AXA \ndu 25/10/2007 au
23/10/2009",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)

28

#Test de normalit
qqnorm(Rendement,col="dark blue",xlab="Fractiles thoriques
d'une loi Normale",ylab="Fractiles empiriques",main="QQ Plot
des rendements\ndu cours de l'action
AXA",cex.main=0.8,cex.axis=0.8,cex.lab=0.8,pch=20)
shapiro.test(Rendement)
# Shapiro-Wilk normality test
#data: Rendement
#W = 0.9471, p-value = 1.55e-12

Sorties obtenues

Figure 5 : Rendements quotidiens AXA

Figure 4 : Cours de laction AXA

29

Le test de Shapiro-Wilk et le QQ plot permettent de dterminer si les


rendements du cours de laction AXA suivent ou non une loi Normale. La tendance
clairement non linaire du QQ plot nous permet premire vue de rejeter
lhypothse de normalit.
Le test de Shapiro-Wilk permet de renforcer cette ide : en effet, la p-value de
1.55e-12 est infrieure 0.01 et 0.05, donc on rejette lhypothse de normalit aux
risques 1% et 5%.

Figure 6 : QQ Plot des rendements du cours de laction AXA

On dispose dans ce cas dun chantillon de 510 ralisations 1 , 2 , , 510 .


Pour un taux de couverture = 1%, la 1% va correspondre la 6me valeur :
1% = 0,113307885
i.e. si lon dispose dun portefeuille dactions AXA dun montant total d1 million
deuros, si lon dtient ce portefeuille dactions pendant 1 journe, il y a 1% de risque
de raliser une perte au moins gale 113 308 euros.
Pour un taux de couverture = 5%, la 5% va correspondre la 26me valeur :
5% = 0,070793052
i.e. si lon dispose dun portefeuille dactions AXA dun montant total d1 million
deuros, si lon dtient ce portefeuille dactions pendant 1 journe, il y a 5% de risque
de raliser une perte au moins gale 70 793 euros.

31

Donnes :
date t
25/10/2007
26/10/2007
29/10/2007
30/10/2007
31/10/2007
01/11/2007
02/11/2007
05/11/2007
06/11/2007
07/11/2007
08/11/2007
09/11/2007
12/11/2007
13/11/2007
14/11/2007
15/11/2007
16/11/2007
19/11/2007
20/11/2007
21/11/2007
22/11/2007
23/11/2007
26/11/2007
27/11/2007
28/11/2007
29/11/2007
30/11/2007

14/10/2009
15/10/2009
16/10/2009
19/10/2009
20/10/2009
21/10/2009
22/10/2009
23/10/2009

valeur de
l'actif
30,17
29,96
30,35
30,45
30,86
30,37
30,04
29,52
29,25
28,83
28
27,2
27,52
27,58
28,19
27,57
27,14
26,28
26,46
25,68
25,33
26,42
25,88
26,58
27,29
27,4
27,93

19,49
19,715
19,2
19,5
19,475
19,045
18,525
18,44

rendement de l'actif

0,015364364
-0,006984895
0,012933359
0,003289477
0,013374853
-0,016005568
-0,010925452
-0,017461827
-0,009188426
-0,014463062
-0,029212001
-0,028987537
0,01169604
0,002177859
0,021876433
-0,02223908
-0,015719571
-0,032200461
0,006825965
-0,02992168
-0,013723015
0,042131835
-0,020650829
0,026688584
0,026361281
0,004022679
0,019158367

0,028097582
0,011478254
-0,026469488
0,015504187
-0,001282874
-0,022326992
-0,027683429
-0,004598953

32

Rendements
ordonns
-0,203500389
-0,140606455
-0,133914051
-0,114514778
-0,113309556
-0,113307885 = VAR(1%)
-0,106264266
-0,099116434
-0,096209865
-0,095802912
-0,09476866
-0,093372315
-0,088769817
-0,08761261
-0,086511502
-0,085157808
-0,081563107
-0,081319684
-0,080866964
-0,080461556
-0,077648267
-0,077142876
-0,076743335
-0,074753115
-0,073570193
-0,070793052 = VAR(5%)
-0,069851439

0,127392977
0,129299972
0,137792157
0,156309872
0,161480184
0,176197839
0,18223649
0,192679273

3.1.3. Limites de la Simulation Historique


La VaR HS est lestimateur dune VaR associe une distribution de P&L non
conditionnelle.
En dautres termes, cette distribution nest pas calcule sachant un ensemble
dinformations disponibles la date .
Par consquent la prvision de la VaR selon la mthode de Simulation
Historique sera invariante aux modifications de lenvironnement conomique. On
qualifie donc les prvisions de la VaR selon la mthode de Simulation Historique de
"plates" ou "pratiquement plates".

3.1.4. Prvision de la VaR selon la mthode de Simulation Historique


Principe : Utiliser le fractile empirique associ aux observations passes.
En effet, puisque les rendements sont iid, +1 a la mme distribution que 1 , ,
et donc un estimateur de sa vaR peut tre obtenu partir de lestimateur de la VaR
des rendements passs.
Le backtesting consiste construire une suite de prvisions de la VaR. Pour ce faire, il
existe 2 solutions :
Prvision Glissante :
Construction dun estimateur glissant (rolling estimate) de la VaR en T+1, partir dun
ensemble dinformations rcentes de taille fixe appele largeur de fentre.
Les prvisions glissantes de la VaR pour un taux de couverture de par la mthode
HS correspondent au fractile empirique dordre de la chronique des rentabilits
passes observes sur une fentre de largeur .

1
=

, 100

Plus la largeur de fentre est petite, plus les prvisions sont volatiles.
Plus la largeur de fentre est grande, plus les prvisions sont rigides. La VaR
prvue convergera vers la VaR non conditionnelle et tendra donc vers une valeur
constante dans le temps.

33

Prvision non Glissante :


Construction dune succession destimateurs de la VaR conditionnellement
toute linformation disponible. Lensemble des observations connues crot donc au
fur et mesure du temps.
Gnralement, on utilise la prvision glissante afin dintroduire un minimum de
conditionnement et de limiter le poids des ralisations des rendements plus
anciennes.

34

3.1.5. Exemple de prvision de la VaR HS


Lobjectif est de construire une suite de prvisions de la VaR HS 5%, pour le
cours du Nasdaq du 22 juin 2005 au 20 juin 2006. On utilise pour cela la mthode
destimation glissante avec une fentre de 250 observations.
A laide dExcel
Cours du Nasdaq du 22 juin 2004 au 20 juin 2006
2400
2300
2200
2100
2000
1900

Cours du Nasdaq

1800
22/04/2006

22/02/2006

22/12/2005

22/10/2005

22/08/2005

22/06/2005

22/04/2005

22/02/2005

22/12/2004

22/10/2004

22/08/2004

22/06/2004

1700

Figure 7 : Cours du Nasdaq sous Excel

Rendements historiques et Prvisions de la VaR HS 5%


Cours du NASDAQ du 22 juin 2005 au 20 juin 2006
0,04
0,03
0,02
0,01

Rendements
Prvisions de la VaR HS 5%

0
-0,01
-0,02
-0,03

Figure 8 : Prvisions de la VaR HS pour le cours du Nasdaq sous Excel


35

3.2 Mthode Bootstrap de Simulation Historique


Cest une mthode stochastique alternative. Lide consiste construire
plusieurs chantillons de rendements suivant la mme loi que lchantillon
historique. Pour construire ses chantillons, on va tirer avec remise des observations
au hasard dans lchantillon historique.
A partir de chaque nouvel chantillon ainsi constitu, on estime alors la VaR par
la mthode du percentile utilise dans la Simulation Historique standard.
Au final, on dispose de estimations de la VaR et on dfinit une estimation en
faisant la moyenne de ces estimations bases sur les r-chantillonnages.

Soit

=1

une suite de rendements tirs au hasard avec remise dans

lchantillon des rendements historiques, et soit la VaR-HS associe cet


chantillon de rendements bootstrapps (pour un taux de couverture de ).
Lestimateur BHS de la VaR correspond la moyenne empirique des VaR-HS
obtenues partir des chantillons bootstrap :

1
=


=1

avec pour = 1, ,

=1

, 100

Par ailleurs, on peut btir un intervalle de confiance pour la VaR pour un risque
donn :

1 = /2 , 1 /2
avec

/2 =
1 /2 =

=1

36

, 100 /2

=1

, 100 1 /2

Remarque : On peut combiner la mthode de Bootstrap avec dautres mthodes


destimation de la VaR. Une fois les chantillons bootstrap constitus, on calcule la
VaR avec la mthode dsire partir des nouvelles distributions gnres, et on
dfinit une estimation de la VaR en faisant la moyenne des diffrentes estimations
bases sur les r-chantillonnages.

37

3.3 Weighed Historical Simulation (WHS)


3.3.1. Les diffrentes pondrations possibles
Dans la mthode de Simulation Historique, si lon considre une estimation de
la VaR pour un taux de couverture de 1% partir dune fentre glissante de 500
ralisations, cela revient slectionner le 5me rendement le plus faible parmi les 500
ralisations les plus rcentes.
Parmi ces 500 ralisations, tous les rendements ont donc le mme poids : le
rendement de la veille va avoir la mme importance que celui dil y a 500 jours.
Une approche alternative consiste donc attribuer aux observations de
rendements des poids en fonction soit de leur anciennet, soit de la volatilit
observe des marchs, ou de tout autre facteur.
Cette mthode de Simulation Historique Pondre est qualifie de Weighted
Historical Simulation (WHS) et recouvre diffrentes variantes selon le facteur de
pondration utilis :
La mthode Aged-weighted HS o les poids dpendent de lanciennet des
observations ;
La mthode Volatility-weighted HS o les poids dpendent de la volatilit.
Lobjectif est de prendre en compte les changements rcents de volatilit ;
La mthode Correlation-weighted HS o lon ajuste les rendements passs de
faon ce quils refltent les changements entre les corrlations passes et
futures.

38

3.3.2. Aged-weighted HS ou Mthode Hybride


On exploite dans cette mthode une information supplmentaire, savoir le
caractre plus informatif des rentabilits les plus proches de lhorizon de prvision.

Mthodologie de calcul de la VaR Hybride


On considre une largeur de fentre
1) On associe chacune des rentabilits les plus rcentes 1 , 2 , ,
une pondration dcroissante avec le temps, i.e. plus la rentabilit est
ancienne, plus la pondration est faible. Les pondrations sont donc de la
forme suivante :

1
1

,
2 ,
1
1
1
1
1
2

,
1
3

1
1
0 < < 1
2) On ordonne ensuite les rentabilits (et les pondrations qui leur sont
associes) dans lordre croissant.

3) On somme les poids ordonns suivant les niveaux de rentabilit croissants


jusqu atteindre le taux de couverture de dsir. La VaR Hybride est alors
gale la rentabilit correspondant au dernier poids utilis dans la
sommation.

39

3.4 Simulation Historique et Simulation Paramtrique de la densit


3.4.1. Principe et dfinition
On sait que lhistogramme associ aux ralisations historiques des rendements
nest pas un bon estimateur dune fonction de densit. Cest un estimateur trs facile
calculer mais il est peu rgulier et prsente une allure constante par morceaux.
On se propose donc dutiliser les estimateurs obtenus par lissage, comme par
exemple les estimateurs noyaux, qui prsentent de meilleures proprits.
Le principe de la mthode destimation HS tendue est donc le suivant :
Estimer tout dabord la densit conditionnelle des pertes et profits par une
mthode de noyau.
Puis, calculer partir de cette densit, le fractile correspondant la Value-atRisk voulue.
On peut ainsi estimer la Value-at-Risk pour nimporte quel niveau de confiance,
indpendamment de la taille de lchantillon. Avec la mthode de Simulation
Historique, il est par exemple impossible de calculer la VaR sur un chantillon de 50
points pour un seuil de couverture de 1%. Le seuil de couverture minimal est en effet
de 2%.
Cette mthode destimation possde cependant une limite. Les estimateurs
noyaux prsentent des effets de bords. Leur prcision est parfois faible sur les bords
de lchantillon, i.e. l o lon souhaite estimer la VaR.

Un estimateur de la VaR pour un taux de couverture de peut tre obtenu


partir de lestimateur noyau de la fonction de densit des pertes et profits :

1
=

=1

40

avec :
le noyau :
le paramtre de lissage
la taille de lchantillon

=1

On a donc :

Exemples de noyau :
1

Noyau naf

1 1;1

Noyau triangulaire

= 1 1 1;1

Noyau gaussien

Noyau dEpanechnikov

Noyau Triweight

35

1
2

32

2
2

1 2 1 1;1
1 2 3 1 1;1

41

3.4.2. Exemple dapplication sous R


On utilise le cours du Nasdaq du 22 juin 2004 au 20 juin 2006 comme pour
lexemple prcdent.
Script R : Import des donnes et graphes du cours et des rendements
#Import du cours et des rendements du Nasdaq
nasdaq<-read.csv("C:/Users/Pauline/Desktop/PFE SVN/Fichiers de donnes
Excel/coursNASDAQ.csv", header=TRUE, sep=";")
attach(nasdaq)
#Reprsentation graphique du cours et des rendements du Nasdaq du 22 juin
2004 au 20 juin 2006
plot(Cours,type="l",lwd=2,col="blue",xlab="Temps",ylab="Cours du
Nasdaq",main="Cours du Nasdaq \ndu 22 juin 2004 au 20 juin
2006",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)
plot(Rendement,type="l",lwd=1.5,col="dark
magenta",xlab="Temps",ylab="Rendements du Nasdaq",main="Rendements
quotidients du cours du Nasdaq \ndu 22 juin 2004 au 20 juin
2006",cex.main=0.9,cex.lab=0.8,cex.axis=0.8)

Sorties obtenues :

Figure 10 : Cours du Nasdaq sous R

Figure 9 : Rendements du Nasdaq sous R

42

Script R : Test de normalit et estimateurs de densit


#Test de normalit
qqnorm(Rendement,col="dark blue",xlab="Fractiles thoriques d'une loi
Normale",ylab="Fractiles empiriques",main="QQ Plot des rendements\ndu
cours du Nasdaq",cex.main=0.8,cex.axis=0.8,cex.lab=0.8,pch=20)
shapiro.test(Rendement)
# Shapiro-Wilk normality test
#
data: Rendement
#W = 0.9952, p-value = 0.1199
#Distribution normale
m<-mean(Rendement)
et<-sd(Rendement)
x<-seq(-1,1,by=0.001)
y<-dnorm(x,mean=m,sd=et)
fenetre<-et*503^(-0.15)
split.screen(c(2,1))
screen(1)
d1<-density(Rendement,bw=fenetre,kernel="gaussian")
plot(d1,col="blue",lwd=2,"Estimateur de Parzen-Rosenblatt\nde la fonction
de densit des
rendements",cex.main=0.8,cex.axis=0.8,cex.sub=0.8,cex.lab=0.8,sub="Noyau
Gaussien")
lines(x,y,col="red",lwd=2)
screen(2)
d2<-density(Rendement,bw=fenetre,kernel="epanechnikov")
plot(d2,col="blue",lwd=2,"Estimateur de Parzen-Rosenblatt\nde la fonction
de densit des
rendements",cex.main=0.8,cex.axis=0.8,cex.sub=0.8,cex.lab=0.8,sub="Noyau
d'Epanechnikov")
lines(x,y,col="red",lwd=2)

Sorties obtenues :

A premire vue, la tendance linaire


du QQ plot inciterait accepter
lhypothse de normalit.
Le test de Shapiro-Wilk permet de
renforcer cette ide : en effet, la p-value
de 0.1199 est suprieure 0.01 et 0.05,
donc on accepte lhypothse de normalit
aux risques 1% et 5%.

43

Sorties obtenues :

44

IV. Estimation semi-paramtrique


4.1 Thorie des valeurs extrmes
La thorie des valeurs extrmes mesure le risque extrme directement partir
des queues de distribution, contrairement aux autres mthodes qui estiment la
distribution dans son ensemble.
4.1.1. Cadre danalyse
On considre un n-chantillons 1 , 2 , , de variables alatoires iid de fonction de
rpartition F.
Soit = max
(1 , , ) reprsentant la plus grande perte observe sur les n
pertes observes 1 , , .
Les variables alatoires 1 , , tant iid, on peut facilement calculer la fonction de
rpartition de :

= 1 , , =
Cependant, si on considre right-end point de F, i.e. le point tel que :

= | < 1
On remarque que :
=
> =

0 < 1
1 = 1

La loi de converge donc vers une loi dgnre (prenant seulement les valeurs 0
ou 1) lorsque n tend vers linfini.
Le principe de la thorie des valeurs extrmes va donc tre didentifier la famille de
loi vers laquelle va converger et destimer F par cette fonction, lorsque n tend
vers linfini.
On veut donc trouver les distributions limites telles que :

lim

45

non dgnre

4.1.2. Thorme limite de Fisher-Tippett


Il sagit du thorme fondamental de la thorie des valeurs extrmes.
On considre des variables alatoires

iid.

Sil existe des constantes > 0 et et une fonction de distribution non


dgnre telle que

lim

Alors appartient lun des 3 types suivants de distribution :


Type 1 : Frchet > 0

0
,

0
>0

Type 2 : reverse Weibull > 0


=
1

,
,

0
>0

Type 3 : Gumbel

=
, et sont appeles les distributions standards de valeurs extrmes.

Dfinition : On dit que la variable alatoire (ou la fonction de rpartition )


appartient au MDA (Maximum Domain of Attraction) de , si

> 0, lim

Dans la pratique, la majorit des lois usuelles appartiennent lun des 3 MDA
de Gumbel, Frchet ou Weibull.

46

Exemple :
Les distributions exponentielles, Gamma et Log-normale appartiennent au MDA
Gumbel (distributions queues fines).
Les distributions de Pareto, Log-Gamma et de Student appartiennent au MDA
Frchet (distributions queues lourdes).
Les distributions uniformes appartiennent au MDA Weibull (distributions sans
queue).

Figure 11 : Densits des distributions standards de valeurs extrmes

Proposition : [Jenkinson Von Mises]


, et sont des cas particuliers de la distribution

= 1 +

Avec paramtre de localisation et paramtre de dispersion.


Cette fonction de distribution correspond la loi de probabilit des valeurs
extrmes gnralise, appele Generalized Extreme Value distribution
(GEV).
On a les correspondances suivantes :
Frchet : = 1 > 0
Weibull : = 1 < 0
Gumbel :

0
47

Remarque : En pratique, on ne connat pas les valeurs de , et . Il faut donc les


estimer partir des donnes (par exemple par la mthode du maximum de
vraisemblance) et les remplacer par leur estimation.
Le paramtre est couramment appel indice de queue ou indice de valeur
extrme . Plus cet indice est lev en valeur absolue, plus le poids des extrmes
dans la distribution initiale est important. On parle alors de distributions queues
paisses .
4.1.3. Mthode des excs et distribution de Pareto gnralise
La mthode des excs est galement connue sous le nom de Peaks Over Threshold
(POT). Elle permet de modliser les queues de distribution dune srie de donnes. A
partir de cette distribution, on peut alors estimer la probabilit doccurrence
dvnements rares, au-del des plus grandes valeurs observes.
Dfinition : Soit une variable alatoire de fonction de rpartition et un rel
suffisamment grand appel seuil.
On dfinit les excs au-del du seuil comme lensemble des variables alatoires Y
telles que :

= , >
On appelle right-end point de F, le point tel que : = | < 1
On cherche donc partir de la distribution F de X, dfinir une distribution
conditionnelle par rapport au seuil pour les variables alatoires dpassant ce
seuil. On dfinit alors la distribution conditionnelle des excs par :

= < | > =

+
1

pour 0

= < | > =


1
pour

48

Lobjectif de la mthode POT est de dterminer par quelle loi de probabilit il est
possible destimer cette distribution conditionnelle des excs.
Le thorme de Picklands, Balkema et Haan est le rsultat thorique central de la
thorie des valeurs extrmes :
Thorme : [Picklands, Balkema et Haan]
Si F appartient lun des 3 MDA de Gumbel, Frchet ou Weibull, alors il existe une
fonction de rpartition des excs au-del du seuil , note qui peut tre approche
par une loi de Pareto Gnralise (GPD) telle que :

lim ,

=0

La loi de Pareto gnralise , scrit sous la forme :


, = 1 + log
o est la loi de probabilit des valeurs extrmes gnralise.
En considrant le modle GEV avec le paramtre de localisation = 0 (car
pour les excs leffet de ce paramtre est pris en compte dans la suite ),
on montre que la loi GPD correspond :
1


1 1+

0
= 0

0; 0

0;
< 0

On a vu que plus lindice de queue est lev, plus la distribution considre a


des queues paisses.

49

Par consquent, > 0 signifie que la probabilit doccurrences de rentabilits


extrmes et notamment le risque de pertes extrmes est plus importante que ce que
prvoit la loi normale.
Ainsi, le risque dinvestissement, i.e. des pertes extrmes est dautant plus important
que lindice de queue correspondant ses plus faibles rentabilits (queue de gauche)
est lev.
A partir de ces rsultats, il est possible dvaluer la perte maximale pour une
probabilit donne et sous des conditions extrmes de march.

Un estimateur de la distribution conditionnelle des excs et donc un estimateur de la


VaR avec le nombre dexcs au-del du seuil sont ainsi donns par :

=1
1+

et donc :

= +

50

Chapitre 3

Limites de la Value-at-Risk

I. Introduction
La Value-at-Risk prsente lavantage indniable dtre simple interprter. Elle
permet dobtenir une vision globale du risque en lexprimant sous la forme dune
seule valeur, correspondant la perte maximale encourue.
Cependant, cette mesure de risque ne donne aucune information sur la svrit
de la perte, ou de la ruine dans le cas de son utilisation pour lvaluation du besoin en
fonds propres dune compagnie dassurance. Elle ne permet pas de connatre
lampleur des pertes extrmes au-del de la Value-at-Risk.
Ainsi, deux positions, que ce soit des portefeuilles dans le cas dune approche
bancaire, ou des centres de profit dans le cas dune approche assurance, peuvent
avoir la mme Value-at-Risk, et cependant des risques extrmes compltement
diffrents.

Figure 12 : Pertes extrmes au-del de la VaR

Cette mesure de risque peut donc entraner des agents prendre de mauvaises
dcisions dinvestissement ou prendre volontairement plus de risques.

51

II. La Value-at-Risk, une mesure de risque cohrente ?


2.1

Dfinition dune mesure de risque cohrente

Dfinition : [Denuit et Charpentier 2004]


On appelle mesure de risque toute application associant un risque un rel

Soient X et Y :
Les distributions de pertes et profits associes deux portefeuilles (approche
bancaire)
Les rsultats de deux centres de profit de socits dassurance (approche
assurance)
Soit . une mesure de risque sur un horizon donn,
Dans lapproche bancaire, reprsente le risque associ la possession du
portefeuille X pendant une certaine dure (souvent exprim en montant de
perte maximal).
Dans lapproche assurance, reprsente le besoin en fonds propres.
Cette mesure de risque est dite cohrente si elle satisfait les axiomes suivants :
i.

Invariance par translation :

( + ) = ()

Interprtation : Si on ajoute (respectivement retranche) un certain montant c au


rsultat dun centre de profit, le besoin en capital doit dcrotre (respectivement
augmenter) du mme montant.
ii.

Sous-additivit :

+ +
Interprtation : Un portefeuille constitu de sous-portefeuilles ne doit pas tre plus
risqu que la somme des risques associs aux sous-portefeuilles. De mme en
assurance, la fusion de deux centres de profit ne cre pas de risque supplmentaire.
La diversification tend diminuer le risque global.

52

iii.

Homognit positive :
0

Interprtation : Une fusion de portefeuilles (ou de centres de profit en assurance)


sans diversification ne rduit pas le risque (ou le besoin en capital).
iv.

Monotonie :


Interprtation : Si les rsultats du centre de profit X sont toujours infrieurs ceux de
Y, le besoin en capital pour X doit tre suprieur celui de Y.
Laxiome de sous-additivit est le plus important.
En effet, si les risques sont sous-additifs, laddition des risques individuels donne une
sorte denveloppe ou borne suprieure des risques. Si ce nest pas le cas, lutilisation
du risque agrg comme indicateur de risque global peut entraner une sous
valuation de ce risque global.

53

2.2

Non sous-additivit de la Value-at-Risk

La Value-at-Risk est sousadditive seulement si la distribution de profits et pertes est


normale (ou de manire gnrale elliptique). Dans les autres cas, ce nest donc pas
une mesure de risque cohrente.

Exemple :
Considrons lensemble des scnarios quiprobables suivants pour deux
portefeuilles X et Y.
Scnarios

X+Y

-5

27

26

53

37

34

71

16

-3

13

32

17

49

-19

-11

-30

-7

42

35

22

12

34

-13

-26

-39

10

-2

VaR 90%

13

11

30

NB : Dans cet exemple, les donnes correspondent des pertes ou profits et non
des rendements.
On a : 90% + 90% = 13 + 11 = 24 et 90% + = 30
Donc 90% + 90% 90% +
Lagrgation des 2 portefeuilles X et Y entrane une augmentation du risque .

54

Chapitre 4

Etude dun article de recherche

Charpentier Arthur, Oulidi Abder : Beta kernel quantile estimators of heavy-tailed loss
distributions. Statistics and Computing, Volume 20, 35-55 (2009)

I.

Introduction

Le quatrime chapitre de ce projet consiste en ltude de larticle de recherche


intitul Beta kernel quantile estimators of heavy-tailed loss distributions crit par
Arthur Charpentier et Abder Oulidi et publi dans la revue Statistics and Computing.
Cet article propose une nouvelle mthode destimation de quantiles extrmes
base sur lestimation non paramtrique de la fonction de densit laide de noyaux
Bta.
Dans une premire partie, les diffrentes mthodes actuellement utilises pour
estimer les quantiles extrmes dune distribution sont prsentes. On distingue trois
grandes catgories de mthodes destimation : lestimation paramtrique, la thorie
des valeurs extrmes et lestimation non paramtrique. Ces diffrentes mthodes ont
t tudies en dtail dans le deuxime chapitre de ce rapport.
Dans une deuxime partie, lapproche non paramtrique destimation de
quantiles est tudie plus en dtail et deux classes destimateurs sont distingues. La
premire classe destimateurs, appele classe explicite , est base sur les
statistiques dordre. Dans cette classe figurent lestimateur empirique et les
estimateurs de Padgett, Harrell-Davis et Park, que nous tudierons dans la suite de ce
chapitre. La seconde classe destimateurs, appele classe non-explicite , est base
sur linversion de lestimateur de la fonction de rpartition. On trouve lestimateur de
la fonction de rpartition de la distribution en intgrant lestimateur noyau de la
densit, puis on inverse cette fonction afin dobtenir le quantile associ au niveau de
confiance voulu. Dans cette classe figurent linverse de la fonction de rpartition
estime partir du noyau dEpanechnikov, ainsi que quatre nouveaux estimateurs
calculs partir de noyaux Bta.
Dans cet article, les performances de ces nouveaux estimateurs bass sur des
noyaux Bta sont tudies, et compares avec les performances des cinq autres
estimateurs. Pour cela, des simulations ont t ralises sur cinq distributions, 2
queues fines (normale, Weibull), moyennes (lognormale) et 2 queues paisses
(mlange Pareto/lognormal).

55

Pour chaque distribution, les performances des neuf estimateurs proposs ont
pu tre compares avec le critre de lerreur quadratique moyenne (MSE Mean
Squared Error) :

=1

o :

est le nombre dchantillons simuls (ici, = 2000)


est la taille des chantillons simuls (ici = 200 )
est lordre du quantile recherch, ou niveau de confiance (ici = 0,95 )

est le quantile estim dordre obtenu partir du me chantillon


simul de la distribution considre
est le quantile thorique dordre de la distribution considre

Dans ce chapitre, on se propose de refaire ce travail de simulation laide du


logiciel R. Cependant, nous nous intresserons seulement aux quantiles dordre
proche de 1. En particulier dans ce compte rendu, les rsultats seront donns pour
= 0,95, ce qui correspond un risque de 5%.
La suite du chapitre est organise de la manire suivante :
Dans un premier temps, nous allons procder une description des neuf
estimateurs tudis. Ensuite, les cinq distributions sur lesquelles les performances de
ces estimateurs vont tre tudies seront dcrites. Enfin, nous nous intresserons
aux rsultats obtenus lors des simulations, et nous les comparerons ceux obtenus
dans larticle.

56

II. Description des estimateurs tudis


Pour chacun des 9 estimateurs dcrits ci-dessous, on considre :
1 , , lchantillon simul de taille (ici = 200 )
lordre du quantile recherch, ou niveau de confiance (ici = 0,95 )
Les 9 estimateurs tudis sont les suivants (on reprendra les notations utilises
dans larticle) :

2.1

Quantile empirique (R)

Il sagit du quantile suggr par le logiciel R (fonction quantile).

2.2

Estimateur de quantile Epanechnikov (E)

Il est obtenu en inversant lestimateur de la fonction de rpartition, obtenue avec le


noyau dEpanechnikov.

= 1

1
=

=1

3

1
4

o 1 est linverse de la fonction de rpartition, obtenue avec une mthode

numrique
2.3

Estimateur dHarrel-Davis (HD)

Il sagit dune somme pondre des statistiques dordre. Le principe de cet


estimateur consiste donner plus de poids aux statistiques dordres o est
proche de . Dans le cas de lestimateur dHarrel-Davis, on utilise un noyau Bta
asymtrique.

=
=1

=
=1

+1

, +1

+1

+1 +1

+1 1

+1 1

o :

+1

, +1

est la densit de la distribution Bta avec = + 1


= +1

les pour = 1, , sont les statistiques dordre


57

2.4

Estimateur de Padgett (PDG)

Tout comme lestimateur dHarrel-Davis, il sagit dune somme pondre des


statistiques dordre. Dans le cas de lestimateur de Padgett, le noyau utilis pour la
pondration est un noyau gaussien, donc symtrique.

, , =
=1

=1

=
=1

o :

est la densit de la loi normale centre rduite


est la fonction de rpartition de la loi normale centre rduite
les pour = 1, , sont les statistiques dordre
reprsente la largeur de fentre. Pour la simulation, la largeur de fentre
suggre par Harrel et Davis (1982) est

58

1
+1

2.5

Estimateur de Park (PRK)

Lestimateur de Park est trs similaire lestimateur dHarrel-Davis car il sagit encore
dune somme pondre des statistiques dordre. Le noyau utilis est un noyau Bta
asymtrique.

,
=1

o :

,
est la fonction de rpartition de la distribution Bta de

paramtres avec et avec


1

=
+1
= +1

les pour = 1, , sont les statistiques dordre


reprsente la largeur de fentre. Pour la simulation, la largeur de fentre
suggre par Harrel et Davis (1982) est

1
+1

Les 4 estimateurs restants ont t labors par Charpentier et Oulidi. Ils sont
construits partir des estimateurs noyau de la densit de la distribution, et utilisent
des noyaux Bta asymtriques.
Pour ces 4 estimateurs, il est ncessaire de transformer pralablement lchantillon
initial 1 , ,
afin dobtenir un chantillon transform 1 , , =
(1 ), , ( ) ayant une distribution proche de la distribution uniforme sur
lintervalle 0; 1 (cf. Annexe du chapitre 4 5.2 Simulation : Explication du code R
Distribution de Champernowne).

59

2.6

Estimateur utilisant le noyau Bta1 (B1)

La premire tape consiste estimer la densit de la distribution de lchantillon


transform, laide dun estimateur noyau de la densit. Le noyau utilis est un
noyau Bta asymtrique.

1
=

1 ; ;

0 < < 1

=1

o :
1 ; ; reprsente la fonction de densit de la distribution Bta de
paramtres et avec

+1

1
+1

reprsente la largeur de fentre. Pour la simulation, la largeur de fentre


suggre par Harrel et Davis (1982) est

1
+1

Ensuite, lestimateur de la fonction de rpartition de lchantillon 1 , , est


dcrit par :

1
=

=1 0

1 ; ;

On obtient le quantile dordre p de la distribution de lchantillon 1 , , en


inversant lestimateur de la fonction de rpartition , laide dune mthode
numrique. Pour obtenir le quantile de lchantillon initial 1 , , , il suffit
dappliquer finalement la transformation inverse 1 au quantile obtenu
prcdemment.

1 , , , = 1 (1 ), , ( ) ,

60

2.7

Estimateur utilisant le noyau modifi Bta2 (B2)

Le principe est le mme que pour lestimateur utilisant le noyau Bta1, cependant le
noyau Bta a t modifi afin de rduire le biais sur les bords. On utilise donc le
noyau suivant :

2 ; ; =
,

2, 1 2

0,2

1 2, 1

= 2 2 + 2.5 44 + 6 2 + 2.25 2

2.8 Estimateur MACRO-Bta de Gouriroux et Montfort (2006)


utilisant les noyaux Bta1 et Bta2 (MACRO B1 et MACRO B2)
Lorsque est plutt petit (30 ou 50), il arrive que la masse totale de la densit ne soit
pas exactement gale 1. Lapproche de Gouriroux et Monfort consiste donc
diviser la valeur estime de la densit 0,1 par la masse totale de la densit
estime. Cette transformation assure ainsi un poids total de 1.
On transforme donc les 2 densits prcdentes (lune estime laide du noyau
Bta1 et lautre estime laide du noyau Bta2) de la manire suivante :

,
=

,
1

0 ,

61

0,1

III. Etude des 5 distributions utilises pour la simulation


Les performances des neuf estimateurs seront tudies en considrant les
quantiles des cinq distributions suivantes :
Deux distributions queues fines
La distribution Normale de paramtres = 5 et = 1
La distribution de Weibull de paramtres = 1 et = 1.5
Une distribution queue moyenne
La distribution Log normale de paramtres = 0 et = 0.5
Deux distributions queues paisses
La distribution 30% Pareto et 70% Log normale de paramtres
o = 0 et = 0.5 pour la distribution Log normale
o = 1 et = 1.5 pour la distribution de Pareto
La distribution 70% Pareto et 30% Log normale de paramtres
o = 0 et = 0.5 pour la distribution Log normale
o = 1 et = 1.5 pour la distribution de Pareto
On prsente dans ce qui suit les principales caractristiques de chacune des
distributions tudies. Le script dtaill et expliqu de cette tude est visible en
annexe du chapitre 4 5.1.

62

3.1 Etude la distribution normale


Les principales caractristiques de cette distribution sont regroupes dans le tableau
ci-dessous.
Carte didentit de la distribution normale
Moyenne
=5
Ecart-type
=1
1 2
1

=
2
Fonction de densit
2
Queue de distribution
fine
Symtrie de la distribution
symtrique
VaR(95%)
6,644854

Les 2 graphiques ci-dessous reprsentent les fonctions de densit et de


rpartition de la distribution normale de paramtres = 5 et = 1.

63

3.2 Etude la distribution de Weibull


Les principales caractristiques de cette distribution sont regroupes dans le tableau
ci-dessous.
Carte didentit de la distribution de Weibull
Paramtre de forme
= 1,5
Paramtre dchelle
=1
1
Fonction de densit
=


Queue de distribution
fine
Symtrie de la distribution
asymtrique
VaR(95%)
2,078111

Les 2 graphiques ci-dessous reprsentent les fonctions de densit et de


rpartition de la distribution de Weibull de paramtres = 1,5 et = 1.

64

3.3 Etude de la distribution lognormale


Les principales caractristiques de cette distribution sont regroupes dans le tableau
ci-dessous.
Carte didentit de la distribution lognormale
Moyenne
=0
Ecart-type
= 0.5
Fonction de densit

1
2

Queue de distribution
Symtrie de la distribution
VaR(95%)

0; +

moyenne
asymtrique
2,276017

Les 2 graphiques ci-dessous reprsentent les fonctions de densit et de


rpartition de la distribution lognormale de paramtres = 0 et = 0.5.

65

3.4 Etude de la distribution 30% Pareto et 70% lognormale


Les principales caractristiques de cette distribution sont regroupes dans le tableau
ci-dessous.
Carte didentit de la distribution 30% Pareto et 70% lognormale
Moyenne
=0
Ecart-type
= 0.5
Paramtre de forme
= 1.5
Paramtre dchelle
=1
2
1

0,70
0,30
2

Fonction de densit
=

+
0; +
+ +1
2
Queue de distribution
paisse
Symtrie de la distribution
asymtrique
VaR(95%)
2,917

Les 2 graphiques ci-dessous reprsentent les fonctions de densit et de


rpartition de la distribution 30% Pareto et 70% lognormale de paramtres :
o = 0 et = 0.5 pour la distribution lognormale
o = 1 et = 1.5 pour la distribution de Pareto

66

3.5 Etude de la distribution 70% Pareto et 30% lognormale


Les principales caractristiques de cette distribution sont regroupes dans le tableau
ci-dessous.
Carte didentit de la distribution 70% Pareto et 30% lognormale
Moyenne
=0
Ecart-type
= 0.5
Paramtre de forme
= 1.5
Paramtre dchelle
=1
2
1

0,30
0,70
2

Fonction de densit
=

+
0; +
+ +1
2
Queue de distribution
paisse
Symtrie de la distribution
asymtrique
VaR(95%)
4,828

Les 2 graphiques ci-dessous reprsentent les fonctions de densit et de


rpartition de la distribution 70% Pareto et 30% lognormale de paramtres :
o = 0 et = 0.5 pour la distribution lognormale
o = 1 et = 1.5 pour la distribution de Pareto

67

3.6

Fonctions de densit et de rpartition des 5 distributions

68

IV. Simulations
Le travail de ralisation a t ralis laide du logiciel R. Pour plus de dtails
concernant lexplication du code, se rfrer lannexe 5.2 du chapitre 4.
On rappelle ci-dessous le nom des diffrents estimateurs utiliss.
R : Quantile empirique suggr par le logiciel R
E : Quantile obtenu en inversant lestimateur noyau de la fonction de
rpartition obtenu avec le noyau dEpanechnikov
HD : Estimateur dHarrel-Davis
PDG : Estimateur de Padgett
PRK : Estimateur de Park
B1 : Estimateur utilisant le noyau Bta1
MACRO B1 : Estimateur MACRO-Bta de Gouriroux et Montfort (2006)
utilisant le noyau Bta1
B2 : Estimateur utilisant le noyau Bta2
MACRO B2 : Estimateur MACRO-Bta de Gouriroux et Montfort (2006)
utilisant le noyau Bta2
On prsente dans ce qui suit les rsultats obtenus pour chaque distribution tudie.

69

4.1

Estimation de la VaR dans le cas de la distribution normale

On tudie ici la distribution normale. Les informations principales relatives


cette distribution sont rsumes dans le tableau ci-dessous :
Carte didentit de la distribution normale
Moyenne

=
=1

Ecart-type

1 2

Type de la distribution


2
Distribution symtrique queue fine

VAR(95%)

6,644854

Densit

Sur le graphique ci-dessous, le quantile thorique de 6,644854 est reprsent


par la ligne verticale en trait plein.

70

La comparaison des botes moustaches des diffrents estimateurs montre que


les valeurs prises par ces estimateurs stalent sur des intervalles similaires (les
valeurs des estimateurs des quantiles varient approximativement entre 6 et 7,3) et
leur mdiane est centre sur le quantile thorique, except les estimateurs
dEpanechnikov et de Park dont la mdiane est lgrement excentr vers la droite. A
priori les estimateurs B1, B2 et MACRO B2 semblent les plus performants.
Estimateur
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2
Meilleur

Rapport MSE
0.9657184
0.8751344
0.8640298
2.067519
0.752854
0.8831294
0.7008016
0.7539837
B2

Le tableau ci-dessus prsente des rapports de MSE. La MSE de chaque


estimateur est divise par la MSE du quantile empirique calcul avec la fonction
quantile sous R. Le fait de considrer le rapport et non la MSE va permettre
dhomogniser les rsultats obtenus pour les cinq distributions. En effet, si on
considre uniquement la MSE individuelle des estimateurs pour chaque distribution,
lordre de grandeur va diffrer dune distribution lautre et il sera difficile de faire
des comparaisons.
Lestimateur utilisant le noyau Bta2 est le plus performant du point de vue du
critre de la MSE, car le rapport de MSE obtenu gal 0,7008016 est le plus proche
de 0. Les autres estimateurs, except lestimateur de Park, ont des performances trs
acceptables avec un rapport de MSE compris entre 0,75 et 0,97. On remarque par
ailleurs que lestimateur de Park est un peu moins performant avec un rapport de
2,067519. La MSE confirme donc ce que lobservation des botes moustache avait
mis en vidence.

71

4.2 Estimation de la VaR dans le cas de la distribution lognormale


On tudie ici la distribution lognormale. Les informations principales relatives
cette distribution sont rsumes dans le tableau ci-dessous :
Carte didentit de la distribution lognormale
Moyenne

=
= 0,5

Ecart-type
Densit
Type de la distribution

0; +
2
Distribution asymtrique queue moyenne

VAR(95%)

2,276017

Sur le graphique ci-dessous, le quantile thorique de 2,276017 est reprsent


par la ligne verticale en trait plein.

72

La comparaison des botes moustaches des diffrents estimateurs montre que


les valeurs prises par ces estimateurs stalent sur des intervalles similaires (les
valeurs des estimateurs des quantiles varient approximativement entre 1,7 et 3) et
sont centres sur le quantile thorique, except lestimateur de Park qui est
lgrement excentr. Sa mdiane est proche de 2,5, alors que celles des autres
estimateurs fluctuent autour de 2,3, valeur trs proche du point 2,276017. A priori les
estimateurs B2 et MACRO B2 semblent les plus performants.
Estimateur
E
HD
PDG
PRK
B1
MACRO B1
B2/R
MACRO B2
Meilleur

Rapport MSE
0.9288698
0.9911004
0.995089
2.55509
0.911929
0.7464002
0.5906554
0.7471264
B2

Du point de vue du critre de la MSE, lestimateur utilisant le noyau Bta2 est le


plus performant, car le rapport de MSE obtenu gal 0,5906554 est le plus proche de
0. Les autres estimateurs, except lestimateur de Park, ont des performances
semblables et trs acceptables. On peut distinguer 2 classes destimateurs :
0,74; 0,75 : estimateurs MACRO B1 et MACRO B2
0,91; 1 : estimateurs E, HD, PDG et B1
On remarque par ailleurs que lestimateur de Park est un peu moins performant
avec un rapport de MSE de 2,55509. La MSE confirme donc ce que lobservation des
botes moustache avait mis en vidence.

73

4.3 Estimation de la VaR dans le cas de la distribution de Weibull


On tudie ici la distribution de Weibull. Les informations principales relatives
cette distribution sont rsumes dans le tableau ci-dessous :
Carte didentit de la distribution de Weibull
Paramtre de forme

= ,
=1

Paramtre dchelle

Type de la distribution

1
=

+

Distribution asymtrique queue fine

VAR(95%)

2,078111

Densit

Sur le graphique ci-dessous, le quantile thorique de 2,078111 est reprsent


par la ligne verticale en trait plein.

74

La comparaison des botes moustaches des diffrents estimateurs montre que


les valeurs prises par ces estimateurs stalent sur des intervalles similaires (les
valeurs des estimateurs des quantiles varient approximativement entre 1,5 et 3) et
sont centres sur le quantile thorique, except lestimateur de Park qui est plus
excentr que les autres. Sa mdiane est proche de 2,25, alors que celles des autres
estimateurs fluctuent autour de 2,8, en restant trs proche du quantile thorique
gal 2, 078111. A priori les estimateurs B2 et MACRO B2 semblent les plus
performants, car leur mdiane concide quasiment parfaitement avec la valeur
thorique du quantile.
Estimateur
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2
Meilleur

Rapport MSE
0.8860268
0.9150579
0.909908
2.268103
0.8177963
0.8372592
0.7371448
0.7823687
B2

Du point de vue du critre de la MSE, lestimateur utilisant le noyau Bta2 est le


plus performant, car le rapport de MSE obtenu gal 0,7371448 est le plus proche de
0. Les autres estimateurs, except lestimateur de Park, ont des performances
semblables et trs acceptables avec un rapport de MSE compris entre 0,78 et 0,92.
On remarque par ailleurs que lestimateur de Park est un peu moins performant avec
un rapport de MSE de 2,268103. La MSE confirme donc ce que lobservation des
botes moustache avait mis en vidence.

75

4.4 Estimation de la VaR dans le cas de la distribution 30% Pareto


70% lognormale
On tudie ici la distribution 30% Pareto 70% lognormale. Les informations
principales relatives cette distribution sont rsumes dans le tableau ci-dessous :
Carte didentit de la distribution de 30% Pareto 70% lognormale
= ,
Distribution Paramtres de forme
de Pareto
Paramtre dchelle
=1
Distribution
lognormale

Moyenne

=0

Ecart-type

= 0,5

Densit
Type de la distribution

0,70

0,30
+ +1

0; +
2
Distribution asymtrique queue paisse

VAR(95%)

2,917

Sur le graphique ci-dessous, le quantile thorique de 2,917 est reprsent par


la ligne verticale en trait plein.

76

La comparaison des botes moustaches des diffrents estimateurs montre que


les valeurs prises par ces estimateurs stalent sur des intervalles similaires (les
valeurs des estimateurs des quantiles varient approximativement entre 2 et 6) et sont
centres sur le quantile thorique, except pour lestimateur de Park qui est plus
excentr que les autres vers la droite et dont ltendue est plus importante (son
maximum est proche de 9) et lestimateur MACRO B1 qui est lgrement excentr
vers la gauche, mme si son tendue est restreinte lintervalle 2; 4 . A priori les
estimateurs B2 et MACRO B2 semblent les plus performants : ils sont concentrs sur
un intervalle plus restreint de valeurs et leur mdiane est trs proche de la valeur
thorique du quantile.
Estimateur
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2
Meilleur

Rapport MSE
3.792388
1.435686
2.766881
4.126024
0.7621095
0.7570776
0.6684107
0.6098167
MACRO B2

Du point de vue du critre de la MSE, lestimateur MACRO utilisant le noyau


Bta2 est le plus performant, car le rapport de MSE obtenu gal 0,6098167 est le
plus proche de 0. Les autres estimateurs utilisant les noyaux Bta1 et Bta2
obtiennent galement de bons rsultats avec des rapports de MSE compris entre 0,66
et 0,76. Les estimateurs dEpanechnikov, Harrel-Davis, Padgett et Park obtiennent
quant eux des rsultats plutt mdiocres avec un rapport de MSE allant de
1,435686 pour Harrel-Davis 4,126024 pour Park. Le critre de la MSE confirme donc
ce que lobservation des botes moustache avait mis en vidence.

77

4.5 Estimation de la VaR dans le cas de la distribution 70% Pareto


30% log normale
On tudie ici la distribution 70% Pareto 30% lognormale. Les informations
principales relatives cette distribution sont rsumes dans le tableau ci-dessous :
Carte didentit de la distribution de 70% Pareto 30% lognormale
= ,
Distribution Paramtres de forme
de Pareto
Paramtre dchelle
=1
Distribution
lognormale

Moyenne

=0

Ecart-type

= 0,5

Densit
Type de la distribution

0,30

0,70
+ +1

0; +
2
Distribution asymtrique queue paisse

VAR(95%)

4,828

Sur le graphique ci-dessous, le quantile thorique de 4,828 est reprsent par la


ligne verticale en trait plein.

78

La comparaison des botes moustaches des diffrents estimateurs montre que


les valeurs prises par ces estimateurs stalent sur des intervalles similaires (les
valeurs des estimateurs des quantiles varient approximativement entre 2 et 10) et
sont centres sur le quantile thorique, except pour lestimateur de Park qui est plus
excentr que les autres vers la droite et dont ltendue est plus importante (son
maximum est proche de 20) et lestimateur MACRO B1 qui est lgrement excentr
vers la gauche, mme si son tendue est restreinte lintervalle 2; 10 . Lestimateur
B1 semble premire vue le plus performant : ses valeurs sont concentres sur un
intervalle plus restreint de valeurs et sa mdiane est trs proche de la valeur
thorique du quantile.
Estimateur
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2
Meilleur

Rapport MSE
1.214980
1.443129
1.742604
4.280306
0.6804064
1.313138
1.412731
1.031424
B1

Du point de vue du critre de la MSE, lestimateur utilisant le noyau Bta1 est le


plus performant, car le rapport de MSE obtenu gal 0,6804064 est le plus proche de
0. Lestimateur le moins performant est encore lestimateur de Park avec un rapport
de MSE gal 4,280306. Les rsultats des autres estimateurs sont comparables et
fluctuent entre 1 et 2.

79

4.6
Estimateur
E
HD
PDG
PRK
B1
MACB1
B2
MACB2
Meilleur

Conclusion finale
Normale

Lognormale

Weibull

0.9657184
0.8751344
0.8640298
2.067519
0.752854
0.8831294
0.7008016
0.7539837
B2

0.9288698
0.9911004
0.995089
2.55509
0.911929
0.7464002
0.5906554
0.7471264
B2

0.8860268
0.9150579
0.909908
2.268103
0.8177963
0.8372592
0.7371448
0.7823687
B2

30%Pareto
70% Lognormale
3.792388
1.435686
2.766881
4.126024
0.7621095
0.7570776
0.6684107
0.6098167
MACRO B2

70%Pareto
30% Lognormale
1.214980
1.443129
1.742604
4.280306
0.6804064
1.313138
1.412731
1.031424
B1

On peut voir que les estimateurs utilisant les noyaux Bta1 et Bta2 sont les
plus performants. Ils donnent de bons rsultats la fois pour les distributions
queues fines moyennes ou paisses. Dans tous les cas de figure, lestimateur de Park
est le moins performant. Le rapport de MSE pour cet estimateur varie entre
2,067519 et 4,280306. Par ailleurs, on peut remarquer que les estimateurs dHarrelDavis, Epanechnikov et Padgett donnent globalement de meilleurs rsultats sur les
distributions queues fines ou moyennes. Enfin, on peut galement remarquer que
les rsultats ne sont pas uniformment les mmes. On observe plus de diffrences
entre les estimateurs pour les distributions queues paisses : lintervalle de
variation des valeurs des estimateurs est beaucoup plus large pour les 2 distributions
queues paisses, savoir le mlange 70% Pareto/30% Log normale et le mlange
30% Pareto/70% Log normale.
Les conclusions que nous pouvons tirer de cette simulation rejoignent donc
celles mises dans larticle par Charpentier et Oulidi. Cependant, on observe des
divergences dans les rsultats concernant lestimateur de Padgett. En effet, cet article
montre que cet estimateur a de trs mauvaises performances pour les trois
catgories de distribution, avec un rapport de MSE atteignant 2.542 103 pour le
mlange 70% Pareto 30% Log normale, pour = 200 et = 0,95 (cf. Table 18 de
larticle), alors que dans notre tude, les rsultats sont bien meilleurs.

80

V. Annexes du chapitre 4
5.1 Description des 5 distributions : Explication du code R
Avant de commencer le travail de simulation proprement dit, nous allons tudier les
5 distributions considres. Ce script R permet pour chaque distribution de :
reprsenter graphiquement la fonction de densit
reprsenter graphiquement la fonction de rpartition
calculer le quantile dordre = 0,95 et le reprsenter sur le graphe de la
fonction de rpartition
Script R Calcul des densits, fonctions de rpartition et du quantile dordre 0.95
library(actuar)
x1<-seq(0,10,0.001)
x2<-seq(0,5,0.001)
x3<-seq(0.001,5,0.001)
x4<-seq(0.001,7,0.001)
#Normal distribution
d1<-dnorm(x1,mean=5,sd=1)
fdr1<-pnorm(x1,mean=5,sd=1)
q1<-qnorm(0.95,mean=5,sd=1) #6.644854
#Weibull distribution
d2<-dweibull(x2,shape=1.5,scale=1)
fdr2<-pweibull(x2,shape=1.5,scale=1)
q2<-qweibull(0.95,shape=1.5,scale=1) #2.078111
#Lognormal distribution
d3<-dlnorm(x3,meanlog=0,sdlog=0.5)
fdr3<-plnorm(x3,meanlog=0,sdlog=0.5)
q3<-qlnorm(0.95,meanlog=0,sdlog=0.5) #2.276017
#Mixture Pareto/lognormal
#30%-70%
d4<-0.7*dlnorm(x4,meanlog=0,sdlog=0.5)+0.3*dpareto(x4,shape=1.5,scale=1)
fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)
quantiles4<-cbind(x4,fdr4)
q4<-quantiles4[fdr4>0.95][1] #2.917
#70%-30%
d5<-0.3*dlnorm(x4,meanlog=0,sdlog=0.5)+0.7*dpareto(x4,shape=1.5,scale=1)
fdr5<-0.3*plnorm(x4,meanlog=0,sdlog=0.5)+0.7*ppareto(x4,shape=1.5,scale=1)
quantiles5<-cbind(x4,fdr5)
q5<-quantiles5[fdr5>0.95][1] #4.828

81

Script R - Graphiques
#Densits
plot(x1,d1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark
magenta", xlab="",ylab="Normal
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x2,d2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark
magenta",xlab="",ylab="Weibull
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x3,d3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark
magenta",xlab="",ylab="Lognormal
density",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x4,d4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal :
mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal
density",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
plot(x4,d5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal :
mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal
density",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
#Fonctions de rpartition
plot(x1,fdr1,type="l",main="Normal distribution",sub="mean=5 sd=1",col="dark
magenta",xlab="",ylab="Normal cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q1,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x2,fdr2,type="l",main="Weibull distribution",sub="shape=1.5 scale=1",col="dark
magenta",xlab="",ylab="Weibull cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q2,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x3,fdr3,type="l",main="Lognormal distribution",sub="mean=0 sd=0.5",col="dark
magenta",xlab="",ylab="Lognormal cumulative
df",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q3,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x4,fdr4,type="l",main="30% Pareto / 70% Lognormal distribution",sub="Lognormal
: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative
df",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q4,col="red",lty=3)
abline(h=0.95,col="red",lty=3)
plot(x4,fdr5,type="l",main="70% Pareto / 30% Lognormal distribution",sub="Lognormal
: mean=0 sd=0.5\nPareto : shape=1.5 scale=1 ",ylab="Pareto/Lognormal cumulative
df",xlab="",col="dark
magenta",lwd=2,cex.main=0.8,cex.lab=0.8,cex.axis=0.8,cex.sub=0.8)
abline(v=q5,col="red",lty=3)
abline(h=0.95,col="red",lty=3)

82

Remarque : Pour les lois usuelles le logiciel R donne directement le quantile dordre
recherch.
Exemples :
Distribution normale

q1<-qnorm(0.95,mean=5,sd=1)

Distribution de Weibull

q2<-qweibull(0.95,shape=1.5,scale=1)

Distribution log normale

q3<-qlnorm(0.95,meanlog=0,sdlog=0.5)

Cependant, pour le cas du mlange Pareto/Log normale , on ne peut pas


utiliser ces fonctions car le quantile dune somme de distributions est diffrent de la
somme des quantiles des distributions prises sparment. Soit une variable
alatoire, et sa fonction de rpartition :
=
La fonction quantile est 1 .
Si on considre 2 variables alatoires et alors :
1 + 1 + 1
Source : Blog personnel dArthur Charpentier
URL : http://blogperso.univ-rennes1.fr/arthur.charpentier/index.php/post/2009/07/16/Quantile-de-somme-ousomme-de-quantiles

Par consquent, on utilise la mthode suivante pour approcher le quantile.


On considre :
= un vecteur de valeurs ordonnes partir duquel la fonction de
rpartition est calcule
le vecteur contenant les valeurs de la fonction de rpartition
On recherche la plus petite valeur du vecteur =
associe soit suprieure 0,95, ie :

inf

telle que la valeur de

| 0,95

Exemple :
Mlange Pareto/ Log normale 30%/70%
fdr4<-0.7*plnorm(x4,meanlog=0,sdlog=0.5)+0.3*ppareto(x4,shape=1.5,scale=1)
quantiles4<-cbind(x4,fdr4)
q4<-quantiles4[fdr4>0.95][1]

83

5.2 Simulations : Explication du code R


Dclaration des variables ncessaires au stockage des donnes
#Les vecteurs Q1 Q9 contiennent les valeurs des quantiles estims partir
des different estimateurs
Q1<-c(1,2000) #Quantiles historiques (function quantile de R)
Q2<-c(1,2000) #Estimateur noyau dEpanechnikov de la densit
Q3<-c(1,2000) #Mthode: Estimateur de Harrel-Davis
Q4<-c(1,2000) #Mthode: Estimateur de Padgett
Q5<-c(1,2000) #Mthode: Estimateur de Park
Q6<-c(1,2000) #Estimateur noyau Beta1 de la densit
Qest6<-c(1,2000)
Q7<-c(1,2000) #Estimateur noyau MACRO-Beta1 de la densit
Qest7<-c(1,2000)
Q8<-c(1,2000) #Estimateur noyau Beta2 de la densit
Qest8<-c(1,2000)
Q9<-c(1,2000) #Estimateur noyau MACRO-Beta2 de la densit
Qest9<-c(1,2000)
B<-c(1,200)
K1<-c(1,200)
BPark<-c(1,200)
FB1<-c(1,999)
FBBis1<-c(1,999)
FBMACRO1<-c(1,999)
FBBisMACRO1<-c(1,999)
densNoyauBeta1<-c(1,999)
densNoyauBetaBis1<-c(1,999)
densNoyauBetaMACRO1<-c(1,999)
densNoyauBetaBisMACRO1<-c(1,999)

La premire tape du script R consiste dclarer tous les vecteurs ncessaires


au stockage des donnes. On ralise une simulation sur 2000 chantillons, les
quantiles estims des 2000 chantillons pour chaque type destimateur sont stocks
dans des vecteurs de dimension (1,2000).
Les quantiles 1 5 sont estims directement partir de lchantillon original
1 , , .
1 reprsente le vecteur des quantiles historiques (fonction quantile de R)
2 reprsente le vecteur des quantiles estims partir de lestimateur noyau
de la densit avec le noyau dEpanechnikov
3 reprsente le vecteur des quantiles estims avec lestimateur de HarrelDavis
4 reprsente le vecteur des quantiles estims avec lestimateur de Padgett
5 reprsente le vecteur des quantiles estims avec lestimateur de Park

84

Les quantiles 6 9 sont estims partir de lchantillon transform 1 , , , o


= , , , = 1, , et , , est la fonction de rpartition de la distribution
de Champernowne. Nous verrons plus en dtail dans la suite de lalgorithme,
comment sont estims les paramtres de cette fonction.
6 reprsente le vecteur des quantiles estims partir de lestimateur noyau
de la densit avec le noyau Beta1
7 reprsente le vecteur des quantiles estims partir de lestimateur noyau
MACRO-Beta1 de la densit (transformation globale de la lestimateur noyau
de la densit afin dassurer un poids total de 1)
8 reprsente le vecteur des quantiles estims partir de lestimateur noyau
de la densit avec le noyau Beta2
9 reprsente le vecteur des quantiles estims partir de lestimateur noyau
MACRO-Beta2 de la densit (transformation globale de la lestimateur noyau
de la densit afin dassurer un poids total de 1)
Dclaration des constantes et fonctions utilises dans lalgorithme
#Champernowne function
#density
dchampernowne<-function(y,a,M,c)
{return ((a*(y+c)^(a-1)*((M+c)^a-c^a))/(((y+c)^a +(M+c)^a -(2*c^a))^2))}
#df
pchampernowne<-function(y,a,M,c)
{return (((y+c)^a-c^a)/((y+c)^a+(M+c)^a-2*c^a))}
#Log vraisemblance
LChamp<-function(par,X)
{ a<-par[1]
c<-par[2]
logvrais<-log(prod(dchampernowne(X,a,median(X),c)))
return(-logvrais)}
#Beta function HD estimate
Beta<-function(x)
{dbeta(x,201*0.95,201*0.05)}
#Quantile dordre p=0.95 de la distribution considre
VraiQuantile<-qnorm(0.95,mean=5,sd=1)
#Largeur de fentre b
b<-sqrt(0.95*0.05/201)
#Fonction ro utilise dans le noyau Bta 2
ro<-function(x)
{2*b^2+2.5-sqrt(4*b^4+6*b^2+2.25-x^2-(x/b))}

85

Dans lalgorithme de simulation plusieurs fonctions et constantes sont ncessaires :


Distribution de Champernowne
Lide consiste transformer lchantillon initial 1 , , en un nouvel chantillon
1 , , o = , , , = 1, , . On doit estimer les paramtres , , de
cette distribution de telle sorte que la distribution de Champernowne ainsi estime
soit proche de la distribution de lchantillon original 1 , , . Ainsi, lchantillon
transform 1 , , aura une distribution proche de la distribution uniforme sur
lintervalle 0; 1 .
Ceci peut tre justifi par le thorme suivant :
Pour une variable alatoire de fonction de rpartition , on note son inverse :
=
Si dsigne une variable alatoire relle uniforme sur 0; 1 , alors = a pour
fonction de rpartition .
La fonction de rpartition de la distribution de Champernowne est :
0

,, =

+
+ + + 2

o > 0, 0 et > 0
La densit associe est dfinie par :
0

,,

+ 1 +
=
+ + + 2

On remarque que ,, = . On estime donc le paramtre par la mdiane


2
empirique de lchantillon 1 , , . Les estimateurs des deux autres paramtres
et sont obtenus avec la mthode du maximum de vraisemblance.
Largeur de fentre
La constante correspond la largeur de fentre utilise dans les estimateurs
noyaux de Padgett, Park et les estimateurs bass sur des noyaux Bta. On prend :

1
+1

86

1/2

Algorithme de simulation
for(i in 1:2000)
{
#Normal distribution
BootX1<-rnorm(200,mean=5,sd=1)
#Estimation des paramtres de la fonction de Champernowne
#La fonction LChamp reprsente loppos de la log vraisemblance de la
distribution de Champernowne
#La fonction permet de trouver les paramtres a et C qui minimise cette
fonction et donc maximise la vraisemblance. Le vecteur c(1,1) correspond
aux valeurs initiales des paramtres dans lalgorithme de la fonction nlm.
est1<-nlm(LChamp,c(1,1),X=BootX1)
#Statistiques ordonnes
X1ord<-sort(BootX1,decreasing=FALSE)
#Empirical quantile
Q1[i]<-quantile(BootX1,0.95)
#E estimate
dens_ep1<-density(BootX1,kernel="epanechnikov")
FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)
FFEp1<-cbind(dens_ep1$x,FnEp1)
Q2[i]<-FFEp1[FnEp1>=0.95][1]
#HD estimate
for(j in 1:200){B[j]<-(integrate(Beta,(j-1)/200,j/200))$value}
Q3[i]<-t(B) %*% X1ord
#PDG Padgett
for(j in 1:200)
{
K1[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,
mean=0,sd=1)
K2[j]<-pnorm(((j/200)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/200)-0.95)/b,
mean=0,sd=1)
}
Q4[i]<-t(K1) %*% X1ord
#PRK Park
for(j in 1:200)
{BPark[j]<-pbeta(j/200,((j/200)/b)+1,((1-(j/200))/b)+1)-pbeta((j-1)/200,
(((j-1)/200)/b)+1,((1-((j-1)/200))/b)+1)}
Q5[i]<-t(BPark) %*% X1ord
#Transformation de l'chantillon
Y1<-pchampernowne(BootX1,est1$estimate[1],median(BootX1),est1$estimate[2])
#Inverse de la fonction de Champernowne
xx<-seq(0,50,0.005)
Yref1<-pchampernowne(xx,est1$estimate[1],median(BootX1),est1$estimate[2])
InvChamp1<-cbind(xx,Yref1)

87

#Beta1 B1
for(d in 1:999)
{x<-d/1000
densNoyauBeta1[d]<-1/200*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}
YY<-seq(0.001,0.999,0.001)
for(m in 1:999) {FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest6[i]<-FFB1[FB1>=0.95][1]
Q6[i]<-InvChamp1[Yref1>=Qest6[i]][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999) {FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest7[i]<-FFBMACRO1[FBMACRO1>=0.95][1]
Q7[i]<-InvChamp1[Yref1>=Qest7[i]][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,(1-x)
/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/200*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999) {FBBis1[m]<-sum(densNoyauBetaBis1[1:m])}
FFB1<-cbind(YY,FBBis1)
Qest8[i]<-FFB1[FBBis1>=0.95][1]
Q8[i]<-InvChamp1[Yref1>=Qest8[i]][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1)}
for(m in 1:999){FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest9[i]<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q9[i]<-InvChamp1[Yref1>=Qest9[i]][1]
}

88

Boxplots des 9 estimateurs de quantiles


boxplot(Q1,Q3,Q5,Q7,Q9,Q11,Q13,Q15,Q17,main="Boxplot for the 9 quantile
estimators\n Normal Distribution",col=c("light blue","light
green","purple","light
gray","pink","red","blue","yellow","green"),horizontal=TRUE,ylim=c(4,10))
legend("bottomright",inset=0.05,c("R","E","HD","PDG","PRK","B1","MACRO
B1","B2","MACRO B2"),fill=c("light blue","light green","purple","light
gray","pink","red","blue","yellow","green"),horiz=FALSE)
abline(v=VraiQuantile,lty=3,lwd=2,col="dark gray")

Calcul de la MSE pour chaque estimateur


#MSE pour m=2000 n=200 p=0.95
#R empirical quantile
MSE1<-1/2000*sum((Q1-VraiQuantile)^2)
#E inverse of the smoothed df with Epanechnikov kernel
MSE3<-1/2000*sum((Q3-VraiQuantile)^2)
#HD Harell-Davis estimate
MSE5<-1/2000*sum((Q5-VraiQuantile)^2)
#PDG Padgett estimate
MSE7<-1/2000*sum((Q7-VraiQuantile)^2)
#PRK Park estimate
MSE9<-1/2000*sum((Q9-VraiQuantile)^2)
#B1
MSE11<-1/2000*sum((Q11-VraiQuantile)^2)
#MACB1 MACRO-Beta estimate with beta1 kernel
MSE13<-1/2000*sum((Q13-VraiQuantile)^2)
#B2
MSE15<-1/2000*sum((Q15-VraiQuantile)^2)
#MACB2 MACRO-Beta estimate with beta2 kernel
MSE17<-1/2000*sum((Q17-VraiQuantile)^2)

89

Chapitre 5

I.

Estimation de la VaR sur des donnes relles

Etude descriptive des donnes


1.1

Etude de la variable Montant

On dispose dun chantillon de donnes relles. Ces donnes ont t collectes


auprs de la compagnie de rassurance de Copenhage (Copenhagen reinsurance).
Elles sont constitues des montants de 2167 sinistres de type incendie sur la priode
1980-1990. Ces donnes ont t ajustes linflation et sont exprimes en millions
de DK (Danish Krone).

On peut dhors et dj remarquer que la majorit des sinistres ont un montant


compris entre 0 et 50 millions de DK. Les sinistres de montant trs lev constituent
donc des faits rares. On en distingue 3 principaux sur la priode 1980-1990 :
un sinistre dun montant denviron 270 Millions de DK en 1980
un sinistre dun montant denviron 150 Millions de DK en 1989
un sinistre dun montant denviron 140 Millions de DK en 1990
90

Parmi les sinistres restants on peut distinguer 2 classes de sinistres :


les sinistres dont le montant est compris entre 0 et 10 Millions de DK,
qui sont les plus nombreux
les sinistres dont le montant est compris entre 10 et 60 Millions de DK
Enfin on ne dnote a priori aucune tendance dans cette srie, et aucun
phnomne de saisonnalit non plus.
On se propose maintenant dtudier les statistiques descriptives de la variable
Montant regroupes dans le tableau ci-dessous.
Statistiques descriptives de la variable Montant
Taille de lchantillon
2167
Minimum
1,000
er
1 Quartile
1,321
Mdiane
1,778
Moyenne
3,385
me
3 Quartile
2,967
Maximum
263,300
Ecart-type
8,507452
Kurtosis
482,198
Skewness
18,73685
La moyenne est 2 fois suprieure la mdiane. Comme lon pouvait sy attendre
en observant la srie temporelle, la distribution des montants est donc clairement
asymtrique.
Le coefficient de Skewness de 18,74 (coefficient de dissymtrie) confirme cette
ide. En effet, un coefficient positif indique une distribution tale vers la gauche, et
donc une queue de distribution tale vers la droite. Ici le coefficient est trs lev,
ce qui indique une concentration forte de la distribution sur la gauche. La distribution
des montants a trs peu de valeurs leves. Lobservation des quartiles permet de
prciser cette asymtrie : 75% des valeurs sont comprises entre 1 et 2,967 Millions de
DK, tandis que les 25% restants sont compris entre 2,967 et 263,30 Millions de DK.
Le coefficient de Kurtosis quant lui indique un excs daplatissement positif
trs lev (482,198 3 = 479,198), qui est la caractristique dune distribution trs
pointue .

91

Lobservation des deux graphiques ci-aprs (histogramme et botes


moustaches) permet de visualiser lasymtrie et le caractre pointu de la
distribution des montants.

92

93

Les deux graphiques ci-dessous reprsentent la fonction de rpartition de la


variable Montant. Le 2me graphique est un zoom du premier pour des pertes
comprises entre 0 et 50 Millions de DK, afin de mieux visualiser la VaR dordre
= 0,95.

Comme lon pouvait sy attendre en observant lhistogramme, le quantile


dordre 0,95 de la distribution des pertes appartient aux montants peu levs. Il est
denviron 10 Millions de DK.
Etant donn que la distribution des montants est trs concentre sur la gauche,
on se propose dtudier la distribution des log montants afin de diminuer ltendue
de la distribution, et dobtenir ainsi une distribution plus rgulire, plus aplatie, et
dont les quantiles extrmes seront sans doute plus simple estimer.

94

1.2

Etude de la variable log(Montant)

On se propose maintenant dtudier les statistiques descriptives de la variable


log(Montant) regroupes dans le tableau ci-dessous.
Statistiques descriptives de la variable log(Montant)
Taille de lchantillon
2167
Minimum
0,000
er
1 Quartile
0,2785
Mdiane
0,5756
Moyenne
0,7870
me
3 Quartile
1,0880
Maximum
5,5730
Ecart-type
0,7167199
Kurtosis
4,179029
Skewness
1,761092
La moyenne et la mdiane sont diffrentes mais nanmoins beaucoup plus
proches que pour la variable Montant. La distribution des log montants est donc
lgrement asymtrique.
Le coefficient de Skewness de 1,761092 confirme cette ide. Il est positif mais
assez faible, ce qui indique une concentration de la distribution sur la gauche et une
queue de distribution tale vers la droite. Lobservation des quartiles permet de
prciser cette asymtrie : 75% des valeurs sont comprises entre 0 et 1,0880, tandis
que les 25% restants sont compris entre 1,0880 et 5,5730.
Le coefficient de Kurtosis quant lui indique un excs daplatissement positif
faible (4,179029 3 = 1,179029). La distribution est donc lgrement plus pointue
quune distribution normale.
Lobservation des deux graphiques ci-aprs (histogramme et botes
moustaches) permet de visualiser lasymtrie et laplatissement de la distribution des
log montants.

95

96

Le graphique ci-dessous reprsente la fonction de rpartition de la variable


log(Montant).

Le quantile dordre 0,95 de la distribution des log montants est denviron 2,3.
Dans ce qui suit, on se propose destimer les quantiles dordre 0,95 de ces deux
distributions laide des neuf estimateurs que nous avons tudis dans le chapitre
prcdent.

97

II.

Rsultats obtenus
2.1

Variable Montant

Le tableau ci-dessous regroupe les valeurs des diffrents estimateurs de la VaR 95%
pour la distribution des montants.

Estimateur
R
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2

VaR(95%)
9,972647
10,09040
9,837975
9,836038
10,69525
9
9,845
10,24
9,625

MSE
0,01386577
0,01813655
0,01866202
0,5221551
0,94604219
0,01629376
0,07147763
0,12085844

Si on prend comme rfrence le quantile empirique retourn par le logiciel R,


les estimateurs les plus performants du point de vue du critre de la MSE sont les
estimateurs dEpanechnikov, dHarrel-Davis, de Padgett et lestimateur MACRO
utilisant le noyau Bta2. Leur MSE est proche de 0,02.
Comme lon pouvait sy attendre aux vues des simulations ralises dans le
chapitre prcdent, lestimateur de Park donne un rsultat plutt mdiocre avec une
MSE de 0,5221551. Cependant, lestimateur utilisant le noyau Bta1 qui donnait des
rsultats trs acceptables dans les simulations prcdentes, est ici le moins
performant avec une MSE de 0,94604219.
Il faut nanmoins nuancer ces observations et souligner quici le quantile de
rfrence nest quun quantile empirique parmi tant dautres et non pas le quantile
thorique dune distribution donne et que nous ne disposons que dune estimation
de la VaR.

98

2.2

Variable log(Montant)

Le tableau ci-dessous regroupe les valeurs des diffrents estimateurs de la VaR 95%
pour la distribution des log montants.
Estimateur
R
E
HD
PDG
PRK
B1
MACRO B1
B2
MACRO B2

VaR(95%)
2,299829
2,276961
2,282039
2,281806
2,369797
2,32
2,32
2,41
2,275

MSE
0,000522945
0,000316484
0,000324829
0,004895521
0,000406869
0,000406869
0,012137649
0,000616479

Si on prend comme rfrence le quantile empirique retourn par le logiciel R,


les estimateurs les plus performants du point de vue du critre de la MSE sont les
estimateurs dEpanechnikov, dHarrel-Davis, de Padgett, lestimateur utilisant le
noyau Bta1 et les estimateurs MACRO utilisant les noyaux Bta1 et Bta2. Leur MSE
est en effet de lordre de 104 .
Les autres estimateurs ont des performances toutes aussi acceptables avec une
MSE de 0,005 pour lestimateur de Park, et de 0,012 pour lestimateur utilisant le
noyau Bta2.
Comme lon pouvait sy attendre, on obtient de bien meilleurs rsultats avec la
distribution des log montants quavec la distribution des montants. Le changement
de variable que nous avons utilis est donc a priori judicieux.

99

III.

Annexes du chapitre 5

Statistiques descriptives sur les donnes de perte


#Danish data
danish<-read.csv(file="C:/Users/Pauline/Desktop/PFE SVN/Articles de
recherche/Article 1Beta kernel/DanishData.csv",header=TRUE,sep=";")
danish
names(danish)
attach(danish)
#Descriptive statistics
#Loss
library(fBasics)
length(Loss)
summary(Loss)
sd(Loss)
kurtosis(Loss)
skewness(Loss)
#Results
#Length
#Min.
#1st Qu.
#Median
#Mean
#3rd Qu.
#Max.
#Sd
#Kurtosis
#Skewness

2167
1.000
1.321
1.778
3.385
2.967
263.300
8.507452
482.198
18.73685

#LLoss
length(LLoss)
summary(LLoss)
sd(LLoss)
kurtosis(LLoss)
skewness(LLoss)
#Results
#Length
#Min.
#1st Qu.
#Median
#Mean
#3rd Qu.
#Max.
#Sd
#Kurtosis
#Skewness

2167
0.000
0.2785
0.5756
0.7870
1.0880
5.5730
0.7167199
4.179029
1.761092

100

Graphiques
#Plots
#Loss
TSLoss<-ts(Loss,start=1980,frequency=205) #Environ 17 obs par mois donc
205 par an
plot(TSLoss,type="h",col="dark blue",main="Srie temporelle des montants
de 2167 sinistres incendie\n(1980-1990)",xlab="Temps",ylab="Montants en
Millions de DK")
Fn<-ecdf(Loss)
plot(Fn,main="Fonction de rpartition des montants des sinistres
incendie",xlab="Montants en Millions de DK",ylab="Fonction de rpartition
des montants",col="dark blue",pch="",lwd=3)
plot(Fn,main="Fonction de rpartition des montants des sinistres
incendie",xlab="Montants en Millions de DK",ylab="Fonction de rpartition
des montants",xlim=c(0,50),col="dark blue",pch="",lwd=3)
abline(h=0.95,col="red",lty=3,lwd=2)
abline(v=quantile(Loss,0.95),col="red",lty=3,lwd=2)
#Boxplot + hist
xhist<-hist(Loss,nclass=40,plot=FALSE)
top <- max(c(xhist$counts))
nf <- layout(c(2,1),c(2,2),TRUE)
par(mar=c(5,2,1,1))
boxplot(Loss,col="light blue",xlab="Montants en Millions de
DK",horizontal=TRUE)
par(mar=c(0,2,4,1))
barplot(xhist$counts, ylim=c(0, top), space=0,col="light
green",main="Variable Montant des sinistres incendie\nHistogramme et bote
moustaches")
#LLoss
LLoss<-log(Loss)
plot(ecdf(LLoss),main="Fonction de rpartition des log montants\nDanish
Data",xlab="log(Montants)",ylab="Fonction de rpartition des log
montants",col="dark blue",pch="",lwd=3)
abline(h=0.95,col="red",lty=3,lwd=2)
abline(v=quantile(LLoss,0.95),col="red",lty=3,lwd=2)
#Boxplot + hist
xhist<-hist(LLoss,nclass=30,plot=FALSE)
top <- max(c(xhist$counts))
nf <- layout(c(2,1),c(4,1),TRUE)
par(mar=c(5,2,1,1))
boxplot(LLoss,col="light blue",xlab="log Montants en Millions de
DK",horizontal=TRUE)
par(mar=c(0,2,5,1))
barplot(xhist$counts, ylim=c(0, top), space=0,col="light
green",main="Variable log Montant des sinistres incendie\nHistogramme et
bote moustaches")

101

Estimation de la VaR sur la distribution des pertes


#Estimation de la VaR sur donnes relles : Loss
B<-c(1,2167)
K1<-c(1,2167)
BPark<-c(1,2167)
FB1<-c(1,999)
FBBis1<-c(1,999)
FBMACRO1<-c(1,999)
FBBisMACRO1<-c(1,999)
densNoyauBeta1<-c(1,999)
densNoyauBetaBis1<-c(1,999)
densNoyauBetaMACRO1<-c(1,999)
densNoyauBetaBisMACRO1<-c(1,999)
#Champernowne function
#density
dchampernowne<-function(y,alpha,M,cst)
{
return ((alpha*(y+cst)^(alpha-1)*(((M+cst)^alpha)(cst^alpha)))/((((y+cst)^alpha)+((M+cst)^alpha)-(2*cst^alpha))^2))
}
#df
pchampernowne<-function(y,alpha,M,cst)
{
return (((y+cst)^alpha-cst^alpha)/((y+cst)^alpha+(M+cst)^alpha2*cst^alpha))
}
#Log vraisemblance
LChamp<-function(par,X)
{alpha<-par[1]
cst<-par[2]
logvrais<-log(prod(dchampernowne(X,alpha,median(X),cst)))
return(-logvrais)}
#Beta function HD estimate
Beta<-function(x)
{dbeta(x,2167*0.95,2167*0.05)}
b<-sqrt(0.95*0.05/2168)
ro<-function(x)
{2*b^2+2.5-sqrt(4*b^4+6*b^2+2.25-x^2-(x/b))}

#Estimation des paramtres de la fonction de Champernowne


try(est1<-nlm(LChamp,c(1,1),X=Loss))
#Statistiques ordonnes
X1ord<-sort(Loss,decreasing=FALSE)
#Empirical quantile
Q1<-quantile(Loss,0.95)

102

#Inverse of the smoothed cumulative distribution function with


Epanechnikov kernel
dens_ep1<-density(Loss,kernel="epanechnikov")
FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)
FFEp1<-cbind(dens_ep1$x,FnEp1)
Q3<-FFEp1[FnEp1>=0.95][1]
#HD estimate
for(j in 1:2167)
{B[j]<-(integrate(Beta,(j-1)/2167,j/2167))$value}
Q5<-t(B) %*% X1ord
#PDG Padgett
for(j in 1:2167)
{K1[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)0.95)/b,mean=0,sd=1)
K2[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)0.95)/b,mean=0,sd=1)}
Q7<-t(K1) %*% X1ord
#PRK Park
for(j in 1:2167)
{
x1<-((j/2167)-0.95)/b
x2<-((j-1)/2167-0.95)/b
BPark[j]<-pbeta(x1,((j/2167)/b)+1,((1-(j/2167))/b)+1)-pbeta(x2,(((j1)/2167)/b)+1,((1-((j-1)/2167))/b)+1)
}
Q9<-t(BPark) %*% X1ord
#Transformation de l'chantillon
Y1<-pchampernowne(Loss,est1$estimate[1],median(Loss),est1$estimate[2])
#Inverse de la fonction de Champernowne
xx<-seq(0,50,0.005)
Yref1<-pchampernowne(xx,est1$estimate[1],median(Loss),est1$estimate[2])
InvChamp1<-cbind(xx,Yref1)
#Beta1 B1
for(d in 1:999)
{x<-d/1000
densNoyauBeta1[d]<-1/2167*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}
YY<-seq(0.001,0.999,0.001)
for(m in 1:999)
{FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest11<-FFB1[FB1>=0.95][1]
Q11<-InvChamp1[Yref1>=Qest11][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999)
103

{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]
Q13<-InvChamp1[Yref1>=Qest13][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1x)/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999)
{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }
FFB1<-cbind(YY,FBBis1)
Qest15<-FFB1[FBBis1>=0.95][1]
Q15<-InvChamp1[Yref1>=Qest15][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }
for(m in 1:999)
{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q17<-InvChamp1[Yref1>=Qest17][1]
#Q1
#Q3
#Q5
#Q7
#Q9
#Q11
#Q13
#Q15
#Q17

9.972647
10.09040
9.837975
9.836038
10.69525
9
9.845
10.24
9.625

104

Estimation de la VaR sur la distribution des log Pertes


#Estimation de la VaR sur donnes relles : LLoss
#Estimation des paramtres de la fonction de Champernowne
try(est1<-nlm(LChamp,c(1,1),X=LLoss))
#Statistiques ordonnes
X1ord<-sort(LLoss,decreasing=FALSE)
#Empirical quantile
Q1<-quantile(LLoss,0.95)
#Inverse of the smoothed cumulative distribution function with
Epanechnikov kernel
dens_ep1<-density(LLoss,kernel="epanechnikov")
FnEp1<-cumsum(dens_ep1$y)/sum(dens_ep1$y)
FFEp1<-cbind(dens_ep1$x,FnEp1)
Q3<-FFEp1[FnEp1>=0.95][1]
#HD estimate
for(j in 1:2167)
{B[j]<-(integrate(Beta,(j-1)/2167,j/2167))$value}
Q5<-t(B) %*% X1ord
#PDG Padgett
for(j in 1:2167)
{K1[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)0.95)/b,mean=0,sd=1)
K2[j]<-pnorm(((j/2167)-0.95)/b,mean=0,sd=1)-pnorm((((j-1)/2167)0.95)/b,mean=0,sd=1)}
Q7<-t(K1) %*% X1ord
#PRK Park
for(j in 1:2167)
{
x1<-((j/2167)-0.95)/b
x2<-((j-1)/2167-0.95)/b
BPark[j]<-pbeta(x1,((j/2167)/b)+1,((1-(j/2167))/b)+1)-pbeta(x2,(((j1)/2167)/b)+1,((1-((j-1)/2167))/b)+1)
}
Q9<-t(BPark) %*% X1ord
#Transformation de l'chantillon
Y1<-pchampernowne(LLoss,est1$estimate[1],median(LLoss),est1$estimate[2])
#Inverse de la fonction de Champernowne
xx<-seq(0,50,0.005)
Yref1<-pchampernowne(xx,est1$estimate[1],median(LLoss),est1$estimate[2])
InvChamp1<-cbind(xx,Yref1)
#Beta1 B1
for(d in 1:999)
{x<-d/1000
densNoyauBeta1[d]<-1/2167*sum(dbeta(Y1,(x/b)+1,((1-x)/b)+1))/999}
105

YY<-seq(0.001,0.999,0.001)
for(m in 1:999)
{FB1[m]<-sum(densNoyauBeta1[1:m])}
FFB1<-cbind(YY,FB1)
Qest11<-FFB1[FB1>=0.95][1]
Q11<-InvChamp1[Yref1>=Qest11][1]
#Beta1 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaMACRO1[d]<-densNoyauBeta1[d]/sum(densNoyauBeta1)}
for(m in 1:999)
{FBMACRO1[m]<-sum(densNoyauBetaMACRO1[1:m])}
FFBMACRO1<-cbind(YY,FBMACRO1)
Qest13<-FFBMACRO1[FBMACRO1>=0.95][1]
Q13<-InvChamp1[Yref1>=Qest13][1]
#Beta2 B2
for(d in 1:999)
{
x<-d/1000
if(x<2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,ro(x),(1-x)/b))/999}
if(x>2*b && x<(1-2*b)){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,(1x)/b))/999}
if(x>1-2*b){densNoyauBetaBis1[d]<-1/2167*sum(dbeta(Y1,x/b,ro(1-x)))/999}
}
for(m in 1:999)
{FBBis1[m]<-sum(densNoyauBetaBis1[1:m]) }
FFB1<-cbind(YY,FBBis1)
Qest15<-FFB1[FBBis1>=0.95][1]
Q15<-InvChamp1[Yref1>=Qest15][1]
#Beta2 MACRO
for(d in 1:999)
{x<-d/1000
densNoyauBetaBisMACRO1[d]<-densNoyauBetaBis1[d]/sum(densNoyauBetaBis1) }
for(m in 1:999)
{FBBisMACRO1[m]<-sum(densNoyauBetaBisMACRO1[1:m])}
FFBBisMACRO1<-cbind(YY,FBBisMACRO1)
Qest17<-FFBBisMACRO1[FBBisMACRO1>=0.95][1]
Q17<-InvChamp1[Yref1>=Qest17][1]
#Q1
#Q3
#Q5
#Q7
#Q9
#Q11
#Q13
#Q15
#Q17

2.299829
2.276961
2.282039
2.281806
2.369797
2.32
2.32
2.41
2.275

106

Chapitre 6
I.

La VaR Monte Carlo

Principe

Nous avons dfini prcdemment la Value-at-Risk comme la perte potentielle


maximale sur un titre ou un portefeuille, sur un horizon de temps avec un degr de
confiance. La mthode de calcul de la VaR Monte Carlo est utilise en gnral quand
le portefeuille contient des produits drivs.
Le principe de cette mthode consiste simuler un grand nombre de trajectoires
possibles dun actif financier donn. Pour obtenir la Value-at-Risk pour un niveau de
confiance de (100 )% , il suffit ensuite de slectionner le % pire scnario,
i.e. la % ime plus mauvaise valeur.
Pour simuler les diffrentes trajectoires possibles dun actif financier donn, on suit
en gnral les trois tapes suivantes:
1. Choisir un modle susceptible de dcrire lvolution de lactif dune manire
assez fiable,
2. Dterminer les paramtres de ce modle,
3. Simuler le nombre de trajectoires voulu du processus choisi avec les
paramtres dtermins prcdemment.

1.3

Quel modle utiliser ?

Ds quil sagit dactions, dindices actions ou de matires premires, le processus


utilis est le mouvement brownien gomtrique. Soit le cours de lactif la date
, lvolution du cours de lactif est donne par le modle suivant ::
+ =

2
+
2

o
est estim par la moyenne empirique de la distribution de lactif
est estim par lcart-type empirique de la distribution de lactif
suit une loi normale 0,1

107

1.4

Algorithme de simulation

Supposons quon veuille dterminer la VaR 95% sur une dure de 5 jours dun
portefeuille donn. Lalgorithme est alors le suivant:
1. Valoriser le portefeuille la date t=0, 0
2. Gnrer une trajectoire des diffrents actifs composants le portefeuille la
date = 5 ,
3. Rvaluer le portefeuille la date = 5 , 5 . On obtient ainsi :
= 5 0 .
4. Rpter les tapes 2 et 3 autant de fois que souhait.
Si on ralise par exemple 10 000 simulations, la VaR 95% est la 500me plus faible
valeur de .

II. Exemple dapplication


2.1

Travail prliminaire

On considre un portefeuille consist de :


50% DOW JONES
50% S&P 500
La premire tape consiste tlcharger les cours de ces indices sur Yahoo finance
par exemple. Ici, on tlcharge donc les cours journaliers du DOW JONES et du
S&P500 du 31 dcembre 1969 au 1er janvier 2006.
La Value-at-Risk tant calcule partir de la distribution des rendements, on
transforme ces donnes afin dobtenir les rendements quotidiens de ces 2 indices du
1er janvier 1970 au 1er janvier 2006.
Soit le cours de lindice la date , le rendement quotidien de cet indice la date
est dfini par :

=
1
1
On obtient ainsi 2 distributions de rendements :

la distribution des rendements quotidiens du DOW JONES


la distribution des rendements quotidiens du S&P 500

108

Afin dobtenir les paramtres de la distribution du portefeuille nous avons besoin de


calculer :
le coefficient de corrlation linaire entre les distributions 1

et 2

la moyenne et lcart-type empiriques de chacune des distributions

Soient :
1 la moyenne empirique de la distribution 1
2 la moyenne empirique de la distribution 2
1 lcart-type empirique de la distribution 1
2 lcart-type empirique de la distribution 2

12 le coefficient de corrlation linaire entre les distributions 1

et 2

La moyenne et lcart-type empirique et de la distribution des rendements


quotidiens du portefeuille sont dfinis par :
=

1 + 2
2

1 2 + 2 2 + 212 1 2
2

Les valeurs numriques obtenues partir des donnes sont regroupes dans les deux
tableaux ci-dessous :
Coefficient de corrlation
SP500
Paramtres
Moyenne
Ecart-type

DJ
0,00031
0,01080

DJ
0,962
SP500
0,00031
0,01078

Portefeuille
0,0003
0,0107

109

2.2

Simulation des trajectoires

Nous disposons maintenant de tous les paramtres ncessaires pour simuler le


processus dcrivant les rendements du portefeuille dfini par :
+ =

2

+
2

La valeur initiale 0 na pas dimportance, tant donn quon travaille directement


sur les distributions de rendements. On prend donc 0 = 1.
On cherche la Value-at-Risk 2 mois sur ce portefeuille pour un niveau de confiance
de 99%. On considre une distribution de rendements quotidiens donc la volatilit et
la moyenne que nous avons calcules prcdemment sont des paramtres
journaliers. On doit donc prendre :
soit = 42 : dans ce cas on obtient directement le rendement du
portefeuille dans 1 an. En effet, les places boursires sont fermes les weekends et les jours fris, donc en comptant 9 jours fris (il sagit dune
convention bien entendu), on obtient 365 2 52 9 = 252 jours, ce qui
donne 42 jours pour 2 mois.
soit = 1 : dans ce cas, on calcule chaque jour de proche en proche le
rendement du portefeuille.
2.2.1. Algorithme pour =
On dsire effectuer 1000 simulations. La procdure suivre sur Excel est la suivante :
1) On gnre un vecteur
normale 0,1

=1,,1000

de variables alatoires suivant une loi

Fonction Excel : LOI.NORMALE.STANDARD.INVERSE(ALEA()) sur 1000 cellules


2) Pour chaque valeur de on calcule le rendement du portefeuille dans 2 mois
not 2
2 =

2
42 + 42
2

3) Pour = 1, ,1000 on calcule la variation du rendement du portefeuille :


= 2 mois 0 = 2 mois 1

110

4) On obtient la Value-at-Risk sur ce portefeuille pour un niveau de confiance de


99% et un horizon d1 an en slectionnant le 10me plus faible rendement
Fonction Excel : CENTILE(J6:J1005;0,01) o J6:J1005 est la matrice contenant les
valeurs i=1,,1000
On obtient ainsi le rsultat suivant :
Value-at-Risk(99%, 2 mois)

-13,93%

Cela signifie quune personne possdant un portefeuille constitu 50% de DOW


JONES et 50% de S&P 500 a 1% de risque de raliser dans 2 mois une perte de
13,93% sur ce portefeuille. Ce rsultat est raisonnable car on parle ici de pertes
extrmes.
2.2.2. Algorithme pour =
1) On gnre une matrice
normale 0,1

=1,,1000
=1,,42

de variables alatoires suivant une loi

2) Pour chaque trajectoire (i.e. pour fix), on calcule de proche en proche les

valeurs de pour = 1, ,42 .

2

1 + 1
2

avec : 0 = 1 = 1, ,1000
42 rendement du portefeuille dans 2 mois pour la me trajectoire
3) Pour = 1, ,1000 on calcule la variation du rendement du portefeuille :
= 42 0 = 42 1

4) On obtient la Value-at-Risk sur ce portefeuille pour un niveau de confiance de


99% et un horizon d1 an en slectionnant le 10me plus faible rendement

111

On obtient ainsi le rsultat suivant :


Value-at-Risk(99%, 2 mois)

-13,78%

Cela signifie quune personne possdant un portefeuille constitu 50% de DOW


JONES et 50% de S&P 500 a 1% de risque de raliser dans 2 mois une perte de
13,78% sur ce portefeuille.
Lintrt du 2me algorithme est quil permet de visualiser les diffrentes trajectoires
possibles du rendement du portefeuille. Le graphique ci-dessous a t ralis partir
des 100 premires trajectoires simules du rendement du portefeuille constitu
50% de DOW JONES et 50% de S&P 500.
1,2

1,15

1,1

1,05

0,95

0,9

0,85

0,8
P0

P2

P4

P6

P8 P10 P12 P14 P16 P18 P20 P22 P24 P26 P28 P30 P32 P34 P36 P38 P40 P42

Cependant, on remarque quon obtient des valeurs trs proches pour la VaR :
-13,93% pour la simulation directe
-13,78% pour la simulation de proche en proche
Il est donc plus intressant dutiliser la 1re mthode, beaucoup moins coteuse en
calculs.
112

Chapitre 7
I.

Etude du package VaR du logiciel R

Donnes

Le package VaR du logiciel R comporte 2 jeux de donnes :


Le premier jeu de donnes, not DJIA, est compos des cours de clture
quotidiens des 30 entreprises de lindice Dow Jones. Les donnes couvrent la
priode du 30 aot 1993 au 29 aot 2003, ce qui correspond 2521
observations par entreprises.
Voici la liste des 30 compagnies ainsi que le nom de variable correspondant :
Nom de variable
AA
AXP
BA
C
CAT
DD
DIS
EK
GE
GM
HD
HON
HPQ
IBM
INTC
IP
JNJ
JPM
KO
MCD
MMM
MO
MRK
MSFT
PG
SBC
T
UTX
WMT
XOM

Compagnie
ALCOA INC.
AMERICAN EXPRESS CO.
BOEING CO.
CITIGROUP INC.
CATERPILLAR INC.
DUPONT E I DE NEMOURS CO.
DISNEY CO WALT HLDG CO.
EASTMAN KODAK CO.
GENERAL ELECTRIC CO.
GENERAL MOTORS CORP.
HOME DEPOT INC.
HONEYWELL INTERNATIONAL.
HEWLETT-PACKARD CO.
INTERNATIONAL BUSINESS MACHINES CO.
INTEL CO.
INTERNATIONAL PAPER CO.
JOHNSON & JOHNSON.
JP MORGAN CHASE AND CO.
COCA COLA CO.
MCDONALDS CORP.
3M COMPANY.
ALTRIA GROUP INC.
MERCK & CO INC.
MiCROSOFT CORPORATION.
PROCTER & GAMBLE CO.
SBC COMMUNICATIONS INC.
AT & T CORP.
UNITED TECHNOLOGIES CORP.
WAL-MART STORES INC.
EXXON MOBIL CORP.
113

On peut observer ci-dessous 2 graphiques reprsentant lvolution du cours des


actions BOEING et IBM sur la priode du 30 aot 1993 au 29 aot 2003.

Le second jeu de donnes est compos des taux de change entre 5 devises :
o Japan Yen (JPY)
o Euro (EUR)
o US dollar (USD)
o Franc Suisse (CHF)
o La Livre Sterling (GBP)
Les donnes couvrent la priode du 3 janvier 2000 au 22 aot 2003.
On considre 4 taux de change explicits dans le tableau ci-dessous :
Nom de variable
EURUSD
USDJPY
USDCHF
GBPUSD

Taux de change
EUR sur USD
USD sur JPY
USD sur CHF
GBP sur USD

Exemple au 17-02-2008
1 EUR = 1,3773 USD
1 USD = 90,6207522 JPY
1 USD = 1,06610035 CHF
1 GBP = 1,5771 USD

Les 4 graphiques ci-aprs dcrivent lvolution de ces 4 taux de change sur la priode
du 3 janvier 2000 au 22 aot 2003.

114

115

II. Fonctions
Deux fonctions permettent ensuite de donner une estimation de la VaR et lExpected
Shortfall pour une srie de donnes prsentant un risque. LExpected Shortfall
correspond la perte moyenne en cas de dpassement de la VaR.
= | > = + | >

2.1

Fonction VaR.gpd

Cette fonction estime la Value-at-Risk et lExpected Shortfall (ES) dun vecteur de


donnes pour un niveau de confiance donn. Concernant le vecteur de donnes, il
peut sagir de lvolution du cours dune action ou de lvolution dun taux de change
sur une priode de 10 ans. Cependant, il doit sagir de donnes brutes et non de
rendements car la fonction va procder elle-mme cette transformation.
Lalgorithme destimation est le suivant :
1) Les donnes initiales sont transformes en rendements (quotidiens ici).
2) Les rendements ainsi obtenus sont tris dans lordre dcroissant et on
slectionne seulement la partie des rendements excdant un certain seuil
donn.
3) A laide des techniques du maximum de vraisemblance, on ajuste une
distribution de Pareto Gnralise (GPD) sur la queue de distribution
prcdemment slectionne.
4) Les valeurs de la VaR et de lES ainsi que les intervalles de confiance pour ces
valeurs sont calcules partir de cette distribution.
Cette mthode destimation utilise donc la thorie des valeurs extrmes. Pour plus de
dtails concernant le calcul de la VaR, se reporter au Chapitre 2 Estimation de la
Value-at-Risk paragraphe 4.1 Thorie des valeurs extrmes.
Utilisation de la fonction
VaR.gpd(ydat,p=0.01,p.tr=0.97,init=c(1,0.3),cflevel=0.95)

Arguments
ydat
p
p.tr
init

Vecteur de donnes sur lesquelles la VaR et lES vont tre calculs


Niveau de confiance pour le calcul de la VaR et de lES
Seuil pour lajustement du modle GPD
Valeurs initiales pour lalgorithme du maximum de vraisemblance pour
lajustement du modle GPD.
cflevel Niveau de confiance pour les intervalles de confiance de la VaR et de lES

116

2.2

Fonction VaR.norm

Cette fonction estime la VaR pour un facteur de risque unique laide dune
approximation lognormale. Il existe 2 expressions de la VaR ainsi calcule, suivant
quelle soit de type court ou long :
= 1 +

= 1

est le niveau de confiance souhait


1 est le quantile dordre 1 de la loi normale centre rduite
est la priode de liquidation
et sont la moyenne et lcart-type de
si drift.appx=FALSE : = 0
si lin.appx=TRUE : ~1 +

Utilisation de la fonction
VaR.norm( ydat , p=0.99 , dt=1 , type="long" , drift.appx=FALSE ,
lin.appx=TRUE )

Arguments
ydat
p
dt
type
lin.appx

Vecteur de donnes sur lesquelles la VaR va tre calcule


Niveau de confiance pour le calcul de la VaR
Priode de liquidation
Chane dcrivant le type de VaR calcul : "long" ou "short"
Si TRUE, la VaR est calcule laide dune approximation linaire
Si TRUE, la VaR est calcule laide dune approximation de moyenne non
drift.appx
nulle

Que signifie de type court ou long ???

117

Exemple
#VaR GPD et lognorm pour les 4 taux de change
z1<-VaR.gpd(USDJPY[!is.na(USDJPY)])
z2<-VaR.norm(USDJPY[!is.na(USDJPY)])
z1$VaR
z2$VaR
z1$VaR.interval
z1$ES
z1$ES.interval
x1<-VaR.gpd(EURUSD[!is.na(EURUSD)])
x2<-VaR.norm(EURUSD[!is.na(EURUSD)])
x1$VaR
x2$VaR
x1$VaR.interval
x1$ES
x1$ES.interval
y1<-VaR.gpd(USDCHF[!is.na(USDCHF)])
y2<-VaR.norm(USDCHF[!is.na(USDCHF)])
y1$VaR
y2$VaR
y1$VaR.interval
y1$ES
y1$ES.interval
s1<-VaR.gpd(GPDUSD[!is.na(GPDUSD)])
s2<-VaR.norm(GPDUSD[!is.na(GPDUSD)])
s1$VaR
s2$VaR
s1$VaR.interval
s1$ES
s1$ES.interval

Rsultats obtenus
Fonction
utilise
Taux de
change
USD/JPY
EUR/USD
USD/CHF
GBP/USD

VaR.gpd

VaR.norm

VaR

ES

IC VaR

IC ES

VaR

1,636566
1,609425
1,619008
1,262735

2,112686
1,866881
1,917267
1,437066

1,485; 1,882
1,516 ; 1,760
1,518 ; 1,785
1,201 ; 1,369

1,343 ; 1,600
1,709 ; 2,121
1,734 ; 2,219
1,343 ; 1,600

1,674734
0,0167368
0,02180417
0,01844153

Je ne vois pas comment interprter ces rsultats


Sagit-il de pourcentage, de rendements ?
1,63 = 163% de pertes ? ou 63% de pertes ? ou 1,63 points de pertes sur le taux ?
118

2.3

Fonction VaR.backtest

Cette fonction effectue un test de proportion entre lchantillon de donnes initiales


et la VaR calcule laide dune des 2 fonctions prcdentes. Il calcule la proportion
dobservations dpassant la VaR estime, et le compare avec le niveau de confiance
utilis dans lestimation de la VaR.
0 : la proportion empirique de lchantillon est gale au niveau de confiance
1 : la proportion empirique de lchantillon est diffrente du niveau de confiance
Donc si la p-value < 0,01 la proportion dobservations dans lchantillon dpassant la
VaR est diffrente du niveau de confiance utilis dans lestimation de la VaR.
Utilisation de la fonction
VaR.backtest(x, VaR, p)

Arguments
x
VaR
p

Vecteur dobservations
Estimation de la VaR pour un niveau de confiance p
Niveau de confiance utilis pour lestimation de la VaR

Exemple
i<-EURUSD[!is.na(EURUSD)]
i1<-VaR.gpd(i)
i2<-VaR.norm(i)
i1$VaR
i2$VaR
i1$VaR.interval
i1$ES
i1$ES.interval
VaR.backtest(i,i1$VaR,p=0.01)
VaR.backtest(i,i2$VaR,p=0.01)

119

Bibliographie

Universit dOrlans Master ESA - Cours dconomtrie pour la finance de Christophe


Hurlin - Introduction la Value-at-Risk :
http://www.univ-orleans.fr/deg/masters/ESA/CH/churlin_E.htm
Rsum de la thse dactuariat de F. Dumontaux et B. Sellam - Value-at-Risk et
allocation de capital :
http://www.acam-france.fr/?action=download&fileName=TDumontaux_et_Sellam_100.pdf
Les diffrents types de risques financiers :
http://www.fimarkets.com/pages/suivi_risques.htm
Lexique de la finance : http://www.vernimmen.net/
Solvency II : Contexte et enjeux de la rforme :
http://www.fimarkets.com/documents/La+nouvelle+reforme+de+Solvabilite+II.pdf
La VaR en assurance : http://www.ica2006.com/Papiers/3128/3128.pdf
Optimisation de portefeuille selon le critre de la Value-at-Risk :
http://www.marocinge.com/download/repports/33608e3bc953c32e24bb7fd8082ebe39.pdf

120

Você também pode gostar