Escolar Documentos
Profissional Documentos
Cultura Documentos
un modèle ARMA
1
Table des matières
Chapitre 1 : Généralités sur les séries chronologique ......................................... 4
Rappelle sur les séries chronologiques …………….....………………………………………4
1 Définition d’une série chronologique…………………………………………………………….4
Processus stochastique………………….……………………………………………………………12
Processus stationnaire………………………….…………………………………………………….13
Conclusion………………………………………………………………………………………………….…17
Bibliographie ………………………………..…………………………………………………………………………………………………49
2
Introduction :
Une série chronologique, ou série temporelle, est une série d'observations
ordonnées chronologiquement. Elles se rencontrent naturellement dans une grande
variété de domaines. On peut citer : l'économie (taux de chômage, PNB …), la finance
(cours d'action, taux d'intérêt, …), l'écologie (pollution à l'ozone, au CO, …), le
transport (avec l'exemple célèbre du trafic aérien international), la démographie…).
Les objectifs d'étude sont multiples. La prévision est sans doute le but le plus
fréquent. Il s'agit de prévoir les valeurs futures d'une variable grâce aux valeurs
observées dans le présent et le passé de cette même variable ; la problématique n'est
donc pas la même qu'en régression où l'on cherche à prévoir le niveau d'une variable
(la réponse) en fonction du niveau d'autres variables (les prédicteurs).
Nous allons à présent étudier de façon de plus précise ce qu’est un processus non
stationnaire. Il existe en effet deux sorte de non stationnarité : la non stationnarité
déterministe et la non stationnarité stochastique. Nous verrons que suivant l’origine
du non stationnarité, il convient d’adopter une méthode de stationnarisation
particulière.
La seconde partie de ce chapitre sera ensuite consacrée à la présentation des
principaux tests de non stationnarité. Il s’agit alors de définir une stratégie empirique
permettant de vérifier si les processus sont stationnaires ou au contraire s’il est
nécessaire de les stationnariser et quelle est alors la méthode appropriée.
3
Chapitre 1 : Généralités sur les séries chronologique
Une série chronologique (Yt, t Є T) est une suite d’observations d’une variable y à
différentes dates t. Habituellement T est dénombrable, de sorte que t = 1,2,……….,T.
D’un point de vue économétrique, on ne peut relier que deux variables qui
ont des propriétés similaires, en particulier une même stabilité ou instabilité
Les propriétés mathématiques permettant de relier deux variables
dépendent de leur dynamique
Exemple :
Présentation graphique :
4
Ici, le nombre d’années est n = 4, le nombre de périodes par année est p = 4 et on a
y1 = 20, y2 = 25, y3 = 50, y4 = 70, y5 = 35, . . ., y16 = 170
5
Les variations saisonnières St : Les variations saisonnières sont des
fluctuations périodiques à l’intérieur d’une année, et qui se reproduisent de
façon plus ou moins permanente d’une année sur l’autre.
6
3. Modélisation d’une série chronologique
Le modèle générale
Yt =Tt+ Ct+ St +It
.
St : est la composante
Tt : désigne Ct : est le cycle. saisonnière et It : est l’irrégulier,
la tendance C’est un mouvement représente les regroupant toutes
qui lisse, quasi fluctuations infra – les fluctuations plus
représente périodique autour de annuelles qui se ou moins erratiques
l’évolution la tendance répètent de manière non prises en
présentant des plus ou moins régulière compte dans les
de long
phases de d’année en année. composantes
terme de la
croissance et de énumérées (résidu)
série.
récession.
a) Modèle additif :
Définition
On parle de modèle additif lorsque la série chronologique y = yt se décompose sous la
forme
yt = tt + st + Ɛt;
7
Remarque
Rappelons que la composante saisonnière est supposée p-périodique (i.e. sk+p = sk,
pour tout k) et d’influence nulle sur une année (i.e. s1 + s2 + · · · + sp = 0 pour le
modèle additif). La composante aléatoire est supposée négligeable (i.e. Ɛt = 0, pour
tout t, pour le modèle additif).
Critère
Pour savoir si le modèle additif est adapté, on trace les lignes polygonales passant
par les pics positifs d’une part et négatifs d’autre part. Si celles-ci sont proches de
droites et si la largeur de la bande délimitée par celles-ci est essentiellement
constante, on choisit d’utiliser le modèle additif
Graphiquement :
b) Modèle multiplicatif :
Définition
On parle de modèle multiplicatif lorsque la série chronologique y = yt se décompose
sous la forme :
yt = tt × st × Ɛt;
Ou tt désigne la composante tendance générale, st désigne la composante saisonnière
et Ɛt désigne la composante aléatoire de la série au temps t.
Remarque
Rappelons que la composante saisonnière est supposée p-périodique (i.e. sk+p = sk,
pour tout k) et d’influence nulle sur une année (i.e. s1 × s2 × · · · × sp = 1 pour le
modèle multiplicatif). La composante aléatoire est supposée négligeable (i.e. Ɛt ’ 1,
pour tout t, pour le modèle multiplicatif).
8
Critère
Pour savoir si le modèle multiplicatif est adapté, on trace les lignes polygonales
passant par les pics positifs d’une part et négatifs d’autre part. Si celles-ci sont
proches de droites et si la largeur de la bande délimitée par celles-ci est clairement
croissante ou décroissante, on choisit d’utiliser le modèle multiplicatif.
Disposant d’une série temporelle Y1, . . . , Yn, l’objectif du lissage exponentiel est
d’estimer la valeur Yn+h non encore observée. Nous noterons Ŷn,h cette
prévision. Etant donnée une constante de lissage 0 < α < 1, on définit la prévision
par lissage exponentiel simple :
9
éloignées, tandis qu’un α proche de 1 (≥ 0.7) tend à négliger ces observations
éloignées.
3) Méthode de Holt-Winters
yt = a1 + a2(t - n).
La variante par rapport à la méthode de lissage exponentiel double est au niveau des
formules de mise à jour dans l’estimation des paramètres a1 et a2. Soient deux
constantes de lissages 0 < α < 1 et 0 < β < 1. Les formules de mise à jour sont :
Les trois constantes de lissages, α, β et γ ont le même effet que précédemment, plus
elles sont petites et plus l’importance des données éloignées est significative. Elles
agissent respectivement sur les paramètres a1, a2 et st. Se référer à Gouriéroux et
Monfort 1983 [5] pour les valeurs d’initialisation.
11
III. Processus stochastique
a) Définition :
Est une collection de variables aléatoire Yt indexées dans le temps.
Un processus stochastique Yt est une famille de variables aléatoires réelles
(Yt)t∈Θ, ou Θ ⊂ R est appelé l’espace des temps.
Yt=Yt-1 + Ɛt
Yt-Yt-1=Ɛt => ∆Yt =Ɛt ou Ɛt est un bruit blanc iid (indépendamment
identiquement distribué)
b) Bruit blanc :
Un type particulier de processus stochastiques stationnaires: processus
purement
aléatoires ou processus bruit blanc.
Un processus est dit de bruit blanc si :
12
IV. Processus stationnaire
ρ0 = 1 et -1 ≤ ρk ≤ 1 ∀ k
n: nombre d’observation
13
NB: il exige de recalculer pour chaque terme les moyennes et les variances pour cela
on calcule la FAC d’échantillonnage.
Un processus non stationnaire est un processus qui ne satisfait pas les conditions
de stationnarité. Ainsi, l’origine de la non stationnarité peut provenir d’une
dépendance du moment d’ordre un (l’espérance) par rapport au temps et/ou
d’une dépendance de la variance ou des auto-covariances par rapport au
temps.
Ce sont des séries les plus rencontrées dans la pratique. Une chronique ne vérifiant
pas les trois hypothèses de stationnarité :
∆T(Yt) = Yt - Yt-T
Un processus DS présente un non stationnarité de type aléatoire. Pour
stationnariser un processus DS, on utilise le filtre aux différences de la série et
elle même décaler de k périodes.
14
Exemple la marche aléatoire sans dérive β=0 : Yt = Yt-1 + Ɛt
Yt=Yt-2+ Ɛt-1+ Ɛt
Yt=Yt-3+ Ɛt-2+ Ɛt-1+ Ɛt
Yt=Yt-k+ Ʃ Ɛt-k+1
15
b). Processus Differency Stationary (TS) :
Le processus trend stationnary s’écrit :
Yt = α + βt +Ɛt
E(Yt)=E (α + βt +Ɛt)
E(Yt)=E(α) +E (βt)+E(Ɛt)
16
Conclusion
Les séries temporelles sont considérées à tort comme étant une branche exclusive de
l'économétrie. Cette dernière est une discipline qui est relativement jeune alors que
les séries temporelles ont été utilisées bien avant en Astronomie (1906), en
météorologie (1968) etc. L'objet des séries temporelles est l'étude des variables au
cours du temps. Par conséquent, même s'ils n'ont pas été à l'origine de cette
discipline, ce sont les économètres qui ont assuré les grandes avancées
qu'à connues cette discipline .C'est pour cette raison que certaines considèrent (à
tort) les séries temporelles comme étant exclusivement une branche de l'économétrie
17
Chapitre 2 : Les Processus ARIMA
Il existe deux catégories de modèles pour rendre compte d'une série temporelle.
Les premiers considèrent que les données sont une fonction du temps (y = f(t)). Cette
catégorie de modèle peut être ajustée par la méthode des moindres carrés, ou d'autres
méthodes itératives. L'analyse des modèles par transformée de Fourier est une
version sophistiquée de ce type de modèle.
Une seconde catégorie de modèles cherche à déterminer chaque valeur de la série
en fonction des valeurs qui la précède (yt = f(yt-1, yt-2, …)). C'est le cas des modèles
ARIMA ("Auto-Regressive – Integrated – Moving Average"). Cette catégorie de
modèles a été popularisée et formalisée par Box et Jenkins (1976).
Les processus autorégressifs (AR) supposent que chaque point peut être prédit
par la somme pondérée d'un ensemble de points précédents, plus un terme aléatoire
d'erreur.
Le processus d'intégration (I) suppose que chaque point présente une différence
constante avec le point précédent.
Grace aux tendances et aux cycles, il est ainsi possible d’analyser les interactions
entres diverses variables, afin d’atteindre un équilibre.
18
Contrôler les processus:
Il est indispensable de dresser une carte des variables ayant une forte influence sur
les reste de l’économie, afin d’anticiper les évolutions possibles.
a) Formulation
AR(1) : yt = θ1 yt−1 + εt
AR(2) : yt = θ1 yt−1 + θ2 yt−2 + εt
.. . .
AR(p) : yt = θ1 yt−1 + θ2 yt−2 + . . . + θp yt−p + εt (1)
où θ1,θ2,. . . ,θp sont des paramètres à estimer positifs ou négatifs, εt est un aléa
gaussien.
Nous pouvons ajouter à ce processus une constante qui ne modifie en rien les
propriétés stochastiques.
L’équation (1) peut aussi s’écrire à l’aide de l’opérateur décalage D :
Il est démontré que le corrélo-gramme simple d’un processus AR(p) est caractérisé
par une décroissance géométrique de ses termes de type :
ρk = ρk
On peut obtenir deux sortes de correlo-gramme suivant si ρ est positif ou négatif
19
2) Modèle MA (Moving Average : Moyenne Mobile) :
a) Formulation
MA(1) : yt = εt − α1εt−1
MA(2) : yt = εt − α1εt−1 − α2εt−2
...
MA(q) : yt = εt − α1εt−1 − α2εt−2 − . . . − αqεt−q (2)
où α1,α2,. . . ,αq sont des paramètres pouvant être positifs ou négatifs et εt est un aléa
gaussien.
Dans ce processus, tout comme dans le modèle auto-régressif AR, les aléas sont
supposés être engendrés par un processus de type bruit blanc. Nous pouvons
interpréter le modèle MA comme étant représentatif d’une série chronologique
fluctuant autour de sa moyenne de manière aléatoire, d’où le terme de moyenne
mobile car celle-ci, en lissant la série, gomme le bruit créé par l’aléa.
MA(1) = AR(∞).
20
C’est-à-dire que seuls les q premiers termes du corrélogramme simple sont
significativement différents de0.
Le corrélogramme partiel est caractérisé par une décroissance géométrique des
retards.
L'auto-corrélogramme de Y devient:
a) Formulation
Les modèles ARMA sont donc représentatifs d’un processus généré par un
combinaison des valeurs passées et des erreurs passées. Ils sont définis par
l’équation :
ARMA (p,q) :
(1 − θ1D − θ2D2 − . . . − θpDp)yt = (1 − α1D − α2D2 − . . . − αqDq)εt
Nous avons :
ARMA(1,0) = AR(1);ARMA(0,1) = MA(1).
Dans le cas d’un processus ARMA (p, q) avec constante :
21
L’espérance du processus est donnée1 par : E(xt ) = μ
(1 − θ1 − θ2 − ... − θp)
Donc connaissant l’espérance du processus (SPSS calcule directement l’espérance du
processus), la constante du processus ARMA est déterminée par :
22
Processus Fonction auto- Fonction auto-
corrélation simple corrélation partielle
Décroissance exponentielle Pic significatif pour le
AR(1) (θ1 > 0) ou sinusoïdale premier retard: Positif si
amortie (θ1 < 0) θ1 > 0 et négatif si θ1
< 0,
les autres coefficients nuls
pour des retards > 1
Décroissance exponentielle Pics significatifs pour
AR(2) ou sinusoïdale selon les le premier et second
signes de θ1 et θ2 retards, les autres
coefficients sont nuls pour
des retards > 2
Décroissance exponentielle Pics significatifs pour les p
AR(p) et/ou sinusoïdale premiers retards, les
autres coefficients sont
nuls
pour des retards > p
Pic significatif pour le Décroissance exponentielle
MA(1) premier retard : (α1 > 0) ou
positif si α1 < 0 et négatif sinusoïdale amortie (α1 <
si α1 > 0. 0)
Les autres coefficients sont
nuls pour des retards > 1
Pics significatifs pour le Décroissance exponentielle
MA(2) premier et second retards. ou sinusoïdale selon les
Les autres coefficients signes de α1 et α2
sont nuls pour des retards
>2
Pics significatifs pour les q Décroissance exponentielle
MA(q) premiers retards. Les et/ou sinusoïdale
autres coefficients nuls
pour des retards > q
Décroissance géométrique Décroissance exponentielle
ARMA (1, 1) à partir du premier retard, (α1 > 0) ou sinusoïdale
le signe est déterminé par amortie (α1 < 0)
θ1 – α1
Décroissance exponentielle Décroissance exponentielle
ARMA (p, q) ou sinusoïdale amortie ou sinusoïdale amortie
tronquée après tronquée après
(q – p) retards p – q retards
23
4) Différenciation.
L'estimation des modèles ARIMA suppose que l'on travaille sur une série
stationnaire. Ceci signifie que la moyenne de la série est constante dans le temps,
ainsi que la variance.
La meilleure méthode pour éliminer toute tendance est de différencier, c'est-à-dire de
remplacer la série originale par la série des différences adjacentes. Une série
temporelle qui a besoin d'être différenciée pour atteindre la stationnarité est
considérée comme une version intégrée d'une série stationnaire (d'où le terme
Integrated).
La correction d'une non-stationnarité en termes de variance peut être réalisée par des
transformation de type logarithmique (si la variance croît avec le temps) ou à
l'inverse exponentielle. Ces transformations doivent être réalisées avant la
différenciation.
Une différenciation d'ordre 1 suppose que la différence entre deux valeurs successives
de y est constante.
yt – yt-1 = μ + ε t
Les modèles d'ordre 2 travaillent non plus sur les différences brutes, mais sur les
différences de différence. La seconde différence de y au moment t est égale à
(yt -yt-1 ) - (yt-1 - yt-2),
c'est-à dire
yt – 2yt-1 + yt-2.
yt – 2yt-1 + yt-2 = μ + ε t
ou encore:
yt = μ + 2yt-1 - yt-2 + ε t
24
5) Signification des paramètres des modèles ARIMA
L'objectif essentiel des modèles ARIMA est de permettre une prédiction de l'évolution
future d'un phénomène. Son développement dans le domaine de l'économétrie est
basé sur ce principe. On en verra plus loin une illustration.
Lorsque les données ont une structure probabiliste suffisamment stable au cours du
temps et sont assez nombreuses pour permettre une estimation de cette structure,
l’approche BOX JENKINS permet d’obtenir les prévisions les plus précises.
L’objectif de cet exposé est de permettre une bonne utilisation des logiciels
d’analyse d’une série chronologique à l’aide de la méthode de BOX JENKINS.
25
Les étapes de la méthode de BOX-JENKINS
1- Identification :
Si la série n’est pas stationnaire c.à.d. si la moyenne de la série varie sur le court
terme ou que la variabilité de la série est plus élevée sur certaines périodes que sur
d’autres, Il faut les rendre stationnaire.
Pour les rendre stationnaire, la transformation la plus courante est la différenciation
de la série c.à.d. chaque valeur de la série est remplacée par la différence de cette
valeur et celle qui la précède.
26
L’interprétation des corrélo-grammes pour la spécification des processus AR et
MA est généralement gouvernée par les règles suivantes :
les processus autorégressifs d’ordre p, AR(p), présentent une fonction
d’auto-corrélation dont les valeurs décroissent exponentiellement avec
des alternances possibles de valeurs positives et négatives ; leur
fonction d’auto-corrélation partielle présente exactement p pics aux p
premières valeurs du corrélo-gramme d’auto-corrélation partielle.
les processus de moyenne mobile d’ordre q, MA(q), présentent
exactement q pics aux q premières valeurs du corrélo-gramme de la
fonction d’auto-corrélation et des valeurs exponentiellement
décroissantes de la fonction d’auto-corrélation partielle.
si la fonction d’auto-corrélation décroît trop lentement, on conseille de
différencier la série avant l’identification du modèle.
Généralement :
27
Test de Dickey Fuller simple :
Dickey et Fuller sont les premiers à fournir un ensemble d’outils statistiques formels pour
détecter la présence d’une racine unitaire dans un processus autorégressif du premier ordre, ce
test permet de tester l’hypothèse.
28
29
2- Estimation des paramètres d’un modèle ARIMA
L’estimation des paramètres d’un modèle ARIMA (p,d,q) lorsque p; d; q sont
supposés connus peut se réalise par différentes méthodes dans le domaine temporel,
et parmi ces méthodes on a :
1. Maximum de vraissemblance.
2. Dans le cas q = 0, on utilise les équations de Yule Walker.
Critère standard
30
• Ecart absolu moyen en pourcentage (Mean Absolute Percent Error) :
Plus la valeur de ces critères est faible, plus le modèle estimé est proche des
observations.
3- Le diagnostic :
31
4- La prévision :
Ou encore : Le terme signifie que la valeur de Yt est prévue sur base des observations
passées Yt-1, Yt-2, … en utilisant la valeur estimée des coefficients.
Notez que la prévision et l’estimation des effets causaux sont des objectifs très
différents.
- Le modèle estimé sur des données du passé (prédiction) doit être valable dans le
futur (prévision).
Résumé :
32
33
Conclusion
34
Chapitre 3 Partie empirique
Nous intéressons à appliquer la méthode de Box-Jenkins sur des données réel noté
« PSIA » qui représente la quantité vendues des Profit Sharing Investissement
Account (comptes d’investissement MOUDARABA et MOUCHARAKA), les
données considérées sont mensuelles et la période retenue pour l’étude est de
janvier 2011 à août 2015.
Tableau :
35
Avant de construire le modèle de prévision, nous commençons par l’analyse de
graphique de la série puis l’analyse de la stationnarité à l’aide du diagramme
séquentiel.
On remarque que le type des données est mensuel donc il nous faut éliminer l’effet
saisonnier.
Diagrammes
Analyse Prévision
séquentiels
Résultat obtenu :
36
Interprétation :
On remarque a travers le diagramme séquentiel que notre série n’est pas stationnaire
parce qu’elle est générer par une volatilité temporelle d’une part d’autre par on
remarque que la série ne contient pas une moyenne constante E(Yt)= µ et son
variance n’est pas constante var(Yt)= σ² t ∈ Z.
2eme étape : Vérification de la non stationnarité par l’analyse des auto-
corrélogrammes FAC et FACP.
37
autocorr-
Analyse Prévisions
élations
Résultat obtenu :
Fonction d’auto-corrélation FAC
38
Interprétation :
Cette méthode permet de supprimer les tendances et saisonnalité de notre série sans
l’estimer d=1 ARIMA (0, 1,0).
39
diagrammes
Analyse Prévisions
séquentiels
Résultat obtenu :
40
Interprétation :
Autocorr-
Analyse Prévisions
élation
la série DPSIA est stationnaire on cherche un modèle ARIMA (p,d,q) qui représente
cette série pour identifier le processus qui représente au mieux notre série , on
examine les auto-corrélations simple et partiel ( FAC et FACP) pour déterminer le
nombre de retards p de processus AR(p) et q de processus MA(q).
Résultat obtenu
41
Interprétation :
Les auto-corrélations simples qui ne dépassent pas les limites de seuil de confiance
α=0,05 sont considérées comme nulles et par conséquent doivent être négligées.
D’après le correlo-gramme d’auto-corrélation simple FAC on voit quatre pics qui sort
de l’intervalle de confiance Lag(1,3,6,9), alors on choisis les pics qui minimisent les
critères d’akaike et schwarz .
42
Détermination d’Auto Régressif AR p:
Interprétation :
Les auto-corrélations partiels qui ne dépassent pas les limites de seuil de confiance
α=0,05 sont considérées comme nulles et par conséquent doivent être négligées.
D’après le correlo-gramme d’auto-corrélation partie lFACP on voit trois pics qui sort
de l’intervalle de confiance Lag(p=1p=,2,p=5), alors on choisis les pics qui
minimisent les critères d’akaike et schwarz .
On constate qu’on est devant un processus ARIMA d’ordre p= 2 et p=5 sans p=1
avec auto-corrélation de -0.438 et -0.293 processus AR(2) et AR(5).
On peut conclure de cette étape que c’est un processus ARIMA (2,1, 1).et
43
5eme étape : Estimation des paramètres du modèle pour le modèle
ARIMA(2,1,1)
Crée un
Analyse Prévisions
modele
Il est nécessaire de vérifier l’hypothèse d’un bruit blanc pour les résiduels. Cette
vérification se fait par le test de Ljung-Box. L’hypothèse du bruit blanc est jugée
acceptable si sig. est supérieure à 0,05.
Dans notre cas 0,545 est supérieur à 0,05 donc l’hypothèse du bruit blanc est validé.
Cette étape consiste essentiellement à juger si le modèle choisit est acceptable. Pour
se faire deux méthodes sont possible :
44
1ere méthode : analyse de corrélo-gramme des FAC résiduel et des
FACP résiduel
Interprétation :
Tous les pics des FAC et FACP résiduels sont à l’intérieur de l’intervalle de
confiance donc l’hypothèse de Bruit Blanc est significative , le modèle étudier est
acceptable .
45
Estimation SE t Sig.
Différence 1
Estimation SE t Sig.
Différence 1
46
6eme étape : équation du modèle ARIMA (5, 1, 0)
47
Le tableau des prévisions s’affiche dans la feuille des résultats.
Conclusion
Notre travail est basé sur l’application de la méthode de Box-Jenkins sur des
données réelles noté « PSIA » qui représente la quantité vendues des produits des
comptes d’investissement (MOUDARABA ET MOUCHARAKA), avant de
prévoir, en utilisant les modèles ARIMA, à l’aide de test d’ADF, les auto-corrélation,
les auto-corrélation partiels et les critères d’information notamment AIC et BIC.
48
Bibliographie
Charpentier, A. (2004). Cours des séries temporelles. Théorie et
Applications.
Université de Paris.
Méthode Statistiques En gestion : Michel Tenenhaus Professeur au
Groupe HEC, édition Dunod
Régie Bourbonnais : Econométrie manuel et exercices corrigés
4ème édition
Econométrie : Claudio Araujo, Jean-François Brun, JeanLouis
Combès
IBM SPSS Forecasting
Analyse chronologique, louis phlips, Ronald blomme, carinevandet
gerghe louvaiun la neuve : cabay 1981
Méthodes de prévision, Bernard Coutrot et Fernand Droesberke,
paris presses universitaire de France 1984
Jack Johnston et John DINARDO « Méthodes économétriques
Box, G.E.P., Jenkins, G.M. et Reinsel, G.C. (2008). Time Series
Analysis, Forcasting and Control, Fourth Edition. WILEY, New
Jersey.
Brouks, CH. (2008). Introductory Econometrics for Finance, Third
Edition. Cambridge University Press, New Yourk
Quelques articles- cours d’internet
49