Escolar Documentos
Profissional Documentos
Cultura Documentos
abordagem bayesiana
RESUMO. Este trabalho apresenta uma abordagem bayesiana para fazer inferência sobre os
parâmetros de modelos auto-regressivos. Nesse contexto, quando os parâmetros variam de
forma aleatória e independente, adotou-se um modelo hierárquico para descrever a
densidade a posteriori. Uma segunda abordagem supõe que os parâmetros variam de acordo
com um modelo auto-regressivo de primeira ordem; nesse caso a abordagem é vista como
uma extensão do filtro de Kalman, no qual as variâncias dos ruídos são conhecidas. Os
modelos foram analisados usando técnicas de simulação de Monte Carlo e a geração de
amostras das densidades a posteriori permitiram fazer previsões de séries por intermédio das
densidades preditivas Para exemplificar a aplicação dos modelos, consideramos uma série
real correspondente ao preço de ações.
Palavras-chave: processo auto-regressivo, inferência bayesiana, modelo hierárquico, modelo
dinâmico, filtro de Kalman, Gibbs-Sampling, Metropolis-Hasting.
Ilustramos a utilidade de nossa técnica, aplicando A análise desses modelos torna-se, geralmente,
o processo auto-regressivo de primeira ordem com intratável quando não existe conjugação entre
coeficiente aleatório para modelagem de uma série distribuição a priori e a função de verossimilhança.
de dados reais na área financeira correspondente ao Nesses casos, métodos de aproximação numérica
preço de ações da Siderúrgica Vale do Rio Doce. Em (Soyer, 1985) ou de simulação devem ser utilizados
nossa análise, mostramos o quanto esses modelos para a obtenção das distribuições a posteriori de
produzem proveitosas informações na previsão de interesse.
observações futuras. Aqui, através de simulação de Monte Carlo via
Cadeia de Markov (MCMC), utilizando o algoritmo
Descrição do modelo Gibbs Sampling (Casella e George, 1992),
Os modelos que estamos trabalhando obtiveram-se as distribuições a posteriori das variáveis
consideram um processo estocástico de interesse e fazemos inferência sobre os
X t ; t = 1, 2,... com distribuição log-normal parâmetros e a previsão de observações futuras para
um processo auto-regressivo de primeira ordem,
denotado por :
com parâmetros aleatórios e variantes no tempo
X t = X θt -t1 ; t = 1, 2,... (1) ajustado por um modelo hierárquico, considerando
a variância do ruído conhecida. Desenvolvemos a
em que θt é um coeficiente cujos valores extensão do modelo considerado por:
descrevem um crescimento ou decrescimento no Yt = θ t y t -1 + ε t ; ε t ~ N(0, τ 2 ) ; (4)
processo. Para produzir uma generalização no 2
τ conhecido
modelo, introduzimos um erro multiplicativo δ t , θ t = λ + ωt ; ω t ~ N(0, γ 2 )
assim temos: γ2 conhecido
θt
λ ~ N(m, S ) ; m , S 2 conhecidos
2
Xt = X δt ;
t −1 t = 1, 2,... (2)
seqüência θ
(t ) = (θ ,..., θ ) , e dado y (t ) , nosso
1 t
A densidade a posteriori de λ:
objetivo é fazer inferência sobre θ t , τ , λ e previsão
λ | y (t ) ~ N (mt , S t ) (8) para θ t +1 e y t +1 .
(
θ t | y ( t ) ~ N θ *t , ∑ *t ) ∏1 (τ ) ~ IG(α ; β )
∏2 (λ ) ~ N (m; S 2 )
(9)
(14)
τ 2 m t + γ 2 y t y t −1
θ =
*
t
τt Obteve-se:
τ4 τ 2γ 2 A função de verossimilhança de (λ , τ ) :
∑ *t = τ 2 S t + τ
t t
( )
t
1
p y ( t ) | λ, τ = ∏ 1
exp (15)
A densidade preditiva, considerando k passos, i=2
(τ i (τ)) 2
para θ t + k , k ≥ 1 , é dada por:
1 ( y i − λ y i-1 )2
(
θ t + k ~ N mt , S t + γ 2
) (10) −
2 τ i (τ )
ε t ~ N(0, τ 2 ) ;
1 t y2 y
2
y t = θ t y t −1 + ε t ;
(12) exp− ∑ i −1
i
− m
τ2 desconhecido 2 i = 2 τ i (τ ) y i −1
θ t = λ + ωt ; ω t ~ N λ, γ 2 ( )
2
γ conhecido Distribuição marginal para τ :
λ ~ N m, S( 2
); 2
m e S conhecidos.
−1τ − (α +1) e
1 2
+ ∑t y i −1 τ 2 λ + γ 2 y y τ 2 λ + γ 2 y y
S2 i=2
τ i (τ ) V 2 2 t 2t −1 = Ε 2 2 t 2t −1 −
(
p τ | y (t ) ) α 1
× (17)
γ y t −1 + τ γ y t −1 + τ
(τ i (τ)) 2
1 t 2
[(
+ Ε θt | y
(t )
)] 2
β yi y i2−1
exp− exp− ∑ − m
τ 2 i = 2 τ i (τ ) y i −1 para a amostra gerada (τ(j) , λ(j) , j = 1,2, .....M ).
Distribuição condicional para λ: Os valores de Ε(θ t | y ( t ) ) e Ε(λ | y ( t ) ) são
calculados através de simulação de Monte Carlo via
( (t )
p λ | y ,τ α exp-
1
) (λ − mt (τ ))2 (18) cadeia de Markov (MCMC) .
2S t (τ ) Os valores esperados da preditiva para θ t+ k e
y t + k , k ≥ 1 são dados por:
1 t
y2
S t (τ ) = 2 + ∑ t −1 − 1 ;
S
i = 2 τ i (τ )
Ε( θ t + k | y ( t ) ) = Ε(λ | y t ) (21)
m t y y − 1
mt (τ ) = + ∑ i i S t (τ )
( ) (
V θ t + k | y (t ) = V λ | y (t ) + γ 2 )
i =2 τ i (τ )
2
S
Ε(y t + k | y ( t ) ) = Ε(λk )y t (22)
τ i (τ ) = γ 2 2
y t −1 +τ 2
em que
Distribuição condicional para τ :
( )
M
1
( (t )
p τ | y ,λ α ) τ − (α +1) β
exp− ×
Ε λk =
M
∑ λkj
j =1
τ
1
(τ i (τ)) 2
2
exp−
1
(λ − m t (τ))2 × Sˆ λ2 =
1 M ( j)
∑ λ
M − 1 j =1
( ) 2
− λˆ
2S t (τ )
M
1
1 t y 2 y
exp− ∑ i −1 i − m
2
(19)
τˆ =
M
∑τ ( j)
2 i = 2 τ i (τ ) y i −1
j =1
( )
2
1 M ( j)
− τˆ
2
Distribuição condicional para θt : Sˆτ2 = ∑ τ
M − 1 j =1
1
p(θ t | y t , y t −1 , λ, τ) α exp− ^ (θ − θˆ t )
2 (20)
em que M é o tamanho da amostra gerada para
λ( j ) ( j)
t
2∑ e τ através de simulação de Monte Carlo
t
via Cadeias de Markov.
em que Como outra alternativa, apresentou-se uma
τ 2 λ + γ 2 y y ramificação do processo auto-regressivo de primeira
θ t = Ε(θ t | y (t ) ) = Ε 2 2 t 2t −1
^
ordem com coeficiente aleatório assumindo uma
γ yt −1 + τ estrutura de dependência dos coeficientes do
'
processo estocástico ( θ t s ) tão forte quanto sua
τ γ
( )
2 2
Σˆ t = V θ t | y ( t ) = Ε 2 2 2
permutabilidade. Descrevemos o modelo para uma
γ y t −1 + τ série temporal em função de seus componentes não
(e t ) [(
| θ t , y ( t −1) ~ N Ft θ t − G t θˆ t −1 , Vt ) ] (27) Pode-se escrever a função verossimilhança de
como:
λ
L(λ | y ) = ∏ (y )
t 2
(i −1)
pode ser escrita como: 2
τ +σ
i −1 i
2
exp
∑t ∑ t Ft'
(θ e t | y (t -1) )
'
( )
~ N G t θˆ t −1 0 '
(28) i =1
Ft ∑ t Vt + Ft ∑ t Ft'
t
−
1
(
y i − λθˆi −1 y i −1 )2
A distribuição a posteriori de θ t :
(θ t | e t , y (t −1) ) ~ N(G t θˆ t −1 + ∑ t Ft' (Vt + Ft ∑ t Ft' ) −1 e t ;
(
2 y i −1τ i + σ 2
2
)
(31)
p(θ t | y ( t ) , λ ) ∝ ∑ t
^ − 1 2 (34)
θ t = λθ t −1 + ω t 2
exp− ^ θ t − θˆ t
2∑ t
em que
εt 0 σ 2 0 λθˆ σ 2 + τ t y t y t −1
~ N ; , θˆt = t −1 2 (35)
γ 2 σ + y t2−1τ t
ω t 0 0
^ τ tσ 2
σ 2
eγ 2
conhecidos. ∑ t= σ 2 + y t2−1τ t
(36)
∑ t= σ 2 + y t2−1τ t
26
24
20
A distribuição preditiva para y t +1 18
16
^ 14
( )
y t +1 | y (t ) , λ ~ N λy t θˆ t ; y 2t λ2 ∑ t + γ 2 + σ 2 (38) 12
10
8
0 100 200 300 400 500 600 700
t
Para exemplificar a aplicação desses modelos,
considerou-se uma série real correspondente ao Figura 1. Evolução de preço diário de ações da Vale do Rio Doce.
preço de ações da Siderúrgica Vale do Rio Doce, em
dólares, negociadas no período de 02 de janeiro de Com o objetivo de compararmos a evolução de
1996 a 1 de fevereiro de 1999, pela Bovespa (Bolsa preços reais com os preços previstos, calculou-se a
de Valores de São Paulo). previsão desses preços para os últimos 30 dias do
A partir das condicionais a posteriori dos parâmetros período e apresentamos os resultados obtidos nas
de cada modelo, aplicando os algoritmos Gibbs- Figuras 2 e 3.
Sampling e Metropolis-Hasting, geraram-se Na Figura 2, é visualizado o comportamento dos
amostras da série considerando 5 cadeias com 3000 valores previstos considerando um passo (dia) à
iterações cada uma, e, para garantir a independência
entre os valores simulados de cada parâmetro,
frente, ou seja, (y t+k | y ( t + k −1) ; k = 1,...,30 , )
enquanto que na Figura 3 visualiza-se tendência da
tomamos 50% das iterações, demos um salto a cada 5
previsão e dos valores reais para os 30 dias,
valores, selecionando, assim, uma amostra com 300
considerando os dados observados até o instante t,
( ),
valores em cada cadeia, totalizando uma amostra
(t )
final de 1500 valores. isto é, y t + k | y em que os 30 últimos dias
A convergência das amostras geradas foi foram deixados fora do conjunto de observações
monitorada, utilizando o método proposto por usadas no ajuste do modelo.
Gelman e Rubin (1992), o qual se baseia na análise Observando as Figuras 2 e 3, pode-se constatar
de variância. que os valores previstos, obtidos a partir da amostra
Utilizando essa amostra, aproximou-se a gerada, possuem, basicamente, a mesma tendência
densidade preditiva dos parâmetros de interesse de que os valores reais; houve apenas uma diferença de
cada modelo, através dos estimadores de Monte locação nos valores previstos, que pode ser vista na
Carlo e verificou-se graficamente qual o modelo que Figura 2.
melhor representa os dados, em função dos valores No cálculo dos valores previstos, considerando
previstos obtidos. um passo (dia) à frente, obteve-se um erro médio de
Na Tabela 1, pode-se observar os previsão (em percentual) et = 0,461% .
hiperparâmetros do modelo hierárquico
Erro esse inferior a 5%; assim, podemos concluir
considerando a variância conhecida, baseados em
que o modelo apresentado é adequado para fazer
11
10
10.5
y - valores em dolares
9.5
10
9
9.5
8.5
V .Real 9
V .P revisto
8
620 625 630 635 640 645 650 655
t 8.5
V .Real
V .P revisto
Figura 2. Comparação diária de preços reais e previstos de ações 8
620 625 630 635 640 645 650 655
da Vale do Rio Doce t
28
10
27
9 .5
y - valores em dolares
26
9
25
8 .5 V .R e a l
V .P re vis to
24
8
620 625 630 635 640 645 650 655
t 23
V .R e a l
enquanto que na Figura 5 visualiza-se a tendência 13
V .P re vis to
Mediante os resultados obtidos nesse exemplo, BROEMILING, D.L.; COOK, P. Bayesian estimation of
vale ressaltarmos que a dependência das variáveis the mean of an autoregressive process. Journal of Applied
(coeficiente) do modelo auto-regressivo não Statistics, Oklahoma, v.20, n1, p.25-38, 1993.
apresenta mudanças muito acentuadas na previsão CASELLA, G.; GEORGE, E. J. Explaining the Gibbs-
das observações futuras, mesmo quando Sampler, Belmont. Amer. Statis. Soc., Alexandria, v. 46, n.3,
p.167-174, 1992.
acrescentamos uma incerteza na variância do ruído.
O uso de modelos hierárquico e dinâmico para CHIB, S.; GRENBERG, E.J. Understanding the
Metropolis-Hasting Algorithm. Amer. Statis. Soc.,
modelagem de processos auto-regressivos com
Alexandria, v. 49, n.4, p.35-51, 1995.
parâmetros aleatórios são alternativas eficientes para
DIAZ, J. Bayesian Forecasting for AR(1) Models With
analisarmos e fazermos previsões futuras da
Normal Coefficients. Commu. Statist.-Theory Meth.,
evolução de valores econômicos. Voorburg, v.196, p.2229-2246, 1990.
Nesse caso, a análise bayesiana, usando método GELMAN, A.; RUBIN, B.D. Inference from Iterative
de simulação de Monte Carlo via Cadeia de Markov, Simulation Using Multiple Sequences. Stat. Sci.,
tem implementação razoavelmente fácil, não Hayward, v.4, p.457-511, 1992.
exigindo desenvolvimento de aproximações KALMAN, R.E. A New Approach to Linear Filtring and
numéricas, e as inferências obtidas são bastante Predition Problem. Journal of Basic Eng, Trans. ASME,
precisas. Entretanto, conforme resultados gráficos Series. D, New York, v. 82, p 35-45, 1960.
obtidos, pode-se observar que o modelo hierárquico, LIU, S.I. Comparison of Forecastes for Arma Models
no qual é considerado a variância do ruído τ 2 ( ) Between a Random Coeficent Approach and a Bayesian
Approach. Commu. Statist Theory Meth., Voorburg, v. 24,
conhecida, apresenta os valores previstos mais n.2, p.319-333, 1995.
próximos dos valores reais no período considerado.
MEINHOLD, R.J.; SINGPURVALLA, N.D.
A abordagem bayesiana é estendida para os modelos Understanding the Kalman Filter, Amer. Statis. Soc.,
mais realistas, nos quais têm-se incertezas sobre as Alexandria, v. 37, n, p.229-246, 1983.
variâncias dos ruídos. SOYER, R. Random coefficient autoregressive process and their
Nesses modelos mais gerais, os erros de previsão ramifications: applications to reliability growth. assessment. 1985.
crescem como era de se esperar; mesmo assim, os (Dissertation) - School Eng. Appl. Sci., George
modelos mostram-se mais adequados para a previsão Washington Univ, Washington D.C., 1985.
de séries não estacionárias. WEST, M.; HARRISON, J. Bayesian Forecasting and
Dynamic Models, 2. ed. New York: Springer. 1997.
Referências Received on January 26, 2002.
BOX, G.E.P. et al. Time series analysis: forecasting and control. Accepted on June 18, 2002.
3. ed. New Jersey: Holden Day, 1994.