Você está na página 1de 44

Prof.: Dr.

: ANDERSON ANTONIO DENARDIN

PROGRAMA
— Relaxando as Hipóteses do Modelo Clássico

— Multicolinearidade;

— Heteroscedasticidade;

— Autocorrelação;

— Modelos Econométricos Dinâmicos

— Modelos Auto-Regressivos

— Modelos com Defasagens Distribuidas


PROGRAMA
— Econometria de Séries Temporais Univariadas;

— Estacionariedade, Raiz Unitária;

— Modelos Auto-Regressivos (AR);

— Modelos de Médias Móveis (MA);

— Modelos Auto-Regressivos e de Médias Móveis (ARMA);

— Modelos Integrados Auto-Regressivos e de Médias Móveis

(ARIMA);

— Modelos Sazonais (SARIMA)

PROGRAMA
— Econometria de Séries Temporais Multivariadas;
— Modelos de Vetor Auto-Regressivos (VAR).

— Processo de Co-Integração.

— Testes de Causalidade de Granger.

• Medindo Volatilidade em Séries Temporais;


• Heterocedasticidade Condicional Auto-Regressiva (ARCH)

• Heterocedasticidade Condicional Auto-Regressiva Generalizada


(GARCH)

• Modelos de Regressão com Dados de Painel

• Modelos de Equações Simultâneas;


BIBLIOGRAFIA
— BIBLIOGRAFIA BÁSICA
Ø GUJARATI, Damodar n. Econometria Básica. 4 ed Rio de
Janeiro: Elsevier, 2006
Ø HOFFMAN, R. e VIEIRA, S. Análise de Regressão: uma
introdução à econometria. São Paulo: Hucitec. 1987.
Ø KMENTA, Jan. Elementos de Econometria. SP: Atlas.
1978.

— BIBLIOGRAFIA COMPLEMENTAR
Ø STOCK, James H. WATSON, Mark W. Econometria. São
Paulo: Addison Wesley. 2004.
Ø JOHNSTON, J. Econometric Methods. Singapore:
McGraw-Hill. 1991.

AVALIAÇÃO
— Provas bimestrais (80% da nota)
— Listas de Exercícios Teóricos (10% da nota)
— Lista de Exercícios Aplicados (10% da nota)
— Sendo a nota da lista proporcional a nota da prova.
PREMISSAS DO MODELO CLÁSSICO
— O modelo de regressão é linear nos parâmetros;
— Os valores dos regressores, os X’s, são fixados em amostras repetidas;

— Para dado valor de X, a variância de ui é constante ou homocedástica;

— Para um dado valor de X, não há autocorrelação entre os termos de erro;


— Se os X’s forem estocásticos, o termo de erro e os X’s são independentes,
ou pelo menos não correlacionados;
— O número de observações deve ser maior que o número de regressores;

— Deve haver suficiente variabilidade nos valores assumidos pelos


regressores;
— O modelo de regressão está especificado da forma correta;

— Não há relação linear exata (ou multicolinearidade) entre os regressores;


— O termo estocástico (de erro) ui se distribui normalmente.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE

— NATUREZA DA MULTICOLINEARIDADE: o termo multicolinearidade


sugere a existência de uma relação linear perfeita (ou exata) entre algumas ou
todas as variáveis explicativas de um modelo de regressão.
— Para a regressão de k variáveis envolvendo as variáveis X1, X2,...,Xk, temos uma
correlação linear perfeita se a seguinte condição for satisfeita:

l1 X 1 + l2 X 2 + .... + lk X k = 0
— Onde λ1, λ2,....., λk são constantes, e nem todas são simultaneamente iguais a
zero.
— Assim, para λ2 ≠ 0, temos que:

l1 l l
X2 = - X 1 - 3 X 3 .... - k X k
l2 l2 l2
— Que mostra como X2 se relaciona de forma linear e exata com as demais
variáveis. Nessa situação, o coeficiente de correlação entre X2 e a combinação
linear das variáveis será igual a 1.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE

— Para a multicolinearidade menos que perfeita temos que:

l1 X 1 + l2 X 2 + .... + lk X k + vi = 0
— Em que vi é um termo de erro estocástico.
— Similarmente, para λ2 ≠ 0, temos que:

l1 l l 1
X2 = - X 1 - 3 X 3 .... - k X k - v i
l2 l2 l2 l2

— Essa equação demonstra que X2 não é uma combinação linear


exata de outros X’s, pois também é determinado pelo termo de erro
estocástico vi.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE

— Exemplo:

X2 X3 =5X2 i X3*=X3+i
10 50 2 52
15 75 0 75
18 90 7 97
24 120 9 129
30 150 2 152

— Como X3 = 5 X2, existe uma colinearidade perfeita entre X2 e X3, dado


que o coeficiente de correlação “r23” é igual a 1. A variável X3 * não
mantém uma colinearidade perfeita com X2, dado que r = 0,9959.
n

å(X
n
2i -X 2 )( X 3i - X 3 ) å( X 2i -X 2 )( X *3i - X *3 )
r23 = i =1
=1 r23 = i=1
= 0,9959
s 2s 3 s 2s *3
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— Fontes de Multicolinearidade:

— O método de coleta de dados empregado – Ex.: tomar amostras de


uma faixa limitada de valores.
— Restrições do modelo ou da população amostrada – Ex.: Consumo de
energia elétrica (Y), Renda (X1), tamanho da residência (X2).
— Especificação do modelo – Ex.: acréscimo de termos polinomiais ao
modelo de regressão.
— Modelos superdeterminados – Ex.: número de variáveis explicativas
supera o número de observações (pesquisas médicas).
— Uso de séries temporais – Ex.: as variáveis apresentam tendência
comum, ou seja, elas aumentam ou diminuem de forma sincronizada
ao longo do tempo.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE

— O modelo de regressão linear supõe que não existe


multicolinearidade entre os X’s, por que razão?

— Se a multicolinearidade for perfeita, os coeficientes de regressão


das variáveis X são indeterminados e seus erros-padrão são
infinitos.

— Se a multicolinearidade for menos que perfeita, os coeficientes


de regressão, embora determinados, possuem erros-padrão
grandes, o que significa que os coeficientes não podem ser
estimados com grande precisão ou exatidão.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— ESTIMATIVAS NA PRESENÇA DE MULTICOLINEARIDADE
PERFEITA:

— Considere o modelo de regressão de três variáveis como segue:


y i = bˆ 1 + bˆ 2 x 2 i + bˆ 3 x 3 i + uˆ i

( å y i x 2 i )( å x 32i ) - ( å y i x 3 i )( å x 2 i x 3 i )
bˆ 2 =
( å x 22 i )( å x 32 i ) - ( å x 2 i x 3 i ) 2
( å y i x 3 i )( å x 22 i ) - ( å y i x 2 i )( å x 2 i x 3 i )
bˆ 3 =
( å x 22 i )( å x 32 i ) - ( å x 2 i x 3 i ) 2

Fazendo x 3i = l x 2 i

( å y i x 2 i )( l 2 å x 22 i ) - ( l å y i x 2 i )( l å x 22 i ) 0
bˆ 2 = =
(å x 2
2i )( l 2
å x 2
2i ) - l (å x
2 2
2i ) 2
0

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE
— Isso ocorre porque cada um dos parâmetros β fornece a taxa de variação de Y quando X
se altera em uma unidade, mantendo os demais X’s constantes. Porém, quando X2 e X3
são perfeitamente colineares, não há como manter X3 constante. Assim, quando X2 se
altera, X3 também se altera pelo fator λ. Isso faz com que não seja possível separar as
influências que X2 e X3 exercem sobre Y, em uma determinada amostra.
y i = bˆ 1 + bˆ 2 x 2 i + bˆ 3 x 3 i + uˆ i
Substituin do - se :
x 3i = l x 2i
Obtemos :
ˆ ˆ ˆ
y i = b 1 + b 2 x 2 i + b 3 ( l x 2 i ) + uˆ i
y i = bˆ 1 + ( bˆ 2 + l bˆ 3 ) x 2 i + uˆ i
y = bˆ + aˆ x + uˆ
i 1 2i i

onde : aˆ = bˆ 2 + l bˆ 3 =
å x 2i yi
å x 2
2i

— Essa expressão fornece uma equação com duas incógnitas, de modo que, para cada valor
fixo de λ e α existe uma infinidade de soluções possíveis para β1 e β2. No caso de
multicolinearidade perfeita, não é possível determinar uma solução única para os
coeficientes de regressão, porém, é possível obter uma solução única para a combinação
linear entre os coeficientes.
RELAXAMENTO DAS HIPÓTESES DO MODELO
CLÁSSICO: MULTICOLINEARIDADE
— É importante considerar que, no caso de multicolinearidade perfeita, as
variâncias e erro-padrão dos parâmetros β2 e β3, individualmente, são
infinitos:

Var ( bˆ2 ) =
åx 2
3i
s =2 s2

(å x22i )(å x32i ) - (å x2 i x3i ) 2 åx 2
2i (1 - r232 )

Var (bˆ3 ) =
åx 2
2i
s2 =
s2

(å x22i )(å x32i ) - (å x2 i x3i ) 2
åx 2
3i (1 - r232 )

- r23s 2
Cov(bˆ2 , bˆ3 ) =
(1 - r232 ) åx åx 2
2i
2
3i

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE
— ESSTIMATIVAS NA PRESENÇA DE MULTICOLINEARIDADE ALTA
MAS IMPERFEITA:

— Quando não existe multicolinearidade exata, podemos ter:


Para x3 i = l x 2 i + vi , temos :
onde l ¹ 0 e v i é o termo de erro estocástic o, tal que å x 2 vi = 0

(å yi x 2 i )( å x32i ) - (å yi x3i )( å x2 i x3 i )
bˆ 2 =
( å x22i )( å x32i ) - ( å x2 i x3 i ) 2

ˆ ( å yi x2 i )( l2 å x 22i + å vi2 ) - (l å yi x2 i + å yi vi )( l å x22i )


b2 = ¹0
(å x22i )( l 2 å x 22i + å vi2 ) - l ( å x22i ) 2
— Neste caso, a estimativa dos coeficientes de regressão β’s é possível. Se “vi” for
suficientemente pequeno, ou muito próximo de zero, teremos multicolinearidade
quase perfeita, o que ocasiona a indeterminação dos coeficientes de regressão.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE

— CONSEQUÊNCIAS DA MULTICOLINEARIDADE:

— Quando ocorre multicolinearidade alta, é possível verificar que:

— Apesar de serem os Melhores Estimadores Lineares Não Viesados


(MELNT), os estimadores de Mínimos Quadrados Ordinários têm grandes
variâncias e covariâncias, dificultando uma estimativa precisa.
— Em virtude da grande variância, os intervalos de confiança tendem a ser
maiores, resultando na aceitação da “hipótese nula” de que o verdadeiro
coeficiente na população é zero.
— Em virtude da grande variância, a razão t de um ou mais coeficientes tende a
ser estatisticamente insignificante.
— Embora a razão t de um ou mais coeficiente seja estatisticamente
insignificante, R2, a medida global do grau de ajuste, pode ser bastante alto.
— Os estimadores de Mínimos Quadrados Ordinários e seus erros-padrão
podem ser sensíveis a pequenas variações nos dados.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE

— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Grande variância e


covariância dos estimadores de MQO.

— Considere o “Fator de Inflação de Variância” (FIV) determinado por:

1
FIV =
(1 - r232 )

— Em que r23 é o coeficiente de correlação entre X2 e X3, e que -1 ≤ r23 ≤ 1. Essa


expressão demonstra como a variância de um estimador se infla pela presença da
multicolinearidade. A medida em que r232 se aproxima de 1, o FIV se aproxima
do infinito, ou seja, conforme aumenta o grau de colinearidade, a variância de
um estimador aumenta e, no limite, ela pode se tornar infinita.
— Se não houver colinearidade entre X2 e X3, o FIV será igual a 1.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Grande variância e
covariância dos estimadores de MQO.

— Corrigindo a fórmula da variância e covariância entre β2 e β3, pelo FIV obtemos:

s2 s2 s2 s2
Var ( bˆ 2 ) = = = = FIV
å (X 2i - X2) 2
åx 2
2i åx 2
2i (1 - r23 ) åx 2
2i

s2 s2 s2 s2
Var ( bˆ3 ) = = = = FIV
å (X 3i - X 3 )2 åx 2
3i åx 2
3i (1 - r23 ) åx 2
3i

- r23s 2
Cov ( bˆ 2 , bˆ3 ) =
(1 - r23 ) åx åx 2
2i
2
3i

— Estas expressões sugerem que, na medida em que o coeficiente de correlação r23


se aproxima de 1, ou seja, conforme aumenta a colinearidade, as variâncias
aumentam e, no limite, quando r23 = 1, elas se tornam infinitas. A covariância
também aumenta em valor absoluto.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE
— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Grande variância e
covariância dos estimadores de MQO.

— Exemplo:
r23 FIV Var(β2)xFIV Var(β3)xFIV Covar(β2,β3)
0,00 1,00 σ2/Σx2i2 = A σ2/Σx3i2 = B -σ2/(Σx2i2 Σx3i2 )1/2= C
0,50 1,33 1,33 x A 1,33 x B 0,67 x C
0,70 1,96 1,96 x A 1,96 x B 1,37 x C
0,80 2,78 2,78 x A 2,78 x B 2,22 x C
0,90 5,26 5,26 x A 5,26 x B 4,73 x C
0,95 10,26 10,26 x A 10,26 x B 9,74 x C
0,97 16,92 16,92 x A 16,92 x B 16,41 x C
0,99 50,25 50,25 x A 50,25 x B 49,75 x C
0,995 100,00 100,00 x A 100,00 x B 99,50 x C
0,999 500,00 500,00 x A 500,00 x B 499,50 x C
1 ∞ ∞ ∞
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Grande variância e
covariância dos estimadores de MQO.

— Os resultados examinados podem ser facilmente estendidos para analisar


modelos com k variáveis. Assim, a variância do k-ésimo coeficiente pode ser
expressa da seguinte forma.

ˆ s2 1 s2
Var( b k ) = = FIVk
å xk2 (1 - Rk2 ) å xk2

bˆk = Coeficiente parcial de regressão do regressor X k


Rk2 = R 2 da regressão de X k contra as (k - 2) regressores restantes
X k = a1 X 1 + a 2 X 2 + ... + a j X j

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE

— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Intervalos de


confiança maiores.

— Devido ao grande erro-padrão, os intervalos de confiança para os parâmetros relevantes


da população tendem a ser maiores. Assim, nos casos de multicolinearidade, aumenta a
probabilidade de aceitar uma hipótese falsa, ou seja, cometer um erro do tipo II.

æ bˆ - b 2 ö
Pr çç - t a £ 2 £ +ta ÷ = (1 - a )
ˆ ;( n - k ) ÷
è 2 ;( n - k ) ep ( b 2 ) 2 ø

æ ö
Pr çç bˆ 2 - t a .ep ( bˆ 2 ) £ b 2 £ bˆ 2 + t a .ep ( bˆ 2 ) ÷÷ = (1 - a )
;( n - k ) ;( n - k )
è 2 2 ø

æ s2 s2 ö
Pr ç bˆ 2 - t a . FIV £ b 2 £ bˆ 2 + t a . FIV ÷ = (1 - a )
ç
è 2
;( n - k )
åx 2
2i 2
;( n - k )
å x2
2i
÷
ø
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE

— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Razão t insignificante

— Para testar a hipótese nula de que um parâmetro β seja igual a zero, usamos a
razão t, e comparamos o valor estimado de t com o valor crítico de t extraído da
tabela t. Nos casos de alta colinearidade, os erros-padrão estimados aumentam
significativamente, tornando menores os valores de t. Em tais circunstâncias
aceitaremos crescentemente a hipótese nula de que o valor verdadeiro do
parâmetro da população é zero.
bˆ - b 2
t= 2
ep ( bˆ ) 2

bˆ 2 - b 2
t=
s2
FIV
åx 2
2i

æ ö
Pr çç - t a £ t £ +t a ÷ = (1 - a )
;( n - k ) ÷
è 2 ;( n - k ) 2 ø

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE

— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Um R2 elevado


porém, razão t insignificante

— Para um modelo de regressão múltipla de k variáveis:

Yi = b1 + b 2 X 2i + b 3 X 3i + ..... + b k X ki + ui

— No caso de alta colinearidade é possível constatar que um ou mais coeficientes


parciais de inclinação são, individualmente, estatisticamente insignificantes com
base no teste t. Porém, o grau de ajustamento representado pelo coeficiente de
determinação R2, é bastante elevado.
— Este representa um sintoma de que pode haver multicolinearidade entre as
variáveis do modelo estimado.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— CONSEQUÊNCIAS DA MULTICOLINEARIDADE: Sensibilidade dos estimadores
de MQO e de seus erros-padrão a pequenas variações nos dados.
— Uma vez que a multicolinearidade não é perfeita, é possível estimar os coeficientes de
regressão, mas as estimativas e seus erros-padrão se tornam extremamente sensíveis
mesmo a uma pequena variação nos dados.
— Exemplo:
Y X2 X3
Yi = 1,1939 + 0, 4463 X 2 i + 0,0030 X 3i
1 2 4 ( 0 , 7737 ) ( 0 ,1848 ) ( 0 , 0851 )
2 0 2 t = (1, 5431 ) t = ( 2 , 4151 ) t = ( 0 , 0358 )

3 4 12 R 2 = 0,8101 r 23 = 0,5523
4 6 0
5 8 16 Cov ( bˆ 2 , bˆ3 ) = -0,00868

Yi = 1,2108 + 0,4014 X 2 i + 0,0270 X 3 i


Y X2 X3
1 2 4 ( 0 , 7480 ) ( 0 , 2721 ) ( 0 ,1252 )
t = (1, 6187 ) t = (1, 4752 ) t = ( 0 , 2158 )
2 0 2
3 4 0 R 2 = 0,8143 r 23 = 0,8285
Cov ( bˆ 2 , bˆ3 ) = -0,0282
4 6 12
5 8 16

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE

— DETECÇÃO DA MULTICOLINEARIDADE: Uma vez estabelecida


a natureza e as conseqüências da multicolinearidade, resta saber como
detectá-la.

— Como a multicolinearidade é um fenômeno da amostra, não temos um


método único para detectar ou para medir sua intensidade. Dispomos de
algumas regras práticas formais e informais para identificá-la, tais como:

— Alto R2, porém poucas razões t significativas;


— Alta correlação dois a dois entre os regressores;
— Exame das correlações parciais;
— Regressões auxiliares;
— Fator de inflação da variância;
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE

— MEDIDAS CORRETIVAS PARA A MULTICOLINEARIDADE:

— Como a multicolinearidade é um fenômeno da amostra, não temos um método


único para solucionar o problema. Dispomos de algumas regras práticas formais
e informais para corrigir, tais como:
— Informações a priori:
— Considere o seguinte modelo:

Yi = b 1 + b 2 X 2i + b3X 3i + ..... + b k X ki + ui
— Suponha que β3=0,1β2. Assim, podemos rodar a seguinte regressão:
Yi = b 1 + b 2 X 2i + 0 ,1 b 2 X 3i + ..... + b k X ki + ui
Yi = b 1 + ( X 2i + 0 ,1 X 3i )b 2 + ..... + b k X ki + ui
X i = X 2i + 0 ,1 X 3i

Yi = b 1 + b 2 X i + ..... + b k X ki + ui
— Uma vez determinado β2, podemos determinar β3 pela relação β3=0,1β2.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE

— MEDIDAS CORRETIVAS PARA A MULTICOLINEARIDADE:

— Eliminação de uma variável e viés de especificação:


— Quando deparamos com multicolinearidade grave, uma das coisas
mais simples a se fazer é eliminar uma das variáveis colineares.
Porém, ao excluir uma variável do modelo, podemos estar cometendo
um viés de especificação ou um erro de especificação.
— Em algumas situações o remédio pode ser pior do que a doença, já
que, enquanto a multicolinearidade pode impedir a estimativa precisa
dos parâmetros do modelo, omitir uma variável pode nos enganar
seriamente no que diz respeito aos verdadeiros valores dos
parâmetros.
— É importante considerar que os estimadores de MQO são MELNV
apesar da quase-colinearidade.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— MEDIDAS CORRETIVAS PARA A MULTICOLINEARIDADE:

— Transformação das Variáveis:


— Suponha que tenhamos séries temporais sobre consumo, renda e riqueza.
Uma razão da alta multicolinearidade entre renda e riqueza nesses dados é
que, com o tempo, ambas as variáveis tendem a se mover na mesma direção.
Uma forma para eliminar esta dependência é proceder como segue:
— Se a relação for valida no instante t:

Yt = b 1 + b 2 X 2t + b3X 3t + ui

— Ela deve ser válida no instante t-1, pois a origem de tempo é arbitrária.
Assim, temos:
Y t -1 = b 1 + b 2 X 2 t -1 + b3X 3 t -1 + u i -1
— Subtraindo as equações obtemos:

Y t - Y t -1 = b 1 + b 2 ( X 2 t - X 2 t -1 ) + b 3 ( X 3 t - X 3 t -1 ) + u t - u i -1
Y t - Y t -1 = b 1 + b 2 ( X 2 t - X 2 t -1 ) + b 3 ( X 3 t - X 3 t -1 ) + v t

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


MULTICOLINEARIDADE
— MEDIDAS CORRETIVAS PARA A MULTICOLINEARIDADE:

— Transformação das Variáveis:

— A equação obtida está na forma de primeira diferença, dado que rodamos a


regressão não em sua forma original, mas sobre as diferenças dos sucessivos
valores das variáveis.
— O modelo de regressão em primeira diferença muitas vezes reduz a
severidade da multicolinearidade, dado que, embora os níveis de X2 e X3
possam ser altamente correlacionado, não existe razão para que suas
diferenças também sejam.
— A transformação para a primeira diferença cria um problema adicional, ou
seja, estabelece um padrão de correlação serial nos resíduos, o que fere um
dos pressupostos do modelo clássico de regressão linear.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
MULTICOLINEARIDADE
— MEDIDAS CORRETIVAS PARA A MULTICOLINEARIDADE:

— Dados adicionais ou novos:

— Um aumento no tamanho da amostra pode atenuar o problemas de


colinearidade. No modelo de três variáveis vimos que:

s2
Var ( bˆ2 ) =
åx 2
2i (1 - r23 )

— Assim, conforme o tamanho da amostre é elevado, o termo representado por


Σx2i2 também será elevado. Dessa forma, para qualquer valor de r23, a
variância de β2 diminuirá, diminuindo o erro-padrão, o que permite estimar o
parâmetro com maior precisão.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— A NATUREZA DA HETEROCEDASTICIDADE: uma das hipóteses do
modelo clássico de regressão linear é que a variância de cada termo de
perturbação ui, condicional aos valores escolhidos das variáveis explicativas, é
algum número constante igual a σ2, o que implica que a variância do erro deve
ser homocedástica.
— Porém, pode ocorrer situações em que a variância condicional do erro ui não se
mantém constante quando X aumenta. Essa situação descreve um
comportamento heteroscedástico dos erros, que pode ser representado por:

E (ui2 ) = s i2

var(ui / X 1 ) < var(ui / X 2 ) < .... < var(ui / X i )

RELAXAMENTO DAS HIPÓTESES DO MODELO


CLÁSSICO: HETEROCEDASTICIDADE
var(ui / X 1 ) < var(ui / X 2 ) < .... < var(ui / X i )
f(x) Y

σ21
σ22
X1 Y = b1 + b2 X
σ23
X2

X3
X
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— Existem diversas razões pelas quais as variâncias de ui podem ser
variáveis, podendo-se destacar:

— Modelos de aprendizagem do erro: à medida que as pessoas


aprendem, seus erros de comportamento se tornam menores com o
tempo, assim, σ2 diminui.
— À medida que a renda aumenta, as pessoas dispõem de maior renda
disponível, por conseguinte, maior liberdade para escolher como
dispor de sua renda, assim σ2 aumenta.
— À medida que melhore as técnicas de coletas de dados, σ2,
provavelmente diminua.
— Presença de observações aberrantes.
— Erro de especificação do modelo.

— Obs.: o problema de heteroscedasticidade provavelmente seja mais


comum em dados de corte do que em séries temporais.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE

— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS


(MGO):

— O método usual dos MQO confere igual peso ou igual importância a cada
observação da amostra, o que produz distorções nos estimadores, dado
que a variância dos dados não se mantém constantes ao longo da
amostra.

— O método conhecido como Mínimo Quadrado Generalizado (MQG) leva


em conta a diferença na variabilidade da amostra, portanto, é capaz de
produzir estimadores que sejam os Melhores Estimadores Lineares Não
Viesados (MELNV).
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS (MQG):

— Se a variância heteroscedástica σi2 forem conhecidas, podemos


transformar as variáveis originais dividindo por σi2 para estimar os
parâmetros β1 * e β2 *.
Yi = b1 + b 2 X i + ui
Yi = b1 X 0i + b 2 X i + ui X0i = 1 " i.

para s i2 conhecidos, temos :

Yi X 0i Xi ui
= b1 + b2 +
si si si si
Yi = b 1 X 0i + b 2 X i + u *i
* * * * *

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS (MQG):

— Na medida em que o modelo original é transformado temos que:

Var(ui ) = E(ui )2 = s i2
2
æu ö 1
Var(u i ) = E(u i ) = Eç i ÷ = 2 E(ui2 )
* * 2
ç si ÷ si
è ø
1
Var(u*i ) = 2 s i2 = 1
si
— Assim, a variância torna-se constante. Ou seja, a variância do termo de
perturbação transformado ui* tornou-se homoscedástico. Isso sugere que
se aplicarmos o método dos Mínimos Quadrados Ordinários ao modelo
transformado, os parâmetros estimados β’s continuam sendo os Melhores
Estimadores não Viesados (MELNV).
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS (MGO):

— Para obter os estimadores por MQG (β1* e β2 *), devemos minimizar:

åu *2
i
= å (Yi* - bˆ1* X *0i - bˆ *2 X *i )2
2
éæ Y öù
2
æ ui ö ö æX ö æX
å ç s ÷ å êçç si
ç ÷ = ÷ - bˆ * ç 0i
÷ 1 ç si
÷ - bˆ * ç i
÷ 2 ç si
÷ú
÷ú
è iø êëè i ø è ø è øû

Para wi = 1/s i2

å w u = å w (Y
i
2
i i i
*
- bˆ1* - bˆ 2* X *i ) 2

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS (MGO):

— Para obter os estimadores por MQG (β1* e β2 *), devemos minimizar:

åw u = åw (Y i
2
i i
*
i
- bˆ1* - bˆ *2 X *i )2
¶å wiu 2i
= 2å wi (Yi* - bˆ1* - bˆ2* X *i )(-1) = 0 Þ åw Y =bˆ1* å wi +bˆ *2 å wi X i
¶bˆ *
i i

¶ å wi u i2

= 2å wi (Yi* - bˆ1* - bˆ2* X *i )(- X i ) = 0 Þ åw X Y =bˆ1* å wi X i +bˆ*2 å wi X i2


¶bˆ *
i i i
2

bˆ * = Y * - bˆ * X *
1 2

(åw )(åw X Y ) - (åw X )(åw Y )


bˆ * = i i i i i i i i
2
(åw ) - (åw X )(å w X ) i i i
2
i i
2

Var(bˆ ) = *
(åw ) i

(åw )- (åw X )(åw X )


2
i i i
2
i i
2
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS
(MQG):

— O método que transforma as variáveis originais de modo que as variáveis


transformadas satisfaçam as hipótese do modelo clássico de regressão
linear para, em seguida, aplicar o método de MQO, é conhecido como
método dos mínimos quadrados generalizados (MQG).
— Os estimadores β’s assim obtidos são conhecidos como estimadores de
Mínimos Quadrados Generalizados (MQG).
— O método de MQG minimiza uma soma ponderada de quadrados dos
resíduos, enquanto o método de MQO minimiza uma soma dos
quadrados dos resíduos não ponderados.
— O peso atribuído a cada observação é inversamente proporcional a seu σi,
assim, observações vindas de uma população com maior σi receberão um
peso relativamente menor e as vindas de uma população com menor σi
receberão um peso proporcionalmente maior, quando minimizamos a
SQR.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— METODO DOS MÍNIMOS QUADRADOS GENERALIZADOS (MQG): Nos
MQO, cada ui associado aos pontos A, B e C receberá o mesmo peso quando
minimizamos a SQR. Neste caso, o ui associado ao ponto C dominará a SQR. Porém, nos
MQG, a observação extrema C receberá um peso relativamente menor que o das duas
outras observações.

Y C

ûi Yˆ = bˆ1 + bˆ 2 X

A
ûi
ûi B

X1 X2 X3
X
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— CONSEQUÊNCIAS DO USO DE MQO NA PRESENÇA DE
HETEROCEDASTICIDADE:

— Tanto β2* como β2 são estimadores lineares não viesados, ou seja, em amostras
repetidas são os estimadores dos verdadeiros parâmetros da população. Porém,
β2* é eficiente, ou seja, tem variância mínima, enquanto β2 não é eficiente.
Assim, o uso de β2, ao invés de β2* pode causar os seguintes problemas:
— Não é possível estabelecer intervalos de confiança e aferir hipóteses com os
testes t e F uma vez que, a var(β2*) < var(β2). Isso significa que o intervalo de
confiança baseados em β2 são maiores e, conseqüentemente, os testes t e F nos
fornecem resultados imprecisos. Assim, se insistirmos em utilizar o método
padrão na presença de heteroscedasticidade, sejam quais forem as conclusões
que chegamos ou as inferências realizadas, elas podem ser bastante enganosas.
— Se considerarmos a estimativa baseada em β2 obtemos uma variância viesada
determinada por:

Var ( bˆ 2 ) =
s2
¹ Var ( bˆ 2* ) =
åxsi
2
i
2

åx i
2
(å x )
i
2 2

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Informais

— Natureza do Problema: a natureza do problema que está sendo


considerado oferece indícios prévios com relação à presença de
heteroscedasticidade . Ex.: (análise da renda consumo).

— Métodos Gráficos: se não houver nenhuma informação prévia ou


empírica sobre a natureza da heteroscedasticidade, é possível fazer a
análise de regressão sob a hipótese de que não haja heteroscedasticidade,
e então fazer um exame posterior dos resíduos ao quadrado ui2, para
verificar se eles exibem algum padrão sistemático quando relacionado
com Yi.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Informais

— Métodos Gráficos: Plotar o ui2 e Yi

uˆi2 uˆi2 uˆi2

0 0 ŷ 0 ŷ


2
i uˆ
i
2

0 ŷ 0 ŷ

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Informais

— Métodos Gráficos: Plotar o ui2 e Xi

uˆi2 uˆi2 uˆi2

0 0 0
X X X
uˆ i
2

2
i

0 0
X X
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais
— Teste de Park: Park formaliza o método gráfico ao sugerir que σi2 é alguma
função da variável explicativa Xi. A forma funcional sugerida por Park é
determinada por: s i2 = s 2 X ib e v i
ln s i2 = ln s 2
+ b ln X i + v i
— Como σi2 não é conhecido, Park sugere usar ui2 como uma proxy, e rodar a
seguinte regressão.
uˆ i2 = s 2 X ib e v i
ln uˆ i2 = ln s 2 + b ln X i + v i
ln uˆ i2 = a + b ln X i + v i
— Se β se revelar estatisticamente significativo, isto sugere que a
heteroscedasticidade está presente nos dados, caso contrário aceitamos a hipótese
de homocedasticidade. O teste de Park é um procedimento em dois estágios. No
primeiro estágio, rodamos a regressão por MQO desconsiderando a questão da
heteroscedasticidade, para obter o ui dessa regressão. No segundo estágio, roda-se
a regressão sugerida por Park.
— Crítica: o próprio termo de erro vi pode ser heterocedástico.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais

— Teste de Glejser: na essência é similar ao teste de Park , ou seja, depois de


rodarmos os resíduos da regressão por MQO, é sugerido que calculemos a
regressão dos valores absolutos de ui sobre a variável X que acreditamos estar
intimamente associada com σi2 . Glejser sugere as seguintes formas funcionais:
uˆ i = b 1 + b 2 X i + v i
uˆ i = b 1 + b 2 X i + vi
1
uˆ i = b 1 + b 2 + vi
Xi
1
uˆ i = b 1 + b 2 + vi
X i

uˆ i = b 1 + b 2 X i + vi
uˆ i = b1 + b 2 X i
2
+ vi
— Críticas: o erro pode ser heterocedástico, e as duas formas funcionais não são
lineares nos parâmetros β’s, não sendo possível rodar por MQO.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais
— Coeficiente de Correlação por Ordem de Spearman: O coeficiente é definido
como: é å d i2 ù
rs = 1 - 6 ê ú
êë n ( n - 1 ) úû
2

— Onde: di = diferença nas ordenações atribuídas a duas características diferentes do


i-ésimo indivíduo ou fenômeno, e n = número de indivíduos ou fenômenos
classificados. Esse coeficiente pode ser empregado para detectar a
heterocedasticidade do seguinte modo:
Yi = b 1 + b 2 X i + u i
— 1º) Ajuste a regressão aos dados de Y e X e obtenha os resíduos;
— 2º) Tome o valor absoluto dos resíduos e classifique tanto ui como Xi em ordem
crescente ou decrescente e calcule o coeficiente de correlação de Spearman.
— 3º) Testar a significância do rs amostral recorrendo ao teste t como segue:
rs n - 2
t = com (n - 2) gl
1 - r s2

— Se o t calculado for superior ao t crítico, podemos aceitar a hipótese de


heterocedasticidade, caso contrário, a rejeitamos. Esse procedimento pode ser feito
para modelos de várias variáveis.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais
— Coeficiente de Correlação por Ordem de Spearman:
ORDEM ORDEM
|ûi| σi
FUNDOS E σi Ê |ûi| d d2
1 12,4 12,1 11,37 1,03 9 4 5 25
2 14,4 21,4 15,64 1,24 10 9 1 1
3 14,6 18,7 14,4 0,2 4 7 -3 9
4 16 21,7 15,78 0,22 5 10 -5 25
5 11,3 12,5 11,56 0,26 6 5 1 1
6 10 10,4 10,59 0,59 7 2 5 25
7 16,2 20,8 15,37 0,83 8 8 0 0
8 10,4 10,2 10,5 0,1 3 1 2 4
9 13,1 16 13,16 0,06 2 6 -4 16
10 11,3 12 11,33 0,03 1 3 -2 4
0 100
E i = b 1 + b 2s i Þ Eˆ i = 5 , 8194 + 0 , 4590 s i

é 110 ù
rs = 1 - 6 ê ú = 0 , 3333
ë 10 ( 100 - 1 ) û
(0,3333 ) 8
t= = 0,9998
1 - 0,1110
t < t * = não há heteroceda sticidade
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROSCEDASTICIDADE: Métodos Formais

— Teste de Goldfeld-Quandt: este teste é aplicável se admitirmos que a variância


heterocedastica se relaciona positivamente com uma das variáveis explicativas
no modelo de regressão. Assim, partindo-se do modelo usual de duas variáveis
como segue:
Yi = b 1 + b 2 X i + v i
s i
2
=s 2
X i
2

— Temos que σi2 é tanto maior quanto maior for Xi. Se for este o caso, é provável
que exista heterocedasticidade no modelo. Para testar isso, devemos seguir os
seguintes passos:
— 1º) Ordene as observações de Xi, começando pelo menor valor.
— 2º) Omita as observações centrais “c”, em que c é especificado a princípio, e
divida as (n-c) observações restantes em dois grupos, cada um com (n-c)/2
observações. Considere c = 4 se n = 30, e c = 10 se n = 60.
— 3º) Ajuste as distintas regressões por MQO às primeiras (n-c)/2 observações e às
últimas (n-c)/2 observações, e obtenha as respectivas somas dos quadrados dos
resíduos, SQR1 e SQR2.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais

— Teste de Goldfeld-Quandt:

— Cada uma das SQR tem:

(n - c ) æ n - c - 2k ö
-k ou ç ÷ gl
2 è 2 ø

— Em que k é o número de parâmetros a serem estimados, incluindo o intercepto.


— 4º) Calcule a razão:
SQR 2 / gl
l=
SQR 1 / gl
— Se admitirmos que ui se distribuem normalmente, e se a hipótese de
homocedasticidade for válida, então é possível mostrar que λ segue uma
distribuição F com gl de (n-c-2k)/2 no numerador e no denominador. Assim, se
λ=(F) calculado superar o F crítico, em nível de significância escolhido,
rejeitamos a hipótese de homoscedasticidade, caso contrário, não rejeitamos.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais

— Teste de Breusch-Pagan-Godfrey: o sucesso do teste de Goldfeld_Quandt


depende não apenas do valor de c, mas também da identificação da variável X
correta pela qual ordenar as observações. Podemos eliminar essa limitação
atuando como segue.
Y i = b 1 + b 2 X 2 i + b 3 X 3 i + ... + b k X ki + v i
s i2 = f (a 1 + a 2 Z 2 i + .... + a m Z mi )
s i2 = a 1 + a 2 Z 2 i + .... + a m Z mi , para Z i = X i
se a 2 = a 3 = .... = a m = 0 , então, a 1 = constante

— 1º) Estime a regressão por MQO e obtenha os resíduos;


— 2º) Obtenha σ2 = ∑ui2/n - (MQO = σ2 = ∑ui2/(n – k));
— 3º) Construa variáveis pi definidas por:
uˆ i2
p = ~ 2
s
i

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais

— Teste de Breusch-Pagan-Godfrey: considere o modelo de regressão que segue.

— 4º) Faça a regressão pi construída sobre os Z, como segue:

pi = a 1 + a 2 Z 2 i + .... + a m Z mi + vi
— 5º) Obtenha SQE, e defina:

1
q = ( SQE ), onde, q ~ c m2 -1
2
ì rejeita - se H 0 = homocedast icidade
q >q *í
înão rejeita - se H1 = heteroceda sticidade
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais

— Teste Geral de Heterocedasticidade de White: para ilustrar a idéia básica,


considere o seguinte modelo de regressão de três variáveis.
Yi = b1 + b 2 X 2i + b3 X 3i + ui
— O teste de White é feito da seguinte forma:
— 1º) A partir dos dados amostrais, estima-se o modelo de regressão e obtemos os
resíduos.
— 2º) Rodamos uma regressão auxiliar, onde os resíduos ao quadrado da regressão
original são regredidos sobre as variáveis X’s, seus valores elevados ao
quadrado, e os produtos cruzados do regressores, como segue:

uˆi2 = a1 +a2 X2i +a3 X3i +a4 X22i +a5 X32i +a6 X2i X3i + vi
— Obtêm-se o R2 dessa regressão auxiliar.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais

— Teste Geral de Heterocedasticidade de White:

— 3º) Sob a hipótese nula de que não há heterocedasticidade, pode-se mostrar que
o tamanho da amostra (n) multiplicado por R2 obtido da regressão auxiliar
assintoticamente segue a distribuição por qui-quadrado com os graus de
liberdade iguais ao número de regressores (excluindo o termo constante) na
regressão auxiliar. Ou seja:
n.R 2 ~ c gl2
— No exemplo, gl = 5.

— 4º) Se o valor de qui-quadrado obtido na fórmula exceder o valor de qui-


quadrado crítico em nível escolhido de significância, a conclusão é de que há
heteroscedasticidade. Se não exceder, não há heteroscedasticidade, o que
significa que, na regressão auxiliar α2 = α3 = α4 = α5 = α6 = 0
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— DETECÇÃO DE HETEROCEDASTICIDADE: Métodos Formais

— Teste Koenker-Bassett (KB): para ilustrar a idéia básica, considere o seguinte


modelo de regressão múltipla.
Yi = b1 + b 2 X 2i + b3 X 3i + ... + b k X ki + ui
— O teste KB é feito da seguinte forma:
— 1º) A partir dos dados amostrais, estima-se o modelo de regressão e obtemos os
resíduos.
— 2º) Rodamos uma regressão auxiliar, onde os resíduos ao quadrado da regressão
original são regredidos sobre o quadrado dos valores estimados para Y, como
segue:

uˆi2 = a 1 + a 2 (Yˆi ) 2 + vi
— A hipótese nula é que H0: α2 = 0, contra a hipótese alternativa H1: α2 ≠ 0.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— MEDIDAS CORRETIVAS:
— Há duas abordagens para remediar o problema: quando σi2 for conhecido, e
quando σi2 não for conhecido.

— Quando σi2 for conhecido: aplica-se o método dos Mínimos Quadrados


Ponderados (Generalizados).

Yi 1 Xi ui
= b1 + b2 +
si si si si

Yi* = b 1* X *0i + b *2 X *i + u*i


RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— HIPÓTESES PLAUSÍVEIS A RESPEITO DO PADRÃO DE
HETEROCEDASTICIDADE: Quando σi2 não for conhecido

— Hipótese 1: a variância do erro é proporcional a Xi2.


s i2 E(u 2 ) = s 2 X i2
Divide- se o modelopor Xi
Yi 1 X u
= b1 + b2 i + i
Xi Xi X i Xi
1
Yi = b 1 + b 2 + vi
0 Xi
X
2
æu ö 1 1
E (v 2i ) = E çç i ÷÷ = 2 E(ui2 ) = 2 (s 2 X i2 ) = s 2
è iø
X X i X i

— Observa-se que na regressão transformada, o termo de intercepto β2 é o


coeficiente angular da equação original e o coeficiente angular β1 é o termo de
intercepto do modelo original. Assim, para voltar ao modelo original, temos de
multiplicar a equação transformada por Xi para voltar a equação original.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— HIPÓTESES PLAUSÍVEIS A RESPEITO DO PADRÃO DE
HETEROCEDASTICIDADE: Quando σi2 não for conhecido

— Hipótese 2: a variância do erro é proporcional a Xi.


— E (u 2 ) = s 2 X i
si2
Divide - se o modelo por X i
Yi 1 X u
= b1 + b2 i + i
Xi Xi Xi Xi
Yi 1
= b1 + b 2 X i + vi
0 Xi Xi
X
2
æ u ö 1 1
E (v i ) = E ç i ÷ = E (ui2 ) = (s 2 X i ) = s 2
(X)
2
ç X ÷ 2
Xi
è i ø i

— Como no modelo transformado não há termo de intercepto, teremos de usar o


modelo de regressão que passa pela origem para estimar β1 e β2. Podemos retornar
ao modelo original multiplicando o modelo transformado pela raiz de Xi.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— HIPÓTESES PLAUSÍVEIS A RESPEITO DO PADRÃO DE
HETEROCEDASTICIDADE: Quando σi2 não for conhecido

— Hipótese 3: a variância do erro é proporcional ao quadrado do valor médio de


Y.
E (u 2 ) = s 2 [E (Yi ) ]
2

Divide - se o modelo por E(Yi )
Yi 1 Xi ui
= b1 + b2 +
E(Yi ) E(Yi ) E(Yi ) E(Yi )
Yi 1 Xi
= b1 + b2 + vi
E(Yi ) E(Yi ) E(Yi )
1 Xi
Yi* = b 1* + b *2 + v*
E(Yi ) E(Yi ) i
2
æ u ö
s 2 [E (Yi )]2 = s 2
1 1
E (v i ) = E çç i ÷÷ =
2
E (ui2 ) =
è E (Yi ø
) [E (Yi ) ]2
[ E (Y i ) ]2

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


HETEROCEDASTICIDADE
— HIPÓTESES PLAUSÍVEIS A RESPEITO DO PADRÃO DE
HETEROCEDASTICIDADE: Quando σi2 não for conhecido

— Hipótese 4: efetua-se uma transformação em log, dado que a transformação


comprime as escalas nas quais as variáveis são medidas, reduzindo assim uma
diferença de dez vezes entre dois valore para uma diferença de duas vezes. Além
disso, tem-se que os coeficientes obtidos medem as elasticidades de Y em
relação a X, ou seja, uma variação percentual em Y para uma variação
percentual em X.

ln Y i = b 1 + b 2 ln X i + u i
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
HETEROCEDASTICIDADE
— PRINCIPAIS CONCLUSÕES:

— Todas as transformações examinadas são ad hoc, ou seja, qual das


transformações discutidas irá funcionar dependerá da natureza do problema e da
gravidade da heterocedasticidade.
— As transformações que examinamos ainda apresentam alguns problemas:

— Quando avançamos para além do modelo de duas variáveis, podemos não


saber a princípio qual das variáveis X deve ser escolhida para transformar os
dados.
— A transformação em log discutida na hipótese 4 não é aplicável se alguns dos
valores Y e X forem zero ou negativos.
— Quando σi2 não forem diretamente conhecidos e forem estimados a partir de
uma ou mais transformações discutidas, todos os procedimentos de testes t e
F são válidos somente em grandes amostras. Por isso, é preciso ter cuidado
ao interpretar os resultados baseados nas diferentes transformações em
amostras pequenas ou finitas.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— NATUREZA DO PROBLEMA:

— O modelo clássico de regressão linear supõe que não existe autocorrelação nas
perturbações ui. Simbolicamente, temos que:

E (u i u j ) = 0 i ¹ j

— O termo autocorrelação pode ser definido como “correlação entre membros de


séries de observações ordenadas no tempo (série de tempo) ou no espaço (dados
de corte). Assim, temos:

E (u i u j ) ¹ 0 i ¹ j

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— PADRÕES DE AUTOCORRELAÇÃO:

u, uˆ u, uˆ u, uˆ

0 t 0 t 0 t

u, uˆ u, uˆ

0 t 0 t
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— PRINCIPAIS DETERMINANTES:

— Alguns fatores ajudas a explicar a existência de autocorrelação:

— Inércia;

— Viés de Especificação – Variáveis Excluídas;

— Viés de Especificação – Forma Funcional Incorreta;

— Fenômeno da Teia de Aranha;

— Defasagens;

— Manipulação de dados;

— Transformação dos dados;

— Ausência de estacionariedade.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— ESTIMAÇÃO POR MQO NA PRESENÇA DE AUTOCORRELAÇÃO:
— Considere o modelo de regressão básica:
Yt = b 1 + b 2 X t + u t
E (u t , u t + s ) ¹ 0 ( s ¹ 0 )
— Admitimos que as perturbações sejam geradas por um processo auto-
regressivo como segue:
u t = r u t -1 + e t -1 < r < 1
— Onde ρ representa o “coeficiente de correlação” e ε representa a
perturbação estocástica que satisfaz as seguintes propriedades usuais dos
MQO, a saber:
E (e t ) = 0
Var ( e t ) = s 2

Cov ( e t , e t+ s ) = 0 s ¹ 0
— Este processo é identificado como auto-regressivo de primeira ordem de
Markov AR(1).
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— ESTIMAÇÃO POR MQO NA PRESENÇA DE AUTOCORRELAÇÃO:

— O estimador de MQO de β2 é determinado por:

bˆ 2 = åxy t t

åx t
2

— A variância do estimador, na presença de autocorrelação é


determinada por:
é n -1 n- 2
ù
s ê2 åxx t t +1 åxx t t+2
xt xt +1 ú
Var ( bˆ 2 ) AR (1) = ê1 + r t =1
+ r2 t =1
+ ... + r n -1 ú
å xt2 ê åx
n
2
åx
n
2
å
n
xt2 ú
êë t =1
t
t =1
t
t =1
úû

— Na ausência de autocorrelação tem-se que:


s2
Var ( bˆ 2 ) =
å xt2

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— O ESTIMADOR MELNV NA PRESENÇA DE AUTOCORRELAÇÃO:

— Na presença de autocorrelação o estimador de MQO de β2 é não-viesado,


porém não é eficiente. Assim, admitindo um processo AR(1) o estimador
MELNV para β2 é dado por:
n

å (x t - r x t -1 )( y t - r y t -1 )
bˆ 2 MQG = t =2
n
+C
å (x
t =2
t - r x t -1 ) 2

— A variância do estimador, na presença de autocorrelação é determinada


por: ˆ s2
Var ( b 2 ) MQG = n
+D
å(x
t =2
t - rxt -1 ) 2

— Onde C e D representam fatores de correção. Após executar as devidas


manipulações nos dados utiliza-se o método dos Mínimos Quadrados
Generalizados
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— ESTIMATIVA POR MQO DESCONSIDERANDO AUTOCORRELAÇÃO:
— Algumas inconsistências podem ser geradas, destacando-se:
— A variância dos resíduos irão subestimar a verdadeira variância dos
resíduos.
— Por conseguinte, ocorre uma superestimação de R2.
— Os testes de significância usuais “t” e “F” não são confiáveis e, caso
sejam utilizadas, induzirão a conclusões errôneas a respeito da
significância dos coeficientes.
Rejeita H0: βk = c Rejeita H0: βk = c
Aceita H1: βk ≠ c Aceita H1: βk ≠ c

a MQO
a MQO

2 2

a MQG
Não Rejeita a MQG

2 H0: β2 = c 2

Região de - t
a
Região de + ta Região de
Rejeição ;( n - k ) Aceitação ;( n - k )
2 2 Rejeição

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO

— DETECÇÃO: Método Gráfico

— Existem várias maneiras de examinar os resíduos, dentre as


quais podemos destacar:
— 1) Plotar os resíduos ut em função do tempo;

— 2) Plotar os resíduos padronizados (ut /σ) em função do tempo;

— 3) Plotar os resíduos contemporâneos (ut) contra seus valores


defasados em um período (ut-1).
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— DETECÇÃO: Teste das Carreiras - Procedimentos:
— 1) Anotar os sinais (+ ou - ) dos resíduos (-------)(+++++)(----------)......;
— 2) Definimos uma carreira como uma seqüência ininterrupta de um símbolo ou
atributo, como + ou - . Definimos a extensão da carreira como o número de
elementos que a formam. Ex.: acima temos três carreiras contendo,
respectivamente, (7-), (5+) e (10-);
— 3) Considere: N = número total de observações (N1 + N2); N1 = número de sinais
+; N2 = número de sinais -; e, R = número de carreiras. E que:
2 N1 N 2
Média Þ E ( R) = +1
N
2 N 1 N 2 (2 N 1 N 2 - N )
Variância Þ s R2 =
( N ) 2 ( N - 1)

— 4) Considerando as seguintes hipóteses - H0: aleatoriedade e H1: não


aleatoriedade. E considere o seguinte intervalo de confiança:
Prob[ E ( R ) - 1,96 .s R £ R £ E ( R ) + 1,96 .s R ] = 0 ,95
— Regra de Decisão: não rejeita-se a hipótese nula de aleatoriedade com 95% de
confiança se R, o número de carreiras, ficar no intervalo de confiança citado;
rejeita-se a hipótese nula caso R estimado ficar fora desses limites. Como regra
geral, se há correlação positiva, o número de carreiras será pequeno; se o número
de carreiras for grande a autocorrelação será negativa.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— DETECÇÃO: Teste de Auto-Correlação Residual de Durbin-Watson.

— Trata-se de um dos mais populares testes para detectar a correlação serial. É


popularmente conhecido como “estatística d de Durbin-Watson”. Algumas hipóteses
fundamentam a estatística d:
— O modelo de regressão inclui um termo de intercepto. Se tal termo não estiver
presente, como no caso da regressão que passa pela origem, é importante rodar
novamente a regressão incluindo o termo de intercepto para obter a SQR.
— As variáveis explicativas, os X’s, são não-estocásticos, ou fixados em amostras
repetidas.
— As perturbações ut são geradas pelo esquema auto-regressivo de primeira ordem
AR(1): ut = ρut-1+εt.
— O modelo de regressão não inclui valores defasados da variável dependente como
uma das variáveis explicativas. Assim, o teste não é aplicável em modelos do tipo
auto-regressivo:

Yt = b1 + b 2 X 2 t + b 3 X 3t + ... + b k X kt + gYt -1 + ut
— Não deve faltar observações nos dados.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— DETECÇÃO: Teste de Auto-Correlação Residual de Durbin-Watson.

— A estatística d de Durbin-Watson é definida por:


n

å (uˆ - uˆt t -1 )2
d= t =2
n

å uˆ
t =2
2
t

n n n

å uˆ + å uˆ
2
t
2
t -1 - 2å uˆt uˆt -1
d= t =2 t =2
n
t =2

å uˆ
t =2
2
t

n n
Como å uˆ e 2
t å uˆ 2
t -1 diferem em apenas uma observação, elas são aproximadamente iguais.
t =2 t =2

æ n
ö
ç å uˆt uˆt -1 ÷
d @ 2ç1 - t = 2 n ÷ Þ d @ 2(1 - rˆ *)
ç ÷
ç
è
åt =2
uˆt ÷
2

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— DETECÇÃO: Teste de Auto-Correlação Residual de Durbin-Watson.

— Constata-se que, se:

æ n
ö
ç å uˆt uˆt -1 ÷
d @ 2ç1 - t =2 n ÷ Þ d @ 2(1 - rˆ *)
ç ÷
ç å uˆt ÷
2

è t =2 ø

— Como -1 ≤ ρ ≤ 1, isso implica que os limites para d é dado por: 0 ≤ d ≤ 4.


— Se ρ = 0, d = 2, ou seja, se não houver correlação serial (de primeira ordem), é
esperado que d esteja próximo de 2. Assim, temos que:

— Se d = 2, ρ = 0, não existe auto-correlação de primeira ordem nos resíduos,


seja positiva ou negativa;
— Se d = 0, ρ = 1, existe uma auto-correlação positiva perfeita nos resíduos;
— Se d = 4, ρ = -1, existe uma auto-correlação negativa perfeita nos resíduos.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— DETECÇÃO: Teste de Auto-Correlação Residual de Durbin-Watson.
— Considerando H0 ausência de autocorrealção positiva e H*0 ausência de
autocorrelação negativa, podemos determinar as seguintes situações:

Rejeitar H0
Não Rejeitar H0 Rejeitar H*0
Autocorrela Zona de Zona de
Ausência de Autocorrelação
ção Indecisão. Indecisão.
Autocorrelação Negativa.
Positiva.

0 dL dU 2 4 - dU 4 - dL 4
HIPÓTESE NULA DECISÃO CONDIÇÃO
Ausência de Autocorrelação positiva Rejeitar 0 < d < dL
Ausência de Autocorrelação positiva Nenhuma decisão dL ≤ d ≤ dU
Ausência de Correlação negativa Rejeitar 4 – dL < d < 4
Ausência de Correlação negativa Nenhuma decisão 4 – dU ≤ d ≤ 4 - dL
Ausência de Autocorrelação Positiva ou Negativa Não Rejeita dU < d < 4 - dU

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO

— Etapas para o teste de Durbin-Watson:

Ø Efetua-se a regressão por meio de MQO, e obtenha os


resíduos;
Ø Calcula-se “d”;
Ø Para um dado tamanho amostral e número de variáveis
explicativas, determine o valor de dL e dU;
Ø Siga a regra de decisão apresentada na tabela.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— DETECÇÃO: Teste Geral de Auto-Correlação de Breusch-Godfrey (BG).

— Para realizar o teste BG segue-se os seguintes passos:


— 1) Estima-se a regressão por MQO e obtenha os resíduos ut.
Yt = b1 + b 2 X 2 t + ut
ut = r1ut -1 + r 2ut - 2 + ... + r p ut - p + e t
— 2) Faça a regressão de ut contra os Xt’s incluídos no modelo e contra os valores defasados
dos resíduos ut-1, ut-2,..., ut-p, e obtenha R2.
uˆt = a1 + a 2 X t + rˆ1uˆt -1 + rˆ 2uˆt - 2 + .... + rˆ p uˆt - p + e t
— 3) Se o tamanho da amostra for grande, Breusch e Godfrey demonstram que:
(n - p ) R 2 ~ c 2
p

(n - p )R 2
> c 2
p Þ Rejeita - se H 0 : r 1 = r 12 = ... = 0

— OBS.: O teste BG permite a existência de regressores estocásticos, e valores


defasados do regressando; esquemas auto-regressivos de ordem mais elevada
AR(1), AR(2),...; Médias móveis (MA) simples ou de ordem mais elevada de
termos de ruído brando como εt.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— MEDIDAS CORRETIVAS: Quando a estrutura de autocorrelação é
conhecida.
— Considere que ut segue um processo auto-regressivo de primeira ordem:
u t = r u t -1 + e t r < 1
— Se o coeficiente de correlação ρ for conhecido, temos:
Yt = b 1 + b 2 X t + u t
Yt - 1 = b 1 + b 2 X t - 1 + u t - 1
Multiplica ndo ambos os lados por ρ :
r Y t - 1 = rb 1 + rb 2 X t -1 + r u t - 1
Subtraindo Y t de Y t -1
(Y t - r Y t - 1 ) = ( b 1 - rb 1 ) + ( b 2 X t - rb 2 X t - 1 ) + ( u t - r u t - 1 )
(Y t - r Y t - 1 ) = (1 - r ) b 1 + b 2 ( X t - r X t - 1 ) + e t
Yt * = b 1 * + b 2 X t * + e t
— Essa equação é conhecida como equação de diferença generalizada. Como ε
satisfaz as hipóteses de MQO, podemos passar a estimar os parâmetros por
(MQG). Para evitar a perda de uma informação ao fazer a diferença fazemos,
utiliza-se a transformação de Prais-Winsten:
y1 = Y1 1 - r 2 e x1 = X 1 1 - r 2
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— MEDIDAS CORRETIVAS: Quando a ρ não é conhecida.

— Se o coeficiente de correlação ρ não for conhecido e for ρ = +1, temos:

( Y t - r Y t -1 ) = ( b 1 - rb 1 ) + ( b 2 X t - rb 2 X t - 1 ) + ( u t - r u t - 1 )
( Y t - r Y t - 1 ) = (1 - r ) b 1 + b 2 ( X t - r X t - 1 ) + e t
r = +1
( Y t - Y t -1 ) = ( b 1 - b 1 ) + ( b 2 X t - b 2 X t -1 ) + ( u t - u t - 1 )
( Y t - Y t - 1 ) = b 2 ( X t - X t -1 ) + e t
D Yt = b 2 D X t + e t
D é o operador de primeira diferença
— Essa equação é conhecida como equação de diferença generalizada. Como ε
satisfaz as hipóteses de MQO, podemos passar a estimar os parâmetros por
(MQG). A transformação de primeira diferença pode ser adequada se o
coeficiente de autocorrelação for muito alto (superior a 0,8) ou “d” de Durbin-
Watson for muito baixo. Maddala propôs que se use essa regra quando d < R2.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— MEDIDAS CORRETIVAS: Quando a ρ não é conhecida.

— Se o coeficiente de correlação ρ não for conhecido e for ρ = -1, temos:

(Yt - rYt -1 ) = (b1 - rb1 ) + (b 2 X t - rb2 X t -1 ) + (ut - rut )


(Yt - rYt -1 ) = (1 - r )b1 + b 2 ( X t - rX t -1 ) + e t
r = -1
(Yt + Yt -1 ) = (b1 + b1 ) + ( b 2 X t + b 2 X t -1 ) + (ut + ut )
(Yt + Yt -1 ) = 2b1 + b 2 ( X t + X t -1 ) + e t
(Yt + Yt -1 ) ( X + X t -1 ) e t
= b1 + b 2 t +
2 2 2

— Essa equação é conhecida como equação de regressão de médias móveis, pois


estamos regredindo o valor de uma média móvel sobre outro.
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— REGRAS DE ESTIMAÇÃO DE ρ: ρ baseado na estatística d de Durbin-
Watson:

— A relação estabelecida entre “d” e “ρ” é dada como segue:

d @ 2(1 - rˆ )
d
rˆ @ 1 -
2
— Este método revela uma maneira simples para estimar ρ por meio da estatística d
estimada. A hipótese da primeira diferença ρ = +1 é valida somente se d = 0 ou
aproximadamente igual a zero. Fica claro que, quando d = 2, ρ = 0, e quando d =
4, ρ = -1.
— Depois de estimar ρ, podemos transformar os dados e estimar os parâmetros
utilizando o método MQO.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO
— REGRAS DE ESTIMAÇÃO DE ρ: o processo interativo de Cochrane-
Orcutt para estimar ρ
— O método de Cochrane-Orcutt para estimar “ρ” se utiliza dos resíduos ui. Sendo
assim, considere:
Yt = b1 + b 2 X t + ut
ut = rut -1 + e t
— Assim, é recomendado os seguintes passos para estimar ρ:
— Estimar o modelo de duas variáveis pela rotina usual dos MQO e obter os resíduos ui.
— Usando os resíduos estimados, roda-se a equação para os resíduos com base em um
modelo AR(1).
— Usando o ρ estimado, roda-se a equação de diferença generalizada:

(Yt - rˆYt -1) = (1- rˆ)b1 + b2 (Xt - rˆXt-1) + et


Yt * = b1 * +b2 Xt *+et

— Substitui-se os valores estimados de β1* e β2* e obtenha os novos resíduos ui**, e


estime a seguinte regressão:
ut * * = rˆˆu **t -1 + wt
RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:
AUTOCORRELAÇÃO
— REGRAS DE ESTIMAÇÃO DE ρ: método de Durbin em duas etapas para
estimar ρ.

— Considere a equação de diferença generalizada como segue:

(Yt - rˆYt -1 ) = (1 - rˆ )b1 + b 2 ( X t - rˆX t -1 ) + e t


Yt = (1 - rˆ )b1 + b 2 ( X t - rˆX t -1 ) + rˆYt -1 + e t
Yt = (1 - rˆ )b1 + b 2 X t - rˆb 2 X t -1 + rˆYt -1 + e t

— Trate a equação anterior como um modelo de regressão múltipla, regredindo Yt


sobre Xt, Xt-1 e Yt-1, e trate o valor estimado do coeficiente de regressão de Yt-1
(ρ) como uma estimativa de ρ.
— Utilize o ρ estimado para transformar as variáveis e rode a regressão de MQO
sobre as variáveis transformadas.

RELAXAMENTO DAS HIPÓTESES DO MODELO CLÁSSICO:


AUTOCORRELAÇÃO

— CONCLUSÕES:

— Os diversos métodos que examinamos são basicamente métodos em duas


etapas:

— Primeiro estima-se ρ desconhecido e depois usamos essa estimativa


para transformar as variáveis e estimar a equação de diferença
generalizada, que é basicamente MQG (Mínimos Quadrados
Generalizados).

— Como usamos ρ estimado em vez do verdadeiro ρ, todos esses


métodos são conhecidos na literatura como Métodos de Mínimos
Quadrados Generalizados Estimados (MAGE).

Você também pode gostar