Você está na página 1de 29

ECONOMETRIA II

2. ERROS DE
ESPECIFICAÇÃO
(continuação)

Docente: Mónica Azevedo


2. Erros de especificação
2.1 Mudança estrutural
2.2 Inclusão de variáveis irrelevantes
2.3 Omissão de variáveis relevantes
2.4 Valor esperado não nulo dos termos de perturbação
2.5 Multicolinearidade

NOTA:
os slides disponibilizados não dispensam a leitura e o estudo dos conteúdos
apresentados no livro.
2. Erros de especificação
2.1 Mudança estrutural
2.2 Inclusão de variáveis irrelevantes
2.3 Omissão de variáveis relevantes
2.4 Valor esperado não nulo dos termos de perturbação
2.5 Multicolinearidade

NOTA:
os slides disponibilizados não dispensam a leitura e o estudo dos conteúdos
apresentados no livro.
2.5. Multicolinearidade
 Livro: página 247

[H5]:
• Na amostra, de dimensão n > k, são linearmente independentes
as variáveis explicativas 𝑋2𝑖 , … , 𝑋𝑘𝑖 e o termo independente
(se incluído)

• Car(X)= k < n
2.5. Multicolinearidade
Considere-se:

1 𝑋21 𝑋𝑘1 0
λ1 1 + λ 𝑋22 + ⋯ + λ 𝑋𝑘2 = 0 (1)
⋮ 2 ⋮ 𝑘 ⋮ ⋮
1 𝑋2𝑛 𝑋𝑘𝑛 0

em que:
• λ1 , …, λ𝑘 são escalares reais;
• k < n.
2.5. Multicolinearidade
Os vetores do primeiro membro são as colunas de X.

(1) verifica-se para λ1 =…= λ𝑘 = 0 e, caso esta solução seja única, os


vetores 𝑿1 , … , 𝑿𝑘 serão linearmente independentes.

Se não for essa a única solução, então os vetores 𝑿1 , … , 𝑿𝑘 serão


linearmente dependentes.
2.5. Multicolinearidade
Vejamos alguns exemplos do caso de dependência linear;

i. Se λ1 = 7, λ2 = 1, λ3 = ⋯ = λ𝑘 = 0, de (1) teremos 𝑋2𝑖 = −7, ∀𝑖;

ii. Se λ1 = 5, λ2 = 2, λ3 = −1, λ4 = ⋯ = λ𝑘 = 0, de (1) teremos


𝑋3𝑖 = 2𝑋2𝑖 + 5, ∀𝑖;

iii. Se λ1 = 2, λ2 = 3 , λ3 = −1, λ4 = 1, λ5 = ⋯ = λ𝑘 = 0 , de (1)


teremos 𝑋3𝑖 = 3𝑋2𝑖 + 𝑋4𝑖 + 2, ∀𝑖.

⇒ Estes casos expressam três situações diferentes:


2.5. Multicolinearidade
i. A “variável” X2 é uma constante;

ii. X2 e X3 são colineares;

iii. X2 , X3 e X4 são colineares.


 a colinearidade entre mais do que duas variáveis é designada por
multicolinearidade.
2.5. Multicolinearidade
NOTA:
É possível provar que car(X) = car (X’X). Portanto, se [H5] se verifica,
então, car (X’X) = k; X’X é uma matriz de dimensão k x k pelo que esta
apenas admitirá inversa se a sua característica for k…

Havendo violação de [H5], car (X) < k (o que acontece sempre que exista
uma relação de dependência linear do género das que se falou
anteriormente).
Neste caso, X’X será uma matriz singular. Então, não existirá X’X-1, pelo
que não será possível estimar os coeficientes de regressão pelo método
de OLS. (Recorde-se que 𝜷𝑂𝐿𝑆 = X’X −1 X’Y.)
2.5. Multicolinearidade
Considere-se o modelo

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝑢𝑖 (2)

são casos extremos:


i. coeficiente de correlação linear entre 𝑋2 e 𝑋3 (𝑟𝑋2 , 𝑋3 ) igual a um;
ii. coeficiente de correlação linear entre 𝑋2 e 𝑋3 (𝑟𝑋2 , 𝑋3 ) igual a zero.
2.5. Multicolinearidade
Quando, na amostra, existe uma correlação linear perfeita entre 𝑋2 e 𝑋3
(𝑟𝑋2 , 𝑋3 = 1) há violação de [H5].
No caso em análise, car(X)=2 < k=3 pelo que X’X seria uma matriz
singular …  não é possível estimar o modelo por OLS.

Quando 𝑟𝑋2 , 𝑋3 = 0, 𝑥2𝑖 , 𝑥3𝑖 = 0 e as variáveis 𝑋2 e 𝑋3 não estão


correlacionadas. Neste caso, car(X)=3=k, verifica-se [H5].  a estimação
por OLS não levanta qualquer problema. Neste caso, considerando os
modelos
𝑌𝑖 = 𝛼1 + 𝛼2 𝑋2𝑖 + 𝑣𝑖 (3)
𝑌𝑖 = 𝛿1 + 𝛿2 𝑋3𝑖 + 𝑤𝑖 (4)
2.5. Multicolinearidade
e estimando (2), (3) e (4) por OLS prova-se que:

2 2 2
𝛽2 = 𝛼2 ; 𝛽3 = 𝛿2 e 𝑅[2] = 𝑅[3] + 𝑅[4]

…  É possível “separar” o efeito de cada uma das variáveis MAS


estimar (2) ou (3) e (4) não são alternativas equivalentes (ver, por
exemplo, o termo independente)! (nota de rodapé nº 24)
2.5. Multicolinearidade
Na prática, o que acontece habitualmente é uma situação intermédia
entre os dois casos apresentados… isto é, 0 < 𝑟𝑋2 , 𝑋3 < 1…

Uma correlação linear muito forte entre as variáveis explicativas pode


implicar uma situação problemática em Econometria  colinearidade
imperfeita ou quasi-colinearidade, que difere das situações
apresentadas inicialmente que representam a existência de
colinearidade perfeita.

NOTA DE RODAPÉ Nº 25!!!


2.5. Multicolinearidade

NOTA:

A partir deste momento, as referências a multicolinearidade devem ser


entendidas no sentido de quasi-colinearidade (isto é, correlação linear
muito forte entre duas ou mais variáveis explicativas).
2.5. Multicolinearidade
Quando a relação entre duas (ou mais) variáveis explicativas não é
exatamente linear mas quase, car(X)=k  não há violação de [H5]  o
modelo pode ser estimado por OLS e os estimadores terão as
propriedades desejáveis

MAS, os resultados obtidos podem conter GRAVES PROBLEMAS


relacionados com:
• instabilidade;
• falta de robustez.
2.5. Multicolinearidade
É frequente, em situações de quasi-colinearidade, surgirem situações de
(p. 249):
• grande imprecisão das estimativas obtidas para os coeficientes do
modelo…;
• problemas na implementação de testes estatísticos;
• obtenção de IC para os coeficientes de regressão.
2.5. Multicolinearidade
Uma elevada multicolinearidade entre variáveis explicativas pode, ainda,
dificultar a separação dos efeitos individuais de cada uma delas o que
poderá impossibilitar uma correta leitura das estimativas obtidas para os
coeficientes de regressão. (Nota: recorde-se que fazemos a
leitura/interpretação com base na cláusula ceteris paribus que, assim,
será eventualmente insustentável.)
2.5. Multicolinearidade
Sendo que a variância de qualquer estimador de um coeficiente de
regressão pode escrever-se como

𝜎2
𝑣𝑎𝑟 𝛽𝑗 =
(1−𝑅𝑗2 ) 2
𝑥𝑗𝑖
(em que 𝑅𝑗2 é o coeficiente de determinação de uma regressão de 𝑋𝑗 em
todas as outras variáveis explicativas e num termo independentes),

facilmente se percebem algumas das consequências referidas.


1. (2.5.) Multicolinearidade
DETEÇÃO

• A deteção de multicolinearidade na prática econométrica não é


fácil… (note-se que a multicolinearidade é, fundamentalmente, um
problema amostral); …

• É essencialmente baseada em indícios:


• sinais das estimativas dos coeficientes diferentes dos esperados;
• regressão globalmente significativa mas poucas, ou nenhumas,
variáveis individualmente significativas;
• alteração da significância individual das variáveis explicativas
com a introdução de uma nova variável;
2.5. Multicolinearidade
DETEÇÃO

• É essencialmente baseada em indícios – cont.:


• grande sensibilidade das estimativas obtidas a pequenas
modificações na amostra;
• elevados coeficientes de correlação amostrais entre variáveis
explicativas;
• elevados valores dos coeficientes 𝑅𝑗2 ;
• determinante da matriz X’X próximo de zero.

 Ver exemplo nas páginas 253 e 254.


2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

• Tal como não é facilmente detetável, a multicolinearidade também


não é de fácil “resolução”;

• Não há propriamente soluções mas antes algumas medidas, alguns


procedimentos, que possibilitam, pelo menos, atenuar o problema:
2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

i. Como a multicolinearidade é, essencialmente, um problema


amostral, uma medida a adotar, caso seja possível, passa pela
utilização de mais informação amostral:
 obtenção de mais observações (o que nem sempre é fácil);
ou
 combinação de informação temporal e seccional,
utilizando-se dados em painel;

Alguns autores defendem que esta é a única solução admissível


argumentando que se se trata de um problema amostral, terá
que ser ao nível da amostra que se resolve.
2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

Contudo, encontram-se na literatura outros procedimentos para lidar


com o problema da multicolinearidade, por exemplo (ii. e iii.):

ii. Eliminação de uma das variáveis colineares (que poderá levar a


um erro de especificação do modelo por omissão de uma
variável explicativa relevante, com as consequências que isso
acarreta) ou substituição de uma das variáveis pela
combinação linear em causa:
2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

Seja o modelo
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝛽4 𝑋4𝑡 + 𝑢𝑡 .

Verificando-se na amostra utilizada para o estimar que


𝑋3𝑡 ≈ 3𝑋2𝑡 , ∀𝑡.

Então,
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 3𝑋2𝑡 + 𝛽4 𝑋4𝑡 + 𝑢𝑡
⇔ 𝑌𝑡 = 𝛽1 + (𝛽2 + 3𝛽3 )𝑋2𝑡 + 𝛽4 𝑋4𝑡 + 𝑢𝑡 .

Qual é o problema/o “mas” neste caso?


2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

Apesar de se ultrapassar o problema de quasi-colinearidade entre duas


variáveis explicativas, não se conseguem distinguir os efeitos individuais
de 𝑋2 e 𝑋3 em 𝑌, obtendo-se somente uma estimativa do efeito
conjunto das duas variáveis – falhando-se o objetivo expresso no modelo
original.
2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

iii. Quando a amostra é de natureza temporal, substituição das


variáveis do modelo pelas suas primeiras diferenças:

Seja o modelo 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝛽4 𝑋4𝑡 + 𝑢𝑡 ,

E o modelo precedente:
𝑌𝑡−1 = 𝛽1 + 𝛽2 𝑋2,𝑡−1 + 𝛽3 𝑋3,𝑡−1 + 𝛽4 𝑋4,𝑡−1 + 𝑢𝑡−1 .
2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

Subtraindo:

𝑌𝑡 − 𝑌𝑡−1 = (𝛽1 +𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝛽4 𝑋4𝑡 + 𝑢𝑡 ) − (𝛽1 + 𝛽2 𝑋2,𝑡−1 + 𝛽3 𝑋3,𝑡−1 + 𝛽4 𝑋4,𝑡−1 + 𝑢𝑡−1 )

⇔ ∆𝑌𝑡 = 𝛽2 ∆𝑋2𝑡 + 𝛽3 ∆𝑋3𝑡 + 𝛽4 ∆𝑋4𝑡 + ∆𝑢𝑡

onde ∆𝑋𝑗𝑡 = 𝑋𝑗𝑡 − 𝑋𝑗,𝑡−1 , j=2,3,4 e ∆𝑢𝑡 =𝑢𝑡 − 𝑢𝑡−1


2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

O facto de, por exemplo, 𝑋2𝑡 e 𝑋3𝑡 estarem fortemente correlacionados


não implica que ∆𝑋2𝑡 e ∆𝑋3𝑡 também o estejam. Assim, o problema de
colinearidade poderá ter sido ultrapassado na última equação - que
permite estimar os coeficientes do modelo inicial.

No entanto…
2.5. Multicolinearidade
ELIMINAÇÃO OU ATENUAÇÃO

No entanto… se no modelo inicial o termo de perturbação obedecesse


às hipóteses clássicas, no último modelo o novo termo de perturbação,
embora homoscedástico, seria autocorrelacionado.

Isto é, esta estratégia permitiria ultrapassar o problema de


multicolinearidade mas introduziria um novo problema, a violação da
hipótese clássica de ausência de autocorrelação dos termos de
perturbação…

Você também pode gostar