Explorar E-books
Categorias
Explorar Audiolivros
Categorias
Explorar Revistas
Categorias
Explorar Documentos
Categorias
Exemplos de multicolinearidade:
Queremos saber o efeito marginal de uma determinada variável sobre Y ceteris paribus, se há
multicolinearidade, quando uma variável aleatória varia, outra(s) também varia(m), tornando
impossível separar o efeito da variável estudada sobre Y.
Devido a isso os intervalos de confiança tendem a ser muitos mais amplos, facilitando a
aceitação da hipótese nula. Da mesma forma, a razão t do coeficiente tende a ser mais
insignificante.
> Pode causar um R² artificialmente alto, uma vez que um aumento no número de variáveis
sempre aumenta o R² ou pelo menos não o altera.
> Os estimadores de MQO podem ser sensíveis a pequenas alterações nos dados.
Nesse caso, caso haja uma correlação nula entre x2 e x3, a variância vai ser igual ao erro
padrão sobre o somatório da variável ao quadrado. Porém se houver correlação perfeita, a
base tenderá a 0, levando a variância para o infinito.
A velocidade com que a variância e a covariância aumenta pode ser vista a partir do fator de
inflação da variância o FIV:
> Altas correlações entre pares de regressores, no entanto esse fator não abrange a relação
entre mais de duas variáveis
.
> Exame de correlações parciais
> Regressões auxiliares: Uma vez que a multicolinearidade surge quando um X possui uma
relação linear muito forte com um ou mais outros X, uma forma de detectar qual variável X está
relacionada com qual outra variável X é rodando uma regressão para cada X em função dos
outros X e calcular o R² de cada! Exemplo:
É um teste F, no qual a hipótese nula é que o X testado não é colinear com os demais, já a
hipótese alternativa é que X testado é colinear com os demais. Se você rejeita H0 então há
correlação entre essa variável testada e as demais variáveis do seu modelo.
> FIV e TOL: Um FIV maior que 10 pode começar a sinalizar multicolinearidade, e um TOL
perto de 0 também pode indicar.
> Pode-se simplesmente não fazer nada, uma vez que a multicolinearidade é um problema
amostral e não de MQO em si. Como alguns problemas não são possíveis de serem corrigidos,
mas se a multicolinearidade não for muito forte, também não haverá grandes problemas.
> Pode-se usar um conhecimento a priori para designar relações lineares entre as variáveis,
possibilitando que transformemos a variável que causa problemas em uma nova variável:
> Combinando dados de corte transversal e séries temporais. Suponha que queremos estimar
uma regressão de séries temporais, porém temos a expectativa que haverá multicolinearidade
entre os termos da regressão, para resolver esse problema podemos fazer uma proxy para
estimar uma das variáveis por meio de corte transversal, depois usamos esse valor obtido para
subtrair do Y da nova equação e retirar a variável, assim teremos excluído uma variável, mas
levado em conta seu efeito sobre Y.
>Exclusão de variável(is): Isso é arriscado pois pode causar vício em MQO, enquanto a
multicolinearidade não o causa.
A vantagem de usar esse método é que as séries temporais são não estacionárias, e por isso
possuem variância muito alta, por meio da utilização da técnica de primeiras diferenças,
transformamos a série um uma estacionária.
Existem outras formas além da técnica de primeiras diferenças, como por meio da divisão de
todos os termos da regressão por uma variável específica.
> Aumento do número de dados: A medida que a amostra aumenta a variância dos
estimadores tende a diminuir.