Escolar Documentos
Profissional Documentos
Cultura Documentos
(1)
em que λ1, λ 2, ..., λk são constantes tais que nem todas são simultaneamente
zero.
No entanto, no caso de regressão com k variáveis explanatórias X1, X2, ..., Xk,
o caso em que as variáveis X estão intercorrelacionadas, mas não perfeitamente, como
se segue:
(2)
em que vi é um termo de erro estocástico.
Para entender a diferença entre multicolinearidade perfeita e menos que perfeita,
suponha, por exemplo, que λ2 ≠ 0. Então, a Equação (1) pode ser escrita como:
(3)
qual mostra como X2 tem uma relação linear exata com outras variáveis ou
como pode ser derivado de uma combinação linear de outras variáveis X. Nessa
situação, o coeficiente de correlação entre a variável X2 e a combinação linear do lado
direito da Equação (3) será a unidade.
Do mesmo modo, se λ2 ≠ 0, a Equação (2) pode ser escrita como:
(4)
que mostra que X2 não é uma combinação linear exata de outras variáveis X,
porque também é determinado pelo termo de erro estocástico vi.
A abordagem algébrica à multicolinearidade pode ser descrita sucintamente pelo
diagrama de Ballentine (Figura 1). Nesta, os círculos Y, X2 e X3 representam,
respectivamente, as variações de Y (variável dependente) e X2 e X3 (as variáveis
explanatórias). O grau de colinearidade pode ser medido pela extensão da sobreposição
(área sombreada) dos círculos X2 e X3.
Figura 1: Visão da multicolinearidade segundo o diagrama de Ballentine
(8)
e o índice condicional (IC) definido como:
(9)
Então temos esta regra prática: se k está entre 100 e 1.000, há multicolinearidade
de moderada a forte; e, se for maior que 1.000, haverá multicolinearidade grave. Por
outro lado, se o estiver entre 10 e 30, a multicolinearidade será de moderada a
forte e, se for maior que 30, será grave.
Diagrama de dispersão. É uma boa prática usar um diagrama de dispersão para
verificar como as diversas variáveis estão relacionadas em um modelo de regressão.
Medidas corretivas
Exclusão de variável(is) e viés de especificação: Quando nos deparamos com
uma multicolinearidade grave, uma das coisas mais “simples” a fazer é excluir uma das
variáveis colineares. Mas, ao excluirmos uma variável do modelo, podemos cometer um
viés de especificação ou erro de especificação. Este surge de uma especificação
incorreta do modelo usado na análise.
Dados adicionais ou novos: Como a multicolinearidade é um aspecto da
amostra, é possível que, em outra amostra envolvendo as mesmas variáveis, a
colinearidade possa não ser tão grave quanto na primeira. Às vezes aumentar o tamanho
da amostra (se possível) pode atenuar o problema de colinearidade.
Transformar as variáveis: a multicolinearidade pode ser eliminada a partir de
funções das variáveis independentes.
(10)
Outros métodos de remediar a multicolinearidade: Técnicas estatísticas
multivariadas como a análise de fator e componentes principais ou técnicas como a
regressão ridge ou regressão LASSO são empregadas com frequência para “resolver” o
problema da multicolinearidade.
Ao abordar adequadamente a multicolinearidade, os pesquisadores podem
garantir a robustez e a validade de seus modelos estatísticos, fornecendo assim uma base
sólida para suas análises e conclusões.