Você está na página 1de 5

Heterocedasticidade

A heterocedasticidade é um termo utilizado para descrever a situação em que a


variância dos erros de um modelo de regressão não é constante para todos os valores das
variáveis independentes. Em outras palavras, a dispersão dos erros é diferente em
diferentes níveis das variáveis independentes. A heterocedasticidade viola a suposição
de homocedasticidade da regressão linear clássica, o que pode levar a estimativas de
coeficientes de regressão ineficientes e enviesadas.
Uma das hipóteses importantes do modelo clássico de regressão linear é que a
variância de cada termo de erro ui, condicional aos valores selecionados das variáveis
explanatórias, é um número constante igual a σ2. Simbolicamente:

(1)
Se isso não for verdade, ou seja, se a variância de u é diferente para diferentes
valores de x’s, então os erros são heterocedásticos. Simbolicamente:

(2)
Note o subscrito de σ2, que nos lembra que as variâncias condicionais de ui (=
variâncias condicionais de Yi) não são mais constantes.
Principais causas da heterocedasticidade:
- Natureza das variáveis: alguns relacionamentos apresentam tipicamente
tendência à heterocedasticia. Por exemplo, renda e poupança.
- Valores extremos: a ocorrência de um valor extremo na amostra pode
inflacionar a variabilidade em um determinado ponto do ajuste.
- Falhas na especificação do modelo: a heterocedasticidade pode também ser
devida à omissão de importantes variáveis no modelo.
- Transformação dos dados: a transformação das variáveis (por exemplo,
proporção ao invés de valores absolutos) ou da forma funcional (modelo log-duplo ao
invés de linear) pode eliminar a heterocedasticidade.
Consequências
Ineficiência dos Estimadores de MQO: Na presença de heterocedasticidade nos
erros, os estimadores de MQO continuam sendo não viesados e consistentes, mas
deixam de ser eficientes (ou seja, não possuem mais variância mínima). Em outras
palavras, seja b o estimador de MQO, então existe outro estimador b* tal que:

Tendenciosidade da Variância dos Estimadores: Outra importante


consequência da heterocedasticidade é o viés do estimador da variância de β^, mesmo
para amostras grandes (inconsistência). Como resultado, as estatísticas de teste t e F
deixam de ser válidas, pois dependem da variância do estimador. Em outras palavras, na
presença de heterocedasticidade teremos:
Detecção da heterocedasticidade
Para detectar a heterocedasticidade, é possível utilizar gráficos de dispersão dos
resíduos em relação às variáveis independentes ou testes estatísticos específicos, como o
teste de Goldfeld-Quandt, o teste de Breusch-Pagan e o teste de White.
Teste de Goldfeld-Quandt
Este método popular é aplicável quando se supõe que a variância
heterocedástica, σi2, relaciona-se positivamente com uma das variáveis explanatórias no
modelo de regressão. Para simplificarmos, consideramos o modelo de duas variáveis:

Suponha que σi2 relacione-se positivamente a Xi como:

(3)
em que σ2 é uma constante.
A hipótese (3) postula que σi2 é proporcional ao quadrado da variável X.
Se a Equação (3) for adequada, significa que σ i2 será maior quanto maiores
forem os valores de Xi. Se este for o caso, a heterodasticidade muito provavelmente
estará presente no modelo. Para realizar esse teste, procede-se da seguinte forma:
Etapa 1. Ordene ou classifique as observações de acordo com os valores de Xi,
a começar pelo valor mais baixo de X.
Etapa 2. Omita c observações centrais, em que c é especificado a priori, e divida
as observações remanescentes em dois grupos com observações (n - c)/2 em cada um.
Etapa 3. Ajuste as regressões MQO separadas, para as primeiras observações (n
- c)/2 e para as últimas (n - c)/2, e obtenha as respectivas somas dos quadrados dos
resíduos, SQR1 e SQR2, em que SQR1 representa a soma dos quadrados dos resíduos a
partir da regressão correspondente aos valores menores de Xi, o grupo de pequena
variância, e SQR2 a partir do conjunto com maiores valores de Xi .o grupo com

variância maior. Essas somas têm, cada uma em


que k é o número de parâmetros a serem estimados, incluindo o intercepto. Para o caso
de duas variáveis, evidentemente k é igual a 2.
Etapa 4. Calcule a razão:
(4)
Se pressupormos que os ui sejam distribuídos normalmente, e se a hipótese da
homocedasticidade for válida, então poderemos mostrar que λ da Equação (4) segue a
distribuição F, tendo o numerador e o denominador (n - c - 2k)/2 graus de liberdade.
Se, em uma aplicação, λ (= F) calculado for maior que o F crítico ao nível de
significância escolhido, poderemos rejeitar a hipótese da homocedasticidade poderemos
dizer que a heterocedasticidade é muito provável.
Teste de Breusch-Pagan-Godfrey
O sucesso do teste de Goldfeld-Quandt depende não só do valor de c (o número
de observações centrais omitidas), mas também de identificar a variável X correta com a
qual se colocam as observações em ordem. Essa limitação do teste pode ser evitada se
considerarmos o teste de Breusch-Pagan-Godfrey (BPG).
Para ilustrá-lo, considere um modelo de regressão linear com k variáveis
explicativas:
(5)
2
Suponha que a variância do erro σi seja descrita como:

(6)
2
ou seja, σi é uma função das variáveis não estocásticas Z; alguns ou todos os X’s
podem servir como Z’s. Especificamente, suponha que:

(7)
ou seja, σi é uma função linear dos Z. Se α2 = α3 = . . . = αm = 0, σ i2 = α1, que é
2

uma constante. Portanto, para testarmos se σ i2 é homocedástico, podemos testar a


hipótese de que α2 = α3 = . . . = αm = 0. Essa é a ideia básica do teste de Breusch-
Pagan-Godfrey. Para realizar o teste de Breusch-Pagan-Godfrey, procede-se da seguinte
maneira:
Etapa 1. Calcule a Equação (5) por MQO e obtenha os resíduos u^1, u^2, . . .,
u^n.
Etapa 2. Obtenha .

Etapa 3. Construa variáveis pi definidas como , que são simplesmente

cada resíduo elevado ao quadrado dividido por .


Etapa 4. Faça a regressão de pi assim construída sobre os Z’s como:

(8)
em que vi é o termo residual dessa regressão;
Etapa 5. Obtenha SQE (soma dos quadrados explicados) da Equação (8) e
defina:

(9)
Supondo que os ui sejam normalmente distribuídos, pode-se mostrar que se há
homocedasticidade e se o tamanho da amostra n aumenta indefinidamente, então:

(10)
ou seja, segue a distribuição de qui-quadrado com (m - 1) graus de liberdade.
Portanto, se em uma aplicação o calculado for maior que o valor crítico
no nível escolhido de significância, poderemos rejeitar a hipótese de
homocedasticidade; caso contrário, esta não será rejeitada.
Teste geral de heterocedasticidade de White
Ao contrário do teste de Goldfeld-Quandt, que requer a reordenação das
observações com respeito à variável X que supostamente causa heterocedasticidade, ou
o teste de BPG, que é sensível à hipótese da normalidade, o teste geral da
heterocedasticidade proposto por White não requer a hipótese da normalidade e é
facilmente implementado. Para ilustrar a ideia, considere o modelo de regressão a
seguir, com três variáveis (a generalização para o modelo com k variáveis é direta):
(11)
Para realizar o teste de White, procede-se da seguinte forma:
Etapa 1. Com os dados, calculamos a Equação (11) e obtemos os resíduos, u^i.
Etapa 2. Então, fazemos a seguinte regressão (auxiliar):

(12)
Obtenha o R2 dessa regressão (auxiliar).
Etapa 3. Sob a hipótese nula de que não há heterocedasticidade, pode-se mostrar
que o tamanho da amostra (n) multiplicado pelo R2 da regressão auxiliar segue
assintoticamente a distribuição de qui-quadrado com graus de liberdade iguais ao
número de regressores (excluindo-se o termo constante) na regressão auxiliar. Isto é,

LM = (13)
Etapa 4. Se o valor do qui-quadrado obtido na Equação (13) excede o valor
crítico do qui-quadrado ao nível escolhido de significância, a conclusão é de que há
heterocedasticidade.
Uma maneira de lidar com a heterocedasticidade é transformar as variáveis
dependentes, utilizar métodos de ponderação durante a estimação, como a regressão
ponderada por mínimos quadrado ou empregar estimadores robustos, como os
Mínimos Quadrados Generalizados (MQG)s.
Portanto, a identificação precoce e a correção adequada da heterocedasticidade
são passos essenciais em qualquer análise de regressão, garantindo a confiabilidade e a
robustez das conclusões obtidas a partir dos modelos estatísticos.

Você também pode gostar