Escolar Documentos
Profissional Documentos
Cultura Documentos
Var(u|x1 , x2 , . . . , xk ) = σ 2
Se a variância varia com qualquer uma das três variáveis explicativas, então
há heteroscedasticidade
Teorema
Sob as hipóteses RLM.1 a RLM.5, condicionadas aos valores amostrais das
variáveis independentes
σ2
Var(β̂j ) =
SQTj (1 − Rj2 )
para j = 1, 2, . . . , k.
Pn
SQTj = i=1 (xij − x̄j )2 é a variação total em xj
Rj2 é o R2 da regressão de xj sobre todas as outras variáveis
independentes (incluindo um intercepto)
Obs.
Todas as hipóteses de Gauss-Markov são usadas na obtenção dessa
fórmula
A magnitude de Var(βˆj ) é importante na prática: uma variância maior
significa um estimador menos preciso, e isso se traduz em intervalos de
confiança maiores e testes de hipóteses menos acurados
Alexandre Leichsenring ACH3657 Aula 09 5 / 22
Componentes das Variâncias de MQO: Multicolinearidade
σ2
Var(β̂j ) =
SQTj (1 − Rj2 )
σ2
Var(β̂j ) =
SQTj (1 − Rj2 )
n
X
SQTj = (xij − x̄j )2
i=1
SQTj → 0 ⇒ Var(β̂j ) → ∞
σ2
Var(β̂j ) =
SQTj (1 − Rj2 )
Rj2 é obtido de uma regressão que envolve somente as variáveis independentes do modelo
original – que xj desempenha o papel de uma variável dependente
Rj2 é a proporção da variação total de xj , que pode ser explicada pelas outras variáveis
independentes
Para dados σ 2 e SQTj , a menor Var(β̂j ) é obtida quando Rj2 = 0
I Só ocorre quando xj tem correlação amostral zero com cada uma das outras
variáveis independentes
I Melhor caso, mas raramente encontrado
Outro caso extremo: Rj2 = 1
I Excluído pela hipótese RLM.4, pois Rj2 = 1 significa que, na amostra, xj , é uma
combinação linear perfeita de outras variáveis independentes da regressão
Caso mais relevante: Rj2 “próximo” de 1
I Pode fazer com que Var(β̂j ) seja grande:
Rj2 → 1 ⇒ Var(β̂j ) → ∞
I Correlação alta (mas não perfeita) entre duas ou mais variáveis independentes é
chamada multicolinearidade
Alexandre Leichsenring ACH3657 Aula 09 9 / 22
Multicolinearidade
y = β0 + β1 x 1 + β 2 x 2 + β3 x 3 + u
ûi = yi − ŷi
com
ŷi = β̂0 + β̂1 x1 + . . . + β̂k xk
O estimador não-viesado de σ 2 no caso geral da regressão múltipla é:
Pn
(û2 ) SQR
σ̂ = i=1 i =
2
n−k+1 n−k+1
E(σ̂ 2 ) = σ 2
Alexandre Leichsenring ACH3657 Aula 09 16 / 22
Erro-Padrão da Regressão
√
σ̂ = σ̂ 2 é denominado Erro-Padrão da Regressão (EPR)
O EPR é um estimador do desvio-padrão do termo de erro
Essa estimativa é usualmente informada pelos programas de regressão,
embora ela seja chamada de nomes diferentes pelos diferentes
programas.
Para construir intervalos de confiança e conduzir testes sobre os
parâmetros da equação de regressão, precisaremos estimar o
desvio-padrão de β̂j :
σ
dp(β̂j ) = 1/2
SQTj (1 − Rj2 )
Como σ é desconhecido, ele é substituído pelo seu estimador σ̂ . Isso
nos dá o erro-padrão de β̂j :
σ̂
ep(β̂j ) = 1/2
SQTj (1 − Rj2 )
Teorema de Gauss-Markov
Sob as hipóteses RLM.1 a RLM.5:
β0 , β1 , . . . , βk