Você está na página 1de 3

Wooldridge cap.

3 e 4 exata de duas ou mais das outras variáveis


independetes.
Wooldridge cap. 5, 6.2, 7, 8, 9.1, 10, 12
RML.4: Média condicional Zero, o erro tem
Resumindo os capítulos. um valor igual a zero, dados quaisquer
valores das variáveis independente. E( u I
Capítulo 3. x1, ...., xk) = 0 E(u)=0 e Cov(u,x)=0

Yestimado= ^B0+^B1x1+ Êi

^yi= ^B0+^B1x1 Inexistência de viés de MQO

^B0= ^yi -^B1x1 Sob as Hipóteses RML.1 a RML.4

 ADICIONO SOMATÓRIO ∑ e vejos E(^Bj) = Bj, j=0,1,2,3....


os resultados que iram dá, primeiro
adiciono o somatório substituindo o Os estimadores de MQO são estimadores
B0, e depois sem substituir  com não viesados dos parâmetros da
isso acho que ∑E= 0 e a equação população.
da reta y = ^B0+^B1x1 RML.5: Homoscedasticidade, o erro tem a
SQT: ∑(yi-ymédia) -> Totais mesma variância dada a quaisquer valores
explicativas . Var(u I x1, ...., xk) = o² QUE É A
SQE: ∑(yestimado-ymédia) -> ExplicadosREGRESSÃO MESMA QUE Var( y I x1, ...., xk) = o²

SQR: ∑ûi²  Resíduos Sob as hipóteses RML.1 a RML.5


SQT = SQR + SQE

 MOSTRAR MATEMATICAMENTE.

R²= SQE/SQT OU R²= 1 – SQR/SQT


Multicolinariedade: Sabemos que a
O R² ele nunca diminui e geralmente variância de ^Bj depende te três fatores.
aumenta quando outra variável
Variância do erro (o²) = o² maior significa
independente é adicionada a regressão
mais ruído, e se torna mais difícil de
e o mesmo conjunto de observações é
estimar o efeito parcial das variáveis
utilizado em ambas regressões. Todavia,
independentes  Aumenta a variância de
se aumento uma variável e o R² não
^Bj
aumenta ou aumenta muito pouco, pode
haver a presença de multicolinearidade. STQ ( xi-xmédia)² = maior a variância total
de X, menos é a variância de ^Bj, Só não
HIPÓTESE DE GAUSS-MARKOV
pode ter SQT= 0, pois viola o RLM.3.
RML.1: Linear nos parâmetros
R²j = É obtido de uma regressão que
RML.2: Amostragem aleatória, (nº de envolve somente as variáveis
observações > nº regressores) independentes do modelo original. Maior o
R² maior o variância de ^Bj. Quanto mais o
RML.3: Colinearidade não perfeita, ou seja, R² mais são correlacionadas x1 e x2, eai
variáveis independes podem possuir surge a multicolonariedade.
correlação, só não pode ser perfeita.
A multicolinariedade não viola nenhuma
- Nenhuma variável independente é hipótese de Gauss Marvok, a não ser que
constante. seja perfeita. Embora o problema da
- não há relação lineares exatas entre as multicolinariedade não seja claramente
variáveis independentes. definido, é melhor ter mnos correlação
entre os Xj e as outras variáveis
- Colinearidade perfeita : 1º: Colocar a independentes
mesma variável de medida em unidades
diferentes dentro da equação de regressão. Capitulo 4
2º: Variável independente ser função linear
Hipotese MCL: Mesmas que Gauss Modelo restrito: o que assume H1 como
Marvok + RLM.6 verdade

RML.6: Erro ~ Normal ( 0, o²) outra R² Ajustado:


maneira prática de resumir as hipóteses
MLC é yIx ~ Normal (B0+B1x1....Bkx , o²) R²= 1 – [(SQR/n-k) / (SQT/n-1)

RML.6 é a mais forte de todas as hipóteses Em que, k é o número de parâmetros


anteriores: De fato, como u(erro) é estimados.
independente de xj sob RML.6 E(uIx1,...xn)  R² NUNCA diminui quando uma nova
E(u)= 0 e Variancia (uIx1,...xn)  Var(u)= o² variável independente é incluída em uma
 para fazer a Hipotese 6 temos que equação de regressão: isso ocorre pq o
satisfazer a 4 e a 5 SQR nunca aumenta ( normalmente
TESTE t sobra Bj diminui) quando novas variáveis
independentes são adicionadas.
5 PASSOS PARA FELICIDADE ---
Geralmente Bicaudal A formula de Rajustado² mostra
dependência de K, se uma variável
1º: Ho: B1=0 e H1: B1 ≠ 0 independente for adicionada em a uma
regressão o SQR diminui , os o grau de
2º: Estatística de teste: t calculado =[ ^B 1 liberdade vai diminuir (n-k). Logo o SQR ele
– E (^Bi) ] / Ep(^B1) pode diminuir ou aumentar quando uma
nova variável independente é adicionada .
E(^Bi) = B1 -> Assumimos que é não
viesado Rajustado² aumenta se, e somente se, a
estatística t da nova variável for maior que
Ep(^B1) = o² / ∑(xi-xmédia)²  o² = SQR / (n-
em valor absoluto
k) , onde k é número de parâmetros
estimados Rajustado² = o² / (SQT/(n-1)), em que o² é
Fórmula final: t calculado =( ^B1-B1) / raiz o erro padrão.
SQR / (n – k) . ∑(xi-xmédia)² Logo, aumentar o R² faz com que SQR
Teste F diminua, então eles possuem uma função
inversa, dessa forma maximizar um é
minimizar o outro.

Heteroscedasticidade.

Precisamos entender o que é


heteroscedasticidade: forte dispersão
dos dados em torno de uma reta; uma
dispersão dos dados perante um
modelo econométrico regredido. Ou
a: 1/𝐹(𝑔𝑙 𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎𝑑𝑜𝑟 (n-k), 𝑔𝑙 seja o²1 ≠ o²2 ≠ o²n
𝑛𝑢𝑚𝑒𝑟𝑎𝑑𝑜𝑟 (g))  Se consideremos a 4 primeiras
hipóteses de Gauus-Markov se
b: 𝐹(𝑔𝑙 𝑛𝑢𝑚𝑒𝑟𝑎𝑑𝑜𝑟 (g), 𝑔𝑙 𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎𝑑𝑜𝑟
sustentam, Se os erros contiverem
(n-k)
heterocedasticidade, então:

Var (uiIxi) = oi², em que colocamos um


subscrito i em o² para indicar que a
variância do erro depende do valor
particular de xi.

E o MQO: ^B1= B1 + ∑(xi-xmédia).ui / SQT, e a


Modelo restrito: o que assume H0 como
verdade Var(^B1) = SQT.o² / STQ²X, todavia se o²i=o²
para todo i, essa formula se reduzi para
o²/SQTx..
ERRO DE MEDIDA – O ERRO DE MEDIDO É

Então um estimado válido de Var(^B), ALEATÓRIO.

para a heteroscedasticidade de qualquer


O erro de medida na população é: e= x 1-
forma é:
x1*, em que * é o verdadeiro
Var(^B1) = ∑(xi-xmédia)² . ûi / SQT²x
Considerando o modelo teórico:
Erro padrão robusto em relação a
Y*= B0+B1x1*+E, em que * é o verdadeiro.
heteroscedasticidade são sempre
maiores que os erros padrões comuns? A) Se Y observado com erro de médio
NÃO, os EPR podem ser maiores ou então y= y* + e (resíduo), com
menores que os EPC, porém o EPR são cov(e,x1*) = cov(e,y*) = cov (e,E),
frequentemente maiores que os EPC. dessa forma o modelo estimado
Má especificação do modelo Y*+ e = ~B0+~B1x1*+E
1) Emissão da variável relevante Y*= B0+~B1x1*+(E-e)
correlacionada  causa viés de
estimação. Daí, E(E-e I x1*) = 0 e E(~B1)=B1, ou
2) Inclusão de variáveis irrelevante seja, não apresenta viés.
para explicar y  aumenta a Var (E+ e) = o²E +o²e  variância do erro,
variância de ^B1 (considerando o modelo teórico) agora utilizando na formula de Var(~B1) =
o²E + o²e / SQTx é maior que o²E / SQTX =
Sabemos que a Var(B1) = o² / SQTX e
Var(B1), logo a um aumento da variância.
(E^B1)= B, desde que RML.6 seja verdade.
B) Se x1, é observado com erro de
 Considerando uma variável x2, medida, então x1= x1*+e, com cov:
irrelevante para o modelo (x2=0) Cov(e1,x1*)=Cov(e1,y1*)=Cov(e1,E)=0.
a ser inserida no modelo teórico.
Cov(x1,e1) = 0
Y= ^B0+^B1x1+^B2x2+E X1*=x1-e1  x1= x1*+ e
Y= B0+B1x1*+E
Temos a opções da 1) cov(x1,x2) = 0 e
Y= B0+B1(x1-e)+E
2)cov(x1,x2) ≠ 0 Y= B0+B1x1 + (E-B1e)
1) cov(x1,x2) = 0 Cov(x1, E-B1e) = Cov (xi,E) – B1 Cov(x1,e)

A variância continua a mesma , pq o nosso = 0 – B1 cov( x1*+e, e)


R² é 0 dado que nada é explicado por x2. = -B1o² que é diferente de 0.

2) cov(x1,x2) ≠ 0 Então (~B1) É ≠ B1, logo é viesado, e


depende do o² do erro de medida
Ou seja, nosso 0<R²<1, ou seja nossa
variância de B1 agora é maior que a do B1 > 0, VIES ↑
modelo:
B1 < 0, VIES ↓
Var(^B1) = o² / SQTX (1-R²) > o² / SQTX
Ou seja, a magnitude do viés é maior
Dessa forma, a inclusão de variáveis quanto maior for a variância do erro de
irrelevantes correlacionadas com x, embora medida, mas o sentindo do viés depende
não causa viés de estimação, ela pode do sinal de B1,
aumentar a Variância de ^B1, e tal aumento
é devido a cov(x1,x2) ≠ 0 . O aumento da
variância pode se dar pq o erro possui
partes de x2?

Você também pode gostar