independetes. Wooldridge cap. 5, 6.2, 7, 8, 9.1, 10, 12 RML.4: Média condicional Zero, o erro tem Resumindo os capítulos. um valor igual a zero, dados quaisquer valores das variáveis independente. E( u I Capítulo 3. x1, ...., xk) = 0 E(u)=0 e Cov(u,x)=0
Yestimado= ^B0+^B1x1+ Êi
^yi= ^B0+^B1x1 Inexistência de viés de MQO
^B0= ^yi -^B1x1 Sob as Hipóteses RML.1 a RML.4
ADICIONO SOMATÓRIO ∑ e vejos E(^Bj) = Bj, j=0,1,2,3....
os resultados que iram dá, primeiro adiciono o somatório substituindo o Os estimadores de MQO são estimadores B0, e depois sem substituir com não viesados dos parâmetros da isso acho que ∑E= 0 e a equação população. da reta y = ^B0+^B1x1 RML.5: Homoscedasticidade, o erro tem a SQT: ∑(yi-ymédia) -> Totais mesma variância dada a quaisquer valores explicativas . Var(u I x1, ...., xk) = o² QUE É A SQE: ∑(yestimado-ymédia) -> ExplicadosREGRESSÃO MESMA QUE Var( y I x1, ...., xk) = o²
SQR: ∑ûi² Resíduos Sob as hipóteses RML.1 a RML.5
SQT = SQR + SQE
MOSTRAR MATEMATICAMENTE.
R²= SQE/SQT OU R²= 1 – SQR/SQT
Multicolinariedade: Sabemos que a O R² ele nunca diminui e geralmente variância de ^Bj depende te três fatores. aumenta quando outra variável Variância do erro (o²) = o² maior significa independente é adicionada a regressão mais ruído, e se torna mais difícil de e o mesmo conjunto de observações é estimar o efeito parcial das variáveis utilizado em ambas regressões. Todavia, independentes Aumenta a variância de se aumento uma variável e o R² não ^Bj aumenta ou aumenta muito pouco, pode haver a presença de multicolinearidade. STQ ( xi-xmédia)² = maior a variância total de X, menos é a variância de ^Bj, Só não HIPÓTESE DE GAUSS-MARKOV pode ter SQT= 0, pois viola o RLM.3. RML.1: Linear nos parâmetros R²j = É obtido de uma regressão que RML.2: Amostragem aleatória, (nº de envolve somente as variáveis observações > nº regressores) independentes do modelo original. Maior o R² maior o variância de ^Bj. Quanto mais o RML.3: Colinearidade não perfeita, ou seja, R² mais são correlacionadas x1 e x2, eai variáveis independes podem possuir surge a multicolonariedade. correlação, só não pode ser perfeita. A multicolinariedade não viola nenhuma - Nenhuma variável independente é hipótese de Gauss Marvok, a não ser que constante. seja perfeita. Embora o problema da - não há relação lineares exatas entre as multicolinariedade não seja claramente variáveis independentes. definido, é melhor ter mnos correlação entre os Xj e as outras variáveis - Colinearidade perfeita : 1º: Colocar a independentes mesma variável de medida em unidades diferentes dentro da equação de regressão. Capitulo 4 2º: Variável independente ser função linear Hipotese MCL: Mesmas que Gauss Modelo restrito: o que assume H1 como Marvok + RLM.6 verdade
RML.6: Erro ~ Normal ( 0, o²) outra R² Ajustado:
maneira prática de resumir as hipóteses MLC é yIx ~ Normal (B0+B1x1....Bkx , o²) R²= 1 – [(SQR/n-k) / (SQT/n-1)
RML.6 é a mais forte de todas as hipóteses Em que, k é o número de parâmetros
anteriores: De fato, como u(erro) é estimados. independente de xj sob RML.6 E(uIx1,...xn) R² NUNCA diminui quando uma nova E(u)= 0 e Variancia (uIx1,...xn) Var(u)= o² variável independente é incluída em uma para fazer a Hipotese 6 temos que equação de regressão: isso ocorre pq o satisfazer a 4 e a 5 SQR nunca aumenta ( normalmente TESTE t sobra Bj diminui) quando novas variáveis independentes são adicionadas. 5 PASSOS PARA FELICIDADE --- Geralmente Bicaudal A formula de Rajustado² mostra dependência de K, se uma variável 1º: Ho: B1=0 e H1: B1 ≠ 0 independente for adicionada em a uma regressão o SQR diminui , os o grau de 2º: Estatística de teste: t calculado =[ ^B 1 liberdade vai diminuir (n-k). Logo o SQR ele – E (^Bi) ] / Ep(^B1) pode diminuir ou aumentar quando uma nova variável independente é adicionada . E(^Bi) = B1 -> Assumimos que é não viesado Rajustado² aumenta se, e somente se, a estatística t da nova variável for maior que Ep(^B1) = o² / ∑(xi-xmédia)² o² = SQR / (n- em valor absoluto k) , onde k é número de parâmetros estimados Rajustado² = o² / (SQT/(n-1)), em que o² é Fórmula final: t calculado =( ^B1-B1) / raiz o erro padrão. SQR / (n – k) . ∑(xi-xmédia)² Logo, aumentar o R² faz com que SQR Teste F diminua, então eles possuem uma função inversa, dessa forma maximizar um é minimizar o outro.
Heteroscedasticidade.
Precisamos entender o que é
heteroscedasticidade: forte dispersão dos dados em torno de uma reta; uma dispersão dos dados perante um modelo econométrico regredido. Ou a: 1/𝐹(𝑔𝑙 𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎𝑑𝑜𝑟 (n-k), 𝑔𝑙 seja o²1 ≠ o²2 ≠ o²n 𝑛𝑢𝑚𝑒𝑟𝑎𝑑𝑜𝑟 (g)) Se consideremos a 4 primeiras hipóteses de Gauus-Markov se b: 𝐹(𝑔𝑙 𝑛𝑢𝑚𝑒𝑟𝑎𝑑𝑜𝑟 (g), 𝑔𝑙 𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎𝑑𝑜𝑟 sustentam, Se os erros contiverem (n-k) heterocedasticidade, então:
Var (uiIxi) = oi², em que colocamos um
subscrito i em o² para indicar que a variância do erro depende do valor particular de xi.
E o MQO: ^B1= B1 + ∑(xi-xmédia).ui / SQT, e a
Modelo restrito: o que assume H0 como verdade Var(^B1) = SQT.o² / STQ²X, todavia se o²i=o² para todo i, essa formula se reduzi para o²/SQTx.. ERRO DE MEDIDA – O ERRO DE MEDIDO É
Então um estimado válido de Var(^B), ALEATÓRIO.
para a heteroscedasticidade de qualquer
O erro de medida na população é: e= x 1- forma é: x1*, em que * é o verdadeiro Var(^B1) = ∑(xi-xmédia)² . ûi / SQT²x Considerando o modelo teórico: Erro padrão robusto em relação a Y*= B0+B1x1*+E, em que * é o verdadeiro. heteroscedasticidade são sempre maiores que os erros padrões comuns? A) Se Y observado com erro de médio NÃO, os EPR podem ser maiores ou então y= y* + e (resíduo), com menores que os EPC, porém o EPR são cov(e,x1*) = cov(e,y*) = cov (e,E), frequentemente maiores que os EPC. dessa forma o modelo estimado Má especificação do modelo Y*+ e = ~B0+~B1x1*+E 1) Emissão da variável relevante Y*= B0+~B1x1*+(E-e) correlacionada causa viés de estimação. Daí, E(E-e I x1*) = 0 e E(~B1)=B1, ou 2) Inclusão de variáveis irrelevante seja, não apresenta viés. para explicar y aumenta a Var (E+ e) = o²E +o²e variância do erro, variância de ^B1 (considerando o modelo teórico) agora utilizando na formula de Var(~B1) = o²E + o²e / SQTx é maior que o²E / SQTX = Sabemos que a Var(B1) = o² / SQTX e Var(B1), logo a um aumento da variância. (E^B1)= B, desde que RML.6 seja verdade. B) Se x1, é observado com erro de Considerando uma variável x2, medida, então x1= x1*+e, com cov: irrelevante para o modelo (x2=0) Cov(e1,x1*)=Cov(e1,y1*)=Cov(e1,E)=0. a ser inserida no modelo teórico. Cov(x1,e1) = 0 Y= ^B0+^B1x1+^B2x2+E X1*=x1-e1 x1= x1*+ e Y= B0+B1x1*+E Temos a opções da 1) cov(x1,x2) = 0 e Y= B0+B1(x1-e)+E 2)cov(x1,x2) ≠ 0 Y= B0+B1x1 + (E-B1e) 1) cov(x1,x2) = 0 Cov(x1, E-B1e) = Cov (xi,E) – B1 Cov(x1,e)
A variância continua a mesma , pq o nosso = 0 – B1 cov( x1*+e, e)
R² é 0 dado que nada é explicado por x2. = -B1o² que é diferente de 0.
2) cov(x1,x2) ≠ 0 Então (~B1) É ≠ B1, logo é viesado, e
depende do o² do erro de medida Ou seja, nosso 0<R²<1, ou seja nossa variância de B1 agora é maior que a do B1 > 0, VIES ↑ modelo: B1 < 0, VIES ↓ Var(^B1) = o² / SQTX (1-R²) > o² / SQTX Ou seja, a magnitude do viés é maior Dessa forma, a inclusão de variáveis quanto maior for a variância do erro de irrelevantes correlacionadas com x, embora medida, mas o sentindo do viés depende não causa viés de estimação, ela pode do sinal de B1, aumentar a Variância de ^B1, e tal aumento é devido a cov(x1,x2) ≠ 0 . O aumento da variância pode se dar pq o erro possui partes de x2?