Escolar Documentos
Profissional Documentos
Cultura Documentos
Notas Sobre Regressão
Notas Sobre Regressão
Bertolo
Correlao e Regresso
Notas preparadas por L.A. Bertolo
ndice
Termos bsicos e conceitos ...................................................................................................................1
Regresso simples ................................................................................................................................5
Regresso Mltipla ..............................................................................................................................13
Terminologia de Regresso ..................................................................................................................20
Frmulas de Regresso .......................................................................................................................21
Variao = x x
para uma amostra de 34 casas em Setembro de 2005 em St.
Lucie County.
x x
Varincia =
N1
D. O valor real da covarincia no significante porque ele no afetado pela a escala das duas variveis. Isto o
porqu de se calcular o coeficiente de correlao para tornar algo interpretvel da informao da covarincia.
E. O coeficiente de correlao, r, uma medida da intensidade da relao entre ou dentre as variveis.
Clculo:
Notas sobre Regresso,
2 Preparadas por
L. A. Bertolo
7
x x
y y
8
mdia eles simplesmente esto relaciona-
dos ou associados um com o outro.
r= N1
: : : :
9 x x
9 y y
N1 N1
Desvio Desvio
Desvio Quadrado Desvio Quadrado Produto
de x de x de y de y dos desvios
Observao x y x - xMdio (x - xMdio)2 y - yMdio (y - yMdio)2 (x - xMdio)(y - yMdio)
1 12 50 -1,50 2,25 8,40 70,56 -12,60
2 13 54 -0,50 0,25 12,40 153,76 -6,20
3 10 48 -3,50 12,25 6,40 40,96 -22,40
4 9 47 -4,50 20,25 5,40 29,16 -24,30
5 20 70 6,50 42,25 28,40 806,56 184,60
6 7 20 -6,50 42,25 -21,60 466,56 140,40
7 4 15 -9,50 90,25 -26,60 707,56 252,70
8 22 40 8,50 72,25 -1,60 2,56 -13,60
9 15 35 1,50 2,25 -6,60 43,56 -9,90
10 23 37 9,50 90,25 -4,60 21,16 -43,70
Soma 135 416 0,00 374,50 0,00 2342,40 445,00
Clculos
xMdio= 135/10 = 13,5
yMdio= 416/10 = 41,6
s2x= 374,5/9 = 41,611
s2y= 2.342,4/9 = 260,267
r= (445/9)/((41,611)1/2(260,267)1/2) = 49,444/(6,451*16,133) = 0,475
iii. O coeficiente de correlao est limitado por 1 e +1. Quanto mais prximo o coeficiente estiver de 1 ou +1,
mais forte a correlao.
iv. Com a exceo dos extremos (isto , r = 1,0 ou r = -1), ns no podemos realmente falar acerca da
intensidade de uma relao indicada pelo coeficiente de correlao sem um teste estatstico de significncia.
v. As hipteses de interesse a respeito da correlao da populao, , so:
Hipteses Nulas H0: = 0 Exemplo 2, continuao
Em outras palavras, no existe correlao entre as duas variveis No exemplo anterior,
r = 0,475
Hipteses Alternativas Ha: =/ 0 N = 10
B, DEFG
A=
Em outras palavras, h uma correlao entre as duas
variveis HI B, DEFJ
I, KDKF
= = I, FJLE
B, GG
vi. O teste estatstico est t-distribudo com n-2 graus de liberdade:
< >?
;=
?< @
vii. Para tomar uma deciso, compare a estatstica-t calculada com a estatstica-t crtica para os graus de liberdade
apropriados e nvel de significncia.
Problema
Suponha o coeficiente de correlao como 0,2 e o nmero de observaes como 32. Qual o teste estatstico calculado?
Isto uma correlao significante usando um nvel de significncia de 5%?
Soluo
Hipteses:
H0: = 0
Ha: 0
M,N? O,NO
;= = = 1,11803
?O,OP O,QR
Estatstica-t calculada:
Graus de liberdade = 32-1 = 31
O valor-t crtico para um nvel de significncia de 5% e 31 graus de liberdade 2,042. Ento, no existe correlao
significante (1,11803 cai entre os dois valores crticos de 2.042 e +2.042).
Problema
Suponha o coeficiente de correlao como 0,80 e o nmero de observaes como 62. Qual o teste estatstico calculado?
Isto uma correlao significante usando um nvel de significncia de 1%?
Soluo
Hipteses:
H0: = 0
Ha: 0
M,VOR? O,VOWO W,RWRVW
;= = = = 9,42809
?O,RP O,NR O,R
Estatstica-t calculada:
O valor-t crtico para um nvel de significncia de 1% e 11 observaes 3,169. Ento, a hiptese nula rejeitada e
conclumos que existe correlao significante.
Notas sobre Regresso, Preparadas por L. A. Bertolo 3 de 22
Notas sobre Regresso,
4 Preparadas por
L. A. Bertolo
F. Um valor afastado (outlier1) um valor extremo de uma varivel. O valor afastado deve ser bem grande ou
bem pequeno (onde grande e pequeno so definidos relativamente ao restante da amostra).
i. Um valor afastado deve afetar a estatstica da amostra, tanto quanto um coeficiente de correlao.
possvel para um valor afastado afetar o resultado, por exemplo, tal que conclumos que existe uma relao
significante quando de fato no existe nenhuma ou concluir que no existe relao quando de fato h uma
relao.
ii. O pesquisador deve exercitar o julgamento (e cuidado) quando decidir se inclui ou exclui uma observao.
G. Correlao espria uma aparncia de uma relao quando de fato no existe relao. Valores afastados
podem resultar numa correlao espria .
i. O coeficiente de correlao no indica uma relao causal. Certos itens dados podem estar altamente
correlacionados, mas no necessariamente um resultado de uma relao causual.
ii. Um bom exemplo de uma correlao espria a cada de neve e os preos de aes em Janeiro. Se
fizermos uma regresso histrica dos preos de aes versus o total de cada de neve em Minnesota,
obteremos uma relao estatstica significante especialmente para os meses de Janeiro. Desde que no
existe uma razo econmica para esta relao, este seria um exemplo de correlao espria.
Regresso Simples
1. Regresso a anlise da relao entre uma varivel e alguma outra varivel(s), assumindo uma relao linear.
Tambm referida como regresso dos mnimos quadrados e mnimos quadrados ordinrios (ordinary
least squares - OLS).
A. O propsito explicar a variao numa varivel (isto , como uma varivel difere do seu valor mdio)
usando a variao em uma ou outras mais variveis.
B. Suponha que queremos descrever, explicar, ou predizer porque uma varivel difere de sua mdia. Seja a i-
sima observao desta varivel representada como Yi, e seja n indicando o nmero de observaes.
A variao nos Yi's (os quais queremos explicar) :
Variao
= y y
= SS^
do Y &"_
C. O princpio dos mnimos quadrados que a linha de regresso determinada minimizando a soma dos
quadrados das distncias verticais entre os valores reais de Y e os valores previstos de Y.
1
Uma observao extrema que est bem separada do restante dos dados. Em anlise de regresso, nem todos
os valores outlying tero uma influncia na funo de ajuste. Estes outlying com respeito a seus valores X
(alavancagem alta), e aqueles com valores Y que no so consistentes com a relao de regresso para outros
valores (resduos altos) espera-se que sejam influentes. Para testar a influncia de tais valores usada a
estatstica Cook
4 de 22 - Notas sobre Regresso, Preparadas por L. A. Bertolo
Notas sobre Regresso,
Preparadas por 5
L. A. Bertolo
Uma linha um ajuste atravs dos pontos XY tal que a soma dos resduos quadrticos (isto , a soma dos
quadrados da distncia vertical entre as observaes e a linha) seja minimizada.
2. As variveis numa relao de regresso consistem de variveis dependentes e variveis independentes.
A. A varivel dependente a varivel cuja variao est sendo explicada pela(s) outra(s) varivel(s).
Tambm referida como varivel explicada, a varivel endgena, ou a varivel prevista.
B. A varivel independente a varivel cuja variao usada
para explicar aquelas da varivel dependente. Tambm referida como a
varivel explicativa, a varivel exgena, ou a varivel previsvel.
C. Os parmetros numa equao de regresso simples so a
inclinao (b1) e o intercepto (b0):
yi = b0 + b1 xi + i
D. A inclinao, b1, a variao em Y para uma variao de uma unidade em X. A inclinao pode ser positiva,
negativa, ou zero, calculados como:
e
Sugesto: Pense na linha de regresso como a
d874. c4
.fg76. c6 d8
! a,b
b = =
mdia da relao entre a varivel independente e
ecg
a varivel dependente . O resduo representa a
@
!"# '
e
.fg74. c4
d8
distncia de quanto um valor observado da
varivel dependente (i.e., Y) est longe da relao
ecg mdia como descrito pela linha de regresso.
y y
d = 1.000
x x
b
d
y y
x x
d
=
b N 1
x x
= 450 d
x x
N1
x y
x y? p q
N = 30
N
=
Ento
x
g.jjj
x p
q
b = @k
=
NP,PVnR N
lmj
W,WnP
@k Se isto realmente um atalho ou no depende do mtodo de
realizar os clculos: manualmente, usando o Microsoft Excel,
ou usando uma calculadora.
E. O intercepto, b0, a interseco da linha com o Y- em X=0. O intercepto pode ser positivo, negativo ou
zero. O intercepto calculado como:
boO = y b x
3. A regresso linear assume o seguinte:
Hs% = 9
sst+,.2u1v
?
5. Erro padro da estimativa (SEE) =
@
SEE = 9 .fg .?j . . = 9 .fg?
y y
= 9 .fg
7( ?x ?x ' 8
e (. ?(z.
e %{.
@ e @
?
ss/1v ss/1v
8 22 40 51,70 -11,70 136,89
9 15 35 43,38 -8,38 70,22
10 23 37 52,89 -15,89 252,49
0,00 1.813,77
Portanto,
SSResidual = 1.813,63/8 = 226,70
1/2
SEE = (226,70) = 15,06
B. Um R2 de 0,49 indica que as variveis independentes explicam 49% da variao da varivel dependente.
Exemplo 2, continuao
2
Continuando o exemplo de regresso anterior, podemos calcular o R .
2
x y (y - yMdio)2 ^y y-^y (^y - yMdio)2
12 50 70,56 39,82 10,18 3,17 103,63
13 54 153,76 41,01 12,99 0,35 168,74
10 48 40,96 37,44 10,56 17,31 111,51
9 47 29,16 36,25 10,75 28,62 115,56
20 70 806,56 49,32 20,68 59,60 427,66
7 20 466,56 33,88 -13,88 59,60 192,65
4 15 707,56 30,31 -15,31 127,46 234,40
22 40 2,56 51,70 -11,70 102,01 136,89
15 35 43,56 43,38 -8,38 3,17 70,22
23 37 21,16 52,89 -15,89 127,46 252,49
416 2.342,40 416,00 0,00 528,75 1.813,77
2
R = 528,77/ 2.342,40 = 22,57% ou
2
R = 1 (1.813,63/2.342,40) = 1 0,7743 = 22,57%.
onde tc um valor-t crtico para o nvel de confiana selecionado. Se existirem 30 graus de liberdades e um
nvel de confiana 95%, o tc 2,042 [tomado de uma tabela-t].
B. A interpretao do intervalo de confiana que ele um intervalo que acreditamos que incluir o parmetro
verdadeiro ( 1 b s no caso acima) com nvel de confiana especificado.
8. Quando o erro padro da estimativa (a variabilidade dos dados ao redor da linha de regresso) subir, a
confiana se alarga. Em outras palavras, quanto mais variveis forem os dados, menos confiante voc ficar
quando estiver usando o modelo de regresso para estimar o coeficiente.
9. O erro padro do coeficiente uma raiz quadrada da razo da varincia da regresso pela variao da
varivel independente:
S%
S|y =
1 d
x x
i. Para testar hiptese do coeficiente de inclinao (isto , para ver se a inclinao estimada igual a um
valor hipottico, b0, Ho: b = b1, calculamos a estatstica t-distribuda:
|y 1 |1
; =
|y
1
ii. O teste estatstico tdistribudo com Nk1 graus de liberdade (nmero de observaes (N), menos o
nmero de variveis independentes (k), menos um).
B. Se a estatstica-t maior que o valor-t crtico para o apropriado
Nota: A frmula para o erro
grau de liberdade, (ou menor que o valor-t crtico uma
padro do coeficiente tem a
inclinao negativa) podemos dizer que o coeficiente de
variao da varivel independente
inclinao diferente do valor hipottico, b1.
no denominador, no a varincia.
C. Se no existir relao entre a varivel dependente e uma A varincia = variao / n-1.
varivel independente, o coeficiente de inclinao, b1, ser zero.
Uma inclinao zero indica que no existe variao em Y para uma dada variao em X
Uma inclinao zero indica que no existe relao entre Y e X.
D. Para testar se uma varivel independente explica a variao na varivel dependente, a hiptese que
testada se a inclinao zero:
Ho: b1 = 0
versus a alternativa (que voc conclui se voc rejeitar a nula, Ho):
Ha: b1 0
Esta hiptese alternativa referida como uma hiptese bilateral. Isto significa que rejeitamos a nula se a
inclinao observada diferente de zero em uma das duas direes (positiva ou negativa).
E. Existem hipteses na economia que se referem ao sinal da relao entre as variveis dependente e as
independentes. Neste caso, a alternativa direcional (> ou <) e o teste-t unilateral (usa somente uma
cauda da distribuio-t). No caso de uma alternativa unilateral, existe somente um valor-t crtico.
ogc g O,nV?O
= = 2,4375
y O,N
O teste estatstico calculado : tb =
g
Os valores-t crticos so = 2,060
y = b0 + bi xp
onde y um valor previsto da varivel dependente, e
xp um valor previsto da varivel independente (input).
12. Uma anlise de tabela de varincia (tabela ANOVA) um resumo das explicao da variao da varivel
dependente. A forma bsica da tabela ANOVA como segue:
SEE = (600/28)1/2 =
(21.429)1/2 = 4,629
Regresso Mltipla
1. Regresso mltipla a anlise de regresso com mais do que uma varivel independente.
A. O conceito de regresso mltipla idntico daquele da anlise de regresso simples exceto que duas ou
mais variveis independentes so usadas simultaneamente para explicarem as variaes da varivel
dependente.
y = b0 + b1x1 + b2x2 + b3x3 + b4x4
B. Numa regresso mltipla, a meta minimizar a Ns no representamos a regresso mltipla
soma dos erros quadrticos. Cada coeficiente de graficamente porque ela exigiria grficos que esto
inclinao estimado enquanto se mantm as em mais do que duas dimenses.
outras variveis constantes.
2. O intercepto na equao de regresso tem a mesma interpretao que ela tinha sob o caso linear simples o
intercepto um valor da varivel dependente quando todas as variveis independentes so iguais a zero.
3. O coeficiente de inclinao um parmetro que reflete a variao na varivel dependente para uma unidade de
variao na varivel independente.
A. Os coeficientes de inclinaes (os betas) so
descritos como o movimento na varivel Uma inclinao com qualquer outro nome
dependente para uma variao de uma unidade de
O coeficiente de inclinao a elasticidade da
variao na varivel independente mantendo varivel dependente com respeito varivel
todas as outras variveis independentes independente.
constantes. Em outras palavras, a derivada primeira da varivel
dependente com respeito varivel independente.
B. Por esta razo, os coeficientes betas numa
regresso linear mltipla, so algumas vezes
chamados de betas parciais ou coeficientes
parciais de regresso.
4. Modelo de Regresso:
Yi = b0 + b1 x1i + b2 x2i + i
onde:
bj a coeficiente de inclinao da j-sima varivel dependente; e
xji a i-sima observao da j-sima varivel.
A. Os graus de liberdade para o teste de um coeficiente de inclinao so N-k-1, onde n um nmero de
observaes da amostra e k um nmero de variveis independentes.
B. Na regresso mltipla, as variveis independentes podem estar correlacionadas umas com as outras,
resultando em estimativas menos confiveis. Este problema referido como multi-colinearidade.
5. Um intervalo de confiana para uma inclinao da regresso de populao numa regresso mltipla um
|o ; og
intervalo centrado na inclinao estimada:
ou
|o ; og < | <|o + ; og
A. Este o mesmo intervalo usado na regresso simples para o intervalo de um coeficiente de inclinao.
B. Se este intervalo contm zero, conclumos que a inclinao no estatisticamente diferente de zero.
e
.fg %
{ .
@ ss
= = ??
=
??
df = $%# %
x%#!"%
$%# %
!"#!% $%%$%$&%
1 = N k 1 = N k + 1
A. Os graus de liberdade so o nmero de pedaos de informaes independentes que so usadas para estimar
os parmetros de regresso. No clculo dos parmetros de regresso, usamos os seguintes pedaos de
informaes:
A mdia da varivel dependente.
A mdia de cada uma das variveis independentes.
B. Ento,
se a regresso uma regresso simples, usamos os dois graus de liberdade na estimao da linha de
regresso.
se a regresso uma regresso mltipla com quatro variveis independentes, usamos cinco graus de
liberdade na estimao da linha de regresso.
10. Previso (Forecasting) usando regresso envolve fazer predies acerca da varivel dependente baseadas nas
relaes mdias observadas na regresso estimada.
2
Em estatstica, uma seqncia ou um vetor de variveis aleatrias heteroscedstico (heteroskedastistic) se as variaveis
aleatrias tiverem varincias diferentes. O conceito complementar chamado homocedasticidade (homoscedasticity). (Nota: A
ortografia alternativa homo- ou heteroskedasticity igualmente correta e tambm usada freqentemente). O termo significa
"varincia diferindo" e vem do Grego "hetero" ('diferente') e "skedastios" ('disperso').
Quando usar algumas tcnicas estatsticas, tais como mnimos quadrados ordinrios (ordinary least squares - OLS), vrias
hipteses so geralmente feitas. Uma delas que o termo erro tenha uma varincia constante. Isto ser verdadeiro se as
observaes do termo erro forem assumidas serem extradas de distribuies idnticas. Heteroscedasticidade uma violao
desta hiptese.
Por exemplo, o termo erro poder variar ou aumentar com cada observao, de certa forma este o caso freqente com
medidas de seo cruzada ou sries temporais. Heteroscedasticidade freqentemente estudada como parte da econometria,
que freqentemente lida com dados exibindo ela.
Com o advento de erros padres robustos permitindo-nos fazer inferncia sem especificar o segundo momento condicional do
termo erro, testar a homoscedasticidade condicional no to importante quanto no passado.
O econometricista Robert Engle ganhou o 2003 Nobel Memorial Prize for Economics pelos seus estudos sobre anlise de
regresso na presena de heteroscedasticidade, que conduziu sua formulao da tcnica de modelagem ARCH (Auto
Regressive Conditional Heteroscedasticity).
Notas sobre Regresso, Preparadas por L. A. Bertolo 13 de 22
Notas sobre Regresso,
14 Preparadas por
L. A. Bertolo
11. A estatstica-F uma medida de quo bem um conjunto de variveis independentes, como um grupo, explica
a variao na varivel dependente.
A. A estatstica-F calculada como:
t+3+,,/
z . c6
6
%#% "#&" " s e
F= = = .fg
t+,.2u1v
## "#& s .fg
e z
6. c6
eccg eccg
B. A estatstica-F pode ser formulada para testar todas as variveis independentes como um grupo (a aplicao
mais comum). Por exemplo, se existirem quatro variveis independentes no modelo, as hipteses so:
H0: b1 = b2 = b3 = b4 = 0
Ha: no mnimo um bi 0
C. A Estatstica-F pode ser formulada para testar subconjuntos de variveis independentes (para ver se elas
tem poder de explicao incremental (incremental explicativa power). Por exemplo se existirem quatro
variveis independentes no modelo, um subconjunto poderia ser examinado:
H0: b1=b4=0
Ha: b1 ou b4 0
12. O coeficiente de determinao, R2, a porcentagem da variao da varivel dependente explicada pelas
variveis independentes.
13.1/ 13.1/
~"#" %'_"" ? +40v.121
R =
=
/1v
~"#" ^ &"_ ~"#" ^ &"_
e
.fg ( d
@
z? (
R = e
0<R2<1
.fg (? (
d
@
5 1 R
?
R = 1 )
?
SS^ &"_ = y y
onde a mdia de Y.
B. SSResidual (a.k.a. SSE) a variabilidade isto no explicada pela regresso e calculada como:
SS%#% = y{ y
df SS SS/df
Fonte Graus de Soma dos quadrados Mdia Quadrtica
Liberdade
Regresso k SSRegresso MSR
Erro (no explicado) Nk-1 SSResidual MSE
Total N1 SSTotal
=1
R2 =
F=
14. Variveis Dummy so variveis qualitativas que tomam os valores zero ou um.
A. A maioria das variveis independentes representa um fluxo contnuo de valores. Entretanto, Alguma vezes a
varivel independente de natureza binria (ela ou ON ou OFF).
B. Estes tipos de variveis so chamadas variveis dummy e aos dados atribudo um valor de "0" ou "1". Em
muitos casos, voc aplica o conceito de varivel dummy para quantificar o impacto de uma varivel
qualitativa. Uma varivel dummy uma varivel dicotmica; isto , ela toma um valor de um ou zero.
C. Use uma varivel dummy a menos que o nmero de classes (p.ex., se tem trs classes, use duas variveis
dummy), caso contrrio voc cair numa varivel dummy "emboscada" (multicolinearidade perfeita
hiptese da violao [2]).
D. Uma varivel dummy interativa uma varivel dummy (0,1) multiplicada por uma varivel para criar uma
nova varivel. A inclinao desta nova varivel diz-nos a inclinao incremental.
15. Heteroscedasticidade uma situao em que a varincia dos resduos no constante em todas as
observaes.
A. Uma hiptese da metodologia da regresso que a amostra extrada da mesma populao, e que a
varincia dos resduos constante nas observaes; em outras palavras, os resduos so homoscedsticos.
B. Heteroscedasticidade um problema porque os estimadores no tem a menor varincia possvel, e portanto
o erro padro dos coeficientes no sero corretos.
16. Auto-correlao uma situao em que os termos de resduos esto correlacionadas unscom os outros. Isto
ocorre freqentemente em anlises de sries temporais.
A. Auto-correlao aparece geralmente em dados de sries temporais. Se o lucro do ano passado foi maior, isto
significa que o lucro deste ano pode ter uma probabilidade maior de ser alto do que ser baixo. Isto um
exemplo de auto-correlao positiva. Quando um ano bom for sempre seguido por uma ano ruim, isto um
exemplo de auto-correlao negativa.
B. Auto-correlao um problema porque os estimadores no tem a menor varincia possvel e portanto oerro
padro dos coeficientes no seriam corretos.
17. Multicolinearidade um problema de alta correlao entre ou dentre duas ou mais variveis independentes.
A. Multicolinearidade uma problema porque
i. A presena da multicolinearidade pode causar distores no erro padro e pode conduzir a problemas
com teste significncia dos coeficientes individuais, e
ii. Estimativas so sensveis s variaes nas observaes da amostra ou da especificao do modelo.
B. Se existir multicolinearidade, estamos mais aptos a concluir que uma varivel no importante.
C. Multicolinearidade est provavelmente presente em certo grau na maioria dos modelos econmicos.
Multicolinearidade perfeita nos proibir de estimar os parmetros de regresso. O caso ento
realmente a um dos graus.
18. O significado econmico dos resultados de uma estimao de regresso focaliza principalmente nos
coeficientes de inclinao.
A. Os coeficientes de inclinao indicam a variao da varivel dependente para uma variao de uma unidade
na varivel independente. Esta inclinao pode ser ento interpretada como uma medida da elasticidade;
isto , a variao em uma varivel corresponde a uma variao em outra varivel.
B. possvel ter significncia estatstica, apesar de que no tenha significncia econmica (p.ex., retornos
anormais significantes associados com um anncio, mas estes retornos no so suficientes para cobrirem
custos de transaes).
Para use
Testar o papel de uma nica varivel na explicao da a estatstica-t.
variao da varivel dependente
Testar o papel de todas as variveis na explicao da variao a estatstica-F.
da varivel dependente
Estimar a variao na varivel dependente para uma variao o coeficiente de inclinao.
de uma unidade na varivel independente
Estimar a varivel dependente se todas as variveis o intercepto.
independentes tomarem um valor zero
Prever o valor da varivel dependente dados os valores A equao de regresso, substituindo os valores
estimados da varivel independente(s) estimados da varivel independente(s) na equao.
Regresso terminologia
Analysis of varincia Perfect negative correlao
ANOVA Perfect positive correlao
Autocorrelao Positive correlao
Coefficient of determination Predicted valor
Confidence interval R2
Correlation coeficiente Regresso
Covariance Residual
Covariation Scatterplot
Cross-sectional se
Degrees of freedom SEE
Dependent varivel Simple regresso
Explained varivel Slope
Explanatory varivel Slope coeficiente
Forecast Spurious correlao
Estatstica-F SSResidual
Heteroskedasticity SSRegression
Homoskedasticity SSTotal
Invarivel dependente Standard error da estimate
Intercept Sum of squares error
Least squares regresso Sum of squares regresso
Mean square error Sum of squares total
Mean square regresso Time-series
Multicollinearity t-statistic
Regresso mltipla Varincia
Negative correlao Variao
Ordinary least squares
Frmulas de Regresso
e
.fg '?'
@ e
(. ?(
.fg '. ?' d
Variao =
x x
Varincia = Covarincia =
? ?
)e d876. c6
.fg74. c4 d 85
Correlao r =
< >?
ecg
;=
e : e : ?< @
:@ :@
.fg74. c4d8 .fg76. c6d8
ecg ecg
Regresso
yi = b0 + b1 xi + i y = b0 + b1x1 + b2x2 + b3x3 + b4x4 + i
e d 874. c4
.fg76. c6 d8
! a,b
b = !"# '
= e
ecg
@ boO = y b x
.fg74. c4 d8
ecg
o o
7y bO b x 8 y y
{
e
{
SEE = = =
N2 N2 N2
S%
S|y =
1 d
x x
|y 1 |1
; =
|y
1
SS%#% y
d
{ y
Regresso quadrtica mdia MSR
F= = = k k
Erro mdio quadrtico MSE SS y y{d
%"_
N k 1 N k 1
Previso
|o ; og < | <|o + ; og
y = b 0 + b 1x 1 + b 2 x 2
Anlise de Varincia
y y
= SS^ &"_
SS%#% = y{ y
SS%#% y
d
{ y
Regresso quadrtica mdia MSR
F= = = k k
Erro mdio quadrtico MSE SS y y{d
%"_
N k 1 N k 1
Regresso