Você está na página 1de 36

ANÁLISE DE REGRESSÃO:

• Regressão linear simples x regressão linear múltipla

•Objetivo: estimar a relação existente entre as variáveis;

Regressão Linear Simples:


Y = f (X, )

Yi = β0 +  1Xi + i
onde:
Y = variável dependente;
X= variável explicativa;
β0 = intercepto ou constante da regressão;
β1 = coeficiente angular ou inclinação;
 = erro aleatório
Significado do erro aleatório:

Imprecisão da teoria
Indisponibilidade de dados
Casualidade intrínseca no comportamento econõmico
Variáveis proxys fracas
Forma funcional errada
PRESSUPOSIÇÕES CLÁSSICAS DO MODELO DE REGRESSÃO:

1) Modelo de regressão linear:


Yi =  + Xi + i

2) O erro aleatório tem média zero:


Significa que o erro aleatório tem uma distribuição de probabilidade centralizada em
zero (com média zero).
E (i) = 0 , i = 1, 2, ..., n

3) O erro aleatório tem variância constante (homocedasticidade):


VAR(i) = E [i – E (i)]2
VAR(i) = E (i2) = 2 para todo i

4) Os erros aleatórios são independentes:“ausência de autocorrelação”


COV(i , j) = E { [i – E(i)] [j – E(j)] }
E (i .j) = 0, i  j
5) As variáveis explicativas não são aleatórias – são fixas – não
estocásticas;

6) Não deve existir relação linear exata entre as variáveis explicativas


do modelo: ausência de multicolinearidade perfeita (Regressão
Múltipla);

7) O erro aleatório tem distribuição normal, com média zero e variância


constante, ou seja, i ~ N (0, 2)
Pontos adicionais implícitos nas hipóteses anteriores:

1) O modelo está corretamente especificado em termos das variáveis que o


compõem e da forma funcional;

2) É possível relaxar a hipótese de não aleatoriedade de X (hipóteses 5), desde que


esta seja distribuída independentemente do termo de erro aleatório. Assim, o
importante é que não haja correlação entre a matriz X e o termo de erro
aleatório;

Cov (i, Xi) = 0 ou E(i Xi)=0


Cov (i, Xi) = E{[i – E(i)] [Xi – E(Xi)]}
Se X é não estocástico e E(i)=0 esta pressuposição é atendida

3) O número de observações n deve ser maior que o número de parâmetros a serem


estimados;

4) Variabilidade dos valores de X. Var(X) deve ser um número positivo finito;


Para estudar a relação entre o faturamento obtido pela Cia. X em milhões
de reais e o seu respectivo investimento em Marketing em milhares de
reais, o gerente buscou na contabilidade da empresa os dados que
precisava e obteve:
Investimento em
Faturamento
Marketing
Ano (R$ milhões)
(R$ 1.000,00)
1994 5 80
1995 2 58
1996 6 95
1997 7 83
1998 7 108
1999 10 103
2000 9 105
2001 12 121
2002 12 135
2003 10 129
2004 10 133

diagrama de dispersão
• Estimação do modelo:

-Método de Mínimos Quadrados Ordinários: consiste em ajustar uma reta que


minimize a soma do quadrado dos resíduos.

[Y − (ˆ + ˆX i )] 2


n
Minimizar: ou
 (Yi − Yˆi ) 2
i =1
i

O estimador do coeficiente angular será dado por:

 X Y
X Y −
i i
i i
ˆ = n
( X i ) 2
X i
2

n
O estimador do intercepto ou constante será:

α̂ = Y - β̂.X
Para o exemplo do faturamento em função do investimento em MKT, temos:

x y x2 xy y2
n
1 5 80 25 400 6400
2 2 58 4 116 3364
3 6 95 36 570 9025
4 7 83 49 581 6889
5 7 108 49 756 11664
6 10 103 100 1030 10609
7 9 105 81 945 11025
8 12 121 144 1452 14641
9 12 135 144 1620 18225
10 10 129 100 1290 16641
11 10 133 100 1330 17689
TOTAL 90 1150 832 10090 126172

10090 - ( 90 . 1150)/11
β̂ = β̂ = 7,12
832 - ( 90 2 ) / 11

α̂ = (1150/11) - 7,12.(90/1 1) α̂ = 46,29


Yˆi = 46,29 + 7,12 X i

Interpretação do modelo:

Neste exemplo, podemos dizer que, examinando o coeficiente linear, estimamos o


faturamento dessa Cia X em R$ 46,29 milhões, caso nenhum investimento em
MKT seja realizado.

Também podemos estimar que se esta Cia variar em 1 unidade (R$ 1.000,00) os
investimentos em MKT, o faturamento irá variar em R$ 7,12 milhões.
-AVALIAÇÃO DO MODELO
a) Coeficiente de Determinação (R2):

Yi − Y é a diferença entre os pontos


observados e a média
(variação total dos y’s).
Yˆi − Y é o desvio da regressão.
Variação de y atribuída a x.
Chamamos de variação
explicada.
Re s = Yi − Yˆi é a variação residual.
Parte não explicada
pelo modelo.

Uma vez que queremos uma medida sintética para todas as observações, aplicamos
somatório e elevamos ao quadrado, obtendo-se após simplificação:

 (Y − Y)
i
2
=  (Ŷi − Y) 2 +  (Yi − Ŷi ) 2 SQT=SQReg + SQRes
SQReg SQ Re s
R =
2
= 1−
SQT SQT

β̂.( XY −
 X Y
)
i i
i i
R =
2 n
Y i
2
− nY 2
Observações sobre R2:
• 0  R2  1. O R2 é sempre positivo e varia de 0 a 1.
• Quanto mais próximo de 1, melhor o ajustamento do modelo;
• Quanto mais próximo de zero, pior o ajustamento do modelo;
• Se R2 = 1, todos os pontos estão sobre a reta ajustada e o modelo se ajusta
perfeitamente aos dados;
• Se R2 = 0, a reta ajustada é horizontal e as variáveis não apresentam nenhuma
associação linear;
• O R2 é interpretado como o percentual de variação em Y que é explicado pelo
modelo de regressão, ou seja, pelas variáveis explicativas do modelo;
• Na regressão simples: R2 = (rx,y)2, ou seja, o R2 é igual ao coeficiente de correlação
simples entre x e y elevado ao quadrado;
Para o exemplo, temos:
R2 = 0,8150 ou 81,50%

Interpretação:
81,50% das variações do faturamento da Cia X são explicadas pelas variações
nos investimentos em marketing.
b) Estimativa da variância do erro:

A variância do erro mede a dispersão dos valores amostrais em torno da reta


de regressão ajustada.
É definida por:
σ Yi∗2 − β෠ 1 σ Xi∗ Yi∗ 𝑆𝑄𝑅
σො 2 = =
n−2 𝑛−𝑝

Quanto menor σො 2 , melhor o ajustamento do modelo;


σ2 =1096,81/(11-2) = 121,87
c) Análise dos parâmetros estimados:
Os parâmetros estimados são variáveis aleatórias e, por isso, estão sujeitos a análise
de dispersão, testes de hipóteses e intervalos de confiança. É necessário associar ao
parâmetro estimado medidas de precisão e confiabilidade para saber se o modelo
pode ser usado para análise e previsão.

- Variabilidade dos parâmetros:

O valor de Var(β0) e Var(β1) medem a dispersão de β0, devido a variabilidade


amostral.
É uma medida de precisão da estimativa de β0 e de β1.
O erro-padrão dos parâmetros é calculado da seguinte forma:

S(β0) = 𝒗𝒂𝒓(β0)

S(β1) = 𝒗𝒂𝒓(β1)

Da mesma forma, os valores de S(β0) e de S(β1) medem a dispersão de β0 e 1,


sendo uma medida de precisão da estimativa. Quanto menor o desvio-padrão
do coeficiente, mais confiável é a estimativa.
- Teste de significância dos coeficientes

De posse dos coeficientes estimados e de seus desvios-padrão, pode-se realizar teste de


hipótese para verificar se os coeficientes são estatisticamente iguais a zero. Este teste é
conhecido como teste de significância do coeficiente.
No modelo de regressão, se o coeficiente  é estatisticamente igual a zero, significa que as
variáveis X e Y não são correlacionadas, ou seja, que X não tem efeito sobre Y.

H0 : K = 0

A :  Kutiliza
EsteHteste  0 a distribuição t e consiste em calcular:

β̂ - 
t=
S(β̂)

e comparar com o valor t da tabela com n-2 graus de liberdade.


Se o t calculado for maior que o t da tabela, rejeita-se a hipótese nula de que o
parâmetro é estatisticamente igual a zero. Confirma-se, estatisticamente, que a variável X tem
efeito significativo sobre Y.
- Intervalos de confiança para os parâmetros

Apenas a estimativa pontual dos parâmetros não dá a idéia da


confiabilidade dos parâmetros. As estimativas de intervalos incorporam tanto a
estimativa pontual como o desvio-padrão da estimativa, que é uma medida da
variabilidade do estimador de MQO.
Considerando-se as características da distribuição “t” de Student, tem-se
que

P(-tc  t  tc) = 1- N.S

Substituindo β̂ -  , tem-se
t=
S(β̂)

P[ ˆ − t c .S ( ˆ )    ˆ + t c .S ( ˆ )] = 1 − NS
Propriedades dos estimadores de mínimos quadrados
O teorema de Gauss- Markov:
Dadas as hipóteses do modelo clássico de regressão linear, os estimadores de MQO são, na
classe dos estimadores lineares não tendenciosos os que possuem variância mínima (BLUE
ou MELNV).
 Modelo Matricial: Modelo Geral

=> Estimador de Mínimos Quadrados


MULTICOLINEARIDADE /COLINEARIDADE:

Refere-se à violação da hipótese de ausência de relação linear exata entre as variáveis


explicativas.
A Multicolinearidade costuma ser tratada através da análise de três casos:

- Ausência de multicolinearidade (rX1;X2 = 0)

- Multicolinearidade perfeita
Neste caso, os coeficientes de regressão das variáveis X são indeterminados e seus erros-
padrão são infinitos.

- Multicolinearidade imperfeita
Neste caso, os coeficientes de regressão, embora determinados, possuem erros-padrão
grandes, o que significa que os coeficientes não podem ser estimados com grande
precisão ou exatidão.
Conseqüências:

Teóricas:
A multicolinearidade não afeta em nada as propriedades dos estimadores de MQO, que
continuam sendo os melhores estimadores lineares não tendenciosos (MELNV).

Práticas:
- aumenta a variância dos estimadores;
- aumenta os erros-padrão dos estimadores;
- intervalos de confiança maiores;
- razões t “insignificantes”;
- estimativas muito sensíveis;

OBS: O efeito da multicolinearidade é muito parecido ao da micronumerosidade e ao da


presença de variáveis independentes com pequena dispersão.

Nem sempre a multicolinearidade é problemática. Se o modelo for utilizado para previsões, a


multicolinearidade não necessariamente gera problema.
PROVÃO - 2000
HETEROCEDASTICIDADE

HIPÓTESE DO MCRL: a variância de cada termo de perturbação i, condicional aos valores
escolhidos das variáveis explicativas, é algum número constante igual a 2
(HOMOCEDASTICIDADE).

E(i2) = 2 i = 1, 2, ..., n
Violação: HETEROCEDASTICIDADE
E(i2) = i2

OBS: problema típico de dados de seção cruzada (cross-section)


CONSEQÜÊNCIA:

- A conseqüência da heterocedasticidade é que o método de MQO não gera estimadores


eficientes ou de variância mínima, o que implica em erros-padrão viesados e incorreção dos
testes de hipótese e dos I.C.;

- Os estimadores de MQO continuam lineares e não tendenciosos;

Como detectar?
- análise gráfica dos resíduos
- testes formais: Goldfeld-Quandt
Park
Glejser
White
Como corrigir?

Método dos Mínimos Quadrados Ponderados

Quando i2 for conhecido: Yi/i = 0 (1/i) + 1(Xi/i) + i/i

Quando i2 não for conhecido :


Se, por exemplo, deseja-se estimar:
Yi = 0 + 1Xi+ i

Hipótese 1: E(i)2 = 2Xi2


Realiza-se a seguinte transformação no modelo original:
Yi/Xi = 0(1/Xi) + 1+ i/Xi

É fácil verificar agora que:


E(i/Xi)2 = E(i)2/Xi2 = 2

Hipótese 2: E(i2) = 2Xi


Realiza-se a seguinte transformação no modelo original:
Yi/(Xi)1/2 = 0(1/Xi1/2) +  1Xi/ Xi1/2 + i/Xi1/2

É fácil verificar agora que:


E(i/Xi1/2)2 = E(i2)/Xi = 2
AUTOCORRELAÇÃO

HIPÓTESE DO MCRL: COV(i, j) = 0


E(i j) = 0

Violação: AUTOCORRELAÇÃO

Significa dependência temporal dos resíduos obtidos após um ajustamento, ou seja, COV( i,
j)  0.

OBS: problema típico de dados de séries temporais

CONSEQÜÊNCIA:
A conseqüência da heterocedasticidade é que o método de MQO não gera estimadores
eficientes ou de variância mínima, o que implica em erros-padrão viesados e incorreção dos
testes de hipótese e dos I.C.
Causas da autocorrelação:

- viés de especificação: omissão de variável explicativa;


- viés de especificação: forma funcional incorreta;
- inércia das séries temporais;

Na análise do problema da autocorrelação é necessário que se incorpore no modelo a forma


de geração dos erros:

autocorrelação de 1a ordem - AR(1):


t = t-1 + vt -1<  < 1
onde: E(vt) = 0 ; E(vt2) = 2 ; E(vt .vs) = 0 (t  s)

autocorrelação de 2a ordem – AR(2):


t = 1t-1 + 2t-2 + vt

autocorrelação de ordem k – AR(k):


t = 1t-1 + 2t-2 + ... + kt-k + vt
* Autocorrelação de 1a ordem:

- TESTE DE DURBIN WATSON (DW):

H0:  = 0
H1:   0
n

u t u t -1
DW = 1 - 2 t =2
n
+1
u
t =1
t

u t u t -1
DW = 2 − 2 t =2
n

ut =1
t

DW = 2 - 2 
ˆ

DW = 2(1 − 
ˆ)

Se  = 0 → DW = 2
Se  = + 1 → DW = 0
Se  = - 1 → DW = 4
DEFICIÊNCIAS DO TESTE DE DW:
- testa apenas autocorrelação de 1a ordem;
- regiões inconclusivas;
- para ser válido a regressão deve incluir intercepto;
- não é valido quando o modelo tem variável dependente defasada como variável explicativa;

• Teste LM (Breuch Godfrey)


Como corrigir?

(Método de Cochane-Orcutt): MQG

Yt = 0 + 1X1t + ... + kXkt + t (1)

t = t-1 + vt (2)

Substituindo (2) em (1), tem-se:

Yt = 0 + 1X1t + ... + kXkt + (t-1 + vt) (3)

t-1 = Yt-1 – ( 0 + 1X1t-1 + ... + kXkt-1) (4)

Substituindo (4) em (3), tem-se:

Yt = 0 + 1X1t + ... + kXkt + [(Yt-1 - 0 - 1X1t-1 - ... - kXkt-1) + vt]

Yt - Yt-1 = 0 - 0 + 1(X1t - X1t-1) + ... + k(Xkt - Xkt-1) + vt (5)

Você também pode gostar