Escolar Documentos
Profissional Documentos
Cultura Documentos
FEDERAL DE VIÇOSA
Centro de Ciências
Exatas
Departamento de Estatística
O Autor
i
CONTEÚDO Página
CAPÍTULO 1 – Introdução aos Modelos de Regressão Linear 2
1.1. Introdução 2
1.2. Estimadores dos Parâmetros pelo Método dos Mínimos Quadrados 3
1.3. Variâncias e Covariâncias dos Estimadores dos Parâmetros 5
1.4. Análise de Variância da Regressão 6
1.5. Coeficiente de Determinação Múltipla (R2) 8
1.6. Alguns Resultados Importantes 8
1.7. Intervalo de Confiança para um Parâmetro β j 9
Apêndices 136
Tabelas 151
ii
Regressão Linear e Não-Linear Regazzi, A. J.
CAPÍTULO 1
1.1. Introdução
Neste modelo, as observações xji são consideradas fixas, as constantes β j são parâmetros
y1 = β0 + β1x11 + β 2 x 21 + L + βp x p1 + ε1
y 2 = β 0 + β1x 12 + β 2 x 22 + L + β p x p2 + ε 2
K K K K K K K
y n = β 0 + β1x1n + β 2 x 2n + L + βp x pn + ε n
⎡ y1 ⎤ ⎡ 1 x11 x 21 L x p1 ⎤ ⎡β 0 ⎤ ⎡ ε1 ⎤
⎢y ⎥ ⎢1 x X 22 L x p2 ⎥⎥ ⎢β ⎥ ⎢ε ⎥
X=⎢ β = ⎢ ⎥,
12 1
Y = ⎢ 2 ⎥, , ε = ⎢ 2⎥
⎢L⎥ ⎢L L L L L⎥ ⎢L ⎥ ⎢L⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣yn ⎦ ⎢⎣ 1 x1n x 2n L x pn ⎥⎦ ⎢⎣βp ⎥⎦ ⎣ε n ⎦
⎡βˆ 0 ⎤
⎢ˆ ⎥
β
βˆ = ⎢ 1 ⎥
⎢L⎥
⎢ ⎥
⎢⎣βˆ p ⎥⎦
Vimos que: Y = Xβ + ε
ε = Y − Xβ
3
Regressão Linear e Não-Linear Regazzi, A. J.
Fazendo dZ ≡ 0 , e como dβ' é arbitrário, X' Xβˆ − X' Y = φ
Se X' X é não singular, existe a matriz ( X' X) −1. Pré-multiplicando ambos os membros
βˆ = ( X' X) −1 X' Y
Alguns resultados:
(i) Y = Xβ + ε ⇒ ε = Y − Xβ
Y ∈ Vn
Y Ŷ ∈ C( X)
ε̂
εˆ ∈ C ⊥ ( X)
y
Ŷ
C(X)
4
Regressão Linear e Não-Linear Regazzi, A. J.
⎡ ê1 ⎤ ⎡ ŷ1 ⎤
⎢ ⎥ ⎢ ⎥
ê ŷ
onde, εˆ = ⎢ 2 ⎥ , Ŷ = ⎢ 2 ⎥ , ê i = y i − ŷ i
⎢L⎥ ⎢L⎥
⎢ ⎥ ⎢ ⎥
⎣ê n ⎦ ⎣ ŷ n ⎦
X' ( Y − Xβˆ ) = φ
X' ε̂ = φ
Esta relação matricial significa que, se a matriz X tiver uma coluna de 1’s, então
n n n
∑ êi = 0 e ∑ y i = ∑ ŷ i .
i =1 i =1 i =1
Cov(βˆ ) = E[(βˆ − β)(βˆ − β)' ] = ( X' X) −1σ 2 é por definição, a matriz de variâncias e
covariâncias dos estimadores dos parâmetros.
Denotaremos por Côv(βˆ ) o estimador da matriz de variâncias e covariâncias do
estimador dos parâmetros, onde
5
Regressão Linear e Não-Linear Regazzi, A. J.
Para uma combinação linear dos estimadores dos parâmetros dada por c' β̂ sendo c '
um vetor linha com p + 1 constantes, isto é, c ' = [c 0 c 1 c 2 L c p ] , tem-se que a variância
é dada por:
V(c ' βˆ ) = c' ( X' X) −1c σ 2 . Então, V̂(c' βˆ ) = c' ( X' X) −1c s 2 .
Modelo Estatístico:
y i = β 0 + β1x1i + β 2 x 2i + L + βp x pi + ε i , i = 1, 2, L, n
Posto(X) = p + 1
[ ]
► SQParâmetr os = Y' X( X' X) −1 X' Y = βˆ ' X' Y , com Posto(X) = p + 1 graus de liberdade.
[ ]
► SQ Re síduo = SSE(βˆ ) = Y' I(n) − X( X' X) −1 X' Y = Y' Y − βˆ ' X' Y ,
6
Regressão Linear e Não-Linear Regazzi, A. J.
QM Re gr
Regressão p βˆ ' X' Y − C QMRe gr
QM Re s
Totalc n −1 Y' Y − C
7
Regressão Linear e Não-Linear Regazzi, A. J.
QMRe gr
F= ,
QMRe s
tem distribuição F (central) com p e n − p − 1 graus de liberdade. Então, o valor F assim
obtido é utilizado para testar a hipótese
R 2 = R2 −
p
(
(n − p − 1)
1− R2 )
1.6. Alguns Resultados Importantes
Considerando o modelo linear Y = Xβ + ε , em que X tenha posto coluna completo
p + 1 e ε ~ N(φ, Iσ 2 ) , então:
a) Y é normal
8
Regressão Linear e Não-Linear Regazzi, A. J.
b) β̂ é normal
[
βˆ = ( X' X) −1 X' Y ~ N (β, ( X' X) −1σ 2 ) ]
c) εˆ é normal
Assim (n − p − 1)σˆ 2 / σ 2 ~ χ n2 − p −1
e) β̂ e σ̂ 2 são independentes
⎛ ⎞
Escolhendo o nível de confiança (1 − α ) , e sendo t 0 ⎜⎜ t 0 = t α ⎟⎟ o quantil de ordem
⎜ ⎟
⎝ 2 ⎠
α
(1 − ) ⋅ 100% da distribuição t de Student com n – p -1 graus de liberdade, o intervalo de
2
confiança para β j é dado por:
As estimativas dos erros-padrões das estimativas dos parâmetros são dadas pelas
raízes quadradas dos elementos da diagonal principal da matriz Côv(βˆ ) = ( X' X) −1s 2 . Para
testar a hipótese
H: βj = k vs. A : βj ≠ k (ou A : βj > k ou A : β j < k ) , sendo k uma constante,
9
Regressão Linear e Não-Linear Regazzi, A. J.
βˆ j − k
tc =
s(βˆ j )
residual s2= σ̂ 2 . Rejeita-se H quando o valor tc não pertencer à região de aceite, uni ou
bicaudal, no nível α definido pela distribuição t(n−p −1) .
c' βˆ − k
tc = ~ t (n − p −1)
s(c' βˆ )
em que,
Consideremos que a hipótese de nulidade a respeito dos valores dos parâmetros seja
constituída por m relações lineares independentes, isto é,
10
Regressão Linear e Não-Linear Regazzi, A. J.
Q / mσ 2 Q/m Q
Fc = = = , tem distribuição F(m; n−p −1) central sob H.
SSE /[n − p − 1)σ 2 ] SSE /(n − p − 1) mσˆ 2
Rejeita-se H, ao nível α , quando Fc excede Fα(m; n−p −1) , onde Fα(m; n−p −1) é o quantil
Fato: Para m = 1, t2 = F.
3º Passo:
Calcular a estatística Fc:
~
SSE(β ) − SSE(βˆ )
Fc = ~ F(m; n − p − 1).
mσˆ 2
No caso do modelo linear as duas abordagens são equivalentes teórica e
numericamente, pois:
~
SSE(β ) − SSE(βˆ ) = Q .
m = Posto (C’) = número de graus de liberdade do resíduo do modelo reduzido menos
o número de graus de liberdade do resíduo do modelo completo.
11
Regressão Linear e Não-Linear Regazzi, A. J.
1.10. Modelo sem o Intercepto
intercepto:
y i = β1x1i + β 2 x 2i + L + βp x pi + ε i , i = 1, 2, L, n
V1
Regressão p β̂' X' Y β̂' X' Y / p = V1
V2
R 2 = R2 −
p
(n − p)
(
1− R2 )
12
Regressão Linear e Não-Linear Regazzi, A. J.
1.11. Um Problema Exemplo – Uso do Programa SAS (PROC REG)
variáveis y, x1 e x2.
y x1 x2
0,5 -1 -1
0,6 -1 -1
1,0 -1 1
1,5 -1 1
2,0 1 -1
2,5 1 -1
3,0 1 1
3,5 1 1
⎡β ⎤ ⎡2⎤ ⎡β ⎤ ⎡2⎤
H: ⎢ 2⎥ = ⎢ ⎥ vs. A : ⎢ 2 ⎥ ≠ ⎢ ⎥ , através de
⎣β 3 ⎦ ⎣1⎦ ⎣β 3 ⎦ ⎣ 1⎦
(a) Expressão (1.a);
(b) Expressão (1.b);
6. Calcule o intervalo de confiança para β1 ao nível de confiança de 95%.
13
Regressão Linear e Não-Linear Regazzi, A. J.
O programa SAS com as análises de variância da regressão para o modelo completo
e modelos reparametrizados encontram-se a seguir.
14
Regressão Linear e Não-Linear Regazzi, A. J.
15
Regressão Linear e Não-Linear Regazzi, A. J.
DM 'output; clear; log; clear;';
options FORMDLIM='_' nodate nonumber;
/* UM EXEMPLO DE REGRESSAO LINEAR */
data adair;
input x1 x2 y;
z1=2*x1+x2; z2=x1*x2; w=y-2*x2-z2;
cards;
-1 -1 0.5
-1 -1 0.6
-1 1 1.0
-1 1 1.5
1 -1 2.0
1 -1 2.5
1 1 3.0
1 1 3.5
;
proc reg;
model y=x1 x2 z2 / r p i clb clm cli influence;
title ' modelo completo ';
output out=saida p=yhat r=resid student=respad h=leverage rstudent=restud;
proc print data=saida;
run;
proc plot data=saida;
plot resid*yhat / vpos=25 vref=0;
plot respad*yhat / vpos=25 vref=0;
run;
proc reg;
model y=z1 z2;
title ' modelo reduzido 1 ';
run;
proc reg;
model w=x1;
title ' modelo reduzido 2 ';
run;
quit;
16
Regressão Linear e Não-Linear Regazzi, A. J.
modelo completo
Variable Intercept x1 x2 z2 y
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t| 95% Confidence Limits
COMENTÁRIOS:
R2=95,64%
Chama-se nível descritivo (ou nível probabilístico ou ainda valor-P) ao menor nível de
significância α , para o qual o resultado observado seria declarado significativo, isto é, para o
qual rejeitaríamos a hipótese que está sendo considerada.
O nível descritivo associado ao resultado de um teste é usualmente muito mais
informativo do que uma simples afirmação sobre se uma dada hipótese deve ou não ser rejeitada
a um determinado nível de significância.
17
Regressão Linear e Não-Linear Regazzi, A. J.
modelo completo
Output Statistics
Output Statistics
Output Statistics
-------------------DFBETAS-------------------
Obs Intercept x1 x2 z2
Sum of Residuals 0
Sum of Squared Residuals 0.38000
Predicted Residual SS (PRESS) 1.52000
18
Regressão Linear e Não-Linear Regazzi, A. J.
modelo completo
19
Regressão Linear e Não-Linear Regazzi, A. J.
modelo completo
‚
‚
‚
0.25 ˆ A A A
‚
‚
‚
0.15 ˆ
R ‚
e ‚
s ‚
i 0.05 ˆ A
d ‚
u ‚ƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ
a ‚
l -0.05 ˆ A
‚
‚
‚
-0.15 ˆ
‚
‚
‚
-0.25 ˆ A A A
‚
Šƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒ
0.5 1.0 1.5 2.0 2.5 3.0 3.5
Predicted Value of y
20
Regressão Linear e Não-Linear Regazzi, A. J.
modelo completo
‚
‚
S ‚
t 1.147 ˆ A A A
u ‚
d ‚
e ‚
n 0.688 ˆ
t ‚
i ‚
z ‚
e 0.229 ˆ A
d ‚
‚ƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ
R ‚
e -0.229 ˆ A
s ‚
i ‚
d ‚
u -0.688 ˆ
a ‚
l ‚
‚
-1.147 ˆ A A A
‚
Šˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒ
0.5 1.0 1.5 2.0 2.5 3.0 3.5
Predicted Value of y
21
Regressão Linear e Não-Linear Regazzi, A. J.
modelo reduzido 1
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
COMENTÁRIOS:
Teste: H : β1 − 2β 2 = 0 vs. A : β1 − 2β 2 ≠ 0
~
SSE(β ) − SSE(βˆ )
Fc = ~ F(m ; n − Posto( X))
mσˆ 2
(0,3890 − 0,3800 )
FCalc = = 0,0947 n.s.
1 (0,0950 )
y i = β 0 + 2β 2 x1i + β 2 x 2i + β 3 x1i x 2i + e i
F5% (1; 4) = 7,71
y i = β 0 + β 2 (2x1i + x 2i ) + β 3 x1i x 2i + e i
(n.s. P > 0,05)
ou melhor, Não se rejeita H para α = 5%.
y i = α 0 + α1z1i + α 2 z 2i + ui
OBS: Para m=1, tem-se que F=t2.
com z1i = 2x1i + x 2i e z 2i = x1i x 2i
22
Regressão Linear e Não-Linear Regazzi, A. J.
modelo reduzido 2
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
COMENTÁRIOS:
Teste:
H : β2 = 2 e β 3 = 1 vs. A : Não H
⎡β ⎤ ⎡2⎤ ⎡β ⎤ ⎡2⎤
Isto é, H : ⎢ 2 ⎥ = ⎢ ⎥ vs. A : ⎢ 2 ⎥ ≠ ⎢ ⎥
⎣β 3 ⎦ ⎣ 1⎦ ⎣β 3 ⎦ ⎣ 1⎦
~
SSE(β ) − SSE(βˆ )
Fc = ~ F(m ; n − Posto( X))
mσˆ 2
w i = γ 0 + γ1x1i + ui
com w i = y i − 2x 2i − x1i x 2i = y i − 2x 2i − z 2i
23
Regressão Linear e Não-Linear Regazzi, A. J.
proc reg;
model y=x1 x2 x3 /i clb;
test1: test x1-2*x2=0 / print; /* testa beta1 - 2 beta2 = 0 */
test2: test x2=2, x3=1 / print; /* testa beta2=2 e beta3=1 */
test3: test x1=0, x2=0, x3=0 / print; /* testa beta1=beta2=beta3=0 */
test4: test intercept=0 /print; /* testa beta0 = 0 */
run;
quit;
24
Regressão Linear e Não-Linear Regazzi, A. J.
The SAS System
Variable Intercept x1 x2 x3 y
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t| 95% Confidence Limits
25
Regressão Linear e Não-Linear Regazzi, A. J.
0.625 0.075
1.6 0.12
Mean
Source DF Square F Value Pr > F
0.125 0 -1.575
0 0.125 -0.925
8 0 -12.6
0 8 -7.4
Mean
Source DF Square F Value Pr > F
26
Regressão Linear e Não-Linear Regazzi, A. J.
0.125 0 0 0.925
0 0.125 0 0.425
0 0 0.125 0.075
8 0 0 7.4
0 8 0 3.4
0 0 8 0.6
Mean
Source DF Square F Value Pr > F
0.125 1.825
8 14.6
Mean
Source DF Square F Value Pr > F
27
Regressão Linear e Não-Linear Regazzi, A. J.
28
Regressão Linear e Não-Linear Regazzi, A. J.
The SAS System
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
29
Regressão Linear e Não-Linear Regazzi, A. J.
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
30
Regressão Linear e Não-Linear Regazzi, A. J.
variáveis y, x 1 e x 2 .
y x1 x2
1,5 0 0
6,5 1 2
10,0 1 4
11,0 2 2
11,5 2 4
16,5 3 6
teste F utilizando as expressões (1.a) e (1.b); (Note que, neste caso: t2=F)
(1.b);
e (1.b);
31
Regressão Linear e Não-Linear Regazzi, A. J .
2.1. Introdução
conhecimento. Entretanto, regressão linear não é adequada para todos os problemas porque
meio de uma função não-linear conhecida. A seguir apresentaremos apenas uma introdução
aos modelos de regressão não-linear. Para o leitor interessado em maiores detalhes, são
referências úteis: RATKOWSKY (1983), GALLANT (1987), BATES & WATTS (1988),
CORDEIRO & PAULA (1989), MYERS (1990), DRAPER & SMITH (1998), SOUZA (1998),
dentre outros.
[ ]
regressoras ou variáveis exógenas, θ0 = θ10 , θ02 ,L, θp0 ' é um vetor de parâmetros p
vetor de parâmetros é tratado como uma variável, como por exemplo, na diferenciação. Em
32
Regressão Linear e Não-Linear Regazzi, A. J .
Exemplo:
⎡x 1 ⎤
⎢ ⎥
x = ⎢x 2 ⎥
⎢⎣ x 3 ⎥⎦
e o vetor de parâmetros é
⎡θ 1 ⎤
⎢ ⎥
θ2
θ =⎢ ⎥
⎢θ 3 ⎥
⎢ ⎥
⎢⎣θ 4 ⎥⎦
resposta com respeito aos parâmetros depende de pelo menos um dos parâmetros. Para
y i = β 0 + β1x1i + β 2 x 2 i + L + βp x p i + ε i
p
f (x i , β ) = β 0 + ∑ β j x ji . Agora
j =1
∂f (x i ,β)
= x ji , j=0,1,…,p
∂β j
onde x0i≡1. Note que no caso linear as derivadas não são funções dos β’s. Considere agora
o modelo não-linear:
y i = f (x i , θ ) + ε i
= e −θx i + ε i
33
Regressão Linear e Não-Linear Regazzi, A. J .
para o qual
df (x i , θ)
= − x ie − θx i
dθ
Uma vez que a derivada é uma função de θ, o modelo é não-linear. Nós usamos o símbolo θ
para os parâmetros no modelo não-linear para enfatizar a diferença entre o caso linear e o
não-linear.
y = f(θ 0 ) + ε
n
SSE(θ ) = ∑ [y i − f ( x i , θ)]
2
(2.b)
i =1
()
O estimador θ̂ de mínimos quadrados de θ 0 é obtido mediante a pesquisa do mínimo (em
σˆ 2 =
()
SSE θˆ
n−p
n = número de observações
p = número de parâmetros
34
Regressão Linear e Não-Linear Regazzi, A. J .
ˆ
~ 2 = SSE θ
σ
()
n
( )
~ 2 define o estimador de máxima verossimilhança
Neste caso, com erros normais, o par θˆ, σ
( )
de θ0 , σ 2 . No caso do modelo linear, isto faz com que os estimadores dos parâmetros
tenham propriedades ótimas, como por exemplo, variância mínima. No caso não-linear nós
não podemos fazer afirmações gerais sobre as propriedades dos estimadores, exceto para
grandes amostras (que são chamados resultados assintóticos). Por exemplo, propriedades
y i = θ 1e θ 2 x i + ε i (2.c)
onde a função resposta é uma função exponencial. Note que nós podemos linearizar a
y i = ln θ 1 + θ 2 x i + ε i
= β 0 + β1x i + ε i (2.d)
quadrados dos parâmetros em (2.d), em geral, não são equivalentes às estimativas dos
35
Regressão Linear e Não-Linear Regazzi, A. J .
que no modelo transformado (2.d) nós estamos minimizando a soma de quadrados residuais
em ln y.
Note que em (2.c) a estrutura de erros é aditiva, e por logaritmo não se obtém o
y i = θ 1e θ 2 x i ε i (2.e)
ln y i = ln θ 1 + θ 2 x i + ln ε i
y i* = β 0 + β 1 x i + ε i* (2.f)
Um modelo não-linear que pode ser transformado para uma forma linear equivalente
é dito intrinsecamente linear. Como exemplo temos o modelo (2.e). Contudo a questão gira
em torno da estrutura de erros; a saber, aplicar as suposições padrão nos erros para o
modelo original não-linear ou para o modelo linearizado? Em muitos casos, esta questão
Vamos considerar a seguir, algumas funções resposta com apenas uma variável
i) Função Potência
y = θ1x θ 2
por:
y ′ = log θ1 + θ 2 x ′
ou
36
Regressão Linear e Não-Linear Regazzi, A. J .
Gráficos:
0<θ2<1
x x
y = θ1e θ 2 x
por
y ′ = ln θ1 + θ 2 x
ou
y ′ = β 0 + β1x , onde β 0 = ln θ1
Gráficos:
θ2>0 θ2<0
y y
x x
37
Regressão Linear e Não-Linear Regazzi, A. J .
θ2
y = θ1e x
1
é, y ′ = ln y e x ′ = , a forma linear resultante é dada por
x
y ′ = ln θ1 + θ 2 x ′
ou
y ′ = β 0 + β1x ′ , onde β 0 = ln θ1
β1 = θ 2
Gráficos:
y y
eβo
θ2>0
θ2<0
eβo
x x
x
y=
θ1 + θ 2 x
38
Regressão Linear e Não-Linear Regazzi, A. J .
1
y′ = e
y
1
x′ = , e é dada por
x
y ′ = θ 2 + θ1x ′ ou y ′ = β 0 + β1x ′ .
Gráficos:
y y
1/θ2
θ1>0
θ1<0
1/θ2
x x
1
y=
θ1 + θ 2 x
39
Regressão Linear e Não-Linear Regazzi, A. J .
1
e considerando a transformação inversa em y, isto é, y ′ = , tem-se que a forma linear
y
y ′ = θ1 + θ 2 x ′
ou y ′ = β 0 + β1x , onde β 0 = θ1 e β1 = θ 2 .
y
Gráfico:
θ1>0
θ2>0
linear na obtenção das estimativas iniciais a serem utilizadas nos métodos iterativos.
Exemplo 2.1.
BATES & WATTS (1988), usaram o modelo Michaelis-Menten para cinética química
concentração de substrato (x), cujos dados estão apresentados na Tabela 2.A. O modelo é
θ 1x i
yi = +ε i
xi + θ 2
40
Regressão Linear e Não-Linear Regazzi, A. J .
i xi yi
1 0,02 76
2 0,02 47
3 0,06 97
4 0,06 107
5 0,11 123
6 0,11 139
7 0,22 159
8 0,22 152
9 0,56 191
10 0,56 201
11 1,10 207
12 1,10 200
250
200
Velocidade
150
100
50
0
0 0,5 1 1,5
Concentração
Nós notamos que a função resposta pode ser linearizada facilmente, uma vez que
1 x +θ2 1 θ2 1
= i = +
f(x i ,θ) θ 1x i θ 1 θ 1 xi
= β 0 + β 1u i .
41
Regressão Linear e Não-Linear Regazzi, A. J .
y i* = β 0 + β 1u i + ε i
1 1
onde y i* = e ui = . A equação de regressão ajustada pelo método dos mínimos
yi xi
ŷ i* = 0,005107 + 0,000247 ui
0,025 250
0,02 200
Velocidade
-1
0,015 150
Velocidade
100
0,01
50
0,005
0
0 0 0,5 1 1,5
0 10 20 30 40 50 60 Concentração
-1
Concentração
(a) (b)
Figura 2.B. – (a) Dispersão dos dados do inverso da velocidade versus o inverso da
concentração para os dados de puromycin. (b) Curva ajustada na escala
original.
A Figura 2.B (a) mostra a dispersão dos dados transformados yi* e ui com a linha reta
ajustada sobreposta. Como há repetições nos dados, é fácil verificar na Figura 2.A que a
variância dos dados originais é aproximadamente constante, enquanto que a Figura 2.B (a)
1 θ2
β0 = e β1 =
θ1 θ1
nós temos
42
Regressão Linear e Não-Linear Regazzi, A. J .
1 θ2
0,005107 = 0,000247 =
θ1 θ1
θˆ 1 = 195,81 e θˆ 2 = 0,0484 1
A Figura 2.B(b) mostra a curva ajustada juntamente com os dados na escala original.
A variância dos pontos repetidos foi distorcida pela transformação, assim fez a baixa
y i = f(x i ,θ 0 ) + ε i i = 1,..., n
θ 1x
f(x,θ) =
x +θ2
⎡θ 1 ⎤
θ =⎢ ⎥
⎣θ 2 ⎦
0,02 θ 10
f(x 1, θ 0 ) =
0,02 + θ 02
0,02 θ 10
f(x 2 , θ 0 ) = ,
0,02 + θ 02
43
Regressão Linear e Não-Linear Regazzi, A. J .
y = f(θ 0 ) + ε
em que
()
O estimador θ̂ de mínimos quadrados de θ 0 é obtido mediante a pesquisa do
SSE(θ ) = ∑ [y i − f ( x i ,θ )] ,
2
ou em notação de vetor
2
SSE(θ ) = y − f (θ )
= [y − f(θ )] [y − f(θ )]
'
derivadas de matrizes.
44
Regressão Linear e Não-Linear Regazzi, A. J .
⎡ f1 (θ ) ⎤
⎢ ⎥
⎢ f 2 (θ )⎥
f(θ )=
⎢ M ⎥
⎢ ⎥
f (θ )⎦ 1
n⎣ n
Fazendo h′(θ) ser uma função vetor 1xn, onde h ′(θ)=1 [h 1 (θ), h 2 (θ), L, h n (θ)]n , então,
∂SSE(θ)
=∅
∂θ′
Sendo,
∂SSE(θ ) ∂
= [y − f (θ)]′ [y − f (θ)]
∂θ′ ∂θ′
45
Regressão Linear e Não-Linear Regazzi, A. J .
∂
= [y − f (θ )]′ [y − f (θ)] + [y − f (θ)]′ ∂ [y − f (θ)]
∂θ′ ∂θ′
⎛ ∂f (θ) ⎞
= 2[y − f (θ)]′ ⎜ − ⎟
⎝ ∂θ′ ⎠
[ ( )] ( )
− 2 y − f θˆ ′F θˆ = φ
( )[ ( )]
− 2F′ θˆ y − f θˆ = φ
( )[ ( )]
F′ θˆ y − f θˆ = φ
Estas equações são não-lineares nos estimadores dos parâmetros e em geral não
iterativos.
Vamos ilustrar por meio do nosso exemplo as etapas realizadas até aqui:
produz
46
Regressão Linear e Não-Linear Regazzi, A. J .
⎡ y1 ⎤ ⎡ 76 ⎤
⎢y ⎥ ⎢
47 ⎥⎥
y = ⎢ 2⎥ = ⎢
⎢ M ⎥ ⎢ M ⎥
⎢ ⎥ ⎢ ⎥
⎣ y n ⎦ ⎣200 ⎦
⎡ 0,02 θ1 ⎤
⎢ 0,02 + θ ⎥
⎢ 2⎥
⎡ f (x1, θ)⎤ 0,02 θ1 ⎥
⎢f (x , θ)⎥ ⎢
⎢ 0,02 + θ 2 ⎥
f (θ) = ⎢ 2 ⎥ = ⎢ ⎥
⎢ M ⎥
⎢ ⎥ ⎢ M ⎥
f (
⎣ n ⎦x , θ ) ⎢ ⎥
⎢ 1,10 θ1 ⎥
⎢ ⎥
12 ⎣
1,10 + θ 2 ⎦1
Logo,
∂f (x, θ) ∂ ⎛ θ1 x ⎞ x
= ⎜⎜ ⎟⎟ =
∂θ1 ∂θ1 ⎝ x + θ 2 ⎠ x + θ 2
∂f (x, θ) ∂ ⎛ θ1 x ⎞ − θ1 x
= ⎜⎜ ⎟⎟ =
∂θ 2 ∂θ 2 ⎝ x + θ 2 ⎠ (x + θ )2
2
A matriz Jacobiana de f (θ ) é
⎡ 0,02 − 0,02θ1 ⎤
⎢ 0,02 + θ
⎢ 2 (0,02 + θ2 )2 ⎥⎥
⎢ 0,02 − 0,02θ1 ⎥
⎢ 0,02 + θ
F(θ)= ⎢
2 (0,02 + θ2 )2 ⎥⎥
⎢ ⎥
⎢ M M ⎥
⎢ ⎥
⎢ 1,10 − 1,10θ1 ⎥
⎢ 1,10 + θ
12 ⎣
2 (1,10 + θ2 )2 ⎥⎦ 2
( )[ ( )]
F ' θˆ y − f θˆ = φ
47
Regressão Linear e Não-Linear Regazzi, A. J .
⎛ ⎡ 0,02 θˆ 1 ⎤ ⎞
⎜ ⎢ ⎟
⎜ 0,02 + θˆ2 ⎥⎟
⎢ ⎥
⎡ 0,02 0,02 1,10 ⎤ ⎜ ⎡ 76 ⎤ ⎢ ⎟
⎢ 0,02 + θˆ L ⎥ ⎜ ⎢ ⎥ 0,02 θ1 ⎥ ⎟
ˆ
0,02 + θˆ 2 ˆ
1,10 + θ2 ⎢ ⎥
⎢ 2 ⎥ ⎜ ⎢ 47 ⎥ − ⎢ 0,02 + θˆ ⎥ ⎟ = ⎡0⎤
⎢ − 0,02 θ1 ˆ − 0,02 θˆ 1 ˆ
− 1,10 θ1 ⎥ ⎜ ⎢ M ⎥ 2 ⎢ ⎥
L ⎢ ⎥ ⎟ ⎣0⎦
⎢ 2 ⎥ ⎜⎢
(
⎢⎣ 0,02 + θˆ 2
2
) (0,02 + θˆ 2 )2 ( ) ⎥
1,10 + θˆ 2 ⎥⎦ ⎜ ⎣200 ⎦ ⎢
M
⎢ 1,10 θˆ ⎥ ⎟
⎥⎟
⎜ ⎢ 1 ⎥⎟
⎜ ˆ ⎟
⎝ ⎣⎢ 1,10 + θ2 ⎦⎥ ⎠
Resulta que o vetor residual εˆ = y − f (θˆ ) satisfaz F' (θˆ ) εˆ =∅ e é, portanto, ortogonal às
é, todas as expressões que se obtém no estudo inferência do modelo linear com erros
normais têm uma contrapartida no caso não-linear que se obtém por intermédio da
Taylor
( )
f (x i , θ) = f x i , θˆ 0 +
( )(
∂f x i , θˆ 0
θ − θˆ 0 ) (2.g)
∂θ′
( ) ( )(
f (θ) ≅ f θˆ 0 + F θˆ 0 θ − θˆ 0 )
∂f (θ )
( )
onde F θˆ 0 =
∂θ′ θ = θˆ
0
48
Regressão Linear e Não-Linear Regazzi, A. J .
Neste contexto, obtém-se uma analogia perfeita tomando-se o modelo linear aproximante
( ) ( ) ( )
y − f θˆ 0 + F θˆ 0 θˆ 0 = F θˆ 0 θ + u
2
= y − f( θ)
passa a ser o de minimizar a função SSE(θ) associada ao modelo anterior, dada por
( )(
SSE(θ) = y − f(θˆ 0 ) - F θˆ 0 θ − θˆ 0 )2
( )
Fazendo-se y − f θˆ 0 = E 0 e θ − θˆ 0 = ∆θˆ 0 , temos que
( )
SSE(θ) = E 0 − F θˆ 0 ∆θˆ 0
2
[ ( ) ][ ( ) ]
SSE(θ) = E 0 − F θˆ 0 ∆θˆ 0 ′ E 0 − F θˆ 0 ∆θˆ 0
( ) ( ) ( )( )
SSE(θ) = E′0E0 − E′0F θˆ 0 ∆θˆ 0 − ∆θˆ ′0F′ θˆ 0 E0 + ∆θˆ ′0F′ θˆ 0 F θˆ 0 ∆θˆ 0
( ) ( )( )
= E′0E0 − 2∆θˆ ′0F′ θˆ 0 E0 + ∆θˆ ′0F′ θˆ 0 F θˆ 0 ∆θˆ 0
Antes de calcular a derivada de SSE(θ) em relação ∆θ̂0 , vamos rever algumas regras
de derivação de matrizes.
∂a′x ∂x ′a
= =a
∂x ∂x
∂x ′A ∂Ax
=A e = A′
∂x ∂x
49
Regressão Linear e Não-Linear Regazzi, A. J .
∂x ′Ax ∂x ′Ax
= Ax + A ′x , e se A = A ′ teremos = 2Ax
∂x ∂x
∂SSE(θ)
ˆ
∂∆θ0
( ) ( )( )
= φ − 2 F′ θˆ 0 E0 + 2 F′ θˆ 0 F θˆ 0 ∆θˆ 0
[( )( ) ( ) ]
= 2 F′ θˆ 0 F θˆ 0 ∆θ0 − F′ θˆ 0 E0
∂SSE(θ)
Fazendo = φ , obtemos o Sistema de Equações Normais
∂∆θˆ 0
( )( ) ( )
F′ θˆ 0 F θˆ 0 ∆θˆ 0 = F′ θˆ 0 E0
( )
onde E 0 desempenha o papel de variável dependente y e F θˆ 0 o da matriz X dos modelos
lineares.
⎡ θˆ 10 ⎤
θˆ 0 = ⎢ ⎥
⎢⎣θˆ 20 ⎥⎦
⎡ 0,02 − 0,02 θˆ 10 ⎤
⎢ 2⎥
⎡ 0,02 0,02 1,10 ⎤
ˆ
⎢ 0,02 + θ 20 ( )
0,02 + θˆ 20 ⎥
⎢ 0,02 + θˆ L ⎥ ⎢ 0,02 − 0,02 θˆ 10 ⎥
20 0,02 + θˆ 20 1,10 + θˆ 20 ⎢ ⎥ ⎡θ1 − θˆ 10 ⎤
⎢ ⎥
⎢ − 0,02 θ10ˆ − 0,02 θˆ 10
L
− 1,10 θˆ 10
⎥ ⎢ 0,02 + θˆ 20
⎢
( ˆ
0,02 + θ 20 )2⎥
⎥
⎢ ⎥=
⎢⎣θ 2 − θˆ 20 ⎥⎦
⎢ ⎥
(
⎢⎣ 0,02 + θˆ 20) (0,02 + θˆ 20 )
2 2
( 2
1,10 + θˆ 20 ⎥⎦) ⎢
⎢ 1,10
M M
− 1,10 θˆ 10 ⎥
⎥
⎢ 0,02 + θˆ
⎣⎢ 20 ( )2 ⎥
1,10 + θˆ 20 ⎥⎦
⎛ ⎡ 0,02 θˆ 10 ⎤ ⎞
⎜ ⎢ ⎟
⎜ 0, 02 + ˆ 20 ⎥ ⎟
θ
⎡ 0,02 0,02 1,10 ⎤ ⎜ ⎡ 76 ⎤ ⎢ ⎥
⎢ 0,02 + θˆ L ⎥ ⎢ 0 ,02 θ ⎥⎟
0,02 + θˆ 20 1,10 + θˆ 20 ⎜ ⎢ ⎥ 10 ⎟
⎢ 20 ⎥ ⎜ ⎢ 47 ⎥ − ⎢ 0,02 + θˆ ⎥ ⎟
⎢ − 0,02 ˆ
θ − 0,02 θˆ 10 − 1,10 θˆ 10 ⎥ ⎜ ⎢ M ⎥ ⎢ 20 ⎥
⎢
10 L ⎥ ⎜⎢ ⎢ ⎥⎟
(
⎢⎣ 0,02 + θˆ 20) (
2
0,02 + θˆ 20)2
( 2
) ⎥
1,10 + θˆ 20 ⎥⎦ ⎜ ⎣200 ⎦ ⎢
M
⎢ 1,10 θˆ 10 ⎥ ⎟
⎥⎟
⎜ ⎢ ⎟
⎜ ⎢ 1,10 + ˆ 20 ⎥⎥ ⎟
θ
⎝ ⎣ ⎦⎠
50
Regressão Linear e Não-Linear Regazzi, A. J .
( )
Se F θˆ 0 apresentar posto coluna completo, o valor de ∆θ̂ 0 que minimiza SSE(θ) é:
[ ( ) ( )] ( )−1
∆θˆ 0 = F′ θˆ 0 F θˆ 0 F′ θˆ 0 E 0
θˆ 1 = θˆ 0 + ∆θˆ 0
atualizadas θ̂1 em (2.g) (do mesmo modo que foi feito com as estimativas iniciais θ̂ 0 ) e
θˆ k +1 = θˆ k + ∆θˆ k
[ ( ) ( )] ( )
= θˆ k + F′ θˆ k F θˆ k
−1 ˆ
F′ θk Ek (2.h)
onde
( )
F θˆ k =
∂f (θ)
∂θ′ θ = θˆ
k
Ek = y − f θˆ k( )
[
θˆ k = θˆ 1k , θˆ 2k ,L, θˆ pk ]
′
onde δ é algum número pequeno, digamos 1,0 x 10-6. A cada iteração SSE θˆ k pode ser ( )
avaliada para garantir que foi obtida uma redução neste valor.
51
Regressão Linear e Não-Linear Regazzi, A. J .
n
[ ( )]
∑ y i − f x i , θˆ
2
σˆ = QMR = i =1
2
(2.i)
n−p
( ) [ ( ) ( )]
Côv θˆ = F′ θˆ F θˆ
−1 2
σˆ (2.j)
⎡ V̂ θˆ 1
⎢
( ) ( )
Côv θˆ 1, θˆ 2 ( )
L Côv θˆ 1, θˆ p ⎤
⎥
()
Côv θ = ⎢⎢
ˆ ( )
Côv θˆ 1, θˆ 2 ( )
V̂ θˆ 2 ( )
L Côv θˆ 2 , θˆ p ⎥
M M M ⎥
⎢ ⎥
(
⎢⎣Côv θˆ 1, θˆ p ) (
Côv θˆ 2 , θˆ p ) L ( )
V̂ θˆ p ⎥⎦
()
onde F θ̂ é a matriz Jacobiana de f (θ ) , ou seja, a matriz de derivadas parciais, avaliada na
y = Xθ + ε
onde X é a matriz nxp das variáveis regressoras, cuja primeira coluna pode ser um vetor de
1’s se a função resposta do modelo inclui um termo constante. A matriz Jacobiana da função
(
θˆ 1 = θˆ 0 + (X′X )−1 X′ y − Xθˆ 0 )
= θˆ 0 + (X′X )−1 X′y − (X′X )−1(X′X )θˆ 0
= (X′X)−1 X′y
52
Regressão Linear e Não-Linear Regazzi, A. J .
linear, converge para os estimadores de mínimos quadrados numa única iteração utilizando
lentamente em alguns casos, exigindo muitas iterações. Em outros casos ele pode mover na
( )
direção contrária com SSE θˆ k aumentando, ou ele pode não convergir. Várias modificações
no algoritmo básico de Gauss-Newton têm sido propostas para melhorar sua performance.
Uma delas é o uso de incrementos fracionários; isto é, seja ∆θ̂k o vetor de incrementos
( )
padrão em (2.h) e a k-ésima iteração, mas somente se SSE θˆ k +1 < SSE θˆ k ( ) a próxima
( )
iteração continua, e se ocorrer SSE θˆ k +1 > SSE θˆ k ( ) usa-se ∆θˆ k / 2 como vetor de
incrementos. Esta divisão poderia ser usada várias vezes durante uma iteração, se
( )
SSE θˆ k +1 , o procedimento é encerrado.
onde λ>0. Note a similaridade com o estimador de regressão de cumeeira (“ridge regression
estimator”). Uma vez que as variáveis regressoras são derivadas de uma mesma função, a
53
Regressão Linear e Não-Linear Regazzi, A. J .
exemplo, o Proc NLIN do SAS inicia com λ=10-8. Uma série de tentativas são feitas a cada
( ) ( )
SSE θˆ k +1 < SSE θˆ k (2.l)
contanto que (2.l) seja satisfeita. A estratégia é obter λ tanto menor quanto possível de modo
que a soma de quadrados residuais seja reduzida a cada iteração. Este procedimento geral
porque o vetor de incrementos produzido pelo seu método está entre o vetor de Gauss-
Exemplo 2.2.
modelo não linear para os dados de puromycin da Tabela 2.A usando os valores iniciais
θˆ 10 = 205 e θˆ 20 = 0,08 . Depois nós discutiremos como esses valores iniciais foram obtidos.
( )
Neste ponto SSE θˆ 0 = 3155 .
∂f (x, θ1, θ 2 ) x
=
∂θ1 x + θ2
54
Regressão Linear e Não-Linear Regazzi, A. J .
∂f (x, θ1, θ2 ) − θ1 x
=
∂θ2 (x + θ2 )2
e desde que a primeira observação em x é x1=0,02, nós temos
⎡ ∂f (x i , θ)⎤
Fij = ⎢ ⎥
⎢⎣ ∂θ j ⎥⎦ θ = θˆ
0
x1 0,02
F11 = = = 0,2000
x1 + θ 2 θ = 0,08 0,02 + 0,08
2
− θ1 x1 − (205 )(0,02 )
F12 = = = −410,00
(x1 + θ2 )2 θ1 = 205; θ 2 = 0,08 (0,02 + 0,08 )2
x12 1,10
F12,1 = = = 0,9322
x12 + θ 2 θ = 0,08 1,10 + 0,08
2
Tabela 2.B – Dados, valores estimados, resíduos e derivadas para os dados de puromycin
em θˆ ′0 = [205 0,08]
i xi yi (
f x i , θˆ 0 ) (
y i − f x i , θˆ 0 ) Fi1 Fi2
1 0,02 76 41,00 35,00 0,2000 -410,00
2 0,02 47 41,00 6,00 0,2000 -410,00
3 0,06 97 87,86 9,14 0,4286 -627,55
4 0,06 107 87,86 19,14 0,4286 -627,55
5 0,11 123 118,68 4,32 0,5789 -624,65
6 0,11 139 118,68 20,32 0,5789 -624,65
7 0,22 159 150,33 8,67 0,7333 -501,11
8 0,22 152 150,33 1,67 0,7333 -501,11
9 0,56 191 179,38 11,62 0,8750 -280,27
10 0,56 201 179,38 21,62 0,8750 -280,27
11 1,10 207 191,10 15,90 0,9322 -161,95
12 1,10 200 191,10 80,90 0,9322 -161,95
55
Regressão Linear e Não-Linear Regazzi, A. J .
As derivadas Fij são agora postas na matriz F(θ0 ) e o vetor de incrementos calculado pela
equação
[ ( ) ( )] ( )[
∆θˆ 0 = F′ θˆ 0 F θˆ 0
−1 ˆ
(
F′ θ0 y − f x i , θˆ 0 )]
⎡ 8,03 ⎤
como ∆θˆ 0 = ⎢ ⎥
⎣− 0,017 ⎦
( )
A soma de quadrados residuais neste ponto é SSE θˆ 1 = 1206 ,a qual é consideravelmente
( )
menor que SSE θˆ 0 = 3155 . Portanto θ̂1 é adotada como estimativa atualizada de θ , e uma
outra iteração seria efetuada. Utilizando-se o Proc NLIN do SAS (Versão 6.12), o algoritmo
()
SSE θˆ = 1195,45 , e assim com n-p=10 graus de liberdade σˆ 2 = 119,5450 de (2.i). Os dados,
Tabela 2.C.
Tabela 2.C – Dados, valores estimados, resíduos e derivadas para os dados de puromycin
em θ̂′ = [212,683725 0,064121]
i xi yi ( )
f x i , θ̂ ( )
y i − f x i , θˆ Fi1 Fi2
1 0,02 76 50,5660 25,4340 0,237753 -601,112003
2 0,02 47 50,5660 -3,5660 0,237753 -601,112003
3 0,06 97 102,8109 -5,8109 0,483399 -828,313952
4 0,06 107 102,8109 4,1891 0,483399 -828,313952
5 0,11 123 134,3616 -11,3616 0,631745 -771,657599
6 0,11 139 134,3616 4,6384 0,631745 -771,657599
7 0,22 159 164,6847 -5,6847 0,774318 -579,629219
8 0,22 152 164,6847 -12,6847 0,774318 -579,629219
9 0,56 191 190,8329 0,1671 0,897262 -305,762833
10 0,56 201 190,8329 10,1671 0,897262 -305,762833
11 1,10 207 200,9688 6,0312 0,944919 -172,635734
12 1,10 200 200,9688 -0,9688 0,944919 -172,635734
θˆ 1 x i 212,683725 x i ⎡ ∂f (x i , θ) ⎤
ŷ i = = ; Fij = ⎢ ⎥
x i + θˆ 2 x i + 0,064121 ⎢⎣ ∂θ j ⎥⎦ θ = θˆ
56
Regressão Linear e Não-Linear Regazzi, A. J .
êi
ûi = (resíduo estudentizado internamente)
σˆ 1 − ĥii
em que
( )[ ( ) ( )] ()
que é dada por F θˆ F′ θˆ F θˆ −1 F′ θˆ . O “leverage” ĥii representa a influência da i-ésima
estimado na Figura 2.C. Embora exista um resíduo moderadamente grande, nós julgamos o
ajuste satisfatório.
Resíduos Padronizados
Resposta Estimada
Figura 2.C – Resíduos padronizados versus valores estimados
57
Regressão Linear e Não-Linear Regazzi, A. J .
( ) [ ( ) ( )]
Côv θˆ = F′ θˆ F θˆ
−1 2
σˆ
−1
⎡ 5,973644 − 3834,213284 ⎤
=⎢ ⎥ 119,5450
⎣− 3834,213284 4204318,2630 ⎦
⎡ 0,403721 36,8181x10 − 5 ⎤
=⎢ ⎥ ⋅ 119,5450
⎢⎣36,8181x10 − 5 57,36 x10 − 8 ⎥⎦
( ) ( )
s θˆ 1 = V̂ θˆ 1 = 119,5450(0,403721) = 6,9471
e s(θˆ 2 ) = V̂ (θˆ 2 ) = ( )
119,5450 57,36 x10 − 8 = 8,28 x10 − 3
rθˆ ,θˆ =
( )
Côv θˆ 1, θˆ 2
=
36,8181x10 −5 (119,5450 )
= 0,765
1 2
( ) ( )
V̂ θˆ 1 V̂ θˆ 2 [119,5450 (0,403721)][119,5450 (5736 x10 − 8 )]
Utilizou-se o PROC NLIN do SAS para obter as estimativas de mínimos quadrados a
partir dos dados que se encontram na Tabela 2.A. O método numérico empregado foi o
⎡195,81 ⎤
θˆ 0 = ⎢ ⎥
⎣0,04841⎦
As estimativas obtidas foram (Versão SAS 6.12, com mais decimais que a 9.0):
⎡212,683725 ⎤
θˆ = ⎢ ⎥
⎣ 0,064121 ⎦
SSE(θˆ ) = 1195,45
58
Regressão Linear e Não-Linear Regazzi, A. J .
SSE(θˆ )
σˆ 2 = = 119,5450
n−p
j = 1, 2,L, p e as correlações entre θˆ j e θˆ j' que denotamos por rθˆ θˆ . Para recuperar a matriz
j j'
[
Côv(θˆ ) = σˆ 2 F′(θˆ ) F(θˆ )
−1
]
= σˆ 2 Ĉ
em que
[ −1
Ĉ = F′(θˆ ) F(θˆ ) ,]
pode-se usar a seguinte fórmula:
⎡48,26295137 0,044014508⎤
σˆ 2 Ĉ = ⎢ ⎥
⎣0,044014508 0,000068574⎦
59
Regressão Linear e Não-Linear Regazzi, A. J .
⎡ 0,403722 36,8183 x 10 −5 ⎤
Ĉ = ⎢ −5 ⎥
⎣36,8183 x 10 57,36 x 10 − 8 ⎦
[ −1
]
onde Ĉ = F′(θˆ ) F(θˆ ) já tinha sido obtida anteriormente. Esta matriz será utilizada na parte
y i = f (x i , θ ) + ε i , i=1, …, n ,
( )
onde a equação ajustada é dada por ŷ i = f x i , θˆ , podemos estar interessados em determinar
a estimativa de variância da estimativa de um valor médio de y, isto é, Vâr (ŷ i ) . Para isto
O Método Delta
()
y i = f (θ) , e ŷi = f θˆ ,
onde,
[
θ = θ1,L, θp ′ ]
θˆ = o vetor com as estimativas correspondentes.
() ( )
f θˆ ≈ f (θ) + f&(θ) θˆ − θ ,
onde f& é um vetor (1xp) das derivadas parciais de primeira ordem avaliadas em θ ,
⎡ ∂f ∂f ⎤
f& = f (1) (θ) = ⎢ ,L, ⎥
⎢⎣ ∂θ1 ∂θp ⎥⎦
() [ ( )]
Sob E θ̂ = θ , segue que E f θˆ ≈ f (θ) .
Assim,
60
Regressão Linear e Não-Linear Regazzi, A. J .
[ ( )] { ( ) [ ( )]}
Var f θˆ = E f θˆ − E f θˆ
2
[ (
≈ E f& (θ) θˆ − θ
2
)]
[ ] ( )[ ]
= f&(θ) Var θˆ f&(θ)
′
= f&Ωf&'
ˆ
onde f& e Ω̂ são as estimativas usadas no lugar dos valores dos parâmetros,
() ()
ˆ = Vâr θˆ = Côv θˆ = σˆ 2 Ĉ , é a estimativa da matriz (pxp) de covariâncias do vetor θ̂ .
Ω
yi é desconhecido
O estimador de yi é ŷ i = f θˆ . ()
O erro de previsão é ŷ i − y i , e uma estimativa do erro de previsão é dada por:
ˆ ˆ &ˆ′
Vâr (ŷ i − y i ) = Vâr (ŷ i − y i ) = σˆ 2 + f&Ω f
212,683725 x i
ŷ i =
x i + 0,064121
61
Regressão Linear e Não-Linear Regazzi, A. J .
θ1 x
f (x, θ) =
x + θ2
∂f x 0,56
= ∴ = 0,897262
∂θ1 x + θ2 0,56 + 0,064121
∂f − θ1 x − 212,683725(0,56)
= ∴ = −305,762833
∂θ2 (x + θ2 )2 (0,56 + 0,064121)2
ŷ = 190,833
Vamos supor que desejássemos predizer o valor de y para x=0,56, considerando isto
como uma nova observação, e também calcular o erro padrão. Neste caso temos:
O R2 NO CASO NÃO-LINEAR
é exatamente o R2. Se o modelo é linear e o termo constante não está presente (sem
intercepto), o R2 é redefinido conforme SEARLE (1971), e muito cuidado deve ser tomado na
sua interpretação, pois ele não é mais igual ao quadrado do coeficiente de correlação entre
62
Regressão Linear e Não-Linear Regazzi, A. J .
na versão sem intercepto, domine em muito o valor correspondente ao caso com intercepto,
em modelos equivalentes.
entre os valores observados e preditos. Esta medida pode ser calculada com a utilização da
n n ⎥
⎢ i =1 ⎥ ⎢ i =1 ⎥
⎢ ⎥ ⎢⎣ ⎥⎦
⎣ ⎦
corrigida pela média. O que se observa, na prática, é que, em muitos trabalhos de pesquisa,
no caso não-linear o cálculo de R2 não é feito de uma única maneira. Alguns utilizam a
SQR SQR
fórmula R 2 = 1 − (SOUZA, 1998), outros empregam a fórmula R 2 = 1 − ,
SQTotal c SQTotal nc
na qual a SQTotalnc é a soma de quadrados total não corrigida pela média. Com estes
cálculos, às vezes se obtém valores extremamente altos, por exemplo, R2 =99%, mesmo
63
Regressão Linear e Não-Linear Regazzi, A. J .
Certamente não devemos interpretar este R2 como no caso de regressão linear com
intercepto. Você pode utilizar este R2 mais como uma estatística descritiva, tendo o devido
cuidado na sua interpretação. É importante olhar os valores observados e preditos para ver
diagnóstico.
64
Regressão Linear e Não-Linear Regazzi, A. J .
Proc CORR;
Var y;
With yhat;
Run;
Quit;
65
Regressão Linear e Não-Linear Regazzi, A. J .
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
_______________________________________________________________________________________________
COMENTÁRIOS:
θ1 x
y=
x + θ2
1 x + θ2
=
y θ1 x
1 1 θ2 1
= + ⋅ ⇒ z = βo + β1 w
y θ1 θ1 x
ẑ = 0,005107 + 0,000247 w (Estimativas da Versão SAS 6.12)
1
βˆ o = ⇒ θˆ 1 = 195,81
ˆθ1
θˆ
βˆ 1 = 2 ⇒ θˆ 2 = 0,04841
θˆ 1
66
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
The NLIN Procedure
Dependent Variable y
Method: Gauss-Newton
Iterative Phase
Sum of
Iter a b Squares
Estimation Summary
Method Gauss-Newton
Iterations 5
R 9.867E-6
PPC(b) 4.03E-6
RPC(b) 0.000042
Object 1.149E-8
Objective 1195.449
Observations Read 12
Observations Used 12
Observations Missing 0
NOTE: An intercept was not specified for this model.
Approx
Parameter Estimate Std Error Approximate 95% Confidence Limits
a 1.0000000 0.7650834
b 0.7650834 1.0000000
_____________________________________________________________________________________________
212,683725 x i
ŷ i = (SAS 6.12)
x i + 0,064121
( )
R 2 = ryŷ 2 = (0,98171)2 = 0,9637 ou 96,37%
67
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
_______________________________________________________________________________________________
68
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
250 ˆ
‚
‚
‚
‚
‚ a
200 ˆ a a
‚ a
‚
y ‚
‚ p
‚ a
150 ˆ a
‚ a
‚ p
‚ a
‚
‚ a
100 ˆ a
‚
‚
‚ a
‚
‚
50 ˆ a
Šƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒ
0.0 0.2 0.4 0.6 0.8 1.0 1.2
_______________________________________________________________________________________________
69
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
respad ‚
‚
‚
3 ˆ
‚
‚ A
‚
2 ˆ
‚
‚
‚
1 ˆ A
‚ A
‚ A A
‚
0 ˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒAƒƒƒAƒƒƒƒƒƒƒƒƒƒƒ
‚ A
‚ A A
‚
-1 ˆ A
‚ A
‚
‚
-2 ˆ
‚
Šƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒˆƒƒ
40 60 80 100 120 140 160 180 200 220
yhat
_______________________________________________________________________________________________
70
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
Simple Statistics
yhat 0.98171
<.0001
_______________________________________________________________________________________________
71
Regressão Linear e Não-Linear Regazzi, A. J .
Teste da Razão de Verossimilhança. Maiores detalhes podem ser vistos em SOUZA (1998).
y = f (θ 0 ) + ε
com funções paramétricas da forma h (θ) onde h é uma função q dimensional conhecida. A
com elemento típico ∂hi (θ) ∂θ j , de dimensão qxp, tem posto linha completo para θ = θ0 e
que q<p. A hipótese de normalidade dos resíduos viabiliza o uso das distribuições t e F,
∂ h ( θ)
H ( θ) =
∂ θ′
ˆ,
Quando H (θ) é avaliada em θ = θˆ nós devemos escrever H
Ĥ = H θˆ()
e em θ = θ 0 escrevemos H, onde H = H θ0 . ( )
1. ( ( ( ) ( ))
θˆ ~ N θ0 , σ2 F′ θ0 ⋅ F θ0
−1
).
72
Regressão Linear e Não-Linear Regazzi, A. J .
(n − p) σˆ χ 2 (n − p )
2
2. ~
σ 2
3. θˆ e σˆ 2 são independentes.
( ) ()
Em aplicações, substitui-se F θ0 por F θ̂ e σ2 por σ̂2 . Tem-se ainda que:
() ⎡
( ) ( )( ( ) ( )) ( )
h θˆ ~ Nq ⎢h θ0 , σ 2H θ0 F′ θ0 F θ0
⎣
−1 ⎤
H′ θ0 ⎥
⎦
( )[
h′ θˆ H(F′F)−1H′ ]
−1
()
h θˆ
2
σ
( ) ( )
com H = H θ0 e F = F θ0 , tem aproximadamente distribuição de qui-quadrado não central
λ=
( )[
h′ θ0 H(F′F)−1H′ ] h(θ )
−1 0
2σ 2
( )[
h′ θˆ H(F′F )−1H′ ]
−1
()
h θˆ
qσ 2
(n − p)σˆ 2
(n − p)σ 2
tem distribuição aproximada F de Snedecor com q e n-p graus de liberdade, e parâmetro de
não centralidade λ.
( )[
h′ θˆ H(F′F)−1H′ ] −1
h θˆ( ) ~ F(q , n − p) .
qσˆ 2
( ) ( )
testes do tipo H : h θ0 = φ contra a alternativa A : h θ0 ≠ φ são levados a efeito com o uso de
73
Regressão Linear e Não-Linear Regazzi, A. J .
W=
[ ]
−1
h′(θˆ ) ĤĈĤ′ h (θˆ )
q σˆ 2
que é o valor da estatística teste de WALD, que tem distribuição aproximada F(q, n - p) sob
H : θ 02 = 0 contra A : θ 02 ≠ 0
Assim,
h ( θ) = θ 2 h (θˆ ) = 0,064121
∂ h (θ )
H (θ ) = = [0 1]
∂θ '
∂ h (θˆ )
Ĥ = = [0 1]
∂ θˆ '
σˆ 2 = 119,5450 , n – p = 12-2 = 10
q=1
Como F5% (1, 10) = 4,96, rejeita-se a hipótese de nulidade em nível de 5% de probabilidade.
74
Regressão Linear e Não-Linear Regazzi, A. J .
θˆ j − θ*j
tj =
σˆ 2 ĉ jj
que sob H tem distribuição de Student com n - p graus de liberdade. Para o teste bilateral
⎛α ⎞
acima, compara-se o valor absoluto de tj com t ⎜ , n − p ⎟ , que é o quantil de ordem
⎝2 ⎠
⎛ α⎞
⎜1 − ⎟ x 100% da distribuição de Student com n - p graus de liberdade. É importante
⎝ 2⎠
observar que numa tabela bilateral, para obter este quantil entra-se diretamente com α .
No exemplo temos:
H : θ02 = 0 contra A : θ 02 ≠ 0
[
Ĉ = F ' ( θˆ ) F ( θˆ ) ]
−1
ĉ 22 = 57,36 x 10 −8
θˆ 2 0,064121
t2 = =
σˆ 2 ĉ 22 (119,5450 ) (57,36 x 10 − 8 )
75
Regressão Linear e Não-Linear Regazzi, A. J .
INTERVALO DE CONFIANÇA
θˆ j ± t ⎛ α ⎞
σˆ 2ĉ jj
⎜ ,n − p ⎟
⎝2 ⎠
ou
0,064121 ± 0,018440
0,045681 ≤ θ 2 ≤ 0,082561
Com base no intervalo de confiança pode-se concluir pela rejeição da hipótese H : θ02 = 0
y = f ( θ0 ) + ε
( ) ( )
H : h θ0 = φ contra A : h θ0 ≠ φ é dado como segue:
(i) Calcule
76
Regressão Linear e Não-Linear Regazzi, A. J .
(ii) Calcule
~ ~
θ minimizando SSE (θ) sujeito à condição h(θ ) = φ , e obtenha SSE ( θ ) que é a soma
ou ainda
~
SSE ( θ ) − SSE (θˆ )
RV = ,
q σˆ 2
do modelo completo.
Para o nosso exemplo, vamos testar a hipótese H : θ02 = 0 contra A : θ02 ≠ 0 pelo teste
da Razão de Verossimilhança.
θ 1x
f ( x,θ ) =
x +θ2
y i = θ1 + εi , i = 1, 2,L , n ,
77
Regressão Linear e Não-Linear Regazzi, A. J .
que coincidentemente é um modelo linear. Ajustando este modelo aos dados da Tabela 2.A,
teremos:
~ ~
∑y
i =1
i
1699
θ =θ1 = = = 141,5833
n 12
2
⎛ n ⎞
⎜⎜ ∑ y i ⎟⎟
~ ~ ⎝ i =1 ⎠ (1699 )2
SQParâmetros ( θ ) = θ' X' y = = = 240550,0833
n 12
n
~ ~
SSE ( θ ) = ∑ εˆ
i =1
2
i = y' y − θ ' X' y = 271409 − 240550,0833 = 30858,9167 , com 11 graus de
liberdade.
Previamente tinha-se
Assim, tem-se:
(30858,9167 − 1195,4488 ) 1
RV =
1195,4488 10
Como F5% (1, 10) = 4,96, rejeita-se a hipótese de nulidade em nível de 5% de probabilidade.
aplicadas, particularmente em virtude dos resíduos ordinários não terem mais distribuição
78
Regressão Linear e Não-Linear Regazzi, A. J .
diagnóstico para os modelos normais não-lineares (vide COOK e TSAI, 1995). Similarmente,
variância, não são extendidas diretamente para o caso não-linear. Entretanto, alguns
parâmetros do modelo. Bons valores iniciais, isto é, valores de θ̂ 0 que estão próximos aos
o procedimento seja menos sensível à escolha dos valores iniciais, mas é sempre bom
selecionar θ̂ 0 cuidadosamente. Uma escolha ruim poderá causar uma convergência para
um mínimo local da função, e inadvertidamente seríamos forçados a achar que uma solução
ou absolutos. Porém, nenhum dos algoritmos existentes pode garantir a convergência para
um ótimo global. Entretanto, uma maneira de tentar prevenir possíveis soluções locais ou
relativas é através da escolha de valores iniciais satisfatórios, já que o ponto para o qual um
procedimento converge depende também da escolha do valor inicial. Para ilustrar este fato,
79
Regressão Linear e Não-Linear Regazzi, A. J .
100
50
75
P1. P2.
25
20
50
15
10
10 5
15
25
50
75
100 P3.
0
100
50 25
50
25 5
10
Figura 2.E – Diferentes pontos de mínimos que podem se originar de diferentes pontos
iniciais
Na Figura 2.E, temos as curvas de nível de uma função quadrática SSE(θ) com dois
de P2, o processo converge para outro mínimo local θ 2 . Entretanto, partindo-se de P3,
iniciais.
análises semelhantes, cujas estimativas podem ser usadas para o “chute inicial”.
80
Regressão Linear e Não-Linear Regazzi, A. J .
significado físico, e isto pode ser útil na obtenção dos valores iniciais. Isto também
pode ser útil para plotar a função resposta para vários valores dos parâmetros para
x convergem para zero ou para o infinito. Neste caso, por vezes, é até possível
(iv) Verifique se o modelo de regressão não-linear utilizado admite uma versão linear
competitiva que poderia ser utilizada para obter (facilmente) um valor inicial para os
desta formulação seria uma estrutura de erros multiplicativos. Deste modo teríamos
81
Regressão Linear e Não-Linear Regazzi, A. J .
(v) Os métodos numéricos não-linear para minimização de SSE(θ) são bem mais
(vi) É sempre possível o estudo da superfície SSE(θ) num “grid” de valores de θ. Estes
Como valor inicial, pode-se utilizar o valor mínimo de SSE(θ) no “grid”. O SAS fornece
82
Regressão Linear e Não-Linear Regazzi, A. J .
parms b0=0
b1=4 to 8
b2=0 to 0.6 by 0.2
b3=1 10 100
b4=0 0.5 1 to 4;
valores iniciais possíveis que produzem as menores somas de quadrados individuais. Com
aquela combinação que apresentar a menor soma de quadrados residual, o programa inicia
atingido.
83
Regressão Linear e Não-Linear Regazzi, A. J .
Segundo SOUZA (1998), Gallant faz o seguinte alerta com respeito à determinação
de θˆ :
utilizar uma função resposta mais parcimoniosa (com menos parâmetros). Uma
solução.
84
Regressão Linear e Não-Linear Regazzi, A. J .
para situações específicas ou ambientais. Nesta seção nós discutiremos alguns desses
modelos.
crescimento. Estes modelos são usados para descrever o crescimento com mudanças na
em biologia, quando plantas e organismos crescem com o tempo, mas há também muitas
sobre o tempo pode freqüentemente ser descrito por um modelo de regressão não linear.
α
y= +ε
1 + β e − (γ x )
Os parâmetros neste modelo têm uma interpretação física simples. Para x=0, y=α/(1+β) é o
nível de y para o tempo (ou nível) zero. O parâmetro α é o valor máximo esperado para a
Outras parametrizações para a função logística apresentada por RATKOWSKY (1983) são:
α
(a) y=
1 + e (β − γ x )
85
Regressão Linear e Não-Linear Regazzi, A. J .
1
(b) y=
α + β γx
α
(c) y=
1 + eβ γ x
1
(d) y=
α + eβ γ x
1
(e) y=
α + β e (− γ x )
(
y = α e −β e
−γ x )+ε
é um outro modelo de crescimento amplamente utilizado.
(
y = α − β e −γ x
δ )+ε
Quando x=0, nós temos y=α-β, enquanto que o crescimento limite é α quando x→∞.
partir daí a taxa de crescimento começa a diminuir até a curva se aproximar de um valor final
chamado de assíntota. Na Tabela 2.D são relacionados alguns modelos usuais com essas
assíntota. O parâmetro β está relacionado com o intercepto, isto é, com o valor de E(y)
correspondente a x=0. Para todos os modelos da Tabela 2.D esse parâmetro pelo menos
de compartimento, e uma vez que reações químicas às vezes podem ser descritas por um
sistema linear de equações diferenciais de primeira ordem, eles têm aplicações freqüentes
resposta com a solução para a equação diferencial não-linear ou para a equação integral,
não tem solução analítica. Existem técnicas especiais para a modelagem e solução destes
linear.
87
Regressão Linear e Não-Linear Regazzi, A. J .
Exemplo 2.9.1.
α
yi = + εi , i=1,2,…,n
− (β + γ x i )
1+ e
onde a função resposta é a função logística com parâmetros α, β e γ, sendo α>0 e γ>0.
Segundo HOFFMANN & VIEIRA (2006), a função logística foi indicada para o estudo
“curva logística”. Ela também tem sido largamente empregada para a representação de
88
Regressão Linear e Não-Linear Regazzi, A. J .
α>0
β<0
γ>0
89
Regressão Linear e Não-Linear Regazzi, A. J .
1º Passo: Obtenção de α̂ 0
coordenadas de três pontos escolhidos, cujas posições no eixo das abscissas sejam
xA=14 yA=19,50
xB=49 yB=429,50
xC=84 yC=811,06
α̂ 0 é dado por:
y B (y A ⋅ y B + y B ⋅ y C − 2 ⋅ y A ⋅ y C )
αˆ 0 =
y B2 − y A ⋅ y C
2º Passo:
Obtenção de βˆ 0 e γˆ 0
Seja
αˆ 0
yi =
− (b + c x i )
1+ e
90
Regressão Linear e Não-Linear Regazzi, A. J .
αˆ 0 − y i yi > 0 e αˆ 0 − y i > 0
e − (b + c x i ) = ,
yi para i = 1,2,L, n
e (b + c x i ) =
yi
αˆ 0 − y i
⎛ yi ⎞
b + c x i = ln⎜⎜ ⎟⎟
⎝ αˆ 0 − y i ⎠
⎛ yi ⎞
Fazendo w i = ln⎜⎜ ⎟⎟ , e ajustando-se o modelo de regressão linear simples
⎝ αˆ 0 − y i ⎠
Assim, obtivemos,
ŵ i = −5,4437 + 0,1123 x i ,
são:
αˆ 0 = 827,8930
βˆ 0 = −5,4437
γˆ 0 = 0,1123
A equação ajustada é:
879,241991
ŷ i =
1 + e − (− 4,398587 + 0,086174 x i )
R2=97,2%
são simples adaptações da regressão linear, exceto com relação aos resíduos.
91
Regressão Linear e Não-Linear Regazzi, A. J .
Der.a = (1+EXP(-(b+c*x)))**-1;
Der.b = a*((1+EXP(-(b+c*x)))**-2)*EXP(-(b+c*x));
Der.c = a*((1+EXP(-(b+c*x)))**-2)*EXP(-(b+c*x))*x;
92
Regressão Linear e Não-Linear Regazzi, A. J .
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
__________________________________________________________________________________________________
COMENTÁRIOS:
Valores iniciais:
αˆ o = 827,8930
βˆ o = −5,4437
γˆ o = 0,1123
93
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
Grid Search
Sum of
a b c Squares
__________________________________________________________________________________________________
Regressao Nao-Linear
Iterative Phase
Sum of
Iter a b c Squares
Estimation Summary
Method Gauss-Newton
Iterations 8
R 4.02E-6
PPC(c) 2.205E-6
RPC(c) 0.00001
Object 2.77E-10
Objective 31619.28
Observations Read 12
Observations Used 12
Observations Missing 0
94
Regressão Linear e Não-Linear Regazzi, A. J .
Approx
Parameter Estimate Std Error Approximate 95% Confidence Limits
__________________________________________________________________________________________________
Regressao Nao-Linear
__________________________________________________________________________________________________
879,2419907
ŷ i = (Estimativas obtidas na Versão SAS 6.12)
1 + e − (− 4,3985875 + 0,0861742 x i )
( )
R 2 = ryŷ 2 = (0,98619 )2 = 0,972 ou 97,2%
__________________________________________________________________________________________________
95
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
Y ‚
‚
‚
1000 ˆ
‚
‚
‚ p
800 ˆ a a
‚ a
‚ a
‚ p
600 ˆ
‚ p
‚
‚ a
400 ˆ p a
‚ a
‚ p
‚
200 ˆ p
‚ a
‚ a
‚ p a
0 ˆ a a
‚
Šƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒ
7 14 21 28 35 42 49 56 63 70 77 84
__________________________________________________________________________________________________
96
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
respad ‚
‚
‚
‚
‚
2 ˆ
‚ A
‚
‚ A
‚ A
‚ A A
0 ˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ
‚ AA A A A
‚ A
‚
‚
‚
-2 ˆ
‚
‚ A
‚
‚
‚
-4 ˆ
‚
Šƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒ
0 200 400 600 800 1000
yhat
__________________________________________________________________________________________________
97
Regressão Linear e Não-Linear Regazzi, A. J .
Simple Statistics
yhat 0.98619
<.0001
__________________________________________________________________________________________________
( )
R 2 = ryŷ 2 = (0,98619 )2 = 0,972 ou 97,2%
98
Regressão Linear e Não-Linear Regazzi, A. J .
Der.a = (1+EXP(-(b+c*x)))**-1;
Der.b = a*((1+EXP(-(b+c*x)))**-2)*EXP(-(b+c*x));
Der.c = a*((1+EXP(-(b+c*x)))**-2)*EXP(-(b+c*x))*x;
99
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
Grid Search
Sum of
a b c Squares
__________________________________________________________________________________________________
Regressao Nao-Linear
Iterative Phase
Sum of
Iter a b c Squares
Estimation Summary
Method Marquardt
Iterations 8
R 2.396E-6
PPC(c) 1.314E-6
RPC(c) 6.135E-6
Object 9.84E-11
Objective 31619.28
Observations Read 12
Observations Used 12
Observations Missing 0
100
Regressão Linear e Não-Linear Regazzi, A. J .
Approx
Parameter Estimate Std Error Approximate 95% Confidence Limits
__________________________________________________________________________________________________
Regressao Nao-Linear
__________________________________________________________________________________________________
879,2388784
ŷ i = , R 2 = 97,2% . (Versão SAS 6.12)
− (− 4,3986266 + 0,0861751 x i )
1+ e
__________________________________________________________________________________________________
__________________________________________________________________________________________________
101
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
Y ‚
‚
‚
1000 ˆ
‚
‚
‚ p
800 ˆ a a
‚ a
‚ a
‚ p
600 ˆ
‚ p
‚
‚ a
400 ˆ p a
‚ a
‚ p
‚
200 ˆ p
‚ a
‚ a
‚ p a
0 ˆ a a
‚
Šƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒˆƒƒ
7 14 21 28 35 42 49 56 63 70 77 84
__________________________________________________________________________________________________
102
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
respad ‚
‚
‚
‚
‚
2 ˆ
‚ A
‚
‚ A
‚ A
‚ A A
0 ˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ
‚ AA A A A
‚ A
‚
‚
‚
-2 ˆ
‚
‚ A
‚
‚
‚
-4 ˆ
‚
Šƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒ
0 200 400 600 800 1000
yhat
__________________________________________________________________________________________________
103
Regressão Linear e Não-Linear Regazzi, A. J .
Simple Statistics
yhat 0.98619
<.0001
__________________________________________________________________________________________________
( )
R 2 = ryŷ 2 = (0,98619 )2 = 0,972 ou 97,2%
104
Regressão Linear e Não-Linear Regazzi, A. J .
Exemplo 2.9.2.
α
yi = + εi , i=1,2,…,n,
1 + β e (− γ x i )
onde a função resposta é a função logística com uma parametrização diferente daquela
Tabela 2.F – Matéria seca total (g/m2) de uma cultura de milho, em períodos de 15 a 135
1º Passo: Obtenção de α̂ 0
xA=15 yA=41,4
xB=75 yB=1430,1
xC=135 yC=2469,6
105
Regressão Linear e Não-Linear Regazzi, A. J .
yB (y A ⋅ yB + yB ⋅ y C − 2 ⋅ y A ⋅ y C )
αˆ 0 =
yB2 − y A ⋅ y C
2º Passo: Obtenção de βˆ 0 e γˆ 0
αˆ 0
Seja y i =
1 + b e (− c x i )
⎛ αˆ − y i ⎞ yi > 0 e αˆ 0 − y i > 0
ln⎜⎜ 0 ⎟⎟ = ln b − c x i ,
⎝ yi ⎠ para i = 1, 2,L, n.
⎛ αˆ − y i ⎞
Fazendo w i = ln⎜⎜ 0 ⎟⎟ , e ajustando-se o modelo de regressão linear simples
⎝ yi ⎠
b̂ = e  = βˆ 0
ĉ = −B̂ = γˆ 0
αˆ 0 = 2492,6244
βˆ 0 = 123,8667
γˆ 0 = 0,071507
A equação ajustada é:
2562,101103
ŷ i =
1 + 36,661442 e (− 0,052927 x i )
R2=97,8%
107
Regressão Linear e Não-Linear Regazzi, A. J .
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
____________________________________________________________________________________________________
COMENTÁRIOS:
w i = ln βo − γ x i + ei ⇒ w i = A + B x i + ei
⎛ αˆ − y i ⎞
w i = ln ⎜⎜ o ⎟⎟
⎝ yi ⎠
Valores iniciais;
αˆ o = 2492,6244
108
Regressão Linear e Não-Linear Regazzi, A. J .
Regressão Não-Linear
Iterative Phase
Sum of
Iter a b c Squares
Estimation Summary
Method Gauss-Newton
Iterations 9
Subiterations 3
Average Subiterations 0.333333
R 2.813E-6
PPC(b) 3.819E-6
RPC(b) 0.000018
Object 1.28E-10
Objective 168347.2
Observations Read 9
Observations Used 9
Observations Missing 0
____________________________________________________________________________________________________
109
Regressão Linear e Não-Linear Regazzi, A. J .
Regressão Não-Linear
Approx
Parameter Estimate Std Error Approximate 95% Confidence Limits
____________________________________________________________________________________________________
COMENTÁRIOS:
2562,101103
ŷ i = (Versão SAS 6.12)
1 + 36,661442 e (− 0,052927 x i )
( )
R 2 = ryŷ 2 = (0,98903 )2 = 0,978 ou 97,8%
explicada“, é usado para decidir se um modelo de regressão não-linear resulta num bom
ajuste aos dados. Somente quando se tem um modelo linear com o termo constante é que o
preditos.
110
Regressão Linear e Não-Linear Regazzi, A. J .
____________________________________________________________________________________________________
111
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
Y ‚
‚
‚
‚
‚
3000 ˆ
‚
‚
‚ a a
‚ a p
‚ p
2000 ˆ p
‚ a
‚
‚ a
‚ a
‚
1000 ˆ p
‚
‚ p
‚ a
‚ p
‚ p a
0 ˆ a
‚
Šƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒˆƒƒ
15 30 45 60 75 90 105 120 135
112
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
2 ˆ A
‚
‚
‚
‚
‚
1 ˆ
‚ A
‚
respad ‚
‚ A
‚
0 ˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ
‚ A A
‚
‚
‚ A A
‚
-1 ˆ A
‚
‚
‚ A
‚
‚
-2 ˆ
Šƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒˆƒƒ
0 500 1000 1500 2000 2500
yhat
113
Regressão Linear e Não-Linear Regazzi, A. J .
Simple Statistics
yhat 0.98903
<.0001
____________________________________________________________________________________________________
( )
R 2 = ryŷ 2 = (0,98903 )2 = 0,978 ou 97,8%
114
Regressão Linear e Não-Linear Regazzi, A. J .
Exemplo 2.9.3.
115
Regressão Linear e Não-Linear Regazzi, A. J .
Regressao Nao-Linear
Grid Search
Sum of
b0 b1 Squares
____________________________________________________________________________________________________
Regressao Nao-Linear
Iterative Phase
Sum of
Iter b0 b1 Squares
Estimation Summary
Method Marquardt
Iterations 4
R 2.552E-7
PPC(b1) 1.028E-8
RPC(b1) 6.394E-7
Object 2.56E-10
Objective 0.000577
Observations Read 20
Observations Used 20
Observations Missing 0
116
Regressão Linear e Não-Linear Regazzi, A. J .
Approx
Parameter Estimate Std Error Approximate 95% Confidence Limits
___________________________________________________________________________________________________
Regressao Nao-Linear
b0 1.0000000 -0.5558957
b1 -0.5558957 1.0000000
____________________________________________________________________________________________________
(
ŷ i = 0,996188 1 − e −0,04195389 x i ) (Versão SAS 6.12)
( )
R 2 = ryŷ 2 = (0,99885 )2 = 0,998 ou 99,8%
117
Regressão Linear e Não-Linear Regazzi, A. J .
____________________________________________________________________________________________________
118
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
y ‚
‚
‚
‚
‚
1.0 ˆ a a a a a a a a a a a
‚ a a a
‚ a
‚ a
‚ a
‚
0.8 ˆ a
‚
‚ a
‚ p
‚
‚
0.6 ˆ
‚ a
‚
‚
‚
‚
0.4 ˆ
‚
Šƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒƒˆƒƒ
20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 210
119
Regressão Linear e Não-Linear Regazzi, A. J .
Analise de Residuo
2 ˆ A
‚
‚ A
‚
‚ A B
‚ A C
‚
‚
0 ˆƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒAƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ
‚ A A
‚ A A A
‚ A
respad ‚ A B
‚
‚
‚
-2 ˆ A
‚
‚
‚
‚
‚
‚
‚
-4 ˆ
Šˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒƒƒƒƒƒƒƒƒˆƒ
0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90 0.95 1.00
yhat
____________________________________________________________________________________________________
Simple Statistics
yhat 0.99885
<.0001
____________________________________________________________________________________________________
( )
R 2 = ryŷ 2 = (0,99885 )2 = 0,998 ou 99,8%
120
Regressão Linear e Não-Linear Regazzi, A. J .
Exemplo 2.9.4.(a)
Proc CORR;
Var y;
With yhat;
Run;
Quit;
121
Regressão Linear e Não-Linear Regazzi, A. J .
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
____________________________________________________________________________________________________
COMENTÁRIOS:
y = a xb
ln y = ln a + b ln x
Valores iniciais:
â = e αˆ o = e 4,639831 = 103,526850
b̂ = 0,370535
122
Regressão Linear e Não-Linear Regazzi, A. J .
Funcao de Cobb-Douglas
Iterative Phase
Sum of
Iter a b Squares
Method Gauss-Newton
Iterations 5
R 1.601E-6
PPC(b) 6.861E-7
RPC(b) 8.363E-6
Object 3.49E-10
Objective 914.1644
Observations Read 12
Observations Used 12
Observations Missing 0
Approx
Parameter Estimate Std Error Approximate 95% Confidence Limits
a 1.0000000 -0.5014737
b -0.5014737 1.0000000
__________________________________________________________________________________________________
( )
R 2 = ryŷ 2 = (0,93974 )2 = 0,883 ou 88,3%
123
Regressão Linear e Não-Linear Regazzi, A. J .
Funcao de Cobb-Douglas
____________________________________________________________________________________________________
Funcao de Cobb-Douglas
Simple Statistics
yhat 0.93974
<.0001
____________________________________________________________________________________________________
124
Regressão Linear e Não-Linear Regazzi, A. J .
Exemplo 2.9.4.(b)
Proc CORR;
Var y;
With yhat;
Run;
Quit;
125
Regressão Linear e Não-Linear Regazzi, A. J .
Analysis of Variance
Sum of Mean
Source DF Squares Square F Value Pr > F
Parameter Estimates
Parameter Standard
Variable DF Estimate Error t Value Pr > |t|
____________________________________________________________________________________________________
COMENTÁRIOS:
y = xb
ln y = b ln x
w i = b zi
126
Regressão Linear e Não-Linear Regazzi, A. J .
Funcao de Cobb-Douglas
Iterative Phase
Sum of
Iter b Squares
0 3.4017 17553.8
1 3.3808 1631.1
2 3.3803 1622.8
Estimation Summary
Method Gauss-Newton
Iterations 2
R 5.926E-7
PPC 1.227E-9
RPC(b) 0.000148
Object 0.005088
Objective 1622.801
Observations Read 6
Observations Used 6
Observations Missing 0
Approx
Parameter Estimate Std Error Approximate 95% Confidence Limits
Approximate
Correlation
Matrix
b
b 1.0000000
___________________________________________________________________________________________________
( )
R 2 = ryŷ 2 = (0,99984 )2 = 0,9997 ou 99,97%
127
Regressão Linear e Não-Linear Regazzi, A. J .
Funcao de Cobb-Douglas
____________________________________________________________________________________________________
Funcao de Cobb-Douglas
Simple Statistics
yhat 0.99984
<.0001
____________________________________________________________________________________________________
( )
R 2 = ryŷ 2 = (0,99984 )2 = 0,9997 ou 99,97%
128
Regressão Linear e Não-Linear Regazzi, A. J .
θ1
f ( x, θ) = (1)
θ
1+ 2
x
θ1
f ( x, θ) = (2)
θ
1 + ( 2 )θ 3
x
► É o modelo mais complicado (2) ou o modelo mais simples (1) que parece ser adequado
para descrever os dados?
129
Regressão Linear e Não-Linear Regazzi, A. J .
y i = f ( x i , θ º ) + ε i , i = 1, 2, L , n
130
Regressão Linear e Não-Linear Regazzi, A. J .
i y x1 x2 x3
1 0,98610 1 1 6,28
2 1,03848 0 1 9,86
3 0,95482 1 1 9,11
4 1,04184 0 1 8,43
5 1,02324 1 1 8,11
6 0,90475 0 1 1,82
7 0,96263 1 1 6,58
8 1,05026 0 1 5,02
9 0,98861 1 1 6,52
10 1,03437 0 1 3,75
11 0,98982 1 1 9,86
12 1,01214 0 1 7,31
13 0,66768 1 1 0,47
14 0,55107 0 1 0,07
15 0,96822 1 1 4,07
16 0,98823 0 1 4,61
17 0,59759 1 1 0,17
18 0,99418 0 1 6,99
19 1,01962 1 1 4,39
20 0,69163 0 1 0,39
21 1,04255 1 1 4,73
22 1,04343 0 1 9,42
23 0,97526 1 1 8,90
24 1,04969 0 1 3,02
25 0,80219 1 1 0,77
26 1,01046 0 1 3,31
27 0,95196 1 1 4,51
28 0,97658 0 1 2,65
29 0,50811 1 1 0,08
30 0,91840 0 1 6,11
Fonte: Gallant (1975d) citado por GALLANT (1987)
como
y i = f ( x i , θ º ) + ε i , i=1,2,…,n
( )
onde a função resposta é f ( x, θ) = θ1x1 + θ2 x 2 + θ 4 e θ3 x 3 , com ei ~ NIID 0, σ2 , pede-se:
131
Regressão Linear e Não-Linear Regazzi, A. J .
∂f (x, θ )
1 – As derivadas , j=1,2,…,p.
∂θ j
- Convergência: 10-8
⎡ θˆ 10 ⎤ ⎡− 0,04866 ⎤
⎢ˆ ⎥ ⎢
θ 1,03884 ⎥⎥
θˆ 0 = ⎢ 20 ⎥ = ⎢
⎢θˆ 30 ⎥ ⎢ − 0,73792 ⎥
⎢ ⎥ ⎢ ⎥
ˆ
⎣⎢θ 40 ⎦⎥ ⎣ − 0,51362 ⎦
( )[ ( ) ( )] ( )
−1
P = F θˆ F′ θˆ F θˆ F′ θˆ
A matriz de projeção P é conhecida como matriz “hat”, pois transforma y em ŷ . Ela é muito
usual na detecção de pontos mais afastados dos demais. Esses pontos, além de serem
de variâncias e covariâncias.
sobre os valores ajustados, espera-se que ĥii esteja próximo de p . Convém então
n
examinar aquelas observações correspondentes aos maiores valores de ĥii .Hoaglin &
Welsch (1978) citados por CORDEIRO & PAULA (1989) sugerem ĥii ≥ 2p como guia para
n
132
Regressão Linear e Não-Linear Regazzi, A. J .
indicar pontos mais afastados. Entretanto, outras medidas de diagnóstico sempre serão
êi
O SAS fornece os resíduos ûi = , que no texto, definimos segundo SOUZA
σˆ 1 − ĥii
(a) H: θ1 = 0 vs. A : θ1 ≠ 0
∂f (x, θ ) 1 ∂f (x, θ) 1
(b) H: = vs. A : ≠
∂x 3 x 5 ∂x 3 x =1
5
3 =1 3
ou equivalentemente,
1 1
H: θ3 θ 4 e θ 3 = vs. A : θ3 θ 4 e θ 3 ≠
5 5
1
H: θ1 = 0 e θ3 θ 4 e θ 3 = vs. A: Não H
5
133
Regressão Linear e Não-Linear Regazzi, A. J .
REFERÊNCIAS BIBLIOGRÁFICAS
BATES, D.M., WATTS, D.G. Nonlinear regression analysis and its applications. New York:
Wiley. 1988.
CORDEIRO, G.M., PAULA, G.A. Modelos de regressão para análise de dados univariados.
DRAPER, N.R., SMITH, H. Applied regression analysis. New York, John Wiley & Sons, Inc.,
GALLANT, A.R. Nonlinear statistical models. New York: John Wiley & Sons, 1987. 611p.
MYERS, R.S. Classical and modern regression with applications. Boston: PWS - kent
RATKOWSKY, D.A. Nonlinear regression modeling – A unified practical approach. Ney York
RATKOWSKY, D.A. Handbook of nonlinear regression models. New York and Basel. Marcel
SAS INSTITUTE INC. SAS/STAT User’s Guide. Version 6, Volume 2, Cary, NC: SAS
SEARLE, S. R. Linear models. New York: John Wiley & Sons, 1971. 532p.
SOUZA, D. G. Algumas considerações sobre regressão não linear. São Paulo, 1986. 122p.
SOUZA, G.S. Introdução aos modelos de regressão linear e não-linear. Brasília: EMBRAPA-
135
APÊNDICE 1
Uma matriz é um arranjo retangular de números (ou letras). Embora seja muito
dimensões de uma matriz são especificadas pelo número de linhas e de colunas que ela
⎡1 3⎤
contém. Por exemplo, a matriz A = ⎢ ⎥ , possui dimensão 2 x 2, ou seja, possui duas
⎣2 4 ⎦
Matriz Quadrada: É toda matriz onde o número linhas é igual ao número de colunas,
O traço de uma matriz quadrada de ordem n é dado pela soma dos elementos da
136
n
temos que: traço (A) = a11 + a 22 + L + a nn = ∑ a ii .
i =1
Exemplo:
⎡ 1 3 15 ⎤
Para A = ⎢⎢4 7 10 ⎥⎥ , traço (A) = 1 + 7 – 2 = 6.
⎢⎣3 1 − 2⎥⎦
colunas (ou linhas) de A’ forem iguais aos elementos das linhas (ou colunas) de A. Por
exemplo,
⎡ 1 2⎤
A' = ⎢ ⎥ é a matriz transposta da matriz A apresentada inicialmente.
⎣3 4 ⎦
Uma matriz A igual a sua transposta se diz simétrica. Por exemplo, a matriz
⎡a b⎤
A=⎢ ⎥ é simétrica
⎣b c ⎦
Matriz Diagonal: É uma matriz quadrada cujos termos fora da diagonal são todos nulos.
⎡8 0 0⎤
D = ⎢⎢0 4 0⎥⎥ = Diag (8, 4, 5) é diagonal.
⎢⎣0 0 5⎥⎦
Matriz Identidade: Toda matriz quadrada I onde os elementos da diagonal principal são
iguais a 1 e os demais são nulos, é dita matriz identidade. Por exemplo, a matriz I a
seguir.
137
⎡ 1 0 0⎤
⎢ ⎥
I = ⎢ 0 1 0⎥
⎢⎣ 0 0 1⎥⎦
Exemplo:
⎡ 2 3⎤ ⎡ 1 0⎤ ⎡(2 + 1) (3 + 0)⎤ ⎡ 3 3⎤
⎢ 1 4⎥ + ⎢ 0 1⎥ = ⎢ (1+ 0) (4 + 1) ⎥ = ⎢ 1 5⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
⎡2 3 ⎤ ⎡ 1 0⎤ ⎡(2 - 1) (3 - 0)⎤ ⎡1 3 ⎤
⎢ 1 4 ⎥ - ⎢0 1⎥ = ⎢(1 - 0) (4 - 1) ⎥ = ⎢1 3 ⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
Multiplicação de Matrizes
Exemplo:
⎡ 1 1⎤
⎡ 2 3 1⎤ ⎢ ⎥ ⎡ (2x1+ 3x1+ 1x0) (2x1+ 3x0 + 1x1) ⎤ ⎡ 5 3⎤
⎢ 1 2 3⎥ ⎢ 1 0⎥ = ⎢(1x1+ 2x1+ 3x0) (1x1+ 2x0 + 3x1)⎥ = ⎢ 3 4⎥
⎣ ⎦ ⎢ ⎣ ⎦ ⎣ ⎦
⎣ 0 1⎥⎦
Matriz Inversa
A inversa de uma matriz quadrada A, simbolizada por A-1, é uma matriz tal que o
produto da matriz A pela sua inversa A-1 fornece a matriz identidade. Então, se A-1A = I,
Exemplo:
138
⎡ 1 2 1⎤ ⎡ 2 -1 0 ⎤
A = ⎢ 1 4 2⎥ e B = ⎢⎢- 3 3 - 1⎥⎥
⎢ ⎥
⎢⎣0 5 3⎥⎦ ⎢⎣ 5 - 5 2 ⎥⎦
⎡ 2 - 1 0 ⎤ ⎡ 1 2 1⎤ ⎡ 1 0 0⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
BA = ⎢- 3 3 - 1⎥ ⎢ 1 4 2⎥ = ⎢0 1 0 ⎥ = I
⎢⎣ 5 - 5 2 ⎥⎦ ⎢⎣0 5 3 ⎥⎦ ⎢⎣0 0 1⎥⎦
(Cofatores de A) '
A−1 = ,
Det(A )
em que,
O cofator do elemento aij é cij = (-1)i+j Dij, onde Dij é o determinante da matriz
⎡ a11 a12 ⎤
O determinante da matriz A = ⎢ ⎥ é dado por:
⎣ a 21 a 22 ⎦
139
Exemplo:
⎡ 1 1 1⎤
⎢ ⎥
Obter a inversa da matriz A = ⎢ 2 1 0⎥
⎢⎣ 0 1 1⎥⎦
c11 = (-1)1+1 (1 x 1 - 0 x 1) = 1
c12 = (-1)1+2 (2 x 1 - 0 x 0) = -2
c13 = (-1)1+3 (2 x 1 - 0 x 1) = 2
c21 = (-1)2+1 (1 x 1 - 1 x 1) = 0
c22 = (-1)2+2 (1 x 1 - 1 x 0) = 1
c23 = (-1)2+3 (1 x 1 - 0 x 1) = -1
c31 = (-1)3+1 (1 x 0 - 1 x 1) = -1
c32 = (-1)3+2 (1 x 0 - 2 x 1) = 2
c33 = (-1)3+3 (1 x 1 - 1 x 2) = -1
Então,
⎡ 1 −2 2⎤ ⎡ 1 0 − 1⎤
⎢ ⎥ ⎢ ⎥
Cofatores de A = ⎢ 0 1 − 1⎥ e (Cofatores de A)’ = ⎢− 2 1 2 ⎥
⎢⎣− 1 2 − 1⎥⎦ ⎢⎣ 2 − 1 − 1⎥⎦
1 1 1 | 1 1
2 1 0 | 2 1 Det(A) = 1x1x1 + 1x0x0 + 1x2x1 - (1x1x0 + 1x0x1 + 1x2x1)
0 1 1 | 0 1
140
⎡ 1 0 − 1⎤ ⎡ 1 0 − 1⎤
−1 1 ' 1⎢ ⎥ ⎢ ⎥
A = ⋅ (Cofatores) = ⎢− 2 1 2 ⎥ = ⎢− 2 1 2 ⎥
Det(A ) 1
⎢⎣ 2 − 1 − 1⎥⎦ ⎢⎣ 2 − 1 − 1⎥⎦
Verificação: A-1A = I
Fato: Nem toda matriz quadrada A tem inversa A-1. As que têm, chamam-se não-
{ }
Seja A uma matriz quadrada de ordem n. O determinante de A = aij para i, j = 1,
n
Det( A ) = A = ∑ aij ( −1)i + j Mij , para qualquer i, onde Mij é o menor de aij e é o
j =1
n
Det( A ) = A = ∑ aij ( −1)i + j Mij , para qualquer j.
i =1
Para a matriz
141
3
A = ∑ a1j ( −1)1+ j M1j
j =1
a a 23 a a 23 a a 22
= a11( −1)1+1 22 + a12 ( −1)1+ 2 21 + a13 ( −1)1+ 3 21
a 32 a 33 a 31 a 33 a 31 a 32
a a 23 a a 23 a a 22
= a11 22 − a12 21 + a13 21
a 32 a 33 a 31 a 33 a 31 a 32
⎡ 1 2 1⎤
A = ⎢⎢0 2 3⎥⎥ ,
⎢⎣ 1 3 0⎥⎦
3
A = ∑ a 2 j ( −1) 2 + j M2 j
j =1
Exemplos:
⎡ 1 0 − 1 2⎤
(i) A = ⎢⎢3 1 4 2⎥⎥
⎢⎣5 2 9 2⎥⎦
c4 = 2 c1 – 4 c2
142
⎡7 3 ⎤
(ii) B = ⎢ ⎥
⎣4 6⎦
7 3
Det(B) = = 7 x6 − 3 x 4 = 42 − 12 = 30
4 6
Matriz Idempotente
A variância amostral mede a dispersão dos dados em torno da média. Ela é dada
pela soma dos quadrados dos desvios em relação à média aritmética dividida pelo
n
2 ⎡ n ⎤
∑ (yi − y) ⎢ ( ∑ y i )2 ⎥
SQTotal c i =1 1 ⎢ n 2 i =1 ⎥
s2 = = = ∑y −
n −1 n −1 n − 1 ⎢i =1 i n ⎥
⎢ ⎥
⎣ ⎦
2 2(12)2
2
SQTotalc = 2 + 3 + 7 − = 62 − 48 = 14
3
14 14
s2 = = = 7.
3 −1 2
143
⎡ y1 ⎤ ⎡ 1⎤
⎢y ⎥ ⎢ 1⎥ n
y= ⎢ 2⎥
, u= ⎢ ⎥ , y' u = ∑ y i
⎢L⎥ ⎢L⎥ i =1
⎢ ⎥ ⎢ ⎥
n ⎣ n ⎦1 n ⎣ 1 ⎦1
y
n
( ∑ y i )2
1
SQTotal c = y' y − y' uu' y = y' y − C , C = i =1
n n
⎡ uu' ⎤
= y' ⎢I(n) − y
⎣1424 n ⎥⎦
3
=Q
= y' Qy
No exemplo, virá:
⎡ 1 0 0⎤ ⎡1 1 1⎤ ⎡ 2 3 − 1 3 − 1 3⎤
Q = ⎢⎢0 1 0⎥⎥
1⎢
− ⎢ 1 1 1⎥⎥ = ⎢− 1 3 2 3 − 1 3⎥
⎢ ⎥
3
⎢⎣0 0 1⎥⎦ ⎢⎣1 1 1⎥⎦ ⎢⎣− 1 3 − 1 3 2 3 ⎥⎦
⎡ 2 3 − 1 3 − 1 3⎤ ⎡ 2 3 − 1 3 − 1 3⎤ ⎡ 2 3 − 1 3 − 1 3⎤
Q ⋅ Q = ⎢⎢− 1 3 2 3 − 1 3⎥⎥ ⎢⎢− 1 3 2 3 − 1 3⎥⎥ = ⎢⎢− 1 3 2 3 − 1 3⎥⎥
⎢⎣− 1 3 − 1 3 2 3 ⎥⎦ ⎢⎣− 1 3 − 1 3 2 3 ⎥⎦ ⎢⎣− 1 3 − 1 3 2 3 ⎥⎦
2 2 2
Traço(Q) = + + =2 e y' Qy = 14
3 3 3
y' Qy 14
Assim, s 2 = = = 7.
n −1 2
144
APÊNDICE 2
1. Norma Euclidiana
⎡ x1 ⎤
⎢x ⎥
A norma de um vetor real x = ⎢ 2 ⎥ é definida como:
⎢L⎥
⎢ ⎥
n ⎣ n ⎦1
x
norma de x = x = x ′ x
1
⎛n ⎞2
= x12 + x 22 + L + x n2 = ⎜⎜ ∑ x i2 ⎟⎟
⎝ i =1 ⎠
⎡2⎤
Exemplo: Para x = ⎢ ⎥ , sua norma é:
⎣3⎦
x = 2 2 + 3 2 = 4 + 9 = 13
x2
3 P=(x1,x2)
d x2
0 1 2 3 x1
x1
∴ 13 é o comprimento do vetor x.
145
▪ Teorema de Pitágoras ⇒ d2 = 22 + 32
⎡ 1⎤
⎢2⎥
Para x = ⎢ ⎥ , tem-se que x = 12 + 22 + 22 + 42 = 25 = 5
⎢2⎥
⎢ ⎥
⎣4⎦
Fato: Um vetor está normalizado quando a sua norma for igual a 1. Assim, o vetor
⎛ 1⎞
u = ⎜ ⎟ x ,é a forma normalizada de x (porque u′ u = 1 ).
⎜ x ⎟
⎝ ⎠
⎡ 1⎤
⎢ ⎥
1 2
u = ⎢ ⎥ . Note que u′ u = 1
5 ⎢2⎥
⎢ ⎥
⎣4⎦
2. Forma Quadrática
n n
f (x ) = x ′ A x = ∑ ∑ a ij x i x j
i =1j =1
n
= ∑ aii x i2 + ∑ ∑ aij x i x j ,
i =1 i≠ j
146
n
f (x ) = x ′ A x = ∑ a ii x i2 + 2 ∑ ∑ aij x i x j .
i =1 i< j
Exemplos:
n 2 n
(i) SQTotal (corrigida pela média) = ∑ (y i − y ) = ∑ y i2 − C ,
i =1 i =1
onde,
2
⎛n ⎞
⎜⎜ ∑ y i ⎟⎟
G2
C = Correção = ⎝
i =1 ⎠
=
n n
⎡ y1 ⎤ ⎡ 1⎤
⎢y ⎥ ⎢ 1⎥
Para y = ⎢ 2⎥
e u= ⎢ ⎥ , podemos escrever:
⎢L⎥ ⎢L⎥
⎢ ⎥ ⎢ ⎥
n ⎣ n ⎦1 n ⎣ 1 ⎦1
y
uu′
SQTotalC = y ′ y − y ′ y
n
uu′
= y ′ I(n)y − y ′ y
n
⎡ ⎤
⎢ uu ′ ⎥
= y ′ ⎢I(n ) − ⎥ y = y ′ Q1 y
⎢ 1424 n ⎥
3
⎢⎣ Q1 ⎥⎦
n
(ii) SQTotal (não corrigida pela média) = ∑ y i2 .
i =1
SQTotal NC = y ′ y = y ′ I(n ) y ,
147
⎡ 1 3 5⎤ ⎡ x1 ⎤
f (x ) = x ′ A x = [x1 x 2 x 3 ] ⎢⎢3 4 7⎥⎥ ⎢⎢ x 2 ⎥⎥
⎢⎣5 7 9⎥⎦ ⎢⎣ x 3 ⎥⎦
(i) Escalares
Para λ = 3 x1 + 4x 2 + 9x 3
⎡ ∂λ ⎤ ⎡ ∂ ⎤
⎢ ⎥ ⎢ ⎥
⎢ ∂x1 ⎥ ⎢ ∂x1 ⎥ ⎡3 ⎤
∂λ ⎢ ∂λ ⎥ ⎢ ∂ ⎥
= = λ = ⎢⎢4⎥⎥
∂x ⎢ ∂x 2 ⎥ ⎢ ∂x 2 ⎥
⎢ ∂λ ⎥ ⎢ ∂ ⎥ ⎢⎣9 ⎥⎦
⎢ ⎥ ⎢ ⎥
⎢⎣ ∂x 3 ⎥⎦ ⎢⎣ ∂x 3 ⎥⎦
⎡ x1 ⎤
λ = 3 x1 + 4 x 2 + 9 x 3 = [3 4 9] ⎢⎢ x 2 ⎥⎥ = a′ x .
⎢⎣ x 3 ⎥⎦
Assim,
∂
(a′ x ) = ∂ (x ′ a) = a .
∂x ∂x
(ii) Vetores
∂ (x ′ A ) ⎡ ∂ x ′ a1 ∂ x′ a2 ∂ x ′ an ⎤
=⎢ L = [a1 a 2 L an ] = A .
∂x ⎣ ∂x ∂x ∂x ⎥⎦
∂
Fato: (A x ) ≡ ∂ (A x )′ = ∂ (x′ A ′) = A ′
∂x ∂x ∂x
y Se A for simétrica ⇒ A = A ′
148
Exemplo:
⎡2 6 − 1⎤ ⎡ x1 ⎤ ⎡ 2x1 + 6 x 2 − x 3 ⎤
⎢
Seja A x = ⎢3 − 2 4 ⎥⎥ ⎢⎢ x 2 ⎥⎥ = ⎢⎢ 3 x1 − 2x 2 + 4 x 3 ⎥⎥
⎢⎣3 4 7⎥⎦ ⎢⎣ x 3 ⎥⎦ ⎢⎣ 3 x1 + 4 x 2 + 7 x 3 ⎥⎦
∂
(A x ) = ⎡⎢ ∂ (2x1 + 6x 2 − x 3 ) ∂ (3x1 − 2x 2 + 4x 3 ) ∂ (3x1 + 4x 2 + 7x 3 )⎤⎥
∂x ⎣ ∂x ∂x ∂x ⎦
⎡ 2 3 3⎤
= ⎢⎢ 6 −2 4 ⎥⎥ = A ′
⎢⎣ − 1 4 7⎥⎦
f (x ) = x ′ A x , com A simétrica
∂
(x′ A x ) = ∂ (x′ P) + ∂ (Q x ) , para P = A x e Q = x ′ A
∂x ∂x ∂x
= P + Q′
= A x + A′ x
∂
Para A = A ′ ⇒ (x′ A x ) = 2 A x (vetor coluna)
∂x
∂
e (x′ A x ) = 2 x′ A (vetor linha)
∂x ′
⎡1 3 5⎤ ⎡ x1 ⎤
x ′ A x = [x1 x 2 x 3 ] ⎢⎢3 4 7⎥⎥ ⎢⎢ x 2 ⎥⎥
⎢⎣5 7 9⎥⎦ ⎢⎣ x 3 ⎥⎦
149
⎡ ∂ f (x )⎤
⎢ ∂x ⎥
⎢ 1 ⎥ ⎡ 2x1 + 6 x 2 + 10 x 3 ⎤
∂ f (x ) ⎢ ∂ f (x )⎥ ⎢
= = 6 x1 + 8 x 2 + 14 x 3 ⎥⎥
∂x ⎢ ∂x 2 ⎥ ⎢
⎢ ∂ f (x )⎥ ⎢⎣ 10 x1 + 14 x 2 + 18 x 3 ⎥⎦
⎢ ⎥
⎣ ∂x3 ⎦
⎡ 1 3 5⎤ ⎡ x1 ⎤
∂ f (x )
= 2 ⎢⎢3 4 7⎥⎥ ⎢⎢ x 2 ⎥⎥ = 2 A x .
∂x
⎢⎣5 7 9⎥⎦ ⎢⎣ x 3 ⎥⎦
∂ f (x ) ⎡ ∂ f (x ) ∂ f (x ) ∂ f (x )⎤
=⎢ ⎥
∂x ′ ⎣ ∂x1 ∂x 2 ∂x 3 ⎦
⎡1 3 5⎤
= 2 [x1 x 2 x 3 ] ⎢⎢3 4 7⎥⎥ = 2 x ′ A
⎢⎣5 7 9⎥⎦
Fato:
∂ 2 f (x ) ⎡ ∂ ⎤ ⎡ ∂ f ( x ) ⎤
=
∂x ∂x ′ ⎢⎣ ∂x ⎥⎦ ⎢⎣ ∂x ′ ⎥⎦
⎡ ∂ ⎤
⎢ ∂x ⎥
⎢ 1⎥
⎢ ∂ ⎥ ⎡ ∂ f (x) ∂ f (x) ∂ f ( x) ⎤
= ⎢ ∂x ⎥ ⎢ L ⎥
⎢ L ⎥ ⎣ ∂x1 ∂x 2 ∂x n ⎦
2
⎢ ∂ ⎥
⎢ ⎥
⎣⎢ ∂x n ⎦⎥
⎡ ∂ 2 f (x ) ∂ 2 f (x ) ∂ 2 f (x ) ⎤
⎢ L ⎥
⎢ ∂x1 ∂x1 ∂x1 ∂x 2 ∂x1 ∂x n ⎥
=⎢ M M M M ⎥= 2A
⎢ ∂ 2 f (x ) ∂ f (x )
2
∂ f (x ) ⎥
2
⎢ L ⎥
⎢⎣ ∂x n ∂x1 ∂x n ∂x 2 ∂x n ∂x n ⎥
⎦
150
TABELAS
Tabela 1 – Áreas de uma distribuição norma padrão. Cada casa na Tabela dá a proporção sob a curva inteira entre z=0 e um valor positivo de
z. As áreas para os valores de z negativos são obtidas por simetria.
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,7 0,2580 0,2611 0,2642 0,2673 0,2703 0,2734 0,2764 0,2794 0,2823 0,2852
0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830
1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4006 0,4319
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990
151
Tabela 2 - Valores de t em níveis de 0,50 a 0,005 de probabilidade (Tabela Bilateral)
∞
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,40 2,34 2,29 2,24 2,19 2,16 2,03 1,95 1,86 1,76 1,66 1,53 1,38
6,63 4,61 3,78 3,32 3,02 2,80 2,64 2,51 2,41 2,32 2,24 2,18 2,12 2,07 2,04 1,99 1,88 1,79 1,70 1,59 1,47 1,32 1,00
∞
120 3,92 3,07 2,68 2,45 2,29 2,17 2,09 2,02 1,96 1,91 1,86 1,83 1,80 1,77 1,75 1,73 1,66 1,61 1,55 1,50 1,43 1,35 1,25
3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88 1,83 1,79 1,75 1,72 1,69 1,67 1,64 1,57 1,52 1,46 1,39 1,32 1,22 1,00