Você está na página 1de 68

ESTATÍSTICA EXPERIMENTAL:

REGRESSÃO

17 de julho de 2023
1. Regressão Linear Simples
1.1 Introdução

A utilização de modelo de regressão, pode ter


por objetivos:
1. Predição;
2. Seleção de variáveis;
3. Estimação de parâmetros;
4. Inferência.
1.2 Modelo estatı́stico
Suponha que a relação verdadeira entre X e Y é
uma linha reta, e que cada observação Y, em
cada nı́vel de X, é uma variável aleatória

Então, o valor esperado de Y para cada valor de


X é
E (Y |X ) = β0 + β1X
Dados n pares de duas variáveis, Xi , Yi
(i = 1, 2, ..., n), se admitirmos que Y é função
linear de X, podemos estabelecer uma regressão
linear simples, cujo modelo estatı́stico é
Yi = β0 + β1Xi + εi , i = 1, 2, ..., n
em que β0 e β1 são os parâmetros a serem
estimados.
Ao estabelecer o Modelo de Regressão Linear
Simples (MRLS), pressupõe-se que:
i) A relação entre X e Y é linear.
Ao estabelecer o Modelo de Regressão Linear
Simples (MRLS), pressupõe-se que:
i) A relação entre X e Y é linear.
ii) Os valores de X são fixos (ou controlados).
Ao estabelecer o Modelo de Regressão Linear
Simples (MRLS), pressupõe-se que:
i) A relação entre X e Y é linear.
ii) Os valores de X são fixos (ou controlados).
iii) A média do erro é nula, isto é, E(εi ) = 0.
Ao estabelecer o Modelo de Regressão Linear
Simples (MRLS), pressupõe-se que:
i) A relação entre X e Y é linear.
ii) Os valores de X são fixos (ou controlados).
iii) A média do erro é nula, isto é, E(εi ) = 0.
iv) Para um dado valor de X, a variância do erro
εi é sempre σ 2, denominada da variância
residual, isto é
Var (εi ) = E (ε2i ) − [E (εi )]2 = E (ε2i ) = σ 2
o que implica em
Var (Yi ) = E [Yi − E (Yi )]2 = E (ε2i ) = σ 2
Diz-se, então, que o erro é homocedástico, ou
que se tem homocedasticia (do erro ou da
variável dependente).
v) O erro de uma observação é independente do
erro de outra observação, isto é,
Cov (εi , ε,i ) = E (εi ε,i )−E (εi )E (ε,i ) = E (εi ε,i ) = 0,
∀i ̸= i ,.
v) O erro de uma observação é independente do
erro de outra observação, isto é,
Cov (εi , ε,i ) = E (εi ε,i )−E (εi )E (ε,i ) = E (εi ε,i ) = 0,
∀i ̸= i ,.
vi) Os erros têm distribuição normal.
combinando (iii), (iv) e (v) tem-se εi ∼ N(0, σ 2)
e, portanto,
Yi ∼ N(β0 + β1Xi , σ 2)
A suposição de normalidade é necessária para a
elaboração dos testes de hipóteses e obtenção de
intervalos de confiança.
1.3 Estimação dos parâmetros

Uma tarefa importante associada com o modelo


de regressão linear é a estimação dos valores de
β0 e β1, de forma que os desvios dos valores
observados em relação aos estimados sejam
mı́nimos.

 β̂0 = Ȳ − β̂1X̄

Pn
 β̂1 = i=1 Xi Yi −nX̄ Ȳ

P n 2 2
i=1 Xi −nX̄
1.3.1 Notações especiais

n
X
SXX = (Xi − X̄ )2
i=1
Xn
= (Xi2 − 2Xi X̄ + X̄ 2)
i=1
Xn
= Xi2 − 2nX̄ 2 + nX̄ 2
i=1
Xn
= Xi2 − nX̄ 2
i=1
n
X
SXY = (Xi − X̄ )(Yi − Ȳ )
i=1
Xn
= (Xi Yi − Xi Ȳ − X̄ Yi + X̄ Ȳ )
i=1
Xn
= Xi Yi − nX̄ Ȳ − nX̄ Ȳ + nX̄ Ȳ
i=1
Xn
= Xi Yi − nX̄ Ȳ
i=1
n
X
SYY = (Yi − Ȳ )2
i=1
Xn
= (Yi2 − 2Yi Ȳ + Ȳ 2)
i=1
Xn
= Yi2 − 2nȲ 2 + nȲ 2
i=1
Xn
= Yi2 − nȲ 2
i=1

Os EMQ de β0 e β1 em termos da notação


acima são: βˆ0 = Ȳ − βˆ1X̄ e βˆ1 = SSXY
XX
.
EXEMPLO 1: Para exemplificar, vamos
considerar um estudo que foi feito para investigar
o efeito de um desinfetante. Foram preparadas
soluções, nas quais o desinfetante foi diluı́do em
quantidades fixas de água, para concentrações
do desinfetante de 1% a 8%. Foi observado o
número de bactérias que sobreviveram, após
superfı́cies serem limpas com uma das soluções.
Consideremos a amostra de 16 pares de valores
Xi , Yi da Tabela 1.
Tabela: Valores de Xi e Yi (i=1, ..., 16)

X Y X Y
1 29 4 21
1 31 4 22
2 26 5 14
2 25 5 24
3 21 6 23
3 24 6 15
3 26 7 18
3 28 8 13
São dados, a seguir, os resultados da alguns
cálculos intermediários para obtenção das
estimativas β̂0 e β̂1.



 β̂0 = Ȳ − β̂1X̄ = 22, 5 − (−2, 1328) × 3, 9375
 ⇒ β̂0 = 30, 9



Pn
i=1 Xi Yi −nX̄ Ȳ 1.279−16×3,9375×22,5
β̂ = 2 =

 1 P n 2 313−16×(3,9375)2
i=1 Xi −nX̄




 ⇒ β̂ = −2, 1328
1

Assim, ajustando o MRLS para explicar o


número de bactérias (Y), em termos das
concentrações do desinfetante (X), temos:
Ŷ = 30, 9 − 2, 13x.
1.4 Análise de variância da regressão
Para testar a hipótese

H0 : β1 = 0,
ao nı́vel de significância adotado, podemos
utilizar a estatı́stica F.

Nesse caso, o procedimento consiste em rejeitar


H0 para todo
Q.M.Regress~ ao
Fcalculado =
Q.M.Resı́duo
maior ou igual ao F crı́tico com 1 e n − 2 graus
de liberdade, relativo ao nı́vel de significância
adotado.
Tabela: Esquema de análise de variância

C.V G.L S.Q Q.M E(Q.M.)


n n
2 X 2 X
Regressão 1 βˆ1 Xi − X̄ S.Q.Reg
1 β12 (Xi − X̄ )2 + σ 2
i=1 i=1
Resı́duo n-2 por diferença S.Q.Res
n−2 σ2
Xn
Total n-1 (Yi − Ȳ )2
i=1

Q.M.Regress~ao
Fcalculado =
Q.M.Resı́duo
em que:
G.L: Graus de Liberdade
S.Q: Soma de Quadrados
Q.M: Quadrados Médios
A estatı́stica F obtida na Tabela 2 serve para
testar a significância da regressão, ou seja, testar
H0 : β1 = 0 versus Ha : β1 ̸= 0.
Regra de decisão: se Fcalculado ≥ F(α,1,n−2) ⇒
rejeita-se H0. Ou se,
Pr (F(1,n−2) > Fcalculado) < α.
1.5 Coeficiente de determinação (r2)
O coeficiente de determinação, definido por
2 S.Q.Reg
r = ,
S.Q.Total
indica a proporção da variação de Y que é “
explicada”pela regressão. Note que 0 ≤ r 2 ≤ 1.
Se estamos interressados em estimar valores de
Y a partir de valores de X, a regressão será tanto
mais útil quanto mais próximo de um estiver o
valor de r 2.
EXEMPLO 2: verificar a significância da
regressão ajustada no Exemplo 1 ( use
α = 0, 05) e apresente a hipótese a ser testada
pela ANOVA.

 H0 : β1 = 0

Ha : β1 ̸= 0

n
X
S.Q.Total = (Yi − Ȳ )2
i=1
= 424

n
2X
ao = βˆ1
S.Q.Regress~ (Xi − X̄ )2
i=1
= (2, 1328)2 × 64, 9375
= 295, 39
S.Q.Resı́duo = S.Q.Total − S.Q.Regress~ao
= 424 − 295, 39 = 128, 61
De posse destes resultados, podemos conduzir a
análise de variância da regressão linear simples,
conforme o esquema seguinte

C.V G.L S.Q Q.M Fcalculado


Regressão 1 295,39 295,39 32,14
Resı́duo 14 128,61 9,19
Total 15 424
Conclusão: com base na ANOVA, nota-se que o
Fcalculado = 32, 14 > FTabelado = 4, 6 (quantil
de distribuição F com 1 e 14 graus de liberdade,
com o nı́vel de significância de 5%). Logo, a
hipótese testada H0 : β1 = 0 deve ser rejeitada.
Assim, conclui-se que existe uma regressão
linear. Temos que
2 295, 39
R = = 0, 697
424
Ou 69,7%, ou seja 69,7% da variabilidade total é
explicada pela regressão.
1.5 Teste da Falta de ajuste ( Lack of
fit)
Após o ajuste, é importante verificar se o modelo linear
é adequado. Uma maneira formal de verificar o ajuste de
um modelo linear é por meio do teste de Falta de ajuste.
este teste requer medidas repetidas para um ou mais nı́veis
de X.
1.5.1 Análise de Falta de ajuste nos
modelos de Regressão Linear Simples
O Modelo de Regressão Linear Simples (MRLS)
é:

i = 1, 2, ..., m;
yij = β0 + β1xi + εij (1)
j = 1, 2, ..., ni ;
em que:
◦ yij representa a j-ésima observação para o i-ésimo valor da
variável;
◦ β0 onde a reta intercepta o eixo Y;
◦ β1 representa a inclinação da reta de regressão;
◦ xi representa o i-ésimo valor da variável explicativa;
◦ εij representa o erro aleatório associado ao i-ésimo e j-ésima
observação.
◦ ni representa o número de observações para o i-ésimo valor de x.
Supondo que temos m diferentes valores da
variável explicativa (x1, x2, ..., xm ) e que temos ni
réplicas da variável resposta para cada valor da
variável explicativa, ou seja,


 x1 ⇒ Y11 Y12 ... Y1n1




 x2 ⇒ Y21 Y22 ... Y2n2
 x3 ⇒ Y31 Y32 ... Y3n3


. . . ... . (2)

. . . ... .







 . . . ... .

x ⇒ Y
m m1 Ym2 ... Ymnm
Para facilitar o entendimento, será mostrado
como é feita a análise de variância da regressão
com o teste para falta de ajustamento,
considerando os dados do Exemplo 1.
Tabela: Valores de Xi e Yi para uma amostra de 16 observações, agrupadas conforme
valores distintos de Xi

Concentração Replicações Totais


(xi ) (yi ) (Tm )
1 29 e 31 60
2 26 e 25 51
3 21; 24; 26 e 28 99
4 21 e 22 43
5 14 e 24 38
6 23 e 15 38
7 18 18
8 13 13
A tabela ANOVA se resume em:

Tabela: Análise de variância

C.V G.L S.Q Q.M F


S.Q.Reg Q.M.Reg
Regressão 1 S.Q.Reg 1 Q.M.Res.Reg
S.Q.Res.Reg
Resı́duo de Regressão n - 2 S.Q.Res.Reg n−2
S.Q.Fajuste Q.M.Fajuste
Falta de Ajuste m-2 S.Q.Fajuste m−2 Q.M.Res
S.Q.Res
Resı́duo n-m S.Q.Res n−m
Total n -1 S.Q.Total
Em que:
n
!2
X
n
Yi
X i=1
S.Q.Total = Yi2 −
n
i=1

n
2X
ao = βˆ1
S.Q.Regress~ (Xi − X̄ )2
i=1

S.Q.Res.Reg = S.Q.Total − S.Q.Reg


S.Q.Fajuste = S.Q.Tratamento − S.Q.Regress~
ao

n
!2
X
M
Yi
X Tm2 i=1
S.Q.Trat. = − (3)

m=1
nm n

S.Q.Res = S.Q.Total − S.Q.Tratamento


Hipóteses para Falta de ajuste:


H0 : E (Y )=β0 + β1 xi , modelo linear é adequado
Ha : E (Y ) ̸= β0 + β1 xi , modelo linear n~
ao é adequado
(4)

Se H0 é verdadeira, obtemos
F0 ∼ F(m−p−1,n−m). Com isso rejeitamos H0 se
F0 > F(α,m−p−1,n−m). O valor-p é dado por:
valor-p = P[F(α,m−p−1,n−m) > F0].
No caso do exemplo numérico que estamos
desenvolvendo (EXEMPLO 1) temos que:
S.Q.Total = 424;

602 512 992 132 3602


S.Q.Trat = + + + ... + −
2 2 4 2 16
(5)

= 8412, 25 − 8100 = 312, 25

com m -1 = 8- 1 = 7 graus de liberdade.

S.Q.Res. = 424 − 312, 25 = 111, 75


com n- m = 16 - 8 = 8 graus de liberdade.
Vimos anteriormente que

S.Q.Res.da Reg. = 128, 61


S.Q.Falta de Aj. = S.Q.Trat. - S.Q.Reg. (6)

com (m-1)-1 = m - 2 graus de liberdade.


Para o exemplo numérico que estamos desenvolvendo,
temos

S.Q.Falta de Aj. = 128, 61 − 111, 75 = 16, 86,


com m -2 = 6 graus de liberdade.
Construı́mos, assim, a Tabela de análise de
variância.
Tabela: Análise de variância

C.V G.L S.Q Q.M F


Regressão 1 295,39 295,39 32,14
Resı́duo de Regressão 14 128,61 9,19
Falta de Ajuste 6 16,86 2,81 0,20
Resı́duo 8 111,75 13,97
Total 15 424
Ao nı́vel de significância de 5%, o valor crı́tico
de F com 6 e 8 graus de liberdade é 3,58. O
resultado obtido mostra que a “ falta de
ajuste”não é significativa ao nı́vel de 5%.

Nos casos em que a “ falta de ajuste”é


significativa, concluı́mos que o modelo linear
utilizado não é apropriado. Nesses casos, o
quadrado médio do resı́duo da regressão não
estimaria corretamente a variância residual (σ 2),
pois estaria incluindo um erro sistemático devido
ao uso de um modelo inapropriado.
Estudando os modelos de regressão no R:
Polinomial Simples: de grau igual a 1
Exemplo 1: Um engenheiro civil coleta dados
em um laboratório, a fim de estudar a dilatação
de um pilar de concreto segundo a temperatura
ambiente no local onde o pilar se encontra. Veja
os dados:
Estudando os modelos de regressão no R:
Polinomial Simples: de grau igual a 1
Exemplo 1: Um engenheiro civil coleta dados
em um laboratório, a fim de estudar a dilatação
de um pilar de concreto segundo a temperatura
ambiente no local onde o pilar se encontra. Veja
os dados:
T(C) 18 16 25 22 20 21 23 19 17
Dilat. linear (mm) 5 3 10 8 6 7 9 6 5
Perguntas que podemos fazer ao depararmos com dados deste tipo:

1. Posso realizar um estudo de regressão nestes dados?


2. Qual modelo usar?
3. Como montar a equação que relaciona a temperatura com a dilatação neste
estudo?
4. A temperatura realmente exerce influência na dilatação do pilar?
5. É possı́vel quantificar essa relação?
Suas respostas podem ser encontradas fazendo-se uma análise de regressão.
Passo 1: Entrar com os dados da tabela no R.
> temp<-c(18,16,25,22,20,21,23,19,17) # Temperatura
> dilat<-c(5,3,10,8,6,7,9,6,5) # Dilataç~ ao
> dados<-data.frame(dilat,temp)
> dados
dilat temp
1 5 18
2 3 16
3 10 25
4 8 22
5 6 20
6 7 21
7 9 23
8 6 19
9 5 17
Passo 2: Modelo. Para auxiliar na escolha deste, visualizaremos os pontos
em um diagrama de dispersão:
> plot(temp,dilat, xlab="Dilataç~
ao", ylab="Temperatura")
> # variável independente deve vir primeiro
10
9
8
Temperatura

7
6
5
4
3

16 18 20 22 24

Dilatação
O diagrama sugere uma tendência linear dos dados. Montaremos, portanto, um
modelo de regressão linear simples (simples, pois existe apenas uma variável
independente temp relacionada à variação da variável dependente dilat)
Montando o modelo:
> Modelo<-lm(dilat ~ temp)
> Modelo
Call:
lm(formula = dilat ~ temp)

Coefficients:
(Intercept) temp
-8.1710 0.7323
Com base neste modelo ajustado, temos duas informações: o valor do intercepto
(valor em que a reta de regressão intercepta o eixo das ordenadas) e o valor que
representa o coeficiente de inclinação da reta, ou seja, a relação entre dilatação e
a temperatura ( o quanto à dilatação varia para cada variação unitária da
temperatura). Esses valores são comumente representados pelos estatı́sticos
como β0 e β1 , respectivamente.
Logo, podemos concluir que o modelo de regressão ajustado seria:

Ŷ = βˆ0 + βˆ1 .X
ˆ = −8, 1710 + 0, 7323.temp
dilat
em que a temperatura é dada em 0 C e a dilatação linear é dada em mm.
Com o comando predict() podemos obter os valores calculados de dilat, de
acordo com o modelo ajustado, para os valores observados de temp.
> predict(Modelo)
1 2 3 4 5 6 7
5.009677 3.545161 10.135484 7.938710 6.474194 7.206452 8.670968
9
4.277419
O primeiro valor apresentado, ou seja, 5,009677, representa o que foi calculado
para dilatação quando a temperatura é 18 0 C (o primeiro do objeto temp), e
assim sucessivamente até o último valor de temp, gerando os nove valores
apresentados.
Podemos também obter os resı́duos associados a cada observação. Esses resı́duos
seriam simplesmente a diferença entre os valores observados e calculados
correspondente a cada observação.
> resid(Modelo)
1 2 3 4 5
-0.009677419 -0.545161290 -0.135483871 0.061290323 -0.474193548 -0.2
7 8 9
0.329032258 0.258064516 0.722580645
A seguinte apresentação tabular poderia ser usada, resumindo essas informações.
> preditos<-predict(Modelo)
> residuos<-resid(Modelo)
> result<-data.frame( #criando um data.frame
+ dilat, #variável dependente
+ temp, #variável independente
+ calculado = predict(Modelo), #valores calculados
+ residuos = resid(Modelo)) #residuos
A seguinte apresentação tabular poderia ser usada, resumindo essas informações.
> result #exibindo result
dilat temp calculado residuos
1 5 18 5.009677 -0.009677419
2 3 16 3.545161 -0.545161290
3 10 25 10.135484 -0.135483871
4 8 22 7.938710 0.061290323
5 6 20 6.474194 -0.474193548
6 7 21 7.206452 -0.206451613
7 9 23 8.670968 0.329032258
8 6 19 5.741935 0.258064516
9 5 17 4.277419 0.722580645
Agora vamos plotar novamente os dados e acrescentar ao gráfico, além da reta
de regressão ajustada, segmentos de reta representando os resı́duos, ou seja,
segmentos de reta que vão dos valores observados (pontos) aos calculados (reta).
> plot(temp,dilat,xlab="Temperatura",ylab="Dilataç~
ao")
> abline(Modelo, col = 2) #reta de regress~
ao ajusta e a cor.
> segments( #desenha segmentos de reta
+ result$temp,result$dilat,result$temp,result$calculado,
+ col =4)
10
9
8
Dilatação

7
6
5
4
3

16 18 20 22 24

Temperatura
Podemos também realizar uma análise de variância da regressão da seguinte
forma:
> anova(Modelo) # ANOVA da regress~ ao
Analysis of Variance Table

Response: dilat
Df Sum Sq Mean Sq F value Pr(>F)
temp 1 36.938 36.938 201.4 2.048e-06 ***
Residuals 7 1.284 0.183
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Por meio dessa análise podemos verificar que o coeficiente β1 é significativo
(p-value encontrado foi de ordem de 10−6 ), ou seja, a temperatura influencia
significativamente a dilatação. com o comando summary() podemos obter
muitas outras informações:
> shapiro.test(residuos)
Shapiro-Wilk normality test

data: residuos
W = 0.97271, p-value = 0.9169
> summary(Modelo)
Call:
lm(formula = dilat ~ temp)

Residuals:
Min 1Q Median 3Q Max
-0.54516 -0.20645 -0.00968 0.25806 0.72258

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -8.1710 1.0475 -7.801 0.000107 ***
temp 0.7323 0.0516 14.191 2.05e-06 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 0.4283 on 7 degrees of freedom


Multiple R-squared: 0.9664, Adjusted R-squared: 0.9616
F-statistic: 201.4 on 1 and 7 DF, p-value: 2.048e-06
O valor do coeficiente de determinação (R2 ) é apresentado em multiple
R-Squared:0.9664 e representa o quanto da variação da dilatação pode ser
explicada pela variação da temperatura neste experimento. Uma vez que o valor
encontrado foi quase 97%, há indicação de que o modelo escolhido (linear) se
ajusta bem aos dados.
Polinomial Simples: de grau maior que 1
Exemplo 2: No trabalho de graduação: ”Efeito de doses de gesso na
cultura do feijoeiro (Phaseolus vulgaris l.)”RAGAZZI (1979) utilizou um
experimento inteiramente casualizado com 4 repetições, para estudar os efeitos
de 7 doses de gesso: 0, 50, 100, 150, 200, 250 e 300kg/ha sobre diversas
caracterı́sticas do feijoeiro. Para a caracterı́stica: peso de 1.000 sementes, os
resultados obtidos, em gramas, são apresentados na tabela a seguir.
REPETIÇÕES
TRATAMENTOS 1 2 3 4 TOTAIS
1-0 134,8 139,7 147,6 132,3 554,4
2 - 50 161,7 157,7 150,3 144,7 614,4
3 - 100 160,7 172,7 163,4 161,3 658,1
4 - 150 169,8 168,2 160,7 161,0 659,7
5 - 200 165,7 160,0 158,2 151,0 634,9
6 - 250 171,8 157,3 150,4 160,4 639,9
7 - 300 154,5 160,4 148,8 154,0 617,7
4379,1
Inicialmente, fazemos uma análise de variância preliminar
> peso<-c(134.8,139.7,147.6,132.3,161.7,157.7,150.3,
+ 144.7,160.7,172.7,163.4,161.3,169.8,168.2,160.7,
+ 161.0,165.7,160.0,158.2,151.0,171.8,157.3,150.4,
+ 160.4,154.5,160.4,148.8,154)
> trat<-c(rep(0,4),rep(50,4),rep(100,4),
+ rep(150,4),rep(200,4),rep(250,4),rep(300,4))
Agora vamos criar um data.frame contendo todos os dados:
> dados<-data.frame(trat,peso=peso)
> dados
trat peso
1 0 134.8
2 0 139.7
3 0 147.6
4 0 132.3
5 50 161.7
6 50 157.7
7 50 150.3
8 50 144.7
9 100 160.7
10 100 172.7
11 100 163.4
12 100 161.3
13 150 169.8
14 150 168.2
15 150 160.7
16 150 161.0
17 200 165.7
18 200 160.0
19 200 158.2
20 200 151.0
21 250 171.8
22 250 157.3
23 250 150.4
24 250 160.4
25 300 154.5
26 300 160.4
27 300 148.8
28 300 154.0
> trat<-as.factor(trat)
> bartlett.test(peso,trat)
Bartlett test of homogeneity of variances

data: peso and trat


Bartlett's K-squared = 1.8154, df = 6, p-value = 0.9359
> modelo<-aov(peso~trat)
> residuos<-residuals(modelo)
> shapiro.test(residuos)
Shapiro-Wilk normality test

data: residuos
W = 0.96874, p-value = 0.5472
> anova(modelo)
Analysis of Variance Table

Response: peso
Df Sum Sq Mean Sq F value Pr(>F)
trat 6 1941.83 323.64 7.668 0.0001876 ***
Residuals 21 886.34 42.21
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Observando os resultados do experimento, verificamos que há uma tendência de
resposta crescente até certo ponto, para depois diminuir. Em um caso como
este, em que os tratamentos são quantitativos e em mais de dois nı́veis, uma
análise completa deve levar em conta a regressão, subdividindo-se em 6 graus de
liberdade de tratamento da seguinte maneira.
CAUSA DE VARIAÇÃO G.L.
Regressão linear (ou de 1 grau) 1
Regressão quadrática (ou de 2 grau) 1
Regressão cúbica (ou de 3 grau) 1
Regressão de 4 grau 1
Regressão de 5 grau 1
Regressão de 6 grau 1
(Tratamento) 6
No entanto, regressão maior que 3 grau não tem interesse prático, de modo que,
na análise de variância, podemos considerar as regressões maiores que 3 grau
como uma única causa de variação, que denominamos desvios de regressão,
ficando para o nosso exemplo, o desdobramento seguinte:
CAUSA DE VARIAÇÃO G.L.
Regressão linear (ou de 1 grau) 1
Regressão quadrática (ou de 2 grau) 1
Regressão cúbica (ou de 3 grau) 1
Desvios de regressão 3
(Tratamento) 6
> #####Analisando os dados no pacote ExpDes.pt
> rm(list=ls(all=TRUE))
> library(ExpDes.pt)
> peso<-c(134.8,139.7,147.6,132.3,161.7,157.7,150.3,
+ 144.7,160.7,172.7,163.4,161.3,169.8,168.2,160.7,
+ 161.0,165.7,160.0,158.2,151.0,171.8,157.3,150.4,
+ 160.4,154.5,160.4,148.8,154)
> trat<-c(rep(0,4),rep(50,4),rep(100,4),
+ rep(150,4),rep(200,4),rep(250,4),rep(300,4))
> dados<-data.frame(trat,peso=peso)
> dados
trat peso
1 0 134.8
2 0 139.7
3 0 147.6
4 0 132.3
5 50 161.7
6 50 157.7
7 50 150.3
8 50 144.7
9 100 160.7
10 100 172.7
11 100 163.4
12 100 161.3
13 150 169.8
14 150 168.2
15 150 160.7
16 150 161.0
17 200 165.7
18 200 160.0
19 200 158.2
20 200 151.0
21 250 171.8
22 250 157.3
23 250 150.4
24 250 160.4
25 300 154.5
26 300 160.4
27 300 148.8
28 300 154.0
> reg.poly(peso,trat,glres=21,SQres=886.34,gltrat=6,SQtrat=1941.83)
Ajuste de modelos polinomiais de regressao
---------------------------------------------------------------------

Modelo Linear
=========================================
Estimativa Erro.padrao tc valor.p
-----------------------------------------
b0 150.5652 2.2134 68.0254 0
b1 0.0389 0.0123 3.1664 0.0046
-----------------------------------------

R2 do modelo linear
--------
0.217915
--------

Analise de variancia do modelo linear


=========================================================
GL SQ QM Fc valor.p
---------------------------------------------------------
Efeito linear 1 423.1544 423.1544 10.03 0.00465
Desvios de Regressao 5 1,518.6760 303.7351 7.2 0.00046
Residuos 21 886.3400 42.2067
---------------------------------------------------------
---------------------------------------------------------------------
Modelo quadratico
=========================================
Estimativa Erro.padrao tc valor.p
-----------------------------------------
b0 140.7839 2.8354 49.6526 0
b1 0.2736 0.0443 6.1812 0
b2 -0.0008 0.0001 -5.5196 0.00002
-----------------------------------------

R2 do modelo quadratico
--------
0.880096
--------

Analise de variancia do modelo quadratico


===========================================================
GL SQ QM Fc valor.p
-----------------------------------------------------------
Efeito linear 1 423.1544 423.1544 10.03 0.00465
Efeito quadratico 1 1,285.8430 1,285.8430 30.47 2e-05
Desvios de Regressao 4 232.8325 58.2081 1.38 0.27505
Residuos 21 886.3400 42.2067
-----------------------------------------------------------
---------------------------------------------------------------------
Modelo cubico
=========================================
Estimativa Erro.padrao tc valor.p
-----------------------------------------
b0 138.2423 3.1302 44.1644 0
b1 0.4431 0.0989 4.4812 0.0002
b2 -0.0023 0.0008 -2.8551 0.0095
b3 0.000003 0 1.9166 0.0690
-----------------------------------------

R2 do modelo cubico
--------
0.959939
--------

Analise de variancia do modelo cubico


===========================================================
GL SQ QM Fc valor.p
-----------------------------------------------------------
Efeito linear 1 423.1544 423.1544 10.03 0.00465
Efeito quadratico 1 1,285.8430 1,285.8430 30.47 2e-05
Efeito cubico 1 155.0417 155.0417 3.67 0.069
Desvios de Regressao 3 77.7908 25.9303 0.61 0.61328
Residuos 21 886.3400 42.2067
-----------------------------------------------------------
---------------------------------------------------------------------
> x<-seq(0,300,1)
> plot(trat,peso,xlab="Doses",
+ ylim=c(130,180), ylab="Pesos",
+ main="Curva ajustada e valores observados")
> curve(140.7839 + 0.2736*x -0.000783*x^2, 0,300,col=2,add=T)

Curva ajustada e valores observados


180
170
160
Pesos

150
140
130

0 50 100 150 200 250 300

Doses
> #Informaç~
oes úteis para o gráfico da curva ajustada e
> #média dos valores observados de acordo com cada dose
> dosex<-c(0,50,100,150,200,250,300)
> tapply(peso,trat, mean)
0 50 100 150 200 250 300
138.600 153.600 164.525 164.925 158.725 159.975 154.425
> Media <-c(138.600,153.600,164.525,164.925,158.725,159.975,154.425)
> Media
[1] 138.600 153.600 164.525 164.925 158.725 159.975 154.425
> ####Aqui voc^e precisa colocar a média do tratamento Media
> modelo_ajustado<- 140.7839 + 0.2736*x -0.000783*x^2
> plot(x,modelo_ajustado,ylim=c(130,180),xlab="Dose", ylab="Peso",
+ main="Curva ajustada e Valores médios",type="l",col="Red")
> points(dosex,Media,col="blue")
> legend("bottomright",bty="n",
+ legend=expression(Y[est]=='140.7839'~+~'0.2736x'
+ ~-~'0.000783x'^2~~~~R^2=='0.8801'),
+ col =c("blue","red","green"), pch=rep(20,2),
+ cex = 0.8)
Curva ajustada e Valores médios
180
170
160
Peso

150
140
130

Yest = 140.7839 + 0.2736x − 0.000783x2 R2 = 0.8801

0 50 100 150 200 250 300

Dose

Você também pode gostar