Você está na página 1de 59

Prof. Jerry A.

Johann “Estatística Descritiva, Probabilidades e Inferência” 1

1. TESTE DE HIPÓTESE (TH)


Os testes de hipóteses são baseados nas distribuições dos estimadores. Então as distribuições para
a média amostral ( x ), variância amostral (S ) e a proporção (f) são utilizados para os respectivos testes
2

µ), variância (σ ρ) da população.


σ ) e proporção (ρ
2
sobre média (µ
1.1 CONCEITOS
 Hipótese estatística: é uma suposição quanto ao valor de um parâmetro populacional que será
verificada por um teste paramétrico, ou uma afirmação quanto à natureza da população, que será
verificada por um teste de aderência ou não-paramétrico. Aqui, estudar-se-ão apenas os testes
paramétricos que são os quais se referem as hipóteses sobre os parâmetros populacionais.
São exemplos de hipóteses estatísticas: a média populacional da altura dos brasileiros é 1,65m, isto é,
µ=1,65. A variância populacional do salário é de U$ 100,00, isto é, σ =100 dólares. A proporção de
2

brasileiros com doença Y é 40%, ou seja, p=0,40. A distribuição dos pesos dos alunos da universidade é
normal.
 Teste de hipótese: é uma regra de decisão para aceitar ou rejeitar uma hipótese estatística com base
nos elementos amostrais;
 As hipóteses: Designa-se por H0 (hipótese nula) a hipótese a ser testada e por H1 a hipótese
alternativa. A rejeição de H0 implica na aceitação de H1. A hipótese alternativa geralmente representa a
suposição que o pesquisador quer provar, sendo H0 formulada com o propósito de ser rejeitada.
Vejamos alguns exemplos de testes:
H0: µ=100 H0: ρ=0,10
Teste Bicaudal (bilateral)
H1: µ≠100 H1: ρ≠0,10

H0: µ=100 H0: σ =100


2
Teste unicaudal (unilateral) à
H1: µ>100 H1: σ >100
2
direita

H0: µ=100 H0: σ =100


2
Teste unicaudal (unilateral) à
H1: µ<100 H1: σ <100
2
esquerda

1.2 ERROS TIPO Ι E TIPO ΙΙ


 Erros Tipo Ι ou de primeira espécie: constitui-se em rejeitar H0 quando ela é verdadeira. Designamos
por α a probabilidade de se cometer o erro tipo Ι (nível de significância do teste  α)
 Erros Tipo ΙΙ ou de segunda espécie: constitui-se em aceitar H0 quando ela é falsa. Designamos por β
a probabilidade de se cometer erro do tipo ΙΙ (β).
O objetivo de se testar uma hipótese proposta é tomar uma decisão, se possível, correta. Assim,
rejeitar H0 implica na aceitação de H1 e aceitar H0 implica na rejeição de H1.
A possibilidade de cometermos os erros Tipo Ι e Tipo ΙΙ baseado em dados amostrais é
apresentada na tabela abaixo:
Decisão
Aceitar H0 Rejeitar H0
Realidade
H0 é verdadeira Decisão correta (1-α) Erro Tipo Ι (α)
H0 é falsa Erro Tipo ΙΙ (β) Decisão correta (1-β)
Observe que o erro Tipo I só poderá ser cometido se rejeitarmos H0, e o erro Tipo II, quando se
aceitar H0.
O tomador de decisão deseja, obviamente, reduzir ao mínimo as probabilidades dos dois tipos de
erros. Infelizmente, esta é uma tarefa difícil, porque, para uma amostra de determinado tamanho, a
probabilidade de se incorrer em um erro Tipo II aumenta à medida que diminui a probabilidade do
erro Tipo I, e vice-versa. A redução simultânea dos erros poderá ser alcançada pelo aumento do
tamanho da amostra.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 2
1.3 PROCEDIMENTOS PARA SE EFETUAR UM TESTE DE SIGNIFICÂNCIA.
1. Enunciar as hipóteses H0 e H1;
2. Fixar o limite de erro α e identificar a variável do teste;
3. Determinar as Regiões Críticas (RC) e as Regiões Aceitáveis (RA) em função do nível de α, pelas
tabelas estatísticas;
4. Avaliar o valor da variável do teste por meio dos elementos amostrais;
5. Concluir pela aceitação ou rejeição de H0, comparando-se o valor obtido no 4º passo com as
regiões críticas e de aceitação fixadas no 3º passo.

1.3.1 Teste para a Média populacional (µ)


É conveniente lembrar que todos os testes de médias, pressupõem a normalidade da distribuição
amostral da variável do teste x .
1º passo) Enunciar as hipóteses:
H0: µ=µ0
vs
H1: µ≠µ0 (a)  (a) teste bicaudal
H1: µ>µ0 (b)  (b) teste unicaudal à direita
H1: µ<µ0 (c)  (c) teste unicaudal à esquerda.

2º passo) Fixar o nível de significância α


Admitindo-se que não se conhece a variância populacional a variável do teste será “t” Student com
n-1 graus de liberdade.

3º passo) Definir a Região Crítica (RC) e Região Aceitável (RA)

α α
2 2 α α
RA RA RA

RC RC RC RC
− tα 2 tα 2 tα − tα
(a) (b) (c)
4º passo) Calcular
x − µ0
t cal =
s n
onde:
x : média amostral;
µ0: valor de H0;
s: desvio padrão amostral;
n: tamanho da amostra.
5º passo) Conclusões
Se Tcal estiver em RA, aceita-se a hipótese H0, caso contrário, rejeita-se H0 e aceita-se a hipótese H1.

(a) Se − tα 2 ≤ t cal ≤ tα 2 , aceita-se H0;  Bicaudal

(b) se t cal > tα , rejeita-se H0;  teste unicaudal à direita

(c) se t cal < −tα , rejeita-se H0;  teste unicaudal à esquerda


Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 3
Exemplo: Uma máquina foi regulada para fabricar placas em média com de 30mm de espessura. A
distribuição das espessuras é normal. Iniciada a produção, foi colhido uma amostra de 15 placas,
que forneceu as seguintes de espessura 22,31,31,26,27,22,26,24,21,40,42,30,28,26 e 25mm. Ao nível
de 5% de significância, pode-se aceitar a hipótese de que a regulagem da máquina é satisfatória, ou
seja é de 30mm?

x=
∑ xi = 421 = 28,07
n 15
1 n (∑ xi ) 
2
 2
=
1 

(421)2  = 1 * [520,93] = 37,21 então s = 6,1
S =
2
* ∑ xi −
2
 S * 12337 
n − 1  i =1 n  15 − 1  15  14
 
 1º passo:
H0: µ=30
vs
H1: µ≠30 (a)  teste bicaudal

 2º passo:
Graus de liberdade: n-1  15-1=14  gl=14
Nível de significância=0,05  α=0,05 = 5%

 3º passo: busca-se na tabela “t” Student no eixo horizontal o valor de 5% e no eixo vertical os graus de
liberdade (gl=14). Obtendo-se desta forma o valor de 2,145. Assim teríamos:

0,025 0,025
RA

RC RC
-2,145 0 2,145

 4º passo: calcular o valor de tcal


x − µ0 28,07 − 30
t cal =  t cal = = −1,225
s n 6,10 15

 5º passo: Conclusão
Como o valor de tcal=-1,225 encontra-se na região aceitável (RA), aceita-se a hipótese H0. Assim, a média
amostral ( x =28,07mm) é estatisticamente igual a média populacional (µ=30mm).

1.3.2 Teste para a proporção populacional (ρ)


As mesmas idéias apresentadas no caso do teste de uma média podem ser utilizadas para se
realizarem testes envolvendo a proporção populacional. Assim teremos:
1º passo) Enunciar as hipóteses
H0: ρ=ρ0
vs
H1: ρ≠ρ0 (a)  (a) teste bicaudal
H1: ρ>ρ0 (b)  (b) teste unicaudal à direita
H1: ρ<ρ0 (c)  (c) teste unicaudal à esquerda.

2º passo)
Fixa-se o nível de significância α. A variável usada é a normal padronizada Z, em geral quando
n>30.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 4
3º passo) Definir a Região Crítica (RC) e Região Aceitável (RA)

α α
2 2 α α
RA RA RA

RC RC RC RC

− Zα 2 Zα 2 Zα − Zα
(a) (b) (c)

4º passo) Calcular
f − ρ0
Z cal =
ρ 0 * (1 − ρ 0 )
n
onde:
n: tamanho da amostra.
f: freqüência relativa evidenciando a proporção existente;
ρ0: valor da hipótese H0;
5º passo) Conclusões
Se Zcal estiver em RA, aceita-se a hipótese H0, caso contrário, rejeita-se H0 e aceita-se a hipótese H1.

(a) Se − Z α 2 ≤ Z cal ≤ Z α 2 , aceita-se H0;  Bicaudal

(b) se Z cal > Z α , rejeita-se H0;  teste unicaudal à direita


(c) se Z cal < −Z α , rejeita-se H0;  teste unicaudal à esquerda

≠) ou unilaterais (< OU >)


Tabela Z Normal – testes bilaterais (≠
α)
Nível de Significância para Teste Unilateral (α
0,10 0,075 0,05 0,025 0,01 0,005
α)
Nível de Significância para Teste Bilateral (α
0,20 0,15 0,10 0,05 0,025 0,01
Z α 1,28 1,44 1,65 1,96 2,24 2,58

Exemplo: As condições de mortalidade de uma região são tais que a proporção de nascidos que
sobrevivem até 60 anos é de 0,60. Teste a hipótese ao nível de 5% se em 1000 nascimentos
amostrados aleatoriamente, verificou-se 530 sobreviventes até 60 anos.
 1º passo:
H0: ρ=0,60
vs
H1: ρ≠0,60 (a)  (a) teste bicaudal

 2º passo:
Nível de significância=0,05  α=0,05 = 5% e a variável usada é a normal padrão(0,1).

 3º passo: vimos anteriormente no capítulo sobre intervalos de confiança que quando se trata da família
de distribuição normal reduzida Z, para a proporção da área do intervalo, teremos para 95% o valor de
1,96. Obtém-se desta forma o valor crítico (RC) de Z α  Z 0 , 05 =1,96.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 5

0,025 0,025
RA

RC RC
-1,96 0 1,96
 4º passo: calcular o valor de Z

f = 530 = 0,53 que representa a proporção dos sobreviventes até 60 anos dos 1000 nascimentos
1000
amostrados.
f − ρ0 0,53 − 0,60
Z cal =  Z cal =  Z cal = −4,52
ρ 0 * (1 − ρ 0 ) 0,60 * (1 − 0,60)
n 1000
 5º passo: Conclusão
Como o valor de Zcal=-4,52 encontra-se na região crítica (RC), rejeita-se a hipótese H0. Assim, a proporção
amostral (f=0,53) é estatisticamente diferente da proporção populacional (ρ=0,60).

1.3.3 Teste para a igualdade de duas médias populacionais (µ)


Caso 1) As variâncias são conhecidas, independentes e normais
1º passo) Enunciar as hipóteses:
H0: µ1=µ2 ou µ1-µ2=d onde d>0 é uma diferença admitida entre as médias
vs
H1: µ1≠µ2 ou µ1-µ2≠d  (a) teste bicaudal
H1: µ1>µ2 ou µ1-µ2>d  (b) teste unicaudal à direita
H1: µ1<µ2 ou µ1-µ2<d  (b) teste unicaudal à esquerda
2º passo) Fixar o nível de significância α
Escolher a variável normal Padrão: Z
3º passo) Definir a Região Crítica (RC) e Região Aceitável (RA)

α α
2 2 α α
RA RA RA

RC RC RC RC
− Zα 2 Zα 2 Zα − Zα
(a) (b) (c)
4º passo) Calcular

Z cal =
(x1 − x2 )
σ 12 σ 22
+
n1 n2
onde:
x 1 e x 2: médias amostrais da população X1 e X2;
σ 12 e σ 22 : variâncias populacionais;
n1 e n2 :tamanho das amostras de cada população .
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 6
5º passo) Conclusões
Se Zcal estiver em RA, aceita-se a hipótese H0, caso contrário, rejeita-se H0 e aceita-se a hipótese H1.
(a) Se − Z α 2 ≤ Z cal ≤ Z α 2 , aceita-se H0;  Bicaudal

(b) se Z cal > Z α , rejeita-se H0;  teste unicaudal à direita

(c) se Z cal < −Z α , rejeita-se H0;  teste unicaudal à esquerda

Exemplo: Um fabricante de pneus faz dois tipos. Para o tipo 1, σ=2500 milhas, e para o tipo 2,
σ=3000 milhas. Um táxi testou 50 pneus do tipo “1” e 40 do tipo “2”, obtendo 24000 milhas e 26000
milhas de duração média dos respectivos tipos. Adotando-se um risco α=5%, testar a hipótese de
que a vida média dos dois tipos é a mesma.
 1º passo) Enunciar as hipóteses:
H0: µ1-µ2=0 ∴ µ1=µ2
vs
H1: µ1≠µ2  (a) teste bicaudal

 2º passo) Fixar o nível de significância α


Nível de significância=0,95  α=0,05 = 5% e a variável usada é a normal padrão(0,1).

 3º passo: Obtém-se desta forma o valor crítico (RC) de Z α  Z 0, 025 =1,96.


2

0,025 0,025

RA

RC RC
-1,96 0 1,96
 4º passo: calcular o valor de Z

(x1 − x 2 ) Z cal =
(24000 − 26000 ) Z cal = −3,38
Z cal =  
σ 2
1
+
σ 2
2 (2500 )2 + (3000 )2
n1 n2 50 40
 5º passo: Conclusão
Como o valor calculado de Zcal=-3,38 encontra-se na região crítica (RC), rejeita-se a hipótese H0. Assim, em
média os dois tipos de pneus têm durabilidade diferente.

Caso 2: As variâncias são desconhecidas e admitidas iguais, independentes e normais


1º passo) Enunciar as hipóteses:
H0: µ1=µ2 ou µ1-µ2=d onde d>0 é uma diferença admitida entre as médias
vs
H1: µ1≠µ2 ou µ1-µ2≠d  (a) teste bicaudal
H1: µ1>µ2 ou µ1-µ2>d  (b) teste unicaudal à direita
H1: µ1<µ2 ou µ1-µ2<d  (b) teste unicaudal à esquerda

2º passo) Fixar o nível de significância α


Admitindo-se que não se conhece as variâncias populacionais a variável do teste será “t” Student
com (n1 + n2 – 2) graus de liberdade.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 7
3º passo) Definir a Região Crítica (RC) e Região Aceitável (RA)

α α
2 2 α α
RA RA RA

RC RC RC RC

− tα 2 tα 2 tα − tα
(a) (b) (c)
4º passo) Calcular

( x1 − x2 ) sc =
(n1 − 1) * S12 + (n2 − 1) * S 22
t cal =
n +n
sc * 1 2
onde
(n1 + n2 − 2)
n1 * n2
onde:
x 1 e x 2: médias amostrais da população X1 e X2;
n1 e n2 :tamanho das amostras de cada população;
sc: desvio-padrão comum as duas populações;
S12 e S 22 : variâncias amostrais da população X1 e X2;
5º passo) Conclusões
Se Tcal estiver em RA, aceita-se a hipótese H0, caso contrário, rejeita-se H0 e aceita-se a hipótese H1.

(a) Se − tα 2 ≤ t cal ≤ tα 2 , aceita-se H0;  Bicaudal

(b) se t cal > tα , rejeita-se H0;  teste unicaudal à direita


(c) se t cal < −tα , rejeita-se H0;  teste unicaudal à esquerda
Exemplo: Dois conjuntos de 50 crianças de uma escola primária foram ensinados a ler por dois
métodos diferentes. Após o término do ano, um teste de leitura deu os seguintes resultados: o
conjunto “A” teve média de 73,4 e desvio padrão de 8,0 e o conjunto “B” teve média de 70,3 e desvio
padrão de 10,0. Adotando α=5%, verifique se estatisticamente estas médias são iguais ou diferentes.
 1º passo) Enunciar as hipóteses:
H0: µ1=µ2
vs
H1: µ1≠µ2  (a) teste bicaudal
 2º passo) Fixar o nível de significância α “t” Student
Graus de liberdade: (n1 + n2 – 2)  (50+50-2)=98  gl=98
Nível de significância=0,05  α=0,05 = 5%
 3º passo: busca-se na tabela “t” Student no eixo horizontal o valor de 5% e no eixo vertical os graus de
liberdade (gl=98). Obtendo-se desta forma o valor de 1,980. Assim teríamos:

0,025 0,025
RA

RC RC
-1,980 0 1,980
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 8
 4º passo: calcular o valor de tcal

(n1 − 1) * S12 + (n 2 − 1) * S 22 (50 − 1) * 8 2 + (50 − 1) * 10 2


sc = sc = ⇒ s c = 9,06
(n1 + n 2 − 2)

(50 + 50 − 2)
t cal =
(x1 − x2 )  t = (73,4 − 70,3)  t cal = 1,71
cal
n +n 50 + 50
sc * 1 2 9,06 *
n1 * n2 50 * 50
 5º passo: Conclusão
Como o valor de tcal=1,71 encontra-se na região aceitável (RA), aceita-se a hipótese H0. Assim, em média
os dois métodos de ensino apresentaram comportamento semelhante.

1.3.4 Teste para a igualdade de duas proporções (ρ)


As mesmas idéias apresentadas no caso anterior podem ser utilizadas para se realizarem testes
envolvendo a igualdade de duas proporções populacionais. Assim teremos:
1º passo) Enunciar as hipóteses
H0: ρ1=ρ2
vs
H1: ρ1≠ρ2 (a)  (a) teste bicaudal
H1: ρ1>ρ2 (b)  (b) teste unicaudal à direita
H1: ρ1<ρ2 (c)  (c) teste unicaudal à esquerda.

2º passo)
Fixa-se o nível de significância α. A variável usada é a normal padronizada Z.
3º passo) Definir a Região Crítica (RC) e Região Aceitável (RA)

α α
2 2 α α
RA RA RA

RC RC RC RC
− Zα 2 Zα 2 Zα − Zα
(a) (b) (c)
4º passo) Calcular
f1 − f 2
Z cal =
1 1
ρ * (1 − ρ ) *  + 
 n1 n2 
onde:
n1 e n2 :tamanho das amostras de cada população;
ƒ1 e ƒ2: freqüências relativas amostrais evidenciando a proporção existente para cada população;
ρ: estimador comum a ρ1 e ρ2;
x1 + x 2 x1 x2
ρ= f1 = f2 =
n1 + n2 n1 n2
5º passo) Conclusões

(a) Se − Z α 2 ≤ Z cal ≤ Z α 2 , aceita-se H0;  Bicaudal

(b) se Z cal > Z α , rejeita-se H0;  teste unicaudal à direita


(c) se Z cal < −Z α , rejeita-se H0;  teste unicaudal à esquerda
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 9
Exemplo: Deseja-se testar se são iguais as proporções de homens e mulheres que lêem revista e se
lembram de determinado anúncio. São os seguintes os resultados de amostras aleatórias
independentes de homens e mulheres:
Homens Mulheres
x1= 70 x2= 50
n1=200 n2=200
onde x1 e x2 é o número de homens e mulheres, respectivamente, que se lembram do anúncio.
Admita α=10% para testar a hipótese da igualdade destas proporções.

 1º passo:
H0: ρ1=ρ2
vs
H1: ρ1≠ρ2 (a)  (a) teste bicaudal

 2º passo:
Nível de significância=0,10  α=0,10 = 10% e a variável usada é a normal padrão (0,1).

 3º passo: sabe-se que quando trata-se da família de distribuição normal padrão Z, teremos para
α=10% o valor crítico (RC) de Zα  Z 0 , 05 =1,65.
2

0,05 0,05
RA

RC RC
-1,65 0 1,65
 4º passo: calcular o valor de Zcal
f 1 = 70 = 0,35 e f 2 = 50 = 0,25 que representam respectivamente, a proporção de homens e
200 200
mulheres que lembram do anúncio.
70 + 50
ρ= = 0,30 que representa o estimador comum as duas populações.
200 + 200
0,35 − 0,25 Z cal = 2,18
Z cal = 
 
0,30 * (1 − 0,30) * 
1 1
+ 
 200 200 
 5º passo: Conclusão
Como o valor experimental ou calculado (Zcal=2,18) é maior do que o valor tabelado ou crítico
( Z α  Z 0, 05 =|1,65|), rejeita-se a hipótese H0 (ρ1=ρ2), ou seja, as proporções entre estas duas populações
2
são diferentes.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 10
Tabela de distribuição t-Student

BIBLIOGRAFIA:
a
FONSECA, Jairo Simon da; MARTINS, Gilberto de Andrade. Curso de Estatística. 6 ed. São Paulo:Atlas,
1996, 320 p.
COSTA NETO, Pedro Luis de Oliveira. Estatística. São Paulo:Edgard Blücher, 1977, 264p.
DOWNING, Douglas; CLARK, Jeffrey. Estatística Aplicada. São Paulo: Saraiva, 1998, 453 p.
a
BUSSAB, Wilton O.; MORETTIN, Pedro A. Estatística Básica: métodos quantitativos. 4 ed. São
Paulo:Atual, 1987, 321p.
a
SPIEGEL, Murray R. Estatística. 3 ed. São Paulo:Makron Books, 1993, 629p.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 1

2. ESTATÍSTICA EXPERIMENTAL
Denomina-se Pesquisa, um conjunto de atividades orientadas para a busca de um determinado
conhecimento. Para merecer o qualificativo de científica, a pesquisa deve ser feita de modo sistematizado,
utilizando para isto métodos próprios e técnicas específicas.
A pesquisa científica se distingue de outras modalidades quaisquer de pesquisa, pelo método,
pela técnica, por estar voltada para a realidade empírica e pela forma de comunicar o conhecimento obtido
(URIBE-OPAZO,2001).
2.1 FINALIDADE
 Descobrir respostas para questões, mediante a aplicação de métodos científicos;
 Tentar conhecer e explicar os fenômenos que ocorrem no mundo existente.
2.2 PLANO DE PESQUISA
Fase I Fase II Fase III

Planejamento Coleta de Análise de


dados dados

Figura 1: Fases do plano de pesquisa


De acordo com URIBE-OPAZO(2001), as três fases de um plano de pesquisa envolvem os
seguintes aspectos:
a) Fase I: Planejamento: o planejamento de uma pesquisa pode ser dividido em cinco grandes grupos:
 Descrição do plano de pesquisa;
 Plano de levantamento de dados, tais como elaboração do questionário, tempo de execução da
pesquisa e custos;
 Plano amostral;
 Plano de obtenção das observações; e
 Plano de processamentos de dados.
b) Fase II: Coleta de dados: Supervisão rigorosa à equipe coletora de dados, segundo as considerações
dadas no planejamento.
c) Fase III: Análise de dados:
 Organização;
 Tabulação;
 Representação gráfica;
 Análise e interpretação dos resultados;
 Apresentação dos resultados em um relatório;
 Conclusões, recomendações e sugestões.

2.3 CONSIDERAÇÕES E DEFINIÇÕES


Experimentos podem ser definidos como “estudo cuja implementação envolve a intervenção do
investigador além daquela necessária à sua medição” (FONSECA & MARTINS, 1996).
As técnicas de experimentação são universais e se aplicam a diferentes áreas – agronomia,
biologia, medicina, engenharia, administração e psicologia – e os métodos de análise são sempre os
mesmos.
O estatístico Ronald A. Fisher (1890-1962) que trabalhava em uma Estação Experimental de
Agricultura de Rothamstead (Inglaterra) foi quem formalizou a experimentação (VIEIRA & HOFFMANN,
1989).
O planejamento experimental consiste na escolha dos fatores, determinação do grupo de
controle, escolha do modelo a ser usado, e, fundamentalmente, o planejamento dos cuidados e
detalhes que devem ser observados para minimizar os efeitos de outras fontes de variação (outras
variáveis) que não estão sendo consideradas no estudo. Algumas destas fontes de variação são
controláveis e outras não-controláveis.
Relacionados a essas etapas, existem alguns conceitos básicos que passaremos a enunciar:
a. Experimento: é um procedimento no qual alterações propositais são feitas nas variáveis de entrada
de um processo ou sistema de forma que se possa avaliar as possíveis alterações sofridas pela
variável resposta, como também a razão destas alterações. É um trabalho previamente planejado que
segue determinados princípios básicos no qual se faz a comparação dos efeitos dos tratamentos.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 2
b. Variável resposta (Y): é o resultado de interesse registrado após a realização de um ensaio.
c. Ensaio: corresponde a aplicação de um tratamento a uma unidade experimental.
d. Unidade experimental ou parcela: é a unidade que vai receber o tratamento e fornecer os dados que
deverão refletir seu efeito.

Figura 2: Cinco unidades experimentais ou parcelas


Fonte: VIEIRA & HOFFMANN(1989).

e. Fatores: são tipos distintos de condições que serão manipuladas nas unidades experimentais. Os
diferentes modos de presença de um fator no estudo são considerados níveis do fator.
f. Tratamento: é um método, elemento ou material cujo efeito deseja-se medir ou comparar em um
experimento (máquinas, métodos, produtos, materiais). Como exemplo, veja a Figura 3 que mostra o
esquema de um experimento feito para comparar dois germicidas (tratamentos 1 e 2), em tubos de
ensaio.

Figura 3: Tratamento1 versus Tratamento2 Figura 4: Grupo controle versus grupo tratado
Fonte: VIEIRA & HOFFMANN(1989). Fonte: VIEIRA & HOFFMANN(1989).

Mas é importante ressaltar que nem sempre o interesse em experimentação é o de comparar


tratamentos, pois muitas vezes, o pesquisador quer apenas saber se determinado tratamento tem efeito.
Como exemplo, vamos supor que um pesquisador esteja interessado em saber se determinado adubo tem
efeito sobre a produção de uma planta e para tanto deve tomar um conjunto de plantas similares e cultivar
as plantas com adubo (grupo tratado) e outras sem adubo (grupo controle ou testemunha) como pode ser
visto na Figura 4.
g. Testemunha ou grupo controle: conjunto de parcelas que, ou não recebe tratamento, ou recebe um
tratamento já conhecido. Sua resposta é comparada com as respostas dos grupos tratados.
h. Bordadura: são áreas que são separadas nas parcelas a fim de se evitar a influência dos tratamentos
aplicados nas parcelas vizinhas. (Ex.: experimento da COODETEC)
i. Erro experimental: é a variação existente entre duas parcelas que receberam o mesmo tratamento.
É importante ressaltar que a homogeneidade das parcelas experimentais, antes de receber os
tratamentos, é condição essencial para validade do experimento.
j. Delineamento experimental: é o plano utilizado na experimentação e implica na forma como os
tratamentos serão designados às unidades experimentais e em um amplo entendimento da análise
estatística.
Além destes, para que possamos planejar adequadamente a coleta de dados, devemos conhecer
ainda três princípios básicos do planejamento de experimentos que são: a réplica (repetição), a
aleatorização (casualização) e a formação de blocos.
De acordo com VIEIRA & HOFFMANN (1989) em experimentação a idéia é comparar grupos e
não apenas unidades. As unidades experimentais do mesmo grupo recebem, em estatística, o nome
genérico de repetições. A repetição é importante porque:
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 3
 permite a obtenção de uma estimativa da variabilidade devido ao erro experimental dentro de cada
tratamento;
 aumenta a precisão do experimento e das estimativas obtidas no experimento;
 amplia o alcance da inferência pela repetição do experimento no tempo e no espaço.
Vejamos um exemplo para melhor entender o exposto. Imagine que para verificar se determinado
hormônio tem efeito sobre o peso de ratos, um pesquisador forneceu o hormônio para um rato e deixou
outro sem o hormônio, como pode ser visto na Figura 5. Se no final do experimento, o rato que recebeu
hormônio pesar, por exemplo, 150gr e o outro 120gr, o pesquisador pode afirmar que o hormônio tem efeito
sobre o peso dos ratos (150>120).

Figura 5: Grupo controle versus grupo tratado


Fonte: VIEIRA & HOFFMANN(1989).
Mas esta é uma conclusão pouco confiável porque dois ratos podem apresentar diferenças de
peso por diversas razões, além do tratamento. Porém, se um grupo de ratos receber hormônio (tratado)
e um outro grupo de ratos ficar sem hormônio (controle) e mesmo assim, ao final do experimento encontrar
o resultado acima (150>120), o pesquisador poderá concluir com maior confiabilidade que o hormônio
tem efeito sobre o peso dos ratos.
O termo aleatorização (casualização) refere-se ao fato de que tanto a alocação do material
experimental às diversas condições de experimentação, quanto à ordem segundo a qual os ensaios serão
realizados, são determinados ao acaso.
Imagine que se deseja estudar o efeito de um adubo sobre o crescimento de uma determinada
cultura. O experimento pode ser feito em uma estufa, onde cada unidade experimental seria constituída por
um vaso. Neste caso o pesquisador poderia pensar em distribuir as unidades na estufa como mostra a
Figura 6, à esquerda ficariam as unidades adubadas e a direita as unidades não-adubadas.
O experimento da Figura 6 parece bom porque a produção dos dois grupos poder ser facilmente
observada e fotografada. Entretanto, esse experimento está tecnicamente errado, pois o maior
crescimento do grupo tratado talvez pudesse ser explicado por outras causas que não o adubo, como
melhor posição em relação à luz e à ventilação. Para eliminar este problema, poder-se-ia casualizar as
unidades experimentais pelos mais diversos procedimentos (moeda, tabela de números aleatórios, etc.)
resultando no que está apresentado na Figura 7.

Figura 6: Experimento sem casualização Figura 7: Experimento com casualização


Fonte: VIEIRA & HOFFMANN(1989). Fonte: VIEIRA & HOFFMANN(1989).
A aleatorização torna possível a aplicação dos métodos estatísticos para análise dos dados
(modelos estatísticos exigem que o erro experimental seja aleatório e independente). A aleatorização
permite ainda que os efeitos não-controláveis que afetam a variável resposta sejam balanceados entre
todas as medidas.
E finalmente, a formação de blocos, é realizada quando se deseja avaliar com maior eficiência os
efeitos dos fatores de interesse (fatores perturbadores conhecidos). Assim, os blocos são considerados
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 4
conjuntos homogêneos de unidades experimentais. A principal finalidade do controle local é dividir um
ambiente heterogêneo em sub-ambientes homogêneos.
De acordo com Juran (1988) citado por URIBE-OPAZO (1999), podemos classificar os
planejamentos experimentais de acordo com os seguintes critérios:
 Pelo número de fatores a serem estudados (um único fator ou vários fatores), ou seja, tipos diferentes
de condições que serão manipuladas nas unidades experimentais;
 Pela estrutura do planejamento experimental (delineamento)
• Inteiramente casualizados ou acaso;
• Blocos casualizados ou acaso;
• Fatoriais;
• Parcelas Subdivididas “Split-plot”;
• Hierárquicos;
• Quadrado latino, etc.
 Pelo tipo de informação que o experimento fornece (estimativa dos efeitos, estimativa da variância,
etc.)
A comparação de várias situações experimentais pode ser feita utilizando-se amostras desta
população. Muitas vezes deseja-se comparar médias de duas ou mais populações. Por exemplo, para
verificar se pessoas com diferentes níveis de renda (alta, média e baixa) têm, em média, o mesmo peso
corporal, é preciso comparar médias destas três populações. Em outra situação, um pesquisador pode
separar ao acaso, um conjunto de pacientes em 4 grupos e administrar uma droga diferente a cada grupo,
terá então que comparar médias destas 4 populações.
De acordo com URIBE-OPAZO (1999), os principais passos do procedimento de uma análise
estatística são:
 Identificação dos objetivos do experimento;
 Seleção da variável resposta;
 Escolha dos fatores e seus níveis;
 Planejamento do procedimento experimental;
 Realização do experimento;
 Análise dos dados;
 Interpretação dos resultados;
 Elaboração de relatório.
De acordo com VIEIRA & HOFFMANN (1989), é entendido que o experimento está planejado
quando estão definidos:
 a unidade experimental;
 a variável em análise e a forma como será medida;
 os tratamentos em comparação;
 a forma de designar os tratamentos às unidades experimentais.

Apenas como exemplo, imagine que se deseja comparar o efeito de duas rações na engorda de
suínos. Nesse caso, o experimento poderia ser planejado como segue:
 a unidade experimental: um animal.
 a variável em análise e a forma como será medida: ganho de peso, medido pela diferença entre o
peso final e o peso inicial de cada animal.
 os tratamentos em comparação: ração A e ração B.
 forma de designar os tratamentos às unidades experimentais: sorteio.

2.4 DELINEAMENTOS EXPERIMENTAIS E TESTES DE COMPARAÇÕES DE MÉDIAS


2.4.1 Delineamento Inteiramente Casualizado (DIC)
Este delineamento é o mais simples de todos os delineamentos experimentais. Entretanto deve ser
utilizado apenas quando se tem certeza absoluta da homogeneidade das condições ambientais e do
material experimental. Assim, as parcelas que receberão cada um dos tratamentos são determinadas de
forma inteiramente casual, através de sorteio, para que cada unidade experimental tenha a mesma
probabilidade de receber qualquer um dos tratamentos estudados, sem qualquer restrição. (BANZATTO &
KRONKA, 1992).
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 5
Este delineamento apresenta em relação aos outros delineamentos, as seguintes vantagens:
 é um delineamento bastante flexível, visto que o número de tratamentos e de repetições depende
apenas do número de parcelas disponíveis;
 o número de repetições pode ser diferente de um tratamento para o outro, embora o ideal seja que eles
apresentem-se igualmente repetidos;
 a análise estatística é simples, mesmo quando o número de repetições por tratamento é variável;
 o número de graus de liberdade para o resíduo é o maior possível.
Como exemplo, imagine que um pesquisador dispunha de 12 animais e queira comparar o efeito
de três rações, A, B e C, sobre o peso de suínos. Considerando que as unidades experimentais
(suínos) são similares (mesma raça, sexo, idade e pesos próximos no início do experimento), procede-se
ao sorteio de 4 animais para cada tipo de ração (tratamento) conforme o que é apresentado na Figura 8.

Figura 8:Experimento inteiramente ao acaso Figura 9:Experimento inteiramente ao acaso com nº


Fonte: VIEIRA & HOFFMANN(1989). diferente de repetições
Fonte: VIEIRA & HOFFMANN(1989).
É comum em experimentos inteiramente ao acaso, que todos os tratamentos tenham igual número
de repetições, como foi visto na Figura 8. Entretanto, existem situações onde isto não ocorre. Vamos supor
que um professor pretenda comparar dois métodos de ensino e dispõe de 41 crianças similares para o
experimento. Assim, uma das formas de resolver o problema seria o professor dividir o conjunto de 41
crianças, ao acaso, em dois grupos iguais de 20 crianças e descartar uma delas, ou então, ter um grupo de
20 crianças e outro de 21 crianças, como mostra a Figura 9.
De acordo com VIEIRA & HOFFMANN (1989), experimentos ao acaso com diferentes números
de repetições são indicados para o estudo de drogas terapêuticas. Recomenda-se fazer mais
repetições no grupo controle do que nos grupos tratados com drogas. Então, se para comparar três
drogas, A, B e C, com um controle, o pesquisador dispuser de 24 ratos tanto pode dividir o conjunto em 4
grupos de mesmo tamanho (3 grupos tratados e um controle) como dividir o conjunto em 4 grupos de
tamanhos diferentes (3 iguais e 1 maior), como mostra a Figura 10.

Figura 10: Dois experimentos inteiramente ao acaso: um com grupos de mesmo tamanho, outro com grupos
de tamanhos diferentes.
Fonte: VIEIRA & HOFFMANN(1989).
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 6
16.4.1.1. Análise de Variância – ANOVA
Uma suposição básica e implícita na ANOVA é que as diversas médias amostrais são obtidas de
populações normalmente distribuídas e que têm mesma variância. Entretanto, segundo KAZMIER
(1982) esta suposição não é muito afetado por violações da hipótese de normalidade, quando as
populações são unimodais e os tamanhos das amostras aproximadamente iguais.
Se a variável em estudo tem distribuição normal ou aproximadamente normal, para comparar mais
de duas médias aplica-se o teste F (Fisher-Snedecor). Primeiro, é preciso estudar as causas da variação.
Por que os dados variam? Uma explicação é o fato de as amostras provirem de populações diferentes.
Outra explicação é o acaso, porque mesmo dados provenientes da mesma população variam.
O teste F é feito através da análise de variância, que separa a variabilidade devido aos
“tratamentos” da variabilidade residual (acaso). Assim, a idéia da análise de variância é comparar a
variação devida aos tratamentos com a variação devido ao acaso. Seja k o número de níveis de um
fator em estudo. A notação é a seguinte:
Tratamentos
Total
T1 T2 T3 ... K
Y11 Y21 Y31 ... Yk1
Y12 Y22 Y32 ... Yk2
. . . ... .
. . . ... .
Y1r1 Y2r2 Y3r3 ... Ykrk
Total ΣT 1 ΣT 2 ΣT 3 ΣT k ΣT
Média Y1. Y2. Y3. Yk . Y..
Nº de
r1 r2 r3 rk n=kr
repetições
onde:
Yij : é a j-ésima observação correspondente ao i-ésimo tratamento (valor da variável resposta);
ri : é o número de unidades experimentais ou parcelas submetidas ao i-ésimo tratamento;
k
n = ∑ ri : é o tamanho amostral (o número total de ensaios);
i =1

1 ni
Yi. = ∑Yij : média por tratamento i=1,2,...,k;
ri j =1
ni
1 k
Y.. = ∑
n i =1
∑Y
j =1
ij : média geral (somatória / nº total de dados).

De acordo com URIBE-OPAZO (1999), na análise de experimentos completamente aleatorizado


com um fator, pode-se ter duas diferentes situações em relação aos efeitos dos tratamentos:
 Experimento com um fator fixo: os k níveis são especificados pelo pesquisador. Nesta situação, serão
testadas hipóteses sobre as médias dos tratamentos e as conclusões obtidas serão aplicáveis somente
aos níveis do fator considerados na análise. As conclusões não podem ser estendidas a tratamentos
similares que não tenham sido explicitamente considerados no experimento.
 Experimento com um fator aleatório: os k níveis do fator podem representar uma amostra aleatória
extraída de uma grande população de níveis. Neste caso, as conclusões obtidas, serão estendidas a
todos os níveis da população, quer eles tenham sido explicitamente considerandos na análise ou não.
a) Modelo Estatístico (Modelos de Efeito Fixo)
De acordo com URIBE-OPAZO (1999) o modelo estatístico associado a experimentos com um fator
fixo é dado pela forma:

Yij = µ + Τi + eij para i=1,2,...,k e j=1,2,...,ri

onde:
Yij = variável resposta para o tratamento i e repetição j;
k
µ = média geral comum a todas as observações µ = 1 ∑ ri µ i ;
n i =1
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 7
Τi = efeito do i-ésimo tratamento em Y e mede o desvio padrão da média µi em relação a µ, isto é
Ti = µ i − µ ;
eij = é o erro aleatório não observável associado a Yij.
As suposições associadas a este modelo são:
i) Os erros eij são independentes (aleatorização);
ii) Os erros eij possuem variância constante (σ = cte);
2

iii) Os erros eij são variáveis aleatórias independentes e identicamente distribuídas, tendo distribuição
normal com média zero e variância constante, isto é, eij ≈ N (0,σ ).
2

b) Hipóteses
O objetivo do estudo realizado é verificar se as médias µ1, µ2,…, µk são iguais ou não, o que
equivale a testar se os efeitos dos tratamentos (Τi) são iguais a zero ou não. Este teste pode ser expresso
por:
Η 0: Τ1=Τ2= … = Τk=0 (hipótese nula)
vs.
Η 1: Τ1≠0 para pelo menos um i, (hipótese alternativa), ou seja, vamos testar a não existência do
efeito fator.
O procedimento utilizado para testar as hipóteses é a análise de variância.

c) Tabela de Análise de Variância para um fator (ANOVA)


Para fazer a análise de variância de um experimento inteiramente casualizado é preciso calcular
as seguintes quantidades:
c.1) os graus de liberdade:
de tratamentos: k-1
do total: n-1
do resíduo: (n-1)-(k-1) = (n-k)
c.2) o valor de C é dado pelo total geral elevado ao quadrado e dividido pelo número de dados. O
valor de C é chamado de “correção”:

(∑ Y ) 2
(∑ T ) 2

C=
ij
C=
k
ou
n n
c.3) a soma de quadrados total (mede a variabilidade total das observações em relação a média geral):

(∑ Y ) − C ∑ (Y )
k ni
SQTot = SQTot = ∑
2 2
ij ou ij − Y..
i =1 j=1

c.4) a soma de quadrados de tratamentos (mede a variabilidade entre as médias dos tratamentos em
relação a média geral):
 ∑ Τk2 
( )
k
SQTr = ∑ ri Y i . − Y..
2
SQTr =  −C ou
 r  i =1
 
c.5) a soma de quadrados de resíduos (é uma medida de homogeneidade interna dos tratamentos):

∑ (Y )
ni
SQR = SQTot - SQTr
k
SQR = ∑
2
ou ij − Yi .
i =1 j=1

c.6) o quadrado médio de tratamentos (este será um estimador não viciado da variância populacional σ ,
2

se a hipótese de nulidade for verdadeira):


SQTr
QMTr =
k −1
c.7) o quadrado médio de resíduos (este é um estimador não viciado de σ ):
2

SQR
QMR =
n-k
c.8) o valor de F:
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 8
QMTr
F0 =
QMR
A ANOVA constata se existe efeito dos tratamentos em estudo.
Fonte de Graus de Soma Quadrado Quadrado
F
Variação (F.V) Liberdade(G.L.) (S.Q.) Médio (Q.M.)
Tratamentos
k–1 SQTr QMTr F0
(entre)
Resíduos
n–k SQR QMR
(dentro dos tratamentos)
TOTAL n–1 SQTot

d) Regra de Decisão
Para avaliarmos as hipóteses fazemos uso da tabela de Fisher-Snedecor (Tabelas 1, 2 e 3,
respectivamente para níveis de significância de 1, 5 e 10%) procurando o valor de Ftab(k-1,n-k,α%), com (k-1) e
(n-k) graus de liberdade no numerador e denominador, respectivamente.
 Se Fo ≥ Ftab (k-1, n-k,α%), rejeita-se a hipótese Η0 ao nível de α% de significância, ou seja, aceita-se a
hipótese alternativa Η1 que diz que em média os tratamentos são diferentes.
 Se Fo<Ftab (k-1, n-k,α%), aceita-se a hipótese Η0 ao nível de α% de significância, ou seja, em média dos
tratamentos apresentaram-se iguais.

e) Teste de comparação de médias


Uma análise de variância permite estabelecer se as médias das populações em estudo são, ou não,
estatisticamente iguais. No entanto, este tipo de análise não permite detectar quais são as médias
estatisticamente diferentes das demais.
Existem uma série de testes de comparação de médias, o teste T, Tukey, Duncan, Scheffé e
Bonferroni. Os três testes iniciais, só devem ser aplicados quando o teste F0 (ANOVA) for significativo, ou
seja existir diferenças significativas entre os tratamentos (aceitar a hipótese H1).
Aqui estudaremos apenas o teste de Tukey.
O teste de Tukey permite estabelecer a diferença mínima significante (d.m.s.) ou seja, a menor
diferença de médias de amostras que deve ser tomada como estatisticamente significante, em determinado
nível.
 A estatística de Tukey é a Diferença mínima significativa(d.m.s.)

QMR
d.m.s. = q (k; n − k) *
r
 O valor de q(k;n-k)com k graus de liberdade para o tratamento e (n-k) graus de liberdade para o resíduo
podem ser encontrados nas Tabelas 5, 6 e 7, respectivamente para um nível de significância de 1%, 5%
e 10%. (anexo).
 Já QMR (quadrado médio dos resíduos) pode ser encontrado na Tabela ANOVA e r, representa o nº de
repetições de cada tratamento.
 Para este teste, duas médias são estatisticamente diferentes quando o valor absoluto da diferença entre
elas for maior ou igual a d.m.s.

Exemplo 1) Um engenheiro de uma indústria produtora de material cerâmico iniciou um processo de


controle para melhorar resultados com o objetivo de reduzir a proporção de tijolos de 8 furos que
apresentam defeitos. Na fase de observação do processo identificou-se que ocorrências de trincas
eram provocadas pelo rompimento de bolhas de vapor no interior de tijolos e então passou a
desconfiar que algumas das secadoras da indústria poderiam estar provocando o problema por não
extrair dos tijolos a umidade necessária. No processo de análise foi então planejado um experimento
com o objetivo de verificar se as secadoras eram similares no que diz respeito à umidade retirada de
tijolos ou existiam diferenças entre elas. Para a realização do experimento foram utilizados 28 tijolos
fabricados com matéria prima extraída de uma jazida e submetidos às mesmas condições de
preparação e conformação (etapa anterior a secagem). O experimento consistiu em submeter 7
tijolos, escolhidos aleatoriamente, a cada uma das quatro secadoras e, após a secagem, medir a
quantidade de umidade que foi retirada de cada tijolo. Os resultados obtidos no experimento estão
apresentados na Tabela 1.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 9
Tabela 1 – Umidade (%) extraída dos tijolos durante a Secagem
Tijolos Secadoras
1 2 3 4
1 22,7 19,8 20,5 22,5
2 24,2 21,1 22,5 21,9
3 21,5 20,5 21,9 23,3
4 23,3 19,4 23,3 23,5
5 22,8 21,7 21,1 21,5
6 21,8 20,7 21,7 22,1
7 22,5 21,5 21,4 22,9
Total 158,8 144,7 152,4 157,7
Média amostral 22,7 20,7 21,8 22,5
Nº de repetições 7 7 7 7
a) Análise preliminar
Unidade Experimental Os tijolos.
Variável de Interesse % de Umidade extraída dos tijolos durante a secagem
Fator em estudo As secadoras
Níveis do Fator 4 (Secadora 1, Secadora 2, Secadora 3, Secadora 4)
O fator deste experimento é considerado fixo, porquê estes 4 níveis foram definidos pelo
pesquisador. Este não sorteou ao acaso por exemplo de uma quantidade total de 10
Fator Fixo secadoras, as secadoras de 1 à 4, e sim estabeleceu que estas 4 secadoras é que seriam as
amostras para avaliação da qualidade dos tijolos, em função da quantidade de umidade
retirada de cada tijolo.
Quando temos um experimento completamente ao acaso (balanceado), com um fator fixo, temos
interesse em verificar a influência dos k níveis desse fator na variável resposta Y em estudo. Assim um
modelo estatístico associado a este tipo de experimento é dado pela forma:

Yij = µ + Ti + eij
b) Estimativas dos parâmetros
Os estimadores de µ são: a % de umidade média extraída da amostra de tijolos (28) nas 4
secadoras foi: µˆ = Y .. = (22,7 + 20,7 + 21,8 + 22,5) / 4 = 21,9 .

A média por tratamento Y i . (cada secadora), pode ser vista na Tabela 1 e é apresentada abaixo:
Secadora 1 ⇒ µˆ 1 = Y1 . = 22,7 % de umidade

Secadora 2 ⇒ µˆ 2 = Y2 . = 20,7 % de umidade

Secadora 3 ⇒ µˆ 3 = Y3 . = 21,8 % de umidade

Secadora 4 ⇒ µˆ 4 = Y4 . = 22,5 % de umidade

Os estimadores dos Tratamentos Τi serão Tˆi = Yi . − Y .. :

Secadora 1 ⇒ Tˆ1 = Y1 . − Y .. = 22,7 − 21,9 = 0,8 %

Secadora 2 ⇒ Tˆ2 = Y2 . − Y .. = 20,7 − 21,9 = − 1,2 %

Secadora 3 ⇒ Tˆ3 = Y3 . − Y .. = 21,8 − 21,9 = − 0,1 %

Secadora 4 ⇒ Tˆ4 = Y4 . − Y .. = 22,5 − 21,9 = 0,6 %

Analisando-se o desempenho de cada secadora em relação a média geral das % de umidades


médias extraídas das amostras de tijolos, verifica-se que a Secadora 1 retira em média 0,8% de umidade
dos seus tijolos, a Secadora 2 deixa de retirar umidade dos tijolos na faixa de 1,2%, o mesmo acontecendo
com a Secadora 3 que deixa de retirar dos tijolos 0,1% de umidade e finalmente a Secadora 4 que retira
cerca de 0,6% de umidade dos tijolos, todos comparadas com a média geral da amostra dos 28 tijolos.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 10
c) Tabela de Análise de Variância para um fator (ANOVA)
Para fazer a análise de variância de um experimento inteiramente casualizado é preciso calcular as
seguintes quantidades:
c.1) os graus de liberdade:
de tratamentos: k-1  4-1=3
do total: n-1  28-1=27
do resíduo: (n-1)-(k-1) = (n-k)  27-3=24
c.2) a correção C:

(∑ T ) 2

 C=
(158,8 + 144,7 + 152,4 + 157,7 )2 =
(613,6) 2
⇒ C = 13446,6
C=
k

n 28 28
c.3) a soma de quadrados total:

SQTot = (∑ Y ) − C
2
ij

(
SQTot = 22,7 2 + 24,2 2 + 21,5 2 + .... + 22,12 + 22,9 2 − 13446,6 )
SQTot = (13482,0) − 13446,6 ⇒ SQTot = 35,4

c.4) a soma de quadrados de tratamentos:



SQTr = 
∑Τ k
2

−C
 r 
 

 158,8 2 + 144,7 2 + 152,4 2 + 157,7 2 +   94250,6  SQTr = 17,8


SQTr =   − 13446,6 =   − 13446,6 
 7   7 
c.5) a soma de quadrados de resíduos:

SQR = SQTot - SQTr  SQR = 35,4 - 17,8 ⇒ SQR = 17,6


c.6) o quadrado médio de tratamentos:

SQTr 17,8
QMTr =  QMTr = ⇒ QMTr = 5,9
k −1 3
c.7) o quadrado médio de resíduos:

SQR 17,6
QMR =  QMR = ⇒ QMR = 0,7
n-k 24
c.8) o valor de F:
QMTr 5,9
F0 =  F0 = ⇒ F0 = 8,4
QMR 0,7
Em resumo temos então:
Fonte de
G.L S.Q Q.M. F
Variação
Tratamentos 3 17,8 5,9 8,4
Resíduo 24 17,6 0,7
TOTAL 27 35,4
d) Hipóteses de interesse
H0: Τ1=Τ2=Τ3=Τ4= 0 (hipótese de nulidade)
Versus
H1: pelo menos um Τi é diferente de zero (hipótese alternativa)
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 11
e) Regra de Decisão
Na tabela de Fisher-Snedecor procuramos o Ftab(k-1;n-k;α%). Nesta tabela (tabua VI) encontramos no eixo
horizontal os graus de liberdade de (k-1), ao passo que no eixo vertical os graus de liberdade de (n-k).
Desta forma encontramos o valor de Ftab(3;24;0,05) = 3,01.
 Como Fo=8,4>Ftab(3;24;0,05)=3,01, rejeita-se a hipótese de nulidade H0 ao nível de 5% de significância, ou
seja, pelo menos um tratamento Τi é diferente de zero.
Com isto, verifica-se que realmente pelo menos um tratamento ( secadora 1, 2, 3 ou 4) possui
estatisticamente média diferente. Porém basta agora descobrirmos quais médias são estatisticamente iguais
e quais diferem entre si, e isto se consegue fazendo-se uso dos testes de comparações múltiplas.
f) Utilizando o teste Tukey realizar-se-á as comparações múltiplas entre as quantidades de umidade
extraídas dos tijolos pelas diferentes secadoras. Quais são suas conclusões ao nível de 5% de
significância?
 As estimativas de µ1 µ2 µ3 e µ4 são Y1 . = 22,7(secadora1), Y2 . = 20,7 (secadora2), Y3 . = 21,8
(secadora3) e Y4 . = 22,5 (secadora4), respectivamente.
 Os contrastes(C) do estimador, entre as porcentagens médias de umidade extraídas dos tijolos para
as diferentes secadoras são:
Secadora1 e Secadora2 ⇒ C12 = Y1 . - Y2 . = 22,7–20,7 = 2,0
Secadora1 e Secadora3 ⇒ C13 = Y1 . - Y3 . = 22,7–21,8 = 0,9
Secadora1 e Secadora4 ⇒ C14 = Y1 . - Y4 . = 22,7–22,5 = 0,2
Secadora2 e Secadora3 ⇒ C23 = Y2 . - Y3 . = 20,7–21,8 = -1,1
Secadora2 e Secadora4 ⇒ C24 = Y2 . - Y4 . = 20,7–22,5 = -1,8
Secadora3 e Secadora4 ⇒ C34 = Y3 . - Y4 . = 21,8–22,5 = -0,7
 Hipóteses de Interesse
H0: C12=0; C13=0; C14=0; C23=0; C24=0; C34=0
Versus
H1: O Contraste(C) é diferente de zero
O Teste Tukey
 Hipótese de interesse
H0: µi = µj
Versus
H1: µi ≠ µj para i≠j
 A estatística de Tukey é a Diferença mínima significativa (d.m.s.)

QMR
d.m.s. = q (k; n −k) *
r
O valor de q(k;n-k)com k graus de liberdade para o tratamento e (n-k) graus de liberdade para o resíduo é
encontrado Tabela 6 a um nível de significância de 5%. (anexo). Assim, q(k;n-k)= q(4;24)=3,90;
QMR=0,7 (ANOVA) e r=7 (repetições)
Assim, o valor da d.m.s. será:

0,7
d.m.s. = 3,90 *  d.m.s. = 1,23
7
Para este teste, duas médias são estatisticamente diferentes quando o valor absoluto da diferença entre
elas for maior ou igual a d.m.s. Por exemplo, como o contraste C12=2,0 ≥ d.m.s.=1,23 as médias são
estatisticamente diferentes, ou seja rejeito H0.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 12
Resumo do teste Tukey
Contrastes Valor d.m.s. Decisão a 5%
C12 2,01 1,23 Rejeito H0
C13 0,91 1,23 Aceito H0
C14 0,15 1,23 Aceito H0
C23 -1,10 1,23 Aceito H0
C24 -1,86 1,23 Rejeito H0
C34 -0,76 1,23 Aceito H0
Quadro de Comparações de Médias segundo os respectivos métodos
Médias Tukey
µ1 a
µ2 b
µ3 ab
µ4 a

Nota: Letras iguais correspondem a médias iguais ao nível de 5% de Significância.

2.4.2 Delineamento em Blocos Casualizados (DBC)


Para VIEIRA & HOFFMANN (1989), um pesquisador só deve optar por experimentos inteiramente
ao acaso quando dispõe de número suficientemente grande de unidades experimentais similares. Como
isso dificilmente acontece na prática, é preciso um delineamento que permita comparar adequadamente os
tratamentos, mesmo que as unidades apresentem certa heterogeneidade.
Este tipo de delineamento considera os princípios de repetição, aleatorização e controle local. É
o mais empregado de todos os delineamentos.
De acordo com BANZATTO & KRONKA (1992), as principais características deste delineamento
são:
 as parcelas são distribuídas em grupos ou blocos (princípio do controle local), de tal forma que elas
sejam o mais uniformes possível dentro de cada bloco, mas os blocos poderão diferir bastante uns
dos outros;
 o número de parcelas por bloco deve ser um múltiplo do número de tratamentos (geralmente, esse
número é igual ao número de tratamentos);
 os tratamentos são designados às parcelas de forma casual, sendo essa casualização feita dentro de
cada bloco.
As principais vantagens deste tipo de delineamento são:
 controla as diferenças que ocorrem nas condições ambientais, de um bloco para outro;
 permite, dentro de certos limites, utilizar qualquer número de tratamentos e blocos;
 conduz a uma estimativa mais exata para a variância residual, uma vez que a variação ambiental entre
os blocos é isolada;
 a análise de variância é simples, apresentando apenas a diferença de possuir uma causa a mais de
variação.
As principais desvantagens são:
 há uma redução dos graus de liberdade do resíduo;
 a exigência de homogeneidade das parcelas dentro de cada bloco limita o número de tratamentos, que
não pode ser muito elevado
Quando se trata de experimento a campo, é recomendável que os blocos se apresentem em
formas quadrada, retangular. No que tange a distribuição dos blocos no campo, eles podem ficar
juntos ou ser espalhados por toda a área em estudo. Porém, geralmente eles são colocados uns
próximos dos outros, visando com isto uma maior facilidade nos trabalhos de campo, durante a execução do
experimento.
Considere como exemplo, um esquema que pode ser utilizado para execução e acompanhamento
de um experimento a campo onde, tem-se um delineamento em blocos casualizados com 5 tratamentos
(A,B,C,D,E) e 4 blocos, perfazendo um total de 20 parcelas experimentais. Para VIEIRA &
HOFFMANN (1989), o essencial é que os Blocos reúnam unidades similares – que se distingam apenas
pelo tratamento que recebem – e que haja variabilidade entre os blocos, pois, não teria sentido organizar
Blocos se não houvesse variabilidade entre eles. Mas quem decide se a variabilidade entre as unidades
justifica ou não a formação de blocos é o pesquisador e não o estatístico. Dentro de cada Bloco os
tratamentos são distribuídos por sorteio.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 13
Bloco 1

B A D C E

Bloco 2

E D A B C

Bloco 3

A C D E B

Bloco 4

B D C A E

Considere um outro experimento para comparar o efeito de três rações, A, B e C, no ganho de


peso de frangos de corte. Se os frangos disponíveis forem, de alguma forma, heterogêneos (diferentes
raças, sexo, idade e pesos diferentes no início do experimento), pode ser feito um experimento em blocos
ao acaso. Para entender como se faz este delineamento, observe a Figura 11 onde a heterogeneidade
das unidades está representada por formas geométricas. As unidades similares foram agrupadas em
Blocos (formas geométricas iguais) e os tratamentos (rações A, B e C) foram distribuídos às unidades
experimentais por sorteio como pode ser visto na Figura 11.

As prateleiras poderiam ser os Blocos


Figura 11: Experimentos em Blocos ao acaso
Fonte: VIEIRA & HOFFMANN(1989).

Uma outra forma de delineamento em blocos são os experimentos em blocos ao acaso com
repetições. Aqui o número de unidades que caem dentro de um bloco pode ser maior do que o número de
tratamentos que o pesquisador pretende comparar. Imagine que um pesquisador dispõe de 13 ratos, sendo
7 machos similares entre si e 6 fêmeas também similares entre si e se queira comparar o efeito de duas
rações sobre o ganho de peso dos animais. O esquema experimental poderia ser tal como o apresentado
na Figura 12.

Figura 12: Experimentos em Blocos ao acaso com repetições


Fonte: VIEIRA & HOFFMANN(1989).
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 14
16.4.2.1. Análise de Variância – ANOVA
Para analisar este tipo de experimento, vamos considerar que há um único fator de interesse com
“a” níveis e que o experimento para avaliar o efeito deste fator será em “b” blocos. Aqui será demonstrado
o estudo de apenas uma observação para cada nível do fator, em cada bloco.
Tratamentos (fator)
Blocos Total
T1 T2 T3 ... K
B1 Y11 Y21 Y31 ... Yk1 Y1.
B2 Y12 Y22 Y32 ... Yk2 Y2.
. . . . ... . .
. . . . ... . .
Br Y1r Y2r Y3r ... Ykr Yb.
Total ΣT 1 ΣT 2 ΣT 3 ΣT k ΣT=ΣB
Nº de
r1 r2 r3 rk n=kr
repetições
Média Y1. Y2. Y3. Yk . Y..

a) Modelo Estatístico (efeito fixo)


Considerando que os efeitos têm um comportamento aditivo o modelo estatístico para este
experimento será:

Yij = µ + τ i + β j + e ij para i=1,2,...a e j=1,2,...,b,

a b
sujeito a ∑ τi =
i =1
∑β
j=1
j =0

onde:
Yij = variável resposta coletada sob o i-ésimo nível do fator no bloco j;
k
1
µ = média global comum a todas as observações µ=
N
∑ri =1
i µi ou para experimento balanceado

1 k
µ= ∑ µi ;
k i =1
τi = efeito do i-ésimo nível do fator, ou seja, efeito tratamento;
βj = efeito do i-ésimo bloco, ou seja, efeito do bloco;
eij = componente do erro aleatório associado à observação Yij.
As suposições associadas a este modelo são:
i) Os erros eij são independentes (aleatorização);
ii) Os erros eij possuem variância constante (σ = cte);
2

iii) Os erros eij são variáveis aleatórias independentes e identicamente distribuídas, tendo distribuição
normal com média zero e variância constante, isto é eij ≈ N (0,σ ).
2

b) Hipóteses de Interesse
Para o caso em estudo estamos considerando o caso que o tratamento (fator) é um fator fixo.
H0:τ1 = τ2 =...= τa = 0 (hipótese de nulidade)
vs.
H1: τi ≠ 0, para pelo menos um i (hipótese alternativa)

c) Tabela de Análise de Variância para um fator fixo (ANOVA)


Para fazer a análise de variância de um experimento em blocos casualizado é preciso calcular as
seguintes quantidades:
c.1) os graus de liberdade:
de tratamentos: k-1
de blocos: b-1
do total: kb-1
do resíduo: (kb-1)-(k-1)-(b-1)= (k-1)*(b-1)
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 15
c.2) o valor de C é dado pelo total geral elevado ao quadrado e dividido pelo número de dados. O
valor de C é chamado de “correção”:

(∑ Y ) 2

C=
(∑ T ) k
2

C=
ij
ou
kb kb
c.3) a soma de quadrados total (mede a variabilidade total das observações em relação a média geral):
SQTot = (∑ Yij2 ) − C
c.4) a soma de quadrados de tratamentos (mede a variabilidade entre as médias dos tratamentos em
relação a média geral):
 ∑ Τk2 
SQTr =  −C
 b 
 
c.5) a soma de quadrados de blocos (mede a variabilidade entre as médias dos blocos em relação a
média geral):
 ∑ Bk2 
SQB =  −C
 k 
 
c.6) a soma de quadrados de resíduos (é uma medida de homogeneidade interna dos tratamentos):
SQR = SQTot - SQTr - SQB
c.7) o quadrado médio de tratamentos (este será um estimador não viciado da variância populacional σ ,
2

se a hipótese de nulidade for verdadeira):


SQTr
QMTr =
k −1
c.8) o quadrado médio de blocos:
SQB
QMB =
b −1
c.9) o quadrado médio de resíduos (este é um estimador não viciado de σ ):
2

SQR
QMR =
(k - 1)(b - 1)
c.10) o valor de F:

QMTr
F0 =
QMR
A Tabela de Análise de Variância – ANOVA fica então da seguinte forma:
Fonte de Graus de Soma Quadrado Médio
F
Variação Liberdade Quadrado
Tratamentos k–1 SQTr QMTr Fo
Bloco b-1 SQB QMB F1
Resíduos (k-1)(b-1) SQR QMR
TOTAL kb–1 SQTot

d) Regra de Decisão
Para avaliarmos as hipóteses fazemos uso da tabela de Fisher-Snedecor (Tabelas 1, 2 e 3,
respectivamente para níveis de significância de 1, 5 e 10%) procurando o valor de Ftab [k-1; (k-1)(b-1);α%] com
(k-1) graus de liberdade para os tratamentos (numerador) e (k-1)(b-1) graus de liberdade para o resíduo
(denominador).
 Se Fo ≥ Ftab [k-1; (k-1)(b-1);α%], rejeita-se a hipótese de nulidade H0 a nível de α% de significância,
conseqüentemente, pelo menos um Tratamento τi é diferente de zero.
 Se Fo < Ftab [k-1; (k-1)(b-1);α%], aceita-se a hipótese H0 ao nível de α% de significância, ou seja, em média os
tratamentos são iguais.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 16
f) Comparações múltiplas
De acordo dom URIBE-OPAZO (1999), se o fator em um experimento aleatório em blocos
completos é fixo e a ANOVA indica que existe uma diferença significativa entre as médias dos níveis do
fator (tratamentos), então deve-se realizar as comparações múltiplas para detectar e localizar as diferenças
detectadas no teste F. Os testes T, Tukey e Dunnett podem ser utilizados, considerando r=b e os graus de
liberdade do resíduo (k-1)(b-1).
Exemplo de Aplicação
1) Um pesquisador deseja comparar a produtividade de quatro variedades de milho (A,B,C,D) mas,
em lugar de sortear as variedades para as parcelas no campo, primeiro dividiu a área que
dispunha em cinco blocos (I, II, III, IV, V) tão homogêneos quanto possível. Depois dividiu cada
bloco em quatro parcelas e sorteou, para cada bloco, uma variedade por parcela. O esquema do
experimento de campo está apresentado na Figura abaixo com quatro tratamentos e cinco
blocos:
I V
A C D C A
B D A B C
D A B D B IV
B C D C A
II III
2
Produção de milho em kg/100m segundo a variedade e o bloco
Variedade (tratamentos)
Blocos Total
A B C D
I 34 26 37 23 120
II 26 37 45 28 136
III 33 42 39 30 144
IV 36 34 41 37 148
V 31 36 53 32 152
Total 160 175 215 150 700

Média 32 35 43 30 35

a) Análise preliminar
2
Unidade Experimental Parcelas de 100 m .
Variável de Interesse Produtividade de milho
Fator em estudo Variedades de milho
Níveis do Fator 4 (variedades A, B, C, D)
Fator Fixo Porque os 4 níveis foram definidos pelo pesquisador
Blocos 5 ( blocos I, II, III, IV, V)
Quando temos um experimento em Blocos completamente ao acaso (balanceado), com um fator
fixo, temos interesse em verificar a influência dos k níveis desse fator (tratamento) nos diferentes Blocos
para a variável resposta Y em estudo. Assim um modelo estatístico associado a este tipo de experimento é
dado pela forma:

Yij = µ + τ i + β j + e ij
b) Hipóteses de Interesse
H0: Τ1=Τ2=Τ3=Τ4= 0 (hipótese de nulidade)
Versus
H1: pelo menos um Τi é diferente de zero (hipótese alternativa)
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 17
c) Tabela de Análise de Variância para um fator fixo (ANOVA)
Para fazer a análise de variância de um experimento em blocos casualizado é preciso calcular as
seguintes quantidades:
c.1) os graus de liberdade:
de tratamentos: k-1  4-1=3
de blocos: b-1  5-1=4
do total: kb-1  4*5-1=20-1=19
do resíduo: (kb-1)-(k-1)-(b-1) = (k-1)*(b-1)  19-3-4=12
c.2) o valor de C é dado pelo total geral elevado ao quadrado e dividido pelo número de dados. O
valor de C é chamado de “correção”:

C=
(∑ T )
k
2

 C=
(160 + 175 + 215 + 150)2 =
(700) 2
⇒ C = 24500 =
kb 4*5 20
c.3) a soma de quadrados total:
SQTot = (∑ Y ) − C
2
ij

( )
SQTot = 342 + 262 + 332 + ... + 37 2 + 322 − 24500 ⇒ SQTot = 950
c.4) a soma de quadrados de tratamentos:
 ∑ Τk2 
SQTr =  −C
 b 
 
 160 2 + 175 2 + 215 2 + 150 2 
SQTr =   − 24500 ⇒ SQTr = 490
 5 
c.5) a soma de quadrados de blocos :
 ∑ Bk2 
SQB =  −C
 k 
 
 120 2 + 136 2 + 144 2 + 148 2 + 152 2 
SQB =   − 24500 ⇒ SQB = 160
 4 
c.6) a soma de quadrados de resíduos :
SQR = SQTot - SQTr - SQB
SQR = 950 − 490 − 160 ⇒ SQR = 300
c.7) o quadrado médio de tratamentos:
SQTr 490
QMTr =  QMTr = ⇒ QMTr = 163,33
k −1 4 −1
c.8) o quadrado médio de blocos:
SQB 160
QMB =  QMB = ⇒ QMB = 40
b −1 5 −1
c.9) o quadrado médio de resíduos:
SQR 300 300
QMR =  QMR = = ⇒ QMR = 25
(k - 1)(b - 1) (4 - 1) * (5 - 1) 3 * 4
c.10) o valor de F:
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 18

QMTr 163,33
F0 =  F0 = ⇒ F0 = 6,53
QMR 25
A Tabela de Análise de Variância – ANOVA fica então da seguinte forma:
Fonte de Graus de Soma Quadrado Médio
F
Variação Liberdade Quadrado
Tratamentos 3 490 163,33 6,53
Bloco 4 160 40,00 1,60
Resíduos 12 300 25,00
TOTAL 19 950

d) Regra de Decisão
Para avaliarmos as hipóteses fazemos uso da tabela de Fisher-Snedecor (Tabelas 1, 2 e 3,
respectivamente para níveis de significância de 1, 5 e 10%) procurando o valor de Ftab [k-1; (k-1)(b-1);α%] com (k-
1) graus de liberdade para os tratamentos (numerador) e (k-1)(b-1) graus de liberdade para o resíduo
(denominador).
 Se Fo ≥ Ftab [k-1; (k-1)(b-1);α%], rejeita-se a hipótese de nulidade H0 a nível de α% de significância,
conseqüentemente, pelo menos um Tratamento τi é diferente de zero.
 Se Fo < Ftab [k-1; (k-1)(b-1);α%], aceita-se a hipótese H0 ao nível de α% de significância, ou seja, em média os
tratamentos são iguais.

Na tabela de Fisher-Snedecor procuramos o Ftab [k-1; (k-1)(b-1);α%]. Dependendo do nível de


significância adotado, utiliza-se as Tabelas 1, 2 e 3, respectivamente para níveis de significância de 1, 5 e
10%. Assim, considerando que já na fase de planejamento havia-se definido uma significância de 5%,
procura-se o valor de Ftab [k-1; (k-1)(b-1);α%], na Tabela 2 em anexo. Nesta tabela encontramos no eixo horizontal
os graus de liberdade do tratamento, ou seja, (k-1), ao passo que no eixo vertical os graus de liberdade do
resíduo (k-1)*(b-1). Desta forma encontramos o valor de Ftab(3;12;0,05) = 3,49.
 Como Fo=6,53 ≥ Ftab(3;12;0,05)=3,49 rejeita-se a hipótese de nulidade H0 ao nível de 5% de significância,
ou seja, pelo menos um tratamento Τi é diferente de zero(outro).
Com isto, verifica-se que realmente pelo menos um tratamento (A, B, C ou D) possui
estatisticamente média diferente dos demais. Porém basta agora descobrirmos quais médias são
estatisticamente iguais e quais diferem entre si, e isto se consegue fazendo-se uso dos testes de
comparações múltiplas.

e) Estimativas dos parâmetros


Os estimadores de µ são: a produtividade obtida em cada unidade experimental para um
determinado tratamento e bloco (20) foi: µˆ = Y .. = (32 + 35 + 43 + 30) / 4 = 35 .
A média por tratamento Y i . foi:
Tratamento A ⇒ µˆ 1 = Y1 . = 32 kg/100m
2

Tratamento B ⇒ µˆ 2 = Y2 . = 35 kg/100m
2

Tratamento C ⇒ µˆ 3 = Y3 . = 43 kg/100m2
Tratamento D ⇒ µˆ 4 = Y4 . = 30 kg/100m
2

Os estimadores dos Tratamentos Τi serão Tˆi = Yi . − Y .. :

Tratamento A ⇒ Tˆ1 = Y1 . − Y .. = 32 − 35 = − 3 kg/100m2


Tratamento B ⇒ Tˆ2 = Y2 . − Y .. = 35 − 35 = 0 kg/100m
2

Tratamento C ⇒ Tˆ = Y . − Y .. = 43 − 35 = 8 kg/100m
2
3 3

Tratamento D ⇒ Tˆ4 = Y4 . − Y .. = 30 − 35 = −5 kg/100m


2
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 19
Analisando-se o desempenho das diferentes variedades de milho estudadas (tratamentos), percebe-
se que as variedades A e B apresentaram uma produtividade média inferior a média geral dos dados. A
2
variedade C apresentou um acréscimo na produtividade de milho na ordem de 8 kg/100m e a variedade B
em média a mesma produtividade da média geral dos dados.

f) Utilizando o teste Tukey realizar-se-á a comparação múltipla entre os tratamentos (variedades


A,B,C,D). Quais são suas conclusões ao nível de 5% de significância?
 As estimativas de µ1 µ2 µ3 e µ4 são respectivamente,

Y1 . = 32 (A), Y2 . = 35 (B),

Y3 . = 43 (C) e Y4 . = 30 (D).

 Os contrastes(C) do estimador entre os tratamentos foram:


A e B ⇒ CAB = Y1 . - Y2 . = 32-35 = -3
A e C ⇒ CAC = Y1 . - Y3 . = 32-43 = -11
A e D ⇒ CAD = Y1 . - Y4 . = 32-30 = 2
B e C ⇒ CBC = Y2 . - Y3 . = 35-43 = -8
B e D ⇒ CBD = Y2 . - Y4 . = 35-30 = 5
C e D ⇒ CCD = Y3 . - Y4 . = 43-30 = 13
 Hipóteses de Interesse
H0: CAB=0; CAC=0; CAD=0; CBC=0; CBD=0; CCD=0 (médias iguais)
Versus
H1: O Contraste(C) é diferente de zero (médias diferentes)
O Teste Tukey
 Hipótese de interesse
H0: µi = µj
Versus
H1: µi ≠ µj para i≠j

 A estatística de Tukey é avaliada pela diferença mínima significativa (d.m.s.)

QMR
d.m.s. = q c (k; n − k;α%) *
r
O valor de q[k;(k-1)(b-1);α%] com k graus de liberdade para o tratamento e (k-1)*(b-1) graus de liberdade para o
resíduo é encontrado na Tabela 6 a um nível de significância de 5%. (anexo). Assim, q[k;(k-1)(b-1)] = q[4;(4-1)*(5-
1)]= q[4;12;5%]=4,20

QMR=25,0 (ANOVA) e r=b=5 (quando trata-se de experimentos em Blocos, o termo r da fórmula acima
deve ser substituído pelo numero de blocos “b”)
Assim, o valor da d.m.s. será:

25 d.m.s. = 9,4
d.m.s. = 4,20 * 
5
Assim, para o teste de Tukey duas médias serão estatisticamente diferentes quando o valor
absoluto da diferença entre elas for maior ou igual a d.m.s.
Por exemplo, como para o contraste CAB=3,0 ≤ d.m.s.=9,4 as médias são estatisticamente iguais, ou seja,
aceito H0. Já para o contraste CAc=11,0 ≥ d.m.s.=9,4 as médias são estatisticamente diferentes, ou seja,
rejeito H0.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 20
Resumo do teste Tukey
Contrastes Valor absoluto(C) d.m.s. Decisão a 5%
CAB 3 9,4 Aceito H0 (iguais)
CAC 11 9,4 Rejeito H0(diferente)
CAD 2 9,4 Aceito H0 (iguais)
CBC 8 9,4 Aceito H0 (iguais)
CBD 5 9,4 Aceito H0 (iguais)
CCD 13 9,4 Rejeito H0 (diferente)
Quadro de Comparações de Médias segundo os respectivos métodos
Médias Tukey
µA 32 a
µB 35 a b c
µC 43 b
µD 30 a c
Nota: Letras iguais correspondem a médias iguais ao nível de 5% de significância pelo teste de Tukey

2.4.3 Testes de comparações múltiplas


Quando a ANOVA (Fo) de um experimento mostra que as médias dos tratamentos são
estatisticamente diferentes, pode-se perguntar quais as médias que diferem entre si. Imagine que um
pesquisador deseje comparar três tratamentos (A,B,C) entre si. Se a ANOVA mostrar que as médias desses
tratamentos são estatisticamente diferentes, pode-se usar um determinado teste estatístico para comparar
as médias de A e B, A e C, B e C, que representam os contrastes.
Estes testes estatísticos servem então, como um complemento do teste F (Fisher-Snedecor)
aplicado na análise de variância, pois este permite estabelecer apenas se as médias das populações em
estudo são, ou não, estatisticamente iguais. No entanto, este tipo de análise não permite detectar quais são
as médias estatisticamente diferentes das demais.
Existe uma série de métodos de comparação múltipla, o teste T, Tukey, Duncan, Dunnett, Scheffé
e Bonferroni. Os três testes iniciais, só devem ser aplicados quando a estatística F0 (ANOVA) for
significativa, ou seja, existir diferenças significativas entre os tratamentos (aceitar a hipótese H1).
 O teste T deve ser utilizado apenas para comparação de duas médias.
 O teste Tukey pode ser utilizado para realizar a comparação entre as médias.
 O teste Dunnett deve ser utilizado somente para comparar os tratamentos com um tratamento
controle.
 O teste de Duncan é utilizado para saber qual dos tratamentos é o melhor.
Antes de estudarmos estes testes, são necessários alguns conceitos. Contraste (C) é a
combinação linear das médias dos k tratamentos em estudo. Numa análise estatística devemos formular
aqueles contrastes que sejam de maior interesse para o experimentador. Os contrastes são ditos
ortogonais, quando existe independência entre duas comparações, ou seja, a variação de um contraste
é inteiramente independente da variação do outro.
Os contrastes devem ser avaliados comparativamente com um método que forneça a diferença
mínima significante (d.m.s.) entre duas médias, que é um instrumento de medida. Toda vez que o valor
absoluto da diferença entre duas médias for maior ou igual que a d.m.s., as médias são consideradas
estatisticamente diferentes, ao nível de significância adotado.
Foram propostas diversas maneiras de calcular a d.m.s. Cada proposta é, na realidade, um teste
que, de forma geral, leva o nome do autor. Não existe procedimento para comparação de médias que seja
“melhor” que todos os outros. Por isto, estão apresentados e discutidos abaixo os procedimentos mais
comuns utilizados.

a) Teste T (t-Student)
De acordo com BANZATTO & KRONKA (1992), os requisitos básicos deste teste são:
 os contrastes a serem testados devem ser ortogonais entre si;
 os contrastes devem ser estabelecidos antes de serem examinados os dados (na fase de planejamento
do experimento).
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 21
 Hipótese de interesse
H0: C=0
vs.
H1: C≠0
A estatística do Teste T para testar a hipótese H0 é dada através da diferença mínima
significativa (d.m.s.):
1 1
 Experimento não balanceado  d .m.s. = t c ( n − k ;α %) *  +  * QMR
r r 
 i j 

2 * QMR
 Experimento balanceado  d .m.s. = t c ( n − k ;α %) *
r
O valor de tc(n-k; α%) com n-k graus de liberdade para o resíduo e α% de significância podem ser
encontrados na Tabua V (anexo). Já QMR (quadrado médio dos resíduos) pode ser encontrado na Tabela
ANOVA e r, representa o nº de repetições de cada tratamento.

 Regra de Decisão
Toda vez que o valor absoluto da diferença entre duas médias (contrastes) for maior ou igual
que o valor da d.m.s., as médias são estatisticamente diferentes, ao nível de significância de α%, o que
implica na rejeição da hipótese H0.

b) Teste de Tukey
De acordo com BANZATTO & KRONKA (1992), este teste pode ser utilizado para testar todo e
qualquer contraste entre duas médias. É um teste muito versátil, mas não permite comparar grupos entre
si. Para que o teste seja exato, é necessário que todos os tratamentos possuam o mesmo número de
réplicas.
O teste tem por base a diferença mínima significante (d.m.s.), ou seja, a menor diferença de
médias de amostras que deve ser tomada como estatisticamente significante, em determinado nível.

 Hipótese de interesse
H0: µi=µj
vs.
H1: µi≠µj para i≠j
A estatística de Tukey é dada através da diferença mínima significativa (d.m.s.)

 1 1  QMR
 Experimento não balanceado  d.m.s. = q c (k; n − k;α%) *  + *
r r  2
 i j 

QMR
 Experimento balanceado  d.m.s. = q c (k; n − k;α%) *
r
O valor de qc(k;n-k;α%) com k graus de liberdade para o tratamento e (n-k) graus de liberdade para o
resíduo podem ser encontrados nas Tabelas 5, 6 e 7, respectivamente, para um nível de significância de
1%, 5% e 10%. (anexo). Já QMR (quadrado médio dos resíduos) pode ser encontrado na Tabela ANOVA e
r, representa o nº de repetições de cada tratamento.
 Regra de Decisão
Para este teste, duas médias são estatisticamente diferentes quando o valor absoluto da diferença
entre elas for maior ou igual a d.m.s.
Obs.: De acordo com GOMES(1987), no caso de serem diferentes os números de repetições, o teste de
Tukey pode ainda ser usado, mas então é apenas aproximado.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 22
c) Teste de Dunnett
Utiliza-se este teste quando as únicas comparações que interessam ao experimentador são
aquelas feitas entre a testemunha e cada um dos demais tratamentos, não havendo interesse na
comparação dos demais tratamentos entre si.
 Hipótese de interesse
H0: µi = µcontrole. para i=1,2,...,p
Versus
H1: µi ≠ µcontrole.
A estatística de Dunnett é dada através da diferença mínima significativa (d.m.s.):
1 1
 Experimento não balanceado  d .m.s. = t d [( k −1); ( n − k ); α % ] *  +  * QMR
 r rc 
 t

2 * QMR
 Experimento balanceado  d .m.s. = t d [( k −1); ( n − k ); α % ] *
r
O valor de td [(k-1); (n-k); α%] com (k-1) graus de liberdade para os grupos tratados e (n-k) graus de
liberdade para o resíduo com α% de significância podem ser encontrados nas Tabelas 11 e 12,
respectivamente para uma significância de 1% e 5%. Já o QMR (quadrado médio dos resíduos) pode ser
encontrado na Tabela ANOVA e r, representa o nº de repetições de cada tratamento. Para o caso de
experimento não balanceado, o termo rc representa o número de repetições para o grupo controle e rt o
número de repetições para o grupo tratado.
 Regra de Decisão
Rejeita-se a hipótese H0 quando o valor absoluto do contraste C=µi-µcontrole. for maior ou igual que a
d.m.s. a um nível de significância de α%.

2.4.4 Delineamento em Blocos Casualizados com Repetições (DBCr)


Este tipo de delineamento é utilizado quando temos mais de uma repetição de cada tratamento
dentro de cada bloco e portanto, permite o estudo de interação entre tratamentos e blocos. Caso haja
interação entre tratamentos e blocos, o pesquisador poderá chegar a conclusões equivocadas, caso
alguns cuidados que serão discutidos na seqüência do capítulo não sejam tomados.
Quando existe interação, os tratamentos não têm o mesmo efeito em todos os blocos, ou seja,
existe diferença entre médias de tratamentos, mas a magnitude da diferença depende do bloco.
Vamos considerar um exemplo: Um psicólogo quer comparar o “grau de aceitação” de dois tipos
de “terapia ocupacional” A e B, e por adultos e crianças. Definiu então que as terapias ocupacionais (A e
B) seriam os tratamentos ao passo que a faixa de idade (adultos e crianças) os blocos.

HAVERÁ INTERAÇÃO TRATAMENTOS VERSUS BLOCOS SE:


 O tratamento A for mais bem aceito por adultos e o tratamento B mais bem aceito por crianças,
conforme Figura abaixo (esquerda):
 O tratamento A for mais bem aceito por adultos, mas A e B forem igualmente bem aceitos por
crianças, conforme Figura abaixo (direita):

8 9
7 8
7
6
Notas

Notas

crianças crianças
6
5 adultos adultos
5
4
4
3 3
A B A B
Tratamentos Tratamentos
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 23
NÃO HAVERÁ INTERAÇÃO TRATAMENTOS VERSUS BLOCOS SE:
 Os tratamentos tiverem o mesmo efeito em todos os blocos, conforme abaixo:

10
9
8

Notas
7 crianças
6 adultos
5
4
3
A B
Tratamentos

Considere como exemplo, um esquema que pode ser utilizado para execução e acompanhamento
de um experimento a campo onde, tem-se um delineamento em blocos casualizados com repetições
estudando-se 2 tratamentos (A,B) em 2 blocos e com 3 repetições de cada tratamento por bloco,
perfazendo um total de 12 parcelas experimentais. Dentro de cada Bloco mais uma vez os tratamentos
devem ser distribuídos por sorteio.
Bloco 1

B A A B A B

Bloco 2

A B A B B A

Uma outra forma de delineamento em blocos são os experimentos em blocos ao acaso com
repetições. Aqui o número de unidades que caem dentro de um bloco pode ser maior do que o número de
tratamentos que o pesquisador pretende comparar. Imagine que um pesquisador dispõe de 13 ratos, sendo
7 machos similares entre si e 6 fêmeas também similares entre si e se queira comparar o efeito de duas
rações sobre o ganho de peso dos animais. O esquema experimental poderia ser tal como o apresentado
na Figura 12.

Figura 13: Experimentos em Blocos ao acaso com repetições


Fonte: VIEIRA & HOFFMANN(1989).

6.1.1.1. Análise de Variância – ANOVA


Para analisar este tipo de experimento, vamos considerar que há um único fator de interesse com
“k” níveis e que o experimento para avaliar o efeito deste fator será em “b” blocos. Aqui será demonstrado
o estudo de “r” repetições para cada nível do fator, em cada bloco.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 24
Tratamentos (fator)
Blocos Total
T1 T2 T3 ... K
Y111 Y211 Y311 ... Yk11
B1 Y112 Y212 Y312 ... Yk12 Y1.
. . . ... .
Y121 Y221 Y321 ... Yk21
B2 Y122 Y222 Y322 ... Yk22 Y2.
. . . ... .
Y1b1 Y2b1 Y3b1 ... Ykb1
Br Y1b2 Y2b2 Y3b2 ... Ykb2 Yb.
. . . … .
Total ΣT 1 ΣT 2 ΣT 3 ΣT k ΣT=ΣB
Nº de
b*r1 b*r2 b*r3 b*rk n=b*r*k
repetições
Média Y1. Y2. Y3. Yk . Y..

a) Modelo Estatístico (efeito fixo)


Considerando que haja interação tratamento versus blocos o modelo estatístico para este
experimento será (caso contrário o modelo é aditivo conforme o discutido anteriormente):

Yij = µ + τ i + β j + τβ ij + eij para i=1,2,...a e j=1,2,...,b,


a b
sujeito a
∑τ
i =1
i = ∑β
j=1
j =0

onde:
Yij = variável resposta coletada sob o i-ésimo nível do fator no bloco j;
µ = média global comum a todas as observações;
τi = efeito do i-ésimo nível do fator, ou seja, efeito tratamento;
βj = efeito do i-ésimo bloco, ou seja, efeito do bloco;
τβij= efeito da interação entre tratamentos e blocos;
eij = componente do erro aleatório associado à observação Yij.
As suposições associadas a este modelo são:
i) Os erros eij são independentes (aleatorização);
ii) Os erros eij possuem variância constante (σ = cte);
2

iii) Os erros eij são variáveis aleatórias independentes e identicamente distribuídas, tendo distribuição
normal com média zero e variância constante, isto é eij ≈ N (0,σ ).
2

b) Hipóteses de Interesse
Para o caso em estudo estamos considerando o caso que o tratamento (fator) é um fator fixo.
H0:τ1 = τ2 =...= τa = 0 (hipótese de nulidade)
vs.
H1: τi ≠ 0, para pelo menos um i (hipótese alternativa)
c) Tabela de Análise de Variância para um fator fixo (ANOVA)
Para fazer a análise de variância de um experimento em blocos casualizados com repetições é
preciso calcular as seguintes informações:
c.1) os graus de liberdade:
de tratamentos: k-1
de blocos: b-1
da interação: (k-1)*(b-1)
do resíduo: k*b*(r-1)
do total: n-1
c.2) o valor de C é dado pelo total geral elevado ao quadrado e dividido pelo número de dados. O
valor de C é chamado de “correção”:

(∑ Y ) 2

C=
(∑ T ) k
2

C=
ij
ou
n n
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 25
c.3) a soma de quadrados total :
SQTot = (∑ Yij2 ) − C
c.4) a soma de quadrados de tratamentos:
 ∑ Τk2 
SQTr =  −C
 b*r 
 
c.5) a soma de quadrados de blocos:
 ∑ Bk2 
SQB =  −C

 k * r 
c.6) a soma de quadrados da interação (tratamento versus blocos):

SQI =
∑I 2

- C - SQTr - SQB
r
c.7) a soma de quadrados de resíduos:
SQR = SQTot - SQTr - SQB - SQI
c.8) o quadrado médio de tratamentos:
SQTr
QMTr =
k −1
c.9) o quadrado médio de blocos:
SQB
QMB =
b −1
c.10) o quadrado médio da interação:
SQI
QMI =
(k - 1) * (b - 1)
c.11) o quadrado médio de resíduos:
SQR
QMR =
k * b * (r - 1)
c.12) os valores de F:

QMTr QMB QMI


F0 = F1 = F2 =
QMR QMR QMR
A Tabela de Análise de Variância – ANOVA fica então da seguinte forma:
Fonte de Graus de Soma Quadrado Médio
F
Variação (FV) Liberdade(GL) Quadrado (SQ) (QM)
Tratamentos k–1 SQTr QMTr F0
Bloco b-1 SQB QMB F1
Interação (TxB) (k-1)*(b-1) SQI QMI F2
Resíduos k*b*(r-1) SQR QMR
TOTAL n–1 SQTot
d) Regra de Decisão
Para avaliarmos as hipóteses fazemos uso da tabela de Fisher-Snedecor (Tabelas 1, 2 e 3,
respectivamente para níveis de significância de 1, 5 e 10%) procurando os valores tabulados de
Ftab utilizando-se os GL da anova de cada fonte de variação na coluna da tabela e os GL do resíduo na linha
da tabela. Inicialmente precisamos verificar se a interação é ou não significativa, vejamos:
 Se F2 ≥ Ftab {[(k-1)*(b-1)];[k*b*(r-1)];α%}, rejeita-se a hipótese de nulidade H0 a nível de α% de significância,
conseqüentemente, a interação entre tratamentos e blocos é significativa, portanto, o comportamento
dos tratamentos depende do bloco. Caso contrário, a interação não é significativa e portanto os
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 26
resultados dos tratamentos não dependem dos blocos e os valores de Fo e F1 podem ser interpretados
normalmente.
 Se Fo ≥ Ftab {k-1;[k*b*(r-1)];α%}, rejeita-se a hipótese de nulidade H0 a nível de α% de significância,
conseqüentemente, pelo menos um Tratamento τi é diferente de zero. Caso contrário, os tratamentos
não diferem entre si.
 Se F1 ≥ Ftab {b-1;[k*b*(r-1)];α%}, rejeita-se a hipótese de nulidade H0 a nível de α% de significância,
conseqüentemente, houve diferença significativa entre os blocos, caso contrário, os blocos não diferem
entre si.
e) Comparações múltiplas
Em um experimento aleatório de efeito fixo em blocos ao acaso com repetições e a ANOVA indica
que a interação é significativa, as médias dos tratamentos devem ser comparadas dentro de cada
bloco. Caso contrário, procede-se à comparação de médias da forma tradicional, ou seja, verifica-se se
existe diferença significativa entre as médias dos níveis do fator (tratamentos), através dos testes de
comparações múltiplas T, Tukey e Dunnett.
É importante ressaltar que se a interação não for significativa, ou seja F2<Ftab, a ANOVA
apresentada acima, deverá ser organizada de tal forma que os resultados dos graus de liberdade e da
soma quadrada da interação deverão ser somados aos graus de liberdade do resíduo e soma
quadrada do resíduo, mudando conseqüentemente, os valores de F0 e F1, que deverão novamente ser
determinados. Assim sendo, caso haja diferença significativa entre os tratamentos (F0≥Ftab), procede-se
as comparações múltiplas da forma tradicional já apresentada no capítulo de delineamento em blocos
casualizados, ou seja, far-se-á a comparação das médias gerais de cada tratamento, independente do
bloco.

Exemplo de Aplicação
1) Um professor conduziu um experimento para comparar a eficiência de quatro fontes de
informação: jornais(JO), televisão (TE), revistas (RE) e rádio(RA). Participaram desse experimento
24 alunos. Como os alunos eram de idades diferentes, o professor separou os alunos em dois
blocos, de acordo com a faixa de idade (jovens e velhos). Depois sorteou, dentro de cada bloco,
uma fonte de informação para cada aluno. Os alunos então se submeteram ao experimento, isto
é, tomaram conhecimento sobre determinado assunto apenas pela fonte de informação que lhes
havia sido sorteada. Depois, todos fizeram o mesmo teste de conhecimento, obtendo-se as notas
abaixo:
Desempenho em termos de notas dos alunos para cada fonte de informação e faixa de idade
Blocos Tratamentos TOTAL
JO TE RE RA
65 56 58 38
I 69 49 65 30 648
73 54 57 34

72 73 76 71
II 79 77 69 65 864
80 69 71 62
TOTAL 438 378 396 300 1512
a) Análise preliminar
Unidade Experimental Alunos
Variável de Interesse Eficiência das fontes de informação
Fator em estudo Fontes de informação
Níveis do Fator 4 [jornais(JO), televisão (TE), revistas (RE) , rádio(RA)]
Fator Fixo Porque as 4 fontes de informação foram definidos pelo professor
Blocos 2 ( blocos I, II – faixa de idade)
Quando temos um experimento em blocos casualizados com repetições (balanceado), com um fator
fixo, temos interesse em verificar a influência dos k níveis desse fator (tratamento) nos diferentes blocos
para a variável resposta Y em estudo. Assim, os seguintes modelos estatísticos associados a este tipo de
experimento podem ocorrer caso haja interação ou não haja interação, respectivamente:

Yij = µ + τ i + β j + τβ ij + eij Yij = µ + τ i + β j + eij


ou
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 27
Para termos uma idéia sobre a existência ou não de interação, abaixo apresentasse o gráfico das
médias dos tratamentos dentro de cada bloco.

Médias dos tratamentos dentro de cada bloco


Blocos Tratamentos
JO TE RE RA
I 69 53 60 34
II 77 73 72 66

Gráfico das médias dos tratamentos dentro dos blocos.

80
75
70
65
60 I
Notas

55 II
50
45
40
35
30
JO TE RE RA
Tratamentos

Como não houve paralelismo entre os comportamentos dos tratamentos considerando os dois
blocos, há indícios de que haja interação entre tratamentos e blocos.
b) Hipóteses de Interesse
H0: Τ1=Τ2=...=Τk= 0 (hipótese de nulidade)
Versus
H1: pelo menos um Τk é diferente de zero (hipótese alternativa)
c) Tabela de Análise de Variância para um fator fixo (ANOVA)
Para fazer a análise de variância de um experimento em blocos casualizado é preciso calcular as
seguintes informações:
c.1) os graus de liberdade:
de tratamentos: k-1  4-1=3
de blocos: b-1  2-1=1
da interação: (k-1)*(b-1)  (4-1)*(2-1)=3*1=3
do resíduo: k*b*(r-1)  4*2*(3-1)=16
do total: n-1  24-1=23
c.2) o valor de C é dado pelo total geral elevado ao quadrado e dividido pelo número de dados. O
valor de C é chamado de “correção”:

C=
(∑ T ) k
2

 C=
(1512)2 ⇒ C = 95256
n 24
c.3) a soma de quadrados total :
SQTot = (∑ Yij2 ) − C
(
SQTot = 65 2 + 69 2 + ... + 65 2 + 62 2 − 95256  ) SQTot = 99638 − 95256 ⇒ SQTot = 4382

c.4) a soma de quadrados de tratamentos:


 ∑ Τk2 
SQTr =  −C
 b*r 
 
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 28

 4382 + 3782 + 3962 + 3002 + 


SQTr =   − 95256  SQTr = 96924 − 95256 ⇒ SQTr = 1668
 2 *3 
c.5) a soma de quadrados de blocos:
 ∑ Bk2 
SQB =  −C
 k *r 
 
 6482 + 8642 
SQB =   − 95256  SQB = 97200 − 95256 ⇒ SQB = 1944
 4*3 
c.6) a soma de quadrados da interação (tratamento versus blocos):

SQI =
∑I 2

- C - SQTr - SQB
r
207 2 + 2312 + 159 2 + 219 2 + 180 2 + 216 2 + 102 2 + 198 2
SQI = - 95256 - 1668 - 1944 = 99372 - 98868 = 504
3

c.7) a soma de quadrados de resíduos:


SQR = SQTot - SQTr - SQB - SQI  SQR = 4382 - 1668 - 1944 - 504 ⇒ SQR = 266
c.8) o quadrado médio de tratamentos:
SQTr 1668
QMTr =  QMTr = = 556
k −1 4 −1
c.9) o quadrado médio de blocos:
SQB 1944
QMB =  QMB = = 1944
b −1 2 −1
c.10) o quadrado médio da interação:
SQI 504
QMI =  QMI = = 168
(k - 1) * (b - 1) (4 − 1) * (2 − 1)
c.11) o quadrado médio de resíduos:
SQR 266
QMR =  QMR = = 16,625
k * b * (r - 1) 4 * 2 * (3 − 1)
c.12) os valores de F:
QMTr 556 QMB 1944 QMI 168
F0 = = = 33,44 F1 = = = 116,93 F2 = = = 10,11
QMR 16,625 QMR 16,625 QMR 16,625
A tabela de Análise de Variância – ANOVA fica então da seguinte forma:
Fonte de Graus de Soma Quadrado Médio
F
Variação (FV) Liberdade(GL) Quadrado (SQ) (QM)
Tratamentos 3 1668 556 33,44
Bloco 1 1944 1944 116,93
Interação (TxB) 3 504 168 10,11
Resíduos 16 266 16,625 ---
TOTAL 23 4382 --- ---
d) Regra de Decisão
 Como F2=10,11 ≥ Ftab[3;16;5%]=3,24, rejeita-se a hipótese de nulidade H0 a nível de 5% de significância,
conseqüentemente, há interação entre tratamentos (fontes de informação) e os blocos (faixa de idade) é
significativa, portanto, o comportamento dos tratamentos depende do bloco.
 Se Fo=33,44 ≥ Ftab[3;16;5%]=3,24, rejeita-se a hipótese de nulidade H0 a nível de 5% de significância,
conseqüentemente, pelo menos um tratamento (fonte de informação) apresenta resultados
estatisticamente diferente dos demais. Entretanto, como a interação foi significativa, devemos realizar
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 29
o desdobramento das médias, ou seja, estudar o comportamento de cada tratamento (fontes de
informação) dentro de cada bloco (faixa de idade).
 Se F1=116,93 ≥ Ftab[1;16;5%]=4,49, rejeita-se a hipótese de nulidade H0 a nível de 5% de significância,
conseqüentemente, houve diferença significativa entre os blocos (faixa de idade), portanto, o professor
tinha razão quando suspeitou da diferença de resultados em função da faixa de idade dos alunos.
Para o caso em estudo, verificou-se que houve interação entre tratamentos e blocos, assim, as
comparações de médias (contrastes) serão realizadas entre os tratamentos dentro de cada bloco.
Médias dos tratamentos dentro de cada bloco
Blocos Tratamentos
JO TE RE RA
I (jovens) 69 53 60 34
II (velhos) 77 73 72 66

A título de exemplificação, usaremos aqui o teste T-Student para comparação múltipla entre os
tratamentos (JO,TE,RE,RA). Quais são suas conclusões ao nível de 5% de significância?
 O Teste T-Student
A estatística de T-Student é avaliada pela diferença mínima significativa (d.m.s.)

2 * QMR
d .m.s. = t c {[ k*b*(r -1)];α %} *
r
O valor de tc{[k*b*(r-1)]; α%} com [k*b*(r-1)] que são os graus de liberdade do resíduo da ANOVA e a coluna de
5% (0,05) de significância da tabela T-Student (Tabela 4 em anexo). Assim, tc[16; 5%] = 2,12. O QMR=16,625
(ANOVA) e r=3 (quando se trata de experimentos em blocos com repetições e há interação, utiliza-se o
número de repetições de cada tratamento dentro de cada bloco, caso contrário o número total de repetições
de cada tratamento, independente do bloco).
Assim, o valor da d.m.s. será:

2 *16,625
d .m.s. = 2,12 * → d .m.s. = 7,06
3
Assim, para o teste de T-Student duas médias serão estatisticamente diferentes quando o valor
absoluto da diferença entre elas ( |C| ) for maior ou igual a d.m.s.
 Os contrastes(C) entre os tratamentos são apresentados na tabela abaixo:
Contrastes(C) Bloco I Bloco II
CJO-TE |69-53|=16 * (≠) |77-73|=04 (=)
CJO-RE |69-60|=09 * (≠) |77-72|=05 (=)
CJO-RA |69-34|=35 * (≠) |77-66|=11 * (≠)
CTE-RE |53-60|=07 (=) |73-72|=01 (=)
CTE-RA |53-34|=19 * (≠) |73-66|=07 (=)
CRE-RA |60-34|=26 * (≠) |72-66|=06 (=)
Nota: (*) representa médias estatisticamente diferentes entre si a 5% de
significância, segundo o teste T-Student.
Por exemplo, como dentro do Bloco I o contraste CJO-TE=16 ≥ d.m.s.=7,06, diz-se que as médias são
estatisticamente diferentes entre si. E em caso contrário, elas seriam consideradas iguais entre si.
Quadro de comparações de médias segundo os tratamentos e blocos
Médias Bloco 1 (jovens) Bloco 2 (velhos)
µjornal 69 a 77 a
µtelevisão 53 b 73 ab
µrevista 60 b 72 ab
µrádio 34 66 b
Nota: Letras iguais correspondem a médias iguais ao nível de 5% de significância por T-Student.
Com base nisto é fácil verificar que :
a) entre os mais jovens (bloco I), televisão e revista deram resultados estatisticamente iguais;
b) entre os mais jovens (bloco I), jornal foi estatisticamente melhor que as outras 3 fontes de
informação;
c) entre os mais jovens (bloco I), o rádio foi o que apresentou resultados estatisticamente piores
quando comparados com as outras 3 fontes de informação;
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 30
d) entre os mais velhos (bloco II), as fontes de informação jornal, televisão e revistas apresentaram
entre si resultados estatisticamente iguais;
e) entre os mais velhos (bloco II), as fontes de informação televisão, revistas e rádio também
apresentaram entre si resultados estatisticamente iguais;
f) assim, entre os mais velhos (bloco II), observou-se que somente o jornal apresentou resultado
estatisticamente diferente e melhor que o rádio.

2.4.5 Delineamento Fatorial


Em experimentos mais simples comparamos tratamentos de apenas um tipo ou fator,
permanecendo os demais fatores constantes. Assim, nesses experimentos, quando comparamos
inseticidas, todos os demais fatores como, por exemplo, variedades, adubações, tratos culturais, etc..
devem ser mantidos constantes.
Entretanto existem casos em que vários fatores devem ser estudados simultaneamente para
que possam nos conduzir a resultados de interesse. Para tanto utilizam-se de experimentos fatoriais,
que são aqueles nos quais são estudados, ao mesmo tempo, os efeitos de dois ou mais tipos de
tratamentos ou fatores.
Cada subdivisão de um fator é denominada nível do fator e os tratamentos neste tipo de
experimento, constituem-se de todas as combinações possíveis entre os diversos fatores nos seus
diferentes níveis.
As principais vantagens de experimentos fatoriais são:
 permitem estudar os efeitos simples e principais dos fatores e os efeitos das interações entre eles;
 todas as parcelas são utilizadas no cálculo dos efeitos principais dos fatores e dos efeitos das
interações, razão pela qual o número de repetições é elevado.
As principais desvantagens de experimentos fatoriais são:
 como os tratamentos são constituídos por todas as combinações possíveis entre os níveis dos diversos
fatores, o número de tratamentos aumenta muito e muitas vezes não podemos distribuí-los em blocos
casualizados devido a exigência de homogeneidade das parcelas dentro de cada bloco o que nos
obriga a utilizar a técnica de confundimento e a trabalhar com blocos incompletos equilibrados, o que
leva a algumas complicações na análise estatística;
 a análise estatística é mais trabalhosa que nos experimentos simples e a interpretação dos resultados
se torna mais difícil a medida que aumentamos o número de níveis e de fatores no experimento.
A análise estatística de um experimento com dois fatores depende da forma com eles estão
combinados e também do fato de eles serem fixos ou aleatórios.
De modo geral, em um estudo de análise de variância com dois fatores, temos “a” níveis do fator
A e “b” níveis do fator B, arranjados de tal forma que cada repetição do estudo contêm uma observação de
todos os “ab” tratamentos. Considere r o número de repetições a cada tratamento.
A estrutura de um delineamento fatorial é a seguinte:
Fator Fator B
A 1 2 ... b Médias
Y111 Y121 ... Y1b1
Y112 Y122 ... Y1b2
1
: Y11. : Y12. : :
Y1..
Y11r Y12r ... Y1br
Y211 Y221 ... Y2b1
Y212 Y222 ... Y2b2
2
Y22. :
Y2 ..
: Y21. : :
Y2br
Y21r Y22r ...
: : : : : :
. . . . . :
Ya11 Ya21 ... Yab1
Ya12 Ya22 ... Yab2
a
Ya 2. Ya ..
: Ya1. : : :
Ya1r Ya2r ... Yabr

Médias Y.1. Y.2. Y.b. Y...


Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 31
O tipo mais simples de experimento fatorial é o 2 x 2 (dois por dois). Nesses experimentos são
analisados dois fatores em dois níveis. Como exemplo, imagine que estivéssemos interessados em
comparar duas temperaturas (20ºC e 25ºC) e duas concentrações de uma substância (30 e 40ppm) na
velocidade de uma reação química.

O experimento poderia ser montado num esquema fatorial 3 x 3, ou seja, dois fatores cada qual
em três níveis. Como exemplo imagine um experimento de adubação onde se comparam três níveis de
nitrogênio (N) e três níveis de fósforo (P), obtendo-se um total de 9 tratamentos em comparação como
mostra o esquema abaixo:
Nitrogênio (N)
Fósforo (P)
N0 N1 N2
P0 N0P0 N1P0 N2P0
P1 N0P1 N1P1 N2P1
P2 N0P2 N1P2 N2P2
Os fatoriais 2 x 2 x 2 são experimentos em que se analisam os efeitos de três fatores – como por
exemplo, nitrogênio (N), fósforo (P) e potássio (K) – cada um em dois níveis [ausência (0) e presença (1)].
Neste caso teremos 8 tratamentos em comparação como mostra o esquema abaixo:
Nitrogênio (N)
N0 N1
Fósforo (P)
Potássio (K) P0 P1 P0 P1
K0 N0P0K0 N0P1K0 N1P0K0 N1P1K0
K1 N0P0K1 N0P1K1 N1P0K1 N1P1K0
Também podem ser feitos experimentos fatoriais 3 x 4, 2 x 3, etc. Assim, por exemplo, um
experimento para testar três níveis de fósforo, na presença (1) ou ausência (0) de irrigação, seria um
fatorial 3 x 2.

Experimentos cruzados fixos


Apresentaremos aqui um experimento com 2 fatores fixos obedecendo a uma classificação cruzada
(com interação)

a) Modelo Estatístico
Considerando um experimento cruzado fixo, o modelo associado será:

Yijk = µ + α i + β j + αβij + e ijk para i=1,2; j=1,2,3 e k=1,2,3


2 3 2 3
sujeito as seguintes restrições
∑α
i =1
i ∑β
j=1
j =0 ∑ αβ
i =1
ij =0 ∑ αβ
j=1
ij =0

onde:
Yijk = observação correspondente à k-ésima unidade experimental submetida ao i-ésimo nível do
Fator A e j-ésimo nível do Fator B;
µ = média global comum a todas as observações;
αi = efeito do i-ésimo nível do fator A;
βj = efeito do j-ésimo nível do fator B;
αβij= é o efeito de interação entre o i-ésimo nível do fator A e o j-ésimo nível do fator B;
eijk = componente do erro aleatório associado à observação Yijk.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 32
Os efeitos αi e βj são denominados efeitos principais. Caso não exista interação entre os fatores,
o modelo ficará: Yijk = µ + α i + β j + eijk . Neste caso os efeitos A e B são aditivos.
Segundo URIBE-OPAZO (1999), em experimentos deste tipo todas as informações sobre o efeito
dos fatores A e B na variável resposta pode ser obtida fazendo-se a inferência apenas sobre as médias µi. e
µ.j que representam respectivamente, a média populacional da variável resposta no i-ésimo nível do fator A
e, a média populacional da variável resposta no j-ésimo nível do fator B.
Isto ocorre porque em experimentos aditivos, a diferença entre as médias populacionais em
quaisquer 2 níveis de um fator é a mesma qualquer que seja o nível do outro fator, o que não ocorre
quando existe interação entre os fatores, onde o padrão do nível de diferença entre os níveis de um fator
depende dos níveis do outro fator.
Considere por exemplo, um experimento com dois fatores A e B com 2 e 3 níveis respectivamente.
Na figura abaixo, representa-se graficamente a existência de interação (b) e inexistência desse efeito (a).
Sem Interação Com Interação

A1
A1
A2

A2
(a) (b)
B1 B2 B3
B1 B2 B3
As suposições associadas ao modelo
i) Os erros eijk são variáveis aleatórias independentes e identicamente distribuídas, tendo
distribuição normal com média zero e variância constante, isto é, eijk ≈ N (0,σ2).

b) Hipóteses de Interesse
As hipóteses gerais são:
H01: α1 = α2 =...= αa = 0 (não existe efeito do fator A)
vs.
H11: pelo menos um αi ≠ 0 (existe efeito do fator A)

H02: β 1 = β2 =...= β b = 0 (não existe efeito do fator B)


vs.
H12: pelo menos um βj ≠ 0 (existe efeito do fator B)

H03: αβ 11 = αβ 12 =...= αβ ab = 0 (não existe interação)


vs.
H13: pelo menos um αβij ≠ 0 (existe interação entre fatores)

c) Tabela de Análise de Variância (ANOVA) para experimentos com dois fatores cruzados
Para fazer a análise de variância de um experimento fatorial com interação é preciso determinar
as seguintes informações:
c.1) os graus de liberdade:
de fator A: a-1
de fator B: b-1
da interação: (a-1)*(b-1)
do resíduo: a*b*(r-1)
do total: n-1
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 33
c.2) o valor de C é dado pelo total geral elevado ao quadrado e dividido pelo número de dados. O
valor de C é chamado de “correção”:

C=
(∑ Y ) ijk
2

n
c.3) a soma de quadrados total :
SQTot = (∑ Y ) − C 2
ijk

c.4) a soma de quadrados do Fator A: (mede a variação devida ao acaso quando o fator A não exerce
efeito sobre a variável resposta. Quando há efeito de A, SQA reflete a variabilidade provocada por este
efeito, além da variação devido ao acaso).
 ∑ ΤAk2

SQA =  −C

 b * r 
c.5) a soma de quadrados do Fator B: (mede a variação devida ao acaso quando o fator B não exerce
efeito sobre a variável resposta. Quando há efeito de B, SQB reflete a variabilidade provocada por este
efeito, além da variação devido ao acaso).
 ∑ TBk2 
SQB =  −C

 a * r 
c.6) a soma de quadrados da interação (Fator A versus Fator B): (mede a variação devida ao acaso
quando a interação entre os fatores A e B não exerce efeito sobre a variável resposta. Se há efeito da
interação entre A e B, SQAB reflete a variabilidade provocada por este efeito, além da variação devido
ao acaso).
∑I2 
SQI =   - C - SQA - SQB
 r 
 
c.7) a soma de quadrados de resíduos: (mede a variação devida ao acaso, isto é, a variação das
observações dentro de cada tratamento. Ou ainda, mede a variação natural do experimento sem levar
em conta os possíveis efeitos A e B e da interação AB).
SQR = SQTot - SQA - SQB - SQI
c.8) o quadrados médios do Fator A, Fator B, da interação(A*B) e do resíduo:
SQA SQB SQI SQR
QMA = QMB = QMI = QMR =
a −1 b −1 (a - 1) * (b - 1) a * b * (r - 1)
c.9) os valores de F:

QMA QMB QMI


F0 = F1 = F2 =
QMR QMR QMR
Análise de Variância (ANOVA) fica então:
Fonte de Graus de Soma Quadrado Quadrado Médio
F
Variação (F.V.) Liberdade (G.L.) (S.Q.) (Q.M.)
Fator A a-1 SQA QMA F0
Fator B b-1 SQB QMB F1
Interação (A*B) (a-1)*(b-1) SQI QMI F2
Resíduos a*b*(r-1) SQR QMR --
TOTAL n-1 SQTot -- --
d) Regra de Decisão
Na tabela abaixo são apresentadas as estatísticas do teste de hipótese em experimento com dois
fatores fixos e suas distribuições sob a condição de que essas hipóteses são verdadeiras.
Hipótese de interesse Estatística Distribuição estatística sobre H0
H01: α1 = α2 =...= αa = 0 F0 Ftab[(a-1); (a*b*(r-1))]
H02: β 1 = β2 =...= β b = 0 F 1 Ftab[(b-1); (a*b*(r-1))]
H03: αβ 11 = αβ 12 =...= αβ ab = 0 F 2 F tab[((a-1)*(b-1)); (a*b*(r-1))]
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 34

Assim, fazendo mais uma vez uso da tabela de Fisher-Snedecor (Tabela 1, 2 ou 3) procurando o
valor da distribuição estatística sobre H0 (Ftab) para cada estatística (F0, F1 e F2), chega-se às
conclusões:
 Se Fcal(0,1 e2) ≥ Ftab, rejeita-se a hipótese de nulidade H0i a nível de α% de significância.
 Se Fcal(0,1 e2) < Ftab, aceita-se a hipótese H0i.

d.1) Quando a interação não é significativa ao nível α% de significância (isto é, se F2 ≤ Ftab)


As hipóteses de interesse são da forma:
 Comparação de médias entre os níveis do fator  Comparação de médias entre os níveis do fator
A. B.
H01: µi. = µm. H02: µ.j = µ.h
vs. para i ≠m=1,2,...,a vs. para j ≠h=1,2,...,b
H11: µi. ≠ µm. H12: µ.j ≠ µ.h
d.2) Quando a interação é significativa ao nível α% de significância (isto é, se F2 ≥ Ftab)
Se isto ocorrer, temos a indicação da existência de dependência entre os efeitos dos fatores A e B.
Assim, as conclusões que poderíamos tirar na tabela ANOVA, para os fatores A e B ficam prejudicadas,
pois os efeitos do fator A dependem dos níveis do fator B, ou vice-versa. Desta forma, a solução é
realizarmos o desdobramento da interação (A*B), o que pode ser feito de duas maneiras:
 estudo do comportamento do fator A dentro de cada nível do fator B; ou
 estudo do comportamento do fator B dentro de cada nível do fator A.
Considerações
Em qualquer estrutura fatorial, havendo interação significativa, não deve-se interpretar os efeitos
principais isoladamente, deve-se estudar a variação de um dos fatores dentro do nível do outro fator com o
qual ele interagiu.
Se não houve interação entre os fatores, interprete os efeitos principais de cada fator sem se
preocupar com os outros fatores em estudo.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 35
Exemplo de Aplicação: Fatorial 2 x 2
1) Imagine que se queira avaliar num experimento o efeito da irrigação (A) e da calagem (B) sobre o
peso (Y) de uma determinada planta. Cada tratamento representará então a ausência (0) ou presença
do fator (irrigação ou calagem). Assim, os tratamentos seriam controle (A0B0), calagem (A0B1),
irrigação (A1B0) e irrigação + calagem (A1B1), com três repetições cada. Proceda a análise de
variância, adotando-se um nível de significância de 5%.
Peso das plantas cultivadas segundo os tratamentos
Tratamentos
A0B0 A0B1 A1B0 A1B1
25 35 41 60
32 28 35 67
27 33 38 59

A ANOVA preliminar será então avaliada através destes quatro tratamentos, ou seja, através de um
DIC, conforme tabela abaixo:
F. V. G.L. S.Q. Q.M. F
Tratamentos 3 2088 696 51,56
Resíduo 8 108 13,5
TOTAL 11 2196

Como F0=51,56 ≥ Ftab[3;8;5%]=4,07 significa que houve diferença entre os tratamentos. Como o
experimento tem um delineamento fatorial, temos que testa a interação entre os dois fatores, assim, a
ANOVA precisa ser desdobrada. Para isso, o primeiro passo é organizar a tabela abaixo:

Irrigação (A)
A0 A1 Total
25 41
B0 32 ∑ 84 35
∑ 114 198
27 x = 28 38 x = 38
Calagem(B)
35 ∑ 96 60 ∑ 186
B1 28 67 282
x = 32 x = 62
33 59
Total 180 300 480
a) Modelo Estatístico
Considerando um experimento cruzado fixo, o modelo associado será:

Yijk = µ + α i + β j + αβij + eijk para i=1,2; j=1,2,3 e k=1,2,3


Para termos uma idéia sobre a existência ou não de interação entre os Fatores A e B, abaixo é
apresentado o gráfico das médias de um tratamento dentro do outro tratamentos.
Médias do Fator A (irrigação) dentro do Fator B (calagem)
Calagem Irrigação
A0 A1
B0 28 38
B1 32 62

Gráfico das médias do Fator A (irrigação) dentro do Fator B (calagem)

70
Peso das plantas

60
B0
50
B1
40

30

20
A0 Tratamentos A1

Como não houve paralelismo entre os comportamentos dos tratamentos considerando os dois
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 36
fatores (irrigação e calagem), há indícios de que haja interação entre os dois fatores em estudo.
b) Hipóteses de Interesse
H0: Τ1=Τ2=...=Τk= 0 (hipótese de nulidade)
Versus
H1: pelo menos um Τk é diferente de zero (hipótese alternativa)
c.1) os graus de liberdade:
de fator A: a-1 2-1=1
de fator B: b-1 2-1=1
da interação: (a-1)*(b-1)  (2-1)*(2-1)=1
do resíduo: a*b*(r-1) 2*2*(3-1) =8
do total: n-1  12-1 =11
c.2) O valor de C é chamado de “correção”:

C=
(∑ Y ) ijk
2

C=
(480)2 = 19200
n 12
c.3) a soma de quadrados total :
SQTot = (∑ Y ) − C
2
ijk SQTot = (25 2 + 32 2 + ... + 67 2 + 59 2 ) − 19200 = 21396 − 19200 = 2196
c.4) a soma de quadrados do tratamento A:
 ∑ ΤAk
2
  1802 + 3002 
SQA =  −C

SQA =   − 19200 = 20400 − 19200 = 1200
 b*r   2*3 
c.5) a soma de quadrados do tratamento B:
 ∑ TAk2   1982 + 2822 
SQB =  −C

SQB =   − 19200 = 19788 − 19200 = 588
 a * r   2 * 3 
c.6) a soma de quadrados da interação (Fator A versus Fator B):
∑I2   84 2 + 96 2 + 114 2 + 186 2 
SQI =   - C - SQA - SQB SQI =   − 19200 - 1200 - 588 = 300
 r   3 
 
c.7) a soma de quadrados de resíduos:
SQR = SQTot - SQA - SQB - SQI SQR = 2196 − 1200 − 588 − 300 = 108
c.8) os quadrados médios do Fator A, Fator B, da interação(A*B) e do resíduo:
SQA 1200 SQB 588
QMA = = = 1200 QMB = = = 588
a −1 1 b −1 1
SQI 300 SQR 108
QMI = = = 300 QMR = = 13,5
(a - 1) * (b - 1) (2 − 1) * (2 − 1) a * b * (r - 1) 2 * 2 * (3 − 1)
c.9) os valores de F:
QMA 1200 QMB 588 QMI 300
F0 = = = 88,89 F1 = = = 43,56 F2 = = = 22,22
QMR 13,5 QMR 13,5 QMR 13,5
Análise de Variância (ANOVA) fica então:
Fonte de Graus de Soma Quadrado Quadrado Médio
F
Variação (F.V.) Liberdade (G.L.) (S.Q.) (Q.M.)
Fator A (irrigação) 1 1200 1200 88,89
Fator B (calagem) 1 588 588 43,56
Interação (A*B) 1 300 300 22,22
Resíduos 8 108 13,5 --
TOTAL 11 2196 -- --
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 37
d) Regra de Decisão
 Como F2=22,22 ≥ Ftab[1;8;5%]=5,32, rejeita-se a hipótese de nulidade H0 a nível de 5% de significância,
conseqüentemente, a interação entre os níveis do Fator A – irrigação (com e sem) e os níveis do Fator
B – calagem (com e sem) é significativa, portanto, recomenda-se comparar os níveis de B dentro de
A e os níveis de A dentro de B através de um teste de comparação de médias.

Aplicando o teste Tukey para comparação múltipla entre os níveis dos dois fatores (A e B), quais
são suas conclusões ao nível de 5% de significância?
A estatística de Tukey é avaliada pela diferença mínima significativa (d.m.s.)

QMR 13,5
d .m.s. = qc{( a*b );[ k *b*(r -1)];α %} *  d .m.s. = 4,53 * → d .m.s. = 9,61
r 3
O valor de qc{(a*b); [k*b*(r-1)]; α%} com (a*b) que representa os graus de liberdade (número de níveis do Fator A e
Fator B) buscados na coluna da tabela; [k*b*(r-1)] que são os graus de liberdade do resíduo da ANOVA
(buscados na linha da tabela) da Tabela 6 em anexo a 5% (0,05) de significância da tabela Tukey. Assim,
qc[(2*2); [2*2*(3-1)]; 5%]  qc[4; 8; 5%]=4,53. O QMR=13,5 (ANOVA) e r=3 (três repetições dentro de cada nível de
cada Fator. Assim, o valor da d.m.s. será:
Médias do Fator A (irrigação) dentro do Fator B (calagem)
Calagem Irrigação Contraste
A0 A1 | A0 – A1 |
B0 28 38 10*
B1 32 62 30*
| B0 – B1 | 4 24* ----
Nota: (*) representa médias estatisticamente diferentes entre si a 5% de
significância, segundo o teste Tukey.
Com base nisto podemos concluir que:
a) A irrigação (Fator A) teve efeito sobre o peso das plantas, tanto na presença (B1) como na
ausência (B0) de calagem;
b) Na presença de irrigação (A1), a calagem (Fator B) teve efeito sobre o peso das plantas. Já na
ausência de irrigação (A0), a calagem (Fator B) não teve efeito sobre o peso das plantas.

Mas as pesquisas nem sempre têm, como objetivo, testar a interação. Muitas vezes já se sabe
que a interação existe. Se for este o caso, o pesquisador pode optar por outra forma de desdobrar a
ANOVA. Por exemplo, se o objetivo é comparar os efeitos do Fator B(calagem) dentro de cada nível
do Fator A (irrigação), é razoável desdobrar a ANOVA como é feito a seguir:
Irrigação (A)
A0 A1 Total
25 41
B0 32 ∑
84
35
∑ 114 198
27 x = 28 38 x = 38
Calagem(B)
35 60
B1 28
∑ 96 67
∑ 186 282
33 x = 32 59 x = 62
Total 180 300 480
c.4) a soma de quadrados do tratamento A - irrigação (já calculada):
 ∑ ΤAk2
  1802 + 3002 
SQA =  −C

SQA =   − 19200 = 20400 − 19200 = 1200
 b * r   2*3 
c.4.1) a soma de quadrados do tratamento B c.4.2) a soma de quadrados do tratamento B
dentro do nível A0: dentro do nível A1:
 842 + 962   1802   1142 + 1862   3002 
SQBdt A0 =   −   = 24 SQBdt A1 =   −   = 864
 3   6   3   6 
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 38
Estes resultados estão apresentados na ANOVA desdobrada a seguir:
Fonte de Graus de Soma Quadrado Quadrado Médio
F Ftab
Variação (F.V.) Liberdade (G.L.) (S.Q.) (Q.M.)
Fator A (irrigação) 1 1200 1200 88,89 (s) 5,32
B dentro A0 1 24 24 1,78 (ns) 5,32
B dentro A1 1 864 864 64,00 (s) 5,32
Tratamentos 3 2088 696 51,56 (s) 4,07
Resíduos 8 108 13,5 --
TOTAL 11 2196 -- --
Nota: (ns) representa diferença de médias não significativa, ou seja iguais e (s) representa diferença de médias
estatisticamente significativas, ou seja diferentes entre si a 5% de significância.

Finalmente, a ANOVA, apresentada anteriormente, poderia ter sido desdobrada de outra forma.
Poderiam ter sido comparados, os efeitos de A (irrigação) dentro de cada nível de B (calagem), desde
que fosse esse o objetivo da pesquisa. A maneira de conduzir a ANOVA é similar a que foi descrita
anteriormente, bastando trocar A por B e B por A.
c.5) a soma de quadrados do tratamento B - calagem (já calculada):
 ∑ TAk2   1982 + 2822 
SQB =  −C

SQB =   − 19200 = 19788 − 19200 = 588
 a * r   2*3 
c.5.1) a soma de quadrados do tratamento A c.5.2) a soma de quadrados do tratamento A
dentro do nível B0: dentro do nível B1:
 842 + 1142   1982   962 + 1862   2822 
SQAdt B0 =   −   = 150 SQAdt B1 =   −   = 1350
 3   6   3   6 

Estes resultados estão apresentados na ANOVA desdobrada a seguir:


Fonte de Graus de Soma Quadrado Quadrado Médio
F Ftab
Variação (F.V.) Liberdade (G.L.) (S.Q.) (Q.M.)
Fator B (calagem) 1 588 588 43,56 (s) 5,32
A dentro B0 1 150 150 11,11(s) 5,32
A dentro B1 1 1350 1350 100,0 (s) 5,32
Tratamentos 3 2088 696 51,56 (s) 4,07
Resíduos 8 108 13,5 --
TOTAL 11 2196 -- --
Nota: (s) representa diferença de médias estatisticamente significativas, ou seja, diferentes entre si a 5% de
significância.

8.4.6 Experimento em Parcelas Subdivididas (“Split Plot”)


Nos experimentos com parcelas subdivididas existem dois tipos de tratamentos em comparação:
os principais e os secundários. Os tratamentos principais são designados às parcelas de maneira usual:
se as parcelas são similares, sorteiam-se os tratamentos sem qualquer restrição (experimento inteiramente
causalizado); se as parcelas não são similares, primeiro organizam-se os blocos e depois os tratamentos
dentro de cada bloco (experimento em blocos casualizados).
Assim, a estruturação se dá através de tratamentos principais (ou primários) nas parcelas e
estas, por sua vez, são divididas em subparcelas ou subunidades que receberão os tratamentos
secundários. Os níveis colocados nas parcelas são denominados tratamentos primários e, os níveis
do fator casualizados nas subparcelas de cada parcela são tratamentos secundários.
Neste delineamento, cada parcela funciona como um bloco para os tratamentos da subparcela. É
uma estrutura similar aos experimentos fatoriais, divergindo apenas na forma de instalação do mesmo à
campo. As parcelas podem ser subdivididas tanto no espaço (subdivisão de uma área em sub-áreas)
como no tempo (as parcelas não se subdividem em sub-áreas, mas periodicamente são feitas tomadas em
cada uma delas).
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 39
A estrutura de um delineamento em parcelas subdivididas é a seguinte:
Fator (A) Fator (B) Repetições Totais Geral
Totais
Parcelas Subparcelas 1 ... r Parcelas
B1 Y111 ... Y11r ∑B 1

B2 Y121 ... Y12r ∑B 2

A1 B3 Y131 ... Y13r ∑B 3 ∑A 1


: : : : :
Bk Y1br ... Y1br ∑B k

Totais ∑ A11 ... ∑ A1r


B1 Y211 ... Y21r ∑B 1

B2 Y221 ... Y22r ∑B 2

A2 B3 Y231 ... Y23r ∑B 3 ∑A 2


: : : : :
Bk Y2br ... Y2br ∑B k

Totais ∑A 21 ... ∑A 2r

B1 Yk11 ... Yk1r ∑B 1

B2 Yk21 ... Yk2r ∑B 2

Ak B3 Yk31 ... Yk3r ∑B 3 ∑A k


: : : : :
Bk Ykbr ... Ykbr ∑B k

Totais ∑ Ak1 ... ∑ Akr ∑ Total

Exemplo 1: Os experimentos em esquema fatorial geralmente recebem críticas quanto ao fato de que não
são práticos para instalação de determinados tipos de tratamentos como nos casos de irrigação, adubação,
pulverização, etc. Para melhor explicar, imagine que este interessado em comparar duas variedades (A1 e
A2) e três níveis de irrigação (I0, I1 e I2).
 Se o delineamento fosse no esquema fatorial ficaria da forma apresentada abaixo, o que claramente
não seria prático para instalação em campo. Se tivéssemos mais variedades e/ou mais níveis de água o
problema seria mais grave.

A2I1 A1I2 A2I0 A2I2 A1I0 A1I1

 Uma solução para resolver este problema seria inicialmente realizar o sorteio do fator que torna mais
difícil a instalação no esquema fatorial (irrigação) assim:
I2 I0 I1

 A seguir dentro de cada parcela sortearíamos o outro fator (variedades) obtendo-se:


I2 I0 I1

A1 A2 A2 A1 A2 A1
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 40
Exemplo 2: Vamos considerar um experimento para testar o fator calcário (fator A), com 3 níveis (A1, A2,
A3). Um segundo fator adubo (fator B) em 3 níveis (B1, B2, B3) pode ser sobreposto, dividindo-se cada
parcela de A em 3 subparcelas, e casualizando os níveis de B nestas 3 subparcelas. Após a casualização
dos níveis de A e dos níveis de B o esquema de distribuição no campo pode ser o seguinte:
A2 A1 A3

B1 B3 B2 B2 B1 B3 B1 B2 B3

Verifica-se então que a casualização é feito em 2 estágios, primeiro casualizamos os níveis do fator
A, em seguida, casualizamos os níveis do fator B nas subparcelas de cada parcela.
Segundo BANZATTO & KRONKA (1992) o delineamento em parcelas subdivididas é desejável nas
seguintes situações:
 Ele pode ser usado quando os tratamentos associados aos níveis de um dos fatores exigem maior
quantidade de material na unidade experimental do que os tratamentos do outro fator, o que é comum
em ensaios de campo e de laboratório. Por exemplo, num ensaio de campo um dos fatores poderia ser
o método de preparo do solo, que exige parcelas grandes, e o outro fator poderia ser variedades, que
podem ser comparadas usando parcelas menores;
 O delineamento pode ser usado quando um fator adicional é incorporado num experimento para ampliar
seu objetivo. Por exemplo: vamos supor que o principal objetivo de um experimento seja comparar os
efeitos de diversos fungicidas como proteção contra infecção por uma doença. Para ampliar o objetivo
do experimento, diversas variedades são incluídas, as quais se sabe que diferem quanto a resistência à
doença. Aqui, as variedades poderiam ser distribuídas nas parcelas e os fungicidas nas subparcelas;
Em resumo, quando se trata de experimentos em parcelas subdivididas deseja-se que a variação
entre subparcelas seja menor do que a existente entre as parcelas. Assim, o fator que deverá ser
casualizado nas subparcelas de cada parcela será aquele que: requer uma menor quantidade de material
experimental; seja de maior importância, mostre menores diferenças ou para aquele que pode alguma razão
se deseje uma maior precisão.
Duarte e Aquino (1986) citados por URIBE-OPAZO (1999) apresentam os casos em que o esquema
“split plot” é recomendado quando:
 um dos fatores torna difícil a instalação do experimento no esquema fatorial;
 um dos fatores exige uma área maior para sua instalação;
 deseja-se maior precisão para as comparações entre os níveis de um fator do que entre os níveis do
outro fator.

a) Modelo Estatístico de efeito fixo


Se considerarmos uma estrutura em parcelas subdivididas com 2 fatores A(parcelas) e B
(subparcelas) de efeitos fixos, num delineamento inteiramente ao acaso com r repetições, teremos a forma:

Yijk = µ + α i + e(α )k + β j + αβ ij + e( β ) jk para i=1,2; j=1,2,3 e k=1,2,3


a b a b
sujeito as seguintes restrições ∑α
i =1
i =0 ∑β
j =1
j =0 ∑ αβ
i =1
ij =0 ∑ αβ
j =1
ij =0

onde:
Yijk = valor da subparcela que recebeu o nível i e j dos fatores A e B na repetição k;
µ = média global comum a todas as observações;
αi = efeito do nível i do fator “A” que está na parcela;
e(α)k= erro da parcela que recebeu o nível “i” de “A” na repetição k (Erro(A))
βj = efeito do nível “j” do fator “B” que está na subparcela;
αβij= é o efeito de interação entre os fatores A e B;
e(β )jk = erro da subparcela que recebeu os níveis i e j dos fatores A e B na repetição k. (Erro(B))
Uma característica importante deste modelo é a existência de dois erros aleatórios que são
variáveis aleatórias independentes e identicamente distribuídas com distribuição normal, ou seja
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 41
e(α)k ≈
N(0,σ p)e e(β )jk ≈ N(0,σ sp)
2 2
que correspondem respectivamente ao Erro(A) e Erro(B). Em geral
espera-se que o QME(B) < QME(A), pois QME(B) é estimado com um maior número de graus de liberdade
que QME(A).
Se considerarmos a mesma condição, num delineamento em blocos casualizados, teríamos o
seguinte modelo:

Yijk = µ + α i + e(α )k + β j + αβ ij + Bl j + e( β ) jk
b) Hipóteses de Interesse
As hipóteses gerais são:
H0A: α1 = α2 =...= αa = 0 (não existe efeito do fator A - parcela)
vs.
H1A: pelo menos um αi ≠ 0 (existe efeito do fator A)

H0B: β 1 = β 2 =...= β b = 0 (não existe efeito do fator B - subparcela)


vs.
H1B: pelo menos um βj ≠ 0 (existe efeito do fator B)

H0AB: αβ 11 = αβ 12 =...= αβ ab = 0 (não existe interação)


vs.
H1AB: pelo menos um αβij ≠ 0 (existe interação entre parcelas e subparcelas)

c) Análise de Variância para experimentos Split-plot:


Para fazer a análise de variância de um experimento num esquema de parcelas subdivididas com
interação é preciso determinar as seguintes informações:
c.1) os graus de liberdade:
de fator A (parcelas): a-1
do erro A (parcelas): a*(r-1)
do total de A (parcelas): a*r-1
de fator B (subparcelas): b-1
da interação (A*B): (a-1)*(b-1)
do erro B (subparcelas): a*(b-1)*(r-1)
do total de B (subparcelas): n-1
c.2) o valor de “C” chamado de “correção”:

C=
(∑ Y ) ijk
2

n
c.3) a soma de quadrados TOTAIS - SQTot (subparcelas):
SQTot = (∑ Yijk2 ) − C
c.4) a soma de quadrados do Fator A - SQA (parcelas):

 ∑ Fpar
2

SQA =  −C
 b*r 
 
c.5) a soma de quadrados TOTAIS do Fator A – SQTPar (parcelas):

 ∑ Rbk2 
SQTPar =  −C
 b 
 
c.6) a soma de do ERRO 1 (parcelas):
SQE(A) = SQTPar − SQA
c.7) a soma de quadrados do Fator B - SQB (subparcelas):
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 42

 ∑ Fsubpar
2

SQB =  −C
 a*r 
 
c.8) a soma de quadrados da interação [Fator A (parcelas) versus Fator B (subparcelas)]:
∑I2 
SQI =   - C - SQA - SQB
 r 
 
c.9) a soma de do ERRO 2 (subparcelas):
SQE(B) = SQTot - SQA - SQE(A) - SQB - SQI
c.10) o quadrados médios do Fator A (parcelas), Fator B (subparcelas), da interação(A*B) e do
resíduo:
SQA SQE(A) SQB SQI SQE(B)
QMA = QME(A) = QMB = QMI = QME(B) =
a −1 a * (r - 1) b −1 (a - 1) * (b - 1) a * (b - 1) * (r - 1)

c.11) os valores de F:
QMA QMB QMI
F0 = F1 = F2 =
QME(A) QME(B) QME(B)

Análise de Variância (ANOVA) fica então:


Fonte de Graus de
Soma Quadrado Quadrado Médio F
Variação Liberdade
Fator A a–1 SQA QMA F0
Erro(A) a*(r-1) SQE(A) QME(A) -
Total (Parcelas) a*r-1 SQTPar -
Fator B b-1 SQB QMB F1
Interação (A*B) (a-1)*(b-1) SQI QMI F2
Erro (B) a*(b-1)*(r-1) SQE(B) QME(B) -
Total (subparcelas) n-1 SQTot - -
onde:
Fator A: tratamento primário; Erro A: erro do tratamento primário;
Fator B: tratamento secundário; Erro B: erro do tratamento secundário;
a: níveis do fator a; b: Níveis do fator b; r: repetições.
d) Regra de Decisão
Na tabela abaixo são apresentadas as estatísticas para os testes de hipóteses de um experimento
em parcelas subdivididas com os fatores fixos e suas distribuições sob a condição de que essas hipóteses
são verdadeiras.
Hipótese de interesse Estatística Distribuição estatística sobre H0
H01: α1 = α2 =...= αa = 0 F0 Ftab[a-1; a*(r-1)]
H02: β 1 = β2 =...= β b = 0 F 1 F tab[b-1; a*(b-1)*(r-1)]
H03: αβ 11 = αβ 12 =...= αβ ab = 0 F2 Ftab[(a-1)*(b-1); a*(b-1)*(r-1)]
Assim, fazendo mais uma vez fazendo uso da tabela de Fisher-Snedecor (Tabelas 1; 2 ou 3)
procurando o valor da distribuição estatística sobre H0i (Ftab) para cada estatística (F0, F1 e F2), chega-se
às conclusões:
 Se Fcal(2; 0;1) ≥ Ftab, rejeita-se a hipótese de nulidade H0i a nível de α% de significância.
 Se Fcal(2;0;1) < Ftab, aceita-se a hipótese H0i.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 43

e) Comparações múltiplas

e.1)Quando a interação não é significativa ao nível α% de probabilidade


(isto é, se F2 < Ftab[(a-1)*(b-1); a*(b-1)*(r-1) ; α%])
 Caso 1: comparar as médias de tratamentos das  Caso 2: comparar as médias de tratamentos das
parcelas: subparcelas:
H0: µi. = µg. H0: µ.j = µ.m
vs. para i =1,2,...,a, i ≠m vs. para j =1,2,...,b, j ≠h
H1: µi. ≠ µg. H1: µ.j ≠ µ.m
Teste de Tukey
Estimativa do contraste é Cˆ = Yi .. − Yg .. Estimativa do contraste é Cˆ = Y . j . − Y .m.
QME ( A) QME ( B )
d .m.s. = qc [a ; a*( r −1) ] d .m.s. = qc [b ; a*( b−1)*( r −1) ]
b*r a*r
Regra de Decisão
Se |C| > d.m.s., rejeita-se a hipótese H0 (médias são diferentes)

e.2) Quando a interação é significativa ao nível α% de probabilidade


(isto é, F2 ≥ Ftab[(a-1)*(b-1); a*(b-1)*(r-1) ; α%])
A interação entre os fatores A e B sendo significativa, parte-se para o seu desdobramento, onde
devemos escolher um fator para ser considerar fixo:
 Caso 3: comparar as médias de tratamentos das  Caso 4: comparar as médias de tratamentos das
subparcelas dentro de cada nível das parcelas: parcelas, dentro de cada nível das subparcelas:
H0: µij = µim H0: µij = µgj
vs. para i =1,2,...,a, j ≠m vs. para j =1,2,...,b, i ≠g
H11: µij ≠ µim. H1: µij ≠ µgj
Teste de Tukey
Estimativa do contraste é Cˆ = Y . j . − Y .m.
Estimativa do contraste é Cˆ = Yij . − Yim . Var (C )
d .m.s. = qc [a ;n*]
2
onde:
d .m.s. = qc[b; a*( b−1)*( r −1) ]
QME ( B)
n* =
[QME ( A) + (b − 1) * QME ( B)]2 (g.l.)
r [QME ( A)]2 + (b − 1) 2 * [QME ( B)]2
a * ( r − 1) a * (b − 1) * ( r − 1)
2 * [(b − 1) * QME ( B ) + QME ( A)]
Var (C ) =
b*r
Regra de Decisão
Se |C| > d.m.s., rejeita-se a hipótese H0 (médias são diferentes)
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 44
Exemplo de Aplicação:
Num experimento completamente casualizado, num esquema de parcelas subdivididas, forma
testados cinco variedades de Eucaliptos spp. (A,B,C,D,E) com três espaçamentos (E1, E2, E3), sendo,
E1: 2x2m; E2: 2,5x2,5m e E3: 3x3m em três repetições cada . Os espaçamentos foram destinados às
parcelas e as variedades forma distribuídas as subparcelas obtendo-se os rendimentos de madeira
3
(m ) após sete anos de idade, apresentados na tabela abaixo. Proceda a análise de estatística destes
dados com 5% de significância. Caso necessário aplique o teste Tukey.
Espaçamentos Variedades Repetições Totais Geral
Totais
Parcelas Subparcelas 1 2 3 Parcelas
A 80 66 65 211
B 110 115 98 323
E1 C 76 66 70 212 1196
D 82 70 76 228
E 80 73 69 222
Totais 428 390 378
A 75 70 80 225
B 100 110 100 310
E2 C 78 90 98 266 1341
D 86 98 90 274
E 84 94 88 266
Totais 423 462 456
A 68 68 78 214
B 120 120 99 339
E3 C 110 110 110 330 1517
D 100 115 105 320
E 103 108 103 314
Totais 501 521 495 4054

a) Modelo Estatístico

Yijk = µ + α i + e(α )k + β j + αβ ij + Bl j + e( β ) jk para i=1,2; j=1,2,3 e k=1,2,3


Para termos uma idéia sobre a existência ou não de interação entre os Fatores A e B, abaixo é
apresentado o quadro e o gráfico de médias de cada variedade (subparcelas) para cada espaçamento
(parcela):
Subparcelas/Parcelas E1 E2 E3
A 70,3 75,0 71,3
B 107,7 103,3 113,0
C 70,7 88,7 110,0
D 76,0 91,3 106,7
E 74,0 88,7 104,7

E1 E2 E3
120

100
Rendimento (m³)

80

60

40

20

0
A B C D E
Variedades (subparcelas)

Como não houve paralelismo entre o comportamento dos dois fatores (espaçamentos e
variedades), há indícios de que haja interação entre os dois fatores em estudo.
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 45
b) Hipóteses de Interesse
H0A: α1 = α2 =...= αa = 0 (não existe efeito do fator A – parcela - espaçamentos)
vs.
H1A: pelo menos um αi ≠ 0 (existe efeito do fator A)

H0B: β 1 = β 2 =...= β b = 0 (não existe efeito do fator B – subparcela - variedades)


vs.
H1B: pelo menos um βj ≠ 0 (existe efeito do fator B)

H0AB: αβ 11 = αβ 12 =...= αβ ab = 0 (não existe interação)


vs.
H1AB: pelo menos um αβij ≠ 0 (existe interação entre parcelas e subparcelas)
c) Análise de Variância para experimentos Split-plot:
Quadro com as somas totais de parcelas e subparcelas
Subparcelas/Parcelas E1 E2 E3 TOTAIS SUBPARCELAS
A 211 225 214 650
B 323 310 339 972
C 212 266 330 808
D 228 274 320 822
E 222 266 314 802
TOTAIS PARCELAS 1196 1341 1517 4054
c.1) os graus de liberdade:
de fator A (parcelas): a-1  3-1=2
do erro A (parcelas): a*(r-1)  3*(3-1)=6
do total de A (parcelas): a*r-1  3*3-1 = 8
de fator B (subparcelas): b-1  5-1=4
da interação (A*B): (a-1)*(b-1)  (3-1)*(5-1)=8
do erro B (subparcelas): a*(b-1)*(r-1)  3*(5-1)*(3-1)=24
do total de B (subparcelas): n-1  45-1 = 44
c.2) o valor de “C” chamado de “correção”:

(∑ Y ) 2
 C=
(4054)2 = 365220,4
C=
ijk

n 45
c.3) a soma de quadrados TOTAIS - SQTot (subparcelas):
SQTot = (∑ Y )− C
2
ijk
 ( )
SQTot = 802 + 662 + ... + 1082 + 1032 − 365220,4
SQTot = 377746 − 365220,4 = 12525,6
c.4) a soma de quadrados do Fator A - SQA (parcelas):
 ∑ Fpar
2
  11962 + 13412 + 15172 
SQA =  −C  SQA =   − 365220,4
 b*r   5*3 
 
SQA = 368665,7 − 365220,4 = 3445,3
c.5) a soma de quadrados TOTAIS do Fator A – SQTPar (parcelas):
 ∑ Rbk2   4282 + 3902 + 3782 + 4232 + 4622 + 4562 + 5012 + 5212 + 4952 
SQTPar =  −C  SQTPar =   − 365220,4
 b 
   5 
SQTPar = 369188,8 − 365220,4 = 3968,4
c.6) a soma de do ERRO 1 (parcelas):
SQE(A) = SQTPar − SQA  SQE(A) = 3968,4 − 3445,3 = 523,1
c.7) a soma de quadrados do Fator B - SQB (subparcelas):
 ∑ Fsubpar
2
  6502 + 9722 + 8082 + 8222 + 8022 
SQB =  −C  SQB =   − 365220,4
 a*r   3* 3 
 
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 46

SQB = 371004 − 365220,4 = 5783,6


c.8) a soma de quadrados da interação [Fator A (parcelas) versus Fator B (subparcelas)]:
∑I2   2112 + 225 2 + 214 2 + 323 2 + ... + 266 2 + 314 2 
SQI =   - C - SQA - SQB  SQI =   - 365220,4 - 3445,3 - 5783,6
 r   3 
 
SQI = 376329,3 - 365220,4 - 3445,3 - 5783,6 = 1880,0
c.9) a soma de do ERRO 2 (subparcelas):
SQE(B) = SQTot - SQA - SQE(A) - SQB - SQI
SQE(B) = 12525,6 - 3445,3 - 523,1 - 5783,5 - 1880 = 893,7
c.10) o quadrados médios do Fator A (parcelas), Fator B (subparcelas), da interação(A*B) e do
resíduo:
3445,3 523,1 5783,5 1880 893,7
QMA = = 1722,7 QME(A) = = 87,2 QMB = = 1445,9 QMI = = 235,0 QME(B) = = 37,2
2 6 4 8 24
c.11) os valores de F:
1722,7 1445,9 235
F0 = = 19,76 F1 = = 38,87 F2 = = 6,32
87,2 37,2 37,2
Análise de Variância (ANOVA) fica então:
Fonte de Graus de Soma Quadrado
F Ftab
Variação Liberdade Quadrado Médio
Fator A - (espaçamentos) 2 3445,3 1722,7 F0=19,76 F(2;6;5%) = 5,14
Erro(A) (espaçamentos) 6 523,1 87,2 - -
Total (Parcelas) 8 3968,4 - - -
Fator B (variedades) 4 5783,5 1445,9 F1=38,87 F(4;24;5%) = 2,78
Interação (A*B) 8 1880,0 235,0 F2=6,32 F(8;24;5%) = 2,36
Erro (B) (variedades) 24 893,7 37,2 - -
Total (subparcelas) 44 12525,6 - - -
A maioria dos softwares estatísticos (SISVAR por exemplo) apresentam a ANOVA desta forma:
Fonte de Graus de Soma Quadrado
F Ftab
Variação Liberdade Quadrado Médio
Fator A - (espaçamentos) 2 3445,3 1722,7 F0=19,76 F(2;6;5%) = 5,14
Erro(A) (espaçamentos) 6 523,1 87,2 - -
Fator B (variedades) 4 5783,5 1445,9 F1=38,87 F(4;24;5%) = 2,78
Interação (A*B) 8 1880,0 235,0 F2=6,32 F(8;24;5%) = 2,36
Erro(B) (variedades) 24 893,7 37,2 - -
Total (subparcelas) 44 12525,6 - - -
d) Regra de Decisão
 Como F2=6,32 ≥ Ftab[8;24;5%]=2,36, rejeita-se a hipótese de nulidade H0 a nível de 5% de significância,
conseqüentemente, a interação entre as parcelas (espaçamentos) e subparcelas (variedades) é
significativa. Assim, podemos proceder aos desdobramentos dos tratamentos e aplicação do
teste Tukey:
 Caso 3: comparar as médias dos tratamentos das  Caso 4: comparar as médias de tratamentos das
subparcelas (variedades) dentro de cada nível parcelas (espaçamentos), dentro de cada nível
das parcelas (espaçamentos): das subparcelas (variedades):

Var (C )
d .m.s. = qc [a ;n*] *
2
onde:

d .m.s. = qc [b; a*(b −1)*( r −1) ] *


QME ( B)
n* =
[QME ( A) + (b − 1) * QME ( B)]2 (g.l.)
r  [QME ( A)]2   (b − 1) 2 * [QME ( B )]2 

 +  
 a * (r − 1)   a * (b − 1) * ( r − 1) 
2 * [(b − 1) * QME ( B ) + QME ( A)]
Var (C ) =
b*r
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 47
Regra de Decisão
Se |C| ≥ d.m.s., rejeita-se a hipótese H0 (médias são diferentes)

 Caso 3: comparar as médias dos tratamentos das subparcelas (variedades) dentro de cada nível das
parcelas (espaçamentos). O valor da Tabela 6 de Tukey é: q c [b; a*( b −1)*( r −1) ] = q c [5; 24;5% ] = 4,17

QME ( B)
d .m.s. = qc [b; a*(b −1)*( r −1) ] *  d .m.s. = 4,17 *
37,2
= 14,7
r 3
Contrastes E1 (2x2m) E2 (2,5x2,5m) E3 (3x3m)
CA-B |70,3-107,7|= 37,4 (≠) |75,0-103,3|= 28,3 (≠) |71,3-113,0|= 41,7 (≠)
CA-C |70,3-70,7|= 0,4 (=) |75,0-88,7|= 13,7 (=) |71,3-110,0|= 38,7 (≠)
CA-D |70,3-76,0|= 5,7 (=) |75,0-91,3|= 16,3 (≠) |71,3-106,7|= 35,4 (≠)
CA-E |70,3-74,0|= 3,7 (=) |75,0-88,7|= 13,7 (=) |71,3-104,7|= 33,3 (≠)
CB-C |107,7-70,7|= 37,0 (≠) |103,3-88,7|= 14,6 (=) |113,0-110,0|= 3,0 (=)
CB-D |107,7-76,0|= 31,7 (≠) |103,3-91,3|= 12,0 (=) |113,0-106,7|= 6,3 (=)
CB-E |107,7-74,0|= 33,7 (≠) |103,3-88,7|= 14,6 (=) |113,0-104,7|= 8,3 (=)
CC-D |70,7-76,0|= 5,3 (=) |88,7-91,3|= 2,6 (=) |110,0-106,7|= 3,3 (=)
CC-E |70,7-74,0|= 3,3 (=) |88,7-88,7|= 0,0 (=) |110,0-104,7|= 5,3 (=)
CD-E |76,0-74,0|= 2,0 (=) |91,3-88,7|= 2,6 (=) |106,7-104,7|= 2,0 (=)

Quadro Resumo de médias das parcelas (espaçamentos) e subparcelas (variedades)


Subparcelas/Parcelas E1 (2x2m) E2 (2,5x2,5m) E3 (3x3m)
A 70,3 a 75,0 a 71,3 a
B 107,7ab 103,3 ab 113,0 ab
C 70,7 abc 88,7 ab 110,0 ab
D 76,0 abcd 91,3 ab 106,7 ab
E 74,0 abcd 88,7 ab 104,7 ab
Nota: Letras iguais correspondem a médias iguais ao nível de 5% de significância por Tukey.
 Caso 4: comparar as médias de tratamentos das parcelas (espaçamentos), dentro de cada nível das
subparcelas (variedades):

Var (C )
d .m.s. = qc [a ;n*] *
2
(g.l.) para tabela 6 
n* =
[QME ( A) + (b − 1) * QME ( B)]2
 [QME ( A)]2   (b − 1) 2 * [QME ( B)]2 
 +  
 a * (r − 1)   a * (b − 1) * (r − 1) 

n* =
[87,2 + (5 − 1) * 37,2]2 =
236 2
= 25,43 = 25 g.l.
 87,2 2   (5 − 1) 2 * [37,2]   87,2 2   4 2 * 37,2 2 
2

 +    +  



 3 * (3 − 1)   3 * (5 − 1) * (3 − 1) 

 6   24 

Assim, o valor da Tabela 6 de Tukey é: qc [a ;n*]  qc[3; 25;5% ]= 3,53


2 * [(b − 1) * QME ( B ) + QME ( A)] 2 * [(5 − 1) * 37,2 + 87,2] 472
Var (C ) =  Var (C ) = = = 31,47
b*r 5*3 15

31,47
d .m.s. = qc [a ;n*] *
Var (C )  d .m.s. = 5,53 * = 21,9
2 2
Contrastes A B C D E
CE1-E2 |70,3-75,0|=4,7 (=) |107,7-103,3|=4,3 (=) |70,7-88,7|=18,0 (=) |76,0-91,3|=15,3 (=) |74,0-88,7|=14,7 (=)
CE1-E3 |70,3-71,3|=1,0 (=) |107,7-113,0|=5,3 (=) |70,7,110,0|=39,3 (≠) |76,0-106,7|=30,7 (≠) |74,0-104,7|=30,7(≠)
CE2-E3 |75,0-71,3|=3,7 (=) |103,3-113,0|=9,7 (=) |88,7-110,0|=21,3 (=) |91,3-106,7|=15,4 (=) |88,7-104,7|=16,0(=)
Prof. Jerry A. Johann “Estatística Descritiva, Probabilidades e Inferência” 48
Quadro Resumo de médias das parcelas (espaçamentos) e subparcelas (variedades)
Parcelas / Subparcelas A B C D E
E1 (2x2m) 70,3a 107,7a 70,7a 76,0a 74,0a
E2 (2,5x2,5m) 75,0a 103,3a 88,7ab 91,3ab 88,7ab
E3 (3x3m) 71,3a 113,0a 110,0ab 106,7ab 104,7ab
Nota: Letras iguais correspondem a médias iguais ao nível de 5% de significância por Tukey.

Você também pode gostar