Você está na página 1de 8

Análise de Variância

A análise de variância, também conhecida como ANOVA (Analyse of Variance), é uma


técnica estatística utilizada para testar a diferença entre duas ou mais médias. Há três
suposições básicas que devem ser satisfeitas para que a ANOVA possa ser aplicada:

I - As amostras devem ser aleatórias e independentes.


II - As amostras devem ser extraídas de populações normais.
III - As populações devem ter variâncias iguais.

Verificar se estas suposições são atendidas é de suma importância em uma ANOVA, pois
o teste foi construído levando estas em consideração a fim de verificar se as amostras (ou
tratamentos) apresentam diferença as médias. Na Figura 1 podemos visualizar a relação entre
as distribuições entre as amostras (tratamentos) e as hipóteses testadas pela análise de
variância.
Figura 1 – Relação entre as distribuições entre as amostras e as hipóteses da ANOVA

Fonte: https://www.profcremona.com/materiais/material-estatistica/metodos-estatisticos/anova-tukey

Caso as três amostras (tratamentos) apresentem a mesma variabilidade e mesma média,


suas distribuições tendem a se sobrepor, confirmando a hipótese de que não existe diferença
entre os tratamentos. Caso contrário, ou seja, quando as amostras apresentam mesma
variabilidade interna (variância dentro do tratamento) e médias de desempenho diferentes, as
distribuições de distanciam quanto mais as médias amostrais se diferenciam.
Podemos formular a hipótese nula e alternativa da seguinte forma:

Ho: Todas as médias populacionais são iguais


Ha: Pelo menos uma média populacional é diferente
ou
Ho: µ1 = µ2 = ... = µn
Ha: Pelo menos uma média populacional é diferente

Aqui vamos estudar a análise de variância de um fator. Esta é uma técnica de teste de
hipótese usada para comparar médias de três ou mais populações em que uma única variável
independente está sendo estudada.
Em uma ANOVA utiliza-se dois processos para estimar a variância da população: a
variância das médias de cada tratamento (variação entre os tratamentos) e a variância dentro
de cada tratamento (variação devida ao erro ou residual). Se as duas estimativas são
aproximadamente iguais, então as médias populacionais são iguais; se uma das estimativas
é muito maior que a outra, então pelo menos uma das médias populacionais é diferente.

Suponha, por exemplo, que é preciso comparar a produção de três máquinas. Por razões
diversas, a produção dessas máquinas está sujeita a flutuações aleatórias. Extraímos de cada
máquina uma amostra aleatória de cinco horas diferentes de produção, os resultados estão
no Quadro 1.

Quadro 1 – Produção de três máquinas


Máquina 1 Máquina 2 Máquina 3
47 55 54
53 54 50
49 58 51
50 61 51
46 52 49
x = 49 x = 56 x = 51

Como podemos observar no Quadro 1 as médias amostrais não são iguais, mas a
diferença observada nas médias pode ser atribuída ao acaso, ou algum fator esta interferindo
na produção de uma ou mais máquinas? Neste caso, a análise de variância pode ser utilizada
para determinar se as médias amostrais sugerem diferenças efetivas na produção
populacional, ou se tais diferenças decorrem apenas da variabilidade residual amostral.
A variabilidade residual amostral é devida ao acaso, ou seja, por mais bem calibrada
que esteja uma máquina ela pode apresentar variação aleatória, que aqui denominamos de
residual. Por outro lado, caso exista uma diferença entre as máquinas esta será evidenciada
pela variabilidade entre os tratamentos, ou seja, entre as máquinas. Por este motivo, na
estatística de teste de uma ANOVA, compara-se a variância entre os tratamentos com a
variância dentro dos tratamentos.
A estatística de teste em uma ANOVA é calculada com base na Distribuição F de
Fisher-Snedecor:
QMTr
Fteste =
QMR

onde:
QMTr = Quadrado médio de tratamento (variância entre as médias amostrais)
QMR = Quadrado médio do resíduo (variância residual amostral)

A essência de uma ANOVA é comparar estas duas variâncias, dentro de cada


tratamento e entre tratamentos. Tanto o QMTr quanto o QMR são duas formas de estimar a
variância populacional (2). No QMTr considera-se a variância entre as médias amostrais; no
QMR considera-se a variância residual amostral, ou seja, a variância dentro das amostras.
Assim, se há pouca ou nenhuma diferença entre as médias, então o QMTr será
aproximadamente igual ao QMR e o teste estatístico será aproximadamente 1. Com isso
podemos concluir que se o valor da estatística de teste F for próximo a 1 não se rejeita a
hipótese nula, ou seja, as médias populacionais são iguais. Por outro lado, se pelo menos
uma das médias difere significativamente das outras, o QMTr será maior que o QMR e a
estatística de teste F será maior do que 1. Valores de F significativamente maiores do que 1
sugerem que a hipótese nula seja rejeitada. Por este motivo, todos os testes estatísticos para
ANOVA são unilaterais à direita. Logo, se a estatística de teste F for maior que o valor crítico
obtido na tabela da distribuição F, a hipótese nula será rejeitada.
Para determinar o valor da estatística de teste F precisamos obter os valores conforme
Quadro 2.
Quadro 2 – Análise de variância de um fator
Causas da Graus de liberdade Soma dos quadrados Quadrado médio F
variação (g.l.)
Tratamento k–1 SQTr QMTr Fteste
Resíduo n–k SQR QMR
Total n-1 SQT

No Quadro 3 estão os valores para calcular o teste F no caso de exemplo das três
máquinas.
Quadro 3 – Análise de variância de um fator
Causas da Graus de liberdade Soma dos quadrados Quadrado médio F
variação (g.l.)
Tratamento 2 130 65 8,3
Resíduo 12 94 7,83
Total 14 224

Neste caso temos: Ho: µ1 = µ2 = µ3


Ha: Pelo menos uma média populacional é diferente

Para verificar se o valor de Fteste caiu na área de rejeição ou não rejeição precisamos
obter o valor crítico na tabela da Distribuição F de Fisher. Para cada valor de nível de
significância temos uma tabela diferente. Nesta disciplina iremos adotar apenas a tabela de α
= 5%.

Para obter o valor critico, consulte a


tabela da Distribuição F para nível de
significância de 5%; k-1 que representa
graus de liberdade do tratamento
(numerador), n-k que indica os graus de
liberdade do resíduo (denominador).

3,89 8,3
Fα; k-1; n-k

F0,05; 2; 12 = 19,41

Conclusão: Rejeita-se a Ho ao α = 5%, ou seja, as três máquinas apresentam diferença


significativa na produção média populacional.

OBS: Existe mais de uma tabela para a distribuição F de Fisher, uma para cada nível de
significância. Assim, cuidado ao consultar uma tabela, verifique se o nível de significância é o
considerado. Outro detalhe importante diz respeito a forma como os graus de liberdade do
numerador e denominador estão organizados na tabela (linha ou coluna). Leia com atenção
as orientações na tabela.
Como obter os valores para a realização do teste F? No Quadro 4 apresenta-se
detalhadamente um experimento de k tratamentos, na sequência a forma de obter cada um
dos valores do Quadro 2.

Quadro 4 – Experimento de k tratamentos

Tratamento Total
1 2 3 ... K
y11 y21 y31 ... yk1
y12 y22 y32 ... yk2
. . . .
. . . .
y1r y2r y3r ... ykr
Total T1 T2 T3 Tk T = y
Número de repetições em r r r ... R n = k.r
cada tratamento
Média y1 y2 y3 ... yk

Onde
r é o número de repetições (ou elementos) em cada tratamento (ou em cada amostra);
n= k.r o número total de pontos experimentais apenas no caso em que o número de repetições
em cada tratamento é o mesmo.

No Quadro 5 os passos para calcular a estatística de teste para uma ANOVA de um


fator.
Quadro 5 - Encontrando o teste estatístico para um teste ANOVA de um fator
a-) graus de liberdade do total: g.l. = n - 1
graus de liberdade do tratamento: g.l. = k – 1
graus de liberdade do resíduo: g.l. = (n – 1) – (k – 1) ➔ g.l. = n – k
( y )2
b-) a correção: C=
n
c-) a soma de quadrados total: SQT =  y2 − C
 T2 
 r 
d-) a soma de quadrados de tratamentos: SQTr =  − C
 
e-) a soma de quadrados de resíduo: SQR = SQT − SQTr
SQTr
f-) quadrado médio de tratamento: QMTr =
k −1
SQR
g-) quadrado médio dos resíduos: QMR =
n−k
QMTr
h-) Fteste =
QMR
No caso do exemplo da produção média das três máquinas apresentadas no Quadro
1, temos:

a-) graus de liberdade do total: g.l. = n – 1 = 15 – 1 = 14


graus de liberdade do tratamento: g.l. = k – 1 = 3 – 1 = 2
graus de liberdade do resíduo: g.l. = (n – 1) – (k – 1) ➔ g.l. = n – k = 15 – 3 = 12
( y )2 = 780 2= 40.560
b-) a correção: C=
n 15
c-) Soma de quadrados total: SQT =  y 2 − C = 40.784 – 40.560 = 224
 T2 
 r 
d-) Soma de quadrados de tratamentos: SQTr =  − C =
 
 245 2
280 2 255 2 
SQTr =  + + − 40.560 = 130
 5 5 5 
 
e-) a soma de quadrados de resíduo: SQR = SQT − SQTr = 224 – 130 = 94
SQTr 130
f-) quadrado médio de tratamento: QMTr = = = 65
k −1 3 −1
SQR 94
g-) quadrado médio dos resíduos: QMR = = = 7,83
n−k 15 − 3
QMTr 65
h-) Fteste = = = 8,3
QMR 7,83
Note que os quadrados médios são obtidos dividindo as somas de quadrados pelos
respectivos graus de liberdade.

Caso ao final de um teste ANOVA a conclusão final for rejeitar a hipótese nula, ou seja,
pelo menos uma das médias populacionais é diferente, fica a pergunta: Qual ou quais médias
são estatisticamente diferentes? Para tal, existem alguns testes que podem ser realizados,
aqui apresentamos um deles.

Diferença Mínima Significativa

Na análise de variância, quando a diferença entre as médias dos tratamentos não é


significativa, nenhum teste adicional é necessário. Mas, quando a diferença entre as médias
dos tratamentos é significativa pelo teste F, isto não quer dizer, que todos os tratamentos
diferem uns dos outros. Para determinar quais os tratamentos que diferem estatisticamente,
novos testes são necessários. Em geral há interesse em determinar o “melhor tratamento”.
Portanto devemos comparar as médias, duas a duas, para destacar o tratamento mais
eficiente.
Um dos testes indicados para verificar a significância estatística da diferença entre
duas médias é o da diferença mínima significativa ou teste de DMS. A diferença mínima
significativa é calculada por:
Quando o número de repetições dentro dos tratamentos é igual:
  2QMR
DMS = t ; GLR .
 2  r

Quando o número de repetições dentro dos tratamentos é diferente:

  1 1
DMS = t ; GLR .  + .QMR
2   ri rj 
 
onde GLR é o grau de liberdade do resíduo (g.l = n – k); QMR é o quadrado médio dos
 
resíduos; e t ; GLR  é o valor de t crítico.
2 
Qualquer diferença entre duas médias maior que o DMS calculado é considerada
estatisticamente significativa ao nível  especificado. O valor de tc é dado na tabela da
distribuição t de Student, para os graus de liberdade do resíduo; r é o número de repetições
dos tratamentos; ri e rj são o número de repetições de cada tratamento, em tratamentos com
número diferente de repetições; e QMR é o quadrado médio do resíduo.
O valor da DMS é comparado ao módulo da diferença entre as médias de cada
tratamento, como por exemplo:
|média do tratamento 1 – média do tratamento 2|
Caso esta diferença seja menor que o valor da DMS concluímos que os dois
tratamentos não apresentam diferença significativa entre as médias. Caso contrário
concluímos que as médias apresentam diferença significativa.
|média do tratamento 1– média do tratamento 2 | < DMS => as médias não
apresentam diferença significativa
|média do tratamento 1– média do tratamento 2 | > DMS => as médias apresentam
diferença significativa

Exemplo 1: Conforme resultado da ANOVA do exemplo da produção de três máquinas


concluímos que pelo menos uma das três apresenta média estatisticamente diferente das
demais. Fica a pergunta: Qual ou quais máquinas apresentam diferença significativa? Para
responder esta pergunta podemos adotar a DMS (existem outros testes).

  2QMR 2 . 7,83 15,66


DMS = t ; GLR . = 2,1788 . = 2,1788 . = 3,8559
2  r 5 7
DMS=3,8559
Agora vamos comparar o valor obtido na DMS com o módulo da diferença dos valores
das médias de cada tratamento:
|49 – 56| = 7 é maior que a DMS
|49 – 51| = 2* é menor que a DMS
|56 – 51| = 5 é maior que a DMS
Em nosso exemplo, observamos que o módulo da diferença entre as médias dos pares
de máquinas foi maior que o valor da DMS entre a máquina 1 e máquina 2 e entre a máquina
2 e a máquina 3. Assim, concluímos que as máquinas 1 e 2, bem como as máquinas 2 e 3
apresentam diferença estatisticamente significativa na produção média. Já as máquinas 1 e
3 não apresentam diferença estatisticamente significativa.

Exemplo1: A gerência de um depósito que armazena cargas aéreas de pequeno porte


está estudando o peso das cargas que chegam ao seu terminal no interior de São Paulo.
Usualmente, o terminal recebe quatro tipos de cargas: doméstica (D), Administrativa (A),
equipamentos industriais (E), e outros tipos (O). Deseja-se verificar se, em média, existem
diferenças entre os pesos dos quatro tipos de carga. Ao longo de 1 mês, cargas foram colhidas
aleatoriamente e seus pesos foram aferidos, fornecendo os dados (em kg).

Tipo de Carga
D A E O
24,9 27,9 38,4 23,8
20,4 28,1 38,6 25,3
24,2 28,4 41,2 23,5
22,3 25,3 43,9 27,6
20,3 29,3 40,2 25,5
24,0 28,5 40,2 23,9
23,5 27,9 37,3 22,6
̅ = 22,8
𝒙 ̅ =27,9
𝒙 ̅ = 40,1
𝒙 ̅ = 24,6
𝒙

Para verificar se os quatro grupos apresentam diferença entre as médias populacionais


dos pesos o teste da ANOVA foi aplicado obtendo-se os resultados do Quadro 6.

Quadro 6 – Análise de variância de um fator para a diferença de peso das cargas


Causas da Graus de liberdade Soma dos quadrados Quadrado médio F
variação (g.l.)
Tratamento 3 1.275,41 452,14 134,54
Resíduo 24 75,82 3,16
Total 27 224

Ho: µ1 = µ2 = µ3
Ha: Pelo menos uma média populacional é diferente

1
Magalhães e Lima (2010, p. 337)
O valor crítico obtemos na tabela F de Fisher, conforme apresentado a seguir:

F0,05; 3; 24 = 3,01

3,01 134,54

Conclusão: Rejeita a Ho ao α = 5%, ou seja, o peso médio das cargas apresenta diferença
significativa.

A partir desta conclusão fica o seguinte questionamento: Qual tipo de carga apresenta
média diferente das demais, ou quais tipos de cargas apresentam diferença estatisticamente
significativa?

Neste caso adota-se o teste da diferença mínima significativa. Como o número de


repetições em cada tratamento é igual obtém-se a DMS a partir de:

  2QMR
DMS = t ; GLR .
2  r

onde GLR = 24 e QMR = 3,16

Vamos adotar nível de significância de 5%, assim temos t0,025; 24 = 2,0639

  2QMR 2 . 3,16 6,32


DMS = t ; GLR . = 2,0639 . = 2,0639 . = 1,96
2  r 7 7

Calculando a diferença entre a média de cada tratamento e comparando com a


diferença mínima significativa obtida (DMS=1,96), verificamos que apenas as cargas
Domésticas (D) e outras (O) não apresentam diferença significativa, pois a diferença entre
estas duas médias é inferior a DMS encontrada. Todas as outras cargas apresentam diferença
significativa entre suas médias tendo em vista que a diferença observada é maior que a DMS
calculada.

|D – A| = |22,8 – 27,9| = 5,1


|D – E| = |22,8 – 40,1| = 17,3
|D – O| = |22,8 – 24,6| = 1,8*
|A – E| = |27,9 – 40,1| = 12,2
|A – O| = |27,9 – 24,6| = 3,3
|E – O| = |40,1 – 24,6| = 15,5

Com base no resultado da DMS podemos concluir que apenas o peso médio das
cargas do tipo doméstico (D) e outros tipos (O) não apresentam diferença estatisticamente
significativa.
As demais médias das cargas apresentam peso médio estatisticamente significativo.

Você também pode gostar