Você está na página 1de 2

Não esquecer: H0 tem sempre a igualdade (as médias são todas iguais ou não existem diferenças entre nenhuma

das médias); H1 tem a diferença (as médias não são todas iguais ou existem diferenças entre as médias)

Rejeita-se a H0 quando p é menor que 0.05; se p>0.05 então não se rejeita H0

ANOVA: para comparar as médias de 3 ou mais grupos  pressupostos: grupos independentes, normalidade e
homogeneidade das variâncias

A) Independência: os grupos são diferentes quando em cada grupo participam pessoas diferentes; os grupos são
dependentes quando os grupos são constituídos pelas mesmas pessoas (PE, terapia antes e depois)

B) Normalidade: H0 os grupos seguem distribuição normal; H1 os grupos não seguem DN

No SPSS: analyse + descritive statistics + explore + dependente (variável scale) + factor (variável nominal, dos grupos)
+ plots + normality  se p>0.05 seguem DN; p<0.05 não (teste de Shapiro-WIlk para n<30)

NOTA: Se um dos grupos tiver p<0.05 então rejeita-se a H0; para ter DN todos os p>0.05

C) Homogeneidade: H0 as variâncias são todas constantes; H1 as variâncias não são todas constantes

No SPSS: analyse + compare means + anova + dependente (variável scale) + factor (variável nominal, dos grupos) +
options + heterogeneity ; se p>0.05 então verifica-se a homogeneidade

- Se todos os pressupostos se verificarem, realiza-se a anova (se realizamos a homogeneidade é só ver no output;
não é preciso fazer outra vez)

- Estatística de teste é o F

- Depois de realizar a ANOVA se p<0.05 então rejeita-se a H0  fazer teste de multicomparações

No SPSS: analyse + compare means + anova + dependente (variável scale) + factor (variável nominal, dos grupos) +
post hoc + selecionar o tukey ou o scheffe (em equal variances assumed)

Exemplo:
H 0 :μ 1=μ 2 H 0 : μ1=μ 3 H 0 : μ 2=μ 3

P<0.05 – aceita-se H0 P<0.05 – aceita-se H0


P<0.05 – aceita-se H0
P>0.05- rejeita-se H0, P>0.05- rejeita-se H0, logo há
logo há diferenças entre diferenças entre 1 e 3 P>0.05- rejeita-se H0, logo há diferenças
1e2 entre 2 e 3

H 1: μ 1 ≠ μ 2 H 0 : μ 1=μ 3 H 0: μ 2=μ 3

De acordo com esta tabela verifica-se que a diferença está em C pois é o único grupo
numa coluna à parte; ou seja, ouve diferenças entre C e B, C e A, C e D

Testes não paramétricos (quando falha algum dos pressupostos da ANOVA)

A) Falha na independência  Teste de Friedman: não se fala em média, mas sim em distribuições de probabilidade
na população (seguem todos a mesma distribuição de probabilidade ou não)

No SPSS: analyse + nonparametric tests + related samples. Em Objetive selecionar «customize analysis».
Em Fields colocar as 3 ou mais variáveis/grupos em test field. Em settings selecionar «customize tests» + fieldman;
faz logo as multicomparações

B) Falha na normalidade  teste de Kruskal-Walis: não se fala em média, mas sim em distribuições de
probabilidade na população (seguem todos a mesma distribuição de probabilidade ou não)

No SPSS: analyse + analyse + nonparametric tests + related samples

Em Objetive selecionar «customize analysis». Em Fields colocar a variável scale em test field + a nominal em groups

Em settings selecionar «customize tests» + Kruskall-Wallis; faz logo as multicomparações

C) Falha na homogeneidade  teste de Brown-Forsyth ou de Welsh (o que o prof indicar) – fala-se em médias

No SPSS: analyse + compare means + anova + dependente (scale) + factor (nominal) + option + selecionar Brown ou
Welsh

Carregar logo em post hoc para o teste de multicomparações + em equal variances not assumed selecionar Howell
ou Dunettes T3

D) Falha na normalidade + homogeneidade (testar sempre as duas)  transformações matemáticas

No SPSS: transform + compute variable + numeric expression

Variável * * (1/2) – raiz quadrada

- Variável * 2 – quadrado

- Function group + all + log10  LOG10(variável)

- Depois de criar esta nova variável vamos novamente verificar os pressupostos; se se verificarem realizar anova na
nova variável

Você também pode gostar