Você está na página 1de 43

Curso de SPSS – A.F.

Beraldo Capítulo III Testes Paramétricos 78

Testes de Hipótese
3 Testes Paramétricos

Conteúdo

Parte I

3.1 Fenômenos, 79
3.2 Probabilidade, 80
3.3 Modelos probabilísticos, 83
3.4 O Método Estatístico, 88
3.5 Inferência Estatística, 91
3.6 Testes de Hipóteses, 94
O que são Testes de Hipóteses, 94
Igualdades e diferenças estatísticas, 95
Teoria da Decisão Estatística, 96
O p-value, 97

Parte II

3.7 Teste T de igualdade das médias de duas amostras


independentes, 99
3.8 Amostras pareadas, 108
3.9 Análise da Variância, 114
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 79

Módulo 3 Testes de Hipótese: Testes Paramétricos

Parte I Estatística Inferencial: Fundamentos

3.1. Fenômenos
Existem dois tipos de fenômenos: os determinísticos e os não-determinísticos. Os
fenômenos determinísticos são aqueles estudados, por exemplo, na Física e na Química do
ensino médio. Quando fazemos uma experiência no laboratório, todas as condições do
experimento são controladas: a temperatura, a umidade, a luz ambiente. Quando passamos
uma corrente elétrica por uma resistência, já sabemos exatamente o que irá ocorrer - os
fenômenos de transformação de energia, de geração de calor, de mudança de coloração, etc.
Se, no laboratório de Química, reagirmos um ácido com uma base, serão produzidos sal e
água. A reação NaOH + HCl sempre produziu NaCl + H2O, e irá produzir o mesmo resultado
sempre que repetirmos a reação. Se um corpo parte do repouso, em movimento retilíneo com
velocidade uniforme v, o espaço x percorrido ao fim de um tempo t será dado por x = xo + vt.
Um corpo em queda livre, no vácuo, segue as condições conforme a figura 1.1, abaixo:

Neste tipo de experimento, de causa e efeito, procuramos ontrolar


e variar as causas, medindo seu efeito (ou seus efeitos). Quando
um corpo cai em queda livre, e o faz sob a ação da gravidade,
podemos considerar ou não a resistência do ar, podemos imprimir
uma aceleração inicial, podemos retardar sua queda ou modificar
sua trajetória alterando sua forma, enfim, podemos controlar a
V = gt experiência a fim de medir os resultados provocados pela variação
das condições.

Resumindo, fenômenos determinísticos ocorrem sempre da


2 mesma maneira e as mesmas causas produzirão os mesmos
E = gt /2
efeitos.
Corpo em queda livre No caso do fenômeno, ou do experimento não-determinístico,
acontece o oposto. Veja as características de um fenômeno não-
determinístico, ou aleatório

Características de um Experimento Aleatório

1.Antes de realizarmos o experimento, sabemos todos os


possíveis resultados que podem acontecer;

2.No entanto, não sabemos qual resultado, em particular, irá


efetivamente ocorrer;

3.Todo e qualquer resultado que efetivamente ocorra, será


unicamente devido ao acaso;

Par de dados 4.O Experimento Aleatório pode ser repetido infinitas vezes,
sob as mesmas condições.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 80

Nota: Rigorosamente falando, estas características são de um fenômeno aleatório puro. Isto é
apenas um ponto de partida, útil para o estudo das probabilidades, embora saibamos que estas
características aplicam-se, para fins de exemplos, apenas a jogos de azar – não-enviesados
(honestos).

Na vida prática, iremos lidar com fenômenos “não tão aleatórios”, ou seja, fenômenos em que
há fatores associados1 às ocorrências. Então, interessa descobrir quais são estes fatores, e
que influência tem no resultado do experimento – ou na ocorrência de um evento.

3.2. Probabilidade
EVENTOS: Um resultado possível do Experimento Aleatório, ou um conjunto de resultados
possíveis, é chamado evento. Por exemplo, as faces do dado são cada uma delas um evento,
chamado evento unitário (aquele que não pode ser decomposto). Os eventos de um
experimento podem ser tratados como conjuntos.

ESPAÇO AMOSTRAL

Espaço Amostral é o conjunto de todos 


os eventos de um experimento aleatório. E1 E2
Todos os resultados possíveis do
experimento são agrupados neste
conjunto, que identificamos pela letra 
E5 E3
e tem a seguinte representação:

E4

Os espaços amostrais são, tecnicamente, os resultados (valores) que uma variável pode
apresentar. Então, podemos ter espaços amostrais com eventos qualitativos ou
quantitativos. Os eventos qualitativos podem ser dicotômicos ou politômicos, e os eventos
quantitativos podem ser discretos ou contínuos..

Definição Clássica e Definição Frequentista de Probabilidade


Uma definição inicial (e intuitiva de probabilidades) é a definição clássica: Se um experimento
aleatório gera um espaço amostral  composto de n eventos unitários2 Ei, de forma a que seja

  {E1 , E 2 , E3 ,...., E n }
a probabilidade de ocorrência de um evento qualquer P(E) é dada pela relação

nE
P( E ) 

1
Note que não podemos falar em causalidade, e sim, em associação – que pode ser forte ou fraca, com
suas gradações. A associação de fatores ligados à ocorrência de um fenômeno será estudada na parte
de modelos multivariados. Lembre-se: causalidade é uma característica de eventos determinísticos.
Nas Ciências Humanas, da Saúde e Sociais, podemos utilizar a palavra causation *causação), que é
aquilo que modifica a probabilidade de ocorrência de um fenômeno.
2
Evento unitário é aquele que não pode ser decomposto. P. ex., “Face 4” é um evento unitário, “Face 4
ou 5” é um evento composto.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 81

na qual P(E) é a probabilidade de ocorrência de um evento, nE é o número de maneiras


com que E pode ocorrer e  é o tamanho do conjunto espaço amostral.

Por exemplo, uma urna com 10 bolas, sendo 3 vermelhas. Ao extraímos aleatoriamente uma
bola desta urna, a probabilidade de que seja vermelha é dada pela relação
nV 3
P(V )    0,30
 10
Esta é a definição clássica, ou de Laplace3, de probabilidades. Porém, existem casos em que
os eventos unitários constantes do espaço amostral possuem probabilidades de ocorrência
indeterminadas. Neste caso, temos que repetir o experimento inúmeras vezes para
determinar de que modo os eventos ocorrem ou, em outras palavras, a frequência com que os
eventos ocorrem. Por exemplo, seja a frequência de nascimentos de crianças em uma
maternidade, segundo o atributo sexo, em alguns meses do ano:

Frequência de nascimentos na Maternidade XYZ, ao mês.


Mês Masculino Feminino Total % Masculino % Feminino
1 34 30 64 53% 47%
2 29 32 61 48% 52%
3 37 35 72 51% 49%
4 24 20 44 55% 45%
5 24 29 53 45% 55%
6 30 28 58 52% 48%
7 34 36 70 49% 51%
8 27 35 62 44% 56%
Total 239 245 484 49% 51%

Note que os percentuais de nascimentos de crianças do sexo feminino e do masculino variam


bastante no decorrer dos meses. No entanto, quando se analisam os totais, ao fim dos 8
meses, descobrimos um “percentual médio” de 49% de crianças do sexo masculino e de 51%
de crianças do sexo feminino. Veja a tabela seguinte:

Frequência Acumulada de Nascimentos, Maternidade XYZ


Mês Masc. Acum. Fem. Acum. Total Acum. % Masculino % Feminino
1 34 30 64 53% 47%
2 63 62 125 50% 50%
3 100 97 197 51% 49%
4 124 117 241 51% 49%
5 148 146 294 50% 50%
6 178 174 352 51% 49%
7 212 210 422 50% 50%
8 239 245 484 49% 51%

Veja que os percentuais sobre as frequências acumuladas parece que vão se concentrando em
torno da relação 50% / 50%, no atributo sexo. Embora o nosso número de observações ainda
seja pequeno (484 nascimento de crianças, em 8 meses), podemos “prever” que, no próximo
mês a ser pesquisado, os nascimentos se distribuirão, em termos do atributo sexo, com 49%
para os nascimentos de crianças do sexo masculino, e 51% de crianças do sexo feminino.
Repare que esta “previsão” é feita com uma certa “margem de erro”: se, ao invés de 484
nascimentos, a nossa amostra fosse de 4.000 nascimentos, nossa segurança seria muito maior
(nossa “margem de erro” seria bem menor). O gráfico a seguir ilustra bem este comportamento:

3
Pierre Simon de Laplace (1741-1827), matemático, físico e filósofo francês.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 82

Percentual Acumulado de Nascimentos por Sexo

54%
53%
52%

51%
50%
% Masculino
49%
% Feminino
48%
47%
46%
45%

44%
1 2 3 4 5 6 7 8
Mês

Observe o gráfico a seguir, relativo a 5.000 nascimentos, em 72 meses:

Distribuição percentual acumulada

75%

70%

65%

60%

55%

50%

45%

40%

35%

30%

25%

Note que, a medida em que o tempo passa, e vão nascendo cada vez mais crianças, a
frequência acumulada de nascimentos também vai aumentando. A proporção de crianças do
sexo masculino “tende” a ser igual à proporção de crianças do sexo feminino - ambos os
números convergem para 50%.

O percentual médio, para esta amostra, foi de 49,4% para nascimentos de crianças do sexo
masculino e de 50,6% de crianças do sexo feminino. Isto nos permite dizer que a próxima
criança a nascer terá uma probabilidade em torno de 49% de ser do sexo masculino e de
51% de ser do sexo feminino4.

4
Este é um valor que se aproxima muito da probabilidade do sexo da criança, se esta fosse calculada de
maneira clássica: existem dois sexos “possíveis” no nascimento de uma criança, ou seja, o tamanho do
espaço amostral é 2, e seus eventos são supostos distintos e equiprováveis. Daí que a P(masculino) =
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 83

A probabilidade, então, é calculada a partir de um histórico dos casos, observados ao longo de


muito tempo, e com amostras bastante grandes. Admite-se que, se os eventos são gerados a
partir de um experimento aleatório, a probabilidade de ocorrência do evento, na próxima
repetição do experimento aleatório, será a frequência relativa de ocorrência do evento nas
últimas n repetições do experimento.

Definindo de outra maneira, a probabilidade frequencista de um evento E é dada por

P( E)  lim fr ( E)
n
ou seja, a probabilidade de um evento E ocorrer, na próxima repetição do experimento, é
calculada como o limite da frequência relativa do evento, quando o número n de repetições
anteriores do experimento é muito grande ( n  ).

Assista ao Audiovisual AV 08, em


http://www.ufjf.br/antonio_beraldo/ensino/audiovisuais/

3.3 Modelos probabilísticos


Um fenômeno pode ser descrito em termos de seus resultados e da probabilidade com que
ocorrem. A cada evento, ou resultado possível x associamos uma probabilidade p(x) .

 xi, p(x)

Na ilustração acima, os eventos xi (resultados possíveis de um fenômeno aleatório) estão

agrupados no conjunto  , que é o espaço amostral do experimento. Cada evento xi tem


calculada a sua probabilidade de ocorrência p ( xi ) que, como vimos na seção anterior, pode
ser calculada, entre outras maneiras, pela definição clássica, ou pela definição frequentista. Se

1/2, ou 50%, que é um número bastante aproximado de 49% (percentual observado). Este confronto
entre as duas formas de calcular uma probabilidade, clássica ou frequentista, será muito utilizado nesta
parte de Testes Estatísticos.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 84

considerarmos todos os resultados possíveis do fenômeno, e as probabilidades associadas a


x
estes eventos, temos um modelo de probabilidades. Se pensarmos i como uma variável
aleatória, teremos modelos de variável aleatória discreta (VAD), caso esta seja discreta

( xi  ), e, caso seja contínua ( xi  ), modelos de variável aleatória contínua (VAC).

Alguns exemplos:

x  12  x 12  x
1. A VAD i é o número de ocorrências de
P( X  xi )    p q
“Face 3” em 12 lançamentos de um dado
x

x 4,73xi e 4,73
P( x  xi ) 
2. A VAD i é o número de requisições de
serviços de manutenção de computadores da
universidade no próximo mês (nos meses
xi !
anteriores, a média foi de 4,73 requisições)

x
P( x  t0 )  1  e0,0083 (t0 )
3. A VAD i é a duração da carga de baterias
de celular, em horas, para uma média de 120
horas informada pelo fabricante.

Nos exemplos acima, 1 e 2 são de modelos de VAD, e 3 é o modelo exponencial de VAC.

O estudo dos modelos de probabilidade não faz parte da programação do curso5. No entanto,
para prosseguirmos, é necessário conhecermos, com mais detalhes, um modelo chamado
Distribuição Normal de Probabilidades. Vamos a ele:

A figura a seguir é um Histograma de Frequências das notas de 5.000 candidatos de um


concurso vestibular. As notas (número de pontos) foram agrupadas em 19 classes, entre 0 e
100.

O aspecto do gráfico é de uma


distribuição de maior densidade de
notas na porção central, e áreas de
menor concentração à esquerda e à
direita do gráfico.

O histograma indica haver, também,


uma disposição simétrica em relação à
nota central da escala, em torno de 50
pontos

As estatísticas calculadas foram:


Média = 52,0 pontos; Desvio-padrão =
18 pontos; Assimetria = -0,009

5
Caso seja de seu interesse, acesse o site do professor e faça o download da Apostila II – Introdução
ao Cálculo de Probabilidades.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 85

A próxima figura mostra o mesmo conjunto, reagrupado em 9 classes: A percepção da simetria,


indicada por um coeficiente próximo de 0, fica mais clara.

O software traça uma linha suave (polígono de frequência) sobre as colunas do histograma,
compensando as áreas sob a curva, de forma a “cobrir” todas as notas dos candidatos:

Tanto o aspecto do histograma quanto a curva de frequências indicam que as notas dos
candidatos se dispõem, muito aproximadamente, em uma distribuição chamada normal.

A distribuição, ou modelo normal, foi descoberta pelo matemático francês Abraham de


Moivre6, no século XVIII e adotada por Gauss7, no começo do século XIX para “explicar” as
frequências relativas dos erros verificados na comparação entre tabelas astronômicas antigas e
modernas (do século XIX), onde constavam as posições de estrelas e planetas. Prosseguindo
em seus estudos, Gauss e outros estatísticos descobriram que a distribuição normal podia ser
aplicada a uma imensa variedade de fenômenos, desde a distribuição das estaturas e dos
pesos dos indivíduos de uma região até alturas das marés – quase todos os fenômenos da
natureza “seguem” a distribuição normal, que tem este formato de sino8. A distribuição normal

6
Abraham de Moivre (1667-1754), matemático francês.
7
Joham Carl Friedrich Gauss (1777-1855), matemático, físico e astrônomo alemão.
8
Os americanos chama a distribuição normal de “the bell curve”.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 86

foi de importância crucial no desenvolvimento do modelo atômico, na formulação do princípio


da incerteza e no conhecimento das partículas alfa e outras radiações. A expressão
matemática do modelo normal é dado por:

1
f ( x)  e ( x ) / 2
2 2

 2
na qual  é a média da distribuição da variável aleatória x, 2 é a variância da distribuição, e
e é a base dos logaritmos naturais, ou neperianos (e = 2,7182). A imagem da curva normal é
a seguinte:

Curva Normal

O tratamento matemático dessa função é muito trabalhoso, mas os valores desta integral são
tabelados. Como a distribuição normal é aplicada apenas para variáveis contínuas, os valores
da integral calculam a probabilidade de ocorrência de faixas (ou intervalos) desta variável. Por
exemplo, no caso dos candidatos do vestibular, dado que os resultados são normalmente
distribuídos:

1. Cerca de 1.700 candidatos tiveram


pontuações entre 52,0 e 70 pontos:

52 70
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 87

2. Cerca de 4.100 candidatos tiveram


pontuações entre 52 e 88 pontos:

52 80

3. Cerca de 4700 candidatos tiveram pontuações


abaixo de 80 pontos.

80

4. 90% dos candidatos tiveram pontuações entre


22,39 e 81,61 pontos; 95% dos candidatos
tiveram pontuações entre 16,72 e 87,28 pontos;
99% dos candidatos tiveram pontuações entre
5,65 e 98,35 pontos.

22,39 81,61

16,72 87,28 5,65 98,35

Atenção para o exemplo (4): para uma variável com valores normalmente distribuídos, com
média X s , há uma probabilidade de 95% de seus valores pertençam ao
e desvio-padrão
intervalo de confiança de X  1,96 s . Na seção seguinte, a importância da distribuição
normal para a Estatística.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 88

3.4 O Método Estatístico


O Método Estatístico foi desenvolvido, a partir do Cálculo de Probabilidades, para que
possamos calcular o valor dos parâmetros – as medidas que descrevem o Universo -, a partir
das medidas estatísticas obtidas de um subconjunto do Universo chamado Amostra. Este
método é consiste nos seguintes passos:

1. O conjunto Universo é tratado de forma que cada um, e todos os seus elementos, têm a
mesma probabilidade de ser sorteado. Este processo é chamado de homogeneização do
Universo. Homogeneizar o Universo consiste em fazer com que cada um de seus elementos
tenha uma probabilidade de ser sorteado igual à de qualquer outro. Em outras palavras, é
tornar equiprovável este Universo.

2. Em seguida, alguns elementos do Universo são sorteados para compor um subconjunto


chamado amostra (). Este sorteio é feito de acordo com o tipo e a técnica de amostragem
adotada9. A amostra, assim constituída, é processada estatisticamente, ou seja, são calculadas

as suas medidas descritivas, ou estatísticas: média X , variância s 2 , desvio padrão s ,


proporção (ou freqüência relativa), p :

Estatísticas

Média
X


Variância
s2
Desvio Padrão
s
Proporção p

3. Calculando as estatísticas, temos todas as informações sobre a Amostra. Já é uma boa


parte do caminho até chegarmos aos parâmetros, que, como vimos, são as medidas do
Universo – objetivo final deste método. Para calcularmos os parâmetros, utilizamos um
conjunto de processos chamados Inferência Estatística. Partimos da seguinte relação:

9
O estudo das técnicas de amostragem não faz parte deste Curso.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 89

Parâmetro = Estatística ± margem de erro

Esta relação decorre de duas postulações fundamentais do Cálculo de Probabilidades: a Lei


dos Grandes Números, e o Teorema do Limite Central Em linhas gerais, esta relação pode ser
dita como:

Um parâmetro (medida do Universo) pertence ao intervalo dado pela estatística


(medida da Amostra), mais ou menos a margem de erro desta estatística.

Desta foram, por exemplo, temos:

  X X ou   X   X , X   X 

Margem de Erro da média amostral

Média da Amostra (média amostral)

Média do Universo (média populacional)

O intervalo X   X
, X X  é chamado intervalo de confiança do parâmetro (neste
exemplo, intervalo de confiança da média populacional). A margem de erro 
é um valor que
calculamos, utilizando a medida de dispersão e o tamanho da amostra, e informações oriundas

da distribuição de probabilidades da estatística. Neste exemplo, a margem de erro X da


s
média amostral pode ser dada por uma expressão como 1,96 .
n

Assim, com o cálculo do intervalo de confiança do parâmetro, termina o processo do Método


Estatística, cujas etapas podem ser vistas no diagrama seguinte:
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 90

Cálculo das

Amostragem estatísticas

Inferência


Cálculo dos
PARÂMETROS

Estatísticas Parâmetros
(na Amostra) (no Universo)
ω Ω
Média
X 
2
Variância
s2
Desvio Padrão
s 
Proporção p 
Portanto, há uma correspondência entre as medidas amostrais (estatísticas) e as medidas
populacionais (parâmetros).

A margem de erro pode ser interpretada como a diferença existente entre as medidas de uma
Amostra e as do Universo de onde foi extraída. Cada estatística possui a sua margem de
erro. A margem de erro é função:

 do Nível de Confiança com que se está trabalhando;

 do tamanho da amostra, n;

 das condições do Universo (infinito ou finito);

 do tipo de amostragem que foi realizado (com reposição ou sem reposição).


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 91

3.5 Inferência Estatística Seja um Universo , constituído de N elementos, com os


parâmetros média  desvio-padrão  e proporção  A (de um atributo A).. Retiramos
aleatoriamente, com ou sem reposição, uma amostra de tamanho n , e calcularmos as suas
estatísticas média X , desvio-padrão s e proporção pA . Os intervalos de confiança
IC para os parâmetros são dados a seguir:
Média  - Distribuição normal

 
X  zcrit    X  zcrit
n n
onde z crit é tabelado segundo o nível de confiança com que estamos trabalhando.:
Média  -- Distribuição t de Student

s s
X  tcrit    X  tcrit
n n

onde t crit é tabelado em função do nível de confiança e do número de graus de liberdade  ,


dado por   n 1
A distribuição t de Student é derivada da Curva Normal. Foi calculada pelo estatístico inglês
Gosset10, e se aplica a qualquer tamanho de amostra e a qualquer número de observações, ao
contrário da distribuição normal, utilizada apenas para grandes amostras. A figura abaixo
mostra uma curva da distribuição t. Note a aparência, também em forma de sino:

A distribuição da estatística t de
Student depende do tamanho da
amostra (ou do conjunto). Então,
teremos infinitas curvas e
infinitos valores para t. A
expressão “graus de liberdade”
 (letra grega phi), dado por
  n 1 , será muito utilizada
na parte de testes paramétricos.

10
W. S. Gosset (1876-1937), químico, matemático e estatístico inglês, trabalhou muitos anos na
cervejaria Guiness. Por norma de sigilo da cervejaria, publicava seus trabalhos com o pseudônimo de
Studfent (estudante, em inglês).
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 92

Proporção A

p(1  p) p(1  p)
p  z crit    p  z crit
n n

Variância 2

(n  1) s 2 (n  1) s 2
  2

 
2 2

sup inf

Onde os valores dos 2


(superior e inferior) são oriundos da distribuição do qui-quadrado. A
distribuição de probabilidades é obra de Pearson11, e também é parametrizada pelo número de
graus de liberdade . Observe a figura a seguir:

Na figura ao lado, um “feixe” de


curvas da distribuição do qui-
quadrado, para diversos graus de
liberdade. Quanto maior o grau de
liberdade, mas achatada (e
“esticada”) é a curva

Exemplo

Um amostra de 100 alunos de uma universidade, extraídos aleatoriamente de uma população


infinita, revelou as seguintes estatísticas:

Média amostral dos pesos dos alunos X = 61 kg

Desvio-padrão amostral dos pesos dos alunos s = 12 kg

Variância amostral dos pesos dos alunos: s2 = 144 kg2.

Percentual de alunos canhotos na amostra p = 14%

Calcule os intervalos de confiança dos parâmetros populacionais correspondentes.

11
Karl (Carl) Pearson (1857-1936), inglês, um dos mais influentes estatísticos do século XX.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 93

Média Populacional

s 12
IC (  )  X  tcrit  61  1,984  61  2,381kg
n 100
Variância Populacional

(n  1) s 2 (n  1) s 2 (100  1)144 (100  1)144


 
2
2 
 
2 2 ;
128,42 73,361
sup inf

111,01   2  194,33
Proporção Populacional

p(1  p) 0,14(1  0,14)


IC (p)  p  zcrit  0,14  1,96  0,14  0,068
n 100
Pelos resultados, há uma probabilidade de 95% de que:

A média populacional  esteja entre 58,619 kg e 63,381 kg; a variância populacional

 2 seja um valor entre 111,01 kg 2


e 194,33 kg2. A proporção de canhotos  esteja entre
7,2% e 20,8%.

IC da Média  IC da Proporção 

7,2 20,8 %

58,62 63,38 kg
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 94

3.6 Testes de Hipóteses


O que são Testes de Hipóteses

Uma Hipótese estatística é uma afirmativa que se faz sobre um parâmetro, a partir de
estatísticas de amostras coletadas. Por exemplo, pode-se fazer a hipótese de que a renda
familiar média de um bairro da cidade é igual a R$ 560,00. Escreve-se H o :   R$560,00 .
H o (a letra “H”, maiúscula, com a letra “o” subscrita12) é o símbolo da hipótese nula, que é a
hipótese básica sobre a rernda familiar média do bairro (hipótese nula não quer dizer que a
hipótese “não tem valor”). Além da hipótese nula H o , podemos formular hipóteses
alternativas, como, por exemplo:

H 1 :   R$560,00 , que é a hipótese oposta à H o .


H 2 :   R$560,00
H 3 :   R$560,00

Hipóteses são rejeitadas ou aceitas (melhor dizendo, não rejeitadas). Para testar esta
n
hipótese, coletamos uma amostra de tamanho , de famílias deste bairro, e determinamos o
intervalo de confiança da média da variável “renda familiar”: No exemplo acima, quando
formulamos a hipótese nula H o :   R$560,00 , estamos afirmando que o valor de
R$ 560,00 pertence ao intervalo de confiança IC da média populacional  , estimada a partir
da média amostral X , para determinado nível de significância  (ou nível de confiança
NC  1   ). Por exemplo, suponha que extraimos uma amostra de 400 domicílos deste bairro,
e calculamos sua média X = R$ 550,00 e desvio padrão
s = 180,00; o IC da média populaciona  l 13
, para um nível de significância  = 0,05 (ou
5%), é dado por:

s s
X  tcrit    X  tcrit
n n

Aplicando os valores, o IC da média  será

180,0 180,0
550,00  1,965    550,00  1,965
400 400

180,0
A margem de erro é dada por  1,965  17,7 (reais). Veja a figura a seguir:
400

12
Por analogia com a palavra “nulo”, muitos chamam de “h-zero”, o que é incorreto. A letra “o” vem do
inglês “original”, como adotado por Fisher (1935).
13
Alguns autores chamam de “Média verdadeira”, o que não é correto.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 95

R$ 560,00

95%

[ 532,3 567,7 ]

Intervalo de confiança da média populacional

Na figura acima, pode-se notar que o valor de R$ 560,00 “cai” dentro da faixa
R$ 532,3 a R$ 567,7, que é o intervalo de confiança para a média populacional. Como foi visto
no capítulo 3, há uma probabilidade de 95% de que a média populacional esteja contida
neste intervalo – e uma probabilidade de 5% de que esteja fora deste intervalo.

Assim, não rejeitamos a H o , ao nível de confiança de 95%.

O que acabamos de fazer foi um teste de hipótese, ou teste estatístico. Testes Estatísticos
são procedimentos que tem por objetivos:

a) verificar se uma amostra foi realmente extraída de determinada população, isto é, se as


estatísticas amostrais são iguais, estatisticamente, aos parâmetros populacionais;

b) verificar se existe diferença significativa entre dois ou mais estados de uma variável, ou
entre estados de duas ou mais variáveis.

Por exemplo, se uma variável aleatória pode evoluir ao longo do tempo; podemos estar
interessados se houve diferença significativa entre os estados inicial e final da variável (ou
seja, medidas desta variável tomadas no instante inicial e no instante final do período de
medição). Em outros casos, podemos estar interessados nas medidas desta variável, tomadas
no mesmo instante porém em locais diferentes. Ou, em outro caso, pesquisamos se existe
diferença entre valores de uma variável, relacionados a categorias, p. ex. poder aquisitivo e
estado civil dos elementos amostrais. Em situações mais complexas, podemos estar
interessados nas medidas da variável, tomadas em locais e tempos diferentes. Em qualquer
dos casos, existe uma série de rotinas estatísticas adequadas para estabelecer:

1º Se há diferença estatística significativa entre os estados

2º Em caso de haver esta diferença, estabelecer a comparação entre os estados (em termos
de maior ou menor).

Igualdades e diferenças estatísticas

Antes de continuarmos com este capítulo, é necessário elucidar este conceito: diferença
estatística significativa. Em Matemática, as igualdades são exatas, isto é, podemos sempre
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 96

dizer que 5 = 5, e nunca que 5 = 6. Em Estatística, como já foi visto na parte de inferência
estatística, a média de uma população pode ser qualquer número pertencente ao intervalo de
confiança. Daí que, por exemplo, se o intervalo de confiança da média de um conjunto de
medidas for de 20,5  2,3, os valores 20, 21 e 22 pertencem ao intervalo de confiança -
qualquer um deles poderia ser a média real do conjunto. Pertencendo ao mesmo intervalo de
confiança, eles são estatisticamente iguais, ou, melhor, dizendo, não existe diferença
estatística significativa entre eles. Por outro lado, neste mesmo conjunto, o valor 25 é
estatisticamente diferente, ou, melhor dizendo, existe uma diferença estatística significativa
entre o valor 25 e o intervalo de confiança da média - o valor 25 não pertence ao intervalo de
confiança. Podemos, então, fixar este conceito: não existe diferença estatística significativa
entre dois valores de uma variável se estes pertencem ao mesmo intervalo de confiança.

Teoria da Decisão Estatística

A Decisão Estatística decorre do que foi visto na seção anterior. Quando foi dito que duas
estatísticas de uma variável não são diferentes estatisticamente quando pertencerem ao
mesmo intervalo de confiança, temos que dizer que há uma probabilidade dos dois valores
não serem diferentes. Esta probabilidade é o nível de confiança.(lembre-se que o nível de
confiança é que determina o intervalo de confiança). Vamos dar um exemplo de como é isso,
na prática:

Exemplo Foi feita uma pesquisa de intenção de voto para o candidato A, no mês de maio.
Naquele mês, a amostra foi de 400 eleitores e, para um nível de confiança de 95%, inferiu-se
que a intenção de voto no candidato A era de 38%. A margem de erro da pesquisa foi, portanto

p(1  p ) ( 0,38)(0,62)
zc .  1,96.  (1,96)(0,024)  0,048 ou 4,8%
n 400

Daí que a intenção de voto do candidato A deve estar, com uma probabilidade de 95%, entre
33,2 % e 42,8 %. Continuando este exemplo, imagine agora que, na mesma pesquisa, um
outro candidato, B, obteve 34% das intenções de voto. Existe diferença entre estes dois
candidatos? A resposta é que não existe diferença, estatisticamente falando, uma vez que a
votação do candidato B está dentro do intervalo de confiança da intenção de voto do candidato
A. A diferença matemática entre as intenções de A, 38%, e do candidato B, 34%, não é
estatisticamente significativa, sendo esta variação devida ao acaso14. Veja a ilustração a
seguir:

14
Esta é um outro conceito frequentemente adotado para o intervalo de confiança: uma região (um
intervalo) em que as diferenças das medidas em relação à média populacional (ou qualquer outro
parâmetro) são aleatórias, isto é, devidas unicamente ao acaso.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 97

 = 38%
34%
33,2% 42,8 %

Intervalo de confiança de 

Você deve estar pensando em termos de certeza: não existe diferença entre os candidatos, e
pronto. Não é bem assim. Lembre-se que adotamos o nível de confiança de 95%, e isto quer
dizer que estamos 95% confiantes da inexistência de diferença entre os candidatos. E que
existe uma probabilidade de 5% de que nossas conclusões sejam falsas.

A situação descrita acima (dois candidatos sem diferença estatística na intenção de voto) é dita
de empate técnico. Não se pode afirmar, neste momento, qual candidato está na frente da
corrida eleitora

O p- value

Nos últimos anos, disseminou-se na literatura científica, principalmente nas áreas da Psicologia
e das Ciências da Saúde, e nos pacotes estatísticos como o SPSS, a utilização de uma
estatística chamada p, ou p-value. O p-value é uma probabilidade, ou uma área sob a curva da
distribuição de probabilidades que está sendo usada no teste de hipóteses. Por exemplo, seja
a hipótese H o :   108 , que estamos testando, com uma amostra de
n = 144 elementos, com média X =113 e desvio padrão s= 22. Adotamos o nível de
confiança de 95% (nível de significância de 0,05), e a distribuição t de Student para o teste.
Calculamos o intervalo de confiança pela expressão

s s 22 22
X  tcrit    X  tcrit , e 113  1,98    113  1,98
n n 144 144

Portanto, o IC é [109,4 – 116,6], e a H o :   108 é rejeitada.


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 98

Outra maneira de testar essa hipótese seria a de calcular uma estatística

X 
t calc  ,
s
n
e verificar qual é o p-value referente a este tcalc (o computador calcula este p-value) O novo
critério de decisão será:

Não rejeitar a Hipótese Nula se o


p-value >  .

/2 /2

Neste exemplo, o tcalc é igual a 2,727, e o p-value para este tcalc é = 0,007, que é menor do que
o  de 0,05. Portanto, rejeita-se a hipótese nula de que o valor 108 pertença a esta amostra.

Como se verá, o SPSS (e outros programas) calculam o tcalc e deixam que comparemos o
p-value com o  adotado. Então, o critério passa a ser:

Caso o p-value >  ,não se rejeita a hipótese de igualdade;

Caso o p-value <  rejeita-se a hipótese de igualdade.


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 99

Parte II Testes Paramétricos


3.7 Teste T de igualdade das médias de duas amostras
independentes.
Abrindo a base de dados BD01, iremos testar a seguir a hipótese de igualdade das estaturas
segundo o sexo dos pacientes. Em primeiro lugar, utilizamos, a rotina Explore, para calcular as
estatísticas desta variável segundo o sexo:

Utilizamos o Explore para verificar


as diferenças entre as estatísticas
da variável estatura, segundo o
sexo dos partiicipantes.

Colocamos na Dependent list ,


a variável Estatura e na Factor
List, a variável Sexo

Base de Dados em Uso


BD01

Siga pelo Captivate 03 Parte 1

O SPSS irá abrir o seguinte output:


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 100

Descriptives

Sexo Statistic Std. Error


Estatura Masculino Mean 1,6597 ,01358
95% Confidence Lower Bound 1,6327
Interval for Mean Upper Bound
1,6868

5% Trimmed Mean 1,6549


Median 1,6250
Variance ,014
Std. Deviation ,11838
Minimum 1,48
Maximum 1,98
Range ,50
Interquartile Range ,19
Skewness ,460 ,276
Kurtosis -,651 ,545
Feminino Mean 1,4667 ,02204
95% Confidence Lower Bound 1,4211
Interval for Mean Upper Bound
1,5123

5% Trimmed Mean 1,4616


Median 1,4400
Variance ,012
Std. Deviation ,10797
Minimum 1,32
Maximum 1,70
Range ,38
Interquartile Range ,08
Skewness 1,299 ,472
Kurtosis ,753 ,918

Note que as médias são: Masculino: 1,6597  0,118()


: Feminino: 1,4667  0,108()

A diferença da média de estatura entre os grupos é de 1,6597-1,4667= 0,19307m. A diferença


entre os grupos fica mais evidente quando analisamos o Box-Plot.

Ou seja, são numericamente diferentes. O teste t irá verificar se são, também estatisticamente
diferentes.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 101

2,00

1,80

51
24 10
Estatura

89

1,60

1,40

Masculino Feminino
Sexo

Pela imagem do box- plot podemos observar que as medianas estão bem distantes e que há
um bom número de outliers nas estaturas dos individuos do sexo feminino. Estas discrepâncias
podem atrapalhar o teste.

Iremos agora, proceder ao teste. Antes, temos que verificar se a distribuição da variável
Estatura é normal, para que possamos testar suas médias utilizando o teste T de Student. A
verificação da normalidade é feita através do teste não paramétrico de Kolmogorov
Smirnov.

O caminho é:

Analyze > Nonparametric Tests>


1-Sample K-S
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 102

Descoloque a variável Estatura para a janela da direita e clique em .

O SPSS, irá abrir o seguinte output:

One-Sample Kolmogorov-Smirnov Test

Estatura
A significância assintótica bicaudal
N 100 (p) é igual a 0, 712, maior do que
Mean 1,6134 0,05, o que indica que a variável
Normal Parameters(a,b)
Std. Deviation ,14210 tem uma distribuição
Most Extreme Absolute ,070 aproximadamente normal.
Differences Positive Utilizaremos, portanto o teste t. O
,070
Negative -,060 caminho é o seguinte:
Kolmogorov-Smirnov Z ,700
Asymp. Sig. (2-tailed) ,712
a Test distribution is Normal.
b Calculated from data.

Escolhemos Indepent- Samples T-Test

O SPSS irá abrir a seguinte caixa de diálago:


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 103

Abre-se esta caixa de diálogo:

Colocamos a variável Estatura na


janela Test Variable(s).

Colocamos a variável Sexo na


janela Grouping Variable(s)

Note que o SPSS coloca um fundo


azul e duas interrogações (??) ao
lado da variable. O software está
solicitando que vocêdefina quais
grupos serão utilizados. Clique em
Define, e irá aparecer a seguinte
caixa:

Coloque os valores 1 e 2
respectivamente nas janelas de
grupo 1 grupo 2.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 104

O SPSS irá entender que você


deseja grupar a variável Estatura
segundo os sexos que são
codificados por estes valores.

Mantemos o Nivel de Confiança


de 95%.

Clicando em

O SPSS retorna a esta tela:

Completada a operação, clique em O SPSS irá abrir este output.

O primeiro quadro mostra as estatísticas da estatura, para os sexos masculinos e femininos: N


(tamanhos dos grupos) Mean (média), Std. Deviation (Desvio- padrão) e Std. Error Mean (Erro
padrão da média)
Group Statistics

Std. Error
Sexo N Mean Std. Deviation Mean
Estatura Masculino 76 1,6597 ,11838 ,01358
Feminino 24 1,4667 ,10797 ,02204

No quadro acima, as estatísticas da variável Estatura , agrupadas segundo o atributo sexo.


Observe os valores. Eles poderão ser comparados (comparação numérica) caso a hipótese
nula de igualdade seja rejeitada.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 105

O quadro seguinte é o resultado do teste:

Independent Samples Test

Levene's Test for


Equality of Variances t-test for Equality of Means
95% Confidence Interval
Mean Std. Error of the Difference
F Sig. t df Sig. (2-tailed) Difference Difference Lower Upper
Estatura Equal variances
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698
Equal variances
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531

As estatísticas – e as informações - são:

Independent Samples Test

Levene's Test for


Equality of Variances t-test for Equality of Means
95% Confidence Interval
Mean Std. Error of the Difference
F Sig. t df Sig. (2-tailed) Difference Difference Lower Upper
Estatura Equal variances
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698
Equal variances
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531

As primeiras células da tabela mostram a variável (estatura). O quadro se divide em


duas linhas conforme a presunção de homocedasticidade ou heterocedasticidade
(igualdade ou não das variâncias). A linha de cima exibe os resultados para as
variâncias iguais, a de baixo para variâncias supostas não iguais.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 106

Independent Samples Test

Levene's Test for


Equality of Variances t-test for Equality of Means
95% Confidence Interval
Mean Std. Error of the Difference
F Sig. t df Sig. (2-tailed) Difference Difference Lower Upper
Estatura Equal variances
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698
Equal variances
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531

Estes são os resultados do teste de Levene. Este teste verifica se as variâncias das
amostras são iguais utilizando a distribuição F de Snedecor. Neste exemplo, o valor
de F mostra uma significância (Sig.) igual a 0,103 > 0,05. Portanto as variâncias são
estatisticamente iguais e vamos ler os resultados na linha de cima do quadro.
Independent Samples Test

Levene's Test for


Equality of Variances t-test for Equality of Meanias
95% Confidence Interval
Mean Std. Error of the Difference
F Sig. t df Sig. (2-tailed) Difference Difference Lower Upper
Estatura Equal variances
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698
Equal variances
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531

Estas são as células principais do quadro do output. A primeira célula mostra a estatística T
calculada para a diferença entre médias, igual a 7,107, para 98 graus de liberdade. A significância
bicaudal é igual a 0,000 << 0,05. Este resultado indica que há uma diferença estatisticamente
significativa entre as estaturas masculina e feminina.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 107

Independent Samples Test

Levene's Test for


Equality of Variances t-test for Equality of Means
95% Confidence Interval
Mean Std. Error of the Difference
F Sig. t df Sig. (2-tailed) Difference Difference Lower Upper
Estatura Equal variances
assumed 2,710 ,103 7,107 98 ,000 ,19307 ,02717 ,13916 ,24698
Equal variances
not assumed 7,458 41,923 ,000 ,19307 ,02589 ,14083 ,24531

Dados adicionais, estes resultados são: Mean Difference, (diferença entre médias);
Std. Error Difference, (Erro padrão da diferença). 95% Confidence Interval of the
Difference, (Intervalo de confiança da diferença entre médias para o nível de
confiança de 95%).

Esta significância nos diz que existe uma diferença estatística significativa entre as médias das estaturas das duas amostras. Os indivíduos do sexo
masculino tem estatura numérica e estatisticamente maiores do que indivíduos do sexo feminino.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 108

3.8 Amostras pareadas

Amostras pareadas ou emparelhadas são conjuntos de observações que se fazem sobre o


mesmo grupo em momentos diferentes. O exemplo a seguir compara os pesos dos
participantes do programa em dois momentos distintos: o primeiro momento é o peso quando
da apresentação do participante, e o segundo momento é o peso 3 meses após.

Siga pelo Captivate 03 Parte 2

Antes de realizar o teste, calculamos as estatísticas básicas das duas variáveis, utilizando a
rotina Analyze > Descriptive Statistics > Descriptive15:

Abre-se a caixa de diálogo:

Deslocamos os campos Peso [apresentação] e Peso após 3 meses [Peso 3m] da janela da
esquerda para a janela da direita:

15
Esta rotina foi apresentada no tutorial do Módulo 2, Medidas Estatísticas no SPSS.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 109

Clique em
Options

Selecionamos as estatísticas Média


(Mean), Desvio-padrão (Std.
variation) , Mínimo (Minimum) e
Máximo (Maximum):

Voltamos à tela anterior e clicamos em


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 110

O output é o seguinte:

Descriptive Statistics

N Minimum Maximum Mean Std. Deviation


Peso (apresentação) 100 48 102 69,90 12,520
Peso após 3 meses 100 50 112 76,23 12,526
Valid N (listwise) 100

Assim, verificamos que, numericamente, houve um aumento na média dos pesos, de 69,9 kg
para 76,23 kg. O teste estatístico irá “dizer” se esta diferença é estatisticamente significativa,
ou seja, se este aumento foi “real”, não foi devido ao acaso.

O caminho é:

Analyze > Compare Means>


Paired- Samples T Test

Abre-se a seguinte caixa de diálogo:


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 111

Passaremos as
variáveis cujos valores
serão comparados da
janela da esquerda para
a janela da direita,
utilizando o botão

No entanto, esta
passagem não é feita
de uma vez. Veja que,
quando a primeira
variável é selecionada,
o nome da variável
“desce” para o canto
esquerdo inferior da
caixa, sob o título
Variable 1. Clicamos na
segunda variável, e ela
também "desce", para a
posição inferior,
Variable 2.

Somente quando os
campos Variable 1 e
Variable 2 estão
preenchidos é que
utilizamos o botão

Clicando em o SPSS apresenta o seguinte output:


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 112

Paired Samples Statistics Paired Samples Correlations

Std. Error N Correlation Sig.


Mean N Std. Deviation Mean Pair 1 Peso (apresentação) &
Pair 1 Peso (apresentação) 69,90 100 12,520 1,252 Peso após 3 meses 100 ,962 ,000
Peso após 3 meses 76,23 100 12,526 1,253
Não se preocupe com este output agora.
Paired Samples Test

Paired Differences
95% Confidence
Interval of the
Difference
Std. Error
Mean Std. Deviation Mean Upper Lower t df Sig. (2-tailed)
Pair 1 Peso (apresentação) -
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000

Variáveis emparelhadas a serem comparadas: Peso na apresentação, e Peso 3m depois.

Paired Samples Test

Paired Differences
95% Confidence
Interval of the
Difference
Std. Error
Mean Std. Deviation Mean Lower Upper t df Sig. (2-tailed)
Pair 1 Peso (apresentação) -
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000

Estatísticas das diferenças: Mean ( média), Std. Deviation (desvio- padrão), Std. Error Mean ( Erro
padrão da média), e os limites inferior e (Lewer) e superior (Upper) do Intervalo de Confiança da
média das diferenças.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 113

Paired Samples Test

Paired Differences
95% Confidence
Interval of the
Difference
Std. Error
Mean Std. Deviation Mean Lower Upper t df Sig. (2-tailed)
Pair 1 Peso (apresentação) -
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000

Resultados finais do teste: A estatística t calc (t) os graus de liberdade (df) e o p-value ( Sig(2-tailed))

O valor do p-value, 0,000, indica que a hipótese nula de igualdade entre as médias deve ser rejeitada, e que existe diferença significativa entre elas.
Podemos, então, observar e comparar os valores numéricos, concluindo que o peso após 3 meses é maior que o peso na apresentação (em termos de
média).
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 114

3.9 Análise da Variância

A Análise da Variância é um teste paramétrico que verifica se há diferença estatística


significativa entre os valores de uma variável, agrupados em mais de dois atributos, ou valores,
de outra variável. Como exemplo, iremos analisar a variável Peso, agrupada segundo os
valores da variável Faixa Etária.

Começamos pelas estatísticas, utilizando a rotina Explore.

O caminho é Análise> Descriptive


Statistics >Explore. A caixa de diálogo
abre-se e é preenchida desta forma:

Preencha as janelas Dependent List e Factor List com os campos Peso e Faixa Etária:

Siga pelo Captivate 03 Parte 3


Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 115

Eis o output:
Descriptives

Faixa Etária Statistic Std. Error


Peso (apresentação) Faixa Etária I 20-39 anos Mean 65,86 1,797
95% Confidence Lower Bound 62,17
Interval for Mean Upper Bound
69,54

5% Trimmed Mean 65,75


Median 66,00
Variance 90,423
Std. Deviation 9,509
Minimum 48
Maximum 87
Range 39
Interquartile Range 15
Skewness -,027 ,441
Kurtosis -,100 ,858
Faixa Etária II 40-54 anos Mean 69,43 1,682
95% Confidence Lower Bound 66,06
Interval for Mean Upper Bound
72,80

5% Trimmed Mean 69,46


Median 70,50
Variance 158,468
Std. Deviation 12,588
Minimum 48
Maximum 92
Range 44
Interquartile Range 21
Skewness -,112 ,319
Kurtosis -1,127 ,628
Faixa Etária 3 55 em Mean 78,63 3,338
diante 95% Confidence Lower Bound 71,51
Interval for Mean Upper Bound
85,74

5% Trimmed Mean 78,58


Median 77,50
Variance 178,250
Std. Deviation 13,351
Minimum 56
Maximum 102
Range 46
Interquartile Range 24
Skewness ,167 ,564
Kurtosis -1,079 1,091

Pelos dados acima verificamos que há diferença numérica entre os valores das médias: quanto
maior a faixa etária, maior a média dos pesos. A ANOVA irá verificar se há diferença estatística
entre estes valores.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 116

Agora, começamos efetivamente a Análise da Variância, ANOVA One-Way.

O caminho é:

Analyze> Compare Means>


One- Way Anova

Abre-se a tela da ANOVA. Na


janela Depent List, colocamos a
variável peso.

Na janela Factor, colocamos a


variável Faixa Etária.

A ANOVA, por si, não informa mais


do que se há diferença estatística
significativa ou não entre as médias
da variável, agrupada pelos fatores.

Para saber qual média é diferente


das outras, recorremos às
chamadas comparações Post-Hoc.

Clique em e veja a
tela ao lado:
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 117

Escolhemos as rotinas de
comparação de Bonferroni, Scheffe
e Tukey.

Clicamos em
e o SPSS retorna à tela anterior.

Clicamos em . O SPSS
abre o seguinte output.

ANOVA

Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99

O quadro acima é o resultado da ANOVA.

ANOVA

Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99

Na 2ª coluna, temos a soma dos quadrados (Sum of Squares) entre os grupos ( Between
groups),dentro dos grupos (wilhin groups) e total (Total) .
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 118

ANOVA

Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99

Na coluna seguinte os graus de liberdade (df). Na 4ª coluna os quadrados médios.

ANOVA

Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99

Na 5ª e 6ª coluna, a estatística F de Snedecor e o resultado da ANOVA, a significância, ou p-


value. No exemplo, p= 0,004<<0,05, ou seja, rejeita-se a hipótese nula de igualdade e
concluímos que há diferença estatística significativa entre os pesos dos grupos segundo a faixa
etária.

Então, precisamos dos resultados das comparações Post Hoc para verificar, em detalhe, estas
diferenças. No output a seguir, estes resultados:
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 119

Multiple Comparisons
Dependent Variable: Peso (apresentação)

Sig 95% Confidence Interval


Mean
Difference
(I) Faixa Etária (J) Faixa Etária (I-J) Std. Error Lower Bound Upper Bound
Tukey HSD Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,403 -10,15 3,01
Faixa Etária 3 55 em
-12,768(*) 3,742 ,003 -21,68 -3,86
diante
Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos
3,571 2,764 ,403 -3,01 10,15
Faixa Etária 3 55 em
-9,196(*) 3,385 ,021 -17,25 -1,14
diante
Faixa Etária 3 55 em Faixa Etária I 20-39 anos
12,768(*) 3,742 ,003 3,86 21,68
diante
Faixa Etária II 40-54 anos
9,196(*) 3,385 ,021 1,14 17,25
Scheffe Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,437 -10,44 3,30
Faixa Etária 3 55 em
-12,768(*) 3,742 ,004 -22,07 -3,46
diante
Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos 3,571 2,764 ,437 -3,30 10,44
Faixa Etária 3 55 em
-9,196(*) 3,385 ,029 -17,61 -,78
diante
Faixa Etária 3 55 em Faixa Etária I 20-39 anos
12,768(*) 3,742 ,004 3,46 22,07
diante
Faixa Etária II 40-54 anos
9,196(*) 3,385 ,029 ,78 17,61
Bonferroni Faixa Etária I 20-39 anos Faixa Etária II 40-54 anos -3,571 2,764 ,598 -10,30 3,16
Faixa Etária 3 55 em
-12,768(*) 3,742 ,003 -21,88 -3,65
diante
Faixa Etária II 40-54 anos Faixa Etária I 20-39 anos
3,571 2,764 ,598 -3,16 10,30
Faixa Etária 3 55 em
-9,196(*) 3,385 ,023 -17,44 -,95
diante
Faixa Etária 3 55 em Faixa Etária I 20-39 anos
12,768(*) 3,742 ,003 3,65 21,88
diante
Faixa Etária II 40-54 anos 9,196(*) 3,385 ,023 ,95 17,44
* The mean difference is significant at the .05 level.

Neste quadro as comparações Post- Hoc. O SPSS coloca um asterisco ao lado de cada grupo onde há diferença
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 120

Finalmente, o quadro de subsets (subconjuntos)

Peso (apresentação)

N Subset for alpha = .05


Faixa Etária 1 2
Faixa Etária I 20-39 anos 28 65,86
Faixa Etária II 40-54 anos 56 69,43
Tukey
Faixa Etária 3 55 em
HSD(a,b) 16 78,63
diante
Sig. ,532 1,000
Faixa Etária I 20-39 anos 28 65,86
Faixa Etária II 40-54 anos 56 69,43
Scheffe(a,b) Faixa Etária 3 55 em
diante 16 78,63
Sig. ,563 1,000
Means for groups in homogeneous subsets are displayed.
a Uses Harmonic Mean Sample Size = 25,846.
b The group sizes are unequal. The harmonic mean of the group sizes is used. Type I error levels are not
guaranteed.

Esté é o quadro dos subgrupos com estatísticas iguais. O SPSS localiza as faixas etárias I e II
no mesmo subconjunto (subset 1), indicando não existir diferença estatística entre elas. Já a
faixa etária III é localizada em outro subconjunto (subset 2), indicando que existe diferença
significativa entre as medidas do Peso entre esta faixa etária e as duas primeiras.

Fim do Tutorial do Módulo III


Próximo Módulo:

Testes Não
Paramétricos

Você também pode gostar