Escolar Documentos
Profissional Documentos
Cultura Documentos
Testes de Hipótese
3 Testes Paramétricos
Conteúdo
Parte I
3.1 Fenômenos, 79
3.2 Probabilidade, 80
3.3 Modelos probabilísticos, 83
3.4 O Método Estatístico, 88
3.5 Inferência Estatística, 91
3.6 Testes de Hipóteses, 94
O que são Testes de Hipóteses, 94
Igualdades e diferenças estatísticas, 95
Teoria da Decisão Estatística, 96
O p-value, 97
Parte II
3.1. Fenômenos
Existem dois tipos de fenômenos: os determinísticos e os não-determinísticos. Os
fenômenos determinísticos são aqueles estudados, por exemplo, na Física e na Química do
ensino médio. Quando fazemos uma experiência no laboratório, todas as condições do
experimento são controladas: a temperatura, a umidade, a luz ambiente. Quando passamos
uma corrente elétrica por uma resistência, já sabemos exatamente o que irá ocorrer - os
fenômenos de transformação de energia, de geração de calor, de mudança de coloração, etc.
Se, no laboratório de Química, reagirmos um ácido com uma base, serão produzidos sal e
água. A reação NaOH + HCl sempre produziu NaCl + H2O, e irá produzir o mesmo resultado
sempre que repetirmos a reação. Se um corpo parte do repouso, em movimento retilíneo com
velocidade uniforme v, o espaço x percorrido ao fim de um tempo t será dado por x = xo + vt.
Um corpo em queda livre, no vácuo, segue as condições conforme a figura 1.1, abaixo:
Par de dados 4.O Experimento Aleatório pode ser repetido infinitas vezes,
sob as mesmas condições.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 80
Nota: Rigorosamente falando, estas características são de um fenômeno aleatório puro. Isto é
apenas um ponto de partida, útil para o estudo das probabilidades, embora saibamos que estas
características aplicam-se, para fins de exemplos, apenas a jogos de azar – não-enviesados
(honestos).
Na vida prática, iremos lidar com fenômenos “não tão aleatórios”, ou seja, fenômenos em que
há fatores associados1 às ocorrências. Então, interessa descobrir quais são estes fatores, e
que influência tem no resultado do experimento – ou na ocorrência de um evento.
3.2. Probabilidade
EVENTOS: Um resultado possível do Experimento Aleatório, ou um conjunto de resultados
possíveis, é chamado evento. Por exemplo, as faces do dado são cada uma delas um evento,
chamado evento unitário (aquele que não pode ser decomposto). Os eventos de um
experimento podem ser tratados como conjuntos.
ESPAÇO AMOSTRAL
E4
Os espaços amostrais são, tecnicamente, os resultados (valores) que uma variável pode
apresentar. Então, podemos ter espaços amostrais com eventos qualitativos ou
quantitativos. Os eventos qualitativos podem ser dicotômicos ou politômicos, e os eventos
quantitativos podem ser discretos ou contínuos..
{E1 , E 2 , E3 ,...., E n }
a probabilidade de ocorrência de um evento qualquer P(E) é dada pela relação
nE
P( E )
1
Note que não podemos falar em causalidade, e sim, em associação – que pode ser forte ou fraca, com
suas gradações. A associação de fatores ligados à ocorrência de um fenômeno será estudada na parte
de modelos multivariados. Lembre-se: causalidade é uma característica de eventos determinísticos.
Nas Ciências Humanas, da Saúde e Sociais, podemos utilizar a palavra causation *causação), que é
aquilo que modifica a probabilidade de ocorrência de um fenômeno.
2
Evento unitário é aquele que não pode ser decomposto. P. ex., “Face 4” é um evento unitário, “Face 4
ou 5” é um evento composto.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 81
Por exemplo, uma urna com 10 bolas, sendo 3 vermelhas. Ao extraímos aleatoriamente uma
bola desta urna, a probabilidade de que seja vermelha é dada pela relação
nV 3
P(V ) 0,30
10
Esta é a definição clássica, ou de Laplace3, de probabilidades. Porém, existem casos em que
os eventos unitários constantes do espaço amostral possuem probabilidades de ocorrência
indeterminadas. Neste caso, temos que repetir o experimento inúmeras vezes para
determinar de que modo os eventos ocorrem ou, em outras palavras, a frequência com que os
eventos ocorrem. Por exemplo, seja a frequência de nascimentos de crianças em uma
maternidade, segundo o atributo sexo, em alguns meses do ano:
Veja que os percentuais sobre as frequências acumuladas parece que vão se concentrando em
torno da relação 50% / 50%, no atributo sexo. Embora o nosso número de observações ainda
seja pequeno (484 nascimento de crianças, em 8 meses), podemos “prever” que, no próximo
mês a ser pesquisado, os nascimentos se distribuirão, em termos do atributo sexo, com 49%
para os nascimentos de crianças do sexo masculino, e 51% de crianças do sexo feminino.
Repare que esta “previsão” é feita com uma certa “margem de erro”: se, ao invés de 484
nascimentos, a nossa amostra fosse de 4.000 nascimentos, nossa segurança seria muito maior
(nossa “margem de erro” seria bem menor). O gráfico a seguir ilustra bem este comportamento:
3
Pierre Simon de Laplace (1741-1827), matemático, físico e filósofo francês.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 82
54%
53%
52%
51%
50%
% Masculino
49%
% Feminino
48%
47%
46%
45%
44%
1 2 3 4 5 6 7 8
Mês
75%
70%
65%
60%
55%
50%
45%
40%
35%
30%
25%
Note que, a medida em que o tempo passa, e vão nascendo cada vez mais crianças, a
frequência acumulada de nascimentos também vai aumentando. A proporção de crianças do
sexo masculino “tende” a ser igual à proporção de crianças do sexo feminino - ambos os
números convergem para 50%.
O percentual médio, para esta amostra, foi de 49,4% para nascimentos de crianças do sexo
masculino e de 50,6% de crianças do sexo feminino. Isto nos permite dizer que a próxima
criança a nascer terá uma probabilidade em torno de 49% de ser do sexo masculino e de
51% de ser do sexo feminino4.
4
Este é um valor que se aproxima muito da probabilidade do sexo da criança, se esta fosse calculada de
maneira clássica: existem dois sexos “possíveis” no nascimento de uma criança, ou seja, o tamanho do
espaço amostral é 2, e seus eventos são supostos distintos e equiprováveis. Daí que a P(masculino) =
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 83
P( E) lim fr ( E)
n
ou seja, a probabilidade de um evento E ocorrer, na próxima repetição do experimento, é
calculada como o limite da frequência relativa do evento, quando o número n de repetições
anteriores do experimento é muito grande ( n ).
xi, p(x)
1/2, ou 50%, que é um número bastante aproximado de 49% (percentual observado). Este confronto
entre as duas formas de calcular uma probabilidade, clássica ou frequentista, será muito utilizado nesta
parte de Testes Estatísticos.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 84
Alguns exemplos:
x 12 x 12 x
1. A VAD i é o número de ocorrências de
P( X xi ) p q
“Face 3” em 12 lançamentos de um dado
x
x 4,73xi e 4,73
P( x xi )
2. A VAD i é o número de requisições de
serviços de manutenção de computadores da
universidade no próximo mês (nos meses
xi !
anteriores, a média foi de 4,73 requisições)
x
P( x t0 ) 1 e0,0083 (t0 )
3. A VAD i é a duração da carga de baterias
de celular, em horas, para uma média de 120
horas informada pelo fabricante.
O estudo dos modelos de probabilidade não faz parte da programação do curso5. No entanto,
para prosseguirmos, é necessário conhecermos, com mais detalhes, um modelo chamado
Distribuição Normal de Probabilidades. Vamos a ele:
5
Caso seja de seu interesse, acesse o site do professor e faça o download da Apostila II – Introdução
ao Cálculo de Probabilidades.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 85
O software traça uma linha suave (polígono de frequência) sobre as colunas do histograma,
compensando as áreas sob a curva, de forma a “cobrir” todas as notas dos candidatos:
Tanto o aspecto do histograma quanto a curva de frequências indicam que as notas dos
candidatos se dispõem, muito aproximadamente, em uma distribuição chamada normal.
6
Abraham de Moivre (1667-1754), matemático francês.
7
Joham Carl Friedrich Gauss (1777-1855), matemático, físico e astrônomo alemão.
8
Os americanos chama a distribuição normal de “the bell curve”.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 86
1
f ( x) e ( x ) / 2
2 2
2
na qual é a média da distribuição da variável aleatória x, 2 é a variância da distribuição, e
e é a base dos logaritmos naturais, ou neperianos (e = 2,7182). A imagem da curva normal é
a seguinte:
Curva Normal
O tratamento matemático dessa função é muito trabalhoso, mas os valores desta integral são
tabelados. Como a distribuição normal é aplicada apenas para variáveis contínuas, os valores
da integral calculam a probabilidade de ocorrência de faixas (ou intervalos) desta variável. Por
exemplo, no caso dos candidatos do vestibular, dado que os resultados são normalmente
distribuídos:
52 70
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 87
52 80
80
22,39 81,61
Atenção para o exemplo (4): para uma variável com valores normalmente distribuídos, com
média X s , há uma probabilidade de 95% de seus valores pertençam ao
e desvio-padrão
intervalo de confiança de X 1,96 s . Na seção seguinte, a importância da distribuição
normal para a Estatística.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 88
1. O conjunto Universo é tratado de forma que cada um, e todos os seus elementos, têm a
mesma probabilidade de ser sorteado. Este processo é chamado de homogeneização do
Universo. Homogeneizar o Universo consiste em fazer com que cada um de seus elementos
tenha uma probabilidade de ser sorteado igual à de qualquer outro. Em outras palavras, é
tornar equiprovável este Universo.
Estatísticas
Média
X
Variância
s2
Desvio Padrão
s
Proporção p
9
O estudo das técnicas de amostragem não faz parte deste Curso.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 89
X X ou X X , X X
O intervalo X X
, X X é chamado intervalo de confiança do parâmetro (neste
exemplo, intervalo de confiança da média populacional). A margem de erro
é um valor que
calculamos, utilizando a medida de dispersão e o tamanho da amostra, e informações oriundas
Cálculo das
Amostragem estatísticas
Inferência
Cálculo dos
PARÂMETROS
Estatísticas Parâmetros
(na Amostra) (no Universo)
ω Ω
Média
X
2
Variância
s2
Desvio Padrão
s
Proporção p
Portanto, há uma correspondência entre as medidas amostrais (estatísticas) e as medidas
populacionais (parâmetros).
A margem de erro pode ser interpretada como a diferença existente entre as medidas de uma
Amostra e as do Universo de onde foi extraída. Cada estatística possui a sua margem de
erro. A margem de erro é função:
do tamanho da amostra, n;
X zcrit X zcrit
n n
onde z crit é tabelado segundo o nível de confiança com que estamos trabalhando.:
Média -- Distribuição t de Student
s s
X tcrit X tcrit
n n
A distribuição da estatística t de
Student depende do tamanho da
amostra (ou do conjunto). Então,
teremos infinitas curvas e
infinitos valores para t. A
expressão “graus de liberdade”
(letra grega phi), dado por
n 1 , será muito utilizada
na parte de testes paramétricos.
10
W. S. Gosset (1876-1937), químico, matemático e estatístico inglês, trabalhou muitos anos na
cervejaria Guiness. Por norma de sigilo da cervejaria, publicava seus trabalhos com o pseudônimo de
Studfent (estudante, em inglês).
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 92
Proporção A
p(1 p) p(1 p)
p z crit p z crit
n n
Variância 2
(n 1) s 2 (n 1) s 2
2
2 2
sup inf
Exemplo
11
Karl (Carl) Pearson (1857-1936), inglês, um dos mais influentes estatísticos do século XX.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 93
Média Populacional
s 12
IC ( ) X tcrit 61 1,984 61 2,381kg
n 100
Variância Populacional
111,01 2 194,33
Proporção Populacional
IC da Média IC da Proporção
7,2 20,8 %
58,62 63,38 kg
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 94
Uma Hipótese estatística é uma afirmativa que se faz sobre um parâmetro, a partir de
estatísticas de amostras coletadas. Por exemplo, pode-se fazer a hipótese de que a renda
familiar média de um bairro da cidade é igual a R$ 560,00. Escreve-se H o : R$560,00 .
H o (a letra “H”, maiúscula, com a letra “o” subscrita12) é o símbolo da hipótese nula, que é a
hipótese básica sobre a rernda familiar média do bairro (hipótese nula não quer dizer que a
hipótese “não tem valor”). Além da hipótese nula H o , podemos formular hipóteses
alternativas, como, por exemplo:
Hipóteses são rejeitadas ou aceitas (melhor dizendo, não rejeitadas). Para testar esta
n
hipótese, coletamos uma amostra de tamanho , de famílias deste bairro, e determinamos o
intervalo de confiança da média da variável “renda familiar”: No exemplo acima, quando
formulamos a hipótese nula H o : R$560,00 , estamos afirmando que o valor de
R$ 560,00 pertence ao intervalo de confiança IC da média populacional , estimada a partir
da média amostral X , para determinado nível de significância (ou nível de confiança
NC 1 ). Por exemplo, suponha que extraimos uma amostra de 400 domicílos deste bairro,
e calculamos sua média X = R$ 550,00 e desvio padrão
s = 180,00; o IC da média populaciona l 13
, para um nível de significância = 0,05 (ou
5%), é dado por:
s s
X tcrit X tcrit
n n
180,0 180,0
550,00 1,965 550,00 1,965
400 400
180,0
A margem de erro é dada por 1,965 17,7 (reais). Veja a figura a seguir:
400
12
Por analogia com a palavra “nulo”, muitos chamam de “h-zero”, o que é incorreto. A letra “o” vem do
inglês “original”, como adotado por Fisher (1935).
13
Alguns autores chamam de “Média verdadeira”, o que não é correto.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 95
R$ 560,00
95%
[ 532,3 567,7 ]
Na figura acima, pode-se notar que o valor de R$ 560,00 “cai” dentro da faixa
R$ 532,3 a R$ 567,7, que é o intervalo de confiança para a média populacional. Como foi visto
no capítulo 3, há uma probabilidade de 95% de que a média populacional esteja contida
neste intervalo – e uma probabilidade de 5% de que esteja fora deste intervalo.
O que acabamos de fazer foi um teste de hipótese, ou teste estatístico. Testes Estatísticos
são procedimentos que tem por objetivos:
b) verificar se existe diferença significativa entre dois ou mais estados de uma variável, ou
entre estados de duas ou mais variáveis.
Por exemplo, se uma variável aleatória pode evoluir ao longo do tempo; podemos estar
interessados se houve diferença significativa entre os estados inicial e final da variável (ou
seja, medidas desta variável tomadas no instante inicial e no instante final do período de
medição). Em outros casos, podemos estar interessados nas medidas desta variável, tomadas
no mesmo instante porém em locais diferentes. Ou, em outro caso, pesquisamos se existe
diferença entre valores de uma variável, relacionados a categorias, p. ex. poder aquisitivo e
estado civil dos elementos amostrais. Em situações mais complexas, podemos estar
interessados nas medidas da variável, tomadas em locais e tempos diferentes. Em qualquer
dos casos, existe uma série de rotinas estatísticas adequadas para estabelecer:
2º Em caso de haver esta diferença, estabelecer a comparação entre os estados (em termos
de maior ou menor).
Antes de continuarmos com este capítulo, é necessário elucidar este conceito: diferença
estatística significativa. Em Matemática, as igualdades são exatas, isto é, podemos sempre
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 96
dizer que 5 = 5, e nunca que 5 = 6. Em Estatística, como já foi visto na parte de inferência
estatística, a média de uma população pode ser qualquer número pertencente ao intervalo de
confiança. Daí que, por exemplo, se o intervalo de confiança da média de um conjunto de
medidas for de 20,5 2,3, os valores 20, 21 e 22 pertencem ao intervalo de confiança -
qualquer um deles poderia ser a média real do conjunto. Pertencendo ao mesmo intervalo de
confiança, eles são estatisticamente iguais, ou, melhor, dizendo, não existe diferença
estatística significativa entre eles. Por outro lado, neste mesmo conjunto, o valor 25 é
estatisticamente diferente, ou, melhor dizendo, existe uma diferença estatística significativa
entre o valor 25 e o intervalo de confiança da média - o valor 25 não pertence ao intervalo de
confiança. Podemos, então, fixar este conceito: não existe diferença estatística significativa
entre dois valores de uma variável se estes pertencem ao mesmo intervalo de confiança.
A Decisão Estatística decorre do que foi visto na seção anterior. Quando foi dito que duas
estatísticas de uma variável não são diferentes estatisticamente quando pertencerem ao
mesmo intervalo de confiança, temos que dizer que há uma probabilidade dos dois valores
não serem diferentes. Esta probabilidade é o nível de confiança.(lembre-se que o nível de
confiança é que determina o intervalo de confiança). Vamos dar um exemplo de como é isso,
na prática:
Exemplo Foi feita uma pesquisa de intenção de voto para o candidato A, no mês de maio.
Naquele mês, a amostra foi de 400 eleitores e, para um nível de confiança de 95%, inferiu-se
que a intenção de voto no candidato A era de 38%. A margem de erro da pesquisa foi, portanto
p(1 p ) ( 0,38)(0,62)
zc . 1,96. (1,96)(0,024) 0,048 ou 4,8%
n 400
Daí que a intenção de voto do candidato A deve estar, com uma probabilidade de 95%, entre
33,2 % e 42,8 %. Continuando este exemplo, imagine agora que, na mesma pesquisa, um
outro candidato, B, obteve 34% das intenções de voto. Existe diferença entre estes dois
candidatos? A resposta é que não existe diferença, estatisticamente falando, uma vez que a
votação do candidato B está dentro do intervalo de confiança da intenção de voto do candidato
A. A diferença matemática entre as intenções de A, 38%, e do candidato B, 34%, não é
estatisticamente significativa, sendo esta variação devida ao acaso14. Veja a ilustração a
seguir:
14
Esta é um outro conceito frequentemente adotado para o intervalo de confiança: uma região (um
intervalo) em que as diferenças das medidas em relação à média populacional (ou qualquer outro
parâmetro) são aleatórias, isto é, devidas unicamente ao acaso.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 97
= 38%
34%
33,2% 42,8 %
Intervalo de confiança de
Você deve estar pensando em termos de certeza: não existe diferença entre os candidatos, e
pronto. Não é bem assim. Lembre-se que adotamos o nível de confiança de 95%, e isto quer
dizer que estamos 95% confiantes da inexistência de diferença entre os candidatos. E que
existe uma probabilidade de 5% de que nossas conclusões sejam falsas.
A situação descrita acima (dois candidatos sem diferença estatística na intenção de voto) é dita
de empate técnico. Não se pode afirmar, neste momento, qual candidato está na frente da
corrida eleitora
O p- value
Nos últimos anos, disseminou-se na literatura científica, principalmente nas áreas da Psicologia
e das Ciências da Saúde, e nos pacotes estatísticos como o SPSS, a utilização de uma
estatística chamada p, ou p-value. O p-value é uma probabilidade, ou uma área sob a curva da
distribuição de probabilidades que está sendo usada no teste de hipóteses. Por exemplo, seja
a hipótese H o : 108 , que estamos testando, com uma amostra de
n = 144 elementos, com média X =113 e desvio padrão s= 22. Adotamos o nível de
confiança de 95% (nível de significância de 0,05), e a distribuição t de Student para o teste.
Calculamos o intervalo de confiança pela expressão
s s 22 22
X tcrit X tcrit , e 113 1,98 113 1,98
n n 144 144
X
t calc ,
s
n
e verificar qual é o p-value referente a este tcalc (o computador calcula este p-value) O novo
critério de decisão será:
/2 /2
Neste exemplo, o tcalc é igual a 2,727, e o p-value para este tcalc é = 0,007, que é menor do que
o de 0,05. Portanto, rejeita-se a hipótese nula de que o valor 108 pertença a esta amostra.
Como se verá, o SPSS (e outros programas) calculam o tcalc e deixam que comparemos o
p-value com o adotado. Então, o critério passa a ser:
Descriptives
Ou seja, são numericamente diferentes. O teste t irá verificar se são, também estatisticamente
diferentes.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 101
2,00
1,80
51
24 10
Estatura
89
1,60
1,40
Masculino Feminino
Sexo
Pela imagem do box- plot podemos observar que as medianas estão bem distantes e que há
um bom número de outliers nas estaturas dos individuos do sexo feminino. Estas discrepâncias
podem atrapalhar o teste.
Iremos agora, proceder ao teste. Antes, temos que verificar se a distribuição da variável
Estatura é normal, para que possamos testar suas médias utilizando o teste T de Student. A
verificação da normalidade é feita através do teste não paramétrico de Kolmogorov
Smirnov.
O caminho é:
Estatura
A significância assintótica bicaudal
N 100 (p) é igual a 0, 712, maior do que
Mean 1,6134 0,05, o que indica que a variável
Normal Parameters(a,b)
Std. Deviation ,14210 tem uma distribuição
Most Extreme Absolute ,070 aproximadamente normal.
Differences Positive Utilizaremos, portanto o teste t. O
,070
Negative -,060 caminho é o seguinte:
Kolmogorov-Smirnov Z ,700
Asymp. Sig. (2-tailed) ,712
a Test distribution is Normal.
b Calculated from data.
Coloque os valores 1 e 2
respectivamente nas janelas de
grupo 1 grupo 2.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 104
Clicando em
Std. Error
Sexo N Mean Std. Deviation Mean
Estatura Masculino 76 1,6597 ,11838 ,01358
Feminino 24 1,4667 ,10797 ,02204
Estes são os resultados do teste de Levene. Este teste verifica se as variâncias das
amostras são iguais utilizando a distribuição F de Snedecor. Neste exemplo, o valor
de F mostra uma significância (Sig.) igual a 0,103 > 0,05. Portanto as variâncias são
estatisticamente iguais e vamos ler os resultados na linha de cima do quadro.
Independent Samples Test
Estas são as células principais do quadro do output. A primeira célula mostra a estatística T
calculada para a diferença entre médias, igual a 7,107, para 98 graus de liberdade. A significância
bicaudal é igual a 0,000 << 0,05. Este resultado indica que há uma diferença estatisticamente
significativa entre as estaturas masculina e feminina.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 107
Dados adicionais, estes resultados são: Mean Difference, (diferença entre médias);
Std. Error Difference, (Erro padrão da diferença). 95% Confidence Interval of the
Difference, (Intervalo de confiança da diferença entre médias para o nível de
confiança de 95%).
Esta significância nos diz que existe uma diferença estatística significativa entre as médias das estaturas das duas amostras. Os indivíduos do sexo
masculino tem estatura numérica e estatisticamente maiores do que indivíduos do sexo feminino.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 108
Antes de realizar o teste, calculamos as estatísticas básicas das duas variáveis, utilizando a
rotina Analyze > Descriptive Statistics > Descriptive15:
Deslocamos os campos Peso [apresentação] e Peso após 3 meses [Peso 3m] da janela da
esquerda para a janela da direita:
15
Esta rotina foi apresentada no tutorial do Módulo 2, Medidas Estatísticas no SPSS.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 109
Clique em
Options
O output é o seguinte:
Descriptive Statistics
Assim, verificamos que, numericamente, houve um aumento na média dos pesos, de 69,9 kg
para 76,23 kg. O teste estatístico irá “dizer” se esta diferença é estatisticamente significativa,
ou seja, se este aumento foi “real”, não foi devido ao acaso.
O caminho é:
Passaremos as
variáveis cujos valores
serão comparados da
janela da esquerda para
a janela da direita,
utilizando o botão
No entanto, esta
passagem não é feita
de uma vez. Veja que,
quando a primeira
variável é selecionada,
o nome da variável
“desce” para o canto
esquerdo inferior da
caixa, sob o título
Variable 1. Clicamos na
segunda variável, e ela
também "desce", para a
posição inferior,
Variable 2.
Somente quando os
campos Variable 1 e
Variable 2 estão
preenchidos é que
utilizamos o botão
Paired Differences
95% Confidence
Interval of the
Difference
Std. Error
Mean Std. Deviation Mean Upper Lower t df Sig. (2-tailed)
Pair 1 Peso (apresentação) -
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000
Paired Differences
95% Confidence
Interval of the
Difference
Std. Error
Mean Std. Deviation Mean Lower Upper t df Sig. (2-tailed)
Pair 1 Peso (apresentação) -
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000
Estatísticas das diferenças: Mean ( média), Std. Deviation (desvio- padrão), Std. Error Mean ( Erro
padrão da média), e os limites inferior e (Lewer) e superior (Upper) do Intervalo de Confiança da
média das diferenças.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 113
Paired Differences
95% Confidence
Interval of the
Difference
Std. Error
Mean Std. Deviation Mean Lower Upper t df Sig. (2-tailed)
Pair 1 Peso (apresentação) -
Peso após 3 meses -6,330 3,467 ,347 -7,018 -5,642 -18,257 99 ,000
Resultados finais do teste: A estatística t calc (t) os graus de liberdade (df) e o p-value ( Sig(2-tailed))
O valor do p-value, 0,000, indica que a hipótese nula de igualdade entre as médias deve ser rejeitada, e que existe diferença significativa entre elas.
Podemos, então, observar e comparar os valores numéricos, concluindo que o peso após 3 meses é maior que o peso na apresentação (em termos de
média).
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 114
Preencha as janelas Dependent List e Factor List com os campos Peso e Faixa Etária:
Eis o output:
Descriptives
Pelos dados acima verificamos que há diferença numérica entre os valores das médias: quanto
maior a faixa etária, maior a média dos pesos. A ANOVA irá verificar se há diferença estatística
entre estes valores.
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 116
O caminho é:
Clique em e veja a
tela ao lado:
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 117
Escolhemos as rotinas de
comparação de Bonferroni, Scheffe
e Tukey.
Clicamos em
e o SPSS retorna à tela anterior.
Clicamos em . O SPSS
abre o seguinte output.
ANOVA
Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99
ANOVA
Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99
Na 2ª coluna, temos a soma dos quadrados (Sum of Squares) entre os grupos ( Between
groups),dentro dos grupos (wilhin groups) e total (Total) .
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 118
ANOVA
Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99
ANOVA
Peso (apresentação)
Sum of
Squares df Mean Square F Sig.
Between Groups 1688,107 2 844,054 5,920 ,004
Within Groups 13830,893 97 142,587
Total 15519,000 99
Então, precisamos dos resultados das comparações Post Hoc para verificar, em detalhe, estas
diferenças. No output a seguir, estes resultados:
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 119
Multiple Comparisons
Dependent Variable: Peso (apresentação)
Neste quadro as comparações Post- Hoc. O SPSS coloca um asterisco ao lado de cada grupo onde há diferença
Curso de SPSS – A.F. Beraldo Capítulo III Testes Paramétricos 120
Peso (apresentação)
Esté é o quadro dos subgrupos com estatísticas iguais. O SPSS localiza as faixas etárias I e II
no mesmo subconjunto (subset 1), indicando não existir diferença estatística entre elas. Já a
faixa etária III é localizada em outro subconjunto (subset 2), indicando que existe diferença
significativa entre as medidas do Peso entre esta faixa etária e as duas primeiras.
Testes Não
Paramétricos