Você está na página 1de 7

Estatística (como resolver os exercícios):

Descrição da amostra:
 Analisar- estatísticas descritivas- frequências- escolher as variáveis- escolher as estatísticas;
 Como escolher as estatísticas:
o Para variáveis nominais: frequência e percentagem
o Para variáveis ordinais: moda; mediana; mínimo e máximo;
o Para variáveis quantitativas: moda; mediana; media; desvio padrão; mínimo e máximo;

Testes de associação:

Teste de correlação de Pearson:


 Aplica-se quando queremos analisar uma correlação entre 2 variáveis
intervalares/escala/quantitativas;
 Usamos o sig. para saber se existe correlação e o r (valor de correlação) para saber as características
desta
 É preciso valor de correlação (r) e valor do p;
 Dizer se a correlação é positiva ou negativa e se é baixa ou alta;
 Apresentar: (r = valor da correlação de Pearson, p = valor de p);
 Colocar a nota sempre que tem correlação/asterisco (*p<.05, **p<.01)
1º- Analisar- correlacionar- bivariada- selecionar variáveis que quero avaliar e Spearman;
2º- Avaliar o valor do sig. (p): se for superior a .05, não há correlação, se for inferior a .05 há correlação
3º - Verificar se a relação é positiva ou negativa (1ª linha – pearson correlation) e a sua intensidade
 Ex. Foi utilizado o teste de correlação de Pearson. Os resultados, conforme apresentados na tabela __
demonstram uma relação positiva/negativa e moderada/__ (r =____, p___)
 Deve-se especificar a relação no texto
o Inferior a 0.20 – muito baixa
o Entre 0.20 e 0.40 – baixa
o Entre 0.40 e 0.70 – moderada
o Entre 0.70 e 0.90 – alta
o Superior a 0.90 – muito alta
Teste de correlação de Spearman:
 Aplica-se quando queremos analisar a corelação entre 2 variáveis ordinais ou 1 variável ordinal e 1
intervalar(escala);
 É preciso valor de correlação de Spearman (rs) e valor do p;
 Dizer se é positiva ou negativa e se é baixa ou alta;
 Apresentar: (rs = valor da correlação de Spearman, p = valor de p);
 Colocar a nota sempre que tem correlação/asterisco (*p<.05, **p<.01);
1º- Analisar- correlacionar- bivariada- selecionar variáveis que quero avaliar e Spearman;
2º- Avaliar o valor do sig. (p): se for superior a .05, não há correlação, se for inferior a .05 há correlação
3º - Verificar se a relação é positiva ou negativa (1ª linha – spearman correlation) e a sua intensidade
 Ex. Foi utilizado o teste de correlação de Spearman. Os resultados, conforme apresentados na tabela
__ demonstram uma relação positiva/negativa e moderada/__ (rs =____, p___)
 Deve-se especificar a relação no texto
o Inferior a 0.20 – muito baixa
o Entre 0.20 e 0.40 – baixa
o Entre 0.40 e 0.70 – moderada
o Entre 0.70 e 0.90 – alta
o Superior a 0.90 – muito alta
*substituir o r por rs

Teste Qui- Quadrado:


 Quando queremos analisar a relação entre 2 variáveis nominais ou entre 1 variável nominal e 1
ordinal;
 É preciso o valor do qui-quadrado (c2), graus de liberdade (gl) e valor do p. [c2(gl) =valor, p =valor]
1º- analisar- testes não paramétricos- caixa de diálogo- qui-quadrado;
2º- ver o valor de p, se for menor que .05, há diferença.

Testes de diferenças paramétricos:


Teste t-student:
 Usa-se quando queremos analisar as diferenças variáveis dependente- intervalar (escala) e para
comparar 2 grupos;
 A variável de teste é a dependente e a de agrupamento é a independente
 São precisos os valores de: media, desvio padrão, t; graus de liberdade e p.
 Apresentamos assim: [t (gl)=valor de t, p = valor de p];
1º- analisar- comparar médias- teste T de amostras independentes- escolher as variáveis- definir os
grupos;
2º- verificar o valor de p (sig.) no teste de amostras independentes, se for inferior a .05, há diferença
estatisticamente significativa.
 Ex. Utilizando o teste t de student pra estudar as diferenças de ___ em função do sexo (ex.),
verificamos pontuações mais elevadas em ___ (M=__,DP=__) do que em ___ (M=__,DP=__).
As diferenças encontradas são/não são estatisticamente significativas [t(valor de gl)=valor de t, p
=___].

ANOVA:
 É utilizado quando temos variáveis quantitativas/intervalar/escala para comparar 3 ou mais grupos,
1º- Analisar- comparar médias- ANOVA- definir variáveis- posteriori: Gabriel e tamanhe- opções:
descritivas e homogeneidade (levene);
2º- Analisar a tabela anova e verificar o valor do sig., se for superior a .05 não há diferenças e o teste
acaba, se for inferior a .05 há diferenças;
3º- verificamos a tabela de descritivas para retirar o valor da M e DP de cada grupo;
4º- teste levene para verificar o sig na primeira linha. Se for superior a .05 analisamos o teste
Gabriel, se for inferior a .05 analisamos Tamhane para verificar entre que grupos é que as diferenças
são significativas (usamos nestes quadros o DM – diferença média- e o p no tesxto);
5º- comparações múltiplas de acordo com o teste que escolhi no passo anterior.
 Ex. Foi utilizado o teste ANOVA para analisar as diferenças nos motivos em função do estado civil
dos pais. Como se percebe na tabela abaixo, existe uma diferença estatisticamente significativa na
dimensão do “Aborrecimento” (F=3.252, p=.045) e na dimensão “Celebrar” (F=6.344, p=.002).
Sendo as pontuações médias superiores no estado civil “casado” na dimensão “aborrecimento” (M=
2.08, DP=1.20), e as pontuações médias superiores na dimensão “celebrar” verificam-se, também, no
estado civil “casado” (M= 2.44, DP= 1.43). Com recurso ao teste de comparações múltiplas
Tamhane, percebemos que as diferenças na dimensão “celebrar” se verificam entre os estados civis
casado e viúvo (DM=.801, p=.002), sendo que na dimensão
“aborrecimento” não se conseguem verificar diferenças estatisticamente significativas entre os
estados civis recorrendo ao teste de comparações múltiplas (p>.05).
Testes de diferenças não paramétricos:
Teste U de Mann-Whitney:
 Quando temos variáveis dependentes ordinais para comparar 2 grupos;
 Precisamos dos valores de U, p, OM (posto médio);
 Para apresentar as diferenças (U= valor de U, p = valor de p).
1º- analisar- testes não paramétricos- caixa de diálogo- 2 amostras independentes- variáveis de teste
(dependentes)- variáveis de agrupamento (definir);
2º- estatística de teste (tabela) e verificar o sig., se for superior a .05- não há diferença; se for inferior
a .05- há diferença.
3º- havendo diferença, ou seja, inferior a .05, temos de ver qual é o grupo diferente na tabela de
postos no posto médio.
 Ex. Utilizando o teste U de Mann-Whitney foi possível perceber as diferenças estatisticamente
significativas em função do género (U=__, p=___), encontrando-se um valor de _ superior em __
Teste de Kruskal-Wallis (c2):
 Quando temos variáveis dependentes ordinais para comparar 3 grupos;
 Para variáveis dependentes ordinais;
 para variáveis independentes nominais;
 apresentar a diferença significativa: (c2 = valor do qui-quadrado, p = valor do p);
 diferença entre grupos: (U = valor de U, p =valor de p);
1º- Analisar- testes não paramétricos- caixa de diálogo- K amostras independentes;
2º- colocar variáveis de teste e de agrupamento;
3º- definir amplitude da V.I (mínimo e máximo)
4º- ver na tabela “estatística de teste” se há diferença estatisticamente significativa (se o valor de p
for superior a .05 não há diferença; se o valor de p for inferior a .05, há diferença). Se houver
diferença:
5º- Analisar tabela estatística descritivas (MO);
6º- Analisar estatística inferencial (valor de c2(qui-quadrado) e p (significância));
7º- Para ver entre que variáveis há diferença estatisticamente significativa vamos recorre ao teste de
Mann-Whitney com correção de bonferroni; como
- Como calcular a correção de bonferroni:
à Identificar todas as combinações possíveis;
à dividir o valor de p pelo nº de combinações possíveis: .05/nº de combinações;
à fazer no spss o teste de Mann-Whitney para cada combinação para ver o valor de p
se é igual ao que calculamos;
Análise Fatorial Exploratória
 É utilizada para analisar a estrutura de um conjunto de variáveis pois permite explorar uma estrutura
subjacente a um padrão de correlações entre um número de variáveis. Não testa hipóteses, explora a
possibilidade de um fator subjacente às variáveis
 Utiliza-se com variáveis pelo menos ordinais com distribuição normal e uma relação razoavelmente
linear
1º Analisar-data reduction – fator
2º Selecionar os itens do teste
3º Descritivas (selecionar initial solution e KMO na Bartlett’s test os spheriticy)
4º Extração (selecionar a correlação matrix e indicar o número de fatores do modelo original a testar)
5º Rotação (selecionarr varimax e rotated solution)
6º Opções (selecionar exclude cases listwise e os dois da coefficient display format)
 No output começar pelo teste KMO e o teste de Barlett de esfericidade
o O KMO avalia a adequação da amostra para a analise fatorial e a variância nos dados que
pode ser explicada pelos fatores
 Inferior a .5 pobre
 .6 aceitável
 .7 bom
o O barlett indica se os dados permitem alcançar fatores se p for inferior a .05 (linha sig.)
 Se for superior a .05 não continuar
 Se for inferior a .01 avalia-se outros indicadores
 Na tabela das comunalidades explica-se o quanto da variância em cada variável é explicada na
análise. Se a variância for baixa, deve-se considerar a eliminação da variável.
 Na tabela Componente Rotativa Matrix cada coluna apresenta o valor de saturação de cada variável
no componente
 Ex. Os dados foram analisados com o recurso à análise fatorial exploratória com o método de
componentes principais e a rotação varimax. Os valores de KMO sugere que os dados são adequados
à AF e permitem encontrar X fatores com valor superior a 1. O primeiro componente integra os itens
____ e diz respeito a …
Regressão Linear Múltipla Standard
1º Analisar - Regressão - Linear
2º Colocar variáveis dependentes/ endógenas/ resultado e independentes/ exógenas/ preditoras
3º Escolher método: Inserir/Enter (quando queremos avaliar todos os preditores) ou estatístico/
Stepwise (quando queremos saber quais os preditores mais fortes e os que mais explicam certa
variável)
1º Tabela Anova (diz-nos se o modelo é ou não significativo, se não for quer fizer que os preditores
não são explicativos) - Analisar o sig.
2º Tabela de Resumo do modelo (diz-nos qual a qualidade global do modelo)
I – Valores de R: Valores de R com menos de .5 são sofríveis/ inadequados, valores de R com
mais de .5 são aceitáveis. Quanto mais próximo de 1, maior o ajustamento global do modelo e a sua
validade.
II- Valores de Rquadrado: Avalia a variância da variável dependente e o quanto esta é
explicada por aqueles preditores. É um valor absoluto, não depende do tamanho da amostra
3º Tabela de Coeficientes (diz-nos quanto é que, ao aumentar 1 ponto na V.I aumenta a V.D. e quais
são as variáveis significativas (sig.)
I – Valores de B: As contas são feitas em valores numéricos. Quanto é que ao aumentar 1
ponto na V.I. aumenta o valor de B na V.D.
II- Valores de Beta: As contas são feitas em desvio-padrão. Quanto é que 1 desvio-padrão se
reflete na V.D.
III – Valores de Sig. - Avalia se a V.I. é significativa ou não. As que não significativas
excluem-se para melhorar o modelo (Stepwise). Quanto mais alto o sig. Mais baixo o B e o
Beta
Regressão Linear Múltipla - Stepwise
(precisamos do output do anova – relatamos sempre o último modelo -, o resumo do modelo e os
coeficientes)
Para avaliar os preditores mais fortes da intenção para consumir foi utilizada a regressão linear
múltipla, com o método Stepwise. De acordo com os dados foi possível encontrar um modelo significativo
(Z = 104.45, p<.001), que integra como preditores a autoeficácia e a norma social para o consumo. O
modelo tem um ajustamento global aceitável (R = .744) que explica 55.4% da variância da intenção de
consumir. Os coeficientes podem ser encontrados na tabela seguinte (Tabela _).

!! (o p é o da autoeficácia pois é o que explica mais a variância)

Você também pode gostar