Você está na página 1de 5

MINI-CURSO DE ESTATÍSTICA COM UTILIZAÇÃO DO PROGRAMA SPSS

(DEZEMBRO DE 2006)

RESUMOS

1. O SPSS

2. Tipos de variáveis

3. Recodificação e cálculo de variáveis

3.1. Recodificação de variáveis


Transform »» Recode »» Into same variables / Into different variables

3.2. Cálculo de variáveis


Transform »» Compute

4. Medidas de tendência central e de dispersão


Analyse »» Descriptive Statistics »» Frequencies »» Statistics
Caracterizam a amostra
Utilizadas para variáveis cardinais (e ordinais...)

4.1. Medidas de tendência central


Caracterizam o valor central ou mais frequente da variável em estudo.

4.1.1. Média
Soma de todas as observações da variável / n
Apenas para variáveis cardinais (e ordinais...)

4.1.2. Mediana
Após ordenação das observações, há pelo menos 50% ≤ e 50% ≥ à mediana
Apenas para variáveis numéricas

4.1.3. Moda
Valor mais frequente da variável na amostra
Apenas para variáveis discretas (ou tornadas discretas, p/ex. através de arredondamentos)

1/5
4.2. Medidas de dispersão
Caracterizam a dispersão da amostra em torno das estatísticas de tendência central.

4.2.1. Variância
4.2.2. Desvio padrão (√ da variância)

4.3. Percentis
Dividem a amostra ordenada por ordem crescente em múltiplos de ordem 100%
Apenas para variáveis cardinais (ou ordinais...)
P25 = 1º quartil (Q1) P50 = 2º quartil (Q2) = Mediana P75 = 3º quartil (Q3)
• Valores dos percentis extremos (mínimo e máximo) e os quartis:
Analyse »» Descriptive Statistics »» Frequencies »» Statistics
• Criação de variáveis em que se divide em percentis (ou quartis, ou...) uma já existente:
Transform »» Visual Bander

5. Frequências
Analyse »» Descriptive Statistics »» Frequencies
Utilizam-se para variáveis nominais (e ordinais)

5.1. Frequências absolutas


5.2. Frequências relativas
5.3. Frequências acumuladas

6. Análise de sub-grupos da amostra

6.1. Split file Data »» Split file


6.2. Select cases Data »» Select cases

7. Diferentes tipos de testes estatísticos

7.1. Testes independentes e emparelhados


Independentes – Sem relação ou factor unificador entre os elementos das duas amostras (ex: pesos
no grupos A e B)
Emparelhados – As amostras usam os mesmos sujeitos experimentais, tendo por base um critério
unificador dos elementos das duas amostras (ex: peso no grupo A nos momentos 1 e 2)

7.2. Testes paramétricos e não-paramétricos


Paramétricos – exigem que a forma da distribuição amostral seja conhecida (Normal,...)
Não-paramétricos – não exigem o conhecimento da distribuição amostral

2/5
7.2.1. O teste de Kolmogorov-Smirnov
Verificar (por exemplo) a normalidade das distribuições das variáveis cardinais.
Usado para amostras reduzidas
Analyze »» Nonparametric Tests »» 1-Sample K-S

7.2.2. Os coeficientes de simetria e de achatamento

Analyze »» Descriptive Statistics »» Frequencies »» Statistics (Distribution: skewness, kurtosis)


Compara o achatamento e a simetria da distribuição com a Normal; usados para amostras maiores
Valores aceitáveis para considerar distribuição próxima da Normal: -0,5 a 0,5 (em ambos).

8. Intervalos de confiança e nível de significância crítico para rejeição da hipótese nula

IC: intervalo dentro do qual se encontra o resultado para a população, com determinado grau de
certeza. NSCRHN (p): medida do grau de “certeza” da conclusão que tiramos. O mais habitual é 0,05
(rejeitada a hipótese nula quando p<0,05), que nos dá um grau de certeza semelhante ao do IC 95%.

9. Grau de associação entre variáveis

Quantificar o grau de associação entre pares de variáveis


Analyze »» Correlate »» Bivariate

9.1. Coeficiente de correlação de Pearson


9.2. Coeficiente de correlação de Spearman

Pearson: -1 ≤ R ≤ 1 (corr. paramétricas) Spearman: -1 ≤ ρ ≤ 1 (corr. não-paramétricas).

Não-normal
CORRELAÇÃO Normal
(ou Ordinal)

Normal Pearson
Spearman
Não-normal
(ou Ordinal)

R2 (coeficiente de determinação) – Mede a proporção de variação de uma variável que é explicada


pela variação da outra; não diz nada sobre a direcção da relação.

|R|| ou |ρ| Correlação


[0,9; 1] muito forte
[0,75; 0,9[ forte Refª: FINNEY DJ: Statistics for biologists.
[0,5; 0,75[ moderada London: Chapman and Hall, 1980
[0,25; 0,5[ fraca
[0,0: 0,25[ muito fraca

3/5
10. Comparação de médias de duas amostras (testes paramétricos)

10.1. Teste T de student para amostras independentes


Analyze »» Compare Means »» Independent-Samples T Test
Comparar médias de 2 amostras independentes
Teste de Levene (igualdade de variâncias) → quando sig ≥ 0,050 significa que as variâncias das 2
amostras não diferem significativamente (valores da linha de cima)

10.2. Teste T de student para amostras emparelhadas


Analyze »» Compare Means »» Paired-Samples T Test
Comparar médias de 2 amostras emparelhadas

11. Comparação de ordens médias de duas amostras (testes não-paramétricos)

11.1. Teste de Mann-Whitney


Analyze »» Nonparametric Tests »» 2 Independent Samples
Comparar ordens médias de 2 amostras independentes.

11.2. Teste de Wilcoxon


Analyze »» Nonparametric Tests »» 2 Related Samples
Comparar ordens médias de 2 amostras emparelhadas

12. Comparação de três ou mais amostras


• ANOVA: Analyze »» Compare Means »» One-Way ANOVA
• GLM: Analyze »» General Linear Model »» Repeated measures
• Kruskal-Wallis: Analyze »» Nonparametric Tests »» K Independent Samples
• Friedman: Analyze »» Nonparametric Tests »» K Related Samples

13. Dependência entre variáveis


13.1. Teste do Qui-quadrado
13.2. Teste de Fisher

Analyze »» Descriptive Statistics »» Crosstabs (qui-quadrado em “Statistics”)


Verificar independência entre pares de variáveis.
“b. 1 cells (5,0%) have expected count less than 5. The minimum expected count is 1,94.” → Caso
seja >20% ou <1, não se verificam as condições de aplicabilidade do teste qui-quadrado/Fisher (n.a.)

4/5
Nominal
VARIÁVEIS
2 casos 3 ou mais
Independentes T-student (ind.) ANOVA
Normal
Emparelhadas T-student (emp.) GLM
Não-normal Independentes Mann-Whitney Kruskal-Wallis
(ou Ordinal) Emparelhadas Wilcoxon Friedman
Nominal Fisher / Qui-quadrado (crosstabs)

14. Apresentação de resultados

14.1. Número de casas decimais


14.2. Número de algarismos significativos
• Usar o nº de casas decimais que corresponde à precisão da medida ou da resposta.
• Somas e subtracções: resultados com o nº de casas decimais da parcela com menos c.d.
• Multiplicações e divisões: resultados com o nº de a.s. da parcela com menos a.s.
• Dp com 2 algarismos significativos e média com o mesmo nº de casas decimais que o dp.

14.3. Arredondamentos
• Algarismo seguinte < 5 »» arredondar por defeito (“para baixo”)
• Algarismo seguinte > 5 (ou 5 seguido de algarismos ≠ 0) »» arredondar por excesso (“para cima”)
• Algarismo seguinte = 5 (seguido de 0) »» “regra do par”

5/5