Você está na página 1de 50

FPCE | Universidade do Porto

EAP II | LPSI109

Testes t de Student

Patrício Costa | Filipa Vieira | Marisa Matias | Susana Coimbra


2022/2023

1
Análise exploratória de dados

Avaliar a normalidade recorrendo:


 ao histograma e ao diagrama de extremos e quartis

 às medidas de assimetria e curtose e aos seus z-scores

 aos testes de Shapiro-Wilk e Kolmogorov-Smirnov (Lilliefors)

Avaliar a homogeneidade de variâncias através do teste de Levene

2
Análise exploratória de dados

Histograma

3
Análise exploratória de dados

Diagrama de caule e folhas

height in cm Stem-and-Leaf Plot

Frequency Stem & Leaf

8,00 15 . 22222344
28,00 15 . 5555555566667777777777788889
35,00 16 . 00000000000001122333333333333444444
56,00 16 . 55555555555555555555556666666777888888888888888888888899
36,00 17 . 000000000000000001222223333333333344
16,00 17 . 5555666678888899
25,00 18 . 0000222222223333333333344
14,00 18 . 55556778888899
3,00 19 . 113

Stem width: 10
Each leaf: 1 case(s)

4
Análise exploratória de dados

Boxplot

Outliers boundaries (atypical cases):


- Lower = Q1-1.5 x IQR
- Over= Q3+1.5 x IQR

The lower boundary is the lowest


value above Q1 - 1.5 x AIQ
The upper boundary is the highest
value below Q3 + 1.5 x AIQ

Extreme Outliers (3x)

IQR - Interquartile Range = Q3 - Q1

5
Distribuições de Probabilidade

Distribuição Normal

(a) (b)

(c)

6
Distribuições de Probabilidade

http://en.wikipedia.org/wiki/Normal_distribution

Fonte: http://en.wikipedia.org/wiki/File:Boxplot_vs_PDF.png

7
Medidas relativas ao formato da distribuição

Medida de assimetria
 Para além das medidas de localização e dispersão, é relevante estudar a assimetria (ou

enviesamento) dos dados

 O método mais simples para medir o grau de assimetria de uma distribuição consiste

na comparação das três medidas de tendência central – média, mediana e moda


 As = 0  distribuição Simétrica

 As > 0  Assimetria Positiva (Prolongamento da curva para a direita)

 As < 0  Assimetria Negativa (Prolongamento da curva para a esquerda)

Se Moda = Mediana = Média


distribuição simétrica

Se Moda < Mediana < Média


distribuição assimétrica positiva

Se Moda > Mediana > Média


distribuição assimétrica negativa
Imagem: http://experimentaltheology.blogspot.com/2012/03/central-tendency-in-skewed.html

8
Medidas relativas ao formato da distribuição

Medida de achatamento ou curtose


 Curtose - grau de achatamento de uma distribuição

 A curtose dá-nos uma indicação sobre a intensidade das frequências na vizinhança

dos valores centrais


 K = 0  Mesocúrtica (curva normal, em forma de sino)

 K > 0  Leptocúrtica (mais pontiaguda, adelgaçada do que a normal; as suas caudas são

mais “compridas” do que a normal)

 K < 0  Platicúrtica (mais achatada do que a normal, as suas caudas são mais “curtas” do

que a normal)

9
Análise exploratória de dados

Testes de normalidade

Pela análise da significância rejeitamos a hipótese nula para os dois testes efetuados (p<.001).
Assim sendo, podemos concluir que a distribuição da variável altura difere significativamente de uma
distribuição normal.

However, when dealing with large samples, it is better to analyze the shape of the distribution instead of using formal
tests because the normality distribution hypothesis is more likely to be rejected with large samples even when the
deviation is slight Tabachnick and Fidell (2001).

The Shapiro-Wilk Test is more appropriate for small sample sizes (< 50 samples), but can also handle sample sizes as large
as 2000.
https://statistics.laerd.com/spss-tutorials/testing-for-normality-using-spss-statistics.php

10
Análise exploratória de dados

2,463 -1,831

A rough measure of the standard error of the:


skewness is 6Τ
𝑛

kurtosis is 24Τ
𝑛
where n is the sample size.

The original kurtosis value is sometimes called kurtosis (proper). Most of the statistical packages such as SPSS provide “excess” kurtosis (also
called kurtosis [excess]) obtained by subtracting 3 from the kurtosis (proper).

Mishra, P., Pandey, C. M., Singh, U., Gupta, A., Sahu, C., & Keshri, A. (2019). Descriptive statistics and normality tests for statistical
data. Annals of cardiac anaesthesia, 22(1), 67.

11
Análise exploratória de dados

Avaliação da assimetria e curtose


 Considerar um limite conservador de ± 0,5 (para assimetria ou curtose) como

indicador de normalidade (por exemplo, Hair et al., 1998; Runyon, Coleman, &
Pittenger, 2000).

 Uma distribuição é aproximadamente normal se a assimetria ou curtose (excesso) dos

dados estiver entre - 1 e + 1.

 Schumaker & Lomax (2004): |sk| e |ku|  2 não são problemáticos;

12
Análise exploratória de dados

Avaliação dos z-scores de assimetria e curtose


 n <50, z value ± 1.96 are sufficient to establish normality of the data.[1]

 50≤ n <300, z-value ± 3.29, conclude the distribution of the sample is normal.[2]

 n >300, normality of the data is depend on the histograms and the absolute values of

skewness and kurtosis. Either an absolute skewness value ≤2 or an absolute kurtosis


(excess) ≤4 may be used as reference values for determining considerable
normality.[2]

[1] Ghasemi A, Zahediasl S. Normality tests for statistical analysis: A guide for non-statisticians. Int J Endocrinol Metab 2012;10:486-9.
[2] Kim HY. Statistical notes for clinical researchers: Assessing normal distribution (2) using skewness and kurtosis. Restor Dent Endod 2013;38:52-4.

13
Análise exploratória de dados

Testes de normalidade e de homogeneidade de variâncias

Analyze → Descriptive Statistics → Explore → Plots → Normality plots with tests

14
Análise exploratória de dados

15
Análise exploratória de dados

Estatísticas para diferentes grupos

16
Análise exploratória de dados

Testes de normalidade para diferentes grupos

Testes de homogeneidade de variâncias

Pela análise dos outputs podemos concluir que as variâncias dos dois grupos são homogéneas (p=.269),
mas a sua distribuição difere significativamente de uma distribuição normal (p<.05, nos dois testes
efetuados).

17
Testes t de Student para comparação de médias

Os testes t de Student permitem testar hipóteses sobre médias para:


 One sample

 Independent samples

 Paired-samples

18
Testes t de Student para comparação de médias

Uma amostra
O teste t para uma amostra aplica-se quando se pretende testar se a média da população
assume um determinado valor, ou dito de outra forma, se uma dada amostra provém de
um universo de uma dada média.

As hipóteses:

H0 : μ = μ0

H1 : μ ≠ μ0 , μ < μ0 ou μ > μ0

19
Testes t de Student para comparação de médias

Uma amostra
Exercício: Realizou-se um estudo para saber se o interesse pela Estatística dos estudantes
do curso de Psicologia da FPCEUP é igual ao dos estudantes das restantes universidades
do País, cujo interesse médio é, numa escala de 0 a 20, de 14,3.

Amostra = 26

Média = 13,12

Desvio padrão (corrigido) = 3,84

20
Testes t de Student para comparação de médias

Uma amostra

Fases de um teste de hipóteses


1. Definição das hipóteses

As hipóteses são:

H0 : μ = 14,30

H1 : μ ≠ 14,30

21
Testes t de Student para comparação de médias

Uma amostra
Fases de um teste de hipóteses
2. Especificação da estatística de teste

x  0
tobtido  graus de liberdade -
s/ n gl
(no SPSS - df) = n - 1

s
sx  erro padrão da média
n

22
Testes t de Student para comparação de médias

Uma amostra

Fases de um teste de hipóteses


3. Definição da regra de decisão
 Nível de significância =  = 0,05

 Critério para rejeitar H0

to  (t1 / 2,n 1  t0,975, 25  2,06)

não é rejeitada

Região de
não rejeição

23
Testes t de Student para comparação de médias
Uma amostra
Fases de um teste de hipóteses
4. Cálculo da estatística de teste e tomada de decisão

x   o 13,12  14,30  1,18


tobtido     1,567
s/ n 0,753 0,753

Como o tobtido =1,567 < tcrítico (tabelado) =


2,06

Não se rejeita H0 - logo podemos dizer que


s 3,84 não existem diferenças significativas entre
sx    0,753 as médias
n 26
erro padrão da média; no SPSS - Std. Error Mean

24
Effect size
 An effect can be the result of a treatment revealed in a comparison between groups (eg., treated
and untreated groups) or it can describe the degree of association between two variables (treatment
dosage and health). An effect size refers to the magnitude of the result as it occurs, or would be
found, in the population. Although effects can observed in the artificial setting of a laboratory or
sample, effect sizes exist in the real world.

 The estimation of effect sizes is essential to the interpretation of a study’s results.

 In the 5th edition of its Publication Manual, the American Psychological Association APA identifies
“failure to report effect sizes” as one of the seven common defects editors observed in submitted
manuscripts. To help readers understand the importance of a study’s findings, authors are advised
that “it almost always necessary to include some index of effect” (APA 2001: 25). Similarly, in its
Standards for Reporting, the American Educational Research Association (AERA) recommends the
use of statistical results should be accompanied by an effect size and “a qualitative interpretation of
the effect” (AERA2006:10).
Ellis, P. D. (2010). The essential guide to effect
sizes: Statistical power, meta-analysis, and the
interpretation of research results. Cambridge, UK:
Cambridge University Press.

25
Effect size
Two families of effect sizes:
 The d family: assessing the difference between groups

 The r family: measuring the strength of a relationship

Cohen (1988) hesitantly defined effect sizes as "small, d = .2," "medium, d = .5," and "large, d = .8",
stating that "there is a certain risk in inherent in offering conventional operational definitions for
those terms for use in power analysis in as diverse a field of inquiry as behavioral science" (p. 25).

Escrita dos resultados cf. APA (mais completo!)


Os elementos chave que devem ser apresentados são: o nome do teste utilizado, o objetivo do teste, o valor do t, os
graus de liberdade (gl), o valor da probabilidade (significância) ,a média e desvio-padrão e o valor de d de Cohen ou
g de Hedges)

[M = Média, DP= Desvio padrão; t(Graus de liberdade) = Estatística t, p= Valor da significância, d= valor da magnitude do efeito].
Nota: As estatísticas devem ser apresentadas a itálico ou sublinhado

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2ed).
Hillsdale, NJ: Lawrence Erlbaum Associates, Publishers.

26
Testes t de Student no SPSS

27
Testes t de Student no SPSS

Uma amostra

Comandos SPSS:
ANALYZE
COMPARE MEANS
One-Sample T Test

28
Testes t de Student no SPSS

Uma amostra

Como p < 0,05, rejeito H0

Effect size
Cohen’s d = Mean difference divided by
the standard deviation of the sample

Analise do output:
- Se Sig (2-tailed)  , existem diferenças significativas entre as médias
- Se Se Sig (2-tailed) >  não existem diferenças significativas entre as médias.
 - Erro tipo I – Probabilidade de Rejeitar H0 quando H0 é verdadeira (habitualmente  = 0,05)

29
Testes t de Student para comparação de médias

Duas amostras emparelhadas ou correlacionadas


O teste t para amostras emparelhadas (ou medidas repetidas) utiliza-se quando o mesmo
grupo de sujeitos (casos) é analisado duas vezes, antes e depois de um tratamento ou
intervenção; ou em dois grupos diferentes de sujeitos (casos) quando existe uma
característica em comum pela qual podem ser comparados.

As hipóteses são:

H0 : μd = 0

H1 : μd ≠ 0

d = X1i – X2i (diferença de valores entre cada par de observações)

30
Testes t de Student para comparação de médias

Duas amostras emparelhadas ou correlacionadas

Exercício: Foram inquiridos 90 estudantes curso de Medicina da ECS-UM


relativamente às horas gastas semanalmente a estudar e a ver televisão. Será
que podemos dizer que a média de horas gastas em cada uma das atividades é
idêntica.

Estatísticas Horas de estudo Horas a ver televisão


Amostra 90 90

Média 11,81 8,91


Desvio padrão (corrigido) 2,440 2,529

M das diferenças 2,90


DP das diferenças 4,949

31
Testes t de Student para comparação de médias

Duas amostras emparelhadas ou correlacionadas


Fases de um teste de hipóteses
1. Definição das hipóteses

As hipóteses são:

H0 : μd = 0

H1 : μd ≠ 0

d = X1i – X2i (diferença de valores entre cada par de observações)

32
Testes t de Student para comparação de médias

Duas amostras emparelhadas ou correlacionadas


Fases de um teste de hipóteses
2. Especificação da estatística de teste

Dx Dx  x A  xB
t obtido =
sD x graus de liberdade - gl
(no SPSS - df) = n - 1

n
sD   D  Dx 
2

s Dx  SD  i 1
i

n n 1
erro padrão da diferença de médias desvio padrão da diferença de médias

33
Testes t de Student para comparação de médias

Duas amostras emparelhadas ou correlacionadas


Fases de um teste de hipóteses
3. Definição da regra de decisão
 Nível de significância =  = 0,05

 Critério para rejeitar H0

to  (t1 / 2;n 1  t0,975;89  1,99)

não é rejeitada

Região de
não rejeição

34
Testes t de Student para comparação de médias

Duas amostras emparelhadas ou correlacionadas


Fases de um teste de hipóteses
4. Cálculo da estatística de teste e tomada de decisão

Dx  xH _ Est  xH _ Tv  11,81  8,91  2,90

Dx 2,90 Como o tobtido =5,559  tcrítico (tabelado) = 1,99


tobtido =   5,559
sD x 0,522 Rejeitamos H0 - logo podemos dizer que existem
diferenças significativas entre as médias

sD 4,949   D  Dx 
i
2

2180,1
s Dx    0,522 SD  i 1
  4,949
n 90 n 1 89
erro padrão da diferença de médias desvio padrão da diferença de médias

35
Testes t de Student no SPSS

Duas amostras emparelhadas ou correlacionadas

Comandos SPSS:
ANALYZE
COMPARE MEANS
Paired-Samples T Test

36
Testes t de Student no SPSS

Duas amostras emparelhadas ou correlacionadas


Effect size for paired t-tests
Cohen’s d = Mean difference between the
pairs / Standard deviation of the differences

Analise do output:
- Se Sig (2-tailed)  , existem diferenças significativas entre as médias
- Se Sig (2-tailed) > , não existem diferenças significativas entre as médias.

37
Testes t de Student para comparação de médias

Duas amostras independentes


O teste t para amostras independentes aplica-se sempre que se pretende comparar as
médias de uma variável quantitativa em dois grupos diferentes de sujeitos (casos).

As hipóteses:

H0 : μA = μB

H1 : μA ≠ μB , μA < μB ou μA > μB

38
Testes t de Student para comparação de médias

Duas amostras independentes

Exercício: Será que as alunas do curso de Medicina da ECS apresentam uma nota
de Bioestatística idêntica ao dos alunos do mesmo curso.

Estatísticas Alunas Alunos


Amostra 13 13
Média 14,00 12,23
Desvio padrão corrigido 3,189 4,343

39
Testes t de Student para comparação de médias

Duas amostras independentes

Fases de um teste de hipóteses


1. Definição das hipóteses

As hipóteses são:

H0 : μA = μB
H1 : μA ≠ μB

40
Testes t de Student para comparação de médias
Se as variâncias não são homogéneas:
Duas amostras independentes
A ET é conhecida por t de Student de Welch
Fases de um teste de hipóteses 2
 s A2 sB2 
Dx   D x   
gl   2 A
n nB 
2. Especificação da estatística de teste tobtido 
s A2 s B2  s A   sB2 
    
nA nB  nA    nB 
nA  1 nB  1

Dx  x A  xB
Dx  Dx =0
tobtido 
(valor esperado para a diferença de médias)

sDx graus de liberdade - gl


(no SPSS - df) = nA+ nB- 2

 nA  nB  s A2  nA  1  s B2  nB  1
s Dx  s 2
  2
scomb 
 nA  nB 
comb
nA  nB  2
erro padrão da diferença de médias variância agrupada/combinada (pooled)

41
Testes t de Student para comparação de médias

Duas amostras independentes

Fases de um teste de hipóteses


3. Definição da regra de decisão
 Nível de significância =  = 0,05

 Critério para rejeitar H0

to  (t1 / 2,n A  nB  2  t0,975, 24  2,06)

não é rejeitada

Região de
não rejeição

42
Testes t de Student para comparação de médias

Duas amostras independentes

Fases de um teste de hipóteses


4. Cálculo da estatística de teste e tomada de decisão

Dx  x A  xB  14,00  12,23  1,77


Como o tobtido =1,184 < tcrítico (tabelado) = 2,06
Dx   D x 1,77  0 Não se rejeita H0 - logo podemos dizer que não
tobtido    1,184 existem diferenças significativas entre as médias
sD x 1,494

 nA  nB   13  13  erro padrão da diferença; no SPSS -


sDx  sagrup
2
   14,516   1,494
 nA  nB   13  13  Std. Error Difference

s A2  nA  1  sB2  nB  1 3,1892 (13  1)  4,3432 (13  1)


s2
   14,516
nA  nB  2 13  13  2
agrup

43
Testes t de Student no SPSS

Duas amostras independentes

Comandos SPSS:
ANALYZE
COMPARE MEANS
Independent-Samples T Test

44
Testes t de Student no SPSS
Se as variâncias não são homogéneas:

Duas amostras independentes A ET é conhecida por t de Student de Welch

Dx   D x
2
 s A2 sB2 
  
tobtido 
gl   2 A
n nB 
s A2 s B2  s A   sB2 
    
nA nB  nA    nB 
nA  1 nB  1

1 2

1 – Teste de Levene (igualdade de variâncias): 2 – Teste t de Student:


- Se Sig   (0,05), usamos a linha de Equal variances not assumed. - Se Sig (2-tailed)  , existem diferenças significativas entre as médias
- Se Sig >  (0,05), devemos usar a primeira linha da tabela, que se refere a Equal variances assumed. - Se Se Sig (2-tailed) > , não existem diferenças significativas entre as médias.

s A2 (n A  1)  s B2 (nB  1)
s pooled 
n A  nB  2

45
Testes t de Student no SPSS

Duas amostras independentes

Dimensão do efeito (Effect size):


d de Cohen g de Hedges  de Glass
[S (=); n (=)] [n (≠)] [S(≠); n (=)]

x  x x A  xB x A  xB
d A B g 
S pooled S pooled * S control

Lakens, D. (2013): The formula for Cohen’s ds, which is based on sample averages gives a biased
estimate of the population effect size (Hedges and Olkin,1985), especially for small samples (n <
20). Therefore, Cohen’s ds is sometimes referred to as the uncorrected effect size. The corrected
effect size, or Hedges’s g (which is unbiased, see Cumming,2012), is:

Lakens, D. (2013). Calculating and reporting effect sizes to facilitate cumulative science: a practical primer for t-tests and
ANOVAs. Frontiers in psychology, 4, 863.
Para um conhecimento mais aprofundado: http://www.polyu.edu.hk/mm/effectsizefaqs/calculator/calculator.html

46
RESUMOS EXEMPLIFICATIVOS

47
Testes t de Student para uma amostra
• QI: Será que os jogadores do FCP estão mais satisfeitos com o seu rendimento
do que os jogadores da 1ª Liga?

• H0  não há diferenças entre jogadores FCP e 1ª Liga

• H1  há diferenças, jogadores FCP > ou < que 1ª Liga

• SPSS: analyze > compare means > one sample t test

• Variáveis: 1 métrica (+ valor da população)

• Pressupostos: N > 30, normalidade

• Resultados: objetivo, resultados – estatística do teste com graus de liberdade,


valor exato de p, d de Cohen –, M e DP da amostra e M da população,
interpretação (se há diferenças e em que direção, magnitude do efeito)

• t(40) = 3.40, p = .04, d = 0.23

48
Testes t de Student para amostras independentes
• QI: Será que os praticantes de karaté apresentam níveis mais elevados de
regulação emocional do que os jogadores de futebol?

• H0  não, é igual

• H1  há diferenças (two tailed), karaté > ou < futebol (one tailed)

• SPSS: analyze > compare means > independent samples t test

• Variáveis: VD métrica, VI com 2 níveis (independentes)

• Pressupostos: N/n < 1.5, normalidade, homogeneidade variâncias

• Resultados: objetivo, resultados – estatística do teste com graus de liberdade,


valor exato de p, d de Cohen –, M e DP dos grupos, interpretação (se há
diferenças e em que direção, magnitude do efeito)

• t(40) = 3.40, p = .04, d = 0.23

49
Testes t de Student para amostras emparelhadas
• QI: Será que há diferenças entre o IMC dos estudantes universitários antes e
depois do confinamento de 2020?

• H0  não, manteve-se constante

• H1  há diferenças (two tailed), antes > ou < depois (one tailed)

• SPSS: analyze > compare means > paired samples t test

• Variáveis: VD métrica, VI com 2 níveis (emparelhados)

• Pressupostos: N > 30, normalidade, normalidade das diferenças

• Resultados: objetivo, resultados – estatística do teste com graus de liberdade,


valor exato de p, d de Cohen –, M e DP dos momentos + correlação (r),
interpretação (se há diferenças e em que direção, magnitude do efeito)

• t(40) = 3.40, p = .04, d = 0.23

50

Você também pode gostar