Escolar Documentos
Profissional Documentos
Cultura Documentos
Conceitos básicos
População: Conjunto total de objetos (existentes ou apenas possíveis) em que estamos interessados.
Por objeto entende-se qualquer pessoa, animal, coisa, operação, família, instituição, etc.
Amostra: Qualquer subconjunto (parte) de uma população. A amostra referencia-se sempre a uma
população da qual é parte integrante.
Parâmetro: É uma caraterística da população (i.e., uma função dos valores da população). Mais
simplesmente é um sumário numérico da população. O alfabeto Grego, representa os parâmetros (μ = média
da população)
Estatística: É uma função de uma amostra. Mais simplesmente é um sumário numérico de uma
amostra obtida da população. O alfabeto Romano ou Latino é usado para representar as estatísticas (e.g., M
= média da amostra, embora na estatística o símbolo ou [lê-se x barra]
Divisões da Estatística
Estatística Descritiva : A que trata da recolha ou colheita, ordenação, sumarização e análise dos
dados de uma amostra.
Estatística Inferencial : A que procura a veri cação de inferências acerca da população (e.g., dos
seus parâmetros, da forma da distribuição) a partir de uma amostra (dos seus dados estatísticos, da forma da
sua distribuição).
Variáveis :Uma caraterística que consiste em duas ou mais categorias (e.g., pro ssão ou a
nacionalidade) ou dois ou mais valores (e.g., idade ou score de inteligência).
Constantes: O oposto de uma variável, consiste num único valor.
𝑥
fi
𝑋
fi
Variabilidade/Variação :Todas as medidas variam também consoante a amostra de que se dispõe;• A
preocupação central das ciências é o estudo da variabilidade
Nomimal: Os números são usados para nomear, identi car ou classi car (Os símbolos servem
apenas de rótulos, ou etiquetas. Estes apenas têm a propriedade da diferenciação (i.e., só é veri cável a
relação de igualdade-desigualdade). Transformações apropriadas: Qualquer substituição de um para um.
Limitação: técnicas estatísticas baseadas na contagem. Exemplo: os números de telefone; género (masculino/
feminino); raça/etnia; tipos de personalidade.
Intervalar: Os intervalos ou distâncias entre cada número e o seguinte são iguais, mas não se sabe a
que distância qualquer deles se encontra de zero. Têm as propriedades de diferenciação, ordem e
equivalência de intervalos.
Transformações apropriadas: De tipo linear (i.e., Y = a + bX). Limitação: são permitidas a soma, a subtração,
e as técnicas estatísticas baseadas nessas operações aritméticas. A multiplicação e a divisão não são
permitidas. Exemplo: Escalas de temperatura Celsius e Fahrenheit; tempo medido pelo calendário; altitude.
Razão: Pode-se imaginar cada número como uma distância medida a partir de zero. Todas as
propriedades das escalas de intervalo são aplicáveis e, para além destas, a origem da escala re ete a ausência
da característica medida.
Transformações apropriadas: Multiplicação por uma constante positiva. Limitação: Não há limitações. São
permitidas todas as operações aritméticas e técnicas estatísticas. Exemplo: Altura, peso, medidas do tempo
(v.g., tempos de reação).
Distribuição de frequências
• Há dois procedimentos principais para sumariar um conjunto de dados:
✓Tabelas e/ou Grá cos (Tópico desta apresentação)
✓Números (Tópico de uma próxima apresentação)
• Habitualmente quererá usar ambos os procedimentos
Distribuição em Classes
Representação grá ca: Histograma, Polígono de frequências, Polígono de frequências acumuladas (ogiva
de Galton), Output SPSS - Histograma
Grá cos simples vs. complexos
• Os grá cos anteriores retratam situações simples (v.g., uma única variável categorial ou contínua)
• A adição de uma (ou mais) variáveis, embora complexi que a representação grá ca, pode ser também
muito elucidativa de qualquer tendência que exista nos dados
• De seguida apresentamos* dois tipos de grá cos de barras que podem usar-se para planos de investigação
entre-grupos (between groups designs) e intra-grupos (within groups designs)
média A descrição de uma distribuição quase sempre inclui uma medida do seu
aritmética centro. A mais comum destas medidas é a média aritmética, ou simplesmente,
, M, _x média. Denotando-se n observações por x , x ,..., x , a sua média é:
1 2 n
Desvio-padrão 2
(Inferencial) * s é a raiz quadrada da variância s
*ambos medem a dispersão tomando em consideração o grau de afastamento das observações da respectiva média. Neste curso a fórmula inferencial será usada,
se nada for dito em contrário!
Q=Q −Q 31
Onde, Q e Q são, respetivamente, o terceiro e o
3 1
primeiro quartis. O terceiro quartil é o valor que tem
abaixo de si 75% das observações e 25% acima de si. O
primeiro quartil, por sua vez, separa 25% das
observações inferiores das restantes 75%.
ASI = (Q3-Q1)/2
Problema
•Nas ciências sociais, frequentemente, estamos preocupados com a interpretação e a comparação de
resultados individuais
• Existem vários métodos disponíveis para medir a posição relativa de um resultado
• Os dois mais comuns - Percentis e Resultados Z - serão apresentados de seguida.
• Iremos ainda referir um terceiro método (Resultados/Pontuações T), igualmente, muito popular
na Psicologia.
• O QI é outro método muito popular para atribuir significado a uma caraterística individual muito estudada
na Psicologia (a inteligência).
𝑘
𝑛
T = bz + a
Exercícios: Teste Estatístico z Uma Amostra : σ conhecido versus σ desconhecido
Etapa 1
• Formule as hipóteses:
≠
𝛼
• Decisão:
Se z > ± 1.96 (ou mais geralmente, se z > ± 1.96 ), então rejeite H
0
Ora, como 3.22 > 1.96, então, A diferença é estatisticamente significativa (rejeita-se a hipótese nula).
Exercício 1:
Suponha que a variável X segue uma distribuição N(50,8)*, e queremos obter as seguintes probabilidades:
• a) Observar um valor que quando muito (i.e., que no máximo) seja igual a 56?
• b) Observar um valor que no mínimo seja igual a 52.8?
• c) Observar um valor compreendido entre 40.8 e 48.3?
*Leia-se, X segue uma distribuição normal, com µ = 50 e σ = 8!
Resolução: “Observar um valor que quando muito (i.e., que no máximo) seja igual a 56?
a) Trata-se de obter a probabilidade acumulada do valor 56, e para tanto basta estandardizar/tipificar/reduzir
esse valor e procurar, na tabela da distribuição normal reduzida, a proporção da área que se encontra à sua
esquerda. Ou seja:
P(X ≤ 56) = ?
• [estandardize] P(z ≤(56-50)/8) = 0.75
• [Leia valor na tabela z; ver slide seguinte] P(z ≤ 0.75) = 0.7734.
Donde .77 da área está abaixo de 56 (ou, a probabilidade de obter um valor inferior ou igual a 56,
nas condições dadas, é de .77, depois de arredondar.) [Pode apresentar o resultado em %; neste caso:
P(X ≤ 56) = 77%.]
b) No segundo caso trata-se de obter a probabilidade que corresponde à área extrema (cauda) da distribuição
normal reduzida que 52.8 tem acima de si.
Uma vez que a tabela da distribuição normal que estamos a usar nos dá essa área diretamente, basta
que transformemos o valor de X numa pontuação tipificada (z) e depois ler diretamente da tabela. Assim:
• P(X ≥ 52.8) = P(z ≥ (52.8−50)/ 8) = = P(z ≥ 0.35) = 0.3632.
Donde .3632 da área da curva está acima de 52.8 (ou, a probabilidade de obter um valor maior ou
igual a 52.8, nas condições dadas, é de .36, depois de arredondar.) [Pode apresentar o resultado em %; neste
caso: P(X ≥ 52.8) = 36%.]
c) No terceiro caso trata-se de obter a área da curva normal limitada pelos valores 40.8 e 48.3.
Trata-se de encontrar a diferença entre a probabilidade abaixo de 48.3 da que se encontra abaixo do valor
40.8 (Dada a forma da tabela que utilizamos, temos que ter em conta o conceito de simetria subjacente à
distribuição normal). Assim:
P(40.8 ≤ X ≤ 48.3) = P((40.8−50)/8) ≤ z ≤ (48.3−50)/8)) = P(−1.15 ≤ z ≤ −0.21)
[por simetria, uma vez que ambos os valores estão no lado esquerdo da curva, use de seguida os valores
positivos e leia as proporções respetivas na Tabela z.
Assim, área acima de 0.21 --> 0.4168 e acima de 1.15 --> 0.1251. Subtraindo, então 0.4168-0.1251 =
0.2917] = 0.2917 ≤ 0.29
Donde .2917 da área da curva normal está entre 40.8 e 48.3 (ou, por outras palavras, a probabilidade
de obter um valor no intervalo 40.8-48.3, nas condições dadas, é de .29, depois de arredondar.) [Pode
apresentar o resultado em %; neste caso: P(40.8 ≤ X ≤ 48.3) = 29%.]
Exercício 2:
Suponha que, continuamos interessados em estudar a variável X que, tal qual foi dito, segue uma distribuição N(50,8),
e queremos obter os valores desta variável (X) para os quais se que cumprem as seguintes condições:
a) Aquele valor de X para o qual a probabilidade de observar um valor quando muito igual (no máximo) a ele é 0.1736.
Dica: Trata-se de encontrar X que delimita a área de 0.1736 (probabilidade acumulada, por isso localizada na cauda
[metade] esquerda da curva.)
b) Aquele valor de X para o qual a probabilidade de observar um valor que seja no mínimo igual a ele é 0.9207.
Dica: Trata-se de encontrar o X que deixa acima (à direita da curva) 0.9207 da área, ou por outro lado, que deixa abaixo
de si 1 – 0.9207 = 0.0793 da área da curva.)
c) Os dois valores de X que incluam a metade central (i.e., 0.50 ou 50%), da distribuição normal.
Resolução :
a) Aquele valor de X para o qual a probabilidade de observar um valor quando muito igual a ele (ou seja, no
máximo) é 0.1736.
Neste caso usamos a fórmula: X = z σ + µ
Trata-se de obter a probabilidade acumulada do valor (i.e., o valor que deixa à sua esquerda) a área
de 0.1736.
Recorrendo ao procedimento de conversão na variável reduzida e socorrendo-se da tabela normal
reduzida, z (e, também, a propriedade de simetria da curva), comprovará que se trata do valor z = −0.94.
Agora basta reconverter este valor usando a média e o desvio padrão da distribuição populacional:
ou seja, sendo z = −0.94, então X = (− 0.94*8) + 50 = 42.48.
0.1736
b) Aquele valor de X para o qual a probabilidade de observar um valor no mínimo igual a ele é 0.9207.
No segundo caso trata-se de obter o valor de X que deixa uma área à sua direita de 0.9207.
Esse valor pode ser obtido na tabela da distribuição reduzida que utilizamos neste curso (Tabelas da
Universidade de Vassar, EUA), subtraindo 1 - 0.9207 = 0.0793. (i.e., 0.073 é o valor da área no extremo, ou
na cauda esquerda da distribuição e, o valor de z [lido na tabela, usando a simetria] que lhe corresponde é
1.41).
Por simetria, o valor que deixa à sua esquerda 0.0793 da área da distribuição Normal é z = -1.41.
Então, convertendo para N(50,8), teremos:
X = (-1.41*8) + 50 = 38.72.
c) Os dois valores de X que incluem a metade central (0.50 ou 50%) da área da distribuição normal.
Trata-se de obter as duas pontuações que deixam à sua esquerda e direita, respetivamente, áreas
iguais a 0.25 (Trata-se, afinal, de obter os valores dos 1o e 3o quartis da distribuição normal).
Segundo a Tabela da distribuição normal reduzida essas pontuações correspondem aos valores
típicos (ou reduzidos), respetivamente, -0.67 e 0.67*. Reconvertendo esses valores, teremos, respetivamente:
X = (−0.67*8) + 50 = 44.64 X = (+0.67*8) + 50 = 55.36
Donde, aproximadamente, .50 (ou 50%) da área da curva está entre 44.64 e 55.36 (ver slide
seguinte).
*Uma vez que a área 0.25 não está inscrita na tabela, usámos, neste caso, uma aproximação,
aceitando o primeiro valor de z cuja área excede
(ultrapassa) a área requerida (.25), ou seja, 0.67 (Na tabela z a área acima deste valor é 0.2514).
Outra alternativa: Usar a semissoma dos valores de z entre os quais a área pretendida (.25) está
compreendida. No caso, os dois valores de z são, respetivamente, .67 e .68, donde (0.67+.68)/2 dá .675.
Assim, poderia igualmente usar ±.675 na fórmula acima!
Exercícios Adicionais
2. (a) Qual é a média e o desvio padrão da distribuição normal padronizada? (b) Qual seria a média e o
desvio padrão de uma distribuição criada multiplicando a distribuição normal padronizada por 10 e
adicionando 50?
4. (a) Que proporção de uma distribuição normal está dentro de um desvio padrão da média? (b) Que
proporção está acima de 1.8 desvios padrão da média? (c) Que proporção está entre +1 e +1.5
desvios padrão?
5. Um teste está normalmente distribuído com uma média de 40 e um desvio padrão de 7. (a) Qual o
resultado que seria necessário para um estudante estar no percentil 85? (b) Qual o resultado que
corresponde ao percentil 22?
6. Assuma uma distribuição normal com uma média de 90 e um desvio padrão de 7. Que limites
(scores) incluiriam 65% dos dados do centro da distribuição?
Aula 6: Probabilidade, Distribuições de Probabilidade e Curva Normal
Distribuições de probabilidade
“é uma função matemática que faz corresponder uma probabilidade de ocorrência a cada uma das realizações
duma determinada variável aleatória”
•
Distribuições de Probabilidade Discretas e Contínuas (interesse para a psicologia)
• Distribuições de uma variável aleatória discreta (p. ex., Binomial, Multinomial, Hipergeométrica, Poisson)
• Distribuições de uma variável aleatória contínua (p. ex., Normal, Qui-quadrado, t de Student, F de
Snedecor)
Inserindo [2] na fórmula [1] e simplificando, então teremos a seguinte representação final:
2. Calcular o score (ou mais do que um score), numa variável que segue a DN, correspondente a
uma dada probabilidade.
Suponha que a variável X segue uma distribuição N(50, 8). Calcule o valor de X cuja probabilidade
de ser obtido é quando muito (i.e., no máximo) de .1736.
A regra 68―95―99.7
Usar a curva Normal de modo descritivo. Na distribuição N(µ, σ), aproximadamente:
• 68% das observações estão no intervalo ±1σ da média µ.
• 95% das observações estão no intervalo ±2σ de µ.
• 99.7% das observações estão no intervalo ±3σ de µ.
• Nota: Na verdade os valores exatos são 68.27% (±1 σ), 95.45% (±2σ), 99.73% (±3σ), respetivamente.
Aula 7: Inferência Estatística em Psicologia
Conceito de Inferência Estatística: Conceitos e métodos de inferir (i.e., extrair conclusões acerca de) uma
característica numérica de uma população quando apenas se dispõe de informação da amostra.
Métodos de estimação
Os problemas típicos de inferência associados com a estimação resumem- se a estimar (predizer) o
valor do parâmetro populacional de interesse. Donde, estimação é a resposta à questão “Qual é o valor do
parâmetro populacional?” Duas respostas possíveis: estimação pontual versus estimação intervalar
Estimador: Um estimador é uma regra, com a fórmula tal como ∑x/n, que nos diz como calcular
uma estimativa de um parâmetro da população utilizando a informação contida numa amostra.
Estimador pontual: um único número, a estimativa, a um ponto numa linha de números.
Estimador intervalar: envolve dois números e os pontos que lhe estão associados definem um
intervalo numa linha de pontos.
Baseia-se igualmente na distinção entre a amostra e população, mas o processo está invertido.
Formula-se uma hipótese acerca de um parâmetro de uma população. Com base na hipótese
predizemos um intervalo de valores que a variável pode provavelmente assumir numa amostra
representativa. De seguida realizamos a investigação e obtemos uma medida da variável numa amostra. Se o
valor obtido se situar dentro do intervalo que prevíamos concluímos que a hipótese era razoável. Se, pelo o
contrário, o valor se situar fora do intervalo esperado (previsto) rejeitaremos a hipótese
Usando uma versão mais simplificada deste último estudo, um estudo com um grupo é mais fácil
realizar que um estudo com dois grupos. Assim , suponha-se que:
As pessoas normalmente oferecem 5,65 associações agressivas a palavras homónimas (parâmetro
populacional)
Um grupo que viu um vídeo violento produziu, em média, 7,10 associações agressivas (estatística
amostral)
É esta diferença (suficientemente) maior do que a esperada para se concluir que o vídeo teve um
efeito no comportamento observado? A diferença entre 7.10 e 5.65 (=1.45) é suficientemente grande para nos
levar a concluir de que ela é uma diferença real (isto é, não fortuita / aleatória)? Por outras palavras,
esperaríamos uma diferença da mesma espécie (magnitude e direção) se repetíssemos esta experiência muitas
vezes ou pelo contrário é esta uma diferença devido ao erro de amostragem?
Distribuição da Amostragem
Distribuições Teóricas
Tipos de Erros:
Quando se testa uma hipótese, extrai-se
conclusões que podem ser correctas ou não: o Erro
de Tipo I – quando se rejeita a hipótese nula
quando esta, na realidade, é
correcta.
A probabilidade é estabelecida ao nível de
alfa (α), que normalmente é fixado em 0,05, de
onde a probabilidade do erro de tipo I = 0,05
o Erro de Tipo II – quando se retém a hipótese nula
quando, na verdade, esta é falsa.
A probabilidade é denominada de Beta (β). Por outro lado, ainda existe a potência de um teste, isto é,
a probabilidade de corretamente rejeitar uma hipótese nula falsa -> Potência= (1- β)
Métodos Estatísticos: Fundamentos Ana Rita Cadima Reis Página 22 de 39
Valores Críticos:
Os valores críticos representam o ponto a partir do qual se decide rejeitar a hipótese nula. Por
exemplo, pode-se decidir rejeitar a hipótese nula quando (p | nula) < 0.05. Ou seja, se um teste estatístico tem
um certo valor com p.= 0.05, rejeita-se H0 quando o teste excede esse valor crítico.
Aula 8: Componentes de um teste de Hipóteses Mario F. Triola
A Hipótese Nula :A Hipótese nula (denotada por H ) é uma afirmação sobre o valor de um parâmetro
0
populacional (como a média), deve conter a condição de igualdade e deve escrever-se =, ≤, ≥. (N.B. ao
fazermos efetivamente o teste, trabalhamos com a hipótese de que o parâmetro é igual a um valor
específico). Para a média, temos três formas possíveis para a hipótese nula:
• H : µ = algum valor; H : µ ≤ algum valor; H : µ ≥ algum valor
0 0 0
• Por exemplo, a hipótese nula correspondente à suposição geral de que o QI é 100 se expressa como
H : µ = 100.
0
Testa-se a hipótese nula diretamente no sentido de que, supondo-se verdadeira, procuramos chegar a uma
conclusão que nos leve a rejeitar H , ou não rejeitar H .
0 0
A Hipótese Alternativa : A Hipótese alternativa (denotada por H ) é uma afirmação que deve ser verdadeira
1
se a hipótese nula é falsa. Para a média, a hipótese alternativa comporta uma de três formas:
• H1: µ algum valor; H0: µ < algum valor; H0: µ > algum valor
• Note que H é o oposto de H . Por exemplo, se H é dada como H : µ = 10, então hipótese alternativa é
1 0 0 0
H : µ 100.
1
Nota sobre o uso de ≤ ou ≥ na Hipótese Nula : Mesmo que por vezes expressemos H com o símbolo
0
≤ ou ≥, como em H : µ ≤ 100 ou H : µ ≥ 100, fazemos o teste supondo que µ = 100 seja verdadeira.
0 0
Devemos ter um valor fixo único para µ, de modo que possamos trabalhar com uma única distribuição com
média específica (Alguns livros e programas de computador usam uma notação em que H sempre contém
0
apenas o símbolo de igualdade.)
Nota sobre como proceder para formular as suas próprias hipóteses : Se o estudante está a realizar
um estudo e deseja usar um teste de hipóteses para apoiar a sua afirmação, essa afirmação deve ser
formulada de maneira que se torne a hipótese alternativa, não podendo, assim, conter a condição de
igualdade. Por exemplo, se o estudante acha que a sua intervenção psicológica gera um nível médio de
autoestima acima do valor médio de 15 pontos obtido numa forma de intervenção habitual, formule a
afirmação como µ > 15, onde µ é a pontuação média no tratamento rival. N.B. Neste contexto de procurar
apoiar o objetivo de estudo, a hipótese alternativa é às vezes designada como hipótese de investigação ou
hipótese experimental. Ainda neste contexto supõe-se verdadeira a hipótese nula para se fazer o teste de
hipótese, mas espera-se que a conclusão seja pela rejeição da hipótese nula, de forma a apoiar a hipótese
alternativa.
Região Crítica : É o conjunto de todos os valores da estatística de teste que levam à rejeição da
hipótese nula. Para o nível de significância de 0.05 (teste z, bilateral) a região crítica é representada pela
parte situada nas duas caudas (à esquerda e à direita, respetivamente, das duas linhas vermelhas verticais
mostradas na figura* do próximo slide) e consiste nos valores da estatística de teste inferiores a z = -1.96 ou
superiores a z = 1.96.
Regiões críticas para a estatística de teste z, quando alfa = 0.05; teste bilateral
Valor Crítico : É o valor, ou valores, que separa(m) a região crítica dos valores da estatística de teste
que não levam à decisão de rejeição da hipótese nula.
• Os valores críticos dependem da natureza da hipótese nula, da distribuição de amostragem usada e do nível
de significância .
• No slide anterior (ver Critical z Values, no topo da figura), os valores críticos z = -1.96 e z = 1.96 separam
as regiões críticas.
Conclusões no Teste de Hipóteses :Já vimos que no teste de hipóteses a conclusão será sempre uma
das seguintes:
1. Não rejeitar a hipótese nula H
0
2. Rejeitar a hipótese nula H
0
Mas como devemos formular (escrever) estas afirmações, de modo a descrever de forma clara (não-
técnica) a consequência prática dos dados e dos cálculos? A linguagem deve ser precisa; as
implicações de palavras ou expressões como “apoiar” e “não rejeitar” são muito diferentes (veja o
próximo slide que mostra como formular corretamente a conclusão final).
Terminologia das conclusões no teste de hipóteses
Note que apenas um caso conduz a uma frase que indica que os dados amostrais apoiam
(“sustentan”) a conclusão. Se queremos justificar uma afirmação, devemos formulá-la de maneira a que ela
se torne a hipótese alternativa; esperamos então que a hipótese nula seja rejeitada.
Por exemplo, se queremos justificar a afirmação de que o QI de um grupo de crianças sobredotadas é
diferente de 100, fazemos a afirmação µ 100.
Esta afirmação será uma hipótese alternativa que será apoiada se rejeitarmos a hipótese nula H : µ =
0
100. Se, por outro lado, alegamos que µ = 100, ou rejeitamos ou não rejeitamos a afirmação; em qualquer
caso não apoiaremos a afirmação original.
• Até agora reafirmamos que a formulação certa é “não rejeitar a hipótese nula”.
• Em geral, quer usemos aceitar ou não rejeitar (esta é a expressão que recomendamos), devemos
reconhecer que não estamos provando a hipótese nula; estamos apenas dizendo que a evidência
obtida na amostra não é suficientemente forte para recomendar a rejeição da hipótese nula.
• É algo parecido ao procedimento adotado por um júri ao decidir que não há evidência suficiente para
condenar um acusado.
• A palavra aceitar pode ser enganosa, porque parece implicar incorretamente que a hipótese nula foi
provada. A expressão não rejeitar diz mais corretamente que a evidência que dispomos não é
bastante forte para recomendar a rejeição de H .
0
• Neste curso recomendamos a conclusão não rejeitar H em lugar de aceitar H .
0 0
≠
Nunca conclua de um teste de hipóteses que diferenças numa variável causam diferenças numa outra
a menos que esteja a analisar dados provenientes de uma experiência cuidadosamente controlada. Por
exemplo, não pode concluir que por prolongar os seus estudos isso diminuiu o risco de contrair uma doença
coronária. Pode ser que ter um melhor rendimento económico lhe permita aderir a um ginásio e a aumentar o
exercício físico. Ou pode ser que as pessoas mais novas tenham maior nível educacional e que sejam também
menos propensas a desenvolver uma doença do coração.
Nunca equacione a significância estatística com importância prática
Quando rejeita a hipótese nula, não é necessariamente verdade que a diferença ou a associação que
encontrou é importante ou notória. Em grandes amostras, mesmo diferenças muito pequenas nas médias
podem ser estatisticamente significativas. Por exemplo, se encontrou um tratamento que prolonga a vida por
uma semana quando comparado com outro, mesmo que tenha coligido dados suficientes para tornar a
diferença estatisticamente significativa, ela tem pouca importância prática. É por isso que deve sempre
examinar a diferença realmente observada ou a magnitude das medidas de associação e focar apenas aquelas
que sejam tanto estatisticamente significativas como praticamente relevantes. Reporte sempre a diferença
observada ou o coeficiente obtido, bem como o nível de significância observado.
Nunca equipare falhar a rejeição da hipótese nula com a hipótese nula é verdadeira. Falhar a rejeição
da hipótese nula não significa que a hipótese nula é verdadeira. Pode simplesmente querer dizer que não
obteve suficientemente evidência para a rejeitar. Se o tamanho da sua amostra é pequeno, pode não conseguir
(e, por isso, falhar) a rejeição da hipótese nula mesmo quando a diferença populacional é grande. Por isso é
importante que antes de enveredar num estudo, determine quão grande precisa de ser a amostra de que
necessita para detetar o que considera ser uma diferença importante.
Nunca use a frase “aceitar a hipótese nula” porque isso implica que acredita que a hipótese nula é
verdadeira. Pode legitimamente rejeitar a hipótese nula mas não pode aceitá-la. (Isto parece injusto, mas é
assim mesmo, todavia.)
Nunca equipare a rejeição da hipótese nula com a certeza de que a hipótese nula é falsa
Nunca atribua probabilidades à hipótese nula ou hipótese alternativa sendo verdadeira ou falsa. A
hipótese nula ou é verdadeira ou é falsa. Não pode saber qual. A hipótese alternativa ou é verdadeira ou é
falsa. Não pode saber qual.
Nunca alegue que o nível de significância observado é a probabilidade de que a hipótese nula seja
verdadeira. O valor-p diz-lhe que a probabilidade de ver resultados pelo menos tão extremos como os que
observou se a hipótese nula é verdadeira. A hipótese nula ou é verdadeira ou não é.
Nunca alegue que o valor p é a “probabilidade que os resultados sejam devidos ao acaso”. Não pode
falar sobre a probabilidade de os resultados serem devidos ao acaso a menos que saiba que a hipótese nula é
verdadeira.
Testes Paramétricos: A maioria dos testes paramétricos (como os da família dos testes-t que vamos
expor seguidamente) requerem que se assuma uma dada forma da distribuição da variável de resposta na
população (e.g., normal). A escala de medida de intervalo é requerida para a inferência estatística
Os testes paramétricos são, em geral, mais potentes do que os testes não- paramétricos. Dados contínuos
(scores) e Distribuição normal para todos os grupos
Testes não paramétricos: A maioria dos testes não-paramétricos tem assunções menos restritivas
que os modelos paramétricos. A maioria dos testes paramétricos trabalhará com dados ordinais, e algumas
técnicas serão adequadas para dados de escalas nominais. Embora, geralmente, menos poderosos que os
testes paramétricos, podem ser mais poderosos quando as assunções dos modelos paramétricos estiverem
erradas (i.e., não se pode assumir que os dados sigam a lei normal). Dados nominais (frequências em
categorias), ou Dados ordinais (postos), ou distribuições não normais de dados contínuos.
Assunções do teste t : O teste t (uma amostra) é apropriado quando a investigação tem apenas uma
amostra, é especificada, é desconhecido e a média da amostra é usada como estatística básica. Tal como
o teste z, t requer que a distribuição de amostragem de ҧ seja normal. Para que a distribuição de ҧ seja
normal, n ≥ 30 ou a população dos scores deve ser normal.
Métodos Estatísticos: Fundamentos Ana Rita Cadima Reis Página 28 de 39
𝑥
𝜎
𝑥
Estruturalmente idêntica à fórmula de z exceto que s (i.e., o desvio-padrão amostral) é inserido no lugar de .
Intervalo de
Confiança: A média
da amostra é uma
estimação pontual. Desejamos uma estimação intervalar, i.e., a
probabilidade de que o intervalo inclua seja, por exemplo, igual a 0.95 (ou, 95%)
Tamanho do efeito usando o d de Cohen: É desejável que ao fazer inferência estatística além de obter
o valor-p, considere ainda a precisão da estimativa (através do IC, slide anterior) e a magnitude do efeito
obtido (i.e., o tamanho do efeito). Jacob Cohen (1988) disponibilizou um método muito simples para
determinar a grandeza de um efeito real. Quando aplicado ao teste t, o método baseia-se da existência de uma
relação direta entre o tamanho do efeito real e o tamanho da diferença da
média (à média de H ).
0
No caso aqui considerado:
Use para os cálculos Effect Size Calculator for t test
(psychstat.org)); Para interpretar : 0.00-0.20 efeito pequeno; 0.21-0.79
efeito médio; ≥ .80 efeito grande
2. t duas amostras dependentes (Paired-Samples t test): é usado quando se comparam as médias de dois
grupos dependentes ou correlacionados. Este teste é adequado se procura a medir os mesmos
participantes em duas condições experimentais ou tratamentos (i.e., cada participante executa uma tarefa
enquanto ouve música e, também, mais tarde, em silêncio). Repare que também podem ser diferentes
participantes que foram previamente emparelhados/pareados antes de serem atribuídos aleatoriamente a
uma das condições experimentais.
Testes t da diferença de duas Amostras : Problemas com uma única amostra são pouco frequentes
em psicologia, muito mais frequentes são os problemas que envolvem a comparação de duas amostras/duas
médias. Por exemplo, homens vs. mulheres, doentes vs. saudáveis, admitidos vs. recusados, aprovados vs.
reprovados, neuróticos vs. normais, etc. Em alguns casos entre as duas amostras há uma relação de
dependência (e.g., pais e filhos, gémeos, ou os mesmos participantes em ambas as amostras) e noutras
admite-se que as amostras são completamente independentes. Podemos também dizer, no primeiro caso, que
𝜎
temos um design intra-grupos (within-groups) enquanto, no segundo caso, falamos de um design inter/entre-
grupos (between- groups). Os procedimentos de teste de hipóteses com o teste t serão diferentes consonante
admita que as amostras em estudo são dependentes ou independentes.
Testes t da diferença de duas Amostras dependentes : Este teste é apenas apropriado quando as
amostras estão de algum modo relacionadas. Vários planos de investigação produzem dados apropriados para
o teste t de duas médias dependentes/relacionadas:
Designs de Medidas repetidas : Plano simultâneo (Recordação de uma lista mista incluindo palavras
emocionais e neutras. Se os dois tipos de palavras estão misturados aleatoriamente isso assegura que nenhum
dos tipos detém uma vantagem temporal sobre o outro). Plano sucessivo (Os protótipos são o plano antes-
depois (pré- pós-teste) e o desenho contrabalançado (usado para eliminar os efeitos de ordem simples.) )
Designs Emparelhados : Plano dito experimental (O experimentador cria os pares baseando-se quer
num pré-teste, quer em qualquer outro tipo de dados disponíveis (e.g., sexo, idade, QI). Plano dito natural
(Neste plano os pares ocorrem naturalmente e o investigador limita- se a selecioná-los para o estudo (e.g.,
maridos e esposas; mães e filhas, gémeos monozigóticos)).
Fundamentação lógica do teste t amostras dependentes: No caso mais simples, todos os participantes
são medidos duas vezes com o mesmo instrumento com algum tempo mediando entre ambas as medições. A
técnica de correlação (que estudaremos adiante), habitualmente, revelará que os pares de scores covariam
(i.e., variam conjuntamente e por isso revelam uma relação de dependência). A correlação entre os dois
conjuntos de scores pode ser usada vantajosamente pelo teste t. Por exemplo, com amostras relacionadas,
esperamos que alguém com score alto numa medida (T1) provavelmente venha a obter um score elevado na
segunda medida (T2), i.e., tenderá a manter a mesma posição relativa no grupo. Esta variação
intraindividual pode ser “descontada” do erro de amostragem (ver slide seguinte).
Erro padrão da diferença de duas amostras dependentes : A correlação expetável entre scores de
amostras dependentes acarreta uma mudança na estatística que podemos usar para medir a dispersão ou
variabilidade nas distribuições (i.e., no erro padrão de amostragem – fator que se encontra no denominador
do rácio t). O erro-padrão da diferença de duas médias relacionadas é como se segue (onde r12 é o
médias (_X1 − _x2 = ); neste caso apenas terá uma amostra (i.e., a
Assunções do teste t para duas amostras dependentes: A diferença entre os dois scores obtida para
cada sujeito (par) deve estar distribuída normalmente (excessiva assimetria e outliers tornam o teste menos
robusto/fiável); A variável dependente/resposta é medida ao nível de intervalo ou de razão; Os scores foram
Métodos Estatísticos: Fundamentos Ana Rita Cadima Reis Página 30 de 39
𝐷
Lógica do teste t para dois grupos independentes (através de um exemplo): Considere a seguinte
experiência sobre o efeito da hormona X no comportamento sexual (Pagano, 2013, p. 367): Uma
psicofisióloga conjetura que a hormona X é importante na produção de comportamento sexual. Para
investigar a hipótese, 20 ratos machos foram aleatoriamente escolhidos e depois aleatoriamente atribuídos a
dois grupos. Os animais do grupo 1 foram injetados com a hormona X e depois colocados num habitáculo
individual com uma fêmea sexualmente recetiva. Os animais no grupo 2 foram submetidos a um tratamento
parecido, mas com a exceção de que foram injetados com uma solução placebo. Contou-se o número de
acasalamentos, num período de 20 minutos.
Mais uma vez o problema consiste em saber: como estão distribuídas as diferenças das médias de
duas amostra, se H
0 é verdadeira? Para responder à questão necessitamos de conhecer a distribuição de
amostragem das diferenças entre duas médias; esta distribuição pode ser determinada teoricamente ou
empiricamente; Independente da forma como determinamos esta distribuição, a distribuição de amostragem
da diferença entre as duas médias amostrais (vide figura à direita no slide seguinte) tem as seguintes
caraterísticas:
(1) Se população de onde tomamos as amostras é normal, então a distribuição de amostragem das
diferenças entre as médias das amostras é também normal.
(2)
(3)
(Gosset, 1908) que os scores Z seguem uma distribuição que tem mais valores extremos do que a DN (caudas
mais grossas) e mais valores no centro da distribuição (mais pontiaguda que a DN). Esta distribuição é a
distribuição t de Student.
Esta condição generaliza-se à amostragem de duas (ou +2) amostras sempre que desconhecermos e
tivermos de usar os DP amostrais para o estimarmos.
Matematicamente, a distribuição t é descrita através de um único parâmetro que é uma
função do tamanho N da amostra, os graus de liberdade, .
Os graus de liberdade para o teste t de duas amostras independentes são:
gl = n + n – 2 (ou identicamente, fazendo n + n = N, N – 2 gl).
1 2 1 2
2 2
Violando-se o pressuposto da homogeneidade das variâncias ( 1 2 ), então pode usar o teste t para
𝜎
𝜎
𝜎
𝜎
𝜎
𝜎
𝑠
𝜎
𝑠
≠
𝜎
𝜎
𝜎
𝜎
𝜎
𝜎
Use para os cálculos Effect Size Calculator for t test (psychstat.org)); Para interpretar :
0.00-0.20efeitopequeno; 0.21-0.79efeitomédio; ≥.80efeitogrande
𝜎
≠
𝜎
𝜎
𝑑
Aula 9: Testes de Hipóteses Estatísticos: Análise da Variância Unifatorial (k > 2 Amostras Independentes)
Análise da Variância (Analysis of Variance)/ANOVA: Não há uma única técnica ANOVA, uma
família de técnicas. A ANOVA foi concebida, pelo estatístico do Reino Unido Sir Ronald Fisher, para testar
diferenças entre as médias dos resultados de vários grupos (k > 2) e está baseada na análise dos fatores
conhecidos e desconhecidos que contribuem para a variabilidade dos resultados (i.e., para a variabilidade
observada na variável de resposta, ou variável dependente).
A ANOVA unifatorial para grupos independentes é uma ampliação do teste t de Student para duas
amostras independentes a k > 2 amostras. É uma técnica usada para investigar quanta variabilidade de um
conjunto de observações pode ser atribuída a diferentes causas (Roger Porkess). Na ANOVA unifatorial, ou
de uma via/critério/fator (também dita, one-way ANOVA) extraem-se várias amostras e, subsequentemente,
testam-se os dados para ver se a variabilidade (tal como é medida pela variância) é completamente aleatória,
ou se parte dela é o resultado de diferenças sistemáticas entre as amostras. Em termos gerais, a variabilidade
total num conjunto de dados pode separar-se em variância sistemática e variância de erro. A variância
sistemática é aquela parte da variância total causada pelos fatores que levam os resultados numa dada direção
(e.g., aumentar) e a variância de erro é a porção da variância total causada por flutuações aleatórias/casuais
nas medidas que foram efetuadas. A ANOVA envolve a partição e subsequente análise das duas variâncias
referidas, a variância sistemática (entre, ou inter-grupos) e a variância do erro (dentro, ou intra- grupos),
conforme pode ver-se no diagrama lateral. Os métodos usados na partição da variabilidade diferem, estando
dependentes do plano de investigação usado e, é por isso, que existem diferentes ANOVAs. As diferenças
entre as médias dos grupos de resultados são testadas através do cálculo de uma razão F a qual compara a
estimativa da variância entre (inter) com a estimativa da variância dentro (intra) grupos:
Relação entre o teste t e a ANOVA (k = 2): O teste t de Student (amostras independentes) é uma
instância particular deste tipo de ANOVA. De facto, há uma relação estreita entre as duas estatísticas de teste,
2
assim quando o número de condições, grupos ou amostras é igual a 2, t = √ , e F = t . O valor-p, obtido em
ambos testes estatísticos é, no caso em apreço (2 grupos independentes), exatamente igual. De qualquer
modo, quando tem apenas grupos (k = 2) ou dois níveis/condições da variável independente, recomenda-se
que calcule e apresente o teste t de Student.
Hipóteses Estatísticas: Neste caso, a hipótese nula e a hipótese alternativa são formuladas do
seguinte modo: H : µ
0 1 = µ2 = µ3; H1: negação de H0. Ou seja, admitimos (H0) que o intervalo
entre o casamento e o nascimento do primeiro filho não é afetado pela classe social do pai. A hipótese
alternativa (H
1 ) é a sua negação, significando que pelo menos um par de médias é diferente.
Estatísticas habitualmente calculadas na ANOVA unifatorial para amostras independentes :
Soma dos Quadrados (SQ), gl, Médias Quadráticas (MQ), F, valor-p, tamanhos dos efeitos. • Essa
informação é apresentada numa tabela como a que se segue, habitualmente referida como “Tabela da
ANOVA” (ANOVA Table) ou Tabela Fonte da ANOVA:
apesar de ter calculado todos os elementos da tabela acima, do ponto de vista do teste de hipóteses
estatístico, apenas lhe interessa obter o valor-p para o rácio F (última coluna da direita). Se, o valor-p < ,
rejeita H (e aceita H ), se o valor-p > , não rejeita H (nem aceita H ).
0 1 0 1
Teste HSD (Honestly Significant Difference) de Tukey:
O objetivo do teste HSD de Tukey é oferecer proteção completa - ou seja, manter EW no valor
escolhido pelo investigador independentemente do número de grupos comparados. Na literatura confirma-se
que os testes post hoc se localizam num contínuo de liberalidade-conservadorismo; o teste HSD de Tukey é
um bom compromisso nesta dimensão (nem excessivamente liberal, nem demasiadamente conservador). A
lógica deste teste é a seguinte: Se o investigador espera encontrar pelo menos um par de médias que seja
estatisticamente significativo então a sua maior vantagem está em comparar a média maior com a menor,
afinal se as médias que mais diferem não forem estatisticamente significativas, nenhum dos outros pares
será. O teste HSD de Tukey foi delineado com base na distribuição de uma estatística chamada studentized
range statistic e se tivesse de fazer os cálculos, então teria de ter a tabela com os valores desta estatística;
neste curso deixaremos ao computador essa tarefa!
Teste de Scheffé’s:
No contínuo liberal-conservador, o teste de Scheffé’s está comprovadamente entre os procedimentos
mais conservadores disponíveis (i.e., em igualdade de condições, é mais difícil rejeitar H com este teste, do
0
que com qualquer outro disponível). Além disso, o teste de Scheffé’s pode ser usado para testar hipóteses
complexas e fazer comparações planeadas (i.e., decididas a priori pelo/a investigador/a); por isso, é um
procedimento flexível.
𝛼
𝛼
Aula 10: Correlação Linear
Diagramas de Dispersão
Diagramas (gráficos) que representam a relação entre duas variáveis, como o que apresentamos para
o estudo de Aron et al (2000), são uma ferramenta importante para apreendermos o tipo de relação entre duas
variáveis;
Para desenhar um diagrama de dispersão (scatterplot) a propriedade (numérica) de uma das variáveis
é representada no eixo do X (abscissa) e a outra no eixo do Y (ordenada).
Também podemos obter, na mesma apresentação, matrizes combinando diagramas de dispersão e os
respetivos r’s (coeficientes de correlação)
- Um coeficiente de correlação de 0 significa que não existe relação linear entre as variáveis
Coeficiente de Correlação, r
O sinal (+ ou -) revela a direcção da relação
(positiva, negativa).
O valor numérico indexa a magnitude/força da
relação
O grau/magnitude da relação situa-se num intervalo
específico (i.e., -1 ≤ r ≤ 1)
Interpretação do r:
Correlação, r = .71
O sinal é positivo, isso significa que quando X (tabagismo) aumenta, Y (doença coronária) também
aumenta (e vice-versa).
A correlação não permite inferir que X causa Y; conclua que as duas variáveis variam conjuntamente.
(Não esqueça que relações de causa-efeito dependem da validade de várias alegações; a correlação é
apenas uma delas. Ou seja, é um fator necessário, mas não suficiente, para afirmar uma relação de
causalidade entre duas variáveis.)
≠
𝑘
𝑟
Aula 11: Regressão Linear
Regressão e Correlação: são duas faces da mesma moeda. Tal como a regressão linear, a correlação
ocupa-se com a relação entre duas (ou mais) variáveis. A regressão habitualmente distingue-se por usar a
relação para efeitos de previsão. A correlação, por sua vez, preocupa-se em descobrir se há uma relação, e se
houver, em determinar a sua força (magnitude) e direção (Weaver, 2004).
Usa-se a regressão linear para fazer previsões: Predizer o comportamento constitui o núcleo
essencial das ciências do comportamento. A regressão generaliza esta lógica dos indivíduos para as
populações e formaliza o processo medindo a variação sistemática num contexto. Em geral, o procedimento
começa por obter medidas das pessoas (se de pessoas se tratar) em duas variáveis (e.g., ansiedade e
rendimento escolar), criando uma equação de predição a partir desses dados, e depois usando a equação para
predizer um acontecimento futuro (e.g., média geral no ensino secundário) a partir do acontecimento passado
(e.g., score no inventário de ansiedade). Obviamente, a previsão do comportamento não interessa apenas aos
cientistas do comportamento, de certa maneira todas as pessoas sairiam beneficiadas se fossem capazes de
predizer (estatisticamente) o que as pessoas irão fazer, mesmo que isso seja apenas um pouco melhor do
aquilo que habitualmente conseguimos fazer intuitivamente.
Regressão Linear Simples e Múltipla: O mais simples de todos os modelos de regressão postula
uma única VI (preditor), e podemos designá-lo de modelo de regressão linear simples (MRLS), ou regressão
bivariada. Em contrapartida uma equação de regressão múltipla tem sempre duas ou mais VI’s, neste caso
falamos em modelo de regressão linear múltipla (MRLM). Para além da regressão linear há muitas mais
técnicas de regressão (e.g., não lineares) que, eventualmente, poderão revelar-se úteis na sua investigação.
Equação:
Para se perceber como funciona a reta de regressão é necessário considerar a equação que
rege esse funcionamento e o modo como a utilizar para fazer previsões. A equação é a seguinte (outros
símbolos são frequentemente utilizados): Y=a+bX+e Nesta equação, Y e X são, respetivamente,
a variável dependente (critério) e a independente (preditor); a e b (são coeficientes) e referem-se a
características da própria reta • Por fim, e é o termo de erro. A equação anterior diz-nos que a variável Y é
uma função aditiva linear da variável X, mais uma constante (o valor fixo representado por a) mais o erro
(representado por e). O principal interesse reside na influência de X em Y, o coeficiente de regressão
representado por b. Para obter estimativas numéricas para os valores a e b, ajusta-se uma linha reta nas
observações de Y em X, recorrendo ao método dos mínimos quadrados ordinários (OLS)