Explorar E-books
Categorias
Explorar Audiolivros
Categorias
Explorar Revistas
Categorias
Explorar Documentos
Categorias
2020-2021
1|P ági na
Índice
Índice............................................................................................................................................2
ANOVA Unifactorial Intersujeitos .................................................................................................5
Lógica Computacional da ANOVA .............................................................................................7
Pressupostos: ...........................................................................................................................7
Normalidade:........................................................................................................................8
Homogeneidade das Variâncias (Homecedasticidade) .........................................................8
Somas Quadráticas Totais (SQt) – Cálculo ............................................................................9
Somas quadráticas do modelo ...........................................................................................10
Somas quadráticas do resíduo............................................................................................10
Razão F ...............................................................................................................................11
Conclusão: ..........................................................................................................................11
Comparação múltiplas............................................................................................................12
Magnitude do Efeito Experimental ........................................................................................12
Resposta Final ........................................................................................................................13
ANOVA Unifactorial Não Paramétrica Kruskall-Wallis (Inter-Sujeitos) .......................................14
Enquadramento (Técnicas Não Paramétricas) .......................................................................14
ANOVA Unifactorial Kruskall-Wallis........................................................................................15
Ordenação ..............................................................................................................................15
Estatística Observada .............................................................................................................17
Estatística Crítica ....................................................................................................................17
Conclusão ...............................................................................................................................17
Comparações Múltiplas à Posteriori (Múltiplos testes U de Mann Whitney) .....................18
Medida do Efeito ................................................................................................................19
Resposta para o Algoritmo .....................................................................................................20
Resposta para o SPSS .............................................................................................................20
ANOVA Unifactorial Intra-Sujeitos .............................................................................................22
Planos de Medidas Repetidas.................................................................................................22
Problema Estatístico...............................................................................................................22
Esfericidade ........................................................................................................................23
Variância Intra-Sujeitos (SQw) ................................................................................................24
ANOVA Independente VS ANOVA Emparelhada ....................................................................25
Procedimento Computacionais ..............................................................................................25
Pressupostos ..........................................................................................................................26
2|P ági na
Cálculo ....................................................................................................................................27
Somas Quadráticas Totais (SQt) .........................................................................................27
Variância Intra-Sujeito (SQw) .............................................................................................27
Graus de Liberdade ............................................................................................................28
Somas Quadráticas do Modelo ..........................................................................................28
Somas Quadráticas do Resíduo (SQr) .................................................................................28
Estatística Observada: Médias Quadráticas e Razão F .......................................................29
Comparações Múltiplas à Posteriori.......................................................................................29
SPSS ........................................................................................................................................30
Teste de Esfericidade da Mauchly ......................................................................................30
Razão F – Estatísticas Multivariadas ...................................................................................31
Comparações Múltiplas à posteriori (ajust. Bonferroni) ....................................................31
Magnitude do Efeito Experimental.....................................................................................32
Resposta .................................................................................................................................33
Resposta com SPSS .................................................................................................................33
ANOVA Unifactorial não paramétrica Intra-Sujeitos ..................................................................33
Teste T de Wilcoxon ...............................................................................................................33
ANOVA Unifactorial Não Paramétrica Intra-Sujeitos de Friedman .........................................34
Exercício .................................................................................................................................34
Computação .......................................................................................................................35
Estatística Observada .........................................................................................................35
Estatística Crítica ................................................................................................................36
Conclusão ...........................................................................................................................36
Testes Post Hoc (Comparações Múltiplas à Posteriori) ......................................................36
Medida do Efeito ................................................................................................................36
Resposta do Algoritmo .......................................................................................................36
SPSS ........................................................................................................................................37
Resposta SPSS ....................................................................................................................38
Análise de Variância Fatorial / ANOVA Fatorial .........................................................................39
ANOVA Fatorial Completamente Inter-sujeitos .........................................................................40
ANOVA Fatorial Completamente Intra-Sujeitos .........................................................................52
ANOVA Fatorial Mista ................................................................................................................60
Correlação ..................................................................................................................................68
Exercício de Aplicação ............................................................................................................73
Regressão Simples ......................................................................................................................84
3|P ági na
Regressão Múltipla Standard .....................................................................................................94
Análise Fatorial .........................................................................................................................107
Fidelidade de uma Escala .........................................................................................................117
4|P ági na
ANOVA Unifactorial Intersujeitos
• Porquê e para quê?
o O teste t de student tem algumas limitações:
▪ Compara apenas duas médias (frequentemente é necessário comparar
mais!)
▪ Tem apenas uma variável independente tornando-se impraticável
sempre que se torna necessário medir o efeito da manipulação de , pelo
menos, duas variáveis independentes!
Até se poderia utilizar múltiplos testes t de student para comparar várias médias, mas isso
seria inviável porque aumentaria o erro do tipo I (rejeição de Ho quando ela é verdadeira!)
Tendo em conta os cálculos efetuados, para 3 condições o erro é 0,143. Para 10 condições o
erro é 0,401. Qualquer um destes resultados é completamente inadmissível quanto tempos
alfa= 0,05 e por isso não é viável usar o t de student nestas condições.
• Extensão do teste t
o Compara várias médias
o Permite a manipulação de várias Variáveis independentes
• Testa a hipótese de que as médias de duas ou mais populações são iguais e avaliam a
importância de um ou mais factores, comparando as médias das respostas nos
diferentes níveis de factores. A H anternativa (ou de trabalho) é que as médias serão
significativamente diferentes entre si.
Exemplo:
5|P ági na
Avaliar a durabilidade de 4 produtos experimentais de tapete. Coloca-se uma amostra de cada
dipo de tapete em 10 casas e mede-se a durabilidade após 60 dias. Como se está a examinar um
factor (tapete) usa-se uma ANOVA com um factor (unifactorial). Se o valor de p for menor que
o alfa, conclui-se que pelo menos uma das médias sobre a durabilidade dos tapetes é
diferente. Para diferenças detalhadas entre as médias específicas, usa-se um método de
comparações múltiplas, como por exemplo o de Tukey e o de Scheffe.
Análise de variância:
Fator:
• Característica que permite distinguir diferentes populações umas das outras. Cada fator
tem dois ou mais grupos (classificações). No exemplo dos tapetes, existem 4 tipos de
tapetes mas um único factor.
Teste omnibus: (teste estatístico que testa se a variância explicada num conjunto de dados é
significativamente maior do que a variância não explicada):
Experimentação:
6|P ági na
Lógica Computacional da ANOVA
1. Calcular a quantidade de variabilidade que existe entre todos os resultados (Somas
Quadráticas Totais)SSt
2. Calcular quanta desta variabilidade pode ser explicada pelo modelo que foi ajustado aos
dados (quantificar desta variabilidade a que é devida à manipulação da VI) – Somas
quadráticas do Modelo - SSm
3. Calcular quanta desta variabilidade não pode ser explicada pelo modelo (quantificar a
variabilidade que é devida à ação das diferenças individuais no desempenho) – somas
quadráticas do resíduo – SSr
4. Comparar a quantidade de variabilidade explicada pelo Modelo (manipulação), com o
erro verificado no modelo (diferenças individuais) – F
Se o modelo explica muito mais variabilidade do que aquela que não pode
ser explicada, então a manipulação experimental teve um efeito
significante no resultado!!! VD
• Se a manipulação foi eficaz, então o modelo explicará mais variância
que aquela que não pode ser explicada por ele SQt > SQr
Exercício: Objetivo é testar os efeitos do viagra.
Pressupostos:
• Primeiros pressupostos (variável intervalar ou de razão, aleatoriedade de sujeitos,
independência de observações)
• Normalidade: as observações provêm de populações normalmente distribuídas
• Homocedasticidade: o numerador e o denominador da razão F são estimativas da
mesma variância populacional (homogeneidade das variâncias)
7|P ági na
Normalidade:
Para perceber a normalidade há duas abordagens:
• Olhar para o histograma e perceber (tem de ser com uma amostra maior que a do
exemplo acima)
• Testar a normalidade através de Kolgomorov Smirnov ou Shapiro Wilk (se o número de
sujeitos por condição é igual ou superior a 30 – Kolgomorov-Smirnov, se for inferior a
30, teste de Shapiro Wilk. Só nos interessa saber o nível de sig. do teste porque temos
de testar a hipótese da normalidade (Ho afirma a normalidade). Para a não a rejeição
de Ho é desejável que a significância do teste venha superior a 0,05…
• Uma vez que existem 5 pessoas por condição, terei de interpretar o de Shapiro Wilk.
Como todos os valores são superiores a 0,05, não poderei rejeita Ho, ficando
demonstrado o cumprimento do pressuposto.
8|P ági na
Tabela acima: 2,50 Dose elevada / 1,70 Dose Baixa
Conclusão: Indo à tabela para perceber o F crítico, percebemos que F observado < F crítico
(1,47 inferior a 6,39), o que faz com que não haja evidência confirmatória para rejeitar a
hipótese nula, segundo as qual as variâncias são homogéneas.
• Procedimento de Welsh
• Transformações nos dados
• Equivalente não paramétrico!
Perante uma violação grave da normalidade ou da homogeneidade das variâncias, ou pelo facto
de ser uma amostra reduzida, etc... recorrer a um equivalente não paramétrico é a melhor
opção. Um que seja adequado. Muitos autores não gostam, porque dizem que as técnicas não
paramétricos tiram poder ao teste. No entanto isso pode ser considerado um disparate, porque
na maioria dos casos os resultados dos paramétricos e não paramétricos são os mesmos.
9|P ági na
de modelo (discrepância entre a média do grupo relativamente à média total).
10 | P á g i n a
Razão F
De forma a obter a razão F, teremos de:
Médias quadráticas:
Razão F:
Conclusão:
• Resultando significante porque há mais variabilidade que resulta da manipulação
introduzida pela VI (MQm) do que há de variabilidade explicada pelas diferenças
individuais dos sujeitos (MQr).
• A razão F é de 5,117. Agora teremos de ir à tabela F retirar o valor crítico para 2 graus
de liberdade no numerador e 12 no denominador, para uma significância de 0,05 ->
3,89.
• 3,89 crítico < 5,117 observado, há evidência confirmatória para rejeitar H0 e aceitar H1.
Há efeito estatístico significante.
11 | P á g i n a
• No entanto ainda não sabemos que média das condições é responsável por este
resultado, não sabemos se é o placebo que se distingue da dose elevada, ou a dose baixa
que se diferencia… etc. Olhando para as médias pode haver suspeitas, mas as suspeitas
não são estatísticas. Então temos de observar as Comparações múltiplas à posterior
(Post Hoc)
Comparação múltiplas
• O teste F é um teste global (testa uma hipótese em geral) e por isso apenas permite
concluir em função do resultado obtido, que pelo menos um par de médias
populacionais é diferente. Para perceber as médias que se distinguem
significativamente em termos estatísticos, importa realizar uma série de comparações
múltiplas à posteriori: teste de Tukey e teste de Scheffé
12 | P á g i n a
• A alternativa consiste na medida ómega-quadrado que, tal como a razão F, utiliza a
variância explicada pelo modelo (MQm) e a variância do erro (MQr).
Resposta Final
• 1 – Problema
o Averiguaram-se os efeitos do Viagra (placebo, dose baixa, dose elevada) na
líbido de uma amostra representativa de indivíduos adultos, medida com
um indicador objectivo
• 2- O que foi feito
o Os sujeitos revelam uma libido mais ativa na condição dose elevada
(M=5.00, DP=1.58) e menos ativa na condição placebo (M=2.20, DP=1.30).
Na condição dose baixa a libido revela um valor médio de 3.20 (DP=1.30).
Uma ANOVA unifatorial independente, calculada para variâncias
homogéneas [FMax=1.4 < F(.05;4,4)=6.39] revela evidência confirmatória
que aponta no sentido da existência de diferenças estatísticas significantes
entre os grupos de tratamento ao nível das respetivas medidas da libido
[F(2,14)=5.12 > F(.05;2,12)=3.89], confirmadas por um efeito de magnitude
elevada (eta-quadrado =.45).
• 3- Conclusão
o Comparações múltiplas a posteriori, calculadas com o teste HSD de Tukey e
com o teste de Scheffé, revelam que apenas os grupos placebo e dose
elevada se diferenciam significativamente (p=.021 e p=.027,
respetivamente).
Resposta Final para um cálculo feito no SPSS (que revelaria os outputs da normalidade e da
homogeneidade das variâncias
• 1 - Problema
o Averiguaram-se os efeitos do Viagra (placebo, dose baixa, dose elevada) na
libido de uma amostra representativa de indivíduos adultos, medida com um
indicador objetivo. A análise dos pressupostos não revelou qualquer violação
da normalidade da distribuição dos dados na VD, nem para a condição placebo
[S-W(12)=.902, p=.421], nem para a condição dose baixa [S-W(12)=.902,
p=.421], nem tão pouco para a condição dose elevada [S-W(12)=.987, p=.967].
13 | P á g i n a
ANOVA Unifactorial Não Paramétrica Kruskall-Wallis (Inter-
Sujeitos)
Enquadramento (Técnicas Não Paramétricas)
• É importante compreender que as técnicas não paramétricas consistem em testes de
distribuição livre, ou seja, não estipulam pressupostos acerca do tipo de distribuição de
dados
• O procedimento consiste em:
o 1º fazer uma ordenação dos dados
o 2º fazer a comparação das ordenações médias
o (Este procedimento faz perder informação acerca da magnitude da diferença
entre os resultados)
• Relativamente ao Poder do Teste, estas técnicas apresentam menor capacidade para
detetar um efeito estatístico genuíno, ou seja, detetar diferenças quando elas
realmente existe (tendem a aceitar Ho quando essa hipótese é falsa – Erro tipo II)
• As técnicas não paramétricas são aplicáveis quando:
o Dados são nominais ou ordinais
o Amostra é muito reduzida
o Distribuição viola os pressupostos das técnicas paramétricas:
▪ Normalidade da distribuição
▪ Homogeneidade das variâncias
▪ Dados intervalares
▪ Independência das observações
• Planos Inter-Sujeitos: comparar os resultados de dois grupos diferentes de sujeitos ou
de duas condições em termos das respetivas ordenações médias
o Teste U de Mann Whitney (Rejeição de Ho acontece quando Estatística crítica
é Maior que a Estatística observada)
• Planos intra-sujeitos: comparar os resultados do mesmo grupo de sujeitos em duas
ocasiões diferentes, ou de pares ajustados, em termos das respetivas ordenações
médias
o Teste T de Wilcoxon
• Dicas para o SPSS:
o Sempre que no output aparece a palavra “ranks”, refere-se a uma técnica não
paramétrica, porque apenas as técnicas não paramétricas requerem a
ordenação dos dados.
o As técnicas não paramétricas não têm medidas de efeito específicas. Porém
nós podemos calcular o coeficiente de correção produto-momento de
Pearson fazendo a razão entre a estatística observada normalizada e a raíz
quadrada da dimensão da amostra. Vou ao
output, na linha em que diz Z tenho a
padronização da estatística observado
quer ao domingo (-1.105) quer à 4a feira (-
3.484). Ao tomar estes valores, ignorando
o sinal algébrico, eu vou obter duas
medidas de efeito respetivamente para o
domingo (-0,25) e 4a feira (-0.78).
14 | P á g i n a
o Como são medidas de efeito baseadas no produto-momento de Pearson,
para eu perceber qual a percentagem de variância que ocorre ao nível dos
sintomas depressivos que é da responsabilidade da manipulação a nível de
VI (quer para o domingo quer para a 4a feira), eu vou ter de elevar estes
valores ao quadrado. Para chegar à conclusão que no domingo apenas 0,6%
(0,0625) da sintomatologia depressiva é explicada pelas diferentes
substâncias que os sujeitos consumiram (álcool ou ecstasy) -0,25 elevado
ao quadrado= 0,0625; para 4a feira, 0,78 ao quadrado igual a 60%.
15 | P á g i n a
• Podemos observar uma amostra de 80 sujeitos, 4 grupos independentes de sujeitos. A
azul está a medida em laboratório do material gonadal.
• Passos:
o 1- organizar os 80 resultados por ordem crescente, ignorando o grupo de
pertença
o 2- atribuir a ordem 1 ao menor dos resultados e assim sucessivamente até que
a maior das ordens (ordem 80) coincida com o resultado mais elevado
16 | P á g i n a
o O que se pode observar? A soma das ordens mais elevada também ocorre nas
0 refeições semanais e a somatória das ordens mais baixa também ocorre nas 7
semanais (tal como acontecia com o mínimo e máximo dos resultados brutos.
Estatística Observada
Estatística Crítica
• Para amostras cujas dimensões apresentam valores superiores a 10, a estatística (H) tem
uma distribuição Qui-Quadrado com tantos graus de liberdade quantas as k condições
resultantes da manipulação da Variável Independente menos 1, ou seja k-1.
• Neste caso (k-1) = 4-1 = 3
• Para o nível de significância convencional de 0,05, por leitura na tabela
correspondente dos valores críticos de Qui-Quadrado, obtém-se o valor:
Conclusão
• Como 8.659 é maior que 7.81 Obs > Crítico, há evidencia confirmatória para rejeitar
h0 e aceitar h1.
17 | P á g i n a
• Há uma diferença significante no material genético em espermatozoides produzido por
um indivíduo que não ingere soja transgénica, comparativamente ao indivíduo que
todos os dias, ou pelo menos um dia, consome soja transgénica.
• Chamada de atenção: contrariamente ao teste da ANOVA Paramétrica, seja em grupos
independentes ou medidas repetidas, não há aqui testes de comparações múltiplas
(das condições duas a duas) à posteriori, tal como não há medidas de efeito específicas
para as técnicas não paramétricas.
• Porém, como sabemos que a ANOVA de Kruskall Wallis é uma generalização do teste U
de Mann Whitney, eu posso calcular comparações múltiplas das condições 2 a 2,
calculando testes U de Mann Whitney múltiplos para as condições tomadas 2 a 2.
• Podia fazer a combinação das 4 (seriam 6 comparações), mas se dividisse o alfa de 0,05
por 6 comparações irei obter o nível mínimo do erro de tipo 1, aceitável por convenção,
igual a 0,008 (0,05/6), o que é um valor ínfimo e que pode deixar na dúvida se o que
estou a detetar é um efeito ou não é um efeito.
• Então opto por outra via: não me interesse a nível de investigação saber se há diferenças
entre quem faz uma ou 4 refeições, interessa-me contrastar os extremos (o grupo de
controlo que não faz refeições com as 3 condições que fazem 1,4 ou 7 refeições
semanais (sem contrastar a diferença entre 1 e 4, e 4 e 7)... daí eu opto por fazer testes
de comparações múltiplas à posteriori baseados em testes U de Mann Whitney,
tomando como valor de corte, para 3 comparações 0,05/3= 0,0167 - so vou considerar
significantes aqueles que vier igual ou inferior a este valor – Correção de Bonferroni.
(0,404 é superior a 0,0167 (0,05/3 comparações) -> H0 não é rejeitada -> sem diferença de
material genético)
18 | P á g i n a
(0,3725 é superior a 0,0167 -> H0 não é rejeitada -> sem diferença de material genético)
Medida do Efeito
• Não há uma maneira fácil de converter a estatística de qui-quadrado com mais de um
grau de liberdade numa medida de efeito (mais de 10 sujeitos, Qui Quadrado, Graus
de liberdade – condições (k – 1). Para além disso, na maioria das situações é mais
interessante conhecer a medida do efeito de uma determinada comparação em
particular.
• Assim, opta-se por calcular as medidas de efeito para os três testes de Mann Whitney
usados como alternativa às comparações múltiplas à posteriori.
19 | P á g i n a
• O SPSS não calcula medidas de efeito para as estatísticas não paramétricas, é possível
fazê-lo de uma forma fácil utilizando o resultado normalizado z em que a estatística do
teste é convertida.
20 | P á g i n a
Teste Estatístico:
21 | P á g i n a
ANOVA Unifactorial Intra-Sujeitos
Problema Estatístico
• A precisão do teste F -> radicando no pressuposto dos resultados nas diferentes
condições terem de ser independentes, a assunção é violada quando se usam medidas
repetidas (a probabilidade dos resultados estarem relacionados é muito elevada porque
são oriundos dos mesmos sujeitos)
• Solução: Acrescentar um pressuposto! A relação entre os resultados nas diferentes
condições de tratamento remete para a necessidade de assegurar que a relação entre
os pares de condições experimentais é semelhante (garantir que o nível de dependência
entre as condições experimentais é aproximadamente igual) -> ESFERICIDADE /
CIRCULARIDADE [𝜀(épsilon)].
o Metodologicamente, teríamos de garantir a independência das observações,
mas se estou a utilizar a mesma amostra de sujeitos, a probabilidade de isso
22 | P á g i n a
acontecer fica comprometida. porque se é o mesmo sujeito a desempenhar a
mesma tarefa nas mesmas condições, corremos o risco elevadíssimo de que o
este não seja imparcial nas medidas que dá. A 2ª Tomada de Decisão costuma
ter elementos relacionados com a 1ª Tomada de Decisão, se não houver uma
racionalização, uma intervenção para que isso não aconteça. Controlamos esta
situação com a análise da ESFERICIDADE OU CIRCULARIDADE.
Esfericidade
• Refere-se à igualdade das variâncias das diferenças entre os níveis ou condições do
tratamento, ou seja, considerando os pares de condições, ao calcular as diferenças entre
os resultados relativos a cada um desses pares, é necessário que tais diferenças
possuam variâncias cujos valores não se diferenciem significativamente entre si
(variâncias homogéneas entre as diferenças):
23 | P á g i n a
calcular o Qui Quadrado e nós estamos interessados na significância assintótica
associada ao Qui quadrado). Quando esta revela valores iguais ou inferiores a 0,05,
então os dados deixam de gozar de esfericidade. Quando não há evidência
confirmatória para rejeitar H0, e os dados são assim circulares ou esféricos.
• Dão origem a um factor de correção que é aplicado aos graus de liberdade utilizados na
razão F observada
o Teste Greenhouse-Geisser: varia entre 1/(k-1) em que k é o número de
condições intra-sujeitos, e 1. Quanto mais próximo do 1 estiver, maior a
homogeneidade das variâncias das diferenças e, por tal, maior a probabilidade
dos dados serem esféricos. Estimativa muito conservadora (com valores entre
0,75 e 0,90 falha rejeição de Ho)
o Huynh-Feldt: correção mais liberal e, por tal, tende a sobrestimar a
esfericidade.
o Para Stevens deveremos tomar a média das duas correções para ajustar os
graus de liberdade.
o Para Girden, devemos usar a correção de Greenhouse-Geisser quando não há
informação sobre a esfericidade, ou quando a sua estimativa é inferior a 0,75;
quando é superior a 0,75 deve utilizar-se a correção de Huynh-Feldt.
• Regra: perante uma violação severa da esfericidade (E < 0,70) e a amostra com N > k +
10, devem-se interpretar as estatísticas multivariadas (têm maior poder). Com
amostras de dimensão eduzida ou quando é possível assegurar a esfericidade (E > 70) é
preferível a abordagem univariada.
NOTA do Professor: Pela ausência de consenso… dos autores acima mencionados, a melhor
estratégia é utilizar sempre o equivalente não paramétrico (O TESTE DE FRIEDMEN), quando
o teste paramétrico tem os pressupostos violados. É a melhor abordagem.
24 | P á g i n a
ANOVA Independente VS ANOVA Emparelhada
• Ambas apresentam:
o Semelhanças – utilizam a razão F que compara a magnitude da variação devida
à manipulação experimental (SSm) -a variância sistemática, com a magnitude
da variação que resulta da ação de fatores aleatórios (SSr) – a variância não
sistemática imputável ao erro.
▪ Tipos de variância: Total (SSt), Modelo (SSm), Resíduo (SSr)
▪ Manipulação eficaz: explicada pelo modelo superior à que é explicada
pelo resíduo
o Diferenças – cálculo dessas diferenças porque em medidas repetidas, as SSm e
as SSr fazem ambas parte da variância Intra-Sujeito!
Procedimento Computacionais
25 | P á g i n a
• Partição da Variância Total
o Efeitos sistemáticos
▪ Variância entre condições (Professores): variância entre as médias de
cada um dos níveis ou condições do factor (usualmente o efeito em que
se está interessado – a variância explicada pela VI)
▪ Variância Intra-Sujeitos: variância que resulta do facto das próprias
provas, cuja qualidade difere entre si, terem sido avaliadas em quatro
condições diferentes (dados correlacionados)
o Efeitos do erro
▪ Variância da interação (ou residual): causada pela variância individual
(testes) nas quatro situações de correção; mede os aspectos devidos ao
efeito conjunto (interação) da variável individual (testes) e do variável
tratamento (professores)
o NOTA: Há muitas circunstâncias que fazem com que os testes difiram entre si:
as pessoas que fizeram o teste trazem para a realização diferentes
competências, motivações, etc. que derivam de diferentes métodos de estudo,
aptidões e interesses, forma como compreenderam a matéria, etc. temos em
jogo não só o desempenho dos sujeitos assim como o desempenho dos
professores que estão a avaliar os testes.
Pressupostos
• Normalidade: os dados provêm de populações distribuídas normalmente
• Homogeneidade das variâncias: o numerador e o denominador da razão F são
estimativas da mesma variância normal
• Esfericidade
o as variâncias relativas às diferenças entre condições resultantes da manipulação
devem ser aproximadamente iguais
26 | P á g i n a
• Como a significância de 0,04 é inferior a 0,05 no teste de Levene, há evidência
confirmatória para rejeitar Ho e aceitar H1 em que as variâncias são diferentes. Há quase
garantidamente uma violação do pressuposto da esfericidade e assim, logicamente,
temos de entrar em linha com as correções correspondentes.
Cálculo
Somas Quadráticas Totais (SQt)
Variância de todos os resultados quando se ignora o grupo ao qual pertencem
Graus de Liberdade: Uma vez que se iutiliza toda a amostra para calcular as somas quadráticas,
os graus de liberdade totais (glT) são dados pelo valor da dimensão amostral menos 1 (N-1)
• Ao submeter-se cada um dos sujeitos (testes) a mais do que uma condição experimental
(professores), está-se interessado na variação que ocorre dentro dos desempenhos de
cada pessoa (e não entre os resultados dos grupos independentes de pessoas que
desempenham em todos os níveis de uma VI Inter-Sujeitos).
• Ou seja, quantificação da variável existente dentro de cada sujeito tomando em
consideração todos os sujeitos que participam no mesmo estudo
• Porque o plano é medidas repetidas, toda a variância vai ocorrer Within Groups. Nela
irá ocorrer, então, a variância do modelo, e a variância não sistemática.
• Variância do Modelo: imputada aos professores e aos testes
• Variância do erro: variância do efeito conjunto dos professores com os testes.
• SQw: vamos calculá-la pelo produto da variância de cada teste
pelo número de graus de liberdade referentes aos professores.
Fazemos isto para os 8 testes. Gl= 4 docentes – 1= 3
27 | P á g i n a
Graus de Liberdade
Dois tipos:
• Os graus de liberdade para cada sujeito (teste) são dados pelo número de condições
(professores) menos 1 (k-1).
• Os graus de liberdade para todos os participantes (GLw) serão então dados pelo
somatório dos graus de liberdade de todos os participantes – gl within groups
Tínhamos visto que a quantidade total de variação nos dados vale 1705,868 unidades, das
quais 1602,5 são explicada pela variância criada pelos desempenhos individuais (testes) nas
diferentes condições (Professores). Parte dessa variância é o resultado da manipulação
experimental (modelo) e a restante constitui mera flutuação aleatória (resíduo).
Glm= 3
Nota: existem 1705,868 unidades de variação explicadas pelos dados, das quais 1602,5 são
explicadas pela variação entre as condições (SQw); sendo que a manipulação experimental
consegue explicar cerca de 554 destas unidades (SQm), constituem a quantidade de variação
causada por fatores estranhos ao controlo experimental a variabilidade inerente à qualidade
dos testes.
28 | P á g i n a
Estatística Observada: Médias Quadráticas e Razão F
29 | P á g i n a
SPSS
• Analyze, General Linear Model, Repeated Measures
• Teste de Normalidade (Cumprimento do Pressuposto)
30 | P á g i n a
▪ O número de graus de liberdades do modelo são 3, mas a correção de
Greenhouse-Geisser corrige para 1,673 – há tabelas para ver isto. E para
este nº novo de graus de liberdade, essas tabelas também demonstram
um novo valor crítico (diferentes nº de graus de liberdade) surgindo daí
a nova significância assintóptica.
▪ A correção de G-G não dá um efeito estatístico significante, mas a do HF
sim. Então o melhor é fazer a média aritmética entre ambas e ver se o
valor é significativo (Steven, 1992). Como da 0,055 - não rejeição de H0
(professores não se diferenciam entre si).
• Como nenhum destes testes apresentam um efeito significante, estes testes suportam
a decisão de aceitar Ho, segundo a qual as avaliações dos professores não se
diferenciam.
31 | P á g i n a
Magnitude do Efeito Experimental
• A obtenção de significância apenas revela a existência de diferenças entre as médias das
condições que, com confiança, não se podem atribuir ao erro amostral.
• Não informa acerca da importância ou significado prático dessa diferença.
• Para medir a magnitude do efeito registado, é possível usar com a ANOVA duas
estatísticas que permite aferir a proporção de variância explicada por uma variável
numa outra.
o Eta-Quadrado -> também conhecido como ratio curvilinear, resulta em
avaliação mais enviesada porque se baseia apenas nas SQamostrais e não no
ajustamento da estimativa da medida de efeito à população
o A alternativa é ómega-quadrado, que tal como a razão F, utiliza a variância
explicada pelo modelo (MQm) e a variância do erro (MQr).
• Apenas 24% da variabilidade registada ao nível das notas pode ser explicada pelo
padrão pessoa de cada professor que corrige os testes.
32 | P á g i n a
Resposta
• Averiguou-se o efeito do padrão pessoal com que os Professores corrigem e cotam
testes de avaliação. O Dr. Silva é o mais generoso a avaliar (M=68.88, DP=5.64) e a Dr.ª
Delgado é a docente que dá piores notas (M=57.38, DP=7.91). A média das notas do Dr.
Prieto é de 65.25 (DP=6.92), registo que no Dr. Miguel diminui um valor (M=64.25,
DP=4.71).
• O cálculo da ANOVA unifatorial emparelhada revelou ausência de circularidade nos
dados [X2(5) = 11.63, p=.043], razão pela qual se procedeu ao ajustamento dos graus
de liberdade através da correção de Greenhouse-Geisser ( = .56). Os resultados
mostram que as notas dos testes não são significativamente afetadas pelo padrão
pessoal do professor que classifica os testes [F (1.67,11.71) = 3.70, p >.05], confirmadas
por um efeito de magnitude reduzida (eta-2 = .35).
• Basicamente, a única coisa que se exige é a aleatorização dos sujeitos pelas condições
do tratamento.
• Utiliza-se quando as amostras são reduzidas, há pouca variabilidade dos dados e / ou
haja uma violação grosseira dos pressupostos.
• Teste T de Wilcoxon:
o Requisitos: VI categorial (antes e depois), VD contínua (informação métodos
contracetivos: QMC)
o Testa a existência de diferenças estatisticamente significativas entre os
desempenhos, em termos das suas respetivas ordenações, de um mesmo grupo
de sujeitos que é submetido a duas condições de uma VI.
o O pressuposto da esfericidade para duas condições assume-se como
respeitado à priori. Porque se a esfericidade é a obrigatoriedade da variância
homogénea relativa aos resultados das diferenças entre as condições originais,
logicamente com duas condições apenas, não temos quantitativo suficiente
para poder armar uma combinatória que nos permita testar mais que uma
diferença resultante de duas condições originais. Esfericidade é assumida ou
garantida quando é para duas condições porque não dá para calcular,
basicamente.
33 | P á g i n a
o Tem como alternativa paramétrica o Teste t-Student
o Normalidade: pode ser percebida através de histogramas, que revelam que as
distribuições dos resultados relativos ao conhecimento da utilização adequada
dos melhores métodos contracetivos, antes e depois da formação parecem
seguir de perto a distribuição normal. Mas estes não informam até que ponto
esse eventual desvio face à distribuição normal pode comprometer a aplicação
de técnicas paramétricas. É importante testar a normalidade das distribuições.
• Sabemos que a amostra é reduzida e isso é logo um indicador que teremos de
utilizar um teste não paramétrico. No entanto é importante perceber perceber o
pressuposto da normalidade e homogeneidade por motivos de protocolo de análise,
que começa pela análise exploratória dos dados. Pela boa prática de análise temos
de seguir o protocolo e testar a normalidade, mesmo que saibamos que a decisão
será por um teste não paramétrico.
o Algoritmo:
▪ Há dois tipos: consoante se há empates ou não há empates. Empate
acontece sempre que a medida emparelhada, em termos de VI, resulta
a mesma, ou seja, se um dos casais, à medida dos conhecimentos
em pré e pós teste, foram iguais: não melhoraram nem pioraram
o resultado, ficaram equitativos. Neste casal há um empate.
Exercício
• Nutricionista investigador aplicou uma dieta a 10
pessoas, e procurará resultados em 3 condições
(início, 1 mês, 2º mês)
34 | P á g i n a
Computação
• H0: não há diferença entre os pesos medianos nos três momentos
• H1: há diferença entre os pesos medianos nos três momentos
• Estatística Observada:
1. Organizar os resultados de cada um dos sujeitos por ordem crescente
2. Atribuir a ordem 1 ao menor dos resultados e assim sucessivamente para todos
3. Adicionar as ordens dentro de cada uma das condições (Ri)
• (Enquanto no Kruskall Wallis, os dados são feitos conjuntamente de todas as condições,
no T de Wilcoxon ou na ANOVA de Friedman esta é feita intrasujeitos e o que é ordenado
é o desempenho dos sujeitos nas condições do tratamento).
(Ordenar pelo penso mais baixo, intermédio e mais alto, numerando de 1 a 3). Posteriormente
fazer o somatório das respetivas ordens.
Estatística Observada
Realizada a ordenação e atribuídas as ordens correspondentes a cada um dos resultados
individuais para cada sujeito, estão reunidas as condições para que se possa calcular o teste
estatístico (Fr)
35 | P á g i n a
Estatística Crítica
Quando o número de pessoas testadas é grande (amostras cujos N são superiores a 10 efetivos),
a estatística Fr tem uma distribuição de Qui-Quadrado com tantos graus de liberdade quantas
as k condições resultantes da manipulação da VI menos 1 (K-1).
• Assim, (k-1)=3-1=2 gl
• Para o nível de significância convencional de 0,05, por leitura na tabela correspondente
dos valores críticos de Qui-Quadrado, obtém-se o valor:
Conclusão
• Como o valor observado (0,20) é menor que o valor crítico (5,99), não se pode rejeitar
Ho segundo a qual a dieta não teve qualquer efeito significante na redução do peso
das senhoras que se encontram a frequentar de forma voluntária a consulta “Peso +/-
certo” realizada pelo Centro de Saúde do Vale das Espinhas.
Medida do Efeito
• Por um lado não é fácil converter a estatística do qui-quadrado com mais de um grau
de liberdade numa medida de efeito.
• No entanto continua a ser verdade que na maioria das situações é mais interessante
conhecer a medida do efeito de uma determinada comparação em particular. Neste
sentido, opta-se por calcular as medidas de efeito para os testes T de Wilcoxon
utilizados como alternativa às comparações múltiplas à posteriori.
• Apesar do SPSS não calcular as medidas do efeito para estatísticas não paramétricas,
podemos fazê-lo utilizando o resultado normalizado Z em que a estatística do teste é
convertida.
Resposta do Algoritmo
• Testou-se o efeito da dieta Zetkins na redução do peso das senhoras que frequentam
de forma voluntária a consulta “Peso +/− Certo” que o Centro de Saúde do Vale das
Espinhas disponibiliza aos seus utentes (N=10).
• Calculou-se uma ANOVA de Friedman cujos resultados não revelaram qualquer
diminuição significativa dos pesos das senhoras que foram sujeitas aquele regime
alimentar (X2 (2) = .20, p>.05).
• Em virtude da ausência de um efeito estatístico significante, não há lugar a qualquer
análise mais pormenorizada através do cálculo de testes de Wilcoxon, com correção de
Bonferroni (.05/3=.0167).
36 | P á g i n a
SPSS
• Analyze – discriptive statistics – explore
o Normalidade falha em 2 das três condições (já seria mais que justificativo da
utilização da técnica não paramétrica)
37 | P á g i n a
• Nonparametric tests – legacy dialogs – k related samples
• 0,2 Estatística calculada
• Sig de 0,95 – Não rejeição de Ho
Resposta SPSS
• Testou-se o efeito da dieta Zetkins na redução do peso das senhoras que frequentam
de forma voluntária a consulta “Peso +/− Certo” que o Centro de Saúde do Vale das
Espinhas disponibiliza aos seus utentes (N=10).
• Análises exploratórias dos histogramas relativos a cada uma das condições,
complementadas pelo teste da normalidade Shapiro-Wilk, revelam que os pesos das
senhoras só seguem uma distribuição normal na condição mês 2 [S-W(10)=.877,
p=.121]; nas restantes condições o pressuposto relativo à normalidade foi violado
[início: S-W(10)=.784, p=.009; mês 2: S-W(10)=.685, p=.001]. Há evidência de ter sido
igualmente violado o pressuposto relativo à homogeneidade das variâncias das
condições resultantes das diferenças entre as condições originais [F(2, 27)=5.655,
p=.009], razão pela qual a alternativa não paramétrica constitui a opção adequada.
• Calculou-se uma ANOVA de Friedman cujos resultados não revelaram qualquer
diminuição significativa dos pesos das senhoras que foram sujeitas aquele regime
alimentar (X2 (2) = .20, p>.05).
• Em virtude da ausência de um efeito estatístico significante, não há lugar a qualquer
análise mais pormenorizada através do cálculo de testes de Wilcoxon, com correção de
Bonferroni (.05/3=.0167).
38 | P á g i n a
Análise de Variância Fatorial / ANOVA Fatorial
O plano fatorial surge em estudos que envolvem a manipulação de duas ou mais variáveis (VI’s
ou fatores) e pode ser:
Nota do professor: Não é pelo facto de dispormos de uma técnica que nos permite testar efeitos
de várias variáveis ou fatores que vamos redundantemente incluir num plano de investigação,
fatores e variáveis independentes “a granel”. Porque se o meu plano de investigação tem apenas
2 fatores, espero um efeito principal devido ao fator A , efeito principal relacionado com o b, e
o efeito de interação do A com o B. Mas quando incluo mais um fator, e passo a ter os fatores
A, B e C passo a esperar efeitos ditos simples relativos ao fator A, B e C, depois estou à espera
também de encontrar efeitos de interação do fator A com o B, do A com o C e do B com o C, e
ainda estou à espera de encontrar efeitos de interação parciais, e ainda estou à espera de
encontrar um efeito de interação total, global entre os fatores A, B e C, ou seja, quando
acrescento uma variável ao plano de investigação (VI), passo de 2 efeitos para 6 efeitos - três
principais E TRES DE INTERAÇÃO - E ISTO É EXPONENCIAL.
• Corro o risco de que o nível de significância que está a ser considerado passe a ser
pulverizado por múltiplos efeitos, até que deixamos de saber se o efeito é significante
ou não, dada a situação.
Partição da variância
• Efeito Principal (A) – variabilidade devida à manipulação do primeiro fator (VIA) ->
SOMAS QUADRÁTICAS DO FATOR A (SQA)
• Efeito Principal (B) – variabilidade devida à manipulação do segundo fator (VIB)->
SOMAS QUADRÁTICAS DO FATOR B (SQB)
• Efeito da Interação (A×B) – variabilidade devida à interação dos fatores (VIA×B)->
SOMAS QUADRÁTICAS DA INTERAÇÃO (SQA×B)
39 | P á g i n a
ANOVA Fatorial Completamente Inter-sujeitos
Uma antropóloga pretende estudar o eventual efeito do álcool na escolha de parceiros sexuais
em encontros fortuitos que se geram entre pessoas que frequentam locais de diversão noturna.
Segundo ela, o consumo de álcool faz aumentar a subjetividade e a imprecisão das perceções
de atração física (efeito conhecido por “beleza alcoólica”). Interessada em perceber se este
efeito afecta de forma diferente ambos os sexos, reuniu uma amostra aleatória de 48 estudantes
(24 rapazes e 24 raparigas) que organizou em grupos em função do género e da quantidade de
álcool consumida [cerveja sem álcool (placebo); cerveja com álcool (2 canecas; 4 canecas)],
numa saída noturna de fim-de-semana. No final da noite, fotografou a pessoa com a qual cada
um dos estudantes se tinha envolvido e ia continuar a noite. Cada rosto foi então avaliado por
um júri independente que avaliou a atração das pessoas em cada uma das fotografias,
atribuindo-lhe uma nota entre 0 e 100
• VD – nível de atração suscitado pelo rosto do parceiro com que o consumidro de álcool
se envolve
• VI’s - álcool e género
• Estamos a testar um efeito principal devido ao álcool, um efeito principal devido ao
género. Mas o principal que estamos a investigar é o efeito de interação de género com
o álcool.
• Sabemos que o álcool tende a minimizar as nossas dificuldades em diferentes domínios
do nosso comportamento. O que se pretende saber é se isso afeta igualmente os dois
géneros ou se afeta diferencialmente o género masculino e o feminino. Se alguns dos
géneros é mais afetado pela quantidade de álcool consumida.
40 | P á g i n a
Observação: 8 sujeitos masculinos e femininos para cada condição. Mas se considerarmos
apenas o género, no total são 48 sujeitos – 24 homens e 24 mulheres. Se considerarmos apenas
o álcool independentemente do género, temos 16 sujeitos a consumir placebo, 16 sujeitos a
consumir duas canecas e 16 sujeitos a consumir 4 canecas. Por tal teremos de decompor as
somas quadráticas totais nas SQ do modelo e nas SQ do modelo.
Somas quadráticas totais (SQt) -> Variância total que existe entre todos os resultados quando
se ignora o grupo (condição experimental à qual estes pertencem
Média(T)= 58,33
Variância T = 190,8
(grande dispersão
– ALERTA)
41 | P á g i n a
Graus de Liberdade: uma vez que se utiliza toda a amostra para calcular as somas quadráticas,
os graus de liberdade totais (glT) são dados pelo valor da dimensão amostral menos 1 (N-1) = 47
SQgénero:
42 | P á g i n a
Efeito principal da VI género: variância explicada pelo sexo de pertença (agrupar resultados de
acordo com o género, ignorando a condição relativa à quantidade de álcool que os sujeitos
consumiram):
(Dos 5479,167 unidades de variância relativas ao modelo composto pelos dois fatores (género
e álcool), 168,75 são explicados pela VI Género)
SQálcool
(Diferença enorme)
(Dos 5479,167 unidades de variância relativas ao modelo composto pelos dois fatores (género
e álcool), 3332,292 são explicados pela VI Álcool). Graus de Liberdade = K-1 = 3-1 = 2
43 | P á g i n a
Efeito da Interação entre os fatores A e B (SQ género v álcool)
Se:
Então:
Ou
Somas Quadráticas do Resíduo (SQr) -> tendo em conta a soma das variâncias de cada grupo
da primeira tabela
Das 8966,66 unidades de variâncias explicada pela totalidade dos resultados (SQt), 3487,52
resultam de fatores estranhos que o modelo não consegue explicar.
44 | P á g i n a
Já temos calculado:
Por fim, estamos em condições de calcular as respetivas médias quadráticas: divisão das SQ
pelos respetivos graus de liberdade.
Médias Quadráticas
Uma vez que o modelo integra o contributo dos dois fatores, cada um dos efeitos (os dois efeitos
principais e o efeito da interação) têm a sua própria razão de variância F cujo conhecimento
requer o cálculo prévio das respetivas Médias Quadráticas!
Por outro lado, é aqui que começam as diferenças que marcam de forma vincada o plano
completamente intersujeitos dos restantes (do intra e do misto que estudaremos mais à frente).
Uma vez que a variância total nos dados se compõe do valor que é devido ao modelo (género,
álcool, género x álcool) e do erro do próprio modelo (variabilidade devida às diferenças
individuais no desempenho, não explicada pela manipulação dos fatores que o compõem),
também se têm de calcular as médias quadráticas do resíduo.
45 | P á g i n a
Razões da Variância
• São calculadas para as duas variáveis independentes e para a sua interação, a partir das
médias quadráticas de cada efeito em razão das médias quadráticas do erro do
modelo
Estatística Crítica:
46 | P á g i n a
• Ao dividir as somas quadráticas da VI (álcool, género, interação) pelo erro, vou
obter o eta quadrado parcial: 168,75 /168.5 + 3487,500 (caso do álcool)
Sem violação do
pressuposto em
nenhuma das 6
condições resultantes
47 | P á g i n a
Outros outputs do SPSS
48 | P á g i n a
Para álcool:
35% da variabilidade registada nas
perceções de atração física pode ser
explicada pelas diferentes quantidades
de álcool que os sujeitos consomem.
Para a interação:
49 | P á g i n a
Resposta:
Estudou-se o impacto do álcool (placebo, 2 canecas, 4 canecas) nas perceções de atração física
de ambos os sexos (M/F), com base na avaliação feita por um júri (maior a nota, mais atraente
o rosto).
50 | P á g i n a
quadrado. O efeito principal, devido ao género, não atinge significância estatística [F(2,
44)=2.032, n.s., 𝜂2=.009].
A análise dos pressupostos não revelou qualquer violação da normalidade da distribuição dos
dados na VD no sexo masculino, nem para a condição placebo [S-W(8)=.941, p=.622], nem para
a condição 2 canecas [S-W(8)=.967, p=.870], nem tão pouco para a condição 4 canecas [S-
W(8)=.951, p=.720]; no sexo feminino, as distribuições dos dados também são oriundas de
populações com distribuições normais, seja na condição placebo [S-W(8)=.872, p=.156], seja na
condição 2 canecas [S-W(8)=.899, p=.283], seja ainda na condição 4 canecas [SW(8)=.897,
p=.273]
51 | P á g i n a
ANOVA Fatorial Completamente Intra-Sujeitos
• Toda a variância (modelo e erro do modelo) vão ocorrer na parte da variância Intra-
Sujeitos)
• Objetivos:
o Testar diferenças entre condições resultantes da manipulação de VI’s em
medidas repetidas
o Analisar os efeitos de mais do que uma VI e o modo como essas variáveis
interagem em medidas relacionadas
o Estender os conhecimentos relativos à ANOVA unifatorial intra-sujeitos a
situações em que existem duas variáveis independentes em medidas repetidas
o Incorporar no plano fatorial um segundo fator que tenha sido alvo de
manipulação sistemática, com atribuição dos mesmos sujeitos às diferentes
condições
Partição da variância
• Efeito Principal (A) – variabilidade devida à manipulação do primeiro fator (VIA) ->
SOMAS QUADRÁTICAS DO FATOR A (SQA)
• Efeito Principal (B) – variabilidade devida à manipulação do segundo fator (VIB)->
SOMAS QUADRÁTICAS DO FATOR B (SQB)
• Efeito da Interação (A×B) – variabilidade devida à interação dos fatores (VIA×B)->
SOMAS QUADRÁTICAS DA INTERAÇÃO (SQA×B)
Atenção: Variância ocorre toda Intra Grupos! E o erro é específico a cada efeito, ao contrário
do erro inter-sujeitos que era comum.
52 | P á g i n a
Exercício
53 | P á g i n a
• Nesta 4ª dose do sintético há evidência confirmatória para rejeitar Ho e aceitar H1 em
que existe uma diferença que consiste no facto destes dados não serem oriundos de
uma população normal
• Que as homogeneidades das variâncias entre as condições originais têm elas entre si
variâncias homogéneas
• Teste de Mauchly (qui quadrado associado)
o Recordar: quando os dados são completamente esféricos o Teste de Mauchly
atinge o 1 (valor máximo) e aí o teste de qui quadrado não é calculado.
• General linear model – repeated measures – inserir os dois factores (analgésico em
primeiro – add; depois, dosagem – add) – Define; Plots: representação gráfica para
analgésico e dosagem); testes de post hoc não temos, mas podemos fazer
comparações duas a duas: EM means.
54 | P á g i n a
• Para a dosagem é diferente. No teste de Mauchly um valor negligenciável, baixo: 0,092.
A significância assintóptica do qui quadrado que lhe está associado é de 0,043, inferior
a 0,05 ou seja evidência confirmatória para rejeitar a Ho (as variâncias das condições
resultantes das diferenças entre as condições originais são iguais entre si) e aceitar H1
que defende que essas condições não são iguais entre si. Ao nível da dosagem, os dados
não gozam de esfericidade. Então logicamente teremos de corrigir os dados.
o Correção a utilizar: Como o valor de épsilon não está no intervalo
comprometedor acima de 0,75 poderemos utilizar a correção de Greenhouse-
Geisser. Vamos ajustar os graus de liberdade com base nesta correção.
Tendo em mente a violação dos pressupostos acima referidos, vamos então averiguar os
efeitos Principais e Interação Intra-Sujeitos (porque o plano é completamente intrasujeitos!).
• Para cada um dos efeitos nós temos o efeito e o erro do efeito. Temos as somas
quadráticas do efeito e as somas quadráticas do erro do efeito que lhe está
associado. Quando dividimos pelos respetivos graus de liberdade obtemos as
respetivas médias quadráticas.
• Para o Factor Analgésico, com esfericidade assumida, mantém-se tudo bem.
• Ao nível da dosagem isso não acontece, é limpa toda a informação exceto a
correção Greenhouse-Geisser, seja para o efeito seja para o erro do efeito.
• Para a interação, tudo OK, como para o analgésico.
55 | P á g i n a
• Eta quadrado de Analgésico refere que as diferenças entre médias referem-se a
esse factor em 79%. Por outro lado, interpretando a dosagem à luz da correção
de Greenhouse-Geisser percebemos que, pelos dados, também tem um efeito
principal ao nível do tempo que os sujeitos conseguem estar sem sentir dor
(90% dos casos em que estão há mais tempo sem sentir dor crónica explica-se
por si só (exclusivamente) pela responsabilidade da dose que está a ser aplicada
– mais dose menos tempo, menos dose mais tempo). Mas o que estamos
interessados em saber não é a quantidade nem a qualidade do analgésico, mas
o tipo de interação que existe, destes fatores, quando ele é administrado.
• Na interação o efeito também é significativamente significante (eta quadrado -
->70%).
56 | P á g i n a
Cálculo da Razão F:
• Atenção, no erro de cada um dos efeitos, os graus de liberdade são dados pelos graus
de liberdade do fator x graus de liberdade between subjects
57 | P á g i n a
Medida de efeito eta quadrado:
Resposta:
Comparou-se a eficácia de dois analgésicos (natural, sintético) em função de cinco dosagens
diferentes, numa amostra aleatória de pacientes referenciados com quadro clínico de dor
crónica (N=10).
Comparações múltiplas a posteriori das condições duas a duas, calculadas com ajustamento de
Bonferroni, revelam que os analgésicos só se diferenciam de forma significante quando a
quantidade que é administrada aos pacientes se cifra em 4 doses (p=.002) e em 5 doses (p.001).
A análise dos pressupostos não revelou qualquer violação da normalidade da distribuição dos
dados na VD em nenhuma das dosagens, seja no caso do analgésico natural [S-W(10)=.903,
p=.239; SW(10)=.904, p=.242; S-W(10)=.986, p=.989; S-W(10)=.949, p=.656; SW(10)=.913,
p=.300; doses 1, 2, 3, 4 e 5, respectivamente], seja no caso do analgésico sintético [S-
W(10)=.916, p=.327; S-W(10)=.890, p=.172; S-W(10)=.941, p=.566; S-W(10)=.962, p=.809; doses
1, 2, 3 e 5, respectivamente], excepção feita à dose 4 desta variante sintética do analgésico [S-
W(10)=.826, p=.030].
58 | P á g i n a
Os dados revelam circularidade para o medicamento [W=1.000] e sua interacção com a dosagem
[ 2 (9)=6.35, p=.712], mas não nesta última [ 2 (9)=17.69, p=.043], razão pela qual se reporta
este efeito principal corrigindo os respectivos graus de liberdade com a estratégia de
Greenhouse-Geisser. Globalmente para os dois medicamentos, as maiores dosagens
encontram-se associadas a maiores períodos de tempo sem dor; a comparação dos analgésicos
aponta no sentido de uma maior eficácia do natural face ao seu congénere sintético (cf.
“Descriptive Statstics”).
59 | P á g i n a
ANOVA Fatorial Mista
• Simultaneamente no mesmo plano de investigação, VI’s operacionalizadas como
intersujeitos e como intrasujeitos.
Objetivos:
Exercício:
Homens e mulheres não investem da mesma forma nas relações afectivas, cada uns deles
tendendo a valorizar dimensões diferentes no sexo oposto. A questão fundamental consiste em
perceber qual das duas dimensões, a aparência ou a personalidade, assume maior importância
no âmbito dos relacionamentos heterossexuais. Pretendendo testar a questão, um investigador
pediu a sujeitos de ambos os sexos que se pronunciassem acerca da
possibilidade/impossibilidade de se virem a envolver com diferentes pessoas que diferiam em
termos da sua personalidade (Muito Carisma/Carisma/Cretino) e da respectiva aparência
(Atraente/Normal/Repelente), de acordo com uma escala em que 100 corresponde a
envolvimento garantido (a pessoa dos seus sonhos) e 0 equivale à impossibilidade de todo e
qualquer envolvimento (a pessoa dos seus pesadelos). Os dados constam da tabela seguinte:
60 | P á g i n a
• Cada sujeito masculino e cada sujeito feminino tiveram que avaliar uma descrição
relativo a alguém que compreendesse cada uma das nova descrições.
Cálculo:
Nota do professor: três fatores envolvidos no plano. Para cada um dos fatores vou esperar
efeitos principais: vou testar a H0 na qual a média de um indivíduo atraente é igual a um
indivíduo normal que é igual a um indivíduo repelente contra uma hipótese alternativa segundo
a qual as 3 médias são diferentes. Depois vou testar o efeito principal para a personalidade: Ho
na qual a média de muito carisma é igual à de carisma que é igual à de cretino contra uma H1
que refere o contrário. E finalmente ainda vou experimentar um efeito principal quanto ao
género de pertença, segundo o qual a média feminina = à média masculina contra uma H1 que
refere o contrário. Depois vou ter interações bifactoriais: vou ter de cruzar os níveis da aparência
com os da personalidade – esta combinatória vai-me permitir estabelecer uma H0 segundo a
qual as médias das condições cruzadas são iguais contra uma H1 que são diferentes entre si.
Mas também vou testar um efeito de interação bifactorial entre aparência e o género e entre a
personalidade e o sexo, nos mesmos moldes. E finalmente vou ainda testar uma interação tri-
fatorial em que vou testar uma H0 segundo a qual o cruzamento das condições da aparência
com a personalidade, em termos das respetivas médias, sáo iguais em termos de masculino e
feminino contra uma Ho segundo a qual são diferentes.
Pressupostos de cálculo:
61 | P á g i n a
Para cada um dos níveis da VI inter-sujeitos (sexo) o padrão de inter-correlações entre os níveis
das VIs’ intra-sujeitos (aparência, personalidade) deverá ser o mesmo.
SPSS:
62 | P á g i n a
2.º Testar a Homogeneidade da Variância
3º Passo: Esfericidade
63 | P á g i n a
4º Passo controlo do pressuposto específico do Plano Misto (M de Box)
• Género não significante. Não explica rigorosamente nada das escolhas. Estas vão
basear-se estritamente na aparência e na personalidade, se houver alguma diferença.
64 | P á g i n a
Ao nível da personalidade,
precisamente a mesma
coisa. Homens e mulheres
também funcionam de
forma diferente.
Homens e mulheres
escolhem de maneira
diferente. Mulheres
valorizam mais a
personalidade que a
aparência e os homens são muito menos criteriosos nesse sentido, quanto à personalidade.
Para perceber o que está realmente a provocar estas diferenças teremos de fazer
comparações múltiplas à posteriori.
65 | P á g i n a
escolhem mais. Se as senhoras valorizam mais a estética, os homens tendem a valorizar
mais o conteúdo (nesta amostra, porque é contraditória ao clichê).
Resposta:
Considerando os dois sexos globalmente, quanto mais atraentes e carismáticos são as pessoas,
tanto maior tende a ser a possibilidade de estas virem a ser consideradas como potenciais
parceiros num futuro relacionamento afectivo (cf. “Descriptive Statstics”).
66 | P á g i n a
Uma ANOVA factorial mista revela a existência de um efeito principal estatisticamente
significante para a aparência [F(2, 36)=328.25, p<0,001] e para a personalidade [F(2, 36)=423.73,
p<.001] a que correspondem medidas de efeito de .95 e .96, respectivamente, calculadas com
base no eta-quadrado. Foram ainda identificadas interacções significantes entre estes factores
intra-sujeitos [F(4, 72)=36.63, p<.001, 2=.67]; a aparência [F(2, 36)=62.45, p<.001, 2=.78],
bem como a personalidade [F(2, 36)=80.43, p<.001, 2=.82], revelam interacções significativas
com o único factor inter-sujeitos. É ainda significante a interacção de todos os factores entre si
[F(4, 72)=24.12, p<.001, 2=.57].
O efeito principal para o factor sexo não se revela estatisticamente significante [F(1, 18)=.005,
p<.946, 2.001].
67 | P á g i n a
Correlação
As técnicas baseadas na correlação são muito usadas em planos não experimentais e as variáveis
não são deliberadamente manipuladas, ou seja, são descritas tal como ocorrem. São úteis para:
“Na correlação medimos apenas a variação do conjunto nas dimensões do comportamento que
estamos interessados. Basicamente, hoje vamos explorar relações entre pares de variáveis para
futuramente falarmos de regressão bivariável (reunindo evidencia confirmatória que confirme
uma relação significante entre duas variáveis x e y, é possível regredir y em x sem que tenhamos
medido previamente. É possível estimar uma variável a partir de uma outra com ela relacionada,
o que é extremamente vantajoso para desenvolver estratégias de intervenção de cariz
preventivo. Conseguimos assim antecipar os problemas e atuar sobre eles antes de eles serem
prejudiciais nos diversos contextos.”
Correlação: descreve a força / magnitude e a direção / sentido entre duas variáveis contínuas
ou uma variável contínua e uma dicotómica
68 | P á g i n a
o A relação entre duas variáveis tende a ser influenciada por uma 3º variável cuja
ação vem aumentar ou diminuir a relação entre as duas anteriores. Quando
desconfiamos disso utilizamos uma medida de correlação parcial: permite
anular estatisticamente a correlação da variável que desconfiamos estar a
mediar a correlação entre as duas variáveis originais de interesse, e permite-nos
calcular a correlação conjunta (de ordem 0) das 3 variáveis entre si e depois
anular automaticamente aquela que suspeitamos que está a influenciar, e
perceber se há eventualmente uma diferença entre o valor de correlação de
ordem 0, e a correlação parcial em que estamos interessados, e perceber se de
facto há uma mudança em termos de magnitude. Se de facto houver uma
discrepância (dois valores tenderem a dissociar-se) então as nossas suspeitas
são legítimas. Se for residual, é porque a 3ª variável não está a influenciar nem
amediar as duas variáveis nas quais estamos extremamente interessados.
Regressão: Prediz uma única VD a partir de uma ou mais Vis, testa o poder preditivo de um
conjunto de variáveis e avalia o contributo relativo de cada uma delas isoladamente
69 | P á g i n a
resultado o que vai fazer emergir é precisamente o conjunto de 6 componentes, em que
cada um será respetivo a cada construto dos 6.
• Técnica que permite construir instrumentos de avaliação psicológica: se partimos de
180 itens e queremos isolar um conjunto de apenas 60 (10 para cada um dos tipos) e
assim vamos querer isolar aqueles que são mais fortes, os que cuja intercorrelação entre
siée mais forte e a intercorrelação com os que não lhe pertencem é necessariamente
mais fraca.
• Para alem desta instrumentalidade na construção de instrumentos de avaliação, tem
também o potencial que nos permite perceber como é que ele funciona, se de facto essas
dimensões emergem na mesma relação que têm, nos diversos contextos, e perceber o
porquê de poder haver resultados menos válidos.
Coeficiente de Correlação
70 | P á g i n a
▪ (1) A relação é linear (resultados elevados e x associados a resultados
baixos em y; resultados baixos em x associados a resultados elevados
em y)
o Força
▪ r = .10 a .29 ou -.10 a -.29 → Pequeno
▪ r = .30 a .49 ou -.30 a -.49 → Médio
▪ r = .50 a 1.0 ou -.50 a -1.0 → Grande
Sem consenso no r grande. restantes 50% considera grande. se a primeira metade ele divide em
2 secções, e a segunda apenas 1. Isso gera consenso, esta ausência também de uma subdivisão
nestes 50%.
Uma nova perspetiva de Dancey e Reidy (1999) dá-nos um escalamento de situações muito
mais abrangente que a proposta do Cohen que surge muito mais limitativa.
71 | P á g i n a
• Outliers:
o Afetam drasticamente. Subestimam ou sobrestimam a verdadeira relação
entre as variáveis. Analisar o diagrama de dispersão com a média / média
aparada a 5%
▪ A existência de outliers na distribuição das variáveis é desaconselhável.
Controlamos isso a partir de observação gráfica, mas principalmente
pela confrontação entre os valores da média aritmética ou aparada.
▪ Se o valor da média aritmética calculada com todos os valores convergir
ou coincidir com o valor da média aparada (que é calculada apos ser
expurgada dos 5% dos casos marginais- 2,5% abaixo e 2,5% acima) é
porque as distribuições para as variáveis em causa não incluem outliers.
▪ Se os dois valores forem discrepantes temos de desconfiar seriamente
que os valores estão 3 DP acima ou abaixo da média da distribuição.
Neste caso estes sujeitos que contribuem com estes valores devem ser
retirados da análise para nao enviesarem a relação entre as variáveis.
• Amostras:
o Devem ter dimensão suficientemente grande para permitir um conjunto mais
diversificado de resultados em cada uma das variáveis.
▪ A correlação é super sensível à dimensão da amostra.
• Correlação / Causalidade:
o A relação entre variáveis não pressupõe nexo de causalidade
▪ Apesar de termos por obrigação apresentar o valor p. value da
correlação que estamos a calcular, em termos de interpretação não
vamos basear-nos nessa significância estatística, mas vamos abordar a
medida de efeito.
▪ Para todos os efeitos essas medidas não são mais que os coeficientes de
correlação. Representamos a significância estatística mas vamos
interpretar a qualidade de correlação a partir do valor da variância
conjunta das duas variáveis e fazemos isso elevando o valor do
coeficiente da correlação ao quadrado-> chama-se coeficiente de
determinação, que nos dá a percentagem de variância (representação
de dois círculos sobrepostos em que um representa a variável X e o outro
representa a variável Y). Quanto maior a sobreposição, maior a
variância comum entre as duas variáveis, maior o coeficiente de
determinação.
• Significância estatística / prática
o É muito limitada:
▪ Amostras pequenas (N<30). Correlações moderadas não alcançam
significância estatística.
▪ Amsotras grandes (N>30). Correlações pequenas alcançam significância
estatística.
▪ Sugestão: calcular o Coeficiente de Determinação (r2) – percentagem
de variância comum.
72 | P á g i n a
Pressupostos
Exercício de Aplicação
A investigação é estudar os fatores que influenciam o ajustamento e bem-estar psicológico dos
sujeitos, em termos de sentimentos de autocontrolo e de nível de stress percebido.
Existirá uma relação entre o controlo que os sujeitos fazem dos seus estados internos
(autocontrolo) e os seus respetivos níveis de stress percebidos? Será que as pessoas com
elevados níveis de controlo percebido tendem a experienciar baixos níveis de stress percebido?
Pressupostos:
73 | P á g i n a
• Homocedasticidade
• rho de Spearman
Diagrama de Dispersão:
Objetivo:
Interpretação:
• Outliers – remoção/recodificação
• Análise da distribuição dos postos (magnitude/força):
o Dispersa (correlação muito baixa)
o Cilíndrica (correção forte)
o Curva [relação curvilinear (Não usar o r de Pearson: relação linear)
o Cilíndrica espiralada (violação do pressuposto da homocedasticidade)
• Determinação da direção da distribuição (sentido)
o Positiva – ascendente (resultados elevados em 𝜒 associados a resultados
elevados em y)
o Negativa – descendente (resultados baixos em 𝜒 associados a resultados
elevados em y)
74 | P á g i n a
Output da Correlação
Interpretação:
75 | P á g i n a
Resposta
o A relação entre o controlo percebido relativamente aos estados internos (medido pela
PCOISS) e o stress percebido (medido pela escala de Stress Percebido) foi estudada
através do coeficiente de correlação produto-momento de Pearson.
o Foram realizadas análises preliminares para assegurar a inviolabilidade dos
pressupostos relativos à normalidade, linearidade e homocedasticidade.
o Verificou-se uma forte correlação negativa entre as duas variáveis (r = -.58, n=426,
p<.001) com elevados níveis de controlo percebido associados a baixos níveis de stress
percebido, o que vai no sentido da hipótese teórica. O controlo percebido pelos sujeitos
ajuda a explicar cerca de 34% da variância que se verifica ao nível dos seus resultados
na escala de stress.
o Nota: -,58 é relacionado com o valor da amostra. Mas a nível populacional é
importante saber o valor (o extremo inferior e o extremo superior deste intervalo
de confiança). Tomamos o valor da diferença entre as médias, somávamos e
subtraíamos o valor da estatistica crítica pelo erro padrão da medida. Aqui
fazemos igual só que de outras formas específicas
2.
76 | P á g i n a
Somando e subtraindo vou encontrar os valores normalizados. O valor mínimo, o valor
máximo. Depois terei de converter o valor normalizado (isto a partir da tabela).
Análise:
• Intervalo de confiança para 95%, para o coeficiente de correlação populacional a variar
entre -.64 e -.52 quando o coeficiente de correlação amostral é -.58.
• Se na minha amostra, a relação entre o autocontrolo e o stress vale -.58, eu espero em
termos populacionais, encontrar esse valor entre o intervalo compreendido entre -.64
e -.52.
77 | P á g i n a
• relação negativa em ambos os casos, mas com magnitudes diferentes. Para os homens,
uma correlação fraca e para as senhoras uma correlação moderada.
• Em ambos os casos, significância inferior a 0,01.
• No caso das senhoras, 16% (equivalente na tabela a 0,394 -> 0,4)
Interpretação:
• Sexo masculino
o Correlação: rM = -.22 (p=0.03)
o Significância estatística do coeficiente de correlação → testa H0 (rM
populacional é zero)
• Sexo feminino
o Correlação: rF = -.39 (p<.001)
o Significância estatística do coeficiente de correlação → testa H0 (rM
populacional é zero)
78 | P á g i n a
É possível testar a significância estatística de rM e rF ou seja, avaliar a probabilidade da
diferença registada entre as correlações dos dois grupos, masculino e feminino, ser devida ao
erro amostral quando, de facto, não existem diferenças reais na força/magnitude da relação
entre estas variáveis para ambos os sexos.
Pressupostos
Como fazer?
79 | P á g i n a
Cálculo
3. Cálculo do Z(obs)
o Se o valor observado na amostra estiver dentro do intervalo de +-1.96, não se rejeita H0.
o Se em contrapartida o valor observado estiver no intervalo - infinito a 1.96 ou 1,96 a +
infinito- , rejeita-se ho e aceita-se h1.
o Preciso de conhecer o valor do Z observado para saber se ele está dentro ou fora do
intervalo. Como calcular o valor do Z observado? Fazendo a razão entre os valores
normalizados dos coeficientes de correlação relativos à diferença, a dividir pela raiz
quadra de 1/Nmasculino - 3….. e feminino.
o So tenho de ter em consideração que previamente tenho de normalizar 0.22 e 0.394 pelo
cálculo ou pela tabela.
80 | P á g i n a
Cálculo de Z obs:
1.99 está fora do intervalo. Está no intervalo de 1.96 a + infinito. Pertence à região de
rejeição. Rejeita-se H0 e conclui-se que de facto homens e mulheres se diferenciam
significativamente em termos da relação entre o optismo e o afecto negativo.
Conclusão:
Correlação Parcial
81 | P á g i n a
Exercício de Aplicação
Será que, depois de se controlar a tendência dos sujeitos para se autocaracterizarem de uma
forma positiva em escalas auto-referentes, se continua a registar uma relação entre o
autocontrolo e os seus respetivos níveis de stress percebidos? Será que elevados níveis de
autocontrolo continuam a estar associados baixos níveis de stress percebido?
Relação entre o autocontrolo e o stress percebido, desconfio que essa relação possa ser
influenciada / modelada por uma coisa chamada desejabilidade social (tendência que a amostra
tem para, tentando adivinhar os propósitos do investigador, responderem não como eles são
realmente, mas em função do que suspeitam que o investigador gostaria que eles fossem). Há
uma escala própria de Marlowe Crowne - desejabilidade social. Um bom indicador para
percebermos se, numa determinada investigação, os sujeitos foram honestos nas suas respostas
ou, mesmo que inconscientes, desonestos tentando adivinhar o sentido da investigação que o
autor está a fazer.
Técnica:
• Correlação Parcial:
o Produto-Momento de Pearson (r de Pearson)
• Explorar a relação entre as variáveis autocontrolo e stress percebido, enquanto se
controla estatisticamente o efeito de uma outra variável cuja influência se acredita estar
a contaminar a relação entre as duas outras (desejabilidade social)
82 | P á g i n a
Output:
Resposta Final
Calculou-se uma correlação parcial para analisar a relação existente entre o autocontrolo
(avaliado pela PCOISS) e o stress percebido (avaliado pela Escala de Stress Percebido),
controlando os resultados na Escala de Desejabilidade Social de Marlowe-Crowne.
Análises preliminares permitiram assegurar a inviolabilidade dos pressupostos relativos à
normalidade, linearidade e homocedasticidade.
Verificou-se uma forte correlação parcial, negativa, entre autocontrolo e stress percebido [r =–
.55, n=423, p<.0005], com elevados níveis de autocontrolo associados a baixos níveis de stress
percebido, o que vai no sentido da hipótese teórica. A análise da correlação de ordem zero (r=–
.58) sugere que o facto de se ter controlado a desejabilidade social de resposta teve um efeito
muito pequeno na força da relação entre as duas variáveis.
83 | P á g i n a
Regressão Simples
• Técnica correlacional baseada na relação entre variáveis. So é legítima se duas variáveis
mostrarem entre ter entre si estatística significante chamada regressão.
• Temos uma preditora e um critério.
• Regressão permite-nos estudar o valor preditivo de uma variável ou de conjunto de
variáveis e avaliar o contributo delas (variável preditora ou das variáveis preditoras) de
forma isolada para o modelo e para o critério que estamos a estimar.
Correlação e Regressão
• Coeficiente de correlação informa acerca da quantidade dos pontos que num diagrama
de dispersão estão próximos da linha recta, mas omite acerca da identidade específica
da linha (por ex: a linha que melhor se ajusta aos dados pode ser curva e não recta).
o Limitada, só dá informações acerca da magnitude e direção.
o Para predizer os valores de uma variável a partir da outra, é necessário ter
informação mais detalhada acerca da linha reta (é preciso conhecer o declive –
pendor ou grau de inclinação – e a ordenada na origem (valor constante que a
reta assume quando o declive e a inclinação da reta são comuns (interceção
com y). Isso só é viável através do modelo da regressão.
Pressupostos
Regressão Simples
• Valores de uma variável VD estimados a partir dos valores de outra variável VI através
de uma equação de regressão linear (recta)
84 | P á g i n a
Ou seja, a relação das duas variáveis entre si pode e deve ser modelada através de uma linha
recta.
No ciclo aprendemos que seria possível calcular os valores em y sabendo, não só a inclinação da
recta (declive) mas também o ponto de intersecção da recta com o eixo das ordenadas. E com
isto construiríamos uma recta. Evoluiríamos de um tópico em que são necessários dois pontos
para a construção de uma recta para um tópico mais avançado em que se soubermos a
inclinação da reta, sabendo a ordenada na origem, era possível calcular a recta. Basicamente o
que o modelo de regressão faz é precisamente a mesma coisa. Se a relação entre as duas
variáveis é de natureza linear basta-nos saber o valor da variável preditora (de partida), basta
saber a inclinação e declive da recta e basta saber a sua ordenada na origem para conseguirmos
estimar o valor no critério a partir da preditora da qual estamos a partir.
Do que temos falado, entre o que o modelo estima e o que conseguimos medir na realidade,
está subentendida uma diferença, uma medida de afastamento, os resíduos.
• Equação de regressão: quando estima valores de y (VD) a partir de uma ou mais VI’s, as
estimativas y’ habitualmente revelam ligeiras imprecisões (i.e., geometricamente não
encaixam de forma exata na reta)
o Afastamentos y-y’ na variável predita.
o Medidas de afastamento (resíduos) são medidas de precisão das estimativas
da medida de qualidade (capacidade estimativa / preditiva) do modelo!
Embora analisemos do ponto de vista gráfico, ainda assim é determinante que os resíduos
tenham como critério uma distribuição normal, de natureza linear, homocedástica (constante a
nível de variabilidade) e independente.
85 | P á g i n a
• É possível escrever uma linha recta que nos permita estimar, antes dos alunos
começarem a frequentas estatística, estimar com elevado grau de rigor a nota que irão
ter na unidade curricular de estatística antes de terem começado a frequentar. Do ponto
de vista clínico (desenvolvimental, educacional, práticas psicopedagógicas), qual a
importância de uma técnica como esta? Determinante. Porque se chego a um grupo a
partir da nota de acesso e consigo estimar o seu desempenho, e é-me dado a perceber
que uma elevada percentagem de sujeitos pode vir a ter dificuldades sérias na realização
dessa unidade curricular, vou estar mais atento às estratégias que vou implementar ao
longo do semestre para evitar que esse problema venha a surgir.
• Duas variáveis: nota da prova de acesso como ponto de partida (sem qualquer tipo de
manipulação, mas ainda assim é assumido como variável preditora) e nota de
estatística que é aquilo a que eu quero estimar (VD). Ambas são contínuas, o que não
coloca questões de maior.
86 | P á g i n a
Gráfico de Dispersão
Para cálculo no SPSS devemos pedir algo muito importante no âmbito dos resíduos (casewise
diagnostics) que passa pela necessidade de diagnosticar resíduos que estejam à distância da
média da distribuição dos resíduos (que resulta das diferenças entre aquilo que é medido y e o
que é estimado y’) à distância superior ou inferior a e desvio padrão. Já sabemos do semestre
anterior que todo e qualquer observação de uma distribuição que se afaste para lá de 3 DP é
considerado um outlier severo. Moderado entre 1.5 e 3.0 e severo a partir de 3.0.
Todo e qualquer valor que pode existir vai subvalorizar a qualidade preditiva do modelo.
Portanto vai ter de sair da base e o modelo de regressão não pode ser construído assente
nesses outliers severos (valores extremados), que têm de ser expurgados caso existam.
87 | P á g i n a
com o que foi avaliado. Foi avaliado y = 19,5 e foi estimado y’=11,1 o que dá um
diferencial de resíduo de 8,4.
Com este sujeito na análise, a relação entre a nota de acesso e a nota de estatística (significante),
moderadamente forte, é de 0,671. A presença deste sujeito está a subestimar o modelo de
relação, a relação entre as duas variáveis. Se expurgarmos o sujeito temporariamente
(procedimento correcto), e valor da correlação produto-momento de Pearson vai-se alterar,
vai tornar-se superior em termos de magnitude.
Permite-me concluir que a correlação populacional entre a preditora e o critério é não nula. É
significativamente diferente de 0.
• A razão F com uma significância inferior a 0,001 permite-me rejeitar H0 e aceitar H1.
• Esta análise de variância testa-me a sig. Da relação linear entre a nota de acesso e a
nota da candidatura. Testa uma Ho em que o coeficiente da relação é =0 contra uma
H1 em que o coeficiente da relação é significativamente diferente.
• Relação não resulta do erro amostral e, desta forma, permite-nos, cumprindo os
pressupostos, estabelecer o nosso modelo.
88 | P á g i n a
A distribuição que resulta das diferenças entre aquilo que
é medido por y e aquilo que é estimado por y’ tem com o
critério (nota de estatística) uma relação normal, de
natureza linear (embora não seja perfeita é recta) e
homocedástica.
Homocedástica:
• O que importa inferir é que a nuvem de pontos entre os valores preditos normalizados
y’ e os resíduos normalizados (diferença entre y e y’) não tenham qualquer padrão
geométrico gráfico. Ao não haver padrão de agregação de pontos da forma geométrica
que possam fazer, é indicador que se verifica a homocedasticidade.
• Sabendo que a relação populacional é significativamente não nula, cumpridos os
pressupostos, temos de ir à procura do nosso modelo.
• Sem o sujeito 34 na base, a relação não enviesada por esse sujeito é de 0,73.
Modelo:
• Preditora e critério tem entre si uma relação significante, mas que vale 0,73.
• Apenas na regressão linear simples, o coeficiente de correlação amostral coincide com
o coeficiente de correlação populacional (na regressão múltipla já não). Porque só há
uma preditora e a sua relação com o critério coincidem (partilham o mesmo R).
89 | P á g i n a
• Existe o R2 e o R2 ajustado. A primeira é uma estimativa sobrevalorizada e, para
amostras pequenas (não é o caso), o SPSS corrige a estimativa inicial. O interesse destes
valores dá indicação indireta acerca da quantidade de sujeitos amostrais ser ou não ser
adequada para calcular um modelo de regressão estável. Sempre que estes dois valores
forem coincidentes e tendencialmente divergentes, e o R for inferior ao ajustado, já é
de desconfiar que precisamos de mais sujeitos na base.
Coeficientes
90 | P á g i n a
O contributo desta preditora para o modelo é significante? (este valor pode ser significante,
mas pode haver (noutras ocasiões) preditoras que não o são).
• Por isso esta tabela produz a estatística T. diz que a nota de acesso que explica 53,1%
da nota de estatística é de facto uma preditora significante. Se viesse superior a 0,05
logicamente o valor de B1 seria mais baixo e não contribuiria para estimar o critério.
• Dividindo o coeficiente não normalizado B pelo seu erro padrão. 3.155 / 0.532 = 5.930
• Para além da nota de acesso ser um contributo significante, ela tem um peso de 0,729.
Se tivesse mais do que uma preditora, este coeficiente Beta estaria repartido pelos
diferentes preditores (estaria nos pesos parciais de cada uma delas e poderia dar a
entender qual a mais importante).
91 | P á g i n a
Como chegar ao valor de R se ele não for dado?
• Se calcularmos 18096, 329 / 34076,909 (tal como se calculava o eta quadrado) = 0,531
– R quadrado
• Raiz quadrada desse R quadrado dá 0,729.
Equação de Regressão
Quer dizer que a partir de uma constante de -46.31, por um incremento de 3.16 por cada valor
que se incrementa na prova de acesso… eu vou encontrar a nota de estatística.
Exemplo:
Para um sujeito cuja nota na Prova de Acesso tenha sido 60 (#29) – base de dados - é possível
predizer uma Nota em Estatística de:
92 | P á g i n a
Resposta:
• Foi calculado uma regressão linear para determinar o efeito da nota da Prova de Acesso
na nota global no curso de estatística para os caloiros do ano letivo de 2005/2006.
• Constatou-se que a um aumento das notas da prova de acesso corresponde um
incremento de 3,16 na nota de Estatística.
• O valor de F(1,31)=35,10 tem uma probabilidade associada de p<.001, mostrando que é
uma probabilidade associada de p<.001, mostrando que é pouco provável que os
resultados tenham surgido devido a um erro amostral, assumindo que a hipótese nula
é verdadeira.
93 | P á g i n a
Regressão Múltipla Standard
• Estender regressão linear a situações em que temos mais que uma preditora. Permite-
nos fazer uma exploração sofisticada de intercorrelação das variáveis entre si.
• VD contínua (Critério)
• VI’s, habitualmente contínuas (Preditoras)
Permite:
Regressão Múltipla
• Valores de uma variável (VD) estimados a partir dos valores de duas, ou mais de duas,
outras variáveis (VI) através de uma equação de regressão múltipla, de y sobre x1,x2…,
xp.
94 | P á g i n a
Regressão Múltipla
Depois de uma abordagem exploratória, onde utilizarmos a RM standard vamos, pelas relações
de natureza teórica ou conceptual que as preditoras têm ou podem ter entre si, vamos constituir
conjuntos a que chamamos blocos de variáveis preditoras, que priorizemos a entrada desses
blocos segundo uma sequência que é definida pelo estudo teórico / conceptual que temos acerca
dessas preditoras. Se desconfiamos que a idade pode ter um efeito moderador na capacidade
preditiva da satisfação com a vida a partir do otimismo, vamos priorizar a idade e vamos
priorizar separadamente o otimismo, dando ordens de idades diferentes no modelo a cada um
95 | P á g i n a
destes blocos. Damos instruções ao programa para considerar, num primeiro momento apenas
a idade e perceber a percentagem da variância explicada pela idade. Depois introduzimos pelo
2º bloco definido apenas pelo otimismo, e vamos perceber se há uma acréscimo / incremento ou
não, de variância explicada na satisfação com a vida, e de que tipo (elevado, moderado,
reduzido?) é esse incremento quando o otimismo pode estar incluído? Perspetiva verifiquista e
de confirmação. Avaliar um modelo global da capacidade preditiva de todas as VI’s e depois o
contributo isolado apenas da idade, e o contributo isolado do otimismo em termos de satisfação
coma vida.
3- RM Stepwise
O que acontece é que o investigador perde desta forma o controlo do modelo, e nessas condições
a melhor combinação matemática que o programa encontra pode não ter necessariamente uma
coerência teórica. Assim, estarei a explicar algo que do ponto de vista conceptual não fazer
sentido. Daí a crítica de muitos autores a esta abordagem da regressão múltipla.
• Dimensão da amostra
o Amostras pequenas: a distribuição dos resultados é muito assimétrica,
resultados não generalizáveis a outras amostras
o Solução:
▪ Stevens (1996) – Ciências sociais: 15 sujeitos por preditor (para amostras de 30)
▪ Tabachnick & Fidell (2001) fórmula:
▪ VD skewed -> aumentar casos
▪ Stepwise: razão de 40 sujeitos por cada VI
96 | P á g i n a
Enquanto para Stevens, 30 sujeitos (15 por preditora) deverá criar condições para um modelo de
regressão estável, para Tabachnick e Fidell a margem será mais confortável (66) acréscimo de
36 sujeitos a nível de amostra, o que nos dá outro conforto.
• Multicolinearidade e Singularidade
o Controlar a relação entre as VI’s
o EVITAR:
▪ Multicolinearidade (VI’s altamente correlacionadas entre si – R igual ou
superior a 0.90
▪ Singularidade: quando uma VI constitui uma combinação de outras VI’s
(ex: incluir simultaneamente os resultados de uma escala)
Se estou a construir um modelo de regressão em que estou a incluir variáveis que são subescalas
de instrumentos de av.psicológica, devo evitar incluir no mesmo modelo o valor total e as
subescalas parciais que constituem o instrumento, de forma a evitar a Multicolinearidade.
Quanto à singularidade, as variáveis preditoras não devem valores superiores a .90 quanto à
intercorrelação, e idealmente deverão ser inferiores a .70 (isto quando às preditoras entre si). As
preditoras com o critério devem revelar intercorrelações no mínimo fracas ou moderadas (iguais
ou inferiores a .30).
Por um lado, na regressão linear já incorremos no risco de haver outliers univariados (que
resultam da diferença entre um determinado valor medido e o valor correspondente estimado
para um determinado sujeito numa determinada preditora) – controlamos isto com o casewise
diagnostics). No entanto, como a regressão é múltipla e ela vai incluir duas ou mais preditoras,
que geram entre si uma combinação linear (de todas as preditoras), a combinação linear das
preditora entre si também pode dar aso a que ocorram outliers, aos que chamamos
multivariados – decorrem da combinação linear das preditoras, e não do contributo de cada uma
de forma individual.
97 | P á g i n a
• Normalidade, linearidade, homocedasticidade e independência de resíduos
o Aspetos da relação existente entre as variáveis que se refletem na distribuição
dos resultados
o Controlar
▪ Resíduos scatterplots (resíduos: diferença entre o valor obtido e o
predito na VD)
▪ Normalidade
• Resíduos: normalmente distribuídos relativamente aos valores
preditos na VD
▪ Linearidade
• Resíduos: deverão ter uma relação linear com os valores
preditos na VD
▪ Homocedasticidade
• Resíduos: a sua variação deverá ser a mesma para todos os
valores preditos na VD
A distribuição de resíduos deve ter com o critério uma distribuição normal, de natureza linear e
com uma variabilidade homogénea. É um pressuposto que controlamos graficamente.
Investigação:
98 | P á g i n a
Necessário:
• Variáveis
o 1 VD Contínua (total de stress percebido: tpstress)
o 2 VI’s contínuas (eventualmente dicotómicas)
o Escala de Mestria
▪ Avalia em que medida as pessoas sentem que controlam os eventos que
ocorrem nas suas vidas (controlo externo: tmast)
o Escala de Autocontrolo
▪ Avalia em que medida as pessoas sentem que controlam os seus
estados internos (emoções, pensamentos e reações físicas) (controlo
interno: tpcoiss)
Utilidade
• Informa:
o Acerca da quantidade de variância ocorrida na VD que pode ser explicada pelas
VI’s
o Acerca do contributo de cada VI (determinação da significância estatística dos
resultados, do próprio modelo e de cada uma das suas VI’s
Quero estimar o stress a partir do controlo externo e do controlo interno. E isso tem um erro
que lhe está associado. Ao regredir o stress nas duas variáveis, ou os meus dados envolvem mais
erro amostral do que estou disposto a assumir ou envolvem igual ou inferior erro amostral
relativamente ao que estou disposto a assumir. Análise de variância: vai me testar uma hipótese
nula segundo a qual o coeficiente de correlação múltiplo da combinação linear das preditoras
mestria e autocontrolo com o stress é =0, contra uma hipótese alternativa de que é diferente
de 0. Se for diferente de 0, como é esperado (modelo válido), vou querer traduzir o meu modelo
geral no modelo para os dados, ou seja, vou querer saber quais os valores de B0 e B1 e
logicamente que o erro (se o modelo é válido, significância é igual ou inferior a 0,05) aquele
termo de erro desaparece.
99 | P á g i n a
Em nenhum dos casos a
distribuição é oriunda de uma
distribuição normal. Como a
amostra é suficientemente
grande, violações grosseiras não
comprometem a qualidade da
inferência. Reporta-se isso e
avança-se com a análise.
Análise da Variância
Antes de avançarmos para os pressupostos vamos ver se o modelo tem mais erro que aquele
que estou disposto a aceitar ou se tem tanto ou menos do que estou disposto a aceitar.
100 | P á g i n a
O que preocupa agora é saber se o modelo é ou não válido, e se for válido faz sentido
acontecer o que acontece em termos de
pressupostos.
• Outliers univariados?
o Se tenho uma entrada que diz casewise diagnostics, então eu tenho pelo menos
um outlier univariado, como aparece aqui.
Sujeito tem de stress 14, e o modelo predizia que ele devesse ter 28.85. mais do dobro. Portanto,
14.85 é o resíduo (diferença). Este valor faz com que o resíduo esteja mais de 3 DP abaixo da
média.
Outliers Multivariados?
Para duas variáveis preditoras, 13.82 é um valor que, uma vez ultrapassado dá indicação de outlier multivariado.
101 | P á g i n a
A tabela acima dá-nos 5 highest cases e 5 lowest cases na distribuição de qualquer variável. Dá-
me os 5 casos mais extremos acima e abaixo da distribuição. No caso concreto não tenho
interesse nos casos inferiores, porque o meu valor crítico está nos Highest cases.(13.82), por
isso apaguei os lowest. O caso mais elevado da distribuição: 13.89. 2º caso mais elevado 13.28.
Só tenho mesmo um outlier multivariado. Se os 5 casos fossem superiores a 13.82, teria de ir
à base, anulá-los, definitiva ou temporariamente, e depois disso recalcular para saber se
seriam os únicos ou se haveria mais (o programa dá 5 de cada vez).
• Neste caso, 1 em 400 e muitos é 0,25, super negligenciável. Não me vou dar ao trabalho
sequer de retirar o caso, porque a variabilidade da população é tão grande que tem a
capacidade de absorver este valor no sistema
Multicolinearidade e Singularidade
102 | P á g i n a
Sempre que o valor de tolerância das estatísticas de colinearidade se aproximar de 0, o risco de
multicolinearidade é muito elevado. Sempre que se aproximar de 1, o risco é reduzido ou nulo.
No nosso caso .73 está muito mais próximo de 1 que 0, sem multicolinearidade nem
singularidade nos dados, problema resolvido.
Model Summary
103 | P á g i n a
estimativa= .466. Não preciso de mais sujeitos, os que tenho são mais que suficientes
para estabilizar o modelo.
Coeficiente de Determinação:
Coeficientes:
Quando olho para os coeficientes normalizados Beta, ambas as preditoras são significantes.
Quer a perícia quer o autocontrolo concorrem para explicar significativamente uma parte do
stress. Para saber a que explica mais, terei de olhar para o coeficiente Beta! Para .42
arredondadamente, a perícia / mestria é mais importante para explicar o stress que o
autocontrolo. Por muito bem autocontrolado que eu seja, se eu não perceber que tenho
104 | P á g i n a
capacidade para resolver a situação, eu vou desenvolver mais stress. Se eu perceber que tenho
habilidades para resolver a questão, eu vou desenvolver menos stress. Mas desenvolvo sempre
stress, porque também tenho de jogar com o meu autocontrolo. Embora a perícia seja mais
importante, o autodomínio também joga o seu papel.
Relação de cada uma das preditoras com o critério é uma relação negativa. Quanto mais
autocontrolo, menos stress, quanto menos autocontrolo mais stress. É valido também para a
mestria.
Resposta:
Foi calculada uma regressão múltipla standard entre stress percebido (VD) e duas medidas de
controlo (VIs), designadamente, relativo aos eventos externos Mestria e aos estados internos
PCOISS, através do SPSS.
105 | P á g i n a
A Tabela 1 apresenta as correlações entre as variáveis, os coeficientes de regressão não
normalizados (B) e a ordenada na origem (constante), os coeficientes de regressão normalizados
(), o R2 e o R2 Ajustado. O R para a regressão revelou significância estatística [F(2,423)=186.34,
p<0,001] , permitindo concluir que, globalmente, a Mestria e o PCOISS explicam 46.8% do stress
percebido (N=439).
As duas variáveis contribuem de forma significativa para a predição do nível de stress percebido.
A Mestria explica 42.4% (p<0.001] e o PCOISS explica 36% (p<0.001] do stress percebido.
Notas:
106 | P á g i n a
Análise Fatorial
• Técnica de redução de dados
o Resume grandes conjuntos de dados num conjunto menor de fatores ou
componentes, procurando blocos ou grupos entre as intercorrelações desse
conjunto inicial de dados
O que a técnica irá fazer é reduzir esse conjunto alargado de dados a um conjunto mais reduzido
de combinações lineares para tentar encontrar blocos de intercorrelações dentro desse conjunto
(as variáveis escondidas no espaço latente). Tentar fazer emergir o conjunto de variáveis
(construtos). Decompor a matriz de intercorrelações de todos os itens no conjunto de respostas
dos sujeitos amostrais, fazendo emergir no espaço vetorial latente os chamados construtos que
não são diretamente observáveis.
• Utilizações:
o Desenvolvimento e avaliação de testes e escalas
▪ Um grande número de itens individuais é refinado e reduzido para
formar um número menor de subescalas coerentes
o Análises multivariadas
▪ Reduz um grande número de variáveis relacionadas entre si
convertendo-as numa quantidade menor, mais manipulável, que
permita a sua utilização, por exemplo, na regressão múltipla ou na
análise multivariada da variância (MANOVA)
• Processo de investigação
o Fase inicial: Análise Factorial Exploratória (AFE)
▪ Reunir informação (explorar) acerca das intercorrelações existentes
entre um conjunto de itens / variáveis)
o Fase Avançada: Análise Factorial Confirmatória (AFC)
▪ Conjunto de técnicas mais complexas e sofisticadas para testar
confirmar hipóteses específicas ou teorias relativamente à estrutura
subjacente a um conjunto de variáveis.
107 | P á g i n a
o Recomendações:
▪ ACP e AF: resultados semelhantes
▪ Stevens (1996)
• ACP: psicometricamente forte, matematicamente mais
simples, evita alguns dos potenciais problemas relativos à
indeterminação dos fatores associados à AF
▪ Tabachnick e Fidel (2001)
• AF – quando se está interessado numa solução teórica não
contaminada pela variabilidade específica e do erro
• ACP – quando se pretende um resumo empírico do conjunto de
dados (é o que vamos trabalhar hoje)
108 | P á g i n a
• Etapa 2 – Extração dos factores (determinar / identificar o numero mínimo de fatores
/ dimensões que melhor representam as intercorrelações entre o conjunto de fatores
/ itens
Decisão:
Vamos então olhar para a representação gráfica de todos os eigenvalues e vamos ver onde é q
o gráfico faz um ponto de inflexão manifesto e vamos considerar para posterior rotação tantos
quantos os que ficarem à esquerda do gráfico.
109 | P á g i n a
• Etapa 3 – Rotação e Interpretação dos Factores
o Rotação ortogonal (se forem independentes)
o Rotação oblíqua
Se são factores independentes fazemos uma rotação dita ortogonal. Dos vários métodos
disponíveis o mais eficaz é a rotação Varimax. Mas se forem factores dependentes, então
utilizamos uma regressão dita oblíqua, mais usada comparativamente às suas congéneres.
Esta questão da rotação prende-se com um problema da interpretação dos factores. A análise
dos componentes principais permite identificar, com algum critério mas também com alguma
margem de erro, o numero de factores que estão latentes no espaço vectorial definido pelas
variáveis. Tirando a questão problema da indeterminação dos factores (capacidade de dizer se
são 2, 3 ou 4) vem associada a um outro problema que tem a ver com interpretação. Esta não é
da responsabilidade do programa nem de nenhum software estatístico. O output so nos dizem
as variáveis que agregam entre si robustamente, e não as componentes ou dimensões
adjacentes. Como vamos nomear? Lendo os itens, as variáveis / construtos ou componentes e
perceber o que é comuns a todas elas: requer muita criatividade, ingenuidade e familiaridade
com os dados analisados, assim como um profundo teórico das variáveis comas quais estamos
a trabalhar).
110 | P á g i n a
Na etapa 1 há dois critérios importantes. O primeiro, o da esfericidade. O segundo, se tiver um
valor igual ao superior a .60 temos condições objetivas para calcular e avançar com um modelo
factorial que nos irá permitir poerceber quais os componentes que nele estão escondidos, aos
quais tentaremos dar visibilidade. Para tal iremos extraí-los, onde temos mais dois critérios que
nos permitirão tomar decisões acerca disso: Kaiser e teste Scree. Decididos quantas dimensões /
construtos estão escondidos naquele espaço vetorial latente, teremos de tomar a decisão de as
fazer emergir: solução factorial. Para redistribuir de forma equitativa a variância associada a
cada um deles, iremos então rodar a solução inicial que foi obtida na etapa 2. Temos dois tipos
de relações: se há razoes teóricas para
acreditar que os construtos não têm
relação entre si: usamos ortogonal. Se
desconfiamos que existe uma relação
entre eles (dependência), devemos
utilizar uma rotação do tipo oblíquo. Do
ponto de vista pragmático, a decisão
que se toma é calcular a rotação
ortogonal, a oblíqua e defender a que
nos dá uma solução, mas limpa.
Investigação:
• Afeto positivo
• Afeto negativo
• Permite explorar / confirmar esta estrutura bifactorial com a amostra do inquérito sobre
os fatores com impacto no bem-estar e ajustamento psicológico.
Análise:
Qual a estrutura factorial da PANAS (investigação anterior sugere uma estrutura bifactorial:
afecto positivo / afecto negativo)? Será que, com esta amostra, a estrutura da escala se revela
consistente com a investigação anterior?
111 | P á g i n a
Necessário:
Técnica:
Análise factorial:
112 | P á g i n a
A bold estão todos os valores superiores a .30. São em número suficiente? Parece que sim porque
o qui quadrado é significante e o KMO é superior a .60!!
No entanto, 2 componentes explicam 48,22 % da variância. Há outro chavão que diz que a
solução rodada não altera a solução inicial.
113 | P á g i n a
É desejável que os valores na tabela das Comunalidades sejam
superiores a .70. Há algumas que não o são, o que não é muito bom.
114 | P á g i n a
Primeiros 4 itens: Se a escala avalia duas dimensões (afecto positivo e negativo), a primeira
dimensão será o afecto positivo. No componente dois estão os negativos que os slides não
mostram. Mas isto tudo par adizer que é esta a interpretação que o SPSS não faz e que nos
compete (a nós) fazer.
115 | P á g i n a
116 | P á g i n a
Fidelidade de uma Escala
Quando nós calculamos uma análise fatorial e validamos a estrutura dimensional de um
instrumento de avaliação psicossocial, nós precisamos de ter outra medida: “Medida da
Consistência interna”.
• Quero saber qual a força ou magnitude com que os 10 itens avaliam de forma
consistente o afecto positivo, e com que os 10 itens restantes avaliam de forma
consistente o afecto negativo (exemplo da página anterior). Ou seja, preciso de
completar a informação da estrutura dimensional do instrumento de avaliação com a
chamada medida da Consistência Interna.
o Utiliza-se de forma recorrente a medida de Alfa Cronbach
o Ou utiliza-se formas paralelas (bipartação, etc…)
A estratégia dentro da teoria clássica dos testes, mais comum, para testar ou avaliar a
consistência interna é o Alfa de Cronbach. Mas também é importante falar de uma segunda
medida: Método de Bipartição ou Duas metades. Vou falar do segundo também, mas só vou
exigir que se saiba desenvolver o primeiro.
Escala de Medida
Esta fórmula está aqui com o objetivo de vos deixar uma ferramenta para que em situações de
investigação vocês (alunos) poderem desenvolver estratégias de ajustamento do vosso alfa de
cronbach em função do número de itens e da consistência que querem atingir. Aumentando ou
diminuindo o valor de K vou fazer variar o valor de alfa.
117 | P á g i n a
Se estão a trabalhar num projeto de investigação e querem uma escala com uma consistência
interna elevada ou muito elevada, vão ter de enfiar itens ou retirar alguns em função das
computações que tiverem de fazer.
O que interessa no fundo é esta consistência: acima de .70 aceitável, .80 boa e acima de .90
excelente! Se tiverem .60 e .70 é questionável. Abaixo de .50 inaceitável, nem para investigação!
Acima de .60 já pode ser usada na prática clínica, abaixo de .50 nem para investigação!
Exercício de Aplicação
Matriz de Correlações:
118 | P á g i n a
Informação por item e escala
Globalmente: para o total de itens da escala, a tabela lista informação descritiva acerca das 5
variáveis (itens) para a amostra total de sujeitos
• Valor elevado significa que os itens variam, variação essa que resulta em correlações
elevadas (cf. Razão Max / Min das variâncias dos itens)
Em termos de variancias dos itens desejamos valores elevados porque isso traduz correlações
elevadas entre os itens. Estamos a falar da razão entre o máximo e o mínimo, mas a média da
variância das intercorrelações (variance) – 0,009 - deverá ser um valor próximo de 0 (quanto
mais próximo de 0, maior a consistência interna, compreensível do ponto de vista teórico; quanto
menos variabilidade nas intercorrelações, maior a consistência, maior a agregação dos itens
para a medida do conjunto).
119 | P á g i n a
E onde nós nos vamos centrar fundamentalmente é na tabela “Item – Total Statistics”.
Correlações item-total correlation (se os itens são consistentes entre si, ir-se-ão correlacionar
com o resultado total – consistência com a escala). Devem ter valor superior a .50. para valores
inferiores, o item mede algo diferente daquilo que é medido por outro item.
Em Cronback Alpha if item Deleted (influência do item – sempre que a omissão do item altera
substancialmente as estatísticas da escala, o item deverá ser apreciado com cuidado), decidimos
se o item é ou não um bom indicador da escala. Para isso precisamos de saber a consistência
interna da escala.
Consistência interna da
escala= .89. Na tabela Item-
Total Statistics, quando eu
retiro o item 1, esse valor baixa
para .86, é aceitável. Quando
retiro o item 2,3,4 acontece o
mesmo. Mas quando retiro o
item 5 a consistência da escala
aumenta! De .89 passa para
.90. O item 5 dá uma má
indicação do seu contributo
apra avaliar a consistência
interna da escala. Porque
quando ela sai, ela tende
ligeiramente a melhorar. É um
item que devo repensar (tentar
averiguar a sua redação, se existe ambiguidade, ou reescrevo ou item ou apago). Acontece
quando apresentamos valores inferior a .50 no Corrected Item Total Correlation ou inferior a
.30 no Squared Multiple Correlation.
120 | P á g i n a
Bipartição
O que nos interessa olhar é que de facto do valor das intercorrelações, que de cada uma das
partes, quer da correlação entre ambas as partes em si, é próxima de 0 (Variance), quer dizer
que a escala vai ter uma consistência interna adequada.
Continua a interessar que a Correlação Item-Total seja superior a .50 (temos aqui dois itens
problemático), interessa que as correlações múltiplas sejam superiores a .30. e de facto não é de
admirar que quer o item 1 e o 3 são problemáticos, pois quando são retirados da escala a
consistência interna sobe (sei isto porque já olhei para o resultado do coeficiente de correlação.
121 | P á g i n a
Reparem, se a consistência interna da primeira e segunda
parte fossem iguais, o valor que eu iria recrutar seria
0.74. mas a parte um vale .60. A parte dois vale .74. como
ambas são consistências internas diferentes, nestes
casos o que vou apresentar é a consistência da
Bipartição de Guttman, ou seja .78 arredondadamente.
Por isso, quando venho ás estatísticas do ítem total vejo
.79 e .78. Apesar do item 3 carecer de atenção, o item 1
é de abater!
ANOVA
Sempre que a ANOVA é significante é porque a relação linear das varia´veis entre si é
significativamente não nula, e por isso é legítimo calcular a consistência interna.
122 | P á g i n a