Você está na página 1de 122

Sebenta Estatística II

2020-2021

João Alberto Mendes

1|P ági na
Índice
Índice............................................................................................................................................2
ANOVA Unifactorial Intersujeitos .................................................................................................5
Lógica Computacional da ANOVA .............................................................................................7
Pressupostos: ...........................................................................................................................7
Normalidade:........................................................................................................................8
Homogeneidade das Variâncias (Homecedasticidade) .........................................................8
Somas Quadráticas Totais (SQt) – Cálculo ............................................................................9
Somas quadráticas do modelo ...........................................................................................10
Somas quadráticas do resíduo............................................................................................10
Razão F ...............................................................................................................................11
Conclusão: ..........................................................................................................................11
Comparação múltiplas............................................................................................................12
Magnitude do Efeito Experimental ........................................................................................12
Resposta Final ........................................................................................................................13
ANOVA Unifactorial Não Paramétrica Kruskall-Wallis (Inter-Sujeitos) .......................................14
Enquadramento (Técnicas Não Paramétricas) .......................................................................14
ANOVA Unifactorial Kruskall-Wallis........................................................................................15
Ordenação ..............................................................................................................................15
Estatística Observada .............................................................................................................17
Estatística Crítica ....................................................................................................................17
Conclusão ...............................................................................................................................17
Comparações Múltiplas à Posteriori (Múltiplos testes U de Mann Whitney) .....................18
Medida do Efeito ................................................................................................................19
Resposta para o Algoritmo .....................................................................................................20
Resposta para o SPSS .............................................................................................................20
ANOVA Unifactorial Intra-Sujeitos .............................................................................................22
Planos de Medidas Repetidas.................................................................................................22
Problema Estatístico...............................................................................................................22
Esfericidade ........................................................................................................................23
Variância Intra-Sujeitos (SQw) ................................................................................................24
ANOVA Independente VS ANOVA Emparelhada ....................................................................25
Procedimento Computacionais ..............................................................................................25
Pressupostos ..........................................................................................................................26

2|P ági na
Cálculo ....................................................................................................................................27
Somas Quadráticas Totais (SQt) .........................................................................................27
Variância Intra-Sujeito (SQw) .............................................................................................27
Graus de Liberdade ............................................................................................................28
Somas Quadráticas do Modelo ..........................................................................................28
Somas Quadráticas do Resíduo (SQr) .................................................................................28
Estatística Observada: Médias Quadráticas e Razão F .......................................................29
Comparações Múltiplas à Posteriori.......................................................................................29
SPSS ........................................................................................................................................30
Teste de Esfericidade da Mauchly ......................................................................................30
Razão F – Estatísticas Multivariadas ...................................................................................31
Comparações Múltiplas à posteriori (ajust. Bonferroni) ....................................................31
Magnitude do Efeito Experimental.....................................................................................32
Resposta .................................................................................................................................33
Resposta com SPSS .................................................................................................................33
ANOVA Unifactorial não paramétrica Intra-Sujeitos ..................................................................33
Teste T de Wilcoxon ...............................................................................................................33
ANOVA Unifactorial Não Paramétrica Intra-Sujeitos de Friedman .........................................34
Exercício .................................................................................................................................34
Computação .......................................................................................................................35
Estatística Observada .........................................................................................................35
Estatística Crítica ................................................................................................................36
Conclusão ...........................................................................................................................36
Testes Post Hoc (Comparações Múltiplas à Posteriori) ......................................................36
Medida do Efeito ................................................................................................................36
Resposta do Algoritmo .......................................................................................................36
SPSS ........................................................................................................................................37
Resposta SPSS ....................................................................................................................38
Análise de Variância Fatorial / ANOVA Fatorial .........................................................................39
ANOVA Fatorial Completamente Inter-sujeitos .........................................................................40
ANOVA Fatorial Completamente Intra-Sujeitos .........................................................................52
ANOVA Fatorial Mista ................................................................................................................60
Correlação ..................................................................................................................................68
Exercício de Aplicação ............................................................................................................73
Regressão Simples ......................................................................................................................84

3|P ági na
Regressão Múltipla Standard .....................................................................................................94
Análise Fatorial .........................................................................................................................107
Fidelidade de uma Escala .........................................................................................................117

4|P ági na
ANOVA Unifactorial Intersujeitos
• Porquê e para quê?
o O teste t de student tem algumas limitações:
▪ Compara apenas duas médias (frequentemente é necessário comparar
mais!)
▪ Tem apenas uma variável independente tornando-se impraticável
sempre que se torna necessário medir o efeito da manipulação de , pelo
menos, duas variáveis independentes!

Até se poderia utilizar múltiplos testes t de student para comparar várias médias, mas isso
seria inviável porque aumentaria o erro do tipo I (rejeição de Ho quando ela é verdadeira!)

• Familywise / experimentwise error rate: índice de erro tipo I cometido através da


realização de vários testes t para comparação das médias duas a duas entre si. Quanto
maior o número de condições / comparações, maior é o erro Familywise (com 3
condições, faço 3 comparações. Com 5 combinações eu tenho 10 comparações para realizar
entre as variáveis. quanto mais condições eu introduzir, mais vou potenciando
exponencialmente o erro máximo do tipo I que estou disposto a assumir (Familywise Error).

Tendo em conta os cálculos efetuados, para 3 condições o erro é 0,143. Para 10 condições o
erro é 0,401. Qualquer um destes resultados é completamente inadmissível quanto tempos
alfa= 0,05 e por isso não é viável usar o t de student nestas condições.

ANOVA Unifactorial Intersujeitos

• Extensão do teste t
o Compara várias médias
o Permite a manipulação de várias Variáveis independentes
• Testa a hipótese de que as médias de duas ou mais populações são iguais e avaliam a
importância de um ou mais factores, comparando as médias das respostas nos
diferentes níveis de factores. A H anternativa (ou de trabalho) é que as médias serão
significativamente diferentes entre si.

• Exigem dados de populações normalmente distribuídas com


variâncias iguais entre fatores.

Exemplo:

5|P ági na
Avaliar a durabilidade de 4 produtos experimentais de tapete. Coloca-se uma amostra de cada
dipo de tapete em 10 casas e mede-se a durabilidade após 60 dias. Como se está a examinar um
factor (tapete) usa-se uma ANOVA com um factor (unifactorial). Se o valor de p for menor que
o alfa, conclui-se que pelo menos uma das médias sobre a durabilidade dos tapetes é
diferente. Para diferenças detalhadas entre as médias específicas, usa-se um método de
comparações múltiplas, como por exemplo o de Tukey e o de Scheffe.

Análise de variância:

• Procedimento que utiliza variâncias para determinar se as médias são diferentes.


Funciona através da comparação da variância entre as médias de grupos vs a variância
dentro dos grupos como uma maneira de determinar se os grupos são todos parte de
uma população maior ou populações distintas com caraterísticas diferentes.

Fator:

• Característica que permite distinguir diferentes populações umas das outras. Cada fator
tem dois ou mais grupos (classificações). No exemplo dos tapetes, existem 4 tipos de
tapetes mas um único factor.

Teste omnibus: (teste estatístico que testa se a variância explicada num conjunto de dados é
significativamente maior do que a variância não explicada):

o No fundo, testa uma diferença global entre os grupos, identifica diferenças


entre as respetivas médias (pelo facto de haver uma ou mais que serão
diferentes entre si, significativamente), MAS não identifica qual/quais as médias
que diferem entre si.

Experimentação:

• Ao manipular uma variável independente pode-se provocar uma alteração no


comportamento?
• Existe uma manipulação sistemática do preditor (VI) enquanto que na regressão não.
• Variância criada pela manipulação -> sistemática
• Variância criada por fatores desconhecidos -> variância não sistemática / erro

Assim, a ANOVA identifica, na variabilidade existente, entre todos os resultados medidos na


variável dependente (VD), aquela que pode ser explicada pela manipulação sistemática e
aquela complementar que ocorre por ação de fatores estranhos que por isso o modelo não
consegue explicar.

6|P ági na
Lógica Computacional da ANOVA
1. Calcular a quantidade de variabilidade que existe entre todos os resultados (Somas
Quadráticas Totais)SSt
2. Calcular quanta desta variabilidade pode ser explicada pelo modelo que foi ajustado aos
dados (quantificar desta variabilidade a que é devida à manipulação da VI) – Somas
quadráticas do Modelo - SSm
3. Calcular quanta desta variabilidade não pode ser explicada pelo modelo (quantificar a
variabilidade que é devida à ação das diferenças individuais no desempenho) – somas
quadráticas do resíduo – SSr
4. Comparar a quantidade de variabilidade explicada pelo Modelo (manipulação), com o
erro verificado no modelo (diferenças individuais) – F

Se o modelo explica muito mais variabilidade do que aquela que não pode
ser explicada, então a manipulação experimental teve um efeito
significante no resultado!!! VD
• Se a manipulação foi eficaz, então o modelo explicará mais variância
que aquela que não pode ser explicada por ele SQt > SQr
Exercício: Objetivo é testar os efeitos do viagra.

Pressupostos:
• Primeiros pressupostos (variável intervalar ou de razão, aleatoriedade de sujeitos,
independência de observações)
• Normalidade: as observações provêm de populações normalmente distribuídas
• Homocedasticidade: o numerador e o denominador da razão F são estimativas da
mesma variância populacional (homogeneidade das variâncias)

7|P ági na
Normalidade:
Para perceber a normalidade há duas abordagens:

• Olhar para o histograma e perceber (tem de ser com uma amostra maior que a do
exemplo acima)
• Testar a normalidade através de Kolgomorov Smirnov ou Shapiro Wilk (se o número de
sujeitos por condição é igual ou superior a 30 – Kolgomorov-Smirnov, se for inferior a
30, teste de Shapiro Wilk. Só nos interessa saber o nível de sig. do teste porque temos
de testar a hipótese da normalidade (Ho afirma a normalidade). Para a não a rejeição
de Ho é desejável que a significância do teste venha superior a 0,05…

• Uma vez que existem 5 pessoas por condição, terei de interpretar o de Shapiro Wilk.
Como todos os valores são superiores a 0,05, não poderei rejeita Ho, ficando
demonstrado o cumprimento do pressuposto.

Homogeneidade das Variâncias (Homecedasticidade)


• Interessa que para além da normalidade da distribuição, eu consiga demonstrar que a
dispersão não é significativamente diferente entre si (de todas as condições). Tenho de
garantir que os dados gozam de homecedasticidade - homogeneidade da variância.
• Como se testa a homogeneidade da variância? Teste de Levene: que testa uma h0 sobre a
qual a variância das condições é igual perante uma h1 em que é diferente entre si.

• Homogeneidade da variância é testável a partir dos menus (SPSS) da própria ANOVA.


Se houvesse uma violação grosseira náo valeria avançar para o cálculo da ANOVA
porque a amostra é demasiado pequena.
• Na impossibilidade de calcular teste de Levene, podemos recorrer a um índice estatístico
(diferente de teste estatístico). Podemos usar "a razão máxima de variância - Fmax". Obtém-
se dividindo a maior das variâncias pela menor das variâncias. Se for inferior a 3,
garantimos com alguma segurança que as variâncias são tendencialmente homogéneas.

8|P ági na
Tabela acima: 2,50 Dose elevada / 1,70 Dose Baixa

F=6,39 resulta da observação da tabela de F (4 graus de liberdade no numerador para 4 graus


de liberdade no denominador)

Conclusão: Indo à tabela para perceber o F crítico, percebemos que F observado < F crítico
(1,47 inferior a 6,39), o que faz com que não haja evidência confirmatória para rejeitar a
hipótese nula, segundo as qual as variâncias são homogéneas.

A ANOVA é robusta a violações menores dos pressupostos, especialmente quando as amostras


são equilibradas (n’s idênticos nas subamostras). A heterogeneidade das variâncias e amostras
com n’s diferentes comprometem a sua validade e aí, deveremos utilizar:

• Procedimento de Welsh
• Transformações nos dados
• Equivalente não paramétrico!

Perante uma violação grave da normalidade ou da homogeneidade das variâncias, ou pelo facto
de ser uma amostra reduzida, etc... recorrer a um equivalente não paramétrico é a melhor
opção. Um que seja adequado. Muitos autores não gostam, porque dizem que as técnicas não
paramétricos tiram poder ao teste. No entanto isso pode ser considerado um disparate, porque
na maioria dos casos os resultados dos paramétricos e não paramétricos são os mesmos.

Somas Quadráticas Totais (SQt) – Cálculo


• Precisamos de decompor estas SQt e chegar ao
conhecimento de qual a quantidade de variância
sistemática e a de variância não sistemática.
• Se temos de fazer esta decomposição, começamos
pela do modelo: calcular os desvios dos sujeitos de
cada grupo em relação à média do seu grupo. Depois,
em termos dessa média, comparativamente à média
total! Quero saber até que ponto, em quantidade, é
que a média de cada grupo se afasta da média total
(individualmente para cada grupo) - a variabilidade

9|P ági na
de modelo (discrepância entre a média do grupo relativamente à média total).

Variância total x amostra - 1

Somas quadráticas do modelo


• Calcular as diferenças individuais de cada sujeito do seu grupo relativamente à
média do grupo em que este opera

Somas quadráticas do resíduo


• Conhecendo o valor de SQt e SQm, bastaria subtrair a segunda à primeira para
ficarmos a saber o valor das somas quadráticas do erro SQr

10 | P á g i n a
Razão F
De forma a obter a razão F, teremos de:

• dividir as somas quadráticas totais do modelo e do erro do modelo pelos


respetivos graus de liberdade (médias quadráticas). Então temos de calcular, e
primeiro, os graus de liberdade que lhes correspondem:
o Graus de liberdade total (15 sujeitos) = 14
o Graus de liberdade do Modelo (manipulação de 3 condições) = 2
o Graus de liberdade do resíduo (gl (grupo1)+gl2+gl3) = 4 + 4 + 4 = 12

Médias quadráticas:

Razão F:

Conclusão:
• Resultando significante porque há mais variabilidade que resulta da manipulação
introduzida pela VI (MQm) do que há de variabilidade explicada pelas diferenças
individuais dos sujeitos (MQr).
• A razão F é de 5,117. Agora teremos de ir à tabela F retirar o valor crítico para 2 graus
de liberdade no numerador e 12 no denominador, para uma significância de 0,05 ->
3,89.
• 3,89 crítico < 5,117 observado, há evidência confirmatória para rejeitar H0 e aceitar H1.
Há efeito estatístico significante.

11 | P á g i n a
• No entanto ainda não sabemos que média das condições é responsável por este
resultado, não sabemos se é o placebo que se distingue da dose elevada, ou a dose baixa
que se diferencia… etc. Olhando para as médias pode haver suspeitas, mas as suspeitas
não são estatísticas. Então temos de observar as Comparações múltiplas à posterior
(Post Hoc)

Comparação múltiplas
• O teste F é um teste global (testa uma hipótese em geral) e por isso apenas permite
concluir em função do resultado obtido, que pelo menos um par de médias
populacionais é diferente. Para perceber as médias que se distinguem
significativamente em termos estatísticos, importa realizar uma série de comparações
múltiplas à posteriori: teste de Tukey e teste de Scheffé

Magnitude do Efeito Experimental


• A obtenção de um efeito estatístico significante apenas revela a existência de diferenças
entre as médias das condições que, com confiança, não se podem atribuir ao erro
amostral. Por isso não há informação acerca da importância ou significado dessa
diferença
• Para medir a magnitude do efeito registrado, é possível usar com a ANOVA duas
estatísticas que permite aferir a proporção de variância explicada por uma variável
numa outra.

• A medida do efeito eta-quadrado resulta numa avaliação mais enviesada porque se


baseia apenas nas SQ amostrais e não no ajustamento da estimativa da medida do efeito
à população.

12 | P á g i n a
• A alternativa consiste na medida ómega-quadrado que, tal como a razão F, utiliza a
variância explicada pelo modelo (MQm) e a variância do erro (MQr).

Resposta Final
• 1 – Problema
o Averiguaram-se os efeitos do Viagra (placebo, dose baixa, dose elevada) na
líbido de uma amostra representativa de indivíduos adultos, medida com
um indicador objectivo
• 2- O que foi feito
o Os sujeitos revelam uma libido mais ativa na condição dose elevada
(M=5.00, DP=1.58) e menos ativa na condição placebo (M=2.20, DP=1.30).
Na condição dose baixa a libido revela um valor médio de 3.20 (DP=1.30).
Uma ANOVA unifatorial independente, calculada para variâncias
homogéneas [FMax=1.4 < F(.05;4,4)=6.39] revela evidência confirmatória
que aponta no sentido da existência de diferenças estatísticas significantes
entre os grupos de tratamento ao nível das respetivas medidas da libido
[F(2,14)=5.12 > F(.05;2,12)=3.89], confirmadas por um efeito de magnitude
elevada (eta-quadrado =.45).
• 3- Conclusão
o Comparações múltiplas a posteriori, calculadas com o teste HSD de Tukey e
com o teste de Scheffé, revelam que apenas os grupos placebo e dose
elevada se diferenciam significativamente (p=.021 e p=.027,
respetivamente).

Resposta Final para um cálculo feito no SPSS (que revelaria os outputs da normalidade e da
homogeneidade das variâncias

• 1 - Problema
o Averiguaram-se os efeitos do Viagra (placebo, dose baixa, dose elevada) na
libido de uma amostra representativa de indivíduos adultos, medida com um
indicador objetivo. A análise dos pressupostos não revelou qualquer violação
da normalidade da distribuição dos dados na VD, nem para a condição placebo
[S-W(12)=.902, p=.421], nem para a condição dose baixa [S-W(12)=.902,
p=.421], nem tão pouco para a condição dose elevada [S-W(12)=.987, p=.967].

13 | P á g i n a
ANOVA Unifactorial Não Paramétrica Kruskall-Wallis (Inter-
Sujeitos)
Enquadramento (Técnicas Não Paramétricas)
• É importante compreender que as técnicas não paramétricas consistem em testes de
distribuição livre, ou seja, não estipulam pressupostos acerca do tipo de distribuição de
dados
• O procedimento consiste em:
o 1º fazer uma ordenação dos dados
o 2º fazer a comparação das ordenações médias
o (Este procedimento faz perder informação acerca da magnitude da diferença
entre os resultados)
• Relativamente ao Poder do Teste, estas técnicas apresentam menor capacidade para
detetar um efeito estatístico genuíno, ou seja, detetar diferenças quando elas
realmente existe (tendem a aceitar Ho quando essa hipótese é falsa – Erro tipo II)
• As técnicas não paramétricas são aplicáveis quando:
o Dados são nominais ou ordinais
o Amostra é muito reduzida
o Distribuição viola os pressupostos das técnicas paramétricas:
▪ Normalidade da distribuição
▪ Homogeneidade das variâncias
▪ Dados intervalares
▪ Independência das observações
• Planos Inter-Sujeitos: comparar os resultados de dois grupos diferentes de sujeitos ou
de duas condições em termos das respetivas ordenações médias
o Teste U de Mann Whitney (Rejeição de Ho acontece quando Estatística crítica
é Maior que a Estatística observada)
• Planos intra-sujeitos: comparar os resultados do mesmo grupo de sujeitos em duas
ocasiões diferentes, ou de pares ajustados, em termos das respetivas ordenações
médias
o Teste T de Wilcoxon
• Dicas para o SPSS:
o Sempre que no output aparece a palavra “ranks”, refere-se a uma técnica não
paramétrica, porque apenas as técnicas não paramétricas requerem a
ordenação dos dados.
o As técnicas não paramétricas não têm medidas de efeito específicas. Porém
nós podemos calcular o coeficiente de correção produto-momento de
Pearson fazendo a razão entre a estatística observada normalizada e a raíz
quadrada da dimensão da amostra. Vou ao
output, na linha em que diz Z tenho a
padronização da estatística observado
quer ao domingo (-1.105) quer à 4a feira (-
3.484). Ao tomar estes valores, ignorando
o sinal algébrico, eu vou obter duas
medidas de efeito respetivamente para o
domingo (-0,25) e 4a feira (-0.78).

14 | P á g i n a
o Como são medidas de efeito baseadas no produto-momento de Pearson,
para eu perceber qual a percentagem de variância que ocorre ao nível dos
sintomas depressivos que é da responsabilidade da manipulação a nível de
VI (quer para o domingo quer para a 4a feira), eu vou ter de elevar estes
valores ao quadrado. Para chegar à conclusão que no domingo apenas 0,6%
(0,0625) da sintomatologia depressiva é explicada pelas diferentes
substâncias que os sujeitos consumiram (álcool ou ecstasy) -0,25 elevado
ao quadrado= 0,0625; para 4a feira, 0,78 ao quadrado igual a 60%.

ANOVA Unifactorial Kruskall-Wallis


• Quando da manipulação da variável independente resultam não duas, mas três ou mais
condições. Quando temos de generalizar o teste U de Mann Whitney.
• Quando as distribuições de dados obtidos a partir do desempenho de grupos
independentes não cumprem com os pressupostos da normalidade, homogeneidade de
variâncias e tamanho da amostra.
• Rege-se pelo princípio da ordenação dos dados, ou seja, a análise utiliza ordens
atribuídas aos dados brutos (cuja desvantagem implica perder informação relativa à
magnitude da diferença entre os resultados – menor poder para detetar diferenças e
aumento do erro do tipo II).
• Acontece o mesmo para as outras técnicas não paramétricas
Ordenação
• Ordenando os dados por ordem crescente:
o Se não existirem diferenças entre os grupos / condições -> espera-se encontrar
um numero semelhante de ordenas mais baixas e mais elevadas em cada um
dos grupos (na soma das ordens da cada condição espera-se um total
semelhante)
o Se existirem diferenças entre os grupos ou condições -> espera-se que as ordens
mais elevadas ocorram no grupo alvo de manipulação experimental (espera-se
que a soma das ordens relativas a cada uma das condições seja maior no grupo
experimental (GE) que no grupo de controlo (GC)

Exercício – Relação entre consumo de soja transgénica e a fertilidade masculina

15 | P á g i n a
• Podemos observar uma amostra de 80 sujeitos, 4 grupos independentes de sujeitos. A
azul está a medida em laboratório do material gonadal.
• Passos:
o 1- organizar os 80 resultados por ordem crescente, ignorando o grupo de
pertença
o 2- atribuir a ordem 1 ao menor dos resultados e assim sucessivamente até que
a maior das ordens (ordem 80) coincida com o resultado mais elevado

o 3- fazer corresponder aos resultados em cada grupo o valor da sua respetiva


ordem no processo de ordenação global
o 4- Tomar as ordens a encarnado de cada um dos valores brutos a azul e fazer
corresponder ao respectivo valor bruto original. Posteriormente, somar as
ordenas das 0 refeições por semana, das 1, das 4 e das 7, obter a encarnado os
Ri’s (somatórios das ordens), que no caso da 1ª é 927, 2ª 883, 3ª 883 e 4ª 547.

16 | P á g i n a
o O que se pode observar? A soma das ordens mais elevada também ocorre nas
0 refeições semanais e a somatória das ordens mais baixa também ocorre nas 7
semanais (tal como acontecia com o mínimo e máximo dos resultados brutos.

Realizada a ordenação e atribuídas as ordenas correspondentes a cada um dos resultados


individuais para cada grupo, estão reunidas as condições requeridas para que se possa calcular
o teste estatístico H de Kruskall-Wallis.

Estatística Observada

Ri é a soma das ordenas para cada grupo

N é a dimensão da amostra total

Ni é a dimensão das subamostras (grupos/condições)

Estatística Crítica
• Para amostras cujas dimensões apresentam valores superiores a 10, a estatística (H) tem
uma distribuição Qui-Quadrado com tantos graus de liberdade quantas as k condições
resultantes da manipulação da Variável Independente menos 1, ou seja k-1.
• Neste caso (k-1) = 4-1 = 3
• Para o nível de significância convencional de 0,05, por leitura na tabela
correspondente dos valores críticos de Qui-Quadrado, obtém-se o valor:

PS: Na leitura da tabela do Qui Quadrado, teremos de procurar o QQ crítico em 0,05


para 3 graus de liberdade, dado que as condições são 4.

Conclusão
• Como 8.659 é maior que 7.81 Obs > Crítico, há evidencia confirmatória para rejeitar
h0 e aceitar h1.

17 | P á g i n a
• Há uma diferença significante no material genético em espermatozoides produzido por
um indivíduo que não ingere soja transgénica, comparativamente ao indivíduo que
todos os dias, ou pelo menos um dia, consome soja transgénica.
• Chamada de atenção: contrariamente ao teste da ANOVA Paramétrica, seja em grupos
independentes ou medidas repetidas, não há aqui testes de comparações múltiplas
(das condições duas a duas) à posteriori, tal como não há medidas de efeito específicas
para as técnicas não paramétricas.
• Porém, como sabemos que a ANOVA de Kruskall Wallis é uma generalização do teste U
de Mann Whitney, eu posso calcular comparações múltiplas das condições 2 a 2,
calculando testes U de Mann Whitney múltiplos para as condições tomadas 2 a 2.
• Podia fazer a combinação das 4 (seriam 6 comparações), mas se dividisse o alfa de 0,05
por 6 comparações irei obter o nível mínimo do erro de tipo 1, aceitável por convenção,
igual a 0,008 (0,05/6), o que é um valor ínfimo e que pode deixar na dúvida se o que
estou a detetar é um efeito ou não é um efeito.
• Então opto por outra via: não me interesse a nível de investigação saber se há diferenças
entre quem faz uma ou 4 refeições, interessa-me contrastar os extremos (o grupo de
controlo que não faz refeições com as 3 condições que fazem 1,4 ou 7 refeições
semanais (sem contrastar a diferença entre 1 e 4, e 4 e 7)... daí eu opto por fazer testes
de comparações múltiplas à posteriori baseados em testes U de Mann Whitney,
tomando como valor de corte, para 3 comparações 0,05/3= 0,0167 - so vou considerar
significantes aqueles que vier igual ou inferior a este valor – Correção de Bonferroni.

Comparações Múltiplas à Posteriori (Múltiplos testes U de Mann Whitney)

(0,404 é superior a 0,0167 (0,05/3 comparações) -> H0 não é rejeitada -> sem diferença de
material genético)

18 | P á g i n a
(0,3725 é superior a 0,0167 -> H0 não é rejeitada -> sem diferença de material genético)

(0,0045 é inferior a 0,0167 -> Ho é rejeitada -> diferença significativa)

Medida do Efeito
• Não há uma maneira fácil de converter a estatística de qui-quadrado com mais de um
grau de liberdade numa medida de efeito (mais de 10 sujeitos, Qui Quadrado, Graus
de liberdade – condições (k – 1). Para além disso, na maioria das situações é mais
interessante conhecer a medida do efeito de uma determinada comparação em
particular.
• Assim, opta-se por calcular as medidas de efeito para os três testes de Mann Whitney
usados como alternativa às comparações múltiplas à posteriori.

19 | P á g i n a
• O SPSS não calcula medidas de efeito para as estatísticas não paramétricas, é possível
fazê-lo de uma forma fácil utilizando o resultado normalizado z em que a estatística do
teste é convertida.

• Relativamente aos efeitos da soja transgénica na infertilidade dos homens, tendo em


consideração as três comparações realizadas através do cálculo de outros tantos testes
de Mann Whitney, obtém-se:
• Zero refeições comparadas com uma semanal, efeito
estatístico insignificante pois o valor do produto-
momento de Pearson é de 0,04, que elevado ao
quadrado dá 0,0016 (0,16%) – diferenças entre quem
não come e quem come em termos de contagem de
espermatozoides
• 0,3% de diferença para a situação de consumir 4
refeições
• 17% para a diferença entre comer e não comer!

Resposta para o Algoritmo

• Testou-se o efeito da soja transgénica na fertilidade masculina. Para o efeito


compararam-se quatro grupos de sujeitos em função do número de refeições
semanais feitas com este alimento e seus derivados.
• Calculou-se um teste de Kruskall-Wallis cujos resultados revelaram que as contagens
de espermatozoides foram significativamente afetadas pelo número de refeições
semanais feitas com soja [H(3)=8.66, p<.05]. (3 é de 3 gl)
• Este efeito foi analisado mais pormenorizadamente através do cálculo de testes de
Mann-Whitney, com correção de Bonferroni, pelo que todos os efeitos são reportados
para um nível de significância de .0167; a evidência sugere que as contagens não
diferem quando o consumo semanal de soja contabiliza uma (U = 191.00, p = .808, r =
−.04) ou quatro (U = 188.00, p = .745, r = −.05) refeições comparadas com o não
consumo desta substância. No entanto, quando este equivale a sete refeições
semanais as contagens baixam significativamente (U = 104.00, p = .009, r = −.41).

Resposta para o SPSS


• Analyze, Nonparametric tests, Legacy Dialogs, K Independent Samples, Options,
Discriptive
• Violação grosseira da normalidade em 3 das 4 condições.
• Violação grosseira da homogeneidade da variância. Não há alternativa a não ser calcular
uma ANOVA não paramétrica para 3 ou mais condições de uma mesma variável
independente. Só poderia ter sido calculada a ANOVA de Kruskall Wallis.

20 | P á g i n a
Teste Estatístico:

• Acrescenta-se à resposta relacionada com o algoritmo:

o Análises exploratórias dos histogramas relativos a cada uma das condições,


complementadas pelo teste da normalidade Shapiro-Wilk, revelam que as
contagens de espermatozoides só seguem uma distribuição normal na
condição 7 refeições semanais [S-W(20)=.912, p=.070]; nas restantes condições
o pressuposto relativo à normalidade foi violado [0 refeições: S-W(20)=.805,
p=.001; 1 refeição: S-W(20)=.826, p=.002; 4 refeições: S-W(20)=.743, p<.001].
Foi igualmente violado o pressuposto relativo à homogeneidade das
variâncias [F(3, 76)=5.115, p=.003], razão pela qual a alternativa não
paramétrica constitui a opção adequada.

21 | P á g i n a
ANOVA Unifactorial Intra-Sujeitos

• O objetivo da ANOVA Unifactorial Intra-Sujeitos é testar diferenças entre várias médias


calculadas com dados obtidos em situações nas quais os mesmos sujeitos (medidas
repetidas=) desempenham em diferentes condições experimentais resultantes da
manipulação de uma mesma Variável independente
• Pressupostos:
o Normalidade
o Homogeneidade da Variância
o Esfericidade
o VD intervalar / razão
o Aleatorização dos sujeitos
o Independências das Observações
• Algoritmo:
o Efeito estatístico
o Comparações múltiplas
o Medida do Efeito

Planos de Medidas Repetidas


• Quando os mesmos sujeitos participam em todas as condições experimentais, de forma
a controlar o efeito das diferenças individuais na manipulação
o Vantagens:
▪ Economia: necessário menor número de sujeitos amostrais
▪ Sensibilidade: reduz a variabilidade não sistemática -> maior poder para
detetar efeitos experimentais
o Desvantagens:
▪ Efeitos de transferência (derivados da prática, fadiga, aprendizagem).
De modo a contornar este efeito deve-se aleatorizar as condições ou
contrabalançar os sujeitos
• Espaçar o período temporal de recolha dos dados entre as
repetições por causa destes factores
• Outras estratégias: dividir amostra ao meio (metade
desempenha sequência 1234, outra metade 4321, por exemplo

Problema Estatístico
• A precisão do teste F -> radicando no pressuposto dos resultados nas diferentes
condições terem de ser independentes, a assunção é violada quando se usam medidas
repetidas (a probabilidade dos resultados estarem relacionados é muito elevada porque
são oriundos dos mesmos sujeitos)
• Solução: Acrescentar um pressuposto! A relação entre os resultados nas diferentes
condições de tratamento remete para a necessidade de assegurar que a relação entre
os pares de condições experimentais é semelhante (garantir que o nível de dependência
entre as condições experimentais é aproximadamente igual) -> ESFERICIDADE /
CIRCULARIDADE [𝜀(épsilon)].
o Metodologicamente, teríamos de garantir a independência das observações,
mas se estou a utilizar a mesma amostra de sujeitos, a probabilidade de isso

22 | P á g i n a
acontecer fica comprometida. porque se é o mesmo sujeito a desempenhar a
mesma tarefa nas mesmas condições, corremos o risco elevadíssimo de que o
este não seja imparcial nas medidas que dá. A 2ª Tomada de Decisão costuma
ter elementos relacionados com a 1ª Tomada de Decisão, se não houver uma
racionalização, uma intervenção para que isso não aconteça. Controlamos esta
situação com a análise da ESFERICIDADE OU CIRCULARIDADE.

Esfericidade
• Refere-se à igualdade das variâncias das diferenças entre os níveis ou condições do
tratamento, ou seja, considerando os pares de condições, ao calcular as diferenças entre
os resultados relativos a cada um desses pares, é necessário que tais diferenças
possuam variâncias cujos valores não se diferenciem significativamente entre si
(variâncias homogéneas entre as diferenças):

• A Esfericidade é assegurada quando estas variâncias se revelam aproximadamente


iguais (há homogeneidade da variância nas distribuições das diferenças existentes
entre as condições)
• Como calcular a Esfericidade?
o Teste de Mauchly
▪ Permite aferir acerca de severidade da violação do pressuposto
testando a hipótese das variâncias relativas às diferenças entre as
condições serem iguais
▪ Quando p.value é superior a 0,05, as variâncias das diferenças não
diferem significativamente entre si. Caso contrário (p. value igual ou
inferior a 0,05), existe uma violação do pressuposto, pois há evidência
confirmatória para rejeitar a Ho e aceitar a H1 que defende que existe
uma diferença significativa entre as variâncias subjacentes às diferenças
entre as condições.
▪ Havendo uma violação do pressuposto resta-nos usar outras
estatísticas (multivariadas) que não impõe o cumprimento do
pressuposto -opção quando os dados violam a esfericidade (SPSS:
Pillai’s Trace, Wilks Lambda, Hotelling’s Trace, Roy’s Largest Root),
calcular uma ANOVA não paramétrica ou corrigir as estimativas
da esfericidade.
Importante: O teste de Mauchly não é propriamente o que interessa, mas sim o teste da
significância do Qui Quadrado, que é calculado por associação ao teste de Mauchly.

• Se a esfericidade for perfeita (se os dados forem completamente circulares - como


se as diferenças formassem uma esfera tridimensional), então o SPSS não calcula o
Qui Quadrado associado ao teste de Mauchly, calcula o Mauchly e esse apresenta
o seu valor máximo que é 1.0.
• Sempre que a esfericidade for imperfeita, será quanto mais imperfeita quanto esse
valor de teste se afastar de um e se aproximar de 0 (em que neste caso, o SPSS vai

23 | P á g i n a
calcular o Qui Quadrado e nós estamos interessados na significância assintótica
associada ao Qui quadrado). Quando esta revela valores iguais ou inferiores a 0,05,
então os dados deixam de gozar de esfericidade. Quando não há evidência
confirmatória para rejeitar H0, e os dados são assim circulares ou esféricos.

Correção da Estimativa da Esfericidade

• Dão origem a um factor de correção que é aplicado aos graus de liberdade utilizados na
razão F observada
o Teste Greenhouse-Geisser: varia entre 1/(k-1) em que k é o número de
condições intra-sujeitos, e 1. Quanto mais próximo do 1 estiver, maior a
homogeneidade das variâncias das diferenças e, por tal, maior a probabilidade
dos dados serem esféricos. Estimativa muito conservadora (com valores entre
0,75 e 0,90 falha rejeição de Ho)
o Huynh-Feldt: correção mais liberal e, por tal, tende a sobrestimar a
esfericidade.
o Para Stevens deveremos tomar a média das duas correções para ajustar os
graus de liberdade.
o Para Girden, devemos usar a correção de Greenhouse-Geisser quando não há
informação sobre a esfericidade, ou quando a sua estimativa é inferior a 0,75;
quando é superior a 0,75 deve utilizar-se a correção de Huynh-Feldt.
• Regra: perante uma violação severa da esfericidade (E < 0,70) e a amostra com N > k +
10, devem-se interpretar as estatísticas multivariadas (têm maior poder). Com
amostras de dimensão eduzida ou quando é possível assegurar a esfericidade (E > 70) é
preferível a abordagem univariada.

NOTA do Professor: Pela ausência de consenso… dos autores acima mencionados, a melhor
estratégia é utilizar sempre o equivalente não paramétrico (O TESTE DE FRIEDMEN), quando
o teste paramétrico tem os pressupostos violados. É a melhor abordagem.

Variância Intra-Sujeitos (SQw)

• Numa ANOVA Unifactorial Intra-Sujeitos, o efeito da manipulação experimental sobre


os mesmos indivíduos é revelado por intermédio da variância intra-sujeitos (SQw) para
a qual contribuem:
o Efeito da manipulação (SSm) – parte da variação intra-sujeitos deriva dos
efeitos da manipulação experimental (os sujeitos realizaram coisas diferentes
em cada condição experimental e, por isso, a variação nos resultados de um
indivíduo serão parcialmente devidos a essa manipulação)
o Diferenças individuais no desempenho (SSr) – dado que todos os indivíduos de
uma mesma condição foram submetidos ao mesmo tratamento, qualquer
variação que não possa ser explicada pelo modelo tem que ser devida a fatores
aleatórios externos ao controlo do experimentador, logo não relacionados com
a manipulação experimental.

24 | P á g i n a
ANOVA Independente VS ANOVA Emparelhada

• Ambas apresentam:
o Semelhanças – utilizam a razão F que compara a magnitude da variação devida
à manipulação experimental (SSm) -a variância sistemática, com a magnitude
da variação que resulta da ação de fatores aleatórios (SSr) – a variância não
sistemática imputável ao erro.
▪ Tipos de variância: Total (SSt), Modelo (SSm), Resíduo (SSr)
▪ Manipulação eficaz: explicada pelo modelo superior à que é explicada
pelo resíduo
o Diferenças – cálculo dessas diferenças porque em medidas repetidas, as SSm e
as SSr fazem ambas parte da variância Intra-Sujeito!

Procedimento Computacionais

• Variável Independente -> Professores, manipulada em 4 condições


• Variável Dependente: classificações atribuídas pelos 4 professores a cada um dos 8
testes.
• Amostra: 8 testes.
• Pressupostos:
o Aleatorização das observações (atribuir testes aos professores de forma
aleatória, alguns começam pelos ímpares, outros pelos pares, e assim faz-se o
contra-balanceameto: há muitas estratégias)
o A medida tem de ser intervalar ou de razão
o Tem de haver normalidade nas distribuições
o Tem de haver homogeneidade de variâncias

25 | P á g i n a
• Partição da Variância Total
o Efeitos sistemáticos
▪ Variância entre condições (Professores): variância entre as médias de
cada um dos níveis ou condições do factor (usualmente o efeito em que
se está interessado – a variância explicada pela VI)
▪ Variância Intra-Sujeitos: variância que resulta do facto das próprias
provas, cuja qualidade difere entre si, terem sido avaliadas em quatro
condições diferentes (dados correlacionados)
o Efeitos do erro
▪ Variância da interação (ou residual): causada pela variância individual
(testes) nas quatro situações de correção; mede os aspectos devidos ao
efeito conjunto (interação) da variável individual (testes) e do variável
tratamento (professores)
o NOTA: Há muitas circunstâncias que fazem com que os testes difiram entre si:
as pessoas que fizeram o teste trazem para a realização diferentes
competências, motivações, etc. que derivam de diferentes métodos de estudo,
aptidões e interesses, forma como compreenderam a matéria, etc. temos em
jogo não só o desempenho dos sujeitos assim como o desempenho dos
professores que estão a avaliar os testes.

Pressupostos
• Normalidade: os dados provêm de populações distribuídas normalmente
• Homogeneidade das variâncias: o numerador e o denominador da razão F são
estimativas da mesma variância normal

• Esfericidade
o as variâncias relativas às diferenças entre condições resultantes da manipulação
devem ser aproximadamente iguais

26 | P á g i n a
• Como a significância de 0,04 é inferior a 0,05 no teste de Levene, há evidência
confirmatória para rejeitar Ho e aceitar H1 em que as variâncias são diferentes. Há quase
garantidamente uma violação do pressuposto da esfericidade e assim, logicamente,
temos de entrar em linha com as correções correspondentes.

Cálculo
Somas Quadráticas Totais (SQt)
Variância de todos os resultados quando se ignora o grupo ao qual pertencem

Graus de Liberdade: Uma vez que se iutiliza toda a amostra para calcular as somas quadráticas,
os graus de liberdade totais (glT) são dados pelo valor da dimensão amostral menos 1 (N-1)

Variância Intra-Sujeito (SQw)


Diferença crucial no plano de medidas repetidas (relativamente a amostras independentes)
resulta da manipulação da VI repetidamente por cada participante

• Ao submeter-se cada um dos sujeitos (testes) a mais do que uma condição experimental
(professores), está-se interessado na variação que ocorre dentro dos desempenhos de
cada pessoa (e não entre os resultados dos grupos independentes de pessoas que
desempenham em todos os níveis de uma VI Inter-Sujeitos).
• Ou seja, quantificação da variável existente dentro de cada sujeito tomando em
consideração todos os sujeitos que participam no mesmo estudo

• Porque o plano é medidas repetidas, toda a variância vai ocorrer Within Groups. Nela
irá ocorrer, então, a variância do modelo, e a variância não sistemática.
• Variância do Modelo: imputada aos professores e aos testes
• Variância do erro: variância do efeito conjunto dos professores com os testes.
• SQw: vamos calculá-la pelo produto da variância de cada teste
pelo número de graus de liberdade referentes aos professores.
Fazemos isto para os 8 testes. Gl= 4 docentes – 1= 3

A variável intra-sujeitos são os testes (não pessoas9. Os n representam o número de registos


(condições experimentais: os professores) em que as variâncias se baseiam.

27 | P á g i n a
Graus de Liberdade
Dois tipos:

• Os graus de liberdade para cada sujeito (teste) são dados pelo número de condições
(professores) menos 1 (k-1).
• Os graus de liberdade para todos os participantes (GLw) serão então dados pelo
somatório dos graus de liberdade de todos os participantes – gl within groups

Depois de tudo isto teremos de decompor a Variância WG (SQw) na do modelo e na do erro


do modelo.

Tínhamos visto que a quantidade total de variação nos dados vale 1705,868 unidades, das
quais 1602,5 são explicada pela variância criada pelos desempenhos individuais (testes) nas
diferentes condições (Professores). Parte dessa variância é o resultado da manipulação
experimental (modelo) e a restante constitui mera flutuação aleatória (resíduo).

Somas Quadráticas do Modelo


Variância explicada pela manipulação experimental

Graus de liberdade do modelo são dados pelo número de condições – 1

Glm= 3

Nota: existem 1705,868 unidades de variação explicadas pelos dados, das quais 1602,5 são
explicadas pela variação entre as condições (SQw); sendo que a manipulação experimental
consegue explicar cerca de 554 destas unidades (SQm), constituem a quantidade de variação
causada por fatores estranhos ao controlo experimental a variabilidade inerente à qualidade
dos testes.

Somas Quadráticas do Resíduo (SQr)


Variância não explicada pelo modelo (manipulação experimental)

28 | P á g i n a
Estatística Observada: Médias Quadráticas e Razão F

Estatística Crítica de F (para um alfa de 0.05, 3 gl do modelo, 21 do resíduo) = 3,07 - TABELA

• Como F calculado é superior a F crítico, então rejeita Ho e aceita-se H1. Os professores


não são uniformes no modo como avaliam as provas ou desempenhos dos seus alunos.

Comparações Múltiplas à Posteriori


• Tratando-se de uma técnica global (testa uma hipótese geral) apenas permite concluir,
em função do resultado obtido, que pelo menos um par de médias populacionais é
diferente. Para identificar as médias que se diferenciam estatisticamente, em termos
estatísticos, importa realizar uma série de comparações múltiplas post hoc, utilizando
a correção de Bonferroni.

29 | P á g i n a
SPSS
• Analyze, General Linear Model, Repeated Measures
• Teste de Normalidade (Cumprimento do Pressuposto)

Teste de Esfericidade da Mauchly

o Violação Grave do Pressuposto da Esfericidade


▪ Valor de Lower-Bound = 1/k-1
▪ Como a estimativa de Greenhouse-Geisser está mais perto do valor de
Lower Bound do que de 0,75 a 0.90 onde ele falha a rejeição de Ho.
Por isso interpretamos a correção de Greenhouse-Geisser.
▪ Esta correção de Greenhouse-Geisser, assim como as outras, são
realizadas sobre os graus de liberdade e não sobre as Somas
Quadráticas, pois tanto as do erro como as do modelo são sempre as
mesmas (Como podemos ver no quadro abaixo).

30 | P á g i n a
▪ O número de graus de liberdades do modelo são 3, mas a correção de
Greenhouse-Geisser corrige para 1,673 – há tabelas para ver isto. E para
este nº novo de graus de liberdade, essas tabelas também demonstram
um novo valor crítico (diferentes nº de graus de liberdade) surgindo daí
a nova significância assintóptica.
▪ A correção de G-G não dá um efeito estatístico significante, mas a do HF
sim. Então o melhor é fazer a média aritmética entre ambas e ver se o
valor é significativo (Steven, 1992). Como da 0,055 - não rejeição de H0
(professores não se diferenciam entre si).

Razão F – Estatísticas Multivariadas


As estatísticas multivariadas revestem uma última opção quando os dados violam a esfericidade,
uma vez que estas não requerem o cumprimento do pressuposto.

• Como nenhum destes testes apresentam um efeito significante, estes testes suportam
a decisão de aceitar Ho, segundo a qual as avaliações dos professores não se
diferenciam.

Comparações Múltiplas à posteriori (ajust. Bonferroni)


Sempre que há um efeito estatístico significante, temos de perceber quais ou qual a média,
perante as outras, que está a causar esse efeito. Para intrasujeitos, no SPSS: EM Means
(Estimator Marginal means)… porque o post hoc no SPSS é referente a intersujeitos…

31 | P á g i n a
Magnitude do Efeito Experimental
• A obtenção de significância apenas revela a existência de diferenças entre as médias das
condições que, com confiança, não se podem atribuir ao erro amostral.
• Não informa acerca da importância ou significado prático dessa diferença.
• Para medir a magnitude do efeito registado, é possível usar com a ANOVA duas
estatísticas que permite aferir a proporção de variância explicada por uma variável
numa outra.
o Eta-Quadrado -> também conhecido como ratio curvilinear, resulta em
avaliação mais enviesada porque se baseia apenas nas SQamostrais e não no
ajustamento da estimativa da medida de efeito à população
o A alternativa é ómega-quadrado, que tal como a razão F, utiliza a variância
explicada pelo modelo (MQm) e a variância do erro (MQr).

• Apenas 24% da variabilidade registada ao nível das notas pode ser explicada pelo
padrão pessoa de cada professor que corrige os testes.

32 | P á g i n a
Resposta
• Averiguou-se o efeito do padrão pessoal com que os Professores corrigem e cotam
testes de avaliação. O Dr. Silva é o mais generoso a avaliar (M=68.88, DP=5.64) e a Dr.ª
Delgado é a docente que dá piores notas (M=57.38, DP=7.91). A média das notas do Dr.
Prieto é de 65.25 (DP=6.92), registo que no Dr. Miguel diminui um valor (M=64.25,
DP=4.71).
• O cálculo da ANOVA unifatorial emparelhada revelou ausência de circularidade nos
dados [X2(5) = 11.63, p=.043], razão pela qual se procedeu ao ajustamento dos graus
de liberdade através da correção de Greenhouse-Geisser ( = .56). Os resultados
mostram que as notas dos testes não são significativamente afetadas pelo padrão
pessoal do professor que classifica os testes [F (1.67,11.71) = 3.70, p >.05], confirmadas
por um efeito de magnitude reduzida (eta-2 = .35).

Resposta com SPSS


• Inserir o seguinte parágrafo:
o Averiguou-se o efeito do padrão pessoal com que os Professores corrigem e
cotam testes de avaliação. A análise dos pressupostos não revelou qualquer
violação da normalidade da distribuição dos dados na VD em das condições da
VI [S-W(8)=.954, p=.754; S-W(8)=.961, p=.816; S-W(8)=.979, p=.958; S-
W(8)=.860, p=.121, Doutores Silva, Miguel, Prieto e Delgado, respetivamente].

ANOVA Unifactorial não paramétrica Intra-Sujeitos


Teste T de Wilcoxon

• Basicamente, a única coisa que se exige é a aleatorização dos sujeitos pelas condições
do tratamento.
• Utiliza-se quando as amostras são reduzidas, há pouca variabilidade dos dados e / ou
haja uma violação grosseira dos pressupostos.
• Teste T de Wilcoxon:
o Requisitos: VI categorial (antes e depois), VD contínua (informação métodos
contracetivos: QMC)
o Testa a existência de diferenças estatisticamente significativas entre os
desempenhos, em termos das suas respetivas ordenações, de um mesmo grupo
de sujeitos que é submetido a duas condições de uma VI.
o O pressuposto da esfericidade para duas condições assume-se como
respeitado à priori. Porque se a esfericidade é a obrigatoriedade da variância
homogénea relativa aos resultados das diferenças entre as condições originais,
logicamente com duas condições apenas, não temos quantitativo suficiente
para poder armar uma combinatória que nos permita testar mais que uma
diferença resultante de duas condições originais. Esfericidade é assumida ou
garantida quando é para duas condições porque não dá para calcular,
basicamente.

33 | P á g i n a
o Tem como alternativa paramétrica o Teste t-Student
o Normalidade: pode ser percebida através de histogramas, que revelam que as
distribuições dos resultados relativos ao conhecimento da utilização adequada
dos melhores métodos contracetivos, antes e depois da formação parecem
seguir de perto a distribuição normal. Mas estes não informam até que ponto
esse eventual desvio face à distribuição normal pode comprometer a aplicação
de técnicas paramétricas. É importante testar a normalidade das distribuições.
• Sabemos que a amostra é reduzida e isso é logo um indicador que teremos de
utilizar um teste não paramétrico. No entanto é importante perceber perceber o
pressuposto da normalidade e homogeneidade por motivos de protocolo de análise,
que começa pela análise exploratória dos dados. Pela boa prática de análise temos
de seguir o protocolo e testar a normalidade, mesmo que saibamos que a decisão
será por um teste não paramétrico.
o Algoritmo:
▪ Há dois tipos: consoante se há empates ou não há empates. Empate
acontece sempre que a medida emparelhada, em termos de VI, resulta
a mesma, ou seja, se um dos casais, à medida dos conhecimentos
em pré e pós teste, foram iguais: não melhoraram nem pioraram
o resultado, ficaram equitativos. Neste casal há um empate.

ANOVA Unifactorial Não Paramétrica Intra-Sujeitos de Friedman


• Os objetivos passam por testar diferenças entre várias condições resultantes da
manipulação de uma mesma VI quando as distribuições de dados obtidos a partir do
desempenho de um mesmo grupo de sujeitos (medidas repetidas) não cumprem os
pressupostos da parametria.
• Sendo não paramétrico, também se rege pelo princípio da ordenação dos dados.
• Pressupostos: Distribuição contínua (VD) e independência das observações
• Algoritmo: efeito estatístico, comparações múltiplas e medida do efeito

Exercício
• Nutricionista investigador aplicou uma dieta a 10
pessoas, e procurará resultados em 3 condições
(início, 1 mês, 2º mês)

34 | P á g i n a
Computação
• H0: não há diferença entre os pesos medianos nos três momentos
• H1: há diferença entre os pesos medianos nos três momentos
• Estatística Observada:
1. Organizar os resultados de cada um dos sujeitos por ordem crescente
2. Atribuir a ordem 1 ao menor dos resultados e assim sucessivamente para todos
3. Adicionar as ordens dentro de cada uma das condições (Ri)
• (Enquanto no Kruskall Wallis, os dados são feitos conjuntamente de todas as condições,
no T de Wilcoxon ou na ANOVA de Friedman esta é feita intrasujeitos e o que é ordenado
é o desempenho dos sujeitos nas condições do tratamento).

(Ordenar pelo penso mais baixo, intermédio e mais alto, numerando de 1 a 3). Posteriormente
fazer o somatório das respetivas ordens.

Estatística Observada
Realizada a ordenação e atribuídas as ordens correspondentes a cada um dos resultados
individuais para cada sujeito, estão reunidas as condições para que se possa calcular o teste
estatístico (Fr)

35 | P á g i n a
Estatística Crítica
Quando o número de pessoas testadas é grande (amostras cujos N são superiores a 10 efetivos),
a estatística Fr tem uma distribuição de Qui-Quadrado com tantos graus de liberdade quantas
as k condições resultantes da manipulação da VI menos 1 (K-1).

• Assim, (k-1)=3-1=2 gl
• Para o nível de significância convencional de 0,05, por leitura na tabela correspondente
dos valores críticos de Qui-Quadrado, obtém-se o valor:

Conclusão
• Como o valor observado (0,20) é menor que o valor crítico (5,99), não se pode rejeitar
Ho segundo a qual a dieta não teve qualquer efeito significante na redução do peso
das senhoras que se encontram a frequentar de forma voluntária a consulta “Peso +/-
certo” realizada pelo Centro de Saúde do Vale das Espinhas.

Testes Post Hoc (Comparações Múltiplas à Posteriori)


• Não existindo testes de comparação múltiplas à posteriori para as estatísticas não
paramétricas, a estratégia continua a consistir na comparação das condições duas a
duas, ajustando o erro de Tipo I através da correção de Bonferroni – testes múltiplos
de T de Wilcoxon.
• No caso da dieta, se tivesse sugerido um efeito significante, proceder-se-ia à
comparação dos pesos entre os três momentos em que estes foram medidos (0,05/3=
0,0167)

Medida do Efeito
• Por um lado não é fácil converter a estatística do qui-quadrado com mais de um grau
de liberdade numa medida de efeito.
• No entanto continua a ser verdade que na maioria das situações é mais interessante
conhecer a medida do efeito de uma determinada comparação em particular. Neste
sentido, opta-se por calcular as medidas de efeito para os testes T de Wilcoxon
utilizados como alternativa às comparações múltiplas à posteriori.
• Apesar do SPSS não calcular as medidas do efeito para estatísticas não paramétricas,
podemos fazê-lo utilizando o resultado normalizado Z em que a estatística do teste é
convertida.

Resposta do Algoritmo
• Testou-se o efeito da dieta Zetkins na redução do peso das senhoras que frequentam
de forma voluntária a consulta “Peso +/− Certo” que o Centro de Saúde do Vale das
Espinhas disponibiliza aos seus utentes (N=10).
• Calculou-se uma ANOVA de Friedman cujos resultados não revelaram qualquer
diminuição significativa dos pesos das senhoras que foram sujeitas aquele regime
alimentar (X2 (2) = .20, p>.05).
• Em virtude da ausência de um efeito estatístico significante, não há lugar a qualquer
análise mais pormenorizada através do cálculo de testes de Wilcoxon, com correção de
Bonferroni (.05/3=.0167).

36 | P á g i n a
SPSS
• Analyze – discriptive statistics – explore

o Normalidade falha em 2 das três condições (já seria mais que justificativo da
utilização da técnica não paramétrica)

o Analyze – Estatistics – explore – variável dependente (Diferenças entre as


condições)
o Não há homogeneidade das variâncias.

o General Linear Models – repeated measures – factor peso com 3 níveis /


condições
o Dados não são esféricos
• Conclusão: Amostra reduzida, não normalidade e não esfericidade.

Vistos os pressupostos, vamos agora calcular o teste não paramétrico.

37 | P á g i n a
• Nonparametric tests – legacy dialogs – k related samples
• 0,2 Estatística calculada
• Sig de 0,95 – Não rejeição de Ho

Resposta SPSS
• Testou-se o efeito da dieta Zetkins na redução do peso das senhoras que frequentam
de forma voluntária a consulta “Peso +/− Certo” que o Centro de Saúde do Vale das
Espinhas disponibiliza aos seus utentes (N=10).
• Análises exploratórias dos histogramas relativos a cada uma das condições,
complementadas pelo teste da normalidade Shapiro-Wilk, revelam que os pesos das
senhoras só seguem uma distribuição normal na condição mês 2 [S-W(10)=.877,
p=.121]; nas restantes condições o pressuposto relativo à normalidade foi violado
[início: S-W(10)=.784, p=.009; mês 2: S-W(10)=.685, p=.001]. Há evidência de ter sido
igualmente violado o pressuposto relativo à homogeneidade das variâncias das
condições resultantes das diferenças entre as condições originais [F(2, 27)=5.655,
p=.009], razão pela qual a alternativa não paramétrica constitui a opção adequada.
• Calculou-se uma ANOVA de Friedman cujos resultados não revelaram qualquer
diminuição significativa dos pesos das senhoras que foram sujeitas aquele regime
alimentar (X2 (2) = .20, p>.05).
• Em virtude da ausência de um efeito estatístico significante, não há lugar a qualquer
análise mais pormenorizada através do cálculo de testes de Wilcoxon, com correção de
Bonferroni (.05/3=.0167).

38 | P á g i n a
Análise de Variância Fatorial / ANOVA Fatorial
O plano fatorial surge em estudos que envolvem a manipulação de duas ou mais variáveis (VI’s
ou fatores) e pode ser:

• Independente (Inter-sujeitos): estudo com várias variáveis independentes ou


preditores, cada uma das quais foi medida utilizando diferentes grupos de participantes
(between groups)
• Relacionado / Emparelhado / Intrasujeitos: estudo que envolve a medição de várias VI’s,
mas usando os mesmos sujeitos em todas as condições (medidas repetidas - within-
groups)
• Misto: plano em que são medidas várias VI’s ou preditores, umas com grupos diferentes
de participantes (between-groups) e outras com os mesmos grupos (medidas repetidas)

Objetivos da ANOVA Fatorial:

• Testar diferenças entre grupos / condições resultantes da manipulação de mais do que


uma VI
• Analisar os efeitos de mais do que uma variável independente e o modo como essas
variáveis interagem
• Incorporar no plano fatorial, uma segunda variável que tenha sido alvo de manipulação
sistemática com atribuição de sujeitos às diferentes condições.

Nota do professor: Não é pelo facto de dispormos de uma técnica que nos permite testar efeitos
de várias variáveis ou fatores que vamos redundantemente incluir num plano de investigação,
fatores e variáveis independentes “a granel”. Porque se o meu plano de investigação tem apenas
2 fatores, espero um efeito principal devido ao fator A , efeito principal relacionado com o b, e
o efeito de interação do A com o B. Mas quando incluo mais um fator, e passo a ter os fatores
A, B e C passo a esperar efeitos ditos simples relativos ao fator A, B e C, depois estou à espera
também de encontrar efeitos de interação do fator A com o B, do A com o C e do B com o C, e
ainda estou à espera de encontrar efeitos de interação parciais, e ainda estou à espera de
encontrar um efeito de interação total, global entre os fatores A, B e C, ou seja, quando
acrescento uma variável ao plano de investigação (VI), passo de 2 efeitos para 6 efeitos - três
principais E TRES DE INTERAÇÃO - E ISTO É EXPONENCIAL.
• Corro o risco de que o nível de significância que está a ser considerado passe a ser
pulverizado por múltiplos efeitos, até que deixamos de saber se o efeito é significante
ou não, dada a situação.

Partição da variância

• A variabilidade existente entre todos os resultados (SQt) é o somatório daquela que é


explicada pelo modelo (SQm) com a que não consegue explicar (SQr)
• Variância imputada ao Modelo decompõe-se em: VariânciaA + VariânciaB +
VariânciaAxB (passa a ter 3 pontos de variabilidade)

• Efeito Principal (A) – variabilidade devida à manipulação do primeiro fator (VIA) ->
SOMAS QUADRÁTICAS DO FATOR A (SQA)
• Efeito Principal (B) – variabilidade devida à manipulação do segundo fator (VIB)->
SOMAS QUADRÁTICAS DO FATOR B (SQB)
• Efeito da Interação (A×B) – variabilidade devida à interação dos fatores (VIA×B)->
SOMAS QUADRÁTICAS DA INTERAÇÃO (SQA×B)

39 | P á g i n a
ANOVA Fatorial Completamente Inter-sujeitos

Uma antropóloga pretende estudar o eventual efeito do álcool na escolha de parceiros sexuais
em encontros fortuitos que se geram entre pessoas que frequentam locais de diversão noturna.
Segundo ela, o consumo de álcool faz aumentar a subjetividade e a imprecisão das perceções
de atração física (efeito conhecido por “beleza alcoólica”). Interessada em perceber se este
efeito afecta de forma diferente ambos os sexos, reuniu uma amostra aleatória de 48 estudantes
(24 rapazes e 24 raparigas) que organizou em grupos em função do género e da quantidade de
álcool consumida [cerveja sem álcool (placebo); cerveja com álcool (2 canecas; 4 canecas)],
numa saída noturna de fim-de-semana. No final da noite, fotografou a pessoa com a qual cada
um dos estudantes se tinha envolvido e ia continuar a noite. Cada rosto foi então avaliado por
um júri independente que avaliou a atração das pessoas em cada uma das fotografias,
atribuindo-lhe uma nota entre 0 e 100

• VD – nível de atração suscitado pelo rosto do parceiro com que o consumidro de álcool
se envolve
• VI’s - álcool e género
• Estamos a testar um efeito principal devido ao álcool, um efeito principal devido ao
género. Mas o principal que estamos a investigar é o efeito de interação de género com
o álcool.
• Sabemos que o álcool tende a minimizar as nossas dificuldades em diferentes domínios
do nosso comportamento. O que se pretende saber é se isso afeta igualmente os dois
géneros ou se afeta diferencialmente o género masculino e o feminino. Se alguns dos
géneros é mais afetado pela quantidade de álcool consumida.

40 | P á g i n a
Observação: 8 sujeitos masculinos e femininos para cada condição. Mas se considerarmos
apenas o género, no total são 48 sujeitos – 24 homens e 24 mulheres. Se considerarmos apenas
o álcool independentemente do género, temos 16 sujeitos a consumir placebo, 16 sujeitos a
consumir duas canecas e 16 sujeitos a consumir 4 canecas. Por tal teremos de decompor as
somas quadráticas totais nas SQ do modelo e nas SQ do modelo.

A ANOVA factorial é muito semelhante à unifactorial, calculam-se as SQt cuja variância se


subdivide entre a que é explicada pela manipulação (SQm) e aquele que este não consegue
explicar (SQr).

Variância explicada pelo modelo resulta da manipulação de dois factores A e B:

• Somas quadráticas da variável independente A – variabilidade devida à manipulação


do primeiro factor (SQA).
• Somas quadráticas da variável independente B – variabilidade devida à manipulação
do segundo factor (SQB)
• Somas quadráticas da interação das variáveis independentes A e B – variabilidade
devida à interação dos dois fatores (SQA×B)

Somas quadráticas totais (SQt) -> Variância total que existe entre todos os resultados quando
se ignora o grupo (condição experimental à qual estes pertencem

Média(T)= 58,33

Variância T = 190,8

(grande dispersão
– ALERTA)

Variabilidade total entre todos os resultados: SQt

41 | P á g i n a
Graus de Liberdade: uma vez que se utiliza toda a amostra para calcular as somas quadráticas,
os graus de liberdade totais (glT) são dados pelo valor da dimensão amostral menos 1 (N-1) = 47

Somas Quadráticas do modelo:

• Variância explicada globalmente pela manipulação experimental, ignorando o


contributo de cada um dos fatores considerado de uma forma isolada
• Todos os sujeitos que operam nas 3 condições de álcool (placebo, 2 e 4 canecas),
ou seja, 8 sujeitos femininos de placebo (média do placebo feminino - média total) +
8 sujeitos masculinos de placebo (média dos masculinos - media total do placebo),
etc...

Do total de 8966,66 unidades de variância, o modelo global relativo às duas variáveis


independentes (género + álcool) consegue explicar 5479,167. Quanto aos graus de liberdade
do modelo (gl m), são dados pelo número total de condições relevantes da manipulação
experimental de cada um dos fatores que o compõem, neste caso 2 da VI género e 3 da VI álcool,
totalizando 6 condições experimentais – 1 (k-1) = 5

Estas SQmodelo vão der de ser, de seguida, decompostas em SQgenero, SQálcool e


SQinteração.

SQgénero:

Média feminino 60,21

Média masculino 56,46

42 | P á g i n a
Efeito principal da VI género: variância explicada pelo sexo de pertença (agrupar resultados de
acordo com o género, ignorando a condição relativa à quantidade de álcool que os sujeitos
consumiram):

(Dos 5479,167 unidades de variância relativas ao modelo composto pelos dois fatores (género
e álcool), 168,75 são explicados pela VI Género)

Graus de Liberdade: número de condições em que se traduziu a manipulação experimental


desta variável independente (k-1) = 2-1= 1

SQálcool

Média Placebo = 63,75

Média 2 canecas = 64,68

Média 4 canecas = 46,56

(Diferença enorme)

(Dos 5479,167 unidades de variância relativas ao modelo composto pelos dois fatores (género
e álcool), 3332,292 são explicados pela VI Álcool). Graus de Liberdade = K-1 = 3-1 = 2

43 | P á g i n a
Efeito da Interação entre os fatores A e B (SQ género v álcool)

Se:

Então:

Graus de Liberdade calculados de duas maneiras:

Ou

Somas Quadráticas do Resíduo (SQr) -> tendo em conta a soma das variâncias de cada grupo
da primeira tabela

Das 8966,66 unidades de variâncias explicada pela totalidade dos resultados (SQt), 3487,52
resultam de fatores estranhos que o modelo não consegue explicar.

Graus de liberdade do resíduo:

44 | P á g i n a
Já temos calculado:

• SQtotais= 8966,66 (graus de liberdade 47)


• SQmodelo = 5479,167 (graus de liberdade 5)
o SQgénero = 168,75 (graus de liberdade 1)
o SQálcool = 3332,292 (graus de liberdade 2)
o SQinteração = 1978,125 (graus de liberdade 2)
• SQresíduo = 3487,52 (graus de liberdade 42)

Por fim, estamos em condições de calcular as respetivas médias quadráticas: divisão das SQ
pelos respetivos graus de liberdade.

Médias Quadráticas

Uma vez que o modelo integra o contributo dos dois fatores, cada um dos efeitos (os dois efeitos
principais e o efeito da interação) têm a sua própria razão de variância F cujo conhecimento
requer o cálculo prévio das respetivas Médias Quadráticas!

Por outro lado, é aqui que começam as diferenças que marcam de forma vincada o plano
completamente intersujeitos dos restantes (do intra e do misto que estudaremos mais à frente).

Médias Quadráticas (Resíduo)

Uma vez que a variância total nos dados se compõe do valor que é devido ao modelo (género,
álcool, género x álcool) e do erro do próprio modelo (variabilidade devida às diferenças
individuais no desempenho, não explicada pela manipulação dos fatores que o compõem),
também se têm de calcular as médias quadráticas do resíduo.

45 | P á g i n a
Razões da Variância

• São calculadas para as duas variáveis independentes e para a sua interação, a partir das
médias quadráticas de cada efeito em razão das médias quadráticas do erro do
modelo

• No plano inter-sujeitos, tal como na ANOVA Unifactorial Inter-sujeitos, ao contrário da


ANOVA intra-sujeitos, é diferenciado pelo facto de haver um erro comum para o efeito,
e não um erro especifico para cada efeito.
• Para chegar ao F, vou ter de dividir a MQ do efeito pela do erro do efeito, e como o
último é comum, eu divido as MQ do género, do Álcool e da sua interação, pelas MQ do
erro.
• O erro é comum aos efeitos principais e ao da interação dos efeitos comuns. É isto que
marca a diferença dos 2 planos que vamos estudar futuramente (intra-sujeitos e misto).

Estatística Crítica:

• Para cada factor temos de perceber se o efeito é estatisticamente significativo


ou não. Por isso é necessária a tabela da razão F na qual, neste caso, vou
comparar para 1 gl em numerador (modelo) com os graus de liberdade em
denominador (erro), que são 42, numa significância de 0,05 para cada uma das
razões F (VALOR DA ESTATÍSTICA CRÍTICA). F de 0,01 só apenas para perceber a
magnitude do factor.

46 | P á g i n a
• Ao dividir as somas quadráticas da VI (álcool, género, interação) pelo erro, vou
obter o eta quadrado parcial: 168,75 /168.5 + 3487,500 (caso do álcool)

• Não podemos pedir o teste à homogeneidade da variância porque iria testar as


três condições e o que pretendemos são o teste das 6 condições (3 álcool x 2
género). Tem de ser pedida de outra forma no spss.
Normalidade

Sem violação do
pressuposto em
nenhuma das 6
condições resultantes

Homogeneidade das Variâncias


Ok…

47 | P á g i n a
Outros outputs do SPSS

• Se o professor apresentar esta tabela-rasteira, saberemos sempre que é


intersujeitos porque o sexo, álcool e interação têm todos um erro comum!
• Eta quadrado: quando o efeito estatístico é não significante, a medida do efeito
é negligenciável, desprezível (no caso de sexo, 0,046 -> 4,6%). Já o álcool (48,9%
e a interação 36,2%)
O eta quadrado foi calculado acima… mas ainda
existe outra medida do efeito importante: o
Ómega quadrado (para as noites de insónia):
Apenas 0,9% da variabilidade registada nas
perceções de atração física pode ser explicada
pelo género de pertença dos sujeitos.

48 | P á g i n a
Para álcool:
35% da variabilidade registada nas
perceções de atração física pode ser
explicada pelas diferentes quantidades
de álcool que os sujeitos consomem.

Para a interação:

Quando as perceções de atração


física são comparadas para as
diferentes quantidades de álcool
consumido em função do sexo dos
sujeitos, a variabilidade diminui para
2%, sendo os estudantes masculinos
os mais sensíveis ao efeito da beleza
alcoólica.

Testes de post hoc

49 | P á g i n a
Resposta:
Estudou-se o impacto do álcool (placebo, 2 canecas, 4 canecas) nas perceções de atração física
de ambos os sexos (M/F), com base na avaliação feita por um júri (maior a nota, mais atraente
o rosto).

Os rapazes são os responsáveis pelos resultados extremados: na condição 4 canecas escolhem


as mulheres menos atraentes (M=35.63, DP=10.84) ao passo que nas condições placebo e 2
canecas escolhem as mulheres mais atraentes (M=66.88, DP=10.33 e DP=12.52,
respetivamente). As raparigas escolhem os homens mais atraentes na condição 2 canecas
(M=64.69, DP=6.55) e os menos atraentes na condição 4 canecas (M=46.56, DP=6.34); em
placebo a atração física média equivale a 60.63 (DP=4.96).

Uma ANOVA fatorial completamente inter-sujeitos, calculada para variâncias homogéneas


(FLevene=1.527, p=.202), revela a existência de um efeito principal significante para o álcool
[F(2, 42)=20.065, p<.01 e para a interação deste fator com o género [F(2, 44)=11.911, p<.01 a
que correspondem medidas do efeito de .49 e .36, respetivamente, calculada com base no eta-

50 | P á g i n a
quadrado. O efeito principal, devido ao género, não atinge significância estatística [F(2,
44)=2.032, n.s., 𝜂2=.009].

Comparações múltiplas a posteriori, calculadas com ajustamento de Bonferroni, revelam que os


sexos só se diferenciam significativamente entre si (p.001) na condição relativa ao maior
consumo de álcool (ver outputs).

Se a análise for realizada no SPSS, incluir:

A análise dos pressupostos não revelou qualquer violação da normalidade da distribuição dos
dados na VD no sexo masculino, nem para a condição placebo [S-W(8)=.941, p=.622], nem para
a condição 2 canecas [S-W(8)=.967, p=.870], nem tão pouco para a condição 4 canecas [S-
W(8)=.951, p=.720]; no sexo feminino, as distribuições dos dados também são oriundas de
populações com distribuições normais, seja na condição placebo [S-W(8)=.872, p=.156], seja na
condição 2 canecas [S-W(8)=.899, p=.283], seja ainda na condição 4 canecas [SW(8)=.897,
p=.273]

51 | P á g i n a
ANOVA Fatorial Completamente Intra-Sujeitos
• Toda a variância (modelo e erro do modelo) vão ocorrer na parte da variância Intra-
Sujeitos)
• Objetivos:
o Testar diferenças entre condições resultantes da manipulação de VI’s em
medidas repetidas
o Analisar os efeitos de mais do que uma VI e o modo como essas variáveis
interagem em medidas relacionadas
o Estender os conhecimentos relativos à ANOVA unifatorial intra-sujeitos a
situações em que existem duas variáveis independentes em medidas repetidas
o Incorporar no plano fatorial um segundo fator que tenha sido alvo de
manipulação sistemática, com atribuição dos mesmos sujeitos às diferentes
condições

Partição da variância

• A variabilidade existente entre todos os resultados (SQt) é o somatório daquela que é


explicada pelo modelo (SQm) com a que não consegue explicar (SQr)
• Variância imputada ao Modelo decompõe-se em: VariânciaA + VariânciaB +
VariânciaAxB (passa a ter 3 pontos de variabilidade)

• Efeito Principal (A) – variabilidade devida à manipulação do primeiro fator (VIA) ->
SOMAS QUADRÁTICAS DO FATOR A (SQA)
• Efeito Principal (B) – variabilidade devida à manipulação do segundo fator (VIB)->
SOMAS QUADRÁTICAS DO FATOR B (SQB)
• Efeito da Interação (A×B) – variabilidade devida à interação dos fatores (VIA×B)->
SOMAS QUADRÁTICAS DA INTERAÇÃO (SQA×B)

Atenção: Variância ocorre toda Intra Grupos! E o erro é específico a cada efeito, ao contrário
do erro inter-sujeitos que era comum.

52 | P á g i n a
Exercício

Compararam-se dois analgésicos (natural/sintético) com o propósito de testar a respectiva


eficácia em quadros clínicos de dor crónica. Para o efeito reuniu-se uma amostra aleatória de 10
pacientes com sintomatologia de dor crónica aguda que foram submetidos a terapêutica com
princípio activo de origem natural e com a uma variante sintetizada em laboratório, tendo
contrabalanceado o plano para controlar eventuais efeitos de transferência. Uma vez que a
determinação da dosagem ideal era um dos objectivos visados, o investigador manipulou ainda
a dosagem de medicação tendo administrado a cada doente uma, duas, três, quatro e cinco
doses ora de um, ora de outro analgésico. A medida dependente foi operacionalizada no período
de tempo, medido em minutos, que cada paciente conseguiu estar sem experimentar dor, valor
que foi avaliado com recurso ao equipamento hospitalar. Os dados constam da tabela seguinte:

• A partir de que quantidade de aplicações é possível perceber um efeito estatístico


relacionado com o alívio da dor crónica?
• Procurar o efeito relativo ao tipo de analgésico, mas também à quantidade (dois
factores: tipo de analgésico e a quantidade de analgésico)
• VD: tempo em minutos que conseguem estar sem sentir dor
• Testar 3 condições: de que a quantidade de analgésico influencia o tempo sem dor; de
que a qualidade do analgésico influencia o tempo sem dor de que existe um efeito da
interação da quantidade do analgésico e a qualidade do analgésico para o aumento do
tempo sem dor.
• (Ho Médias entre doses da natural e Sintético iguais vs H1 -> diferentes;

1ª Coisa – Testar a normalidade no SPSS (analyze – descriptive statistics)

• Teste de Shapiro Wilk (menos de 30 participantes)


• Apenas numa das condições (sintético/ dose 4) não é possível garantir que a
distribuição dos tempos de ausência de dor em função do tipo de dosagem é oriunda
de uma população normal.

53 | P á g i n a
• Nesta 4ª dose do sintético há evidência confirmatória para rejeitar Ho e aceitar H1 em
que existe uma diferença que consiste no facto destes dados não serem oriundos de
uma população normal

2º Passo (porque o plano é de medidas repetidas, teremos de ir agora controlar a esfericidade)

• Que as homogeneidades das variâncias entre as condições originais têm elas entre si
variâncias homogéneas
• Teste de Mauchly (qui quadrado associado)
o Recordar: quando os dados são completamente esféricos o Teste de Mauchly
atinge o 1 (valor máximo) e aí o teste de qui quadrado não é calculado.
• General linear model – repeated measures – inserir os dois factores (analgésico em
primeiro – add; depois, dosagem – add) – Define; Plots: representação gráfica para
analgésico e dosagem); testes de post hoc não temos, mas podemos fazer
comparações duas a duas: EM means.

• A nível do analgésico, os dados são completamente esféricos (não é calculado qui


quadrado nem graus de liberdade nem qualquer significância assintóptica) – Não
violação do pressuposto da esfericidade para este fator.

54 | P á g i n a
• Para a dosagem é diferente. No teste de Mauchly um valor negligenciável, baixo: 0,092.
A significância assintóptica do qui quadrado que lhe está associado é de 0,043, inferior
a 0,05 ou seja evidência confirmatória para rejeitar a Ho (as variâncias das condições
resultantes das diferenças entre as condições originais são iguais entre si) e aceitar H1
que defende que essas condições não são iguais entre si. Ao nível da dosagem, os dados
não gozam de esfericidade. Então logicamente teremos de corrigir os dados.
o Correção a utilizar: Como o valor de épsilon não está no intervalo
comprometedor acima de 0,75 poderemos utilizar a correção de Greenhouse-
Geisser. Vamos ajustar os graus de liberdade com base nesta correção.

Tendo em mente a violação dos pressupostos acima referidos, vamos então averiguar os
efeitos Principais e Interação Intra-Sujeitos (porque o plano é completamente intrasujeitos!).

• Vamos centrar-nos na tabela dos efeitos intra-sujeitos

• Para cada um dos efeitos nós temos o efeito e o erro do efeito. Temos as somas
quadráticas do efeito e as somas quadráticas do erro do efeito que lhe está
associado. Quando dividimos pelos respetivos graus de liberdade obtemos as
respetivas médias quadráticas.
• Para o Factor Analgésico, com esfericidade assumida, mantém-se tudo bem.
• Ao nível da dosagem isso não acontece, é limpa toda a informação exceto a
correção Greenhouse-Geisser, seja para o efeito seja para o erro do efeito.
• Para a interação, tudo OK, como para o analgésico.

55 | P á g i n a
• Eta quadrado de Analgésico refere que as diferenças entre médias referem-se a
esse factor em 79%. Por outro lado, interpretando a dosagem à luz da correção
de Greenhouse-Geisser percebemos que, pelos dados, também tem um efeito
principal ao nível do tempo que os sujeitos conseguem estar sem sentir dor
(90% dos casos em que estão há mais tempo sem sentir dor crónica explica-se
por si só (exclusivamente) pela responsabilidade da dose que está a ser aplicada
– mais dose menos tempo, menos dose mais tempo). Mas o que estamos
interessados em saber não é a quantidade nem a qualidade do analgésico, mas
o tipo de interação que existe, destes fatores, quando ele é administrado.
• Na interação o efeito também é significativamente significante (eta quadrado -
->70%).

Comparações múltiplas à posteriori das condições duas a duas

• Interesse em comparar os analgésicos ao longo das diferentes doses


• Analyze – general linear models – repeated measures – define- past – ativamos a
syntaxe (não tem comparação da interação o que é um problema que se tem de
resolver: fazer nessa linha “compare” (Analgésico) ADJ(BONFERRONI) -> RUN
• Passamos a ter este quadro completo, já com todas as comparações)

• Diferença significativa na 4ª e 5ª doses em que a diferença dos tempos é


manifestamente acentuada, responsáveis pelo efeito estatístico.

56 | P á g i n a
Cálculo da Razão F:

• Atenção, no erro de cada um dos efeitos, os graus de liberdade são dados pelos graus
de liberdade do fator x graus de liberdade between subjects

57 | P á g i n a
Medida de efeito eta quadrado:

Resposta:
Comparou-se a eficácia de dois analgésicos (natural, sintético) em função de cinco dosagens
diferentes, numa amostra aleatória de pacientes referenciados com quadro clínico de dor
crónica (N=10).

Os dados cumprem com o pressuposto da normalidade, excepção feita à condição em que o


analgésico sintético é administrado em 4 doses [S-W(10)=.826, p.030], revelando circularidade
para o medicamento e sua interacção com a dosagem, mas não nesta última, razão pela qual se
reporta este efeito principal corrigindo os respectivos graus de liberdade com a estratégia de
Greenhouse-Geisser. Globalmente para os dois medicamentos, as maiores dosagens
encontram-se associadas a maiores períodos de tempo sem dor; a comparação dos analgésicos
aponta no sentido de uma maior eficácia do natural face ao seu congénere sintético (cf.
“Descriptive Statstics”).

Uma ANOVA factorial completamente intra-sujeitos revela a existência de um efeito principal


estatisticamente significante para o analgésico [F(1,9)=34.08, p<.001] para a dosagem
[F(2.21,19.88)=83.49, p<.001] e para a respectiva interacção [F(4,36)=20.73, p<.001] a que
correspondem medidas do efeito de .79, .90 e .70, respectivamente, calculadas com base no
eta-quadrado.

Comparações múltiplas a posteriori das condições duas a duas, calculadas com ajustamento de
Bonferroni, revelam que os analgésicos só se diferenciam de forma significante quando a
quantidade que é administrada aos pacientes se cifra em 4 doses (p=.002) e em 5 doses (p.001).

Se feita análise em SPSS:

A análise dos pressupostos não revelou qualquer violação da normalidade da distribuição dos
dados na VD em nenhuma das dosagens, seja no caso do analgésico natural [S-W(10)=.903,
p=.239; SW(10)=.904, p=.242; S-W(10)=.986, p=.989; S-W(10)=.949, p=.656; SW(10)=.913,
p=.300; doses 1, 2, 3, 4 e 5, respectivamente], seja no caso do analgésico sintético [S-
W(10)=.916, p=.327; S-W(10)=.890, p=.172; S-W(10)=.941, p=.566; S-W(10)=.962, p=.809; doses
1, 2, 3 e 5, respectivamente], excepção feita à dose 4 desta variante sintética do analgésico [S-
W(10)=.826, p=.030].

58 | P á g i n a
Os dados revelam circularidade para o medicamento [W=1.000] e sua interacção com a dosagem
[ 2 (9)=6.35, p=.712], mas não nesta última [ 2 (9)=17.69, p=.043], razão pela qual se reporta
este efeito principal corrigindo os respectivos graus de liberdade com a estratégia de
Greenhouse-Geisser. Globalmente para os dois medicamentos, as maiores dosagens
encontram-se associadas a maiores períodos de tempo sem dor; a comparação dos analgésicos
aponta no sentido de uma maior eficácia do natural face ao seu congénere sintético (cf.
“Descriptive Statstics”).

59 | P á g i n a
ANOVA Fatorial Mista
• Simultaneamente no mesmo plano de investigação, VI’s operacionalizadas como
intersujeitos e como intrasujeitos.

Objetivos:

• Testar diferenças entre condições resultantes da manipulação de Vi’s em medidas


independentes e em medidas repetidas
• Analisar os efeitos de mais do que uma VI e o modo como essas variáveis interagem
quando umas usam sujeitos diferentes e outras usam os mesmos participantes
• Estender os conhecimentos relativos às ANOVAS Unifactoriais a situações em que
existem variáveis independentes inter-sujeitos e variáveis independentes intra-sujeitos
• PLANO FACTORIAL misto (Mixed-Plot Design)

Exercício:

Homens e mulheres não investem da mesma forma nas relações afectivas, cada uns deles
tendendo a valorizar dimensões diferentes no sexo oposto. A questão fundamental consiste em
perceber qual das duas dimensões, a aparência ou a personalidade, assume maior importância
no âmbito dos relacionamentos heterossexuais. Pretendendo testar a questão, um investigador
pediu a sujeitos de ambos os sexos que se pronunciassem acerca da
possibilidade/impossibilidade de se virem a envolver com diferentes pessoas que diferiam em
termos da sua personalidade (Muito Carisma/Carisma/Cretino) e da respectiva aparência
(Atraente/Normal/Repelente), de acordo com uma escala em que 100 corresponde a
envolvimento garantido (a pessoa dos seus sonhos) e 0 equivale à impossibilidade de todo e
qualquer envolvimento (a pessoa dos seus pesadelos). Os dados constam da tabela seguinte:

• 1 factor intersujeitos (género). 2 factores intrasujeitos (personalidade e aparência)

60 | P á g i n a
• Cada sujeito masculino e cada sujeito feminino tiveram que avaliar uma descrição
relativo a alguém que compreendesse cada uma das nova descrições.

Cálculo:

• A variância explicada pelo modelo resulta da manipulação realizada nos fatores A


(género), B (aparência) e C (personalidade)
• Efeitos principais: aparência, personalidade, sexo
• Interações bifactoriais:
o Aparência x personalidade
o Aparência x sexo
o Personalidade x sexo
• Interações trifactoriais:
o Aparência x personalidade x sexo

Nota do professor: três fatores envolvidos no plano. Para cada um dos fatores vou esperar
efeitos principais: vou testar a H0 na qual a média de um indivíduo atraente é igual a um
indivíduo normal que é igual a um indivíduo repelente contra uma hipótese alternativa segundo
a qual as 3 médias são diferentes. Depois vou testar o efeito principal para a personalidade: Ho
na qual a média de muito carisma é igual à de carisma que é igual à de cretino contra uma H1
que refere o contrário. E finalmente ainda vou experimentar um efeito principal quanto ao
género de pertença, segundo o qual a média feminina = à média masculina contra uma H1 que
refere o contrário. Depois vou ter interações bifactoriais: vou ter de cruzar os níveis da aparência
com os da personalidade – esta combinatória vai-me permitir estabelecer uma H0 segundo a
qual as médias das condições cruzadas são iguais contra uma H1 que são diferentes entre si.
Mas também vou testar um efeito de interação bifactorial entre aparência e o género e entre a
personalidade e o sexo, nos mesmos moldes. E finalmente vou ainda testar uma interação tri-
fatorial em que vou testar uma H0 segundo a qual o cruzamento das condições da aparência
com a personalidade, em termos das respetivas médias, sáo iguais em termos de masculino e
feminino contra uma Ho segundo a qual são diferentes.

Pressupostos de cálculo:

• Normalidade dos resultados


• Homogeneidade das variâncias
• Esfericidade (tem também de ser controlada, pelo facto de haver VI’s intra-sujeitos)
o Controlar e demonstrar que a variância das condições que resultam das
diferenças das condições originais sejam elas também homogéneas entre si.
• VD intervalar ou de razão
• Amostra Aleatória
• Independências das Observações
• Homogeneidade das intercorrelações (pressuposto específico das ANOVAS factoriais
mistas
o Teste extremamente sensível (M de Box) e por tal teremos de baixar o limiar de
0,05 para 0,001.
o Se a significância de M de Box for superior a 0,001, então o pressuposto é
cumprido. Se for igual ou inferior, o pressuposto não é dado como cumprido.

61 | P á g i n a
Para cada um dos níveis da VI inter-sujeitos (sexo) o padrão de inter-correlações entre os níveis
das VIs’ intra-sujeitos (aparência, personalidade) deverá ser o mesmo.

SPSS:

• 1º Controlar pressuposto da normalidade


o Data – Split File – organize output by groups (intersujeitos) – Género – Ok
o Analyze- descriptive statistics explore – encher Dependent List – pedir testes à
normalidade
o Cumpre com o pressuposto da normalidade em todas as condições dos Factores

62 | P á g i n a
2.º Testar a Homogeneidade da Variância

• Para testar a homogeneidade da variância teremos de fazer reset no SPSS, anular a


opção do split file!
• Analyze - general linear model – repeated measures – definição dos factores (aparência,
personalidade) – add – define – colocar as 9 variáveis – Género será identificada nos
fatores intert-sujeitos!
• Programa calcula automaticamente a presença de variáveis inntrasujeitos, a variável
intersujeito e calcula a esfericidade, homogeneidade de variâncias e, também, por ser
misto, o M de Box. (so a homogeneidade das variâncias é necessário pedir nas opções –
criar os gráficos para as 4 condições (aparência e sexo, aparência e personalidade, sexo
e personalidade, sexo e aparência e personalidade em duas linhas separadas)
• EM means -> colocar todos os fatores… e colocar continue, fazendo o ajustamento de
bonferroni
• Options, descritivas, estimates of Effect size e testes à homogeneidade

• Cumprimento do pressuposto da Homogeneidade das Variâncias (integral)

3º Passo: Esfericidade

• Esfericidade assumida: as variâncias relativas às condições que resultam das diferenças


das condições originais gozam de esfericidade, são adequadamente homogéneas.

63 | P á g i n a
4º Passo controlo do pressuposto específico do Plano Misto (M de Box)

• Homogeneidade das Intercorrelações


• O importante é perceber se o valor da significância é
superior a 0,001 ou igual ou inferior a 0,001, porque este
teste é extraordinariamente sensível. De forma a evitar
enviesamentos, baixa-se o nível de significância
• Pressuposto cumprido, logo as intercorrelações são
homogéneas entre si.

De seguida, averiguar os efeitos principais dos efeitos de interação:

• 1º Efeitos Inter-sujeitos (Género)

• Género não significante. Não explica rigorosamente nada das escolhas. Estas vão
basear-se estritamente na aparência e na personalidade, se houver alguma diferença.

2º Efeitos intra-Sujeitos (aparência e personalidade)

Para aparência, percebe-se


que homens e mulheres
escolhem diferente entre si.

64 | P á g i n a
Ao nível da personalidade,
precisamente a mesma
coisa. Homens e mulheres
também funcionam de
forma diferente.

Homens e mulheres
escolhem de maneira
diferente. Mulheres
valorizam mais a
personalidade que a
aparência e os homens são muito menos criteriosos nesse sentido, quanto à personalidade.

Para perceber o que está realmente a provocar estas diferenças teremos de fazer
comparações múltiplas à posteriori.

• Analyze – general linear model – repeated measures – paste – criar syntaxe –


COMPARE(Aparencia) ADJ(Bonferroni) – o mesmo para personalidade

• Quando o nível da aparência é atraente (1) e a personalidade é de cretino (3) são as


senhoras que têm essa preferência e os homens não. Quando a aparência é 3
(repelente) e a personalidade é 1 (muito carisma). Neste caso são os homens que

65 | P á g i n a
escolhem mais. Se as senhoras valorizam mais a estética, os homens tendem a valorizar
mais o conteúdo (nesta amostra, porque é contraditória ao clichê).

Medidas Eta quadrado

Resposta:

Testou-se a importância da aparência (atraente, normal, repelente) e da personalidade (muito


carisma, carisma, cretino) na escolha de parceiros no âmbito da assunção de relacionamentos
afectivos heterossexuais, numa amostra aleatória de sujeitos de ambos os sexos (N=20).

Os dados cumprem com os pressupostos relativos à normalidade, à homogeneidade das


variâncias, à esfericidade e à homogeneidade das intercorrelações.

Considerando os dois sexos globalmente, quanto mais atraentes e carismáticos são as pessoas,
tanto maior tende a ser a possibilidade de estas virem a ser consideradas como potenciais
parceiros num futuro relacionamento afectivo (cf. “Descriptive Statstics”).

66 | P á g i n a
Uma ANOVA factorial mista revela a existência de um efeito principal estatisticamente
significante para a aparência [F(2, 36)=328.25, p<0,001] e para a personalidade [F(2, 36)=423.73,
p<.001] a que correspondem medidas de efeito de .95 e .96, respectivamente, calculadas com
base no eta-quadrado. Foram ainda identificadas interacções significantes entre estes factores
intra-sujeitos [F(4, 72)=36.63, p<.001,  2=.67]; a aparência [F(2, 36)=62.45, p<.001,  2=.78],
bem como a personalidade [F(2, 36)=80.43, p<.001,  2=.82], revelam interacções significativas
com o único factor inter-sujeitos. É ainda significante a interacção de todos os factores entre si
[F(4, 72)=24.12, p<.001,  2=.57].

O efeito principal para o factor sexo não se revela estatisticamente significante [F(1, 18)=.005,
p<.946,  2.001].

Comparações múltiplas a posteriori, calculadas com ajustamento de Bonferroni, revelam que os


sexos só se diferenciam quando o oponente é percebido como atraente, mesmo que seja cretino
(p.001), ou quando em alternativa, apesar de ser considerado repelente ainda assim revela
uma personalidade muito carismática (p.001).

67 | P á g i n a
Correlação
As técnicas baseadas na correlação são muito usadas em planos não experimentais e as variáveis
não são deliberadamente manipuladas, ou seja, são descritas tal como ocorrem. São úteis para:

• Testar modelos e teorias


• Predizer resultados
• Avaliar a fidelidade e validade das escalas.

“Na correlação medimos apenas a variação do conjunto nas dimensões do comportamento que
estamos interessados. Basicamente, hoje vamos explorar relações entre pares de variáveis para
futuramente falarmos de regressão bivariável (reunindo evidencia confirmatória que confirme
uma relação significante entre duas variáveis x e y, é possível regredir y em x sem que tenhamos
medido previamente. É possível estimar uma variável a partir de uma outra com ela relacionada,
o que é extremamente vantajoso para desenvolver estratégias de intervenção de cariz
preventivo. Conseguimos assim antecipar os problemas e atuar sobre eles antes de eles serem
prejudiciais nos diversos contextos.”

Técnicas baseadas na Correlação:

• Correlação: Explorar a associação entre pares de variáveis


• Regressão Bivariada: Predizer os resultados numa variável a partir dos resultados numa
outra variável
o Se na primeira nós partimos de uma porção variável preditora, Na regressão
múltipla, numa extensão da primeira, tomamos mais do que uma preditora
para estimar o mesmo critério /variável dependente.

• Regressão Múltipla: Predizer o desempenho numa VD a partir dos resultados em várias


VI’s
• Análise Factorial: Identificar a estrutura subjacente a um grupo de variáveis
relacionadas entre si
o Técnica de redução de dados que permite construir questionários, inventários a
partir de um conjunto de itens sendo que, alem disse, permite também agarrar
em um instrumento de avaliação psicológica, legitimar as suas caraterísticas
psicométricas quanto a uma população para a qual não foi originariamente
concebido (percebendo assim se o funcionamento é matematicamente correto
para avaliar os construtos e ser utilizado para fazer avaliação clínica)

Relações entre Variáveis

• A técnica a usar depende do tipo de questões a investigar e do tipo de dados.

Correlação: descreve a força / magnitude e a direção / sentido entre duas variáveis contínuas
ou uma variável contínua e uma dicotómica

• Utiliza-se a estatística Produto – Momento de Pearson (r de Pearson)


• Correlação Parcial: Explora a relação entre duas variáveis, controlando estatisticamente
uma terceira variável (que pode influenciar, confundir ou ter impacto na relação)
permitindo que se conheça a relação real que existe entre elas.

68 | P á g i n a
o A relação entre duas variáveis tende a ser influenciada por uma 3º variável cuja
ação vem aumentar ou diminuir a relação entre as duas anteriores. Quando
desconfiamos disso utilizamos uma medida de correlação parcial: permite
anular estatisticamente a correlação da variável que desconfiamos estar a
mediar a correlação entre as duas variáveis originais de interesse, e permite-nos
calcular a correlação conjunta (de ordem 0) das 3 variáveis entre si e depois
anular automaticamente aquela que suspeitamos que está a influenciar, e
perceber se há eventualmente uma diferença entre o valor de correlação de
ordem 0, e a correlação parcial em que estamos interessados, e perceber se de
facto há uma mudança em termos de magnitude. Se de facto houver uma
discrepância (dois valores tenderem a dissociar-se) então as nossas suspeitas
são legítimas. Se for residual, é porque a 3ª variável não está a influenciar nem
amediar as duas variáveis nas quais estamos extremamente interessados.

Regressão: Prediz uma única VD a partir de uma ou mais Vis, testa o poder preditivo de um
conjunto de variáveis e avalia o contributo relativo de cada uma delas isoladamente

• Se de facto é certo que na correlação não há um nexo de causalidade (se peso e


altura estão relacionados, nem altura é uma consequência do peso nem vice-
versa, são apenas duas dimensões que co-variam juntamente pois quanto maior
a altura maior a massa corporal e assim maior é o peso, mas não podemos dizer
que haja causalidade, pois há um conjunto de outras caraterísticas ou seja, as
3as variáveis, que podem estar a mediar e a adulterar esta relação. Basta
pensarmos que um indivíduo mais alto mas mais magro pode eventualmente
comprometer a relação de um aparente nexo de causalidade). Em todo o caso,
em termos de regressão é comum, mesmo sem nexo de causalidade, é comum
associar as duas variáveis (a que se regride e da qual se parte para fazer a
regressão como variável independente e variável dependente. Não é muito
correto, mas é o que é utilizado no SPSS, e resulta da modelação matemática por
trás do modelo de regressão.
• Mas basicamente, é possível estimar um so critério (VD) a partir de uma ou mais
ditas preditoras (VIs). O que se tenta é construir um modelo matemático para
avaliar o poder preditivo das variáveis preditoras para a estimação do respetivo
critério que queremos investigar em termos de contributo de cada uma delas.

Análise Fatorial: Explora a estrutura subjacente a um grande conjunto de variáveis relacionadas


entre si (itens de uma escala) reduzindo-as a um conjunto de dimensões / componentes mais
pequeno e manipulável.

• Técnica de correlação de dados a partir das intercorrelações entre as variáveis, a partir


de um instrumento ou questionário. Para cada um dos itens do instrumento calcula as
intercorrelações dos restantes itens e o que é proposto fazer é também fazer emergir no
chamado espaço vetorial latente das variáveis de 2a ordem (chamados construtos que
estão escondidos nas relação mais amplas das variáveis individuais que são os itens
entre si).
• Por exemplo, modelo de avaliação de interesses vocacionais: tendo um conjunto de 30
itens para 6 personalidades, o que a análise fatorial faz é agregar a comunalidades dos
itens que têm entre si semelhantes coisas realistas, aqueles outros que têm entre si
coisas semelhantes tipo intelectual, artístico, social, convencional, etc... e em termos de

69 | P á g i n a
resultado o que vai fazer emergir é precisamente o conjunto de 6 componentes, em que
cada um será respetivo a cada construto dos 6.
• Técnica que permite construir instrumentos de avaliação psicológica: se partimos de
180 itens e queremos isolar um conjunto de apenas 60 (10 para cada um dos tipos) e
assim vamos querer isolar aqueles que são mais fortes, os que cuja intercorrelação entre
siée mais forte e a intercorrelação com os que não lhe pertencem é necessariamente
mais fraca.
• Para alem desta instrumentalidade na construção de instrumentos de avaliação, tem
também o potencial que nos permite perceber como é que ele funciona, se de facto essas
dimensões emergem na mesma relação que têm, nos diversos contextos, e perceber o
porquê de poder haver resultados menos válidos.

Coeficiente de Correlação

• O coeficiente de correlação é uma síntese numérica da relação linear existente entre


duas variáveis em termos de sentido e magnitude.
• Sentido / Direção:
o Positiva:
▪ Resultados elevados em 𝜒 associados a resultados elevados em y
▪ Resultados baixos em 𝜒 associados a resultados baixos em y
o Negativa:
▪ resultados elevados em 𝜒 associados a resultados baixos em y
▪ resultados baixos em x associados a resultados elevados em y
o Nula:
▪ Não existe relação linear entre as variáveis
• Tipos de relação:
o Positiva Perfeita
▪ Resultados elevados em 𝜒 associados a resultados elevados em y
▪ Resultados baixos em 𝜒 associados a resultados baixos em y
▪ Positiva Imperfeita – a relação não é traduzida exatamente por uma
linha reta, mas existe uma relação linear positiva percetível através de
um padrão que se traduz numa diagonal ascendente
o Negativa Perfeita
▪ Resultados elevados em 𝜒 associados a resultados baixos em y
▪ Resultados baixos em x associados a resultados elevados em y o
▪ Negativa Imperfeita – a relação não é traduzida exatamente por uma
linha reta, mas existe uma relação linear negativa percetível através de
um padrão que se traduz numa diagonal descendente
• Magnitude da Força
o Positiva Perfeita (+1)
▪ (+) Direção positiva direta da relação (direta)
▪ (1) A relação é linear (Resultados elevados em 𝜒 associados a resultados
elevados em y; Resultados baixos em 𝜒 associados a resultados baixos
em y)

o Negativa Perfeita (-1)
▪ (-) direção negativa da relação

70 | P á g i n a
▪ (1) A relação é linear (resultados elevados e x associados a resultados
baixos em y; resultados baixos em x associados a resultados elevados
em y)
o Força
▪ r = .10 a .29 ou -.10 a -.29 → Pequeno
▪ r = .30 a .49 ou -.30 a -.49 → Médio
▪ r = .50 a 1.0 ou -.50 a -1.0 → Grande

Sem consenso no r grande. restantes 50% considera grande. se a primeira metade ele divide em
2 secções, e a segunda apenas 1. Isso gera consenso, esta ausência também de uma subdivisão
nestes 50%.

Uma nova perspetiva de Dancey e Reidy (1999) dá-nos um escalamento de situações muito
mais abrangente que a proposta do Cohen que surge muito mais limitativa.

Interpretação do Coeficiente de Correlação (r)

• Relação não linear:


o subestima a magnitude da relação. Analisar o diagrama de dispersão,
particularmente para valores de r baixos.
▪ As relações entre as duas variáveis tem de ser de natureza linear (deve
ser modelada por uma linha reta). Y= A + Bx (y é uma função de uma
constante acrescida por um incremento em cada unidade de variação
em x).
▪ Se puder traduzir esta equação (relação entre duas variáveis) através de
uma linha reta, então a relação é linear e, para r, a relação entre as duas
variáveis x e y é linear. Se não acontece, a magnitude entre as duas
variáveis vai ficar sobrestimada. Averiguamos isso através da
representação gráfica. -> diagrama de dispersão ou gráfico de nuvem
de pontos (também conhecido assim). Absissas -x, ordenadas - y. por
cada observação um par de valores (em x e y).

71 | P á g i n a
• Outliers:
o Afetam drasticamente. Subestimam ou sobrestimam a verdadeira relação
entre as variáveis. Analisar o diagrama de dispersão com a média / média
aparada a 5%
▪ A existência de outliers na distribuição das variáveis é desaconselhável.
Controlamos isso a partir de observação gráfica, mas principalmente
pela confrontação entre os valores da média aritmética ou aparada.
▪ Se o valor da média aritmética calculada com todos os valores convergir
ou coincidir com o valor da média aparada (que é calculada apos ser
expurgada dos 5% dos casos marginais- 2,5% abaixo e 2,5% acima) é
porque as distribuições para as variáveis em causa não incluem outliers.
▪ Se os dois valores forem discrepantes temos de desconfiar seriamente
que os valores estão 3 DP acima ou abaixo da média da distribuição.
Neste caso estes sujeitos que contribuem com estes valores devem ser
retirados da análise para nao enviesarem a relação entre as variáveis.
• Amostras:
o Devem ter dimensão suficientemente grande para permitir um conjunto mais
diversificado de resultados em cada uma das variáveis.
▪ A correlação é super sensível à dimensão da amostra.
• Correlação / Causalidade:
o A relação entre variáveis não pressupõe nexo de causalidade
▪ Apesar de termos por obrigação apresentar o valor p. value da
correlação que estamos a calcular, em termos de interpretação não
vamos basear-nos nessa significância estatística, mas vamos abordar a
medida de efeito.
▪ Para todos os efeitos essas medidas não são mais que os coeficientes de
correlação. Representamos a significância estatística mas vamos
interpretar a qualidade de correlação a partir do valor da variância
conjunta das duas variáveis e fazemos isso elevando o valor do
coeficiente da correlação ao quadrado-> chama-se coeficiente de
determinação, que nos dá a percentagem de variância (representação
de dois círculos sobrepostos em que um representa a variável X e o outro
representa a variável Y). Quanto maior a sobreposição, maior a
variância comum entre as duas variáveis, maior o coeficiente de
determinação.
• Significância estatística / prática
o É muito limitada:
▪ Amostras pequenas (N<30). Correlações moderadas não alcançam
significância estatística.
▪ Amsotras grandes (N>30). Correlações pequenas alcançam significância
estatística.
▪ Sugestão: calcular o Coeficiente de Determinação (r2) – percentagem
de variância comum.

72 | P á g i n a
Pressupostos

• Os pressupostos comuns a todas as técnicas são:


o Níveis de Medição: variáveis intervalares ou de razão (exceto contínua +
dicotómica, categorias semelhantes a número de casos / sujeitos)
▪ Número de sujeitos tem de ser similar, se for discrepante as coisas já
não funcionam
o Pares relacionados (cada sujeito deve contribuir com dois resultados: x e y
o Independência das Observações: cada observação não deve ser influenciada /
contaminada por qualquer outra observação
▪ Stevens (1996) violação grave -> restringir o valor de alfa [0,05 –> 0,01)
• Se houver a forte suspeita de que há dependência das
observações, devemos baixar o nível de significância de 0,05
para 0,01. Pois cada observação não deve ser contaminada,
teremos de minimizar isso com o valor do limiar da
aceitabilidade psicométrica.
o Normalidade – a distribuição dos resultados nas variáveis x e y deve seguir uma
distribuição normal. Deve-se analisar os testes da normalidade (K-S; S-W) e os
histogramas.
o Linearidade – relação linear entre as variáveis 𝜒 e y. Analisar os diagramas de
dispersão. – relação modelada através de uma linha reta.
o Homocedasticidade – variabilidade dos resultados em 𝜒 deve ser semelhante
em todos os valores de y. Analisar os diagramas de dispersão e a forma
tendencialmente cilíndrica em toda a sua extensão
▪ Homogeneidade da variância. Se o diagrama de dispersão formar uma
área retangular ou, em 3D, um cilindro, é porque a variabilidade é
homogénea.
▪ Se nao for homogénea, a nuvem de pontos tende a afunilar num vértice
e a alargar-se no lado oposto. Um chamado cone de redução.

Exercício de Aplicação
A investigação é estudar os fatores que influenciam o ajustamento e bem-estar psicológico dos
sujeitos, em termos de sentimentos de autocontrolo e de nível de stress percebido.
Existirá uma relação entre o controlo que os sujeitos fazem dos seus estados internos
(autocontrolo) e os seus respetivos níveis de stress percebidos? Será que as pessoas com
elevados níveis de controlo percebido tendem a experienciar baixos níveis de stress percebido?

• Variáveis → 2 contínuas (autocontrolo + stress percebido): 1 contínua; 1 dicotómica

Técnica: coeficiente Produto-Momento de Pearson (r de Pearson)

• Explora (deteta e descreve) a relação entre as variáveis (magnitude e direção)

Pressupostos:

• Escala intervalar ou de razão


• Pares relacionados
• Independência das observações
• Normalidade
• Linearidade

73 | P á g i n a
• Homocedasticidade

Alternativa não paramétrica:

• rho de Spearman

Diagrama de Dispersão:

Cada ponto é um sujeito. Resultados baixos de autocontrolo associados a níveis altos de


stress. Nuvem de pontos evolui do canto superior esquerdo para o inferior direito, então a
relação será garantidamente negativa (ao aumento de uma variável está associada a
diminuição de outra). Recta com declive descendente – relação negativa, embora ainda não
se saiba se é forte ou fraca.

Objetivo:

• Controlar os pressupostos da linearidade + homocedasticidade. Averiguar a natureza da


relação entre as variáveis.

Interpretação:

• Outliers – remoção/recodificação
• Análise da distribuição dos postos (magnitude/força):
o Dispersa (correlação muito baixa)
o Cilíndrica (correção forte)
o Curva [relação curvilinear (Não usar o r de Pearson: relação linear)
o Cilíndrica espiralada (violação do pressuposto da homocedasticidade)
• Determinação da direção da distribuição (sentido)
o Positiva – ascendente (resultados elevados em 𝜒 associados a resultados
elevados em y)
o Negativa – descendente (resultados baixos em 𝜒 associados a resultados
elevados em y)

74 | P á g i n a
Output da Correlação

• Correlação moderadamente forte e significante (-0,58) com 2 asteriscos é significante a


0,01, ao invés de 0,05.
• Como temos uma amostra muito grande, teremos de reportar o coeficiente de
correlação, a sua significância assintóptica mas o que vamos radicar é no coeficiente de
determinação (elevação ao quadrado).
• Conclusão: o input informa sobre:
o Valor 2
o Nível de significância
o Número de casos

Interpretação:

• Amostra N = 426 → correto ou existem missings?


• Direção/Sentido da relação
o r = –.581 → correlação negativa entre autocontrolo e stress percebido, ou seja,
resultados elevados associados a resultados baixos – quanto maior o
autocontrolo dos sujeitos menor o seu stress percebido
• Força/Magnitude da relação
o r = -.581→ [.50 – 1.00] ou [-.50 - -1.0] Correlação Grande!(Cohen).
o Sugere, nesta amostra, a existência de uma relação forte entre autocontrolo e
stress percebido.
• Coeficiente de determinação
o Dá a percentagem de variância comum partilhada pelas variáveis r=-0.581

▪ O autocontrolo ajuda a explicar cerca de 34% da variância que se


verifica ao nível do stress percebido pelos sujeitos.
• Nível de Significância
o Amostras pequenas (N = 30) → correlações moderadas não alcançam
significância estatística
o Amostras grandes (N  100) → correlações pequenas alcançam significância
estatística
o Importante: Apresentar o valor de p, mas ignorá-lo centrando-se no valor do
coeficiente de determinação

75 | P á g i n a
Resposta

o A relação entre o controlo percebido relativamente aos estados internos (medido pela
PCOISS) e o stress percebido (medido pela escala de Stress Percebido) foi estudada
através do coeficiente de correlação produto-momento de Pearson.
o Foram realizadas análises preliminares para assegurar a inviolabilidade dos
pressupostos relativos à normalidade, linearidade e homocedasticidade.
o Verificou-se uma forte correlação negativa entre as duas variáveis (r = -.58, n=426,
p<.001) com elevados níveis de controlo percebido associados a baixos níveis de stress
percebido, o que vai no sentido da hipótese teórica. O controlo percebido pelos sujeitos
ajuda a explicar cerca de 34% da variância que se verifica ao nível dos seus resultados
na escala de stress.
o Nota: -,58 é relacionado com o valor da amostra. Mas a nível populacional é
importante saber o valor (o extremo inferior e o extremo superior deste intervalo
de confiança). Tomamos o valor da diferença entre as médias, somávamos e
subtraíamos o valor da estatistica crítica pelo erro padrão da medida. Aqui
fazemos igual só que de outras formas específicas

Intervalo de Confiança para a População (em torno de r)

1. Transformar o r em X de Fisher [Zr]


a. Tabela de transformação de r em Zr ( r=-.58 -> Zr=-.662)

2.

• Se substituir r por -.58, chego ao valor de -.662


• Depois, valor da estatística crítica: Z.025= 1.96 X erro padrão (1/raiz quadrada de N-3)
• Erro padrão aqui é calculado de maneira diferente: o valor do erro padrão é dado 1/raiz
quadrada de N-3
3. Calcular os limites, superior e inferior do IC (95%)
a. Somando e subtraindo o valor de Zr=-.58 ao valor obtido anteriormente (.095)

𝑙𝑖𝑚𝑠𝑢𝑝 = 𝑍𝑟 + 0.095 = −0.662 + 0.095 = −0.567 ≅ −0.57

𝑙𝑖𝑚𝑖𝑛𝑓 = 𝑍𝑟 + 0.095 = −0.662 − 0.095 = −0.757 ≅ −0.76

4. Transformar o Zr em r (pela respetiva tabela)


limsup: Zr =−.57 → r = −.52
liminf: Zr = −.76 → r = −.64
IC(95%) →[−.64; −.52]

76 | P á g i n a
Somando e subtraindo vou encontrar os valores normalizados. O valor mínimo, o valor
máximo. Depois terei de converter o valor normalizado (isto a partir da tabela).

Análise:
• Intervalo de confiança para 95%, para o coeficiente de correlação populacional a variar
entre -.64 e -.52 quando o coeficiente de correlação amostral é -.58.
• Se na minha amostra, a relação entre o autocontrolo e o stress vale -.58, eu espero em
termos populacionais, encontrar esse valor entre o intervalo compreendido entre -.64
e -.52.

Comparação de Coeficientes de Correlação

• Estudar comparativamente o otimismo e os afetos negativos, em termos do sexo de


pertença

Correção Linear, também negativa. Quanto


mais otimismos, menos afeto negativo. E
vice-versa.

Equivalente ao gráfico dos homens

77 | P á g i n a
• relação negativa em ambos os casos, mas com magnitudes diferentes. Para os homens,
uma correlação fraca e para as senhoras uma correlação moderada.
• Em ambos os casos, significância inferior a 0,01.
• No caso das senhoras, 16% (equivalente na tabela a 0,394 -> 0,4)

Comparação de Coeficientes de Correlação

Interpretação:

Esta análise estuda comparativamente o otimismo e os afetos negativos, em termos do sexo e


da pertença.

• Sexo masculino
o Correlação: rM = -.22 (p=0.03)
o Significância estatística do coeficiente de correlação → testa H0 (rM
populacional é zero)
• Sexo feminino
o Correlação: rF = -.39 (p<.001)
o Significância estatística do coeficiente de correlação → testa H0 (rM
populacional é zero)

Importante perceber o seguinte: homens e mulheres diferenciam-se significativamente entre


si? É possível testar a igualdade de dois coeficientes de correlação? Sim, é possível. e é isso que
iremos aprender. Testar uma H0 na qual os dois coeficientes da correlação são iguais entre si,
para uma H nula segundo a qual, de facto, poderá ser eventualmente diferente.

78 | P á g i n a
É possível testar a significância estatística de rM e rF ou seja, avaliar a probabilidade da
diferença registada entre as correlações dos dois grupos, masculino e feminino, ser devida ao
erro amostral quando, de facto, não existem diferenças reais na força/magnitude da relação
entre estas variáveis para ambos os sexos.

Pressupostos

o Os coeficientes a testar resultam de amostras aleatórias


o Os coeficientes a testar são relativos a grupos independentes de sujeitos
o Os resultados em cada um dos grupos segue a distribuição normal
o Número mínimo de registos em cada grupo: 20

Como fazer?

o Duas variáveis têm entre si uma relação bivariada de natureza normal ou se N


for suficientemente grande (mais de 30), então a transformação de r em z segue
uma distribuição normal dada por uma média que é igual à diferença dos
coeficientes de correlação normalizados e o erro padrão dado pela raiz
quadrada de 1/N-3 do 1º grupo e 1/N-3 do 2o coeficiente de correlação.
o Vou calcular uma estatistica observada igual à razão entre a diferença dos
coeficientes de correlação normalizados e o erro padrão da medida (raiz
quadrada de 1/Nmasculino-3 + 1/Nfeminino-3).

Qual a diferença da razão crítica de um t de student? É a mesma coisa! Há a necessidade de


adaptar os algarismos à medida que estamos a utilizar, independentemente se é médias ou
valores de correlações. E assim temos estes dois coeficientes de correlação.

79 | P á g i n a
Cálculo

2. Determinação da Região de Rejeição

3. Cálculo do Z(obs)

o Se o valor observado na amostra estiver dentro do intervalo de +-1.96, não se rejeita H0.
o Se em contrapartida o valor observado estiver no intervalo - infinito a 1.96 ou 1,96 a +
infinito- , rejeita-se ho e aceita-se h1.
o Preciso de conhecer o valor do Z observado para saber se ele está dentro ou fora do
intervalo. Como calcular o valor do Z observado? Fazendo a razão entre os valores
normalizados dos coeficientes de correlação relativos à diferença, a dividir pela raiz
quadra de 1/Nmasculino - 3….. e feminino.
o So tenho de ter em consideração que previamente tenho de normalizar 0.22 e 0.394 pelo
cálculo ou pela tabela.

80 | P á g i n a
Cálculo de Z obs:

1.99 está fora do intervalo. Está no intervalo de 1.96 a + infinito. Pertence à região de
rejeição. Rejeita-se H0 e conclui-se que de facto homens e mulheres se diferenciam
significativamente em termos da relação entre o optismo e o afecto negativo.

Conclusão:

Existe uma diferença estatisticamente significativa ao nível da força/magnitude da correlação


entre otimismo e afeto negativo em ambos os sexos. De facto, o otimismo tende a explicar
significativamente mais variância ao nível do afeto negativo das raparigas que dos rapazes.

Correlação Parcial

• A correlação parcial permite controlar a influência de uma terceira variável (anulando


estatisticamente a sua contaminação) uma vez que se desconfia que a influência que
ela exerce pode estar a contaminar as outras duas variáveis cuja relação interessa
analisar.
• Os pressupostos são comuns a todas as técnicas:
o Nível de medição
o Pares relacionados
o Independência de observações
o Normalidade
o Linearidade
o Homocedasticidade

81 | P á g i n a
Exercício de Aplicação

Estudar os fatores que influenciam o ajustamento e bem-estar psicológico dos sujeitos, em


termos de sentimentos de autocontrolo e de nível de stress percebido, controlando o
enviesamento de resposta provocado pela desejabilidade social [e.g., tendência dos sujeitos
para se autoapresentarem de um modo positivo ou socialmente desejável (dar uma boa
imagem, mostrar uma boa fachada) quando são solicitados a responder a questionários].

Será que, depois de se controlar a tendência dos sujeitos para se autocaracterizarem de uma
forma positiva em escalas auto-referentes, se continua a registar uma relação entre o
autocontrolo e os seus respetivos níveis de stress percebidos? Será que elevados níveis de
autocontrolo continuam a estar associados baixos níveis de stress percebido?

Relação entre o autocontrolo e o stress percebido, desconfio que essa relação possa ser
influenciada / modelada por uma coisa chamada desejabilidade social (tendência que a amostra
tem para, tentando adivinhar os propósitos do investigador, responderem não como eles são
realmente, mas em função do que suspeitam que o investigador gostaria que eles fossem). Há
uma escala própria de Marlowe Crowne - desejabilidade social. Um bom indicador para
percebermos se, numa determinada investigação, os sujeitos foram honestos nas suas respostas
ou, mesmo que inconscientes, desonestos tentando adivinhar o sentido da investigação que o
autor está a fazer.

• Variáveis: 2 contínuas (autocontrolo + stress percebido)


• 1 cuja influência se controla (desejabilidade social)

Técnica:

• Correlação Parcial:
o Produto-Momento de Pearson (r de Pearson)
• Explorar a relação entre as variáveis autocontrolo e stress percebido, enquanto se
controla estatisticamente o efeito de uma outra variável cuja influência se acredita estar
a contaminar a relação entre as duas outras (desejabilidade social)

82 | P á g i n a
Output:

• None: Matriz de correlações Produto-Momento de Pierson sem que tenha sido


controlada a variável de contaminação
• Desabilidade social total: Controlada a variável de contaminação
• Diagonal com as correlações perfeitas entre si próprias;
• Anulado estatisticamente o efeito da desejabilidade, vejo que o valor que há pouco era
-.582 desce para -.552, variação de 3 centésimas. Uma variação muito reduzida. A
desejabilidade social exerce alguma pequena influência, mas não é determinante (seria
se houvesse uma alteração maior).
• Interpretação: permite concluir que esta variável exerce um pequeno efeito da
magnitude da relação existente entre o autocontrolo e o nível de stress percebido.

Resposta Final

Calculou-se uma correlação parcial para analisar a relação existente entre o autocontrolo
(avaliado pela PCOISS) e o stress percebido (avaliado pela Escala de Stress Percebido),
controlando os resultados na Escala de Desejabilidade Social de Marlowe-Crowne.
Análises preliminares permitiram assegurar a inviolabilidade dos pressupostos relativos à
normalidade, linearidade e homocedasticidade.
Verificou-se uma forte correlação parcial, negativa, entre autocontrolo e stress percebido [r =–
.55, n=423, p<.0005], com elevados níveis de autocontrolo associados a baixos níveis de stress
percebido, o que vai no sentido da hipótese teórica. A análise da correlação de ordem zero (r=–
.58) sugere que o facto de se ter controlado a desejabilidade social de resposta teve um efeito
muito pequeno na força da relação entre as duas variáveis.

83 | P á g i n a
Regressão Simples
• Técnica correlacional baseada na relação entre variáveis. So é legítima se duas variáveis
mostrarem entre ter entre si estatística significante chamada regressão.
• Temos uma preditora e um critério.
• Regressão permite-nos estudar o valor preditivo de uma variável ou de conjunto de
variáveis e avaliar o contributo delas (variável preditora ou das variáveis preditoras) de
forma isolada para o modelo e para o critério que estamos a estimar.

Correlação e Regressão

• Coeficiente de correlação informa acerca da quantidade dos pontos que num diagrama
de dispersão estão próximos da linha recta, mas omite acerca da identidade específica
da linha (por ex: a linha que melhor se ajusta aos dados pode ser curva e não recta).
o Limitada, só dá informações acerca da magnitude e direção.
o Para predizer os valores de uma variável a partir da outra, é necessário ter
informação mais detalhada acerca da linha reta (é preciso conhecer o declive –
pendor ou grau de inclinação – e a ordenada na origem (valor constante que a
reta assume quando o declive e a inclinação da reta são comuns (interceção
com y). Isso só é viável através do modelo da regressão.

Pressupostos

• Comuns a todas as técnicas:


o Nível de medição – variáveis intervalares ou de razão (excepto contínua +
dicotómica). Se for dicotómica temos de garantir o mesmo numero de sujeitos
nas duas condições da variável (categorias = número de casos / sujeitos)
• Pares Relacionados:
o Cada sujeito deve contribuir com 2 resultados X e Y
• Independência das observações
o Cada observação não deve ser influenciada / contaminada por qualquer outra
observação.
o Violação grave: restringir o valor de alfa de 5% para 1% como sugere o Stevens
• Normalidade
• Linearidade
• Homocedasticidade
o Dos resíduos: os resíduos têm que ter, com o variável critério (vulgarmente
conhecida como variável dependente), uma distribuição normal, linear e uma
variabilidade sensivelmente constante.

Regressão Simples

• Valores de uma variável VD estimados a partir dos valores de outra variável VI através
de uma equação de regressão linear (recta)

84 | P á g i n a
Ou seja, a relação das duas variáveis entre si pode e deve ser modelada através de uma linha
recta.

No ciclo aprendemos que seria possível calcular os valores em y sabendo, não só a inclinação da
recta (declive) mas também o ponto de intersecção da recta com o eixo das ordenadas. E com
isto construiríamos uma recta. Evoluiríamos de um tópico em que são necessários dois pontos
para a construção de uma recta para um tópico mais avançado em que se soubermos a
inclinação da reta, sabendo a ordenada na origem, era possível calcular a recta. Basicamente o
que o modelo de regressão faz é precisamente a mesma coisa. Se a relação entre as duas
variáveis é de natureza linear basta-nos saber o valor da variável preditora (de partida), basta
saber a inclinação e declive da recta e basta saber a sua ordenada na origem para conseguirmos
estimar o valor no critério a partir da preditora da qual estamos a partir.

O modelo de regressão é probabilístico, há sempre uma percentagem de erro associada à


capacidade preditiva do modelo (que pode ser mais acentuada – pior qualidade preditiva do
modelo, mas se a diferença for mínima entre aquilo que o modelo estima e aquilo que se mede
e aí a capacidade do modelo será elevada: maior segurança nas predições, estimativas que
ele nos permite realizar ).

Para tal precisamos de estimar:

• y’ valor estimado (variável predita, critério – VD)


• bo ordenada na origem (constante de regressão)
o o valor do modelo quando a preditora é nula (não contribui para o modelo de
regressão)
• b1 declive da recta (coeficiente de regressão)
• x valor preditor (variável preditora – VI)
• E erro do modelo
o Quanto mais se afastar da realidade, pior a capacidade preditiva
o Quanto mais próxima, mais capacidade preditiva

Do que temos falado, entre o que o modelo estima e o que conseguimos medir na realidade,
está subentendida uma diferença, uma medida de afastamento, os resíduos.

• Equação de regressão: quando estima valores de y (VD) a partir de uma ou mais VI’s, as
estimativas y’ habitualmente revelam ligeiras imprecisões (i.e., geometricamente não
encaixam de forma exata na reta)
o Afastamentos y-y’ na variável predita.
o Medidas de afastamento (resíduos) são medidas de precisão das estimativas
da medida de qualidade (capacidade estimativa / preditiva) do modelo!

Embora analisemos do ponto de vista gráfico, ainda assim é determinante que os resíduos
tenham como critério uma distribuição normal, de natureza linear, homocedástica (constante a
nível de variabilidade) e independente.

85 | P á g i n a
• É possível escrever uma linha recta que nos permita estimar, antes dos alunos
começarem a frequentas estatística, estimar com elevado grau de rigor a nota que irão
ter na unidade curricular de estatística antes de terem começado a frequentar. Do ponto
de vista clínico (desenvolvimental, educacional, práticas psicopedagógicas), qual a
importância de uma técnica como esta? Determinante. Porque se chego a um grupo a
partir da nota de acesso e consigo estimar o seu desempenho, e é-me dado a perceber
que uma elevada percentagem de sujeitos pode vir a ter dificuldades sérias na realização
dessa unidade curricular, vou estar mais atento às estratégias que vou implementar ao
longo do semestre para evitar que esse problema venha a surgir.
• Duas variáveis: nota da prova de acesso como ponto de partida (sem qualquer tipo de
manipulação, mas ainda assim é assumido como variável preditora) e nota de
estatística que é aquilo a que eu quero estimar (VD). Ambas são contínuas, o que não
coloca questões de maior.

Testes à normalidade: Populações com


distribuição normal.

86 | P á g i n a
Gráfico de Dispersão

Observa-se uma relação linear entre a


nota de acesso e a nota estima em
estatística. É possível calcular o modelo
de regressão de natureza linear, dado
que a relação entre as duas variáveis é
efetivamente linear.

Para cálculo no SPSS devemos pedir algo muito importante no âmbito dos resíduos (casewise
diagnostics) que passa pela necessidade de diagnosticar resíduos que estejam à distância da
média da distribuição dos resíduos (que resulta das diferenças entre aquilo que é medido y e o
que é estimado y’) à distância superior ou inferior a e desvio padrão. Já sabemos do semestre
anterior que todo e qualquer observação de uma distribuição que se afaste para lá de 3 DP é
considerado um outlier severo. Moderado entre 1.5 e 3.0 e severo a partir de 3.0.

Todo e qualquer valor que pode existir vai subvalorizar a qualidade preditiva do modelo.
Portanto vai ter de sair da base e o modelo de regressão não pode ser construído assente
nesses outliers severos (valores extremados), que têm de ser expurgados caso existam.

Casewise Diagnostics (Resíduos univariados)

• Univariados porque são gerados pelo contributo de uma só preditora.

De facto temos um caso na base é que


é considerado um outlier severo.
Porque quando vamos à coluna que diz
Std. Residual, reparamos que o sujeito
34 tem um desempenho que está
acima de 3 DP para além da média
(3,117). O seu resíduo ultrapassa a
média dos resíduos da distribuição dos
resíduos em 3,117, para lá dos 3
desvios padrão.

Porque acontece um outlier severo?

• Ele tem como nota de


estatística 19,5. Quando era expectável que em função da sua respetiva nota de
candidatura ele não tivesse mais que 110,95 (11,1). Há uma diferença de 8.4 na nota
deste “cavalheiro” e não interessa especular nas razões. Provavelmente investiu tudo
naquela matéria, ou sentou-se ao lado de um colega que era muito bom. Mas a única
coisa que temos factualmente é que o desempenho estimado pelo modelo não coincide

87 | P á g i n a
com o que foi avaliado. Foi avaliado y = 19,5 e foi estimado y’=11,1 o que dá um
diferencial de resíduo de 8,4.

Nota: No diagrama de dispersão temos a evidência


destes resíduos. Aquele sujeito está a comprometer a
melhor das retas que melhor se ajusta à nuvem de
pontos e que ser converte no modelo mais eficaz e
robusto para estimar o critério. O propósito do modelo
de regressão é estabelecer a melhor das rectas porque
esta é aquela que vai minimizar para todos os sujeitos, os
resíduos (embora haja sempre alguns que exteriorizem).

Com este sujeito na análise, a relação entre a nota de acesso e a nota de estatística (significante),
moderadamente forte, é de 0,671. A presença deste sujeito está a subestimar o modelo de
relação, a relação entre as duas variáveis. Se expurgarmos o sujeito temporariamente
(procedimento correcto), e valor da correlação produto-momento de Pearson vai-se alterar,
vai tornar-se superior em termos de magnitude.

Sem sujeito 34:

• Distribuição normal mantém-se


• Cálculo do modelo da regressão pela ANOVA:

Permite-me concluir que a correlação populacional entre a preditora e o critério é não nula. É
significativamente diferente de 0.

• A razão F com uma significância inferior a 0,001 permite-me rejeitar H0 e aceitar H1.
• Esta análise de variância testa-me a sig. Da relação linear entre a nota de acesso e a
nota da candidatura. Testa uma Ho em que o coeficiente da relação é =0 contra uma
H1 em que o coeficiente da relação é significativamente diferente.
• Relação não resulta do erro amostral e, desta forma, permite-nos, cumprindo os
pressupostos, estabelecer o nosso modelo.

88 | P á g i n a
A distribuição que resulta das diferenças entre aquilo que
é medido por y e aquilo que é estimado por y’ tem com o
critério (nota de estatística) uma relação normal, de
natureza linear (embora não seja perfeita é recta) e
homocedástica.

Homocedástica:

• O que importa inferir é que a nuvem de pontos entre os valores preditos normalizados
y’ e os resíduos normalizados (diferença entre y e y’) não tenham qualquer padrão
geométrico gráfico. Ao não haver padrão de agregação de pontos da forma geométrica
que possam fazer, é indicador que se verifica a homocedasticidade.
• Sabendo que a relação populacional é significativamente não nula, cumpridos os
pressupostos, temos de ir à procura do nosso modelo.
• Sem o sujeito 34 na base, a relação não enviesada por esse sujeito é de 0,73.

Outliers interferem e dessa maneira vao diminuir,


comprometer a capacidade preditiva do modelo.

Modelo:

• Preditora e critério tem entre si uma relação significante, mas que vale 0,73.
• Apenas na regressão linear simples, o coeficiente de correlação amostral coincide com
o coeficiente de correlação populacional (na regressão múltipla já não). Porque só há
uma preditora e a sua relação com o critério coincidem (partilham o mesmo R).

R quer dizer que as variáveis partilham uma


variância comum de .531, ou seja, 53,1 % da nota
de estatística é explicada pela nota de acesso /
candidatura. Os restantes 47% são relativos ao
tempo de trabalho, atenção nas aulas, tempo de
estudo, etc., coisas que não temos de controlar.

89 | P á g i n a
• Existe o R2 e o R2 ajustado. A primeira é uma estimativa sobrevalorizada e, para
amostras pequenas (não é o caso), o SPSS corrige a estimativa inicial. O interesse destes
valores dá indicação indireta acerca da quantidade de sujeitos amostrais ser ou não ser
adequada para calcular um modelo de regressão estável. Sempre que estes dois valores
forem coincidentes e tendencialmente divergentes, e o R for inferior ao ajustado, já é
de desconfiar que precisamos de mais sujeitos na base.

Coeficientes

• Quando estou a calcular o meu modelo de regressão, estou à procura da constante de


regressão e do coeficiente de regressão, partindo do pressuposto que a ANOVA é
significante. Estes são coeficientes e, se são coeficientes vou encontrar na respetiva
tabela de output.

• Tenho coeficientes não normalizados B e normalizados Beta.


• Quando olho para a equação acima tenho b’s. Se tenho b’s, para escrever o modelo eu
vou usar os coeficientes não standardizados B.
• Qual a constante da regressão (b0)? – 46,305
• Qual o valor do b1? 3,155
• O valor do coeficiente que está na linha da preditora, é o coeficiente de regressão dessa
preditora.

90 | P á g i n a
O contributo desta preditora para o modelo é significante? (este valor pode ser significante,
mas pode haver (noutras ocasiões) preditoras que não o são).

• Por isso esta tabela produz a estatística T. diz que a nota de acesso que explica 53,1%
da nota de estatística é de facto uma preditora significante. Se viesse superior a 0,05
logicamente o valor de B1 seria mais baixo e não contribuiria para estimar o critério.

Como chego à estatística T?

• Dividindo o coeficiente não normalizado B pelo seu erro padrão. 3.155 / 0.532 = 5.930

Para que serve o coeficiente estandardizado Beta?

• Para além da nota de acesso ser um contributo significante, ela tem um peso de 0,729.
Se tivesse mais do que uma preditora, este coeficiente Beta estaria repartido pelos
diferentes preditores (estaria nos pesos parciais de cada uma delas e poderia dar a
entender qual a mais importante).

91 | P á g i n a
Como chegar ao valor de R se ele não for dado?

• Se calcularmos 18096, 329 / 34076,909 (tal como se calculava o eta quadrado) = 0,531
– R quadrado
• Raiz quadrada desse R quadrado dá 0,729.

Equação de Regressão

Quer dizer que a partir de uma constante de -46.31, por um incremento de 3.16 por cada valor
que se incrementa na prova de acesso… eu vou encontrar a nota de estatística.

Exemplo:

Para um sujeito cuja nota na Prova de Acesso tenha sido 60 (#29) – base de dados - é possível
predizer uma Nota em Estatística de:

92 | P á g i n a
Resposta:

• Foi calculado uma regressão linear para determinar o efeito da nota da Prova de Acesso
na nota global no curso de estatística para os caloiros do ano letivo de 2005/2006.
• Constatou-se que a um aumento das notas da prova de acesso corresponde um
incremento de 3,16 na nota de Estatística.
• O valor de F(1,31)=35,10 tem uma probabilidade associada de p<.001, mostrando que é
uma probabilidade associada de p<.001, mostrando que é pouco provável que os
resultados tenham surgido devido a um erro amostral, assumindo que a hipótese nula
é verdadeira.

93 | P á g i n a
Regressão Múltipla Standard
• Estender regressão linear a situações em que temos mais que uma preditora. Permite-
nos fazer uma exploração sofisticada de intercorrelação das variáveis entre si.
• VD contínua (Critério)
• VI’s, habitualmente contínuas (Preditoras)

Permite:

• Predizer um resultado a partir de um conjunto de variáveis


o Predizer o critério (a quantidade de percentagem de variância ocorrida no
critério que é da responsabilidade de cada uma das preditoras individualmente),
mas também da combinação linear das preditoras entre si (a variância global
explicada por todas as variáveis)
• Controlar estatisticamente variáveis adicionais ao explorar a capacidade preditiva do
modelo
o Vai depender das diferentes abordagens que é possível utilizar em termos de
regressão
• Basicamente, quando estamos a calcular o modelo de regressão linear múltipla, temos
de o fazer com base em princípios de natureza teórica ou conceptual.
o O que nos deve nortear em termos da consideração das preditoras incluídas
deverão ser preocupações de natureza teórica e conceptual das relações que
elas têm entre si, e do critério.

Regressão Múltipla

• Valores de uma variável (VD) estimados a partir dos valores de duas, ou mais de duas,
outras variáveis (VI) através de uma equação de regressão múltipla, de y sobre x1,x2…,
xp.

Basicamente estendemos o modelo de regressão linear simples a mais de uma preditora.


Logicamente, é um modelo que envolve erros de estimação, que terá de ser controlado em
termos de nível de significância que, por convenção assumimos ser de 0,05. O controlo desse
erro de estimação deverá ser feito da análise de variância que testa a hipótese nula segundo
a qual o coeficiente de correlação múltipla (neste caso) da combinação linear das preditoras
com o critério é significativamente distinto (R=0), contra uma hipótese alternativa segundo a
qual R é diferente de 0.

94 | P á g i n a
Regressão Múltipla

• EXEMPLO: Explorar o modo como um determinado conjunto de subescalas de um


inventário de interesses vocacionais é capaz de predizer a escolha ocupacional dos
sujeitos
• Informação:
o Modelo global (todas as subescalas)
o Contributo de cada variável (subescalas individuais) do modelo
• Testa:
o O contributo de uma variável individual (motivação) relativamente à capacidade
preditiva do modelo, para além de todas as restantes variáveis do próprio
modelo

3 tipos de regressão múltipla que é possível calcular

• Depende do tipo de questão de investigação a que se procura responder


• 1- RM Standard / Simultânea (natureza vincadamente exploratória)
o VI’s. Todos os preditores são introduzidos na equação simultaneamente
o Cada preditor é avaliado quanto ao seu próprio poder preditivo, para além do
poder preditivo das restantes VI’s
o Ex: determinar a quantidade de variância numa VD (ex: ansiedade) que é
explicada por um conjunto de variáveis (ex: várias escalas de personalidade)
enquanto grupo ou bloco
▪ Informa: acerca da quantidade de variável específica ocorrida na VD e
que é imputável a cada uma das VI’s, e dá-nos também
necessariamente a quantidade de variância que explicada pela
combinação linear de todas as preditoras entre si
• 2- RM Hierárquica / Sequencial
o VI’s são introduzidas na equação segundo uma ordem que é especificada pelo
investigador, com base em fundamentos teóricos
o Variáveis:
▪ Introduzidas em etapas (blocos)
▪ Cada VI é avaliada quanto ao seu contributo para a predição da VD,
depois das variáveis anteriores terem sido controladas.
o Ex: determinar de que modo o optimismo é capaz de predizer a satisfação com
a vida, depois de se controlar a idade.
▪ Introduzir: VI idade (Bloco 1); VI optimismo (Bloco 2)
▪ Avalia:
• Modelo global (capacidade das VI’s predizeram a VD)
• cCntributo de cada bloco (capacidade de cada VI predizer a VD)

Depois de uma abordagem exploratória, onde utilizarmos a RM standard vamos, pelas relações
de natureza teórica ou conceptual que as preditoras têm ou podem ter entre si, vamos constituir
conjuntos a que chamamos blocos de variáveis preditoras, que priorizemos a entrada desses
blocos segundo uma sequência que é definida pelo estudo teórico / conceptual que temos acerca
dessas preditoras. Se desconfiamos que a idade pode ter um efeito moderador na capacidade
preditiva da satisfação com a vida a partir do otimismo, vamos priorizar a idade e vamos
priorizar separadamente o otimismo, dando ordens de idades diferentes no modelo a cada um

95 | P á g i n a
destes blocos. Damos instruções ao programa para considerar, num primeiro momento apenas
a idade e perceber a percentagem da variância explicada pela idade. Depois introduzimos pelo
2º bloco definido apenas pelo otimismo, e vamos perceber se há uma acréscimo / incremento ou
não, de variância explicada na satisfação com a vida, e de que tipo (elevado, moderado,
reduzido?) é esse incremento quando o otimismo pode estar incluído? Perspetiva verifiquista e
de confirmação. Avaliar um modelo global da capacidade preditiva de todas as VI’s e depois o
contributo isolado apenas da idade, e o contributo isolado do otimismo em termos de satisfação
coma vida.

Há ainda u a 3ª variante da técnica. É bastante criticada por uma franja alargada de


investigadores. Porque enquanto na regressão hierárquica / sequencias, as prioridades de
entrada e saída das variáveis são definidas pelo investigador, relativamente à Stepwise, essa
funcionalidade fica ao critério estrito do próprio programa. Em vez de ser o investigador a fazer
a consideração sobre as entradas e saídas das variáveis, este dá indicações estatísticas ao
programa para que este inclua ou retire de forma autónoma. O resultado definitivo é o que
matematicamente capitaliza o máximo de variância explicada no critério a partir da melhor
combinação das preditoras entre si. E pode fazer isso de 3 formas possíveis.

3- RM Stepwise

• VI’s: o investigador lista-as ao SPSS e permite que seja o programa a selecionar as


variáveis que irá introduzir e a respetiva ordem pela qual o fará na equação, com base
num conjunto de critérios estatísticos.
o Versões:
▪ Forward Selection (Seleção Progressiva)
▪ Backward Deletion (Eliminação regressiva)
▪ Stepwise Regression (regressão passo a passo)

O que acontece é que o investigador perde desta forma o controlo do modelo, e nessas condições
a melhor combinação matemática que o programa encontra pode não ter necessariamente uma
coerência teórica. Assim, estarei a explicar algo que do ponto de vista conceptual não fazer
sentido. Daí a crítica de muitos autores a esta abordagem da regressão múltipla.

Pressupostos de uma Regressão Múltipla

• Dimensão da amostra
o Amostras pequenas: a distribuição dos resultados é muito assimétrica,
resultados não generalizáveis a outras amostras
o Solução:
▪ Stevens (1996) – Ciências sociais: 15 sujeitos por preditor (para amostras de 30)
▪ Tabachnick & Fidell (2001) fórmula:
▪ VD skewed -> aumentar casos
▪ Stepwise: razão de 40 sujeitos por cada VI

96 | P á g i n a
Enquanto para Stevens, 30 sujeitos (15 por preditora) deverá criar condições para um modelo de
regressão estável, para Tabachnick e Fidell a margem será mais confortável (66) acréscimo de
36 sujeitos a nível de amostra, o que nos dá outro conforto.

No caso do critério demonstrar uma assimetria, devemos aumentar o numero de casos. E no


caso específico da Stepwise, segundo as autoras, 40 sujeitos por cada VI (preditora).

• Multicolinearidade e Singularidade
o Controlar a relação entre as VI’s
o EVITAR:
▪ Multicolinearidade (VI’s altamente correlacionadas entre si – R igual ou
superior a 0.90
▪ Singularidade: quando uma VI constitui uma combinação de outras VI’s
(ex: incluir simultaneamente os resultados de uma escala)

Se estou a construir um modelo de regressão em que estou a incluir variáveis que são subescalas
de instrumentos de av.psicológica, devo evitar incluir no mesmo modelo o valor total e as
subescalas parciais que constituem o instrumento, de forma a evitar a Multicolinearidade.
Quanto à singularidade, as variáveis preditoras não devem valores superiores a .90 quanto à
intercorrelação, e idealmente deverão ser inferiores a .70 (isto quando às preditoras entre si). As
preditoras com o critério devem revelar intercorrelações no mínimo fracas ou moderadas (iguais
ou inferiores a .30).

• Outliers (univariados / multivariados)


o RM: é-lhes muito sensível (VI’s e VD)
o Identificação:
▪ Gráfico dos resíduos normalizados
▪ Tabachnick & FIdell (2001).
• Valores residuais normalizados

Por um lado, na regressão linear já incorremos no risco de haver outliers univariados (que
resultam da diferença entre um determinado valor medido e o valor correspondente estimado
para um determinado sujeito numa determinada preditora) – controlamos isto com o casewise
diagnostics). No entanto, como a regressão é múltipla e ela vai incluir duas ou mais preditoras,
que geram entre si uma combinação linear (de todas as preditoras), a combinação linear das
preditora entre si também pode dar aso a que ocorram outliers, aos que chamamos
multivariados – decorrem da combinação linear das preditoras, e não do contributo de cada uma
de forma individual.

97 | P á g i n a
• Normalidade, linearidade, homocedasticidade e independência de resíduos
o Aspetos da relação existente entre as variáveis que se refletem na distribuição
dos resultados
o Controlar
▪ Resíduos scatterplots (resíduos: diferença entre o valor obtido e o
predito na VD)
▪ Normalidade
• Resíduos: normalmente distribuídos relativamente aos valores
preditos na VD
▪ Linearidade
• Resíduos: deverão ter uma relação linear com os valores
preditos na VD
▪ Homocedasticidade
• Resíduos: a sua variação deverá ser a mesma para todos os
valores preditos na VD

A distribuição de resíduos deve ter com o critério uma distribuição normal, de natureza linear e
com uma variabilidade homogénea. É um pressuposto que controlamos graficamente.

Investigação:

• Explorar os fatores com impacto no bem-estar e ajustamento psicológico dos


respondentes (perceções de controlo: interno + externo), em termos de stress
percebidos

Vamos imaginar que na investigação sobre os fatores de bem-estar e ajustamento psicológico


dos correspondentes teríamos recolhido medidas relativas ao autocontrolo e controlo externo, e
quero saber em que medida é que estas duas variáveis me permitem estimar o stress percebido.
Quero construir um modelo de regressão no qual eu vou regredir o stress em duas medidas de
controlo, uma dos estados internos (autocontrolo), outra dos estados externos (mestria ou
perícia).

(A 3ª questão é sobre a regressão múltipla hierárquica, não para avaliação)

98 | P á g i n a
Necessário:

• Variáveis
o 1 VD Contínua (total de stress percebido: tpstress)
o 2 VI’s contínuas (eventualmente dicotómicas)
o Escala de Mestria
▪ Avalia em que medida as pessoas sentem que controlam os eventos que
ocorrem nas suas vidas (controlo externo: tmast)
o Escala de Autocontrolo
▪ Avalia em que medida as pessoas sentem que controlam os seus
estados internos (emoções, pensamentos e reações físicas) (controlo
interno: tpcoiss)

Utilidade

• Informa:
o Acerca da quantidade de variância ocorrida na VD que pode ser explicada pelas
VI’s
o Acerca do contributo de cada VI (determinação da significância estatística dos
resultados, do próprio modelo e de cada uma das suas VI’s

Modelo Geral / Modelo para os dados

Quero estimar o stress a partir do controlo externo e do controlo interno. E isso tem um erro
que lhe está associado. Ao regredir o stress nas duas variáveis, ou os meus dados envolvem mais
erro amostral do que estou disposto a assumir ou envolvem igual ou inferior erro amostral
relativamente ao que estou disposto a assumir. Análise de variância: vai me testar uma hipótese
nula segundo a qual o coeficiente de correlação múltiplo da combinação linear das preditoras
mestria e autocontrolo com o stress é =0, contra uma hipótese alternativa de que é diferente
de 0. Se for diferente de 0, como é esperado (modelo válido), vou querer traduzir o meu modelo
geral no modelo para os dados, ou seja, vou querer saber quais os valores de B0 e B1 e
logicamente que o erro (se o modelo é válido, significância é igual ou inferior a 0,05) aquele
termo de erro desaparece.

99 | P á g i n a
Em nenhum dos casos a
distribuição é oriunda de uma
distribuição normal. Como a
amostra é suficientemente
grande, violações grosseiras não
comprometem a qualidade da
inferência. Reporta-se isso e
avança-se com a análise.

Análise da Variância

Antes de avançarmos para os pressupostos vamos ver se o modelo tem mais erro que aquele
que estou disposto a aceitar ou se tem tanto ou menos do que estou disposto a aceitar.

Constato uma razão F de 186,34. Há uma manifesta sobreposição a variância do modelo


relativamente à variância do erro do modelo, com uma sig. Inferior a 0,001 (por isso inferior a
0,05), o que dá evidência confirmatória que a mestria e o autocontrolo, na respetiva combinação
linear, guardam com o stress uma relação significante.

E agora, qual a relação significante? (aula


anterior)
Já não é o valor o coeficiente de correlação de
Pearson (esse fica apenas no Model Summary). O
que vou ter são os valores das intercorrelações das
preditoras com o critério.

100 | P á g i n a
O que preocupa agora é saber se o modelo é ou não válido, e se for válido faz sentido
acontecer o que acontece em termos de
pressupostos.

• Em termos de dimensão da amostra não


tenho problema (50 + 8m (ou seja, 8x2= 16)
=66 seria o limite. Mas eu tenho 430
sujeitos no mínimo.

• Outliers univariados?

o Se tenho uma entrada que diz casewise diagnostics, então eu tenho pelo menos
um outlier univariado, como aparece aqui.

Sujeito tem de stress 14, e o modelo predizia que ele devesse ter 28.85. mais do dobro. Portanto,
14.85 é o resíduo (diferença). Este valor faz com que o resíduo esteja mais de 3 DP abaixo da
média.

• Mas temos um caso em 400 e muitos


• Mais ou menos 0,2%. Nem nos damos ao trabalho de tirar o sujeito. É uma coisa
perfeitamente residual. A variabilidade da amostra tem capacidade para absorver este,
portanto não há problemas

Outliers Multivariados?

• Mahalanobis: variável de filtro que dá valor relativamente aos resíduos da combinação


linear da perícia e autocontrolo com o stress percebido.
• Preciso de conhecer os valores críticos de distância Mahalanobis. Preciso de saber qual
o valor aquém ou além do qual é ou não é um outlier multivariado. Estes valores de
distância têm de ser calculados previamente.

Para duas variáveis preditoras, 13.82 é um valor que, uma vez ultrapassado dá indicação de outlier multivariado.

101 | P á g i n a
A tabela acima dá-nos 5 highest cases e 5 lowest cases na distribuição de qualquer variável. Dá-
me os 5 casos mais extremos acima e abaixo da distribuição. No caso concreto não tenho
interesse nos casos inferiores, porque o meu valor crítico está nos Highest cases.(13.82), por
isso apaguei os lowest. O caso mais elevado da distribuição: 13.89. 2º caso mais elevado 13.28.
Só tenho mesmo um outlier multivariado. Se os 5 casos fossem superiores a 13.82, teria de ir
à base, anulá-los, definitiva ou temporariamente, e depois disso recalcular para saber se
seriam os únicos ou se haveria mais (o programa dá 5 de cada vez).

• Neste caso, 1 em 400 e muitos é 0,25, super negligenciável. Não me vou dar ao trabalho
sequer de retirar o caso, porque a variabilidade da população é tão grande que tem a
capacidade de absorver este valor no sistema

Multicolinearidade e Singularidade

• É desejável que as variáveis preditores tenham como critério intercorrelações


idealmente iguais ou inferiores a .70.
• Preditores (perícia e autocontrolo) com critério (stress). A perícia com o stress= -.61
(Sentido teórico: quanto maior a perícia, menor o stress). Quanto ao autocontrolo (-.58),
também inferior a .60. quer a perícia quer o autocontrolo têm com o stress valores de
intercorrelação inferiores a .70. Ótimo.
• E o valor da intercorrelação das preditoras entre si (da perícia com o autocontrolo)? .52
também não é superior a .90 nem a .70, portanto ok. Não há risco de multicolinearidade.
Mas posso ver isso em outra indicação de output, na tabela dos coeficientes (onde tenho
essas estatísticas assim como os valores de tolerância).

102 | P á g i n a
Sempre que o valor de tolerância das estatísticas de colinearidade se aproximar de 0, o risco de
multicolinearidade é muito elevado. Sempre que se aproximar de 1, o risco é reduzido ou nulo.
No nosso caso .73 está muito mais próximo de 1 que 0, sem multicolinearidade nem
singularidade nos dados, problema resolvido.

• Normalidade, linearidade, homocedasticidade e


independência dos resíduos
o Distribuição normal OK
o Natureza linear OK
o Homocedasticidade (que os resíduos se
encontrem distribuídos de uma forma
aproximadamente retangular, a maior parte
agrupados no centro, em torno do valor 0. OK

Model Summary

• Sabendo que a ANOVA apresenta evidência estatisticamente significativa para a rejeitar


de H0, eu concluo que R vale .684. porque o valor do correspondente de determinação
que eu obtenho pela razão das somas quadráticas da regressão e as somas quadráticas
totais, vale .468 (R square). Se extrair a raiz quadrada, o valor será de .684. de outra
forma, o autocontrolo e a mestria ou perícia, explicam numa combinação linear com o
critério, 46,8% da variância que existe nos dados em termos de stress. E como esta é
uma estimativa sobrevalorizada (otimista) eu vou olhar para o valor ajustado desta

103 | P á g i n a
estimativa= .466. Não preciso de mais sujeitos, os que tenho são mais que suficientes
para estabilizar o modelo.

Coeficiente de Determinação:

Coeficientes:

Coeficientes não normalizados, eu vou buscar a informação relativa ao B0, ao B1 e ao B2, ou


seja, à constante de regressão, ao coeficiente de regressão associado à perícia / mestria e ao
coeficiente de regressão associado ao autocontrolo, e os coeficientes Beta que me dão o peso /
contributo, Importância Relativa de cada uma das preditoras, caso sejam ou não significantes
(pela coluna da estatística T) par estimar o critério que estou a regredir nelas.

Quando olho para os coeficientes normalizados Beta, ambas as preditoras são significantes.
Quer a perícia quer o autocontrolo concorrem para explicar significativamente uma parte do
stress. Para saber a que explica mais, terei de olhar para o coeficiente Beta! Para .42
arredondadamente, a perícia / mestria é mais importante para explicar o stress que o
autocontrolo. Por muito bem autocontrolado que eu seja, se eu não perceber que tenho

104 | P á g i n a
capacidade para resolver a situação, eu vou desenvolver mais stress. Se eu perceber que tenho
habilidades para resolver a questão, eu vou desenvolver menos stress. Mas desenvolvo sempre
stress, porque também tenho de jogar com o meu autocontrolo. Embora a perícia seja mais
importante, o autodomínio também joga o seu papel.

Relação de cada uma das preditoras com o critério é uma relação negativa. Quanto mais
autocontrolo, menos stress, quanto menos autocontrolo mais stress. É valido também para a
mestria.

Resposta:

Foi calculada uma regressão múltipla standard entre stress percebido (VD) e duas medidas de
controlo (VIs), designadamente, relativo aos eventos externos Mestria e aos estados internos
PCOISS, através do SPSS.

Os resultados da avaliação dos pressupostos confirmaram a inviolabilidade da normalidade,


linearidade e homocedasticidade dos resíduos. Recorrendo ao critério de p<0.001 para a
distância Mahalanobis, foi encontrado apenas um outlier multivariado que, por isso, foi
mantido; foi adoptado o mesmo critério relativamente ao único outlier univariado.

105 | P á g i n a
A Tabela 1 apresenta as correlações entre as variáveis, os coeficientes de regressão não
normalizados (B) e a ordenada na origem (constante), os coeficientes de regressão normalizados
(), o R2 e o R2 Ajustado. O R para a regressão revelou significância estatística [F(2,423)=186.34,
p<0,001] , permitindo concluir que, globalmente, a Mestria e o PCOISS explicam 46.8% do stress
percebido (N=439).

As duas variáveis contribuem de forma significativa para a predição do nível de stress percebido.
A Mestria explica 42.4% (p<0.001] e o PCOISS explica 36% (p<0.001] do stress percebido.

Notas:

• B é para escrever a fórmula do modelo e o Beta para perceber o peso relativo da


preditora.
• Coluna dos outliers multivariados é para guardar

106 | P á g i n a
Análise Fatorial
• Técnica de redução de dados
o Resume grandes conjuntos de dados num conjunto menor de fatores ou
componentes, procurando blocos ou grupos entre as intercorrelações desse
conjunto inicial de dados

O que a técnica irá fazer é reduzir esse conjunto alargado de dados a um conjunto mais reduzido
de combinações lineares para tentar encontrar blocos de intercorrelações dentro desse conjunto
(as variáveis escondidas no espaço latente). Tentar fazer emergir o conjunto de variáveis
(construtos). Decompor a matriz de intercorrelações de todos os itens no conjunto de respostas
dos sujeitos amostrais, fazendo emergir no espaço vetorial latente os chamados construtos que
não são diretamente observáveis.

• Utilizações:
o Desenvolvimento e avaliação de testes e escalas
▪ Um grande número de itens individuais é refinado e reduzido para
formar um número menor de subescalas coerentes
o Análises multivariadas
▪ Reduz um grande número de variáveis relacionadas entre si
convertendo-as numa quantidade menor, mais manipulável, que
permita a sua utilização, por exemplo, na regressão múltipla ou na
análise multivariada da variância (MANOVA)
• Processo de investigação
o Fase inicial: Análise Factorial Exploratória (AFE)
▪ Reunir informação (explorar) acerca das intercorrelações existentes
entre um conjunto de itens / variáveis)
o Fase Avançada: Análise Factorial Confirmatória (AFC)
▪ Conjunto de técnicas mais complexas e sofisticadas para testar
confirmar hipóteses específicas ou teorias relativamente à estrutura
subjacente a um conjunto de variáveis.

Análise Factorial: Designação de várias técnicas diferentes, mas relacionadas

• Análise de Componentes Principais (a técnica que valos estudar) / Análise Factorial


o Semelhanças:
▪ Produzir um numero menor de combinações lineares a partir das
variáveis originais, de um modo que capta (ou explica) a maior
quantidade possível de variabilidade no padrão de correlações). O
menor numero de combinações linear a explicar a máxima variabilidade
do padrão de intercorrelações.
o Diferenças:
▪ ACP: as variáveis originais são transformadas num conjunto menor de
combinações lineares, utilizando apra o efeito toda a variância das
variáveis
▪ AF: os fatores são estimados com base num modelo matemático que
usa apenas a variância partilhada

107 | P á g i n a
o Recomendações:
▪ ACP e AF: resultados semelhantes
▪ Stevens (1996)
• ACP: psicometricamente forte, matematicamente mais
simples, evita alguns dos potenciais problemas relativos à
indeterminação dos fatores associados à AF
▪ Tabachnick e Fidel (2001)
• AF – quando se está interessado numa solução teórica não
contaminada pela variabilidade específica e do erro
• ACP – quando se pretende um resumo empírico do conjunto de
dados (é o que vamos trabalhar hoje)

Análise de componentes principais

• Etapa 1 – Avaliação da adequabilidade dos dados


o Dimensão da amostra
▪ Quanto maior, melhor!
▪ Problemas de generalização: os coeficientes de correlação entre as
variáveis são menos fidedignos, tendendo a variar de amostra para
amostra
▪ Tabachnick e Fidel (2001) – mínimo 300 casos: menos de 300 casos,
apra correlações fortes, com elevada fidelidade e na presença de
poucos fatores distintos)
▪ Nunnally (1978) – idealmente, 10:1 (10 sujeitos por variável. Para uma
escala de 10 itens, 100 sujeitos); mínimo, 5:1 (sujeitos / variável) –
Preferida pelo professor
o Força da relação entre as variáveis
▪ Debruçar sobre a Magnitude das Intercorrelação entre os itens
▪ Matriz de correlações: análise; deverá revelar a existência de
coeficientes superiores a 0.3
▪ Magnitude das intercorrelações entre os itens (SPSS)
• Teste da esfericidade de Bartlett
• Índice de Kaiser-Meyer-Olkin

Se a amostra tiver quantidade de sujeitos suficiente, se o teste à esfericidade de Bartlett se


considerar significante, e se o KMO for pelo menos de.60, nós consideramos que os dados são
factorizados e não nos preocupamos mais com o assunto.

108 | P á g i n a
• Etapa 2 – Extração dos factores (determinar / identificar o numero mínimo de fatores
/ dimensões que melhor representam as intercorrelações entre o conjunto de fatores
/ itens

Factores a extrair / Reter:

Tabachnick e Fidell (2001) recomendam uma abordagem exploratória recorrendo à


experimentação com diferente número de factores, até que uma solução satisfatória seja
encontrada

Decisão:

o Critério de Kaiser (regra do eigenvalue: reter, para posterior análise, os fatores


com um valor superior a 1 – eigenvalue igual ou superior a 1.0)
o Teste Scree, de Catell (representação gráfica dos eigenvalues (raízes ou valores
próprios do factor: quantidade de variância total que explica) de cada um dos
factores, retendo os que se encontram acima do ponto de inflexão (os que mais
contribuem para explicar a variância dos dados) – porque o primeiro, em valores
perto de 1(zona de fronteira) vao ser assinalados e nós seremos tentados a
achar que esses são também factores estáveis

Vamos então olhar para a representação gráfica de todos os eigenvalues e vamos ver onde é q
o gráfico faz um ponto de inflexão manifesto e vamos considerar para posterior rotação tantos
quantos os que ficarem à esquerda do gráfico.

Identificados os componentes / fatores que estão


latentes no espaço vetorial, vamos forçar a
rotação para distribuir o mais equitativamente
possível essa variância pelos factores que
estamos a considerar existir no espaço latente.

109 | P á g i n a
• Etapa 3 – Rotação e Interpretação dos Factores
o Rotação ortogonal (se forem independentes)
o Rotação oblíqua

Se são factores independentes fazemos uma rotação dita ortogonal. Dos vários métodos
disponíveis o mais eficaz é a rotação Varimax. Mas se forem factores dependentes, então
utilizamos uma regressão dita oblíqua, mais usada comparativamente às suas congéneres.

Esta questão da rotação prende-se com um problema da interpretação dos factores. A análise
dos componentes principais permite identificar, com algum critério mas também com alguma
margem de erro, o numero de factores que estão latentes no espaço vectorial definido pelas
variáveis. Tirando a questão problema da indeterminação dos factores (capacidade de dizer se
são 2, 3 ou 4) vem associada a um outro problema que tem a ver com interpretação. Esta não é
da responsabilidade do programa nem de nenhum software estatístico. O output so nos dizem
as variáveis que agregam entre si robustamente, e não as componentes ou dimensões
adjacentes. Como vamos nomear? Lendo os itens, as variáveis / construtos ou componentes e
perceber o que é comuns a todas elas: requer muita criatividade, ingenuidade e familiaridade
com os dados analisados, assim como um profundo teórico das variáveis comas quais estamos
a trabalhar).

110 | P á g i n a
Na etapa 1 há dois critérios importantes. O primeiro, o da esfericidade. O segundo, se tiver um
valor igual ao superior a .60 temos condições objetivas para calcular e avançar com um modelo
factorial que nos irá permitir poerceber quais os componentes que nele estão escondidos, aos
quais tentaremos dar visibilidade. Para tal iremos extraí-los, onde temos mais dois critérios que
nos permitirão tomar decisões acerca disso: Kaiser e teste Scree. Decididos quantas dimensões /
construtos estão escondidos naquele espaço vetorial latente, teremos de tomar a decisão de as
fazer emergir: solução factorial. Para redistribuir de forma equitativa a variância associada a
cada um deles, iremos então rodar a solução inicial que foi obtida na etapa 2. Temos dois tipos
de relações: se há razoes teóricas para
acreditar que os construtos não têm
relação entre si: usamos ortogonal. Se
desconfiamos que existe uma relação
entre eles (dependência), devemos
utilizar uma rotação do tipo oblíquo. Do
ponto de vista pragmático, a decisão
que se toma é calcular a rotação
ortogonal, a oblíqua e defender a que
nos dá uma solução, mas limpa.

Investigação:

• Explorar a estrutura subjacente a uma das escalas incluídas no Inquérito, concebido


para investigar os factores com impacto no bem estar e ajustamento psicológico dos
respondentes, a escala de afectos: Positiva and Negative Affect Scale [PANAS]
(Watson, Clark e Tellegen, 1988)

20 adjetivos que descrevem diferentes


estados de humor: 10 positivos e 10
negativos.

Amostra de validação: evidência


empírica confirmatória da existência de
duas dimensões ou fatores:

• Afeto positivo
• Afeto negativo

Análise dos Componentes Principais

• Permite explorar / confirmar esta estrutura bifactorial com a amostra do inquérito sobre
os fatores com impacto no bem-estar e ajustamento psicológico.

Análise:

Qual a estrutura factorial da PANAS (investigação anterior sugere uma estrutura bifactorial:
afecto positivo / afecto negativo)? Será que, com esta amostra, a estrutura da escala se revela
consistente com a investigação anterior?

111 | P á g i n a
Necessário:

• Um conjunto de variáveis contínuas relacionadas

Técnica:

• Análise factorial: Análise de Componentes Principais


o Identificar um conjunto menor de factores que representam as relações
subjacentes entre um grupo de variáveis relacionadas
o 1ª Parte: avaliação dos Dados + Extração dos factores
o 2ª parte: rotação + interpretação dos factores

Dimensão da amostra, neste caso, temos 20


itens, teremos de ter 200 sujeitos, nunca
inferior a 150. Linearidade… Outliers, se
existirem teremos de controlá-los. Fazemo-lo
calculando uma analise de regressão.

Análise factorial:

KMO superior a 0.6. Valor Significante. A matriz é factorilizável?

112 | P á g i n a
A bold estão todos os valores superiores a .30. São em número suficiente? Parece que sim porque
o qui quadrado é significante e o KMO é superior a .60!!

Quantos factores posso extrair?

O que inicialmente o modelo me sugere? Não 1 mas 4


componentes (os que têm Eingenvalue superior a 1). Pn 3, Pn 14,
saturações cruzadas em 3 fatores… à exceção do item 7 que não
tem saturação cruzada e o do item 4, todos os outros 18 têm
saturações cruzadas, em 2 ou 3 fatores..

A rotação vai rearranjar isto em função dos dois factores /


componentes que os autores dizem que o instrumento avalia, e
não em função de 4.

Total de variância explicada: nos meus dados, 4 componentes


explicam 60.130% da variância.

Chavão: Uma análise fatorial da variância nunca deve explicar


menos de 50%. 50% é o ideal.

No entanto, 2 componentes explicam 48,22 % da variância. Há outro chavão que diz que a
solução rodada não altera a solução inicial.

113 | P á g i n a
É desejável que os valores na tabela das Comunalidades sejam
superiores a .70. Há algumas que não o são, o que não é muito bom.

Ponto de inflexão a 3. Então vamos reter tantos quanto os que


estiveram à esquerda do ponto de inflexão, ou seja, 2
componentes. Retemos 2 componentes para posterior rotação.

Antes tínhamos 4 componentes desarranjados. E agora temos 2


componentes arranjados, como surge no gráfico.

114 | P á g i n a
Primeiros 4 itens: Se a escala avalia duas dimensões (afecto positivo e negativo), a primeira
dimensão será o afecto positivo. No componente dois estão os negativos que os slides não
mostram. Mas isto tudo par adizer que é esta a interpretação que o SPSS não faz e que nos
compete (a nós) fazer.

115 | P á g i n a
116 | P á g i n a
Fidelidade de uma Escala
Quando nós calculamos uma análise fatorial e validamos a estrutura dimensional de um
instrumento de avaliação psicossocial, nós precisamos de ter outra medida: “Medida da
Consistência interna”.

• Quero saber qual a força ou magnitude com que os 10 itens avaliam de forma
consistente o afecto positivo, e com que os 10 itens restantes avaliam de forma
consistente o afecto negativo (exemplo da página anterior). Ou seja, preciso de
completar a informação da estrutura dimensional do instrumento de avaliação com a
chamada medida da Consistência Interna.
o Utiliza-se de forma recorrente a medida de Alfa Cronbach
o Ou utiliza-se formas paralelas (bipartação, etc…)

A estratégia dentro da teoria clássica dos testes, mais comum, para testar ou avaliar a
consistência interna é o Alfa de Cronbach. Mas também é importante falar de uma segunda
medida: Método de Bipartição ou Duas metades. Vou falar do segundo também, mas só vou
exigir que se saiba desenvolver o primeiro.

Escala de Medida

• Fidelidade: Consistência Interna


o Medida do agrupamento dos itens da escala. Avaliam o construto que é suposto
que a escala meça
o (medida da coerência do contributo do conjunto de itens)
o Alfa de Cronbach
▪ Idealmente igual ou superior a 0.7
▪ Muito sensível à dimensão da escala:
• Escalas pequenas (menos de 10 itens) tende a ser inferior a 0.7
– deve-se, em alternativa, substituir o valor da consistência
interna apresentar do alfa pelo chamado valor da média da
correlação inter-item (idealmente entre 0.2 e 0.4 (Briggs &
Cheek, 1986)
• Atenção que há escalas que apresentam itens invertidos
(avaliar o que é contrário à ansiedade, por exemplo, quando a
escala pretende avaliar a ansiedade) – Temos de reverter o
item de 5 em 1 e de 4 em 2, fazendo a justaposição dos valores
intercaldados – Reverter itens com formulação negativa.
▪ Depende
• Fundamentalmente da dimensão da Amostra, pois é um
COEFICIENTE DE CORRELAÇÃO!
• Fórmula da Profecia de Spearman Brown

Esta fórmula está aqui com o objetivo de vos deixar uma ferramenta para que em situações de
investigação vocês (alunos) poderem desenvolver estratégias de ajustamento do vosso alfa de
cronbach em função do número de itens e da consistência que querem atingir. Aumentando ou
diminuindo o valor de K vou fazer variar o valor de alfa.

117 | P á g i n a
Se estão a trabalhar num projeto de investigação e querem uma escala com uma consistência
interna elevada ou muito elevada, vão ter de enfiar itens ou retirar alguns em função das
computações que tiverem de fazer.

O que interessa no fundo é esta consistência: acima de .70 aceitável, .80 boa e acima de .90
excelente! Se tiverem .60 e .70 é questionável. Abaixo de .50 inaceitável, nem para investigação!
Acima de .60 já pode ser usada na prática clínica, abaixo de .50 nem para investigação!

Exercício de Aplicação

Matriz de Correlações:

Espera-se que sejam Positivas (porque se


espera que todos os itens meçam a mesma
dimensão (consistência interna) e Elevadas
(fortes) (porque quanto mais elevadas
forem, maior será a relação entre os itens
(indicação de consistência interna).

118 | P á g i n a
Informação por item e escala

Globalmente: para o total de itens da escala, a tabela lista informação descritiva acerca das 5
variáveis (itens) para a amostra total de sujeitos

Item Variances: média das variâncias dos cinco itens da escala

• Valor elevado significa que os itens variam, variação essa que resulta em correlações
elevadas (cf. Razão Max / Min das variâncias dos itens)

Em termos de variancias dos itens desejamos valores elevados porque isso traduz correlações
elevadas entre os itens. Estamos a falar da razão entre o máximo e o mínimo, mas a média da
variância das intercorrelações (variance) – 0,009 - deverá ser um valor próximo de 0 (quanto
mais próximo de 0, maior a consistência interna, compreensível do ponto de vista teórico; quanto
menos variabilidade nas intercorrelações, maior a consistência, maior a agregação dos itens
para a medida do conjunto).

119 | P á g i n a
E onde nós nos vamos centrar fundamentalmente é na tabela “Item – Total Statistics”.

Correlações item-total correlation (se os itens são consistentes entre si, ir-se-ão correlacionar
com o resultado total – consistência com a escala). Devem ter valor superior a .50. para valores
inferiores, o item mede algo diferente daquilo que é medido por outro item.

Em Squared Multiple Correlation (percentagem de variância partilhada com todos os restantes


itens – valores elevados indicam consistência elevada entre os itens), um R2, da regressão de
cada item na combinação linear com os restantes elementos da escala, ou seja, .649 é um valor
dessa regressão entre o item 1 e a combinação linear dos itens 2,3,4 e 5, por exemplo. Estes
valores devem ser superior preferencialmente a .30.

Em Cronback Alpha if item Deleted (influência do item – sempre que a omissão do item altera
substancialmente as estatísticas da escala, o item deverá ser apreciado com cuidado), decidimos
se o item é ou não um bom indicador da escala. Para isso precisamos de saber a consistência
interna da escala.

Consistência interna da Escala

Consistência interna da
escala= .89. Na tabela Item-
Total Statistics, quando eu
retiro o item 1, esse valor baixa
para .86, é aceitável. Quando
retiro o item 2,3,4 acontece o
mesmo. Mas quando retiro o
item 5 a consistência da escala
aumenta! De .89 passa para
.90. O item 5 dá uma má
indicação do seu contributo
apra avaliar a consistência
interna da escala. Porque
quando ela sai, ela tende
ligeiramente a melhorar. É um
item que devo repensar (tentar
averiguar a sua redação, se existe ambiguidade, ou reescrevo ou item ou apago). Acontece
quando apresentamos valores inferior a .50 no Corrected Item Total Correlation ou inferior a
.30 no Squared Multiple Correlation.

120 | P á g i n a
Bipartição

Outro modelo para avaliar a consistência interna de uma


escala. Este método parte / secciona a consistência interna
da escala em duas partes com o mesmo número de itens.
Calcula a consistência interna para ambas as partes e para a
combinação das duas partes entre si. Relativamente ao Alfa
de Cronbach, a estatística dos itens não altera, mas altera o
resumo / Summary, que dá a média das duas partes da escala
total.

O que nos interessa olhar é que de facto do valor das intercorrelações, que de cada uma das
partes, quer da correlação entre ambas as partes em si, é próxima de 0 (Variance), quer dizer
que a escala vai ter uma consistência interna adequada.

No entanto, na tabela do Item-Total Statistics, dá item a item e não dá partes da escala.

Continua a interessar que a Correlação Item-Total seja superior a .50 (temos aqui dois itens
problemático), interessa que as correlações múltiplas sejam superiores a .30. e de facto não é de
admirar que quer o item 1 e o 3 são problemáticos, pois quando são retirados da escala a
consistência interna sobe (sei isto porque já olhei para o resultado do coeficiente de correlação.

121 | P á g i n a
Reparem, se a consistência interna da primeira e segunda
parte fossem iguais, o valor que eu iria recrutar seria
0.74. mas a parte um vale .60. A parte dois vale .74. como
ambas são consistências internas diferentes, nestes
casos o que vou apresentar é a consistência da
Bipartição de Guttman, ou seja .78 arredondadamente.
Por isso, quando venho ás estatísticas do ítem total vejo
.79 e .78. Apesar do item 3 carecer de atenção, o item 1
é de abater!

ANOVA

Sempre que a ANOVA é significante é porque a relação linear das varia´veis entre si é
significativamente não nula, e por isso é legítimo calcular a consistência interna.

122 | P á g i n a

Você também pode gostar