Você está na página 1de 14

SEGREDOS DA

CORRELAÇÃO
RESUMÃO DA AULA 02
O QUE É CORRELAÇÃO:

A correlação é uma técnica de análise de dados que

avalia a associação entre duas ou mais variáveis. Em

geral, a correlação busca investigar a associação entre

variáveis contínuas (ordinais, escalares ou de razão).

Por exemplo: Existe relação entre o estresse no trabalho

e o número de cigarros fumados em uma amostra de

fumantes?

Perceba que tanto o nível de estresse no trabalho

quanto o número de cigarros são variáveis contínuas.

Existem casos especiais de correlação entre dados

contínuos e dados categóricos.

Por exemplo, pode-se correlacionar o nível do estresse

no trabalho com o sexo (e.g., homens e mulheres). Aqui,

estamos trabalhando com um tipo especial de

correlação, que se chama correlação ponto bisserial, que

abordaremos mais adiante.

Por ora, vamos focar em correlações com dados

contínuos.
TRÊS CARACTERÍSTICAS

DA CORRELAÇÃO
Atenção. Quase tudo que você precisa saber sobre correlação se encontra aqui.
São três informações vitais
Avaliar a sua significância estatística (verificar se p < 0,05)
Avaliar a sua direção: se é positiva ou negativa
Qual o seu grau / força: se é uma correlação fraca, média ou forte.

Vamos abordar cada um desses pontos agora.

DIREÇÃO:
As correlações podem ser positivas, negativas e/ou nulas.

POSITIVAS
Valores altos em uma variável (x) são associados a valores altos na outra (y)
Valores baixos em uma variável (x) tendem a ser associados a valores baixos
na outra (y)
Exemplo: Idade da criança e capacidade de montar lego.

Negativa:
Valores altos de uma variável (x) são associados a valores baixos da outra
variável (y)
Exemplo: Depressão e motivação para trabalhar

Nula
Não existe relações entre as variáveis
Altura e número de relacionamentos amorosos.
Significância Estatística
A significância estatística é outro aspecto primordial na interpretação
dos seus resultados. Por meio dela, avaliamos se é provável que o valor
obtido pode ter sido encontrado ao acaso.

Para todos os coeficientes de correlação, espera-se p < 0,05. Se p <


0,05, diz-se que a correlação foi estatisticamente significativa.

Mas cuidado: significativo, na estatística, não refere-se à importância.


Então, o valor de p, embora seja um indício de que o achado merece
atenção, sozinho ele não quer dizer muito!

O valor da significância não dá mais importância para o achado. Isso


porque, a significância estatística é amplamente influenciada pelo
tamanho amostral. Quanto maior o N, maiores são as chances de você
obter um valor com p < 0,05. E quanto maior for a sua amostra, mais
esse valor de p pode cair (p < 0,01, p < 0,001).

Você sabia?

Para um mesmo nível de correlação você pode obter diferentes valores


de p (p < 0,05; p < 0,01; p < 0,001) apenas devido ao tamanho da sua
amostra.

Veja esse exemplo:

Fixamos o valor da correlação e apenas aumentamos o tamanho da


amostra. Veja como o valor de p cai consideravelmente. O que antes não
era significativo (N = 10 e 20), torna-se significativo a p < 0,05 (N = 30) e a
p < 0,001 para N = 120.
TABELA 01:
Efeito do tamanho da amostra no valor de p em uma matriz de correlação.

A FORÇA DA CORRELAÇÃO:

Bem, se a significância estatística, embora seja importante, é influenciada


pelo tamanho amostral, como saber a verdadeira relevância de uma
correlação?

A partir da sua força. A correlação varia de -1 a + 1. Quanto mais próximo de


+ 1, mais forte é a correlação.

-1
0 +1

Correlação
Correlação
Correlação

Negativa perfeita Nula Positiva perfeita

A literatura aponta alguns pontos de corte, para ajudar na interpretação.


TABELA 02:
Pontos de cortes propostos por Cohen (1988, 1992).

Perceba que, quanto mais forte é a correlação, mais inclinada será reta
formada pela amostra.

Mas olha só, agora vou te contar um segredo!

A força da correlação pode te enganar. Por isso, é importante que você


sempre (anote: SEMPRE) eleve a sua correlação ao quadrado. Isso vai te
ajudar, e muito, a interpretar os teus resultados. Entenda melhor no
próximo tópico
TAMANHO DE EFEITO:

Quando elevamos a correlação ao quadrado, computamos o seu tamanho

de efeito.

O r2 é chamado de coeficiente de determinação e serve para computar a

variância compartilhada entre as duas variáveis que estão sendo

correlacionadas.

Por exemplo, em uma correlação r = 0,60, o r2 = 0,36, que indica 36% de

variância compartilhada entre as variáveis. Coeficiente de Correlação r =

0,60.
Agora quero que você entenda por que esse tipo de informação (elevar a
correlação ao quadrado) é importante para a compreensão dos seus
achados.

Examine a Tabela na página a seguir com atenção. Perceba que cada linha
é separada por uma diferença no coeficiente de correlação de 0,10 (0,10;
0,20, 0,30, etc.). Perceba que para a diferença da correlação de 0,20 para
0,10, há uma diferença no coeficiente de determinação de 3%.

Entretanto, as diferenças nos coeficientes de determinação vão


aumentando gradativamente. Para a mesma diferença de 0,10 entre os
valores de correlação de 0,40 e 0,50, a diferença no coeficiente de
determinação já passa a ser de 9%. E aumenta ainda mais.

Para a mesma diferença de 0,10 entre os valores de correlação de 0,80 e


0,90, a diferença no coeficiente de determinação já se torna de 17%. Ou
seja, embora a magnitude da correlação cresça de forma linear (no nosso
exemplo, de 0,10), a diferença nos coeficientes de determinação cresce de
forma exponencial.

O que isso significa em termos práticos? Que uma diferença nas


correlações de 0,10 comparado com uma correlação de 0,20 é muito pouco
(3%). Entretanto, uma diferença de correlação entre 0,80 comparado a uma
correlação de 0,90 já passa a ser muito maior (17%), mesmo que o espaço
entre os valores brutos das correlações sejam os mesmos (0,10).
TIPOS DE CORRELAÇÃO

As correlações podem ser paramétricas ou não paramétricas. Apesar de


existirem vários tipos diferentes, as principais são: Correlação de Pearson
(Paramétrica) e Correlação de Spearman e Correlação de Kendall (Tau-b)
(não-paramétricas).
A Tabela abaixo apresenta quando usar cada uma delas.

Enquanto a correlação de Pearson requer que os dados tenham relação


linear, a correlação de Spearman e de Kendall podem ser utilizadas para
correlações não-lineares, desde que sejam monotônicas (ou seja, o sinal da
correlação (positiva ou negativa) se mantenha para toda a amostra.

Diferenças nos níveis de correlação:

Muitas vezes, quando realizamos análises de correlação, queremos


entender, do nosso conjunto de variáveis, quais são as que mais fortemente
se correlacionam entre si.
Não raramente, vemos nos artigos, descrições como essa: A crise
existencial se associou de maneira negativa mais fortemente com o sentido
de vida (r = - 0,719, p < 0,01) do que com a felicidade (r = - 0,653, p < 0,01).

Mas a pergunta é: Será que podemos comparar diretamente assim os


coeficientes de correlação? Afirmar que uma foi maior que a outra apenas
olhando os valores brutos?

A resposta é NÃO. Não podemos apenas olhar os valores e afirmar quem é


maior do que quem. Caso você deseje fazer isso, você precisa realizar um
teste estatístico, denominado Para computar o r-to-z transformation test,
visite a página abaixo, e execute o passo-a-passo conforme apresentado na
Aula 2 do Workshop de SPSS.
Não raramente, vemos nos artigos, descrições como essa: A crise
existencial se associou de maneira negativa mais fortemente com o sentido
de vida (r = - 0,719, p < 0,01) do que com a felicidade (r = - 0,653, p < 0,01).

Mas a pergunta é: Será que podemos comparar diretamente assim os


coeficientes de correlação? Afirmar que uma foi maior que a outra apenas
olhando os valores brutos?

A resposta é NÃO. Não podemos apenas olhar os valores e afirmar quem é


maior do que quem. Caso você deseje fazer isso, você precisa realizar um
teste estatístico, denominado Para computar o r-to-z transformation test,
visite a página abaixo, e execute o passo-a-passo conforme apresentado na
Aula 2 do Workshop de SPSS.

https://psychometrica.de/correlation.htm

Correlação não é causalidade:

E, para finalizar, nunca se esqueça. Correlação não é causalidade. Ou seja, o


fato de duas variáveis estarem associadas entre si, não indica, de forma
alguma, que uma causa a outra. Por exemplo, a relação entre ir à praia e
tomar sorvete é causada por uma variável externa (temperatura).

Embora essa informação seja clichê, é comum vermos nas discussões dos
resultados uma interpretação causal da associação.
VEJA O CRONOGRAMA

DO NOSSO EVENTO
Dia 09/05 - Aula 01:

A análise certa para os seus dados.



Dia 10/05 - Aula 02:

Segredos da correlação.

Dia 11/05 - Aula 03:

Teste T e ANOVA com dados problemáticos.



Dia 12/05 - Aula 04:

Regressão linear simples e Múltipla.

Dia 13/05 - Aula 05:

As portas que se abrem quando você domina Análise


de Dados.

Como vai funcionar?

Nos dias 09 a 13 de Maio as aulas serão liberadas para você


assistir no seu tempo!

Mas não procrastine, hein?! Elas ficarão no ar por poucos dias!


Iremos enviar os links por e-mail e pelos grupos de WhatsApp.
Fique atento(a)!
QUEM SOU

BRUNO FIGUEIREDO DAMÁSIO

Sou Psicólogo, mestre e doutor em Psicologia. Venho me dedicando à


Psicometria desde 2007.

Fui professor e chefe do Departamento de Psicometria da UFRJ durante os


anos de 2013 a 2020. Fui editor-chefe da revista Trends in Psychology, da
Sociedade Brasileira de Psicologia (SBP) eEditor-Associado da Spanish
Journal of Psychology, na sub-seção Psicometri e Métodos Quantitativos.

Tenho mais de 50 artigos publicados e mais de 3000 citações, nas


melhores revistas nacionais e internacionais. Atualmente, me dedico a
formação de novos pesquisadores, através da Psicometria Online Academy.
Minha missão é ampliar a formação em Psicometria no Brasil e lhe auxiliar
a conquistar os seus objetivos profissionais.

instagram.com/psicometriaonline

facebook.com/psicometrionline

youtube.com/c/psicometriaonline

Você também pode gostar