Você está na página 1de 22

Análise de correlação

Introdução

Nesta unidade serão estudados os princípios da análise de correlação e de


regressão. Estas técnicas estatísticas são apropriadas para analisar o relacionamento
entre variáveis de qualquer natureza. No nosso caso, estamos interessados no
relacionamento entre variáveis do agronegócio, sejam elas de natureza econômica,
financeira ou contábil. A análise de correlação tem por objetivo apenas medir o grau de
relacionamento entre variáveis, enquanto a análise de regressão estabelece uma relação
de dependência entre as variáveis e desenvolve métodos para estimar, com base em uma
amostra de dados, os parâmetros que caracterizam essa relação.
Correlação e regressão são técnicas bastante relacionadas e, de certa forma,
complementares em muitos aspectos. Podemos estar interessados, por exemplo, no
relacionamento entre o preço a vista e o preço futuro de café, entre gastos com
propaganda e volume de vendas de uma empresa, ou entre salário do trabalhador e seu
nível educacional. Pela correlação, vamos procurar medir o grau de relacionamento
entre as variáveis, que será dado pelo coeficiente de correlação. Este coeficiente vai nos
dizer se a relação é forte ou fraca e se é no mesmo sentido ou em sentido contrário. Já a
regressão procura estimar o relacionamento entre as variáveis por meio de uma equação
matemática que melhor descreve a relação.
Embora a análise de correlação e de regressão lide com a dependência de uma
variável em relação a outra, elas não implicam necessariamente relação de causalidade
de uma variável para outra. A especificação das variáveis a serem analisadas tanto na
correlação quanto na regressão deve ser feita com base na teoria subjacente ou no
conhecimento a priori relacionado com a área em estudo. Um relacionamento forte
entre as variáveis não identifica uma relação causa-efeito. Isto significa que,
estatisticamente, podemos relacionar qualquer coisa, mas, na prática, só devemos
relacionar aquilo que faz sentido de acordo com nosso conhecimento do problema. Nos

1
estudos relacionados com o agronegócio, vamos usar com freqüência a teoria
econômica para estabelecer relações causais a serem investigadas pela estatística.
Os dados utilizados em análise empírica de correlação e regressão podem ser
de série temporal ou de seção cruzada. Os dados de série temporal são aqueles coletados
para períodos de tempo sucessivos e regulares. O período pode ser ano, mês, semana,
dia, etc. Por exemplo, dados referentes à área, produção e produtividade de milho em
Minas Gerais no período de 1980 a 2000 e dados mensais de preços de milho, arroz e
feijão no mercado atacadista de Belo Horizonte, no período de janeiro de 1990 a
dezembro de 2000, são dados de série temporal.
Os dados de seção cruzada, também chamados de dados de corte seccional, são
dados referentes a uma ou mais variáveis coletados em unidades amostrais (família,
consumidor, firma, propriedade rural, estado, região, país) no mesmo período de tempo.
Por exemplo, dados sobre a produção de soja, milho e trigo nos municípios do Estado
do Paraná em 2000, ou dados sobre a produção diária de leite, número de vacas em
lactação, número de empregados permanentes e quantidade usada de ração, coletados de
uma amostra de 200 produtores de Minas Gerais em julho de 2000, são dados de seção
cruzada.
É possível combinar dados de seção cruzada e de série temporal para análise
estatística. Neste caso, refere-se a dados de combinação de série temporal e seção
cruzada. Quando as unidades amostrais de seção cruzada são as mesmas ao longo do
tempo, denomina-se dados em painel.
Tanto os dados de série temporal quanto os de seção cruzada podem ser de
natureza quantitativa ou qualitativa. Dado quantitativo é aquele que se apresenta na
forma numérica, como renda, produção, preço, etc. Já o dado qualitativo é aquele
expresso na forma de um atributo ou uma característica qualitativa da unidade de
observação. Normalmente, este dado refere-se à presença ou ausência de uma
característica, ou à tomada ou não de uma decisão, como, por exemplo, dado referente a
homem ou mulher, a casado ou solteiro, a empregado ou desempregado, ao setor rural
ou setor urbano, se adota ou não adota certa tecnologia, se período com ou sem
tabelamento de preços, se período com ou sem acordo comercial, etc.
Os dados para a análise de correlação e de regressão provêm de observações de
variáveis emparelhadas. É preciso ter várias observações (amostra) de cada variável. Por
exemplo, um estudo com dados de seção cruzada sobre empresas do setor de alimentos
pode focalizar volume de vendas, número de empregados, gastos com propaganda e
2
parcela de mercado. Cada observação, que representa os dados de cada empresa, é
composta de quatro valores, um para cada variável. Pode-se imaginar os dados
dispostos em uma planilha em que as linhas são as observações e as colunas
representam as variáveis.

Objetivos específicos

Ao finalizar esta unidade, você deverá ser capaz de:


⇒ Entender o significado e a finalidade da análise de correlação e de regressão.
⇒ Relacionar e explicar as premissas ou pressuposições fundamentais da análise de
correlação e de regressão.
⇒ Diferenciar análise de correlação de análise de regressão.
⇒ Entender que o modelo de regressão linear pode ser usado para estimar vários tipos
de modelos não-lineares.
⇒ Entender as limitações da análise de correlação e de regressão.
⇒ Calcular coeficientes de correlação e estimar modelos de regressão para análise de
relações entre variáveis.
⇒ Entender e ser capaz de explicar resultados de análise de correlação e de regressão.

1. Análise de correlação

1.1. Introdução
A estatística fornece vários métodos para se medir a associação entre variáveis,
sendo a correlação um dos mais simples destes métodos. A análise de correlação
constitui uma técnica própria de análise estatística com aplicações em inúmeras áreas. A
correlação é intimamente ligada à regressão. O entendimento dos conceitos de
correlação facilita muito o estudo das técnicas de regressão.

3
1.2. O significado da correlação entre variáveis
O termo “correlação” significa literalmente “co-relacionamento” e indica até
que ponto os valores de uma variável estão relacionados com os de outra. Na análise de
correlação procura-se uma medida que “sintetize” o grau de relacionamento entre as
variáveis.
Tem-se um relacionamento forte entre duas variáveis sempre que valores altos
de uma estejam relacionados com valores também altos ou baixos da outra variável. Por
outro lado, se valores altos de uma variável ocorrem em conjunto com valores altos e
baixos da outra variável, o grau de relacionamento entre elas não é forte.
Muitos exemplos podem ser dados de variáveis que apresentam certo tipo de
relacionamento: a) grau de escolaridade e nível de renda; b) notas de microeconomia e
notas de matemática; c) idade e resistência física; d) produtividade e quantidade
utilizada de fertilizante; e) idade e altura de uma planta; f) tempo depois do corte e
resistência física da madeira; g) preço em nível de consumidor (varejo) e em nível de
atacado; h) tamanho da propriedade e consumo de energia elétrica; i) preço e quantidade
demandada de certa mercadoria; j) ordem de classificação em um concurso e sucesso
profissional.
O interesse de se conhecer melhor o relacionamento entre variáveis, como os
casos citados anteriormente, conduz naturalmente à análise de correlação. O resultado é
uma medida do grau de correlação, denominada “coeficiente de correlação”.
A principal utilidade da medida de correlação é que se pode dizer o que se
espera para uma variável com base no conhecimento de outra. Pode-se inferir uma com
base na outra.
Contudo, chama-se a atenção para o fato de que esse processo de inferência
não significa que uma variável “causa” a outra. Ou seja, não implica, em hipótese
alguma, a existência de relação causal entre as variáveis. Apenas o relacionamento
esperado é indicado pela análise de correlação. Por exemplo, se existir um
relacionamento forte na mesma direção entre grau de escolaridade e renda, só se pode
inferir que pessoas com grau de instrução formal mais elevado deverão apresentar
também níveis de renda mais altos.

1.3. Formas de correlação


A correlação entre duas variáveis (X e Y) pode ser de várias formas:
4
a) Correlação linear - quando todos os pontos (X, Y) colocados num diagrama de
dispersão tendem a se concentrar ao longo de uma reta.
b) Correlação não-linear - quando os pontos (X, Y) tendem a se concentrar em torno de
uma curva.
c) Correlação positiva - duas variáveis apresentam correlação positiva se elas tendem a
mudar na mesma direção, ou seja, aumentam ou diminuem ao mesmo tempo.
Exemplo deste tipo de correlação é a relação entre preço e quantidade ofertada
(Figuras 2.1 e 2.2).

Figura 2.1 - Correlação positiva linear. Figura 2.2 - Correlação positiva não-linear.

Y
Y

.
. ....
. .. .. .. ..............
..
..
.. .. ... .... .... .
. . .. .... ..
.. .. .. .. .
.. .. .. .. ..
.. ..
.... .. .. .. .. .. . .
.... .... .. . 0 .... .. .. .
0 .. .. . .. . X
. .. . X . .
.. . .. . .. . .
.
.

d) Correlação negativa - neste caso, as variáveis tendem a mudar em direções opostas.


Por exemplo, preço e quantidade demandada (Figuras 2.3 e 2.4).

Figura 2.3 - Correlação negativa linear. Figura 2.4 - Correlação negativa não-linear.

Y
Y

. ... . . .
.. . ... . . ... .. .
.
.... ... .... .
.. .. .... ... .. . .
..
.. ......... ... . . ..
..
.. .. . ... .
. .. .. .. ... . . ... .... .. ... ...
. . .. .... .. .. .. ..
. . .. .. .. .. .. . .... ..
.. ..
. . .. .. ..
. .. ... ..
. .. ....
5
0 . . ..
.. ..
.
. X
0 . . .. .. . .
. . . .. X . .
. . .
. . . .
e) Não-correlação ou correlação nula - duas variáveis são não-correlacionadas quando
não é possível identificar nenhuma conexão entre elas. O diagrama de dispersão não
apresenta forma definida (Figura 2.5).

.. ....... ..
Y
. . ..
... ..... .. ... .
. . . .. ...
. . .
.
0
X
Figura 2.5 - Correlação nula.

A correlação entre duas variáveis também será nula quando uma delas não
apresentar variação, ou seja, assumir um valor constante (Figura 2.6).
Figura 2.6 - Correlação nula. .................

Y
..........
Y

..........................
. ....
0 X 0 X
(a) (b)

Quando, porventura, todos os pontos (X, Y) se localizarem exatamente sobre


uma reta ou uma curva, diz-se que a correlação é perfeita. Quando a maioria dos pontos
se concentra ao longo da reta ou da curva, a correlação será forte; caso contrário, a
correlação será fraca.
A teoria da correlação desenvolve medidas próprias e diretas somente para a
correlação linear. A correlação não-linear é estudada de forma indireta através de

6
transformações ou com uso de ajustamento de relações entre as variáveis. A seguir
serão desenvolvidas medidas de correlação linear.

1.4. Correlação linear simples


Na correlação linear simples procura-se medir o grau de relacionamento linear
entre duas variáveis. A medida usada é o “coeficiente de correlação”.

Coeficiente de correlação
A correlação se refere ao grau de relacionamento entre as variáveis. A medida
desse grau é feita pelo coeficiente de correlação.
Dadas duas variáveis (X e Y) definidas para uma amostra de tamanho n, o
coeficiente de correlação linear (rXY) é calculado com a seguinte fórmula:
n n n
n ∑ X i Yi − ∑ X i ∑ Yi
i =1 i =1 i =1
rXY =
 n 2  n 
2
  n 2  n 2  . (2.1)
n ∑ X i −  ∑ X i   n ∑ Yi −  ∑ Yi  
 i =1  i =1    i =  i =1  

Propriedades do coeficiente de correlação


1. O coeficiente de correlação independe das unidades de medida das variáveis; é
um número adimensional que varia entre –1 e +1, isto é, -1 ≤ r ≤ + 1.
2. O coeficiente de correlação de uma variável e ela mesma é igual a +1.
3. A permutação das variáveis não altera o resultado do coeficiente de correlação,
isto é, rXY = rYX.
4. Somando-se ou subtraindo-se uma constante a uma ou a ambas as variáveis, o
coeficiente de correlação não se altera.
5. Multiplicando-se ou dividindo-se uma ou ambas as variáveis por uma constante,
o coeficiente de correlação não se altera.

Interpretação do coeficiente de correlação


Os valores possíveis do coeficiente de correlação limitados no intervalo –1 e
+1 apresentam os seguintes significados:
1. r = +1: correlação positiva perfeita. Existe uma relação linear perfeita entre as
variáveis cujos pares de valores se situam numa reta com inclinação positiva.

7
2. r próximo de +1: correlação positiva forte. A maioria dos pares de valores das
variáveis se situa próxima a uma reta com inclinação positiva.
3. r positivo e próximo de zero: correlação positiva fraca. Os pares de valores
formam uma nuvem de pontos com ligeira tendência de inclinação positiva.
4. r = 0: correlação nula. Os pares de valores formam uma nuvem de pontos sem
nenhuma tendência de inclinação positiva ou negativa. As variáveis tendem a variar
sem nenhuma relação uma com a outra.
5. r negativo e próximo de zero: correlação negativa fraca. Os pares de valores
formam uma nuvem de pontos com ligeira tendência de inclinação negativa.
6. r próximo de -1: correlação negativa forte. A maioria dos pares de valores das
variáveis se situa próxima a uma reta com inclinação negativa.
7. r = -1: correlação negativa perfeita. Existe uma relação linear perfeita entre as
variáveis cujos pares de valores se situam numa reta com inclinação negativa.
Normalmente, alerta-se para o fato de que um coeficiente de correlação igual a
zero indica ausência de correlação linear entre as variáveis. Pode ocorrer, no entanto,
que as variáveis sejam relacionadas, porém não linearmente.
O coeficiente de correlação linear simples sempre se refere a duas variáveis.
Num estudo com mais de duas variáveis podemos calcular o coeficiente para diferentes
pares de variáveis. Neste caso, os coeficientes de correlação são organizados em uma
tabela denominada matriz de correlação de tamanho definido pelo número de variáveis.
Para quatro variáveis, X, Y, Z e W, por exemplo, os possíveis coeficientes de correlação
das quatro variáveis tomadas duas a duas podem ser registrados como na Tabela 2.1.

Tabela 2.1 - Coeficientes de correlação linear simples entre as variáveis X, Y, Z e W

X Y Z W

X rXX rXY rXZ rXW


Y rYX rYY rYZ rYW
Z rZX rZY rZZ rZW
W rWX rWY rWZ rWW

8
Observando-se que o coeficiente de correlação de uma variável com ela mesma
é igual a + 1 e que a permutação das variáveis não altera o resultado do coeficiente, a
Tabela 2.1 pode ser simplificada como se apresenta na Tabela 2.2.

Tabela 2.2 - Coeficientes de correlação linear simples entre as variáveis X, Y, Z e W

X Y Z W

X 1
Y rYX 1
Z rZX rZY 1
W rWX rWY rWZ 1

Na prática, o cálculo do coeficiente de correlação é feito a mão, com o auxílio


de uma calculadora, ou pelo computador. As planilhas eletrônicas e os programas
estatísticos calculam coeficientes de correlação como procedimentos rotineiros. Como
exemplo, apresentamos, a seguir, o cálculo do coeficiente de correlação entre duas
variáveis X e Y, com o detalhamento dos cálculos dos componentes da fórmula.

Exemplo 2.1
Calcular o coeficiente de correlação entre as variáveis X e Y registradas na
Tabela 2.3.

9
Tabela 2.3 - Cálculo do coeficiente de correlação entre as variáveis X e Y

OBS. Xi Yi XiYi X i2 Yi2

1 6.5 16 104 42.25 256


2 5.5 13 71.5 30.25 169
3 5.5 15 82.5 30.25 225
4 5.5 14 77 30.25 196
5 4.5 10 45 20.25 100
6 2.5 8 20 6.25 64
7 3.5 14 49 12.25 196
8 2.5 9 22.5 6.25 81
9 3.0 10 30 9.0 100
10 2.5 8 20 6.25 64
11 4.5 13 58.5 20.25 169
12 4.5 13 58.5 20.25 169
13 5.5 13 71.5 30.25 169
14 2.5 6 15 6.25 36
15 3.5 11 38.5 12.25 121
SOMA 62 173 763.5 282.50 2115

Aplicando a fórmula 2.1, tem-se:

(15)(763,5) − (62)(173)
rXY = = 0,86 .
(15)( 282,5) − (62) 2 (15)(2115) − (173) 2

O coeficiente de correlação de 0,86 é relativamente alto, indicando correlação


positiva e forte entre as variáveis. O resultado indica, então, que existe forte associação
positiva entre as variáveis. Assim, pode-se dizer que, à medida que X aumenta, Y
também aumenta, e à medida que X diminui, Y também diminui. As variáveis tendem a
variar juntas e no mesmo sentido.
No exemplo 2.2 analisa-se a correlação entre quatro variáveis, cujo resultado é
apresentado em forma de matriz na Tabela 2.5.

Exemplo 2.2
Os dados da Tabela 2.4 referem-se ao preço da soja recebido pelos agricultores
(R$/t), preço do milho recebido pelos agricultores (R$/t), salário de tratorista (R$/mês)
e preço de fertilizante (índice). Todos os preços foram deflacionados pelo IGP/FGV,

10
base dezembro de 1999. O cálculo do coeficiente de correlação entre os pares de
variáveis encontra-se na Tabela 2.5.

Tabela 2.4 - Preço da soja (PRSO), preço do milho (PRMI), salário de tra-torista
(SATO) e preço de fertilizante (PRFE) no Estado do Paraná, 1986-1999

ANO PRSO PRMI SATO PRFE

1986 577.89 364.43 358.22 74.64


1987 483.89 230.60 328.53 77.15
1988 366.60 183.59 224.20 142.22
1989 384.89 205.11 494.61 86.98
1990 268.89 204.42 280.32 110.00
1991 369.89 217.95 300.02 109.63
1992 289.26 175.73 332.03 116.64
1993 321.06 164.58 389.11 176.30
1994 278.24 146.37 315.54 180.68
1995 224.14 126.04 266.19 168.92
1996 285.64 156.00 265.14 160.55
1997 301.84 120.27 265.71 167.96
1998 250.47 134.70 272.06 173.83
1999 264.17 147.27 262.67 162.35

Fonte: FNP (2000).

Tabela 2.5 - Matriz de correlação entre preço da soja (PRSO), preço do mi-lho (PRMI),
salário de tratorista (SATO) e preço de fertilizan-te (PRFE) no Estado do
Paraná, 1986-1999

PRSO PRMI SATO PRFE

PRSO 1.000000
PRMI 0.898984 1.000000
SATO 0.404765 0.374035 1.000000
PRFE -0.772708 -0.821557 -0.464695 1.000000

11
Verifica-se que o preço da soja e o preço do milho apresentam correlação alta e
positiva (rPRSO,PRMI = 0,899). O preço da soja e o salário de tratorista apresentam
correlação positiva moderada a fraca (rPRSO,SATO = 0,405). Já o preço da soja e o preço do
fertilizante apresentam correlação negativa e relativamente forte (rPRSO,PRFE = -0,773). O
preço do milho e o salário de tratorista também apresentam fraca correlação positiva
(rPRMI,SATO = 0,374). O milho também apresenta preços correlacionados negativamente
com o preço do fertilizante e com grau forte (rPRMI,PRFE = -0,822). Por fim, o salário de
tratorista e o preço do fertilizante apresentam correlação negativa e relativamente fraca
(rSATO,PRFE = -0,465).

Teste estatístico de r
A conclusão de que a correlação é forte ou fraca é de caráter dúbio. Não se
sabe qual valor pode ser considerado baixo para caracterizar uma correlação fraca entre
as variáveis e, da mesma forma, qual valor é alto para caracterizar uma correlação forte.
Um teste estatístico do coeficiente pode auxiliar na interpretação de seu valor.
Realizando um teste para verificar se o coeficiente é estatisticamente igual a zero,
podemos ter suporte para afirmar que valores baixos de r podem ser considerados
estatisticamente iguais a zero, ou que valores não muito altos de r podem ser
considerados estatisticamente diferentes de zero.
Para efetuar o teste estatístico é necessário conhecer a distribuição amostral de
r. Admitindo que X e Y são variáveis aleatórias com distribuição normal bivariada,
pode-se mostrar que a distribuição de r é uma distribuição de t. O teste para verificar se
o coeficiente é estatisticamente igual a zero, que significa ausência de associação linear
entre X e Y, consiste no cálculo de um valor de t dado por:
r
t cal = ~ t n -2 .
(1 - r ) /(n − 2)
2 (2.2)

isto é, a variável tcal segue uma distribuição t de Student com n-2 graus de liberdade.
Dessa forma, pode-se usar a distribuição de t para estabelecer a significância ou não-
significância estatística de r.

12
Exemplo 2.3 Suponha que, com base em uma amostra de 20 observações de preços e
quantidades vendidas, calculou-se r = 0,62. Deseja-se testar se essa estimativa é
estatisticamente igual a zero. Ou seja, pode-se inferir, em dado nível de significância,
que as variáveis não são relacionadas?
Calcula-se:

RA H0
0,95
Região Crítica
Região RRH0
Crítica
0,025 0,025

t = - 2,10 t = - 2,10

Figura 2.7 - Distribuição de “t” e regiões de rejeição de H0.

X -μ
t=
σX

0,62
t cal = = 3,353
(1 - 0,62 ) /(20 − 2)
2

13
Examinando a tabela de t para 18 graus de liberdade, verifica-se que tα/2 = 2,10
para α = 0,05. Graficamente, representa-se a distribuição de “t” com as regiões de
rejeição da hipótese nula como na Figura 2.7.
Cada área hachurada representa 2,5% de probabilidade. Estas áreas constituem
o que se denomina região de rejeição da hipótese nula. Quando a estatística de teste
calculada cai na área de rejeição, rejeita-se a hipótese estabelecida (hipótese nula); caso
contrário, aceita-se. No caso, como tcal = 3,35 > tα/2 = 2,10, conclui-se que o coeficiente r
= 0,62 é estatisticamente diferente de zero e que as variáveis preço e quantidade vendida
são correlacionadas. Então, o teste estatístico dá suporte para interpretar o coeficiente r
= 0,62 como um grau de correlação relativamente forte.

Exemplo 2.4
Suponha que, com base em uma amostra de 20 observações de produção e
volume de crédito utilizado, calculou-se r = 0,32. Deseja-se testar se essa estimativa é
estatisticamente igual a zero. Ou seja, pode-se inferir, em nível de significância de 5%,
que as variáveis não são relacionadas?
Calcula-se:

0,30
t cal = = 1,33 .
(1 - 0,30 ) /(20 − 2)
2

Como tcal = 1,33 < tα/2 = 2,10, conclui-se que o coeficiente r = 0,30 é
estatisticamente igual a zero e que as variáveis produção e volume de crédito utilizado
não são correlacionadas. Então, o teste estatístico dá suporte para interpretar o
coeficiente r = 0,30 como um grau de correlação fraco e praticamente nulo.

1.5. Correlação parcial


A correlação simples, vista anteriormente, mede o grau de associação entre
duas variáveis, desconsiderando a presença de outras variáveis, isto é, o coeficiente de
correlação linear simples pode ser visto como uma medida da correlação “total” ou
“bruta” entre duas variáveis.
Um estudo normalmente envolve mais de duas variáveis e pode ser de interesse
o conhecimento da correlação entre duas variáveis isolando o efeito das outras sobre
estas. Este seria o caso do cálculo da correlação parcial.

14
O coeficiente de correlação parcial mede o grau de associação entre duas
variáveis mantendo constante as outras variáveis.
Simbolicamente, supõe-se que existem três variáveis X1, X2 e X3. A correlação
parcial entre X1 e X2, por exemplo, mede a associação entre elas independentemente da
relação de X3 com X1 e de X3 com X2. Ou seja, controla-se o efeito de X3.

Exemplo 2.5
Considere a produção de leite e as variáveis: X1 = produtividade
(litros/vaca/dia), X2 = número de vacas em lactação e X3 = quantidade de concentrado
(kg/vaca/dia) e X4 = índice de carga genética. A correlação linear simples entre essas
variáveis mede o grau de relacionamento entre elas duas a duas, sem considerar a
presença das outras. Já a correlação parcial mede o grau de relacionamento entre duas
delas mantendo-se constante o nível das outras. Tanto a produtividade quanto a resposta
à quantidade de concentrado estão relacionadas com a carga genética. Uma medida da
correlação pura entre produtividade e uso de concentrado é obtida pela correlação
parcial em que a influência de X4 é isolada de ambas as variáveis. Ou seja, mantém-se
fixo o efeito de carga genética. De forma semelhante, pode-se medir a correlação parcial
entre produtividade e uso de concentrado mantendo-se constante o número de vacas em
lactação e a carga genética. Neste caso, são controlados os efeitos de duas variáveis.
Quando se estuda a correlação parcial há necessidade de definir a “ordem” da
correlação. Por ordem entende-se o número de variáveis controladas no cálculo da
correlação.
Como referência, o coeficiente de correlação simples é definido como
“coeficiente de correlação de ordem zero”. Se existem três variáveis, X1, X2 e X3, pode-
se definir três coeficientes de ordem zero:
r12 = coeficiente de correlação entre X1 e X2.
r13 = coeficiente de correlação entre X1 e X3.
r23 = coeficiente de correlação entre X2 e X3.
Escolhendo X3 como a variável de controle, define-se: r 12.3 = coeficiente de
correlação entre X1 e X2 mantendo-se X3 constante. Similarmente, pode-se definir r13.2 e
r23.1, que são denominados “coeficientes de correlação de primeira ordem”.
A mesma idéia pode ser expandida para o caso em que estão envolvidas mais
de três variáveis. Assim, pode-se definir: r12.34 = coeficiente de correlação entre X1 e X2,

15
mantendo-se constante X3 e X4. Este é um coeficiente de correlação de “segunda
ordem”.
Coeficientes de correlação parcial de ordens superiores podem ser definidos
facilmente.
O cálculo dos coeficientes de correlação parcial é feito por meio de fórmulas
próprias. O coeficiente de correlação parcial de determinada ordem pode ser calculado
através dos coeficientes de ordem inferior. Para o caso de três variáveis, o coeficiente de
correlação de primeira ordem pode ser calculado em função dos coeficientes de
correlação simples, ou de ordem zero. Por exemplo, o coeficiente de correlação parcial
entre X1 e X2 mantendo-se constante X3 é dado por:

r12 - r13 r23


r12.3 =
(1 - r )(1 - r )
2
13
2
23
(2.3)

Esta fórmula pode ser generalizada para qualquer correlação parcial,


envolvendo três variáveis. Fazendo i, j, k = 1, 2, 3, tem-se:

rij - rik rjk


rij.k =
(1 - r )(1 - r )
2
ik
2
jk
(2.4)

Dessa forma, vê-se que o coeficiente de correlação parcial de determinada


ordem é calculado em função dos coeficientes de ordem imediatamente inferior.
Para o caso de mais de três variáveis, podemos calcular o coeficiente de
correlação parcial entre duas variáveis controlando para mais de uma variável.
Desejando-se, por exemplo, o coeficiente de correlação parcial entre X 1 e X2 mantendo
constante X3 e X4, a fórmula seria dada por:

r12.4 - r13.4 r23.4 r12.3 - r14.3r24.3


r12.34 = =
(1 - r )(1 - r )
2
13.4
2
23.4 (1 - r )(1 - r )
2
14.3
2
24.3
(2.5)

Para se calcular, então, r12.34, seria necessário calcular primeiro os coeficientes


de ordem zero, tipo r12, r23, etc., depois os de primeira ordem, tipo r12.3, r23.4, etc.

16
O coeficiente de correlação parcial também varia de -1 a +1 e apresenta
interpretação semelhante ao coeficiente de correlação simples, desde que ressaltado o
aspecto da variável ou das variáveis de controle.

Exemplo 2.6
Considere uma amostra de 10 crianças cujos dados referentes a peso (kg),
altura (cm) e idade (anos) são apresentados na tabela a seguir.

Peso (X1) 30 32 24 30 26 35 25 23 35 31
Altura (X2) 145 150 125 157 127 140 132 107 155 145
Idade (X3) 7 10 7 11 8 10 10 6 12 9

A aplicação da fórmula 2.1 fornece os seguintes resultados para os coeficientes


de correlação simples ou de ordem zero: r12 = 0,81, r13 = 0,70 e r23 = 0,78. Com base
nesses resultados, podemos calcular os coeficientes de correlação parcial de primeira
ordem aplicando a fórmula 2.3. Obtém-se: r12.3 = 0,58, r13.2 = 0,19 e r23.1 = 0,51. Observa-
se que, duas a duas, as variáveis peso, altura e idade apresentam correlações altas, acima
de 0,70. Quando se controla o efeito de uma das variáveis, a correlação diminui.
Verifica-se que o coeficiente de correlação linear simples entre peso e altura é r 12 = 0,81
enquanto o coeficiente de correlação linear parcial entre peso e altura para crianças com
a mesma idade é r12.3 = 0,58. Este valor representa o coeficiente de correlação linear
entre peso e altura retirando-se o efeito de idade sobre peso e sobre altura. De forma
semelhante, tem-se que o coeficiente de correlação linear simples entre peso e idade é
r13 = 0,70, enquanto o coeficiente de correlação linear parcial entre peso e idade para
crianças com a mesma altura cai para r13.2= 0,19, significando que existe fraca relação
entre peso e idade para crianças de mesma altura. Por fim, o coeficiente de correlação
linear simples entre altura e idade é r13 = 0,78, enquanto o coeficiente de correlação
linear parcial entre altura e idade para crianças com o mesmo peso é r 23.1 = 0,51,
significando que existe relação não muito forte entre peso e idade para crianças de
mesma altura.
O teste de significância do coeficiente de correlação parcial é feito da mesma
maneira que o do coeficiente de correlação simples.

17
1.6. Correlação múltipla
À medida que se aprofunda na análise de correlação, distanciando da
correlação simples, torna-se necessário usar conceitos da análise de regressão ou, mais
especificamente, torna-se necessário usar o conceito de uma relação funcional linear
entre as variáveis.
A correlação múltipla envolve no mínimo três variáveis. Um relacionamento
forte entre estas variáveis tomadas em conjunto pode ser entendido como um
ajustamento bom de um plano em três dimensões.
No caso de três variáveis X1, X2 e X3, por exemplo, pode-se estabelecer a
relação

X1 = a + bX2 + cX3 + e (2.6)

em que a, b e c são parâmetros da relação e e é um erro aleatório. Se esta relação


apresentar bom ajustamento aos dados, conclui-se que as variáveis têm alto grau de
correlação múltipla. Qualquer uma das variáveis poderá ser escolhida como variável
dependente. Todas são supostas aleatórias e a relação causal implícita pela relação não é
relevante. O objetivo não é explicar o comportamento de X 1, na relação anterior, mas
apenas verificar o grau de associação linear entre as três variáveis. Para um número
maior de variáveis o raciocínio é semelhante.
Considerando três variáveis, o coeficiente de correlação múltipla pode ser
calculado pela seguinte fórmula:

2 2
r12 + r13 - 2r12 r13 r23
R 1.23 = 2
(2.7)
1 - r23

O valor de R1.23 varia de 0 a 1 e indica o grau da associação linear entre X 1, X2


e X3 quando X1 é tomada como dependente. Este coeficiente pode ser visto, também,
como um indicador do grau de relacionamento entre X 2 e X3, tomadas como um grupo,
e X1.
O coeficiente de correlação múltipla pode ser calculado também como a raiz
quadrada do coeficiente de determinação (R2) do modelo de regressão 2.6.

1.7. Correlação por posto ou correlação ordinal

18
A análise de correlação pode ser aplicada também a variáveis de natureza
qualitativa quando se pode dispor os valores em ordem de importância, de preferência,
de ocorrência, ou qualquer outro critério de julgamento. Os valores das variáveis serão
dados, neste caso, pelos números 1, 2, 3, ..., n, os quais indicam ordem, posição ou
posto ocupado por cada um desses valores em relação aos demais.
A medida de correlação, nesse caso, indica o grau de relacionamento entre as
ordenações das variáveis, e, por isso, é denominada correlação por postos ou correlação
ordinal.
A correlação por posto se aplica principalmente às situações em que as
variáveis são por natureza qualitativas, como preferência por diferentes tipos de
produtos, julgamento de concurso, classificação em provas esportivas etc. Contudo,
pode-se fazer a análise de correlação por posto também com variáveis quantitativas,
desde que transformadas em escala ordinal. O objetivo do cálculo de um coeficiente de
correlação, nesses casos, é determinar se as variáveis tendem a apresentar associação
entre suas ordenações.
Em princípio, qualquer variável quantitativa pode ser convertida em escala
ordinal ou postos. O contrário não é, normalmente, possível, a menos que seja associada
à ordem uma escala numérica qualquer.
O objetivo da correlação por posto é fornecer uma medida que indique o grau
de concordância entre os dois conjuntos de ordens de preferência.

Coeficiente de correlação de Spearman


O método desenvolvido por Spearman calcula o coeficiente de correlação por
posto pela seguinte fórmula:

n
6∑d i2
i =1 (2.8)
rs = 1 - 2
n(n - 1)

em que d = diferença entre os postos de pares de valores correspondentes; e n = número


de observações.
O coeficiente rs assume valores compreendidos no intervalo [-1, +1], isto
é,

- 1 ≤ rs ≤ 1

19
e deve ser interpretado da mesma forma que o coeficiente de correlação simples.
Quando rs é próximo de +1, há alto grau de concordância entre as ordenações. Quando rs
se aproxima de -1, há alto grau de discordância entre as classificações. E, quando r s é
próximo de zero, não existe associação relevante entre os conjuntos de ordenações.
A significância estatística do coeficiente de Spearman pode ser testada
observando que a distribuição de rs pode ser aproximada por uma distribuição normal,
com média zero e desvio-padrão σrs = 1/ n - 1 , isto é: rs ∼ N ( 0, 1/(n - 1) ) .
Calcula-se a estatística de teste

rs
Z= = rs n − 1 (2.9)
σrs

que deve ser comparada com valores tabulares da distribuição normal padronizada. Para
um nível de significância α = 5%, o valor da tabela e ±1,96 e a hipótese nula deve ser
aceita se -1,96 ≤ Z ≤ +1,96. Este teste é considerado aceitável quando n > 10.

Exemplo 2.7
Como exemplo de variáveis ordinais, considere a preferência dos eleitores por
candidatos à Presidência da República. Considere dois grupos de eleitores: homens e
mulheres. Ambos os grupos possuem características socioeconômicas semelhantes.
Suponha a existência de 10 candidatos, designados por A, B, C, D, ..., J. Usando
qualquer processo, os dois grupos classificam os candidatos em ordem de preferência
dando a cada candidato um número de 1 a 10, referente à ordem de preferência.
Considere os resultados da Tabela 2.6.

Tabela 2.6 - Ordem de preferência de eleitores homens e mulheres para diferentes


candidatos

20
Candidato Homens Mulheres d d2

A 8 9 -1 1
B 3 5 -2 4
C 9 10 -1 1
D 2 1 1 1
E 7 8 -1 1
F 10 7 3 9
G 4 3 1 1
H 6 4 2 4
I 1 2 -1 1
J 5 6 -1 1

O coeficiente de correlação ordinal é dado por:

6.24 144
rs = 1 - =1-
10(10 - 1)
2 (2.10)
990

rs = 0,855

Este valor indica que há correlação ordinal alta, ou seja, há boa concordância
entre as preferências dos homens e das mulheres pelos candidatos.
Para testar a significância estatística de rs = 0,885, calcula-se:
Z = 0,855 10 −1 = 0,855 ⋅ 3
Z = 2,565.

Como Z = 2,565 > 1,96 rejeita-se a hipótese nula de que o coeficiente é


estatisticamente igual a zero.

1) Considere as seguintes variáveis:


X1 = Exportações do Estado de São Paulo para outros estados;
21
X2 = Renda dos estados importadores;
X3 = Distância entre a cidade de São Paulo e as demais capitais.

Com base em uma amostra de dados, obteve-se a seguinte matriz de


correlação:

X1 (exportações) X2 (renda) X3 (distância)

X1 (Exportações) 1 0,74 -0,55


X2 (Renda) 0,74 1 -0,67
X3 (Distância) -0.55 -0,67 1

Interprete os resultados obtidos.

2) Com base nos dados do exercício anterior, calculou-se o coeficiente de correlação


parcial entre exportações e renda, isolando-se a influência da distância. Obteve-se r 12.3 =
0,69. Interpretar esta estimativa.

22