Você está na página 1de 15

UNIVERSIDADE LICUNGO

FACULDADE DE CIÊNCIAS AGRÁRIAS

CURSO DE LICENCIATURA EM AGRO-PECUÁRIA

DOMINGOS ANASTACIO CIZELA

JEREMIAS MÁRIO CHAÚQUE

RICARDINA AUGUSTO

RUSSUMINE LÁZARO XAVIER

SUZETE PEDRO JORREIA

VENÂNCIO ANTÓNIO ALBERTO

CORRELAÇÃO E REGRESSÃO LINEAR

QUELIMANE

2021
DOMINGOS ANASTACIO CIZELA

JEREMIAS MÁRIO CHAÚQUE

RICARDINA AUGUSTO

RUSSUMINE LÁZARO XAVIER

SUZETE PEDRO JORREIA

VENÂNCIO ANTÓNIO ALBERTO

CORRELAÇÃO E REGRESSÃO LINEAR

Trabalho de investigação a ser apresentado ao


Curso de Licenciatura em Agro-pecuária do
Departamento de Ciências Agronómicas, como
requisito para avaliação na Disciplina/módulo de
Bioestatística

Docente: Dra. Hermenegilda Petersburgo

QUELIMANE

2021
Índice
1.Introdução..................................................................................................................................................4

2.Objectivos...................................................................................................................................................4

3.Metodologia ...............................................................................................................................................4

4.Correlação..................................................................................................................................................5

4.1.Tipos de Correlação ...............................................................................................................................5

4.2.Correlação linear ....................................................................................................................................6

4.2.1.Directa ou Positiva ..............................................................................................................................6

4.2.2.Indirecta ou Negativa ..........................................................................................................................6

4.2.3.Nula.......................................................................................................................................................6

Coeficiente de correlação linear de Pearson...................................................................................................7

Correlação negativa forte correlação negativa fraca ...............................................................................7

Propriedades do Coeficiente de Correlação Linear ........................................................................................8

4.3.Importância da correlação linear .........................................................................................................9

5.Regressão ...................................................................................................................................................9

5.1.Regressão da linear .................................................................................................................................10

5.2.Características ......................................................................................................................................10

5.3.Variável .................................................................................................................................................11

6. Conclusão ............................................................................................................................................14

7. Bibliografia .........................................................................................................................................15
1. Introdução

Existem situações nas quais há interesse em estudar o comportamento conjunto de uma ou mais
variáveis. Em muitos casos, a explicação de um fenómeno de interesse pode estar associado a
outros factores (variáveis) que contribuem de algum modo para a ocorrência deste fenómeno, o
comportamento conjunto de duas variáveis quantitativas pode ser observado por meio do
gráfico de dispersão.

2. Objectivos
2.1.Objectivo geral
➢ Analisar a correlação e regressão linear.

2.2.Objectivo específico
➢ Conhecer como se calcula a correlação linear;
➢ Conhecer a importância da Correlação linear;
➢ Saber definir e calcular uma regressão linear.

3. Metodologia

Para a realização deste trabalho de comparação da fisiologia dos sistemas respiratórios dos peixes
e das aves, foram consultados vários manuais e em seguida foram censuradas as informações e a
que se mostrou ser mais pertinente foi usada para a compilação deste trabalho. Para a realização
deste trabalho de comparação da fisiologia dos sistemas respiratórios dos peixes e das aves,
foram consultados vários manuais e em seguida foram censuradas as informações e a que se
mostrou ser mais pertinente foi usada para a compilação deste trabalho.
4. Correlação

É o estudo do grau de associação entre variáveis. Na correlação interessa observar se duas ou


mais variáveis são independentes ou variam juntas.

➢ Tamanho do braço ou tamanho da perna em uma população de mamíferos.


➢ Conteúdo de colesterol no sangue e peso de pessoas de mesma idade e sexo.
➢ Estatura dos pais e estatura dos filhos de pessoas de mesma raça.
➢ Renda e consumo por faixa de salário.
➢ Preço e Demanda.
➢ Produção agrícola e fertilizante.

Como o objectivo da análise de correlação é medir a intensidade de relação entre as variáveis,


devemos estar atentos aos princípios desta relação. Nas correlações supostamente lógicas, as
relações causais se compreendem claramente. Nas chamadas correlações ilusórias não se
encontra nenhuma conexão razoável entre as variáveis. Assim o tamanho de uma população de
insectos pode estar correlacionado com a altura de algum tipo de erva ou, pode ser simplesmente
uma função do tempo. Pode não haver relação ecológica entre as plantas e os insectos. A
população de insectos pode depender de outras variáveis que não necessariamente a altura das
ervas.

4.1.Tipos de Correlação

Os tipos de Correlação são:

4.1.1. Correlação Simples

Quando se estuda o grau de relação entre duas variáveis, sendo uma dependente (Yi) e outra
independente (Xi).

4.1.2. Correlação Múltipla

Quando se estuda o grau de relação simultânea entre a variável dependente e duas ou mais
variáveis independentes.
4.1.3. Correlação Parcial

No caso de uma relação múltipla, quando se estuda a relação pura entre duas variáveis, depois de
eliminada estatisticamente a influencia de outras variáveis independentes.

4.2.Correlação linear

Investiga a existência de associação entre duas variáveis, isto é, o grau de inter-relacionamento


entre a variável dependente e a independente. Porém devemos ficar atentos que a correlação
linear simplesmente comprova uma variação concomitante entre duas variáveis, não significando,
a priori, que uma é causa da outra, visto que muitas outras variáveis, não consideradas no estudo,
podem afectar o comportamento da variável dependente.

De acordo com a relação entre as variáveis esta correlação pode ser:

4.2.1. Directa ou Positiva

Quando a variável dependente está directamente relacionada com a variável independente. Ex.:
Renda e Consumo.

4.2.2. Indirecta ou Negativa

Quando a variável dependente tem relação inversamente proporcionalmente com a variável


independente. Ex.: Preço e Demanda.

4.2.3. Nula

Quando não há inter-relação entre as variáveis.

O diagrama de dispersão indica a forma da relação entre as variáveis estudadas e proporciona


uma ideia sobre as funções de regressão a serem utilizadas. A depender da relação entre as
variáveis, os pontos observados, às vezes, se encontram, relativamente, próximos da linha de
regressão e em outras situações bastante disseminados em torno dela. Para melhor quantificar
esta “aproximação” é necessário determinar um coeficiente de correlação entre as variáveis.
Porém não devemos interpretar a palavra “correlação” como a que quantifica uma relação de
causa (ex: emissão do Banco Central) e efeito (ex: índice de preços ao consumidor). O valor
obtido assinala unicamente uma relação funcional em determinado conjunto de dados.
Coeficiente de correlação linear de Pearson
Uma medida do grau e do sinal da correlação linear entre duas variáveis (X,Y) é dado pelo
Coeficiente de Correlação Linear de Pearson, definido por:

➢ O valor de “r” estará sempre no intervalo de -1 a 1.


➢ Quanto mais próximo de –1: maior correlação negativa
➢ Quanto mais próximo de 1: maior correlação positiva
➢ Quanto mais próximo de 0: menor a correlação linear

Valor de r

Correlação negativa forte correlação negativa fraca

0 1
−1 Correlação
positiva forte

Ausência de correlação Correlação positiva fraca


Propriedades do Coeficiente de Correlação Linear

Este coeficiente é a dimensional, logo não é afectado pelas unidades de medidas das
variáveis X e Y.

O sinal positivo indica que as variáveis são directamente proporcionais, enquanto que o
sinal negativo indica que a relação entre as variáveis é:

Exemplo 1:

A tabela abaixo apresenta os preços médios das ações e títulos divulgados pela Bolsa de Nova
York de 4 universidade . Calcule o coeficiente de correlação de Pearson e interprete o resultado.

Xi Yi Xi∙ 𝑦𝑖 Xi2 Yi2


1 4 4 1 16
2 1 2 4 1
1 2 2 1 4
3 1 3 9 1
Total 6 8 11 15 22
𝑛∑𝑥 ∙ 𝑦 − ∑𝑥 ∙ ∑𝑦
𝑟=
√𝑛 ∑ 𝑥 2 − (∑ 𝑥)2 ∙ √𝑛 ∑ 𝑦 2 − (∑ 𝑌)2

11−6∙8
r=
√∑ 152 −62 ∙√222 ∙82

4∙11−6∙8
r=
√4∙15−36∙√4∙22−64

r= −0,408

Logo temos uma correlação negativa fraca

Interpretação da correlação linear

Quanto maior for o valor absoluto do coeficiente, mais forte é a relação entre as variáveis. Para
a correlação de Pearson, um valor absoluto de 1 indica uma relação linear perfeita.
A correlação perto de 0 indica que não há relação linear entre as variáveis. O sinal de
cada coeficiente indica a direção da relação.

4.3. Importância da correlação linear

Quando estamos lidando com investimentos, a correlação está relacionada justamente a dois
activos distintos, e de que forma a variação de um pode influenciar o outro. Podemos dizer que
ela ajuda
a decifrar quais investimentos possuem comportamentos semelhantes ou distintos de acordo com
as movimentações da economia.

5. Regressão

É o estudo do comportamento de uma variável dependente (Yi) em função da variação de uma ou


mais variáveis independentes (Xi, Zi, Wi,.) supondo que estas variáveis estão numa relação de
causa e efeito. Regressão Linear: A relação funcional entre as variáveis implica na possibilidade
de estimar o valor de uma variável, dado o valor da outra, de acordo a função matemática que
apresente melhor aderência aos dados observados.

Convém, porém observar que em algumas situações, a relação entre as variáveis podem não estar
sujeita a uma relação de causa e efeito. Por uma simples relação acidental ambas podem ser
função de uma causa comum que as afecta. Isto, porém, não tira a importância que tem a
regressão no estudo do relacionamento entre variáveis. É preciso apenas cuida- do e nos casos
mais difíceis de identificação da relação, pode-se optar por uma regressão múltipla, para maior
segurança de análise e das projecções a serem efectuadas.

Na regressão a variável independente (Xi) se mede sem erro. Ela não varia ao acaso, está sempre
ao controle do investigador. Somente a variável dependente (Yi) é que é aleatória, e esta sujeita a
pequenas variações (afastamentos) a depender do grau de relação entre as variáveis e do modelo
de regressão utilizado.

Assim a dosagem de certo tipo de droga (Xi) aplicada em pacientes, está sobre o controle do
pesquisador, porém a pressão sanguínea (Yi) é aleatória, dependendo, portanto, da relação causa-
efeito entre as variáveis.

A determinação de uma equação de ajuste depende do comportamento dos dados, inicialmente


observados pelo diagrama de dispersão entre as variáveis, com conclusão assegurada pelo
“critério dos mínimos quadrados” que indica como melhor função ajustante aquela que minimiza
a soma dos quadrados das diferenças entre os valores observados (Yi) e os estimados (Ýi) pelas
respectivas funções: ∑ (Yi – Ýi) 2 = mínimo.

5.1.Regressão da linear

Equação de regressão: Yi =  +  X

É indicada quando a representação dos pontos observados em um diagrama de dispersão


apresenta uma sequência rectilínea. Para determinar os coeficientes “a” e “b” recorre-se ao

método dos mínimos quadrados (Y – Ý) 2 = mínimo. Sendo: Y = valor observado;

Ýi = valor estimado pela equação de regressão.

5.2.Características

➢ Diferentes rectas podem ser traçadas, a olho nu, e um diagrama de dispersão. Cada
pessoa terá uma tendência diferente Nenhuma recta passará exactamente por todos
os pontos (se a correlação não for máxima).

➢ Precisamos encontrar uma recta que esteja tão próxima dos pontos quanto possível.
Os erros de predição para a recta são erros (direcção vertical)

➢ Seum diagrama de dispersão sugere uma relação linear, é de interesse representar


este padrão através de uma recta.

➢ Usa-se o método dos mínimos quadrados para ajustar uma recta de regressão ao
conjunto de pontos do diagrama.
➢ A recta de regressão descreve como uma variável resposta (dependente) y varia em relação a
uma variável explanatória (independente) x.

5.3.Variável
➢ Variável resposta (y) (dependente);
➢ Mede um resultado em um estudo;
➢ Variável explanatória (x)(independente;
➢ Procura explicar os resultados observados.

Na fórmula que descobre o valor de “b”, nós temos:

Σ= Se você não ta acostumado com os símbolos, é o seguinte, esse Σ é uma letra grega que na
matemática simboliza soma, e você vai somar o que? os valores que estão do lado desse Σ!
Xi*Yi: Aqui você vai pegar CADA valor dentro do seu X(tempo de serviço) e vai multiplicar pelo
seu Y(bônus mensal). Depois é só somar tudo como o Σ diz.

n: É a quantidade de linhas que você tem no seu dataset (sua tabela com dados histórico)

X barra: Esse é o símbolo do X com uma barra em cima, qualquer valor com essa barra em cima
significa a média de alguma coisa, nesse caso, a média de X(tempo de serviço)

Y barra: Esse é o símbolo do Y com uma barra em cima, qualquer valor com essa barra em cima
significa a média de alguma coisa, nesse caso, a média de Y(bônus mensal).

Σx²: É a somatória de X(tempo de serviço) elevado ao quadrado, então pega cada valor do tempo
de serviço, eleva ao quadrado e depois soma tudo.

n * x barra ²: É o numero de linhas que você esta usando, multiplicado pela média de X elevado
ao quadrado

Na fórmula que descobre o valor de “a”, nós temos:

Média de Y: Esse valor se refere à média dos dados que você quer descobrir, então se você quer
descobrir o bônus mensal através dos meses de serviço, então tira a media dos valores dos bônus e
pronto, você tem o valor dessa variável ai.

Média de b*X: É quase a mesma coisa que a média de Y, você junta os valores de X que são os
dados que você vai usar pra fazer suas predições, tira a média e multiplica pelo valor de B(que
você já descobriu)

No fim, quando terminarmos de calcular todos esse valores, é só jogar eles na fórmula:
6. Conclusão
Correlação é o estudo do grau de associação entre variáveis. Na correlação interessa observar se
duas ou mais variáveis são independentes ou variam juntas. Como o objectivo de análise de
correlação é medir a intensidade de relação entre as variáveis, você deve estar atento aos
princípios desta relação. Nas correlações supostamente lógicas, as relações causais se
compreendem claramente. Nas chamadas correlações ilusórias não se encontra nenhuma conexão
razoável entre as variáveis. De acordo com a relação entre as variáveis a correlação linear pode
ser: directa ou positiva, indirecta ou negativa e nula.

O diagrama de dispersão indica a forma da relação entre as variáveis estudadas e proporciona


uma boa visão sobre as funções de regressão a serem utilizadas. Mas para melhor qualificar esta
aproximação é necessário determinar o coeficiente de correlação entre as variáveis, cujo valor
sempre está em um intervalo entre menos um a mais um, e escolher a equação de regressão mais
adequada.

A função de regressão pode ser obtida a partir do estudo da correlação, bem como a partir da
aplicação dos mínimos quadrados entre os valores observados e os esperados da variável
dependente. Dispondo da equação de regressão você deve calcular a variância residual e
consequentemente o erro de estimativa para cada regressão. Uma boa regressão sempre trabalha
com uma margem de erro menor do que 10% e quanto mais próximo de “zero” estiver este erro
melhor é a equação de regressão.
7. Bibliografia

BUSSAB, W. O.; MORETTIN, P. A. Estatística Básica, 5a Edição, São Paulo: Saraiva, 2005.

FISHER, R. A. On the Mathematical Foundations of Theoretical Statistics.


Philosophical Transac- tions of the Royal Society, A, v.222, p.309-368, 1922.

FISHER, R. A. Statistical methods for research workers. Edinburgh: Oliver and Boyd,
1925. (Bio- logical monographs and manuals, n.5)

Você também pode gostar