Você está na página 1de 29

ADMISTRAÇÃO DE EMPRESAS

REGRESSÃO LINEAR SIMPLES

Prof. Me Roberto Guerra


Professor Me Roberto Guerra.

Graduado em Engenharia civil e Licenciado em


matemática;
Mestre em Engenharia civil;
Doutorando em Engenharia Civil;
Professor de Matemática e Engenharia.
DEFINIÇÃO

A regressão linear simples é uma espécie de modelo na estatística cujo


objetivo é indicar qual será o comportamento de uma variável
dependente (Y) como uma função que contenha uma ou mais
variáveis independentes (X).
ANÁLISE DE REGRESSÃO LINEAR SIMPLES
A análise de regressão simples tem como resultado uma
equação matemática que descreve o relacionamento entre
duas variáveis. Essas equações são usadas em situações
em que se deseja:
• estimar valores de uma variável com base em valores
conhecidos de outra;
• explicar valores de uma variável em termos de outra;
• predizer valores futuros de uma variável.
ANÁLISE DE REGRESSÃO LINEAR SIMPLES

Duas importantes características da equação linear devem


ser destacadas : o coeficiente angular da reta e a cota da
reta em determinado ponto (também chamado de
coeficiente linear, ou simplesmente intercepto).
DEFINIÇÕES IMPORTANTES
Variável Dependente: É a variável não controlada em um
experimento, sendo, por definição, aleatórias seus valores.
É também chamada de variável endógena ou explicativa.
Variável Independente: É a variável que pode ser
controlada em um experimento. Em outras palavras, seus
valores são exatos. É também conhecida por variável
exógena.
MODELO DE REGRESSÃO LINEAR

O modelo linear simples é o que contém apenas uma variável


independente. Sua equação básica é a seguinte:

𝒀𝒊 = ∝ + 𝜷. 𝑿𝒊 + 𝜺𝒊 , 𝒐𝒏𝒅𝒆 (𝒊 = 𝟏, 𝟐, 𝟑, … , 𝒏)

onde Yi é a variável dependente, Xi é a variável explicativa


(independente), 𝜺𝒊 é o termo aleatório e ∝ 𝑒 𝛽 são os
parâmetros a serem estimados.
PRESSUPOSTOS DO MODELO DE REGRESSÃO
LINEAR SIMPLES
- A variável 𝜺𝒊 é real e aleatória.
• A variável aleatória ti possui média zero, isto é, E(𝜺𝒊) = O.
• A variável aleatória t; possui variância constante, ou, seja
Var(𝜺𝒊) = 𝜎 2 .
• A covariância entre quaisquer duas variáveis 𝜺𝒊 e 𝜺j é nula.
• A variável aleatória t; tem distribuição normal: 𝜺𝒊 ~ N(O, 𝜎 2 ) .
• 𝜺𝒊 e Xi são independentes, ou seja, E(𝜺𝒊 Xi) = O.
ESTIMAÇÃO DOS PARÂMETROS
• Para determinação dos estimadores do modelo de regressão
existem vários métodos dos quais sobressai-se o de mínimos
quadrados. Ele tem por objetivo obter estimativas dos
parâmetros ∝ 𝒆 𝜷 de sorte que a soma dos quadrados desses
desvios seja mínima.
• Assim, adotado o modelo linear:
𝒀 = ∝ + 𝜷𝑿 + 𝜺𝒊
ESTIMAÇÃO DOS PARÂMETROS
• Será necessário estimarmos parâmetros ∝ 𝒆 𝜷 para ∝ 𝒆 𝜷 a
partir de n pares de observações (Xi,Yi), i = 1 , 2, 3, . . . ,n.
Dessa forma obteremos uma estimativa do modelo adotado
por meio da fórmula:
Y = a + bX
• onde Y (lê-se Y chapéu) será o estimador de Y (por
conveniência os índices i = 1, 2, 3, . . . ,n das variáveis X, Y
foram abandonados)
ESTIMAÇÃO DOS PARÂMETROS
• Para um dado valor X, existe uma diferença t; entre o valor Y
observado e seu correspondente valor estimado Y , fornecido
pela reta de regressão estimada. Simbolicamente:
𝜀𝑖 = 𝑌 − 𝑌෠ = 𝑌 − (𝑎 + 𝑏𝑌)
ESTIMAÇÃO DOS PARÂMETROS
• Como o método de mínimos quadrados consiste em
determinar valores de a e b deCsorte que a soma dos
quadrados dos erros Ei seja mínima:

• deveremos ter as derivadas parciais de S em relação a a e b


iguais a zero:
ESTIMAÇÃO DOS PARÂMETROS
Dessa forma obtemos o sistema de equações a seguir:

Que são conhecidas por equações normais para a obtenção de a e b.


ESTIMAÇÃO DOS PARÂMETROS
Resolvendo o sistema de equações normais (II) e (Ili), encontramos os
valores dos coeficientes a e b :

Onde:
COEFICIENTE DE CORRELAÇÃO LINEAR SIMPLES DE
PEARSON
O coeficiente de correlação simples de Pearson é geralmente representado pela
letra r, variando de - 1 a + 1 . Quando seu valor é - 1 , a correlação é perfeita
negativa: os valores altos em uma variável correspondem a valores baixos em
outras. Quando seu valor é + 1 , a correlação é perfeita positiva: valores altos em
uma variável correspondem a valores altos na outra. Quando seu valor é O, não
existe correlação.
Deve ser observado ainda que o coeficiente de correlação como medida de
intensidade de relação linear entre duas variáveis é apenas uma interpretação
puramente matemática, ficando, pois, isenta de qualquer implicação de causa e
efeito. Em outras palavras, o fato de que duas variáveis tendam a aumentar ou a
diminuir não pressupõe que uma delas exerça efeito direto ou indireto sobre a outra.
COEFICIENTE DE CORRELAÇÃO LINEAR SIMPLES DE
PEARSON
A fórmula genérica para seu cálculo pode assumir as formas:

onde X, Y são as variáveis já definidas anteriormente.


PROPRIEDADES DO COEFICIENTE DE CORRELAÇÃO
LINEAR DE PEARSON
- O coeficiente de correlação é um número adimensional, ou seja, independe das
unidades das variáveis X e Y.
- Somando ou subtraindo um valor constante qualquer a cada valor da variável X ou
da variável Y, ou de ambas, o coeficiente de correlação não se altera: r(aX, bY) =
r(X, Y)
- Multiplicando ou dividindo um valor constante qualquer a cada valor da variável X
ou da variável Y, ou de ambas, o coeficiente de correlação não se altera:
r(X + a, Y + b) = r(X, Y)
COEFICIENTE DE DETERMINAÇÃO OU EXPLICAÇÃO
O coeficiente de determinação R² indica quantos por cento a variação
explicada pela regressão representa da variação total. Quando R² = 1
todos pontos observados se situam exatamente sobre a curva de
regressão, ou seja, as variações de Y são 100% explicadas pelas
variações de X, não havendo, portanto, desvios em tomo da função
estimada. Por outro lado, se R² = O, as variações de Y são
exclusivamente aleatórias, e a introdução da variável X no modelo não
incorporará nenhuma informação sobre as variações de Y.
Portanto, deveremos ter:
COEFICIENTE DE DETERMINAÇÃO OU EXPLICAÇÃO
A fórmula genérica para seu cálculo pode assumir as formas:

Onde X e Y são variáveis já definidas anteriormente.


EXEMPLO 01
Considere duas variáveis X e Y, cuja amostra de cinco pares de
observações, está expressa na tabela seguinte:

Pede-se determinar o valor de K para que exista ausência de relação


linear entre as variáveis X e Y.
RESOLUÇÃO DO EXEMPLO 01
se as variáveis X e Y são ditas não correlacionadas, o coeficiente
angular da reta ajustada:

será, evidentemente, nulo. Assim sendo, a reta ajustada fica reduzida


a:
RESOLUÇÃO DO EXEMPLO 01
Sabemos que a fórmula genérica que nos permite calcular o
coeficiente angular da reta precedente é dada por:
RESOLUÇÃO DO EXEMPLO 01
Portanto, se b = O, então o numerador em (1) será nulo:
RESOLUÇÃO DO EXEMPLO 01

Substituindo os valores da tabela em (II), encontramos:

5 X (890 + 8 K ] = [130 + K ] X 35
890 + 8 K = 7 X [ 130 + K]
890 + 8 K = 9 1 0 + 7 K :. K = 20
EXEMPLO 02
Estudando-se a regressão linear simples dos preços unitários de
determinado produto Y (em R$) sobre o tempo X (em anos), obteve-se
a equação:
Y = k + 0,98X
Sabendo-se que a média dos tempos é seis anos e a média dos preços
é seis reais, pede-se determinar o valor do intercepto k.
RESOLUÇÃO DO EXERCÍCIO 02

Sabemos que a reta 𝑌passa ത 𝑌),
pelo ponto (𝑋, ത conforme o
problema precedente. Assim acontecendo, podemos escrever:
6 = k + 0,98 X 6
6 = k + 5,88
k = 6 - 5,88
k = 0, 1 2
EXERCÍCIO PROPOSTO DE CLASSE
Considere duas variáveis X e Y, cuja amostra de cinco pares
de observações, está expressa na tabela seguinte:

X 50 200 20 40 K 100 50 20 10
Y 150 100 20 10 10 20 60 30 10

Pede-se determinar o valor de K para que exista ausência de


relação linear entre as variáveis X e Y.
EXERCÍCIO PROPOSTO DE CLASSE
Estudando-se a regressão linear simples dos preços unitários
de determinado produto Y (em R$) sobre o tempo X (em
anos), obteve-se a equação:
Y = k + 1,58X
Sabendo-se que a média dos tempos é nove anos e a média
dos preços é quatro reais, pede-se determinar o valor do
intercepto k.
FIM
MUITO OBRIGADO A TODOS!!!
E UMA BOA DISCIPLINA...

Você também pode gostar