Você está na página 1de 13

Índice

1. Introdução ................................................................................................................................ 2

2. Regressão linear ....................................................................................................................... 3

2.1. Mínimos quadrantes ......................................................................................................... 4

2.2. Modelo de suposição e erro padrão .................................................................................. 5

2.4. Intervalo de confiança ...................................................................................................... 6

2.4.1. Previsão ..................................................................................................................... 6

2.5. Coeficiente de determinação ............................................................................................ 6

2.6. Teste de hipóteses............................................................................................................. 6

2.6.1. Teste de hipótese na regressão linear ........................................................................ 7

3. Conclusão .............................................................................................................................. 11

4. Referencias Bibliográficas ..................................................................................................... 12

1
1. Introdução
O presente trabalho de caracter avaliativo da disciplina de estatística que tem como tema Modelo
de regressão linear simples. Trabalho este que tem como principal objetivo de fazer o estudo da
relação existente entre duas variáveis, através da coleta de dados (no campo), isto é na mercearia
do senhor Alfredo localizada no bairro da expansão, trabalho este que tem como importância de,
para mas compreensão a ver ao longo do desenvolvimento do trabalho, e para realização do
trabalho foi usada a pesquisa bibliográfica, que consistiu na consulta de diversas obras contendo
informações relacionado ao tema.

2
2. Regressão linear
Segundo Stock e Watson (2004) “É uma equação para se estimar a condicional (valor esperado)
de uma variável Y, dados os valores de algumas outras variáveis x” (p. 63).

Regressão essa que em geral trata da questão de se estimar um valor condicional não esperado.

Na perspectiva de Kazmier (1982), a regressão linear e chamada de linear porque considera que a
relação da resposta as variáveis e uma função linear de alguns parâmetros. Os modelos de
regressão.

Para Gujarati (2000), para se estimar o valor esperado, usa-se de uma equação, que determina a
Relação entre ambas variáveis.

𝑦𝑖 = 𝛼 + 𝛽𝑥𝑖 + 𝜖𝑖

Em que, 𝑦𝑖 − 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑎 (𝑑𝑒𝑝𝑒𝑛𝑑𝑒𝑛𝑡𝑒); 𝑒 𝑜 𝑣𝑎𝑙𝑜𝑟 𝑒𝑚 𝑞𝑢𝑒 𝑞𝑢𝑒𝑟 𝑎𝑡𝑖𝑛𝑔𝑖𝑟;

𝛼- E uma constante, que representa a intercepção da reta com eixo vertical;

𝛽- E outra constante que representa declínios (coeficiente angular) da rectal;

𝑥𝑖 - Variável explicativa (independente), que representa factor explicativo na equação e 𝜖𝑖 -


Variável; que inclui todos factores residuais, mas os possiveis erros de medição. O seu
comportamento e aleatórios devido a natureza que o encera. Para que essa formula seja aplicada,
os erros devem satisfazer determinadas hipótese, que são: serem variáveis normais com mesma
variância (desconhecida), independentes e independentes da variável explicativa x (Bentos,
Carlos, João & Carlos, 2010, P. 529).

Portanto, A análise de regressão estuda a relação entre uma variável chamada a variável
dependente e outras variáveis chamadas variáveis independentes. A relação entre elas é
representada por um modelo matemático, que associa a variável dependente com as variáveis
independentes. Este modelo é designado por modelo de regressão linear simples (MRLS) se
define uma relação linear entre a variável dependente e uma variável independente.

3
2.1. Mínimos quadrantes
Segundo Hoffmann (2016) “modelos de mínimos quadrantes fosse em estimar a media de uma
variável seja a media dos valores observados em uma amostra. Em situações um pouco mas
complicados será necessário recorrer a um método de determinação de estimadores, como o
método dos mínimos quadrados ou método de máxima verossimilhança “ (p.19).

O método de mínimos quadrantes consiste em adotar os estimadores que minimizam a soma dos
quadrados dos desvios entre valores estimados e valores observados da amostra.

Mostraremos que os media altimétrica dos valores da amostra é um estimador de mínimos


quadrados. Para tanto determinaremos o valor de a igual a zero, obtemos:

2 ∑(𝑥𝑖 − 𝑎)(−1) = 0

∑ 𝒙𝒊 − 𝒏𝒂 = 𝟎

Donde:

∑ 𝒙𝒊
𝒂= = 𝒙.
𝒏

É interessante notar que o método de mínimos quadrados conduz a média altimétrica, mas que
existem outros critérios associados as demais medidas de tendência central. Assim, para
minimizar o valor absoluto do maior desvio, devemos adotar o ponto central entre os extremos
(ponto medio entre o maior e menor); e para minimizar a soma dos valores absolutos dos desvios
devemos adotar a mediana (Hoffmann, 2016, p. 19).

Noutro lado, entende-se que o método dos mínimos quadrados consiste na obtenção dos
̂1 𝑒 𝛽
estimadores dos coeficientes de regressão𝛽 ̂2 Minimizando os resíduos do modelo de
regressão linear, calculados como a diferença entre os valores observados 𝑦𝑖 , e os valores
̂𝑖 .
estimados 𝑌

4
2.2. Modelo de suposição e erro padrão
Na perspectiva de Kazmier (1982), é um desvio padrão condicional, na medida em que indica o
desvio padrão da variável dependente Y, dado um valor específico da variável dependente X. O
erro padrão de estimação baseado em dados amostrais é representado por 𝑠𝑦 . 𝑥 E a sua fórmula é
a seguinte:

∑(𝑌−𝑌̂𝑖 )
𝑠𝑦 . 𝑥 𝑜𝑢 𝑠𝑥 = √ 𝑛−2

Onde: 𝑠𝑦 . 𝑥 𝑜𝑢 𝑠𝑥 – É o erro padrão;

n – é o tamanho da amostra.

O erro padrão de estimação pode ser usado para estabelecer um intervalo de predição para a
variável dependente, dado um valor específico da variável independente (p. 301).

Noutro lado, O erro padrão da estimativa, é o desvio padrão dos valores previstos da variável
dependente ao redor da linha de regressão estimada. Ele ajuda a verificar a confiabilidade da
média amostral calculada.

2.3.Teste de significância da inclinação e do intercepto

Na perspectiva de Gujarati (2000), “significância é um procedimento os resultados da amostra


são usados para verificar a validade ou a falsidade uma hipótese nula. A base deste teste de
significância é a distribuição de amostragem da estatística conforme a hipótese nula. O
aceitamento ou a rejeição da hipótese nula (𝐻0 ), É feita com base no valor da do teste estatístico
obtido com os dados disponíveis” (p. 114).

A fórmula para o teste de significância é a seguinte:

̂ −𝛽 ̂2 −𝛽2 )√∑ 𝑥 2
(𝛽
𝛽2 2 𝑖
𝑡 = 𝑒𝑝(𝛽
̂ )= ̂
2 𝜎

Com distribuição de t com 𝑛 − 2 (grau de liberdade). Se o valor do verdadeiro 𝛽̂2 Estiver


especificado sob a hipótese nula, o valor de t pode ser facilmente calculado a partir da amostra
disponível, e portanto pode ser como uma estatística de teste.

5
Noutro lado, entende-se por teste de significância como sendo um procedimento para verificar a
divergência de uma hipótese estatística em relação aos dados observados, utilizando uma medida
de evidência.

2.4. Intervalo de confiança


Intervalo de confiança é um tipo de estimativa por intervalo de um parâmetro populacional
desconhecido.

2.4.1. Previsão
Na perspectiva de Gujarati (2000), previsão é usar regressão envolve fazer predições acerca do
variável dependente baseado nas relações médias observadas na regressão estimada.

Uma aplicação muito importante de um modelo de regressão é a previsão de novas ou futuras


observações de 𝑦, (𝑦𝑖 (𝑥)) correspondente a um dado valor da variável explicativa 𝑥, 𝑥𝑖 .

2.5. Coeficiente de determinação


Para Kazmier (1982), “ o coeficiente de determinação também conhecido como 𝑟 2 , Para o caso
de regressão linear simples, fornece uma informação auxiliar ao resultado da análise de variância
da regressão” (p. 304).

Apresentando a seguir como uma maneira de se verificar se o modelo proposto é adequado ou


não para descrever o fenómeno.
𝑠𝑞 𝑟𝑒𝑔
É obtido por: 𝑟 2 = 𝑠𝑞 𝑡𝑜𝑡𝑎𝑙

O valor 𝑟 2 Varia no intervalo de 0 a 1. Os valores próximos de 1 indicam que o modelo proposto


é adequado para descrever o fenómeno.

2.6. Teste de hipóteses


Segundo Murteira, Ribeiro, Silva & Pimenta (2010) “ o problema de testes de hipóteses
estatístico pode ser exposto simplesmente assim: uma dada observação ou descoberta e
compatível ou não com alguma hipótese” (p.111).

Na linguagem estatística, a hipótese formulada é conhecida como hipótese nula, indicada pelo
símbolo 𝐻0 . A hipótese nula é usualmente testada contra uma hipótese alternativa (também

6
conhecida como hipótese sustentada), indicada por 𝐻1 , Que pode afirmar por exemplo, que a
verdadeiro 𝛽2 é Diferente de 1. A hipótese alternativa pode ser simples ou composta.

Portanto, entende-se por teste de hipótese como sendo um procedimento que permite tomar
decisão (aceitar a hipótese nula 𝐻0 ) Entre duas ou mais hipóteses (hipótese nula 𝐻0 Ou hipótese
alternativa 𝐻1 ), Utilizando os dados observados de um determinado experimento.

2.6.1. Teste de hipótese na regressão linear


Segundo Gujarati (2000), “é a verificação adequada por meios de teste de hipótese para os
parâmetros do modelo ou a construção de intervalo de confianças”.

Para tal precisamos de pressuposição adicional de que os erros tenham dist1ribuição normal.

Como temos dois parâmetros no modelo. 𝑦𝑖 = 𝛽0 + 𝛽1 + 𝑒𝑖 , Poderíamos realizar os seguintes


testes:

a) 𝐻𝑜 : 𝛽1 = 𝛽1 𝑣𝑒𝑟𝑠𝑜𝑠 𝐻𝑎 : 𝛽1 ≠ 𝛽1
b) 𝐻0 : 𝛽0 = 𝛽0 𝑣𝑒𝑟𝑠𝑜𝑠 𝐻𝑎 : 𝛽0 ≠ 𝛽0

Um caso especial muito importante seria: 𝐻0 : 𝛽1 = 0 𝑣𝑒𝑟𝑠𝑜𝑠 𝐻𝑎 : 𝛽1 ≠ 0.

Essas hipóteses estão relacionadas com a significância da regressão. Não rejeitar


𝐻0 é Equivalente a concluir que não há relação linear entre x e y.

Por outro lado, se 𝐻0 : 𝛽1 = 0 For rejeitado indicaria que x é importante para explicar a
variabilidade em y.

Coeficiente de Correlação linear

Segundo Triola (2005) “coeficiente de correlação r mede a intensidade da relação linear entre os
valores quantitativos emparelhados x e y em uma amostra” (p.382).

Apos a recolha de dados do senhor Alfredo Constantino em função do preço de seus perfumes.
Procura-se fazer um estudo entre a oferta do seu produto (perfume) e a demanda desses mesmos
produtos.

7
Segundo Mochon (2007), “a função oferta reflete, a relação matemática entre a quantidade
ofertada de um bem, e o seu preço e as demais variáveis que influenciam as decisões de
produção” (p. 24).

Função : Y=β1-β2 xi+μi⇒

N Y X Xi Yi Xi2 Yi2 Xi .Yi 𝑌̂ 𝑢2 (𝑌̂ − 𝑌̅)


2

Janeiro 50 300 -80 12,6 6.900 158,76 -1008 42,1 62,41 22,09
Fevereiro 48 300 -80 10,6 6.900 112,36 -848 42,1 34,81 22,09
Março 50 300 -80 12,6 6.900 158,76 -1008 42,1 62,41 22,09
Abril 49 300 -80 11,6 6.900 134,56 -928 42,1 47,61 22,09
Maio 40 300 -80 2,6 6.900 6,76 -208 42,1 41,41 22,09
Junho 39 300 -80 1,6 6.900 2,56 -128 42,1 9,61 22,09
Julho 38 500 120 0,6 14.400 0,36 77 30,3 75,68 50,41
Agosto 41 500 120 3,6 14.400 12,96 432 30,3 56,29 50,41
Setembro 30 500 120 -7,6 14.400 54,76 -888 30,3 0,09 50,41
Outubro 28 500 120 -9,6 14.400 88,36 -1128 30,3 5,29 50,41
ℰ 374 3.800 – - 96.000 703,2 -5705 373,8 361,62 334,18
Media 37,4 380

374 3.800
𝑦̅ = = 37,4 𝑥̅ = = 380
10 10

∑(𝑥𝑖 −𝑦𝑖 ) −5705


𝛽2 = ∑(𝑥 2 )
⇒ = −0,059427083
96000

𝛽1 = 𝑦̅ − 𝛽2 𝑥̅ ⇒ 37,4 − (−0,059 ∗ 380) = 59,8

∑(𝑥𝑖 −𝑦𝑖 ) −5705 −5705 −5705


𝑟= ⇒ ⇒ ⇒ 8372,5265
√(𝑥𝑖 )2 ∗(𝑦𝑖 )2 √96000∗730,2 √70099200

= −0,6813952753 ∗ 100 =∗ 68,13952753

𝑟 2 = (𝑟)2 ⇒ (∗ 0,9813952753)2 = 0,464299521 ∗ 100 = 46,4299521

8
Segundo Larson & Farber (2010) “se r esta próximo de 1 a relação existente é positiva e forte, se
r esta próximo de -1 a relação existente é negativa e se r estiver próximo de zero não existe
relação entre as variáveis” (p. 398).

Na optica do autor acima citado, conforme a correlação das variáveis (preço e demanda) conclui-
se que com o aumento do preço dos produtos, a demanda tem a tendência de diminuir. Isto é a
relação existente entre ambos é uma relação negativa e forte.

𝑚𝑜𝑑𝑒𝑙𝑜: 𝑌1 = 𝛽1 − 𝛽2 𝑥𝑖 + 𝜇𝑖 ⇒ 59,8 − 0,059𝑥𝑖 + 𝜇𝑖

𝑡𝛼 ∑ 𝑥2
𝐼𝐶: [𝛽1 ± ∗ 𝐸𝑝𝛽1 ] 𝐸𝑝𝛽1 = 𝑛∗∑(𝑥 2 ) ∗ 𝛿 2
2 𝑖

1540.000
𝐼𝐶: [59,8 ± 2,262 ∗ 10,37] 𝐸𝑝𝛽1 = 10 ∗ 96000 ∗ √41,7725

1.540.000 ∗ 6,463164859
𝐼𝐶: [59,8 ± 23,45694] 𝐸𝑝𝛽1 = 960.000

𝐼𝐶: [36,3406 ; 83,25694] 𝐸𝑝𝛽1 = 10,3779

∑ 𝑢2 334,18
𝛿= ⇒ = 41,7725
𝑛−2 10−2

Teste de hipótese

1º Passo: 𝐻0 : 𝛽1 = 0 ; 𝐻1 : 𝛽1 ≠ 0

2º Passo: 𝛼: 0,05

3º Passo: 𝑔𝑙 = 10 − 1 = 9

0,05
4º Passo: 𝑡𝛼 = = 0.025
2 2

̂
𝛽 59,8
5º Passo: 𝑡𝛽1 = 𝐸𝑝𝛽1 = 10,3779 = 5,77
1

6º Passo:

9
−2,262 0 2,262

7º Passo: rejeitamos a hipótese

8º Passo: existem evidências que o parâmetro não é significativo a um nível de significância de


5%.

Teste de hipótese

𝛿 41,7725
1º Passo: 𝐻0 : 𝛽2 = 0 ; 𝐻1 : 𝛽2 ≠ 0 𝐸𝑝𝛽2 = = = 0,00043513
√𝑥𝑖2 √96.000

2º Passo: 𝛼: 0,05

3º Passo: 𝑔𝑙 = 10 − 1 = 9

0,05
4º Passo: 𝑡𝛼 = = 0.025
2 2

̂
𝛽 −0,0594
5º Passo: 𝑡𝛽2 = 𝐸𝑝𝛽2 = 0,00043513 = −136,5109278
2

6º Passo:

−2,262 0 2,262

7º Passo: rejeitamos a hipótese

10
8º Passo: existem evidências que o parâmetro não é significativo a um nível de significância de
5%.

O coeficiente da variável positiva indica que quando os preços aumentam em uma unidade, a
procura tende a diminuir em 0,059, cabe mencionar que estabelecida e testada a equação de
regressão, a mesma poderá explicar o relacionamento entra as variáveis estimadas, e pode-se
notar que a relação entre as variáveis é positiva.

3. Conclusão
Chegado a esse ponto é importante concluir que, A análise de regressão estuda a relação entre
uma variável chamada a variável dependente e outras variáveis chamadas variáveis
independentes. A relação entre elas é representada por um modelo matemático, que associa a
variável dependente com as variáveis independentes. Este modelo é designado por modelo de
regressão linear simples (MRLS) se define uma relação linear entre a variável dependente e uma
variável independente. Os métodos de min9imos quadrados é uma técnica de otimização
matemática que procura encontrar o melhor ajuste para um conjunto de dados tentando
minimizar a soma dos quadrados das deferências entre o valor estimado e os dados observados.
Teste de hipótese é um procedimento que permite tomar decisão (aceitar a hipótese nula H_0)
entre duas ou mais hipóteses (hipótese nula H_0 ou hipótese alternativa H_1), utilizando os
dados observados de um determinado experimento.

11
4. Referencias Bibliográficas
Bentos., M., Carlos., S., R., João., A., S., & Carlos., P (2010). Introdução a Estatística. Lisboa,
Portugal: Escolar Editoras.

Gujarati., D., N (2000) Econometria Básica. São Paulo, Brasil: Pearson Makron Books.

Kazmier., j., L (1982). Estatística aplicada à economia. São Paulo, Brasil: Pearson Makron
Books.

Mochon., F (2007). Princípios da economia. São Paulo, Brasil: Pearson Prentice Hall.

12
Apêndice

13

Você também pode gostar