Escolar Documentos
Profissional Documentos
Cultura Documentos
Assim, a estatística dispõe de inúmeras ferramentas que relacionam duas ou mais variáveis
permitindo a construção de modelos de análise e interpretação de dados. Neste âmbito,
importa explicar os modelos de regressão linear que, tradicionalmente, são os modelos que
permitem construir uma representação gráfica da relação entre duas variáveis X e Y, através de
uma recta crescente ou decrescente. Para tal, estes modelos apoiam-se no método dos
mínimos quadrados que, essencialmente, ajusta a recta e apresenta a que melhor espelha a
relação linear entre as duas variáveis que se pretendam estudar.
Portanto, no presente trabalho abordar-se-á sobre o método dos mínimos quadrados, numa
abordagem de regressão linear. O objectivo deste trabalho é caracterizar este método, visando
identificar e analisar os pontos de estimação e previsão e, portanto, explicar a relevância do
mesmo na formulação da equação da linha de regressão. Este trabalho foi realizado através de
pesquisa bibliográfica, incrementada com material consultado por via de internet, no sentido
de garantir coerência e objectividade no desenvolvimento do mesmo.
Adiante, Hoffmann (2006) define a regressão linear como a função que ilustra as alterações de
Y considerando a variável X. Associado a análise de regressão, o diagrama de dispersão que,
Para Larson e Farber (2010) e Kazmier (2004) é a representação gráfica dos pares ordenados
de X e Y, apresentados sob forma de pontos.
Mas segundo Kazmier (2004), para modelar os dados da melhor forma, é necessário
determinar o tipo de relação que as variáveis partilham e, assim, o autor afirma que a
correlação mede até que ponto duas variáveis podem estar relacionadas.
Explicando, Larson e Farber (2010) destacam que os pares ordenados de x e y podem ser
representados num diagrama de dispersão, no sentido de verificar se existe uma correlação
linear entre as variáveis e, fundamentalmente, o tipo de correlação existente. Entretanto, os
mesmos autores mencionam que encontrar a correlação entre duas variáveis através do
diagrama de dispersão pode ser subentendido, ou seja, é relativo ao facto de que cada analista
poderá trazer um ponto de vista diferente. Por esta razão, referem que a forma mais adequada
e eficaz o nível de correlação linear entre duas variáveis é determinar o coeficiente de
correlação.
Por conseguinte, o método dos mínimos, para Larson e Farber (2010), “é a linha de regressão,
também chamada de linha de melhor ajuste, é a linha para a qual a soma dos quadrados dos
resíduos é um mínimo” (p.409).
Assim, é uma técnica estatística utilizada para ajustar e adequar a recta que representa um
conjunto de dados, fazendo com que a soma dos quadrados das diferenças entre os valores das
amostras observadas e os valores estimados seja a menor possível, ou seja, minimiza os
resíduos na distância entre esses dois pontos. Assim, Triola (2005) explica que “para uma
mostra emparelhada (x, y), um resíduo é a diferença ( y− ^y ¿ entre um valor amostral y
observado e o valor de ^y , que é o valor de y previsto pelo uso da equação da regressão”
(p.402).
Desta forma, esta equação da recta ajustada e amostral é representada da seguinte forma:
^y =mx+b
m=
n ∑ xy−(∑ x)(∑ y )
2 2 b= y−m x=
∑ y −m ∑ x
n ∑ x −(∑ x) n n
Adiante, Hill, Griffiths e Judge (2010) explicam que “considerando os valores amostrais de y
e x, aplicados na expressão resolvente de b 1 e b 2, obtém-se as estimativas dos mínimos
2
quadrados dos parâmetros b 2 (declive da recta) e b 1 (intercepto de y)” (p.61). Assim, os
pontos de estimação do método dos mínimos quadrados são os parâmetros m e b que,
essencialmente, representam os pontos desconhecidos da recta de regressão que permitem
estimar e prever os valores de y em função dos valores de x.
Por conseguinte, Hill, Griffiths e Judge (2010) afirmam que “as propriedades amostrais dos
estimadores acima (o valor esperado e variância) ilustram os intervalos de valores que b 1 e b 2
provavelmente tomarão. O conhecimento desses intervalos é importante porque o objectivo é
obter estimativas próximas dos verdadeiros valores dos parâmetros” (p.78). Portanto, uma vez
que as fórmulas para o cálculo das médias amostrais destes parâmetros já foram apresentadas,
Gujarati (2000) apresenta as seguintes fórmulas para variância:
^β = ∑ Xi 2 ×σ 2 ^β 2= σ2
onde, σ
2 ∑e
=
^2
1
n ∑ Xi
2
∑ Xi 2 n−2
Todavia, Gujarati (2000) destaca que o método dos mínimos quadrados estima os seus
parâmetros em função de dados amostrais e, deste modo, diferentes amostras produzem
diferentes estimativas. Assim, é necessário avaliar a qualidade da aproximação da recta
ajustada à realidade, ou seja, testar a precisão dos estimadores e, para tal, recorre-se ao erro
padrão das estimativas.
Mas para Triola (2005), “o erro padrão da estimativa é uma medida das diferenças (ou
distâncias) entre os valores amostrais de y observados e os valores preditos, que são obtidos
com o uso da recta de regressão” (p.410). Assim, o erro de estimativa compreende o valor
pelo qual se pode assumir um erro na previsão de intervalos de y em função do valor previsto
^y .
√ ∑ X i2 ×σ
√
^β 2= σ ∑ e^ 2
^β = onde, σ =
1
n ∑ X i2 √∑ X i
2
n−2
Portanto, o autor explica que quanto mais próximo o erro padrão ou desvio padrão da recta de
regressão, mais aproximada a realidade e aos valores verdadeiros a equação se encontra.
Associado aos pressupostos acima, Ribeiro (2014) realça que “as principais propriedades do
estimador b são: não enviesamento, linearidade e eficiência. Estas propriedades designam-se
exactas, uma vez que são verdadeiras qualquer que seja o número n de observações” (p.94).
3
Explicando, Gujarati (2000) afirma que estas propriedades integram a teoria de Gauss-
Markov, onde se considera que o coeficiente angular da recta de mínimos quadrados é o
estimador que melhor se aproxima do coeficiente angular da recta de regressão populacional.
Deste modo, Ribeiro (2014) afirma que “o estimador de MQ de β , b (m), condicionado ou não
por X, é não enviesado ou centrado. Assim, E ( b| X )=β ou E ( b ) =β . Pode, então, afirmar-se
que o não enviesamento de b garante que este estimador é correcto em média” (p.95).
Por fim, Gujarati (2000) explica que um estimador é eficiente quando “tem mínima variância
na classe de todos os estimadores lineares não-viesados; um estimador não-viesado é
conhecido com menor variância é conhecido como estimador eficiente” (p.62).
Exemplo: considere a relação entre a altura (em cm) e peso (em kg) de 12 estudantes
universitários:
4
(12 ×124.258)−(802 ×1850) 1850 802
m= =3,22 b= −3,22× =−61,04
12× 53.792−643.204 12 12
2 677,7568
A variância será: σ = =67,77568 o erro padrão: σ =√ 67,77568=8,23
12−2
53.792
Assim, a variância dos parâmetros serão: ^β 1= ×67,77568=5,65
12×53.792
^β 2= 8,23 =0,035
√53.792
Portanto, o aumento do peso dos estudantes em 1kg, estima-se aproximadamente um aumento
em 3,22 cm de altura em cada estudante e, deste modo, o erro padrão de estimativa ilustra que
a recta dos mínimos quadrados aproxima razoavelmente os valores a realidade.
Assim, conclui-se que o método dos mínimos quadrados e um método eficiente para
construção da equação da linha de regressão, pois permite minimizar os resíduos das
distancias entre os pontos tabelados de X e Y e os pontos onde a recta passa. Deste modo,
importa salientar que para aplicar o método dos mínimos quadrados é necessário existir uma
relação linear satisfatória entre as variáveis que se pretendem estudar, pois esta dita se de
facto existe um relacionamento plausível e explicável entre X e Y.
6
Referências Bibliográficas
Gujarati, D.N. (2000). Econometria básica. (3ª. ed.). São Paulo, Brasil: Pearson.
Hill, R.C., Griffiths, W.E. & Judge, G.G. (2010). Econometria. (3ª. ed.). São Paulo, Brasil:
Editora saraiva.
Hoffmann, R. (2006). Estatística para economistas. (4ª. ed.). São Paulo, Brasil: Pioneira
Thomson Learning.
Kazmier, L.J. (2004). Estatística aplicada à economia e administração. São Paulo, Brasil:
Pearson Makron Books.
Larson, R. & Farber, B. (2010). Estatística aplicada. (4ª. ed.). São Paulo, Brasil: Pearson
Prentice Hall.
Ribeiro, C.S. (2014). Econometria. Lisboa, Portugal: Escolar editora.
Spiegel, M.R. (1993). Estatística. (3ª. ed.). São Paulo, Brasil: Pearson Makron Books.
Triola, M.F. (2005). Introdução à Estatística. (9ª. ed.). Rio de Janeiro, Brasil: LTC editora.