Você está na página 1de 15

LEONARDO LPEZ C.

ECONOMIA ESTADISTICA COMPUTARIZADA


PARALELO: 261

Este tipo se presenta cuando dos o ms variables independientes


influyen sobre una variable dependiente. Ejemplo: Y = f(x, w, z).

Objetivo: Se presentara primero el anlisis de regresin mltiple al


desarrollar y explicar el uso de la ecuacin de regresin mltiple,
as como el error estndar mltiple de estimacin. Despus se
medir la fuerza de la relacin entre las variables independientes,
utilizando los coeficientes mltiples de determinacin.

Dispone de una ecuacin con dos variables independientes


adicionales:

Se puede ampliar para cualquier nmero "m" de variables


independientes:

Para poder resolver y obtener y en una ecuacin de regresin


mltiple el clculo se presenta muy tediosa porque se tiene atender
3 ecuaciones que se generan por el mtodo de mnimo de
cuadrados:

El error estndar
Es una medida de dispersin la estimacin se hace ms precisa
conforme el grado de dispersin alrededor del plano de regresin
se hace mas pequeo.
Para medirla se utiliza la formula:

Y : Valores observados en la muestra


: Valores estimados a partir a partir de la ecuacin de
regresin
n : Nmero de datos
m : Nmero de variables independientes

El coeficiente de determinacin mltiple


Mide la tasa porcentual de los cambios de Y que pueden ser
explicados por X1, X2 y X3 simultneamente.

La hiptesis de normalidad afirma que los errores del


modelo siguen una distribucin normal. Esta hiptesis se contrasta
a partir de los residuos estandarizados i = 1n.
Grficos para observar la normalidad son: el histograma, estimador
ncleo de la densidad de Rosenblatt-Parzen, grfico p - p y
grfico q - q.
Contrastes de normalidad son: contraste de asimetra y kurtosis,
contraste chi-cuadrado, contraste de Kolmogorov-Smirnov-Liliefors.
La falta de normalidad influye en el modelo en:
Los estimadores mnimo-cuadrticos no son eficientes (de mnima
varianza).
Los intervalos de confianza de los parmetros del modelo y los
contrastes de significacin son solamente aproximados y no
exactos.

Causas que dan origen a la falta de normalidad son:


Existen observaciones heterogneas: el modelo especificado no es
correcto porque se han omitido variables regresoras
Existe asimetra en la distribucin: Este problema suele estar
relacionado con otros problemas como falta de linealidad o
heterocedasticidad, la solucin de transformar las observaciones
pueden resolverlos conjuntamente.

Una hiptesis del modelo de regresin es la homocedasticidad y


todo lo comentado sobre este problema en el modelo de regresin
lineal simple sigue siendo vlido en el modelo de regresin
lineal mltiple.
La falta de homocedasticidad influye en el modelo de regresin
lineal, los estimadores mnimo-cuadrticos siguen siendo centrados
pero no son eficientes y las frmulas de las varianzas de
los estimadores de los parmetros no son correctas. Por tanto no
pueden aplicarse los contrastes de significacin.

La heterocedasticidad se detecta en los grficos de residuos:


De forma general, en el grfico de residuos frente a las
predicciones .
En el grfico de residuos frente a una variable explicativa si se
sospecha que la heterocedasticidad es debida a la variable
explicativa Xj.
Si los grficos anteriores son dudosos se pueden hacer grupos de
los residuos ordenados de menor a mayor segn las predicciones y
en cada grupo calcular la media de las predicciones y la desviacin
tpica de los residuos . Si hay homocedasticidad, la nube de
puntos se ajusta a una recta horizontal, en caso contrario, es
necesario transformar los datos.
Existen contrastes especficos para contrastar la homocedasticidad.

La independencia de los errores es una hiptesis bsica en el estudio


de un modelo de regresin lineal.
La falta de cumplimiento de la hiptesis de independencia tiene
efectos graves sobre los resultados del estudio. Influye en:
Los estimadores son centrados pero ineficientes (no son de varianza
mnima).
El estimador R2 normalmente subestima el parmetro 2, lo que hace
que los contrastes de significacin (contrastes individuales de la t) no
sean vlidos y tienden a detectar relaciones inexistentes,
denominadas relaciones espreas, que son relaciones falsas entre
variables independientes que siguen una evolucin anloga en el
tiempo y tienen un R2 alto.
Las predicciones son ineficientes.
La falta de independencia se suele dar situaciones en que las
observaciones son recogidas secuencialmente en el tiempo. Esto
ocurre en el estudio de muchas variables econmicas, sociales y
demogrficas. En este caso la variable tiempo puede ser una variable
regresora.

Se detecta la falta de independencia en:

Los siguientes grficos: el grfico de residuos frente al ndice (o


tiempo), ; el grfico de frente a ; el grfico de la funcin de
autocorrelacin simple de los residuos (fas).

Los siguientes contrastes de independencia: el contraste de DurbinWatson sobre el primer coeficiente de correlacin; el contraste de
Ljung-Box sobre las autocorrelaciones que se consideren significativas.

Si existe dependencia entre las observaciones la metodologa descrita


para estudiar los modelos de regresin lineal general por mnimos
cuadrados ordinarios no es vlida y, en la mayora de las situaciones,
deben utilizarse tcnicas de series de tiempo y regresin dinmica.

En algunas situaciones se pueden estimar los parmetros del modelo


de regresin por el mtodo de mnimos cuadrados generalizados.

Se desea predecir el valor de la respuesta, Y , de un individuo del que


se sabe que = t , utilizando el ajuste de un modelo de regresin
lineal de la variable Y respecto al vector de variables regresoras .
El predictor
Prediccin, E

que minimiza el Error Cuadrtico Medio de


viene dado por:

Por tanto, la prediccin de Y t = Y/ = t es el mismo valor que se


obtiene en la estimacin de mt pero su varianza es mayor.

Você também pode gostar