Você está na página 1de 5

Anlisis de regresin lineal simple

Antecedentes y desarrollo de conceptos


Uno de los aspectos ms relevantes de la Estadstica es el anlisis de la relacin o
dependencia entre variables. Frecuentemente resulta de inters conocer el efecto
que una o varias variables pueden causar sobre otra, e incluso predecir en mayor
o menor grado valores en una variable a partir de otra. Por ejemplo, supongamos
que la altura de los padres influyen significativamente en la de los hijos.
Podramos estar interesados en estimar la altura media de los hijos cuyos padres
presentan una determinada estatura. Los mtodos de regresin estudian la
construccin de modelos para explicar o representar la dependencia entre una
variable respuesta o dependiente (Y ) y la(s) variable(s) explicativa(s) o
dependiente(s), X . En este Tema abordaremos el modelo de regresin lineal, que
tiene lugar cuando la dependencia es de tipo lineal, y daremos respuesta a dos
cuestiones bsicas como el efecto que causa una variable X sobre otra Y, si es
significativa la dependencia entre esas dos variables , de esta forma utilizaremos
el modelo de regresin lineal simple para explicar y predecir la variable
dependiente de Y a partir de valores observados en la independiente X.
En el modelo de regresin suponemos que lo nico que posiblemente puede
cambiar , cuando cambia x, es la media condicional. En el modelo de regresin
lineal simple suponemos que la nica forma en que la media condicional puede
cambiar es a travez de la relacin
E(Y|X = )=B1+B2x1
para algunos valores desconocidos de B1 R1 la
coordenada en el origen y B2 R1, la pendiente. Nos referimos a B1 y B2 como
coeficientes de la regresin .
METODOLOGIA Y FORMULAS DE APLICACIN
La estructura del modelo de regresin lineal es la siguiente: Y = 0 + 1X +
En esta expresin estamos admitiendo que todos los factores o causas que
influyen en la variable respuesta Y pueden dividirse en dos grupos:
-El primero contiene a una variable explicativa X y el segundo incluye un conjunto
amplio de factores no controlados que englobaremos bajo el nombre de
perturbacin o error aleatorio, , que provoca que la dependencia entre las
variables dependiente e independiente no sea perfecta, sino que est sujeta a
incertidumbre.
Por ejemplo, en el consumo de gasolina de un vehculo (Y ) influyen la velocidad
(X) y una serie de factores como el efecto conductor, el tipo de carretera, las
condiciones ambientales, etc, que quedaran englobados en el error. Lo que en
primer lugar sera deseable en un modelo de regresin es que estos errores

aleatorios sean en media cero para cualquier valor x de X, es decir, E[/X = x] =


E[]=0, y por lo tanto: E[Y /X = x] = 0 + 1x + E[/X = x] = 0 + 1x
En dicha expresin se observa que:
La media de Y, para un valor fijo x, vara linealmente con x.
Para un valor x se predice un valor en Y dado por y = E[Y /X = x] = 0 + 1x,
por lo que el modelo de prediccin puede expresarse tambin como Y = 0 +
1X.
El parmetro 0 es la ordenada al origen del modelo (punto de corte con el eje Y)
y 1 la pendiente, que puede interpretarse como el incremento de la variable
dependiente por cada incremento en una unidad de la variable independiente.
Estos parmetros son desconocidos y habr que estimarlos de cara a realizar
predicciones. Adems de la hpotesis establecida sobre los errores de que en
media han de ser cero, se establecen las siguientes hiptesis:
ii) La varianza de es constante para cualquier valor de x, es decir, V ar(/X = x) =
2
iii) La distribucin de es normal, de media 0 y desviacin .
iv) Los errores asociados a los valores de Y son independientes unos de otros. En
consecuencia, la distribucin de Y para x fijo es normal, con varianza constante
2, y media que vara linealmente con x, dada por 0 + 1x. Adems los valores
de Y son independientes entre s.
Estimacin de parmetros
Partimos de una muestra de valores de X e Y medidos sobre n individuos: (x1, y1),
(x2, y2), ...,(xn,yn), y queremos estimar valores en Y segn el modelo Y = 0 +
1X, donde 0 y 1 son por el momento desconocidos.
Debemos encontrar entonces de entre todas las rectas la que mejor se ajuste a
los datos observados, es decir, buscamos aquellos valores de 0 y 1 que hagan
mnimos los errores de estimacin. Para un valor xi, el modelo estima un valor en
Y igual a yi = 0 + 1xi y el valor observado en Y es igual a yi, con lo cual el error
de estimacin en ese caso vendra dado por ei = yi yi = yi (0 + 1xi).
Entonces tomaremos como estimaciones de 0 y 1 , que notamos por 0 y 1,
aquellos valores que hagan mnima la suma de los errores al cuadrado, que viene

dada por:
De ah que al mtodo de
estimacin se le llame mtodo de mnimos cuadrados. La solucin se obtiene por
el mecanismo habitual, derivando SSE con respecto a 0 y 1 e igualando a 0.
Los estimadores resultan:

siendo:

A la recta resultante Y= B0 + B1x se le llama recta de regresin lineal de Y sobre


X. Un ltimo parmetro a estimar en el modelo es la varianza de los errores (2). A
su estimador se le denomina varianza residual y viene dada por:

Ejemplo.

nmero de
embarcaciones
x(i)

x(i)2

captura por
embarcacin por
ao
y (i)

1971 1

456

207936

43.5

1892.25 19836.0

1972 2

536

287296

44.6

1989.16 23905.6

1973 3

554

306916

38.4

1474.56 21273.6

1974 4

675

455625

23.8

566.44

16065.0

1975 5

702

492804

25.2

635.04

17690.4

ao

y(i)2

x(i) * y(i)

1976 6

730

532900

30.5

930.25

22265.0

1977 7

750

562500

27.4

750.76

20550.0

1978 8

918

842724

21.1

445.21

19369.8

1979 9

928

861184

26.1

681.21

24220.8

1980 10

897

804609

28.9

835.21

25923.3

Total

7146

5354494

309.5

= 714.6

= 30.95

sx = 165.99

sy = 8.307

10200.09 211099.5

Pendiente: b = sxy/sx2 = -0.0406

Intercepto: a =

-b*

=59.96

Varianza de a:

sb = 0.01034

Varianza de a:

sa = 7.568

Lmites de confianza:
b - sb * tn-2, b + sb * tn-2 = [-0.0645, -0.0167 ]
a - sa * tn-2, a + sa * tn-2 = [42.5, 77.4]

Bibliografa
Probabilidad y estadstica. Michael J. Evans.Edit. Reverte. Pag 570-580
Probabilidad y estadstica .Walpole, Ronald E. 6ed. Prentice hall Mxico 1999 Pag.
387

Você também pode gostar