Você está na página 1de 52

ANALISIS DE REGRESION

LINEAL SIMPLE

ESTADISTICAS II
PRONOSTICOS
GERENTE

PROGRAMACION
INVENTARIOS

PRODUCCION

COMPRAS PERSONAL
Contabilidad y Finanzas

PRESTAMOS
FLUJO
INVERSIONES
DE CAJA

FINANZIAMIENTO
EJEMPLOS DE SITUACIONES
u á n tas
i ca r c
r on ost se
e p tí cu l o
a d eb n a r m a na
r m u e
La fi idades de próxima s
un rá n la
a nd a
d e m

La administración debe pronosticar la rapidez


de los efectos de un descubrimiento científico
reciente en la industria en que la firma compite
Los pronósticos pueden diferir en
cuanto a su importancia, al marco de
referencia y al nivel administrativo.
Regresión lineal

Su objetivo es identificar una relación


funcional entre una o más variables
independientes (predictoras) y la
variable dependiente (pronóstico).
Podemos
realizar la
Inversión, en
comprar las Uyyy!
franquicias Y
PARMALAT AHORA!
!
ANALISIS
VARIABLE
DE CUAL VARIABLE
INDEPENDIENTE
REGRESION
PREDICTORA

VARIABLE
DEPENDIENTE
PRONOSTICO
Diagrama de Dispersion

Representación gráfica del grado de


relación entre dos variables cuantitativas.

El patrón general de los puntos dibujados


sugiere la relación general entre las dos
variables.
Se determina la variable
independiente y la variable
dependiente

En el eje de las abscisas se colocan los


valores de las variables independiente (X)
y en el eje …

Se coloca un punto en el plano


por cada par de valores
Diagrama de dispersión
100
90
80
70
60
50
40
30
140 150 160 170 180 190 200
Proceso
Ejemplo
Marcamos los pares de datos
Tipos de Diagrama

Relación lineal negativa fuerte


Relación lineal negativa

Relación lineal positiva perfecta


Relación parabólica perfecta

Ninguna relación entre Relación curvilínea negativa


Las variables.
MODELOS DE REGRESIÓN

Una vez que sabemos que dos variables


están relacionadas…

¿Cómo averiguar qué tipo de relación


tienen?

Para esto utilizamos los modelos de regresión


CONCEPTO DE REGRESIÓN

La regresión como técnica


¿QUÉ ES? estadística analiza la relación de
dos o más variables contínuas

La regresión se utiliza para inferir


¿PARA QUÉ datos a partir de otros y hallar
SIRVE? una respuesta a lo que pueda
suceder
VARIABLES DE LA REGRESIÓN

Las variables del modelo de regresión deben ser


cuantitativas

Dada la robustez de la regresión es frecuente


encontrar incluidas como variable independiente
variables nominales transformadas

La variable dependiente debe ser siempre


cuantitativa Robustez: un estadístico se dice
que es robusto cuando es válido
aunque no se cumpla alguno de
sus supuestos
TIPOS DE REGRESIÓN

Se pueden encontrar distintos tipos de regresión

1 Regresión Lineal

2 Regresión Múltiple

3 Regresión Logística
REGRESIÓN LINEAL

Consideremos una variable dependiente respuesta Y,


relacionada con otra variable independiente X

Supongamos una muestra de n individuos para los


que se conocen los valores de ambas variables

Hacemos una Variable


Y
representación gráfica: dependiente
X
 en el eje X la variable Variable
independiente independiente
 en el Y la dependiente
n Muestra
REGRESIÓN LINEAL

OBJETIVO Encontrar una recta que se ajuste a la nube


de puntos

A partir de esa recta podemos usar los valores de X para


predecir los de Y

Normalmente se utiliza el “método de los mínimos


cuadrados” que minimiza la distancia de las
observaciones a la recta
Y

Y / X i   0  1 X
0

X1 X2 X3 X4 X
y = μy|x +  = β0 + β1x + 

μy|x = β0 + β1x es el valor medio de


la variable dependiente y cuando
el valor de la variable
independiente es x.
– β0 = ordenada al origen (valor
medio de y cuando x = 0)
– β1 = pendiente ( valor medio de
y cuando  x una unidad)
100
90
80
10 kg.
70
60
50 10 cm.
40
30
140 150 160 170 180 190 200
SUPOSICIONES DE LA REGRESIÓN
LINEAL
• Los valores de la variable independiente X
son fijos, medidos sin error.
• La variable Y es aleatoria
• Para cada valor de X, existe una distribución
normal de valores de Y (subpoblaciones Y)
• Las variancias de las subpoblaciones Y son
todas iguales.
• Todas las medias de las subpoblaciones de
Y están sobre la recta.
• Los valores de Y están normalmente
distribuidos y son estadísticamente
independientes
Modelo de la Regresión Lineal Simple
Muestral
La recta de regresión muestral sería
Y (valor real)
Y
Yˆ (ajustado) P4
Yˆi   0  1 X i
Y  Yˆ  e (residuo) e4

R3 R4
R2
e1 P1 e3
R1
e2
P2
P3 Yˆi  ˆ0  ˆ1 X i
0

X1 X2 X3 X4 X
SI pero ¿Cuál es
el modelo?
Yi  Yˆi  ei
Yi  ˆ0  ˆ1 X i  ei
0 1 0
METODO DE LOS
MINIMOS

0 CUADRADOS
0

1 1
0 0
1
0 0
n X iYi   X i  Y i
ˆ1 
n X i    X i 
2 2

ˆ1 
  X  X Y  Y 
i i

 X  X 
2
i
n n

Y i X i
ˆ0  i 1
 ˆ1 i 1
n n

ˆ0  Y  ˆ1 X
MEDIDAS DE LA BONDAD DE
AJUSTE
Obtener medidas que nos indiquen la
confiabilidad de la recta de regresión

Mide la
bondad
Medidas de la Bondad Con la cual
de Ajuste La línea
de
regresión
Se ajusta
Esquema de las Medidas de la
Bondad del Ajuste

Error Estándar de la
Ajuste Estimación
Absoluto
Medidas de la  Se 
Bondad
Del Ajuste Coeficiente de
Ajuste determinación
Relativo
r 
2
Y
DESVIACION
EXPLICADA
(X3,Y3)
Y2  Y DESVIACION
NO
EXPLICADA
DESVIACION
TOTAL ˆ
Y2  Y
(X2,Y2)
(X1,Y1)
Para obtener las formulas de las medida de la Bondad de Ajuste

Se , r 2
Medidas
ANALISIS DE de
REGRESION Variabilidad

Obtener medidas que nos indiquen la


confiabilidad de la recta de regresión
QUIEN MIDE

LAS VARIACIONES?
Variación total = Variación no explicada + Variación Explicada

  Y  Y
i    
2
Y  ˆ
Y    Y 

iYˆ
i
2
i
2

Suma Suma Suma


De De De
Cuadrados Cuadrados Cuadrados
Total Del Error De La Regresión
SCT SCE SCR
SCT   Y  Y    Y  nY
2 2 2
i i

SCR   Yˆ  Y   ˆ   X  nX 
2 2 2 2
i 1 i

SCE   Y  Yˆ   SCT  SCR


2
i i

 Se 
El error estándar de la estimación se
basa en el valor de SCE
r 
2

Coeficiente de determinación se basa en la


magnitud relativa de SCR
Error Estándar de Estimación  Se 
Mide la variabilidad o dispersión de los valores observados
Alrededor de la línea de regresión

  2
Yi  Yˆi SCE
Se    CME
n2 n2

 Se  Mayor es la
dispersión
Coeficiente de Determinación r 2
Obtiene la cantidad relativa de la variación de
la variable dependiente Y explicada por la variable
independiente X

SCR     SCR SCE


r 
2
  1
SCT     SCT SCT
Características

• El coeficiente de determinación es un cociente


de dos sumas de cuadrados entonces no puede
ser negativa
• SCR es menor o igual a SCT, el cociente de
determinación esta dado entre los intervalos 0 y
1

0  r 12
• Si el coeficiente es cero indica que no
existe relación lineal entre las variables X
y Y, lo cual significa que ninguna parte de
la variación de Y, esta explicada por X, el
valor de r2 va a ser =0 cuando SCR =0 y
SCE=SCT
• Un r2=1 indica una relación lineal perfecta
entre las variables X y Y, y todo los puntos
observados están sobre la recta de
regresión muestral, SCE=0 y SCR=SCT,
el ajuste perfecto.
INFERENCIA ESTADISTICA CON
RESPECTO A LOS PARAMETROS  0 y1
Calculada la recta de regresión muestral es importante
conocer si esta recta se puede utilizar para fines predictivos

Nos interesa determinar si el conocimiento de la variable


independiente X resulta útil para predecir los valores de la
variable dependiente Y.
PRUEBA DE HIPOTESIS PARA
1
1  0
X y Y no están
Una línea
relacionadas
horizontal
linealmente

Yi  Y Los valores de X no sirven


Para predecir Y
La hipótesis nula H0: 1  0
La hipótesis alternativa debemos tener conocimiento
previo de 1
Si tenemos conocimiento a priori de 1
1  0 Unilateral Derecha

H 1 : 1  0 Unilateral Izq.
Pasos para la prueba de Hipotesis
Planteamos la Hipótesis, reflejada en los valores a priori de

El estadístico a utilizar es la distribución t


1

ˆ1  0 ˆ1
t 
S ˆ S ˆ
1 1

S ̂ S ˆ 
Se

Se

X i  X  i
2 2

1 2
1 X n X
INTERVALO DE CONFIANZA
PARA 1
ˆ
1  t n 2; / 2 S ˆ
1

Si el intervalo de confianza incluye el cero, es equivalente a la aceptación de la


hipótesis nula, LAS VARIABLES X e Y NO ESTAN RELACIONADAS
LINEALMENTE

Si el intervalo de confianza NO incluye el cero, es equivalente al rechazo de la


hipótesis nula, LAS VARIABLES X e Y ESTAN RELACIONADAS
LINEALMENTE
ANALISIS DE VARIANZA EN LA
REGRESIÓN LINEAL SIMPLE

Fuente de Suma de Grados de Cuadrados


Variación Cuadrados Libertad medios
Regresion SCR 1 SCR/1

Error SCE n-2 SCE/(n-2)

TOTAL SCT n-1


CMR es alto en relacion al CME, indica que parte de la variabilidad de en Y
Esta siendo explicada por la RECTA DE REGRESION, rechazo de H0

CMR es bajo en relacion al CME, indica que parte de la variabilidad de en Y


NO esta siendo explicada por la RECTA DE REGRESION, acep de H0

CMR
F
CME
PREDICCION
Yˆ0  ˆ0  ˆ1 X 0

PREDICCION PARA LA MEDIA Y / X 0 POR


INTERVALO DE CONFIANZA

Yˆ0  t n  2; / 2 SYˆ SY0  S e


1

 X0  X 
2

0 n  X i 2  nX 2
PREDICCION INDIVIDUAL POR INTERVALO DE
CONFIANZA

SY0  S e
1

 X0  X 
2

1
n  X i  nX
2 2

Você também pode gostar