Você está na página 1de 14

Instituto Tecnológico Superior de

Coatzacoalcos
División de Ingeniería Industrial

FEBRERO – JUNIO 2019

Nombre del Alumno: JIMÉNEZ RÍOS ANAHÍ


Apellido Paterno Apellido Materno Nombre(s)

ASIGNATURA: ESTADÍSTICA INFERENCIAL II

UNIDAD N° 1: REGRESIÓN LINEAL


MÚLTIPLE.

Nombre del Docente: JIMENEZ VENTURA BRICIO


Apellido Paterno Apellido Materno Nombre(s)

Carrera: Ing. Industrial Semestre: 4° Grupo: ¨C¨

No
Control: 17081067 Fecha: 14 / FEB / 19
ÍNDICE
INTRODUCCIÓN 2
1.1 REGRESIÓN LINEAL MÚLTIPLE. 3
1.1.1 PRUEBAS DE HIPÓTESIS EN REGRESIÓN LINEAL MÚLTIPLE. 5
1.1.2 INTERVALOS DE CONFIANZA Y PREDICCIÓN EN REGRESIÓN 7
MÚLTIPLE.
1.1.3 USO DE UN SOFTWARE ESTADÍSTICO 7
1.2 REGRESIÓN NO LINEAL. 9
CONCLUSIÓN 14
REFERENCIAS BILIOGRÁFICAS 15
INTRODUCCIÓN

En la industria con mucha frecuencia es necesario resolver problemas que implican


conjuntos de variables, cuando se sabe que existe alguna relación inherente entre
ellas. A partir de lo anterior, es necesario establecer modelos que expliquen dicha
relación.

Cuando, simultáneamente, contemplamos dos variables continuas, aunque por


extensión se pueden emplear para variables discretas cuantitativas, surgen
preguntas y problemas específicos. Esencialmente, se emplearán estadísticos
descriptivos y técnicas de estimación para contestar esas preguntas, y técnicas de
contraste de hipótesis específicos para resolver dichos problemas. La mayoría de
estos métodos están encuadrados en las técnicas regresión y correlación
En forma más especifica el análisis de correlación y regresión comprende el análisis
de los datos muestrales para saber qué es y cómo se relacionan entre si dos o más
variables en una población. El análisis de correlación produce un número que
resume el grado de la fuerza de relación entre dos variables; y el análisis de
regresión da lugar a una ecuación matemática que describe dicha relación.

La técnica de regresión lineal simple está indicada cuando se pretende explicar una
variable respuesta cuantitativa en función de una variable explicativa cuantitativa
también llamada variable independiente, variable regresora o variable predictora.
Por ejemplo, se podría intentar explicar el peso en función de la altura. El modelo
intentaría aproximar la variable respuesta mediante una función lineal de la variable
explicativa.
A partir de la presente investigación, se pretende conocer más acerca de la
regresión lineal, ya que es muy aplicable en la vida laboral.
1.1 REGRESIÓN LINEAL MÚLTIPLE.

La regresión lineal múltiple trata de explicar el comportamiento de Y con más de


una variable predictora usando una función lineal.
Alternativas para mejorar el modelo.
•Transformar la variable predictora, o la variable de respuesta Y, o ambas y usar
luego un modelo lineal.
•Usar regresión polinómica con una variable predictora.
•Conseguir más variables predictoras y usar una regresión lineal múltiple.

El modelo de regresión lineal múltiple con p variables predictoras y basado en n


observaciones está dado por:
En forma matricial:

En muchas situaciones prácticas existen varias variables independientes que se


cree que influyen o están relacionadas con una variable de respuesta Y, y por lo
tanto será necesario tomar en cuenta si se quiere predecir o entender mejor el
comportamiento de Y. Por ejemplo, para explicar o predecir el consumo de
electricidad en una casa habitación tal vez sea necesario considerar el tipo de
residencia, el número de personas que la habitan, la temperatura promedio de la
zona, etcétera.
1.1.1 PRUEBAS DE HIPÓTESIS EN REGRESIÓN LINEAL MÚLTIPLE.

En cualquier análisis de regresión no basta hacer los cálculos que se explicaron


antes, sino que es necesario evaluar qué tan bien el modelo (la línea recta) explica
la relación entre X y Y.
Una primera forma de hacer esto es probar una serie hipótesis sobre el modelo.
Para ello es necesario suponer una distribución de probabilidad para el término de
error 𝜀1. Es usual suponer normalidad: 𝜀1 se distribuye en forma normal,

independiente, con media cero y varianza 𝜎 2 .


Las hipótesis sobre los parámetros del modelo son equivalentes a las realizadas
para regresión lineal simple, pero ahora son más necesarias porque en regresión
múltiple tenemos más parámetros en el modelo; sin embargo, por lo general es
necesario evaluar su verdadera contribución a la explicación de la respuesta.
También requerimos de la suposición de que los errores se distribuyen en forma
normal, independientes, con media cero y varianza. La hipótesis global más
importante sobre un modelo de regresión múltiple consiste en ver si la regresión es
significativa. Esto se logra probando la siguiente hipótesis:
𝐻0: 𝛽1 = 𝛽2 = ⋯ 𝛽𝐾 = 0
𝐻1: 𝛽1 ≠ 𝛽2 𝑝𝑎𝑟𝑎 𝑎𝑙 𝑚𝑒𝑛𝑜𝑠 𝑢𝑛 𝑗 = 1,2, … , 𝑘

Aceptar H0 significa que ningún término o variable en el modelo tiene una


contribución significativa al explicar la variable de respuesta. Mientras que rechazar
H0 implica que por lo menos un término en el modelo contribuye de manera
significativa a explicar. El procedimiento para probar esta hipótesis es una
generalización del procedimiento utilizado para probar la hipótesis equivalente en
regresión lineal simple.
El estadístico de prueba para la significancia del modelo de regresión lineal múltiple
está dado por:
1.1.2 INTERVALOS DE CONFIANZA Y PREDICCIÓN EN REGRESIÓN
MÚLTIPLE.

En los modelos de regresión múltiple con frecuencia es conveniente construir


estimaciones de intervalos de confianza para los coeficientes de regresión {𝛽𝑗}. Por
ejemplo, a partir de la tabla 1.6 es claro que un estimador por intervalos de cada
coeficiente en lo individual está dado por:

También es posible obtener un intervalo de confianza con respecto a la respuesta


media en un punto particular, digamos X10, X20… Xk está dado por:
1.1.3 USO DE UN SOFTWARE ESTADÍSTICO.

Para capturar la tabla de datos para el análisis de regresión lineal múltiple,


primeramente capturamos los datos en la hoja de cálculo, posteriormente activamos
Datos seguido de Análisis de datos y seleccionamos Regresión, y aceptar.
Datos → Análisis de datos → Regresión

En la ventana de captura se solicitará el rango de celdas donde se encuentran los


datos para la variable dependiente Rango Y de entrada y para la(s) variable(s)
regresora(s) Rango X de entrada (para los datos de X1 y X2, se sombrean ambos
simultáneamente con el ratón, en este caso a partir de la columna 2).
Activamos la casilla de rótulos, por default está indicado en una hoja nueva,
seleccionamos además cualquiera de las opciones de residuos, grafica de
residuales, y curva de regresión ajustada y aceptar y tendremos el resultado.

Utilizando Minitab
En Minitab la secuencia de captura para la regresión lineal simple o múltiple en la
hoja de cálculo una vez capturada las columnas de datos seleccionamos
Estadísticas luego Regresión seguida de Regresión nuevamente
Estadísticas→ Regresión→ Regresión

De la ventana desplegada en respuesta indicamos la variable de respuesta, en este


caso es resistencia y en predictor indicamos porcentaje de fibra activando también
cualquiera de las opciones posibles, terminando en aceptar.
Nota: De la ventana de captura aparecen automáticamente en el cuadro de la
izquierda la información de la tabla, en respuesta , se indica con un clic del ratón en
peso y este automáticamente se manifiesta, en predictores de igual manera se da
un clic a cada uno y estos se manifiestan en el recuadro.

1.2 REGRESIÓN NO LINEAL.

En estadística, la regresión no lineal es un problema de


inferencia para un modelo tipo:

y = f(x, θ) + ε
Basado en datos multidimensionales x, θ, donde f es alguna
función no lineal respecto a algunos parámetros
desconocidos θ. Como mínimo, se pretende obtener los
valores de los parámetros asociados con la mejor curva de
ajuste (habitualmente, con el método de los mínimos cuadrados). Con el fin de
determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de
inferencia estadística tales como intervalos de confianza para los parámetros así
como pruebas de bondad de ajuste.
El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la
regresión polinomial, la cual es mejor no tratar como un caso de regresión no lineal.
Cuando la función f toma la forma:
f(x) = ax2 + bx + c
La función f es no lineal en función de x pero lineal en función de los parámetros
desconocidos a, b, y c. Este es el sentido del término "lineal" en el contexto de la
regresión estadística. Los procedimientos computacionales para la regresión
polinomial son procedimientos de regresión lineal (múltiple), en este caso con dos
variables predictoras x y x2. Sin embargo, en ocasiones se sugiere que la regresión
no lineal es necesaria para ajustar polinomios. Las consecuencias prácticas de esta
mala interpretación conducen a que un procedimiento de optimización no lineal sea
usado cuando en realidad hay una solución disponible en términos de regresión
lineal. Paquetes (software) estadísticos consideran, por lo general, más alternativas
de regresión lineal que de regresión no lineal en sus procedimientos.

MÉTODOS NUMÉRICOS PARA REGRESIONES NO LINEALES

REGRESIÓN EXPONENCIAL

En determinados experimentos, en su mayoría biológicos, la dependencia entre las


variables X e Y es de forma exponencial, en cuyo caso interesa ajustar a la nube de
puntos una función del tipo:

Mediante una transformación lineal, tomando logaritmos neperianos, se convierte el


problema en una cuestión de regresión lineal. Es decir, tomando logaritmos
neperianos:

ln( y)  b x  ln( a)
a  e[ln( y ) b x]

Ejemplo

x y In y x2 x Iny In y2
1 3 1,0986 1 1,0986 1,2069
1,2 3,4 1,2237 1,44 1,4684 1,4974
1,5 5 1,6094 2,25 2,4141 2,5901
2 2 0,6931 4 1,3862 0,4803
3 4,1 1,4109 9 4,2327 1,9906
3,7 5 1,6094 13,69 5,9547 2,5901
4 7 1,9459 16 7,7836 3,7865
4,5 6,5 1,8718 20,25 8,4231 3,5056
Σ 20,9 Σ 36 Σ 11,4628 Σ 67,63 Σ 32,7614 Σ 17,6455

Numero de datos = n = 8

x
x
x promedio = = = 2,6125
n

y promedio = = = 1,43285 ln( y ) 


 ln( y)
n

Usando la forma lineal de la Regresión Exponencial:

b
[ x ln( y)]  ln( y) x
 x  x x
2
b= = = 0,216047

= 1,43285 - (0,216047)(2,6125) = 0,868427

a  e[ln( y ) b x]
a = eb = e0,216047 = 2,38316

La ecuación final que modela el sistema es

yˆ  2.38316 e 0.2166047x
CONCLUSIÓN

El análisis de regresión y correlación lineal constituyen métodos que se emplean


para conocer las relaciones y significación entre series de datos. Lo anterior, es de
suma importancia para la industria ya que es aquí en donde se presentan variables
de respuesta e independientes las cuales interactúan para originar las
características de un proceso en particular y por ende; analizar, predecir valores de
la variable dependiente y examinar el grado de fuerza con que se relacionan dichas
variables.

La regresión lineal simple y la regresión múltiple, analiza la relación de dos o mas


variables continuas, cuando analiza dos variables a esta se el conoce como variable
bivariantes que pueden corresponder a variables cualitativas. La finalidad de una
ecuación de regresión es la de estimar los valores de una variable con base en los
valores conocidos de la otra. Del mismo modo, una ecuación de regresión explica
los valores de una variable en términos de otra. Es decir, se puede intuir una relación
de causa y efecto entre dos o más variables. El análisis de regresión únicamente
indica qué relación matemática podría haber, de existir una.

Por otro lado, Al ajustar un modelo de regresión simple o múltiple a una nube de
observaciones es importante disponer de alguna medida que permita medir la
bondad del ajuste. Esto se consigue con los coeficientes de correlación. Si el modelo
que se ajusta es un modelo de regresión lineal, a R se le denomina coeficiente de
correlación y representa el porcentaje de variabilidad de la Y que explica el modelo
de regresión.

Estas técnicas estadísticas constituyen una herramienta útil para el análisis de las
variables de un proceso ya que a través de la aplicación de éstas, es posible conocer
el modelo que siguen y la fuerza con que se encuentran relacionadas.
Asimismo, es posible explicar la relación que guardan dos o más causas de un
posible defecto.
REFERENCIAS BILIOGRÁFICAS

 Ronald E. Walpole y Raymond H Myers. PROBABILIDAD Y ESTADÍSTICA,


Sexta Edición. 1998.
 William Mendenhall y Dennos D. Wackerly. ESTADÍSTICA MATEMÁTICA
CON APLICACIONES, Segunda Edición. 1994 Editorial Iberoamericana.
 Gutiérrez-Pulido, H. y De la Vara Salazar, R. (2005), CONTROL
ESTADÍSTICO DE CALIDAD Y SEIS SIGMA, Primera Edición. 2005 Editorial
McGraw-Hill, México.
 Gutiérrez-Pulido, H. y De la Vara Salazar, R. (2003), DISEÑO Y ANÁLISIS
DE EXPERIMENTOS, McGraw-Hill, México.

Você também pode gostar