Você está na página 1de 8

Variables Dependientes Puede ser definida como los cambios sufridos por los sujetos como consecuencia de la manipulacin

de la variable independiente por parte del experimentador. En este caso el nombre lo dice de manera explicita, va a depender de algo que la hace variar.

Son las variables de respuesta que se observan en el estudio y que podran estar influenciadas por los valores de las variables independientes. Hayman (1974 : 69) la define como propiedad o caracterstica que se trata de cambiar mediante la manipulacin de la variable independiente. La variable dependiente es el factor que es observado y medido para determinar el efecto de la variable independiente. Variables Independientes: En la verificacin experimental, el investigador intenta reproducir artificialmente los fenmenos que se dan de forma espontnea en la realidad y que desea comprender; cuando dispone de una hiptesis que establece un supuesto vnculo causal entre un objeto, proceso o caracterstica (supuesta causa) y el objeto proceso o caracterstica que exige una explicacin (el efecto), manipula experimentalmente la primera para ver si se produce el efecto que la hiptesis describa. La variable que manipula el experimentador recibe el nombre de variable independiente. Es aquella propiedad de un fenmeno a la que se le va a evaluar su capacidad para influir, incidir o afectar a otras variables. Su nombre lo explica de mejor modo en el hecho que de no depende de algo para estar all. Regresion

La regresin es una tcnica estadstica utilizada para simular la relacin existente entre dos o ms variables. Por lo tanto se puede emplear para construir un modelo que permita predecir el comportamiento de una variable dada.

La regresin es muy utilizada para interpretar situaciones reales, pero comnmente se hace de mala forma, por lo cual es necesario realizar una seleccin adecuada de las variables que van a construir las ecuaciones de la regresin, ya que tomar variables que no tengan relacin en la prctica, nos arrojar un modelo carente de sentido, es decir ilgico. Analisis de Regresion El analisis de regresion consiste en emplear metodos que permitan determinar la mejor relacion funcional entre dos o mas variables concomitantes (o relacionadas). Una relacion funcional matematicamente hablando, esta dada por: Y = f(x1,...,xn; 1,...,m) donde: Y : Variable respuesta (o dependiente) xi : La i-esima variable independiente (i=1,..,n) j : El j-esimo parametro en la funcion (j=1,..,m) f : La funcin

Para elegir una relacion funcional particular como la representativa de la poblacion bajo investigacion, usualmente se procede: 1) Una consideracion analitica del fenomeno que nos ocupa, y 2) Un examen de diagramas de dispersion. Una vez decidido el tipo de funcion matematica que mejor se ajusta (o representa nuestro concepto de la relacion exacta que existe entre las variables) se presenta el problema de elegir una expresion particular de esta familia de funciones; es decir, se ha postulado una cierta funcion como termino del verdadero estado en la poblacion y ahora es necesario estimar los parametros de esta funcion (ajuste de curvas).

Como los valores de los parametros no se pueden determinar sin errores por que los valores observados de la variable dependiente no concuerdan con los valores esperados, entonces la ecuacion general replanteada, estadisticamente, seria: Y = f(x1,...xn;1,...,m) + donde respresenta el error cometido en el intento de observar la caracteristica en estudio, en la cual muchos factores contribuyen al valor que asume .

Correlacion La correlacin estadstica determina la relacin o dependencia que existe entre las dos variables que intervienen en una distribucin bidimensional. Es decir, determinar si los cambios en una de las variables influyen en los cambios de la otra. En caso de que suceda, diremos que las variables estn correlacionadas o que hay correlacin entre ellas. Tipos de correlacin 1 Correlacin directa La correlacin directa se da cuando al aumentar una de las variables la otra aumenta. La recta correspondiente a la nube de puntos de la distribucin es una recta creciente. 2 Correlacin inversa La correlacin inversa se da cuando al aumentar una de las variables la otra disminuye.

La recta correspondiente a la nube de puntos de la distribucin es una recta decreciente. 3 Correlacin nula La correlacin nula se da cuando no hay dependencia de ningn tipo entre las variables. En este caso se dice que las variables son incorreladas y la nube de puntos tiene una forma redondeada.

Analisis de Correlacion

El analisis de correlacion emplea metodos para medir la significacion del grado o intensidad de asociacion entre dos o mas variables. El concepto de correlacion esta estrechamente vinculado al concepto de regresion, pues, para que una ecuacion de regresion sea razonable los puntos muestrales deben estar cenidos a la ecuacion de regresion; ademas el coeficiente de correlacion debe ser:

- grande cuando el grado de asociacion es alto (cerca de +1 o -1, y pequeno cuando es bajo, cerca de cero. - independiente de las unidades en que se miden las variables.

Resea Historica. En el ao 1805, Adrin Legendre, expone las ideas iniciales del mtodo de mnimos cuadrados, en el apndice de su trabajo "Nouvelles Ifthodes pour la Determination des Orbites des Cometes" en el cual trata sobre "la mthode des moindre carras", sin ofrecer alguna prueba del mtodo.

Al siguiente ao, Gauss reclama el derecho de haber utilizado desde hace 12 aos, ese mtodo que Legendre llam de los mnimos cuadrados y se compromete a presentar sus resultados posteriormente. Dos aos despus, R. Adrain, aparentemente sin conocer el trabajo de Legendre y del aun no publicado mtodo de Gauss, desarroll el, mtodo de los muimos cuadrados y lo utiliz para resolver varios problemas. El pionero en la utilizacin de las "palabras" regresin y correlacin fue Sir Francis Galton, al estudiar en 1869, la herencia de la estatura. Efectivamente encontr que las estaturas de los hijos cuyos padres tenan estaturas fuera de la "mediana", tendan a regresar a la mediana de la estatura de su propia generacin hecho que Galton llam entonces "regresin o reversin", palabra que infortunadamente se generaliz para referirse al estudio de la relacin funcional entre variables, en contra de la misma etimologa del vocablo. En 1877, introdujo una medida de tal regresin, que luego renombra co-relacin o la actual correlacin, asignndole el simbollo " r " , inicial de regresin. Es de anotar que los aportes de Galton fueron fundameitfalmente empricos y la mayor crtica negativa que se le hace, es haber pretendido hacer aritmtica "por olfato". Posteriormente, a finales de 1890, Weldon introduce el concepto de "coeficiente de correlacin" y sugiere que, por lo menos dentro del campo de los estudios genticos en los cuales tuvieron origen estos temas, este parmetro deber ser constante. Fue Rarl Pearson en 1896 quien present una formulacin definitiva de estas investigaciones la cual fue integrada al cuerpo conceptual de la Estadstica. Pearson, extendiendo las ideas de Galton y Weldon a "p" variables correlacionadas deriva la "superficie normal multivariada" .y encuentra que si las desviaciones con respecto a la correspondiente media de p-1 de las variables, toman valores determinados, la distribucin condicional de la restante variable es normal univariada alrededor de un valor esperado.

Aplicaciones del Analisis de regresin

Al ser un modelos estadstico que permite predecir el comportamiento de una variable con respecto a otra, es ampliamente utilizado en estudios estadsticos de medicina para evaluar los efectos de diversos agentes sobre la salud de las personas, Para hacer lneas de tendencias de datos obtenidos durante largos periodos. Se adapta a una variedad de situaciones. En la investigacin social se utiliza para predecir un amplio rango de fenmenos, desde medidas economicas hasta diferentes aspectos del comportamiento humano. En el contexto de la investigacin de mercados puede utilizarse para determinar en cual de diferentes medios de comunicacin puede resultar mas eficaz invertir, o para predecir el numero de ventas de un determinado producto. En fsica se utiliza para caracterizar la relacin entre variables o para calibrar medidas.

Clasificacion segn el numero de variables independientes. Se clasifica en Regresion Simple en el caso de una variable independiente y en regresin multiple en el caso de dos o mas variables. Regresion Lineal Simple Cuando la relacion funcional entre las variables dependiente (Y) e independiente (X) es una linea recta, se tiene una regresion lineal simple, dada por la ecuacion Y = so + s1X + donde: so : El valor de la ordenada donde la linea de regresion se intersecta al eje Y. s1 : El coeficiente de regresion poblacional (pendiente de la linea recta) : El error.

El Anlisis de Regresin Lineal Mltiple nos permite establecer la relacin que se produce entre una variable dependiente Y y un conjunto de variables independientes (X1, X2, ... XK). El anlisis de regresin lineal mltiple, a diferencia del simple, se aproxima ms a situaciones de anlisis real puesto que los fenmenos, hechos y procesos sociales, por definicin, son complejos y, en consecuencia, deben ser explicados en la medida de lo posible por la serie de variables que, directa e indirectamente, participan en su concrecin.

La anotacin matemtica del modelo o ecuacin de regresin lineal mltiple es la que sigue: Y = a + b1x1 + b2x2 + ... + bnxn + e presente = a + b1pasado + b2futuro + e en donde: Y es la variable a predecir; a, b1x1, b2x2... bnxn, son parmetros desconocidos a estimar; y e es el error que cometemos en la prediccin de los parmetros.

Supuestos bsicos del modelo de regresin lineal Los supuestos de un modelo estadstico se refieren a una serie de condiciones que deben darse para garantizar la validez del modelo. Al efectuar aplicaciones practicas del modelo de regresin, se deben cumplir los siguientes supuestos:

1.- Linealidad. La ecuacin de regresin adopta una forma particular. En concreto, la variable dependiente es la suma de un conjunto de elementos: El origen de la recta, una cmbinacion lineal de variables independientes o predictoras y los residuos. El incumplimiento del supuesto de linealidad suele denominarse error de

especificacin. Algunos ejemplos son: omisin de variables independientes importantes, inclusin de variables independientes irrelevantes, no linealidad, parmetros cambiantes, no aditividad, etc. 2.- Independencia: Los residuos son independientes entre s, es decir, los residuos constituyen una variable aleatoria. 3.- Homocedasticidad: Para cada valor de la variable independiente, la vairanza de los residuos es constante. 4.- Normalidad: Para cada valor de la variable independiente, los residuos se distribuyen normalmente con media cero. 5.- No-colinealidad: No existe relacin lineal exacta entre ninguna de las variables independientes. El incumplimiento de este supuesto da origen a colinealidad o multicolinealidad. Sobre el cumplimento del primer supuesto puede obtenerse informacin a partir de una inspeccin del programa de dispersin. Si se tiene intencin de utilizar el modelo de regresin lineal, lo razonable es que la relacin entre la variable dependiente y las independientes sea del tipo lineal. El quinto supuesto no tiene sentido en regresin simple, pues es imprescindible la presencia de mas de una variable independiente. El resto de los supuestos, estn estrechamente relacionados al comportamiento de los residuos. Por tanto, un anlisis cuidadoso de los residuos puede informarnos sobre el cumplimiento de los mismos.

Você também pode gostar