Você está na página 1de 5

lunes, 31 de enero de 2011

Estadstica IV Parte. Analisis de Correlacin Lineal Y Regresin Simple

IV- ANALISIS DE CORRELACIN Y REGRESIN LINEAL SIMPLE

Anlisis de Correlacin y Regresin Lineal Simple

En los procedimientos tanto de correlacin como de regresin a pesar que se calculan de


manera diferente o que responden a diferentes formulas tienen un punto en comn y es que
en ambos se emplean con la finalidad de conocer la relacin que se puede dar entre dos o ms
variables. Por ello aqu se debe tomar en cuenta y tener muy claro los diferentes tipos de
variables.

Las variables como su nombre lo indican van hacer lo que va a variar, lo que se va a someter a
estudio.

Variables dependientes: Son las variables de respuesta que se observan en el estudio y que
podran estar influenciadas por los valores de las variables independientes. En la pgina
electrnica Enciclopedia libre 2010 cita a Hayman (1974.Pg, 69) la define como propiedad o
caracterstica que se trata de cambiar mediante la manipulacin de la variable independiente.
La variable dependiente es el factor que es observado y medido para determinar el efecto de
la variable independiente.

Variables independientes: aqulla que es manipulada por el investigador en un experimento


con el objeto de estudiar cmo incide sobre la expresin de la variable dependiente. A la
variable independiente tambin se la conoce como variable explicativa, y mientras que a la
variable dependiente se la conoce como variable explicada.
Aunque para otros autores como Sote (2005) existen:
De acuerdo al nmero de variables ser:

CORRELACIN LINEAL Y RECTA DE REGRESIN

Coeficiente de Correlacin

Despus de describir las diferentes variables, hablaremos del Coeficiente de Correlacin,


puesto que el coeficiente va hacer un valor que indicara la relacin existente entre dos
variables.

Para Sote (2005), el coeficiente de correlacin (r) se define como un indicador estadstico que
nos permite conocer el grado de relacin, asociacin o dependencia que pueda existir entre
dos o ms variables. (p. 360)

Y agrega lo siguiente:

Clasificacin de la correlacin: de acuerdo al nmero de variables consideradas en el estudio.

Correlacin simple: cuando estudia la posible relacin entre dos variables.

Correlacin mltiple: cuando analiza la asociacin o dependencia de ms de dos variables.

Correlacin rectilnea o lineal: cuando los datos presenten una tendencia de lnea recta.

Correlacin curvilnea: la variable presenta una tendencia distinta a la lnea recta. (p.233)

Bajo otro punto de vista, veamos cmo se clasifica la correlacin.

TIPOS DE CORRELACIN

La correlacin puede clasificarse en dos tipos dependiendo de la cantidad de variables


analizadas y por el tipo de relacin lineal, en el primer caso estamos haciendo referencia a:
1. Correlacin simple: se estudia la dependencia nicamente entre dos variables
2. Correlacin mltiple: se estudia la dependencia entre ms de 2 variables
3. Correlacin parcial: cuando se incluye la influencia de variables exgenas no consideradas
en el clculo de los coeficientes.
Dependiendo del tipo de relacin lineal el coeficiente relaciona:
1. Relacin directa entre las variables: un aumento en la variable independiente implica un
aumento en la variable dependiente.
2. Relacin inversa entre las variables: un aumento en la variable independiente implica una
disminucin en la variable dependiente. (Aula Fcil (S/F. Parra. 1))

Esta clasificacin es muy parecida a la que hace Sote, sin embargo en esta ltima se incluye la
correlacin parcial. Aqu es importante mencionar que el autor (Sote) nos habla de
clasificacin y adems hace alusin a los tipos de correlacin, haciendo una diferenciacin
entre lo que es la clasificacin y los tipos, lo cual no lo hace el anterior, pues al hablar de tipos
de correlacin menciona a la clasificacin.

Tipos de correlacin: correlacin positiva, correlacin negativa e incorrelacin.

Los tipos de correlacin que pueden presentarse son:

Correlacin positiva o directamente proporcional r = (+).


Nos indica que al modificarse en promedio una variable en un sentido, la otra lo hace en la
misma direccin.

Correlacin negativa o inversamente proporcional r = (-).


Nos muestra que al cambiar una variable en una determinada direccin (en promedio), la otra
lo hace en sentido contrario u opuesto.

Incorrelacin r = 0
Cuando la obtencin de dicho indicador r sea exactamente igual a cero, se dice que no existe
alguna relacin, asociacin o dependencia entre las variables estudiadas, siendo por tanto
ellas, variables correlacionadas o faltes de alguna dependencia lineal. (Sote (2005. Pg. 239-
240)).

Ahora bien, entre los coeficientes de correlacin tenemos:

El coeficiente de correlacin de Pearson y el de Spearman.


Sustentando esto:

Coeficientes de correlacin:

Existen diversos coeficientes que miden el grado de correlacin, adaptados a la naturaleza de


los datos. El ms conocido es el coeficiente de correlacin de Pearson (introducido en realidad
por Francis Galton), que se obtiene dividiendo la covarianza de dos variables por el producto
de sus desviaciones estndar. Otros coeficientes son:
Coeficiente de correlacin de Spearman
Correlacin cannica.

Coeficiente de correlacin de Pearson


En estadstica, el coeficiente de correlacin de Pearson es un ndice que mide la relacin lineal
entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlacin de
Pearson es independiente de la escala de medida de las variables.
El coeficiente de correlacin entre dos variables aleatorias X e Y es el cociente

donde XY es la covarianza de (X,Y) y X y Y las desviaciones tpicas de las distribuciones


marginales. (Enciclopedia Libre Wikipedia (2010). Parra.1)).

Coeficiente de correlacin de Spearman

En estadstica, el coeficiente de correlacin de Spearman, (ro) es una medida de la


correlacin (la asociacin o interdependencia) entre dos variables aleatorias continuas. Para
calcular , los datos son ordenados y reemplazados por su respectivo orden.
El estadstico viene dado por la expresin:

donde D es la diferencia entre los correspondientes valores de x - y. N es el nmero de parejas.


Se tiene que considerar la existencia de datos idnticos a la hora de ordenarlos, aunque si
stos son pocos, se puede ignorar tal circunstancia

La interpretacin de coeficiente de Spearman es igual que la del coeficiente de correlacin de


Pearson. Oscila entre -1 y +1, indicndonos asociaciones negativas o positivas
respectivamente, 0 cero, significa no correlacin pero no independencia. La tau de Kendall es
un coeficiente de correlacin por rangos, inversiones entre dos ordenaciones de una
distribucin normal bivariante. (Enciclopedia Libre Wikipedia (2010. Parra. 1))
De esta forma podemos observar cmo se orienta la aplicacin de cada uno de estos viendo
que el primero toma en cuenta dos variables aleatorias cuantitativas y el segundo entre dos
variables aleatorias continuas.

Regresin Lineal

Otro procedimiento estadstico es el anlisis de regresin lineal al igual que en el caso de la


correlacin lineal, este trabaja con variables en la terminologa de la regresin, la variable que
se va a predecir se llama variable dependiente. Las o las variables que se usan para predecir el
valor de la variable dependiente se llaman variables independientes. (Sweeney y otros (2005.
Pg. 539)).

Y adems nos expone puntualmente que donde intervienen una variable independiente y una
variable dependiente, y la relacin entre ellas se aproxima mediante una lnea recta. A esto se
llama regresin simple. (Sweeney y otros (2005. Pg. 539)).

Segn la Enciclopedia Libre Wikipedia (2010) expone lo siguiente:


En estadstica la regresin lineal o ajuste lineal es un mtodo matemtico que modeliza la
relacin entre una variable dependiente Y, las variables independientes Xi y un trmino
aleatorio . Este modelo puede ser expresado como:

donde 0 es la interseccin o trmino "constante", las son los parmetros respectivos a cada
variable independiente, y p es el nmero de parmetros independientes a tener en cuenta en
la regresin. La regresin lineal puede ser contrastada con la regresin no lineal. (Parra.1)

Al igual que el coeficiente de correlacin, la regresin lineal, posee o se clasifica en diferentes


modelos segn los parmetros que se tenga, entre los cuales podemos mencionar:

Regresin lineal simple: Slo se maneja una variable independiente, por lo que slo cuenta con
dos parmetros. Son de la forma:
6
donde es el error asociado a la medicin del valor Xi y siguen los supuestos de modo que
(media cero, varianza constante e igual a un y con ).
Anlisis
Dado el modelo de regresin simple, si se calcula la esperanza (valor esperado) del valor Y, se
obtiene:[5]

Derivando respecto a y e igualando a cero, se obtiene:[5]

Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la siguiente


solucin para ambos parmetros:[4]

La interpretacin del parmetro 1 es que un incremento en Xi de una unidad, Yi incrementar


en 1.
Regresin lineal mltiple La regresin lineal nos permite trabajar con una variable a nivel de
intervalo o razn, as tambin se puede comprender la relacin de dos o ms variables y nos
permitir relacionar mediante ecuaciones, una variable en relacin a otras variables
llamndose Regresin mltiple. Constantemente en la prctica de la investigacin estadstica,
se encuentran variables que de alguna manera estn relacionados entre s, por lo que es
posible que una de las variables puedan relacionarse matemticamente en funcin de otra u
otras variables.
Maneja varias variables independientes. Cuenta con varios parmetros. Se expresan de la
forma:[6]

donde es el error asociado a la medicin i del valor Xip y siguen los supuestos de modo que
(media cero, varianza constante e igual a un y con ).
Rectas de regresin Las rectas de regresin son las rectas que mejor se ajustan a la nube de
puntos (o tambin llamado diagrama de dispersin) generada por una distribucin binomial.
Matemticamente, son posibles dos rectas de mximo ajuste:[7]
La recta de regresin de Y sobre X:

La recta de regresin de X sobre Y:

La correlacin ("r") de las rectas determinar la calidad del ajuste. Si r es cercano o igual a 1, el
ajuste ser bueno y las predicciones realizadas a partir del modelo obtenido sern muy fiables
(el modelo obtenido resulta verdaderamente representativo); si r es cercano o igual a 0, se
tratar de un ajuste malo en el que las predicciones que se realicen a partir del modelo
obtenido no sern fiables (el modelo obtenido no resulta representativo de la realidad). Ambas
rectas de regresin se intersecan en un punto llamado centro de gravedad de la distribucin.
(Enciclopedia Libre Wikipedia (2010. Parra.9))

Notando lo anterior se puede concluir con las palabras de Garzo (1988) explicando que en la
estadstica descriptiva tratbamos de regresar la posible relacin lineal entre las observaciones
mustrales de dos caractersticas, mientras que ahora tratamos de expresar la posible relacin
lineal entre dos caractersticas en toda la poblacin. (Pg.161) De esta manera, explicando que
se hace en la Regresin Lineal.

Publicado por Diana Angulo en 13:25

Você também pode gostar