Escolar Documentos
Profissional Documentos
Cultura Documentos
),. . ., (
Diseo aleatorio:
( |
Donde
) = 0, para cada i = 1, . . . , n.
b) Var (
) =
para cada i = 1, . . . , n.
c) E (
) = 0 , para todo i j.
d)
, . . . ,
son independientes.
Hiptesis equivalentes para diseo fijo:
, . . . ,
N (
).
Hiptesis equivalentes para diseo aleatorio:
(
), . . . (
N(
).
Las hiptesis bsicas se verican mediante anlisis de los residuos. Sin embargo, como la
hiptesis de linealidad E (
)=(
)
es fundamental, siempre debe ser un anlisis
grco de los datos.
3. Principio De Mnimos Cuadrados :
Es una tcnica de Anlisis Numrico en la que, dados un conjunto de pares se intenta
encontrar la funcin que mejor se aproxime a los datos (un mejor ajuste).
En su forma ms simple, intenta minimizar la suma de cuadrados de las diferencias
ordenadas (llamadas residuos) entre los puntos generados por la funcin y los
correspondientes en los datos.
VENTAJAS
Es objetivo, slo depende de los resultados experimentales.
Es reproducible, proporciona la misma ecuacin, no importa quin realice el anlisis.
Proporciona una estimacin probabilstica de la ecuacin que representa a unos datos
experimentales.
Proporciona intervalos pequeos de error
Procedimiento estadstico para encontrar la lnea recta de mejor ajuste
Si se denota el valor ajustado o de pronstico para y por entonces la ecuacin de
pronstico o prediccin es:
Representan estimaciones de las verdaderas
Lo que se busca es minimizar las desviaciones escogiendo la recta que se ajuste mejor. Se
requiere de un criterio para calificar mejor ajuste, que resulte tanto razonable como
objetivo y que bajo ciertas suposiciones de buenas predicciones de y dado un valor de x.
suma de cuadrados del error
4. Medida De Bondad De Ajuste:
Las pruebas de bondad de ajuste tienen por objetivo determinar si los datos se ajustan a una
de terminada distribucin, esta distribucin puede estar completamente especicada
(hiptesis simple) o perteneciente a una clase paramtrica (hiptesis compuesta).
La prueba de bondad de ajuste se aplica en diseos de investigacin en los que se estudia
a un nico grupo.
La prueba compara la distribucin de frecuencias observada (Fo) de una variable
usualmente cualitativa, pero que tambin puede ser cuantitativa, con la distribucin de
frecuencias de la misma variable medida en un grupo de referencia.
El procedimiento de la prueba implica el clculo de una distribucin esperada (Fe) en el
grupo estudiado, usando como punto de partida a la distribucin de la variable en el grupo
de referencia. El propsito de la prueba es averiguar si existen diferencias estadsticamente
significativas entre la distribucin observada (Fo) y la distribucin esperada (Fe).
En la prueba se plantean las siguientes hiptesis estadsticas:
Hiptesis estadstica nula: Ho: Fo = Fe
Hiptesis estadstica alternativa: Ha: Fo Fe
El procedimiento de la prueba incluye el clculo de la medida de resumen llamada fi
cuadrada. El rechazo del Ho ocurre cuando el valor calculado con los datos resulta mayor
que el valor crtico de dicha medida contenido en una tabla llamada Valores Crticos de fi
cuadrada.
En el caso de que el valor de fi cuadrada calculada sea igual o menor al de fi cuadrada
crtica se dice que no se rechaza al Ho y, por tanto, se concluye que la Fo es semejante a la
Fe. En otras palabras, se dice que ambas distribuciones se ajustan bien; de ah el nombre de
la prueba: bondad de ajuste.
5. Coeficientes de la recta de regresin:
En el estudio de la relacin funcional entre dos variables poblacionales, una variable X,
llamada independiente, explicativa o de prediccin y una variable Y, llamada dependiente o
variable respuesta, presenta la siguiente notacin:
Y = a + bx+ e
Dnde:
a es el valor de la ordenada donde la lnea de regresin se intercepta con el eje Y.
b es el coeficiente de regresin poblacional (pendiente de la lnea recta)
e es el error
SUPOSICIONES DE LA REGRESIN LINEAL
Los valores de la variable independiente X son fijos, medidos sin error.
a variable Y es aleatoria.
Para cada valor de X, existe una distribucin normal de valores de Y (subpoblaciones Y)
Las variancias de las subpoblaciones Y son todas iguales.
Todas las medias de las subpoblaciones de Y estn sobre la recta.
Los valores de Y estn normalmente distribuidos y son estadsticamente independientes.
ESTIMACIN DE LA ECUACIN DE REGRESIN MUESTRAL
Consiste en determinar los valores de "a" y "b " a partir de la muestra, es decir, encontrar
los valores de a y b con los datos observados de la muestra. El mtodo de estimacin es el
de Mnimos Cuadrados, mediante el cual se obtiene:
Luego, la ecuacin de regresin muestral estimada es
Esto significa que en las mismas unidades de Y por cada unidad de X. Indica el nmero de
unidades en que vara Y cuando se produce un cambio, en una unidad, en X (pendiente de
la recta de regresin).
Un valor negativo de b sera interpretado como la magnitud del decremento en Y por cada
unidad de aumento en X.
6. Coeficiente de correlacin:
Mide el grado de intensidad de esta posible relacin entre las variables. Este coeficiente se
aplica cuando la relacin que puede existir entre las variables es lineal (es decir, si
representramos en un grfico los pares de valores de las dos variables los puntos se
aproximara a una recta).
Coeficiente de correlacin ( r ) es una medida de la intensidad de la relacin lineal entre dos
variables. Requiere datos de nivel de razn. Puede tomar cualquier valor de -1.00 a 1.00.
Los valores de -1.00 o 1.00 indican la correlacin perfecta y fuerte. Los valores cerca de 0.0
indican la correlacin dbil. Los valores negativos indican una relacin inversa y los
valores positivos indican una relacin directa.
La frmula para encontrarla es:
Parmetros:
El coeficiente de correlacin de Pearson es el calculado para variables continuas, si
tenemos dos variables X e Y, la correlacin entre ellas se la nombra r (X,Y), o solo r y est
dada por:
r = (x
i
-x) (y
i
-y )
(x
i
-x)
2
(y
i
-y)
2
Donde xi e yi son los valores de X e Y para el individuo i.
Es decir:
Numerador: se denomina covarianza y se calcula de la siguiente manera: en cada par de
valores (x,y) se multiplica la "x" menos su media, por la "y" menos su media. Se suma el
resultado obtenido de todos los pares de valores y este resultado se divide por el tamao de
la muestra.
Denominador se calcula el producto de las varianzas de "x" y de "y", y a este producto se le
calcula la raz cuadrada.
Los valores que puede tomar el coeficiente de correlacin "r" son: -1 < r < 1
Si "r" > 0, la correlacin lineal es positiva (si sube el valor de una variable sube el de la
otra). La correlacin es tanto ms fuerte cuanto ms se aproxime a 1.
Por ejemplo: altura y peso: los alumnos ms altos suelen pesar ms.
Si "r" < 0, la correlacin lineal es negativa (si sube el valor de una variable disminuye el de
la otra). La correlacin negativa es tanto ms fuerte cuanto ms se aproxime a -1.
Por ejemplo: peso y velocidad: los alumnos ms gordos suelen correr menos.
Si "r" = 0, no existe correlacin lineal entre las variables. Aunque podra existir otro tipo de
correlacin (parablica, exponencial, etc.)
De todos modos, aunque el valor de "r" fuera prximo a 1 o -1, tampoco esto quiere decir
obligatoriamente que existe una relacin de causa-efecto entre las dos variables, ya que este
resultado podra haberse debido al puro azar.
7. Prueba de hiptesis la pendiente de la recta de regresin:
Para probar hiptesis acerca de la pendiente y la ordenada en el origen del modelo de
regresin, debe hacerse la suposicin adicional de que termino del error i esta
normalmente distribuido. Por lo tanto, se supone que los errores i son NID (0,2). Despus
se pueden probar es suposiciones mediante el anlisis de residuos. Supongamos que el
experimentador desea probar la hiptesis de que la pendiente es igual a un cierto valor, por
ejemplo 1,0. Las hiptesis apropiadas son:
= 0
::
0
Al aceptar la
)= (
) y por lo tanto, al graficar nuestra recta de regresin sta pasa por el origen
formando respecto al eje de las abscisas
Prueba de hiptesis para el parmetro 1 (que indica la pendiente de la recta, es decir, el
incremento o decremento de la variable y por cada incremento de x).
= 0
::
0
Al aceptar nuestra
= (
+ (0)
), quedara
El resultado de la variable dependiente toma el valor constante de nuestro parmetro 0 y lo
que nos queda no es una recta de regresin lineal, ya que como en el caso anterior, no nos
plantea una relacin para poder predecir con cierta confianza valores para nuestra variable
dependiente y.
Bibliografa
http://www.uam.es/personal_pdi/economicas/sgarcia/analisisderegresion.pdf
http://www.uam.es/personal_pdi/ciencias/abaillo/AmbEst/Tema3.pdf
http://exa.unne.edu.ar/matematica/metodos/5-3-material-teorico/min-cuadrado.pdf
http://bellman.ciencias.uniovi.es/estadistica2/estadistica2_archivos/ajuste.pdf
http://www.euroschool.lu/esmaths/ficheros/septimo3pn/7/apuntes%20regresion%20sin%20
ejerc.pdf
http://moodle2.unid.edu.mx/dts_cursos_mdl/lic/AE/EI/AM/10/Prueba_de_hipotesis.pdf