Você está na página 1de 23

Pruebas para una muestra Prueba chi-cuadrado para una muestra La prueba chi-cuadrado para una muestra permite

averiguar si la distribucin emprica de una variable categrica se ajusta o no (se parece o no) a una determinada distribucin terica (uniforme, binomial, multinomial, etc.). Esta hiptesis de ajuste, o mejor, de bondad de ajuste, se pone a prueba utilizando un estadstico originalmente propuesto por Pearson para comparar las frecuencias observadas o empricas con las esperadas o tericas de cada categora, es decir, un estadstico diseado para comparar las frecuencias de hecho obtenidas en una muestra concreta (frecuencias observadas: ni) con las frecuencias que deberamos encontrar si la variable realmente siguiera la distribucin terica propuesta en la hiptesis nula (frecuencias esperadas: mi): La frecuencia esperada mi se obtienen multiplicando la probabilidad terica de cada categora i (la que corresponde a cada categora de acuerdo con la hiptesis nula) por el nmero de casos validos: n i. Si no existen casillas vacas y el numero de frecuencias esperadas menor de 5 no superan el 20% del total de frecuencias esperadas, el estadstico X2 se distribuye segn el modelo de probabilidad chi-cuadrado con k-1 grados de libertad (donde k se refiere al nmero de categoras de la variable la variable cuyo ajuste se est intentando evaluar) Ejemplo Melissa conjetura que el uso de cinturn de seguridad, en los conductores, est relacionado con el gnero. Los datos se muestran en la tabla inferior. Melissa realiza la prueba de su conjetura usando chi-cuadrado con un nivel de significancia del 1%. USO DE CINTURN DE SEGURIDAD GNERO FEMENINO MASCULINO S 50 40 NO 25 45

Entonces se tiene un nivel de significancia del 0.01. TABLA DE FRECUENCIAS ESPERADAS Para calcular todos y cada uno de los valores de la tabla de frecuencias esperadas se realiza:

Total Columna Para dicha celda Total Fila Para dicha celda SumaTotal

REALIZAR UNA TABLA CON LOS VALORES DE LA TABLA DE CONTINGENCIA Y AADIR UNA FILA EN LA PARTE INFERIOR Y UNA COLUMNA EN LA PARTE DERECHA.

50 40

25 45

REALIZAR LAS SUMAS POR FILAS, POR COLUMNAS Y LA SUMA TOTAL

Usar la frmula para obtener las frecuencias esperadas

Para obtener el valor de Chi-Cuadrado Calculado se tiene la frmula

TABLA DE VALORES OBSERVADOS

50

25

40

45

TABLA DE VALORES ESPERADOS

42.1875

32.8125

47.8125

37.1875

Grados de libertad Para calcular el grado de libertad (v) se realiza:

v Cantidad de filas 1Cantidad decolumnas 1


V=1 Para calcular el valor del parmetro p se realiza:

p 1 Nivel de significancia

p=1-0.01=0.99

COMPARACIN ENTRE LOS VALORES DEL CHI-CUADRADO CALCULADO Y EL CRTICO Si el valor del chi-cuadrado calculado es menor o igual que el chi-cuadrado crtico entonces se acepta la hiptesis nula, caso contrario no se la acepta.
2 calc Valor crtico

6.2248 6.635
Entonces se acepta la hiptesis nula, la cual es El uso del cinturn de seguridad es independiente del gnero.

PRUEBAS PARA UNA MUESTRA Distribucin binomial En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que mide el nmero de xitos en una secuencia de n ensayos de Bernoulli independientes entre s, con una probabilidad fija p de ocurrencia del xito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo son posibles dos resultados. A uno de estos se denomina xito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribucin binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado nmero de xitos. Para n = 1, la binomial se convierte, de hecho, en una distribucin de Bernoulli. Para representar que una variable aleatoria X sigue una distribucin binomial de parmetros n y p, se escribe:

La distribucin binomial es la base del test binomial de significacin estadstica.

Experimento binomial Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir slo dos categoras (a las que se denomina xito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). Se designa por X a la variable que mide el nmero de xitos que se han producido en losn experimentos. Cuando se dan estas circunstancias, se dice que la variable X sigue una distribucin de probabilidad binomial, y se denota B(n,p).

Caractersticas analticas Su funcin de probabilidad es

donde

siendolas combinaciones de

en

elementos tomados de

en

EJEMPLO: Un examen consta de 10 preguntas a las que hay que contestar SI o NO. Suponiendo que a las personas que se les aplica no saben contestar a ninguna de las preguntas y, en consecuencia, contestan al azar, hallar: a) Probabilidad de obtener 5 aciertos b) Probabilidad de obtener algn acierto SOLUCION: Es una distribucin binomial, la persona solo puede acertar o falla la pregunta. Suceso A (xito) = acertar la pregunta p=p(A)=0,5 Suceso B = no acertar la pregunta q=p(B)=0,5 Distribucin binomial de parmetros n=10, p=0,5. a) Probabilidad de obtener exactamente cinco aciertos k=5, aplicamos la frmula: ( ) k=5, n=10, p=0,5 y q=0,5 ( )

b) Probabilidad de obtener algn acierto

Hacerlo de esta forma resultara muy trabajoso, por ello lo haremos por sucesos contrarios.

PRUEBA DE LAS RACHAS


La prueba de las rachas sirve para determinar si una muestra de observaciones es o no aleatoria, es decir, para determinar si las observaciones de una determinada secuencia son independientes entre s. En una serie temporal, por ejemplo, las observaciones no son aleatoria: lo que ocurre con una observacin cualquiera depende, generalmente, de las caractersticas de la observacin anterior. En una muestra aleatoria, por el contrario, debemos esperar de lo que ocurre con una observacin cualquiera sea independiente de las caractersticas de la anterior (y de la siguiente). El concepto de racha hace referencia a una secuencia de un mismo tipo. Supongamos que lanzamos una moneda al aire 10 veces y que obtenemos el siguiente resultado: CCCXCCXXXC. Tenemos 5 rachas: CCC, X, CC, XXX y C.A simple vista el resultado obtenido parece aleatorio. Pero sin lugar de ese resultado hubiramos obtenido este otro: CCCCCXXXXX (2 veces rachas) Resultarams fcil ponernos de acuerdo en que la secuencia obtenida no parece aleatoria. Como tampoco parece aleatoria una secuencia con demasiadas rachas: CXCXCXCXCX (10 rachas) Pues bien, la prueba de las rachas permite determinar si el nmero de rachas (R) observado en una determinada muestra de tamao n es lo suficiente grande o suficiente pequeo como para poder rechazar la hiptesis de independencia (o aleatoriedad) entre las observaciones. Para obtener nmero de rachas es necesario que las observaciones estn clasificadas en dos grupos exhaustivos y mutuamente exclusivos (variable dicotmica). Si no lo estn, deberemos utilizar algn criterio (mediana, media, moda, etc.) Para ser lo que estn (variable dicotomizadas) Una vez clasificadas las n observaciones en dos grupos (de tamaon1 y n2) el SPSS utiliza una tipifacin del nmero de rachas (R) para contrastar la hiptesis de aleatoriedad o independencia.

] [ Donde: E(R) = (2n1n2)/(n+1) y [ Z se distribuye segn el modelo de probabilidad normal N(0,1)

]. El estadstico

Prueba de Kolmogorov-Smirnov para una muestra Premisas La nica premisa que se necesita es que las mediciones se encuentren al menos en una escala de intervalo. Se necesita que la medicin considerada sea bsicamente continua. Adems dicha prueba es aplicable cualquiera sea el tamao de la muestra. Potencia-Eficiencia La prueba de una muestra de K-S puede en todos los casos en que se aplique ser ms poderosa que su prueba alternativa, la prueba de c 2 ( ji-cuadrado. Caractersticas de la Prueba La prueba de K-S de una muestra es una prueba de bondad de ajuste. Esto es, se interesa en el grado de acuerdo entre la distribucin de un conjunto de valores de la muestra y alguna distribucin terica especfica. Determina si razonablemente puede pensarse que las mediciones mustrales provengan de una poblacin que tenga esa distribucin terica. En la prueba se compara la distribucin de frecuencia acumulativa de la distribucin terica con la distribucin de frecuencia acumulativa observada. Se determina el punto en el que estas dos distribuciones muestran la mayor divergencia. Hiptesis Ho: La distribucin observada se ajusta a la distribucin terica. F(x) = Ft(x) para todo x. H1: La distribucin observada no se ajusta a la distribucin terica. Tambin: F(x) Ft(x) para algn x F(x): es funcin desconocida Ft(x): es la funcin terica. Esta puede ser por ejemplo la funcin normal con cierta media y varianzas conocidas. Estadgrafo y distribucin muestral D = mxima Sn(x): es la funcin de distribucin emprica.
Ejemplo El entrenador de salto de un grupo de atletas, desea conocer con vistas al procesamiento de los datos por el obtenidos sobre salto de una muestra aleatoria de atletas de esa especialidad en un CVD, si las mediciones realizadas por l estn distribuidas normalmente. Los datos son los siguientes:

Salto Largo 1.60 m 1.65 m Ho: Los datos estn distribuidos normalmente 1 .55 m H1: Los datos no estn distribuidos normalmente. 1.62 m 1.64 m 1.70 m 1.71 m 1.68 m 1.66 m 1.67 m 1.65 m 1.68 m 1.69 m 1.70 m Salidas de la dcima

Conclusiones: No se rechaza a Ho, por tanto la distribucin de los datos es normal. Tcnicas adicionales a la dcima Tabla de frecuencias Histograma. Estadgrafos que deben acompaar a los estadgrafos de la dcima 1-Tabla de frecuencias. Tcnicas auxiliares para respaldar los resultados obtenidos en la conclusin.

1-Histogramas.

PRUEBAS PARA DOS MUESTRAS INDEPENDIENTES: Este procedimiento contiene varias pruebas no paramtricas, todas ellas diseadas para analizar datos provenientes de diseos con una variable independiente categrica (con dos niveles que definen dos grupos o muestras) y una variable dependiente cuantitativa al menos ordinal (en la cual interesa comparar los grupos o muestras). El procedimiento incluye cuatro pruebas: la prueba U de Mann-Whitney, la prueba de Kolmogorov-Smirnov para dos muestras, la prueba de reacciones extremas de Moses y la prueba de las rachas de Wald-Wolfowitz. Prueba U de Mann-Whitney En estadstica la prueba U de Mann-Whitney (tambin llamada de Mann-WhitneyWilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney) es una prueba no paramtrica aplicada a dos muestras independientes. Es, de hecho, la versin no paramtrica de la habitual prueba t de Student. Fue propuesto inicialmente en 1945 por Frank Wilcoxon para muestras de igual tamaos y extendido a muestras de tamao arbitrario como en otros sentidos por Henry B. Mann y D. R. Whitney en 1947.

Planteamiento de la prueba La prueba de Mann-Whitney se usa para comprobar la heterogeneidad de dos muestras ordinales. El planteamiento de partida es: 1. Las observaciones de ambos grupos son independientes 2. Las observaciones son variables ordinales o continuas. 3. Bajo la hiptesis nula, las distribuciones de partida de ambas distribuciones es la misma 4. Bajo la hiptesis alternativa, los valores de una de las muestras tienden a exceder a los de la otra: P(X > Y) + 0.5 P(X = Y) > 0.5.

Calculo de estadstico Para calcular el estadstico U se asigna a cada uno de los valores de las dos muestras su rango para construir

donde n1 y n2 son los tamaos respectivos de cada muestra; R1 y R2 es la suma de los rangos de las observaciones de las muestras 1 y 2 respectivamente. El estadstico U se define como el mnimo de U1 y U2.

Los clculos tienen que tener en cuenta la presencia de observaciones idnticas a la hora de ordenarlas. No obstante, si su nmero es pequeo, se puede ignorar esa circunstancia.

Distribucin del estadstico La prueba calcula el llamado estadstico U, cuya distribucin para muestras con ms de 20 observaciones se aproxima bastante bien a la distribucin normal. La aproximacin a la normal, z, cuando tenemos muestras lo suficientemente grandes viene dada por la expresin:

Donde mu y uson la media y la desviacin estndar de U, si la hiptesis nula es cierta, y vienen dadas por las siguientes frmulas:

EJEMPLO: Los adultos obesos que consultan a un centro de control de peso de la ciudad de Medelln son sometidos a una de dos intervenciones para reducir de peso: plan de alimentacin dirigido y plan de alimentacin dirigido combinado con un plan de actividad fsica. Se desea entonces determinar si el peso perdido a los 6 meses despus de iniciada la intervencin de reduccin de peso, difiere significativamente entre los dos tipos de intervencin. Consideraciones: 2 grupos independientes: (1) Obesos que llevan a cabo un plan de alimentacin dirigido; (2) Obesos que siguen un plan de alimentacin combinado con un plan de actividad fsica. Ho: El peso perdido a los 6 meses no es significativamente diferente entre los obesos que llevan a cabo un plan de alimentacin dirigido y aquellos que siguen un plan de alimentacin combinado con un plan de actividad fsica. HA: El peso perdido a los 6 meses es significativamente diferente entre los obesos que llevan a cabo un plan de alimentacin dirigido y aquellos que siguen un plan de alimentacin combinado con un plan de actividad fsica. Regla de decisin: Si p 0.05 se rechaza Ho Pasos: 1. Determinar tamao de muestras n1 = 6 y n2 = 6

2. Ordenar observaciones en rangos de menor a mayor Intervencin de reduccin de peso Plan de alimentacin dirigido (Grupo 1) Plan de alimentacin dirigido + Plan de AF (Grupo 2) Peso perdido a 6 meses (Kg) 2 (1) 28 8 (3) 16 10 (5) 14 (7) 7 (2) 15 (8.5) 12 (6) 9 (4) 20 28 (11) 15 50 (12) (10) (8.5)

3. Clculo del estadstico U

n1 (n1 1) 6 (6 1) R1 6 6 28 29 2 2 n2 (n2 1) 6 (6 1) U2 n1 n2 R2 6 6 50 7 2 2 U1 n1 n2
Donde: U1 y U2 = valores estadsticos de U Mann-Whitney. n1 = tamao de la muestra del grupo 1. n2 = tamao de la muestra del grupo 2. R1 = sumatoria de los rangos del grupo 1. R2 = sumatoria de los rangos del grupo 2.

4.De los dos valores de U calculados, se elige el ms pequeo (7) y se compara con los valores crticos de U Mann-Whitney de la tabla de probabilidades.

5. Valor de probabilidad 0.047 (unilateral) x 2 =0.09 6. Decisin Como valor de la probabilidad (0.09) > 0.05, se acepta la H0. 7. Interpretacin Con una confianza del 95%, se evidencia que el peso perdido a los 6 meses no es significativamente diferente entre los obesos que siguen slo un plan de alimentacin dirigido y los que siguen el plan de alimentacin combinado con un plan de actividad fsica.

PRUEBA DE REACCIONES EXTREMAS DE MOSES Esta prueba sirve para estudiar si existe diferencia en el grado de dispersin o variabilidad de las distribuciones. Supongamos que deseamos evaluar el nivel de desarrollo cognitivo alcanzado por dos grupos de nios que han seguido programas educativos distintos. Si estamos interesados simplemente en constatar cual de los dos grupos ha alcanzado, el promedio y mayor nivel de desarrollo, podemos limitarnos a comparar los promedios de ambos grupos con alguno de los procedimentos (parametricos o no parametricos) ya estudiados. Pero esta forma de proceder pasara por alto una cuestin de gran importancia: poda ocurrir que uno de los mtodos educativos consiguiera incrementar el nivel de desarrollo de los nios de forma generalizada y que el otro mtodo educativo consiguiera el mismo objetivo con solo unos pocos nios, aunque de forma mas marcada, o podra ocurrir que consiguiera incrementar mucho el nivel de desarrollo de unos nios y muy poco el de otros (reacciones extremas). Estas diferencias entre mtodos no quedara reflejada en las medias, pero si e la variabilidad, por lo que solo acompaando el contraste de medias con un contraste de varianzas podramos podramos obtener informacin real sobre lo que est ocurriendo. Consideremos 2 muestras (c=control y e=experimental) extradas aleatoriamente de la misma poblacin o de dos poblaciones idnticas. Para obtener el estadstico de Moses se comienzan a ordenando las n=nc+ne observaciones de forma ascendente y asignndoles, como si se tratara de una nica muestra, rangos de 1 a n: un 1 a la ms pequea, un 2 a la mas pequea de las restantes, etc. (los empates se resuelven asignando el rango medio). A continuacin se calcula la Amplitud del grupo control (Ac) restando los rangos correspondientes a los valor mas grande y mas pequeo de ese grupo y sumando 1 a esa diferencia; el resultado s redondea al entero mas prximo. Dado que la amplitud es una medida de dispersin muy inestablem, Moses siguiere utilizar la amplitud recortada (Ar). Para ello, se fija un valor pequeo (r) y se calcula la amplitud tras descartar r valores del grupo control por arriba y por abajo (2r valores en total). La amplitud recortada se obtienen restando los rangos correspondientes al valor al valor mas grande y al mas pequeo del grupo control tras eliminar del computo los r valores mas grandes y los r valores mas pequeos de ese grupo; y, por supuesto, sumando 1 a esa diferencia y redondeando al entero mas prximo. Es evidente que Ar no puede ser menor que nc-2r (ni mayor que n-2r). Adems, si en el grupo experimental se han producido reacciones externas, la amplitud del grupo control tendera a su valor mnimo, pues habr pocas observaciones del grupo experimental entremezcladas con la de control. Por lo tanto, podra resultar muy informativo conocer la probabilidad asociada a los valores Ar que superen en alguna cantidad el valor nc-2r. Si llamamos s a la cantidad en que un determinado valor observado de Ar supera nc-2r, podemos obtener la probabilidad de encontrar valores Ar como el observado o menores, mediante:
[( )( ( ) )]

Prueba de kolmogorov-smirnov Esta prueba sirve para contrastar la hiptesis de que dos muestras procedes de la misma poblacin. Para ello, compara las funciones de distribucin (funciones de probabilidad acumuladas) de ambas muestras: F1(Xi) y F2(Xi). A diferencia de lo que ocurre con la prueba U de Mann-Whitney, que permite comparar dos promedios poblacionales, la prueba de Kolmogorov-Smirnov es sensible a cualquier tipo de diferencia entre las dos distribuciones (tendencia central, simetra, variabilidad, etc.). Para obtener las funciones de distribucin de las dos muestras se comienzan asignando rangos a los valores de Xi. Esta asignacin de rangos se realiza de forma separada para cada muestra y los empates se resuelven asignando el rango promedio a las puntuaciones empatadas. Tras asignar rangos a los valores de ambas muestras, la funcin de distribucin emprica para cada valor de Xi se obtiene, en cada muestra, de la siguiente manera: Fj(Xi)=i/nj (donde i se refiere al rango correspondiente a cada observacin). A continuacin se obtienen las diferencias Di=F1(Xi) - F2(Xi), donde F1(Xi) se refiere a la funcin de distribucin de la muestra de mayor tamao. Una vez obtenida las diferencias Di, la hiptesis de las dos muestras proceden de la misma poblacin se pone a prueba utilizando una tipificacin de la diferencia ms grande en valor absoluto: Zk-s = mxi |Di| Este estadsticos Z se distribuye segn el modelo de probabilidad normal N(0,1). El SPSS utiliza el mtodo de Smirnov para obtener las probabilidades concretas asociadas a los valores del estadstico Z. este mtodo difiere del estndar (basado en las probabilidades de la curva normal estandarizada), pero es equivalente. Si la probabilidad de obtener una diferencia tan grande como la observada es muy pequea (generalmente, menor que 0,05), podremos rechazar la hiptesis de que ambas muestras procedes de la misma poblacin. EJEMPLO: Se ha realizado una muestra a 178 municipios al respecto del porcentaje de poblacin activa dedicada a la venta de ordenadores resultando los siguientes valores: PORCENTAJE Menos del 5% Entre el 5% y el 10% Entre el 10% y el 15% Entre el 15% y el 20% Entre el 20% y el 25% Entre el 25% y el 30% Entre el 30% y el 35% Entre el 35% y el 40% Entre el 40% y el 50% Ms del 45% NUMERO DE MUNICIPIOS 18 14 13 16 18 17 19 24 21 18

Queremos contrastar que el porcentaje de municipios para cada grupo establecido se distribuye uniformemente con un nivel de significacin del 5%. Bajo la hiptesis nula cada grupo debiera de estar compuesto por el 10% de la poblacin dado que existen diez grupos. As podemos establecer la tabla: grupos -variable n0,i 18 14 13 16 18 17 19 24 21 18 F0(xi) 18/178=0.1011 32/178=0,1798 0,2584 0,3427 0,4439 0,5393 0,6461 0,7809 0,8989 1 nt,i=nP(xi) 17,8 17,8 17,8 17,8 17,8 17,8 17,8 17,8 17,8 17,8 F0(xi) 17,8/178=0,1 35,6/178=0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 mxi | F1(Xi) - F2(Xi) | 0,0011 0,0202 0,0416 0,0573 0,0561 0,0607 (mximo) 0,0539 0,0191 0,0011 0

Menos del 5% Entre el 5% y el 10% Entre el 10% y el 15% Entre el 15% y el 20% Entre el 20% y el 25% Entre el 25% y el 30% Entre el 30% y el 35% Entre el 35% y el 40% Entre el 40% y el 50% Ms del 45%

Siendo la mxima diferencia =0,0607 y por tanto el estadstico de K-S que compararemos con el establecido en la tabla que ser para un nivel de significacin de 5% y una muestra de 178, dado que el estadstico es menor (0,0607) que el valor de la tabla (0,1019) no rechazamos la hiptesis de comportamiento uniforme de los grupos establecidos al respecto de la poblacin activa dedicada a la venta de ordenadores. PRUEBAS PARA VARIAS MUESTRA INDEPENDIENTES Este procedimiento contiene varis pruebas no paramtricas, todas ellas diseadas para analizar datos provenientes de diseos con una variable independiente categrica (con ms de dos niveles que definen ms de dos grupos o muestras) y una variable dependiente cuantitativa al menos ordinal en la cual interesa comparar las muestras. El procedimiento incluye tres pruebas: la prueba H de Kruskal-Wallis, la prueba de la mediana y la prueba de Jonckheere-Terpstra (sta ltima solo se incluye en el mtodo pruebas exactas). Prueba H de Kruskal-Wallis En estadstica, la prueba de Kruskal-Wallis (de William Kruskal y W. Allen Wallis) es un mtodo no paramtrico para probar si un grupo de datos proviene de la misma poblacin. Intuitivamente, es idntico al ANOVA con los datos reemplazados por categoras. Es una extensin de la prueba de la U de Mann-Whitney para 3 o ms grupos. Ya que es una prueba no paramtrica, la prueba de Kruskal-Wallis no asume normalidad en los datos, en oposicin al tradicional ANOVA. S asume, bajo la hiptesis nula, que los datos vienen de la misma distribucin. Una forma comn en que se viola este supuesto es con datos heterocedsticos. METODOS:

1. El estadstico est dado por:

donde:

es el nmero de observaciones en el grupo es el rango (entre todas las observaciones) de la observacin grupo es el nmero total de observaciones entre todos los grupos en el

, es el promedio de . es exactamente

Note que el denominador de la expresin para

. Luego

. por

2. Se puede realizar una correccin para los valores repetidos dividiendo

, donde es el nmero de grupos de diferentes rangos repetidos, y es el nmero de observaciones repetidas dentro del grupo que tiene observaciones repetidas para un determinado valor. Esta correccin hace cambiar a muy poco al menos que existan un gran nmero de observaciones repetidas. 3. Finalmente, el p-value es aproximado por . Si algn es pequeo ( ) la distribucin de puede ser distinta de la chi-cuadrado.

Prueba para la Mediana


La prueba de la mediana es similar a la prueba de la Chi-cuadrado ya estudiada en el capitulo 12 sobre tablas de contingencia. La nica diferencia entre ambas es que ahora, en lugar de utilizar dos variables categricas, una de ellas es cuantitativa y se dicotomiza utilizando la mediana (de ah el nombre de la prueba). Tenemos, por tanto, una variable categrica que define J muestras de tamao siendo n= ) y una variable al menos ordinal. El objeto de la prueba de la mediana es contrastar la hiptesis de que las J muestras proceden de poblaciones con la misma mediana. Para ello, se comienza ordenando todas las observaciones y calculando la mediana total (la mediana de n observaciones).

[ ]

])

Si n es par

] Si n es impar

(Donde [ ] se refiere al valor ms grande y [ ] al ms pequeo). A continuacin se registra, dentro de cada muestra, el nmero de casos con puntuacin igual o menor que la mediana (grupo 1) y el nmero de casos con valor mayor que la mediana (grupo = 2). Tras esto, se construye una tabla de contingencia bidimensional de tamao 2 x J, con las 2 filas correspondientes a los dos grupos obtenidos al dicotomizar por la mediana y las J columnas correspondientes a las J muestras independientes. Por ltimo, se aplica el estadstico Chi-cuadrado ya estudiado en el capitulo 12, apartado Estadsticos >Chi-cuadrado. Las frecuencias esperadas se obtienen suponiendo que los 2 grupos y las J muestras son independientes.

PRUEBAS PARA VARIAS MUESTRAS RELACIONADAS Prueba de Friedman La prueba de Friedman sirve para comparar J promedios poblacionales cuando se trabaja con muestras relacionadas. La situacin experimental que permite resolver esta prueba es similar a la estudiada a propsito del ANOVA de un factor con medidas repetidas: a n sujetos (o a n bloques, cada uno de tamao J) se le aplican J tratamientos o se le toman J medidas con intensin de averiguar si los promedios de esos J tratamientos o medidas son o no iguales. Las ventajas de esta prueba frente al estadstico F del ANOVA son las mismas que hemos sealado a propsito del estadstico H de Kruskal-Wallis: no exige supuestos tan exigentes como los del ANOVA(normalidad, igualdad de varianza) y permite trabajar con datos ordinales. La prueba de Friedman, por tanto, constituye una alternativa al estadstico F cuando no se cumplen los supuestos parametricos del ANOVA o el nivel de medida de los datos es ordinal. El diseo esta formado por J muestras o tratamientos relacionados y por una muestra aleatoria de n sujetos o bloques independientes entre si e independientes de los tratamientos. Las puntuaciones originales deben ser transformadas en rangos Rij. Estos rangos se asignan independientemente para cada sujeto o bloque; es decir, se asignan rangos de 1 a J a las observaciones del sujeto o bloque 1; lo mismo con el bloque 2; y lo mismo con el resto de bloques por separado. Los rangos asignados a cada sujeto o bloque suman, en todos los casos, J(J+1)/2 (pues en cada sujeto o bloque estamos asignando rangos desde 1 a J). Llamaremos Rij al rango asignado al sujeto o bloque i en el tratamiento o muestra j. Y Rj a la suma de los rangos asignados a las n observaciones de la muestra j: Obviamente, si los promedios poblacionales son iguales, los Rj sern parecidos. Tomando como punto de partida esta suma de rangos, Friedman ha diseado un estadstico con distribucin muestral conocida capaz de proporcionarnos informacin sobre el parecido existente entre las J poblaciones El estadstico de Friedman se distribuye segn el modelo de la probabilidad chi-cuadrado con J1 grados de libertad

Coeficiente de concordancia de W de Kendall El coeficiente de concordancia W (obtenido independientemente por Kendall y BabingtonSmith) sirve para estudiar la relacin (acuerdo, concordancia) existente entre J>2 conjuntos de rangos. La necesidad de estudiar la relacin entre J conjuntos de rangos se presenta con cierta frecuencia en diferentes reas de conocimiento. Tales situaciones se producen, por ejemplo, cuando una muestra aleatoria de n sujetos u objetos es clasificada segn J caractersticas; o cuando J jueces evalan, ordenan o clasifican una muestra de n sujetos u objetos segn una caracterstica. Cualquiera que sea la forma de obtener ese conjunto de J rangos, podemos llamar Rij al rango que corresponde al sujeto objeto i en la caracterstica j, o al rango asignado al sujeto u objeto i por el juez j; y Ri se refiere a la suma de los rangos correspondientes al sujeto u objeto i: Podemos decir que se le da concordancia perfecta entre J conjuntos de rangos cuando todos los jueces valoran o clasifican a los n sujetos u objetos del mismo modo (es decir, cuando los jueces coinciden plenamente en sus juicios) o cuando los n sujetos u objetos son clasificados de idntica manera en las J caractersticas consideradas. Cuando ocurre esto, todos los jueces coinciden en asignar el rango 1 uno de los sujetos u objetos, el rango 2 a otro de los sujetos u objetos,, el rango n a otro de los sujetos u objetos sern: 1J, 2J, 3J,, iJ,, nJ. Decimos, por el contrario, que no existe concordancia entre J conjuntos de rangos cuando los n sujetos u objetos son valorados o clasificados de diferente forma por los J jueces (es decir cuando los jueces no coinciden con sus juicios) o cuando los n sujetos u objetos son clasificados de diferente manera en las J caractersticas consideradas. Cuando ocurre esto, a uno de los sujetos u objetos le corresponde rango de 1 a n, a otro de los sujetos u objetos le corresponde igualmente rangos de 1 a n, y lo mismo con el resto de sujetos u objetos. Lo cual implica que, en caso de concordancia nula, los totales Ri correspondientes a los diferentes sujetos u objetos sern iguales:

(pues la suma de los J conjuntos de rango vale Jn(n+1)/2). As pues, el grado de concordancia existente queda reflejado en la variabilidad entre los totales Ri de los diferentes sujetos u objetos. Cuando la concordancia entre J conjuntos de rango es perfecta, la variabilidad entre los Ri es mxima; cuando la concordancia es nula, la variabilidad entre los Ri es mnima. Teniendo en esto en cuenta, podemos definir el estadstico: ( )

El cual representa una variabilidad observada entre cada Ri y el total que cabria que esperar si la concordancia fuera nula. S valdra cero cuando la concordancia existente sea nula (pues, en ese caso, todos los totales Ri sern iguales entre si e iguales a J(n+1)/2) y alcanzara su mximo en caso de concordancia perfecta, es decir, cuando entre los totales Ri exista la mxima variabilidad:

Ahora bien si queremos obtener un coeficiente que valga cero en el caso de concordancia una y 1 en el caso de concordancia perfecta podemos servirnos de una trasformacin consistente es dividir S entre su valor mximo posible. Esta solucin es lo que conocemos como coeficiente de concordancia W de Kendall

Cuando entre J conjuntos de rango existe concordancia mxima, W vale 1; cuando se da concordancia nula, W vale 0. Para poder afirmar que existe concordancia significativa entre J conjuntos de rangos necesitamos hacer inferencias sobre el parmetro W. Esto, realidad, tiene fcil solucin pues W es finalmente transformable en el estadstico X2, de Friedman:

De hecho, el coeficiente W de Kendall y el estadstico X2, de Freidman son aplicables al mismo tipo de situaciones. Mantener la hiptesis de que las distribuciones poblacionales son idnticas dentro de cada sujeto o bloque usando el estadstico de Friedman es exactamente la misma cosa que mantener el coeficiente de concordancia de Kendall la hiptesis de que las sumas de los J rangos asignados a cada sujeto u objeto(los totales Ri) son iguales. Es decir, mantener la hiptesis nula de que los tratamientos son iguales es exactamente lo mismo que mantener la hiptesis nula de ausencia de concordancia.

PRUEBA DE COCHRAN: Al estudiar mas de dos proporciones relacionadas nos encontramos en una situacion similara la expuesta para el caso de dos proporciones relacionadas. Seguimos trabajando con variable que puede trabajar con dos valores ( variable dicotmic o dicotomizada), solo que ahora tenemos mas de dos (J>2) muestras relacionadas. El diseo es bastante simple: a n sujetos se le toman J medidas de una variable dicotmica, o J variables dicotmicas son medidas en una muestra de n sujetos.Estamos, por tanto, ante un diseo identico al presentado a proposito del ANOVA A-EF-MR (medidas repetidas o bloques con unsujeto por nivel y bloque), pero con la diferencia de uqe aqu la variable medida ( es decir la variable dependiente) es una variable dicotomica ( una variable que solo puede tomar dos valores). Las proporciones marginales P+j representan las proporciones de aciertos de cada muestra o tratamiento: P+j =T+j/n (siendo T+j la suma de aciertos de cada muestra). Si las J muestras proceden de poblaciones identicas, cabe esperar que las proporciones marginales P+j sean iguales excepto en la parte atribuible a las fluctuacionales propias del azar muestral. Basandose en este hecho Cochran (1950) ha diseado un sencillo procedimiento que permita poner a prueba la hipotesis de igualdad entre J proporciones poblacionales (H0: +1 = +2 == +j): El estadistico Q de Cochran se distribuye segn X con J-1 grados de libertad.
2

Você também pode gostar