Você está na página 1de 11

PRUEBA DE CONFIABILIDAD

Existen dos procedimientos para la prueba de confiabilidad mediante la


consistencia interna:
- Kudder y Richardson (KR-20)
Para pruebas dicotómicas
- Alfa de Crombach
Para pruebas politómicas

CÁLCULO DEL ALFA DE CROMBACH (𝜶𝜶)


La fórmula a emplear es:
𝐾𝐾 ∑ 𝑆𝑆𝑖𝑖 2
𝛼𝛼 = �1 − �
𝐾𝐾 − 1 𝑆𝑆𝑡𝑡 2

De donde:

𝛼𝛼 : Coeficiente alfa de Crombach

𝐾𝐾 : Número de ítems

𝑆𝑆𝑖𝑖 2 : Varianza de un ítem

∑ 𝑆𝑆𝑖𝑖 2 : Sumatoria de las varianza de cada ítem

𝑆𝑆𝑇𝑇 2 : Varianza del total de la prueba

CÁLCULO DEL KUDDER – RICHARDSON (KR-20)


La fórmula a emplear es la misma que para el Alfa de Chombach:
𝐾𝐾 𝑉𝑉𝑡𝑡 − ∑ 𝑝𝑝𝑖𝑖 𝑞𝑞𝑖𝑖
𝐾𝐾𝐾𝐾20 = 𝑥𝑥
𝐾𝐾 − 1 𝑉𝑉𝑡𝑡

De donde:

𝐾𝐾𝐾𝐾 − 20 : Coeficiente Kudder y Richardson

𝐾𝐾 : Número de ítems

𝑝𝑝𝑖𝑖 𝑞𝑞𝑖𝑖 : Varianza de un ítem

∑ 𝑝𝑝𝑖𝑖 𝑞𝑞𝑖𝑖 : Sumatoria de las varianza de cada ítem

𝑉𝑉𝑡𝑡 : Varianza del total de la prueba


Determinar la confialbilidad por medio del software SPSS

Seguir la secuencia:

Nos mostrará la tabla siguiente:

Seleccionar los ítems y pasarlo a la caja Elementos:


En esta ventana seleccionar el coeficiente y luego pinchar en el botón aceptar.

Luego nos mostrará el resultado, tal como se puede ver en el ejemplo.

Fiabilidad

Escala: ALL VARIABLES

Resumen de procesamiento de casos


N %
Casos Válido 25 100,0
Excluidoa 0 ,0
Total 25 100,0
a. La eliminación por lista se basa en todas
las variables del procedimiento.

Estadísticas de fiabilidad
Alfa de
Cronbach N de elementos
,814 25
NORMALIDAD
Introducción
Para determinar si los datos no siguen una distribución normal, debemos
comparar el valor p con el nivel de significancia 𝛼𝛼.
Por lo general, un nivel de significancia 𝛼𝛼 = 0,05 es lo adecuado. Este valor
indica un riesgo de 5% de concluir que los datos no siguen una distribución
normal, cuando los datos sí siguen una distribución normal.

Decisiones:
1) Para p ≤ α: Los datos no siguen una distribución normal (Se rechaza la
hipótesis nula H0) y se concluye que los datos no siguen una distribución
normal.
2) Para p > α: no se puede concluir que los datos no siguen una distribución
normal (No puede rechazar la hipótesis nula H0), es decir no se tiene
suficiente evidencia para concluir que los datos no siguen una distribución
normal.

Prueba de Normalidad con el software SPSS


Para realizar la prueba de normalidad con el software SPSS, seguimos la
siguiente secuencia:

Nos mostrará la siguiente ventana:


Seleccionamos las variables y lo enviamos a la caja Lista de dependientes con
el botón:

Obtendremos
Luego picamos en el botón Gráficos ….

En esta ventana, solo activamos la casilla Gráficos con pruebas de normalidad y


picamos en el botón Continuar y en la ventana anterior Aceptar.
Vamos a obtener la siguiente tabla:

Pruebas de normalidad
Kolmogorov-Smirnova Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Variable1 ,233 25 ,001 ,822 25 ,001
Variable2 ,188 25 ,023 ,892 25 ,012
a. Corrección de significación de Lilliefors

Este cuadro nos muestra dos pruebas de normalidad: Kolmogorov – Smirnov y


Shapiro – Wilk.
Muchos autores recomiendan usar Kolmogorov – Smirnov para muestras
mayores a 50 y para muestras de hasta 50 usar Shapiro . Wilk.
En el ejemplo tenemos una muestra de 25, por lo que usaremos Shapiro – Wilk.
Ahora en esta tabla nos fijamos en el nivel de significancia p.
Se sabe que:
Si 𝑝𝑝 < 0,05 entonces la distribución es no normal y
Si 𝑝𝑝 > 0,05 entonces la distribución es normal
Para nuestro caso tenemos:
Para la Variable1: 𝑝𝑝 = 0,01 < 0,05
Para la Variable2: 𝑝𝑝 = 0,012 < 0,05
En ambos casos la significancia es menor a 0,05; entonces ambas distribuciones
son no normales.
MEDIDA DE LA CORRELACIÓN
La correlación nos indica si dos variables están relacionadas o no. Hay que
precisar que “la correlación no implica causalidad”. Esto significa que cuando
nosotros encontramos una asociación estadística entre dos variables, no
podemos concluir que una de las variables es la causa de la otra.

Coeficiente de correlación
El coeficiente de correlación es un estadístico que proporciona información sobre
la relación lineal existente entre dos variables cualesquiera. Básicamente, esta
información se refiere a dos características de la relación lineal: la dirección o
sentido y la cercanía o fuerza.
Para analizar esta relación entre variables, se determina el coeficiente de
correlación (r), que varía entre -1 y 1.
−1 ≤ 𝑟𝑟 ≤ 1
Cuando:
 𝒓𝒓 > 𝟎𝟎, la correlación es positiva; en este caso, si una variable aumenta, la
otra también aumenta y si una disminuye, la otra también disminuye.
Matemáticamente se puede decir que son directamente proporcionales.
 𝒓𝒓 < 𝟎𝟎, la correlación es negativa; en este caso, si una variable aumenta la
otra disminuye y viceversa Matemáticamente se dice que son inversamente
proporcionales.
 𝒓𝒓 = 𝟎𝟎, indica que no hay relación entre las variables, es decir son
independientes.

Fuerza de la relación
r Fuerza
0 No hay relación
|𝑟𝑟| ≤ 0,1 Muy débil o despreciable
|𝑟𝑟| ≤ 0,3 Débil o baja
|𝑟𝑟| ≤ 0,5 Moderada o mediana
|𝑟𝑟| ≤ 1 Fuerte o alta

Existen tres coeficientes de correlación:


 Coeficiente de correlación de Pearson (r), se usa cuando ambas
variables son continuas (medidas de intervalo) y los datos tienen una
distribución normal.
Para determinar se usa la fórmula:
𝑆𝑆𝑥𝑥𝑥𝑥
𝑟𝑟 =
𝑆𝑆𝑥𝑥 𝑆𝑆𝑦𝑦
Donde:
𝑟𝑟 : Coeficiente de correlación Pearson
𝑆𝑆𝑥𝑥𝑥𝑥 : Covarianza entre las variables x e y
𝑆𝑆𝑥𝑥 : Desviación estandar de la variable x
𝑆𝑆𝑦𝑦 : Desviación estandar de la variable y
La covarianza se determina por la fórmula:
1
𝑆𝑆𝑥𝑥𝑥𝑥 = �(𝑥𝑥𝑖𝑖 − 𝑥𝑥̅ )(𝑦𝑦𝑖𝑖 − 𝑦𝑦�)
𝑛𝑛
La desviación estándar o típica se determina por:

∑(𝑥𝑥 − 𝑥𝑥̅ )2
𝑆𝑆 = �
𝑛𝑛 − 1

Reemplazando se obtiene:
1
∑(𝑥𝑥𝑖𝑖 − 𝑥𝑥̅ )(𝑦𝑦𝑖𝑖 − 𝑦𝑦�)
𝑟𝑟 = 𝑛𝑛
∑( )2
�∑(𝑥𝑥 − 𝑥𝑥̅ ) 𝑥𝑥 � 𝑦𝑦 − 𝑦𝑦�
2
𝑛𝑛 − 1 𝑛𝑛 − 1
 Coeficiente de correlación de Kendall (𝝉𝝉), es particularmente adecuada
este coeficiente cuando se estudia la relación entre variables cualitativas
de tipo ordinal, además cuando los datos no poseen una distribución normal
y dichos datos son pocos con muchos valores en el mismo rango o clase.
Se puede usar por ejemplo con datos categóricos codificados binariamente
(0,1). Se determina por la fórmula:
2 (𝑃𝑃 − 𝑀𝑀)
𝜏𝜏 =
𝑛𝑛 (𝑛𝑛 − 1)
Donde:
𝜏𝜏 : Coeficiente de correlación de Kendall
𝑃𝑃 : N° de pares concordantes
𝑀𝑀 : N° de pares discordantes
𝑛𝑛 : Muestra
 Coeficiente de correlación de Spearman (𝝆𝝆),
El coeficiente de correlación de rangos de Spearman, se usa en aquellos
análisis de datos entre variables cuyas escalas de medidas sean al menos
ordinales, o que exista suficientes evidencias de que las variables en
estudio a pesar de ser cuantitativas no siguen un comportamiento normal.
Es el mismo coeficiente de correlación de Pearson pero aplicado luego de
efectuar una transformación de los valores originales de las variables en
rangos.
Se determina por:
6 . ∑(𝑥𝑥𝑖𝑖 − 𝑦𝑦𝑖𝑖 )2
𝜌𝜌 = 1 −
𝑛𝑛3 − 𝑛𝑛
Donde:
𝜌𝜌 : Coeficiente de Spearman
∑(𝑥𝑥𝑖𝑖 − 𝑦𝑦𝑖𝑖 )2 : Sumatoria del número de parejas de rangos
𝑛𝑛 : Muestra

Resumen:
Datos Coeficiente
Ordinal
Spearman
Ordinal
Ordinal
Cuantitativa discreta Spearman
o continua
Cuantitativa discreta
Spearman
Cuantitativa discreta
Distribución no Spearman
normal
Cuantitativa continua
Puntos atípicos Spearman
Cuantitativa continua
Distribución Pearson
normal

Determinación del coeficiente de correlación por el software SPSS


Se sigue la secuencia:
Nos muestra la siguiente ventana: Seleccionar las variables y pasarlos a la caja
Variables.

Obtenemos la siguiente ventana: seleccionar el coeficiente y picar en Aceptar.


En nuestro caso seleccionamos Spearman, ya que tenemos datos ordinales y
además no siguen una distribución normal.
Luego se obtienen los siguientes resultados:

Correlaciones

Variable1 Variable2

Rho de Spearman Variable1 Coeficiente de correlación 1,000 ,659**

Sig. (bilateral) . ,000

N 25 25

Variable2 Coeficiente de correlación ,659** 1,000

Sig. (bilateral) ,000 .

N 25 25

**. La correlación es significativa en el nivel 0,01 (2 colas).

Al analizar esta tabla, se tiene una correlación:

𝜌𝜌 = 0,659

Corresponde a una correlación fuerte y al ser positiva nos dice que la variable
dependiente es directamente proporcional a la variable independiente.

Se tiene un nivel de significancia 𝑝𝑝 = 0,000 < 0,05

Entonces el coeficiente de correlación es significativo

Esto nos permite rechazar la hipótesis de independencia (nula) y se acepta la


hipótesis planteada y que las variables están relacionadas.

Você também pode gostar