Escolar Documentos
Profissional Documentos
Cultura Documentos
Capıtulo 3: Confiabilidad
Introducción:
Como vimos en el capítulo inicial, la medición psicológica parte de ciertos supuestos. Uno de
éstos expresa que el resultado de la medición es un valor observado que no coincide con el
valor verdadero y, en consecuencia siempre se mide con un margen de error. Este valor
verdadero en Psicología nunca lo vemos (ya que siempre hay un margen de error) y podríamos
pensarlo como el promedio de las puntuaciones observadas en infinitas administraciones de
un instrumento dado a una persona. Por ejemplo, siempre que medimos repetidamente un
fenómeno ya sea de naturaleza física o social, es inevitable una cierta dosis de error, debido a
imprecisiones de instrumento o a la influencia de posibles fuentes de variación de las
puntuaciones de un test. Ejemplo: si medimos repetidamente la longitud de un objeto
utilizando una regla metálica, es probable que obtengamos resultados casi idénticos en todas
las ocasiones y si lo hacemos con una cinta elástica (menos preciso) seguro nos dará valores
numéricos con cierta dispersión, esta dispersión se relaciona con el concepto de confiabilidad.
En síntesis: Cuanto mayor es la variabilidad entre las medidas del mismo fenómeno en
repetidas ocasiones, tanto menor es la confiabilidad, y cuanto menor es la variabilidad,
MAYOR es la confiabilidad. Acá el caso de mayor CONFIABILIDAD sería el de la regla metálica
ya que medimos varias veces al objeto y nos da resultados casi idénticos, es más confiable.
Ahora, si un test nos da resultados siempre diferentes (mucha variabilidad), entonces no es
muy confiable! Se entiende la relación?
En el dominio de los tests psicológicos esta variabilidad es mayor que en la medición de los
fenómenos físicos, debido a las características muy dinámicas del objeto de medición (el
comportamiento humano) y la mayor cantidad de fuentes de error que pueden afectar las
puntuaciones, en comparación con otros dominios del conocimiento (como la física)
1
media de las puntuaciones obtenidas por una persona en infinitas aplicaciones de un tests
(asumiendo que la forma de la distribución es normal).
La puntuación de error es la suma de todos aquellos factores aleatorios que influyen y afectan
el registro de datos.
Según la APA: la confiabilidad significa la consistencia entre los puntajes de un test obtenidos
por los mismos individuos en distintas ocasiones o entre diferentes conjuntos de ítems
equivalentes
Debemos distinguir entre la falta de consistencia debido a un cambio real en el rasgo medio y
las fluctuaciones azarosas ocasionadas por circunstancias personales u otras que afecten a la
situación de evaluación.
Según la TCT: La confiabilidad (así como también la validez) no es una característica del
test en sí mismo, sino una propiedad de las puntuaciones del test cuando éste se
administra a una muestra específica y bajo condiciones particulares. Ésta es una de las
principales limitaciones de la TCT
La APA los clasifica en factores internos (tiene que ver con el examinado) y factores externos
(por ejemplo: diferentes criterios según distintos evaluadores). Según Hogan distinguimos 4
2
categorías:
Al construir un test hay que tener en cuenta: la elección de ítems, los materiales a través de los
cuales estimulamos la respuesta del individuo, y la formulación de consignas que pueden ser
fuente de error aleatorio en la medición.
En general un número mayor de ítems del mismo tipo dará como resultado puntajes más
confiables, si se tiene un test determinado y se aumenta su longitud (tamaño) n cantidad de
veces, la fiabilidad del nuevo test aumenta. Esto se conoce como profecía de Spearman-
Brown. Otro punto importantísimo a tener en cuenta es el siguiente:
La confiabilidad será mayor cuanto mayor sea la intercorrelación de los ítems, en este sentido,
la CALIDAD de los ítems es un factor más importante que la mera CANTIDAD, y deben evitarse
los ítems redundantes
2. Administración:
3. Calificación:
En los test de opción múltiple pueden cometerse errores cuando la corrección es manual
(calificar mal accidentalmente). Este tipo de error se elimina con los tests computarizados.
Dimensiones de la confiabilidad
3
El concepto de confiabilidad comprende 3 dimensiones:
2. Consistencia interna: esta dimensión alude al grado en que las distintas partes o ítems
del test miden el mismo constructo o dominio. Los procedimientos para evaluar la
consistencia interna de un test son: método de las formas equivalentes; método de
partición en mitades; método del coeficiente alfa de cronbach.
ALGUNOS INCONVENIENTES:
Casi siempre es incómodo para los examinados hacer un test en dos oportunidades
Si el intervalo de tiempo entre las 2 aplicaciones es muy corto, puede obtenerse una
correlación falsamente alta y si el lapso de tiempo es muy largo, se corre el riesgo de que las
diferencias entre las puntuaciones se deban a cambios reales de los sujetos, más que a una
escasa confiabilidad del test
4
COMPLETO PARA EVALUAR LA CONFIABILIDAD (importantísimo!!!) puesto que permite
controlar la mayor cantidad posibles de fuentes de error.
ALGUNOS INCONVENIENTES:
Para ser consideradas equivalentes las dos pruebas deben tener las mismas características
formales y estadísticas
ALGUNOS INCONVENIENTES:
Otros factores pueden obstaculizar el contar con dos mitades estrictamente comparables
El criterio habitualmente adoptado para dividir la prueba es el de separar los ítems del test en
dos mitades, una de ítems pares y la otra ítems impares. También hay un método más riguroso
(pero que requiere mayor esfuerzo del investigador) que xige el apareamiento de todos los
ítems con un cierto criterio estadística, asignándolos luego al azar a cada una de las partes o
mitades del test.
A partir de una única aplicación del test a una muestra se obtiene una estimación del grado de
covarianza de los ítems, utilizando como estadístico el coeficiente alfa de Cronbach o la
fórmula alternativa de Kuder Richardson (KR-20), cuando se trabaja con ítems dicotómicos. El
coeficiente Alfa es el estadístico más popular para estimar la CONSISTENCIA INTERNA de una
prueba (MUUUUY IMPORTANTEEEE!!!!)
El método consiste administrar un test a una muestra, entregar los resultados a un conjunto
de jueces que los puntuarán independientemente, luego se verifica el grado de acuerdo que
5
alcanzan los jueces. Este procedimiento solo adquiere importancia cuando interviene el
criterio del examinador en el proceso de calificación (importantísimo!)
Dimensión de la N° sesiones de
Método Estadístico
confiabilidad administr. de la prueba
Estabilidad Test-Retest 2 r de Pearson
Formas paralelas 2 r de Pearson
Consistencia Interna Formas paralelas 1 r de Pearson
Partición en mitades 1 r y fórmula de
Coeficiente alfa Spearman-Brown
1 Alfa, Kuder-Richardson
Kappa, w de Kendall,
Confiabilidad entre Acuerdo entre
1 coeficiente de correlación
examinadores examinadores
intraclase
Confiabilidad en la teoría de respuesta al ítem (TRI) y en los tests con referencia a criterio (TRC)
En los TRI los ítems operan en forma independiente y se asume que la precisión de una prueba
no es la misma para todas las personas. La estimación de la confiabilidad en el contexto de la
TRI se realiza mediante la denominada: FUNCIÓN DE INFORMACIÓN DE UN ÍTEM indica la
precisión de un ítem para medir el rasgo en diferentes niveles de ese rasgo, mientras que la
FUNCIÓN DE INFORMACIÓN DE EL TEST sugiere la confiabilidad de todos los ítems en conjunto
para medir el rasgo en diferentes niveles