Você está na página 1de 23

DISEÑO METODOLÓGICO EN INVESTIGACIÓN

Estudiante: Bernardo Cruz VALIDEZ


Dr. José Luis Ángel Rodríguez Silva Y
CONFIABILIDAD
La medición es un proceso básico de la ciencia que
consiste en comparar un patrón seleccionado con el
objeto o fenómeno cuya magnitud física se desea medir
para ver cuántas veces el patrón está contenido en esa
magnitud
Todas las mediciones se caracterizan por la mayor o
menor presencia de dos atributos: (a) confianza (o qué
tan confiable es la medición) y (b) validez (o qué tan
válida es una medición)
Una medición es “confiable” si podemos esperar en
forma razonable que los resultados de dicha medición
sean sistemáticamente precisos. Esto requiere que el
instrumento usado para realizar la medición (como por
ejemplo una prueba o examen a estudiantes) sea
confiable

Una medición es “válida” si mide lo que en realidad trata


de medir
En el campo de la metodología, psicometría y estadística, la
validez es un concepto que hace referencia a la capacidad de un
instrumento de medición para cuantificar de forma significativa y
adecuada el rasgo para cuya medición ha sido diseñado.

La validez de contenido se refiere al grado en que un instrumento


refleja un dominio específico de contenido de lo que se mide. Es
el grado en que la medición representa al concepto medido
(Bohrnstedt, 1976).
La validez de los instrumentos de recolección de datos se determina
aplicando el tipo de validez de contenido a través de un procedimiento
denominado juicio de expertos .

En donde tres especialistas: en metodología de la investigación y/o


investigación educativa, en contenido del trabajo de grado y en
estadística, evalúan el instrumento.
Es evaluado en los siguientes aspectos: (a) coherencia con
objetivos de la investigación, (b) correspondencia de los itemes
con los indicadores establecidos en la operacionalización de
variables y cuadro de variables, (c) redacción de las instrucciones
y de los itemes y (d) presentación y longitud ha sido diseñado
Se refiere al grado en que un instrumento refleja un dominio
especifico de contenido de los que se mide. Trata de garantizar
que el test constituye una muestra adecuada y representativa del
contenido que éste pretende evaluar.

Modo de evaluación: Recurso a expertos


Establece la validez de un instrumento en medición
comparándola con algún criterio externo, evalúa si una prueba
refleja un cierto conjunto de habilidades o no.

Para medir el criterio de validez de una prueba, los investigadores


deben compararlo con un estándar conocido o con él mismo.
Es probablemente la mas importante sobre todo desde una
perspectiva científica .
Trata de garantizar la existencia de un constructo psicológico que
subyaga y dé sentido y significado a las puntuaciones del test

Modo de evaluación: Análisis factorial Matriz multimétodo-


multirrasgo
La confiabilidad de una escala se refiere a su
capacidad para dar resultados iguales al ser aplicada,
en condiciones iguales, dos o más veces a un mismo
conjunto de objetos.
Stromquist, en un trabajo dice lo siguiente respecto a
la confiabilidad: “este criterio científico tiene que ver
con la capacidad del instrumento en uso de producir
medidas constantes dado el mismo fenómeno”
Para la Universidad Abierta de Gran Bretaña, la confiabilidad se
refiere a “La extensión o grado en que un test dará resultados
consistentes si se aplica más de una vez a la misma gente bajo
condiciones estándar.
En otras palabras la confiabilidad se refiere a la consistencia
entre mediciones independientes del mismo fenómenos. Así,
un requerimiento mínimo para cualquier ciencia es que
produzca medidas consistentes, confirmables por observadores
independientes, y que sean independientemente replicables o
repetibles ”
Consiste en aplicar repetidas veces el mismo cuestionario a
las mismas personas en un espacio de tiempo breve entre
una y otra medición para comprobar el correcto
funcionamiento del cuestionario como instrumento de
recogida de información.
En este procedimiento un mismo instrumento de medición (o ítems o
indicadores) es aplicado dos o más veces a un mismo grupo de
personas, después de un periodo de tiempo. Si la correlación entre los
resultados de las diferentes aplicaciones es altamente positiva, el
instrumento se considera confiable.
Se trata de una especie de diseño panel. Desde luego, el periodo de
tiempo entre las mediciones es un factor a considerar. Si el periodo es
largo y la variable susceptible de cambios, ello puede confundir la
interpretación del coeficiente de confiabilidad obtenido por este
procedimiento. Y si el periodo es corto las personas pueden recordar cómo
contestaron en la primera aplicación del instrumento, para aparecer como
más consistentes de lo que son en realidad .
Requiere que se utilicen dos pruebas o instrumentos paralelos,
esto es, que midan lo mismo de forma diferente (por ejemplo, dos
tests que con diferentes preguntas midan un determinado rasgo)

Después se comparan los dos tests, calculando el coeficiente de


correlación de Pearson. Esta correlación será, como hemos visto
en el apartado anterior, el coeficiente de fiabilidad ”
Si la correlación es alta, se considera que hay una buena fiabilidad.
Al valor obtenido también se le conoce como coeficiente de
equivalencia, en la medida en que supone un indicador del grado
de equivalencia entre las dos formas paralelas de un test.

La dificultad de este procedimiento radica en conseguir que dos


instrumentos sean realmente "paralelos", dada la dificultad que
supone realizar dos pruebas que midan exactamente lo mismo, pero
con diferentes ítems
SPLIT – HALVES O METODO DE MITADES
PARTIDAS.
El método de mitades-partidas requiere sólo una aplicación de la medición.
Específicamente, el conjunto total de ítems (o componentes) es dividido en
dos mitades y las puntuaciones o resultados de ambas son comparados.

Si el instrumento es confiable, las puntuaciones de ambas mitades deben


estar fuertemente correlacionadas. Un individuo con baja puntuación en una
mitad, tenderá a tener también una baja puntuación en la otra mitad
COEFICIENTE ALFA DE CRONBACH.
Este coeficiente desarrollado por J. L. Cronbach requiere una sola
administración del instrumento de medición y produce valores que oscilan
entre O y 1. Su ventaja reside en que no es necesario dividir en dos mitades
a los ítems del instrumento de medición, simplemente se aplica la medición y
se calcula el coeficiente .

El método de consistencia interna basado en el alfa de Cronbach permite


estimar la fiabilidad de un instrumento de medida a través de un conjunto de
ítems que se espera que midan el mismo constructo o dimensión teórica
Kuder y Richardson (1937) desarrollaron un coeficiente para estimar la
confiabilidad de una medición, su interpretación es la misma que la del
coeficiente alfa; es un indicador de la fidelidad (consistencia interna).

Sus creadores desarrollaron un procedimiento basado en los resultados


obtenidos con cada ítem. De hecho, hay muchas maneras de precisar
otra vez los ítems (reactivos) en 2 grupos, que pueden conducir a las
estimaciones diferentes de la consistencia interna
Esta es la razón por la cual Kuder y Richardson consideren tantas (n)
partes en la prueba de acuerdo a los ítems (n).
En los métodos de partición en dos, (conocido también como bisección)
supone para cada parte ser equivalente ( las formas paralelas). Para el
KR20, la misma lógica se adopta en el nivel de los ítems. Es lo que uno
llama unidimensional.
El KR20 se aplica en la caja dicotomica de items.
Uno calcula el KR20 como sigue:
Referencias Bibliográficas.
http://www.lapaginadelprofe.cl/UAconcagua/confiayvalides.htm

http://www.ub.edu/dppss/pg/gidcav/Unitat3/validez1.htm

http://www.uv.es/~friasnav/AlfaCronbach.pdf

http://www.google.co.ve/url?q=http://usmticseducacion-
e20.wikispaces.com/file/view/KR20.pptx&sa=U&ei=jrFgVO_4GsuWNpGiga
AK&ved=0CB4QFjAC&usg=AFQjCNEZ-ukHkUhgZbGlgbmGucFYR6ryMQ

http://www.angelfire.com/nt/sas/kr20.html

Você também pode gostar