Escolar Documentos
Profissional Documentos
Cultura Documentos
Mdica Continuada
M. Nolla-Domenj
Objetivo. Proporcionar una visin global de los aspec- especialmente la evaluacin de los aprendizajes Fundaci Doctor Robert.
tos ms relevantes a tener en cuenta en un sistema de y, en definitiva, versar sobre uno de los temas Universitat Autnoma
de Barcelona.
evaluacin. Desarrollo. Se proponen dos modelos funda- de ms relevancia en la actualidad: la evaluacin Barcelona, Espaa.
mentales como marco de referencia de los procesos de de la competencia profesional.
evaluacin. Se describen las caractersticas principales de En el mdulo 2 de este programa de forma- Correspondencia
Dra. Maria Nolla
cualquier sistema de evaluacin. Finalmente, se apuntan cin, Pals [1] define el concepto de competencia Domenj. Fundaci
los retos a los que se enfrenta en la actualidad el amplio y describe su complejidad. Introduce el concepto Doctor Robert. Sant
campo de la evaluacin en educacin mdica. de educacin basada en resultados de aprendi- Antoni M. Claret, 171.
E-08041 Barcelona.
zaje. Este enfoque lleva implcita la evaluacin.
Palabras clave. Competencia profesional. Educacin mdica. Eva- Los resultados de aprendizaje son competencias E-mail
luacin. comprobadas, es decir, evaluadas. Este aborda- maria.nolla@uab.es
je refuerza la idea de que la evaluacin es una
parte integrante de un programa o proceso de
formacin. Debe pensarse en la evaluacin des-
Evaluation in medical education. Basic principles de el inicio, desde la planificacin del proceso
formativo.
Aim. To provide a global vision of the most relevant aspects
to take into account of an evaluation system. Development.
The article also proposes two dierent fundamental models
as frameworks for the evaluation process. The main charac- Qu? y para qu?
teristics applicable to any evaluation system are described.
Finally the paper points the challenges that evaluation in La planificacin del sistema de evaluacin a
medical education is facing for the near future. utilizar incluye muchas preguntas a plantearse:
qu?, para qu?, cmo?, cundo?, quin?,
Key words. Evaluation. Medical education. Professional competence.. etc. Todas ellas deben clarificarse en algn mo-
mento u otro; sin embargo, las dos ms funda-
mentales que deben iniciar todo el proceso son
las dos primeras: qu? y para qu? Las respues-
Introduccin tas a estas dos preguntas determina el abanico de
posibilidades de las restantes.
La evaluacin en educacin mdica es un cam-
po realmente amplio. Desde la evaluacin de los Qu?
aprendizajes a los sistemas de calidad educativa y
evaluacin de polticas educativas, existen mul- Ya se ha comentado la amplitud de los aspectos
titud de aspectos que se deben tener en cuenta susceptibles de ser evaluados. Para no confun-
en los proyectos formativos. Este artculo tratar dirse a la hora de responder a las otras preguntas
1. Las dos preguntas fundamentales sobre el sistema de o c) la evaluacin de las habilidades quirrgicas bsicas
evaluacin que se deben plantear desde el inicio son: o d) la evaluacin de la satisfaccin de los estudiantes
o a) qu? y cmo? o e) la evaluacin de la calidad docente
o b) cmo? y cundo?
o c) qu? y para qu? 7. Cul de los niveles de la pirmide de Miller
o d) para qu? y para quin? se evala mediante las evaluaciones clnicas
o e) qu? y cundo? objetivas estructuradas (ECOE)?:
o a) primero
2. Cul de los siguientes aspectos a evaluar no forma o b) segundo
parte de los niveles del modelo de Donald Kirkpatrick?: o c) tercero
o a) impacto o d) cuarto
o b) reaccin o e) todos los niveles
o c) aprendizaje
o d) calidad 8. Cul de los siguientes instrumentos evala ms
o e) resultados adecuadamente el cuarto nivel de la pirmide de Miller?:
o a) ECOE
3. Los niveles de la pirmide de Miller son todos o b) pruebas escritas basadas en contextos clnicos
los siguientes excepto uno. Indique cul es el falso: o c) pacientes simulados
o a) querer o d) observacin directa
o b) saber o e) pruebas escritas descontextualizadas
o c) hacer
o d) demostrar cmo 9. Cul de las siguientes definiciones se refiere al concepto
o e) saber cmo de validez de un instrumento de evaluacin?:
o a) grado en que un instrumento mide de
4. Cul de las siguientes caractersticas no forma consistente lo que se pretende medir
es fundamental en un sistema de evaluacin?: o b) conocimiento, por todas las partes
o a) validez implicadas, de las reglas del juego
o b) fiabilidad o c) posibilidad de utilizarlo
o c) confianza o d) grado en que un instrumento
o d) transparencia mide lo que se quiere medir
o e) factibilidad o e) grado en que los candidatos aceptan
la evaluacin porque la consideran adecuada
5. En la actualidad, cul es la principal dificultad
de la evaluacin de la competencia clnica?: 10. Sealar la proposicin incorrecta:
o a) la aceptacin por parte de los profesionales o a) una evaluacin formativa tiene como objetivo
o b) el coste del sistema de evaluacin fundamental proporcionar a los estudiantes
o c) la carencia de medidas correctoras para feedback sobre su aprendizaje
los que no cumplen los mnimos requeridos o b) una evaluacin sumativa es la base de la toma
o d) la imposibilidad de medirla de forma directa de decisiones sobre el nivel de competencia
o e) la contextualizacin necesaria de los instrumentos profesional del candidato
o c) una evaluacin sumativa no puede ser en
ningn caso formativa, de manera simultnea
6. Cul de las siguientes evaluaciones supone el o d) la decisin de emplear una forma de evaluacin
mayor reto en la actualidad en educacin mdica?: sumativa guiar la utilizacin de los resultados
o a) la evaluacin de los conocimientos de la evaluacin
o b) la evaluacin de la prctica profesional o e) la evaluacin gua el aprendizaje
Figura 2. Relacin entre nivel de competencia segn la pirmide de Miller y los instrumentos susceptibles de ser utilizados
(adaptado de [9]).
pretende medir. Tiene que ver con la repeticin En 1977, Miller, en su participacin en el II
de la medida En el ejemplo anterior de la cinta Simposio Mdico Internacional en Roma, ya
mtrica, es fiable en la medida en que cada vez asever que cambiar el sistema de evaluacin sin
que se mide un mismo objeto, el resultado es el modificar el programa de enseanza ha tenido
mismo o muy similar. una mayor repercusin sobre la naturaleza y la
La fiabilidad generalmente se mide como un calidad del aprendizaje, que si se hubiera modifi-
coeficiente de correlacin, siendo 1,0 una corre- cado el programa sin tocar los exmenes.
lacin perfecta, y 0,0, una no correlacin total. Van der Vleuten [14] describi al menos cua-
Los valores superiores a 0,7 se consideran indi- tro vas por las que el sistema de evaluacin di-
cativos de que el instrumento es fiable. rige el aprendizaje: su contenido, su estructura
La fiabilidad entre evaluadores se refiere al o formato, lo que se pregunta (p. ej., la informa-
grado de acuerdo entre evaluadores diferentes e cin que se proporciona), y la frecuencia, hora-
independientes del mismo candidato. rio y nmero de evaluaciones repetidas.
Transparencia
el desarrollo de sistemas de evaluacin adecua- 7. Epstein RM. Assessment in medical education. N Engl J
dos a las caractersticas especiales de los profe- Med 2007; 356: 387-96.
sionales con aos de experiencia. 8. Dent JA, Harden RM. A practical guide for medical
Norcross et al [16] concluyen que el futuro de teachers. Edinburgh: Elsevier; 2005.
un sistema comprehensivo de evaluacin de los 9. Van der Vleuten CPM. A paradigm shift in education:
mdicos asistenciales depende del desarrollo y how to proceed with assessment? 9th International Ot-
estandarizacin de instrumentos, tcnicas y pro- tawa Conference on Medical Education. Cape Town, 28
cedimientos para la evaluacin de la competencia February-3 March 2000. URL: http://www.educ.unimaas.
y la actuacin profesional, incluyendo medidas nl/ottawa.
de la prctica, de programas de evaluacin de co- 10. Villa A, Poblete M. Aprendizaje basado en competen-
laboracin en red, del control de costes, y del de- cias. Bilbao: Universidad de Deusto; 2008.
sarrollo continuo de medidas correctoras que se 11. Shumway JM, Harden RM. AMEE Guide no. 25: The
correspondan con los hallazgos en la evaluacin. assessment of learning outcomes for the competent and
reflective physician. Med Teach 2003; 25: 569-84.
12. Newble DI, Jaeger K. The effect of assessments and ex-
aminations on the learning of medical students. Med
Educ 1983; 17: 165-71.
Bibliografa 13. Wood D. Formative assessment. Edinburgh: Association
for the Study of Medical Education; 2007.
1. Pals J. Planificar un curriculum o un programa forma- 14. Van der Vleuten CPM. The assessment of professional
tivo. Educ Med 2006; 9: 59-65. competence: developments, research and practical im-
2. Kirkpatrick DL. Evaluacin de acciones formativas. Bar- plications, Adv Health Sci Educ 1996; 1: 41-67.
celona: Gestin; 2000. 15. Brailovsky CA. Educacin mdica, evaluacin de las
3. Kirkpatrick DL. Avaluaci daccions formatives: els qua- competencias. In OPS/OMS, eds. Aportes para un cam-
tre nivells. Barcelona: Epise Gestin; 2000. bio curricular en Argentina. Buenos Aires: University
4. Miller G. The assessment of clinical skills/competence/ Press; 2001. p. 103-20.
performance. Acad Med 1990; 65: S63-7. 16. Norcross WA, Henzel TR, Freeman K, Milner-Mares J,
5. Wall D. Evaluation: improving practice, influencing Hawkins RE. Toward meeting the challenge of physician
policy. Edinburgh: Association for the Study of Medical competence assessment: the University of California,
Education; 2007. San Diego Physician Assessment and Clinical Education
6. Morrison J. Evaluation. Br Med J 2003; 326: 385-7. (PACE) Program. Acad Med 2009; 84: 1008-14.