Você está na página 1de 42

MANUAL PARA LA

CONSTRUCCIÓN DE
INSTRUMENTOS DE EVALUACIÓN
Vicerrectoría Académica
Dirección General de Pregrado
Documento elaborado bajo la dirección de la Dra. Erika Castillo Barrientos junto
al equipo elaborador:

Claudia Acevedo, profesional especialista en evaluación.


Marisa Blázquez, Directora de Curriculum y Evaluación.
Scarlette Hidalgo, profesional especialista en evaluación.
Elizabeth Melio, profesional especialista en evaluación.

La Dirección General de Pregrado agradece, la invaluable cooperación que implicó


el aporte de las y los académicos de distintas facultades que participaron del Taller
Piloto de Construcción de Instrumentos, tanto en la mejora de la presentación teórica
de este documento como en los instrumentos que se presentan en él:

Viviana Readi, Directora de Escuela Derecho, Santiago.


Aníbal Morales, Director Ingeniería y Tecnología, Santiago.
Carla García, Coordinadora Formación Integral, sede Bellavista.
Nancy Tello, Coordinadora Prácticas Facultad de Educación, Santiago.
María Bernardita Celis, Coordinadora Formación Integral, sede Los Leones.
Ricardo Pérez de Arce, Coordinador Clínica Jurídica Facultad de Derecho, Santiago.

Así como los comentarios y sugerencias al texto realizadas por Sonia Bralic.

Documento Formalizado por Resolución de Vicerrectoria Académica: Nº 424/2016.


ÍNDICE DE CONTENIDOS
Introducción 5
1.- El ciclo de evaluación 6
2.- Tabla de especificación 8
3.- Ítemes de respuesta cerrada tipo selección múltiple 11
Construcción de ítemes de selección múltiple 11
Caso 1: Experimento con ratones 13
4.- Ítemes de respuesta construida tipo extensa 16
Construcción de ítemes abiertos 16
Caso 2: Defina y explique articulación multiaxial 18
5.- Lista de cotejo 19
Construcción de listas de cotejo 19
Caso 3: Lista de cortejo para la Etapa de Evaluación de Microproyectos 21
6.- Escala de valoración 23
Construcción de escalas de valoración 23
Caso 4: escala de valoración 25
7.- Rúbricas analíticas 26
Construcción de rúbricas 27
Caso 5: rúbrica analítica mal construida 28
8.- Aplicación del instrumento de evaluación 30
9.- Análisis y entrega de resultados del proceso de evaluación 31
La calificación 32
¿Cuáles son los estándares de comparación para determinar la calificación? 32
10.- Retroalimentación 35
Referencias bibliográficas 38

Universidad San Sebastián 3


INTRODUCCIÓN
Este documento constituye la segunda parte tipos de instrumentos de evaluación: ítem
y final de la serie de Orientaciones para la de respuesta cerrada de selección múltiple,
Evaluación que ha elaborado el equipo de la ítem de respuesta construida tipo extensa
Dirección General de Pregrado (en adelante, e instrumentos para evaluar situaciones de
DGPG), con la finalidad de brindar un marco desempeño, a saber: lista de cotejo, escala de
referencial y técnico común para el desempeño valoración y rúbrica. Y, finalmente, se exponen
pedagógico de los docentes de la Universidad lineamientos generales respecto de las últimas
San Sebastián (en adelante, USS). etapas del ciclo de la evaluación: el análisis y
entrega de los resultados y la retroalimentación
La elaboración de este documento ha contado a los estudiantes.
con la participación de académicos de nuestra
Universidad, quienes han formado parte del Las motivaciones para abordar solo este tipo de
Taller piloto de Construcción de Instrumentos instrumentos, dicen relación con la recurrencia
de Evaluación; durante dos sesiones, se de su empleo en las evaluaciones de la USS;
revisaron los elementos teóricos y técnicos que ello da cuenta, además, de la flexibilidad
permitirían dar forma a distintos instrumentos que presentan estos instrumentos, en cuanto
de evaluación, con sus respectivas tablas de a la información que pueden proporcionar,
especificaciones y pautas de revisión; y se igualmente su relativa facilidad en cuanto a
enfoca desde el Proyecto Educativo USS. construcción y la pertinencia para el nivel de
educación superior.
En relación con la estructura del presente escrito,
se abordará en principio una breve síntesis Confiamos que este documento, al igual que el
respecto de los contenidos del documento anterior, permita construir sentidos compartidos
anterior, correspondiente a la etapa de en un área sensible no solo para los estudiantes,
planificación de la evaluación. Posteriormente, sino para todos aquellos que participan del
se inicia la etapa de construcción propiamente proceso de enseñanza-aprendizaje; esto, dado
tal, por medio de la exposición del diseño de que la evaluación también es relevante para
tablas de especificaciones, puntualizando sus efectos del cumplimiento de la responsabilidad
tipos en función de la situación de evaluación social que tiene la USS para con el país, en
que se ha planificado, así como también términos de la calidad de la docencia que se
del tipo de instrumento a construir. Luego, imparte y de la formación que se ofrece.
se desarrollan propuestas en torno a cinco

Universidad San Sebastián 5


1. EL CICLO DE EVALUACIÓN

La evaluación para el aprendizaje es concebida que se establece el agente que aplicará la


como un proceso, que se puede estructurar evaluación; y ¿con qué evaluará?, vinculada
en cinco etapas. De ellas, la primera etapa de con la decisión respecto del instrumento
planificación fue desarrollada en el documento apropiado.
“Orientaciones teórico-prácticas del proceso
de evaluación para el aprendizaje”; allí se En el presente documento se desarrollarán
identificaron las preguntas orientadoras que propuestas para la construcción de instrumentos
permitirían darle cuerpo: de evaluación, el análisis de los resultados
¿qué evaluar?, correspondiente a la definición obtenidos y la retroalimentación de los
del objeto; estudiantes, todas ellas etapas del ciclo de
¿para qué evaluar?, en la que se determina evaluación, como se observa en la figura 1:
la intencionalidad; ¿quién evaluará?, en la

1.- Planificación de la
evaluación

5.- Retroalimentación 2.- Construcción


del proceso de de instrumentos de
evaluación evaluación

4.-Análisis y entrega 3.- Aplicación del


de resultados instrumento de
del proceso de
evaluación evaluación

Figura 1: Etapas del ciclo de la evaluación.

6 Dirección General de Pregrado


A partir de esta figura, es necesario precisar especialmente coherente con los resultados
que la etapa 2 del ciclo de evaluación se de aprendizaje declarados en el programa de
estructura en un orden secuencial, el que asignatura. A continuación de este punto de
inicia con la elaboración de una tabla de partida, el paso siguiente es la construcción
especificaciones, la cual contribuye a una misma del instrumento. A continuación, se
construcción equilibrada entre los diferentes analizarán ventajas y desventajas de diferentes
ítemes que componen un instrumento y muy instrumentos.

Universidad San Sebastián 7


2. TABLA DE ESPECIFICACIONES

En la fase de planificación de la evaluación, se La tabla de especificaciones será diferente


definió el tipo de instrumento y la situación de según el tipo de situación de evaluación
evaluación1, luego de ello se debe dar inicio que se ha planificado, p. ej. si se ha decidido
a la fase de construcción del instrumento, evaluar a través de una prueba, vs a través
para ello, lo primero es elaborar la Tabla de la observación del desempeño.
de Especificaciones, cuya finalidad es Tabla de Especificaciones para evaluación a
cautelar que las preguntas o tareas que deba través de una prueba:
resolver el estudiante cubran en proporción En este caso, la Tabla debería contener:
adecuada los distintos recursos conceptuales y explicitación de los contenidos que serán
procedimentales asociados al o los resultados evaluados, desglosados en indicadores; la
de aprendizaje (en adelante, RA) que serán precisión de las habilidades cognitivas a evaluar;
evaluados. En base a esta Tabla se podrá la cantidad y tipo de ítemes asociados a
también delimitar la extensión del instrumento cada indicador; y la posición que cada ítem
y el grado de dificultad de las preguntas. tendrá al interior del instrumento final, como
se aprecia en la figura n° 2:

Figura n° 2: Tabla de Especificaciones para instrumento de evaluación tipo prueba.

Recursos n° del
Habilidad n° de ítems
(Conceptuales o Indicador de logro Tipo de ítems ítem en el
cognitiva a elaborar
procedimentales) instrumento
Identifica Inicio,
Estructura de los Selección
desarrollo y desenlace Conocer 3 1,2,3
relatos breves. Múltiple.
del cuento.
Inventa un cuento
considerando la
Producción de
estructura y los Crear 1 Abierta extensa. 4
relatos breves.
elementos narrativos
del cuento.

Fuente: elaboración propia.

1 Una situación de evaluación corresponde a la organización de un contexto de demanda de desempeño, construido intencionadamente para demos-
trar el nivel de logro del o los resultados de aprendizaje evaluados; una situación de evaluación implica la necesidad de un instrumento con el que
recoger la información del desempeño del estudiante (Mineduc, 2013; Roegiers y Peysers, 2007).

8 Dirección General de Pregrado


Los recursos conceptuales o procedimentales no concreta desprendible del recurso a evaluar,
se evalúan directamente, porque habitualmente que permite precisar una parte del mismo; La
son de carácter general y amplio; es necesario diferencia entre éstos y las actividades se
entonces definir “indicadores de logro”. Un explicitan en la tabla n° 1.
indicador de logro corresponde a una acción

Tabla n° 1 Contraste entre actividad e indicador de logro.

Actividad Indicador de logro

Características Es específica. Es genérico.


Tiene un momento puntual. Se evidencia en diferentes momentos.
Es el medio para evidenciar el indicador. Es la conducta que se va a observar.
Fundamenta la validez y pertinencia de un Evalúa documentos históricos en función de los
documento histórico. criterios de selección de fuentes.
Ejemplos Explica la acción pedagógica observada
Analiza las teorías sociocognitivas de la
en función de la teoría sociocognitiva de
enseñanza.
Vigotsky de la enseñanza.

Tabla de especificaciones para evaluación de valoración o una rúbrica; en este caso,


del desempeño la tabla de especificaciones presenta una
Para este tipo de situaciones, existe un información nueva: los criterios de evaluación y
segundo tipo de tabla de especificaciones la descripción de los mismos, como se aprecia
que permite diseñar instrumentos adecuados en la figura n° 3:
para tal fin: una lista de cotejo, una escala

Universidad San Sebastián 9


Figura nº 3: Ejemplo de tabla de especificaciones para escalas de valoración y rúbricas.
Criterios N° del ítem en el
Contenido Descripción Indicador de Logro
Evaluación instrumento
El estudiante domina 1.1 Define los elementos
teóricamente la construcción que requirió para la 1
1. Manejo de cartografía regular, construcción del mapa.
conceptual estableciendo claramente 1.2 Explica qué es una
referido a la los elementos requeridos así 2
escala.
cartografía como los elementos técnicos
1.3 Define la función de la
regular. que utiliza enfatizando en la 5
simbología en el mapa.
finalidad y características de
cada uno de ellos. 1.4 (…) (…)
Cartografía 2.1 Explica la determinación
Regular de la escala empleada en 3
El estudiante domina los
el mapa que construyó.
procedimientos vinculados
2. Manejo 2.2 Explica la red de
con la construcción
procedimental coordenadas dispuesta en 4
de cartografía regular,
referido a la su mapa.
fundamentando el modo en
cartografía
que fueron determinados y 2.3 Explica la selección de
regular.
aplicados en el mapa que la simbología empleada en 6
desarrolló. su mapa.
2.4 (…) (…)
Fuente: elaboración propia

Los criterios de evaluación2 refieren a uno o más se sugiere para ello recurrir a la literatura
aspectos específicos a observar respecto del especializada y/o al juicio de expertos.
desempeño esperado del estudiante declarado
en el RA del programa de la asignatura; por Tras finalizar la elaboración de la tabla de
tanto, permiten la construcción del instrumento especificaciones, el paso siguiente es construir
al estar directamente articulados con la tarea los ítemes (cerrados o abiertos), en el caso de
que desarrollará el estudiante (Azúa, 2011; instrumentos tipo prueba, o las instrucciones
Castillo & Cabrerizo, 2009). Una característica que constituirán la situación de evaluación,
importante de los criterios de evaluación es para dar cuenta de tareas o desempeños,
que deben estar claramente definidos, puesto así como la pauta que permitirá valorar la
que de éstos emergen los indicadores de acción del estudiante (lista de cotejo, escala
evaluación que darán cuerpo al instrumento; de valoración o rúbrica).
2 Los criterios de evaluación fueron abordados también en el documento Orientaciones para la Evaluación, en la sección correspondiente a ¿Qué
evaluar?

10 Dirección General de Pregrado


3. ÍTEMES DE RESPUESTA CERRADA
TIPO SELECCIÓN MÚLTIPLE
La principal característica de este tipo de Construcción de ítemes de selección múltiple
situaciones, es que el evaluado debe optar La construcción de estos ítemes implica definir
por la respuesta que considere correcta, una pregunta o enunciado, alternativas de
seleccionando entre las alternativas propuestas respuesta y la fundamentación del error que
respecto de una pregunta planteada (Downing, recogen las opciones incorrectas o distractores.
Haladyna y Rodríguez, 2002; Covacevich, 2014). En algunos casos, se agrega la exposición
A cada una de las preguntas que constituye de un contexto o estímulo desde el que se
el instrumento se le denomina ítem o reactivo. construye la pregunta o enunciado, como se
aprecia en la figura nº 7:

Figura nº 7: Estructura de ítem de selección múltiple. (Adaptado desde Pérez de Arce y


Readi, 2015).
El día 14 de junio de 2015, alrededor de las 02:30 horas, la policía procede a una entrada y
registro de un inmueble, con autorización voluntaria del propietario Juan Pérez, y encuentra en
el interior del domicilio, específicamente bajo la cocina a gas, un tarro metálico que en su interior
mantenía dos bolsas de nylon transparentes, contenedoras de cocaína base, las que arrojaron
un peso bruto total de 279,78 gramos. Carabineros procede a la detención de Juan Pérez e
incauta las dos bolsas mencionadas, además de una pesa digital, una juguera con Rastros de
cannabis sativa, la suma de $ 250.000.- en efectivo y un arma hechiza.
Estímulo o
El imputado Juan Pérez no registra condenas anteriores por delito alguno. Contexto
El delito de tráfico de drogas y estupefaciente está contemplada en la ley N° 20.000 y es
sancionado con la pena de cinco años y un día de presidio mayor en su mínimo a quince años de
presidio mayor en su grado medio.
La tenencia de un arma hechiza (prohibida) está sancionada en la ley de control de Armas 17.798
y la pena asignada en 3 años y un día a 10 años.

1.- Respecto de la situación anterior, ¿cuál es el fundamento legal que justifica la detención Enunciado o
de Juan Pérez? (2 puntos) pregunta

a) Art. 85 del código Procesal Penal.


b) Art. 130 del código Procesal Penal Clave u opción correcta y
c) Art. 206 del código Procesal Penal distractores u opciones incorrectas
Fundamentación
a) Es procedente la actuación policial autónoma frente a las cuatro hipótesis Fundamentos
contempladas en el art. 85, sin embargo, éstas refieren al control de identidad. de
b) Correcta. distractores
c) El art. 206 refiere a entrada y registro con orden judicial.

Universidad San Sebastián 11


El enunciado de un ítem de selección múltiple no por “pistas” que arroje su forma.
tiene como propósito situar al estudiante en A continuación, se presentan algunas
la tarea que se requiere evaluar. Es por esto indicaciones que, en la literatura, se entregan
que las recomendaciones desde la literatura para la elaboración de las alternativas u
indican que se debe incluir en él solo un opciones de respuesta:
aspecto conceptual y uno procedimental, que
debe ser breve y estar redactado de manera √√ han de ser independientes entre sí, evitando
clara y comprensible, evitando la presencia de superposición en la información que incluyen
vocabulario poco conocido por los estudiantes, unas y otras; evitar las palabras conocidas
así como de negaciones, y procurando su como “determinantes”, tales como: siempre,
construcción como pregunta (Cheung & Bucat, nunca, único, todo… pues pueden inducir
2002; Downing & Haladyna, 2002; Downing a que esas opciones sean seleccionadas
& Haladyna, 2006; Haladyna, 2004). o descartadas por mera deducción lógica
evitar la presencia de pistas textuales o
En relación con la cantidad de opciones, la de significado en el enunciado (o en el
literatura especializada no es prescriptiva, por estímulo, si lo hay)
lo que la determinación final al respecto es √√ evitar alternativas como “ninguna de las
una decisión de diseño, cuyas variables son: anteriores” o “todas las anteriores”; porque
en términos cualitativos, la propia disciplina, no dan cuenta del error relacionado con
es decir, la cantidad de propuestas que se la habilidad evaluada. mantener una
puedan disponer respecto de un contenido extensión relativamente homogénea entre
determinado, por ejemplo, en Geografía las opciones;
tenemos solo cuatro puntos cardinales, solo √√ cautelar que la redacción de todas las
cinco continentes, etc.; y, desde un punto opciones sea una respuesta a la pregunta
de vista cuantitativo, la confiabilidad de los formulada en el enunciado (en términos de
resultados. su coherencia gramatical); evitar las opciones
absurdas, conspicuas y las parcialmente
En cuanto a su construcción, las alternativas de correctas (a menos que el enunciado
respuesta deben ser similares entre sí en cuanto implique la graduación de las opciones
a su extensión, su construcción gramatical y lo que se busque sea la respuesta más
y sintáctica, su grado de plausibilidad, de completa entre las correctas);
manera que la selección de una u otra quede √√ evitar la construcción de ítemes con
determinada por el dominio del contenido y números romanos; porque la combinación

12 Dirección General de Pregrado


de estos puede caer en distractores que Recientemente se han incorporado nuevas
son parcialmente correctos. indicaciones respecto de la construcción de
√√ lograr que los distractores releven errores ítemes de selección múltiple, orientadas a
conceptuales o procedimentales respecto satisfacer los requerimientos de los enfoques de
de lo que se quiere evaluar, haciendo de inclusión en educación. Dichos requerimientos
cada uno de ellos una opción plausible; y pueden sintetizarse en la necesidad de evitar
√√ explicitar el error que se recoge con los los diferentes tipos de sesgos en que pueden
distractores en la fundamentación, para caer los ítemes de selección múltiple: género,
cautelar la construcción de las mismas etnia, nivel socioeconómico, así como los
(Downing & Haladyna, 2002; Downing & sesgos vinculados con la discapacidad visual
Haladyna, 2004; Covacevich, 2014). respecto de los estímulos y la diagramación de
√√ La puntuación por respuesta correcta es los ítemes en el instrumento final (Covacevich,
de 1 punto. 2014), como se analiza en el caso 1:

Caso 1:
Experimento con ratones
Para probar el efecto que tiene una vacuna aplicada a 516 ratones sanos, se realiza un experimento en un laboratorio.
El experimento consiste en identificar durante algunas horas la regularidad en el porcentaje de ratones que se enferman
al ser expuestos posteriormente al virus que ataca la vacuna. Las siguientes gráficas representan el porcentaje de
ratones enfermos al cabo de la primera, segunda y tercera hora de iniciado el experimento.

Figura n° 8: Ejemplo de ítem de selección múltiple con sesgo. Fuente: ICFES (s.f.) Ejemplos de Pregunta

Ratones
25 % 37,5% 43,75 % Enfermos

Primera hora Segunda hora Tercera hora

Universidad San Sebastián 13


3. Respecto al estado de los ratones con el paso del tiempo, no es correcto afirmar que

A. Al cabo de la primera hora hay 75 ratones sanos.


B. Al cabo de la primera hora hay 129 ratones enfermos
C. Transcurridas dos horas y media hay más ratones sanos que enfermos
D. Entre la segunda y tercera hora el número de ratones enfermos aumentó en 6,25%

El caso 1 presenta un ejemplo de ítem con sesgo erradamente el 75% de ratones sanos
de accesibilidad visual, esto último dado que con el número 75; esto implica que el ítem
los estudiantes que presentan visión limitada presenta una complejidad artificial para
tendrán dificultades para leer los números efectos de recuperar un error de estas
que están al interior de las circunferencias, características;
números que son vitales para la determinación • en caso que el estudiante no tuviera
de la opción correcta. conocimientos disciplinarios al respecto,
hay al menos dos opciones que pueden
El caso 1 además presenta errores de descartarse con facilidad: C y D. C,
construcción dado que: porque es la única en que no hay valores
numéricos y D por ser la única que dispone
• incorpora una negación en el enunciado, de porcentajes.
aumentando con ello los niveles de error • dado lo anterior, el ítem implica una inversión
en la determinación de la opción correcta de tiempo y esfuerzo extra por parte del
y acercándose solo de modo tangencial estudiante, pero innecesarios.
a aquello que se pretende evaluar por
medio del ítem; Como todo instrumento de evaluación, los
• la opción correcta (A) implica solo una que son de respuesta cerrada de selección
confusión de términos matemáticos simples, múltiple tienen ventajas y desventajas las que
por cuanto el estudiante puede asociar se precisan en la tabla número 2:

14 Dirección General de Pregrado


Tabla nº 2
Ventajas y desventajas de los instrumentos de selección múltiple

Ventajas Desventajas
 Permite medir cinco de los seis dominios cognitivos yyHay una tendencia a caer en la medición de con-
de la taxonomía de Anderson (2001). tenidos de “memoria” o la repetición de lo decla-
 Permite medir conocimientos declarativos o concep- rado en clase.
tuales y procedimentales. yyPresentan limitaciones en la evaluación de conte-
 Pueden emplearse en situaciones de evaluación con nidos procedimentales y relacionales.
intencionalidad diagnóstica y formativa, con miras a yyPara que queden bien construidos, necesitan alta
la retroalimentación del aprendizaje. inversión de tiempo del docente en su construc-
 Pueden emplearse en situaciones de certificación de ción.
aprendizajes y/o evaluaciones sumativas; también yyPermite respuestas correctas por selección al
en procesos de acreditación, selección y admisión. azar.
 Facilitan el proceso de corrección por parte del do-
cente.

Fuente: elaboración propia

Universidad San Sebastián 15


4. ÍTEMES DE RESPUESTA ABIERTA TIPO EXTENSA

Entenderemos por ítem de respuesta abierta un tema determinado; b) comparación, que


tipo extensa a aquella situación de evaluación tiene como propósito evaluar la aplicación
en la que el estudiante tiene que elaborar de criterios de comparación en situaciones
una respuesta propia ante una pregunta que de investigación propios de las disciplinas; y
propicia su argumentación y/o su capacidad c) decisión, que apunta a evaluar la toma de
para relacionar los aspectos evaluados. decisiones y la argumentación de la misma por
A partir de esto, los ítemes de respuesta parte del estudiante, en situaciones concretas
abierta o construida se subclasifican en: a) que problematizan los contenidos abordados.
explicación, orientado a evaluar el nivel de Al momento de seleccionar un ítem de este
argumentación del estudiante respecto de tipo, considere:

Tabla nº 3
Ventajas y desventajas de los ítemes de respuesta abierta tipo extensa.

Ventajas Desventajas
 Fácil de construir. yyLa corrección de las respuestas puede tender a un
 Posibilita la evaluación de habilidades cognitivas mayor grado de subjetividad.
de nivel superior (analizar, evaluar, crear). yyAl ser abiertas las preguntas, permiten respuestas
 Se puede aumentar el nivel de complejidad de res- que pueden caer en la ambigüedad.
puesta solicitando el análisis de dos o más fuentes yyLa elaboración de este tipo de ítems requiere de la
de información. elaboración simultánea de otros instrumentos para
 Evita la respuesta al azar por parte del estudiante evaluar las categorías de respuesta (escala de va-
 Permite evaluar a través de la respuesta del estu- loración, de preferencia rúbricas analíticas).
diante creatividad, argumentación, etc. yyRequiere mayor tiempo de respuesta por parte del
estudiante.
yyRequiere mayor tiempo de corrección por parte del
profesor.
Fuente: elaboración propia

Construcción de ítemes abiertos requieren que el docente tenga claridad de


Las preguntas de respuesta abierta (también las categorías de evaluación de la respuesta
se les llama de respuesta construida) permiten al momento de revisión de los resultados, a
que el estudiante conteste libremente sin tener fin de evitar ambigüedades en la corrección
que seleccionar entre opciones, pero a la vez (Castillo Arredondo & Cabrerizo-Diago, 2009).

16 Dirección General de Pregrado


Este tipo de ítemes consta de: b. Un enunciado o pregunta: en el que expresa
a. Un estímulo: en él se expone al estudiante claramente qué es lo que debe hacer el
a una situación hipotética en la que se estudiante (figura 9).
presenta un problema, vinculado con los
contenidos a evaluar.

Figura 9: Estructura de ítem de respuesta construida tipo extenso (Adaptado desde Tello, 2015).

Usted debe implementar una clase con uso de material didáctico en un nivel de
Kínder, que presenta estudiantes con diversos estilos de aprendizajes, intereses
y habilidades; esto en el marco del núcleo Relaciones Lógico Matemáticas y Estímulo o
Cuantificación, abordando específicamente el conteo. Para resolver esta situación, Contexto
responda las siguientes preguntas en el espacio asignado:

1. Explique las características de las habilidades matemáticas que desarrollara


en su clase.

2. Determine la secuencia de actividades a realizar, incorporando el material Enunciados


didáctico adecuado para que todos los estudiantes realicen la acción de o preguntas
conteo dentro de la clase. concatenadas
3. Fundamente la selección del material didáctico para la clase a implementar de
acuerdo a los tres criterios vistos en clases.

En relación con las características del estímulo • debe corresponder a una situación real que
o contexto, es preciso cautelar: requiera efectivamente de una solución o
• éste debiese realizar la exposición del de la opinión fundamentada del estudiante,
problema con claridad y procurando el para evitar medir solo conocimientos
uso de un lenguaje formal y disciplinario declarativos que podrían abordarse con
comprensible por los estudiantes; otro tipo de instrumentos o ítemes.
• debe contener los elementos suficientes Respecto del enunciado o pregunta, se
para efectos de la construcción de la recomienda:
respuesta, evitando la presencia de aquellos • explicitar con claridad lo que el estudiante
que resulten innecesarios; debe hacer, procurando formular en formato

Universidad San Sebastián 17


de pregunta e incorporando la solicitud de independientes entre sí y ser cada uno
fundamentación; o bien, construyendo las más complejo que el anterior. En este caso
indicaciones al respecto; hablamos de enunciados concatenados o
• disponer el o los elementos relevantes que testlet, los que también pueden elaborarse
deben servir de referente en la construcción con ítemes de selección múltiple.
de la respuesta del estudiante, para evitar Tanto para el estímulo como para el enunciado,
que ésta se elabore desde el azar; se recomienda la revisión por parte de un
• declarar el modo en que el estudiante tercero, que opere como juez experto, con la
debe organizar su respuesta, ya sea la finalidad de determinar la calidad del estímulo
cantidad de palabras, el espacio en que y su coherencia respecto de lo que se pregunta
puede escribir o el formato; en el enunciado, así como también la precisión
• determinar si habrá solo uno o habrá más de este último. Así, se evita la disposición de
enunciados articulados con el estímulo. enunciados imprecisos, como el expuesto en
De ser así, los enunciados deben ser el caso 2:

Caso 2:
Figura 10: Ejemplo de ítem de respuesta construida tipo extenso.

Defina y explique articulación multiaxial

En relación con el caso 2, nos enfrentamos a • no se explicita qué tipo de articulación


un ítem abierto sin contexto, que no presenta multiaxial se está solicitando;
precisiones o referentes desde los que construir Junto con lo anterior, la pauta de corrección para
la respuesta; además, presenta errores de este caso señalaba como respuesta correcta
construcción referidos a: que “El alumno deberá describir y caracterizar
• el estímulo (articulación multiaxial) es muy las articulaciones sinoviales que presentan
amplio y no permite situar al estudiante varios ejes y planos de movimiento, dando
respecto de lo que se le pregunta, algunos ejemplos de ellas”, a los problemas
• se solicitan dos acciones que están en de construcción ya señalados se agrega la
diferente nivel cognitivo: Defina (nivel falta de coherencia entre lo que se le pide al
cognitivo conocer) y Explica (nivel cognitivo estudiante en el enunciado y lo que se espera
comprender); que él realice.

18 Dirección General de Pregrado


5. LISTA DE COTEJO

Una lista de cotejo corresponde a un listado de a. Nombre del Desempeño evaluado: en


acciones observables que dan cuenta de un la figura 11 es “Redacción de un Informe”
RA y que están construidas como indicadores b. Nombre del aspecto que se espera evaluar
de evaluación, cuyo propósito es determinar por medio del instrumento;
la presencia o ausencia de una acción en c. Acciones observables o ítemes, que se
un desempeño observado (Florida Center of han desprendido del respectivo criterio,
Instructional Technology, FCIT, s.f). disponiéndolas en las sucesivas filas de
la tabla.
Construcción de listas de cotejo d. indicación explícita referida a presencia o
Una lista de cotejo puede resultar más ausencia del rasgo que se mide en cada
apropiada para evaluar el desempeño de un ítem o indicador
estudiante al finalizar una unidad, una cátedra o e. En casos de evaluaciones de situaciones de
el itinerario formativo de la carrera (Department desempeño, se recomienda la incorporación
of Education and Training, 2008), así como de una tercera columna para el campo
también permite al estudiante evaluar por sí “No aplica”; ésta permite evidenciar la no
mismo el producto de su trabajo de manera realización de la acción por limitaciones de
formativa (FCIT, s.f). La razón de esto estriba contexto. Por ejemplo, si la acción a evaluar
en la naturaleza misma del instrumento: la es “Actúa según protocolos en situaciones
medición de la presencia o ausencia de de emergencia (sismo o incendio)” y durante
un rasgo concreto, operacionalizado en un la observación no hubo situaciones de
indicador de evaluación. emergencia, correspondería marcar “No
La estructura de este instrumento corresponde aplica” en lugar de “No”.
a una tabla de filas y columnas, en las que
se consignan los siguientes elementos, (ver
figura 11).:

Universidad San Sebastián 19


Nombre del aspecto o
criterio a evaluar Determinación de presencia
o ausencia del rasgo
Figura 11: Estructura de lista de cotejo.
Nombre del desempeño evaluado: Redacción de un Informe
Aspectos Formales de mi informe Sí No
1. Elaboré una portada
2. El título del trabajo tiene relación con el tema que se desarrolla
3. Incluí el índice
4. Incluí una introducción
5. Incluí la bibliografía
6. Enumeré las páginas
7. Destaqué los títulos ítemes
8. Presente una conclusión
9. Elaboré una justificación del personaje elegido
Fuente: elaboración propia
Algunas recomendaciones para la construcción “constructivamente” puede variar de una
de las listas de cotejo son: persona a otra, por lo que puede ocasionar
• Redacte cada ítem como una única diversas lecturas durante la aplicación del
acción directamente observable; evite las instrumento.
inferencias o las interpretaciones respecto • En las listas de autoaplicación, recuerde
de lo observado. redactar los ítemes en primera persona
• Utilice verbos que expliciten una acción singular (como en la figura 11) en el caso
observable y de significado claro en lugar de la autoevaluación de productos; para
de aquellos ambiguos o difíciles de observar autoevaluación de desempeños, se
como es el caso del verbo “comprende”. recomienda iniciar con “Yo demostré” o
• Evite superposición de información entre los “yo hice” o “yo dije”, según sea el caso3
ítemes, lo que se evalúa en un ítem debe ser • Ordene las acciones que se desean evaluar
independiente de lo que se evalúa en otro. en una secuencia en la que se esperan
• Al incorporar una cualidad de la acción que ocurran. Ello facilitará su aplicación.
para facilitar la observación, procure que • Compruebe tener un mínimo de 3 acciones
ésta no se realice a través de un adverbio, específicas que se desean evaluar de un
por ejemplo: Integra constructivamente las desempeño. Este mínimo le permitirá analizar
respuestas de los compañeros de grupo. los datos y determinar si el desempeño
En este caso, lo que se entienda por está o no logrado.
3 Ver, por ejemplo: NCSSFL-ACTFL. (s/f). Can-Do Statements. Progress Indicators for Language Learners. En: http://www.actfl.org/sites/default/
files/pdfs/Can-Do_Statements.pdf

20 Dirección General de Pregrado


• Revise que las acciones a observar den Una última recomendación es la solicitud de
cuenta de las características relevantes revisión por un par, que permita comprobar
del desempeño a evaluar, evitando que que los ítemes construidos efectivamente son
la tarea solicitada corresponda a una medibles por presencia o ausencia, que están
petición excesiva de detalles sobre el construidos como una única acción, que son
aspecto a evaluar. comprensibles y que no se superponen entre
• La puntuación por respuesta correcta es sí; algunos de estos errores se evidencian en
de 1 punto. el caso 3:

Figura 12: Ejemplo de lista de cotejo mal construida.


Caso 3:
Lista de cortejo para la Etapa de Evaluación de Microproyectos
Indicadores Hecho Pendiente No realizado
Los resultados del microproyecto fueron presentados y comunicados.
Las evaluaciones del desarrollo fueron incluidas como parte de la
evaluación final.
Seleccionaron y prepararon adecuadamente la evaluación de acuer-
do a lo planteado en el diseño de su microproyecto.
Se recolectó y registró información útil a la evaluación durante toda
la ejecución del microproyecto.

Fuente: elaboración propia

La lista de cotejo presentada en el caso 3 evaluar a quien presenta los resultados,


posee errores de construcción fácilmente pero no los comunica.
evidenciables: • Hay cualificaciones respecto de las
• No está claro cuál es la tarea que se afirmaciones del ítem que son interpretables,
evaluará, más bien se explicita que se trata p. ej. ¿qué se entenderá por “adecuadamente”
de una “etapa”. en el ítem nº 3?
• Hay tres categorías de evaluación para • Hay afirmaciones en los ítemes que son
cada ítem: Hecho, Pendiente y No realizado; inferencias y no una acción observable; p. ej.
las dos últimas se superponen entre sí (es en el ítem nº 4 ¿cómo sabe el evaluador que
posible que algo esté pendiente porque “se recolectó… durante TODA la ejecución…”?
no está realizado y viceversa). Para afirmarlo, debe hacer una inferencia
• Hay indicadores que presentan más de una a partir del producto que tiene a la vista,
acción, en el primer indicador de la figura pero no lo observó directamente).
12 se establecen dos acciones: presentar Al igual que los instrumentos anteriores, la lista
y comunicar, por lo que no será posible de cotejos presenta ventajas y desventajas:

Universidad San Sebastián 21


Tabla nº 4: Ventajas y desventajas de las listas de cotejo.
Ventajas Desventajas
 Fácil de construir cuando se diseña un procedi- yySu elaboración puede tender a una excesiva minu-
miento de registro para enumerar la secuencia ciosidad de las características observables del ob-
de características observables de menor a mayor jeto a evaluar.
complejidad. yyTiende a minimizar la observación de interacciones
 Facilita que los estudiantes evalúen su propio tra- o relaciones entre habilidades o contenidos.
bajo al igual que los docentes (individual o grupal). yy Requiere un lenguaje preciso y claro de lo que se
 De fácil aplicación en tiempos acotados de obser- está evaluando para evitar interpretaciones del ob-
vación. servador que no es especialista.
yyLa retroalimentación al estudiante es pobre, pues se
limita a la presencia o ausencia del rasgo.

Fuente: elaboración propia

22 Dirección General de Pregrado


6. ESCALA DE VALORACIÓN

Las escalas de valoración tienen como propósito se subdividen en:


obtener la graduación o nivel en que un rasgo • Frecuencia: siempre, casi siempre, a
está presente en el desempeño del evaluado; veces, casi nunca, nunca, etc.
se clasifican en: • Intensidad: muy de acuerdo, de acuerdo,
• Numéricas: en ellas la graduación del en desacuerdo, muy de acuerdo, etc.
rasgo se efectúa por medio de números, • Calidad de una tarea: insatisfactorio,
que pueden abarcar desde el 1 hasta el básico, competente, destacado, etc.
10, teniendo el primero una connotación
menor que el último. Construcción de escalas de valoración
• Gráficas: la graduación del rasgo se realiza Las escalas de valoración son frecuentemente
a través de figuras o gráficas, por lo que empleadas en la medición de actitudes y
suelen emplearse con niños pequeños. percepciones de los estudiantes, sus estilos de
• Descriptivas: la graduación del rasgo se aprendizaje, así como sus intereses respecto
describe y tiene, por tanto, un abanico de la asignatura, lo que facilita el diseño de
mayor de posibilidades de situaciones las estrategias de enseñanza (UOregon, s.f.
de desempeño que abarcar, pues puede a). También permiten medir el producto final
indicar la frecuencia en las que se presenta de un desempeño, como las listas de cotejo;
el rasgo, su intensidad o su calidad. la estructura de una escala de valoración se
Las gradaciones de las escalas descriptivas presenta en la figura 13:

Universidad San Sebastián 23


Figura 13: Estructura de escala de valoración (Adaptado desde Morales, 2015).

Ítem Destacado Competente Básico Insatisfactorio


Persuade a sus potenciales clientes
que el problema presentado es rele-
vante para su cliente especifico.
Identifica un mercado potencial al
cuál los clientes pertenecen. ítemes
Valoración del Ítem
Presenta evidencia de que el cliente
posee el problema.
Persuade a su profesor sobre una
solución viable de desarrollar en un
periodo menor a 2 meses.

En cuanto a la construcción de las escalas • Revise que las acciones a observar den
de valoración debe cautelar: cuenta de las características relevantes
• ítemes posibles de valorarse a través de del desempeño a evaluar, evitando que
una escala numérica, gráfica o descriptiva; la tarea solicitada corresponda a una
• ítemes que exponen una única acción petición excesiva de detalles sobre el
observable; aspecto a evaluar.
• ítemes en los que la acción se describe • La puntuación por respuesta dependerá
por medio de verbos de acción, que de la gradación de la escala seleccionada.
serán valorados de acuerdo a la escala
seleccionada. Finalmente, es necesario validar la escala
• Compruebe tener un mínimo de 3 acciones de valoración construida por medio del
específicas que se desean evaluar de juicio de expertos, fundamentalmente para
un desempeño. Este mínimo le permitirá cautelar la relación entre los ítemes y la
analizar los datos y determinar si el escala seleccionada. Una confusión en esta
desempeño está o no logrado. área puede generar dificultades durante la
aplicación, como en el caso 4:

24 Dirección General de Pregrado


Figura 14: Ejemplo escala de valoración con errores de construcción.
Caso 4:
SIEMPRE A MENUDO A VECES RARAMENTE
Criterios de evaluación de la unidad
excelente muy bien bien regular
Se integra en las dinámicas de clase.
Cumple las reglas/ normas de las actividades.
Coopera con sus compañeras: presta ayuda o
se deja ayudar si lo necesita.
Trata de evitar conflictos y favorecer un buen
clima de aula.
Fuente: elaboración propia

El caso 4 corresponde a una escala de • Los ítemes nº3 y 4 evalúan dos elementos,
valoración con errores de construcción, lo que genera oposición entre ambos y
puesto que: dificulta la aplicación del instrumento (p. ej.:
una persona puede evitar el conflicto y sin
• Se establecen dos tipos de categorías para embargo, no ser un aporte particularmente
una escala de valoración de tipo descriptiva notable en cuanto a favorecer un buen clima).
(Siempre/excelente; que corresponden a
una escala de frecuencia y de calidad del La construcción y aplicación de las escalas
desempeño, respectivamente); esto genera de valoración implica ciertas ventajas y
ambigüedad en la aplicación. desventajas, expuestas en la tabla n° 5:

Tabla N° 5: Ventajas y desventajas de las escalas de valoración.


Ventajas Desventajas
 Las categorías de respuesta pueden ser escalas 1-4 yySu elaboración es más compleja que la lista de
o palabras precisas (Frecuencia: siempre, casi siem- cotejo: implica una mayor precisión para que el
pre, a veces, nunca; Intensidad: mucho, bastante, ítem de cuenta de la graduación con la que se
poco, nada; Calidad de una tarea: insatisfactorio, evaluará.
básico, competente, destacado). yyNo es aconsejable de aplicar en grupos de gran
 Facilita que los estudiantes evalúen su propio traba- tamaño por el tiempo que requiere.
jo al igual que los docentes.
 Facilita la evaluación tanto individual como grupal,
cuando se trata de grupos pequeños.

Fuente: elaboración propia

Universidad San Sebastián 25


7. RÚBRICAS ANALÍTICAS

Una rúbrica analítica corresponde a un La estructura de este tipo de instrumentos


instrumento de evaluación de desempeños, en contempla:
el que se operacionaliza la tarea encomendada a. La definición de la tarea encomendada
al estudiante en aspectos específicos o al estudiante.
criterios y éstos, a su vez, en niveles de calidad b. Los criterios en que se ha operacionalizado
debidamente descritos (Mueller, 2014; UCon, la tarea.
s/f b). c. La escala en que se graduará el desempeño.
d. Los descriptores de los desempeños según
la escala (ver figura 15).

Figura n°15: Estructura de una rúbrica analítica (Adaptado desde Celis & García, 2015).

Escala

Criterio 0 1 2 3
Registro de anteceden- El estudiante El estudiante El estudiante El estudiante
tes: No registra registra 2 registra 4 de registra to-
Registra en bitácora los ninguno de de 6 de los 6 de los an- dos los an-
Descripción antecedentes personales los ante- antecedentes tecedentes tecedentes
criterio del entrevistado nombre, cedentes personales personales personales
edad, sexo, profesión, personales solicitados en solicitados solicitados
experiencia laboral, solicitados en la bitácora. en la bitá- en la bitá-
estudios post-grado. la bitácora. cora. cora.

Descriptor del desempeño

26 Dirección General de Pregrado


Construcción de rúbricas • Asigne puntos (números) y/o palabras
Algunas recomendaciones para la construcción (por ejemplo: principiante, intermedio,
de rúbricas analíticas son: competente, destacado) a cada una de
• Seleccione el RA a evaluar y determine los niveles de desempeño identificados
los criterios que permiten evidenciar el en la escala para evaluar los resultados
desempeño del mismo. del aprendizaje.
• Defina cada uno de esos criterios. • Añada una columna para registrar la
• Si corresponde, defina la relevancia de cada puntuación de cada criterio, así como
criterio en el desempeño del estudiante; una fila de la puntuación total. (FCIT, s.f;
es decir, designe un múltiplo (mayor que Mueller, 2014).
uno y menor que tres) en función de la
importancia asignada, que permita atribuir Por último, solicite a un colega que revise
mayor peso a ese criterio en comparación su rúbrica con la finalidad de corroborar la
con los restantes. claridad de los descriptores, la coherencia
• Para cada una de los criterios ya definidos, entre éstos y los criterios que definió, y entre
gradúe los desempeños. La cantidad de estos últimos y el desempeño que pretende
niveles de desempeños dependerá del evaluar a través de este instrumento. Un error
peso que se le quiera asignar a al criterio frecuente en la construcción de las rúbricas
evaluado. es que los niveles de calidad del desempeño
• Un criterio puede tener subcriterios, para han sido elaborados cuantificando la acción
evidenciar cantidad y calidad del criterio del estudiante y no cualificándola. Esto se
evaluado. En relación a la calidad, procure explicita en el caso 5.
que su definición de niveles de desempeño
tenga un carácter descriptivo, es decir que
indique lo más pormenorizadamente posible
qué hace el estudiante que presenta ese
nivel en concreto y no cuánto hace respecto
del desempeño ideal.

Universidad San Sebastián 27


Caso 5:
Figura 16: Ejemplo de rúbrica analítica con errores de construcción. Fuente: Elaboración propia
Nivel
Criterios
4. Excelente 3. Satisfactorio 2. Puede Mejorar 1. Inadecuado
Apoyos utilizados en Utiliza distintos re- Utiliza pocos recursos Utiliza uno o dos No utiliza recur-
la presentación sobre cursos que fortale- que fortalecen la pre- recursos pero la pre- sos adicionales
el tema. Fuentes de in- cen la presentación sentación del tema. sentación del tema es en la presenta-
formación biomédica. del tema. deficiente. ción del tema.
Comprensión del Contesta con preci- Contesta con preci- Contesta con preci- No contesta las
tema. sión todas las pre- sión la mayoría de las sión algunas pregun- preguntas plan-
Fuentes de informa- guntas planteadas preguntas planteadas tas sobre el tema. teadas.
ción biomédica. sobre el tema. sobre el tema.
Dominio de estrate- Demuestra dominio Demuestra un nivel Demuestra dominio No domina es-
gias de búsqueda de de estrategias de satisfactorio de domi- de algunas estrate- trategias de bús-
información biomé- búsqueda. nio de estrategias de gias de búsqueda queda.
dica. búsqueda.

El caso 5 expone una rúbrica analítica con evidenciar este tipo de desempeño. Por
errores de construcción, dado que: ejemplo: en la descripción del segundo
• Los criterios presentan dualidades en su criterio, la noción de “precisión” puede
descripción, lo que dificulta comprender a prestarse para interpretaciones diversas
qué aspecto del desempeño están refiriendo. durante la aplicación del instrumento.
(indicar ejemplo, dónde se observa esto) • La descripción de los desempeños es
• No queda clara la diferencia conceptual imprecisa, dado que no explicita la calidad
entre los niveles de desempeño establecidos: del desempeño, sino que la cantidad de
la categoría “satisfactorio” implica que cosas que el estudiante deja de hacer
“puede mejorar”, pero en el caso analizado, respecto del desempeño ideal; junco con
se considera ambas categorías como ello no precisa qué se va a considerar
distintas, donde además el “puede mejorar” como “usa pocos recursos”
aparece como un resultado inferior al de • La descripción del desempeño inadecuado
“satisfactorio”. corresponde a la inexistencia de evidencia
• La descripción de los desempeños ideales respecto del mismo (y por tanto con puntaje
o “excelentes” es ambigua, ya que no igual a cero), por lo que la columna debería
se explicita la forma en que se puede nombrarse como “no observado”.

28 Dirección General de Pregrado


Así como los instrumentos expuestos con ventajas y desventajas en su construcción y
anterioridad, las rúbricas presentan igualmente aplicación:

Tabla N° 6: Ventajas y desventajas de las rúbricas

Ventajas Desventajas
 Evalúa los componentes de una tarea desagregada yySu elaboración es compleja, ya que necesita que
en niveles de desempeño. los niveles de desempeño evidencien diferencias
 Favorece la evaluación de la tarea a evaluar, ya entre ellos.
que explicita en niveles lo que se espera del des- yySu elaboración requiere de mayor tiempo de cons-
empeño del estudiante, considerando los errores trucción.
más frecuentes.

Fuente: elaboración propia

Universidad San Sebastián 29


8. APLICACIÓN DEL
INSTRUMENTO DE EVALUACIÓN
En el proceso de aplicación de un instrumento estudiantes, adaptando el material acorde
de evaluación, se debe resguardar que las a sus necesidades.
condiciones sean favorables para obtener • Asignar un mayor tiempo de respuesta a
resultados confiables. Se sugiere considerar: estudiantes con Necesidades Educativas
• Condiciones ambientales que podrían influir Especiales.
negativamente en el desempeño (ruidos, Otro aspecto relevante en la aplicación
equipamiento en mal estado, daños en puede ser el leer en voz alta las instrucciones
infraestructura, espacio inapropiado en de la situación de evaluación (cuando ello
tamaño, etc.). sea pertinente), con la finalidad de resolver
• Situación de salud de los estudiantes que dudas que pueden ser comunes a todo el
podría perjudicar su desempeño (condición grupo; informar al inicio si será posible pedir
física y/o mental). aclaraciones durante la evaluación, así como
• Necesidades educativas especiales de los si estará permitido o no salir de la sala, etc.

30 Dirección General de Pregrado


9. ANÁLISIS Y ENTREGA DE
RESULTADOS DEL PROCESO DE EVALUACIÓN
Una vez revisadas todas las evaluaciones A continuación, se presentan algunos
y, antes de entregar sus resultados a los y procedimientos que pueden ser útiles para
las estudiantes, es recomendable realizar realizar el análisis de los resultados de una
un análisis de los resultados obtenidos por evaluación, para ello se recomienda:
el conjunto del estudiantado, ello permitirá:
• Conocer el nivel de logro del RA evaluado 1.- Construir una hoja de cálculo para vaciar
en el curso y en cada estudiante. los datos obtenidos, escribiendo el puntaje
• Tomar decisiones pedagógicas que logrado por cada estudiante en cada
favorezcan el logro del RA evaluado. pregunta (en el caso de listas de cotejo,
• Identificar errores en la construcción del escalas de valoración o rúbricas) o la
instrumento, por ejemplo: imprecisión en la opción seleccionada por el estudiante (si
redacción de los ítemes, diagramación, etc. se trata de ítemes de selección múltiple),
• Identificar el grado dificultad de los ítemes en una tabla como la siguiente:
(baja o alta) acorde al contexto del curso.
• Informar a diferentes audiencias (estudiantes,
directivos, etc.).

Nº de estudiante Ítem 1 Ítem 2 Ítem 3 Ítem 4


E1
E2
E3

2.- Una vez vaciados los datos, se puede • y los puntajes mínimo y máximo obtenidos
calcular para cada ítem: para cada ítem;
• la frecuencia, correspondiente a la cantidad
de veces que se obtiene un puntaje Algo similar se puede realizar por estudiante:
determinado en cada ítem u opción; determinar el promedio obtenido, así como su
• la media o el promedio, equivalente a la puntaje mínimo y máximo.
suma de todos los puntajes obtenidos Desde la perspectiva del aprendizaje, lo
para el ítem dividido por el número total esperable de un proceso de enseñanza-
de estudiantes. aprendizaje exitoso es que todos o la mayor

Universidad San Sebastián 31


parte de los estudiantes aprendan, por lo que La calificación
se debe analizar las razones por las que los La calificación es la parte final del proceso de
ítems fueron respondidos por un mayor o análisis de los datos. Ésta consiste en asignar
menor número de estudiantes. un número o propiedad a los datos obtenidos
Si el ítem está bien construido y este en relación con una unidad preestablecida
efectivamente pone en juego los contenidos de forma cualitativa (logrado, en proceso o
y habilidades del resultado de aprendizaje no logrado); o bien de forma cuantitativa, en
evaluado y su aplicación arroja un alto nivel una escala de notas que puede ser desde el
de respuesta correcta, entonces querrá decir 1,0 hasta el 7,0, dependiendo de cada país
que los estudiantes han desarrollado dicho (Castillo-Arredondo & Cabrerizo-Diago, 2010).
aprendizaje; en el caso contrario, si el nivel de Con ello se busca certificar el nivel de logro
respuestas correctas es bajo, nos deberemos de los RA.
preguntar sobre las razones que dificultaron
dicho aprendizaje tales como: el tiempo ¿Cuáles son los estándares de comparación
destinado en la asignatura a su desarrollo, para determinar la calificación?
si las estrategias de aprendizaje fueron las Para determinar la calificación habitualmente
adecuadas, si el material de apoyo era el se utilizan dos estándares de comparación
adecuado, si implementación de la planificación Normativo y Criterial. En el marco de un
es coherente con los desempeños que se busca referente normativo, los estudiantes se ordenan
desarrollar, entre otros, de manera de tomar en función de los puntajes obtenidos y se
las decisiones pedagógicas más adecuada. califican respecto del puntaje ideal, es decir,
obtendrá la calificación máxima quien alcance
el puntaje máximo del curso.

Ejemplo 3:
Frecuencia de puntajes Rangos de puntajes Calificación
4 estudiantes con puntaje más alto 48-50 7,0
6 estudiantes con puntaje en el rango 45-47 6,0
3 estudiantes con puntaje en el rango 46-41 5,0
12 estudiantes con puntaje en el rango 39-35 4,0
2 estudiantes con puntaje en el rango 32-27 3,0
2 estudiantes con puntaje en el rango 26-22 2,0
2 estudiantes con puntaje en el rango < 21 1,0

32 Dirección General de Pregrado


En el referente criterial, todos los estudiantes en función de los criterios de evaluación,
son calificados de acuerdo a un porcentaje previamente establecidos.
de exigencia. Este porcentaje es definido
Ejemplo 4:
Puntaje total 40
Puntaje mínimo al 70% 28
Puntaje estudiantes Calificación
40 7,0
39 6,8
38 6,5
37 6,3
36 6,0
35 5,8
34 5,5
33 5,3
32 5,0
31 4,8
30 4,5
29 4,3
28 4,0

Para calcular la calificación se sugiere utilizar una planilla de cálculo, aplicando las fórmulas
que se presentan en la figura n° 17:
Figura n° 17: Fórmulas para calcular calificaciones. (Adaptado desde Himmel, Olivares y
Zabalza, 1999)
Calificaciones Aprobatorias Calificaciones Aprobatorias

E-D E
*3 +4 *3 +1
C–D D

Simbología:
C = puntaje máximo posible
D = puntaje mínimo de aprobación
E = puntaje estudiante

Universidad San Sebastián 33


Al considerar estas fórmulas con un puntaje de se distribuyen como se presenta en la tabla n°9
40 y con un 70% de exigencia, las calificaciones

Tabla n° 9 Distribución de calificaciones


Puntaje total 40 Puntaje total 40
Puntaje mínimo al 70% 28 Puntaje mínimo al 70% 28
Puntaje Calificación Puntaje Calificación
del estudiante de aprobación del estudiante de reprobación
40 7,0 27 3,9
39 6,8 26 3,8
38 6,5 25 3,7
37 6,3 24 3,6
36 6,0 23 3,5
35 5,8 22 3,4
34 5,5 21 3,3
33 5,3 20 3,1
32 5,0 19 3,0
31 4,8 18 2,9
30 4,5 17 2,8
29 4,3 16 2,7
28 4,0 15 2,6

Si bien, la calificación representa un número o habilidades evaluadas, a las que habitualmente


una propiedad cualitativa (logrado o no logrado) se les asigna una ponderación distinta, por
respecto al puntaje global del instrumento lo que invisibiliza el real desempeño del
de evaluación, que informa si el estudiante estudiante. Por tal razón, es necesario analizar
aprueba o reprueba, esta no da cuenta de y retroalimentar a los estudiantes sobre los
los puntajes que obtuvo entre las diferentes desempeños obtenidos tras una evaluación.

34 Dirección General de Pregrado


10. RETROALIMENTACIÓN
Respecto de la evaluación para el aprendizaje la competencia profesional del docente y
el Proyecto Educativo USS indica: criterios de evaluación explícitos y conocidos
por todos.” 4
“La evaluación de los aprendizajes
La Universidad San Sebastián define a la Es por ello que la retroalimentación o feedback
evaluación académica como un proceso tiene una intencionalidad formativa, proceso en
permanente, continuo, sistemático y formativo el cual estudiantes y docentes establecen un
que califica en forma periódica los niveles de diálogo bidireccional, que les permite conocer el
logro de los aprendizajes de los estudiantes. A nivel de logro de los resultados de aprendizajes
este respecto, la evaluación de los aprendizajes para un determinado desempeño esperado.
es una experiencia permanente de cada Desde esta perspectiva, la retroalimentación
estudiante; mientras que para los académicos trasciende la sola identificación de errores
constituye una herramienta retroalimentadora y se orienta a entregarle información a los
y formativa, que genera evidencias de los estudiantes de lo que han hecho bien de
avances y logros de los aprendizajes. la tarea evaluada y lo que deben mejorar,
ofreciéndole estrategias concretas que les
La evaluación en la USS privilegia la claridad permitan disminuir la diferencia entre el
de los criterios, así como la retroalimentación aprendizaje actual y el ideal (Amaranti, 2010;
de resultados. Para ello se guía por un conjunto Wiliam, 2014).
de principios, entre los cuales destaca el formar
parte de una planificación efectiva; central en Los investigadores Tunstall & Gipps, (1996)
la actividad del aula y sus estudiantes, cuyo señalan que existen dos categorías en las que
impacto emocional incide en la motivación, se puede sintetizar el tipo de retroalimentación
estimula la autoevaluación y orienta el cómo que los docente le pueden entregar a los
mejorar. Considerando la riqueza de este estudiantes, como se presenta en la tabla n° 10.
proceso, se trata de una práctica que exige

4 Proyecto Educativo 2016, P. 25.

Universidad San Sebastián 35


Tabla n° 10: Tipos de reatroalimentación de los docentes a los estudiantes (adaptado de
Tunstall & Gipps, 1996, p. 392-401)

TIPOS DE RETROALIMENTACIÓN
Retroalimentación evaluativa Retroalimentación descriptiva
A1 B1 C1 D1
Premiar Aprobar Describir logros. Contribuir a generar mejores nive-
les de logro.
Ejemplos de retroalimentación Ejemplos de retroalimentación
Refuerzo positivo a tra- Aprobación positiva Se centra en elementos Se focaliza en el diálogo con el
vés de caras felices, pre- del docente: “bien he- específicos del apren- estudiante para reflexionar sobre
mios, entre otros. cho”, “muy bien, “eres dizaje exitoso: “Tu res- los resultados: “Estas fueron algu-
un buen estudiante”, puesta cumple con el nas de las respuestas del curso
etc. criterio de evaluación ¿Cuál o cuáles se justan más al
porque…” criterio de evaluación? ¿Por qué?”

A2 B2 C2 D2
Castigar Desaprobar Especificar los niveles Proponer estrategias para mejo-
de logro que se deben rar los niveles de logro.
mejorar.

Ejemplos de retroalimentación Ejemplos de retroalimentación


Refuerzo negativo: priva Aprobación negativa Se centra en los ele- Se centra en el diálogo con el es-
al estudiante de algo de del docente: “esperaba mentos del aprendizaje tudiante usando los criterios de
su agrado, expulsión de mucho más de tu tra- a mejorar: En relación a evaluación en contraste con su
la sala, etc. bajo”, “podrías hacerlo los criterios de evalua- trabajo, para establecer estrate-
mucho mejor”. ción tu trabajo debe me- gias concretas de mejorar: “¿Qué
jorar en…”. propones para mejorar tu traba-
jo?, ¿cuán viable es tu propuesta?”

Como se observa las retroalimentaciones de tipo Bajo esta lógica, una retroalimentación efectiva
A y B se caracterizan por estar más centradas se direcciona hacia los tipos C y D, sin olvidar
en la persona influyendo en la autoestima de que el solo hecho de entregar información
ella, mientras que C y D se focalizan en la tarea al estudiante careciendo de una orientación
del estudiante, evidenciándoles que el juicio concreta de mejora, no se considera como
de valor no es hacia ellos como persona, sino una retroalimentación efectiva; para lograrlo,
que hacia el desempeño evaluado. diversos autores, como Tunstall et al (1996) y
Stobart (2013), entre otros, sugieren que:

36 Dirección General de Pregrado


• Exista una descripción clara, breve y precisa activos y críticos de su aprendizaje.
de la tarea evaluada. Centrar la información del desempeño del
• Se informe al estudiante oportunamente estudiante en relación a la tarea evaluada,
los resultados de la tarea evaluada. y no en la persona.
• Se inste al estudiante hacerse un agente Entregar a los estudiantes estrategias en lugar
activo de su aprendizaje, desafiándolo a de soluciones para cerrar la brecha entre lo
buscar estrategias de mejora alcanzables. obtenido con lo esperado.
• Explicitar los resultados de aprendizajes Dar tiempo a los estudiantes para que asimilen
a evaluar, ya que eso les permite a los la retroalimentación y decidan qué acciones
estudiantes conocer qué se espera de concretas le permitirán mejorar su aprendizaje.
ellos en la situación de evaluación.
• Dar a conocer los criterios de evaluación Teniendo presente estas sugerencias el
públicamente a los estudiantes, dado que la profesor puede retroalimentar a los estudiantes
retroalimentación se hará en base a ellos. de forma: oral, escrita o ambas. Amaranti
• Crear un clima de aula en confianza para (2010) entrega lineamientos para realizar una
motivar a los estudiantes a ser actores retroalimentación efectiva, estas son:

Tabla n° 12: Lineamientos para una retroalimentación efectiva (adaptado desde Amaranti, 2010).

Retroalimentación oral Retroalimentación escrita


Es el diálogo cara a cara entre estudiante y el do- Es la formalización de las acciones que los estudiantes
cente. deben seguir para mejorar su aprendizaje, sin olvidar
que esta debe funcionar en paralelo a la retroalimen-
tación oral.
yyUsar un lenguaje común para todos los estudian- yyUsar un lenguaje común para todos los estudiantes,
tes. evitando abreviaturas.
yyDescribir el nivel de logro en función de los crite- yyDescribir el desempeño en función a los criterios de
rios de evaluación. evaluación.
yyFormular preguntas reflexivas que direccionen yyUsar marcas de corrección consensuadas previa-
el análisis crítico del estudiante en relación a su mente con el estudiante.
desempeño con los criterios de evaluación. yyEvitar notas breves y poco específicas “tu trabajo
yyDar tiempo a los estudiantes para que respon- podría ser mejor”.
dan, contribuyendo a respuestas más largas y no yyEvitar hacer reiterados comentarios de aspectos
solo afirmaciones. formarles (redacción, ortografía, formato, etc.), dado
yyEvitar usar frases “bien hecho”, “excelente”, “fe- que focaliza la atención del estudiante en aspectos
licitaciones”, si bien contribuyen a la autoestima, simples de su desempeño y no en elementos tron-
invisibilizan el foco de la retroalimentación que cales de éste.
es en torno al desempeño del estudiante. yyEvitar usar lápiz de color rojo.

Universidad San Sebastián 37


REFERENCIAS BIBLIOGRÁFICAS
• Amaranti, M. (2010). “Evaluación de la • Downing, S. & Haladyna, T. (2006). Handbook
educación: concepciones prácticas de of test development. Lawrence Erlbaum
retroalimentación de los profesores de Associates, Publishers. Mahwah, New Jersey
lenguaje y comunicación de primer año de London.
educación media”. Pontifica Universidad
Católica de Valparaíso. En: Congreso • Florida Center of Instructional Technology.
Iberoamericano de Educación. Buenos Aires, (s/f). Performance Assessment. http://fcit.usf.
Argentina. 13, 14 y 15 de Septiembre de 2010. edu/assessment/performance/assess.html
(Agosto 10, 2015).
• Azúa, X. (2001). ¿Qué se evalúa cuando
se evalúa? Una experiencia de formación • Haladyna, T. (2004). Developing and validating
docente en evaluación para el aprendizaje. multiple-choice test ítems. Lawrence Erlbaum
Santiago, Chile: Universitaria. Associates, Publishers. Mahwah, New Jersey
London.
• Chávez, C & Saade, A. (2009). Procedimientos
Básicos para el Análisis de Reactivos. • Himmel, E., Olivares, Mº & Zabalza, J. (1999).
Cuaderno Técnico N° 8. Centro Nacional Hacia una evaluación educativa: aprender
de Evaluación para la Educación Superior. para evaluar y evaluar para aprender.
México. Conceptos actuales sobre la evaluación
del aprendizaje. Santiago, Chile: Pontificia
• Covacevich, C. (2014). Cómo seleccionar Universidad Católica de Chile.
un instrumento para evaluar aprendizajes
estudiantiles. Publicaciones del Banco • ICFES (s.f.) Ejemplos de Pregunta. Recuperado
Interamericano de Desarrollo, División en http://www.casdquindio.edu.co/userfiles/
de Educación. Recuperado desde: file/icfes/AC_EP_Ejemplos_de_preguntas_
http://publications.iadb.org/bitstream/ Agosto11_08[1]
handle/11319/6758/C%C3%B3mo-seleccionar- • dmin=eb0b7294f6d4a0e56126a77981c1b8cc
un-instrumento-para-evaluar-aprendizajes-
estudiantiles.pdf?sequence=1 (Junio 11, 2015). • Ministerio de Educación, República de Chile.
(2013). Evaluación para el aprendizaje
• Department of Education and Training. (2008). en Ciencias Naturales. Recuperado en:
Designing assessment tools for quality http://www.basica.mineduc.cl/usuarios/
outcomes in VET. Government of Western basica/File/2014/cienciasnaturales/
Australia, East Perth, Australia. EVALUACIONPARAAPRENDIZAJE.pdf

38 Dirección General de Pregrado


• Mueller, J. (2014). “Rubrics”, en: Authentic • Tunstall, P. & Gipps, C. (1996). “Teacher
Assessment Tools. Recuperado desde: feddback to young children in formative
http://jfmueller.faculty.noctrl.edu/toolbox/ assessment: a typology”. En: British
rubrics.htm#versus (Agosto 11, 2015). Educational Research Journal, vol. 22, n° 4,
páginas 389-404. Recuperado desde: http://
• Roegiers, X. & Peyser, A. (2007). La datause.cse.ucla.edu/DOCS/pt_tea_1996.
comunidad de prácticas curriculares pdf (Agosto 21, 2015).
Centroamericana y el trabajo de evaluación
• University of Oregon, Teaching Effectiveness
de competencias El concepto y utilidad
Program (TEP). (2015). Techniques for
de la situación-problema. Documento
Writing Multiple-Choice Items that Demand
de trabajo presentado en V. Encuentro
Critical Thinking. Recuperado desde http://
de la Comunidad Centroamericana de
tep.uoregon.edu/resources/assessment/
Práctica en Desarrollo Curricular titulado
multiplechoicequestions/sometechniques.
“Diseño curricular y evaluación en base
html#premise (Junio 08, 2015).
al enfoque por competencias”, del 17 al 19
de Octubre del 2007, en San José, Costa • University of Conneticut. (s/f a). Choosing
Rica. Recuperado desde: http://www.ibe. the right assessment tools. Recuperado
unesco.org/fileadmin/user_upload/COPs/ desde: http://assessment.uconn.edu/docs/
News_documents/2007/0710SanJose/ Choosing_the_Right_Assessment_Tool.pdf
evaluacion_de_competencias.pdf (junio (Agosto 10, 2015).
19, 2015).
• University of Conneticut. (s/f b). How to
• Stobar, G. (2013). Assessment and learning. create rubrics. Recuperado desde: http://
Leading education and social research. www.assessment.uconn.edu/docs/How_to_
Institute of Education University of London. Create_Rubrics.pdf (Agosto 11, 2015).
[Ponencia]. Recuperado desde: http://www.
udir.no/PageFiles/56712/1%20samling/ • Wiliam, D. (2014). Paper presented in a
Gordon%20Stobart%20-%20Learning%20 Symposium entitled Toward a Theory of
and%20Assessment.pdf Classroom Assessment as the Regulation
of Learning at the annual meeting of the
American Educational Research. Recuperado
en http://www.dylanwiliam.org/Dylan_
Wiliams_website/Papers.html

Universidad San Sebastián 39

Você também pode gostar