Você está na página 1de 30

ANTECEDENTES DE LA

EVALUACION

INDICE
1. INTRODUCCION ________________________________________________________ 3
2. DESARROLLO DE TEMATICA _____________________________________________ 4
2.1 ANTECEDENTES DE LA EVALUACION EDUCATIVA __________________________ 4
2.2.1 Precedentes antes de los tests de evaluacin _______________________________ 4
2.2.2 Los tests psicosometricos _______________________________________________ 4-5
2.2.3 El nacimiento de la verdadera evaluacin educativa la gran reforma Tyleriana ______ 6-7
2.2.4 El desarrollo de los sesenta ______________________________________________ 7-12
2.2.5 Desde los aos setenta la consolidacin de la investigacin evaluativa ____________ 12-15
2.2.6 La cuarta generacin segn Guba y Lincoln _________________________________ 15-18
2.2.7 El nuevo impulso alrededor de Stufflebeam __________________________________ 18-21
2.2.8 Sntesis de enfoques modlicos y metodolgicos de la evaluacin y la ultima perspectiva de
Scriven ___________________________________________________________________ 21-23
2.2.9 La visin constructivista de la cuarta generacin ______________________________ 24-25
3. CONCLUCIONES _________________________________________________________ 26
4. ANEXOS ________________________________________________________________ 27-29
. BIBLIOGRAFIA ____________________________________________________________ 30

INTRODUCCION
La evaluacin es parte integrante de nuestra vida continuamente nos estamos sometiendo
a evaluacin. No pasa ningn da sin que al finalizar la jornada nos hagamos un balance
de lo que hicimos, y como lo hicimos que nos falta por hacer, etc. Y as sucede con todos
los aspectos de la vida por ello es posible pensar y organizar un proceso de enseanza
sin que no est presente el componente de la evaluacin.
La palabra evaluacin es trmino que se viene usando mucho en las ltimas dcadas y
que en la actualidad est cargado de nuevos significados. Esta apresaciacion nos debe
permitir flexibilizar nuestra mente para ser capaces de captar lo que hoy se entiende por
evaluacin.
Antiguamente se entenda por evaluacin o se hablaba de ella en trminos de correccin
de examen de cambios de nivel, del grado de ajustes unas normas o criterios. En pocas
ms recientes la evaluacin ha ejercido como control, se ha aplicado ms al producto y a
los resultados que los procesos ha sido ms comprendida como medida y cuantificacin
se ha polarizado en exceso en el alumno y su rendimiento ms que en cualquier otro
factor de proceso enseanza-aprendizaje y se ha usado para comparar y calificar.
Es importante que la evaluacin se base ms en la prctica que en lo que realmente
acontece y se da en el alumno y en la escuela a diario y que dicha reflexin se haga
sistemticamente progresiva y con criterio y no de forma puntual y desorganizada en
muchos momentos, la evaluacin educativa es entendida como fuente de mejora
podemos afirmar con rotundidad que sin evaluacin no hay mejora posible y que solo
evaluando de continuo es como lograremos mejorar progresivamente la evaluacin nos
permite conocer lo que sucede en la escuela valorarlo y actuar ms eficazmente.

2. ANTECEDENTES DE LA EVALUACION EDUCATIVA


2.2.1 Precedentes: Antes de los tests y de la medicin
Desde la antigedad se han venido creando y usando procedimientos instructivos en los
que los profesores utilizaban referentes implcitos, sin una teora explcita de evaluacin,
para valorar y, sobre todo, diferenciar y seleccionar a estudiantes. Dubois (1970) y
Coffman (1971) citan los procedimientos que se empleaban en la China imperial, hace
ms de tres mil aos, para seleccionar a los altos funcionarios. Otros autores como
Sundbery (1977) hablan de pasajes evaluadores en la Biblia, mientras Blanco (1994) se
refiere a los exmenes de los profesores griegos y romanos. Pero segn McReynold
(1975), el tratado ms importante de evaluacin de la antigedad es el Tetrabiblos, que
se atribuye a Ptolomeo. Tambin Cicern y San Agustn introducen en sus escritos
conceptos y planteamientos evaluadores.
En la Edad Media se introducen los exmenes en los medios universitarios con carcter
ms formal. Hay que recordar los famosos exmenes orales pblicos en presencia de
tribunal, aunque slo llegaban a los mismos los que contaban con el visto bueno de sus
profesores, con lo que la posibilidad de fracaso era prcticamente inexistente. En el
Renacimiento se siguen utilizando procedimientos selectivos y Huarte de San Juan, en
su Examen de ingenios para las ciencias, defiende la observacin como procedimiento
bsico de la evaluacin (Rodrguez y otros, 1995).
En el siglo XVIII, a medida que aumenta la demanda y el acceso a la educacin, se
acenta la necesidad de comprobacin de los mritos individuales y las instituciones
educativas van elaborando e introduciendo normas sobre la utilizacin de exmenes
escritos (Gil, 1992).
Entrado el siglo XIX se establecen los sistemas nacionales de educacin y aparecen los
diplomas de graduacin, tras la superacin de exmenes (exmenes del Estado). Segn
Max Weber (Barbier, 1993), surge un sistema de exmenes de comprobacin de una
preparacin especfica, para satisfacer las necesidades de una nueva sociedad
jerrquica y burocratizada. En los Estados Unidos, en 1845, Horace Mann comienza a
utilizar las primeras tcnicas evaluativas del tipo tests escritos, que se extienden a las
escuelas de Boston, y que inician el camino hacia referentes ms objetivos y explcitos
con relacin a determinadas destrezas lecto-escritoras. Sin embargo, no se trata todava
de una evaluacin sustentada en un enfoque terico, sino ms bien, algo que responde
a prcticas en buena medida rutinaria y con frecuencia basada en instrumentos poco
fiables.
Al final del siglo XIX, en 1897, aparece un trabajo de J. M. Rice, que se suele sealar
como la primera investigacin evaluativa en educacin (Mateo y otros, 1993). Se trataba
de un anlisis comparativo en escuelas americanas sobre el valor de la instruccin en el
estudio de la ortografa, utilizando como criterio las puntuaciones obtenidas en los tests.
2.2.2 Los tests psicomtricos
En el contexto anterior, a finales del siglo XIX, se despierta un gran inters por la
medicin cientfica de las conductas humanas. Esto es algo que se enmarca en el
movimiento renovador de la metodologa de las ciencias humanas, al asumir el
positivismo de las ciencias fsico-naturales. En este sentido, la evaluacin recibe las

mismas influencias que otras disciplinas pedaggicas relacionadas con procesos de


medicin, como la pedagoga experimental y la diferencial (Cabrera, 1986).
La actividad evaluativa se ver condicionada de forma decisiva por diversos factores que
confluyen en dicho momento, tales como:
a) El florecimiento de las corrientes filosficas positivistas y empricas, que apoyaban a
la observacin, la experimentacin, los datos y los hechos como fuentes del
conocimiento verdadero. Aparece la exigencia del rigor cientfico y de la objetividad en
la medida de la conducta humana (Planchard, 1960) y se potencian las pruebas
escritas como medio para combatir la subjetividad de los exmenes orales (Ahman y
Cook, 1967).
b) La influencia de las teoras evolucionistas y los trabajos de Darwin, Galton y Cattel,
apoyando la medicin de las caractersticas de los individuos y las diferencias entre
ellos.
c) El desarrollo de los mtodos estadsticos que favoreca decisivamente la orientacin
mtrica de la poca (Nunnally, 1978).
d) El desarrollo de la sociedad industrial que potenciaba la necesidad de encontrar
unos mecanismos de acreditacin y seleccin de alumnos, segn sus conocimientos.
Consecuentemente con este estado de cosas, en este periodo entre finales del siglo XIX
y principios del XX, se desarrolla una actividad evaluativa intensa conocida como testing
que se define por caractersticas como las siguientes:
Medicin y evaluacin resultaban trminos intercambiables. En la prctica slo se
hablaba de medicin.
El objetivo era detectar y establecer diferencias individuales, dentro del modelo del
rasgo y atributo que caracterizaba las elaboraciones psicolgicas de la poca
(Fernndez Ballesteros, 1981), es decir, el hallazgo de puntuaciones diferenciales,
para determinar la posicin relativa del sujeto dentro de la norma grupal.
Los tests de rendimiento, sinnimo de evaluacin educativa, se elaboraban para
establecer discriminaciones individuales, olvidndose en gran medida la
representatividad y congruencia con los objetivos educativos. En palabras de Guba y
Lincoln (1982), la evaluacin y la medida tenan poca relacin con los programas
escolares. Los tests informaban algo sobre los alumnos, pero no de los programas con
los que se les haba formado.
En el campo educativo destacan algunos instrumentos de aquella poca, como las
escalas de escritura de Ayres y Freeman, de redaccin de Hillegas, de ortografa de
Buckingan, de clculo de Wood, de lectura de Thorndike y McCall y de aritmtica de
Wood y McCall (Planchard, 1960; Ahman y Cook, 1967; Ebel, 1977).
Sin embargo, fue en los tests psicolgicos donde los esfuerzos tuvieron mayor impacto,
siendo probablemente la obra de Thorndike (1904) la de mayor influencia en los
comienzos del siglo XX. En Francia destacan los trabajos de Alfred Binet, despus
revisados por Terman en la Universidad de Stanford, sobre tests de capacidades
cognitivas. Ahora hablamos del Stanford-Binet, uno de los tests ms conocidos en la
historia de la psicometra.
Aos ms tarde, con las necesidades de reclutamiento en la Primera Guerra Mundial,
Arthur Otis dirige un equipo que construye tests colectivos de inteligencia general (Alfa
para lecto escritores y Beta para analfabetos) e inventarios de personalidad (Phillips,
1974).
5

Tras la contienda, los tests psicolgicos se ponen al servicio de fines sociales. La dcada
entre 1920 y 1930 marca el punto ms alto del testing, pues se idean multitud de tests
estandarizados para medir toda clase de destrezas escolares con referentes objetivos
externos y explcitos, basados en procedimientos de medida de la inteligencia, para
utilizar con grandes colectivos de estudiantes.
Estas aplicaciones estandarizadas se acogen muy bien en los mbitos educativos y
McCall (1920) propone que los profesores construyan sus propias pruebas objetivas,
para no tener que confiar exclusivamente en las propuestas por especialistas externos.
Este movimiento estuvo vigente en paralelo al proceso de perfeccionamiento de los tests
psicolgicos con el desarrollo de la estadstica y del anlisis factorial. El fervor por el
testin decreci a partir de los aos cuarenta e, incluso, empezaron a surgir algunos
movimientos hipercrticos con estas prcticas.
Guba y Lincoln (1989) se refieren a esta evaluacin como a la primera generacin, que
puede legtimamente ser denominada como la generacin de la medida. El papel del
evaluador era tcnico, como proveedor de instrumentos de medicin. Segn estos
autores, esta primera generacin permanece todava viva, pues todava existen textos y
publicaciones que utilizan de manera indisoluble evaluacin y medida (Gronlund, 1985).
2.2.3 El nacimiento de la verdadera evaluacin educativa: La gran reforma
tyleriana
Antes de que llegara la revolucin promovida por Ralph W. Tyler, en Francia se inicia en
los aos veinte una corriente independiente conocida como docimologa (Pieron, 1968 y
1969; Bonboir, 1972), que supone un primer acercamiento a la verdadera evaluacin
educativa. Se criticaba, sobre todo, el divorcio entre lo enseado y las metas de la
instruccin. La evaluacin se dejaba, en ltimo trmino, en manos de una interpretacin
totalmente personal del profesor. Como solucin se propona: a) elaboracin de
taxonomas para formular objetivos, b) diversificacin de fuentes de informacin,
exmenes, expedientes acadmicos, tcnicas de repesca y tests, c) unificacin de
criterios de correccin a partir del acuerdo entre los correctores de las pruebas y d)
revisin de los juicios de valoracin mediante procedimientos tales como la doble
correccin, o la media de distintos correctores. Como puede verse, se trata de criterios
en buena medida vigentes actualmente y, en algn caso, incluso avanzados.
Pero quien es tradicionalmente considerado como el padre de la evaluacin educativa
es Tyler (Joint Committee, 1981), por ser el primero en dar una visin metdica de la
misma, superando desde el conductismo, muy en boga en el momento, la mera
evaluacin psicolgica. Entre 1932 y 1940, en su famoso Eight-Year Study of Secondary
Education para la Progressive Education Association, publicado dos aos despus
(Smith y Tyler, 1942), plantea la necesidad de una evaluacin cientfica que sirva para
perfeccionar la calidad de la educacin. La obra de sntesis la publica unos aos
despus (Tyler, 1950), exponiendo de manera clara su idea de curriculum, e integrando
en l su mtodo sistemtico de evaluacin educativa, como el proceso surgido para
determinar en qu medida han sido alcanzados los objetivos previamente establecidos.
El currculum viene delimitado por las cuatro cuestiones siguientes:
a) Qu objetivos se desean conseguir?
b) Con qu actividades se pueden alcanzar?
c) Cmo pueden organizarse eficazmente estas experiencias?
6

d) Cmo se puede comprobar si se alcanzan los objetivos?


Y la buena evaluacin precisa de las siguientes condiciones:
a) Propuesta clara de objetivos.
b) Determinacin de las situaciones en las que se deben manifestar las
conductas esperadas.
c) Eleccin de instrumentos apropiados de evaluacin.
d) Interpretacin de los resultados de las pruebas.
e) Determinacin de la fiabilidad y objetividad de las medidas.
Esta evaluacin ya no es una simple medicin, porque supone un juicio de valor sobre la
informacin recogida. Se alude, aunque sin desarrollar, a la toma de decisiones sobre
los aciertos o fracasos de la programacin, en funcin de los resultados de los alumnos,
algo que retomarn otros importantes evaluadores como Cronbach y Sufflebeam unos
aos despus.
Para Tyler, la referencia central en la evaluacin son los objetivos preestablecidos, que
deben ser cuidadosamente definidos en trminos de conducta (Mager, 1962), teniendo
en cuenta que deben marcar el desarrollo individual del alumno, pero dentro de un
proceso socializador.
El objeto del proceso evaluativo es determinar el cambio ocurrido en los alumnos, pero
su funcin es ms amplia que el hacer explcito este cambio a los propios alumnos,
padres y profesores; es tambin un medio para informar sobre la eficacia del programa
educacional y tambin de educacin continua del profesor. Se trata, segn Guba y
Lincoln (1989), de la segunda generacin de la evaluacin. Desgraciadamente, esta
visin evaluativa global no fue suficientemente apreciada, ni explotada, por aquellos que
utilizaron sus trabajos (Bloom y otros, 1975; Guba y Lincoln, 1982).
A pesar de lo anterior y de que las reformas tylerianas no siempre se aplicaron de
inmediato, las ideas de Tyler fueron muy bien acogidas por los especialistas en
desarrollo curricular y por los profesores. Su esquema era racional y se apoyaba en una
tecnologa clara, fcil de entender y aplicar y encajaba perfectamente en la racionalidad
del anlisis de la tarea que comenzaba a usarse con xito en mbitos educativos militar.
En Espaa, los planteamientos de Tyler se extendieron con la Ley General de
Educacin de 1970.
Tras la Segunda Guerra Mundial se produce un periodo de expansin y optimismo que
Stufflebeam y Shinkfield (1987) no han dudado en calificar de irresponsabilidad social
por el gran despilfarro consumista tras una poca de recesin. Se trata de la etapa
conocida como la de la inocencia. Se extienden mucho las instituciones y servicios
educativos de todo tipo, se producen cantidad de tests estandarizados, se avanza en la
tecnologa de la medicin y en los principios estadsticos del diseo experimental y
aparecen las famosas taxonomas de los objetivos educativos. Sin embargo, en esta
poca, la aportacin de la evaluacin a la mejora de la enseanza es escasa debido a la
carencia de planes coherentes de accin. Se escribe mucho de evaluacin, pero con
escasa influencia en el perfeccionamiento de la labor instruccional. El verdadero
desarrollo de las propuestas tylerianas vino despus.
2.2.4. El desarrollo de los sesenta
Los aos sesenta traern nuevos aires a la evaluacin educativa, entre otras cosas
porque se empez a prestar inters por algunas de las llamadas de atencin de Tyler,

relacionadas con la eficacia de los programas y el valor intrnseco de la evaluacin para


la mejora de la educacin.
En esa poca surge un cierto conflicto entre la sociedad americana y su sistema
educativo, sobre todo porque los rusos iban por delante en la carrera especial, tras el
lanzamiento del Sputnik por la URSS en 1957. Aparece un cierto desencanto con la
escuela pblica y crece la presin por la rendicin de cuentas. En 1958 se promulga una
nueva ley de defensa educativa que proporciona muchos programas y medios para
evaluarlos. En 1964 se establece el Acta de educacin primaria y secundaria (ESEA) y
se crea el National Study Comitte on Evaluation, crendose una nueva evaluacin no
slo de alumnos, sino orientada a incidir en los programas y en la prctica educativa
global.
Para mejorar la situacin y retomar la hegemona cientfica y educativa, fueron muchos
los millones de dlares que desde los fondos pblicos se destinaron a subvencionar
nuevos programas educativos e iniciativas del personal de las escuelas pblicas
americanas encaminadas a mejorar la calidad de la enseanza. Este movimiento se vio
tambin potenciado por el desarrollo de nuevos medios tecnolgicos (audiovisuales,
ordenadores) y el de la enseanza programada, cuyas posibilidades educativas
despertaron el inters entre los profesionales de la educacin.
De la misma forma que la proliferacin de programas sociales en la dcada anterior
haba impulsado la evaluacin de programas en el rea social, los aos sesenta sern
fructferos en demanda de evaluacin en el mbito de la educacin. Esta nueva
dinmica en la que entra la evaluacin, hace que, aunque sta se centraba en los
alumnos como sujeto que aprende, y el objeto de valoracin era el rendimiento de los
mismos, sus funciones, su enfoque y su ltima interpretacin variar segn el tipo de
decisin buscada.
Buena parte de culpa de este fuerte mpetu evaluador americano se debi a la ya citada
aprobacin de la Elementary and Secondary Act (ESEA) en 1965. Con esta ley se puso
en marcha el primer programa significativo para la organizacin de la educacin en el
mbito federal de los Estados Unidos, y se estipul que cada uno de los proyectos
realizados con el apoyo econmico federal deba ser anualmente evaluado, a fin de
justificar subvenciones futuras.
Junto al desencanto de la escuela pblica, cabe sealar la recesin econmica que
caracteriza los finales aos sesenta, y, sobre todo, la dcada de los setenta. Ello hizo
que la poblacin civil, como contribuyentes, y los propios legisladores se preocupasen
por la eficacia y el rendimiento del dinero que se empleaba en la mejora del sistema
escolar. A finales de los aos sesenta, y como consecuencia de lo anterior, entra en
escena un nuevo movimiento, la era de la Accountability, de la rendicin de cuentas que
se asocia fundamentalmente a la responsabilidad del personal docente en el logro de
objetivos educativos establecidos. De hecho, en el ao 1973, la legislacin de muchos
estados americanos instituy la obligacin de controlar el logro de los objetivos
educativos y la adopcin de medidas correctivas en caso negativo. Es comprensible que,
planteado as, este movimiento de rendicin de cuentas, de responsabilidad escolar,
diera lugar a una oleada de protestas por parte del personal docente.
Otra dimensin de la responsabilidad escolar nos la ofrece Popham cuando se refiere al
movimiento de descentralizacin escolar durante los ltimos aos sesenta y principios de
los setenta. Los grandes distritos escolares se dividieron en reas geogrficas ms
pequeas, y, por consiguiente, con un control ciudadano ms directo sobre lo que ocurra
en las escuelas.
8

Como consecuencia de estos focos de influencia, se ampli considerablemente el


fenmeno de la evaluacin educativa. El sujeto directo de la evaluacin sigui siendo el
alumno, pero tambin todos aquellos factores que confluyen en el proceso educativo (el
programa educativo en un sentido amplio, profesor, medios, contenidos, experiencias de
aprendizaje, organizacin, etc.), as como el propio producto educativo.
Como resultado de estas nuevas necesidades de la evaluacin, se inicia durante esta
poca un periodo de reflexin y de ensayos tericos con nimo de clarificar la
multidimensionalidad del proceso evaluativo. Estas reflexiones tericas enriquecern
decisivamente el mbito conceptual y metodolgico de la evaluacin, lo que unido a la
tremenda expansin de la evaluacin de programas ocurrida durante estos aos, dar
lugar al nacimiento de esa nueva modalidad de investigacin aplicada que hoy
denominamos como investigacin evaluativa.
Como hitos de la poca hay que destacar dos ensayos por su decisiva influencia: el
artculo de Cronbach (1963), Course improvement through evaluation, y el de Scriven
(1967), The methodology of evaluation. La riqueza de ideas evaluativas expuestas en
estos trabajos nos obligan a que, aunque brevemente, nos refiramos a ellas.
Del anlisis que Cronbach del concepto, funciones y metodologa de la evaluacin,
entresacamos las sugerencias siguientes:
a) Asociar el concepto de evaluacin a la toma de decisiones. Distingue el autor
tres tipos de decisiones educativas a las cuales la evaluacin sirve: a) sobre el
perfeccionamiento del programa y de la instruccin, b) sobre los alumnos (necesidades
y mritos finales) y c) acerca de la regulacin administrativa sobre la calidad del
sistema, profesores, organizacin, etc. De esta forma, Cronbach abre el campo
conceptual y funcional de la evaluacin educativa mucho ms all del marco
conceptual dado por Tyler, aunque en su lnea de sugerencias.
b) La evaluacin que se usa para mejorar un programa mientras ste se est
aplicando, contribuye ms al desarrollo de la educacin que la evaluacin usada para
estimar el valor del producto de un programa ya concluido.
c) Poner en cuestin la necesidad de que los estudios evaluativos sean de tipo
comparativo. Entre las objeciones a este tipo de estudios, el autor destaca el hecho de
que, con frecuencia, las diferencias entre las puntuaciones promedio entre grupos son
menores que las intra-grupos, as como otras referentes a las dificultades tcnicas que
en el marco educativo presentan los diseos comparativos. Cronbach aboga por unos
criterios de comparacin de tipo absoluto, reclamando la necesidad de una evaluacin
con referencia al criterio, al defender la valoracin con relacin a unos objetivos bien
definidos y no la comparacin con otros grupos.
d) Se ponen en cuestin los estudios a gran escala, puesto que las diferencias entre
los tratamientos pueden ser muy grandes e impedir discernir con claridad las causas
de los resultados. Se defienden los estudios ms analticos, bien controlados, que
pueden usarse para comparar versiones alternativas de un programa.
e) Metodolgicamente Cronbach propone que la evaluacin debe incluir: 1) estudios de
proceso hechos que tienen lugar en el aula 2) medidas de rendimiento y actitudes
cambios observados en los alumnos y 3) estudios de seguimientos, esto es, el camino
posterior seguido por los estudiantes que han participado en el programa.
f) Desde esta ptica, las tcnicas de evaluacin no pueden limitarse a los tests de
rendimiento. Los cuestionarios, las entrevistas, la observacin sistemtica y no
sistemtica, las pruebas de ensayo, segn el autor, ocupan un lugar importante en la

evaluacin, en contraste al casi exclusivo uso que se haca de los tests como tcnicas
de recogida de informacin.
Si estas reflexiones de Cronbach fueron impactantes, no lo fueron menos las del ensayo
de Scriven (1967). Sus fecundas distinciones terminolgicas ampliaron enormemente el
campo semntico de la evaluacin, a la vez que clarificaron el quehacer evaluativo.
Destacamos a continuacin las aportaciones ms significativas:
a) Se establece de forma tajante la diferencia entre la evaluacin como actividad
metodolgica, lo que el autor llama meta de la evaluacin, y las funciones de la
evaluacin en un contexto particular. As, la evaluacin como actividad metodolgica
es esencialmente igual, sea lo que fuera lo que estemos evaluando. El objetivo de la
evaluacin es invariante, supone en definitiva el proceso por el cual estimamos el valor
de algo que se evala, mientras que las funciones de la evaluacin pueden ser
enormemente variadas. Estas funciones se relacionan con el uso que se hace de la
informacin recogida.
b) Scriven seala dos funciones distintas que puede adoptar la evaluacin: la formativa
y la sumativa. Propone el trmino de evaluacin formativa para calificar aquel proceso
de evaluacin al servicio de un programa en desarrollo, con objeto de mejorarlo, y el
trmino de evaluacin sumativa para aquel proceso orientado a comprobar la eficacia
del programa y tomar decisiones sobre su continuidad.
c) Otra importante contribucin de Scriven es la crtica al nfasis que la evaluacin da a
la consecucin de objetivos previamente establecidos, porque si los objetivos carecen
de valor, no tiene ningn inters saber hasta qu punto se han conseguido. Resalta la
necesidad de que la evaluacin debe incluir tanto la evaluacin de los propios objetivos
como el determinar el grado en que stos han sido alcanzados.
d) Clarificadora es tambin la distincin que hace Scriven entre evaluacin intrnseca y
evaluacin extrnseca, como dos formas diferentes de valorar un elemento de la
enseanza. En una evaluacin intrnseca se valora el elemento por s mismo, mientras
que en la evaluacin extrnseca se valora el elemento por los efectos que produce en
los alumnos. Esta distincin resulta muy importante a la hora de considerar el criterio a
utilizar, pues en la evaluacin intrnseca el criterio no se formula en trminos de
objetivos operativos, mientras que s se hace en la evaluacin extrnseca.
e) Scriven adopta una posicin contraria a Cronbach, defendiendo el carcter
comparativo que deben presentar los estudios de evaluacin. Admite con Cronbach los
problemas tcnicos que los estudios comparativos entraan y la dificultad de explicar
las diferencias entre programas, pero Scriven considera que la evaluacin como
opuesta a la mera descripcin implica emitir un juicio sobre la superioridad o
inferioridad de lo que se evala con respecto a sus competidores o alternativas.
Estas dos aportaciones comentadas influyeron decisivamente en la comunidad de
evaluadores, incidiendo no slo en estudios en la lnea de la investigacin evaluativa, a la
que se referan preferentemente, sino tambin en la evaluacin orientada al sujeto, en la
lnea de evaluacin como assessment . Estamos ante la tercera generacin de la
evaluacin que, segn Guba y Lincoln, se caracteriza por introducir la valoracin, el
juicio, como un contenido intrnseco en la evaluacin. Ahora el evaluador no slo analiza
y describe la realidad, adems, la valora, la juzga con relacin a distintos criterios.
Durante estos aos sesenta aparecen muchas otras aportaciones que va perfilando una
nueva concepcin evaluativa, que terminar de desarrollarse y, sobre todo, de
extenderse en las dcadas posteriores. Se percibe que el ncleo conceptual de la
evaluacin lo constituye la valoracin del cambio ocurrido en el alumno como efecto de
10

una situacin educativa sistemtica, siendo unos objetivos bien formulados el mejor
criterio para valorar este cambio. As mismo, se comienza a prestar atencin no slo a
los resultados pretendidos, sino tambin a los efectos laterales o no pretendidos, e
incluso a resultados o efectos a largo plazo.
A pesar de las voces crticas con la operativizacin de objetivos , no slo por la
estructura de valor que en ello subyace, sino tambin por centrar la valoracin del
aprendizaje en los productos ms fcilmente mensurables, a veces los ms bajos en las
taxonomas del dominio cognoscitivo, y de que se prestaba escasa atencin a los
objetivos del dominio afectivo, que presentan mayor dificultad de tratamiento operativo,
el modelo evaluativo de Tyler se enriquecera mucho en estos aos, con trabajos sobre
los objetivos educativos que continuaran y perfeccionaran el camino emprendido en
1956 por Bloom y colaboradores . Entre otras cosas aparecieron nuevas ideas sobre la
evaluacin de la interaccin en el aula y sobre sus efectos en los logros de los alumnos.
Stake propuso su modelo de evaluacin, The countenance model, que sigue la lnea de
Tyler, pero es ms completo al considerar las discrepancias entre lo observado y lo
esperado en los antecedentes y transacciones y posibilitar algunas bases para elaborar
hiptesis acerca de las causas y los fallos en los resultados finales. En sus sucesivas
propuestas, Stake se ir distanciando de sus posiciones inciales.
Metfessell y Michael (1967) presentaron tambin un modelo de evaluacin de la
efectividad de un programa educativo en el cual, an siguiendo el modelo bsico de
Tyler, proponan la utilizacin de una lista comprensiva de criterios diversos que los
evaluadores podran tener en cuenta en el momento de la valoracin y, por
consiguiente, no centrarse meramente en los conocimientos intelectuales alcanzados
por los alumnos.
Suchman (1967) profundiza en la conviccin de que la evaluacin debe basarse en
datos objetivos que sean analizados con metodologa cientfica, matizando que la
investigacin cientfica es preferentemente terica y, en cambio, la investigacin
evaluativa es siempre aplicada. Su principal propsito es descubrir la efectividad, xito o
fracaso de un programa al compararlo con los objetivos propuestos y, as, trazar las
lneas de su posible redefinicin. Esta investigacin evaluativa para Suchman debe
tener en cuenta: a) la naturaleza del destinatario del objetivo y la del propio objetivo, b)
el tiempo necesario para que se realice el cambio propuesto, c) el conocimiento de si los
resultados esperados son dispersos o concentrados y d) los mtodos que han de
emplearse para alcanzar los objetivos. Suchman, adems, defiende la utilizacin de
evaluadores externos para evitar todo tipo de tergiversacin de los profesores muy
implicados en los procesos instruccionales.
El nfasis en los objetivos y su medida traer tambin la necesidad de una nueva
orientacin a la evaluacin, la denominada evaluacin de referencia criterial. La
distincin introducida por Glaser (1963) entre mediciones referidas a normas y criterios
tendr eco al final de la dcada de los sesenta, precisamente como resultado de las
nuevas exigencias que a la evaluacin educativa se le planteaban. As, por ejemplo,
cuando Hambleton (1985) estudia las diferencias entre tests referidos al criterio y tests
referidos a la norma, seala para los primeros, adems de los conocidos objetivos de
describir la ejecucin del sujeto y tomar decisiones sobre si domina o no domina un
contenido, otro objetivo como es el de valorar la eficacia de un programa.
Desde finales de los sesenta los especialistas se pronunciarn decisivamente a favor de
la evaluacin criterial, en cuanto que es el tipo de evaluacin que suministra una
informacin real y descriptiva del estatus del sujeto o sujetos respecto a los objetivos de
11

enseanza previstos, as como la valoracin de ese estatus por comparacin con un


estndar o criterio de realizaciones deseables, siendo irrelevantes, al efecto de
contraste, los resultados obtenidos por otros sujetos o grupo de sujetos.
En las prcticas evaluativas de esta dcada de los sesenta se observan dos niveles de
actuacin. Un nivel podemos calificarlo como la evaluacin orientada hacia los
individuos, fundamentalmente alumnos y profesores. El otro nivel, es el de la evaluacin
orientada a la toma de decisiones sobre el instrumento o tratamiento o programa
educativo. Este ltimo nivel, impulsado tambin por la evaluacin de programas en el
mbito social, ser la base para la consolidacin en el terreno educativo de la
evaluacin de programas y de la investigacin evaluativa.
2.2.5 Desde los aos setenta: La consolidacin de la investigacin evaluativa
Si con algo se podra caracterizar las aportaciones tericas que nos ofrecen los
especialistas durante los aos setenta es con la proliferacin de toda clase de modelos
evaluativos que inundan el mercado bibliogrfico, modelos de evaluacin que expresan
la propia ptica del autor que los propone sobre qu es y cmo debe conducirse un
proceso evaluativo. Se trata, por tanto, de una poca caracterizada por la pluralidad
conceptual y metodolgica. Guba y Lincoln (1982) nos hablan de ms de cuarenta
modelos propuestos en estos aos, y Mateo (1986) se refiere a la eclosin de modelos.
Estos enriquecern considerablemente el vocabulario evaluativo, sin embargo,
compartimos la idea de Popham (1980) de que algunos son demasiado complicados y
otros utilizan una jerga bastante confusa.
Algunos autores como Guba y Lincoln, Prez (1983) y en alguna medida House (1989),
tienden a clasificar estos modelos en dos grandes grupos, cuantitativos y cualitativos,
pero nosotros pensamos con Nevo (1983) y Cabrera (1986) que la situacin es mucho
ms rica en matices.
Es cierto que esas dos tendencias se observan hoy en las propuestas evaluativas, y que
algunos modelos pueden ser representativos de ellas, pero los diferentes modelos,
considerados particularmente, se diferencian ms por destacar o enfatizar alguno o
algunos de los componentes del proceso evaluativo y por la particular interpretacin que
a este proceso le dan. Es desde esta perspectiva, a nuestro entender, como los
diferentes modelos deben ser vistos, y valorar as sus respectivas aportaciones en los
terrenos conceptual y metodolgico.
Tambin son varios los autores los que consideran los modelos no como excluyentes,
sino ms bien como complementarios y que el estudio de los mismos (al menos aquellos
que han resultado ser ms prcticos) llevar al evaluador a adoptar una visin ms
amplia y comprensiva de su trabajo. Nosotros, en algn momento nos hemos atrevido a
hablar de enfoques modlicos, ms que de modelos, puesto que es cada evaluador el
que termina construyendo su propio modelo en cada investigacin evaluativa, en funcin
del tipo de trabajo y las circunstancias (Escudero, 1993).
En este movimiento de propuestas de modelos de evaluacin cabe distinguir dos pocas
con marcadas diferencias conceptuales y metodolgicas. En una primera poca, las
propuestas seguan la lnea expuesta por Tyler en su planteamiento, que ha venido a
llamarse de Consecucin de Metas. Adems de los ya citados de Stake y Metfessell y
Michael, que corresponden a los ltimos aos sesenta, en esta poca destacan la
propuesta de Hammond (1983) y el Modelo de Discrepancia de Provus (1971). Para
estos autores los objetivos propuestos siguen siendo el criterio fundamental de
12

valoracin, pero enfatizan la necesidad de aportar datos sobre la congruencia o


discrepancia entre las pautas de instruccin diseadas y la ejecucin de las mismas en
la realidad del aula.
Otros modelos consideran el proceso de evaluacin al servicio de las instancias que
deben tomar decisiones. Ejemplos notables de ellos son: probablemente el ms famoso
y utilizado de todos, el C.I.P.P. (contexto, input, proceso y producto), propuesto por
Stufflebeam y colaboradores (1971) y el C.E.S. (toma sus siglas del Centro de la
Universidad de California para el Estudio de la Evaluacin) dirigido por Alkin (1969). La
aportacin conceptual y metodolgica de estos modelos es valorada positivamente entre
la comunidad de evaluadores. Estos autores van ms all de la evaluacin centrada en
resultados finales, puesto que en sus propuestas suponen diferentes tipos de
evaluacin, segn las necesidades de las decisiones a las que sirven.
Una segunda poca en la proliferacin de modelos es la representada por los modelos
alternativos, que con diferentes concepciones de la evaluacin y de la metodologa a
seguir comienzan a aparecer en la segunda mitad de esta dcada de los setenta. Entre
ellos destacan la Evaluacin Responsable de Stake (1975 y 1976), a la que se adhieren
Guba y Lincoln (1982), la Evaluacin Democrtica de MacDonald (1976), la Evaluacin
Iluminativa de Parlett y Hamilton (1977) y la Evaluacin como crtica artstica de Eisner
(1985).
En lneas generales, este segundo grupo de modelos evaluativos enfatiza el papel de la
audiencia de la evaluacin y de la relacin del evaluador con ella. La audiencia
prioritaria de la evaluacin en estos modelos no es quien debe tomar las decisiones,
como en los modelos orientados a la toma de decisiones, ni el responsable de elaborar
los currculos u objetivos, como en los modelos de consecucin de metas. La audiencia
prioritaria son los propios participantes del programa. La relacin entre el evaluador y la
audiencia en palabras de Guba y Lincoln (1982) debe ser transaccional y
fenomenolgica. Se trata de modelos que propugnan una evaluacin de tipo etnogrfica,
de aqu que la metodologa que consideran ms adecuada es la propia de la
antropologa social.
Este resumen de modelos de la poca de eclosin es suficiente para aproximarnos al
amplio abanico conceptual terico y metodolgico que hoy se relaciona con la
evaluacin. Ello explica que cuando Nevo (1983 y 1989) pretende realizar una
conceptualizacin de la evaluacin, a partir de la revisin de la literatura especializada,
atendiendo a los tpicos qu es la evaluacin? Qu funciones tiene? Cul es el
objeto de evaluacin? no encuentra una nica respuesta a estas cuestiones. Es
fcilmente comprensible que las exigencias que plantea la evaluacin de programas de
una parte, y la evaluacin para la toma de decisiones sobre los individuos de otra,
conducen a una gran variedad de esquemas evaluativos reales utilizados por
profesores, directores, inspectores y administradores pblicos. Pero tambin es cierto
que bajo esta diversidad subyacen diferentes concepciones tericas y metodolgicas
sobre la evaluacin. Diferentes concepciones que han dado lugar a una apertura y
pluralidad conceptual en el mbito de la evaluacin en varios sentidos (Cabrera, 1986).
A continuacin destacamos los puntos ms sobresalientes de esta pluralidad
conceptual.
a) Diferentes conceptos de evaluacin. Por una parte existe la clsica definicin
dada por Tyler: la evaluacin como el proceso de determinar el grado de congruencia
entre las realizaciones y los objetivos previamente establecidos, a la que corresponden
los modelos orientados hacia la consecucin de metas. Contrasta esta definicin con
aquella ms amplia que se propugna desde los modelos orientados a la toma de
13

decisiones: la evaluacin como el proceso de determinar, obtener y proporcionar


informacin relevante para juzgar decisiones alternativas, defendida por Alkin (1969),
Stufflebeam y otros.
Adems, el concepto de evaluacin de Scriven (1967), como el proceso de estimar el
valor o el mrito de algo, es retomado por Cronbach (1982), Guba y Lincoln (1982), y
House (1989), con objeto de sealar las diferencias que comportaran los juicios
valorativos en caso de estimar el mrito (se vinculara a caractersticas intrnsecas de
lo que se evala) o el valor (se vinculara al uso y aplicacin que tendra para un
contexto determinado).
b) Diferentes criterios. De las definiciones apuntadas anteriormente se desprende
que el criterio a utilizar para la valoracin de la informacin tambin cambia. Desde la
ptica de la consecucin de metas, una buena y operativa definicin de los objetivos
constituye el criterio fundamental. Desde la perspectiva de las decisiones y situados
dentro de un contexto poltico, Stufflebeam y colaboradores, Alkin y MacDonald llegan
a sugerir incluso la no valoracin de la informacin por parte del evaluador, siendo el
que toma las decisiones el responsable de su valoracin.
Las definiciones de evaluacin que acentan la determinacin del mrito como objetivo
de la evaluacin, utilizan criterios estndares sobre los que los expertos o
profesionales estn de acuerdo. Se trata de modelos relacionados con la acreditacin y
el enjuiciamiento profesional.
Los autores (Stake, 1975; Parlett y Hamilton, 1977; Guba y Lincoln, 1982; House,
1983) que acentan el proceso de evaluacin al servicio de determinar el valor ms
que el mrito de la entidad u objeto evaluado, abogan por que el criterio de valoracin
fundamental sean las necesidades contextuales en las que sta se inserta. As, Guba y
Lincoln (1982) refieren los trminos de la comparacin valorativa; de un lado, las
caractersticas del objeto evaluado y, de otro, las necesidades, expectativas y valores
del grupo a los que les afectan o con los que se relaciona el objeto evaluado.
c) Pluralidad de procesos evaluativos dependiendo de la percepcin terica que
sobre la evaluacin se mantenga. Los modelos de evaluacin citada y otros ms que
pueden encontrarse en la bibliografa, representan diferentes propuestas para conducir
una evaluacin.
d) Pluralidad de objetos de evaluacin. Como dice Nevo (1983 y 1989), existen dos
conclusiones importantes que se obtienen de la revisin de la bibliografa sobre la
evaluacin. Por un lado, cualquier cosa puede ser objeto de evaluacin y sta no
debera limitarse a estudiantes y profesores y, por otro, una clara identificacin del
objeto de evaluacin es una importante parte en cualquier diseo de evaluacin.
e) Apertura, reconocida en general por todos los autores, de la informacin necesaria
en un proceso evaluativo para dar cabida no slo a los resultados pretendidos, sino a
los efectos posibles de un programa educativo, sea pretendido o no. Incluso Scriven
(1973 y 1974) propone una evaluacin en la que no se tenga en cuenta los objetivos
pretendidos, sino valorar todos los efectos posibles. Apertura tambin respecto a la
recogida de informacin no slo del producto final, sino tambin sobre el proceso
educativo. Y apertura en la consideracin de diferentes resultados de corto y largo
alcance. Por ltimo, apertura tambin en considerar no slo resultados de tipo
cognitivo, sino tambin afectivo.
f) Pluralidad tambin reconocida de las funciones de la evaluacin en el mbito
educativo, recogindose la propuesta de Scriven entre evaluacin formativa y
sumativa, y aadindose otras de tipo socio-poltico y administrativas.

14

g) Diferencias en el papel jugado por el evaluador, lo que ha venido a llamarse


evaluacin interna vs. Evaluacin externa. No obstante, una relacin directa entre el
evaluador y las diferentes audiencias de la evaluacin es reconocida por la mayora de
los autores.
h) Pluralidad de audiencia de la evaluacin y, por consiguiente, pluralidad en los
informes de evaluacin. Desde informes narrativos, informales, hasta informes muy
estructurados.
i) Pluralidad metodolgica. Las cuestiones metodolgicas surgen desde la dimensin
de la evaluacin como investigacin evaluativa, que viene definida en gran medida por
la diversidad metodolgica.
El anterior resumen recoge las aportaciones a la evaluacin en los aos setenta y
ochenta, la poca que se ha denominado poca de la profesionalizacin (Stufflebeam
y Skinkfield, 1987; Madaus y otros, 1991; Hernndez, 1993; Mateo y otros, 1993), en la
que adems de los innumerables modelos de los setenta, se profundiz en los
planteamientos tericos y prcticos y se consolid la evaluacin como investigacin
evaluativa en los trminos antes definida. En este contexto, lgicamente, aparecen
muchas nuevas revistas especializadas como Educational Evaluation and Policy
Analysis, Studies in Evaluation, Evaluation Review, New Directions for Program
Evaluation, Evaluation and Program Planning, Evaluation News, se fundan asociaciones
cientficas relacionadas con el desarrollo de la evaluacin y las universidades empiezan a
ofrecer cursos y programas de investigacin evaluativa, no slo en postgrados y
programas de doctorado, sino tambin en planes de estudio para titulaciones de primer y
segundo ciclos.
2.2.6 La cuarta generacin segn Guba y Lincoln
A finales de los ochenta, tras todo este desarrollo antes descrito, Guba y Lincoln (1989)
ofrecen una alternativa evaluadora, que denominan cuarta generacin, pretendiendo
superar lo que segn estos autores son deficiencias de las tres generaciones anteriores,
tales como una visin gestora de la evaluacin, una escasa atencin al pluralismo de
valores y un excesivo apego al paradigma positivista. La alternativa de Guba y Lincoln la
denominan respondente y constructivista, integrando de alguna manera el enfoque
respondiente propuesto en primer lugar por Stake (1975), y la epistemologa
postmoderna del constructivismo (Russell y Willinsky, 1997). Las demandas, las
preocupaciones y los asuntos de los implicados o responsables sirven como foco
organizativo de la evaluacin (como base para determinar qu informacin se necesita),
que se lleva a cabo dentro de los planteamientos metodolgicos del paradigma
constructivista.
La utilizacin de las demandas, preocupaciones y asuntos de los implicados es
necesaria, segn Guba y Lincoln, porque:
a) Son grupos de riesgo ante la evaluacin y sus problemas deben ser
convenientemente contemplados, de manera que se sientan protegidos ante
tal riesgo.
b) Los resultados pueden ser utilizados en su contra en diferentes sentidos,
sobre todo si estn al margen del proceso.
c) Son potenciales usuarios de la informacin resultante de la evaluacin.
d) Pueden ampliar y mejorar el rango de la evaluacin.
e) Se produce una interaccin positiva entre los distintos implicados.
15

El cambio paradigmtico lo justifican estos autores porque:


a) La metodologa convencional no contempla la necesidad de identificar las
demandas, preocupaciones y asuntos de los implicados.
b) Para llevar a cabo lo anterior se necesita una postura de descubrimiento ms
que de verificacin, tpica del positivismo.
c) No se tienen en cuenta suficientemente los factores contextuales.
d) No se proporcionan medios para valoraciones caso por caso.
e) La supuesta neutralidad de la metodologa convencional es de dudosa utilidad
cuando se buscan juicios de valor acerca de un objeto social.
Partiendo de estas premisas, el evaluador es responsable de determinadas tareas, que
realizar secuencialmente o en paralelo, construyendo un proceso ordenado y
sistemtico de trabajo. Las responsabilidades bsicas del evaluador de la cuarta generacin son las siguientes:
1) Identificar todos los implicados con riesgo en la evaluacin.
2) Resaltar para cada grupo de implicados sus construcciones acerca de lo
evaluado y sus demandas y preocupaciones al respecto.
3) Proporcionar un contexto y una metodologa hermenutica para poder tener
en cuenta, comprender y criticar las diferentes construcciones, demandas y
preocupaciones.
4) Generar el mximo acuerdo posible acerca de dichas construcciones, demandas y preocupaciones.
5) Preparar una agenda para la negociacin acerca de temas no consensuados.
6) Recoger y proporcionar la informacin necesaria para la negociacin.
7) Formar y hacer de mediador para un frum de implicados para la negociacin.
8) Desarrollar y elaborar informes para cada grupo de implicados sobre los distintos acuerdos y resoluciones acerca de los intereses propios y de los de otros
grupos.
9) Reciclar la evaluacin siempre que queden asuntos pendientes de resolucin.
La propuesta de Guba y Lincoln (1989) se extiende bastante en la explicacin de la
naturaleza y caractersticas del paradigma constructivista en contraposicin con las del
positivista.
Cuando se habla de los pasos o fases de la evaluacin en esta cuarta generacin, sus
proponentes citan doce pasos o fases, con diferentes subfases en cada una de estas.
Estos pasos son los siguientes:
1)

Establecimiento de un contrato con un patrocinador o cliente.


Identificacin del cliente o patrocinador de la evaluacin.
Identificacin del objeto de la evaluacin.
Propsito de la evaluacin (Guba y Lincoln, 1982).
Acuerdo con el cliente por el tipo de evaluacin.
Identificacin de audiencias.
Breve descripcin de la metodologa a usar.
Garanta de acceso a registros y documentos.
Acuerdo por garantizar la confidencialidad y anonimato hasta donde sea

posible.
Descripcin del tipo de informe a elaborar.
16

Listado de especificaciones tcnicas.


2)

Organizacin para reciclar la investigacin.


Seleccin y entrenamiento del equipo evaluador.
Consecucin de facilidades y acceso a la informacin.

3)

Identificacin de las audiencias (Guba y Lincoln, 1982).


Agentes.
Beneficiarios.
Victimas.

4) Desarrollo de construcciones conjuntas dentro de cada grupo o


audiencia.
5)

Contraste y desarrollo de las construcciones conjuntas de las audiencias.


Documentos y registros.
Observacin.
Literatura profesional.
Crculos de otras audiencias.
Construccin tica del evaluador.

6)

Clasificacin de las demandas, preocupaciones y asuntos resueltos.

7)

Establecimiento de prioridades en los temas no resueltos.

8)

Recogida de informacin.

9)

Preparacin de la agenda para la negociacin.

10)Desarrollo de la negociacin.
11)Informes.
12)Reciclado/revisin.
Para juzgar la calidad de la evaluacin, se nos ofrecen tres enfoques que se denominan
paralelo, el ligado al proceso hermenutico y el de autenticidad.
Los criterios paralelos, de confianza, se denominan as porque intentan ser paralelos a
los criterios de rigor utilizados muchos aos dentro del paradigma convencional. Estos
criterios han sido validez interna y externa, fiabilidad y objetividad. Sin embargo, los
criterios deban ser acordes con el paradigma fundamentador (Morgan, 1983). En el caso
de la cuarta generacin los criterios que se ofrecen son los de credibilidad,
transferencia, dependencia y confirmacin.
El criterio de credibilidad es paralelo al de validez interna, de forma que la idea de
isomorfismo entre los hallazgos y la realidad se reemplaza por el isomorfismo entre las
realidades construidas de las audiencias y las reconstrucciones del evaluador atribuidas
a ellas. Para conseguir esto existen varias tcnicas, entre las que destacan las
siguientes: a) el compromiso prolongado, b) la observacin persistente, c) el contraste
con colegas, d) el anlisis de casos negativos , e) la subjetividad progresiva y f) el
control de los miembros. La transferencia puede verse como paralela a la validez
externa, la dependencia es paralela al criterio de fiabilidad y la confirmacin puede verse
como paralela a la objetividad.

17

Otra manera de juzgar la calidad de la evaluacin es el anlisis dentro del propio


proceso, algo que encaja con el paradigma hermenutico, a travs de un proceso
dialctico.
Pero estos dos tipos de criterios, aunque tiles, no son del todo satisfactorios para Guba
y Lincoln, que defienden con ms ahnco los criterios que denominan de autenticidad,
tambin de base constructivista. Estos criterios incluyen los siguientes: a) imparcialidad,
justicia, b) autenticidad ontolgica, c) autenticidad educativa, d) autenticidad cataltica y
e) autenticidad tctica.
Este anlisis de la cuarta generacin de podemos terminarlo con los rasgos con los que
definen Guba y Lincoln a la evaluacin:
a)
b)
c)
d)
e)
f)
g)

La evaluacin es un proceso sociopoltico.


La evaluacin es un proceso conjunto de colaboracin.
la evaluacin es un proceso de enseanza/aprendizaje.
La evaluacin es un proceso continuo, recursivo y altamente divergente.
La evaluacin es un proceso emergente.
La evaluacin es un proceso con resultados impredecibles.
La evaluacin es un proceso que crea realidad.

En esta evaluacin, se retienen las caractersticas del evaluador fruto de las tres
primeras generaciones, esto es, la de tcnico, la de analista y la de juez, pero estas
deben ampliarse con destrezas para recoger e interpretar datos cualitativos (Patton,
1980), con la de historiador e iluminador, con la de mediador de juicios, as como un
papel ms activo como evaluador en un contexto socio-poltico concreto.
Russell y Willinsky (1997) defienden las potencialidades del planteamiento de la cuarta
generacin para desarrollar formulaciones alternativas de prctica evaluadora entre los
implicados, incrementando la probabilidad de que la evaluacin sirva para mejorar la
enseanza escolar. Esto requiere por parte del profesorado el reconocimiento de otras
posiciones, adems de la suya, la implicacin de todos desde el principio del proceso y,
por otra parte, el desarrollo de aproximaciones ms pragmticas de la conceptualizacin
de Guba y Lincoln, adaptadas a las distintas realidades escolares.
2.2.7 El nuevo impulso alrededor de Stufflebeam
Para terminar este recorrido analtico-histrico desde los primeros intentos de medicin
educativa hasta la actual investigacin evaluativa en educacin, queremos recoger las
recomendaciones que ms recientemente nos viene ofreciendo una de las figuras
seeras de este campo en la segunda mitad del siglo XX. Nos estamos refiriendo a
Daniel L. Stufflebeam, proponente del modelo CIPP (el ms utilizado) a finales de los
sesenta, desde 1975 a 1988 presidente del Joint Committee on Standars for Educational
Evaluation y actual director del Evaluation Center de la Western Michigan University
(sede del Joint Committee) y del CREATE (Center for Research on Educational
Accountability and Teacher Evaluation), centro auspiciado y financiado por el
Departamento de Educacin del gobierno americano.
Recogiendo estas recomendaciones, en las que se han ido integrando ideas de diversos
evaluadores tambin notables, no slo ofrecemos una de las ltimas aportaciones a la
actual concepcin de la investigacin evaluativa en educacin, sino que completamos
en buena medida la visin del panorama actual, rico y plural, tras analizar la cuarta
generacin de Guba y Lincoln.
18

Se parte de los cuatro principios del Joint Committee (1981 y 1988), esto es, de la idea
de que cualquier buen trabajo de investigacin evaluativa debe ser: a) til, esto es,
proporcionar informacin a tiempo e influir, b) factible, esto es, debe suponer un
esfuerzo razonable y debe ser polticamente viable, c) apropiada, adecuada, legtima,
esto es, tica y justa con los implicados, y d) segura y precisa a la hora de ofrecer
informacin y juicios sobre el objeto de la evaluacin. Adems, la evaluacin se ve como
una transdisciplina, pues es aplicable a muchas disciplinas diferentes y a muchos
objetos diversos (Scriven, 1994).
Stufflebeam invoca a la responsabilidad del evaluador, que debe actuar de acuerdo a
principios aceptados por la sociedad y a criterios de profesionalidad, emitir juicios sobre
la calidad y el valor educativo del objeto evaluado y debe asistir a los implicados en la
interpretacin y utilizacin de su informacin y sus juicios. Sin embargo, es tambin su
deber, y su derecho, estar al margen de la lucha y la responsabilidad poltica por la toma
de decisiones y por las decisiones tomadas.
Para evaluar la educacin en una sociedad moderna, Stufflebeam (1994) nos dice que
se deben tomar algunos criterios bsicos de referencia como los siguientes:
Las necesidades educativas. Es necesario preguntarse si la educacin que se
proporciona cubre las necesidades de los estudiantes y de sus familias en todos
los terrenos a la vista de los derechos bsicos, en este caso, dentro de una
sociedad democrtica.
La equidad. Hay que preguntarse si el sistema es justo y equitativo a la hora de
proporcionar servicios educativos, el acceso a los mismos, la consecucin de
metas, el desarrollo de aspiraciones y la cobertura para todos los sectores de la
comunidad (Kellagan, 1982).
La factibilidad. Hay que cuestionar la eficiencia en la utilizacin y distribucin
de recursos, la adecuacin y viabilidad de las normas legales, el compromiso y
participacin de los implicados y todo lo que hace que el esfuerzo educativo
produzca el mximo de frutos posibles.
La excelencia como objetivo permanente de bsqueda. La mejora de la
calidad, a partir del anlisis de las prcticas pasadas y presentes es uno de los
fundamentos de la investigacin evaluativa.
Tomando el referente de estos criterios y sus derivaciones, Stufflebeam sumariza una
serie de recomendaciones para llevar a cabo buenas investigaciones evaluativas y
mejorar el sistema educativo. Estas recomendaciones son las siguientes:
1) Los planes de evaluacin deben satisfacer los cuatro requerimientos de utilidad,
factibilidad, legitimidad y precisin (Joint Committee, 1981 y 1988).
2) Las entidades educativas deben examinarse por su integracin y servicio a los
principios de la sociedad democrtica, equidad, bienestar, etc.
3) Las entidades educativas deben ser valoradas tanto por su mrito (valor
intrnseco, calidad respecto a criterios generales) como por su valor (valor
extrnseco, calidad y servicio para un contexto particular) (Guba y Lincoln, 1982;
Scriven, 1991), como por su significacin en la realidad del contexto en el que
se ubica. Scriven (1998) nos seala que usando otras denominaciones
habituales, mrito tiene bastante equivalencia con el trmino calidad, valor con
el de relacin coste-eficacia y significacin con el de importancia. En todo caso,
los tres conceptos son dependientes del contexto, sobre todo significacin, de
manera que entender la diferencia entre dependencia del contexto y
arbitrariedad es parte de la comprensin de la lgica de la evaluacin.
19

4) La evaluacin de profesores, instituciones educativas, programas, etc, debe


relacionarse siempre con el conjunto de sus deberes, responsabilidades y
obligaciones profesionales o institucionales, etc. Quizs uno de los retos que
deben abordar los sistemas educativos es la definicin ms clara y precisa de
estos deberes y responsabilidades. Sin ello, la evaluacin es problemtica,
incluso en el terreno formativo (Scriven, 1991).
5) Los estudios evaluativos deben ser capaces de valorar hasta qu medida los
profesores y las instituciones educativas son responsables y rinden cuentas del
cumplimiento de sus deberes y obligaciones profesionales (Scriven, 1994).
6) Los estudios evaluativos deben proporcionar direcciones para la mejora, porque
no basta con emitir un juicio sobre el mrito o el valor de algo.
7) Recogiendo los puntos anteriores, todo estudio evaluativo debe tener un
componente formativo y otro sumativo.
8) Se debe promover la autoevaluacin profesional, proporcionando a los
educadores las destrezas para ello y favoreciendo actitudes positivas hacia ella.
9) La evaluacin del contexto (necesidades, oportunidades, problemas en un
rea,...) debe emplearse de manera prospectiva, para localizar bien las metas y
objetivos y definir prioridades. Asimismo, la evaluacin del contexto debe
utilizarse retrospectivamente, para juzgar bien el valor de los servicios y
resultados educativos, en relacin con las necesidades de los estudiantes.
10) La evaluacin de las entradas (inputs) debe emplearse de manera prospectiva,
para asegurar el uso de un rango adecuado de enfoques segn las
necesidades y los planes.
11) La evaluacin del proceso debe usarse de manera prospectiva para mejorar el
plan de trabajo, pero tambin de manera retrospectiva para juzgar hasta qu
punto la calidad del proceso determina el por qu los resultados son de un nivel
u otro.
12) La evaluacin del producto es el medio para identificar los resultados
buscados y no buscados en los participantes o afectados por el objeto
evaluado. Se necesita una valoracin prospectiva de los resultados para
orientar el proceso y detectar zonas de necesidades. Se necesita una
evaluacin retrospectiva del producto para poder juzgar en conjunto el mrito y
el valor del objeto evaluado.
13) Los estudios evaluativos se deben apoyar en la comunicacin y en la inclusin
sustantiva y funcional de los implicados (stakeholders) con las cuestiones
claves, criterios, hallazgos e implicaciones de la evaluacin, as como en la
promocin de la aceptacin y el uso de sus resultados (Chelimsky, 1998). Ms
an, los estudios evaluativos deben conceptualizarse y utilizarse
sistemticamente como parte del proceso de mejora educativa a largo plazo y
de fundamento para la accin contra las discriminaciones sociales (Mertens,
1999). La evaluacin para el desarrollo (empowerment evaluation), que
defiende Fetterman (1994), es un procedimiento, de base democrtica, de
participacin de los implicados en el programa evaluado, para promover la
autonoma de los mismos en la resolucin de sus problemas. Weiss (1998) nos
alerta de que la evaluacin participativa incrementa la probabilidad de que se
utilicen los resultados de la evaluacin, pero tambin la de que sea
conservadora en su concepcin, pues es difcil pensar que los responsables de
una organizacin pongan en cuestin el fundamento y el sistema de poder de la
misma. Generalmente su inters es el cambio de cosas pequeas.
20

14) Los estudios evaluativos deben emplear mltiples perspectivas, mltiples


medidas de resultados, y mtodos tanto cuantitativos como cualitativos para
recoger y analizar la informacin. La pluralidad y complejidad del fenmeno
educativo hace necesario emplear enfoques mltiples y multidimensionales en
los estudios evaluativos (Scriven, 1991)
15) Los estudios evaluativos deben ser evaluados, incluyendo meta evaluaciones
formativas para mejorar su calidad y su uso y meta evaluaciones sumativas
para ayudar a los usuarios en la interpretacin de sus hallazgos y proporcionar
sugerencias para mejorar futuras evaluaciones (Joint Committee, 1981 y 1988).
Estas quince recomendaciones proporcionan elementos esenciales para un enfoque de
los estudios evaluativos que Stufflebeam denomina objetivista y que se basa en la
teora tica de que la bondad moral es objetiva e independiente de los sentimientos
personales o meramente humanos.
Sin entrar en el debate sobre estas valoraciones finales de Stufflebeam, ni en anlisis
comparativos con otras propuestas, por ejemplo con las de Guba y Lincoln (1989), nos
resulta evidente que las concepciones de la investigacin evaluativa son diversas,
dependiendo del origen epistemolgico desde el que se parte, pero apareciendo claros y
contundentes algunos elementos comunes a todas las perspectivas como la
contextualizacin, el servicio a la sociedad, la diversidad metodolgica, la atencin,
respeto y participacin de los implicados, etc., as como una mayor profesionalizacin de
los evaluadores y una mayor institucionalizacin de los estudios (Worthen y Sanders,
1991).
El propio Stufflebeam (1998) reconoce el conflicto de los planteamientos del Joint
Committee on Standards for Educational Evaluation con las posiciones de la corriente
evaluadora denominada postmodernista, representada, adems de por Guba y Lincoln,
por otros reconocidos evaluadores como Mabry, Stake y Walker, pero no acepta que
existan razones para actitudes de escepticismo y frustracin con las prcticas
evaluadoras actuales, porque existen muchos mbitos de aproximacin y el desarrollo
de estndares de evaluacin es perfectamente compatible con la atencin a los diversos
implicados, valores, contextos sociales y mtodos. Stufflebeam defiende una mayor
colaboracin en la mejora de las evaluaciones, estableciendo los estndares de manera
participativa, pues cree que es posible la aproximacin de planteamientos, con
contribuciones importantes desde todos los puntos de vista.
Weiss (1998) tambin toma posiciones parecidas cuando nos dice que las ideas
constructivistas deben hacernos pensar ms cuidadosamente al usar los resultados de
las evaluaciones, sintetizarlas y establecer generalizaciones, pero duda que todo haya
que interpretarlo en trminos exclusivamente individuales, pues existen muchos
elementos comunes entre las personas, los programas y las instituciones.
2.2.8 Sntesis de enfoques modlicos y metodolgicos de la evaluacin y la ltima
perspectiva de Scriven
Tras este anlisis del desarrollo de la evaluacin a lo largo del Siglo XX, parece
oportuno, a modo de sntesis y de conclusin, recoger y resaltar los que son
considerados los principales modelos, planteamientos metodolgicos, diseos,
perspectivas y visiones de la evaluacin en la actualidad. Su anlisis, de manera
compacta, es un complemento necesario para una visin como la histrica que, por su
linealidad, tiene el riesgo de ofrecer una imagen disciplinar artificiosamente fraccionada.
21

Hemos visto que en la dcada de los setenta y en sus alrededores se produce una
especie de eclosin de propuestas evaluativas, que tradicionalmente han venido siendo
denominadas como modelos (Castillo y Gento, 1995) y en algunos casos como diseos
(Arnal y otros, 1992) de investigacin evaluativa. Sabemos que existieron varias
decenas de estas propuestas, pero muy concentradas en el tiempo, en la dcada citada.
De hecho, el asunto de los propuestos modelos para la evaluacin parece un tema
prcticamente cerrado desde hace cuatro lustros. Ya no surgen nuevos modelos o
propuestas, salvo alguna excepcin como vemos ms adelante.
A pesar de lo dicho, se sigue hablando de modelos, mtodos y diseos en la literatura
especializada, sobre todo buscando su clasificacin de acuerdo con diversos criterios,
origen paradigmtico, propsito, metodologa, etc. Tambin en las clasificaciones, no
slo en los modelos, existe diversidad, lo que prueba que, adems de dinamismo
acadmico en el terreno de la investigacin evaluativa, todava existe cierta debilidad
terica al respecto.
Nosotros ya hemos sealado con anterioridad (Escudero, 1993), que coincidimos con
Nevo (1983 y 1989) en la apreciacin de que muchos de los acercamientos a la
conceptualizacin de la evaluacin (por ejemplo, el modelo respondiente, el libre de
metas, el de discrepancias, etc.) se les ha denominado indebidamente como modelos a
pesar de que ninguno de ellos tenga el grado de complejidad y de globalidad que
debera acarrear el citado concepto. Lo que un texto clsico en evaluacin (Worthen y
Sanders, 1973) denomina como modelos contemporneos de evaluacin (a los
conocidos planteamientos de Tyler, Scriven, Stake, Provus, Stufflebeam, etc), el propio
Stake (1981) dice que sera mejor denominarlo como persuasiones mientras que House
(1983) se refiere a metforas.
Norris (1993) apunta que el concepto de modelo se utiliza con cierta ligereza al referirse
a concepcin, enfoque o incluso mtodo de evaluacin. De Miguel (1989), por su parte,
piensa que muchos de los llamados modelos solamente son descripciones de procesos
o aproximaciones a programas de evaluacin. Darling-Hammond y otros (1989) utilizan
el trmino modelo por costumbre, pero indican que no lo hacen en el sentido preciso que
tiene el trmino en las ciencias sociales, esto es, apoyndose en una estructura de
supuestos interrelacinales fundamentada tericamente. Finalmente diremos que el
propio autor del modelo CIPP, solamente utiliza esta denominacin de manera
sistemtica para referirse a su propio modelo (Stufflebeam y Shinkfield, 1987), utilizando
los trminos de enfoque, mtodo, etc., al referirse a los otros. Para nosotros, quizs sea
el trmino enfoque evaluativo el ms apropiado, aunque aceptemos seguir hablando de
modelos y diseos por simple tradicin acadmica.
Nuestra idea es que a la hora de plantearnos una investigacin evaluativa, no contamos
todava con unos pocos modelos bien fundamentados, definidos, estructurados y
completos, entre los que elegir uno de ellos, pero s tenemos distintos enfoques
modlicos y un amplio soporte terico y emprico, que permiten al evaluador ir
respondiendo de manera bastante adecuada a las distintas cuestiones que le va
planteando el proceso de investigacin, ayudndole a configurar un plan global, un
organigrama coherente, un modelo cientficamente robusto para llevar a cabo su
evaluacin (Escudero, 1993). Cules son las cuestiones que hay que responder en
este proceso de construccin modlica? Apoyndonos en las aportaciones de diferentes
autores (Worthen y Sanders, 1973; Nevo, 1989; Kogan, 1989; Smith y Haver, 1990),
deben responderse y delimitar su respuesta al construir un modelo de investigacin
evaluativa, los aspectos siguientes:

22

1)
2)
3)
4)
5)
6)
7)
8)
9)
10)
11)
12)
13)

Objeto de la investigacin evaluativa.


Propsito, objetivos.
Audiencias/implicados/clientela.
nfasis/aspectos prioritarios o preferentes.
Criterios de mrito o valor.
Informacin a recoger.
Mtodos de recogida de informacin.
Mtodos de anlisis.
Agentes del proceso.
Secuenciacin del proceso.
Informes/utilizacin de resultados.
Lmites de la evaluacin.
Evaluacin de la propia investigacin evaluativa / meta evaluacin.

Para definir estos elementos hay que buscar, lgicamente, el apoyo de los diferentes
enfoques modlicos, mtodos, procedimientos, etc., que la investigacin evaluativa ha
desarrollado, sobre todo en las ltimas dcadas.

La visin del proceso social que cristaliz hace algo ms de dos dcadas alrededor de
un grupo de la Universidad de Stanford, dirigido por Lee J. Cronbach (1980), resta
importancia a la orientacin sumativa de la evaluacin (decisiones externas sobre los
programas y rendicin de cuentas), enfatizando la comprensin, la planificacin y la
mejora de los programas sociales a los que sirve. Sus posiciones quedaban claramente
establecidas en noventa y cinco tesis que han tenido una enorme difusin entre los
evaluadores y los usuarios de la evaluacin.
En cuanto a los contenidos de la evaluacin, Cronbach (1983) propone que se planifiquen y controlen los siguientes elementos:
Unidades (U) que son sometidas a evaluacin, individuos o grupos
participantes.
Tratamiento (T) de la evaluacin.
Operaciones (O) que lleva a cabo el evaluador para la recogida y anlisis de
datos, as como para la elaboracin de conclusiones.
Contexto en el que tiene lugar el programa y su evaluacin.
En una investigacin evaluativa concreta se pueden dar varias unidades, varios
tratamientos y varias operaciones, en definitiva varios (uto), dentro de un universo UTO
de situaciones admisibles.
Ernie House (1989), un terico y un prctico de la evaluacin bastante independiente de
corrientes en boga, tambin marc el entronque social de los programas, pero se
distingua sobre todo por su nfasis de las dimensiones ms ticas y argumentales de la
evaluacin, quizs motivado por la ausencia de estas facetas en los planteamientos de
Cronbach y sus colaboradores.

23

2.2.9 La visin constructivista de la cuarta generacin (Visin F) es la ltima de estas


seis visiones que describe Scriven (1994), siendo mantenida por Guba y Lincoln (1989) y
seguida por muchos evaluadores americanos y britnicos. Ya hemos visto anteriormente
que esta visin rechaza una evaluacin orientada a la bsqueda de calidad, mrito, valor,
etc., y favorece la idea de que ello es el resultado de la construccin por individuos y la
negociacin de grupos. Esto significa, segn Scriven, que el conocimiento cientfico de
todo tipo es sospechoso, discutible y no objetivo. Lo mismo le ocurre a todo trabajo
anlitico como el anlisis filosfico, incluido el suyo. Scriven apunta que el propio Guba ha
sido siempre consciente de las potenciales autocontradicciones de su posicin.
De esta revisin de Scriven quedan al margen algunas posiciones evaluativas
tradicionalmente recogidas y tratadas por los analistas. As por ejemplo, Schuman
(1967) ofrece un diseo evaluativo basado en el mtodo cientfico o, al menos, en
alguna variacin o adaptacin del mismo. Owens (1973) y Wolf (1974 y 1975) proponen
un mtodo de contraposicin o discusin que sobre un programa llevan a cabo dos
grupos de evaluadores, partidarios y adversarios, para proporcionar informacin
pertinente a quienes toman decisiones. Eisner (1971, 1975 y 1981) plantea la evaluacin
en trminos similares al proceso de crtica artstica.
El propio Scriven (1967 y 1973) propona hace aos centrar la evaluacin en la atencin
al cliente y no tanto en las metas previstas, puesto que frecuentemente los logros no
previstos son ms importantes que los que figuran en la planificacin del programa. Por
ello, se suele denominar a su enfoque como evaluacin sin metas. El evaluador
determina el valor o mrito del programa para informar a los usuarios; se trata algo as
como de un intermediario informativo (Scriven, 1980).
La evaluacin iluminativa (Parlett y Hamilton, 1977) tiene un enfoque holstico,
descriptivo e interpretativo, con la pretensin de iluminar sobre un complejo rango de
cuestiones que se dan de manera interactiva (Fernndez, 1991). La evaluacin
democrtica de MacDonald (1971 y 1976), tambin denominada holstica, supone la
participacin colaborativa de los implicados, siendo el contraste de opiniones de los
implicados el elemento evaluativo primordial.
Scriven (1994) analiza las seis visiones crticamente y se muestra ms cercano a la
visin A, la visin fuerte sobre la toma de decisiones, representada fundamentalmente
por el modelo CIPP de Stufflebeam y sus planteamientos, pues dice que es la ms
cercana de todas a la visin del sentido comn, que es la que tienen los evaluadores
trabajando con sus programas, de la misma manera que los mdicos trabajan con los
pacientes, hacindolo lo mejor posible, independientemente del tipo y del estado general
del paciente. Scriven quiere extender esta visin con una visin o modelo que denomina
transdisciplinar y que l califica como significativamente distinta de la aludida visin A y
radicalmente diferente de las restantes.
En la perspectiva transdisciplinar, la investigacin evaluativa tiene dos componentes:
el conjunto de campos de aplicacin de la evaluacin y el contenido de la propia
disciplina. Algo parecido a lo que ocurre a disciplinas como la estadstica y la medicin.
En definitiva, la investigacin evaluativa es una disciplina que incluye sus propios
contenidos y los de otras muchas disciplinas; su preocupacin por el anlisis y mejora se
extiende a muchas disciplinas, es transdisciplinar.
Esta visin es objetivista como la A y defiende que el evaluador determine el mrito o el
valor del programa, del personal o de los productos investigados. En tal sentido, se debe
establecer de manera explcita y defender la lgica utilizada en la inferencia de
24

conclusiones evaluativas a partir de las premisas definicionales y factuales. As mismo,


se deben perseguir las falacias argumentales de la doctrina libre de valores (Evaluation
Thesaurus, 1991).
En segundo lugar, la perspectia transdisciplinar se orienta hacia el consumidor, ms que
hacia el gestor o intermediario. No se trata de una orientacin exclusiva hacia el
consumidor, pero s la consideracin primera del consumidor como justificacin del
programa, y que el bien comn es la primaca de la evaluacin. A partir de aqu, tambin
se produce informacin valiosa para el gestor que decide y se pueden analizar los
productos de un programa o institucin a la vista de sus objetivos. Esta posicin no slo
ve legitimidad en la emisin de conclusiones evaluativas por parte del investigador, sino
que ve necesidad de hacerlo en la gran mayora de las ocasiones.
Se trata tambin de una visin generalizada, no justamente una visin general, que
incluye la generalizacin de conceptos en el mbito del conocimiento y la prctica.
Desde esta perspectiva, la investigacin evaluativa es mucho ms que la evaluacin de
programas e incide en procesos, instituciones y otros muchos ms objetos. De manera
ms detallada, esta visin generalizada significa que:
a) Los campos distintivos de aplicacin de la disciplina son los programas, el personal,
los rendimientos, los productos, los proyectos, la gestin, y la metaevaluacin de
todo ello.
b) Las investigaciones evaluativas inciden en todo tipo de disciplinas y en las prcticas
que resultan de ellas.
c) Las investigaciones evaluativas se mueven desde niveles muy prcticos hasta el
nivel conceptual.
d) Los distintos campos de la investigacin evaluativa tienen muchos niveles de
interconexin y solapamiento. La evaluacin de programas, de personal, de centros,
etc., tienen muchos puntos en comn.
El cuarto elemento distintivo de la visin transdisciplinar de la evaluacin es que se trata
de una visin tcnica. La evaluacin no slo necesita el apoyo tcnico de otras muchas
disciplinas, sino que, adems, tiene su propia metodologa. La lgica de la sntesis de
resultados, las consecuencias, etc., y la correcta ubicacin en el proceso de muchas
tcnicas auxiliares en las que, probablemente, no es necesario ser un gran especialista,
pero s tener un conocimiento cabal.
Esta perspectiva transdisciplinar de la investigacin evaluativa de Scriven (1994),
coincide en gran medida con los planteamientos que de la misma hemos defendido en
otros momentos (Escudero, 1996). Nosotros no tenemos unas posiciones contrarias a
las otras visiones en la misma medida que las tiene Scriven y, de hecho, consideramos
desde una posicin pragmtica, que todas las visiones tienen puntos fuertes y que en
todo caso, aportan algo til para la comprensin conceptual y el desarrollo de la
investigacin evaluativa. Sin embargo, s que pensamos que esta moderna visin de
Scriven es slida y coherente y ampliamente aceptada en la actualidad.
Una crtica que podra hacerse a este planteamiento de Scriven est en el excesivo
nfasis relativo de la orientacin al cliente, al usuario en sentido estricto. Pensamos que
esta orientacin debe integrarse dentro de una orientacin a los implicados, donde
existen distintos tipos y distintas audiencias y, por supuesto, una muy importante, son los
usuarios en el sentido de Scriven, pero nos parece que la investigacin evaluativa hoy
en da tiene una orientacin prioritaria ms plural que la defendida por este autor.

25

3. CONCLUCIONES
La evaluacin nos sirve para analizar los conocimientos y destrezas en los/as
alumnas, la evaluacin es un proceso que implica descripciones cuantitativas y
cualitatiavas de la actuacin de los alumnos.
La evaluacin puede ser formativo o sumativa segn la funcionalidad con la que se
aplique.
La evaluacin un proceso estn importante como el que hemos venido
desarrollando y que pretende ser xito debe entenderse que toda accin
evaluativa es una forma particular de intervencin de la realidad.
Toda evaluacin por su naturaleza requiere de criterios establecidos respecto por
los cuales se formulen los juicios valorativos.
La evaluacin no se debe subestimar reduciendo a una simple tarea de hacer
exmenes para poner calificaciones y determinar quienes aprueban y quines no.

26

4. ANEXOS
Tabla 1- Tipos de diseos de investigacin educativa
Perspectiva

Emprico-analtica

Susceptibles
de
complementariedad

Guba y
Lincoln
(1982)
Objetivos

Patton
(1980)
Objetivos
Anlisis
sistemas

CIPP
Crtica
artstica

Stufflebeam y
Autores
Shinkfield
creadores
(1987)
Objetivos
Tyler (1950)
Rivlin (1971)
Rossi y otros (1979)
Mtodo
Suchman (1967)
cientfico
Stufflebeam (1966)

Prez
(1983)
Objetivos
Anlisis
sistemas

CIPP
Crtica
artstica

CIPP
Crtica
artstica

Eisner (1971)

Adversario
UTOS

UTOS

Respondente

Respondente

Iluminativo

Contrapuesto

Wolf (1974)

Cronbach
(1982)
Respondente

Respondente

Iluminativo

Iluminativo

Stake (1975
Parlett y Hamilton
(1977)

Humansticointerpretativa
Sin metas

Sin metas

Sin metas
Democrtico

Scriven (1967)
MacDonald (1976)

Por su parte, Castillo y Gento (1995) ofrecen una clasificacin de mtodos de evaluacin dentro de cada uno de los
modelos (paradigmas), que ellos denominan conductivista-eficientistas, humansticos y holsticos (mixtos). Una sntesis de
estas clasificaciones es la siguiente:

Tabla 2- Modelo conductista-eficientista


Mtodo/
autor

Finalidad

Paradigma dominante

Contenido de

evaluativa

Consecucin

Medicin logro

objetivos

objetivos

evaluacin

Rol del
evaluador

Cuantitativo

Resultados

Tcnico externo

Mixto

Tcnico externo

Tyler (1940)
CIPP

Informacin

(contexto)

Stufflebeam

para toma

(input)

(1967)

decisiones

(proceso)

(producto)

Figura

Valoracin

(countenance)

resultados y

Stake (1967)

proceso

CSE

Informacin para

Alkin (1969)

determinacin de

Mixto

Antecedentes,
resultados

Mixto

Centrados en

Valoracin

educativa

proceso y

Cronbach

producto

Tcnico externo

logros de

decisiones
Planificacin

Tcnico externo

transacciones,

necesidades
Mixto

(unidades de
evaluacin)

27

(tratamiento)

Tcnico externo

(1982)

(operaciones)

Tabla 3- Modelo humanstico


Mtodo/

Finalidad

autor

evaluativa

Paradigma dominante
Mixto

Contenido de

Rol del

evaluacin

evaluador

Atencin al

Anlisis de

Todos los

cliente

necesidades del

efectos del

Scriven (1973)

cliente

programa

Evaluador
externo
de necesidades
del
cliente

Contraposicin

Opiniones para

Owens (1973),
Wolf (1974)

decisin

Crtica artstica

Interpretacin

Eisner (1981)

crtica de la

Mixto

Cualquier aspecto rbitro externo


del programa

del debate

Contexto

Provocador

Procesos

externo de

consensuada
Cualitativo

accin educativa

emergentes

interpretaciones

Relaciones de
procesos
Impacto en
contexto

Tabla 4- Modelo holstico


Mtodo/

Finalidad

autor

evaluativa

Evaluacin

Valoracin de

respondente
Stake (1976)

Paradigma dominante
Cualitativo

Contenido de

Rol del

evaluacin

evaluador

Resultado de

Promotor externo

respuesta a

debate total

necesidades de

sobre programa

de la
interpretacin
por los implicados

participantes

28

Evaluacin
holstica

Interpretacin

Cualitativo

Elementos que

Promotor externo

educativa para

configuran la

de la
interpretacin

mejorarla

accin educativa

MacDonald
(1976)

por los implicados

Evaluacin

Iluminacin y

iluminativa

comprensin de

Parlett y
Hamilton

los componentes

Cualitativo

Sistema de

Promotor externo

enseanza y
medio

de la
interpretacin

de aprendizaje

por los implicados

del programa
(1977)

Dinmica de retroalimentacin
CONQUISTA MS TERRITORIOS
OBJETIVO
Reforzar los conocimientos adquiridos sobre un tema particular
TIEMPO:
Duracin: 30 Minutos
TAMAO DEL GRUPO:
Ilimitado
LUGAR:
Amplio Espacio
Un saln amplio y bien iluminado, acondicionado para que los participantes puedan
desplazarse libremente.
MATERIAL
Fcil Adquisicin
I. Una hoja de rota folio o cartulina con un mapamundi con tantas regiones como
participantes. Encada regin se deber poner el nombre de un participante.
DESARROLLO
I. El Facilitador prepara con anterioridad la cartulina con las caractersticas detalladas en
la seccin material.
II. Como inicio del ejercicio el Facilitador explica a los participantes las caractersticas y
procedimiento de la dinmica.
III. El Facilitador divide a los participantes en dos subgrupos.
IV. Por turnos, un equipo ataca desde uno de sus territorios (participantes) a un territorio
del otro equipo. Es decir un integrante de uno de los subgrupos formula una pregunta a un
integrante del subgrupo contrario.
V. Si el equipo atacado contesta bien gana el territorio y el participante que formulo la
pregunta cambia de equipo. De lo contrario, el equipo atacante gana el territorio y se
queda con el participante del otro equipo.
VI. Se contina hasta que uno de los equipos posea un nmero grande de personas
segn algn criterio previsto de antemano.

29

BIBLIOGRAFIA

https://www.uv.es/RELIEVE/v9n1/RELIEVEv9n1_1
Revista ELectrnica de Investigacin y Evaluacin Educativa
http://www.uv.es/RELIEVE

email: relieve@uv.es

30

Você também pode gostar