Escolar Documentos
Profissional Documentos
Cultura Documentos
Sinopsis de la
Evaluacin de Impacto
Patricia Rogers
CENTRO DE INVESTIGACIONES INNOCENTI DE UNICEF
Las opiniones expresadas corresponden a los autores o editores y se publican para estimular un mayor
dilogo sobre mtodos de anlisis de impacto. Esta publicacin no refleja necesariamente las polticas o
perspectivas de UNICEF sobre ciertos temas.
Las sntesis metodolgicas del Centro de Investigaciones de UNICEF pretender compartir prcticas de
investigacin, mtodos, diseos y recomendaciones de reconocidos investigadores y analistas. La
audiencia a la que van dirigidas es principalmente personal de UNICEF que lleve a cabo, encargue o
interprete los resultados de investigacin y anlisis para la toma de decisiones sobre programas y polticas
de sensibilizacin.
El testo no ha sido editado de acuerdo con los estndares de publicacin oficiales y UNICEF declina toda
responsabilidad por posibles errores
Se permite la reproduccin de cualquier parte de la presente publicacin siempre que se incluya referencia
a la presente. Si se desea utilizar una parte sustancial de la publicacin dirijan su solicitud al
Departamento de Comunicacin en la direccin de correo electrnico: florence@unicef.org
1
CAD-OCDE, Glosario de los principales trminos sobre evaluacin y gestin basada en resultados, OCDE, Pars, 2010.
Vase http://www.oecd.org/development/peer-reviews/2754804.pdf.
Pgina 1
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
El proceso de priorizacin de las intervenciones para someterlas a una evaluacin de impacto debe
implicar a una serie de partes interesadas, entre ellas representantes gubernamentales, la sociedad
civil, directores y funcionarios del sistema de las Naciones Unidas y representantes de otras
2
Para ms informacin, vase: BetterEvaluation, Evaluability Assessment, sitio web, BetterEvaluation,
http://betterevaluation.org/themes/evaluability_assessment.
Pgina 2
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
3
Para ms informacin, vase: Fondo de las Naciones Unidas para la Infancia, Poltica de evaluacin revisada,
E/ICEF/2013/14, perodo de sesiones anual de la Junta Ejecutiva, 18 a 21 de junio de 2013, UNICEF, 2013.
4
Vase Secretara de Desarrollo Social (SEDESOL), Oportunidades, www.oportunidades.gob.mx.
Pgina 3
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
La teora del cambio explica cmo se entiende que las actividades produzcan una serie de resultados
que contribuyen a lograr los impactos previstos u observados. Es probable que en el marco de la
planificacin de un programa o una poltica se haya desarrollo alguna versin de una teora del
cambio. A la hora de prepararse para una evaluacin de impacto, debe examinarse y revisarse la
teora del cambio segn sea necesario. Por ejemplo, la teora del cambio vigente puede presentar
lagunas o supuestos no realistas que deben revisarse; tambin puede haberse quedado obsoleta si
el programa ha evolucionado desde que se desarroll la teora.
No todas las versiones de una teora del cambio explican verdaderamente cmo se entiende que
funciona una intervencin (por ejemplo, los resultados, las cadenas y los marcos lgicos). As, por
ejemplo, un programa puede haber enunciado como teora del cambio que llevar a cabo actividades
de educacin en materia de higiene que expliquen la importancia de lavarse las manos para la salud
con el fin de fomentar un buen lavado de manos y mejorar la salud. Una buena teora del cambio
explicar el mecanismo causal real que se entiende que funciona, es decir: funciona la educacin
en materia de higiene porque proporciona informacin nueva (por ejemplo, que el jabn es necesario
para mejorar la eficacia del lavado de manos o que puede utilizarse ceniza como sustituto del jabn),
porque recuerda a las personas informacin que ya conocen, porque refuerza o cambia las normas
sociales o porque crea oportunidades para que las personas deliberen y reduzcan las barreras de
acceso al agua y al jabn? Aclarar este mecanismo causal, o identificarlo como una laguna de
informacin importante, puede resultar til para prepararse para una evaluacin de impacto. La
evaluacin de impacto puede mejorarse utilizando la teora del cambio para:
determinar las variables relevantes que deberan incluirse en la recoleccin de datos;
determinar los resultados intermedios que pueden utilizarse como indicadores de xito, en
situaciones en las que los impactos de inters se producirn despus del marco temporal de la
evaluacin;
Pgina 4
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
determinar los aspectos de ejecucin que deberan examinarse para ver si el hecho de que no
se hayan logrado los impactos previstos se debe a que no se ha ejecutado la intervencin de
manera satisfactoria;
determinar los factores contextuales potencialmente relevantes que deberan incluirse en la
recoleccin de datos;
orientar el anlisis de datos;
proporcionar un marco para informar sobre las constataciones.
En la Sntesis n.o 2 (Teora del cambio) puede encontrarse ms informacin sobre el desarrollo y la
utilizacin de la teora del cambio.
Es importante crear pronto una dotacin para la evaluacin (fondos y recursos reservados para la
evaluacin) para que haya suficientes recursos disponibles cuando se realice la evaluacin. Si las
decisiones sobre el diseo y los costos generales de la evaluacin pueden tomarse durante la
planificacin de la intervencin, ser posible reservar suficientes recursos disponibles para la
evaluacin. Puede elaborarse una estimacin del volumen de recursos necesarios tomando como
referencia los presupuestos de evaluaciones similares previas, utilizando plantillas o elaborando un
diseo inicial y calculando sus costos5.
Al igual que la financiacin que puede proporcionarse a un equipo de evaluacin externa, otro
importante recurso que debe asegurarse es la disponibilidad de tiempo de los principales actores que
contribuyen, entre ellos, el grupo de gobernanza, los organismos de revisin (como un grupo asesor
tcnico o revisores homlogos), informantes clave y facilitadores de las visitas sobre el terreno.
Tambin es necesario acceder a sistemas de datos y documentacin previa. Deben entenderse bien
los datos disponibles para que el diseo de la evaluacin pueda centrarse en verificar la informacin
y corregir las carencias en lugar de recabar datos superfluos.
Una buena metodologa de evaluacin exige entender de forma suficiente las necesidades y los
recursos de evaluacin especficos, as como tener una especializacin tcnica general. Por lo tanto,
les aconsejable elaborar el diseo de la evaluacin mediante un proceso que rena estos elementos.
El siguiente diagrama muestra cuatro posibles procesos para desarrollar la metodologa de
evaluacin.
5
Para consultar una lista de verificacin de los puntos que deben tenerse en cuenta, vase Horn, Jerry, A Checklist for
Developing and Evaluating Evaluation Budgets, Western Michigan University Checklist Project, Kalamazoo, 2001. Vase
http://www.wmich.edu/evalctr/archive_checklists/evaluationbudgets.pdf.
Pgina 5
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Metologa inicial
Metodologa inicial Metodologa
Metodologa desarrollada
desarrollada por desarrollada por
desarrollada por el organismo
evaluadores y evaluadores al inicio
por el organismo encargado y
revisada como proyecto
encargado al inicio revisada
posteriormente separado
posteriormente
6
Para ms informacin, vase: BetterEvaluation, Evaluability Assessment, sitio web, BetterEvaluation,
http://betterevaluation.org/themes/evaluability_assessment.
Pgina 6
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
disponibilidad necesarias. Esta opcin es la ms adecuada en situaciones en las que se necesita una
metodologa complicada para atender las caractersticas particulares de la evaluacin.
Contexto
Los trminos de referencia deben contener un resumen del desarrollo de la intervencin que se est
evaluando y la razn que ha motivado la decisin de realizar una evaluacin de impacto. Deben
definirse los conceptos principales. A modo de ejemplo, los trminos de referencia de una evaluacin
del impacto de los sistemas de preparacin para emergencias de UNICEF incluan un resumen de lo
que es la preparacin7.
La finalidad de la evaluacin se refiere a la justificacin para realizar una evaluacin de impacto. Las
evaluaciones que se llevan a cabo para apoyar el aprendizaje deben dejar claro quines est previsto
que aprendan, cmo se les incluir en el proceso de evaluacin para que se considere pertinente y
fiable, y si hay puntos decisorios especficos a los que se espera aplicar este aprendizaje. Las
evaluaciones realizadas para apoyar la rendicin de cuentas deben dejar claro a quin se le piden
cuentas, ante quin y por qu.
Los objetivos de la evaluacin normalmente se expresan en trminos de los criterios de evaluacin8
del CAD de la OCDE (vase el cuadro 2).
7
Oficina de Evaluacin de UNICEF, Evaluation of UNICEFs Emergency Preparedness Systems, Terms of Reference
Final, UNICEF, 2012. Vase
http://www.unicef.org/evaluation/files/Evaluation_of_UNICEF_Emergency_Preparedness_Systems_-_FINAL_ToR.pdf.
8
Organizacin de Cooperacin y Desarrollo Econmicos, Comit de Asistencia para el Desarrollo, Evaluation of
development programmes, DAC Criteria for Evaluating Development Assistance, sitio web, OCDE. Vase
http://www.oecd.org/dac/evaluation/daccriteriaforevaluatingdevelopmentassistance.htm.
Pgina 7
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Pertinencia Medida en que los objetivos de la intervencin son congruentes con los
requisitos de los beneficiarios, las necesidades del pas, las prioridades
globales y las polticas de los asociados.
Las evaluaciones de impacto tambin pueden tener por objeto abordar la equidad, la igualdad de
gnero y los derechos humanos.
Una evaluacin puede centrarse en algunos de estos criterios en vez de en todos. En una evaluacin
de impacto, debe describirse ms especficamente cada criterio en trminos de cmo sera el
xito.
En la Sntesis n.o 3 (Criterios de evaluacin) puede encontrarse informacin sobre la definicin de los
criterios evaluativos.
Las evaluaciones de impacto deben centrarse en responder un pequeo nmero de preguntas clave
de evaluacin de alto nivel. No son preguntas de entrevista, sino preguntas que se respondern
mediante una combinacin de pruebas empricas (vanse algunos ejemplos en el cuadro 3).
Estas preguntas deben relacionarse claramente con los usos previstos de la evaluacin de impacto.
Por ejemplo, si el objetivo de una evaluacin es servir de base a la ampliacin de un programa piloto,
no basta con preguntar si ha funcionado o cules han sido los impactos. Es necesario entender bien
cmo se lograron estos impactos en relacin con las actividades y los factores contextuales de apoyo
para reproducir los logros de un programa piloto de xito. Las preocupaciones relativas a la equidad
tambin exigen que las evaluaciones de impacto de todos los programas de UNICEF vayan ms all
del simple impacto medio para determinar con quin han tenido xito los programas y de qu forma.
Pertinencia
En qu medida se ajustaron los impactos previstos a las necesidades de los participantes
previstos?
En qu medida se ajustaron los impactos previstos a las prioridades expresadas por los gobiernos
asociados y el sistema de las Naciones Unidas?
Pgina 8
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Eficacia
Produjo la intervencin [los impactos previstos] a corto, medio y largo plazo?
Con quin, de qu forma y en qu circunstancias funcion la intervencin?
Llegaron [los impactos previstos] a todos los participantes previstos?
Cmo contribuy la intervencin a [los impactos previstos]?
Cules son las caractersticas particulares de [la intervencin] que marcaron la diferencia?
Qu variaciones hubo en la ejecucin? Cul ha sido la calidad de la ejecucin en los distintos
lugares? En qu medida y de qu manera cambi la ejecucin con el tiempo a medida que
evolucionaba la intervencin?
En qu medida explican las variaciones en la ejecucin las diferencias de impacto?
Cmo trabaj la intervencin con otras intervenciones para lograr resultados?
Qu ayud o impidi a la intervencin lograr estos impactos?
Eficiencia
Qu recursos se han utilizado para producir estos resultados? Cmo se compara esto con
intervenciones similares?
Qu estrategias se han utilizado para asegurar la eficiencia de la intervencin?
Impacto
Qu impactos imprevistos (positivos y negativos) produjo la intervencin?
Sostenibilidad
Es probable que los impactos sean sostenibles? (Debe estudiarse al trmino de la intervencin)
Han sido sostenidos los impactos? (Es necesario un estudio de seguimiento)
Los trminos de referencia deben dejar claro el alcance de la evaluacin. Por ejemplo, los trminos
de referencia de la evaluacin del Programa Conjunto sobre la mutilacin/ablacin genital femenina:
acelerar el cambio9, del UNFPA y UNICEF, se referan explcitamente a los distintos niveles del
programa y el grado en que se esperaba que la evaluacin abordase cada uno de ellos.
9
Fondo de Poblacin de las Naciones Unidas y Fondo de las Naciones Unidas para la Infancia, Joint Evaluation: UNFPA-
UNICEF Joint Programme on Female Genital Mutilation/Cutting: Accelerating Change, 2008-2012, volumen I,
UNFPA/UNICEF, Nueva York, septiembre de 2013. Vase
http://www.unfpa.org/webdav/site/global/shared/documents/Evaluation_branch/Joint Evaluation - Sept 2013/Main
Report/FGM-report 12_4_2013.pdf.
Pgina 9
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Preguntas descriptivas
Las preguntas descriptivas se refieren a cmo son las cosas y qu ha ocurrido, incluida la descripcin
de la situacin inicial y cmo ha cambiado, las actividades de la intervencin y otros programas o
polticas relacionados, el contexto en cuanto a caractersticas de los participantes y el entorno de
ejecucin.
Existe toda una gama de mtodos de recoleccin/cotejo de datos para responder (aunque no
necesariamente de manera exclusiva) a las preguntas descriptivas. Algunos son:
Recoleccin de datos de personas o grupos: a travs de entrevistas, cuestionarios o mtodos
especializados como la votacin por puntos, la clasificacin de tarjetas, los calendarios
estacionales, las tcnicas de proyeccin y las vivencias.
Observacin: estructurada o no estructurada; de participantes o de no participantes; registrada
mediante notas, fotos o vdeos; participativa o no participativa.
Medicin fsica: mediciones biofsicas o informacin geogrfica.
Documentos y datos existentes: incluidos conjuntos de datos, estadsticas oficiales, registros
de proyectos y datos de las redes sociales existentes.
En la mayora de los casos, una combinacin eficaz de datos cuantitativos y cualitativos dar una
imagen ms completa de lo que ha pasado. Muchas evaluaciones de impacto no recaban datos de
referencia adecuados sobre las condiciones o datos adecuados sobre la ejecucin de la intervencin.
En la Sntesis n.o 10 (Sinopsis: Mtodos de recoleccin y anlisis de datos en la evaluacin de
impacto) puede encontrarse ms informacin sobre las diferentes opciones de recoleccin y anlisis
de datos y sobre la combinacin de los datos cualitativos y cuantitativos. En la Sntesis n. o 12
(Entrevistas) puede encontrarse asesoramiento especfico sobre la utilizacin de entrevistas.
Preguntas causales
Las preguntas causales se refieren a si los cambios observados se deben o no, y en qu medida, a la
intervencin que se est evaluando y no a otros factores, incluidos otros programas y/o polticas.
Existen tres opciones de diseo que abordan la atribucin causal:
Diseos experimentales, que construyen un grupo de control mediante asignacin aleatoria.
Diseos cuasi experimentales, que construyen un grupo de control mediante emparejamiento,
regresin discontinua, puntuacin de la propensin u otros medios.
Pgina 10
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Preguntas evaluativas
Las preguntas evaluativas se refieren a la conclusin general sobre si un programa o una poltica
puede considerarse un xito, una mejora o la mejor opcin.
Las intervenciones de desarrollo suelen tener mltiples impactos que se distribuyen de manera
desigual (la equidad es una inquietud particular en el sistema de las Naciones Unidas), lo que es
considerado un elemento esencial de una evaluacin de impacto. Por ejemplo, debera
considerarse que tiene xito un programa de desarrollo econmico que produce un aumento de los
ingresos en los hogares pero tambin impactos ambientales peligrosos? Debera considerarse que
tiene xito si los ingresos de los hogares medios aumentan pero los ingresos de los hogares ms
pobres disminuyen?
En una evaluacin de impacto es importante definir primero qu se entiende por xito (calidad,
valor). Una forma de hacerlo es utilizar una rbrica especfica que defina distintos niveles de
desempeo para cada criterio de evaluacin, decidiendo qu pruebas empricas se recabarn y cmo
se sintetizarn para llegar a conclusiones justificables sobre el valor de la intervencin. Como
mnimo, debera dejarse claro qu concesiones resultaran adecuadas al equilibrar los mltiples
impactos o efectos distributivos. Esta cuestin constituye un punto dbil, pues muchas evaluaciones
de impacto no la abordan de manera sistemtica o no se ocupan de ella en absoluto.
En la Sntesis n.o 4 (Razonamiento evaluativo) puede encontrarse ms informacin sobre la
importancia de examinar preguntas evaluativas y las opciones especficas para hacerlo (en trminos
de proceso recomendado y formas de lograr conclusiones justificables).
Los trminos de referencia deben definir los criterios de seleccin del equipo de evaluacin, incluidas
las competencias obligatorias y deseables. Entre ellas puede incluirse: experiencia de trabajo en el
pas o la regin en cuestin; conocimientos de idiomas; conocimientos de contenido (en un sector o
rea como el gnero); competencias tcnicas en diseo de evaluacin, recoleccin de datos, anlisis
de datos y presentacin de informes; aptitudes de comunicacin; y competencias de gestin de
proyectos. Puede resultar necesario asegurarse de que el equipo en su conjunto tenga una cobertura
adecuada, por ejemplo, conocimiento actualizado de las redes locales, capacidad para acceder a
informantes clave y conocimiento de las evaluaciones de intervenciones comparables en otras
regiones. Es importante asegurar que el equipo cuente con competencias tcnicas para recopilar y
analizar datos, as como aptitudes de comunicacin para negociar eficazmente el diseo e informar
sobre las constataciones, y entienda que las evaluaciones deben centrarse en producir
constataciones tiles y accesibles, no solo informes acadmicos.
Pgina 11
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
7. SUPERVISAR LA EVALUACIN
Plan de trabajo de la evaluacin
En muchos casos, en el marco de los trminos de referencia se habr elaborado un plan de trabajo
indicativo en el que se establecen las distintas fases de recoleccin y anlisis de datos y los plazos
de los distintos entregables. Cuando sea posible, el plan de trabajo debe crear oportunidades de
presentacin de informes provisionales y anlisis continuo, en vez de reservar todos los informes
para el final de la evaluacin. El plan de trabajo debe examinarse y revisarse en el marco del informe
inicial.
10
Oficina de Evaluacin de UNICEF, What goes into a Terms of Reference (TOR), Evaluation Technical Note No. 2,
UNICEF, 2002. Lista de verificacin de preguntas para su uso por parte de los directores de evaluacin de UNICEF al
elaborar trminos de referencia. Vase http://www.unicef.org/evaluation/files/TechNote2_TOR.pdf.
Pgina 12
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Una vez que se acepte, la direccin debe vigilar la materializacin del plan de trabajo y las
estructuras de gobernanza y su revisin, en caso necesario para hacer frente a las nuevas
cuestiones o los retrasos inesperados.
Debe programarse el plazo para el examen y la revisin de los principales entregables, incluida la
metodologa y el plan de trabajo revisados, las herramientas de recoleccin y anlisis de datos (si
deben aprobarse) y los proyectos de informe.
Los informes deben elaborarse con arreglo al Sistema Mundial de Supervisin de los Informes de
Evaluacin11 desarrollado por UNICEF, y a los evaluadores se les debe proporcionar una plantilla
para facilitar la elaboracin de un documento conforme.
Los informes deben cumplir las Normas para los Informes de Evaluacin del Grupo de Evaluacin de
las Naciones Unidas (UNEG) adaptadas a UNICEF 12. En resumen, el objetivo de estas es asegurar
que:
El informe est bien estructurado y es lgico, claro y completo.
El informe presenta una descripcin clara y completa del objeto de la evaluacin.
Se explican ntegramente la finalidad, los objetivos y el alcance de la evaluacin.
El informe presenta una descripcin transparente de la metodologa aplicada a la evaluacin,
que explica claramente cmo se ha diseado especficamente la evaluacin para atender a los
criterios de evaluacin, generar respuestas a las preguntas de evaluacin y cumplir la finalidad
de la evaluacin.
Las constataciones responden directamente a los criterios y las preguntas de evaluacin
detallados en la seccin sobre el alcance y los objetivos del informe, y tiene una base emprica
derivada de los mtodos de recoleccin y anlisis de datos descritos en la seccin de
metodologa del informe.
Las conclusiones exponen juicios razonables basados en las constataciones y estn
justificados mediante pruebas empricas, y proporcionan informacin pertinente respecto al
objeto y la finalidad de la evaluacin.
Las recomendaciones son pertinentes para el objeto y la finalidad de la evaluacin, estn
apoyadas por pruebas empricas y conclusiones y se elaboran con la participacin de las
partes interesadas pertinentes.
El informe ilustra el grado en que el diseo y la ejecucin del objeto, la valoracin de los
resultados y el proceso de evaluacin incorporan una perspectiva de igualdad de gnero y un
enfoque basado en los derechos humanos, incluidos los derechos del nio.
El informe de evaluacin debe estructurarse en torno a los mensajes principales que figuran en el
resumen y proporcionar acceso a explicaciones y pruebas empricas ms detalladas. El uso de
breves frases recapitulativas como ttulos, tablas y cuadros facilita que los lectores se centren en
estos mensajes principales.
11
Para ms informacin sobre los requisitos de presentacin de informes, vase: Fondo de las Naciones Unidas para la
Infancia, Sistema Mundial de Supervisin de los Informes de Evaluacin, UNICEF, 2013. Vase
http://www.unicef.org/evaluation/files/GEROS_Methodology_v7.pdf.
12
Oficina de Evaluacin de UNICEF, Normas para los Informes de Evaluacin del UNEG adaptadas a UNICEF, UNICEF,
2010. Vase http://www.unicef.org/evaldatabase/files/UNEG_UNICEF_Eval_Report_Standards.pdf.
Pgina 13
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Respuesta de la direccin
Una evaluacin requiere una respuesta formal de la direccin 13 en forma de respuesta escrita a las
recomendaciones formuladas en el informe de evaluacin. Algunos organismos la incluyen en el
informe final; en UNICEF, la respuesta de la direccin se proporciona como documento separado. La
respuesta puede estar de acuerdo, parcialmente de acuerdo o en desacuerdo con una
recomendacin, y debe explicar la aceptacin parcial o el rechazo de una recomendacin. En el caso
de las recomendaciones que se han aceptado total o parcialmente, deben definirse medidas de
seguimiento, con la especificacin de un plazo y el nombre de la dependencia responsable.
Es importante designar a una persona para coordinar la respuesta de la direccin y definir un plazo
convenido para presentar las observaciones. La direccin debe responder en los dos meses
siguientes a la recepcin del informe de evaluacin final 14.
Adems del informe de evaluacin formal, pueden utilizarse otros productos de conocimiento y
procesos para facilitar la disponibilidad de las constataciones. Entre ellos, otros materiales escritos,
como una sntesis de evaluacin, un boletn electrnico o una entrada en una wiki, todos los cuales
contendran un resumen de la evaluacin.
Las constataciones tambin pueden compartirse a travs de actividades, como presentaciones en
reuniones, talleres y comunidades de intercambio de prcticas existentes o en seminarios web. Estas
presentaciones pueden incluso grabarse y compartirse de manera ms generalizada, por ejemplo, a
travs de YouTube o Vimeo.
Todas las evaluaciones de UNICEF deben subirse tambin a la base de datos de evaluacin de
UNICEF en el marco del sistema de informes anuales de las oficinas en los pases.
Seguimiento
13
Fondo de las Naciones Unidas para la Infancia, Guidance for Management Response to Evaluation: Enhancing Critical
Engagement for the Strategic Use of Evaluations, UNICEF, 2012. Vanse
http://www.unicef.org/evaldatabase/files/2011_South_Africa_-_management_response_SCCFS_evaluation.pdf, y
https://intranet.unicef.org/epp/evalsite.nsf/8e1ddc662803020785256ede00706595/6a1a69ce471c376585257c40006677c1
?OpenDocument.
14
Grupo de Evaluacin de las Naciones Unidas, UNEG Guidance on Preparing Management Responses to UNDAF
Evaluations, documento orientativo, UNEG, 2014. Vase
http://www.unevaluation.org/UNDAF_management_response_guidance.
15
Fondo de las Naciones Unidas para la Infancia, Poltica de evaluacin revisada del UNICEF, UNICEF, Nueva York, 2013,
prrafo 37. Vase http://www.unicef.org/evaluation/files/2013-14-Revised_evaluation_policy-ODS-Spanish.pdf.
Pgina 14
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Este requisito est directamente relacionado con la respuesta formal de la direccin mencionada
anteriormente, incluidas las medidas especficas que deben adoptarse sobre la base de las
constataciones de la evaluacin.
16
Grupo de Evaluacin de las Naciones Unidas, Ethical Guidelines for Evaluation, UNEG, Nueva York, 2007. Vase
https://www.iom.int/jahia/webdav/site/myjahiasite/shared/shared/mainsite/about_iom/eva_techref/UNEG_ethical_guideline
s.pdf.
17
Fondo de las Naciones Unidas para la Infancia, Poltica de evaluacin revisada del UNICEF, UNICEF, Nueva York, 2013,
prrafo 54 e. Vase http://www.unicef.org/evaluation/files/2013-14-Revised_evaluation_policy-ODS-Spanish.pdf.
18
Los nuevos recursos son la Charter for Ethical Research Involving Children (Carta internacional para la tica en la
investigacin con nios); un sitio web, www.childethics.com, diseado especficamente para ofrecer un abundante
depsito de informacin con base emprica, recursos y enlaces a artculos de revistas para orientar y mejorar la
investigacin con nios y ofrecer una plataforma para seguir manteniendo una reflexin y un dilogo fundamentales; y un
compendio de cuestiones y desafos ticos, incluida una coleccin de ms de 20 casos de estudio, as como preguntas
estructuradas para orientar la tica en la investigacin con nios (la pgina web llamada Getting Started).
Pgina 15
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
18
Son importantes distintos tipos de validez: la validez conceptual se refiere a la capacidad de las medidas y otras
herramientas para representar con precisin la realidad; la validez interna se refiere a la capacidad de extraer
correctamente una atribucin causal, es decir, determinar si los cambios observados se deben a la intervencin; y la
validez externa se refiere a la capacidad de extrapolar los resultados a otras poblaciones o lugares.
Pgina 16
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Entrevistas
Elaboracin de modelos
White, Howard, Some Reflections on Current Debates in Impact Evaluation, International Initiative
for Impact Evaluation Working Paper No. 1, 2009. Resumen de los principales debates sobre la
medicin y atribucin de impactos. Vase
http://www.3ieimpact.org/media/filer/2012/05/07/Working_Paper_1.pdf.
Oficina de Evaluacin de UNICEF, What goes into a Terms of Reference (TOR) , Evaluation
Technical Note No. 2, UNICEF, 2002. Lista de verificacin de preguntas para su uso por parte de los
directores de evaluacin de UNICEF al elaborar trminos de referencia. Vase
http://www.unicef.org/evaluation/files/TechNote2_TOR.pdf.
Pgina 17
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
GLOSARIO
Atribucin causal Imputacin de un vnculo causal entre cambios observados (o que se
espera observar) y una intervencin especfica.
Clasificacin de tarjetas Mtodo de recoleccin de datos que da una idea de cmo las
personas categorizan y clasifican distintos fenmenos.
Criterios de evaluacin Los valores (principios, atributos o cualidades considerados
intrnsecamente buenos, deseables, importantes y de valor general)
que se utilizarn en una evaluacin para juzgar el mrito de una
intervencin. Algunos ejemplos son los criterios del Comit de
Asistencia para el Desarrollo (CAD) de la Organizacin de
Cooperacin y Desarrollo Econmicos (OCDE) 19, el Enfoque para la
Programacin basado en los Derechos Humanos (HRBAP, por sus
siglas en ingls) y los criterios utilizados para la asistencia
humanitaria.
Datos de referencia Datos recopilados inicialmente que sirven de base para la
comparacin con los datos obtenidos en una fase posterior. Por
ejemplo, los datos recopilados antes de una intervencin se comparan
posteriormente con los datos recopilados despus de ejecutar la
intervencin.
Evaluacin de procesos Evaluacin del desarrollo y la aplicacin de un determinado
programa/intervencin. Analiza la eficacia de las actividades del
programa, la ejecucin, la prestacin de servicios, etc. La evaluacin
de procesos continua se llama seguimiento del programa. Vase:
seguimiento.
19
Comit de Asistencia para el Desarrollo (CAD) de la Organizacin de Cooperacin y Desarrollo Econmicos (OCDE),
Evaluation of development programmes, DAC Criteria for Evaluating Development Assistance, sitio web de la OCDE. Vase
http://www.oecd.org/dac/evaluation/daccriteriaforevaluatingdevelopmentassistance.htm.
Pgina i
Sntesis metodolgica n1: Sinopsis de la evaluacin de impacto
Pgina ii