Você está na página 1de 42

See

discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/313856858

Introducción a la Gestión para Resultados

Chapter · December 2016

CITATIONS READS

0 400

1 author:

Mauricio Dussauge
Centro de Investigacion y Docencia Economicas (CIDE)
67 PUBLICATIONS 119 CITATIONS

SEE PROFILE

All content following this page was uploaded by Mauricio Dussauge on 21 February 2017.

The user has requested enhancement of the downloaded file.


Introducción a la Gestión para Resultados
Mauricio I. Dussauge Laguna1

(para la versión definitiva de este capítulo, por favor consultar


Mauricio I. Dussauge Laguna (comp.), Gestión para Resultados, México: Siglo XXI-
Escuela de Administración Pública de la Ciudad de México, 2016, 17-63)

Mejorar el desempeño gubernamental ha sido un tema recurrente tanto en la disciplina


académica de la Administración Pública como en la vida profesional de los administradores
públicos de todo el mundo. Los términos específicos han variado a lo largo del tiempo:
eficiencia, productividad, economía, calidad, efectividad. Sin embargo, la preocupación por
encontrar los mecanismos más adecuados para medir los trabajos de las organizaciones y
orientar las conductas de los servidores públicos hacia el logro de “resultados” ha sido una
constante, desde los clásicos de la “Administración Científica” hasta las propuestas
recientes de la “Nueva Gestión Pública” (NGP; Hood, 1991; Van Dooren et al., 2010).
Como lo ha dicho Patricia W. Ingraham (2005:390), “durante buena parte del siglo XX […]
el desempeño ha sido un canto de sirenas para las naciones alrededor del mundo”.
En los comienzos del siglo XXI, los ecos de dicho canto siguen siendo claramente
audibles en propuestas como la Gestión para Resultados (GpR). Ésta puede definirse como
un conjunto de ideas e instrumentos que buscan medir diversos aspectos del
funcionamiento administrativo, para informar/guiar las decisiones de gestión que sean
pertinentes a fin de (re)orientar el desempeño institucional hacia un mejor funcionamiento
interno y/o hacia el logro eficaz de resultados específicos (Moynihan, 2008; Aguilar, 2013;
Schick, en este volumen). Por supuesto, esta definición de Gestión para Resultados
constituye más un punto de partida que una conceptualización acabada. Como suele pasar
con muchos otros términos/objetos de estudio/movimientos reformistas, cada autor
académico y cada actor político-administrativo tienen su propia definición de Gestión para
Resultados (Serra, en este volumen; Banco Mundial et al., 2008). Las propuestas pueden
variar, además, en función del tipo de condiciones, capacidades, instrumentos o principios

1
Profesor-Investigador de la División de Administración Pública, Centro de Investigación y
Docencia Económicas. Miembro del Sistema Nacional de Investigadores, Nivel I. Correo electrónico:
mauricio.dussauge@cide.edu.

1
de gestión que se consideren pertinentes para obtener resultados (Osborne y Gaebler, 1994;
Ingraham et al., 2003; Kaufmann et al., 2015). Asimismo, la Gestión por Resultados
comparte intereses y preocupaciones con otros movimientos contemporáneos, como son la
Gestión Estratégica, los sistemas de monitoreo y evaluación, las políticas públicas basadas
en evidencia o el enfoque de public service delivery (Davies et al., 2000; Barber, 2007;
Velasco, 2010; López-Acevedo et al., 2012). En última instancia, la Gestión para
Resultados puede llegar a tener distintos contenidos y diversas características
institucionales dependiendo del ámbito nacional específico al que se haga referencia
(Bouckaert y Halligan, 2008).
Más allá de sus alcances conceptuales, la Gestión para Resultados es hoy en día un
tema de enorme vigencia político-administrativa (Behn, en este volumen; OECD, 1997a,
2009; CLAD, 1999; Van de Walle y Hammerschmid, 2011). No hay campaña electoral ni
actor gubernamental que no subraye su compromiso con los “resultados”. No hay, tampoco,
institución pública que se respete que no cuente con algún tipo de herramienta gerencial
más o menos sustentada en una lógica de “resultados”. No hay, en fin, organización
internacional que no destaque la importancia de alcanzar “resultados”, ya sea en materia de
desarrollo o en cualquier otro tema de política pública global. Y es que la Gestión para
Resultados provee lo mismo argumentos sustantivos que tecnologías utilizables,
municiones retóricas para las batallas políticas, insumos para las discusiones públicas,
instrumentos para la gestión institucional y puntos de referencia para la comparación
internacional. Por ello, aun cuando las discusiones contemporáneas sobre Gestión para
Resultados surgieron en buena medida de la mano de la Nueva Gestión Pública, sus
preocupaciones y aplicaciones han sobrevivido al lento desvanecimiento de ésta última
(Hood y Peters, 2004; Dunleavy et al., 2006). De hecho, la Gestión para Resultados poco a
poco ha dejado de verse como algo anómalo, que va en contrasentido de la administración
burocrática à la Weber, para entenderse como un complemento necesario y hasta
indispensable de los Estados contemporáneos y de los esquemas de gestión pública
moderna (Aguilar, 2006; Moynihan, 2010; Pollitt y Bouckaert, 2011; Santiso et al., 2014).
Ahora bien, la exitosa difusión internacional de las ideas y herramientas de la
Gestión para Resultados no siempre ha venido acompañada de prácticas, procedimientos y
esquemas igualmente exitosos. Por el contrario, son abundantes las experiencias empíricas

2
y los estudios más o menos sistemáticos que han dado cuenta de lo difícil que es orientar el
desempeño individual, programático y organizacional hacia la consecución de resultados
(Bevan y Hood, 2006a, 2006b; de Bruijn, 2009; Van Dooren y Van de Walle, 2011). Como
en el caso de cualquier otra propuesta modernizadora, los procesos de diseño e
implementación de prácticas de Gestión para Resultados son bastante complejos. Además,
se insertan en ambientes político-administrativos que cargan con el peso de inercias,
rutinas, legados e instituciones particulares (regionales, nacionales, locales; Nömm y
Randma-Liiv, en este volumen). Al mismo tiempo, la Gestión para Resultados se desarrolla
en situaciones en las que los actores, los valores, las mediciones, los objetivos, los
comportamientos, los juicios y los puntos de comparación están cambiando todo el tiempo.
Por consiguiente, si el éxito de la Gestión para Resultados en el corto plazo depende en
buena medida de su adaptación a las condiciones particulares de un país, nivel de gobierno
u organización (Hood, Mackay, en este volumen), en el largo plazo su éxito pareciera
vincularse más bien a su capacidad para ajustarse a las nuevas necesidades de sus usuarios
y a las nuevas circunstancias que le rodean (Pollitt, en este volumen; Buntin, 2016;
Moynihan y Kroll, 2016). Así, entender cómo, cuándo y por qué la Gestión para Resultados
funciona adecuadamente es un tema de enorme importancia académica y de la mayor
relevancia político-administrativa.
Con base en las discusiones internacionales de las últimas cuatro décadas, este libro
busca enriquecer las conversaciones de funcionarios, académicos y ciudadanos en torno a la
Gestión para Resultados. El libro incluye siete importantes textos que en su conjunto
ofrecen un panorama comprehensivo de la evolución, las características, el estado actual y
los retos a futuro de la Gestión para Resultados. Antes de ello, este breve estudio
introductorio resalta algunos de los temas que cruzan tanto los contenidos de los textos aquí
incluidos, como los debates contemporáneos sobre la materia

Fundamentos de la Gestión para Resultados


Las discusiones actuales sobre Gestión para Resultados están directamente relacionadas con
las reformas administrativas de la llamada Nueva Gestión Pública (NGP). Frente a la serie
de problemas económicos (crisis fiscal, bajo crecimiento, inflación) y políticos (crisis de la
democracia, mayores expectativas ciudadanas) enfrentados por los países desarrollados en

3
el decenio de 1970, los gobiernos de países como el Reino Unido, Australia y Nueva
Zelandia pusieron en marcha un conjunto de iniciativas para cambiar sus estructuras y
procesos administrativos a fin de volverlos más económicos, eficientes y efectivos
(Arellano, 2010; Cejudo, 2010). En términos específicos, las propuestas de la NGP
incluyeron aspectos que hoy en día forman la columna vertebral de la Gestión para
Resultados: la autonomía de los gerentes públicos (hands-on professional management); la
necesidad de establecer estándares explícitos y mediciones de desempeño; y la importancia
de priorizar los controles por producto (outputs) por encima de los controles por insumos
(inputs) o por cumplimiento (compliance) (Hood, 1991; OECD, 1997a, 1997b; Velasco,
2011). O, según la frase de los “reinventores del gobierno”, la exigencia de construir un
“gobierno orientado a resultados” (Osborne y Gaebler, 1994).
Sin embargo, las ideas que subyacen a la Gestión para Resultados en realidad han
estado rondando los aparatos administrativos y las discusiones públicas desde hace mucho
tiempo. Algunas propuestas pioneras sobre la “gestión por objetivos” y, sobre todo, la frase
“Gestión para Resultados” pueden atribuirse a los escritos de Peter Drucker de los años
1950-1960 (Serra, en este volumen). Pero el mismo Drucker (1976:12), experto en gestión
empresarial, señaló que “la GPO [gestión por objetivos] tiene una historia más larga en las
instituciones gubernamentales de lo que piensan muchos practicantes”. En efecto, algunos
de los primeros esfuerzos por “medir”, “contar” y “reportar” los “productos” y “resultados”
(outcomes) de las actividades gubernamentales tuvieron lugar en el New York Bureau of
Municipal Research (Buró de Investigación Municipal de Nueva York; Williams, 2003).
Entre 1906 y 1912, los funcionarios de dicha institución retomaron las ideas de la
administración científica de Taylor, adaptaron prácticas gerenciales y métodos estadísticos
para recabar y sistematizar datos, y produjeron reportes que buscaban mejorar el
“desempeño” y la “productividad” gubernamentales, así como reforzar las tareas de
presupuestación y rendición de cuentas de los gobiernos locales. Por otra parte, Christopher
Hood (2006, 2007) ha señalado que los gobiernos de la antigua Unión Soviética también
desarrollaron diversos esfuerzos de planeación asociada al logro de metas específicas a lo
largo del siglo XX.
A diferencia de estos y otros “movimientos orientados al desempeño” (Van Dooren
et al., 2010: 4), la Gestión para Resultados pareciera haber logrado una mayor difusión

4
internacional y una mejor institucionalización burocrática por al menos tres razones.
Primero, porque recupera, ordena y sistematiza las ideas básicas expresadas por sus
antecesores, al tiempo que las integra en propuestas conceptuales y prácticas más
integrales. Segundo, porque más allá de su lógica esencialmente administrativa-gerencial y
de operación cotidiana, la Gestión para Resultados ha logrado vincularse a discusiones
políticas más amplias, particularmente aquellas relacionadas con la importancia de
construir gobiernos democráticos responsables, que rindan cuentas claras de su desempeño
y de los resultados sociales que (no) logran alcanzar (Aguilar, 2013; Kaufmann et al.,
2015). Tercero, porque las múltiples aplicaciones prácticas de la Gestión para Resultados
en sus muy diversas formas han permitido entender mejor sus alcances y sus limitaciones,
generando al mismo tiempo un productivo proceso de ensayo-error-aprendizaje entre los
servidores públicos involucrados y una rica literatura académica sobre el tema.
Las propuestas de la Gestión para Resultados parten de un conjunto de ideas y
supuestos que vale la pena apuntar aunque sea en lo general. En primer lugar, que existen
insumos, actividades, productos e impactos gubernamentales que son susceptibles de ser
“medidos”, es decir que son cuantificables de una u otra forma. En segundo lugar, que las
mediciones arrojadas (datos, números, indicadores) son un reflejo más o menos entendible
(y creíble) del “desempeño” organizacional en lo que respecta a dichos insumos,
actividades, productos o impactos. En tercer lugar, que estas mediciones del desempeño no
son sólo números aislados, sino fuentes de información útil y hasta importante, por lo que
ameritan ser comunicadas (reportadas) a uno o más actores dentro y fuera del gobierno. En
cuarto lugar, que con base en la “información de desempeño” que se ha generado y luego se
ha reportado, los tomadores de decisiones podrán desarrollar acciones oportunas para
garantizar que su organización alcanzará los objetivos (o, mejor dicho, los resultados)
inicialmente planteados/deseados, ya sea en materia de gestión organizacional o de política
pública. En síntesis, se trata de medir, informar y decidir, como se muestra en la Figura 1.
Por supuesto, como se discutirá más adelante, estas sencillas ideas y las frases que las han
vuelto famosas, como “lo que se mide se hace” (“what gets measured gets done”; Behn, en
este volumen), o “lo que se mide se puede mejorar” (motto del Consejo Nacional de
Evaluación de la Política Social, CONEVAL, en México), en realidad esconden una
enorme complejidad político-administrativa.

5
Figura 1
La Gestión para Resultados:
medición del desempeño y ciclos de gestión

Fuente: Elaboración propia con base en Castro (2009: 107), OECD (2009: 17), Van Dooren et al.
(2010: 18, 82-85), Serra (en este volumen) y Kaufmann et al. (2015: 5, 10).

6
La Figura 1 también muestra otro aspecto fundamental de la Gestión para Resultados: sus
procesos de medición del desempeño se encuentran intrínsecamente ligados a los diversos
ciclos de gestión de las administraciones públicas. Por una parte, los “resultados” que se
buscan alcanzar y los diversos mecanismos que se usan para medir el desempeño parten de
una doble consideración: primero, el marco normativo de la organización o programa
público en cuestión, el cual establece sus fines últimos, sus atribuciones legales y sus
funciones; y, segundo, los procesos de planeación (estratégica) que delinean y priorizan los
objetivos a lograr en un período determinado (Schick, en este volumen). Por otra parte, la
información de desempeño sólo adquiere pleno sentido cuando sirve como insumo para los
procesos decisionales relacionados con la gestión organizacional interna, el (re)diseño de
los programas públicos, los ejercicios presupuestales y las discusiones públicas sobre todo
lo anterior (Serra, en este volumen).
La prominencia alcanzada por la Gestión para Resultados tiene mucho que ver
precisamente con éste último punto: las implicaciones políticas de sus ideas (y sus
prácticas) en materia de rendición de cuentas (Behn, 2001; Dubnik, 2005; de Lancer, 2006;
Velasco, 2011). En primer lugar, buena parte de las mediciones construidas en torno a los
insumos, las actividades, los productos o los impactos gubernamentales son susceptibles de
salir a la luz pública. De hecho, cada vez más tales mediciones se plantean como
información pública desde el principio. En segundo lugar, esto supone que la información
sobre el desempeño/los resultados puede estar al alcance de múltiples actores políticos,
como son los legisladores, las organizaciones sociales, los reguladores independientes y,
por supuesto, los ciudadanos. En tercer lugar, esos mismos actores pueden recurrir a las
mediciones de insumos, actividades, productos o impactos de las organizaciones públicas
(y respecto de las políticas a su cargo) para emitir juicios de valor y, en su caso, para exigir
cuentas.
La Tabla 1 describe algunos de los vínculos existentes entre los supuestos de la
Gestión para Resultados y las relaciones de información, explicación/justificación y
decisión/sanción entre dos o más actores públicos que caracterizan las dinámicas de
rendición de cuentas (véase Bovens et al., 2014).

7
Tabla 1
Gestión para Resultados y rendición de cuentas

 Niveles de desempeño (actividades, procesos, productos o


impactos)
Información provista por “A”
 Fechas de (in)cumplimiento
acerca de…
 Uso de recursos públicos
 Estándares de calidad

 Problemas del desempeño


…que supone explicaciones o  Desempeño real respecto del planeado originalmente, o con
Relación entre justificaciones de parte de “A” relación al alcanzado por otras organizaciones
actores públicos hacia “B” en torno a…  Razones de incumplimiento/retrasos
“A” y “B”  Factores exógenos importantes

 Sanciones
 Recortes presupuestales
… los cuales a su vez desatan  Bonos salariales que (no) se pagan
decisiones de “B” hacia “A”  Despidos de funcionarios responsables a causa de un bajo
relacionadas con… desempeño
 Programas públicos terminados o modificados por desempeño
inadecuado

Fuente: Elaboración propia.

Por lo anterior, puede decirse que las tareas de medición, generación de


datos/reportes y uso de la información de desempeño asociadas a los instrumentos de la
Gestión para Resultados rebasan los ámbitos estrictamente gerenciales y adquieren
fácilmente un carácter político (Triantafillou, 2015). Más allá de sus claros vínculos con la
gestión interna, la modernización administrativa y la mejora de las políticas públicas, la
Gestión para Resultados tiene el potencial de alimentar los debates públicos, contribuir a las
tareas de control político y fortalecer los ejercicios de rendición de cuentas democrática. En
este sentido, Luis F. Aguilar (2013:359) ha notado que, “debe entenderse como resultado
público el producto final de un proceso causal democráticamente sustentado y técnicamente
correcto, que es apreciado por los ciudadanos porque perciben que se ha producido un
cambio real en el estado de la situación social considerada indeseada e inaceptable y se han
respetado asimismo los valores políticos democráticos. Desde esta perspectiva, una
definición acertada de resultado público debe comprender tanto ‘el desempeño de la

8
política’ como el desempeño democrático’”. Puesto en otros términos, la Gestión para
Resultados es una herramienta para perseguir la efectividad administrativa, pero también es
un mecanismo para construir la legitimidad democrática de los gobiernos.
Tomar nota de esta doble naturaleza político-administrativa de la Gestión para
Resultados nos ayuda a comprender por qué el tema se ha convertido en uno de los más
populares y persistentes dentro del universo de propuestas neogerenciales de las últimas
décadas. Nos sirve, además, para explicar (por lo menos en parte) por qué la Gestión para
Resultados ha dejado de ser una preocupación exclusiva de los países angloparlantes que
fueron pioneros en la materia, para irse convirtiendo en tema de creciente interés en otros
países desarrollados (Francia o Alemania, por ejemplo; Bouckaert y Halligan, 2008), en los
países en transición de Europa Central y del Este (Nömm y Randma-Liiv, en este volumen;
Peters, 2008), en las economías emergentes del sureste asiático (Common, 2001) y en
nuestras democracias latinoamericanas (Cunnill y Ospina, 2008; Dussauge, 2013; Pérez y
Maldonado, 2016).

Instrumentos y sistemas de Gestión para Resultados


Detrás de la etiqueta y las ideas generales antes descritas, la Gestión para Resultados en
realidad se integra por una multiplicidad de “instrumentos” (Le Galès, 2016). En una visión
minimalista, el énfasis usualmente se pone en aquellos instrumentos que rodean actividades
como la “gestión del desempeño” organizacional (“performance management”) o el
seguimiento/monitoreo de políticas públicas. En una visión un poco más amplia (como la
adoptada en estas páginas), la Gestión para Resultados también puede incluir instrumentos
relacionados con la evaluación de programas y políticas, así como con ejercicios de
comparación institucional o internacional (“benchmarking” o “rankings”; véanse Pollitt,
Hood, en este volumen; Van Thiel y Leeuw, 2002; López-Acevedo et al., 2012; Kaufmann
et al., 2015).
A pesar de sus importantes diferencias en términos de periodicidad,
responsabilidades de aplicación, diseño metodológico o implicaciones políticas (de Lancer,
2006; Van Dooren et al., 2010; Triantafillou, 2015), los tres subconjuntos de instrumentos
caben dentro de una misma idea de Gestión para Resultados en tanto que todos buscan
medir/comparar/valorar algún aspecto del desempeño, acercar esa información a diversos

9
actores y apoyar el desarrollo de decisiones informadas para ajustar, re-direccionar o
mejorar los cursos de acción organizacionales o de política pública. Esta lógica tripartita
(medición, información, decisión) es la que permite relacionar a los sistemas de monitoreo
y evaluación, y a los esquemas de política pública basada en evidencia con las reformas de
la Gestión para Resultados (López-Acevedo et al., 2012). Es también en esta lógica que los
ciclos de planeación, presupuestación, gestión de proyectos y compras públicas pueden
considerarse parte de ciertos modelos de Gestión para Resultados, midiendo, informando y
(re)orientando los procesos y actividades realizadas en dichas áreas hacia un mejor
desempeño gubernamental (Serra, en este volumen; Van Dooren et al., 2010; Kaufmann et
al., 2015).
Los diversos instrumentos que podrían considerarse parte de la Gestión para
Resultados tienen lógicas de funcionamiento particulares que vale la pena describir. Los
objetivos, las metas cualitativas (“goals”) y las metas cuantitativas (“targets”) buscan
enfocar el desempeño de los servidores públicos y sus unidades de adscripción, al tiempo
que sirven como punto de partida para saber si una organización o política pública cumplió
(o no) con las exigencias planteadas al inicio de un ciclo político o administrativo (Rose,
1976; Barber, 2007). Los indicadores del desempeño sirven para medir la evolución de
actividades o productos a través del tiempo, por medio de una relación entre dos variables
numéricas (Bonnefoy, 2003; Armijo, 2011). Tomando como base una combinación de los
instrumentos anteriores, las evaluaciones de desempeño individual ofrecen información
cuantitativa y cualitativa sobre la forma en que los funcionarios realizaron sus actividades a
lo largo de un cierto periodo. Dichas evaluaciones de desempeño pueden, a su vez,
vincularse con las remuneraciones salariales de los funcionarios bajo esquemas de pagos
por desempeño, ya sea vía bonos otorgados ocasionalmente o por medio de incrementos
salariales permanentes (Ingraham, 1993).
Otros instrumentos de la Gestión para Resultados suelen enfocarse en niveles más
agregados, es decir institucionales (Guzmán, 2007; Arenas y Berner, 2010; Busjeet, 2013).
Las evaluaciones de desempeño institucional, por ejemplo, en lugar de revisar indicadores y
metas de individuos, se centran en conjuntos de indicadores y metas asociados al
funcionamiento de una organización. Las evaluaciones de programas intentan determinar
en qué medida un conjunto de actividades gubernamentales se desarrollaron o no de

10
acuerdo con su lógica o teoría causal de partida (Larsson y Hanberger, 2016). Las
evaluaciones de política pública persiguen un objetivo similar aunque a un nivel todavía
más agregado: en algunos casos se enfocan en analizar el universo de programas y/o
actividades que forman parte del área de política pública en cuestión, con la idea de revisar
aspectos como la coherencia, la congruencia o la coordinación (Cejudo y Michel, 2016); en
otros, el análisis busca conocer los impactos o efectos de mediano/largo plazo que un
programa o política pública tuvo sobre alguna condición social específica (Skoufias, 2005).
Por su parte, los presupuestos vinculados a resultados son esquemas que buscan estrechar la
relación entre la información del desempeño de los programas y los procesos de
asignación/redistribución del gasto público (Schick, en este volumen; Curristine, 2005;
Joyce, 2011).
Por último, vale la pena destacar otros dos instrumentos actualmente asociados a la
Gestión para Resultados. Primero, los cada vez más numerosos esquemas de “ranking” o
tablas de comparación que, como su nombre lo indica, buscan ubicar los niveles de
desempeño de distintas organizaciones, servicios o áreas de política pública con respecto a
los resultados de desempeño obtenidos por otras unidades comparables (Hood, en este
volumen; Arndt, 2008; Pollitt, 2011; Bevan y Wilson, 2013). Segundo, las recientes
“delivery units” o estructuras de “centro de gobierno” (Dumas et al., 2013; Alessandro et
al., 2014). Éstas son oficinas de alto nivel político-gubernamental, especializadas en dar
seguimiento a ciertos temas estratégicos o prioritarios, para facilitar/asegurar su
cumplimiento puntual y así alcanzar los resultados prometidos por el gobierno en turno. La
siguiente Tabla 2 resume las herramientas antes descritas y sus objetivos particulares.

11
Tabla 2
Instrumentos de Gestión para Resultados

Herramienta Objetivos

Indicadores de Medir niveles de provisión/funcionamiento de servicios a través del


desempeño tiempo

Objetivos, metas
cualitativas (“goals”) Orientar el desempeño de las organizaciones públicas hacia
y metas cuantitativas áreas/acciones prioritarias
(“targets”)
Evaluaciones del
Orientar/comparar/contrastar el desempeño de los funcionarios de
desempeño de los
acuerdo con ciertos parámetros previamente establecidos
funcionarios

Pago por desempeño Recompensar el buen desempeño de los servidores públicos

Evaluaciones del
Analizar el funcionamiento global de las actividades de las
desempeño
organizaciones públicas
institucional

Evaluaciones de Analizar los resultados logrados por los programas y el grado en


programas que los mismos reflejaron su teoría de partida

Analizar la coherencia, congruencia o coordinación de los


Evaluaciones de programas y actividades que integran un área de política pública
políticas públicas determinada; o analizar los impactos (efectos atribuibles) de una
política pública sobre una cierta condición social

Presupuestos
Tomar decisiones presupuestarias a partir de la información sobre el
vinculados a
desempeño de los programas/organizaciones públicas
resultados

Unidades de Gestión Asegurar la coordinación/alineamiento del desempeño de diversas


del Cumplimiento acciones/organizaciones hacia las prioridades del gobierno

Tablas de
Comparar/contrastar el desempeño de organizaciones públicas
comparación/rankings

Fuente: Elaboración propia.

Por supuesto, el listado de la Tabla 2 podría extenderse aún más con otros instrumentos que
son muy cercanos a las prácticas de Gestión para Resultados (Nömm y Randma-Liiv, en
este volumen; OECD, 1997a; Arnaboldi et al., 2015; Kaufmann et al., 2015). Además, es
importante reiterar que existen vínculos estrechos entre la Gestión para Resultados y otros
temas como la Gestión Estratégica (por ejemplo, los ejercicios de establecimiento de
12
objetivos, planeación estratégica y tableros de control; Velasco, 2010), sin cuyas
herramientas sería casi imposible determinar cuáles son los “resultados” específicos que
una organización o programa buscan alcanzar. Algo similar podría decirse respecto de la
Gestión de Calidad (por ejemplo, los esquemas de calidad total, los estándares de
calidad/desempeño o las cartas de compromisos hacia los ciudadanos; véase Aguilar,
2006), cuyos elementos permiten dar un sentido ciudadano más concreto a los esfuerzos por
gestionar el desempeño público. En cualquier caso, el objetivo no es brindar aquí un listado
exhaustivo, sino destacar algunos de los instrumentos que suelen emplearse en las
estrategias reformadoras para mejorar el desempeño de los gobiernos y orientarlos a la
consecución de resultados socialmente valiosos.
En términos empíricos, las experiencias internacionales ofrecen un abanico muy
amplio de combinaciones de instrumentos, las cuales además pueden llegar a variar
sustancialmente a lo largo del tiempo. En el Reino Unido, por ejemplo, desde el gobierno
de Margaret Thatcher a la fecha se han utilizado metas cuantitativas para impulsar mejoras
en la eficiencia organizacional/presupuestal y, más recientemente, para mejorar la eficacia,
oportunidad o calidad de los servicios públicos (OECD, 1997b; Haddon, 2012). Durante la
época del “Nuevo Laborismo” (New Labour, 1997 a 2010), dichas metas (“targets”) se
vincularon a ejercicios más amplios de negociación presupuestal entre los ministerios y el
departamento del tesoro, en el marco de los “Acuerdos de Servicio Público” (Public Service
Agreements) y las “Revisiones Comprehensivas del Gasto” (Comprehensive Spending
Reviews; James, 2004). También en esos años se creó la “Unidad del Primer Ministro para
el Cumplimiento” (Prime Minister’s Delivery Unit), encargada de dar seguimiento y apoyar
la implementación eficaz de los objetivos prioritarios del gobierno central (Barber, 2007).
Aunque estas iniciativas fueron derogadas en 2010, el gobierno británico ha seguido usando
indicadores de desempeño en múltiples trámites y servicios públicos (ver
gov.uk/performance), así como tablas comparativas y ejercicios de “nombrar y poner en
evidencia” (naming and shaming) a las instituciones responsables, en áreas como la
atención en los hospitales públicos o el rendimiento/calidad educativa de las escuelas
(Bevan y Wilson, 2013). Las evaluaciones de programas y las evaluaciones de impacto, en
cambio, parecieran haber tenido menor presencia, así como un uso menos sistemático
durante todo este tiempo (NAO, 2013). Por consiguiente, aun cuando la “gestión basada en

13
números” se ha consolidado en el Reino Unido (Hood, en este volumen), el tipo de
instrumentos y la importancia relativa de los mismos ha cambiado de forma permanente.
También en los países en desarrollo y en transición pueden encontrarse diversas
combinaciones de instrumentos de Gestión para Resultados (Nömm y Randma-Liiv, en este
volumen). El “Sistema de Evaluación y Control de Gestión” de Chile, por ejemplo, se ha
basado históricamente en indicadores de desempeño institucional, evaluaciones de
programas y evaluaciones de impacto. Todos estos instrumentos han formado parte de un
esquema de presupuestación vinculada a los resultados (particularmente desde 2001-2002),
el cual ha logrado un alto grado de institucionalización en el gobierno chileno (Cunnill y
Ospina, 2008; Arenas y Berner, 2010; Dussauge, 2012). Ahora bien, en algunos períodos
presidenciales se han usado temporalmente otros instrumentos, como han sido las metas
ministeriales del gobierno de Patricio Aylwin (1991-1994) o la “Unidad de Gestión del
Cumplimiento” creada durante el gobierno de Sebastián Piñera (2010-2014; véanse
Zaltsman, 2006; Dumas et al., 2013). Así, aun cuando la experiencia chilena de Gestión
para Resultados en buena medida se ha diseñado a partir de ejemplos internacionales como
el del Reino Unido (Dussauge, 2013), aquel país ha desarrollado sus propias combinaciones
de instrumentos, al tiempo que ha puesto diferentes énfasis en los temas de evaluación vis-
à-vis el monitoreo asociado a indicadores.
Aunque la aplicación de los diversos instrumentos de Gestión para Resultados ha
variado entre países, y dentro de cada país a lo largo del tiempo, autores como Geert
Bouckaert y John Halligan (2008:36) han argumentado que es posible esbozar ciertos
sistemas o “tipos ideales”. Tomando como base los mecanismos usados por el gobierno
para medir el desempeño, la manera en que la información producida se incorpora en los
documentos o discursos oficiales, y el grado en que la información se usa realmente en los
procesos de toma de decisiones, dichos autores proponen cuatro “tipos ideales” de gestión
del desempeño (más un sistema de contraste). La Tabla 3 sintetiza la propuesta de
Bouckaert y Halligan y agrega algunos ejemplos nacionales sugeridos por ellos mismos.

14
Tabla 3.
Tipos ideales de sistemas de Gestión para Resultados

Tradicional / Tipo ideal: Tipo ideal: Tipo ideal: Tipo ideal:


previo al enfoque Administración del Esquemas de gestión Gestión del Gobernanza del
en el desempeño desempeño de desempeños desempeño desempeño
(performance (managements of (performance (performance
administration) performances) management) governance)

Medición Intuitiva, Registro de datos Sistemas de medición Sistemas de Sistema


subjetiva administrativos, del desempeño medición del consolidado de
objetivo, enfocado especializados desempeño medición del
principalmente en jerárquicos desempeño
insumos y procesos

Incorporación Ninguna Alguna Depende de los Integración interna Integración


diferentes sistemas sistémica interna y externa
existentes para sistémica
distintas funciones de
gestión

Uso Ninguno Limitado: para Desvinculado Coherente, Uso social


informes, consumo comprehensivo,
interno, un solo consistente
sentido (single loop)

Limitaciones Desconocimiento Ad hoc; selectivo, Incoherente Complejo, quizás Poco controlable


de la utilidad basado en las reglas no es sustentable y poco manejable
potencial del tema como sistema
estable

Ejemplos Grecia Francia, Alemania Holanda, Suecia Australia, Canadá,


nacionales Reino Unido,
Estados Unidos

Fuente: Bouckaert y Halligan (2008:37; con agregados a partir de la información de la p. 50 del


mismo libro).

Las diversas combinaciones de instrumentos de Gestión para Resultados en cada


país y, por lo tanto, las características de lo que pueda llegar a definirse como uno u otro
sistema nacional, no sólo resultan de los cálculos de los funcionarios involucrados en su
diseño. Por el contrario, las tradiciones administrativas nacionales, las dinámicas de
aprendizaje transnacional y las prioridades políticas del momento son algunas de las
muchas variables que determinan los diversos esquemas nacionales (OECD, 1997a; López
Acevedo et al., 2012; Székely, 2014; Pérez y Maldonado, 2016). Por consiguiente, resulta
imposible encontrar dos esquemas de Gestión para Resultados iguales, incluso cuando las
instituciones gubernamentales que han impulsado su desarrollo persiguen los mismos

15
objetivos generales (medir el desempeño, fortalecer la orientación a resultados, mejorar la
rendición de cuentas) y usan instrumentos similares (evaluaciones, indicadores).

Usos y usuarios de la Gestión para Resultados


Por medio de instrumentos como los que ya se han descrito, la Gestión para Resultados
intenta promover la medición y eventual comparación/valoración del desempeño
gubernamental. Ahora bien, dichas mediciones sólo llegan a tener sentido si son usadas
para algún fin, por parte de alguno(s) de los múltiples actores involucrados en los procesos
de gestión y políticas públicas. Puesto en otros términos, los números de los indicadores,
los resultados de las evaluaciones o la “evidencia” sobre el funcionamiento de una
organización o programa carecen de utilidad por sí mismos (salvo, quizás, para los
académicos interesados en la materia; Kettl, 2016). Por consiguiente, la Gestión para
Resultados implica pensar, primero, en mediciones y comparaciones y, segundo, en
decisiones y acciones informadas por éstas (Van Dooren y Van de Walle, 2011).
El “uso” de los datos, las cifras, los hallazgos y las evidencias es un tema tan
fundamental como complicado de resolver en el marco de la Gestión para Resultados.
Aunque la idea de “usar la información de desempeño para gestionar hacia el logro de
resultados” es relativamente simple, en la práctica no lo es pues dicha información puede
usarse de muchas y muy diversas formas. Desde hace ya algunos años Carol Weiss (1979,
1998) apuntó que la información generada por las evaluaciones (y las investigaciones de los
académicos) podía usarse de distintas maneras, desde la aplicación “instrumental” directa
de los hallazgos en el programa público evaluado, hasta una especie de efecto “ilustración”
por medio del cual los hallazgos no se usan inmediatamente, sino que van cambiando las
percepciones sobre el tema evaluado. En tiempos más recientes, y desde una perspectiva de
gestión más que de política pública, Robert Behn (en este volumen) afirmó que, en materia
de “medición del desempeño, el propósito central del gerente público, de hecho su único
propósito, es mejorar el desempeño”. Sin embargo, el mismo Behn menciona que pueden
haber muchos otros propósitos importantes para los gerentes públicos: evaluar, controlar,
presupuestar, motivar, promover, celebrar, aprender. En un sentido similar, Wouter Van
Dooren y sus colegas (2010: 96-101) subrayan que la información de desempeño suele
usarse básicamente para tres fines: aprender, controlar/guiar y rendir cuentas; pero también

16
señalan que la lista podría llegar a incluir hasta 44 formas distintas de usos. Por último,
Gerhard Hammerschmid y sus colegas (2013) hace poco refrasearon y replantearon en parte
los propósitos mencionados por Behn a fin de estudiar cómo los servidores públicos
europeos usan en la práctica la información de desempeño. Como se describe en la Tabla 4,
estos autores resaltan que los diversos “usos” pueden relacionarse además con la dinámica
organizacional interna, o con el ambiente y los actores externos.

Tabla 4
Usos de las mediciones de desempeño en las organizaciones públicas

Ámbito de uso Tipo de uso de la información de desempeño

Valorar si estoy alcanzando mis metas

Monitorear el desempeño de mis subordinados

Interno Identificar problemas que necesitan mi atención

Promover el aprendizaje y la mejora

Satisfacer los requerimientos de mis superiores

Comunicar lo que mi organización hace para los ciudadanos

Involucrarme con los actores externos interesados en mi


Externo organización
Gestionar la imagen de mi organización

Fuente: Elaborado con base en Hammerschmid et al. (2013:265).

Ahora bien, si entender que el “uso” de las mediciones de desempeño es clave para
cerrar el proceso de gestión orientada a resultados, comprender las implicaciones del
término “usos” en plural es igualmente importante. Como ya se ha mencionado, la
medición de desempeño puede referirse a múltiples aspectos de las organizaciones o
políticas públicas analizadas: insumos, actividades, productos, impactos. Por consiguiente,
las mediciones de insumos o actividades probablemente serán relevantes si el objetivo es
controlar el desempeño de una unidad burocrática, pero serán menos útiles si lo que se
busca es rendir cuentas a la sociedad. A la inversa, las mediciones sobre impactos pueden
ser pertinentes para promover (Behn) o comunicar (Hammerschmid et al.) el desempeño de
una organización o programa determinados; pero quizás sean menos informativos para

17
tomar decisiones cotidianas respecto de su gestión. Aunque es difícil proponer reglas claras
sobre cuáles deben ser los vínculos entre los diversos “usos” y las distintas “mediciones del
desempeño” (Behn, este volumen), el tema es fundamental para el desarrollo de prácticas
efectivas de Gestión para Resultados.
Por otra parte, el uso de la información de desempeño es una tarea compleja no sólo
porque hay una multiplicidad de “usos”, sino porque además existen distintos grupos de
“usuarios”, cuyos intereses, características y capacidades analíticas son diversos. Como se
describe en la Tabla 5, existen por lo menos seis grandes grupos de actores o usuarios
potenciales. En primer lugar se encuentran obviamente los operadores, administradores o
gerentes públicos que son responsables de los programas o servicios, y que por lo tanto
están interesados principalmente en saber cómo éstos están funcionando en el día a día. Un
segundo grupo de usuarios está integrado por sus superiores jerárquicos, quienes necesitan
información que les permita tanto controlar el funcionamiento de sus unidades, como tomar
decisiones acerca de la asignación de recursos o la (re)orientación de los programas. Las
personas en puestos de designación política (es decir los titulares de las secretarías, los
organismos descentralizados, las agencias, entre otros) forman un tercer grupo de actores
que requieren información de desempeño, aunque en este caso el interés probablemente se
centre en tener una idea general de cómo están avanzando las cosas y, sobre todo, de los
resultados que en términos agregados se están alcanzando (o no).
Más allá del ámbito gubernamental, la información del desempeño tiene
implicaciones sociales y políticas y, por lo tanto, puede ser usada por actores ajenos al
gobierno. Así, un cuarto grupo de usuarios son los integrantes del poder legislativo, para
quienes este tipo de información puede ser útil al revisar/valorar el desempeño general de
las instituciones del poder ejecutivo, al negociar las partidas presupuestales e incluso al
discutir la aprobación de nuevas leyes que sustenten (o reformen) las políticas y los
programas públicos existentes. En términos más amplios, los ciudadanos (y demás actores
sociales) representan un quinto grupo de usuarios potenciales de la información de
desempeño gubernamental, para quienes los datos y evidencias respecto de los servicios o
programas públicos se relacionan directamente con sus vidas cotidianas y con la imagen
que tienen de sus gobiernos. Finalmente, los medios de comunicación pueden encontrar en
los documentos de desempeño información útil para desarrollar reportajes, criticar el

18
funcionamiento de las políticas o instituciones gubernamentales, y contribuir a que las
autoridades realmente rindan cuentas.

Tabla 5
Usuarios de la información de desempeño

Usuarios Tipo de Énfasis en... Grado de Grado de Horizonte


información de motivación para conocimiento de temporal en la
desempeño involucrarse en los aspectos mente del
usada el uso de la técnicos del tema usuario de la
información información
Operadores y Información del Aprendizaje, Alto Alto Medio/largo
gerentes de programa mejora plazos
programas

Mandos Información del Control, toma de Alto Medio Medio plazo


superiores programa, decisiones
desempeño del
programa

Secretarios y Desempeño del Control, rendición Medio Bajo/medio Corto/medio


demás programa, de cuentas plazo
autoridades de reportes
designación
política

Miembros del Reportes Rendición de Bajo/medio Bajo Corto plazo


poder periódicos/anuales cuentas
legislativo de desempeño,
proyecciones de
los programas

Ciudadanos Publicaciones e Rendición de Bajo/medio Bajo Corto plazo


información cuentas, mejora
específica de los
servicios

Medios de Análisis de Rendición de Bajo/medio Bajo Corto plazo


comunicación macro-tendencias, cuentas
reportes anuales,
tablas de
comparación

Fuente: Elaborado a partir de Van Dooren et al. (2010:118) y Pollitt (2013:350), con ciertas
modificaciones.

La Tabla 5 ofrece algunas ideas respecto de factores como el tipo de información que
buscan estos usuarios; los objetivos que persiguen al usarla en sus procesos de
decisión/gestión; qué tanto realmente les interesa conocer esta información de desempeño y

19
qué tanto conocimiento especializado poseen sobre la misma; y el tipo de horizonte
temporal que tienen en mente al revisar los datos, números y evidencias a las que tienen
acceso (Van Dooren et al., 2010; Pollitt, 2013). Por supuesto, los contenidos de la tabla no
son concluyentes, sino que tan sólo sugieren algunas hipótesis. En cada uno de los temas
bien podrían agregarse elementos o modificarse las aseveraciones dependiendo del tipo de
organización, programa o área de política pública de los que se trate. Además, la tabla
tampoco incluye información sobre el tipo de mecanismos que pueden usarse para
comunicar esta información de desempeño a cada uno de los grupos de usuarios, tema por
demás fundamental a fin de volver realidad los supuestos de la Gestión para Resultados.

Los retos de la Gestión para Resultados


La Gestión para Resultados ofrece un conjunto de ideas e instrumentos valiosos, pero los
procesos de diseño e implementación de los mismos suelen venir acompañados de
importantes retos (Bouckaert y Balk, 1991; Van Thiel y Leeuw, 2002; de Bruijn, 2009). De
hecho, para cada una de las actividades vinculadas con el diseño y operación de los
instrumentos de Gestión para Resultados, así como respecto del uso de los datos y las
evidencias por parte de los diversos grupos de actores ya mencionados, es posible apuntar
cuestiones problemáticas que condicionan e incluso llegan a desviar los esfuerzos en la
materia. Por supuesto, los retos pueden convertirse o no en situaciones reales en uno u otro
sistema de Gestión para Resultados. Además, como se discutirá más adelante, existen
algunas medidas que pueden ser más o menos útiles a fin de controlar estos retos
(Dussauge, 2016a).
Un primer reto tiene que ver con el diseño institucional de los sistemas de Gestión
para Resultados. Por un lado, dada la importancia que el tema ha adquirido en todo el
mundo, hoy en día abundan tanto las buenas prácticas y los modelos internacionales de
referencia, como los manuales técnicos sobre cómo diseñar los indicadores, las
evaluaciones y los demás instrumentos de orientación a resultados que ya se han
mencionado (Banco Mundial et al., 2008; Busjeet, 2013). Por el otro lado, cada
organización pública y cada gobierno enfrentan condiciones político-administrativas
particulares. En este sentido, es fácil y hasta necesario resaltar la importancia de construir
un sistema de Gestión para Resultados, pero también es difícil definir sus características a

20
fin de asegurar que el mismo será efectivo en la práctica. ¿Qué organizaciones/áreas de
política pública deben incluirse en el sistema? ¿Quién debería llevar el liderazgo político
y/u operativo del mismo? ¿Qué instrumentos deberían usarse y bajo qué condiciones? ¿Qué
participación deben tener los actores gubernamentales y qué rol debe asignarse a otros
actores, como los consultores externos o las universidades públicas? ¿Cómo asegurar que el
sistema será sustentable a lo largo del tiempo? Todas éstas son preguntas muy complicadas
de responder, que si bien pueden atenderse recurriendo a esquemas generales (Kaufmann et
al., 2015; SHCP, 2016; CONEVAL, 2016), en la práctica implican decisiones llenas de
“trade-offs”, en donde algún elemento o aspecto incluido pesa más que otros dejados fuera,
sin que realmente sea posible saber si las decisiones tomadas fueron correctas (Székely,
2014). A esto habría que sumar, además, que las ideas sobre un “buen diseño institucional”
necesariamente estarán condicionadas por los factores políticos, los equilibrios burocráticos
y los cambios de gobierno.
Un segundo reto de la Gestión para Resultados se encuentra en el tema de la
medición del desempeño. Como señala Hood (2007:100), “el error en la medición es
inevitable en cualquier intento por cuantificar”. Tanto los indicadores como los demás
instrumentos usados en las evaluaciones individuales/institucionales de desempeño, o
incluso en las evaluaciones de programas, pueden enfrentarse con problemas de diversa
índole (OECD, 2009; Van Dooren et al., 2010; Pollitt, 2013). Estos pueden ir desde los
“errores de dedo” involuntarios al capturar la información en las bases de datos y los
sistemas de información, hasta las complejidades de medir válida y confiablemente los
diversos temas de interés, pasando por las dificultades para atribuir correctamente los
resultados del desempeño estudiado. Además, las mediciones comúnmente se modifican
durante los periodos analizados, ya sea porque se considera pertinente ajustar los criterios
de medición (rangos, muestras, periodos de tiempo, categorías); porque se decide que
algunas mediciones en realidad no son tan importantes y es mejor desecharlas; o porque se
considera pertinente agregar nuevas mediciones y, por consiguiente, se vuelve necesario
alterar las ponderaciones iniciales. La experiencia de las reformas tipo NGP del Reino
Unido sirve para ilustrar algunos de estos problemas. Christopher Hood y Ruth Dixon
(2015) trataron de analizar los efectos de dichas reformas en la mejora del desempeño
gubernamental, pero encontraron que, a lo largo del tiempo, el gobierno británico había

21
hecho numerosos cambios en las categorías y denominaciones contables, presupuestales y
de personal, entre otras. Por consiguiente, les fue muy difícil saber si las organizaciones
públicas y los servicios públicos británicos son ahora más eficientes/eficaces que hace
treinta años o no.
El tercer reto que enfrenta la Gestión para Resultados se encuentra en los
potenciales comportamientos inadecuados (cuando no francamente indeseables) que se
desatan como resultados de los esfuerzos de medición (Bevan y Hood, 2006a, 2006b; de
Bruijn, 2009; OECD, 2009). Diversas investigaciones han mostrado que los servidores
públicos en ocasiones caen en conductas que distorsionan los niveles de desempeño, que
son “tramposos” o “mañosos” (lo que en inglés se denomina “gaming”; Hood, en este
volumen), o que son abiertamente inapropiados (“cheating”; Pollitt, 2013). En el primer
caso, los servidores públicos puede ser que concentren su desempeño en objetivos o metas
que están siendo medidos, pero que no constituyen algo verdaderamente importante para la
organización o programa (“hitting the target and missing the point”). En el segundo caso,
los servidores públicos pudieran establecer metas cuantitativas futuras similares a las
alcanzadas en el pasado, que no reflejan su verdadero potencial de desempeño, pero que les
evitan el riesgo de ser exigidos con metas mucho más altas y difíciles de alcanzar (efecto
“trinquete”, o “ratchet effect”). O puede ser que se enfoquen en atender las necesidades de
los beneficiarios más fáciles de atender (por ejemplo, pacientes que puedan curarse rápido,
o estudiantes que con un poco de supervisión logran aprobar sus exámenes), a fin de
asegurar el cumplimiento de las metas establecidas (lo que en inglés se conoce como
“cherry picking” o “cream skimming”). Por último, existe siempre el riesgo latente de que
los números malos “desaparezcan”, o que se informen datos alterados con tal de salir bien
en las evaluaciones correspondientes. Tomando como base la experiencia británica en la
gestión de metas en el sector salud, la Tabla 6 da cuenta de algunos ejemplos empíricos
concretos.

22
Tabla 6
Ejemplos de “estrategias tramposas”
en respuesta a tres distintas metas de desempeño

Metas

Problema Tiempo de espera en las áreas de Llamadas a ambulancias categoría Tiempos máximos de admisión
urgencia menor a 4 horas A (atención provista en menos de 8 para primera hospitalización
minutos en el 75% de las llamadas)

Bajo desempeño Personal adicional llevado al área Hay fuertes acusaciones de que
en áreas en de urgencias y cancelación de algunas clínicas reubicaron sus
donde el operaciones durante el periodo de paraderos de ambulancias de zonas
desempeño no tiempo en el que se midió el rurales a urbanas para poder
se mide desempeño alcanzar la meta, en detrimento del
servicio provisto a las zonas rurales

Alcanzar una Los pacientes tenían que esperar en La aplicación de criterios diversos Los pacientes quizás fueron
meta pero dejar las ambulancias afuera del área de en las reglas de clasificación removidos de las listas de espera
a un lado lo urgencias hasta que el personal llevaron a que pacientes con una vez que recibieron una fecha
verdaderamente estaba seguro de que alcanzaría la niveles de urgencia altos recibieran de cita futura, o se les dieron citas
importante meta un trato menos rápido que algunos inmediatas a las que no pudieron
casos no tan graves asistir y por lo tanto se les
clasificó como pacientes que no
aceptaron el tratamiento, o se les
suspendió su tratamiento
incorrectamente

Ambigüedad o El nivel de desempeño reportado al Problemas en la definición de las Nueve hospitales del Servicio
“maquillaje” de Departamento de Salud en 2004- llamadas de categoría A (la Nacional de Salud (National
datos en los 2005 fue de 96%, pero una proporción de las llamadas Health Service) habían ajustado
reportes encuesta independiente de los registradas varió en más de cinco sus listas de espera de forma
pacientes reportó un nivel de 77% veces) y ambigüedad en el tiempo incorrecta; otros tres habían
medido desde que se inició el reportado equivocadamente sus
conteo en el reloj. Un tercio de las listas de espera de manera
clínicas había “corregido” los deliberada; y 19 clínicas habían
tiempos de respuesta a números reportado errores en por lo menos
menores que 8 minutos un indicador

Fuente: Bevan y Hood (2006b: 421) con algunas modificaciones.

Por último, las prácticas de Gestión para Resultados enfrentan continuamente el reto
de quedarse como algo de lo que todo mundo habla, pero que tiene limitada influencia en
los ejercicios cotidianos de aprendizaje, evaluación, rendición cuentas o mejora. Puesto en
otros términos, que el desempeño gubernamental se mida con regularidad por medio de
diversos indicadores, evaluaciones o rankings, o incluso que la información generada se
haga pública, no implica que los operadores de los programas, los mandos políticos, los

23
ciudadanos y demás usuarios potenciales realmente utilizarán los datos y hallazgos para
decidir, actuar, opinar o exigir explicaciones (Schick, en este volumen). Por el contrario,
existe amplia evidencia empírica de situaciones en donde la información de desempeño se
genera, se reporta, pero no se usa (o se usa poco y mal). Por ejemplo, la Government
Accountability Office (2014) de los Estados Unidos ha encontrado que muchas oficinas
federales no usan con regularidad y eficacia la información de sus sistemas de gestión de
Desempeño. En este mismo sentido, la National Audit Office del Reino Unido (2013) ha
detectado que los ministerios británicos no suelen tomar en cuenta los hallazgos de las
evaluaciones realizadas con la seriedad que ameritan. Por otra parte, la experiencia
internacional muestra que los vínculos entre información de desempeño y decisiones
presupuestales siguen siendo poco sistemáticos (Curristine, 2005; Joyce, 2011), y que los
actores sociales no necesariamente son “consumidores” asiduos de los reportes de
desempeño publicados (Pollitt, este volumen). En fin, el mismo caso mexicano ha dejado
ver que las informaciones y evidencias sobre los “resultados” de los programas públicos no
se incorporan con facilidad y regularidad en los procesos decisionales (Cejudo y
Maldonado, 2011; Pérez et al., 2016).
Por supuesto, detrás de todos y cada uno de estos retos potenciales de la Gestión
para Resultados existen explicaciones y variables de muy diversa índole (de Julnes y
Holzer, 2001; Moynihan, 2008; Hammerschmid et al., 2013). En algunos casos, el
problema tiene que ver con los promotores de las reformas de Gestión para Resultados,
quienes las entienden como meros ejercicios “simbólicos” de legitimación política o
prestigio internacional (Cunill y Ospina, 2008). Asimismo, en ocasiones los políticos y
funcionarios involucrados pudieran pensar que lo importante es “adoptar” las prácticas de
Gestión para Resultados porque así lo mandata la legislación, pero una vez aprobados los
cambios normativos, o creados los nuevos sistemas de medición/información de
desempeño, se olvidan de su operación. En algunas situaciones, esto tiene que ver con
resistencias políticas internas (por ejemplo, los funcionarios no quieren que se les evalúe), o
con los valores y comportamientos que integran las diversas culturas organizacionales en
donde se aplican los instrumentos de Gestión para Resultados (Hood, en este volumen). Por
último, en muchos casos las limitaciones de la Gestión para Resultadas parecieran estar
asociadas a sus propias complejidades técnicas y a la falta de experiencia de los servidores

24
públicos encargados del tema, ya sea para diseñar y gestionar los esquemas de medición,
para analizar la información generada por éstos o para construir mecanismos de
comunicación que respondan a las necesidades informativas y a los procesos decisionales
de los diversos grupos de usuarios de la información.
Todos estos factores subrayan los retos y complicaciones que pueden rodear los
procesos de diseño, gestión y uso sistemático de los instrumentos y esquemas de Gestión
para Resultados. Sin embargo, como se discutirá en el siguiente apartado, también ofrecen
pistas importantes sobre qué hacer para prevenir o corregir dichos retos y complicaciones a
fin de orientar las estructuras y procesos gubernamentales hacia una medición eficaz del
desempeño organizacional y programático, y por lo tanto hacia los fines últimos de la
Gestión para Resultados.

Hacia la institucionalización efectiva de la Gestión para Resultados


En su libro ya citado, Bouckaert y Halligan (2008:13) afirman que, “[l]a gestión del
desempeño representa el corazón de la gestión pública, especialmente de la NGP: ¿es
posible pensar en la gestión del sector público sin que se tomen en cuenta la búsqueda de
resultados y la medición del desempeño?”. A partir de lo que se ha discutido en estas
páginas, queda claro que la respuesta es NO: hoy en día, la Gestión para Resultados es algo
tan necesario en términos administrativo-gerenciales, como ineludible en términos políticos
y sociales. Puesto en otros términos, mejorar el desempeño de las organizaciones y
programas públicos para que alcancen resultados socialmente valiosos se ha vuelto una
tarea indispensable de los Estados democráticos contemporáneos (Pollitt y Bouckaert,
2011; Aguilar, 2006, 2013; Santiso et al., 2014). Ahora bien, ¿qué hacer frente a una
Gestión para Resultados que, de acuerdo con Ingraham (2005), nos ha puesto sobre la mesa
un conjunto de “promesas que debemos mantener”, pero en la práctica ha mostrado que
todavía queda “mucho camino por andar”?
La buena noticia es que la experiencia acumulada no sólo ha develado los retos de la
Gestión para Resultados, sino que ha ido aportando ideas útiles sobre las acciones que
pueden ayudar a su mejor funcionamiento. De hecho, la mera descripción de retos
potenciales constituye una guía útil para los actores involucrados en procesos de reforma de
este tipo, pues les permite anticipar áreas problemáticas (Bouckaert y Halligan, 2008: 200).

25
Aunque no es posible ofrecer recetas infalibles, la Tabla 7 sintetiza algunas propuestas de la
literatura reciente.

Tabla 7
Sugerencias para asegurar un esquema de
Gestión para Resultados eficaz y sustentable

Sugerencias de Sugerencias del


Keith Mackay Banco Interamericano de Desarrollo

 Debe existir una demanda institucional clara por  Ajustar las normas administrativas del sector público para
información del desempeño alinearlas con los conceptos de gestión orientada a
resultados, calidad del servicio y buen desempeño
 El sistema debe venir acompañado de incentivos
adecuados (el uso de la información no ocurre sólo  Establecer procedimientos para el uso de la información
porque sí) sobre el desempeño que producen los sistemas de
seguimiento y evaluación en el diseño y la gestión de
 Debe realizarse un análisis de las condiciones y políticas
esquemas de monitoreo y evaluación ya existentes
 Promover la integración efectiva entre la planificación
 La presencia de “lideres” que impulsen el tema es estratégica y el presupuesto público
importante
 Reformular los procedimientos para que en las distintas
 Debe existir una base institucional sólida etapas del proceso presupuestario se incorpore información
sobre el desempeño pasado y esperado
 El sistema no se debe sobre-diseñar (muchos
indicadores, muchas herramientas)  Promover que los órganos de control externo orienten su
acción a la mejora y la rendición de cuentas de los
 Debe desarrollarse un fuerte esquema de resultados de la gestión pública, y establezcan mayores
capacitación (inicial, continua) vínculos de comunicación y difusión de información a la
ciudadanía
 Se requiere de un esfuerzo de largo plazo
 Reforzar la planificación sectorial orientada a resultados,
integrándola plenamente con la planificación nacional y la
planificación de las inversiones

 Implementar estrategias de mejoramiento de la calidad en la


prestación de servicios

 Desarrollar sistemas de seguimiento basados en un grupo


priorizado, reducido y relevante de indicadores

 Construir capacidades institucionales en materia de


evaluación, con un plan multianual de evaluaciones de
políticas, programas y proyectos

Fuente: Elaboración propia con base en Mackay (en este volumen) y Kaufmann et al. (2015).

26
Más allá de los detalles específicos de la Tabla 7, hay por lo menos cuatro temas
generales que ameritan una breve discusión. Antes que todo, es importante entender que los
sistemas de Gestión para Resultados se construyen a partir de lo que existe (o no) en las
organizaciones públicas (Schick, en este volumen; Ingraham et al., 2003). Si no hay las
capacidades institucionales mínimas, como pudieran ser algunos funcionarios con
conocimientos esenciales sobre Gestión para Resultados, bases de datos históricos y
actuales para dar seguimiento y comparar desempeños a lo largo del tiempo, y sistemas
informáticos para compartir y gestionar las mediciones generadas, será difícil que un
esquema de este tipo funcione (Hatry, 2012). Ahora bien, esto no quiere decir que sea
necesario esperar a que las instituciones gubernamentales funcionen a la perfección, algo
que ni en los países desarrollados sucede. Por el contrario, lo interesante del punto es que el
deseo de impulsar una Gestión para Resultados se convierte en una oportunidad
extraordinaria para “arreglar la casa”: mejorar las capacidades analíticas y técnicas del
personal; depurar/construir bases de datos y fuentes de información; (re)organizar los
esquemas internos de gestión y comunicación; y realinear el desempeño institucional hacia
los resultados que son importantes para la sociedad. Así, más que ser temas opuestos, la
construcción de las capacidades institucionales y la Gestión para Resultados en realidad son
temas complementarios.
La literatura también destaca que las tareas de diseñar y supervisar la aplicación de
metas, indicadores y esquemas de medición resultan complejas, pero que existen diversas
estrategias para lograr que las mismas se desarrollen de forma productiva. Ya se ha
mencionado antes, por ejemplo, la importancia de distinguir qué se quiere medir, con qué
propósitos y para qué usuarios. Aunque esto suena obvio, en la práctica no lo es tanto y en
ocasiones los sistemas de medición se complejizan innecesariamente, creciendo “como
hongos” (de Bruijn, 2009: 39-43). Lo que se mide se puede gestionar/mejorar, pero no todo
se tiene que medir, ni se debe medir de la misma forma, ni a todos los actores
(organizacionales o externos a la organización) les interesan las mismas mediciones. Por lo
tanto, los ejercicios de medición, comparación y/o evaluación deberían guiarse por los
objetivos particulares de cada esquema, las características de la organización o gobierno en
los que se inserten, y las necesidades de sus usuarios potenciales (Behn, Hood, Pollitt, en
este volumen). La experiencia internacional también sugiere involucrar continuamente a

27
quienes serán medidos/evaluados en los ejercicios de definición de criterios, indicadores y
demás elementos a utilizar. Por otra parte, la definición de metas compartidas (entre grupos
u organizaciones), las revisiones aleatorias y/o por parte de actores externos, la mejora
permanente de los instrumentos y mediciones aplicados, la comparación con experiencias
externas similares y la publicación de los datos de desempeño (que se consideren
pertinentes) son un conjunto de medidas que pueden ser útiles para evitar los potenciales
comportamientos tramposos ya descritos (OECD, 2009; Pollitt, 2013; Bevan y Wilson,
2013).
Así como es importante definir con claridad qué aspectos del desempeño medir y
cómo hacerlo, resulta también indispensable comprender que los sistemas de Gestión para
Resultados (valga la redundancia) deben ser gestionados para que den resultados. La
adopción de conceptos y principios jurídicos, lo mismo que la creación formal de áreas
administrativas dedicadas al tema constituyen pasos necesarios para asentar un enfoque de
Gestión para Resultados. Pero cumplir con los criterios descritos en legislaciones generales
o los “checklists” de buenas prácticas internacionales sirve de muy poco si no se crea un
entorno institucional que apoye sistemáticamente la gestión del desempeño orientado a
resultados. Por consiguiente, es necesario crear un ambiente en donde se pueda hablar
franca y abiertamente de las mediciones, los datos y las evidencias arrojados
periódicamente, así como de las razones por las cuales ciertas metas u objetivos pudieran
no haberse cumplido. Asimismo, es fundamental que los responsables de coordinar las
mediciones y evaluaciones (externas) se aseguren de que existen (o se desarrollarán) los
mecanismos necesarios para comunicar oportuna y claramente los hallazgos/evidencias a
los usuarios de la información de desempeño. Esto implica considerar tiempos, formatos y
rutinas de presentación “hechos a la medida”, que se ajusten a las necesidades informativas
específicas de cada uno de los grupos de usuarios (Pollitt, en este volumen). La oportunidad
y pertinencia de la información provista deben verse como aspectos igual de importantes
que la cantidad y la calidad de la misma.
Finalmente, es necesario apuntar que el diseño e implementación de instrumentos de
Gestión para Resultados debe entenderse como un proyecto de mediano-largo plazo, y esto
por varias razones. Primero, el proceso de construcción de capacidades institucionales y el
desarrollo de esquemas de medición difícilmente pueden realizarse de forma adecuada en el

28
corto plazo, pues ambas tareas requieren adquirir nuevos conocimientos especializados,
aplicar nuevas técnicas y, en términos más amplios, entrar en una compleja dinámica de
ensayo-error-aprendizaje. Segundo, los alcances y las limitaciones de los diversos
instrumentos sólo pueden entenderse a cabalidad una vez que las organizaciones públicas
los han puesto en práctica, y han visto qué se ajusta o no a sus estructuras, valores y
procesos organizacionales internos. Las investigaciones más recientes han mostrado que los
esquemas de Gestión para Resultados van funcionando mejor en la medida en que sus
rutinas de medición/información se van institucionalizando (Moynihan y Kroll, 2016), pues
las organizaciones van aprendiendo a usar los datos disponibles para mejorar su gestión
interna (GAO, 2014), los hallazgos de las evaluaciones empiezan a vincularse con las
decisiones programático-presupuestales (Arenas y Berner, 2010; Cejudo y Maldonado,
2011), y los responsables pueden ir adaptando los sistemas a las condiciones cambiantes de
sus entornos político-administrativos (Buntin, 2016). Por todo lo anterior, la construcción
de un sistema de Gestión para Resultados no debe plantearse como una innovación pasajera
y de aplicación rápida, sino como un proceso “sustentable”, es decir en desarrollo continuo
y con la capacidad de perdurar a través del tiempo (Mackay, en este volumen).

La Gestión para Resultados en México


Los diversos temas que se han tocado en los apartados previos han estado presentes, de una
u otra forma, en nuestro país (Dussauge, 2013, 2016b). Desde por lo menos la década de
1990, los gobiernos mexicanos (primero el federal y más recientemente los subnacionales)
han impulsado iniciativas asociadas a la Gestión para Resultados. Durante el sexenio del
Presidente Ernesto Zedillo (1994-2000), por ejemplo, el Programa de Modernización de la
Administración Pública (PROMAP, 1995-2000) y la “Nueva Estructura Programática-
Sistema de Evaluación de Desempeño” introdujeron las primeras referencias conceptuales a
la Gestión para Resultados (“indicadores”, “estándares de desempeño”, “eficiencia”,
“eficacia”). En ese mismo sexenio se realizó la evaluación de impacto al Programa de
Educación, Salud y Alimentación (PROGRESA; véase Skoufias, 2005), que habría de
convertirse en un parteaguas en temas de evaluación en el país. Posteriormente, en el
gobierno del Presidente Vicente Fox (2000-2006) se estableció un “Sistema de Metas
Presidenciales”, por medio del cual se daba seguimiento a un conjunto de objetivos e

29
indicadores considerados como prioritarios por el Presidente y su gabinete (Diener, 2007).
También se crearon el Instituto Nacional de Evaluación para la Educación (INEE, 2002) y
el Consejo Nacional de Evaluación de la Política Social (CONEVAL, 2004), los cuales se
convirtieron en organismos constitucionalmente autónomos en el actual gobierno del
Presidente Enrique Peña Nieto (2012-2018).
Ahora bien, los elementos esenciales de lo que suele verse como el “sistema”
mexicano en la materia surgieron durante la parte final del sexenio del Presidente Fox y en
el gobierno del Presidente Felipe Calderón (2006-2012; Castro et al., 2009; Pérez et al.,
2016). En 2006 se reformó la Ley Federal de Presupuesto y Responsabilidad Hacendaria y
en 2008 se aprobó la nueva Ley General de Contabilidad Gubernamental, las cuales
establecen los fundamentos jurídicos de un nuevo “sistema de evaluación de desempeño”
asociado a un esquema de “presupuesto basado en resultados” más amplio. También en
2008 se reformó el artículo 134 de la Constitución para determinar que todos los recursos
públicos “se administrarán con eficiencia, eficacia, economía, transparencia y honradez
para satisfacer los objetivos a los que estén destinados”, al tiempo que se definió que “[l]os
resultados del ejercicio de dichos recursos serán evaluados por las instancias técnicas que
establezcan, respectivamente, la Federación, los estados y el Distrito Federal, con el objeto
de propiciar que los recursos económicos se asignen en los respectivos presupuestos en los
términos del párrafo anterior”. Finalmente, en 2007 se aprobaron los “Lineamientos
Generales para la Evaluación de Programas”, que entre otras cosas describen los diversos
tipos de evaluación que pueden usarse en el ámbito federal; en el mismo año se empezaron
a publicar los “Planes Anuales de Evaluación”, que enlistan los programas sociales
federales por evaluar cada año; y en 2008 se creó el “Mecanismo para el seguimiento de los
aspectos susceptibles de mejora”, que intenta vincular los hallazgos de las evaluaciones con
una serie de compromisos de mejora por parte de las instituciones públicas evaluadas.
Como en el caso de otros países, los instrumentos de Gestión para Resultados
usados en la experiencia mexicana han enfrentado ciertas limitaciones. Por ejemplo,
pareciera que la abundante información sobre el desempeño de los programas públicos no
ha sido plenamente aprovechada por los usuarios potenciales de la misma, ya sea para
mejorar (operadores de programas), para controlar (secretarios de estado) o para exigir
cuentas (legisladores y ciudadanos). Así, salvo alguna que otra excepción más o menos

30
documentada (Cejudo y Maldonado, 2011; Cardozo, 2013), los vínculos entre los
datos/hallazgos obtenidos y las decisiones programáticas/presupuestales tomadas siguen
siendo limitados (CONEVAL, 2015b: 57). Además, como en otros casos internacionales
(incluyendo el británico y el chileno, descritos arriba), el énfasis que se ha puesto en otros
instrumentos potencialmente valiosos (los indicadores de gestión del gobierno de Zedillo, o
las metas presidenciales del gobierno de Fox) se ha desvanecido a la par de los cambios
sexenales.
Dicho lo anterior, la experiencia mexicana en el ámbito federal sí pareciera haber
obtenido algunos logros importantes. De acuerdo con los análisis del Banco Interamericano
de Desarrollo resumidos en la Tabla 8, México es uno de los países de la región
latinoamericana que más han avanzado en establecer las bases normativas y los
fundamentos operativos de un esquema de Gestión para Resultados (Kaufmann et al.,
2015). De hecho, los análisis de otras organizaciones internacionales y especialistas
académicos han sido igualmente positivos en términos generales (Castro et al., 2009; Pérez
et al., 2016).

Tabla 8
Países que encabezaron cada uno de los pilares
de Gestión para Resultados en 2013

Pilar Países (en orden alfabético)

Planificación orientada a resultados Brasil, Colombia, Ecuador, México

Presupuesto por resultados Brasil, Chile, México, Perú

Gestión financiera pública Brasil, Chile, Colombia, México

Gestión de programas y proyectos Brasil, Chile, Colombia, México

Seguimiento y evaluación Brasil, Chile, Colombia, México

Fuente: Elaborado a partir de Kaufmann et al. (2015: xxvi).

En términos más específicos, también pareciera haber evidencia considerable


respecto de los avances en el ámbito federal mexicano durante la última década: el diseño y
alineación estratégica de los indicadores que se usan como base para los ejercicios de

31
monitoreo y evaluación de programas sociales parecieran haber mejorado a través del
tiempo (CONEVAL, 2015a); se han aplicado poco más de 1,700 evaluaciones, con base en
criterios y plazos claros y ordenados (CONEVAL, 2015b: 56); se han expandido las áreas
dedicadas a la evaluación en todas y cada una de las secretarías de estado; y se han ido
fortaleciendo las capacidades institucionales con la adquisición de conocimientos
especializados en temas de medición y evaluación, y el desarrollo de sistemas para
gestionar la información de desempeño dentro del gobierno, así como para hacerla pública
a la sociedad (Dussauge, 2016b).
En lo que corresponde al ámbito subnacional mexicano, es posible apuntar algunos
avances en materia de Gestión para Resultados, si bien es indispensable subrayar que han
sido más lentos, de menor alcance y con un alto grado de heterogeneidad entre entidades
federativas. En un estudio reciente de la Secretaría de Hacienda y Crédito Público (2016)
sobre “la situación de la implantación del PbR-SED en entidades federativas” (que revisa
temas de evaluación, planeación, transparencia, capacitación, adquisiciones y recursos
humanos, entre otros) se mencionan los siguientes resultados: 23 gobiernos estatales han
alcanzado un avance mayor al 70% global de implementación (nivel satisfactorio), 3 tienen
un avance de entre 60% y 70%, 3 muestran un avance de entre 50% y 60%, y 3 más se han
quedado debajo del 50% de avance. Por otra parte, en otro estudio también reciente de
CONEVAL (2016) sobre los avances en monitoreo y evaluación en las entidades
federativas (que revisa cuestiones relacionadas con la legislación de desarrollo social, las
reglas de operación, y los indicadores de gestión, entre otras) se ofrece un panorama
similar: 6 entidades muestran un avance “alto”, 9 tienen un avance “medio-alto”, 11 han
logrado un avance “medio”, 3 muestran un avance “medio-bajo” y 3 sólo han obtenido un
avance “bajo”. En resumen, los temas vinculados a la Gestión para Resultados parecieran
haber ganado una presencia considerable en la mayoría de los gobiernos estatales.
Sin embargo, dichos avances en buena medida han estado relacionados con la
aprobación o adaptación de los marcos normativos subnacionales, generalmente tratando de
ajustarlos al modelo de Gestión para Resultados que se ha impulsado en todo el país. Por
supuesto, los estudios destacan que las cosas también han ido mejorando en términos
operativos a lo largo del tiempo. Sin embargo, la limitada evidencia empírica cualitativa
sobre casos específicos (incluyendo las entidades líderes en la materia, como Jalisco o la

32
Ciudad de México) pareciera mostrar que las transformaciones jurídicas y la introducción
formal de nuevos instrumentos aún no han venido acompañadas de cambios sustanciales en
las rutinas organizacionales de los gobiernos estatales (Paz et al., 2013; Ballescá, 2013;
Dussauge, 2016c). Por el contrario, las limitadas capacidades en la materia (tanto entre los
servidores públicos como entre los evaluadores externos), la ausencia de bases de datos y
sistemas de gestión de la información confiables, y la limitada coordinación entre los
actores involucrados son variables que han condicionado los avances de la Gestión para
Resultados en los ámbitos subnacionales del país. Aunque el escenario actual es complejo,
no está de más mencionar que la experiencia de otros sistemas federales (e.g. Estados
Unidos) sugiere que la Gestión para Resultados tiende a ser más difícil de implementar en
los gobiernos estatales (Moynihan, 2006). Además, esta misma evidencia pareciera mostrar
que los esfuerzos sostenidos, la experiencia acumulada y la capacidad de aprendizaje
permiten eventualmente construir esquemas subnacionales tan sólidos y efectivos como los
que llegan a establecerse en los ámbitos nacionales (Ingraham, et al., 2003; Buntin, 2016).

La Gestión para Resultados en los textos de este libro


Las páginas previas han tocado un conjunto de temas básicos que, de una u otra forma,
cruzan los análisis y discusiones de los seis textos incluidos en este volumen. En el primer
capítulo, Allen Schick, destacado profesor norteamericano que además ha sido asesor de la
OCDE por muchos años, ofrece un buen panorama general de las transformaciones
contemporáneas del Estado y la administración pública. Con un lenguaje sencillo y
didáctico, Schick explica cómo y por qué la orientación hacia el “desempeño” y los
“resultados” ha ido (re)surgiendo internacionalmente durante los últimos años. El autor
realiza, además, un excelente recorrido por los diversos elementos, actores y factores
vinculados con la Gestión para Resultados. Por último, Schick describe las dificultades que
los impulsores de este enfoque enfrentan para transitar de las ideas a la práctica.
El segundo capítulo, del reconocido académico catalán Albert Serra, permite
completar una visión global de la Gestión para Resultados. Después de realizar un breve
repaso a los orígenes teórico-conceptuales del tema, Serra plantea un “Modelo Abierto de
Gestión para Resultados”, el cual busca integrar las actividades de medición del desempeño
con otros componentes del ciclo de gestión: planeación, presupuestación, producción,

33
evaluación. El texto de Serra tiene una clara orientación práctica y ha servido como punto
de partida para el desarrollo de metodologías de análisis comparativo (Kaufmann et al.,
2015), así como para orientar esfuerzos reformadores concretos en lugares como la Ciudad
de México (Dussauge, 2016c).
El tercer capítulo reproduce un texto clásico de Robert D. Behn, profesor de la
Kennedy School of Government, sobre los múltiples propósitos que pueden acompañar a
las actividades de medición del desempeño. Behn deja muy claro que medir es ciertamente
para mejorar, pero no sólo para eso. Por el contrario, las mediciones de desempeño
asociadas al establecimiento de esquemas de Gestión para Resultados pueden perseguir
muchos otros fines. Éste es un punto importante, pues nos ayuda a comprender que el
diseño de las mediciones no debe ser uniforme sino contingente. Puesto en otros términos,
dependiendo de los objetivos específicos que los actores político-gubernamentales persigan,
entonces deberían recurrir a uno u otro tipo de medición del desempeño.
El cuarto capítulo es un texto del profesor Christopher Hood, a quien entre muchas
otras contribuciones académicas se le reconoce haber acuñado el término “Nueva Gestión
Pública”. Escrito a partir de sus trabajos en temas de reforma administrativa, teoría cultural
y gestión del desempeño, el texto de Hood destaca tres asuntos que son fundamentales para
las discusiones contemporáneas sobre Gestión para Resultados: primero, que cualquier
sistema se enfrenta ineludiblemente a los comportamientos estratégicos de los actores
involucrados, quienes pudieran tratar de “hacer trampa” para cumplir con las mediciones
existentes; segundo, que estos riesgos pueden ser más o menos probables de acuerdo con la
lógica mayor que persiga cada sistema de Gestión para Resultados; y, finalmente, que tanto
el buen funcionamiento de los sistemas de Gestión para Resultados, como la presencia o no
de los comportamientos estratégicos mencionados, dependerán en buena medida del tipo de
cultura organizacional en donde se inserten.
El quinto capítulo, del prestigiado profesor Christopher Pollitt, complementa en
varios sentidos los dos textos previos. Con base en sus amplios conocimientos sobre
evaluación de políticas y gestión del desempeño desde una perspectiva internacional
comparada, Pollitt analiza uno de los problemas centrales de la Gestión para Resultados:
cada vez medimos y evaluamos más cosas, y sin embargo pareciera que ni los tomadores de
decisiones, ni los actores políticos, ni los ciudadanos usan realmente la información

34
aportada por dichas mediciones o evaluaciones. Aunque la discusión del autor se plantea
como una preocupación de corte teórico respecto al vínculo información de desempeño-
ejercicio democrático, sus conclusiones tienen claras implicaciones para el diseño práctico
de mecanismos que respondan a las necesidades informativas de diversos públicos-
usuarios.
El sexto capítulo es un texto de las especialistas estonias Külli Nömm y Tiina
Randma-Liiv. Su estudio revisa un caso que, en principio, pareciera estar muy alejado de la
realidad mexicana, tanto geográficamente como en términos organizacionales concretos.
Sin embargo, el estudio es interesante porque permite conocer algunos de los principales
retos enfrentados por un país que, a pesar de su reciente apertura económica y política, ha
decidido involucrarse en la construcción de un sistema de Gestión para Resultados. En este
sentido, la utilidad del texto de Nömm y Tandma-Liiv radica precisamente en detallar las
complejidades empíricas del tema, pero también en destacar la necesidad de ir aprendiendo
de la experiencia acumulada para avanzar en un proceso de reforma tan importante como
ineludible en la actualidad.
Cierra el libro un breve texto de Keith Mackay. A partir de su vasta experiencia
como consultor internacional, pero también como actor involucrado en el diseño de los
esquemas de evaluación del gobierno australiano, Mackay apunta que los esquemas
exitosos de monitoreo y evaluación son aquellos que generan información confiable y de
calidad, que se usan intensivamente en la toma de decisiones, y que son sustentables a lo
largo del tiempo. El autor ofrece, además, un listado de útiles recomendaciones para
aquellos servidores públicos involucrados en la compleja tarea de construir instrumentos de
Gestión para Resultados sólidos, que sean capaces de sobrevivir las continuas transiciones
políticas y las permanentes dinámicas de cambio gubernamentales.
Frente a un tema tan amplio y tan discutido internacionalmente, los siete textos
incluidos en este volumen apenas y alcanzan a brindar una visión panorámica de la Gestión
para Resultados. Por supuesto, los lectores encontrarán en las referencias bibliográficas
citadas en esta introducción numerosos autores y textos adicionales a los cuales acudir para
ampliar sus conocimientos en la materia. Pero incluso si deciden quedarse en los confines
de estas páginas, tanto quien esto escribe como las demás personas involucradas en la
edición del libro por parte de la Escuela de Administración Pública del Distrito Federal

35
(ahora Ciudad de México) confiamos en que los lectores hallarán aquí suficiente material
para reflexionar, debatir e informarse de los “porqués”, los “cómos”, los retos y las
aportaciones potenciales de la Gestión para Resultados. Todo ello con miras a construir
gobiernos de alto desempeño, más rendidores de cuentas y con mayor capacidad de brindar
resultados administrativamente eficaces y socialmente valiosos.

Bibliografía

Aguilar Villanueva, Luis F. (2006), Gobernanza y gestión pública, México, Fondo de


Cultura Económica.
Aguilar Villanueva, Luis F. (2013), “Gobernanza pública para resultados: marco conceptual
y operacional”, en su libro Gobierno y administración pública, México, Fondo de
Cultura Económica/CONACULTA, 342-378.
Alessandro, Martin, Mariano Lafuente y Carlos Santiso (2014), Gobernar para cumplir con
los ciudadanos, Washington, DC, Banco Interamericano de Desarrollo.
Arellano, David (coord.) (2010), Más allá de la reinvención del gobierno, México, Miguel
Ángel Porrúa, 2a. ed.
Arenas de Mesa, Alberto y Heidi Berner (2010), Presupuesto por Resultados y la
Consolidación del Sistema de Evaluación y Control de Gestión del Gobierno Central,
Santiago, DIPRES.
Armijo, Marianela (2011), “Planificación estratégica e indicadores de desempeño en el
sector público”, Serie Manuales 69, Santiago, Instituto Latinoamericano y del Caribe
de Planificación Económica y Social.
Arnaboldi, Michela, Irvine Lapsley e Ileana Steccolini (2015), “Performance Management
in the Public Sector: The Ultimate Challenge”, Financial Accountability and
Management, 31 (1), 1-22.
Arndt, Christiane (2008), “The Politics of Governance Ratings”, International Public
Management Journal, 11 (3), 275-297.
Ballescá, Mónica (2013), “Monitoreo y Evaluación para resultados en Jalisco”, en Claudia
Maldonado y Cristina Galíndez (eds.), Monitoreo, Evaluación y Gestión por
Resultados. Aprendizaje y Cooperación Sur-Sur para la Innovación: el Papel de los
Actores Subnacionales, México, CLEAR/CIDE, 133-151.
Banco Mundial, OECD, BID (2008), Buenas prácticas emergentes en la Gestión para
Resultados en el Desarrollo. Libro de consulta, Washington, DC: Banco Mundial,
OECD, BID, 3a. ed., disponible en:
http://www.mfdr.org/Sourcebook/3rdEdition/SourceBook3e-Spanish.pdf.
Barber, Michael (2007), Instruction to Deliver, Rayleigh: Methuen.
Behn, Robert D. (2001), Rethinking democratic accountability, Washington, DC:
Brookings Institution Press.
Bevan, Gwyn y Christopher Hood (2006a), “What’s measured is what matters: targets and
gaming in the English public health care system”, Public Administration, 84 (3), 517-
538.

36
Bevan, Gwyn y Christopher Hood (2006b), “Have Targets Improved Performance in the
English NHS?”, British Medical Journal, 332(7538): 419-422.
Bevan, Gwyn y Deborah Wilson (2013), “Does ‘naming and shaming’ work for schools
and hospitals? Lessons from natural experiments following devolution in England
and Wales”, Public Money and Management, 33 (4), 245-252.
Bonnefoy, Juan Carlos (2003), “Los indicadores de evaluación del desempeño: una
herramienta para la gestión por resultados en América Latina”, ILPES, Boletín del
Instituto 13.
Bouckaert, Geert y John Halligan (2008), Managing Performance, Londres, Routledge.
Bouckaert, Geert y Walter Balk (1991), “Public Productivity Measurement: Diseases and
Cures”, Public Productivity and Management Review, 15 (2), 229-235.
Bovens, Mark, Robert E Goodin y Thomas Schillemans (2014), “Public Accountability”,
en su edición de The Oxford Handbook of Public Accountability, Oxford, Oxford
University Press, 1-20.
Buntin, John (2016), “25 years Later, What Happened to ‘Reinventing Government’?”,
Governing, septiembre, disponible en: http://www.governing.com/topics/mgmt/gov-
reinventing-government-book.html.
Busjeet, Gita (2013), Planning, Monitoring, and Evaluation: Methods and Tools for
Poverty and Inequality Reduction Programs. Disponible en:
http://siteresources.worldbank.org/EXTPOVERTY/Resources/ME_ToolsMethodsNo
v2.pdf.
Cardozo, Myriam (2013), “De la evaluación a la reformulación de políticas públicas”,
Política y Cultura, 40, 123-149.
Castro, Manuel (2012), “Defining and Using Performance Indicatores and Targets in
Government M&E Systems”, en Gladys López-Acevedo, Philipp Krause y Keith
Mackay (eds.), Building Better Policies, Washington, DC: World Bank, 105-120.
Castro, Manuel, Gladys López-Acevedo, Gita Beker y Ximena Ordóñez (2009), “Mexico’s
M&E System: Scaling Up From the Sector to the National Level”, ECD Working
Paper Series no. 20, World Bank Independent Evaluation Group, disponible en:
http://siteresources.worldbank.org/EXTEVACAPDEV/Resources/4585672-
1251461875432/mexico_me_wp20.pdf.
Cejudo, Guillermo M. (2011), “La Nueva Gestión Pública. Una introducción al concepto y
a la práctica”, en su edición de Nueva Gestión Pública, México: Escuela de
Administración Pública del Distrito Federal/Siglo XXI, 17-47.
Cejudo, Guillermo M. y Claudia Maldonado (eds.) (2011), De las recomendaciones a las
acciones, México: CLEAR/CIDE.
Cejudo, Guillermo M. y Cynthia L. Michel (2016), “Coherencia y Políticas Públicas”,
Gestión y Política Pública, 25 (1), 3-31.
CLAD [Centro Latinoamericano de Administración para el Desarrollo] (1999), “Una nueva
gestión pública para América Latina”, disponible en: www.clad.org.ve.
Common, Richard (2001), Public Management and Policy Transfer in South East Asia,
Aldershot, Ashgate.
CONEVAL [Consejo Nacional de Evaluación de la Política de Desarrollo Social] (2016),
Diagnóstico del avance en monitoreo y evaluación en las entidades federativas 2015,
México: CONEVAL.

37
CONEVAL [Consejo Nacional de Evaluación de la Política de Desarrollo Social] (2015a),
Diagnóstico de monitoreo de los programas y acciones de desarrollo social 2015:
análisis sobre la calidad y sostenibilidad de los indicadores, México: CONEVAL.
CONEVAL [Consejo Nacional de Evaluación de la Política de Desarrollo Social] (2015b),
La política de evaluación en México: 10 años del CONEVAL, México: CONEVAL.
Cunill, Nuria y Sonia Ospina (2008), Fortalecimiento de los Sistemas de Monitoreo y
Evaluación (M&E) en América Latina, Washington, DC: Banco Mundial/CLAD.
Curristine, Teresa (2005), “Performance Information in the Budget Process: Results of the
OECD 2005 Questionnaire”, OECD Journal on Budgeting, 5 (2), 87-131.
Davies, Huw T. O., Sandra M. Nutley y Peter C. Smith (2000), What Works? Evidence-
based policy and practice in public services, Bristol: Policy Press.
de Bruijn, Hans (2009), Managing Performance in the Public Sector, Londres: Routledge,
2a. ed.
de Lancer Julnes, Patria (2006), “Performance Measurement. An Effective Tool for
Government Accountability? The Debate Goes On”, Evaluation, 12 (2), 219-235.
de Lancer Julnes, Patria y Marc Holzer (2001), “Promoting the Utilization of Performance
Measures in Public Organizations: An Empirical Study of Factors Affecting Adoption
and Implementation”, Public Administration Review, 61 (6), 693-708.
Diener, Max (2007), ‘Presupuesto para resultados: El sistema de metas presidenciales en
México’, en Roberto García, Heraldo Laguzzi y Waleska Guerrero (eds.), Hacia la
institucionalización de los sistemas de monitoreo y evaluación en América Latina y el
Caribe, Washington, DC: World Bank-Inter-American Development Bank, 85-89.
Drucker, Peter F. (1976), “What Results Should You Expect? A Users' Guide to MBO”,
Public Administration Review, 36 (1), 12-19.
Dumas, Víctor, Mariano Lafuente y Salvador Parrado (2013), “El fortalecimiento del
Centro de Gobierno para Resultados en Chile”, Banco Interamericano de Desarrollo
Instituciones para el Desarrollo, Nota Técnica #IDB-TN-563, disponible en:
https://publications.iadb.org/handle/11319/5965?locale-attribute=es.
Dunleavy, Patrick, Helen Margetts, Simon Bastow y Jane Tinkler (2006), “New Public
Management Is Dead: Long Live Digital-Era Governance”, Journal of Public
Administration Research and Theory, 16, 467-494.
Dussauge Laguna, Mauricio I. (2012), “Chile’s M & E System”, en Gladys López-
Acevedo, Philipp Krause y Keith Mackay (eds.), Building Better Policies,
Washington, DC: World Bank, 183-195.
Dussauge Laguna, Mauricio I. (2013), Cross-National Policy Learning And Administrative
Reforms. The Making of ‘Management for Results’ Policies in Chile and Mexico
(1990-2010), Tesis Doctoral, London School of Economics and Political Science.
Dussauge Laguna, Mauricio I. (2016a), “‘¿Lo que se mide se puede mejorar? Los riesgos
de la Gestión para Resultados y algunas (posibles) soluciones”, documento inédito.
Dussauge Laguna, Mauricio I. (2016b), “La implementación de la política de evaluación
del gobierno federal mexicano: 1994-2016”, documento inédito.
Dussauge Laguna, Mauricio I. (2016c), “La Gestión para Resultados en los ámbitos
subnacionales: el caso de la Ciudad de México”, documento inédito.
GAO [Government Accountability Office] (2014), “Managing for results. Agencies’
Trends in the Use of Performance Information to Make Decisions”, disponible en:
http://www.gao.gov/assets/670/666187.pdf.

38
Guzmán, Marcela (2007), “Evaluación de programas. Notas técnicas”, Serie Gestión
Pública 64, Instituto Latinoamericano y del Caribe de Planificación Económica y
Social (ILPES), disponible en
http://www.cepal.org/ilpes/publicaciones/xml/0/32040/SGP64.pdf.
Haddon, Catherine (2012), The Efficiency Unit in the early 1980s and the 1987 Next Steps
Report, Institute for Government, disponible en:
http://www.instituteforgovernment.org.uk/node/624.
Hammerschmid, Gerhard, Steven Van de Walle y Vid Stimac (2013), “Internal and external
use of performance information in public organizations: results from an international
survey”, Public Money & Management, 33 (4), 261-268.
Hatry, Harry (2012), “Key Steps to Design and Implement M&E for individual Country
Service Agencies”, en Gladys López-Acevedo, Philipp Krause y Keith Mackay
(eds.), Building Better Policies, Washington, DC: World Bank, 63-74.
Hood, Christopher (1991), “A Public Management for All Seasons?”, Public
Administration, 69 (1), 3-19.
Hood, Christopher (2006), “Gaming in Targetworld: The Targets Approach to Managing
British Public Services”, Public Administration Review, 66 (4), 515-521.
Hood, Christopher (2007), “Public Service Management by Numbers: Why Does it Vary?
Where has it Come From? What Are the Gaps and the Puzzles?”, Public Money and
Management, 27 (2), 95-102.
Hood, Christopher y B. Guy Peters (2004), “The Middle Aging of New Public
Management: into the Age of Paradox?”, Journal of Public Administration Research
and Theory, 14 (3), 267-282.
Hood, Christopher y Ruth Dixon (2015), A Government that Worked Better and Cost
Less?, Oxford: Oxford University Press.
Ingraham, Patricia W. (1993), “Of Pigs in Pokes and Policy Diffusion: Another Look at
Pay-for-Performance”, Public Administration Review, 53 (4), 348-356.
Ingraham, Patricia W. (2005), “Performance: Promises to Keep and Miles to Go”, Public
Administration Review, 65 (4), 390-395.
Ingraham, Patricia W., Philip G. Joyce y Amy Kneedler Donahue (2003), Government
Performance. Why Management Matters, Washington, DC: The Johns Hopkins
University Press.
James, Oliver (2004), “The UK Core Executive’s Use of Public Service Agreements as a
Tool of Governance”, Public Administration, 82 (2), 397-419.
Joyce, Philip (2011), “The Obama Administration and PBB: Building on the Legacy of
Federal Performance-Informed Budgeting?”, Public Administration Review, 71 (3)
356–367.
Kaufmann, Jorge, Mario Sanginés y Mauricio García Moreno (eds.) (2015), Construyendo
gobiernos efectivos. Logros y retos de la gestión pública para resultados en América
Latina y el Caribe, Washington, DC: Banco Interamericano de Desarrollo.
Kettl, Donald (2016), “Making Data Speak: Lessons for Using Numbers for Solving Public
Policy Puzzles”, Governance, early view.
Larsson, Magnus y Anders Hanberger (2016), “Evaluation in Management by Objectives”,
A critical analysis of Sweden’s national environmental quality objectives system”,
Evaluation, 22 (2), 190-208.
Le Galès, Patrick (2016), “Performance measurement as a policy instrument”, Policy
Studies, 37 (6), 508-520.
39
López-Acevedo, Gladys, Philipp Krause y Keith Mackay (2012) (Eds.), Building Better
Policies, Washington, DC: World Bank.
Moynihan, Donald P. (2006), “Managing for Results in State Government: Evaluating a
Decade of Reform”, Public Administration Review, 66 (1), 77-89.
Moynihan, Donald P. (2008), The Dynamics of Performance Management, Washington,
DC: Georgetown University Press.
Moynihan, Donald P. (2010), “From Performance Management to Democratic Performance
Governance”, en Rosemary O´Leary, David M. Van Slyke y Soonhee Kim (eds.), The
Future of Public Administration Around the World, Washington, DC: Georgetown
University Press, 21-26.
Moynihan, Donald P. y Alexander Kroll (2016), “Performance Management Routines That
Work? An Early Assessment of the GPRA Modernization Act”, Public
Administration Review, 76 (2), 314–323.
NAO [National Audit Office] (2013), “Evaluation in Government”, disponible en:
https://www.nao.org.uk/wp-content/uploads/2013/12/10331-001-Evaluation-in-
government_NEW.pdf.
OECD (1995), Budgeting for Results. Perspectives on Public Expenditure Management,
París: OECD.
OECD (1997a), In Search of Results. Performance Management Practices, París: OECD.
OECD (1997b), Modern Budgeting, París: OECD.
OECD (2009), Measuring Government Activity, París: OECD.
Osborne, David y Ted Gaebler (1994), Un nuevo modelo de gobierno: cómo transforma el
espíritu empresarial al sector público, México: Ediciones Gernika.
Paz, Antonio, Julio Ortega, Celina Candila, Wilbert Suárez y Santos Jiménez (2013),
“Diseño del Sistema de Seguimiento y Evaluación del Estado de Yucatán”, en
Claudia Maldonado y Cristina Galíndez (eds.), Monitoreo, Evaluación y Gestión por
Resultados. Aprendizaje y Cooperación Sur-Sur para la Innovación: el Papel de los
Actores Subnacionales, México, CLEAR/CIDE, 117-132.
Pérez, Gabriela y Claudia Maldonado (eds.) (2016), Panorama de los sistemas nacionales
de monitoreo y evaluación en América Latina, México: CIDE.
Pérez, Gabriela, Claudia Maldonado y Domingo Hernández (2016), “El sistema de
seguimiento y evaluación de programas federales en México: Retos para su
consolidación”, en Gabriela Pérez y Claudia Maldonado (eds.) (2016), Panorama de
los sistemas nacionales de monitoreo y evaluación en América Latina, México:
CIDE, 273-310.
Peters, B. Guy (ed.) (2008), Mixes, Matches and Mistakes: New Public Management in
Russia and the Former Soviet Republics, Budapest: Open Society Institute.
Pollitt, Christopher (2011), “‘Moderation in All Things’: International Comparisons of
Governance Quality”, Financial Accountability & Management, 27 (4), 437-451.
Pollitt, Christopher (2013), “The logics of performance management”, Evaluation, 19 (4),
346-363.
Pollitt, Christopher y Geert Bouckaert (2011), Public Management Reform: A Comparative
Analysis, Oxford, Oxford University Press.
Rose, Richard (1976), Managing Presidential Objectives, New York: Macmillan Press.
Santiso, Carlos, Jorge von Horoch y Juan Cruz Vieyra (2014), “Improving Lives Through
Better Government”, Inter-American Development Bank Technical Note No. IDB-TN-
711, disponible en:
40
https://publications.iadb.org/bitstream/handle/11319/6696/ICS_TN_Improving_Lives
_Through_Better_Government_11_14.pdf?sequence=1.
SHCP [Secretaría de Hacienda y Crédito Público] (2016), “Documento relativo al
cumplimiento de las disposiciones contenidas en el párrafo tercero del artículo 80 de
la Ley General de Contabilidad Gubernamental”, 29 de abril, disponible en
http://www.transparenciapresupuestaria.gob.mx/work/models/PTP/Entidades_Federat
ivas/Diagnostico/pbr_sed_informe2016.pdf.
Skoufias, Emmanuel (2005), PROGRESA and Its Impacts on the Welfare of Rural
Households in Mexico, Research Report 139, Washington, DC: International Food
Policy Research Institute, disponible en:
http://www.eldis.org/vfile/upload/1/document/0708/DOC22746.pdf.
Székely, Miguel (2014), “Closing the Circle for Results-Based Management in Social
Policy”, The Nuts and Bolts of M&E Systems 32, disponible en:
http://www.worldbank.org/content/dam/Worldbank/document/Poverty%20documents
/Nuts-and-Bolts32-Closing-Circle-final.pdf.
Triantafillou, Peter (2015), “The Political Implications of Performance Management and
Evidence-Based Policymaking”, American Review of Public Administration, 45 (2)
167-181.
Van de Walle, Steven y Gerhard Hammerschmid (2011), “Review essay: The impact of the
new public management: Challenges for coordination and cohesion in European
public sectors”. Haldukultuur -Administrative culture, 12 (2), 189-209.
Van Dooren, Wouter y Steven Van de Walle (eds.) (2011), Performance Information in the
Public Sector. How It is Used, Basingstoke: Palgrave/IIAS.
Van Dooren, Wouter, Geert Bouckaert y John Halligan (2010), Performance Management
in the Public Sector, Londres: Routledge.
Van Thiel, Sandra y Frans L. Leeuw (2002), “The performance paradox in the public
sector”, Public Productivity and Management Review, 25 (3), 267-281.
Velasco, Ernesto (2010), “Introducción: las fuentes e implicaciones de la Gestión
Estratégica en el sector público”, en su edición de Gestión estratégica, México:
Escuela de Administración Pública del Distrito Federal/Siglo XXI, 17-64.
Velasco, Ernesto (2011), Gestión Pública y Rendición de Cuentas: ¿Un enfoque basado en
cumplimiento a uno basado en resultados?, México: Secretaría de la Función
Pública.
Weiss, Carol H. (1979), “The Many Meanings of Research Utilization”, Public
Administration Review, 39 (5), 426-431.
Weiss, Carol H. (1998), “Have We Learned Anything New About the Use of Evaluation?”,
American Journal of Evaluation, 19 (1), 21-33.
Williams, Daniel W. (2003), “Measuring Government in the Early Twentieth Century”,
Public Administration Review, 63 (6), 643-659.
Zaltsman, Ariel (2006), “Experience with Institutionalizing Monitoring and Evaluation
Systems in Five Latin American Countries: Argentina, Chile, Colombia, Costa Rica
and Uruguay”, Evaluation Capacity Development Working Paper Series No 16,
Washington, DC: World Bank.

41

View publication stats

Você também pode gostar