Escolar Documentos
Profissional Documentos
Cultura Documentos
ESCOLA DE ADMINISTRAÇÃO
PROGRAMA DE PÓS-GRADUAÇÃO EM ADMINISTRAÇÃO
Salvador
2018
LUCIANO PINHEIRO COSTA
Salvador
2018
Escola de Administração - UFBA
CDD – 658.311
658.4038
LUCIANO PINHEIRO COSTA
Banca Examinadora
(Werner Heisenberg)
Para minha esposa Luciana Suffi,
por juntos compartilharmos a ideia de que
cada sonho que deixamos pra trás,
é um pedaço do nosso futuro que deixa de existir.
AGRADECIMENTOS
RESUMO
This dissertation is about the analysis of the evaluation capacity in the School of Finance
Administration in Brazil – Esaf, an integral organ of the Ministry of Finance, with the objective
of analyzing the regional school centers in the Northeast and the factors that contribute to the
organizational practice of making and using evaluation in the scope government action to select,
train and develop professionals. In order to do that, this dissertation sought to understand the
conceptual evolution of evaluative capacity, to characterize, from the program theory, this
action, and with that to define the analysis model to analyze the main factors that can contribute
to the increase of this capacity, and by consequence for the improvement of the program and
governmental action, better use of the findings for management decision making and expansion
of organizational learning. The premise is that the effective evaluation capacity building – ECB
requires a large demand for evaluation and that the sustainability to conduct the evaluation
depends on the extent to which the evaluation is used within the organization. This knowledge,
when used, should contribute to the integration of evaluation in the organizations culture in
order to connect and promote various dimensions that make up the framework of organizational
evaluation capacity. Esaf's regional centers in the Northeast were defined as a unit of analysis
and it was made an in loco census research by using a questionnaire - based on a model validated
by a research group from the University of Ottawa in Canada - with 36 servers and 3 managers,
with 100% response level. The data were analyzed by factorial analysis and Kruskal-Wallis
non-parametric tests for independent samples, in conjunction with descriptive analysis of the
content. This is a non-probabilistic sample, because the total population was used. The results
showed that the capacity to make evaluation is smaller than the capacity to use evaluation,
besides the centers present different behaviors regarding the dimensions of organizational
support, stakeholder participation in the evaluation and conditions of mediation of the use of
the evaluation. The organization has a developing evaluative capacity, and several factors must
be improved, taking as an example the evaluation as a function of the management and
expansion of the levels of evaluation and learning research.
1 Introdução 17
2 Revisão da Literatura 31
2.1 Conceito e Tipologia de Avaliação 31
2.2 Propósitos de Avaliação 34
2.3 Abordagens Avaliativas 42
2.3.1 Teoria do Programa 48
2.4 Sistemas de Avaliação 52
2.5 Avaliação de Programas e Ações 55
2.6 Capacidade Avaliativa 64
2.7 Modelos de Capacidade Avaliativa Organizacional 72
2.7.1 Pesquisa com avaliadores canadenses 74
2.7.2 Pesquisa com quatro organizações canadenses 77
2.7.3 Pesquisa com definição de modelo multidisciplinar de ECB 82
2.7.4 Pesquisa com modelo de medição da capacidade avaliativa na 86
Dinamarca
2.7.5 Pesquisa para desenvolvimento de um modelo integrado de ECB 89
2.7.6 Pesquisa sobre as dimensões-chave da capacidade avaliativa nas 93
organizações
2.7.7 Pesquisa com aplicação de instrumento de Análise da Capacidade 96
Avaliativa
2.7.8 Modelo Integrado de ECB (IECB) 99
2.7.9 Pesquisa sobre a capacidade organizacional para fazer e utilizar 103
avaliação
2.7.10 Estudo de caso múltiplo com quatro organizações canadenses de três 113
2.8 Dimensões comuns aos modelos de capacidade avaliativa 115
2.9 Seleção do Modelo de Análise para a Pesquisa 117
3 Procedimentos Metodológicos 121
3.1 Objetivos específicos e coleta de dados 123
3.2 Levantamentos Prévios 126
3.3 Modelo de Análise 128
3.3.1 Análise das dimensões aplicadas no modelo 127
3.3.2 Análise do Questionário de Capacidade Avaliativa em Organizações 131
(ECOQ)
4 Apresentação e Análise dos Resultados 134
4.1 Análise descritiva 134
4.1.1 Análise das dimensões de capacidade avaliativa 136
4.1.1.1 Suporte Organizacional 136
4.1.1.2 Capacidade para fazer Avaliação 137
4.1.1.3 Investigação Avaliativa 139
4.1.1.4 Participação dos Stakeholders na Avaliação 140
4.1.1.5 Condições de Mediação de Uso da Avaliação 142
4.1.1.6 Uso da Avaliação – Uso dos achados e Uso no Processo 143
4.1.1.7 Capacidade de Aprendizagem Organizacional 145
4.2 Grau de desempenho das dimensões na organização 146
4.2.1 Análise das dimensões na perspectiva dos dirigentes 149
4.3 Análise das relações entre os estados em função das dimensões de 151
Capacidade avaliativa
4.3.1 Análise comparada da dimensão Suporte Organizacional entre os estados 153
4.3.2 Análise comparada da dimensão Participação dos Stakeholders entre os 154
estados
4.3.3 Análise comparada da dimensão Condições De Mediação entre os 156
estados
4.4 Comentários da equipe de pessoal e diretorias-regionais sobre 158
capacidade avaliativa na organização
4.5 Análise Fatorial 161
4.5.1 Modelo 1 – Capacidade de Aprendizagem e Suporte Organizacional 165
4.5.2 Modelo 2 – Capacidade de Fazer Avaliação e Capacidade de Usar 169
Avaliação (Uso dos Achados)
4.5.3 Modelo 3 - Capacidade para Fazer Avaliação e Capacidade para Usar 171
Avaliação (Uso no Processo)
4.5.4 Modelo 6 – Investigação Avaliativa e Uso no Processo 173
4.5.5 Modelo 7 - Condições de Mediação e Uso dos Achados 176
5 Considerações finais e recomendações 179
Referências 182
Apêndice 188
Anexo 204
17
1 INTRODUÇÃO
Para Cousins et al. (2014), as organizações estão sendo convidadas a fazer mais com
menos. A avaliação pode desempenhar um papel significativo na identificação de práticas
organizacionais e de programas que requerem atenção ou onde mudanças, algumas vezes
significativas, podem ser justificadas. Uma avaliação sólida e crível sempre proporcionará aos
tomadores de decisão uma maneira eficaz de atender às demandas de accountability.
Mas a avaliação pode prover mais, como se espera que seja observado nos muitos
exemplos de estudos de caso apresentados no decorrer da revisão de literatura e na própria
verificação empírica desta pesquisa. Nesse sentido,
No âmbito da ação objeto deste estudo, a Esaf atua com uma vasta gama de temas,
incluindo orçamento e finanças (prioritariamente), contabilidade, logística pública, gestão
pública, desenvolvimento gerencial, tecnologia da informação e comunicação. Há dois
formatos de eventos: o aberto, no qual a oferta se direciona para diversos públicos e o fechado,
sob demanda, modelados de forma exclusiva para um determinado órgão parceiro. Além da
modalidade presencial, a oferta em EAD também cresce consideravelmente com cursos sem
tutoria, auto instrucionais, no qual os participantes inscrevem-se a qualquer tempo e, na
sequência, acessam a escola virtual para o acesso ao conteúdo, o qual inclui atividades e
avaliação que devem ser concluídas em um período predeterminado para obtenção do
certificado.
Função: 04 - ADMINISTRAÇÃO
Subfunção: 128 - FORMAÇÃO DE RECURSOS HUMANOS
Nesse contexto, a Esaf passou a ser corresponsável por três processos finalísticos, cujos
parâmetros são utilizados como base para a formulação das ações da Escola.
O crescente interesse dos governos nos estudos de avaliação está relacionado às questões
de efetividade, eficiência, accountability e desempenho da gestão pública, já que estes estudos
se constituem em ferramenta para gestores, formuladores e implementadores de programas e
políticas públicas. As avaliações de políticas e programas permitem que formuladores e
implementadores tomem suas decisões com maior conhecimento, maximizando o resultado do
gasto público, identificando êxitos e superando pontos de estrangulamento.
A partir do final da década de 70, frisa-se, a avaliação passou a fazer parte da doutrina
da governança orientada para o gerenciamento por resultados, quando essa passou a atender a
demandas de accountability.
A despeito deste forte caráter normativo da avaliação no Brasil como função precípua
de prestação de contas, surge a partir da gestão por resultados uma nova onda de avaliação ainda
não tão forte como a onda científica da década de 1960 e a onda neoliberal que cresceu em
popularidade a partir de 1980. A característica desta onda de evidências é um esforço para tornar
o governo mais científico e baseado em evidências empíricas reais, preocupado com o que
funciona. Isso pode ser interpretado como um renascimento da ciência e experimentação
randomizada. (VEDUNG, 2010)
25
não se pode criar uma única estrutura para a avaliação, isso deve variar de
acordo com vários critérios. Um desses critérios é saber se você faz avaliação
de desenvolvimento ou avaliação de auditoria. Outro critério é saber o quanto
de conhecimento científico será requerido, dependendo da área. Em outras
palavras, não existe uma regra simples para institucionalizar a avaliação
dentro dos governos. (VEDUNG, 2017)
Destarte, objetiva-se neste trabalho analisar as inter-relações entre as dimensões da
capacidade avaliativa dos centros regionais da Escola de Administração Fazendária no Nordeste
e os fatores que contribuem para a prática organizacional de fazer e usar avaliação no âmbito
da ação governamental de seleção, formação e desenvolvimento de pessoal.
Esse aporte é importante ante a lacuna de conhecimento teórico e empírico sobre o tema
na literatura brasileira e como contribuição para o desenvolvimento da teoria e prática sobre
capacidade avaliativa nas organizações, conforme tem sido enfatizado por diversos autores
(WANDERSMAN, 2013; LEVITON, 2013; SUAREZ-BALCAZAR; TAYLOR-RITZLER,
2013; COUSINS; BOURGEOIS, 2014; LABIN, 2014; BOURGEOIS et. al., 2015; GAGNON
et. al, 2018).
A partir dessa situação-problema, e dos estudos realizados por Cousins (2008, 2014) e
Gagnon et al. (2018), foram elencadas as seguintes hipóteses para esta pesquisa:
1) A capacidade para fazer avaliação dos centros regionais da Esaf no Nordeste é menor
do que sua capacidade para utilizar avaliação.
2) Os três centros regionais da Esaf no Nordeste demonstram graus de desempenho
equivalentes em todas as dimensões do modelo de análise de capacidade avaliativa
organizacional.
suas duas subdimensões: uso dos achados e uso no processo. Como argumentado anteriormente
por Cousins et al. (2004), a integração da avaliação na cultura das organizações tem a ver com
as conseqüências da avaliação, assim como o desenvolvimento de habilidades e conhecimento
da lógica e dos métodos de avaliação. Este último argumento conecta a capacidade
organizacional de usar avaliação com aprendizagem organizacional.
a aferir a capacidade da organização para fazer e utilizar avaliação, a partir do qual será possível
analisar as dimensões e fatores que podem contribuir para o desenvolvimento de capacidade
avaliativa, suas inter-relações e o desempenho de cada um do centros investigados.
Segundo Serpa (2014), poucos estudos têm se dedicado a investigar em que medida as
práticas avaliativas estão institucionalizadas nos órgãos governamentais, qual o nível de
desenvolvimento da capacidade avaliativa desses órgãos e, principalmente, se as avaliações são
utilizadas e para quais fins.
Para Bourgeois e Cousins (2008, 2013), uma pesquisa futura poderia se concentrar em
uma ferramenta integrada para medir por um lado o grau geral de capacidade avaliativa de uma
organização e, por outro, para identificar pontos fortes e fracos específicos da organização com
base nas dimensões da capacidade avaliativa incluídas em seu framework.
Como observa Labin et al. (2012), a maior parte da pesquisa empírica envolve desenhos
descritivos de estudo de caso e pouco uso de instrumentos confiáveis e válidos.
A avaliação precisa fornecer uma proposta de valor específica para a liderança e a equipe
de uma organização - isto é, eles precisam ver benefícios e custos (CARMAN; FREDERICKS,
2008 apud LEVITON, 2014)
Para Leviton (2014), a avaliação se tornou uma ferramenta mais familiar para as
organizações, mas muitos têm problemas para visualizar os achados eventuais e sua utilidade,
especialmente aqueles que se estendem além da função de accountability.
2 REVISÃO DE LITERATURA
De acordo com Alkin e King (2016), a ampla história de avaliação, tal como conhecida
hoje, segue dois fluxos. Há um fluxo, mais fortemente identificado com o campo da educação,
32
que se concentra em testes e medidas e há um segundo fluxo, da ciência social que se concentra
no uso de metodologias de pesquisa social. Os exemplos ilustram estes dois fluxos. Os testes
administrados na avaliação de pessoal da China resultaram de forma clara em
comprometimento. O experimento descrito no Livro de Daniel levou ao uso da informação de
avaliação para proposição de mudanças em um determinado objeto de estudo. Esses dois fluxos
foram bastante distintos na história inicial do uso da avaliação, mas convergiram em grande
medida com a evolução dos anos. A fusão entre The Evaluation Research Society e The
Evaluation Network para formar a American Evaluation Association em 1986 teria definido
este marco.
Para Stockdill et al. (2002), o termo avaliação é usado de forma diferente por muitos
autores. Alguns distinguem entre atividades de monitoramento, que são realizadas durante a
implementação do projeto ou programa para avaliar a eficiência e eficácia com os quais os
insumos são utilizados para alcançar os resultados pretendidos e as atividades de avaliação que
analisam até que ponto os projetos ou programas alcançaram os objetivos pretendidos e
produziram as mudanças e benefícios desejados nas populações-alvo. Em outros casos o termo
avaliação é usado de forma mais ampla para abranger ambas as funções. (BAMBERGER, 2000)
Em outro sentido, a definição é ampla. Não se limita apenas aos efeitos de intervenções
e atividades no nível de resultados (ou seja, na sociedade ou na natureza), mas também inclui
resultados, processos de implementação, conteúdo e organização (VEDUNG, 1997).
Aos três elementos comuns à definição de avaliação mencionados por Weiss - método,
critério e julgamento, somam-se o contexto organizacional e político; e, intrínseco a eles, os
interesses, valores e expectativas dos atores envolvidos. Ou seja, ao tempo em que a avaliação
deve pautar-se pelo rigor metodológico da pesquisa científica, também deve atender as
necessidades dos tomadores de decisão e outros stakeholders envolvidos, fornecendo-lhes o
máximo de informações úteis (ROSSI et al., 2004).
Scriven (1967) definiu avaliação com o "julgamento de mérito e valor" que proporciona
uma visão mais aprofundada. O mérito refere-se ao valor intrínseco, o valor ao extrínseco. Por
exemplo, um programa pode ter mérito (ou seja, considerado de boa qualidade), mas não ter
valor para um contexto particular. A noção de "valor" é, em essência, a ideia de que as
avaliações devem ter "utilidade" - o potencial para ser usado no contexto dado um determinado
momento.
Em vista dessas considerações, a definição de avaliação vem sendo ampliada para
contemplar esses valores. Segundo Yarbrough et al. (2011) e para os padrões de avaliação de
programas do Joint Committee on Standards for Educational Evaluation, a avaliação pode ser
conceituada como:
Com base nas definições anteriores, tem-se que além do julgamento de valor ou mérito,
a avaliação objetiva produzir novos conhecimentos, promover o desenvolvimento
organizacional, melhorar a gestão e favorecer a accountability.
Noutro sentido, Vedung (2010) destaca que a avaliação parece basear-se numa ideia
muito simples. Tradicionalmente, as atividades públicas ganharam aceitação através de
procedimentos adequados e fortes investimentos econômicos, combinados com uma bela
34
MARK, HENRY E
WEISS PATTON
JULNES
Decisão
MARK, HENRY E
WEISS PATTON
JULNES
Aprendizado
Avaliações desenvolvimentistas -
Documentar a história do programa de orientadas para mudanças
forma a contribuir para a sua emergentes, inovações e
compreensão e influenciar decisões transformações de processos
futuras. Desenvolvimento
de conhecimento
Influenciar o comportamento dos Avaliações para produção de
executores por intermédio da ênfase conhecimento - orientadas para
nos objetivos do programa. identificar, através dos achados,
Compreender a intervenção social os caminhos para a efetividade.
As escolhas desse processo, por sua vez, têm impacto na extensão em que a avaliação
poderá fornecer informações úteis para o aperfeiçoamento, correção, seleção ou entendimento
sobre os programas e as políticas públicas. (MARK et al., 2000)
Porém, Braskamp e Brown (1980) apud Alkin e King (2017) observam que a utilização
efetiva não significa necessariamente que qualquer uma das recomendações seja implementada
ou que haja decisões imediatamente aparentes baseadas nas informações. Tornar os
stakeholders mais conscientes do programa, do seu contexto e restrições sob as quais foi
financiado, implementado e alterado é considerado como um resultado final importante.
36
Alkin e Christie (2004) apontam que as teorias da utilização foram impulsionadas pelas
teorias orientadas para a decisão (decision-oriented theories), cuja preocupação é conceber
avaliações que não apenas contribuam para subsidiar o processo de tomada de decisão, como
também assegurem que os seus resultados tenham impacto direto nas decisões e nas mudanças
promovidas no âmbito das organizações e dos programas. Neste sentido,
Duas décadas depois, o artigo de Cronbach (1963) apud Alkin e King (2016),
"Avaliação para melhoria do curso", ampliou o interesse no uso da avaliação. Cronbach
considerou a variedade de novos projetos de currículo de matemática e ciência em resposta á
ao lançamento do Sputnik 1 da União das Repúblicas Socialistas Soviéticas. Neste influente
artigo, criticou a adequação das avaliações desses projetos. Ele identificou um objetivo de
melhoria de curso para avaliação. Por isso, afirmou que o papel adequado da avaliação não era
apenas fazer julgamentos finais sobre a eficácia dos currículos, mas também fornecer
informações que ajudassem na modificação dos cursos em desenvolvimento. A ideia de
Cronbach de que a melhoria do curso foi um resultado adequado da atividade de avaliação
tornou-se base para a distinção formativa / somativa, definição posteriormente gerada por
Scriven (1967). Em essência, a formulação prescritiva de Cronbach ampliou a noção de uso
apropriado de avaliação extrapolando a simples análise dos resultados finais do programa.
Esta falta geral de confiança nos métodos existentes para a realização da avaliação levou
pesquisados, como Scriven e Stake a sugerirem melhores maneiras de realizar a avaliação do
38
programa. Além disso, vários autores, incluindo Stufflebeam (1971) apud Alkin e King (2016),
produziram livros didáticos que prescreviam o que se presumia como formas mais relevantes
de realizar avaliação, isto é, as "teorias prescritivas" da avaliação. Patton (1978) apud Alkin e
King (2016), cujo trabalho foi realmente uma fusão das duas correntes, também publicou a
primeira edição de seu livro sobre avaliação.
Weiss (1977) apud Alkin e King (2016) ampliou a compreensão do uso conceitual ao
argumentar que, em vez de desempenhar um papel deliberado e mensurável na tomada de
decisões, o conhecimento das ciências sociais "ilumina" (enlightens) os formuladores de
políticas. De acordo com a autora, os decisores políticos valorizaram estudos que os levaram a
analisar as questões de forma diferente, justificaram suas idéias para reformas, desafiaram o
status quo e sugeriram a necessidade de mudança. Assim, o termo enlightenment tornou-se da
literatura de avaliação de forma mais ampla.
39
A noção deste termo sugeriu que o conhecimento da pesquisa em ciências sociais com
mais freqüência não era a única fonte que levava a decisões políticas - em vez disso,
"informava" decisões políticas. Além disso, o conhecimento pode ser empregado de maneiras
mais sutis, o que Weiss (1977) apud Alkin e King (2016) chamou de "interativo". Neste modelo,
o conhecimento é usado em conjunto com os insights pessoais, a experiência e as informações
comunicadas.
Além do uso conceitual e instrumental, Karin Knorr (1977) apud Alkin e King (2016)
identificou o que chamou de um terceiro modo de uso de dados das ciências sociais como "uso
simbólico". Para esta autora, são duas as formas de uso simbólico: Uma na qual um oficial do
governo sinaliza por meio de um anúncio de uma avaliação de que algo está sendo feito sobre
um problema, enquanto as ações apropriadas que deveriam ter sido tomadas são adiadas ou
ignorada e uma segunda, mais comum, relaciona-se ao papel de legitimação. Nesta situação, os
dados avaliativos são usados para apoiar publicamente uma decisão tomada de forma diferente
ou apoiar uma opinião que já foi tomada. Neste sentido,
Na figura abaixo, Alkin e King (2017) fornecem uma definição de uso de avaliação com
base em cinco “matrizes” com base na escala de Guttman e mapeamento das sentenças:
40
delineou uma “teoria integrada da influência na avaliação” que incluiu três variáveis-chave -
fonte (processo / resultados), intenção (intencional / não intencional) e tempo (imediato / final
do ciclo / longo prazo). Aplicando a influência da avaliação como um construto unificador, a
pesquisa levou a um entendimento mais completo e integrado das consequências da avaliação
ao longo do tempo. Kirkhart resumiu: “Essa teoria integrada da influência nos ajuda a
reconhecer que a prática da avaliação teve um impacto mais penetrante do que se percebeu até
agora” (p. 20). “Separando” o conceito de influência na avaliação, Alkin e Taut (2003) apud
Alkin e King (2017) sugeriram uma revisão da “teoria” de Kirkhart que acrescentou consciência
como uma variável, com a proposta de que os avaliadores abordassem o uso imediato e no final
do ciclo do processo avaliativo e seus resultados. Os autores removeram a influência - que está
ligada a resultados inesperados sobre os quais os avaliadores não têm controle e dos quais não
estão conscientes - das preocupações dos avaliadores.
Estes autores, a partir dessa compreensão acerca de quais eram os principais fatores de
influência para o uso da avaliação, chegaram à seguinte sumarização:
Depreende-se dos conceitos anteriormente expostos neste capítulo que, para atender as
diferentes necessidades avaliativas, foram sendo desenvolvidas inúmeras abordagens
avaliativas, incorporadas à literatura e à prática avaliativa, com vistas a atender aos diferentes
propósitos e expectativas dos atores interessados na sua utilização.
Assim, um novo subconjunto é formado pelas teorias do avaliador. Estas são focadas na
prática de avaliação e são produzidas por "teóricos de avaliação proeminentes que se
destacaram para descrever suas prescrições de como eles acreditam que uma avaliação deve ser
realizada" (CARDEN; ALKIN, 2012).
44
Teorias da
Intervenção;
Teoria do Programa;
Teoria da Política
Teoria e Teoria da
Anti-teoria Mudança
Avaliações
orientadas -
baseadas em
teorias
Teoria focada
Frameworks no uso;
Lógicos Teoria de Suporte
Modelos Lógicos;
Lógica de Programa
Teorias
sobre
Práticas de
Avaliação
Uma visão diferenciada sobre estas teorias dos avaliadores foi introduzida em 2004 por
Marvin Alkin, de forma esquemática na Árvore da Avaliação (Evaluation Tree) cuja estrutura
foi revisitada pelo mesmo autor em 2012, onde aloca os teóricos em três dimensões
representadas por galhos, conforme ilustração abaixo e descrição seguinte:
1- Método (Tyler; Campbell; Cook; Cronbach; Rossi; Chen; Weiss; Greene): As avaliações,
incluídas nesta dimensão, são guiadas por métodos de pesquisa, entendendo que método, em
sua mais pura forma, visa a generalizações ou à construção de conhecimento.
2- Uso (Stufflebeam; Wholey; Patton; Alkin; Fetterman; Cousins; King; Preskill): Em essência,
esta dimensão expressa uma preocupação com o modo como os resultados da avaliação serão
usados e quem fará uso de tais resultados.
3- Valoração (Scriven; Stake; Eisner; House; Lincoln e Guba): Esta dimensão estabelece que o
papel mais essencial e vital do avaliador é o de atribuir valor aos dados.
46
O “tronco” dessa árvore define-se por três dimensões que constituem a genealogia das
teorias e métodos de avaliação, tais como:
Leeuw e Donaldson (2015) argumentam que considerar a avaliação apenas com base
nas "teorias de Tipo 1" não é aconselhável. Para os autores, o argumento é simples: trabalhar
com teorias explicativas testadas e robustas das ciências (sociais, comportamentais e políticas)
acrescenta informações cruciais sobre mecanismos e contextos subjacentes a políticas e
programas, incluindo intervenções de avaliação.
Para os autores, as teorias explicativas que se baseiam nas teorias científicas sociais (e
comportamentais) oferecem o maior alcance para futuros esclarecimentos e aplicação da teoria
em, para e de avaliação. Em um dos trabalhos mais influentes sobre os fundamentos da teoria
da avaliação, Shadish et al. (1991) concluíram que a avaliação orientada pela teoria foi uma das
formas mais avançadas de teoria da avaliação, e foi avaliada de forma mais favorável do que
48
todas as outras teorias de avaliação que examinaram. Caracterizaram-na como uma tentativa
ambiciosa de trazer coerência a um campo em consideráveis turbulências e debates.
Uma versão moderna desta teoria da prática de avaliação é conhecida como ciência da
avaliação orientada pela teoria do programa. Argumenta-se que a confluência da teoria da
avaliação, teoria do programa e teoria das ciências sociais constitui uma abordagem distintiva
da avaliação. Donaldson forneceu a seguinte definição:
A frase “orientada pela teoria do programa (em vez de orientada por teoria) destina-se
a esclarecer o significado do uso da palavra "teoria" neste contexto. Especifica o tipo de teoria
(ou seja, a teoria do programa) que deverá orientar as questões e o projeto de avaliação. Essa
abordagem também pode ser usada quando avalia políticas e outros tipos de avaliação, e não
está limitada à lógica linear. A expressão "ciência da avaliação" destina-se a sublinhar o uso de
métodos científicos (ou seja, métodos qualitativos, quantitativos e mistos) para responder às
principais questões de avaliação. A ciência da avaliação sinaliza a ênfase colocada no princípio
orientador da pesquisa sistemática (AMERICAN EVALUATION ASSOCIATION, 2004).
O terceiro estágio, particularmente, descrito por Shadish et al. (1991) pretende oferecer
uma visão integral do programa desde o seu desenho até os seus resultados e utilidade social,
passando por sua implementação, na busca em responder a todas as dimensões avaliativas que
possam interessar aos stakeholders. As práticas avaliativas se justificam e ganham legitimidade
a depender das circunstâncias em que são demandadas e dos propósitos aos quais respondem.
Os problemas sociais são múltiplos, as intervenções são diversas e contextuais e, portanto, a
avaliação deve ser plural em suas práticas e métodos, sendo legitimada pelo contexto.
Os autores expoentes desta terceira fase atribuem importância à avaliação com vistas à
melhoria incremental dos programas, mas entendem que mudanças estruturais também ocorrem
e que a avaliação deve contribuir para futuros e novos programas gerando conhecimento sobre
os problemas sociais e as políticas públicas.
Nessa linha, Cronbach apud Shadish et. al (1991) entende que a avaliação com
propósitos incrementais deve estar condicionada à relevância do programa quanto aos recursos
envolvidos, ao número de pessoas afetadas, à possibilidade de haver efeitos colaterais fruto das
intervenções e a relevância dos resultados da avaliação para outros programas semelhantes.
50
A autora destaca, ainda, duas outras teorias que partem da Teoria do Programa: a teoria
da implementação que se concentra em como o programa é realizado. A suposição teórica que
ela traz é que, se o programa for realizado conforme planejado, com qualidade, intensidade e
fidelidade suficientes para planejar, os resultados desejados serão realizados. A ênfase é sobre
o que Suchman (1967) denominaria falha / sucesso na implementação. A teoria programática,
por outro lado, trata dos mecanismos que intervêm entre a entrega do serviço do programa e a
ocorrência de resultados pretendidos. Ele se concentra nas respostas dos participantes ao serviço
do programa. O mecanismo de mudança não se relaciona às atividades do programa em si, mas
à resposta que as atividades geram.
desempenho. Aferir a qualidade da teoria significa, em síntese, verificar se o programa está bem
desenhado e se apresenta um plano plausível para o alcance dos resultados esperados.
Para a autora, os elementos do modelo lógico são: recursos, ações, produtos, resultados
intermediários e finais, assim como as hipóteses que suportam essas relações e as influências
das variáveis relevantes de contexto. Tornar explícitas as hipóteses sobre como o programa
supostamente deve funcionar, em variados contextos, cria a referência principal em que se
baseia a gestão e o seu instrumento imprescindível, a avaliação.
Atendidas essas condições, o modelo lógico serve como um organizador para desenhar
avaliação e medidas de desempenho, focalizando nos elementos constitutivos do programa e
identificando quais questões devem ser colocadas para avaliação e quais medidas de
desempenho são relevantes.
É importante ressaltar que a construção de uma referência prévia para a avaliação busca
estabelecer consensos para as expectativas dos diversos atores envolvidos. À medida que pontos
prioritários e parâmetros de julgamento são pactuados anteriormente à avaliação propriamente
dita, minimiza-se o risco de divergências quanto ao desenho da avaliação, à interpretação dos
resultados e às recomendações de mudanças no programa avaliado.
Cabe ressaltar que desde 2006 o Governo Federal, por meio de orientações do Ministério
do Planejamento, Desenvolvimento e Gestão, solicitou do IPEA, a adoção de uma metodologia
se que se aplicasse a qualquer tipo de programa do Plano Plurianual (PPA) e estivesse focada
no aperfeiçoamento de aspectos relacionados ao desenho e gerenciamento de programas, como
um procedimento necessário para preparar avaliações de resultados das ações de governo.
Elaboração de Programas do PPA 2008-2011 e que ainda predomina nos ciclos posteriores,
como se observa no Guia para Monitoramento e Avaliação do PPA 2016-2019 do Ministério
do Planejamento, Desenvolvimento e Gestão.
Não obstante haver no caso brasileiro tal normatização por parte do Ministério do
Planejamento e outras relacionadas aos relatórios de prestação de contas e auditorias emanadas
pelos órgãos de controle interno e externo, na sua forma mais simples, os julgamentos sobre a
utilidade de uma avaliação são feitos com base na medida em que os stakeholders do programa
consideram os processos e produtos de avaliação valiosos para atender suas necessidades
(YARBROUGH et al., 2010 apud ALKIN; KING, 2017).
Para Serpa (2014), é possível depreender por meio do estudo da evolução do campo da
avaliação, que são as abordagens avaliativas e a sua reiterada aplicação à prática, que embasam
e modelam os propósitos da avaliação, definindo seus pressupostos epistemológicos e
disseminando a cultura avaliativa. Esses elementos são, ainda, estruturantes dos sistemas de
avaliação e, consequentemente, da avaliação de programas, conforme demonstrado a seguir:
Segundo Jannuzzi (2012), sistemas de avaliação são parte de sistemas mais gerais de
gestão de políticas e programas, aos quais se articulam, recebendo deles demandas de dados
necessários ao processo e retroalimentando-os com oferta de informação e conhecimento
“customizado”, do diagnóstico à avaliação de natureza mais somativa”.
Serpa (2014) sustenta que por serem “sub-rotinas especializadas de sistemas mais
amplos de gestão, a investigação da maturidade e institucionalização dos sistemas de avaliação
parece depender menos da existência de leis, normas ou estruturas formais que regulamentem
a necessidade e formato dos instrumentos de monitoramento e avaliação e mais da evidenciação
de que existem práticas sistemáticas de gestão da informação para produzir conhecimento –
pertinente, específico e tempestivo – e seu uso efetivo nas decisões gerenciais e políticas
presentes no cotidiano do técnico e dirigente público.”
53
Utilização
Julgamento Mérito
Práticas Sistemáticas de Gestão Conhecimento
da Informação Política/Programa
Leeuw e Furubo (2008) apud Serpa (2014) definiram quatro critérios para caracterizar
um sistema de avaliação, a partir de um conjunto de práticas avaliativas. O primeiro critério diz
respeito a existência de uma perspectiva epistemológica distinta; o segundo trata dos arranjos,
ou seja, para que as atividades de avaliação sejam consideradas um sistema, devem ser
executadas por avaliadores dentro de estruturas organizacionais e instituições e não só (ou em
grande parte) por avaliadores autônomos, externos à organização. O terceiro critério é a
continuidade, que indique a permanência dessas atividades ao longo do tempo; e o por fim, o
quarto critério se refere ao planejamento da utilização dos resultados das avaliações.
Nesse sentido, os sistemas de avaliação são caracterizados por meio dos mecanismos
que definem um fluxo regular e contínuo de demandas, que orientam um conjunto de práticas
avaliativas formalizadas, estruturadas e coordenadas, com vistas a produzir tempestivamente
54
Assim, de acordo com a definição de Scott (1998) apud Serpa (2014), segundo a qual
as instituições consistem nas estruturas e atividades cognitivas, normativas e regulativas que
asseguram estabilidade e significado para o comportamento social, pode-se depreender que para
a institucionalização dos sistemas de avaliação é necessário que esses três elementos (cognitivo,
normativo e regulativo) estejam presentes de forma a prover a sustentabilidade e os ambientes
propícios para que as atividades avaliativas possam ser definidas, implementadas e utilizadas,
com impacto direto no desenvolvimento da capacidade avaliativa.
De acordo ainda com a norma, inclui-se no âmbito dos princípios da boa governança, a
serem seguidos pelos órgãos públicos: i) accountability: obrigação dos agentes ou organizações
que gerenciam recursos públicos de assumir responsabilidades por suas decisões e pela
prestação de contas de sua atuação de forma voluntária, assumindo integralmente a
consequência de seus atos e omissões; ii) integridade: tem como base a honestidade e
objetividade, elevando os padrões de decência e probidade na gestão dos recursos públicos e
das atividades da organização, com reflexo tanto nos processos de tomada de decisão, quanto
na qualidade de seus relatórios financeiros e de desempenho.
57
O papel da avaliação ganha destaque no atendimento a tais princípios, uma vez a função
avaliativa é requerida no alcance de ambos.
Para Shulha et al. (2015), é fundamental ressaltar que indivíduos e grupos cujas
experiências, idéias e sentimentos são fundamentais para responder às questões de avaliação
também são stakeholders. Colaboradores que orientem aqueles que proveem dados a ver a
importância do seu papel e a lógica das ferramentas de coleta de dados podem ser necessários.
Com efeito, ampliará a probabilidade de que os instrumentos de coleta de dados funcionem
como pretendido e até mesmo desenvolver capacidade avaliativa nos próprios colaboradores.
No que tange à avaliação de programas, Chen (2005) desenvolveu uma taxonomia para
avaliação, com vistas a orientar o avaliador na seleção da estratégia mais adequada para atender
as necessidades dos stakeholders. Segundo o autor, uma taxonomia de avaliação é uma
ferramenta importante para auxiliar na caracterização das necessidades da avaliação,
focalizando suas atividades e adequando os meios disponíveis às necessidades e à realidade do
programa (CHEN, 2005). A taxonomia é estruturada a partir dos propósitos da avaliação e
segundo os estágios do programa, para os quais são relacionadas as estratégias e as abordagens
de avaliação pertinentes, conforme apresentadas no quadro 5.
ABORDAGENS DE
ESTÁGIOS DO PROGRAMA E ESTRATÉGIAS
AVALIAÇÃO
PROPÓSITOS DA AVALIAÇÃO DE AVALIAÇÃO
conclusão
Estágio Maduro de Implementação Avaliação formativa
Avaliação de eficácia
Análise de
Analisar os efeitos no impacto desempenho
Avaliação de efetividade
A implementação tem início com a mobilização dos recursos necessários (insumos) para
a execução do programa e se orienta para gerar os resultados esperados a partir do desenho do
programa.
61
Para o autor, a avaliação, parte integrante de todo o ciclo de vida do programa tem, após
a implementação da intervenção, a função de verificar se os resultados sociais pretendidos pelo
programa foram atingidos (conforme Figura 9). Por meio dos impactos e custos implicados na
execução do programa pode-se avaliar a utilidade real do programa na solução ou intercâmbio
dos problemas selecionados, a ponto de concluir se tal intervenção deve continuar ou se chegou
ao seu fim.
a maior parte dos órgãos governamentais pode coletar dados que sejam ou
possam ser usados para medição de desempenho; no entanto, eles não
possuem um sistema em que esses dados façam parte dos processos de tomada
de decisão e não assumiram um sério compromisso de fazê-lo, quer professem
ou não. (COPLIN et al., 2002, p.699)
Sistema de ação intencional ECB é feito em uma organização, programa ou local, juntando-se as
equipes em colaboração contínua e em outras formas de alianças e
relações políticas que, ao longo do tempo, mostram regularidades
que podem ser apresentadas como sistemas intencionais.
65
Processos intencionais todo o esforço intencional para criar e manter um sistema de ação do
ECB.
Práticas proceder maneiras diárias de realizar o ECB
Trazer à tona criar e sustentar a situação em que as avaliações serão usadas agora
e no futuro. Sustentar o ECB é um projeto nunca concluído
Estado de coisas (situação) tudo o que é aparentemente necessário em uma particular
organização para o trabalho de avaliação ser feito e usado. Isso inclui
infraestruturas organizacionais ou de programas, normas sociais e
práticas; significados culturais e discursos; praticantes
adequadamente conhecedores e qualificados; e os outros recursos,
estruturas, políticas, regras, processos e práticas de avaliação de
qualidade.
Dentro e/ou entre um ou contextos e programas intra e interorganizacionais, bem como locais
mais organizações, como comunidades, parceiros colaborativos ou outras coletividades
programas e locais ou formações sociais.
Avaliação de Qualidade avaliação do programa significa modelos e práticas aceitos
Usos adequados múltiplas formas em que uma avaliação pode ser usada ao longo do
tempo pelos stakeholders, incluindo uso conceitual, instrumental ou
no processo.
Práticas comuns Prática institucionalizada como maneira comum de se fazer as coisas
MacKay (2002), entretanto, vai além dessa conceituação e afirma que o ECB deve ter
um alcance mais amplo e se tornar uma pedra angular para garantir que o conhecimento de
monitoramento e avaliação seja aplicado como parte de uma governança pública sólida. Neste
sentido, o autor apoia uma linha de discussão também proposta por outros (JULNES, 2006;
MAYNE; RIST, 2006; NIELSEN; EJLER, 2008; RIST, 2006 apud NIELSEN, 2011), segundo
o qual o escopo de avaliação e a prática devem ser ampliadas, deixando de consistir meramente
de estudos para tornar-se um fluxo de conhecimento avaliativo, além da aplicação do último
66
(prática) em governança pública sólida. Capacidade avaliativa, segundo o autor não deve apenas
gerar estudos de avaliação de programas de alta qualidade, mas também se engajar em práticas
mais amplas que produzam e apliquem conhecimentos avaliativos integrados a todo o ciclo de
políticas. Indiscutivelmente, então as diferentes concepções e propósitos de EC / ECB são, pelo
menos em parte, decorrentes de diferentes interpretações do papel e finalidade da avaliação
como: (a) uma ferramenta de gestão nas organizações, (b) como ferramenta de pesquisa para a
compreensão das intervenções na sociedade e / ou (c) como ferramenta de prestação de contas.
Schaumburg-Müller (1996) definem ECB com uma abordagem ampla, a qual inclui
atividades que fornecem suporte para sistemas de avaliação, auditoria, feedback e aprendizado
de programas ou projetos realizados em vários níveis, principalmente no setor público. Embora
o conceito seja definido de forma ampla, exclui atividades destinadas exclusivamente de
planejamento e avaliação. Além disso, o foco se concentra em atividades, que não são apenas
de natureza temporária, mas têm como objetivo apoiar uma função de avaliação sustentável.
Na medida em que o ECB é orientado para tais arranjos, culturas e práticas intra-
organizacionais, segundo Stockdill et al. (2002) uma grande ênfase deve ser dada à natureza
contínua, aberta e emergente da prática com foco em dois aspectos: sustentabilidade da
avaliação e sua utilização:
E é a partir desta visão da compreensão para realizar as práticas que Preskill e Boyle
(2008) associam a construção da capacidade aos níveis individual e organizacional, diferindo
ou ampliando em parte o conceito-base de Stockdill et al. (2002).
Nielsen et al. (2011), após finalizar sua pesquisa sobre o índice de capacidade avaliativa
nos governos locais da Dinamarca, parafraseou Stockdill et al. (2002) para sustentar que a
capacidade avaliativa refere-se à capacidade de uma organização de trazer, alinhar e sustentar
seus objetivos, estrutura, processos, cultura, capital humano e tecnologia para produzir
conhecimento avaliativo que informa as práticas em andamento e a tomada de decisões para
melhorar a eficácia organizacional.
Para Stockdill et. al. (2002), o ECB é constituído por três elementos estruturais: o
processo geral, as práticas reais, a orientação profissional e o papel do profissional:
Práticas atuais
Processo Geral
ECB
Stockdill et al., 1999 ECB requer uma demanda ampla. A demanda é usada tipicamente como objetivo,
fonte para avaliação e ECB.
Stockdill et al, 1999 Demanda e propósitos da avaliação devem ser compatíveis. O ECB é mais eficaz
quando há alinhamento entre a fonte e o tipo de demanda e ao propósito da
avaliação (voltada para responsabilização, melhoria do programa ou aprendizagem
ou uma combinação destes) em um processo transparente e negociado.
Stockdill et al, 1999 ECB é um processo político no contexto de organizações e comunidades.
Hague, 1998 ECB necessita de uma base de objetivos e clientes, como resultado de uma
necessidade prática.
Stockdill et al., 1999 ECB trabalha na identificação e integração de atividades de avaliação em vários
níveis e múltiplos sistemas.
Stockdill et al., 1999; Mackay, 1999 ECB efetivo requer uma ampla variedade de abordagens e metodologias de
avaliação.
Stockdill et al., 1999; Boyle, 1999 ECB necessita de recursos financeiros e humanos.
Schaumberg-Müller, 1996;
Arnold, 2006; Taut, 2007; Labin,
2012
Stockdill et al., 1999 ECB requer flexibilidade, atenção e elaboração para múltiplos contextos.
ECB é profundamente contextual em termos de estrutura, cultura, recursos,
política e ideologias da organização, programa ou local.
Torres e Preskill, 2001 O ECB bem-sucedido depende da flexibilidade dos papéis organizacionais, uma
vez que os indivíduos devem poder afastar-se de suas principais responsabilidades
para participar de atividades avaliativas.
70
AUTOR(ES) MOTIVAÇÕES
Compton et al., 2001; Stevenson et al., 2002 Desejo de buscar um novo ou crescente
financiamento
Compton et al., 2001; Corn et al., 2006 apud Preskyll e Boyle, 2008 Atender aos requisitos externos de prestação de
Gibbs et al., 2002, Katz et al., 2002, Stockdill et al., 2002 apud contas (accountability)
Bourgeois e Cousins, 2013
Compton et al. 2002; Newcomer, 2004 apud Preskyll e Boyle, 2008; Mudanças no ambiente externo que afetam a
Eaton, 2015; Chen, 2017. organização
Mackay , 2002 apud Preskyll e Boyle, 2008 Desejo de esclarecer e apoiar a elaboração e
planejamento de políticas governamentais
Compton et al., 2002; Forss et al., 2006 apud Preskyll e Boyle, 2008 Mudanças na organização (reorganização, nova
liderança ou visão)
Taut, 2007 apud Preskyll e Boyle, 2008 Comando da liderança para aumentar a função
Milstein et al., 2002, Goh, 2003; Cousins et al., 2004 apud Bourgeois e de aprendizagem da avaliação
Cousins, 2013; Bourgeois, 2016.
Donaldson e Gooler, 2003; Brandon e Higa, 2004; Forss et al., 2006 Lacuna percebida de conhecimento e
apud Preskyll e Boyle, 2008 habilidades avaliativas internas
Huffman et al., 2006 apud Preskyll e Boyle, 2008 Percepção de falta de avaliadores com expertise
em conteúdo específico do programa
Gibbs et al., 2002; Solomon e Chowdhury, 2002; Stevenson et al., Desejo de usar a avaliação para melhorar o
2002 apud Preskyll e Boyle, 2008 programa
Taylor-Ritzler et. al, 2013; Labin, 2014. Melhorar os impactos (resultados) do programa
Naccarella et al. (2007) observam que visões diferentes sobre o que está sendo
construído (EC) resultarão inevitavelmente em diferentes conceitualizações de ECB.
Definições de Capacidade avaliativa compartilham características comuns, incluindo tanto a
capacidade de fazer avaliações quanto de usá-las. A capacidade de usar a avaliação geralmente
inclui o uso de achados, bem como o ensino / aprendizagem através do envolvimento de pessoas
na avaliação, isto é, o uso no processo (BOURGEOIS; COUSINS, 2013; KING; VOLKOV,
2005).
recursos e apoio a práticas de avaliação; o segundo, uso dos achados e uso de processos
avaliativos. Ainda no contexto canadense, Bourgeois e Cousins (2013) ampliaram a capacidade
de fazer e usar a avaliação ao utilizar seis dimensões: recursos humanos, recursos
organizacionais, planejamento e atividades de avaliação, alfabetização de avaliação, integração
com a tomada de decisões organizacionais e benefícios de aprendizagem. Vários estudos
empíricos foram realizados com base nestes dois últimos frameworks (COUSINS et al., 2014;
BOURGEOIS et al., 2015).
O modelo ECB de King e Volkov está orientado para os itens que são necessários para
criar capacidade e, portanto, é preciso procurar diferenciar entre os elementos constituintes do
processo de mudança, por exemplo, o apoio da liderança e a presença de campeões de avaliação
e os elementos do que está sendo construído (a capacidade). No entanto, King e Volkov
mencionam uma série de itens que não foram abordados nem por Nielsen et al. (2011) nem por
Stufflebeam (2001), como o acesso a uma base de pesquisa, a presença de um sistema de
rastreamento interno, um sistema para medir necessidades organizacionais, além de uma série
de itens relacionados ao incentivo de uma "cultura avaliativa", como a construção de confiança,
estratégias para aumentar o interesse e o envolvimento e a facilitação da aprendizagem
organizacional.
74
Quanto à capacidade para realizar avaliação, a pesquisa buscava quais atividades são
prioritárias para o desenvolvimento de capacidade avaliativa e os tipos de ações e recursos
disponíveis para apoiar essas atividades. Na pesquisa anterior de 2004, os autores identificaram
que a investigação avaliativa e a capacidade de aprendizado organizacional eram fatores
importantes para o desenvolvimento de uma cultura de aprendizado avaliativo.
DIMENSÕES CONTEXTUALIZAÇÃO
Capacidade avaliativa é entendida como sendo integrada a um
constructo mais amplo de capacidade de aprendizado
organizacional. Organizações com alta capacidade de
aprendizado organizacional tem mais probabilidade de
demonstrar as cinco características de aprendizado
organizacional definidas no modelo de Goh (1998): i)
Capacidade de aprendizado
organizacional definição clara e apoio para missão e visão; ii) liderança que
apoia o aprendizado; iii) cultura organizacional que favorece
a experimentação; iv) habilidade de transferir efetivamente o
conhecimento; v) trabalho em equipe e cooperação. Esses
atributos são condições mutuamente necessárias para
favorecer o aprendizado organizacional.
Capacidade de aprendizado organizacional depende, em parte,
de estruturas e suporte das organizações. As cinco
características acima mencionadas dependem de duas
condições: i) do desenho organizacional; e, ii) das habilidades
e competências das pessoas. As estruturas de apoio
Estruturas e suporte organizacional
organizacional, que favorecem o aprendizado organizacional
incluem: sistemas de comunicação com vistas à disseminação
do conhecimento produzido bem como do que advém dos
programas, como mecanismo para incentivar e motivar as
pessoas envolvidas.
Conhecimento, competências e habilidades necessárias para
executar ou supervisionar as atividades avaliativas: ética,
Capacidade para fazer avaliações instrumentos, coleta, análise e interpretação dos dados,
elaboração do relatório e acompanhamento
Expressa a natureza e extensão em que as práticas avaliativas
estão presentes e como estão sendo executadas na organização.
Investigação avaliativa
Para tanto deve considerar as necessidades de informações da
organização
Refere-se a capacidade dos atores do lado da demanda de
Capacidade para utilizar a processar e utilizar os achados ou benefícios da avaliação. Os
avaliação achados deveriam apoiar os processos decisórios e de
aprendizagem relativos ao programa ou organização.
Fatores ou condições que mediam a utilização da avaliação:
qualidade da avaliação, credibilidade do avaliador,
Mecanismos de mediação
envolvimento dos atores interessados na utilização,
tempestividade, dentre outros.
FONTE: Cousins et al., 2008.
Figura 11 – Modelo conceitual da capacidade para fazer e usar avaliação de Cousins et al.
(2008)
Orçamento
Coleta de dados contínua
paraFAZER
fazer
Infraestrutura
Desenvolvimento Profissional
PARA
Capacidade
CAPACIDADE
Integração organizacional
Benefícios da Aprendizagem
Uso conceitual
Uso Instrumental
Uso no processo
DIMENSÕES E SUB-DIMENSÕES
Tipos de usos que podem ser feitos dos achados da avaliação dentro de uma
organização:
- para ações e mudanças através da implementação de recomendações de
De acordo com a literatura publicada sobre o tema, para Bourgeois e Cousins (2008), o
desenvolvimento da capacidade de uma organização de fazer e usar avaliação segue quatro
etapas: avaliação tradicional, caracterizada por atividades de avaliação comandadas
externamente; conscientização e experimentação, durante o qual os membros da organização
aprendem sobre avaliação e seus benefícios participando de uma série de atividades
relacionadas à avaliação; implementação da avaliação, o estágio no qual o papel da avaliação
está mais claramente definido na organização; e a adoção da avaliação, que ocorre quando o
inquérito avaliativo se torna uma atividade regular e contínua dentro da organização através da
alocação de recursos financeiros e humanos continuados.
Capacidade Exemplar
Benefícios de A unidade de avaliação tem uma excelente equipe e faz uso apropriado de consultores externos
Aprendizagem Utilização inovadora de métodos e abordagens para a coleta de dados
O orçamento de avaliação é assegurado através do financiamento contínuo especificamente atribuído à unidade de avaliação
Os gerentes seniores promovem orientação de gerenciamento de resultados para toda a organização e a torna uma prioridade, fornecendo tempo e recursos
As conclusões e recomendações de avaliação são consideradas na alocação orçamentária e outras decisões organizacionais de alto nível
Atividades e
Capacidade em Desenvolvimento
Planejamento da Diferentes níveis de qualidade técnica nas avaliações produzidas
Avaliação Pouca conscientização/compreensão da avaliação dentro das áreas do programa
A unidade de avaliação não está ligada à administração sênior ou a outras áreas
organizacionais
Recursos Pouco valor à avaliação e suas conclusões e recomendações para a tomada de decisão política
Organizacionais
Baixa Capacidade
Avaliação de programas de modo individualizado
Baseada em recomendações externas
Recursos Baixa visibilidade da avaliação dentro da organização
Humanos Equipe pequena / baixo nível de competência técnica
Orçamento de avaliação instável ou pequeno
Alta confiabilidade em consultores externos
No meio dos círculos estão 10 estratégias do ECB que refletem várias abordagens de
ensino e aprendizagem para ajudar as pessoas a desenvolver conhecimento, habilidades e
atitudes para pensar de forma avaliativa e se envolver em práticas de avaliação.
Isso leva ao círculo grande no lado direito do modelo. Neste círculo estão os
processos, práticas, políticas e recursos necessários para práticas de avaliação sustentáveis.
- Estratégias de ensino e aprendizagem: uma vez que o compromisso foi feito para
criar a capacidade de avaliação dos membros, deve selecionar-se imediatamente a estratégia de
aprendizagem (estágio, materiais escritos, tecnologia, reuniões, consulta apreciativa,
comunidades de prática, treinamento, envolvimento em um processo avaliativo, assistência
técnica, treinamento ou mentoria). Esta seleção deve, pelo menos, levar em consideração as
características dos participantes, recursos organizacionais disponíveis, teorias de avaliação,
aprendizado e mudança organizacional e objetivos de aprendizagem desejados e resultados
esperados.
- Desenho da iniciativa: outro fator a considerar ao escolher quais estratégias do ECB
serão mais eficazes são os recursos organizacionais que serão necessários para projetar e
implementar o esforço do ECB.
- Implementação da iniciativa: os facilitadores do ECB devem considerar as formas
como as informações sobre o propósito, as metas e as expectativas são comunicadas com os
participantes envolvidos. Isso envolve planejar e gerenciar comunicação – (a) métodos, (b)
fontes, (c) conteúdo, (d) metas e (e) frequência – para envolver com sucesso os participantes
nas atividades avaliativas e em cultivar demanda e entusiasmo entre os participantes para
aprender e realizar avaliações.
- Avaliação das iniciativas: este componente do modelo enfatiza a importância de
avaliar até que ponto os objetivos do ECB têm sido atingidos e também a determinar se outros
resultados foram atingidos (resultados secundários e não previstos).
Assim como Cousins et al. (2004), o autor afirma que a capacidade avaliativa de uma
organização está intrinsecamente ligada aos seus objetivos, estrutura e processos, tecnologia e
capital humano:
Os objetivos devem ser entendidos como os propósitos explícitos para os quais
uma organização realiza avaliações. Os estudos de avaliação devem ser
considerados apenas uma das várias formas de produção de conhecimento que
informam os processos de tomada de decisão em organizações públicas. Além
disso, a utilização institucional das práticas e achados de avaliação na tomada
de decisões e no ciclo de políticas são indicativos da intencionalidade da
organização em relação à avaliação. Estruturas e processos referem-se à
aplicação de conhecimento avaliativo no funcionamento da organização. A
tecnologia refere-se à extensão dos meios e recursos que permitem a avaliação
87
O questionário empregado no estudo abrange seis temas: (a) informações básicas sobre
o entrevistado (por exemplo, idade, duração do emprego, etc.); (b) atividade de avaliação (por
exemplo, número e tipos de avaliações realizadas); (c) estrutura e processos organizacionais
(por exemplo, localização organizacional e função da unidade de avaliação); (d) capital humano
(por exemplo, experiência de avaliação e treinamento); (e) tecnologia e modelos de avaliação
(por exemplo, modelos de avaliação e software); e (f) objetivos (por exemplo, estrutura de
avaliação, finalidade e formalização). Um total de 30 itens de escolha fixa e 6 itens abertos
compreendem o questionário para o estudo, dos quais 18 itens de escolha fixa foram incluídos
no Índice de Capacidade Avaliativa – Evaluation Capacity Index (ECI).
Na sequência, sob cada uma das duas dimensões, foram atribuídos pontos às quatro
subdimensões: Objetivos (0 a 25 pontos), estrutura e processos (0 a 25 pontos), tecnologia (0 a
15 pontos) e capital humano (0 a 35 pontos). Embora objetivos e estruturas e processos sejam
igualmente importantes para a dimensão da demanda de avaliação, diferenciou-se os pontos
atribuídos ao capital humano e à tecnologia, uma vez que Nielsen et al. (2011), consideram o
capital humano, por si só, como uma condição necessária para o desenvolvimento da
capacidade avaliativa na medida em que a tecnologia não constitui uma condição necessária.
A definição 1 gerada por Labin et al. (2012) para ECB foi utilizada para identificar os
estudos a serem incluídos na síntese de sua pesquisa, a partir da qual foi desenvolvido um
modelo integrado de ECB (Figura 15) com base nos frameworks existentes e na revisão da
literatura teórica e empírica do ECB (BAIZERMAN; COMPTON; STOCKDILL, 2002b;
COUSINS et al., 2004; DUFFY; WANDERSMAN, 2007; MILSTEIN; COTTON, 2000;
OWEN, 2003; PRESKILL; BOYLE, 2008; SUAREZ-BALCAZAR et al., 2010 apud LABIN
et al., 2012).
1
O desenvolvimento da capacidade avaliativa (ECB) é um processo intencional para aumentar a motivação
individual, o conhecimento e as habilidades, e para melhorar a capacidade de um grupo ou organização para
realizar ou usar a avaliação. (LABIN et al, 2012, p. 308, tradução nossa)
90
De acordo com Labin et al. (2012), alguns desses fatores específicos observados na
literatura incluem atitudes em relação à avaliação; disponibilidade de recursos para o ECB
(pessoal, tempo e recursos financeiros); expertise em avaliação interna, práticas e capacidade
organizacional, como suporte de líderes para avaliação e para ECB; a cultura organizacional e
da disseminação da prática avaliativa como uma rotina da organização (MILSTEIN; COTTON,
2000; OWEN, 2003; PRESKILL; BOYLE, 2008; SUAREZ-BALCAZAR et al., 2010 apud
LABIN et. al., 2012). Esses fatores podem afetar o aprendizado organizacional e a
sustentabilidade dos resultados do ECB (PRESKILL; BOYLE, 2008).
As estratégias de ECB podem ser fornecidas através de múltiplos modos, como reuniões
presenciais, teleconferências ou telefonemas, e-mail ou outros mecanismos baseados na web, e
através de materiais escritos, como manuais de avaliação. As estratégias podem ser direcionadas
ao nível individual de aprendizado e mudança de comportamento e ao nível organizacional.
A terceira coluna trata dos resultados, dos impactos promovidos pelo ECB. Os
resultados no nível individual aferiram melhoria das atitudes, conhecimentos e habilidades
evidenciados pelo engajamento em práticas avaliativas. Nesta linha, Preskill e Boyle (2008)
deduzem que a aprendizagem individual é afetada pelo contexto organizacional e Suarez-
Balcazar et al. (2010) concluem que as características de suporte organizacional são necessárias
para a aprendizagem individual e a mudança de comportamento.
92
i) Processos, políticas e práticas (PPP) para fazer e utilizar avaliações (GAO, 2003;
GIBBS et al., 2002; PRESKILL; BOYLE, 2008; SUAREZ-BALCAZAR et al., 2010 apud
LABIN et al., 2012).
ii) Liderança como importante fator para a mudança organizacional (KOTTER, 1996;
MILSTEIN & COTTON, 2000 apud LABIN et al., 2012).
v) Recursos para suporte à avaliação (BOYLE et al., 1999; GIBBS et al., 2002;
MILSTEIN; COTTON, 2002; PRESKILL; BOYLE, 2008 apud LABIN et al., 2012).
Quadro 13 – Modelo de avaliação das dimensões-chave para capacidade avaliativa nas organizações
Capacidade
Consultores Uso de consultores externos
para fazer
avaliação III
Compartilhamento de
Plano de avaliação informações
Disseminação das informações
e atividades
relacionadas
Apoio externo Relações com organizações para apoio técnico-profissional
Conhecimento das
A orientação para resultados pode ser manifestada através do
práticas avaliativas Gestão orientada para desenvolvimento de uma cadeia de resultados para o
na organização resultados programa e implementação de estratégias para mensurar o
desempenho
Utilização instrumental e
Utilização das informações avaliativas no nível operacional
conceitual
VI
Benefícios do
aprendizado Utilização no processo
Participação no processo avaliativo pode resultar em
mudanças cognitivas nos indivíduos
De acordo com os autores, o estudo produziu pistas importantes sobre o que uma teoria
da mudança de capacidade avaliativa pode parecer, sugerindo que o desenvolvimento
organizacional neste domínio não ocorre de forma linear em uma série de elementos ou
dimensões. Além disso, para os mesmos, o framework amplia a compreensão dos impactos
96
Assim como diversos autores abordados anteriormente, eles concordam que a presença
de fatores individuais e organizacionais facilita a capacidade avaliativa, levando a integração e
uso de avaliação entre participantes membros da equipe.
97
Este modelo de síntese inclui fatores individuais e organizacionais que são premissas
para prever os resultados da capacidade avaliativa, bem como seus resultados. São eles:
Além disso, Suarez-Balcazar et al. (2010) apud Taylor-Ritzler et al. (2013) vão além de
identificar preditores de capacidade avaliativa para especificar como os fatores individuais e
organizacionais se relacionam com os resultados da capacidade avaliativa. Com base no
trabalho dos autores e de outros como Cousins et al. (2004) e Nielsen et al. (2011), o modelo
postula que fatores organizacionais afetam a relação entre fatores individuais e resultados da
capacidade avaliativa. Especificamente, as práticas do ECB destinam-se a desenvolver
conhecimento, habilidades e atitudes individuais relacionados à avaliação entre os funcionários
da organização. Por sua vez, a capacidade de aprendizagem organizacional, que inclui
liderança, cultura, sistemas e estruturas e comunicação, é assumida como facilitadora e / ou
dificultadora da transferência de aprendizagem individual para processos e práticas
organizacionais. Espera-se que a presença de condições favoráveis de capacidade de
aprendizagem organizacional, como liderança efetiva, clima de aprendizagem e recursos
adequados estejam relacionados à prática avaliativa sustentável, definida como aprendizagem
contínua sobre avaliação e uso dos seus achados, frameworks e processos. Esta compreensão
da capacidade avaliativa é consistente com a de Preskill e Boyle (2008) e sugere que a relação
entre fatores individuais e práticas de avaliação sustentável (resultado da capacidade avaliativa)
é mediada pelo compromisso de uma organização em desenvolver a capacidade de avaliação e
sua capacidade de mudança (fatores organizacionais).
medição de ECB de outros autores (COUSINS et al., 2000; PRESKILL; TORRES, 2000;
TAUT, 2007; VOLKOV; KING, 2007 apud TAYLOR-RITZLER et al., 2013). Deste modo, o
estudo em questão objetivou validar o ECAI analisando os itens específicos e os fatores
individuais e organizacionais que compõem a capacidade avaliativa.
Métodos quantitativos foram aplicados para buscar testar: (1) a validade do ECAI
através da análise dos múltiplos fatores propostos que estão relacionados à capacidade
avaliativa e os itens que estão incluídos em cada fator no instrumento; e (2) o modelo de síntese
de Suarez-Balcazar et al. (2010), por meio do exame do grau em que os fatores organizacionais
de liderança, recursos e clima de aprendizagem afetam a relação dos fatores individuais de
conscientização, motivação e competência para os resultados de capacidade avaliativa de
mainstreaming e uso.
O desenvolvimento do ECAI seguiu cinco procedimentos estabelecidos no
desenvolvimento da medição.
1) Pesquisa da literatura para identificar as medições existentes de capacidade avaliativa;
2) Revisão da literatura para gerar um conjunto de indicadores para medir os fatores do
modelo de SUAREZ-BALCAZAR et al. (2010):
(a) Fatores individuais, incluindo consciência dos benefícios da avaliação,
motivação para conduzir avaliação e competência para se engajar em práticas
avaliativas;
(b) Fatores organizacionais, incluindo liderança para avaliação, clima de
aprendizagem para promoção do pensamento avaliativo e recursos que apoiem a
avaliação; e
(c) resultados críticos de capacidade avaliativa, incluindo incorporação práticas de
avaliação em processos de trabalho e uso dos resultados de avaliação.
3) Definição de itens (68) para medir os indicadores para cada um dos constructos;
4) Criação de painel de especialistas revisão dos itens e feedback;
5) Teste do ECAI com membros da equipe das organizações analisadas.
Os resultados sugeriram relação entre os fatores individuais e organizacionais e os
resultados da capacidade avaliativa. Especificamente, os fatores organizacionais desempenham
um papel crucial na relação entre os fatores individuais e a integração das práticas avaliativas
99
no cotidiano das organizações e também no uso dos resultados da avaliação para compreender
e aprimorar os programas. Conclui-se, adicionalmente, que os fatores organizacionais são
críticos nos processos do ECB. Foram encontradas evidências estatísticas da importância dos
fatores organizacionais na compreensão sobre capacidade avaliativa. Os resultados suportaram
que ainda que os membros da equipe tenham conhecimento e motivação para engajar-se em
atividades de avaliação, tais como mainstreaming e uso, essas atividades são menos prováveis
de ocorrer se a organização não prover liderança, suporte, recursos e clima de aprendizagem
necessários.
O modelo expandido da IECB indica relações diretas e indiretas (Figura 16). Segundo
Labin (2014) este modelo bidimensional linear representa um instantâneo em um ponto no
tempo. As necessidades e os pontos fortes existentes (coluna I) afetam a natureza das estratégias
de ECB (coluna II), e a eficácia das estratégias será mediada por fatores de implementação,
avaliação e capacidade organizacional. Três níveis de impactos são delineados: a teoria do
programa de ECB é que os resultados individuais e organizacionais afetarão as mudanças e os
resultados no nível do programa.
Além desse mapeamento de várias ferramentas em uma estrutura comum, uma análise
fatorial foi conduzida com os dados de síntese originais (LABIN et al., 2012) para fornecer
informações adicionais sobre dois importantes construtos. O modelo original tinha cinco
categorias de resultados organizacionais do ECB: i) políticas, práticas e processos (PPP); ii)
mainstreaming; iii) cultura; iv) liderança; e v) recursos.
III. OUTCOMES
I. NEEDS/REASONS II. ACTIVITIES
Individual Level –ECB Focused
II. MEDIATORS
Evaluations of programs
Organizational Capacity
Direct relationships
- - - - Indirect relationships Program Level
Change
Outcomes
Ainda na linha de que a maioria dos trabalhos na área se concentra apenas no lado da
oferta da avaliação (capacidade de fazer avaliação) e pouca atenção é dada ao lado da demanda
(capacidade de usar a avaliação), Cousins et al. (2014) procuraram demonstrar em um novo
estudo, cuja evolução se deu a partir do modelo anterior proposto em Cousins et al. (2008), que
a utilização das informações avaliativas nas organizações contribui para que as atividades
avaliativas sejam valorizadas pelos atores com poder decisório para promover mudanças nas
organizações ou nos programas (COUSINS; GOH; CLARK, 2005 apud COUSINS et al.,
2014). Assim, na integração da avaliação à cultura organizacional deve-se considerar que a
utilização das informações está diretamente relacionada ao valor da informação avaliativa para
a organização.
Para defender esta linha de raciocínio em torno da ênfase na capacidade para fazer
avaliação, os autores citam o modelo multidisciplinar do ECB desenvolvido por Preskill e Boyle
(2008) no qual se identifica duas principais esferas de interesse (conhecimento de avaliação,
habilidade e atitudes e prática de avaliação sustentável) com alguma consideração dada ao
contexto organizacional no qual o ECB ocorre (por exemplo, liderança, cultura e comunicação),
além do modelo integrado do ECB desenvolvido por Labin et al. (2012, 2014) o qual identifica
explicitamente os resultados do ECB e os níveis individuais (atitudes, conhecimento e
comportamento) e organizacionais (liderança, prática e recursos). Essas práticas e
comportamentos poderiam ser interpretadas como capacidade organizacional para fazer
avaliação, em vez de capacidade para utilizá-la.
Por outro lado, para que a demanda por avaliação seja desenvolvida é necessário,
preliminarmente, que os tomadores de decisão vivenciem e assimilem os benefícios da
avaliação e assim passem a disseminar e incentivar essa prática como um mecanismo para
promoção de mudanças. (SERPA, 2014).
Nesta mesma linha, Patton (2011) concebe que os avaliadores devem trabalhar em
estreita colaboração com os tomadores de decisões organizacionais para navegar na
complexidade e melhorar a inovação. A avaliação neste contexto sistêmico está intrinsecamente
ligada a usos organizacionais de investigação e evidência sistemática.
e condições que promovem esse uso. Por exemplo, a utilidade tem sido um elemento explícito
e significativo do Joint Committee Standards for Educational Evaluation. Padrões de Avaliação
de Programas desde a sua criação no início dos anos 80 e os usos apropriados da avaliação são
inerentes aos princípios orientadores da AEA. (COUSINS et al., 2014).
Para Cousins et al. (2014), o ECB direto é sempre intencional, mas o ECB indireto não
é necessariamente assim. O constructo central válido no ECB indireto é o uso no processo.
Através da experiência direta ou da proximidade da avaliação, os stakeholders não-avaliadores
aprendem novas formas de conceituar; eles aprendem a pensar "de forma avaliativa". Deste
modo, os autores deduziram que ao aceitar como razoáveis e justificáveis que as considerações
de consequência deveriam ser integradas numa concepção do ECB, então um próximo passo
lógico deveria ser dado, o de descompactar conceitualmente essa noção em um framework de
capacidade avaliativa.
Como dito anteriormente, o modelo evoluiu a partir de uma integração e análise prévia
da pesquisa e intercâmbio colaborativo entre os membros do grupo de pesquisa dos autores.
O foco do modelo buscou integrar a capacidade de fazer e usar a avaliação e, como tal,
considerar a capacidade avaliativa e quais efeitos seriam prováveis de se associarem. Isso é
representado no lado direito da FIGURA 17, sendo a unidade de análise a organização. No lado
esquerdo, representou-se as condições antecedentes e forças que influenciam ou ajudam a
determinar a capacidade avaliativa dentro da organização.
105
O aprendizado por fazer pode surgir através de cursos formais, aprendizagem incidental
ou por ação, trabalho colaborativo em equipes, mecanismos de orientação, auto-aprendizagem.
Assim, as fontes de C / A / H trabalham para melhorar a capacidade de fazer avaliação. Isso
ocorreria primeiro, no indivíduo, e depois no nível organizacional, como a transferência de
aprendizagem ocorre. Tais fontes estão fortemente concentradas em métodos e práticas de
avaliação. Há sobreposição das mesmas com as estruturas e suporte organizacional, um segundo
constructo antecedente à capacidade de fazer e utilizar avaliação que será analisado a seguir.
Capacidade
avaliativa para Investigação Condições
FAZER avaliativa mediadoras
avaliação
Fontes de
Conhecimento,
Competências e
habilidades
Capacidade
para USAR
avaliação
Estruturas e
suportes
organizacional Capacidade de
aprendizado
organizacional
Consequências
organizacionais
Legenda
Condições antecedentes que afetam a capacidade avaliativa
Consequências da avaliação
avaliações podem ser abrangentes para cobrir um programa ou podem ocorrer ao longo do
tempo em um conjunto sequenciado de projetos.
Neste ponto, surge um questionamento para Cousins et al., 2014: Em que medida o
programa-chave e os tomadores de decisão têm conhecimento sobre os processos e resultados
da avaliação?
Tais blocos são elencados da seguinte forma: missão e visão, liderança, cultura de
experimentação, transferência de conhecimento e trabalho em equipe e cooperação. São
dependentes, porém, das estruturas e suporte organizacional, ao passo que são aprimorados pela
investigação avaliativa sistemática.
Em face disso, COUSINS et al. 2005 apud COUSINS et al., 2014 constatou: quanto
mais uma organização experimenta o uso bem-sucedido da avaliação, mais inclinada estaria
para engajar-se em tal prática, consoante a hipótese dos autores de que o uso dos dados leva à
valoração dos dados.
A capacidade de uma organização para usar a avaliação pode ser subdividida em dois
fatores: uso no processo e uso dos achados (GAGNON et al., 2018):
Com base neste conceito, para Alkin e King (2016), se, por exemplo, o programa foi
alterado devido ao processo de reflexão inspirado no envolvimento na avaliação, então essa era
uma indicação do uso no processo. Ou o avaliador pode ter indicado que determinados tipos de
dados seriam coletados como parte da avaliação. Uma compreensão das medidas a serem
109
Assim como com o uso de achados, o uso no processo tem conseqüências instrumentais
e conceituais (ALKIN; TAUT, 2003). Dito isso, Alkin e King (2016) concluem que o processo
110
INSTRUMENTAL INSTRUMENTAL
CONCEITUAL CONCEITUAL
LEGITIMATIVO SIMBÓLICO
Alkin e King (2016) explanam ainda que o uso no processo pode ocorrer em momentos
diferentes quando comparado ao uso dos achados. O uso no processo instrumental ou conceitual
pode ocorrer durante o curso da avaliação ou na sua conclusão. No último caso, pode-se
considerar o resultado líquido e o impacto da participação no processo avaliativo completo. Em
uma avaliação participativa, por exemplo, pode-se esperar que as habilidades avaliativas sejam
adquiridas pela conclusão do processo de avaliação (uso no processo instrumental) ou que as
atitudes das pessoas mudaram e podem ser aplicadas a outras situações (uso no processo
conceitual).
Não obstante, Cousins et al. (2007) e Preskill e Torres (2000) ampliam a idéia de uso no
processo para o impacto nos níveis organizacional e da equipe. Amo e Cousins (2007) explicam
o mecanismo que transforma o uso no processo para a construção da capacidade organizacional
e, em última análise, para um maior uso da avaliação. Segundo estes o uso no processo é
pensado para melhorar a prontidão organizacional para a avaliação através do aumento da
111
capacidade organizacional para fazer e usar a avaliação. O impacto do processo avaliativo sobre
o desenvolvimento da organização pode ocorrer durante o processo de avaliação ou na sua
conclusão. Do mesmo modo, uma maior apreciação do valor do engajamento no processo de
avaliação pode ser adquirida durante o processo, bem como na sua conclusão.
Segundo Amo e Cousins (2007) apud Shaw e Campbell (2014), o uso no processo é
muitas vezes referido como o desenvolvimento do "pensamento avaliativo": como a equipe do
programa e as organizações mudam como resultado da participação em uma avaliação,
independentemente dos achados da avaliação. Quando o uso no processo é explicitamente
avaliado, faz-se por meio da medição de como um projeto de avaliação contribuiu para
obtenção de novos conhecimentos sobre métodos de avaliação (por exemplo, aquisição de
habilidades na análise de dados), mudanças nos sentimentos e atitudes sobre a avaliação (por
exemplo, redução ansiedade sobre a avaliação) e comportamentos emergentes quanto à
institucionalização da avaliação dentro da organização (por exemplo, mudança de processos
internos, como a manutenção de registros, para facilitar a avaliação contínua). Essas três
categorias amplas são muitas vezes referidas como aprendizado, mudanças no aspecto
emocional / atitudes e na ação / comportamento, respectivamente.
Figura 20 – Modelo integrado de princípios para uso em abordagens colaborativas guiadas para
avaliação (CAE)
CLARA
MOTIVAÇÃO
PARA
COLABORAÇÃO
PROMOÇÃO DE
PROMOVER
PROCESSOS
PENSAMENTO
PARTICIPATIVOS
AVALIATIVO
APROIPRIADOS
MONITORAR A
DISPONIBILIDADE
DE RECURSOS
Uma segunda consideração é que princípios não devem ser priorizados. Para reiterar,
argumenta-se que uma decisão sobre qual princípio enfatizar e quando, provavelmente,
dependerá do propósito da avaliação, do estágio da avaliação, do contexto em que a aplicação
CAE está sendo implementada e do surgimento de complexidades à medida que a avaliação se
desenvolve.
113
2.7.10 Estudo de caso múltiplo com quatro organizações canadenses de três setores
diferentes.
Cada uma dessas seis dimensões é subdividida em sub-dimensões mais precisas, para
um número total de 19. Os itens apresentados no instrumento são todos organizados por
subdimensionamentos. O instrumento calcula automaticamente a pontuação média por
subdivisão e dimensão. Com base na pontuação obtida para cada subdimensão, o instrumento
produz um nível de capacidade (baixo, em desenvolvimento, intermediário e exemplar).
Também foi notado que pode haver uma correspondência entre a capacidade de uma
organização de fazer e a capacidade de usar a avaliação. De acordo com essa lógica, a
capacidade mais desenvolvida para fazer avaliação leva a estudos avaliativos de maior
qualidade, o que, por sua vez, leva a uma melhor utilização. O oposto também é provavelmente
verdadeiro: uma maior demanda por avaliação e interesse em práticas baseada em evidências
resulta em níveis mais altos de recursos para avaliação e maior capacidade de fazer trabalhos
avaliativos da qualidade.
115
Quadro 15 – Dimensões comuns a vários modelos associados por Cheng e King (2017)
Através de uma análise secundária do conjunto de dados original usado pelos autores
(2008, 2014), o trabalho desenvolvido por Gagnon et. al (2018) buscou fornecer evidências
relacionadas à estrutura da validade de constructo do instrumento, o qual foi administrado,
originalmente, no Canadá em 2007.
Uma conceituação atual da capacidade avaliativa nas organizações define o ECB como
um processo intencional que visa aumentar a motivação individual, o conhecimento, as
habilidades e para melhorar a capacidade de uma organização de conduzir e usar avaliações
(LABIN et al., 2012)
3. PROCEDIMENTOS METODOLÓGICOS
A pesquisa quantitativa, que tem suas raízes no pensamento positivista lógico, tende a
enfatizar o raciocínio dedutivo, as regras da lógica e os atributos mensuráveis da experiência
humana. Por outro lado, a pesquisa qualitativa tende a salientar os aspectos dinâmicos,
holísticos e individuais da experiência humana, para apreender a totalidade no contexto
daqueles que estão vivenciando o fenômeno (POLIT et al., 2004)
A abordagem adotada na realização da pesquisa é o estudo de caso. O método é usado
para realização de estudos acerca de fenômenos individuais, grupais, sociais e organizacionais
e quando as questões de pesquisa exigirem uma descrição ampla e profunda de um fenômeno
específico (YIN, 2010), conforme está previsto no objetivo específico que analisará os fatores
que podem contribuir para o desenvolvimento da capacidade avaliativa na organização.
e obtenção de dados agrupados que possibilitam uma riqueza na análise estatística. Um estudo
de caso pode ser caracterizado como um estudo de uma entidade bem definida como um
programa, uma instituição, um sistema educativo, uma pessoa, ou uma unidade social
(FONSECA, 2002, grifo nosso).
Nesta etapa será utilizada como instrumento de coleta a pesquisa bibliográfica e a técnica
de tratamento será a análise de conteúdo, com o objetivo de identificar e mapear os conceitos
relacionados à avaliação que levam ao constructo do termo capacidade avaliativa e
desenvolvimento de capacidade avaliativa.
Nesta etapa será utilizada como instrumento de coleta a pesquisa bibliográfica e análise
documental com o objetivo de identificar e mapear os conceitos relacionados à avaliação que
levam ao desenho da ação e instrumentos avaliativos utilizados para monitorar o desempenho
da mesma.
3.1.3) Objetivo específico 3 (F3): Definir o modelo de análise selecionado para aferir o a
capacidade avaliativa da Escola;
3.1.4) Objetivo específico 4 (F4): Aferir o grau de capacidade avaliativa dos centros regionais
da Esaf no Nordeste e os fatores que podem contribuir para o seu desenvolvimento.
125
Nesta etapa será utilizada como instrumento de coleta um questionário aplicado com os
servidores e empregados públicos dos centros regionais da Escola de Administração Fazendária
no Nordeste que participam direta e indiretamente da implementação da ação governamental.
A análise dos fatores será realizada utilizando-se o roteiro de análise (F5.1) a seguir:
Com base nesses dados, optou-se por definir um estudo de caso com aplicação de
questionário com toda a população (pesquisa censo), a qual contemplou os servidores de três
Estados nos quais se situam os referidos Centros Regionais do Nordeste: Bahia (10), Ceará (09)
e Pernambuco (17). tendo em vista que, tal qual a natureza da pesquisa e a abordagem escolhida,
pretende-se uma ampla compreensão e maior exatidão acerca do fenômeno estudado.
Fotografia: Aplicação da pesquisa com os grupos de servidores nos Centros Regionais da Esaf
A seguir, detalha-se o perfil dos respondentes de acordo com o quantitativo por critério:
5 0 0
para supervisionar as avaliações externas (COUSINS et al., 2004). Isso inclui conhecimentos e
habilidades sobre planejamento de avaliação, prática ética, desenvolvimento de instrumentos,
coleta de dados, análise, interpretação e relato, bem como estratégias para o acompanhamento
de resultados de avaliações e recomendações.
A Figura 21 mostra os constructos que foram teorizados por Gagnon, Cousins, Aubry e
Goh (2018) para representar a capacidade de uma organização para fazer e usar a avaliação e
como estão relacionados entre si. Trata-se de uma evolução dos modelos anteriormente
apresentados por Cousins (2004, 2008)
131
Figura 21 - Modelo conceitual gerado a partir de Gagnon et al. (2018), com base no framework
de Cousins (2014) para descrever a capacidade organizacional de fazer e utilizar avaliação
Antecedentes Participação
Stakeholder
Suporte
Condições
Organizacional
de Mediação
Treinamento
Suporte
Organizacional
Formalização
interpretaram cada fator, identificando os itens que estes fatores representam e os relatórios
sobre porcentagem de variância explicada por cada fator, bem como o índice de confiabilidade,
alfa de Cronbach, calculado para cada fator. Praticamente todos os fatores obtiveram
consistência interna de 0,80 ou mais, o que foi interpretado como um resultado bom a excelente.
Isto se tornou possível, porque Gagnon et al. (2018) desenvolveram uma análise fatorial
exploratória (EFA) e análise de trajetória latente (LPA) para entender melhor a estrutura
subjacente da capacidade organizacional para fazer e usar os dados avaliativos. Foi escolhida a
EFA ao invés de análise fatorial confirmatória (CFA), pois a abordagem CFA de fixar muitas
ou todas as cargas cruzadas em zero pode forçar um pesquisador a especificar um modelo mais
parcimonioso do que o adequado para os dados. Em situações onde a teoria substantiva e o
potencial para cargas cruzadas justificáveis existe, o uso de EFA com rotação da matriz de
fatores é recomendado em vez do CFA, que é muito restritivo. (ASPAROUHOV; MUTHÉN,
2009 apud GAGNON et al. (2018).
Foi adotada no processo de validação do ECOQ a análise PATH, de trilha, o que
permitiu, por meio da padronização das variáveis e equações de regressão, estimar os efeitos
diretos e indiretos das variáveis explicativas sobre uma variável explicada.
Gagnon et al. (2018) submeteu a amostra dos questionários respondidos na pesquisa à
EFA para identificar quais variáveis no conjunto formaram subconjuntos ou fatores coerentes,
e quais foram observados refletindo-se em processos subjacentes que criaram correlação entre
as variáveis.
Em resumo, a estrutura de fator revelada confirma a concepção de capacidade avaliativa
para fazer e usar avaliações em organizações (FIGURA 21), com três exceções. Por isso, com
base nos resultados obtidos na validação do ECOQ pelos autores, foram realizadas
reconfigurações a posteriori de representações de constructos a priori. A variável latente a
priori "stakeholder" foi melhor representada como duas variáveis a posteriori, "usuários
primários" e "stakeholders secundários". E da mesma forma, as variáveis latentes a priori
"investigação avaliativa" foram melhor representadas por duas variáveis latentes a posteriori
"avaliação do programa" e 'medição de desempenho' enquanto 'uso de avaliação' é melhor
representada por "uso no processo" e "uso dos achados".
As evidências acumuladas na pesquisa desenvolvida por Gagnon et al. (2018)
convergem para promover uma compreensão do ECB como uma capacidade organizacional de
fazer e usar avaliações. Os resultados da análise fatorial são consistentes com modelos que
conceituam a capacidade de aprendizagem organizacional como uma função da capacidade de
uma organização para fazer e usar a avaliação. A estrutura conceitual de Preskill e Torres (1999)
133
identifica cultura, liderança, equipes, comunicação e sistemas e estruturas como centrais para a
capacidade de uma organização conduzir avaliações e fazer uso de suas descobertas. Da mesma
forma, o modelo conceitual selecionado para esta pesquisa apresenta evidências de que a
capacidade de aprendizado de uma organização se baseia nas estruturas internas de suporte
(treinamento e formalização), na capacidade de fazer e usar avaliações da organização e no
engajamento ativo das partes interessadas no processo de investigação.
Consistente com o modo conceitual de King e Volkov (2005), os resultados da pesquisa
que valida o ECOQ indicam que o desenvolvimento profissional, recursos e suporte, e ambiente
organizacional são condições antecedentes da capacidade organizacional para aprender. A
pesquisa de Bourgeois et al. (2013) coloca a capacidade avaliativa e os esforços de
desenvolvimento de capacidade avaliativa em um framework conceitual mais amplo no que diz
respeito a sistemas de aprendizagem organizacional e sua capacidade para fazer e usar a
avaliação. Os resultados deste estudo concordam, sugerindo que à medida que a investigação
avaliativa se torna enraizada na cultura de uma organização, a relação entre a capacidade de
uma organização para fazer e usar as avaliações aumenta.
E, complementarmente, os resultados da pesquisa de Gagnon et al. (2018) indicam que
a capacidade de aprendizagem de uma organização é de fato expressada por uma relação entre
a capacidade da organização de fazer e usar avaliações, conforme demonstrado pelo teste de
Nielsen et al. (2011) em seu próprio modelo conceitual. Essas observações fornecem ainda mais
evidências da validade do constructo do EQOC.
Por fim, evidências fornecidas pelo teste estatístico LPA sugerem que a capacidade de
aprendizagem de uma organização é reforçada pelas relações entre os vários fatores. Por
exemplo, a capacidade de aprendizagem é estimulada por níveis crescentes de suporte
organizacional para treinamento e outras formas de suporte a desempenhos individuais ou de
grupo. Por sua vez, o suporte organizacional leva ao aumento na capacidade de fazer avaliações,
o que, por sua vez, leva a uma maior participação e envolvimento na investigação avaliativa,
seja na forma de avaliação de programa ou medição de desempenho. O aumento da participação
e do envolvimento na avaliação leva a uma maior capacidade para usar a avaliação, seja por
meio do uso no processo, do uso dos achados ou de ambos. Quanto mais stakeholders estiverem
envolvidos no processo avaliativo e, especificamente, na medição do desempenho, maior a
capacidade de uma organização para usar a avaliação e, mais precisamente, maior a capacidade
de uma organização para utilizar os achados da avaliação.
134
Antecedentes
Participação
Suporte Stakeholder
Organizacional
Treinamento
Condições
de Mediação
Na análise das respostas, serão destaques os itens que obtiveram médias acima de 5 e
abaixo de 3, de forma a contrapor os fatores que contribuíram ou não para o desempenho da
respectiva. A partir da verificação dos resultados acima, observa-se que foi manifestada maior
concordância quanto aos itens C7, C13, C3, C2, em ordem decrescente de pontuação. Para
Cousins et al. (2014), as estruturas e o suporte organizacional incluem a baixa formalização do
trabalho e o sistema de suporte ao desempenho com a aquisição de conhecimentos e habilidades
organizacionais relevantes e apropriados para os membros da organização uma vez que são
necessárias para facilitar o aprendizado organizacional, no entanto os resultados da referida
dimensão sinalizaram um alto grau de formalismo (item C7), o que tende a impactar a
capacidade avaliativa da organização. O item C2 também evidencia o alto nível de
procedimentos e regras mesmo no que diz respeito ao fluxo de procedimentos e tomada de
decisões. Os itens C13 e C3, que tratam da relevância da capacitação dos servidores e da
aplicabilidade do aprendizado no trabalho, reforça a aquisição das competências e denota que
os treinamentos tendem a estar apropriados para os trabalhos desenvolvidos pelos membros.
Destaca-se neste ponto a observação de Bourgeois e Cousins (2018), por meio da qual
uma organização com capacidade avaliativa exemplar deve apresentar um orçamento
assegurado para a atividade avaliativa através do financiamento contínuo e permanente
especificamente atribuído à unidade de avaliação. Nielsen (2011) reforça este entendimento ao
afirmar que o financiamento é um pré-requisito para a realização de avaliações de qualidade no
contexto do ECB. Por outro lado, uma organização com baixa capacidade tem um orçamento
instável e pequeno para as funções avaliativas. Os autores observam a importância do
orçamento como fator de estabilidade à suficiência dos recursos financeiros alocados nas
atividades de avaliação; na coleta contínua de dados, que se concentra na disponibilidade de
dados de medição de desempenho, e infraestrutura organizacional, que se refere à estrutura de
governança da organização, políticas e outros apoios organizacionais que permitem a função
de avaliação prosperar. Assim, a nota atribuída ao item D1 reforça a importância de a
organização garantir mais recursos orçamentários para a avaliação da ação. Ressaltou-se ainda
que o acesso às informações sobre melhores práticas não é facilitado. Além disso, a organização
parece não recompensar a utilização de informações de desempenho no processo avaliativo.
Neste ponto, cabe citar que O apoio gerencial é necessário para a implementação e
sustentabilidade da capacidade avaliativa dentro de uma organização (KING, 2002; GOH,
2003, COUSINS et. al, 2004)
Os Centros Regionais da Esaf realizam avaliações formais das ações, uma vez que estão
previstas nos normas internas e atendem a solicitações externas, sejam dos órgãos de controle
ou dos órgãos demandantes de serviços. Neste ponto destaca-se o item F3 que se refere
justamente à formalidade descrita. Para Gagnon et al. (2018), uma maior participação e
envolvimento na investigação avaliativa, seja na forma de avaliação do programa ou ação ou
medição de desempenho, conforme item F4, leva a uma maior capacidade para usar a avaliação.
Além dos principais sistemas utilizados pela Escola para avaliação (Sigep e Sisfie) não
há evidência de outros sistemas empregados para mesma função, conforme indica o item F17
no qual os respondentes apresentaram baixo uso. Não há registros formais de utilização de um
fluxograma da ação pela Escola, questão apurada pelo item F11 e também identificada na
pesquisa documental. De acordo com CASSIOLATO et al. (2010) a organização deve orientar
a estratégia de execução do programa e a definição dos indicadores para o monitoramento e
avaliação. O processo de formulação de um do modelo lógico do programa deverá contribuir
para garantir as seguintes condições: (i) definição clara e plausível dos objetivos e resultados
140
Para Preskill e Boyle (2008), as metas do ECB não devem parar na porta da organização.
A difusão do aprendizado de avaliação ocorre quando os participantes do ECB compartilham
sua aprendizagem sobre a avaliação com stakeholders de fora da organização, os quais também
se tornam expostos ao pensamento e prática avaliativa.
Cabe ressaltar ainda que o uso no processo tem sido desde então vinculado a abordagens
colaborativas, participativas, empoderadoras, centradas na utilização e orientadas para a
aprendizagem avaliativa que defendem vários níveis de envolvimento direto ou indireto dos
stakeholders no processo de avaliação (COUSINS; EARL, 1992; FETTERMAN, 2003;
PRESKILL; CARACELLI, 1997, PRESKILL et al., 2003 apud AMO; COUSINS, 2007).
Como Patton (2008) sugere, o uso no processo é uma consequência adicional discernível
da participação dos stakeholders nas atividades de avaliação ou conhecimento de suas
atividades de avaliação. Em razão de sua proximidade com a avaliação, o envolvimento dos
stakeholders na avaliação pode se desenvolver de maneiras que sejam bastante independentes
dos achados da avaliação ou do conhecimento emergente da investigação avaliativa. Por
exemplo, a participação na avaliação pode levar a uma melhor compreensão compartilhada do
modelo lógico de um programa, um hábito de pensar avaliativo individual ou coletivo, ou uma
tendência maior de questionar as premissas básicas acerca do programa ou ação.
Quanto mais integrada for uma função avaliativa dentro de uma determinada
organização, melhor compreendida e mais útil será a avaliação para os stakeholders.
(COUSINS et al., 2014).
Manifestaram maior intensidade os itens J18 e J16 e menor intensidade os itens J6 e J12.
As avaliações são quase sempre acessíveis à Direção-Regional, uma vez que há canais
apropriados para sua realização e disponibilidade dos dados. Grande parte das condições de
mediação do uso são observadas na organização, porém com relativa frequência. Nenhuma das
condições deixou de ser observada assim como nem todas são observadas da mesma forma.
Enquanto a equipe do Centro Regional “2” atribuiu uma pontuação média por item de 4,74 o
Centro Regional “3” aferiu apenas 3,50.
As principais consequências observadas pela equipe quanto ao uso dos achados estão
relacionadas aos itens H7, H10, H6 e H5, quais sejam reportar resultados para os dirigentes ou
para a equipe de modo a subsidiar a tomada de decisão e gerar informações para atender às
requisições de prestação de contas junto aos órgãos de controle, além de justificar a
continuidade da ação. Nenhum item foi pontuado abaixo de 4, demonstrando que há maior
tendência de que o uso dos achados gere tais consequências do que não.
Como sustenta Preskill e Boyle (2008), para que a prática de avaliação seja sustentada,
os membros da organização devem não só usar os resultados da avaliação para a tomada de
decisão e ação, mas também se comunicar e celebrar os usos destes achados. Como os impactos
da avaliação são usados para melhorar os programas e tomar decisões importantes, é provável
que a avaliação se torne mais incorporada à cultura da organização.
144
É oportuno salientar, ainda, que o uso dos achados se refere às formas de uso tradicional,
especificamente instrumentais, conceituais e simbólicas (WEISS, 1979). Por exemplo, inclui
suporte para a tomada de decisão organizacional ou do programa de uma forma instrumental
ou o uso dos resultados da avaliação de uma forma simbólica (por exemplo, de conformidade)
ou política (por exemplo, persuasiva) (COUSINS et al., 2004).
A seção E possui somente uma pergunta, então, embora ela varie significativamente
entre as demais, não será considerada para efeito de comparação com as demais seções,
conforme já explicado anteriormente e por não integrar qualquer dimensão.
Observa-se que a dimensão Capacidade para Usar Avaliação teve desempenho superior
à dimensão Capacidade para Fazer Avaliação (composta pela seção “D”), a qual ocupou a
última posição na distribuição das notas.
Além das médias apresentadas para cada um dos itens, conforme Tabela 3, algumas
impressões foram relatadas pelos respondentes cujo teor pode ser relacionado e explicar o baixo
desempenho da dimensão D. De acordo com o R5/CR1 “o sistema avaliativo utilizado pela
instituição é limitado e sem dúvida passível de melhorias, em especial as relacionadas à precisão
dos dados e amplitude das variáveis avaliadas”, constatação cujo teor pode ser relacionado ao
item D7 no questionário. Para o R35/CR3 “no âmbito da atuação dos seus servidores, ainda não
há um reconhecimento pela organização daqueles que mais se esforçam e nem cobrança sobre
os que não se esforçam nas atividades avaliativas”, constatação que remete aos itens D9 e D10.
refletir nos itens D11 e D12. Para outra, “não há registros de práticas avaliativas planejadas e
institucionalmente estruturadas de modo ordenado e organizado nem permanente”, o que
corrobora para a discordância em relação ao item D6.
Gráfico 3 - Distribuição de notas das dimensões Capacidade para Fazer Avaliação (D) e
Capacidade para Usar Avaliação (H+I) de acordo com as frequências.
organização para fazer e usar as avaliações aumenta (observar que se encontram em posições
distintas na distribuição e também no framework (a capacidade de fazer precede a de usar
avaliação e entre elas há outras dimensões que influenciam o comportamento das subsequentes,
conforme poderá ser verificado posteriormente na análise fatorial). Por fim, evidências
encontradas também nos testes estatísticos de Gagnon et. al (2018) indicam que uma maior
participação e envolvimento na investigação avaliativa (Dimensão “F”), seja na forma de
avaliação de programa ou medição de desempenho levam a uma maior capacidade para usar a
avaliação (dimensão “H+I”), seja pelo uso no processo, uso dos achados ou de ambos.
O questionário foi aplicado também entre os dirigentes regionais de modo a colher suas
impressões de forma complementar com objetivo de contrastar os resultados com aqueles
aferidos a partir da análise da capacidade avaliativa organizacional realizada com a equipe de
servidores. Os dirigentes não foram incluídos no grupo de servidores por uma escolha
metodológica uma vez que suas próprias ações são avaliadas em determinados momentos do
questionário. Com isso, surge um potencial viés pois em algumas questões seriam registradas
avaliações (em relação à Direção-Regional) ou auto-avaliação (quando feita pelo próprio
dirigente regional).
Destaca-se a boa avaliação dos dirigentes quanto à capacidade de uso da avaliação pela
organização, sendo a dimensão mais bem pontuada, tendo mais de 90% das notas com altos
níveis de concordância (acima de 5). Na sequência, aparece o suporte organizacional. As duas
150
dimensões são as melhores pontuadas também pelos servidores, mas em posições inversas com
maior frequência de notas 7 para o Suporte Organizacional. Em relação à capacidade para fazer,
a percepção dos dirigentes é de maior discordância frente a dos servidores, apesar de estar mais
bem posicionada no ranking do que Condições de Mediação do Uso e Participação dos
Stakeholders. Isso se explica pelas notas médias por item dos dirigentes que foram menores em
diversas dimensões quando comparadas com as dos servidores.
A seguir, nota-se no Gráfico 5 as linhas com a demonstração da tendência das notas ao
longo das dimensões do modelo de capacidade avaliativa.
Nota-se que nos gráficos anteriores, a seção E foi incluída, mas não está associada a
nenhuma dimensão dentro do modelo. Estaria mais próxima, teoricamente, da capacidade para
fazer avaliação uma vez que trata do processo de desenvolvimento da capacidade nos servidores
por meio do aperfeiçoamento de suas competências (conhecimentos e habilidades).
Os resultados reforçam a baixa variância entre os dados, haja vista o desvio padrão
próximo a 1, e as médias em torno de 4. O teste de Kruskal-Wallis em si gerou a Tabela 11 com
estatísticas para cada variável, indicando se há ou não significância no modelo:
Como o teste Kruskal-Wallis ordena os dados, a tabela a seguir indica a posição dos
respondentes para cada estado e em cada seção. Assim, a pergunta a ser respondida é: se
ordenássemos as médias de todos os respondentes, em qual posição estaria cada estado? A
resposta pode ser observada na Tabela 13 a seguir:
153
UF N Posto médio
Seção C 1 (Bahia) 10 16,65
2 (Ceará) 9 27,28
3 (Pernambuco) 17 14,94
Total 36
Seção G 1 (Bahia) 10 24,60
2 (Ceará) 9 23,22
3 (Pernambuco) 17 12,41
Total 36
Seção J 1 (Bahia) 10 19,25
2 (Ceará) 9 25,67
3 (Pernambuco) 17 14,26
Total 36
Fonte: Elaborado pelo autor
Gráfico 6 – Posicionamento dos estados nas médias por dimensão – Suporte Organizacional
(Seção C)
0 4 8 12 16 20 24 28 32 36
Quanto mais próximo da posição 36, melhor a média. Logo, as maiores médias dos
respondentes estão entre os estados do Ceará e Bahia. Isso fica claro quando se observa (mais
a frente) quais foram os grupos que não obtiveram diferenças significativas entre os estados.
A “mediac” obteve significância entre os estados de Pernambuco e Ceará, a uma
Estatística Teste de 8.512, com 2 graus de liberdade e um p<0.01. Logo é possível concluir que
há diferenças significativas entre as respostas nesses grupos, conforme Gráfico 7 a seguir:
Gráfico 8 – Posicionamento dos estados nas médias por dimensão – Participação dos
Stakeholders (Seção G)
0 4 8 12 16 20 24 28 32 36
Gráfico 10 – Posicionamento dos estados nas médias por dimensão – Condições de Mediação
do Uso (Seção J)
0 4 8 12 16 20 24 28 32 36
A partir do exposto nos resultados da análise não paramétrica, é possível concluir que
os três centros regionais da Esaf no Nordeste não demonstram graus de desempenho
equivalentes em todas as dimensões do modelo de análise de capacidade avaliativa
organizacional, uma vez que revelou diferenças significativas nas medias de Suporte
Organizacional, Participação dos Stakeholders e Condições de Mediação dos Usos, o que nos
leva a REJEITAR A HIPÓTESE 2 da presente pesquisa.
158
Comente sobre as práticas de avaliação, tomada de decisões e resolução de problemas em sua organização ou
sobre quaisquer outras questões de interesse relacionadas ao objeto desta pesquisa
continua
Acredito que a Esaf não tem claros os seus objetivos e assim é difícil realizar
R2 CR1
avaliações.
Creio que o sistema avaliativo utilizado pela instituição é limitado e sem
R5 CR1 dúvida passível de melhorias, em especial as relacionadas à precisão dos
dados e amplitude das variáveis avaliadas.
A avaliação é uma rotina na organização, porém não há um enfoque em
R6 CR1 melhorias baseado nos resultados. As práticas de tomada de decisão são
centralizadas.
As avaliações de satisfação do público-alvo da ação são usadas apenas para
a correção de problemas pontuais. A avaliação por parte da direção costuma
R7 CR1 dar-se apenas pelo número de capacitações (meta física) e em geral não vejo
as avaliações sendo utilizadas como instrumento de melhoria contínua na
instituição.
As práticas de avaliação são consideradas na organização apenas no processo
de finalização das atividades o que tornam os resultados divergentes e
contraditório em relação à concepção do que seja um processo avaliativo e
R8 CR1
sua importância para ressignificar as ações de planejamento e suas práticas.
Constata-se também que até os processos de avaliação que existem na
organização não são utilizados para tomadas de decisão.
Avaliação é fundamental para produzir o todo da organização com foco na
R10 CR1
importância do planejamento e comprometimento organizacional.
Observo que as decisões vêm muito de cima para baixo, quando a regional é
R11 CR2 consultada parece ser proforma. Não há tempo suficiente para refletir, avaliar
e responder com segurança.
Nosso modelo de avaliação é muito bom, porém apresenta falhas por não
R13 CR2
termos um feedback por parte dos gestores.
O grande gargalo referente às práticas de avaliação é o uso dos resultados
para implementar as mudanças. Há muita resistência nas organizações
R15 CR2
públicas quanto a esse tema. Formalmente as avaliações existem, mas na
prática não observamos bom uso delas.
No Centro Regional há vários tipos de avaliação: i) avaliação institucional
R17 CR2 quando do planejamento da unidade; ii) avaliação de evento pelos
participantes, educadores e clientes; e iii) avaliação da aula pelo educador.
Se tratando da Esaf Brasília não possuímos nenhum apoio avaliativo,
R21 CR3
acarretando inércia do assunto neste centro regional.
As avaliações são de níveis confiáveis a todos os participantes que tem acesso
R22 CR3
e melhoram os resultados atingindo-se as reivindicações.
As práticas avaliativas insuficientes. Não existe a prática de mapeamento de
processos. As tomadas de decisões ocorrem do nível operacional para outro
R23 CR3 na tentativa de atender a demanda do usuário externo, tratando-se de um
aspecto puramente “sanativo” ou “apagador de incêndios”. O aspecto
preventivo da avaliação não é explorado.
159
Comente sobre as práticas de avaliação, tomada de decisões e resolução de problemas em sua organização ou
sobre quaisquer outras questões de interesse relacionadas ao objeto desta pesquisa
conclusão
Nº Respondente Centro Regional Observação
Os elementos ou itens da avaliação dos servidores envolvem questões
R24 CR3
subjetivas, a exemplo de “atender satisfatoriamente”, valor não objetivo.
Espero que a organização possa utilizar os resultados das avaliações para
R27 CR3
melhoria do serviço prestado.
Acredito que as práticas avaliativas da Esaf estão em processo de mudança,
R28 CR3 o que considero muito positivo, pois as realizadas anteriormente considero-
as sem influência para tomada de decisão.
A avaliação no âmbito do serviço público é vista com muita desconfiança
pelo servidor. Geralmente, tem-se a percepção de um instrumento punitivo,
R29 CR3
uma vez que tem ligação com remuneração e nunca é vista como um
instrumento de melhoria de desempenho da ação.
Não trabalhamos com avaliação de impacto a longo prazo. Sobre os
R34 CR3 resultados das avaliações, infelizmente nem sempre conseguimos reparar o
problema devido às limitações do serviço público.
Como organização tradicional no âmbito federal, a Esaf e os seus centros
ainda demonstram inexperiência e parcialidade em sua gestão e tomada de
R35 CR3 decisões. No âmbito da atuação dos seus servidores, ainda não há um
reconhecimento daqueles que mais se esforçam e nem cobrança sobre os que
não se esforçam.
São avaliações subjetivas e sem direcionamento da prática de nossas
R36 CR3
atividades em relação à missão.
Em nossa organização não existe um acompanhamento de metas a cumprir.
DR CR As iniciativas são quase todas regionais. Existe uma sensação de que a
Diretoria-Geral não acompanha o desempenho de cada unidade regional.
Há um distanciamento entre o órgão central (Esaf-Sede) e os centros
regionais e entre estes. É como se eles não conversassem entre si, como se
DR CR cada um tivesse plena autonomia. Há um esforço crescente do Centro em
avançar em práticas avaliativas e em tomada de decisão e resolução de
problemas a partir das informações advindas dos processos avaliativos.
Não há registros de práticas avaliativas planejadas e institucionalmente
DR CR
estruturadas de modo ordenado e organizado nem permanente.
(DR = Diretor-Regional / R = Respondentes (servidores) / CR = Centro Regional)
Fonte: Elaborado pelo autor
A partir das observações dos respondentes conforme o quadro 17 acima e a Figura 24,
é pertinente destacar que na Esaf há o entendimento de que apesar de a avaliação ser uma prática
continua na organização, ainda que em certo grau insuficiente, e apresentar razoável
confiabilidade, não há clareza dos objetivos, precisão dos dados, enfoque em melhorias
contínua e de resultados, uso dos resultados com foco na mudança, apoio avaliativo e
reconhecimento dos envolvidos. A avaliação ocorre principalmente após a implementação da
ação e não durante todo o ciclo, além disso não há feedback e a tomada de decisão ocorre de
cima para baixo. Todavia, acentua-se que a avaliação é importante para o planejamento e o
comprometimento, tal qual vimos como evidências nas respostas dos questionários em que se
verificou falta de planejamento avaliativo na Esaf (Ex. itens D6 e F8) mas aumento do
comprometimento pelo uso da avaliação (Ex. I13 e I14). Acrescenta-se ainda o distanciamento
do órgão central em relação aos centros regionais no que tange ao suporte.
160
Essa técnica diz respeito a um método estatístico multivariado, o qual tem como
propósito estabelecer uma estrutura fatorial subjacente a um determinado grupo de variáveis
correlacionadas. O método fatorial analisa a estrutura das interrelações entre muitas variáveis,
sem distinção entre dependentes e independentes, e resulta em dimensões latentes, chamadas
de “fatores”, que tem como objetivo explicar as relações entre as variáveis, considerando a
comunalidade entre elas (LEÓN, 2011).
Trata-se, portanto, de uma técnica de redução de variáveis em fatores que agrupam
variáveis comuns, agrupamento esse que só tem sentido se houver interpretabilidade e
parcimônia, ou seja, capacidade de descrever melhor a realidade de acordo com a literatura e
de modo mais simplificado.
A estimação do modelo com essa técnica passa primeiramente pela definição do número
de graus de liberdade, definido matematicamente como a diferença entre o número de
parâmetros conhecidos (elementos da matriz de covariância) e o número de parâmetros
desconhecidos (cargas fatoriais, variâncias únicas e correlações entre os erros da variável). Ou
seja, por
Onde,
df: é o número de graus de liberdade;
p: número de variáveis indicadoras;
k: número de parâmetros livre.
p(p+1)/2: indica o número de elementos da matriz de covariância
Nessa pesquisa foi utilizada uma escala tipo Likert com 07 possíveis respostas -
“Discordo Totalmente” até “Concordo Totalmente” ou “Nunca” até “Sempre” – de acordo com
a seção, sendo então aplicável ao modelo Fatorial com ajustamento pela Máxima
Verossimilhança.
Assim, testes foram feitos com o intuito de verificar se o modelo está bem ajustado. O
primeiro, é o índice absoluto “Overall Fit” que indica se a Matriz de covariância predita se
ajusta à matriz de covariância amostral, ou seja, H0:Σ=S. Para isso, foi usado o teste de
Esfericidade de Bartlett, que recupera o valor aproximado do qui-quadrado, graus de liberdade
e significância, quando o indicador não rejeita a hipótese nula (H0), e sugere um bom
ajustamento do modelo ao montar as relações entre as dimensões.
Nas saídas do software, esse Overall Fit recupera a relação entre qui-quadrado e graus
de liberdade por meio da sigla CMIN/DF, o qual é indicado pela literatura como bom ajuste do
modelo, aqueles valores abaixo de 5,0.
Esses testes são realizados previamente com o banco de dados, após construção do
modelo fatorial e outros testes são realizados, em um processo interativo entre
retiradas/inclusão de relações, a fim de que o modelo final esteja bem ajustado, dentre eles o
SRMR (Standardized Root Mean Residual), que é a média da discrepância entre a matriz de
correlação amostral e a matriz de correlação estimada, ou seja, uma medida da média das
correlações não explicadas do modelo. Brown (2006) afirma que quanto mais próximo de zero,
melhor será o ajuste do modelo, e que valores acima de 0.08 para KMO são indicativos de um
modelo não bem ajustado. Outros índices são descritos no Quadro 18 a seguir:
Com isso, os dados foram analisados agrupando seções para estimar o grau de
associação entre os itens. Para tanto, foram realizados testes com 07 (sete) modelos, dentre os
quais foram escolhidos 4 que obtiveram os melhores testes de ajustamento e 1, o modelo 1, por
questões metodológicas. Quanto ao teste de KMO e Esfericidade de Bartlet, os modelos tiveram
os seguintes resultados (Tabela 14):
Posto isso, para analisar cada modelo, foi necessário constituir fatores conforme as
técnicas da análise fatorial demonstradas a seguir nas Tabelas 16 a 20 e Figuras 25 a 29.
165
O método utilizado aqui e nos demais modelos foi de Análise Fatorial pela Componente
principal, bem como com a rotação oblíqua com normalização de Kaiser. Com isso, o sistema
retornou o indicativo de três fatores, os quais, pelo agrupamento dos itens denominou-se: Fator
1 (Aprendizagem Coletiva); 2 (Autoaprendizagem); 3 (Valorização da Inovação e Solução de
Problemas Multiequipes). Com isso, o path diagram (Figura 25) teve a seguinte configuração:
166
Com esse diagrama é possível observar as cargas fatoriais entre os fatores e as suas
variáveis agrupadas. No Fator 1 há destaque para as variáveis C4, C6 e C8, onde as cargas
fatoriais de regressão são maiores, logo, o aumento em uma unidade nessas variáveis tende a
aumentar o Fator 1 (Aprendizagem Coletiva), em suas respectivas cargas.
Esses itens estão relacionados com a ideia de a organização fornecer valorização à
aprendizagem contínua por meio da ampliação de conhecimentos da equipe, seu nível
educacional e estímulo à liderança e ao trabalho em equipe. Portanto, é possível entender que
incentivar o acúmulo desses quesitos estão associados e agrupados no Fator 1 dessa pesquisa.
Cabe ressaltar ainda que para obter a aprendizagem contínua, a organização deve fornecer
oportunidades para os membros aprenderem sobre a prática de avaliação. O ECB precisa ser
apoiado no nível cultural, dentro da avaliação de desempenho e sistemas de desenvolvimento
profissional e nos sistemas de avaliação e estruturas de suporte organizacional.
Consoante o exposto, Suarez-Balcazar et al. (2010) apud Taylor-Ritzler et al. (2013)
concluem que o suporte organizacional é necessário para a aprendizagem individual e mudança
de comportamento. Para os autores, na pesquisa em que desenvolveram o ECAI (instrumento
de análise da capacidade avaliativa) em organizações americanas, concluíram que os esforços
de ECB devem se concentrar na liderança organizacional, na cultura de aprendizagem e no
desenvolvimento de recursos apropriados e adequados dedicados à avaliação.
167
Esse modelo retornou indicações para se utilizar três fatores: Fator 1, Fator 4 e Fator 5,
conforme Tabela 17 a seguir:
FATORES
1 2 3 4 5 6
H9 0,870
H8 0,869 -0,382
H10 0,869 -0,327
H7 0,851 -0,316
H2 0,850 0,331
H3 0,850 0,336 -0,361
H5 0,845 -0,360
H6 0,810 -0,328
H4 0,742 0,359 -0,360
H1 0,613 0,439 0,486
D3 0,789
D5 0,825
D6 0,466 0,718 -0,412 -0,445
D11 -0,869
D12 0,406 -0,730
D10 0,374 -0,725
D1 0,368 -0,827
D7 0,358 -0,795
D8 0,304 -0,662 -0,522
D2 0,580 -0,349 -0,603 -0,314
D4 0,413 0,312 -0,766
D9 -0,356 -0,753
Fonte: Elaborado pelo autor (Método de Extração: Análise de Componente Principal e Método de
Rotação: Oblimin com Normalização de Kaiser)
Os resultados desse segundo modelo indicam maior variabilidade dos itens agrupados,
entretanto, apesar de o Fator 1 agrupar todos os itens da seção “Uso dos Achados”, com uma
ressalva de associação de covariância entre o erro dos itens H2 e H3, e H3 e H10, a seção
“Capacidade de Fazer Avaliação” foi subdividida em dois fatores. Sendo assim, o Fator 1
manteve a mesma denominação (Uso dos Achados); o Fator 4 foi denominado: “Relatos de
Desempenho”; e o Fator 5: “Competência e Prática”.
Com isso o diagrama fatorial (Figura 26) gerado no software AMOS ficou com a
seguinte configuração:
170
oposto também é provavelmente verdadeiro: uma maior demanda por avaliação e interesse em
práticas baseada em evidências resulta em níveis mais altos de recursos para avaliação e maior
capacidade de fazer trabalhos avaliativos da qualidade.
4.5.3 Modelo 3 - Capacidade para Fazer Avaliação e Capacidade para Usar Avaliação
(Uso no Processo)
Nesse terceiro modelo, todos os itens da seção “Uso no Processo” foram agrupados no
Fator 1, indicando que as respostas dessa seção estão plenamente associadas. No segundo fator,
o modelo indica os itens D10; D11 e D12, entretanto, por questões de ajustes do modelo
somente os itens D9 e D11 foram agrupados.
Com isso, a configuração do diagrama (Figura 27) ficou assim:
Figura 27 – Diagrama do Modelo 3
Para Hatry (2013), a forte capacidade de medir e relatar o desempenho contribui para o
desenvolvimento de um clima de aprendizado na organização que é altamente valioso para a
avaliação e a medição do desempenho. As decisões podem ser tomadas com base em evidências
e a organização pode demonstrar responsabilidade e promover o aprendizado para iniciativas
173
Esse modelo sugeriu o uso de três fatores (Tabela 19), sendo o primeiro deles, Fator 1,
denominado diretamente “Uso no Processo”, pois contempla todos os itens dessa seção. O Fator
2, ou “Investigação Exógena”, com todos os itens que mensuram as habilidades de investigar
não inerentes às próprias atividades avaliativas e o último, Fator 4, que trata de produtos da
investigação avaliativa, como geração de relatórios, intitulado “Pós-Avaliação”.
Para Bourgeois e Cousins (2008) e Torres e Preskill (2001), uma vez que as
organizações experimentam sucesso nas abordagens de avaliação participativa, elas podem
começar a implementar a investigação avaliativa em toda a organização, o que constitui a
terceira etapa do ECB (precedida por avaliação tradicional e conscientização/experimentação).
Cousins et al. (2014) defende que a investigação avaliativa implica a natureza e extensão
em que as práticas avaliativas ocorrem dentro da organização. A investigação pode ser
executada por meio de projetos de avaliação internos ou comandada por avaliadores externos.
Dependendo das necessidades de informação da organização [isto é, demanda avaliativa, o que
relaciona-se com o uso da avaliação, denotando a covariância entre as dimensões conforme
apresentadas neste modelo 6], tais projetos podem ser de natureza formativa ou somativa; usar
métodos quantitativos, qualitativos ou mistos; ser completamente implementados por
avaliadores treinados; ou, alternativamente, ser altamente colaborativos e participativos. As
avaliações podem ser abrangentes para cobrir um programa ou podem ocorrer ao longo do
tempo em um conjunto sequenciado de projetos.
Na pesquisa desenvolvida por Bourgeois et al. (2013), evidenciou-se que à medida que
a investigação avaliativa se tornava enraizada na cultura de uma organização, a relação entre a
capacidade de uma organização para fazer e usar as avaliações aumentava.
De modo a sustentar tal relação entre as referidas dimensões e seus fatores, é apropriado
mencionar que as condições de mediação servem para temperar ou moldar o impacto da
avaliação dentro da organização. Tais condições foram identificadas a partir de pesquisa sobre
o uso da avaliação (COUSINS, 2003; SHULHA; COUSINS, 1997 apud COUSINS et al, 2014),
como também, mais especificamente, em pesquisa empírica sobre avaliação governamental
(COUSINS et al., 2008) e referem-se à tempestividade, natureza construtiva do feedback,
necessidades de informação dos usuários primários, credibilidade dos achados, acessibilidade
aos usuários primários, comunicabilidade, envolvimento dos stakeholders não-avaliadores e
relevância para as prioridades de decisão.
As condições de mediação de uso foram avaliadas pelos respondentes com nota média
próxima a 4 dentro da seção, mas a frequência das notas revelou que 40% destas foram
distribuídas em nível de concordância médio para alto quanto à observação dos fatores e
condições no uso da avaliação. Já para os dirigentes, 70% de suas notas indicam discordância
quanto à presença dos fatores e condições mediadoras de uso na organização.
179
Como diversos fatores se inter-relacionaram com uma alta carga, pode-se depreender
que ações específicas podem ser executadas para o desenvolvimento da capacidade avaliativa
na Esaf como, por exemplo, investir no Fator 5 “Qualidade” do modelo 6 o qual teve destaque
para os itens J4 e J6, intrínsecos à dimensão Condições de Mediação de Uso, por sinal, um
ponto crítico de Pernambuco. Esses itens mensuram diretamente como os respondentes avaliam
a qualidade e precisão dos dados da avaliação para seu uso e foram uns do que obtiveram
menores pontuações nas médias das notas. Melhorar a qualidade das avaliações e a fornecer
resultados precisos influenciam o Fator 1 “Benefícios”, Fator 2 “Consistência e
Disponibilidade” e Fator 3 “Uso dos Achados”. Assim, mediar as condições de uso em maior
intensidade tendem a melhorar o uso dos achados bem como ampliar o uso dos achados
influencia tal mediação.
reais que acontecem na prática, e a prática precisa ser informada pelo novo conhecimento
criado e não prescindir de que ciência aprimore a prática e por meio do fortalecimento desta
refine-se a ciência. Seria requerido, pois, concentrar-se no fortalecimento de modelos
existentes, validando aqueles que não são validados e aplicando modelos validados em
outras organizações. Além disso, os modelos atuais poderiam ser fortalecidos mediante
relações mais fortes entre os modelos existentes e seus correspondentes instrumentos de
avaliação para integrar e sintetizar componentes de EC acordados atualmente (LABIN et
al., 2012; TAYLOR-RITZLER et al., 2013).
As limitações de tempo e escopo, por outro lado, não permitiu contemplar toda a Escola
de Administração Fazendária, fator que contribuiu para a impossibilidade de adotar a análise
fatorial confirmatória para análise do modelo, uma vez que o número de respondentes foi
insuficiente para a significância dos testes. Além disso, as limitações metodológicas não
possibilitaram inferências causais.
Por fim, espera-se que esta pesquisa contribua e possa ser útil para os futuros trabalhos
que venham a ser realizados sobre o tema.
182
REFERÊNCIAS
ALKIN, Marvin C.; TAUT, Sandy M. Unbundling evaluation use. Studies in Educational
Evaluation, vol. 29, p. 1-12, 2003.
ALKIN, Marvin C.; KING, Jean A. The Historical Development of Evaluation Use.
American Journal of Evaluation, vol. 27, n. 4, p. 568-579, 2016.
AMO, Courtney; COUSINS, J. Bradley. Going through the process: An examination of the
operationalization of process use in empirical research on evaluation. New Directions for
Evaluation, vol. 116, p. 5–26, 2007.
BASTOS, Glória Maria Merola da Costa Bastos; SERPA, Maria H. C. Uma investigação dos
sistemas de avaliação de programas da administração federal direta no Brasil. Revista do
TCU, v. 128. p. 28-37. 2013. set/dez
BROWN, T. A. Confirmatory Factor Analysis for Applied Research, 1ed. New York: The
Guilford Press, 2006.
CASSIOLATO, Martha; GUERESI, Simone. Como elaborar modelo lógico: roteiro para
formular programas e organizar avaliação. Nota Técnica. IPEA. Brasília, 2010.
CHRISTIE, Christina A.; ALKIN, Marvin C. Evaluation theory tree re-examined. Studies in
Educational Evaluation, vol. 34, n. 3, p. 131-135, 2008.
CLINTON, Janet. The true impact of evaluation: motivation for ECB. American Journal of
Evaluation, vol. 35, p. 120–127. 2014.
COUSINS, J. Bradley., GOH, Swee. C., CLARK, Shannon; LEE, Linda E. Integrating
evaluative inquiry into the organizational culture: A review and synthesis of the knowledge
base. The Canadian Journal of Program Evaluation, vol. 19, n. 2, p. 99-141, 2004.
COUSINS, J. Bradley. Process use in theory, research, and practice. New Directions in
Evaluation, v. 116, 2007.
COUSINS, J. Bradley; GOH, Swee C.; ELLIOT, Catherine. Organizational capacity to do and
use evaluation: preliminary results of a pan-canadian survey of evaluators. The Canadian
Journal of Program Evaluation, v. 23 (3), p. 1-35, 2008.
COUSINS, J. Bradley; GOH, Swee C.; ELLIOT, Catherine J.; BOURGEOIS, Isabelle.
Framing the Capacity to Do and Use Evaluation. New Directions for Evaluation, n. 141, p.
7-23, 2014.
184
DAHLER-LARLEN, Peter. The Evaluation Society. Stanford University Press, 2011. 280p.
FLICK, Uwe. Introdução à pesquisa qualitativa. 3. ed. Porto Alegre: Armed, 2009.
GIL, Antônio C. Como elaborar projetos de pesquisa. 4. ed. São Paulo: Atlas, 2007.
GAGNON, France; AUBRY, Tim; COUSINS, J. Bradley, GOH, Swee C.; ELLIOT,
Catherine. Validation of the evaluation capacity in organizations questionnaire. Evaluation
and Program Planning, v. 68, p. 166-175, 2018.
GOH, Swee C. Improving organizational learning capability: Lessons from two case studies.
Learning Organization, vol. 10, p. 216-227, 2004.
HOOD, Christopher. (1991). A public management for all seasons? Public Administration,
V. 69 (1), p. 3–19, 1991.
HUNTER, David E. K.; NIELSEN, Steffen. Bohni. Performance management and evaluation:
Exploring complementarities. New Directions for Evaluation, v. 137, p. 7–17, 2013.
KING, Jean A. Building the evaluation capacity of a school district. New Directions for
Evaluation, v. 99, p. 63–80, 2002.
_______________. Developing evaluation capacity through process use. New Directions for
Evaluation, v. 116, p. 45–59, 2007.
KING, Jean A.; VOLKOV, Boris. A framework for building evaluation capacity based of the
experiences of three organizations. 21st Annual Conference on Policy Analysis, 2005.
LABIN, Susan N.; DUFFY, Jennifer L.; MEYERS, Duncan C.; WANDERSMAN, Abraham
and LESESNE, Catherine A. A research synthesis of the evaluation capacity building
literature. American Journal of Evaluation, v. 33, n. 1, p. 307-338, 2012.
_______________. (The World Bank’s ECB experience. New Directions for Evaluation, v.
93, 81-99, 2002.
PRESKILL, Hallie; TORRES, Rosalie. T. The learning dimension of evaluation use. New
Directions for Evaluation, v. 88, p. 25–37. 2000
186
SHADISH, William R.; COOK, Thomas D.; LEVITON, Laura C. Foundations of Program
Evaluation: theories of practice, Newsbury Park, CA, Sage publications. 1991.
SHAW, Jessica; CAMPBELL, Rebecca. The “Process” of process Use: methods for
longitudinal assessment in a multisite evaluation. American Journal of Evaluation, v. 35, n.
2, p. 250-260, 2014.
SOUZA, Yalle Hugo; SECCHI. Extinção de políticas públicas. Síntese teórica sobre a fase
esquecida do policy cycle. Cadernos Gestão Pública e Cidadania, v. 20, ed. 66, São Paulo:
FGV, 2015. Disponível em
http://bibliotecadigital.fgv.br/ojs/index.php/cgpc/article/view/39619/0. Acesso em 25/03/2018
STOCKDILL, Stacey J.; DUHON-SELLS, Rose M.; OLSON, Ruth A.; PATTON, Michael
Q. Voices in the Design and Evaluation of a Multicultural Education Program: A
Developmental Approach. New Directions for Program Evaluation, n. 53, p. 17-33, 1992.
STUFFLEBEAM, Daniel. L. Evaluation Checklists: practical tools for guiding and judging
evaluations. New Directions for Evaluation, v. 22, n. 1, p. 71-79, 2001.
TAYLOR‐POWELL, Ellen; BOYD, Heather H.; BRAVERMAN, Marc T.; ENGLE, Molly;
ARNOLD, Mary E.; RENNEKAMP, Roger A. Program Evaluation in a Complex
Organizational System: Lessons From Cooperative Extension. New Directions for Evaluation,
v. 120, p. 55-69, 2008.
TORRES, R.; PRESKILL, Hallie. T. Evaluation and organizational learning: Past, present,
and future. American Journal of Evaluation, 22, 387–395, 2001.
VEDUNG. Evert. Four Waves of Evaluation Diffusion. Evaluation, v. 16, p. 263-277, 2010.
WEISS, Carol. Theory-Based Evaluation: Past, Present and Future. New Directions for
Evaluation, n. 76, 1997.
YANG, Kaifeng; HOLZER, Mark. The performance-trust link: implications for performance
measurement. Public Administration Review, v. 66 (1), p. 114–126, 2006.
YIN, Robert K.; Estudo de caso: Planejamento e Métodos. 4. ed. Porto Alegre: Bookman,
2010.
188
APÊNDICE
189
APÊNDICE A
CAPACIDADE AVALIATIVA EM ORGANIZAÇÕES
QUESTIONÁRIO
INSTRUÇÕES: Por favor, responda todas as perguntas do questionário, mesmo que algumas
possam parecer semelhantes.
O questionário contempla 117 itens em escala tipo Likert além de 4 itens de múltipla escolha.
O tempo estimado para resposta é de 45min.
Ao atribuir a pontuação, você deve se referir à organização como um todo e não somente à
unidade em que trabalha.
Governo Federal
Indique até que ponto você CONCORDA ou DISCORDA com cada uma dessas
declarações sobre sua organização:
(Circule apenas uma pontuação por item)
1 7
Discordo Concordo
Fortemente Fortemente
Indique até que ponto você CONCORDA ou DISCORDA com cada uma dessas
declarações sobre sua organização:
(Circule apenas uma pontuação por item)
191
1 7
Discordo Concordo
Fortemente Fortemente
Indique até que ponto você CONCORDA ou DISCORDA com cada uma dessas
declarações sobre sua organização: (Circule apenas uma pontuação por item)
1 7
Discordo Concordo
Fortemente Fortemente
Indique até que ponto você CONCORDA ou DISCORDA com cada uma dessas
declarações sobre sua organização:
(Circule apenas uma pontuação por item)
1 7
Discordo Concordo
Fortemente Fortemente
b) Outros:
Cursos de Extensão em Avaliação em Universidade (teoria, prática e método)
Cursos em pesquisa metodológica em Universidade
Outros tipos de cursos (por exemplo, instituições especializadas em avaliação):
(especifique) _________________________________________________
Outros cursos relacionados à avaliação
Nenhum
Não sei
194
Indique até que ponto sua organização se envolveu nas seguintes atividades de avaliação
nos últimos dois anos.
(Circule apenas uma pontuação por item)
1 7
Nunca Sempre
Em cada uma das duas escalas abaixo, indique até que ponto os membros dos grupos a seguir
normalmente participam de avaliações em sua organização ou para sua organização:
(Circule UMA opção para a frequência de participação e UMA opção para o nível de
participação)
G2 Diretores e Gerentes
1 2 3 4 5 6 7 1 2 3 4 5 6 7
G3 Órgãos Demandantes e
financiadores da Ação 1 2 3 4 5 6 7 1 2 3 4 5 6 7
G5 Público / Beneficiários
da Ação 1 2 3 4 5 6 7 1 2 3 4 5 6 7
G6 Grupos de interesse
especial na Ação 1 2 3 4 5 6 7 1 2 3 4 5 6 7
G7 Outros (especificar):
1 2 3 4 5 6 7 1 2 3 4 5 6 7
197
Indique até que ponto você observou as seguintes consequências da avaliação em sua
organização:
(Circule apenas uma pontuação por item)
1 7
Nunca Sempre
1 7
Nunca Sempre
J2 promovem a melhoria.
1 2 3 4 5 6 7
K. COMENTÁRIOS FINAIS
Nesta seção, sinta-se à vontade para fornecer comentários por escrito sobre as práticas de
avaliação, as práticas de tomada de decisão e de resolução de problemas da sua organização ou
sobre quaisquer outras questões de interesse.
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
___________________________________________________________________________
202
L. INFORMAÇÕES BÁSICAS
L1 Posição atual
(por favor marque √ aquela que mais se aplica à sua função atual):
Direção e Assessoramento
Núcleo de Capacitação
Núcleo Financeiro
Núcleo Administrativo
Núcleo de Recrutamento e Seleção
Outro: (Especifique)
_____________________________
L4 Como você avaliaria seu nível de conhecimento sobre o campo de avaliação, em termos de
teoria de avaliação e prática?
(√ Assinale apenas UM quesito em cada)
Masculino
Feminino
203
Ensino médio
Universidade – Graduação
Universidade – Pós-graduação
Universidade – Mestrado
Universidade – Doutorado
204
ANEXO
205
ANEXO I
Items on the Evaluation Capacity Assessment Instrument (ECAI)
Section I: About You (Individual Factors) Awareness: Thoughts About Evaluation1 I think that an
evaluation ...
1. Will help me understand my program.
2. Will inform the decisions I make about my program.
3. Will justify funding for my program.
4. Will help to convince managers that changes are needed in my program.
5. Will inform changes in our documentation systems.
6. Is absolutely necessary to improve my program.
7. Should involve program participants in the evaluation process.
8. Will influence policy relevant to my program.
9. Will help improve services to people from diverse ethnic backgrounds who also have disabilities
10. Is unnecessary because we already know what is best for our participants.
11. Is too complex for staff to do.
Learning Climate1
206
1. Resources are allocated to provide accommodations for people from diverse ethnic back- grounds and for
people with disabilities to collect evaluation information (e.g., interpreters, translated documents).
2. Staff has time to conduct evaluation activities (e.g., identifying or developing a survey, collecting
information from participants).
3. Staff has access to technology to compile information into computerized records.
4. Staff has access to adequate technology to produce summary reports of information collected from
participants (e.g., computerized database).
5. Resources are allocated for staff training (e.g., money, time, bringing in consultants).
6. Technical assistance is available to staff to address questions related to evaluation.
7. Funders provide resources (e.g., training, money, etc.) to conduct evaluation.
8. Funders provide leadership for conducting evaluation.
9. Agency leadership engages in ongoing dialogue with funders regarding evaluation.
1. To report to a funder.
2. To improve services or programs.
3. To get additional funding.
4. To design ongoing monitoring processes.
5. To assess implementation of a program.
6. To assess quality of a program.
7. To improve outreach.
8. To make informed decisions.
9. To train staff.
10. To develop best practices.
11. To eliminate unneeded services or programs.
Note. 1. Response format was a 1-4 scale, where 1 = strongly disagree, 2 = somewhat disagree, 3 =
somewhat agree, and 4 = strongly agree.
2. Response format was a 1–4 scale, where 1 ¼ not at all, 2 ¼ to some extent, 3 ¼ to a consid- erable
extent, and 4 ¼ to a very great extent.