Você está na página 1de 25

CURSO INTRODUTÓRIO DE AVALIAÇÃO

EM SAÚDE COM FOCO EM VIGILÂNCIA


SANITÁRIA

AULA 6

Etapas da avaliação

Módulo 3
Introduzindo etapas, interessados e descrição
da intervenção
MÓDULO 3

Introduzindo etapas, interessados e


descrição da intervenção

Neste módulo serão abordadas as principais etapas para a


realização de avaliação de intervenções em saúde, contemplando
a importância da modelagem de intervenções e os passos
necessários para elaboração do modelo lógico de intervenção.
03

MINISTÉRIO DA SAÚDE
Programa de Apoio Desenvolvimento Institucional do Sistema Único de Saúde
(PROADI-SUS)
Agência Nacional de Vigilância Sanitária (Anvisa)
Projeto de Institucionalização de Práticas Avaliativas: A Gestão Estratégica da
Vigilância Sanitária Baseada em Evidências
Curso Introdutório de Avaliação em Saúde com Foco em Vigilância Sanitária

EQUIPE DIRETIVA DO HOSPITAL ALEMÃO OSWALDO CRUZ - HAOC


Superintendente da Responsabilidade Social
Ana Paula N. Marques de Pinho
Superintendente de Inovação, Pesquisa e Educação
Kenneth Almeida
Gerente de Projetos
Nidia Cristina de Souza
Direção Acadêmica FECS
Letícia Faria Serpa

AGÊNCIA NACIONAL DE VIGILÂNCIA SANITÁRIA – ANVISA


Diretor-Presidente
William Dib
Diretores
Alessandra Bastos
Renato Porto
Fernando Mendes Garcia Neto
Antônio Barra Torres
Assessora-Chefe do Sistema Nacional de Vigilância Sanitária
Mariângela T do Nascimento

GRUPO EXECUTIVO DO PROJETO


Hospital Alemão Oswaldo Cruz
Nidia Cristina de Souza
Bruno Lopes Zanetta
Coordenação Geral do Curso ANVISA
Isabella Chagas Samico

EQUIPE INNOVATIV – LABORATÓRIO DE EDUCAÇÃO CONECTADA DA FECS/HAOC


Gestão dos Processos EaD
Débora Schuskel
Gestão dos Processos do Curso
Jocimara Rodrigues de Sousa
Gestão do Ambiente Virtual de Aprendizagem
Rafael Santana Santos
Designer Educacional
Nayara Bertin
Produção Áudio Visual
Wellington Florentino Leite
04

EQUIPE TÉCNICA
Equipe Técnica do Projeto – Conteúdo e Texto
Ana Coelho de Albuquerque
Bruno Lopes Zanetta
Danila Augusta Accioly Varella Barca
Denise Ferreira Leite
Eronildo Felisberto
Gabriella de Almeida Raschke Medeiros
Isabella Chagas Samico
Luciana Santos Dubeux
Mônica Baeta Silveira Santos
Patrícia Fernanda Toledo Barbosa

Revisão Técnica do Conteúdo


Ana Coelho de Albuquerque
Danila Augusta Accioly Varella Barca
Eronildo Felisberto
Gabriella de Almeida Raschke Medeiros
Isabella Chagas Samico
Luciana Santos Dubeux
05

Sumário

Aula 6 – Etapas da avaliação 06

Introdução 07

1. Envolver os interessados 08

2. Descrever o programa 12

3. Definir o desenho da avaliação 14

4. Obter evidências confiáveis 15

5. Justificar as conclusões 17

6. Compartilhar as lições aprendidas e assegurar seu uso 20

Síntese da aula 24

Referências 25
06

Aula 6 – Etapas da avaliação

Ementa da aula

Nesta aula serão apresentadas as principais etapas de uma avaliação de


intervenções em saúde, bem como a importância de cada uma delas.

Objetivos de aprendizagem

Conhecer as principais etapas de uma avaliação de intervenções em


saúde e entender a importância de cada etapa da avaliação.
07

Introdução
No módulo anterior foram apresentados os principais conceitos e abordagens
metodológicas do campo da avaliação em saúde. Nesta aula, serão apresentadas as etapas
da avaliação de uma intervenção em saúde, seja ela um programa, um serviço ou uma
ação. Uma avaliação contempla seis etapas: envolver os interessados, descrever o
programa, definir o desenho da avaliação, obter evidências confiáveis, justificar as
conclusões e compartilhar as lições aprendidas e assegurar seu uso (conforme apresentado
na figura 1).

Envolver os interessados Descrever o programa

PADRŌES
Compartilhar as lições
Definir o desenho da
aprendidas e assegurar Úteis avaliação
seu uso
Factíveis

Obter evidências
Justificar as conclusões confiáveis

Figura 1. Etapas na avaliação de intervenções em saúde


Fonte: Adaptado de CBPH1.

No entanto, algumas dessas etapas terão um destaque maior e serão abordadas de


forma mais detalhada em aulas subsequentes.
08

1. Envolver os interessados
Sabemos que cada pessoa pode ter pontos de vista diferentes sobre um mesmo
objeto, o que proporciona diversidade e riqueza de olhares. No processo de avaliação isso
não é diferente. Para que um processo avaliativo seja considerado adequado, deve-se
identificar seu público potencial e comunicar-se com ele, de modo que as opiniões desse
público sejam levadas em consideração. Para tanto, o avaliador, desde o início, deve
procurar identificar os possíveis interessados no programa (também denominados de
stakeholders), e/ou nos usos da avaliação, com o propósito de envolvê-los no processo
como um todo, ou apenas em determinados momentos1,2.

Quem seriam os indivíduos ou grupos? São todos aqueles que têm alguma
expectativa em relação à intervenção/ programa. Para mapeá-los, podemos fazer os
seguintes questionamentos: quem tem interesse no programa? Quem usaria as informações
geradas pela avaliação? É importante consultar documentos sobre o programa ou
entrevistar pessoas-chave para delimitar melhor esses indivíduos.

Dessa forma, perceberemos que entre os possíveis públicos da avaliação existem


aqueles mais diretamente ligados à implementação do programa, os interessados internos,
e aqueles beneficiados por este, os interessados externos2. Alguns exemplos de interessados
internos são: gestores (aqueles que administram o programa), legisladores (membros de
órgãos do governo, vereadores, deputados), profissionais (aqueles que operam o programa)
e parceiros (ONG, financiadores). Quanto aos interessados externos, destacamos: clientes
primários (público-alvo do programa, ou seja, seus usuários diretos) e clientes secundários
(afetados com o que acontece com os clientes primários, por exemplo, comunidades)2.
09

1.1 Por que é importante identificar e envolver os possíveis


interessados na avaliação?

É comum deparar-se com estudos de Esse processo também pode ser


avaliação realizados a partir do envolvimento denominado de avaliação participativa, na
de um mínimo de participantes, qual os interessados podem ser engajados
tradicionalmente especialistas externos e ao ponto de partilharem as decisões sobre o
alguns técnicos do programa. Mas, uma programa ou participarem apenas como
avaliação na qual apenas alguns pontos de informantes e colaboradores. O
vista sobre o programa são observados pode envolvimento dos principais atores favorece
ser realmente útil? a valorização, a integração, o respeito ao
saber dos envolvidos, a capacidade de a
Quando os avaliadores não dirigem
informação coletada gerar novas
claramente a avaliação para os usuários
aprendizagens e o compromisso de todos
potenciais desde o início, é improvável que
com a concretização dos objetivos
os resultados tenham a utilidade e a
do programa3,4.
credibilidade esperada. O diálogo entre os
diversos interessados ajuda a esclarecer o
propósito da avaliação (para que avaliar?) e,
consequentemente, subsidia o foco e o
direcionamento do estudo1.
10

1.2 Como envolver os interessados e identificar seus


interesses e necessidades?
Apenas a identificação dos possíveis interessados não é suficiente para que essas
pessoas estejam engajadas na avaliação e participando ativamente de sua realização. É
pouco provável que a avaliação conte com a participação de todos, portanto a viabilidade
de participação deve ser considerada na etapa de planejamento da avaliação. A seleção do
público também deve levar em conta a disponibilidade e o interesse de cada um, já que
muitas vezes não será possível articular uma forma de envolver todos os prováveis
interessados, pois alguns deles poderão, em determinado momento, ter pouco interesse no
programa. É importante, ainda, garantir que os diversos segmentos tenham
seus interesses representados.

Deve-se ter cuidado com determinadas representações


Atenção!
tendenciosas que pouco têm a contribuir.

As preocupações dos interessados na avaliação são motivadas por seus valores e


crenças. Para apreendê-los, o avaliador deve discutir, se possível pessoalmente, com os
representantes de cada público para conhecer as opiniões e/ou necessidades deles5. Com
esse intuito, podem ser realizados alguns questionamentos, tais como: o que cada público
entende como objetivo do programa? Que preocupações o programa suscita neles? O que
esperam descobrir com a avaliação? O conhecimento dos diversos pontos de vista ajuda o
avaliador a não só levar em consideração todos os públicos, como também a visualizar um
quadro mais completo sobre o programa1,2.

Após a coleta das informações e impressões desse público, é importante que o


avaliador identifique o papel ou atribuição a ser desempenhado por cada um dos
participantes na avaliação. Alguns interessados podem ser envolvidos na execução,
coordenação, assessoria, coleta e processamento de dados; já outros poderão ser
consultados apenas esporadicamente. É importante distinguir, entre os interessados, quem
apresenta um papel mais decisório sobre os usos da informação da avaliação daqueles que
estão no processo para apenas contribuir. Nem todos os públicos estão interessados nas
mesmas informações.
11

Os gestores do programa provavelmente estarão interessados em mais detalhes do


que os legisladores ou o público em geral2. Outra questão importante no envolvimento dos
interessados é conseguir delimitar quem antagoniza abertamente a avaliação e o programa,
quem é favorável e quem tem um posicionamento neutro ou desconhecido. Dessa maneira,
é possível conjecturar sobre quais são os prováveis aliados (quem apoia) e pessoas que
podem ser alvo de conversa/negociação/consenso (oponentes e indivíduos com opinião
neutra ou ignorada). Caso o papel de possíveis oponentes não seja estratégico no
desenvolvimento da avaliação, deve-se reconsiderar a necessidade de envolvê-los. No
entanto, caso o projeto tenha problemas para sua viabilidade ao não engajar essas pessoas
ou entidades, técnicas de negociação de conflitos devem ser empregadas com mais ênfase.

1.3 Por que precisamos determinar os usos da avaliação?

Toda avaliação gera conclusões que


são importantes para a tomada de decisão
sobre a intervenção. Portanto, é necessário
que possamos determinar, entre os
interessados na avaliação, os que
efetivamente utilizarão os resultados desta
(denominados em algumas referências de
usuários), e de que forma essas conclusões
serão utilizadas por eles (para que avaliar?).
Informações cuja resposta já é conhecida ou
que não sirvam para que alguém tome
decisão sobre o programa deverão ser
descartadas1. O importante é considerar as
informações que cada interessado precisa e
quais delas serão usadas por eles, visto que
nem todos necessitam das
mesmas informações.
12

Determinados interessados, como um secretário municipal de saúde, podem querer


utilizar certas informações com fins de alocar ou justificar investimentos financeiros; outros
usuários, como os legisladores, podem desejar formular um projeto de lei ou realizar uma
emenda constitucional sobre o assunto; os gestores do programa podem querer
desenvolver um instrumento para avaliação das atividades de capacitação previstas; os
clientes podem utilizar os resultados da avaliação para pressionar os tomadores de decisão
a investir em ações intersetoriais de controle sanitário; o conselho local de saúde pode
estar interessado em decidir sobre a aprovação ou não do plano de municipal de saúde,
com base em evidências sobre os resultados do programa.
Da mesma forma, para a seleção das perguntas, os usos e usuários devem ser
revistos constantemente, porém não se deve perder de vista que, apesar das possíveis
mudanças no contexto político, alguns focos continuarão sendo importantes.

2. Descrever o programa
A forma como um programa é Além disso, a descrição do programa
descrito estabelece o quadro de permite que os membros de um grupo de
referência para todas as decisões futuras avaliação comparem o programa a esforços
sobre sua avaliação. Por exemplo, um similares e facilita a constatação de quais
programa pode ser descrito como uma partes do programa surtiram quais efeitos.
“tentativa de reforçar o cumprimento das Diferentes partes interessadas podem ter
leis acerca do uso de agrotóxicos”, diferentes ideias sobre quais os objetivos e
enquanto outro pode ser descrito como motivações do programa. Por exemplo, em
“um programa para reduzir o número de um programa para redução risco sanitário em
agrotóxicos”. O primeiro programa portos, aeroportos e fronteiras, algumas
especifica o cumprimento da lei, partes interessadas podem acreditar que isso
enquanto o segundo programa é definido signifique aprimorar os roteiros de inspeção
mais amplamente como redução do da vigilância, enquanto outros podem
número de agrotóxicos utilizados. Os acreditar que signifique elevar a prioridade e
diferentes componentes desses dois a periodicidade das ações voltadas
programas moldarão a direção dos para esses locais.
esforços da avaliação.
13

Avaliações realizadas sem acordo sobre a definição do programa provavelmente


terão sua utilidade comprometida. Em muitos casos, o processo de trabalho com as partes
interessadas no desenvolvimento de uma descrição clara e lógica do programa trará
benefícios muito antes de os dados estarem disponíveis para medição da efetividade do
programa (esse é um bom exemplo de por que é importante identificar as partes
interessadas antes de dar continuidade às etapas seguintes).

Assim, entende-se que a descrição da intervenção:

• permite um entendimento entre os envolvidos sobre os objetivos, metas, atividades


e recursos do programa;

• ilustra os principais componentes do programa;

• explica o que o programa está tentando atingir e como fazer;

• explicita a capacidade de um programa realizar mudanças.

Na próxima aula abordaremos especificamente esta etapa, apontando os passos


para a modelagem (desenho) de uma intervenção e sua importância.
14

3. Definir o desenho da avaliação


Essa etapa tem como foco a definição do desenho da avaliação. Assim, busca
certificar-se de que a abordagem escolhida para a avaliação responde às questões
levantadas pelas partes interessadas, e que o processo fornece feedback contínuo em todos
os níveis de operação do programa.

3.1 Quais os aspectos envolvidos na definição do desenho da


avaliação?

Uma vez que tenha sido determinado para quem e/ou para que se destina a avaliação, há
alguns passos para estabelecer seu desenho:

Identificar e
Definir os selecionar
Definir o
usuários e os questões de
objetivo da
usos da avaliação:
avaliação
avaliação perguntas
avaliativas

Definir que Construir o Escolher os


perguntas consenso métodos e
interessa aos sobre os técnicas de
envolvidos indicadores, coleta e
ver critérios e análise de
respondidas padrões dados

Ou seja, definir o desenho da avaliação representa um processo por meio do qual


um projeto é estruturado para apreender as informações que todas as partes interessadas
concordam serem importantes. Esta etapa garante que o projeto da avaliação atenda às
necessidades de todos os usuários, que o processo responda às questões levantadas e que
a avaliação leve em consideração as restrições impostas pelo tempo e pela disponibilidade
dos recursos técnicos.
15

4. Obter evidências confiáveis


As partes interessadas devem
considerar as informações reunidas como
verossímeis, confiáveis e relevantes para Importante!
suas questões. A credibilidade dessas
informações baseia-se nas questões Reconhecendo que todos os
levantadas no início do processo de avaliação tipos de dados apresentam limitações,
e nos motivos das partes interessadas em é possível fortalecer a credibilidade do
perguntá-las. Em outras palavras, os padrões projeto de avaliação pelo uso
de credibilidade dependem das de diversos procedimentos
perguntas feitas. para reunir, analisar e interpretar
A obtenção de evidências confiáveis dados (triangulação).
reforça os resultados da avaliação e as
recomendações que a esta se seguem.

O aumento da participação ativa das partes interessadas também aprimora a


credibilidade, uma vez que as referidas partes estarão mais suscetíveis a aceitarem as
conclusões da avaliação e a agirem de acordo com suas recomendações.
16

Em algumas situações, pode ser necessário solicitar conselhos sobre o(s) método(s)
mais apropriado(s) a utilizar aos especialistas em avaliação, dadas as restrições de dados,
limitações de recursos e padrões de evidências estabelecidos pelas partes interessadas.
Esse aspecto é especialmente importante em situações nas quais as preocupações com a
qualidade dos dados são altas, ou quando os erros ou inferências podem apresentar
sérias consequências.

Uma parte essencial de uma boa avaliação é uma revisão de conhecimentos prévios
e de experiências realizadas em outros tempos e lugares. A revisão da literatura publicada e
dos documentos não publicados pode ajudar a fortalecer o processo de elaboração do
projeto de uma avaliação. Os participantes do programa e outras partes interessadas
também podem ser importantes fontes de informações complementares. A familiaridade
com outras avaliações ou pesquisas em intervenções similares (ou intervenções diferentes
projetadas para abordar o mesmo problema) pode ajudar no desenvolvimento de critérios
para julgamento de seu próprio programa.

As fontes de evidências em uma avaliação podem ser pessoas, documentos ou


observações, e mais de uma fonte pode ser usada para reunir evidências para um mesmo
indicador. De fato, a seleção de diversas fontes de evidência fornece uma oportunidade de
incluir diferentes perspectivas sobre o programa, otimizando assim a credibilidade da
avaliação. Por exemplo, a documentação do programa que reflete uma perspectiva interna
(equipe) pode ser combinada com as entrevistas-chave informativas com os usuários do
programa, fornecendo uma visão mais abrangente sobre este. Além disso, a integração das
informações qualitativas e quantitativas pode produzir evidências mais completas e úteis,
satisfazendo as necessidades e expectativas de uma gama maior de partes interessadas.

Em resumo, obter evidências confiáveis representa um processo por meio do qual as


informações sobre o programa no qual você está engajado podem ser reunidas e
sintetizadas para apresentação posterior. Esse processo garante que os benefícios da
avaliação (os usos dessas informações) sejam claros para todas as partes interessadas, e
que os procedimentos seguidos foram acordados entre todos.
17

5. Justificar as conclusões
As evidências reunidas para uma
avaliação não necessariamente falam por si.
Para substanciar e justificar as conclusões, é
importante considerar cuidadosamente as
evidências a partir de uma variedade de
perspectivas das partes interessadas. As
conclusões se justificam quando são
vinculadas às evidências reunidas e julgadas
em comparação aos valores sobre os quais
as partes interessadas concordaram.

Quando esses concordam que as conclusões são justificadas, os resultados da


avaliação são utilizados com mais confiança. As conclusões podem ser fortalecidas por meio
da busca por explicações alternativas e demonstração do motivo pelo qual as evidências
não as apoiam. Quando há conclusões diferentes, porém igualmente bem apoiadas, pode
ser útil apresentar cada conjunto de conclusões com um resumo sobre seus pontos fortes
ou fracos.

Quais os aspectos envolvidos na justificativa de conclusões?


Quatro elementos principais estão envolvidos na justificativa de conclusões:

Padrões do Interpretação Julgamentos Recomendações


programa
18

Os parâmetros ou padrões da avaliação discutidos anteriormente são fundamentais


para uma avaliação correta, pois refletem os valores das partes interessadas sobre a
intervenção e:

• permitem que os avaliadores e partes interessadas realizem julgamentos sobre a


intervenção;
• fornecem caminhos alternativos para comparar os resultados da intervenção.

Quando as partes interessadas articulam e negociam seus valores, estes se tornam


os parâmetros para que uma intervenção seja considerada “bem-sucedida”, “adequada” ou
“malsucedida”. Nesse sentido, a interpretação configura-se como o esforço de descobrir o
significado das descobertas da avaliação, utilizando, para isso, os valores acima referidos, e
considerando as informações e perspectivas que as partes interessadas trazem para a
avaliação, sendo fortalecida pela participação e interação ativas dessas partes. E cada olhar
sobre a intervenção e os resultados do estudo pode gerar interpretações diferentes, pois as
experiências e expectativas de cada grupo acarretam em novos significados
para os resultados.

Sendo assim, a descoberta de fatos sobre o desempenho de uma intervenção não é


o suficiente para chegar a conclusões. Os fatos devem ser interpretados para que seu
significado prático seja compreendido. Os julgamentos são declarações sobre o mérito do
programa, sua validade e seu significado. Eles são formados quando as descobertas e
interpretações são comparadas a um ou mais padrões selecionados para avaliação. Na
formação de julgamentos sobre um programa, pode-se utilizar diversos padrões e não será
incomum verificar que os interessados podem realizar julgamentos diferentes ou
mesmo conflitantes.
19

Alegações discordantes sobre a qualidade, valor ou importância de uma intervenção


muitas vezes indicam que as partes interessadas estão usando parâmetros ou padrões
diferentes ao realizarem seus julgamentos. Esse tipo de desacordo pode impeli-los a
esclarecer seus valores e chegarem a um consenso sobre como a intervenção
deve ser julgada.

Para realização do julgamento de valor, deve-se sempre partir das perguntas


avaliativas elaboradas para definir critérios/indicadores e parâmetros, os quais podem
incorporar uma matriz de julgamento, que apresenta os seguintes elementos:

• Pontuação máxima: refere-se ao teto máximo que poderá ser atribuído àquele critério
ou indicador.

• Descrição do valor ou ponto de corte: diz respeito ao intervalo aceitável para cada
variável estudada.

• Valor observado: refere-se ao critério/indicador coletado pelo estudo.

• Valor atribuído: refere-se ao valor que será atribuído ao observado de acordo com os
pontos de corte estabelecidos.

• Classificação segundo o valor atribuído: refere-se à categorização na qual aquele item


estudado será enquadrado, isto é, em que estrato este item vai ser classificado. Os
mais usuais são a divisão em tercis ou quartis.

Três estratos (exemplos de pontos de corte Quatro estratos (exemplos de pontos de


e denominações): corte e denominações):

• De 66,6% a 100,0%: implantação • 75,0% a 100,0%: implantação


satisfatória ou plena satisfatória ou adequada

• 50,0% a > 75,0%: implantação parcial ou


• De 33,3% a >66,6%: implantação
parcialmente adequada
parcial, média
• 25,0% a >50,0%: implantação
• 1,0% a > 33,3%: implantação incipiente. desfavorável ou não adequada

• 1,0% a >25,0%: implantação incipiente


ou crítica.
20

Após o julgamento, podemos realizar as recomendações, as quais são ações a serem


consideradas como resultado de uma avaliação. Essas exigem informações além das
necessárias para formar o julgamento sobre uma intervenção e:

• podem fortalecer uma avaliação quando antecipam e reagem ao que os usuários


querem saber;
• podem minar a credibilidade de uma avaliação se não forem suficientemente
apoiadas por evidências ou se não estiverem de acordo com os valores das
partes interessadas.

Nos módulos seguintes abordaremos de maneira mais detalhada a definição de


critérios, indicadores e parâmetros, bem como os conceitos de interpretação e
julgamento de valor.

6. Compartilhar as lições
aprendidas e assegurar seu uso
Não se deve assumir que as lições
aprendidas em uma avaliação serão
necessariamente usadas na tomada de
decisões e ação subsequente. Os
participantes da avaliação devem fazer um
esforço deliberado para promover o uso das
descobertas da avaliação. Além disso, eles
têm a responsabilidade de impedir o mau
uso das descobertas.

Os fatores que influenciam se os resultados serão utilizados incluem: credibilidade do


avaliador, divulgação das descobertas, esclarecimento dos relatórios, oportunidade e
imparcialidade, bem como alterações no contexto do programa ou da organização. A
garantia do uso exige a preparação de uma estratégia desde os primeiros estágios da
avaliação, bem como um olhar diligente das oportunidades para comunicar resultados e
influenciar na tomada de decisão.
21

O próprio processo de executar uma avaliação é importante. Quando as pessoas são


expostas aos valores que guiam uma avaliação, seu pensamento e comportamento podem
mudar profundamente. A participação em uma avaliação pode:

• encorajar as partes interessadas a basearem as decisões em julgamentos sistemáticos


em vez de em assunções sem fundamento;

• estimular as partes interessadas a esclarecerem sua compreensão das metas do


programa, melhorando sua capacidade de funcionar como uma equipe;

• ajudar as partes interessadas a esclarecerem o que é realmente importante por meio


do processo de definição de indicadores;

• tornar os resultados importantes, juntando esforços para atingir resultados positivos.


22

O que está envolvido no compartilhamento das lições aprendidas e na asseguração


de seu uso?
Quatro elementos são importantes para que os achados de uma avaliação
sejam usados:

Preparação Feedback Acompanhamento Disseminação

Preparação refere-se às etapas realizadas para planejar o uso dos achados da


avaliação. Por meio da preparação, as partes interessadas podem:

• fortalecer sua capacidade de traduzir conhecimento novo em ação adequada;


• discutir como os achados potenciais podem afetar a tomada de decisão;
• explorar implicações positivas e negativas dos resultados e identificar diferentes
opções de melhora do programa.

Feedback é a comunicação que ocorre entre todas as pessoas envolvidas na


avaliação. O feedback, necessário em todos os estágios do processo de avaliação, cria uma
atmosfera de confiança entre as partes interessadas. No início de uma avaliação, o processo
de dar e receber feedback mantém uma avaliação em curso, garantindo que todos os
participantes estejam informados sobre como o programa está sendo implementado e
como a avaliação está progredindo.
Conforme a avaliação progride e os resultados preliminares tornam-se disponíveis, o
feedback ajuda a assegurar que os usuários e outras partes interessadas têm oportunidade
de comentarem sobre as decisões da avaliação. Um feedback valioso pode ser obtido das
partes interessadas por meio de discussões durante cada etapa da avaliação e dividindo de
forma rotineira achados e relatórios intermediários.

Embora o termo acompanhamento remeta ao suporte de que muitos usuários


precisam por todo o processo de avaliação, esse elemento, em particular, refere-se ao
suporte necessário após os usuários receberem os resultados da avaliação e começarem a
atingir e justificar suas conclusões.

Acompanhamento ativo:

• lembra os usuários dos usos propostos do que foi aprendido;


• pode ajudar a prevenir o mau uso dos resultados, assegurando que a evidência seja
aplicada às questões que eram o foco central da avaliação;
• previne lições aprendidas de tornarem-se perdidas e ignoradas no processo de
tomada de decisões complexas ou políticas.
23

Disseminação é a comunicação dos


processos de avaliação e lições aprendidas ao Dica!
público relevante, de forma imparcial e
consistente. Independentemente de como as Avaliação dos programas de saúde:
comunicações sejam estruturadas, o objetivo perspectivas teórico-metodológicas e
da disseminação é atingir a divulgação políticas institucionais7.
completa e o relato imparcial.
O planejamento de comunicações
eficazes exige discussão da estratégia de relato
com usuários e outras partes interessadas e
consideração sobre o momento, estilo, tom,
fonte de mensagem, veículo e formato dos
produtos de informação.

Por fim, é importante ressaltar que o processo de condução de uma


avaliação pode ser tão importante quanto as conclusões dela advindas; o
próprio envolvimento no processo já produz um melhor entendimento das
atividades que estão sendo avaliadas6.
24

Síntese da aula

Nesta aula foram apresentadas as principais etapas na avaliação de uma intervenção


em saúde, seja esta um programa, um serviço ou uma ação. Tais etapas iniciam pelo
envolvimento das partes interessadas, seguidas pela descrição da intervenção, definição do
desenho da avaliação e obtenção de evidências confiáveis. Ao final, é importante justificar
as conclusões, compartilhar as lições aprendidas e assegurar seus usos. Esses seis passos
facilitam a compreensão do contexto da intervenção que está sendo avaliada e otimizam a
forma como as avaliações são concebidas e realizadas.
25

Referências
1. Center for the Advancement of Community Based Public Health (CBPH). Engajar as partes
interessadas. In: Center for the Advancement of Community Based Public Health (CBPH). Uma
Estrutura de Avaliação para os Programas de Saúde para a Comunidade. Carolina do Norte:
CBPH; 2000. p. 13-8.

2. Worthen RB, Sanders JR, Fitzpatrick JL. Definição de limites e análise do contexto da Avaliação.
In: Worthen RB, Sanders JR, Fitzpatrick JL. Avaliação de Programas: concepções e práticas. São
Paulo: Gente; 2004. p. 301-5.

3. Becker D, Edmundo K, Nunes NR, Bonatto D, Souza R. Empowerment e avaliação participativa


em um programa de desenvolvimento local e promoção da Saúde. Ciênc Saúde Coletiva.
2004;9(3):655-67.

4. Bursztyn I, Ribeiro JM. Avaliação participativa em programas de saúde: um modelo para o


Programa de Saúde do Adolescente. Cad Saúde Pública. 2005;21(2):404-16.

5. Rossi PH, Lipsey MW, Freeman HE. The nature of the evaluation stakeholder relationship. In:
Rossi PH, Lipsey MW, Freeman HE. Evaluation: A System approach. 7ª ed. Califórnia: Sage; 2004.
p. 48-52.

6. Felisberto E. Avaliação do processo de implantação da estratégia da Atenção Integrada às


Doenças Prevalentes da Infância (AIDPI) no Programa Saúde da Família (PSF) no estado de
Pernambuco no período de 1998 a 1999 [dissertação]. Recife: Núcleo de Estudos em Saúde
Coletiva do Centro de Pesquisas Aggeu Magalhães da Fundação Oswaldo Cruz; 2001.

7. Hartz ZMA. Avaliação dos programas de saúde: perspectivas teórico-metodológicas e políticas


institucionais. Ciênc Saúde Coletiva [periódico na internet]. 1999 [acesso em 30 jan. 2019]; 4(2):
341-53. Disponível em: http://www.scielo.br/scielo.php?pid=S1413-
81231999000200009&script=sci_abstract&tlng=pt

Leitura Complementar
Samico I, Felisberto E, Figueiró AC, Frias PG. Avaliação em Saúde: bases conceituais e operacionais.
Rio de Janeiro: Medbook; 2010.

Você também pode gostar