Você está na página 1de 425

Por que algumas doenças se

desenvolvem em algumas
pessoas e em outras não?

1.1 INTRODUÇÃO
A Epidemiologia agrega variadas linhas de conhecimento, discutidas
a seguir, que emergiram fortemente a partir do século 17. Naomar de
Almeida Filho, epidemiologista brasileiro de destaque internacional,
explica que o século em questão foi inovador nos sentidos político e
social, pois a necessidade de “calcular” a população passa a ser
fundamental para o Estado, por questões políticas e militares. Nesse
contexto, surgem linhas como a “aritmética política”, de William
Petty (1623-1697), e a “estatística médica”, de John Graunt (1620-
1674) (ALMEIDA FILHO, 1986).
John Graunt foi o primeiro a quantificar os padrões de natalidade e
mortalidade e a ocorrência de doenças, identificando características
importantes, entre elas a existência de diferenças entre os sexos e na
distribuição urbano-rural, elevada mortalidade infantil e variações
sazonais existentes. Foi ele o responsável pelas primeiras
estimativas de população e pela elaboração de uma tábua de
mortalidade, também conhecida como tábua de vida, que é um
procedimento para estimar a expectativa de vida da população.
Este trabalho marcou não somente o início formal da Epidemiologia,
como também uma das mais espetaculares conquistas, foi a
descoberta, por John Snow, de que o risco de contrair cólera estava
relacionado ao consumo de água de uma fonte específica
(BEAGLEHOLE; BONITA; KJELLSTRÖM, 2010). Snow marcou a
moradia de cada pessoa que morreu de cólera em Londres entre 1848
e 1849, e 1853 e 1854, analisando a relação entre a distância das
fontes de água e a ocorrência de óbitos (Figura 1.1). Foi com base
nessa investigação que o médico construiu uma teoria sobre a
transmissão das doenças infecciosas, sugerindo que a cólera fosse
disseminada por meio da água contaminada, fato que antecede a
descoberta do Vibrio cholerae e evidencia que, desde 1850, os
estudos epidemiológicos têm indicado as medidas apropriadas de
saúde pública a serem adotadas.
Figura 1.1 - Mapa de John Snow, que demarca as residências com óbitos por cólera em
Londres, no ano de 1854
Nota: os pontos azuis indicam bombas d’água, e os vermelhos, residências com morte por
cólera. Note os pontos vermelhos agrupados no entorno de uma bomba específica.
Fonte: adaptado de John Snow and serendipity, 2011.

A insuficiência da explicação unicausal originou as concepções


multicausais dominantes no fim do século 20. Esses conceitos se
estendem às moléstias não infecciosas. Um exemplo é o trabalho
coordenado por Joseph Goldberger, pesquisador do Serviço de Saúde
Pública norte-americano. Em 1915 ele estabeleceu a etiologia
carencial da pelagra por meio do raciocínio epidemiológico e, em
contrapartida, expandiu as fronteiras da Epidemiologia para além
das doenças infectocontagiosas.
Até meados do século 20, a Epidemiologia e a Medicina estiveram
impulsionadas pelo crescente aperfeiçoamento dos métodos
diagnósticos, terapêuticos e estatísticos que proporcionaram a
compreensão dos modos de transmissão e possibilitaram
intervenções que contribuíram para o controle de grande parte das
doenças transmissíveis, ao menos nos países desenvolvidos.
A partir da Segunda Guerra Mundial, estabeleceram-se regras
básicas da análise epidemiológica, o aperfeiçoamento dos desenhos
de pesquisa e a delimitação do conceito de risco em associação ao
desenvolvimento das técnicas de diagnóstico, à evolução da
Estatística e à introdução dos computadores. A Epidemiologia
sedimentou-se como disciplina autônoma na década de 1960.
A aplicação da Epidemiologia passou a cobrir um largo espectro de
agravos à saúde. Estudos como os de Doll e Hill, que estabeleceram
associação entre o tabagismo e o câncer de pulmão, e os famosos
estudos de doenças cardiovasculares desenvolvidos na população da
cidade de Framingham (Estados Unidos) são exemplos da aplicação
do método epidemiológico em doenças crônicas.
O movimento a favor da prevenção incorporou à Medicina, além do
diagnóstico e do tratamento das doenças, as áreas de promoção à
saúde, prevenção de doenças e reabilitação. Nas escolas médicas, a
institucionalização desses conteúdos ocorreu com a criação dos
departamentos de “Medicina Preventiva” sob a forma de disciplinas,
entre elas a Epidemiologia. Entretanto, segundo Torres e Czeresnia
(2003), tal especialidade permanece em posição marginal na
estrutura curricular da escola médica em relação às demais
(clínicas), apesar da presença constante de conceitos
epidemiológicos na Medicina e no senso comum, tanto para a
explicação da ocorrência das doenças quanto para a justificativa das
intervenções.
1.2 DEFINIÇÕES, CONCEITOS BÁSICOS
E USOS
É necessário discutir alguns aspectos básicos antes de proceder ao
seguimento aprofundado da disciplina; assim, quando o conteúdo
abordar os temas mais profundos, o estudante terá maior facilidade
para compreendê-los e aplicá-los.
1.2.1 Definições
Beaglehole, Bonita e Kjellström (2010) explicam que a palavra
“epidemiologia” deriva dos vocábulos gregos: prefixo epi, que
significa “em cima de” ou “sobre”; radical demós, que significa
“população”; e o sufixo logos, que significa “discurso”, “estudo”.
Esta definição permite compreender a Epidemiologia como “estudo
sobre a população”. Porém, a característica dinâmica dessa ciência
fez que muitas definições para esse ramo da Medicina surgissem ao
longo do tempo, todas na tentativa de expressar com maior precisão
a sua nova e complexa realidade. Nesse sentido, o epidemiologista
Evans compilou 23 definições, contando quantas vezes algumas
palavras-chave apareciam, e verificou que, ao longo dos inúmeros
conceitos, “doença” apareceu 21 vezes; “população”, “comunidade”
ou “grupo”, 17 vezes; “distribuição”, 9 vezes; e “etiologia,
“determinantes”, “causas” e “ecologia”, 8 vezes.
Quadro 1.1 - Definições da Epidemiologia ao longo do tempo
Definição mais atual de Epidemiologia, de Celentano e Szklo (2019):
[...] é o estudo de como a doença está distribuída nas populações e
quais são os fatores que influenciam e determinam essa distribuição.
A premissa fundamental é que a doença, moléstia ou ausência de
saúde não é distribuída ao acaso na população. Mais exatamente,
cada um de nós possui certas características que predispõem ou
protegem contra uma variedade de doenças. Essas características
podem ser primariamente genéticas ou resultado da exposição a
determinados perigos ambientais. Entretanto, frequentemente
estamos interagindo com fatores genéticos e ambientais no
desenvolvimento da doença.
Devido à complexidade crescente e abrangência da prática atual da
Epidemiologia, não é possível uma definição única e precisa dessa
ciência. Contudo, ela pode ser entendida, em sentido mais amplo,
como o estudo do comportamento do processo saúde-doença nas
coletividades, bem como das formas de prevenção e controle das
doenças.
1.2.2 Conceitos básicos
Muitas das conceituações mais conservadoras, como as de Bland e
Jones (1951) e Rouquayrol (1994), tratam da Epidemiologia como
uma ciência das coletividades humanas, entretanto vale ressaltar
que a disciplina não está presente somente no que diz respeito à
saúde humana. É sabido que o raciocínio epidemiológico foi
primeiramente desenvolvido no campo da Medicina Veterinária,
segundo o que explica Almeida Filho (1986). Atualmente, a
Epidemiologia aplicada à Veterinária é vastamente utilizada em
questões que envolvem morbidades animais transmitidas a seres
humanos (zoonoses) ou mesmo a questões exclusivas da saúde
animal. Para melhor sedimentar as definições citadas, vale explicar,
ainda, alguns termos mais específicos. No Quadro 1.2, encontramos
explicações acerca desses conceitos.
Quadro 1.2 - Termos utilizados na Epidemiologia
Fonte: adaptado de Epidemiologia Básica, 2010.

1.2.3 Usos
A Epidemiologia é uma ciência de ação e, em vista disso,
consensualmente de caráter utilitário. Os seus conhecimentos
destinam-se à solução prática de problemas concernentes à Saúde
Pública e à Medicina. É nesse sentido que, até agora, tem evoluído a
pesquisa epidemiológica constantemente alimentada pela pesquisa
básica (FORATTINI, 1990).
A Epidemiologia tem se destacado no
desenvolvimento metodológico para todas as
ciências da saúde, ampliando seu papel na
consolidação de um “saber científico” sobre a
saúde, seus determinantes e suas
consequências.

De acordo com Celentano e Skzlo (2019), a epidemiologia tem 5


principais objetivos, resumidos no Quadro 1.3.
Quadro 1.3 - Principais objetivos da Epidemiologia na saúde

Fonte: adaptado de Gordis Epidemiology, 2010.

Carvalho (2009) descreve que os epidemiologistas brasileiros são,


em sua maioria, médicos e enfermeiros; esse quadro é preenchido
com demógrafos, cientistas sociais, geógrafos, estatísticos,
nutricionistas, matemáticos, historiadores, psicólogos, dentistas,
veterinários, economistas e outros. Todos esses profissionais se
dedicam a atividades de pesquisa e de ensino na área da Saúde,
avaliação de procedimentos e serviços de saúde, vigilância
epidemiológica, fiscalização sanitária, diagnóstico e
acompanhamento da situação de saúde das populações.
Em se tratando dos usuários da Epidemiologia, Pereira (2002)
descreve que os profissionais que fazem uso dessa ciência são,
principalmente, os descritos no Quadro 1.4.
Quadro 1.4 - Usuários do método epidemiológico

1.3 RELAÇÃO ENTRE MEDICINA


PREVENTIVA E EPIDEMIOLOGIA
Antes de aprofundar as discussões nos aspectos aplicados da
Epidemiologia, vale discutir questões de interface da disciplina com
a Medicina Preventiva, uma vez que, ainda hoje, existe certa
confusão quanto à relação entre essas áreas do conhecimento, até
mesmo por profissionais da área da Saúde que estão mais distantes
da prática preventiva e das atividades da Epidemiologia.
Medicina Preventiva ou Medicina Preventiva e Social é uma das 53
especialidades médicas reconhecidas pelo Conselho Federal de
Medicina (BRASIL, 2008). Na literatura médica, “Medicina
Preventiva e Social” refere-se a um corpo de conhecimentos, ações e
métodos para adquirir conhecimentos e realizar ações referentes à
atenção médica, voltadas para a sociedade no âmbito da prevenção
(PERINI et al., 2001).
Já a Epidemiologia se sedimenta como uma ciência aplicada que se
desenvolveu como “suporte científico” para a Medicina Preventiva e
Social, buscando compreender a distribuição e os processos de
determinação da saúde e da doença nas coletividades (MCKEOWN;
LOWE, 1986). Pode-se afirmar, então, que a Epidemiologia é um
pilar concreto do conhecimento utilizado na Medicina Preventiva e
Social, assim como em outras áreas do conhecimento médico. A
seguir, mostraremos os objetivos de um curso de Residência Médica
em Medicina Preventiva e o seu conteúdo curricular. Verifica-se que
a Epidemiologia consta como uma disciplina da linha de
conhecimento desenvolvida no curso e, além dela, agregam-se à
especialidade questões como as políticas de saúde, demografia,
administração e gestão em saúde, entre outras.
Leavell e Clark (1976) explicam que Medicina Preventiva é a
especialidade que se dedica à prevenção da doença em vez de seu
tratamento. Arouca (2003) entende-a como o estudo do processo
saúde-doença nas populações, suas relações com a atenção médica,
bem como das relações de ambas com o sistema social global,
visando à transformação dessas relações para a obtenção de níveis
máximos possíveis de saúde e bem-estar das populações.
1. Objetivos do curso de Residência Médica em Medicina Preventiva:
a) Conhecimento do perfil de saúde da população brasileira, capaz de
refletir criticamente sobre seus determinantes e tendências;
b) Compreensão da organização política e institucional do setor de
Saúde no país, proporcionando aptidão para a organização e a gestão
de serviços de saúde em seus diversos níveis e modalidades;
c) Planejamento, supervisão e avaliação de ações e programas de
saúde adequados e relevantes para a realidade dos serviços e perfis
de saúde de seu local e nível de atuação;
d) Manejo de instrumental científico na definição de objetos, desenhos
de estudo e estratégias de investigação de problemas de saúde
relevantes para o desenvolvimento de ações, programas e políticas
voltados para a melhoria das condições de saúde coletiva.

2. Conteúdo curricular do curso de Residência Médica em Medicina


Preventiva:
a) Processos de adoecimento e sua relação com os aspectos
históricos, culturais, políticos e econômicos da vida em sociedade;
b) Perfis sociodemográficos e epidemiológicos da população brasileira;
c) Epidemiologia e estatística na produção de conhecimento em saúde,
nos diversos planos de sua aplicação: descrição de situação de saúde
de grupos populacionais, análises de associação e causalidade,
ensaios clínicos e avaliação de processo e impacto de ações de
saúde, orientação de programas e serviços de saúde;
d) Desenvolvimento histórico e características atuais das políticas
sociais e de saúde no Brasil;
e) Organização, gestão e avaliação de serviços e programas de saúde,
nos diferentes níveis da assistência à saúde;
f) Escolas e tendências em administração e planejamento;
g) Atenção primária à saúde, incluindo ações em Saúde da Família,
Vigilância em Saúde, Saúde do Trabalhador, Saúde Ambiental e
atividades de educação e comunicação, como estratégias de
prevenção primária, secundária e terciária de doenças, de redução de
vulnerabilidade e riscos e de promoção da saúde de grupos
populacionais;
h) Assistência médica em atenção básica à saúde nas áreas de Pronto
Atendimento, Saúde do Adolescente, Saúde da Mulher, Saúde no
Envelhecimento, Saúde Mental e Doenças Infecciosas;
i) Teorias e técnicas de trabalho com grupos de pacientes em
atividades educativas e terapêuticas em atenção primária à saúde;
j) Sistemas e tecnologias de produção, organização e aplicação da
informação em saúde.

1.4 RELAÇÃO ENTRE CLÍNICA MÉDICA


E EPIDEMIOLOGIA
A Epidemiologia estabelece inter-relação com várias disciplinas das
ciências biomédicas. Sob a ótica clínica, pode auxiliar na construção
de uma hipótese diagnóstica, sendo uma ferramenta valiosa no
atendimento integral do indivíduo. Para exemplificar, tomam-se as
situações descritas no Quadro a seguir.
Quadro 1.5 - Situações representativas da inter-relação entre Clínica Médica e
Epidemiologia

Fonte da imagem: acervo Medcel.

Antes de entrar no mérito da questão e diagnosticar os diferentes


pacientes, vale ficar atento ao próprio pensamento clínico e
epidemiológico. A apresentação clínica dos indivíduos é exatamente
a mesma, com sinais e sintomas semelhantes. O que muda é o local
em que ele está, ou seja, uma variável epidemiológica que caracteriza
o lugar. Essa diferença pode mudar completamente a suspeita
etiológica da doença, e, desse modo, seu tratamento deverá ser
diferenciado, mesmo que se trate da mesma síndrome.
A Clínica Médica, como linha de conhecimento do saber médico,
estuda o processo saúde-doença em “nível individual”, com o
objetivo de tratar e curar casos isolados que apresentem certa
característica, como os sinais e sintomas de determinada doença. A
Epidemiologia se preocupa com o processo de ocorrência de
doenças, mortes, quaisquer outros agravos ou situações de risco à
saúde na comunidade, ou em grupos dessa comunidade, com o
objetivo de propor estratégias que melhorem o nível de saúde das
pessoas que a compõem.
Almeida Filho e Rouquayrol (1999) sintetizam pontos importantes
sobre os laços históricos, contratos conceituais e contradições
metodológicas dessas disciplinas.
A Clínica Médica e a Epidemiologia estão vinculadas desde o
nascimento da prática médica moderna. Metodologicamente, ambas
também interagem, pois servem como fontes de problemas
científicos e modelos explicativos e levantam hipóteses para
pesquisas.
Soares, Andrade e Campos (2001) discutem, com muita simplicidade,
que um dos meios para conhecer como ocorre o processo saúde-
doença na comunidade é elaborar um diagnóstico comunitário de
saúde. O diagnóstico comunitário, evidentemente, difere do
diagnóstico clínico em termos de objetivos, informação necessária,
plano de ação e estratégia de avaliação – fato que auxilia na
compreensão das diferenças e mesmo da relação existente entre a
Clínica Médica e a Epidemiologia.
Quadro 1.6 - Diferenças entre os diagnósticos clínico e comunitário
Fonte: Bases da Saúde Coletiva, 2001.

No Quadro a seguir, apresentam-se algumas das particularidades


dessas disciplinas. Nesse sentido, vale parafrasear os estudiosos do
assunto: “a Epidemiologia não é a Clínica das populações, tanto
quanto a Clínica nunca se tornará a Epidemiologia dos indivíduos”. A
melhor afirmativa seria: “A Clínica é soberana e a Epidemiologia
também, governando reinos vizinhos” (ALMEIDA FILHO;
ROUQUAYROL, 1999).
Quadro 1.7 - Clínica Médica e Epidemiologia: diferenças metodológicas
Fonte: adaptado de Epidemiologia e Saúde, 1999.

1.5 AS GRANDES DIVISÕES DA


EPIDEMIOLOGIA
Sob a ótica aplicada, a pesquisa em Epidemiologia tem sido abordada
de 2 maneiras diferentes: a Epidemiologia Descritiva e a
Epidemiologia Analítica (Figura 1.2).
1.5.1 Epidemiologia Descritiva
A Epidemiologia Descritiva é vista como uma das etapas
fundamentais da pesquisa epidemiológica, que estuda a distribuição
das doenças ao nível coletivo, em função de variáveis ligadas ao
tempo, ao espaço (ambientais e populacionais) e à pessoa. Seu
objetivo é responder “Onde?”, “Quando?” e “Quem?”, em relação à
ocorrência de determinado agravo à saúde, para identificar
subgrupos populacionais mais vulneráveis; para tanto, envolve
estudos descritivos. De modo geral, estudos descritivos são os
chamados estudos de correlação ou ecológicos, relatos de caso ou
série de casos, estudo transversal ou seccional, desde que não exista
teste de hipótese.
Figura 1.2 - Divisão do método aplicado na Epidemiologia

Fonte: elaborado pelos autores.

Franco (2005) define que as variáveis relacionadas aos estudos


epidemiológicos descritivos são:
1. Característica de pessoa: fatores demográficos, como idade, sexo,
etnia, ocupação, estado civil, classe social, procedência, bem como
variáveis ligadas ao estilo de vida, tais como práticas alimentares,
consumo de álcool e de certas medicações ou drogas ilícitas, hábito
de fumar, atividades físicas, entre outras;
2. Característica de lugar: distribuição geográfica das doenças,
incluindo variações entre países, regiões, municípios, bairros ou
entre zonas urbana e rural, entre outras;
3. Característica de tempo: podem ser exploradas as variações
cíclicas e sazonais, bem como se pode comparar a frequência atual
de doença com a de 5, 10, 50 ou 100 anos atrás. Pode-se considerar
que a descrição sistemática do comportamento da doença permite a
elaboração de hipóteses “causais” com base na ocorrência usual de
doenças conhecidas e possibilita o uso da analogia tanto no estudo
das doenças novas quanto na explicação daquelas anteriormente
conhecidas. Nesse sentido, essa metodologia se torna bastante útil
ao epidemiologista (WERNECK, 2009).
#IMPORTANTE
Lembre-se: a epidemiologia descritiva está
preocupada com a pessoa, o tempo e o local em
que ocorre uma doença.

Na área das doenças infecciosas, estudos epidemiológicos


descritivos preocupam-se em descrever características como
período de incubação, infectividade, patogenicidade, virulência e
poder imunogênico.
Quadro 1.8 - Medidas descritivas em estudos da área de Infectologia
Fonte: adaptado de Dictionary of Epidemiology, 2008.

1.5.2 Epidemiologia Analítica


A Epidemiologia Analítica pode ser entendida como a parte do
método epidemiológico que se ocupa em testar hipóteses de
associação exposição-desfecho. Em termos médicos, isso significa
definir a existência de associação entre a exposição a determinado
fator e o aparecimento de certa doença ou condição. Para isso, faz
uso de estudos epidemiológicos analíticos, como estudos ecológicos
e transversal ou seccional (quando há teste de hipótese), coorte,
caso-controle, estudos clínicos randomizados e não randomizados.
A definição da associação entre as variáveis é a base da relevância
para a formação biomédica do conhecimento de princípios básicos
de Epidemiologia em geral e dos métodos analíticos em particular,
uma vez que com sua utilização adequada é que são obtidas e
estudadas todas as relações conhecidas de causalidade entre
exposição e efeitos, ou seja, entre fatores de risco e doenças.
Veja, a seguir, um exemplo importante ocorrido na década de 1980,
no qual se pode verificar que a metodologia epidemiológica baseada
na observação de casos com aspectos comuns e na investigação deles
encontrou um fator concomitante que desencadeou a patologia
descrita como síndrome da imunodeficiência adquirida (AIDS) pelo
vírus da imunodeficiência humana (HIV).
1.5.2.1 AIDS e Epidemiologia

Em 1981, antes da descoberta do vírus da AIDS, autores americanos


descreveram, em Los Angeles (Califórnia, Estados Unidos), 5 casos
de pneumonia por Pneumocystis jirovecii em pacientes
homossexuais do sexo masculino, adultos jovens, que
apresentavam, em comum, história anterior ou atual de infecção por
citomegalovírus e/ou candidíase. Três deles apresentavam
diminuição de linfócitos T, e nenhum deles se conhecia. Esses casos
chamaram a atenção por apresentarem sintomas de doenças que
ocorrem em pacientes que têm algum tipo de imunossupressão. No
mesmo ano, descreveu-se a ocorrência de 26 casos de sarcoma de
Kaposi nos 2 anos anteriores, 20 casos em Nova York e 6 na
Califórnia, em adultos jovens homossexuais do sexo masculino,
alguns também com história de infecção por citomegalovírus e/ou
candidíase, anterior ou concomitante ao diagnóstico de sarcoma, 4
deles com história de pneumonia por P. jirovecii, entre outras
infecções oportunistas. Tais casos também chamaram a atenção por
várias razões: a raridade usual do sarcoma de Kaposi e sua
associação a homens mais idosos e algum tipo de imunossupressão.
O fato cientificamente curioso é que ambos os estudos levantaram a
possibilidade de associação dessas manifestações clínicas (comuns
em imunossuprimidos) ao estilo de vida adotado pelos acometidos
(homossexuais do sexo masculino).
O exemplo levantou hipóteses posteriormente investigadas em
estudos que puderam identificar a presença de um novo agente
patogênico na ocasião: o vírus da AIDS, bem como grupos, a
princípio, com maior chance de adquirir a doença. A continuidade de
estudo e pesquisa e suas descobertas também caracterizam a
metodologia epidemiológica.
Do ponto de vista de delineamentos epidemiológicos na modalidade
analítica, os estudos epidemiológicos são todos aqueles capazes de
avaliar algum teste de hipóteses.
De modo geral, os estudos analíticos podem ser subdivididos em
observacionais ou experimentais, a depender da hipótese que está
sendo testada. Um estudo em que o pesquisador apenas colhe
informações, sem intervir na determinação da exposição e dos
grupos de alocação, recebe o nome de observacional; já a
metodologia em que existe intervenção por parte dos pesquisadores
é chamada de experimental (Franco; Passos, 2005; Medronho,
2009). Assim como na Epidemiologia Descritiva, estudos com
delineamento ecológico ou transversal podem ser considerados
analíticos, caso haja teste de hipóteses. Além disso, a Epidemiologia
Analítica inclui, em seu campo de conhecimento, os estudos de
coorte, estudos de casos e controles, ensaios clínicos randomizados
e ensaios clínicos não randomizados.
Em termos epidemiológicos, o efeito, a predição ou a explicação são
chamados de variável independente, enquanto o fator de interesse, a
resposta ou o desfecho é chamado de variável dependente. Passos e
Ru no-Netto (2005) explicam que a hipótese a ser testada é que a
variável desfecho (dependente) sofre influência da variável
exposição (independente), caracterizando uma associação entre
ambas.
Quando os estudos analíticos, em geral, ensaios clínicos
randomizados, se preocupam em avaliar o benefício de um
tratamento específico, muitas vezes se utilizam dos conceitos de
eficácia e eficiência. Segundo o Dicionário de Epidemiologia da
Oxford (PORTA, 2008), a eficácia é a extensão do quanto uma
intervenção específica produz um resultado benéfico em condições
ideais. Em contrapartida, a eficiência é o resultado obtido da
intervenção considerando os esforços em termos de custo, recursos
e tempo. Desse modo, 2 intervenções com eficácias semelhantes
podem, por exemplo, diferir muito em eficiência, caso uma seja
muito mais cara em relação à outra, ou exija muito mais tempo para
a obtenção do resultado.
1.6 CONQUISTAS E PERSPECTIVAS DA
EPIDEMIOLOGIA
Até o momento, foram vistos os principais aspectos da
Epidemiologia aplicada na Medicina e na área de Saúde. Por uma
pequena trajetória, pode-se conhecer o perfil dessa vasta linha de
conhecimento, desde seu berço até os dias atuais. Beaglehole, Bonita
e Kjellström (2010) explicam que a Epidemiologia tem auxiliado a
Ciência em enormes conquistas, especialmente no conhecimento do
processo saúde-doença e na possibilidade de controle. Alguns dos
principais eventos amplamente estudados com sucesso foram:
a) Varíola;
b) Envenenamento por metilmercúrio;
c) Febre reumática e doença cardíaca reumática;
d) Distúrbios por deficiência de iodo;
e) Tabagismo, asbesto e câncer de pulmão;
f) Fratura de quadril;
g) HIV e AIDS;
h) Síndrome da angústia respiratória aguda;
i) Sedentarismo e doença cardiovascular;
j) Hipertensão e doença cardiovascular.

Além disso, o estudo da Epidemiologia foi responsável pela mudança


do perfil de mortalidade na população, culminando em uma
mudança, inclusive da estrutura etária da população. A Figura 1.3
mostra a mudança do perfil de mortalidade, adaptado de Celentano e
Skzlo (2019).
Figura 1.3 - Mudança do perfil de mortalidade nos Estados Unidos após a utilização de
métodos epidemiológicos

Fonte: adaptado de Gordis Epidemiology, 2019.

Atualmente, tornaram-se concretas áreas do conhecimento em que


a Epidemiologia está ou logo estará fortemente inserida:
Epidemiologia Clínica (aplicação individual do conhecimento
epidemiológico), Epidemiologia Social, Epidemiologia Aplicada nos
Serviços de Saúde (municípios, estados ou nações), Epidemiologia
Molecular, Epidemiologia Genética, Etnoepidemiologia e
Farmacoepidemiologia são algumas das vastas possibilidades.
A necessidade de conhecer essa ciência com um pouco mais de
intimidade deverá ser considerada por todos os profissionais da área
da saúde, servindo especialmente para situar esse profissional
acerca do conhecimento atual do processo saúde-doença de
patologias específicas, estendendo-se até seu tratamento e controle.
Por que algumas doenças se
desenvolvem em algumas
pessoas e em outras não?
A resposta para essa pergunta pode ser respondida com
base no estudo da Epidemiologia, que investiga a
distribuição da frequência e dos determinantes da doença
no ser humano. Por meio de métodos da Epidemiologia
Descritiva, como “Quando?”, “Onde?” e “Quem?”, a
Epidemiologia Analítica também se preocupa com o “Por
quê?”, empregando método científico na busca pela
explicação dos fatores causais de doença e tratamento.
Você consegue enxergar o
processo de adoecimento
de um indivíduo por mais de
uma perspectiva?

2.1. INTRODUÇÃO
Epidemiologia é um pilar de conhecimento científico para todas as
áreas de saúde. Por conseguinte, é natural que, com frequência, seja
preciso um processo de digressão e retomada de conceitos que
possam parecer óbvios em um primeiro momento, mas que são
necessários para formar uma base sólida de conhecimento científico.
Neste capítulo, iremos abordar o conceito de saúde e o processo de
adoecimento, os quais podem ser vistos por mais de uma
perspectiva.
O conceito de saúde reflete a conjuntura social, econômica, política e
cultural. Ou seja, saúde não representa a mesma coisa para todas as
pessoas; depende da época, do lugar e da classe social. Os valores
individuais e as concepções científicas, religiosas e filosóficas
também estão associados a esse conceito. Inicialmente, para chegar
a uma apropriação concreta dos conceitos de saúde e doença, faz-se
necessária uma compreensão etimológica dos 2 vocábulos. Segundo
Reiner (2008), doença provém do latim dolentia, derivado de dolor e
dolore, que querem dizer “dor” e “doer”. Já saúde, também do
latim, vem de salutis, derivado do radical salus, que significa
“salvar”, “livrar do perigo”, “afastar riscos e/ou saudar”,
“cumprimentar”, “desejar saúde”.
2.2 CONCEITO DE “SAÚDE” E
“DOENÇA”
2.2.1 Saúde
No senso comum, muitas vezes a saúde é definida como ausência de
doença, e doença, inversamente, como falta ou perturbação da
saúde. Na prática clínica, as pessoas são examinadas e rotuladas
como doentes ou saudáveis em função de julgamentos baseados em
resultados de exames clínicos e/ou laboratoriais, que informam a
ausência ou a presença de anormalidades (PEREIRA, 2002).
Além de estar naturalizado na comunidade, e mesmo na clínica, esse
conceito simplista fez parte da chamada teoria negativa do processo
saúde-doença, que data da década de 1970 e foi escrita por
Christopher Boorse (BOORSE, 1975, 1976, 1977, 1986). O autor
referia que doença seria, por conseguinte, o termo de referência pelo
qual a saúde poderia ser negativamente definida. Almeida Filho e
Jucá (2002) explicam que, no Brasil, o nome de Boorse é
praticamente desconhecido, e não há referências à sua contribuição
em quaisquer dos textos analíticos fundamentais da área de Saúde
Coletiva no país.
O conceito de saúde proposto pela Organização Mundial da Saúde
(OMS) em 1948 refere-se a esta não apenas como a ausência de
doença, mas como o completo bem-estar físico, mental e social.
Embora seja antiga, uma vez que data da origem da própria OMS,
essa definição continua a ser utilizada pelo órgão na atualidade.
Contudo, Segre e Ferraz (1997) avaliam que essa definição, até
avançada para a época em que foi realizada, é, no momento,
qualificada como irreal, ultrapassada e unilateral, uma vez que
atingir o “completo” refere-se a uma utopia. A definição da OMS
pode ser tratada mais como um símbolo ideal, um compromisso ou
um horizonte a ser buscado.
No fim do século 20, o conceito de saúde estava intrinsecamente
relacionado ao modelo biomédico, em que doença era tratada como
“desajuste ou falha nos mecanismos de adaptação do organismo ou
ausência de reação aos estímulos a cuja ação está exposta; processo
que conduz a uma perturbação da estrutura ou da função de um
órgão, de um sistema ou de todo o organismo ou de suas funções
vitais” (JÉNICEK; CLÉROUX, 1985).
O conceito “ampliado e positivo de saúde” foi defendido e registrado
na 8ª Conferência Nacional de Saúde, denominada Conferência Pré-
Constituinte, realizada de 17 a 21 de março de 1986. Saúde seria,
então, a resultante das condições de alimentação, habitação,
educação, renda, meio ambiente, trabalho, transporte, emprego,
lazer, liberdade, acesso e posse da terra, bem como acesso a serviços
de saúde. Seria, assim, o resultado das formas de organização social
da produção que podem gerar grandes desigualdades nos níveis de
vida (BRASIL, 1987).
O grande mérito da concepção presente na Constituição de 1988
reside, justamente, na explicitação dos determinantes sociais da
saúde e da doença, muitas vezes negligenciados nas concepções que
privilegiam a abordagem individual e subindividual.
Segundo a Constituição Brasileira de 1988, “a saúde é direito de
todos e dever do Estado, garantido mediante políticas sociais e
econômicas que visem à redução do risco de doença e de outros
agravos e ao acesso universal igualitário às ações e aos serviços para
sua promoção, proteção e recuperação” (BRASIL, 1988).
2.2.2 Doença
O conceito de doença, sob a ótica médica, refere o oposto de saúde da
mesma ideologia, a chamada “teoria negativa do processo saúde-
doença”; a distinção entre o normal e o patológico pode ser vista de
maneira quantitativa, tanto para os fenômenos orgânicos quanto
para os mentais. A doença constitui falta ou excesso de excitação dos
tecidos abaixo ou acima do grau que constitui o estado normal
(COELHO; ALMEIDA FILHO, 1999). Nessa perspectiva, a doença está
dentro do indivíduo e pode ser definida como um fenômeno isolado,
com causas biológicas e, muitas vezes, a ser tratado com
medicamentos.
Do ponto de vista social, a melhor forma de comprovar
empiricamente o caráter histórico da doença não é conferida pelo
estudo de suas características nos indivíduos, mas sim quanto ao
processo que ocorre na coletividade humana. A natureza social da
doença não se verifica no “caso clínico”, mas no modo característico
de adoecer e morrer nos grupos humanos. Ainda que provavelmente
a “história natural” da tuberculose, por exemplo, seja diferente hoje
do que era há 100 anos, não é nos estudos dos tuberculosos que se
apreende melhor o caráter social da doença, mas nos perfis
patológicos que os grupos sociais apresentam (LAURELL, 1976).
Desse modo, doença não é mais do que um constructo que guarda
relação com o sofrimento, com o mal, mas não lhe corresponde
integralmente. Quadros clínicos semelhantes, com os mesmos
parâmetros biológicos, prognóstico e implicações para o tratamento,
podem afetar pessoas diferentes de forma distinta, resultando em
diferentes manifestações de sintomas e desconforto, com
comprometimento diferenciado de suas habilidades de atuar em
sociedade (EVANS; STODDART, 1994; OLIVEIRA; EGRY, 2000).
O processo saúde-doença da coletividade pode ser entendido como o
modo específico pelo qual ocorre, nos grupos, o processo biológico
de desgaste e reprodução, destacando como momentos particulares
a presença de um funcionamento biológico diferente, com
consequências para o desenvolvimento regular das atividades
cotidianas, isto é, o surgimento da doença (LAURELL, 1983).
A seguir, serão apresentados alguns modelos que auxiliarão no
entendimento dos conceitos aqui apresentados.
2.3 OS MODELOS EXPLICATIVOS DO
PROCESSO SAÚDE-DOENÇA
São modelos explicativos do processo saúde-doença: biomédico –
agentes físicos, químicos e biológicos que causam doença nos
indivíduos, independentemente do contexto psicossocial; e
ecológico (História Natural da Doença) – considera a interação, o
relacionamento e o condicionamento de 3 elementos fundamentais
da “tríade ecológica”: o ambiente, o agente e o hospedeiro, sendo a
doença resultante de um desequilíbrio nas autorregulações
existentes nesse sistema, que se desenvolve em 2 períodos
consecutivos, o pré-patogênico e o patogênico.
Historicamente, pode-se dizer que há uma evolução de paradigmas
em se tratando de ensino de modelos explicativos do processo
saúde-doença. Mais recentemente, no Brasil, as Diretrizes
Curriculares Nacionais para o curso de Medicina (2014) orientam
para uma formação que considere as dimensões da diversidade
biológica, subjetiva, étnico-racial, de gênero, orientação sexual,
socioeconômica, política, ambiental, cultural, ética e demais
aspectos que compõem o espectro da diversidade humana que
singularizam cada pessoa ou cada grupo social.
2.3.1 O modelo biomédico
O discurso da Medicina apoia suas observações e formulações,
predominantemente, a partir da perspectiva do modelo biomédico.
Esse modelo, refletindo o potencial técnico-instrumental das
biociências, exclui o contexto psicossocial dos significados, nos
quais uma compreensão plena e adequada dos pacientes e de suas
doenças depende de alternativas de compreensão de saúde e doença.
A formação do médico, bem como a de outros profissionais da saúde,
esteve ancorada no modelo biomédico desde sua existência, fato que
favoreceu a construção de uma postura de desconsideração aos
aspectos psicossociais tanto dele quanto do paciente (MARCO,
2006).
De acordo com o modelo biomédico (Figura 2.1), as doenças advêm
de agentes externos (químicos, físicos ou biológicos) que causam
mudanças físicas no ser humano. O modelo biomédico vê o corpo
humano como uma máquina muito complexa, com partes que se
inter-relacionam, obedecendo a leis naturais e psicologicamente
perfeitas, assim pressupõe que a máquina complexa (o corpo)
precise constantemente de inspeção por parte de um especialista.
Figura 2.1 - Modelo biomédico de saúde-doença
Fonte: elaborado pelos autores.

As perspectivas da doença no modelo biomédico são: a Patologia,


que considera o mecanismo etiopatogênico, e, dessa forma,
existiriam 2 categorias de doenças – infecciosas e não infecciosas; e
a Clínica, que privilegia a abordagem dos sinais e sintomas,
caracterizando, por sua vez, as doenças em agudas e crônicas. Esse
modelo remete o pensamento ao início dos estudos cursados na
faculdade. Nesse sentido, o estudante deve conhecer a Anatomia e a
Fisiologia e, depois, a Patologia e a Clínica, pois, sem conhecer os
aspectos fisiológicos ou normais, não seria possível identificar
aqueles ditos patológicos.
Diante da etiologia da doença, o modelo biomédico adota uma lógica
unicausal, também designada lógica linear, procurando-se
identificar uma causa a qual, por determinação mecânica,
unidirecional e progressiva, explicaria o fenômeno do adoecer,
direcionando a explicação a se tornar universal. É nessas condições
epistemológicas que o modelo biomédico, nas ciências da saúde,
tende a reproduzir conhecimentos universais relativos aos seres
humanos (PUTTINI; PEREIRA JUNIOR; OLIVEIRA, 2010).
2.3.2 O modelo ecológico (História Natural da
Doença)
No lugar de considerar saúde e doença como componentes de um
sistema binário, do tipo presença-ausência, pode ser mais adequado
concebê-las como um processo no qual o ser humano passa por
múltiplas situações, que exigem de seu meio interno um trabalho de
compensações e adaptações sucessivas.
Sabe-se que o curso de uma doença não é uniforme no organismo;
assim, pode apresentar grande variabilidade de um caso para outro.
Embora essa variabilidade seja elevada, sugere-se que as doenças
progridam segundo alguns padrões descritos. Donabedian (1973)
descreveu 5 das principais categorias, apresentadas na Figura 2.2.
Figura 2.2 - Padrões de evolução das doenças
Legenda: A: evolução aguda e rapidamente fatal (exemplo: raiva e meningite bacteriana);
B: evolução aguda, clinicamente evidente e com rápida recuperação (exemplo: viroses
respiratórias); C: evolução sem alcance do limiar clínico (exemplo: hepatite anictérica e
dengue clássica); D: evolução crônica que progride fatalmente após longo período
(exemplo: doenças cardiovasculares e degenerativas); E: evolução crônica que intercala
períodos assintomáticos com períodos de exacerbação (exemplo: doenças psiquiátricas).
Fonte: adaptado de Epidemiologia: teoria e prática, 2002.

A Figura 2.3 apresenta o padrão de evolução da infecção por HIV.


Atualmente, com o aperfeiçoamento da terapia antirretroviral, a
doença tende a permanecer no estágio de latência clínica, a depender
de vários fatores, como adesão ao tratamento, resistência viral às
drogas e falhas clínicas observadas; esse quadro pode ser alterado, e
o paciente, evoluir para óbito.
Figura 2.3 - Padrão de evolução da infecção por HIV
Fonte: adaptado de EternamenteAprendiz.

Após a Segunda Guerra Mundial, os países industrializados


começaram a vivenciar a chamada transição epidemiológica,
caracterizada pela diminuição da importância das doenças
infectoparasitárias como causa de adoecimento e morte em
detrimento do incremento das doenças crônico-degenerativas
(BATISTELLA, 2007). Nesse sentido, iniciou-se um período de
desvalorização da teoria da unicausalidade e, consequentemente, do
modelo biomédico de saúde-doença. Surgiram algumas abordagens
propostas para compreender o processo saúde-doença como síntese
de múltiplas determinações, entre as quais está o modelo ecológico,
também conhecido como História Natural da Doença – HND
(LEAVELL; CLARK, 1976).
Figura 2.4 - História Natural da Doença
Fonte: adaptado de Medicina Preventiva, 1976.

Figura 2.5 - Modelo da História Natural da Doença mostrando as etapas, barreiras e


posição do horizonte clínico em relação à evolução da doença
Fonte: adaptado de O território e o processo saúde-doença, 2007.

Segundo Leavell e Clark, a HND é o conjunto de processos interativos


que criam o estímulo patológico no meio ambiente ou em qualquer
outro lugar, passando pela resposta do homem ao estímulo até as
alterações que levam a defeito, invalidez, recuperação ou morte.
Batistella (2007) explica ainda que esse modelo considera a
interação, o relacionamento e o condicionamento de 3 elementos
fundamentais da chamada “tríade ecológica” (Figura 2.4): o
ambiente, o agente e o hospedeiro. A doença seria resultante de um
desequilíbrio nas autorregulações existentes no sistema.
O modelo da HND compreende a determinação das doenças em 2
domínios: o meio externo e o meio interno. Esses domínios são
mutuamente exclusivos, consecutivos e complementares. Enquanto
no meio externo existe a interação determinante e o agente
(desenvolvem-se as etapas necessárias para a implantação da
doença), no meio interno há o locus onde se desenvolve a doença
(onde se processa, progressivamente, uma série de modificações
bioquímicas, fisiológicas e histológicas próprias a cada
enfermidade). Em ambos os meios, há fatores contribuintes com o
processo.
O modelo da HND considera ainda 2 períodos consecutivos,
articulados e complementares, nos quais se desenvolvem o processo
de instalação, o desenvolvimento e o desfecho da patologia: período
pré-patogênico e período patogênico (Figura 2.4 - A e B). Pode-se
considerar também que as sequelas estejam fora do período da
patogênese (Figura 2.5).
2.3.2.1 Período pré-patogênico

O período pré-patogênico refere-se ao primeiro período da HND,


quando os distúrbios patológicos ainda não se manifestaram no
indivíduo. Trata-se da própria evolução das inter-relações
dinâmicas, que envolvem, de um lado, os condicionantes sociais e
ambientais e, do outro, os fatores próprios do suscetível, até que
chegue a uma configuração favorável à instalação da doença.
Nesse período, há a interação entre os fatores que estimulam o
desencadeamento de uma doença no organismo e as condições que
permitem a existência desses fatores, além de sua ação no
hospedeiro (início biológico da doença).
Pessoas com boas condições socioeconômicas e de saneamento, por
exemplo, dificilmente adoecem de cólera (fator socioambiental),
enquanto usuários de drogas injetáveis que compartilham seringas
têm maior risco de contrair o vírus HIV ou hepatite B ou C (fator
individual, comportamental). Em ambas as situações, os indivíduos
não estão doentes, contudo, esse “risco” pode ser entendido como
uma pressão natural que tende a levar o sujeito para o outro lado do
diagrama (período patológico). Alguns dos fatores que
compreendem a tríade (ambiente, agente e hospedeiro) serão
discutidos a seguir.
a) Fatores sociais

Incluem as características sociais, econômicas, políticas e culturais


das populações. O componente social das coletividades traz as
relações que se estabelecem entre as pessoas, segundo a sua inserção
no processo produtivo. As pessoas não são iguais em termos de
renda, escolaridade, ocupação, oportunidades de trabalho, hábitos
culturais, crenças, entre outros; além da desigualdade entre as
diversas comunidades em relação, por exemplo, à cobertura por
serviços de saúde ou em relação à cobertura por saneamento básico.
A desigualdade social atua não apenas como causa ou associada a
problemas de saúde, mas também como determinante do tipo de
intervenção necessária no processo saúde-doença das comunidades.
1. Fatores sociais no processo saúde-doença:
Em 1982, o epidemiologista César G. Victora e colaboradores
realizaram um estudo prospectivo com 6.000 nascidos vivos em
hospitais da cidade de Pelotas (RS). Tratou-se de um estudo
epidemiológico longitudinal, também chamado de coorte;
A pesquisa foi planejada com o objetivo de avaliar a influência de
diversos fatores: perinatais, demográficos, ambientais, alimentares e
assistenciais, sobre a saúde das crianças. Entre as diversas
observações feitas no estudo, em relação aos fatores sociais, os
autores observaram o claro papel da desigualdade social no processo
saúde-doença na infância. Notou-se que as crianças de famílias mais
pobres, em relação àquelas de famílias mais ricas, nascem com menor
peso, apresentam maiores mortalidades perinatal e infantil, são
hospitalizadas com maior frequência, crescem menos, recebem
assistência médica de pior qualidade, têm desenvolvimento psicológico
inferior em todas as áreas e vivem em condições ambientais menos
saudáveis;
Por ocasião desse estudo, os autores puderam fazer um diagnóstico
da situação das crianças do município de Pelotas e propor ações de
saúde e medidas de intervenção visando à melhora da assistência
materno-infantil na região (VICTOR; BARROS; VAUGHAN, 1988).

b) Fatores ambientais

Incluem tanto o ambiente físico como o representado pelos seres


vivos. Na perspectiva do ambiente físico, têm-se o relevo, a altitude,
o clima e a umidade do ar, que favorecem o desenvolvimento de certa
fauna e flora em detrimento de outras, além de favorecerem ou não a
proliferação de agentes patogênicos, como parasitas ou vetores;
também influenciam a distribuição das populações, com maior ou
menor densidade demográfica, contribuindo para o
desenvolvimento de enfermidades.
Com relação ao ambiente representado pelos seres vivos, têm-se
agentes patogênicos e vetores, reservatórios de agentes patogênicos,
animais peçonhentos e plantas venenosas, como agentes que podem
influenciar a saúde das populações e dos indivíduos.
O estudo da influência exercida pelos fatores naturais do ambiente
físico na produção de doenças tornou-se menos importante do que o
conhecimento da ação desenvolvida pelos agentes aí agregados
artificialmente. O progresso e o desenvolvimento industrial criaram
problemas epidemiológicos novos, resultantes da poluição
ambiental. O ambiente físico que envolve o homem moderno
condiciona o aparecimento de doenças cuja incidência se tornou
crescente a partir da urbanização e da industrialização. As doenças
cardiovasculares, as alterações mentais e o câncer pulmonar estão
também associados a fatores do ambiente físico (ROUQUAYROL,
1994).
c) Fatores do hospedeiro
Incluem os fatores genéticos que, além de poderem predeterminar
algumas patologias (por exemplo: hemofilia, anemia falciforme),
podem apenas tornar o indivíduo mais ou menos suscetível à ação de
agentes patogênicos ou ambientais que causarão alguma doença (a
fenilcetonúria, por exemplo, cujo diagnóstico precoce, associado à
correção da dieta – fator ambiental –, permite o desenvolvimento
adequado do indivíduo); também incluem aspectos relacionados ao
estilo de vida das pessoas. Nesse caso, podem-se citar, como
exemplos, o sedentarismo associado ao estresse, a dieta
hipergordurosa e o hábito de fumar, que, provavelmente, propiciam
o aparecimento de algum distúrbio cardiovascular e, caso haja uma
predisposição genética para essa patologia, maior a chance de o
indivíduo apresentar a enfermidade e talvez mais precocemente.
O modelo da HND exibe abrangência multifatorial. Curiosamente,
multifatorialidade não significa uma simples soma dos diferentes
fatores condicionantes da doença, mas sim um sinergismo ou uma
interação desses fatores. Em outras palavras, 2 fatores
condicionantes de determinada patologia, quando atuam de forma
sinérgica, aumentam o risco de desenvolvimento da doença. Assim,
por exemplo, um indivíduo de 40 anos, que faz atividade física, não é
tabagista e tem história familiar de hipertensão arterial, tem menor
risco de desenvolver a doença (ou irá desenvolvê-la mais tarde) que
um indivíduo da mesma faixa etária, com mesma história familiar,
que tenha os hábitos de fumar e de não praticar exercícios.
Uma ferramenta útil para a identificação dos determinantes
intergeracionais (hospedeiro), biomédicos e psicossociais é o
genograma. É um mapa gráfico com a utilização de símbolos que
auxiliam a equipe de saúde a interpretar o contexto familiar do
indivíduo. No genograma, é de boa prática que sejam registradas
pelo menos 3 gerações a partir do paciente identificado, pois
modelos de relacionamentos interfamiliares em gerações anteriores
podem estar implícitos no relacionamento atual. Além disso, é
fundamental que se utilizem símbolos reconhecidos pelo serviço de
saúde ou internacionalmente, como a utilização de quadrados para
homens e círculos para mulheres, bem como traços que representem
interações entre os indivíduos.
2.3.2.2 Período patogênico

A HND tem seguimento com sua evolução no homem. O período


patogênico refere-se ao período no qual os distúrbios patológicos se
manifestam, ou seja, quando o indivíduo está doente.
No período patogênico, os fatores condicionantes sociais e
ambientais e os fatores próprios do hospedeiro já causaram
alterações bioquímicas em nível celular e distúrbios na forma e na
função de órgãos e sistemas, culminando com a manifestação da
doença, que evoluirá para um defeito permanente (ou sequela), para
a cronicidade, para a morte ou para a cura.
A depender do processo patológico instalado e de condições do
próprio indivíduo, essa etapa pode não ser linear com alteração
fisiológica, sinais e sintomas, morte e/ou invalidez ou recuperação.
Poderá ocorrer com alguns casos evoluindo direto para óbito, ou
outros, ditos crônicos, flutuando em torno do limiar clínico sem ou
com evolução para óbito.
Leavell e Clark (1976) consideram 4 níveis de evolução da doença
nesse período (Figura 2.4 - B e Quadro 2.1). No Quadro 2.2, são
apresentados 2 exemplos de evolução de doença no período
patogênico (tuberculose e doença coronariana), segundo essa
mesma ideologia.
Quadro 2.1 - Fatores sociais no processo saúde-doença
Quadro 2.2 - Período patogênico: estágios de Leavell e Clark para tuberculose e doença
coronariana
Batistella (2007) comenta ainda que o exame dos diferentes fatores
relacionados ao surgimento de uma doença, a utilização da
estatística nos métodos de investigação e os desenhos
metodológicos permitiram avanços significativos na prevenção de
doenças. Outra vantagem desse modelo teórico reside no fato de
possibilitar a proposição de barreiras à evolução da doença mesmo
antes de sua manifestação clínica (pré-patogênese), ou mesmo
quando a doença já se estabeleceu (patogênese). Essa ideia também é
compartilhada com os criadores do modelo, Leavell e Clark
(LAPREGA, 2005).
2.3.2.3 Prevenção de doenças da ótica da História Natural da
Doença

Paim (2008) explica que, a partir das influências da Medicina


Preventiva, foi difundido o modelo da HND, estabelecendo 5 níveis
de prevenção, cujas medidas poderiam ser aplicadas de forma
integral em distintos momentos do processo saúde-doença.
Na primeira fase de prevenção, na qual haveria a possibilidade de um
desequilíbrio entre o agente, o hospedeiro e o ambiente, cabem
medidas de promoção da saúde e proteção específica, cujos
procedimentos foram chamados de prevenção primária. Já o período
patogênico é aquele destinado a ações diagnósticas e de tratamento
precoce, bem como a limitação da invalidez ou incapacidade,
correspondendo à prevenção secundária ou segunda fase de
prevenção. Ainda nesse período patogênico, seria possível conseguir
a prevenção terciária por meio da reabilitação, equivalendo à terceira
fase de prevenção.
A seguir, serão detalhadas algumas atividades realizadas em cada
um dos 5 níveis de prevenção.
a) Prevenção primária

Inclui medidas inespecíficas e específicas de proteção à saúde. As


medidas inespecíficas ou gerais são aquelas de caráter mais amplo,
que não visam à proteção do indivíduo ou das coletividades contra
alguma doença em especial; são ações gerais de promoção da saúde.
Já as medidas específicas estão voltadas a algum problema de saúde
em particular ou a uma doença específica (Quadro 2.3). As medidas
de Promoção da Saúde, justamente por serem inespecíficas, têm um
enfoque mais abrangente, de modo que não se preocupam com que
os indivíduos fiquem livres de doenças. A identificação e o
enfrentamento de determinantes sociais, por exemplo, fazem parte
de medidas de promoção de saúde. Entretanto, as medidas de
proteção específicas estão voltadas ao não aparecimento de doenças
e agravos em saúde.
Portanto, a prevenção primária atua na fase pré-patogênica da HND,
ou seja, com o foco para o momento anterior à interação entre o
agente causador do distúrbio à saúde e o indivíduo suscetível. Vale
lembrar que existe uma pressão natural (a interação entre os
elementos da tríade ecológica) que pode levar o indivíduo a passar
para o período patogênico da HND. O objetivo é impedir esse fato.
Quadro 2.3 - Exemplos de prevenção primária
As medidas de promoção à saúde no Brasil foram regulamentadas
pela Portaria 687, de 2006, pelo Ministério da Saúde. Seu objetivo foi
promover mudanças na cultura organizacional do Sistema Único de
Saúde, com vistas à adoção de práticas horizontais de gestão e
estabelecimento de redes de cooperação intersetoriais.
b) Prevenção secundária

As medidas estabelecidas na prevenção primária não foram


suficientes para bloquear o desenvolvimento da doença, e o
indivíduo passou para o período patogênico. Assim, a prevenção
secundária será utilizada e atuará interrompendo a evolução da
doença, em fase subclínica, ou de evolução clínica aparente
(diagnóstico e tratamento), na tentativa de fazê-la regredir (cura)
ou evitar que o distúrbio ocorrido se complique, deixe sequelas ou
leve o indivíduo a óbito. Uma alternativa é, pelo menos, retardar essa
fase de evolução da patologia (Quadro 2.4).
Quadro 2.4 - Exemplos de prevenção secundária
Portanto, a prevenção secundária atua na fase patogênica da HND,
ou seja, no momento em que já houve a interação do agente
patogênico (meio ambiente-indivíduo), e o organismo apresenta
reações a essa interação. A pressão natural que existe, nesse
momento, diz respeito à evolução do indivíduo para óbito ou sequela
permanente; o objetivo é impedir esse tipo de evolução.
c) Prevenção terciária

Se as medidas primárias e secundárias estabelecidas não forem


suficientes, e as reações do organismo ao agente patogênico
resultarem em alguma alteração com sequela permanente ou
cronicidade, existe um grupo de atividades que pode atuar no
sentido de reabilitar o indivíduo, buscando sua readaptação, mesmo
com o dano coexistente.
Quadro 2.5 - Exemplos de prevenção terciária
Vale lembrar que as atividades de prevenção apresentadas são
colocadas em termos genéricos, ou seja, dependem diretamente do
tipo de doença a ser considerada. Poderá ocorrer ocasião em que
alguma atividade de promoção à saúde para uma doença possa ser
considerada proteção específica para outra, e assim por diante.
Quadro 2.6 - Exemplo da História Natural da Doença no caso da desnutrição e das
medidas de prevenção
O Modelo Ecológico do processo saúde-doença é amplamente
difundido na atualidade, sobretudo pela vasta aplicação na
prevenção de doenças. Outros autores complementam essa teoria
com alguns níveis de prevenção, como a prevenção primordial
sugerida por Alwan (1997) e a prevenção quaternária de Jamoulle
(2000), completando-se, assim, 5 níveis de prevenção em saúde
(ALMEIDA, 2005).
d) Prevenção quaternária e primordial

Norman e Tesser (2009) explicam que o conceito de prevenção


quaternária proposto por Jamoulle, médico de família e comunidade
belga, almejou sintetizar de forma operacional e na linguagem
médica vários critérios e propostas para o manejo do excesso de
intervenção e medicalização, tanto diagnóstica quanto terapêutica. A
prevenção quaternária foi definida de forma direta e simples como a
detecção de indivíduos em risco de tratamento excessivo para
protegê-los de novas intervenções médicas inapropriadas e sugerir-
lhes alternativas eticamente aceitáveis.
A conceituação foi proposta no contexto clássico dos 3 níveis de
prevenção de Leavell e Clark, assim a prevenção quaternária surge
como quarto e último tipo de prevenção, não relacionada ao risco de
doenças, e sim ao risco de adoecimento iatrogênico, ao excessivo
intervencionismo diagnóstico e terapêutico e à medicalização
desnecessária. É considerada prevenção quaternária qualquer ação
que atenue ou evite as consequências do intervencionismo médico
excessivo que implique atividades médicas desnecessárias:
Excesso de tratamento;
Excesso de rastreamento;
Excesso de exames complementares;
Medicalização de fatores de risco.

A prevenção quaternária impõe uma estrita necessidade de o


profissional estar atualizado sobre os estudos científicos de boa
qualidade voltados para avaliar a relação risco-benefício do
tratamento e rastreamento, o que significa que é preciso usar a
Medicina baseada em evidências, inexoravelmente, para bem
embasar, técnica e eticamente, sua decisão.
A prevenção primordial pode ser entendida como o conjunto de
atividades que visam evitar o aparecimento e o estabelecimento de
padrões de vida social, econômica ou cultural que possam estar
ligados a elevado risco de doença. Esse nível de prevenção atua,
portanto, antes que surjam fatores de risco (por exemplo, legislação
estabelecendo ambientes livres de tabaco).
2.4 OUTROS MODELOS EXPLICATIVOS
DO PROCESSO SAÚDE-DOENÇA
2.4.1 Modelos dos determinantes sociais de saúde
Nos últimos 15 anos, vários modelos têm sido desenvolvidos para
demonstrar os mecanismos por meio dos quais os determinantes
sociais de saúde afetam os resultados na saúde. Nesse contexto, são
pontuados os Determinantes Sociais da Saúde (DSSs): condições
socioeconômicas, culturais e ambientais de uma sociedade que se
relacionam com as condições de vida e trabalho de seus membros
(como habitação, saneamento, ambiente de trabalho, serviços de
saúde e educação, além da trama de redes sociais e comunitárias),
influenciando a situação de saúde da população (CSDH, 2005).
Um dos modelos mais importantes de determinantes sociais trata da
influência das camadas, explicando como as desigualdades sociais
na saúde são resultado das interações entre os diferentes níveis de
condições, desde o nível individual até o de comunidades afetadas
por políticas de saúde nacionais (Figura 2.6). Observe que os
indivíduos estão no centro da Figura 2.6 e têm idade, gênero e
fatores genéticos que indubitavelmente influenciam seu potencial de
saúde final. A camada imediatamente externa representa o
comportamento e os estilos de vida das pessoas. As pessoas expostas
a circunstâncias de desvantagem tendem a exibir prevalência maior
de fatores comportamentais, como fumo e dieta pobre, e se deparam
com barreiras financeiras maiores ao escolherem um estilo de vida
mais saudável (CSDH, 2005).
Figura 2.6 - Modelo de Dahlgren e Whitehead: influência em camadas
Fonte: Policies and Strategies to Promote Social Equity in Health, 1991.

A influência da sociedade e da comunidade é demonstrada na


próxima camada. Essas interações sociais e pressões ocultas
influenciam o comportamento pessoal da camada abaixo, para
melhor ou pior. Para os grupos mais próximos do fim da escala
social, compostos por pessoas que vivem em condições de extrema
privação, os indicadores de organização comunitária registram uma
disponibilidade menor de redes e sistemas de apoio, além de menos
serviços sociais e lazer em atividades comunitárias e modelos de
segurança mais frágeis (CSDH, 2005).
No próximo nível, encontramos fatores relacionados a condições de
vida e de trabalho, disponibilidade de alimentos e acesso a
ambientes e serviços essenciais. Nessa camada, as pessoas em
desvantagem social correm risco diferenciado criado por condições
habitacionais mais humildes, exposição a condições mais perigosas
ou estressantes de trabalho e acesso menor aos serviços (CSDH,
2005).
O último dos níveis inclui as condições econômicas, culturais e
ambientais prevalecentes na sociedade como um todo. Essas
condições, como o estado econômico e as condições do mercado de
trabalho do país, influenciam todas as demais camadas. O padrão de
vida de uma dada sociedade, por exemplo, pode influenciar a escolha
de um indivíduo acerca de habitação, trabalho e interações sociais,
assim como hábitos alimentares. Da mesma forma, alguns fatores
podem influenciar o padrão de vida e a posição socioeconômica,
dependendo das crenças culturais sobre a posição das mulheres na
sociedade ou da atitude geral sobre as comunidades étnicas
minoritárias (CSDH, 2005).
2.4.2 Modelo biopsicossocial
O modelo biopsicossocial (ou holístico) permite que a doença seja
vista como um resultado da interação de mecanismos celulares,
teciduais, organísmicos, interpessoais e ambientais. Assim, o estudo
de qualquer doença deve incluir o indivíduo, seu corpo e seu
ambiente circundante como componentes essenciais de um sistema
total (único ou particular).
A teoria do modelo biopsicossocial, na qual há a interação de 3
fatores no processo saúde-doença, foi formulada por Engel e
considera que os fatores psicossociais podem operar para facilitar,
manter ou modificar o curso da doença, embora o seu peso relativo
possa variar de doença para doença, de um indivíduo para outro e até
mesmo entre 2 episódios diferentes da mesma doença no mesmo
indivíduo (FAVA; SININO, 2010).
Vários autores explicam que o sofrimento e a doença, bem como o
processo de envelhecimento e a morte, fazem parte da existência
humana. Com relação a esses fenômenos naturais, os significados e
os sistemas de explicação não se reduzem a eventos clínicos que
podem ser detectados no organismo humano, mas estão
intimamente relacionados às características de cada sociedade e a
cada época (BOLTANSKI, 1989; CANGUILHEM, 1990; ROGERS, 1991;
RADLEY, 1994; TRAVERSO-YÉPEZ, 2001).
De Marco (2005) explica ainda que esse modelo proporciona uma
visão integral do ser e do adoecer que compreende as dimensões
físicas, psicológicas e sociais. Quando incorporado ao modelo de
formação do médico, ressalta a necessidade de que o profissional,
além do aprendizado e da evolução das habilidades técnico-
instrumentais, evolua também nas capacidades relacionais, que
permitam o estabelecimento de um vínculo adequado e uma
comunicação efetiva.
Você consegue enxergar o
processo de adoecimento
de um indivíduo por mais de
uma perspectiva?
Existem várias teorias que tentam explicar o processo de
adoecimento. Entre as principais, destacam-se:
a) O modelo biomédico, que atribui agentes externos às
mudanças físicas no corpo humano;
b) O modelo da História Natural da Doença, que descreve a
evolução da doença no ser humano em um contínuo desde
saudável (onde se pode atuar a prevenção primária),
passando pelo doente (atuação da prevenção secundária) e
podendo gerar sequelas (atuação da prevenção terciária);
c) O modelo dos determinantes sociais em saúde, que tenta
explicar o adoecimento através de diferenças de habitação,
saneamento, ambiente de trabalho, serviços de saúde e
educação, além da trama de redes sociais e comunitárias.
Você sabe a diferença entre
incidência e prevalência e
quando usá-las?

3.1 INTRODUÇÃO
Após a conceituação de saúde e doença, pode-se partir para questões
mais aplicadas da Epidemiologia. A rigor, neste capítulo, serão
abordados os aspectos básicos da ocorrência de doenças, aqui
denominados “medidas de frequência”. A problemática de interesse
do capítulo é a presença de determinado evento e a possibilidade de
repetição desse evento; à medida que ele ocorre repetidas vezes,
pode ser reconhecido um padrão de ocorrência que, muitas vezes,
traz informações importantes sobre a sua prevenção e o seu
controle.
Compreender as medidas de frequência pode ser importante tanto
para a população geral quanto para os profissionais de saúde. Pode-
se imaginar uma situação em que exista uma epidemia de dengue,
por exemplo; para saber o estado evolutivo dessa epidemia, se as
atividades de prevenção vêm surtindo o efeito esperado, se o
tratamento existente tem aumentado a sobrevida dos afetados ou se
as políticas adotadas para o controle da doença têm sido adequadas,
é preciso avaliar as medidas de frequência de doenças e compará-las
ao longo do tempo.
Assim como todo o restante da Epidemiologia, as medidas de
frequência de doença são avaliadas a partir de indicadores, que,
como regra geral, são calculados a partir da divisão entre números.
As características específicas dos diferentes tipos de indicadores
(razões, proporções, coeficientes e índices) são aprofundadas no
capítulo de mortalidade e outros indicadores; porém, devido à
importância e às características particulares das medidas de
frequência, costuma-se estudá-las em um capítulo à parte, como é o
caso deste livro. As “medidas de frequência”, portanto, são definidas
a partir de 2 indicadores que fazem parte da categoria
“coeficientes”, que são a prevalência e incidência (MEDRONHO,
2008).
A prevalência expressa o número de casos
existentes de uma doença ou um fenômeno de
interesse em um dado momento, e a incidência
se refere à frequência com que surgem novos
casos de uma doença, em um intervalo de
tempo.

É fundamental realizar essa discussão de maneira mais ampla, pois


ela será importante para compreender a aplicação dos estudos
epidemiológicos e dos estimadores de risco, que são vastamente
utilizados.
Antes de iniciar essa discussão, é importante lembrar que, na
maioria das vezes, há interesse em conhecer a frequência de
determinadas doenças para que sejam estruturadas as medidas de
controle. Contudo, as moléstias são apenas um dos desfechos
mensuráveis, podendo-se medir a frequência de fatores de risco ou
determinantes, eventos adversos à saúde, ou outros que não são
necessariamente doenças. Além de medidas como prevalência e
incidência, existem diversas medidas de frequência, como as de
mortalidade, letalidade ou sobrevivência, que, segundo Costa e Kale
(2009), podem ser compreendidas como variações dos conceitos de
incidência e prevalência.
3.2 INCIDÊNCIA
Incidência pode ser definida como a frequência de casos novos de
uma determinada doença ou problema de saúde de uma população
com risco de adoecimento, ao longo de um determinado período (o
conceito de tempo está envolvido). Casos novos, ou incidentes,
podem ser compreendidos como indivíduos que não estavam
enfermos no início do período de observação, ou seja, sob risco de
adoecimento, e se tornaram doentes ao longo deste. É necessário que
cada indivíduo seja observado, pelo menos, em 2 ocasiões, portanto
só pode ser obtida em estudos longitudinais, como ensaios clínicos
ou estudos de coorte. A incidência é, então, uma medida dinâmica,
pois expressa mudanças no estado de saúde. Além disso, o conceito
de incidência, em Epidemiologia, é sinônimo do conceito de risco.
Assim, o risco de um indivíduo do sexo masculino, tabagista, com 60
anos de idade, desenvolver câncer de pulmão é a incidência de câncer
de pulmão em uma população de indivíduos do sexo masculino,
tabagistas e com 60 anos de idade.
A incidência é uma medida que envolve casos
novos na população.

Incidência é definida, segundo Celentano e Szklo (2019), como o


número de casos novos de uma doença que ocorreu durante
determinado período, em uma população sob risco de
desenvolvimento dessa enfermidade. Além do termo “taxa de
incidência”, que se refere à ocorrência em função do tempo, existem
autores que utilizam o termo “coeficiente de incidência”, uma vez
que é uma medida que expressa a probabilidade de ocorrência da
doença. Sendo assim, o denominador dessa divisão deve trazer todos
os indivíduos que estão sob risco de desenvolver a doença.
Está claro, então, que o numerador dessa fração considera as pessoas
acometidas, ou seja, os novos doentes. Contudo, no denominador do
indicador pode haver 2 tipos de números que dividem o coeficiente
de incidência em 2 tipos: incidência acumulada e densidade de
incidência.
3.2.1 Taxa de incidência – Incidência acumulada
O primeiro tipo de incidência, incidência acumulada ou incidência
cumulativa, é utilizado quando todos os indivíduos do grupo
representado pelo denominador foram acompanhados por todo o
período estudado. A equação a seguir apresenta como se calcula a
incidência acumulada.
Fórmula 3.1 - Taxa ou coeficiente de incidência acumulada*

* Muitos livros de Epidemiologia, na tentativa de simplificar o entendimento das fórmulas


dos indicadores, afirmam que, após a divisão do numerador pelo denominador, devemos
multiplicar essa divisão por um múltiplo de 10 (como 100, 1.000 ou 10.000) para obter o
valor do indicador. Por exemplo, caso haja 2 casos incidentes de coqueluche em uma
creche com 100 crianças, a incidência seria 2/100 = 0,02*100 = 2%. Entretanto, esse
conceito é ilusório e matematicamente equivocado, pois não podemos “inventar” um
número para multiplicar. Na verdade, como demonstra a F1, para facilitar a interpretação
do indicador, multiplicamos a divisão por 10n/10n; ou seja, multiplicamos por 1, que não
altera a fórmula original, mas torna o número mais inteligível. Não se surpreenda,
entretanto, caso alguma questão de concursos médicos cobre esse conceito simplificado.

Para exemplificar a incidência acumulada (pessoas sob risco), será


utilizada a representação gráfica da Figura 3.1, na qual existe um
grupo de indivíduos acompanhados por um período de 5 anos. Nesse
caso, não existiu perda de indivíduos, ou seja, todos foram
acompanhados por todo o período estipulado (5 anos), e a doença em
questão deixa a pessoa com imunidade permanente, então o
indivíduo que desenvolveu a doença 1 vez não tem mais risco de
desenvolvê-la.
Figura 3.1 - Seguimento de uma população de 12 indivíduos para expressar pessoas sob
risco de adoecimento

Para conhecer a incidência da doença nos 5 anos em questão, basta


utilizar a Fórmula F3.1, uma vez que, nesse caso, todos os 12
indivíduos são potenciais para o desenvolvimento da doença. Então,
a incidência desse desfecho, em 5 anos de estudo, foi de 33%.
Fórmula 3.2 - Taxa de incidência
Até o momento, parece simples a maneira de calcular incidência,
contudo é preciso estar sempre alerta. Veja os exemplos que seguem.
Exemplo 1: utilizando a Figura 3.1, calcule a taxa de incidência no
segundo ano de observação.
Exemplo 2: utilizando a Figura 3.1, calcule a taxa de incidência no
quinto ano de observação.

Note que, em ambos os exemplos, o denominador é diferente, pois


nas 2 ocasiões o grupo sob risco era distinto. No exemplo 1, existe
um caso novo da doença, o indivíduo número 2. O grupo que estava
exposto não era mais de 12 pessoas, e sim de 11, uma vez que o
indivíduo número 6 havia ficado doente no ano anterior e, como a
imunidade é permanente, ele não poderia ficar doente novamente
(subtrai-se da população em risco). Da mesma maneira, ocorreu o
exemplo 2; contudo, agora no denominador, existem apenas 9
indivíduos, pois 3 deles ficaram doentes entre os anos 1 e 4 de
acompanhamento.
3.2.2 Densidade de incidência, ou incidência-
densidade
O segundo tipo de incidência é a densidade de incidência, ou
incidência-densidade, utilizada quando nem todos os indivíduos do
denominador foram acompanhados durante todo o período
especificado. Isso pode acontecer por diversas razões, como perdas
no acompanhamento ou morte devido a causas que não as do estudo.
Nesse tipo de incidência, o denominador consiste na soma das
unidades de tempo em que os indivíduos estiveram sob risco e foram
observados. Essa soma de unidades de tempo é chamada de pessoa-
tempo de observação e é, muitas vezes, expressa como pessoa-mês
ou pessoa-ano de observação (depende da variável do que se estuda).
Fórmula 3.3 - Taxa ou coeficiente de incidência-densidade
Toma-se a Figura 3.2 como exemplo desse procedimento. Observe
que, além do fato da perda (alguns indivíduos deixaram de ser
acompanhados), os casos perdidos foram observados por diferentes
períodos (indivíduo 5 até 2,5 anos; 9 até 4 anos; 12 até 1,5 ano). Outro
caso é o dos que ingressaram no estudo em períodos distintos, que
também contribuem com tempos diferentes para o procedimento de
cálculo (indivíduo 11 até 3 anos; 2 até 4 anos; 1 até 2,5 anos).
Figura 3.2 - Seguimento de uma população de 12 indivíduos para expressar pessoas-ano
de observação
A primeira questão que deve surgir é: como se calcula pessoa-tempo
de observação? Basta observar pessoa por pessoa quanto ao tempo
de observação. Por exemplo, o indivíduo 1 da Figura 3.2 foi observado
por 2,5 anos de estudo, contribuindo, assim, com 2,5 pessoas-ano de
observação para o total de pessoas-ano do estudo. Veja agora o
indivíduo 5 (perda): foi observado apenas 2,5 anos, contribuindo
com 2,5 pessoas-ano de observação. A seguir, o cálculo mostrando
quanto cada indivíduo (de 1 a 12) contribuiu para o tempo total de
observação do estudo:
Quando se fala de pessoas-tempo, referimos aos
indivíduos que apresentaram o desfecho. Se
não houver reposição e a doença em questão
levar à imunidade permanente, eles serão
observados somente até o aparecimento do
desfecho.

O indivíduo 6 da Figura 3.2, por exemplo, apresentou o desfecho com


1,5 ano de observação, contribuindo com 1,5 pessoa-ano de
observação para o total.
Então, para saber a incidência da doença por pessoas-tempo de
observação, basta utilizar a Fórmula F3.3, uma vez que, nesse caso,
os 12 indivíduos não são potenciais para o desenvolvimento da
doença, pois alguns deixaram de ser observados e outros não o
foram no início do seguimento. Os que apresentaram o desfecho, na
Figura 3.2, foram 4, e o total de pessoas-tempo observado é de 41
pessoas-ano. Tem-se, então, uma incidência de 9,75/100 pessoas-
ano.
Utilizando esse procedimento, pode-se calcular incidência por
período, assim como realizado no exemplo, quando o denominador
era feito com pessoas sob risco.
Exemplo 3: utilizando a Figura 3.2, calcule a taxa de incidência até o
terceiro ano de observação.
Exemplo 4: utilizando a Figura 3.2, calcule a taxa de incidência até o
quarto ano de observação.

Observe que o denominador também é diferente para os 2 casos. Essa


diferença refere-se, principalmente, ao tempo. No exemplo 3, pede-
se a incidência até o terceiro ano, no qual existem 2 casos novos da
doença (indivíduos 6 e 10). Se não tivesse ocorrido nenhuma perda,
início tardio de seguimento ou presença do desfecho, seriam 36
pessoas-ano de observação. Contudo, o total de pessoas-tempo
observado foi de 27,5 pessoas-ano (2 perdas – indivíduo 5 e 12 – e 1
caso de doença – indivíduo 6). O mesmo raciocínio pode ser seguido
no exemplo 4: entretanto, trata-se do quarto ano de observação, e
existem 3 casos novos da doença e 36 pessoas-ano de observação.
Ao calcular coeficientes de incidência para a população de um
município, por exemplo, em geral, admite-se que todos os
indivíduos estiveram expostos igualmente por todo o período de
tempo, o que pode não corresponder à realidade; a saída seria a
utilização de pessoas-tempo no denominador, e não de pessoas sob
risco (FRANCO; PASSOS, 2005).
Nas perdas, a incidência acumulada subestima
a real frequência da doença, pois não sabemos
se as pessoas desenvolveriam a doença
futuramente. Nesses casos, a densidade de
incidência é um indicador melhor.

3.3 TAXA DE ATAQUE


Um tipo de incidência bastante conhecido que, frequentemente
aparece em provas, é a taxa de ataque. A taxa de ataque significa a
incidência de doentes em uma população previamente exposta a um
fator de risco comum e pode ser calculada com a Fórmula a seguir.
Fórmula 3.4 - Taxa de ataque

Na taxa de ataque, o tempo fica especificado implicitamente ao invés


de explicitamente. Um exemplo disso seria um surto de doença por
ingestão de alimentos. Nesse caso, a taxa de ataque pode ser definida
como o número de pessoas expostas (ao alimento suspeito, por
exemplo) que adoeceram dividido pelo número de indivíduos
expostos ao alimento. Note que a taxa de ataque não especifica
explicitamente o intervalo de tempo, pois em muitos surtos ele pode
ser de horas ou dias após a exposição. Por consequência, casos que
vierem a ocorrer meses depois dificilmente serão considerados parte
do mesmo surto.
A taxa de ataque é uma taxa utilizada para
situações mais agudas, para curtos períodos de
tempo, geralmente para eventos mais isolados,
como um surto de intoxicação alimentar.

Cassettari et al. (2006) avaliaram um surto por Klebsiella


pneumoniae produtora de betalactamase de espectro estendido no
berçário de um hospital universitário na cidade de São Paulo e
verificaram 9 pacientes doentes em 318 internações em 3 meses de
observação, sendo a taxa de ataque muito próxima a 3% (9/318 =
0,028).
Madalosso et al. (2008) estudaram um surto alimentar por
Salmonella enterica sorotipo Enteritidis em um restaurante da
cidade de São Paulo. O período de tempo de exposição foi de 2 dias, e
foram identificados 15 doentes entre os 19 expostos no primeiro dia
(taxa de ataque de 78,9%) e 9 doentes dos 10 expostos no segundo
dia (taxa de ataque de 90%). A taxa de ataque global era de 82,8%
(24 doentes/29 expostos = 0,82).
3.4 PREVALÊNCIA
Prevalência é uma medida de frequência que revela quantos
indivíduos estão doentes (ou apresentam o desfecho). Pode ser
definida como o número de pessoas afetadas na população em
determinado momento, dividido pelo número de pessoas na
população naquele momento – F3 (PEREIRA; PAES; OKANO, 2000;
GORDIS, 2010).
Costa e Kale (2009) explicam também que os casos existentes são de
indivíduos que adoeceram em algum momento do passado mais ou
menos remoto, como os casos “antigos” e os “novos”, que estão
vivos quando se realiza uma observação. Desse modo, os que vierem
a falecer no período de observação não devem ser considerados
cômputos da prevalência.
Fórmula 3.5 - Taxa ou coeficiente de prevalência

Fórmula 3.6 - Prevalência

Em Medicina e Saúde Pública, o termo “prevalência” pode ser


empregado para designar “prevalência pontual” ou “prevalência no
período”. Quando não está especificado, faz-se referência à
prevalência pontual, que se refere à frequência de uma doença ou
problema de saúde em um instante (ponto) do tempo. Prevalência
por período refere-se a um intervalo de tempo, que pode ser
arbitrariamente selecionado, tal como 1 mês, 1 ano ou um período de
5 anos.
Algumas pessoas podem desenvolver doença em um período, outras
apresentá-la antes e morrer ou ser curadas durante esse período. O
importante é que cada indivíduo representado pelo numerador teve a
doença em algum momento durante o período especificado.
Para exemplificar, toma-se a representação de uma população
hipotética de São Paulo (Figura 3.3), na qual se deseja saber qual é a
prevalência da doença em janeiro de 2010. Sabe-se que existem 6
indivíduos doentes (6, 9, 13, 14, 22 e 29) para uma população de 35
indivíduos. A prevalência pontual da doença no ano de 2010 em São
Paulo é de 17%.
Figura 3.3 - População de 35 indivíduos para estudar a prevalência de doença em São
Paulo, em janeiro de 2010

Fonte: acervo Medcel.

Antes de partir para a próxima questão, vale voltar à questão da


prevalência pontual, em que, na prática, é virtualmente impossível
estabelecer um único ponto e realizar uma pesquisa de prevalência.
Imagine uma pesquisa que investigaria uma cidade inteira em 1 dia.
Embora conceitualmente se esteja pensando em um só ponto no
tempo, na verdade as pesquisas podem demorar muito mais.
Celentano e Szklo (2019) citam um exemplo interessante que
engloba as medidas de frequência estudadas no presente capítulo
(Quadro 3.1).
Toma-se agora a Figura 3.4. Deseja-se conhecer a prevalência da
doença no mesmo mês do ano seguinte ao exemplo anterior.
Existem, nesse caso, 11 pessoas doentes (4, 6, 10, 12, 13, 14, 16, 19,
22, 23 e 29) para população total de 35 indivíduos. O cálculo de
prevalência resulta em 31,4% de doentes existentes na hipotética São
Paulo, em janeiro de 2011.
Quadro 3.1 - Exemplo de prevalência pontual e no período e incidência cumulativa em
estudo de entrevista de asma

Fonte: adaptado de Gordis Epidemiology, 2019.

Figura 3.4 - População de 35 indivíduos para estudar a prevalência de doença em São


Paulo, em janeiro de 2011
Fonte: acervo Medcel.

Repare que, para esse exemplo, existe a possibilidade do cálculo de


incidência, pois aparecem os mesmos indivíduos 1 ano depois da
medida da primeira prevalência, contudo não é esse fato que merece
discussão, e sim o aumento da prevalência de um ano para outro. Em
janeiro de 2010, a prevalência da doença foi de 17% (Figura 3.3) e, em
janeiro de 2011, de 31,4% (Figura 3.4). Pensando
epidemiologicamente, o que pode ter ocorrido para observar essa
elevação da taxa de prevalência? Esse pensamento será discutido a
seguir.
3.5 USOS DA PREVALÊNCIA VERSUS
INCIDÊNCIA
Franco e Passos (2005) explicam que a prevalência de uma doença
pode ser uma função de sua incidência. Quanto maior a incidência,
maior será a prevalência, dependendo da duração da doença, assim
como de curas, óbitos e perdas de acompanhamentos. Desse modo, a
prevalência pode ser entendida como o resultado, para um período
de tempo, da soma das entradas (casos novos) menos a soma das
saídas (curas, mortes e perdas de acompanhamento) em função da
duração da doença sob investigação.
Operacionalmente, tanto a prevalência quanto a incidência são
semelhantes, pois tratam de uma divisão de indivíduos doentes pela
população exposta. Entretanto, conceitualmente, são distintos. A
prevalência informa sobre a situação da doença em um instante ou
intervalo de tempo, mas não estima o risco de adoecimento, pois os
casos novos e existentes são considerados um conjunto.
A incidência informa sobre a dinâmica de entrada de novos casos,
permitindo estimar o risco de adoecimento de uma população
exposta. A prevalência é uma informação fundamental para a
administração e o planejamento em saúde, uma vez que o número de
atendimentos, medicamentos e pessoas é calculado levando em
conta essa medida de frequência. Porém, a incidência é o elemento
que fornece casos novos à prevalência.
Na Figura 3.5, existe uma representação da influência da incidência
sobre a prevalência, em que o tanque representa uma população. No
cenário 1, observa-se uma situação em que existe a entrada de
alguns casos novos, porém a saída de casos existentes é elevada,
logo não existem muitos casos da doença na população. Veja agora o
cenário 2, em que ocorreu a entrada de casos novos da doença e a
saída de casos existentes está mais restrita, assim os casos
prevalentes são consideravelmente importantes. O Quadro 3.2
também explicita quais fatores aumentam e diminuem a prevalência
de uma doença na população.
Quadro 3.2 - Relação entre prevalência e incidência

Exemplos clássicos de tratamentos que aumentam a sobrevida, mas


não curam, são o aumento da prevalência de HIV após a distribuição
de antirretrovirais e o aumento da prevalência de diabetes mellitus
com controle rigoroso de glicemia.
Pereira, Paes e Okano (2000) acrescentam que prevalência e
incidência obedecem a uma relação regulada pelo tempo de duração
da doença, assim expressa:
Desse modo, uma doença aguda e de curta duração, em geral, é bem
avaliada pela incidência. Durante uma epidemia de dengue, por
exemplo, os casos novos representam a incidência, mas após o
período epidêmico a incidência tende a cair (Figura 3.6), como já
demonstrado no cenário 1 da Figura 3.5. Se a avaliação da prevalência
for feita após a epidemia, poderá não refletir a real dimensão da
doença (FRANCO; PASSOS, 2005).
Figura 3.5 - Situações para verificação da relação entre prevalência e incidência
Legenda: (A) entrada de casos novos – incidência; (B) casos existentes – prevalência; (C)
saída de casos – morte, cura ou perda de acompanhamento em uma coorte.
Fonte: ilustração Claudio Van Erven Ripinskas.

Figura 3.6 - Casos de dengue segundo classificação final e semana epidemiológica de


início dos sintomas
Fonte: adaptado de Boletim sobre situação da dengue, febre de chikungunya e febre do
zika vírus em Santa Catarina, atualizado em 06 jan. 2016.

Franco e Passos (2005) explicam também que, no caso das doenças


crônicas e de longa duração, como o diabetes, mesmo com incidência
baixa, a prevalência tende a ser alta, pois os pacientes tendem a
sobreviver por muitos anos, havendo um acúmulo de casos ao longo
do tempo, também demonstrado no cenário 2 da Figura 3.5. Um bom
programa de controle do diabetes poderá resultar na elevação da
prevalência dessa doença, seja por melhorar o diagnóstico, seja por
aumentar a sobrevida, elevando a duração da doença.
3.6 ESTIMATIVAS POR INTERVALO
É comum que, em estudos epidemiológicos, tente-se aplicar o
conhecimento obtido de uma amostra em uma população inteira;
por exemplo, selecionar algumas escolas de São Paulo para tentar
estimar a prevalência de transtorno de déficit de atenção e
hiperatividade entre todos os escolares da cidade. Quando isso
acontece, estamos sujeitos ao que se chama de “erro amostral”, que
é um erro de medição que ocorre pelo fato de não avaliar todas as
pessoas da população inteira.
Para estimar esse erro amostral, costuma-se utilizar o conceito de
intervalo de confiança. Assim, no exemplo de estudo anterior, caso
você tenha encontrado uma prevalência de 10% em vez de afirmar
que a prevalência na cidade foi de 10% na população, você pode
calcular o intervalo de confiança e afirmar que a prevalência está em
torno de 10%, entre um intervalo de valores calculado.
O intervalo de confiança é calculado a partir da média, desvio-
padrão e tamanho amostral do estudo. A interpretação correta de um
intervalo de confiança de 95% de uma determinada prevalência (ou
incidência) é que, caso repetíssemos o estudo infinitas vezes, 95%
das amostras incluirão a prevalência (ou incidência) real. Portanto,
há 95% de probabilidade que o seu intervalo inclua a prevalência
real.
Exemplo: Schweitzer (2015) estimou que a prevalência de hepatite B
crônica no Brasil é de 0,65% (IC95% 0,64 a 0,66%). Logo, há uma
probabilidade de 95% de que o intervalo de 0,64 a 0,66% inclua a
prevalência real de hepatite B crônica no Brasil.
Afirmar que há 95% de probabilidade de que o intervalo de confiança
inclui a prevalência (ou incidência) real não significa que:
a) Há uma probabilidade de 95% que a prevalência esteja dentro do
intervalo;
b) 95% dos dados da amostra estão no intervalo;
c) A prevalência real varia entre os valores do intervalo.
Você sabe a diferença entre
incidência e prevalência e
quando usá-las?
A incidência se refere à porcentagem de casos novos em
comparação a uma população sob risco. Já a prevalência se
refere à porcentagem de casos existentes em comparação a
uma população sob risco. A incidência é uma medida
dinâmica, que expressa uma mudança do estado de saúde
da população. Já a prevalência é uma medida estática, que
serve para descrever a situação atual da doença na
população.
Quando podemos dizer que
a assistência à saúde de um
local é melhor do que a de
outro?

4.1 INTRODUÇÃO
Neste capítulo, serão abordados alguns indicadores mais utilizados
no Brasil para categorizar a qualidade de saúde de um determinado
local.
Na área de Saúde, os “indicadores” são parâmetros utilizados
internacionalmente a fim de avaliar, do ponto de vista sanitário, a
higidez de agregados humanos, bem como fornecer subsídios aos
planejamentos de saúde, permitindo o acompanhamento das
flutuações e tendências históricas do padrão sanitário de diferentes
coletividades consideradas à mesma época ou da mesma
coletividade, em diversos períodos de tempo (MEDRONHO, 2009).
Diante das inúmeras dificuldades para mensurar a saúde da
população, o que se faz é quantificar e descrever a ocorrência de
determinados agravos à saúde, doenças ou morte. Nesse caso, olha-
se, então, a ausência de saúde, ou, como habitualmente é dito, a
saúde pelo seu lado negativo (MEDRONHO, 2009). Assim, por
exemplo, um local cuja população apresente baixa frequência de
doenças e mortalidade por diversos tipos de causas será taxado de
saudável.
Em sentido amplo, qualquer informação que
auxilie um gestor ou profissional da saúde na
tomada de decisão em saúde poderá ser um
indicador de saúde. De forma geral, indicadores
são expressos por meio da divisão entre
números.

Outra questão importante refere-se ao fato de que os dados


epidemiológicos só se tornarão informações para tomada de decisão
por meio dos indicadores de saúde. Esses dados provêm de fontes
primárias – pesquisas – ou secundárias – sistemas de informação
em saúde, por exemplo: Sistema de Informação de Agravos de
Notificação (SINAN), Sistema de Informações sobre Mortalidade
(SIM) e Sistema de Informações sobre Nascidos Vivos (SINASC).
Então, a validade dos indicadores vai depender, basicamente, da
qualidade dos dados registrados nesses sistemas de informação.
Após os cuidados quanto à qualidade e cobertura dos dados de saúde,
é preciso transformar esses dados em indicadores que possam servir
para comparar o que foi observado em determinado local com o que
foi observado em outros, ou ainda com o observado no mesmo local
em diferentes tempos (Figura 4.1).
Figura 4.1 - Principais finalidades dos indicadores
Fonte: elaborado pelos autores.

Com a preocupação de medir o padrão de vida das coletividades


humanas, a Organização das Nações Unidas recomendou a adoção do
termo “nível de vida”, para expressar as condições atuais de vida de
uma população, e o termo “padrão de vida”, para referir-se às
aspirações futuras.
No Brasil, a Rede Interagencial de Informações para a Saúde (RIPSA)
afirma que a disponibilidade de informação apoiada em dados
válidos e confiáveis é condição essencial para a análise objetiva da
situação sanitária, assim como para a tomada de decisões baseadas
em evidências e para a programação de ações de saúde.
A análise de indicadores demográficos e de morbimortalidade tem o
objetivo de elaborar os chamados diagnósticos de saúde da
comunidade. Mais recentemente, a Organização Pan-Americana da
Saúde tem buscado retomar essa prática, incentivando a utilização
mais ampla da Epidemiologia por meio do acompanhamento e da
análise sistemática da evolução de indicadores demográficos,
sociais, econômicos e de saúde, para melhor compreensão dos
determinantes das condições de saúde da população.
Esse quadro de contínuas modificações salienta a relevância da
capacitação dos serviços de saúde para a análise e a interpretação
desses indicadores à luz, por exemplo, de conceitos como o da
transição epidemiológica. Com fundamento nesse conceito, busca-
se compreender as profundas mudanças ocorridas nos padrões de
morbidade e mortalidade nas últimas décadas.
Os indicadores de saúde são construídos por meio de frequências
relativas, em forma de coeficientes ou taxas, proporções, índices e
razões, abordados a seguir. Para exemplificar a construção desses
indicadores, serão utilizados os dados disponíveis no Quadro 4.1
(dados reais extraídos de diferentes fontes); as fórmulas utilizadas
serão F1, F2 e F3. Repare na lógica utilizada para chegar ao indicador.
4.2 INDICADORES DE SAÚDE
4.2.1 Aspectos básicos
A forma mais simples de expressar um dado é o número absoluto;
contudo, esse tipo de expressão apresenta uma limitação
importante, não sendo possível conhecer, por exemplo, a dimensão
que ela representa. Veja o seguinte exemplo: no ano de 2010, foram
confirmados 35 casos de hepatite B em Araçatuba e 262 em São José
do Rio Preto. O que esses números representam depende da relação
com o tamanho da população local, assim é possível que os 35 casos
ocorridos em Araçatuba sejam, do ponto de vista epidemiológico,
mais significativos do que os 262 casos ocorridos em São José do Rio
Preto.
Toma-se agora outra situação no Quadro 4.1. Observe inicialmente a
coluna de óbito por AIDS e repare que as regiões Sudeste e Nordeste
apresentam maiores números de tais óbitos no ano de 2017, os quais
são os últimos dados disponibilizados pelo portal DATASUS, do
Ministério da Saúde. Porém, apesar de esse dado ser verídico,
isoladamente impossibilita a comparação de maneira mais concreta,
não sendo possível saber se os óbitos nas regiões Nordeste e Sudeste
são, de fato, mais significativos do que nas demais regiões do Brasil,
simplesmente pelo fato de não se conhecer a representatividade
desses números em relação à sua região de origem.
Quadro 4.1 - Óbitos totais, por causas externas, por HIV/AIDS segundo a região de
residência (Brasil, 2017)

Fonte: elaborado pelos autores.

Entretanto, quando se observam outros parâmetros, como o


tamanho da população de cada região, os óbitos totais ocorridos e
mesmo os óbitos por causas externas, ambos para o mesmo ano, a
importância dos números de óbitos de AIDS parece tomar certa
dimensão. Essa dimensão ocorre, justamente, pela relação que a
mortalidade por AIDS estabelece junto aos outros números.
Portanto, para realizar a análise epidemiológica do evento
considerado, é necessário transformar os dados expressos em
valores absolutos para valores relativos, ou seja, os valores absolutos
devem ser expressos em relação a outros valores absolutos, que
guardem entre eles alguma forma de relação coerente. Esse fato
trará a dimensão que permitirá comparação e avaliação. A seguir, a
construção dos tipos de indicadores.
4.2.2 Tipos de indicadores
4.2.2.1 Coeficientes ou taxas

Trata-se da divisão entre o número de vezes que se observou um


determinado evento, pela população que, teoricamente, esteve
sujeita a sofrer esse evento. Globalmente falando, os coeficientes
podem ser expressos por meio de prevalências ou incidências.
Os coeficientes ou taxas são comumente utilizados para estimar o
risco de ocorrência de um problema de saúde, como adoecimento ou
mesmo a morte, em relação a determinada população suscetível, por
unidade de tempo. Em um sentido epidemiologicamente rigoroso, o
conceito de risco está atrelado (na verdade, é sinônimo) da
incidência de uma determinada condição. Entretanto, para fins de
Medicina Preventiva e Descritiva, o coeficiente de prevalência, por
incluir, no denominador, a população que estaria sujeita a sofrer o
evento, também pode trazer a ideia de risco, embora não seja o risco
em si.
Medronho (2009) explica que um coeficiente de mortalidade, por
exemplo, é a razão entre o número de óbitos e a quantidade de
indivíduos expostos ao risco de morrer. Tem a fórmula idêntica ao
cálculo de incidência, mas com o desfecho “morte” em vez de
“doença” (ou seja, expressão de probabilidade).
Para exemplificar, será calculado o coeficiente de mortalidade por
AIDS para o Brasil e suas regiões (Fórmula 4.1), conforme os dados
que constam no Quadro 4.1. Futuramente, esse indicador será
chamado de “coeficiente de mortalidade por causa específica”,
AIDS, neste caso.
Fórmula 4.1 - Coeficiente de mortalidade
Em que: População = População do Brasil (total) e para cada uma das regiões (cada região
apresenta seu indicador).

Repare que foi realizado um cálculo muito simples: o número de


mortes por AIDS em 2017 foi dividido pelo tamanho da população do
Brasil e de cada região, respectivamente (o coeficiente está na base
105/105; ou seja, o produto dessa divisão foi multiplicado por
100.000/100.000 habitantes). Note, também, que agora existe uma
dimensão bem definida para as mortes, pois estão relacionadas à
população geral do país e de cada região. Um bom exemplo da
aplicabilidade desse indicador pode ser visto a seguir (Quadro 4.2):
perceba que, quando avaliado em valores absolutos, as regiões
Sudeste e Nordeste apresentavam o maior número de óbitos por HIV.
Entretanto, quando comparado com a população total, as regiões
Norte e Sul apresentam o maior coeficiente, que é um indicador do
risco de morrer por essa condição nessas regiões.
Quadro 4.2 - Coeficiente de mortalidade por AIDS para o Brasil e regiões, 2017

Fonte: elaborado pelos autores.

Deve-se fazer a ressalva de que o coeficiente está para 100.000


habitantes, não existindo uma regra para tal fato. A multiplicação
por 10n/10n deverá ser sempre para a potência que melhor facilitar a
leitura do indicador (100/100, 1.000/1.000, 10.000/10.000 ou
100.000/100.000).
4.2.2.2 Proporções (eventualmente chamadas de índices ou razões)

Embora a definição de “coeficiente” seja clara na literatura de


Epidemiologia, alguns termos, como índices e razões, são
sobrepostos e, muitas vezes, imprecisos. Índice, do ponto de vista
teórico, é uma medida multidimensional, construída pela relação
entre vários atributos (PEREIRA, 2002). Entretanto, razões são
divisões entre quaisquer números que obedeçam a um sentido
lógico. Em alguns casos, utilizam-se os termos índices e razões para
referir-se a outro termo que, este sim, tem um significado bastante
preciso: as proporções. Proporções são indicadores cujos casos
incluídos no numerador também estão inseridos no denominador,
obtendo-se, assim, a distribuição proporcional de casos, ou seja, é
uma proporção. A grande diferença das proporções para os
coeficientes é que, nestes, o denominador inclui todas as pessoas
que poderiam sofrer o evento do numerador; em contraste, nas
proporções, o denominador inclui pessoas que já sofreram um
evento, e o numerador representa apenas um subconjunto dessas
pessoas.
Exemplo de proporção de óbitos por AIDS no Brasil. Perceba que o
número indicado no numerador é um subconjunto do denominador:
A proporção é a relação (ou o quociente) entre 2 frequências da
mesma unidade. No numerador, são registradas as frequências
absolutas de eventos que constituem subconjuntos daquelas
registradas no denominador. Exemplo: no caso da mortalidade
proporcional, divide-se o número de óbitos de uma determinada
causa, ou de pessoas de uma determinada faixa etária, pelo número
total de óbitos (MEDRONHO, 2009).
Em linhas gerais, as proporções representam a
“fatia da pizza” do total de casos ou mortes,
indicando a importância desses casos ou
mortes no conjunto total.

No caso da proporção, será utilizado um exemplo bem simples, que


trará uma nova dimensão para aqueles óbitos por AIDS absolutos
apresentados junto ao Quadro 4.1. Será aplicado o indicador que
poderá ser denominado de mortalidade proporcional por AIDS
(Fórmula 4.2) – lembre-se de que poderia ser por qualquer outra
causa.
O procedimento de cálculo é: divisão do número de óbitos por AIDS
para cada região e para o país pelo total de óbitos ocorridos em cada
região e no país no mesmo ano.
Fórmula 4.2 - Mortalidade proporcional por AIDS

Em se tratando de razão, seu cálculo é simplesmente uma divisão


entre 2 números, e pode-se exemplificar sua aplicação do mesmo
modo (com dados do Quadro 4.2). Assim, pode-se dividir o número
de óbitos por causas externas (para o país e as regiões) pelo número
de casos de AIDS (Fórmula 4.3). Perceba que deve haver uma relação
lógica entre esses números; pode-se chamar esse indicador, então,
de razão de mortalidade por causa externa/AIDS.
Fórmula 4.3 - Razão de mortalidade por causa externa/AIDS
Veja que, no ano de 2017, a proporção de óbitos por AIDS no Brasil foi
de cerca de 1%, relativamente mais relevante nas regiões Sul e Norte
do país (Quadro 4.3). Já no caso da razão causa externa/AIDS, são
13,51 óbitos por causas externas para 1 de AIDS no país; a região com
maior razão foi o Nordeste, com 20,28 mortes por causas externas
para 1 de AIDS (Quadro 4.4).
Quadro 4.3 - Proporção de mortalidade por AIDS para o Brasil e regiões, 2017

Fonte: elaborado pelos autores.

Quadro 4.4 - Razão de morte por AIDS em relação às mortes por causas externas, 2017
Fonte: elaborado pelos autores.

Para chegar a este último procedimento, partiu-se dos números


absolutos de óbitos por AIDS no ano de 2017, que não tinham valor
avaliativo ou comparativo. Foi feita, então, sob uma ótica mais
prática, uma relação desses números com outros de interesse (por
meio de coeficientes e índices), fato que conferiu um caráter
avaliativo e possibilitou a comparação entre as diferentes regiões do
Brasil.
De maneira genérica, assim são planejados e montados os
indicadores de saúde. Vale ressaltar que existe uma diferença
considerável entre coeficientes (ou taxas) e proporções.
Proporções não expressam uma probabilidade
(ou risco) como os coeficientes, pois o que está
contido no denominador não está sujeito ao
risco de sofrer o evento descrito no numerador
(LAURENTI et al., 1987).
A seguir, serão apresentados os principais indicadores de saúde, bem
como outros correntemente utilizados em Epidemiologia pela
Organização Mundial da Saúde (OMS).
4.3 PRINCIPAIS INDICADORES DE
SAÚDE
Como o uso de um único indicador não possibilita o conhecimento da
realidade epidemiológica de uma população, a associação de vários
deles e, ainda, a comparação entre diferentes indicadores nos ajuda a
compreender a importância de um processo patológico ou se
determinada intervenção foi positiva.
Para a OMS, esses indicadores gerais subdividem-se em 3 grupos:
a) Referem-se às condições do meio e têm influência sobre a saúde.
Exemplo: saneamento básico;
b) Tentam traduzir a saúde ou sua falta em um grupo populacional.
Exemplos: razão de mortalidade proporcional, coeficiente geral de
mortalidade, esperança de vida ao nascer, Coeficiente de Mortalidade
Infantil (CMI) e coeficiente de mortalidade por doenças transmissíveis;
c) Procuram medir os recursos materiais e humanos relacionados às
atividades de saúde. Exemplos: número de Unidades Básicas de
Saúde, profissionais de saúde, leitos hospitalares e consultas em
relação a determinada população.

4.3.1 Indicadores expressos por coeficientes


Os indicadores expressos por coeficientes mais importantes são
estatísticas de mortalidade e permitem inferir as condições de saúde
de uma população, uma vez que possibilitam identificar grupos mais
afetados por determinados agravos à saúde. Diante dessa
informação, é possível reconhecer os problemas prioritários da
população e alocar recursos para ações e intervenções nesses
problemas. Permitem, ainda, avaliar a eficácia dessas ações e
intervenções.
Quando o foco de interesse envolve todos os indivíduos da população
exposta ao risco de morrer, fala-se em coeficiente de mortalidade
geral. A avaliação da mortalidade por categorias (idade, sexo,
agravo) refere-se aos coeficientes de mortalidade específicos. Por
fim, a avaliação de mortalidade entre doentes é chamada de
coeficiente de letalidade (Quadro 4.5).
Quadro 4.5 - Principais indicadores expressos por coeficientes

4.3.1.1 Coeficiente de mortalidade geral

O Coeficiente de Mortalidade Geral (CMG) é muito útil para a


avaliação do estado sanitário de determinadas áreas. Associado a
outros coeficientes e índices, permite avaliar comparativamente o
nível de saúde dessas localidades. Operacionalmente, refere-se ao
número de óbitos totais em um dado período dividido pelo tamanho
da população no mesmo período. Essa razão geralmente é
multiplicada por 100.000/100.000 (Fórmula 4.4).
Fórmula 4.4 - Coeficiente de mortalidade geral
Em comparações internacionais, por exemplo, quando se observam
as taxas brutas de mortalidade de países desenvolvidos e em
desenvolvimento, não é incomum a falsa impressão de que, nos
primeiros, as taxas de mortalidade são mais elevadas (Quadro 4.6).
Porém, deve-se verificar que, nos países desenvolvidos, é
significativa a parcela idosa da população, e essas pessoas morrem
mais do que jovens (parcela significativa da população em países em
desenvolvimento). Repare, então, que esse coeficiente sofre
influência da estrutura etária da população.
Para minimizar as distorções em estudos comparativos e evitar
interpretações errôneas, recomenda-se padronizar as taxas. Com o
ajuste das faixas etárias a um padrão estabelecido pela Organização
Mundial da Saúde, fala-se em coeficiente de mortalidade
padronizado. Logo, pode-se afirmar que este, quando disponível, é
mais adequado para comparações, em detrimento do coeficiente de
mortalidade geral.
Observe, no Quadro 4.6, que a porcentagem da população idosa na
Suécia, por exemplo, é maior do que a mesma população no México.
Deve-se observar, também, a população infantil (menor de 15 anos)
nesses 2 países. Considerando, como dito, que a população idosa
morre mais do que a jovem, ao comparar as taxas brutas de
mortalidade nesses 2 países, conclui-se que a mortalidade na Suécia
é maior do que no México; porém, epidemiologicamente falando,
essa conclusão é equivocada, uma vez que altas taxas de mortalidade
sugerem regiões com precárias condições de saúde, entre outros
fatores. Assim, ao padronizar essas taxas, têm-se os dados de forma
mais realista.
Quadro 4.6 - Estrutura populacional de alguns países e respectivas taxas de mortalidade
geral com e sem padronização, em 1990
1 População padrão: mundial.

Alguns problemas do CMG referem-se às distorções relacionadas


com os sub-registros e a qualidade dos registros. Contudo, esse é um
problema que afeta quase todos os indicadores de saúde. Assim,
dados do numerador podem ser prejudicados por sub-registros, e
dados do denominador, pela imprecisão na estimativa da população
total da região em estudo. Uma alternativa diante disso é adotar, no
denominador, a população existente na metade do período
considerado (ponto médio), o que, acredita-se, conferiria distorções
não significativas nos resultados. Outra questão comum é que
muitas pessoas procuram assistência médica em centros mais
avançados do país e, quando vêm a falecer, a declaração de óbito é
preenchida com o endereço de um familiar da região, e não com o
endereço de origem do paciente falecido, subestimando a
mortalidade de um local e superestimando de outro.
4.3.1.2 Coeficiente de mortalidade por causas (ou mortalidade
específica)
O coeficiente de mortalidade pode expressar a distribuição de óbitos
de uma população segundo alguns parâmetros: causa do óbito
(Fórmula 4.5) ou grupo (sexo – Fórmula 4.6 –, idade – Fórmula 4.7
–, local do óbito, entre outros). Assim, ao calcular as taxas de
mortalidade por sexo, pode-se saber se os homens morrem mais do
que as mulheres, por exemplo; ou, ao calcular as taxas de
mortalidade por idade, pode-se identificar em que grupo etário é
maior a mortalidade e, a partir dessa informação, investigar as
causas de óbitos em cada grupo.
O coeficiente de mortalidade por causas pode ser calculado pela
razão entre o número de óbitos por determinada causa (numerador)
e a população exposta ao risco de morrer por aquela causa
(denominador), multiplicada pela base referencial da população –
normalmente, 100.000/100.000 (Fórmula 4.5).
Fórmula 4.5 - Coeficiente de mortalidade por causa

Fórmula 4.6 - Coeficiente de mortalidade por sexo

Fórmula 4.7 - Coeficiente de mortalidade por idade


O coeficiente de mortalidade por causas é útil, pois fornece
informações que permitem conhecer o perfil de saúde da população.
Quando uma região apresenta elevada taxa de óbitos por doenças
infecciosas e parasitárias, pode-se esperar que seja economicamente
pouco desenvolvida, com saneamento precário, como em países em
desenvolvimento. Da mesma forma, se a taxa de óbitos por doenças
crônico-degenerativas é elevada em determinada localidade, pode-
se esperar que se trate de região com importante parcela da
população composta por idosos, o que acontece em regiões
economicamente mais desenvolvidas, como se observa nos países
desenvolvidos. Apresentam-se, a seguir, os coeficientes de
mortalidade segundo as principais causas para o Brasil em 2014
(Figura 4.2).
Figura 4.2 - Exemplo de mortalidade por causas (100.000 habitantes) no Brasil, em 2017
Fonte: elaborado pelos autores.

Algumas causas específicas de mortalidade são eventualmente


cobradas em provas. A Figura 4.3 apresenta causas de mortalidades
específicas por sexo e faixa etária em 2017 divulgadas pelo
Ministério da Saúde.
Figura 4.3 - Mortalidade por causas específicas em diferentes agrupamentos em 2017
Fonte: elaborado pelos autores.

Outro indicador divulgado recentemente pelo Instituto Brasileiro de


Geografia e Estatística é a sobremortalidade masculina, ou seja, a
maior mortalidade da população masculina em relação à feminina.
Esse indicador pode ser visto na Figura 4.4. Perceba que, em
comparação com o ano de 1940, houve um grande aumento da
sobremortalidade masculina no Brasil fundamentalmente entre
jovens de 15 a 35 anos em 2017. A explicação para esse fenômeno é a
urbanização dos brasileiros, pois, enquanto em 1940 a população
brasileira era essencialmente rural (68%), em 2010 apenas cerca de
15% da população vive na zona rural.
Figura 4.4 - Sobremortalidade masculina no Brasil em 1940 e 2017
Fonte: Tábua completa de mortalidade para o Brasil – 2017, 2018.

4.3.1.3 Coeficiente de mortalidade infantil

O CMI é um dos indicadores de saúde mais utilizados para medir o


nível de saúde e desenvolvimento social de uma região. Esse
indicador é calculado dividindo-se o número de óbitos em menores
de 1 ano de idade pelo número de nascidos vivos no mesmo período,
multiplicando o resultado por 1.000/1.000 – Fórmula 4.8 (lembre-se
de que a unidade de multiplicação não é uma regra).
Conceitualmente, o termo “nascido vivo” refere-se à expulsão ou à
extração completa de um produto da concepção do corpo materno,
independentemente da duração da gestação, o qual, depois da
separação do corpo materno, respire ou dê qualquer outro sinal de
vida, como batimento do coração, pulsação do cordão umbilical ou
movimentos efetivos dos músculos de contração voluntária, estando
ou não cortado o cordão umbilical e estando ou não desprendida a
placenta (IBGE, 2009a).
Com o objetivo de refinar as informações obtidas, o CMI pode ser
dividido em 2 componentes: Coeficiente de Mortalidade Neonatal
(CMN – F10) e Coeficiente de Mortalidade Pós-Neonatal (CMPN) ou
de Mortalidade Infantil Tardia (CMIT – F13). Na Figura 4.5,
apresentam-se os períodos entre o fim da gestação até o indivíduo
completar 1 ano de vida. Esses períodos são geralmente utilizados na
construção desses indicadores de mortalidade (LAPREGA; FABBRO,
2005).
Figura 4.5 - Períodos importantes para a mortalidade infantil

Fonte: elaborado pelos autores.

O CMN, também chamado de CMI precoce, é definido como o


número de óbitos de menores de 27 dias sobre o total de nascidos
vivos no mesmo período, multiplicando o resultado por 1.000/1.000.
As principais causas são: baixo peso ao nascer, malformações
congênitas, prematuridade, problemas no parto, pré-natal de pouca
qualidade, falha nos cuidados imediatos ao recém-nascido e
dificuldade de acesso das mães aos serviços de saúde após alta da
maternidade, sendo algumas situações de difícil controle e
prevenção, o que se torna um desafio à Saúde Pública.
O CMN pode ser subdividido, ainda, em neonatal precoce (Fórmula
4.10) e neonatal tardia (Fórmula 4.11). O primeiro corresponde aos
óbitos ocorridos até o sétimo dia de vida (primeira semana de vida),
quando as causas de mortalidade estão mais relacionadas a
problemas na gestação e no parto. Já o segundo corresponde aos
óbitos ocorridos nas segunda, terceira e quarta semanas de vida, até
os 27 dias, e tem suas causas já afetadas por questões ambientais,
podendo ocorrer óbitos por infecções, principalmente respiratórias e
gastrintestinais.
O CMIT é obtido dividindo-se o número de óbitos em crianças de 28
até 364 dias de vida pelo total de nascidos vivos no mesmo período,
multiplicando o resultado geralmente por 1.000/1.000. Suas
principais causas são doenças infecciosas, diarreias, infecções
respiratórias e desnutrição, situações que iniciativas da Saúde
Pública e da Medicina Preventiva têm controlado de tal forma que a
redução desse componente tem contribuído sobremaneira para a
redução das taxas de mortalidade infantil no Brasil.
Em países e regiões pouco desenvolvidos, a taxa de mortalidade
infantil é alta, com predomínio do componente pós-neonatal em
relação ao neonatal. À medida que ocorre o desenvolvimento
econômico e social, há tendência a queda das taxas de mortalidade
infantil e de seus 2 componentes principais, mas com velocidade
maior para a mortalidade pós-neonatal, que em níveis baixos se
torna menor do que a mortalidade neonatal (LAPREGA; FABBRO,
2005).
Fórmula 4.8 - Coeficiente de mortalidade infantil

Fórmula 4.9 - Coeficiente de mortalidade neonatal

Fórmula 4.10 - Coeficiente de mortalidade neonatal precoce


Fórmula 4.11 - Coeficiente de mortalidade neonatal tardia

Fórmula 4.12 - Coeficiente de mortalidade pós-neonatal e coeficiente de mortalidade


infantil tardia

A divisão da mortalidade infantil em mortalidade neonatal precoce,


neonatal tardia e pós-neonatal é relevante para a identificação dos
locais de atendimento deficitários causadores das mortes. Espera-se
que altas taxas de mortalidade neonatal precoce estejam associadas
a uma má qualidade do pré-natal e do parto; já altas taxas de
mortalidade neonatal tardia têm relação com a qualidade
assistencial pediátrica intra e extra-hospitalar; a mortalidade pós-
neonatal, por sua vez, está ligada a alterações socioeconômicas e
ambientais, como saneamento básico e vacinação, por exemplo.
O Brasil, nos últimos anos, demonstra uma redução da mortalidade
infantil (veja os coeficientes por estrato entre 1996 a 2017 na Figura
4.6), mas não há melhoria concomitante nas condições materiais de
existência. A explicação para a redução das taxas da mortalidade
infantil em países como o Brasil está na redução das taxas de
mortalidade pós-neonatal que, como foi mostrado, tem como
principais causas situações evitáveis.
Figura 4.6 - Coeficientes ou taxas de mortalidade infantil, neonatal e pós-neonatal (1.000
nascidos vivos) no Brasil entre 1996 e 2017

Fonte: elaborado pelos autores.

As melhorias obtidas por meio de ações pontuais da Saúde Pública


(saneamento, vacinação, hidratação oral) promoveram a redução
das taxas pós-neonatais e destacaram a mortalidade neonatal como
principal contribuinte da dificuldade de redução das taxas de
mortalidade infantil no país.
Entretanto, em 2016, houve um pico de aumento da taxa de
mortalidade infantil em todos os componentes e em todas as regiões
do Brasil, com exceção da região Sul (BRASIL, 2019). Em comparação
com o ano anterior, 2015, houve um aumento de 4,8% na
mortalidade infantil total, 2% na neonatal precoce, 4,4% na
neonatal tardia e 10,2% na pós-neonatal. Além disso, o maior
aumento ocorreu nas regiões Norte e Nordeste (BRASIL, 2019).
Segundo o relatório do Ministério da Saúde, uma das possíveis
explicações para esse fenômeno foi a diminuição do número de
nascidos vivos, devido a maior controle de natalidade após a
epidemia de zika, além da crise econômica pela qual o Brasil passou.
No ano de 2017, houve nova diminuição da mortalidade infantil.
Figura 4.7 - Coeficientes ou taxas de mortalidade infantil (1.000 nascidos vivos), em 2014

Em regiões com precárias condições de vida e saúde, como em


muitos países da África e da Ásia, do subcontinente indiano, várias
regiões do Brasil e mesmo da América Latina, chegam a morrer 100
ou 200 crianças no primeiro ano de vida, de cada 1.000 que nascem, e
esses óbitos são consequências de doenças cuja prevenção e cujo
tratamento são possíveis e relativamente fáceis. Entretanto, países
desenvolvidos, como a Suécia e o Japão, apresentam, como causa de
óbito em menores de 1 ano, problemas difíceis de serem evitados,
como malformações congênitas importantes ou crianças muito
prematuras. Nesses países, a mortalidade infantil é de 5 a 6 óbitos
por 1.000 crianças nascidas vivas. O UNICEF lançou, em 2010, uma
lista com CMIs para vários países do mundo, alguns deles listados na
Figura 4.7 (UNICEF, 2010).
Existem, pelo menos, mais 2 coeficientes infantis que devem ser
destacados: o de natimortalidade (Fórmula 4.13), que é referente às
perdas fetais que ocorrem a partir da vigésima oitava semana de
gestação ou em que o concepto tem peso de aproximadamente 1.000
g e cerca de 35 cm, e o de mortalidade perinatal (Fórmula 4.14), que
diz respeito aos óbitos ocorridos um pouco antes, durante e logo
após o parto, e inclui os natimortos e as crianças nascidas vivas, mas
falecidas na primeira semana de vida.
Fórmula 4.13 - Coeficiente de natimortalidade

É necessária uma aplicação precisa da definição de período perinatal,


prejudicada pela omissão frequente do tempo de gestação na
declaração de óbito. Imprecisões são atribuídas, também, ao uso do
conceito anterior à Classificação Internacional de Doenças (CID-10),
que considerava 28 semanas de gestação como limite inferior do
período perinatal. A OMS propõe, ainda, o cálculo da razão de
mortalidade perinatal, em que o numerador permanece o mesmo e o
denominador se refere apenas aos nascidos vivos.
Fórmula 4.14 - Coeficiente de mortalidade perinatal*
* Alguns autores consideram a adoção do período perinatal a partir da vigésima oitava
semana de gestação, arco modificado com a décima revisão da CID.

É importante ressaltar que o CMI, bem como seus componentes,


sofre distorções devido à qualidade dos registros de informação.
Entre essas alterações, destaca-se o que acontece em regiões mais
desfavorecidas do país: pela situação local e presença de “cemitérios
clandestinos”, há perda dos registros pelos meios oficiais, e, mesmo
fazendo uma pesquisa domiciliar, essa população não identifica a
morte de menores de 1 ano como óbito de uma criança. Entre as
distorções dos registros, destaca-se o sub-registro de óbitos e de
nascimentos, a definição de nascido vivo no ano, declarações com
erro de causa mortis e idade da criança.
Foram apresentados, até aqui, alguns dos coeficientes de
mortalidade mais utilizados em Epidemiologia. Pode-se dizer que
esses são os indicadores mais básicos para expressão de risco de
morte (CMG, por causas e CMI). Lembre-se da estrutura lógica de
um indicador de mortalidade do tipo coeficiente ou taxa (o número
de óbitos no numerador e a população exposta ao risco de morrer no
denominador; esse produto pode ser multiplicado por 10n/10n –
100/100, 1.000/1.000, 10.000/10.000 ou 100.000/100.000 –, potência
que melhor apresente o resultado). Conhecendo essa estrutura, o
leitor estará apto a utilizar qualquer indicador desse mesmo gênero.
4.3.1.4 Razão de mortalidade materna

Frequentemente, a razão de mortalidade materna é chamada de


“taxa” ou “coeficiente”. Contudo, só poderia ser designada assim se
o seu denominador fosse o número total de gestações. Na
impossibilidade de obtenção desse dado, utiliza-se por aproximação
o número de nascidos vivos, o que torna mais adequado o uso da
expressão “razão”. Morte materna é a morte de uma mulher durante
a gestação ou até 42 dias após o término desta, independentemente
da duração ou localização da gravidez. As mortes que entram no
indicador necessitam ser por causas obstétricas diretas ou indiretas.
Mortes obstétricas diretas são aquelas que ocorrem por
complicações obstétricas durante gravidez, parto ou puerpério
devido a intervenções, omissões, tratamento incorreto ou a uma
cadeia de eventos resultantes de qualquer dessas causas (BRASIL,
2012). Mortes obstétricas indiretas são aquelas resultantes de
doenças que existiam antes da gestação ou que se desenvolveram
durante esse período, não provocadas por causas obstétricas diretas,
mas agravadas pelos efeitos fisiológicos da gravidez (BRASIL, 2012).
Não é considerada morte materna aquela provocada por fatores
acidentais ou incidentais (BRASIL, 2007).
Esta razão expressa o número de óbitos entre mulheres em idade
fértil consequente a complicações no ciclo gravídico-puerperal, isto
é, problemas que podem decorrer desde a assistência ao pré-natal
até 42 dias após o parto. Divide-se esse número pelo total de
nascidos vivos no mesmo período e multiplica-se essa razão,
geralmente, por 100.000/100.000.
Fórmula 4.15 - Coeficiente de mortalidade materna

A morte materna é considerada “perda evitável”. Elevadas razões


desse indicador refletem o baixo nível de condições da saúde da
mulher, e ele é empregado como “sentinela” para indicar a
qualidade dos cuidados oferecidos à população.
Segundo o Ministério da Saúde, a mortalidade materna é uma das
mais graves violações dos direitos humanos das mulheres, por ser
uma tragédia evitável em 92% dos casos e por ocorrer
principalmente nos países em desenvolvimento. A mortalidade
materna no Brasil, entre 2000 e 2017 tem se mantido relativamente
estável, entre 50 a 60 mortes a cada 100.000 nascidos vivos. As
principais causas de mortalidade materna no Brasil são, nesta
ordem: hipertensão, hemorragia e infecção puerperal.
Figura 4.8 - Mortalidade materna (100.000 nascidos vivos) por países, em 2014

Fonte: Mapa comparativo entre países. Taxa de mortalidade materna por país.

4.3.2 Indicadores expressos por proporções


A seguir, serão apresentados alguns índices (razões e proporções)
importantes. Lembre-se de que esse novo tipo de indicador não
expressa risco de morte, e sim a proporção de mortes que ocorreram
em relação a outras variáveis (mortes totais, na maioria das vezes).
Os índices de mortalidade mais utilizados em Epidemiologia são:
índice de mortalidade infantil proporcional em menores de 1 ano,
índice de Swaroop-Uemura e curva de mortalidade proporcional por
idade (Nelson de Moraes). Há uma ressalva importante: esse
indicador pode ser estruturado para estudo de mortalidade por raça,
sexo, local de residência, ou seja, para qualquer atributo sobre o qual
se deseja conhecer a proporção de mortes “específicas” no total de
mortes.
4.3.2.1 Índice de mortalidade infantil proporcional
O índice de mortalidade infantil proporcional, ou mortalidade
proporcional por idade em menores de 1 ano, indica a proporção de
óbitos de crianças menores de 1 ano no conjunto de todos os óbitos.
#IMPORTANTE
O índice de mortalidade infantil proporcional
permite avaliar indiretamente as condições
sanitárias da região estudada.

O Ministério da Saúde sugere que seja realizado para as seguintes


faixas etárias: 0 a 6 dias – período neonatal precoce –, 7 a 27 dias –
período neonatal tardio – e 28 a 364 dias – período pós-neonatal
(RIPSA, 2008).
Fórmula 4.16 - Índice de mortalidade infantil proporcional*

* A exclusão dos óbitos de idade ignorada resulta em que o indicador se refira ao total de
óbitos infantis com idade conhecida.

No Brasil, o Quadro 4.7 apresenta a proporção de óbitos infantis por


faixa etária, em 2017. Repare que, nesse sentido, não há muita
distinção entre as áreas, exceto pelas regiões Norte e Nordeste: a
primeira apresenta maior percentil de óbitos infantis ≥ 28 dias de
vida (influência de questões como diarreia/desidratação e/ou
doenças infecciosas e parasitárias, clássicas do saneamento básico),
ao passo que na segunda os óbitos mais proeminentes são os de 0 a 6
dias (especialmente relacionados a problemas na gestação e no
parto, clássicos de baixa cobertura pré-natal).
Quadro 4.7 - Proporção de óbitos infantis (%) por faixa etária para o Brasil e regiões, em
2017
4.3.2.2 Índice de Swaroop-Uemura

O Índice de Swaroop-Uemura (ISU) foi criado pelo indiano Swaroop


e pelo japonês Uemura e também é conhecido como razão de
mortalidade proporcional ou indicador de Swaroop e Uemura. O ISU
refere-se à proporção de óbitos de pessoas com 50 anos ou mais no
conjunto de todos os óbitos. Esse também é um indicador do tipo
proporção, que usualmente recebe o nome de índice.
Os países desenvolvidos apresentam valores de 80 a 90%,
significando que, a cada 100 óbitos na população, de 80 a 90
ocorreram em indivíduos com 50 anos ou mais, ou seja, os
indivíduos apresentam uma sobrevida elevada (expectativa de vida
elevada). Já em regiões subdesenvolvidas, esse índice atinge 50% ou
menos, representando que os indivíduos morrem, muitas vezes,
quando são jovens (geralmente por causas evitáveis).
Quanto maior o valor do índice de Swaroop-
Uemura, melhores as condições
socioeconômicas e de saúde de uma população.
Esse índice é um bom indicador das condições
de vida de uma população.
Fórmula 4.17 - Índice de Swaroop-Uemura

O ISU pode ser classificado em 4 níveis, que permitem avaliar as


condições de vida da região estudada. Assim:
1. Primeiro nível: ≥ 75%;
2. Segundo nível: de 50 a 74,9%;
3. Terceiro nível: de 25 a 49,9%;
4. Quarto nível: < 25%.

No último ano divulgado pelo portal TABNET do DATASUS, 2017, o


Brasil apresentou um ISU de 78,42%, ou seja, no primeiro nível de
vida. Esse dado é coerente com o relatado no último relatório Saúde
Brasil do Ministério da Saúde. Entretanto, ainda há disparidades
entre as diversas regiões do Brasil. Enquanto as regiões Norte
(65,18%), Nordeste (74,11%) e Centro-Oeste (74,64) ainda se situam
no segundo nível, as regiões Sul (82,27%) e Sudeste (82,10%)
situam-se no primeiro nível.
Contudo, como existe uma disparidade de mortalidade infantil entre
as regiões e os estados do país, esse indicador pode ser fortemente
afetado por ela e não refletir a realidade para todas as regiões
quando se observa o país como um todo. Novamente, encontra-se o
problema da mortalidade precoce elevada, que, além dos aspectos
éticos de ser uma morte evitável, traz consequências
socioeconômicas pela perda de vidas em plena fase produtiva
(RIPSA, 2008). No primeiro nível, estão alguns países desenvolvidos,
como Suécia, Estados Unidos, Japão e também o Brasil. Já no quarto
nível, estão países com alto grau de subdesenvolvimento, onde a
maioria das pessoas morre muito jovem.
Como vantagens do ISU, citam-se cálculo simples, dados disponíveis
na maioria dos países, comparabilidades nacional e internacional e
dispensa de dados da população. Quanto à limitação, cita-se a
dependência da estrutura etária de uma população.
4.3.2.3 Curvas de mortalidade proporcional

Segundo Laurenti (2006), surgiu, logo a seguir, uma contribuição


brasileira que representava uma variante da razão de mortalidade:
proporcional, como foi chamada pelo autor Nelson de Moraes, ou
curva de mortalidade proporcional. Era uma projeção gráfica dos
valores da mortalidade proporcional em 5 grupos etários, sendo o
último aquele de 50 anos ou mais, isto é, o próprio ISU (MORAES,
1959). As faixas etárias utilizadas são:
1. Grupo infantil: crianças menores de 1 ano;
2. Grupo pré-escolar: crianças de 1 a 4 anos;
3. Grupos de escolares e adolescentes: indivíduos entre 5 e 19 anos;
4. Grupo de adultos jovens: pessoas entre 20 e 49 anos;
5. Grupo de idosos: indivíduos com 50 anos ou mais.

A mortalidade proporcional é calculada dividindo-se o número de


óbitos em cada grupo etário pelo total de óbitos, como no cálculo do
ISU. A partir dos resultados, é possível construir as curvas de
mortalidade proporcional, que podem ser classificadas conforme a
sua apresentação (Figura 4.9).
Quadro 4.8 - Nível de saúde e tipos de curvas de Nelson de Moraes
A curva de Nelson de Moraes pode assumir diversas formas:
a) “N” invertido, curva típica de países subdesenvolvidos, com nível de
saúde muito baixo, em que se destaca o elevado número de óbitos no
grupo de adultos jovens. Esse tipo de curva é considerado tipo I;
b) “L” (ou “J” invertido), curva de países com baixo nível de saúde, com
elevado número de óbitos entre crianças e pré-escolares e poucos
óbitos nas faixas etárias mais elevadas. Esse tipo de curva é
considerado tipo II;
c) “V” (ou “U”), curva de países com nível regular de saúde, com baixo
número de óbitos no grupo de escolares e adolescentes e elevado
número de óbitos entre idosos e menores de 1 ano. Esse tipo de curva
é considerado tipo III;
d) “J”, curva típica de países com elevado nível de saúde, com baixo
número de óbitos entre crianças e jovens adultos e predomínio dos
óbitos nas faixas etárias mais elevadas. Esse tipo de curva é
considerado tipo IV.

Figura 4.9 - Curva de Nelson de Moraes para diferentes situações de saúde


Fonte: adaptado de Estatísticas de saúde, 1987.

Para esse indicador, o Brasil, em geral, apresenta uma curva do tipo


IV (em forma de J), porém ainda com resquícios da curva tipo III,
com uma proporção de mortes infantis ainda um pouco elevada. Isso
sugere um nível de saúde entre regular e elevado. Contudo, existe
uma variação interessante entre as macrorregiões: Sudeste e Sul
apresentam uma tendência a J, ao passo que Norte e Nordeste têm
uma característica de U mais acentuada (Figura 4.10). A última curva
de Nelson de Moraes do Brasil, juntamente com a curva em
indígenas, foi divulgada pelo Ministério da Saúde em 2017, e seu
resultado está representado na Figura 4.11.
Figura 4.10 - Curva de Nelson de Moraes, no Brasil e em grandes regiões, para o ano de
2017
Fonte: elaborado pelos autores.

Figura 4.11 - Curva de Nelson de Moraes no Brasil, total e indígenas, em 2015/2016


4.3.2.4 Coeficiente de letalidade

O coeficiente de letalidade, também chamado coeficiente de


fatalidade, mede o poder de determinada doença de levar ou não o
indivíduo acometido ao óbito. Permite avaliar, portanto, a gravidade
do processo.
Trata-se, então, da proporção de óbitos ocorridos entre os
indivíduos afetados por um dado agravo à saúde. Deve-se estar
atento ao fato de que o Coeficiente de Letalidade (CL) é diferente do
coeficiente de mortalidade. A diferença está no denominador, que é a
população total no caso da mortalidade e a população acometida pela
doença estudada no caso da letalidade. Portanto, a letalidade mostra
os óbitos entre os casos que estavam doentes da referida doença
(F8), ao passo que a mortalidade trata dos óbitos totais em relação à
população.
Fórmula 4.18 - Coeficiente de letalidade
Sabe-se que a raiva humana, por exemplo, é uma doença de taxa de
letalidade superior a 99%, ou seja, morre quase todo indivíduo que
apresenta diagnóstico confirmado de raiva. Porém, trata-se de uma
doença rara; logo, há poucos óbitos, e sua mortalidade, portanto, é
baixa. O CL não é estável, ou seja, apresentará resultados diferentes a
depender da população a ser avaliada. O Quadro 4.9 traz os CLs para
algumas doenças. O coeficiente de acidente por animais
peçonhentos, nesse caso, foi de 0,3%, porém, se não existir
assistência médica adequada e/ou soro para o indivíduo acidentado,
até mesmo os casos menos graves poderão evoluir para morte.
Assim, a letalidade depende de questões como a situação do
hospedeiro, a potencialidade do agente etiológico em levá-lo a óbito
e o atendimento à saúde que o indivíduo receber.
Quadro 4.9 - Coeficiente de letalidade para algumas doenças

Fontes: Guia de Vigilância Epidemiológica, 2009.

4.3.3 Outros indicadores utilizados em


Epidemiologia
4.3.3.1 Coeficiente ou taxa de fertilidade, fecundidade e natalidade

Esses termos, bem como sua materialização em indicadores, serão


primordiais para futuras discussões acerca de um tema importante
da Epidemiologia, a chamada transição demográfica, que é
geralmente acompanhada pela transição epidemiológica.
Conceitualmente, tanto “fertilidade” quanto “fecundidade” se
referem à geração de filhos, mas não são sinônimos. Existe certa
confusão sobre os seus significados, em parte devido a diferentes
interpretações desses termos ao serem traduzidos de outro idioma
(PEREIRA, 2002).
O autor explica que fertilidade designa a capacidade das mulheres de
gerar filhos. Toda mulher, teoricamente, apresenta essa capacidade
desde a menarca até a menopausa. Contudo, o potencial de procriar
pode, na prática, não se realizar em algumas mulheres, em razão de
infertilidade ou de controle voluntário desse potencial. A real
geração de filhos, isto é, a materialização do potencial de procriar, é
a informação prática de interesse, que é dada pelas medidas de
fecundidade.
Desse modo, o coeficiente de fecundidade trata da relação entre os
nascimentos (dos 2 sexos) e o número de mulheres em idade de
procriar, estatisticamente: mulheres entre 15 e 49 anos completos
(entre a menarca e a menopausa). Assim, o numerador leva em conta
os nascimentos (nascidos vivos), e o denominador, o número de
mulheres com potencial de fecundação. Geralmente esse produto é
multiplicado por 1.000/1.000 (Fórmula 4.19).
Segundo o Instituto Brasileiro de Geografia e Estatística (IBGE,
2011), o coeficiente de fecundidade poderia ser visto como uma
maneira de expressar o número médio de filhos que uma mulher
teria ao final de sua idade reprodutiva, além de ser um indicador
importante no estudo e na análise da transição demográfica.
Fórmula 4.19 - Coeficiente de fecundidade (geral)
O coeficiente de fecundidade também pode ser especificado por
idade, sendo chamado de coeficiente de fecundidade específico. Este
é o indicador que relaciona o número de nascidos vivos referidos a
uma determinada idade da mãe com o número total de mulheres, na
mesma idade (Fórmula 4.20). A partir do coeficiente de fecundidade
específico, é estimado o coeficiente de fecundidade total, muito
empregado em comparações populacionais, obtido pela soma dos
coeficientes de fecundidade específicos, por idade, com o objetivo de
eliminar a influência da pirâmide etária no indicador (PEREIRA,
2002).
Fórmula 4.20 - Coeficiente de fecundidade específico, por idade

O termo “natalidade”, diferentemente de “fecundidade”, traz uma


informação distinta: natalidade refere-se à relação entre nascidos
vivos e a população total. A natalidade é medida por meio da Taxa
Bruta de Natalidade (TBN), que é definida como a relação entre o
número de crianças nascidas vivas durante 1 ano e a população total.
Usualmente, essa relação é expressa por 1.000 habitantes (Fórmula
4.21).
Fórmula 4.21 - Taxa bruta de natalidade
A TBN depende da maior ou menor intensidade com que as mulheres
têm filhos a cada idade, do número das mulheres em idade fértil
como proporção da população total e da distribuição etária relativa
das mulheres dentro do período reprodutivo. Portanto, não é um
bom indicador para analisar diferenciais de níveis de fecundidade
entre populações (Carvalho; Sawyer; Rodrigues, 1998).
Em termos comparativos, a taxa de fecundidade geral fornece uma
noção mais apropriada da geração de filhos na população do que a
taxa de natalidade. Contudo, também tem limitações na comparação
de populações cujas estruturas etárias das mulheres em “período
reprodutivo” sejam diferentes – essa é a razão de seu desuso. Na
prática, são muito usados os coeficientes de fecundidade específicos
por idade e, principalmente, o coeficiente de fecundidade total
(PEREIRA, 2002).
4.3.3.2 Anos potenciais de vida perdidos

Os anos potenciais de vida perdidos formam um indicador muito útil


na área de Planejamento em Saúde, pois expressam o efeito das
mortes ocorridas precocemente em relação à duração de vida
esperada para uma determinada população, permitindo comparar a
importância relativa que as diferentes causas de morte têm nessa
população. Quanto maior esse índice, pior a situação de saúde da
região ou do país avaliado. No Brasil, a principal causa de “anos de
vida perdidos” na população masculina foram as causas violentas.
Um dos métodos de cálculo do número de “anos potenciais de vida
perdidos” foi desenvolvido por Arriaga (1996), permitindo
relacionar a mortalidade de determinadas causas de morte
(geralmente evitáveis), em determinadas idades, com a esperança de
vida ao nascer, para que se possa chegar a uma medida de anos de
vida perdidos. Nedel, Rocha e Pereira (1999) utilizaram esse
indicador multiplicado por 1.000/1.000 (1.000 habitantes) em estudo
realizado no Sul do Brasil. O estudo do IBGE denominado
Indicadores Sociodemográficos e de Saúde no Brasil utiliza
porcentagem para esse mesmo indicador (IBGE, 2009b).
No Brasil, existe uma diferença significativa entre os 2 sexos,
independentemente da área geográfica e do ano considerado. Para o
Brasil, como um todo, enquanto os homens perdiam, em média,
15,03 anos de vida, por todas as causas, esse valor era de 9,62 anos
entre as mulheres, o que representa uma diferença de 5,4 anos
(Figura 4.12).
Figura 4.12 - Número de anos de vida perdidos para homens, segundo grupo de causas
no Brasil (1996 a 2005)

Fonte: adaptado de Estudos e Pesquisas Informação Demográfica e Socioeconômica,


2009.

Entre as principais causas de morte responsáveis pelos “anos de vida


perdidos” na população masculina brasileira, as violentas foram as
que mais contribuíram em 1996: 3,4, em um total de 15,03 anos; no
período considerado até 2005, observa-se uma leve redução nesse
valor, que passa a ser de 3,2 anos. O indicador reflete os efeitos de
uma leve queda na incidência das causas violentas no país, durante o
período considerado (IBGE, 2009b).
4.3.3.3 Esperança de vida
Esse indicador é calculado a partir de tábuas de vida elaboradas para
cada área geográfica e, no Brasil, é divulgado anualmente pelo IBGE.
A esperança de vida ao nascer, também chamada de expectativa de
vida ao nascer, é o número médio de anos que um grupo de
indivíduos nascidos no mesmo ano pode esperar viver, se mantidas,
desde o seu nascimento, as taxas de mortalidade observadas no ano
de referência, muito empregado na avaliação das condições de saúde
de uma população. Por não sofrer a influência da estrutura etária da
população, é um bom indicador para comparações populacionais.
Sob uma ótica prática, a expectativa de vida ao nascer indica o
número médio de anos que um indivíduo tem de probabilidade de
viver, a partir de determinada idade considerada, supondo que os
coeficientes de mortalidade permaneçam os mesmos no futuro.
Sabe-se que a expectativa de vida é maior quanto melhor a condição
socioeconômica de uma região. Porém, observa-se que,
independentemente do desenvolvimento econômico, a expectativa
de vida dos homens é sempre menor do que a das mulheres, ou seja,
estas vivem mais, em qualquer região do mundo. Costuma-se
atribuir essa diferença ao fato de que os homens são normalmente
mais expostos a riscos, como acidentes externos, acidentes de
trabalho, alimentação mais gordurosa, tabagismo, menor cuidado
com a saúde, entre outros.
Pode-se dizer, então, que a esperança de vida entre homens e
mulheres teria uma tendência a aproximar-se, já que, depois da
década de 1970, as mulheres também passaram a se expor a mais
riscos; entretanto, o diferente cuidado que homens e mulheres têm
com a saúde, os diferentes hábitos de vida, entre outros fatores,
ainda contribuem para essa importante diferença. Em países mais
desenvolvidos, ela está diminuindo, mas não porque as mulheres
têm vivido menos, e sim porque os homens têm vivido mais.
Na última divulgação do IBGE (2018), a expectativa de vida média no
Brasil em 2017 foi de 76 anos; para mulheres a expectativa foi de
79,6 anos, e para homens, 72,5 anos. A Figura 4.13 mostra a evolução
da expectativa de vida média no Brasil.
Figura 4.13 - Expectativa de vida do brasileiro (1940 a 2016)

Fonte: Expectativa de vida do brasileiro ao nascer foi de 75,8 anos em 2016, diz IBGE,
2017.
Quando podemos dizer que
a assistência à saúde de um
local é melhor do que a de
outro?
De maneira geral, a assistência à saúde de um local é
melhor que outro quando um conjunto de indicadores
apropriado consegue responder a essa pergunta. Os
melhores indicadores para comparação são os expressos
em coeficientes, como coeficiente de mortalidade (que
sofre influência da estrutura etária da população),
mortalidade infantil, materna etc. Indicadores por
proporções também podem ser úteis, como o Índice de
Swaroop-Uemura e a Curva de Nelson Moraes.
A partir de quantos casos
podemos dizer que existe
uma epidemia?

5.1 INTRODUÇÃO
As doenças humanas provenientes da relação entre hospedeiro
(pessoa), agente (bactéria, vírus ou outro agente) e meio ambiente
(alimentos ou água contaminados) resultam de uma interação entre
fatores biológicos e ambientais, com o equilíbrio exato variando
conforme as diferentes doenças (embora algumas sejam de origens
amplamente genéticas). Muitos dos princípios subjacentes que
fundamentam a transmissão das doenças são mais claramente
demonstrados utilizando-se doenças transmissíveis como modelo.
Contudo, os conceitos discutidos podem ser extrapolados para
doenças não infecciosas ou mesmo para outros agravos à saúde
(CELENTANO E SZKLO, 2019).
As doenças são descritas como resultado de uma tríade
epidemiológica, ou seja, um produto de interação de um hospedeiro
humano, um agente infeccioso (ou de outro tipo) e um ambiente que
promova a exposição.
Vetores, como mosquitos e carrapatos, são frequentemente
envolvidos. Para a interação ocorrer, o hospedeiro deve estar
suscetível. A suscetibilidade humana é determinada por uma
infinidade de fatores, incluindo antecedentes genéticos e fatores
nutricionais e imunológicos.
O estado imunológico de um indivíduo é determinado por muitas
variáveis, incluindo contato prévio com o agente, por infecção
natural ou por imunização.
As condições que podem levar ao desenvolvimento de doenças são
biológicas, físicas e químicas, bem como outros tipos, como
estresse, que pode ser mais difícil de classificar. Pode-se pensar na
agregação desses fatores em, pelo menos, 3 grandes grupos de
doenças/agravos à saúde: doenças infecciosas e parasitárias,
doenças crônicas não transmissíveis e causas externas de morbidade
e mortalidade. Todas poderiam ser consideradas, de algum modo,
dentro do modelo clássico da tríade epidemiológica.
Uma doença transmissível (ou infecciosa) é causada pela
transmissão de um agente patogênico específico para um hospedeiro
suscetível. Agentes infecciosos podem ser transmitidos para
humanos: diretamente – de outros humanos ou animais infectados
– e indiretamente – por meio de vetores biológicos ou físicos,
partículas aéreas ou outros veículos (BEAGLEHOLE; BONITA;
KJELLSTRÖM, 2010).
Figura 5.1 - Tríade epidemiológica das doenças
Fonte: adaptado de Epidemiologia, 2010.

Os fatores associados ao aumento de risco de doença nos seres


humanos são:
1. Características do hospedeiro:
a) Idade
b) Sexo
c) Raça e/ou etnia
d) Religião
e) Costumes
f) Ocupação
g) Perfil genético
h) Estado civil
i) Antecedentes familiares
j) Doenças anteriores
k) Estado imunológico
2. Tipos de agentes e exemplos:
a) Biológicos:
Bactérias
Vírus
Protozoários
b) Químicos:
Veneno
Álcool
Fumo
c) Físicos:
Trauma
Radiação
Fogo
d) Nutricionais:
Deficiência
Excesso
3. Fatores ambientais:
a) Temperatura
b) Umidade
c) Altitude
d) Aglomeração
e) Moradia
f) Vizinhança
g) Água
h) Leite
i) Alimentação
j) Radiação
k) Poluição atmosférica
l) Ruído

As Doenças Crônicas Não Transmissíveis (DCNT – doenças


cardiovasculares, neoplasias, doenças respiratórias crônicas,
diabetes e doenças musculoesqueléticas, entre outras) são
multifatoriais e têm em comum elementos comportamentais de
risco modificáveis e não modificáveis. Entre os fatores
comportamentais de risco modificáveis, destacam-se tabagismo,
consumo excessivo de bebidas alcoólicas, obesidade, hábito
alimentar inadequado (consumo excessivo de gorduras saturadas de
origem animal e açúcares simples), ingestão insuficiente de frutas e
hortaliças e inatividade física. Em 2008, a Organização Mundial da
Saúde publicou um plano de ação para a redução de fatores de risco
para as doenças crônicas não transmissíveis mais prevalentes. Nesse
plano, ficou definido que, para as 4 doenças crônicas não
transmissíveis mais prevalentes (doenças cardiovasculares, câncer,
diabetes e doenças respiratórias crônicas), existem 4 fatores de risco
compartilhados, que são tabagismo, sedentarismo, abuso de álcool e
má alimentação (WHO, 2008).
No Brasil, segundo o último relatório do Ministério da Saúde
(BRASIL, 2019), entre as 10 principais causas de óbito, 7 são DCNT. A
taxa de mortalidade prematura (mortes que ocorrem antes da média
de mortes de uma população) vem apresentando queda de 2005 a
2014, com posterior elevação até 2017 (Figura 5.2). As maiores taxas
ocorreram nas regiões Sul e Sudeste.
Figura 5.2 - Taxa de mortalidade prematura por doenças crônicas não-transmissíveis (por
100.000 habitantes)

Fonte: Uma análise da situação de saúde e das doenças e agravos crônicos, 2019.

A variação temporal dos principais fatores de risco para doenças


crônicas no Brasil está apresentada na Figura 5.3 (BRASIL, 2017). Os
fatores de risco que mais cresceram em prevalência foram, do maior
ao menor, excesso de peso, obesidade, hipertensão arterial e
diabetes. Mais de 50% da população das capitais do Brasil apresenta,
no mínimo, sobrepeso. Em contrapartida, os fatores de risco
consumo de refrigerantes e tabagismo obtiveram uma redução das
suas prevalências, sendo que o consumo de refrigerantes foi a
variável com a maior redução anual da prevalência.
Nas causas externas, estão envolvidos 2 tipos de eventos: a natureza
das lesões que o paciente apresenta (codificadas de acordo com o
capítulo XIX da 10ª revisão da Classificação Internacional de Doenças
– CID-10) e as circunstâncias que produziram essas lesões. A CID-10
tem um sistema de classificação suplementar para a codificação
dessas circunstâncias, que fornece a informação básica necessária à
organização de programas preventivos contra a causa da lesão
(MATTOS, 2001).
Figura 5.3 - Evolução temporal dos fatores de risco para doenças crônicas nas capitais
brasileiras, segundo dados do Ministério da Saúde

Legenda: variação anual média (v. a.), em pontos percentuais.

5.2 TRANSMISSÃO
As doenças podem ser transmitidas direta ou indiretamente. Quando
são transmitidas de indivíduo para indivíduo, fala-se em contato
direto. A transmissão indireta pode ocorrer por meio de um veículo
comum, como contaminação atmosférica ou fonte de abastecimento
de água, ou por um vetor, como um mosquito. Assim, diferentes
organismos disseminam-se de formas variadas, e o potencial de
determinados organismos em espalhar-se e produzir surtos
depende de suas características, como taxa de crescimento e via pela
qual são transmitidos de uma pessoa a outra (GORDIS, 2010).
É comum, mesmo na área médica, haver confusão entre o conceito
de doença “infecciosa” e “contagiosa”.
Doenças contagiosas são aquelas que podem ser transmitidas por
toque, contato direto entre os seres humanos, sem a necessidade de
um vetor ou veículo interveniente. A malária é, portanto, uma
doença transmissível, mas não contagiosa, enquanto o sarampo e a
sífilis são tanto transmissíveis quanto contagiosas. Alguns agentes
patogênicos causam doença não apenas por infecção, mas também
por meio do efeito tóxico de compostos químicos que produzem. Por
exemplo, Staphylococcus aureus é uma bactéria que pode infectar
diretamente os seres humanos, mas a intoxicação estafilocócica é
causada pela ingestão de alimentos contaminados com uma toxina
que a bactéria produz, mesmo na ausência desta (BEAGLEHOLE;
BONITA; KJELLSTRÖM, 2010). Com relação às doenças infecciosas,
são importantes alguns conceitos relacionados à cadeia de
transmissão:
1. Conceitos relacionados com a progressão da doença:
a) Colonização: o agente persiste na superfície do hospedeiro,
sem invasão tissular;
b) Infecção: a agente está presente nos tecidos do hospedeiro,
sem sinais, sintomas ou evidência laboratorial de dano tissular;
c) Infecção persistente: um estado de infecção que não leva
prontamente à doença ou à cura;
d) Período de incubação: é o período que se estende da
exposição ao agente até o aparecimento de sinais e sintomas;
e) Latência: é um tipo de infecção persistente, na qual o agente
invadiu o hospedeiro e está em um estado sem multiplicação, não
infectante, porém viável.
2. Conceitos relacionados com a progressão da doença:
a) Período prodrômico: é o período que abrange o intervalo entre
os primeiros sintomas da doença e o início dos sinais ou sintomas
que lhe são característicos e, portanto, com os quais o
diagnóstico clínico pode ser estabelecido;
b) Pródromos: são os sintomas indicativos do início de uma
doença;
c) Doença: o agente está se multiplicando em tecidos do
hospedeiro, com sinais, sintomas ou evidência laboratorial de
lesão tissular;
d) Cura: o agente foi eliminado dos tecidos do hospedeiro (mas
pode persistir na superfície).
3. Conceitos associados com a relação entre o agente infeccioso e o
hospedeiro:
a) Infectividade: é a capacidade dos hospedeiros de ficarem
infectados. É expressa pela fórmula infectados/expostos;
b) Patogenicidade: é a capacidade do agente infeccioso de
produzir a doença. É expressa pela fórmula doentes/infectados;
c) Virulência: é a gravidade da patogenicidade.
d) Poder imunogênico: é a capacidade do agente infeccioso de
induzir imunização específica.
4. Conceitos relacionados com o hábitat onde um agente infeccioso
vive, se multiplica e/ou cresce:
a) Reservatório humano: o homem é o principal hábitat de um
agente infeccioso;
b) Reservatório extra-humano: outros animais ou lugares, são os
principais hábitats de um agente infeccioso. Caso seja um animal,
será chamado de hábitat animal. Reservatórios não animais
incluem solo, pó ou água, por exemplo;
c) Zoonose: é uma infecção ou doença infecciosa transmissível
que, em condições naturais, ocorre entre animais vertebrados e
no homem.
5. Conceitos relacionados com o hábitat onde um agente infeccioso
vive, se multiplica e/ou cresce:
a) Fonte de infecção: é a pessoa, animal, objeto ou substância de
onde o agente infeccioso passa a um hospedeiro;
b) Portador: é um indivíduo ou animal infectado, que abriga um
agente infeccioso específico de uma doença, sem apresentar
sintomas ou sinais clínicos e constitui uma fonte potencial de
infecção para o ser humano;
c) Portador sadio: é o indivíduo portador durante o curso de uma
infecção subclínica;
d) Portador em incubação: é o indivíduo portador durante o
período de incubação;
e) Portador convalescente: é o indivíduo portador na fase de
convalescência ou pós-convalescência das infecções que se
manifestam clinicamente.
6. Conceitos relacionados à transmissibilidade de um agente
infeccioso:
a) Período de transmissibilidade: é o período de eliminação do
agente pelo hospedeiro, permitindo a sua transmissão;
b) Portas de saída/entrada: é o caminho pelo qual um agente
infeccioso entra ou sai de seu hospedeiro. As principais são
respiratórias (como tuberculose); geniturinárias (como AIDS);
digestivas (como hepatite A); cutâneas (como herpes-zóster);
placentárias (como toxoplasmose);
c) Transmissão direta: é a transferência direta do agente
infeccioso por uma porta de entrada para que se possa efetuar a
infecção. Também é chamada de transmissão pessoa a pessoa
ou contágio. Pode ser realizada por meio de gotículas,
conjuntivas, membranas mucosas do nariz ou boca ao espirrar,
tossir, cuspir, falar ou cantar, tocar, beijar ou ter relações sexuais;
d) Transmissão indireta: é a transferência do agente infeccioso
por meio de algum veículo de transmissão ou vetor;
e) Veículo de transmissão: podem ser objetos ou materiais
contaminados, como brinquedos, lenços, instrumentos cirúrgicos,
água etc.;
f) Vetor: é um inseto ou qualquer portador vivo que transporte um
agente infeccioso desde um indivíduo ou seus excrementos até
um indivíduo suscetível, sua comida ou seu ambiente imediato;
g) Vetor mecânico: é o simples translado mecânico do agente
infeccioso por meio de um inseto terrestre ou voador, pela
contaminação de suas patas ou tromba, ou pela passagem em
seu trato gastrintestinal, sem multiplicação, ou desenvolvimento
cíclico do micro-organismo;
h) Vetor biológico: o agente necessariamente deve propagar-se
(multiplicar-se), desenvolver-se ciclicamente, ou ambos, no vetor
antes que possa transmitir a forma infectante ao ser humano.

Em se tratando do novo hospedeiro, a resistência e a suscetibilidade


dependem de maior ou menor resposta positiva do organismo, ou
seja, da imunidade (produção de anticorpos), que pode ser ativa
(natural: infecções pregressas; ou artificial: vacinas) ou passiva
(natural: transplacentária; ou artificial: soros).
No caso das doenças crônicas não transmissíveis, esse ciclo de
transmissibilidade não fica tão evidente. São variados os estudos que
mostram que os fatores genéticos têm forte influência sobre muitas
doenças com essa classificação. Por exemplo, sabe-se que a
hipertensão está associada à herança genética; contudo, como são
inúmeros os fatores de risco ambientais (alimentação, exercícios,
estresse, entre outros) e há interação desses fatores com a herança
genética, é quase impossível atribuir uma parcela de
responsabilidade para cada um deles, como é feito com as doenças
infecciosas. A mesma discussão é válida para as causas externas de
morbimortalidade. Entretanto, nessa modalidade, o ambiente tem
mais influência do que nas anteriores. Nesse sentido, a tríade
epidemiológica pode dar espaço aos determinantes sociais da saúde,
que explicam melhor essa inter-relação (Figura 5.4).
Figura 5.4 - Determinantes subjacentes da saúde e seu impacto sobre as doenças não
crônicas transmissíveis

Fonte: adaptado de Epidemiologia Básica, 2010.

5.3 DISTRIBUIÇÃO TEMPORAL

#IMPORTANTE
O estudo da distribuição temporal pode
fornecer inúmeras informações fundamentais
para compreensão, previsão, busca etiológica,
prevenção de doenças e avaliação dos impactos
de intervenções em saúde.

Já foi comentado que a Epidemiologia se desenvolveu a partir do


estudo dos surtos de doenças transmissíveis e da interação entre
agentes, vetores e reservatórios. A descrição das circunstâncias
associadas ao aparecimento de epidemias nas populações humanas
(guerra, migração, fome e desastres naturais) tem aumentado a
capacidade de controlar a dispersão das doenças transmissíveis por
meio de vigilância, prevenção, quarentena e tratamento, sendo esse
o principal objetivo da detecção de uma epidemia (BEAGLEHOLE;
BONITA; KJELLSTRÖM, 2010). A quarentena, um dos métodos de
controle da dispersão das doenças transmissíveis, refere-se ao
isolamento de indivíduos sadios pelo período máximo de incubação
da doença, contado a partir da data do último contato com um caso
clínico ou portador da referida doença. Já isolamento se refere ao
isolamento de doentes, para que não transmitam a doença. Ou seja, a
quarentena se aplica a indivíduos que ainda não a desenvolveram,
porém tiveram contato com algum veículo transmissor; o
isolamento se aplica a indivíduos doentes. A distribuição temporal de
uma doença, segundo Medronho e Perez (2009), pode obedecer a
determinado padrão temporal, como no caso da rubéola, que
apresenta aumento de sua ocorrência na primavera. Assim, é
possível conhecer os períodos de maior risco para determinadas
doenças, fato que pode contribuir para a sua prevenção e o seu
diagnóstico precoce.
Embora os estudos de distribuição temporal sejam vastamente
discutidos na área das doenças infecciosas e parasitárias, sobretudo
as transmissíveis, pode-se afirmar que não se trata de uma aplicação
exclusiva. A monitorização e a avaliação de doenças crônicas não
transmissíveis, bem como de outros agravos à saúde (causas
externas, como acidentes, desastres, fatores contribuintes para o
aparecimento de doenças), podem ser uma ótima ferramenta para a
vigilância em saúde.
Para Medronho e Perez (2009), a avaliação da evolução temporal de
uma doença, antes e depois de uma intervenção, pode mostrar a
efetividade daquela medida. Um bom exemplo refere-se à evolução
da poliomielite no mundo (Figura 5.5). A vacinação em massa com a
vacina Sabin, iniciada no ano de 1980, levou à queda da doença nos
anos seguintes. No Brasil, o último diagnóstico de poliomielite foi
em 1990.
Figura 5.5 - Evolução do número de casos de poliomielite e da cobertura vacinal entre
1980 e 2017

Fonte: Evolução do número de casos de poliomielite e da cobertura vacinal entre 1980 e


2017, 2019.

A análise de um conjunto de observações sequenciais no tempo pode


conter flutuações aleatórias (ao acaso), de modo que é importante
tentar detectar, além das possíveis variações aleatórias, os 4 tipos de
evolução principal das doenças: tendência histórica, variações
cíclicas, variações sazonais e variações irregulares (MEDRONHO;
PEREZ, 2009).
5.4 TENDÊNCIA HISTÓRICA OU
SECULAR
Segundo Medronho e Perez (2009), o estudo de tendência histórica
refere-se à análise das mudanças na frequência (incidência,
mortalidade) de uma doença por um longo período, geralmente
décadas. Os autores explicam que não existe um critério rígido para a
definição de tempo mínimo de observação necessário para detectar
alterações na evolução da doença ou de outro desfecho de interesse.
A Figura 5.5 mostra essa mudança, no caso da poliomielite, com
bastante clareza.
França Júnior e Monteiro (2000) explicam que a análise da
distribuição temporal de eventos do processo saúde-doença é uma
das estratégias de investigação mais antigas e valiosas para a
Epidemiologia e Saúde Pública. Quando a análise envolve períodos
prolongados de tempo, costuma-se denominá-la de análise de
tendência e/ou de mudança secular (FORATTINI, 1992). Na literatura
epidemiológica, é possível observar a utilização de vários termos
para a designação das tendências ou séries temporais de indicadores
de saúde: tendência secular, mudança secular, aceleração secular,
variação secular, mudança temporal e outras.
O primeiro investigador a examinar séries temporais de
morbimortalidade foi William Farr (1807-1883). São clássicas suas
análises acerca da tendência secular da mortalidade e da fertilidade
na Inglaterra, bem como a análise temporal de várias epidemias,
como as de varíola e cólera. Contudo, Farr ainda não utilizava o
conceito de tendência secular, que surgiria apenas no século 20
(FRANÇA JÚNIOR; MONTEIRO, 2000).
A análise de tendência de uma doença deve considerar as possíveis
modificações nos critérios diagnósticos, na terminologia da doença,
nas taxas de letalidade etc. Entretanto, muitas vezes, é necessária a
observação de uma doença ao longo de décadas para traçar o perfil
esperado para a conjuntura atual (MEDRONHO; PEREZ, 2009).
Schmidt et al. (2011) estudaram a mudança da mortalidade no Brasil
para os principais tipos de câncer nos últimos 27 anos, concluindo
que, nos homens, as taxas de mortalidade por câncer de pulmão,
próstata e colorretal estão aumentando, as de câncer gástrico estão
diminuindo e as de esôfago estão estáveis. Nas mulheres, as taxas de
mortalidade por câncer de mama, pulmão e colorretal aumentaram,
enquanto as de câncer de colo do útero e estômago diminuíram
(Figura 5.6).
Figura 5.6 - Mortalidade para os principais locais de câncer em homens e mulheres, de
1980 a 2006.

Fonte: Vigilância das doenças crônicas não transmissíveis, 2017.

Medronho e Perez (2009) explicam que o movimento observado na


tendência histórica das diversas doenças pode ser explicado por
inúmeras razões, como a melhoria no diagnóstico (em relação à
precocidade), melhoria das condições sanitárias e sociais, técnicas
obstétricas mais efetivas etc. Contudo, muitas vezes existe
dificuldade na interpretação desses dados, pois os métodos
diagnósticos foram se tornando mais precisos ao longo do tempo
(diagnósticos diferenciais), a população foi se modificando
(transição demográfica) com a consequente mudança no perfil
epidemiológico, assim como os fatores ambientais também se
alteraram.
5.5 VARIAÇÕES CÍCLICAS
As variações cíclicas são aquelas com ciclos periódicos e regulares.
As mudanças cíclicas no comportamento de doenças são
recorrências nas suas incidências, que podem ser anuais ou ter
periodicidade mensal ou semanal.
Na variação cíclica, portanto, um dado padrão é repetido de intervalo
a intervalo (BRASIL, 2005). Outros autores consideram como
variação cíclica as flutuações na incidência em períodos maiores do
que 1 ano (MEDRONHO; PEREZ, 2009).
Na Figura 5.7, apresentam-se as taxas de incidência e mortalidade
de sarampo no estado do Paraná, entre 1965 e 2004. Repare que,
entre 1965 e 1988, a incidência da doença segue um padrão de
flutuação que parece se repetir a cada 3 anos, ao passo que a
mortalidade mostra baixa variação.
Esse processo pode ser explicado pelo nascimento de crianças
suscetíveis, cujo acúmulo vai provocar aumento progressivo no
número de casos da doença. Note que, a partir do ano de 1992,
quando foi implementado o Plano Nacional de Eliminação do
Sarampo e o Ministério da Saúde utilizou estratégias para o controle,
entre elas a vacinação de crianças e adolescentes de 9 meses a 14
anos, por intermédio de campanha de vacinação em massa, a
incidência da doença diminuiu significativamente, pois não havia
mais suscetíveis para contrair o vírus e desenvolver a doença.
Figura 5.7 - Taxas de incidência e de mortalidade de sarampo no estado do Paraná, Brasil,
de 1965 a 2004
5.6 VARIAÇÕES SAZONAIS
As variações sazonais ocorrem quando a incidência das doenças
sempre aumenta, periodicamente, em algumas épocas ou estações
do ano, meses, dias da semana ou em horas do dia. Por exemplo, a
dengue (nas épocas quentes do ano) e os acidentes de trânsito (horas
de muita movimentação urbana – deslocamento para o trabalho ou
para a escola). Com relação às doenças com variação estacional,
deve-se conhecer o nível endêmico: se há aumento normal em certa
época do ano, ele não pode ser confundido com uma epidemia.
Sabe-se que as doenças infecciosas agudas constituem um exemplo
claro dessas variações. Entretanto, o aparecimento de alguns
sintomas de determinadas doenças crônicas (por exemplo, doença
pulmonar obstrutiva crônica), fenômenos demográficos
(nascimentos) e a mortalidade por certas causas específicas, como
acidentes de trabalho, também podem apresentar variações sazonais
(MEDRONHO; PEREZ, 2009).
Um bom exemplo desse tipo de variação são os acidentes com
animais peçonhentos, sobretudo com ofídicos. A distribuição mensal
dos casos (Figura 5.8) segue padrão encontrado nos demais estados
das regiões Sul e Sudeste, onde é verificada uma sazonalidade
marcada pela predominância dos casos nos meses quentes e
chuvosos de setembro a março, confirmando que a ocorrência do
acidente ofídico está, geralmente, relacionada a fatores climáticos e
ao aumento da atividade humana nos trabalhos do campo nessa
época do ano (BRASIL, 2005).
Figura 5.8 - Número de casos de acidentes ofídicos, segundo o mês de ocorrência no
estado do Paraná, Brasil, de 1997 a 2002
Segundo Medronho e Perez (2009), a variação sazonal depende de
um conjunto de fatores, como temperatura, umidade do ar,
radiações solares, concentração de poluentes no ar, precipitação
(chuvas) etc. Além das condições climáticas, existe o
comportamento dos indivíduos nas diferentes estações do ano.
Assim, no inverno, observam-se mais aglomerações (fator
contribuinte para o aparecimento de doenças respiratórias) ou maior
consumo de água no verão (consequentemente, nota-se maior
despejo de esgoto), o que pode favorecer as doenças por
contaminação fecal-oral (diarreias, poliomielite, hepatite A etc.).
5.7 VARIAÇÕES IRREGULARES
Existem procedimentos para reconhecer se a variação de
determinada doença está dentro do esperado (variação cíclica e/ou
sazonal). Esse fato pode ser chamado de endemia, ou seja, a doença
tem um padrão de ocorrência endêmico. Caso exista variação
irregular, superando a frequência esperada, poderia ser
caracterizada, então, uma epidemia.
5.7.1 Casos esporádicos e conglomerado temporal
de casos
Quando, em uma comunidade, surgem casos raros e isolados de
certa doença, podem ser chamados de esporádicos. Trata-se,
geralmente, de casos aleatórios, que de forma imprescindível não
guardam nenhuma relação entre si. O conglomerado temporal de
casos refere-se a um grupo de casos para os quais se suspeita de um
fator comum, ou seja, não aleatório, e que ocorre dentro dos limites
de intervalos de tempo, significativamente iguais, medidos a partir
do evento que, supostamente, foi a sua origem (BRASIL, 2005).
5.7.2 Endemia
As doenças são chamadas de endêmicas quando, em uma área
geográfica ou um grupo populacional, apresentam padrão de
ocorrência relativamente estável, com incidência ou prevalência
acima de zero.
Doenças endêmicas, como a malária, estão entre os principais
problemas de saúde em países tropicais de baixa renda. Se ocorrerem
mudanças nas condições do hospedeiro, agente ou ambiente, uma
doença endêmica poderá se tornar epidêmica (BEAGLEHOLE;
BONITA; KJELLSTRÖM, 2010).
Segundo o Ministério da Saúde, quando a ocorrência de determinada
doença apresenta variações na sua incidência de caráter regular,
constante e sistemático, trata-se de uma doença endêmica. Observe,
na Figura 5.9, essa ocorrência regular com alguma variação. Assim,
endemia é a ocorrência de determinada doença que, durante um
longo período de tempo, acomete, sistematicamente, populações em
espaços delimitados e caracterizados, mantendo incidência
constante ou permitindo variações cíclicas ou sazonais, conforme
descrito (Brasil, 2005).
5.7.3 Epidemia
Epidemia é definida como a ocorrência em uma região ou
comunidade de um número de casos em excesso, em relação ao que
normalmente seria esperado em um determinado tempo e local.
Note, na Figura 5.9, que existia um padrão de ocorrência rompido
em algum momento, caracterizando uma epidemia (visto que,
depois de algum tempo, ele volta ao normal). É importante ressaltar,
entretanto, que apenas o aumento no número de casos existentes
não é critério suficiente para uma epidemia ser definida, pois essa
variação (mesmo que grande) pode estar dentro do esperado para a
doença em questão, fazendo parte da variação periódica da doença.
Ao descrever uma epidemia, devem ser especificados o período, a
região geográfica e outras particularidades da população em que os
casos ocorreram. O número de casos necessários para definir uma
epidemia varia de acordo com o agente, o tamanho, o tipo e a
suscetibilidade da população exposta e o momento e o local da
ocorrência da doença, pois é necessário saber quais são os níveis
endêmicos de uma população (BEAGLEHOLE; BONITA;
KJELLSTRÖM, 2010). Um único caso de doença após um longo tempo
ausente na população ou a primeira invasão de uma doença em uma
área requer reporte imediato às autoridades; dois casos da mesma
doença associadas no tempo e local já pode ser evidência o suficiente
para ser considerado uma epidemia (MIQUEL PORTA, 2008).
Figura 5.9 - Doença endêmica versus doença epidêmica
Fonte: adaptado de Epidemiologia, 2010.

A identificação de uma epidemia também depende da frequência


usual da doença na região, no mesmo grupo populacional, durante a
mesma estação do ano. Por exemplo, o primeiro relato da síndrome
que ficou conhecida como AIDS, descrita por Gottlieb et al. (1981), foi
baseado em 4 casos de pneumonia por Pneumocystis jirovecii em
jovens homossexuais masculinos.
5.7.3.1 Caracterização numérica de uma epidemia

O procedimento utilizado atualmente em Vigilância Epidemiológica


para monitorizar ocorrência irregular na incidência de uma doença
(epidemia) é chamado de diagrama de controle, cuja ideia básica é
manter o processo (ocorrência) entre um limite mínimo e um limite
máximo de controle. Inicialmente, eram classificados como de
médias (mean/average), de limites (range) ou de Desvio-Padrão
(DP). Atualmente, existem inúmeros e variados tipos de tais
diagramas (ALVES, 2004).
Esses diagramas são feitos plotando-se pontos sobre o eixo da
ordenada com o tempo como uma escala horizontal (eixo do X) e o
número de novos casos reportados toda semana ou mês como uma
escala vertical (o eixo do y).
Nesse tipo de gráfico, são observadas as linhas de limite, que
caracterizam o nível endêmico (Figura 5.10). A linha azul refere-se
ao limite inferior de ocorrência (valor estimado), a linha verde diz
respeito ao número de casos ou à incidência observada dentro do
intervalo de tempo considerado, e a linha vermelha demarca o limite
superior de ocorrência endêmica (valor estimado), também
conhecido como limiar epidêmico. Se a frequência da doença em
algum momento estourar esse limite superior, estará caracterizada
sua variação irregular de incidência.
Figura 5.10 - Controle de nível endêmico (hipotético)

Fonte: elaborado pelos autores.

Alves (2004) ressalta que, quando a frequência do evento é


relativamente constante durante o ano, a análise dos dados não
requer maior sofisticação. Valores como a média ou mediana,
acompanhados dos seus respectivos índices de dispersão (DP, desvio
interquartil), são suficientes para sintetizar os eventos e
materializar o diagrama de controle.
Há diversas formas de construir um diagrama de controle. Uma das
mais utilizadas refere-se ao uso da média aritmética da incidência e
dos respectivos desvios padronizados para estimar um intervalo de
ocorrência regular. Pode-se trabalhar com o número de casos
absolutos por tempo de observação ou com a medida de incidência,
por 100 mil habitantes, por exemplo.
Como as medidas limites que compõem o intervalo de ocorrência
regular são estimativas, é necessário conhecer a distribuição
corrente do evento. Medronho e Perez (2009) sugerem observar a
ocorrência mensal ou semanal de um período de 10 anos (apenas
uma sugestão, já que, muitas vezes, esse período vai depender da
disponibilidade de dados). É importante ressaltar que, nesse período,
a incidência pode não ter sofrido nenhuma variação irregular
(epidemia, por exemplo).
Na Tabela 5.1 apresenta um conjunto de dados fictícios para o
desenvolvimento do exercício; são 10 anos de incidência de uma
doença (doença meningocócica), com observação mês a mês. Como
exemplo, será desenvolvido, a seguir, um diagrama de controle para
acompanhamento do ano de 2011. Note que em nenhum dos anos
existiu grande variação que pudesse ser caracterizada como
irregular.
Tabela 5.1 - Incidência mensal de doença meningocócica (100 mil habitantes), no
município de Goiânia, de 2001 a 2010 (dados fictícios)
Uma forma de estimar os limites superior e inferior endêmicos diz
respeito à iniciativa de estabelecer um Intervalo de Confiança (IC) de
95% em torno das médias de casos. Desse modo, é necessário
utilizar alguma distribuição de probabilidade para materialização
desse intervalo “ótimo”. Usualmente, utiliza-se a distribuição
normal (z), na qual um IC de ±95% equivale a 1,96 unidade de DP. Os
passos para chegar à plotagem do diagrama são os seguintes:
a) Calcula-se a incidência média aritmética mensal referente aos anos
anteriores ao que se quer analisar (ver Tabela 5.2);
b) Calcula-se, mês a mês, o DP referente aos anos anteriores, para
considerar a dispersão dos valores observados em relação à
incidência média obtida (ver Tabela 5.2);
c) Com esses valores, incidências médias mensais e DPs, pode-se
estabelecer um intervalo de variação que será considerado normal ou
endêmico (ver Tabela 5.2).
Após a realização desses procedimentos, conseguiu-se chegar às
médias (1), aos DPs (2) e aos limites de incidência normal esperados
para cada mês (3). Observe que, para exemplificação, foram
realizados os procedimentos completos com os meses de janeiro e
fevereiro (Tabela 5.1): inicialmente, a média aritmética (janeiro –
0,41 – e fevereiro – 0,34); logo após os DPs referentes a esses
mesmos meses (janeiro – 0,21 – e fevereiro – 0,13) e, estabelecidos
esses parâmetros, estimaram-se os limites superior e inferior com
IC de 95%. Os resultados esperados para todos os meses de 2011
estão dispostos na Tabela 5.3.
Tabela 5.2 - Fórmulas e procedimentos de cálculo de média geométrica, desvio-padrão e
limites endêmicos para montagem do diagrama de controle, utilizando dados da Tabela 5.1
Tabela 5.3 - Estimativa de média, desvio-padrão e limites endêmicos de observação mês a
mês, no município de Goiânia (dados fictícios)
Agora, é necessário plotar o gráfico para estudar alguns de seus
elementos (Figura 5.11). Repare que a linha vermelha representa o
limite superior, e a linha azul, o limite inferior. O espaço entre essas
linhas, que varia mês a mês (estimado dos 10 anos anteriores), pode
ser considerado intervalo regular, também chamado de faixa de
incidência normal esperada ou faixa endêmica. Nesse espaço, a
incidência pode variar sem que seja inferida qualquer alteração na
sistemática da estrutura epidemiológica condicionante do processo
saúde-doença. A variação da incidência em faixa endêmica é
chamada de incidência em nível endêmico. A linha vermelha, ou
limite superior endêmico, também é chamada limiar epidêmico, por
representar o limite endêmico. Além dessa linha, está a incidência
em nível epidêmico, ou seja, quando o coeficiente de incidência da
doença ultrapassa o limiar endêmico, está caracterizada a epidemia.
Figura 5.11 - Estimativa de nível superior e inferior endêmico para o ano de 2011

Fonte: elaborado pelos autores.

Esse diagrama de controle é uma possibilidade de conhecer a


variação natural da doença em anos anteriores, a fim de acompanhar
ou avaliar a ocorrência desta no presente, um trabalho muito
realizado em Vigilância Epidemiológica.
Alves (2004) explica que essa ferramenta reflete o programa de
controle com base nos bancos de dados existentes no sistema de
vigilância de agravos no país, representando um método de
acompanhamento das informações recebidas constantemente.
Geralmente é usado para controle de doenças em situações de
equilíbrio, em que há uma estabilidade espaço-temporal (níveis
endêmicos da doença).
Na Tabela 5.3, foram sugeridas 2 situações distintas para o ano de
2011 (lembre-se de que nosso diagrama utilizou dados de 2001 a
2010): 2011a e 2011b, consecutivamente, na penúltima e na última
coluna. Acompanhe a plotagem nos gráficos (Figuras 5.12 e 5.13) e
analise a ocorrência da doença.
Observe a primeira situação para o ano de 2011 (Figura 5.12). A
incidência da doença, no decorrer do ano, mostra uma variação,
contudo, considerada regular (dentro do limite endêmico esperado).
Não foi observada, então, nenhuma variação na frequência da
doença que pudesse caracterizar uma epidemia. Já na segunda
situação (2011b), existe uma variação da frequência além do limiar
epidêmico (Figura 5.13). Observe que a incidência se eleva entre os
meses de abril e maio, atingindo seu ponto máximo nesse último
mês (linha preta); entre maio e junho, a incidência volta ao seu nível
normal (incidência em nível endêmico). Pode-se afirmar então que,
no ano de 2011b, houve uma variação irregular caracterizada como
epidemia.
Figura 5.12 - Estimativa de níveis superior e inferior endêmicos e incidência observada no
ano de 2011a

Fonte: elaborado pelos autores.

Figura 5.13 - Estimativa de níveis superior e inferior endêmicos e incidência observada no


ano de 2011b
Fonte: elaborado pelos autores.

#IMPORTANTE
Graficamente, uma epidemia se expressa como
curva anormal em relação à ocorrência
esperada, chamada curva epidêmica.

Sinnecker (1976) discorre sobre alguns elementos dessa curva que


merecem destaque, uma vez que podem auxiliar na classificação do
tipo de epidemia e no seu controle (Figura 5.14).
Figura 5.14 - Elementos da curva epidêmica
Fonte: elaborado pelos autores.

1. Incremento inicial dos casos: ocorre nos eventos em que o processo


saúde-doença passa de uma situação endêmica preexistente para
uma situação epidêmica. Com a situação ainda em nível endêmico,
observa-se um incremento do número de casos com o coeficiente de
incidência tendendo para o limite superior endêmico;
2. Egressão: seu marco inicial ocorre no surgimento dos primeiros
casos (progressão) e termina quando a incidência é nula ou o
processo se estabiliza em um dado patamar de endemicidade
(regressão), caracterizando uma endemia;
3. Progressão: estabelecida a epidemia, o crescimento progressivo da
incidência caracteriza a fase inicial do processo. Essa primeira etapa,
descrita pelo ramo ascendente da curva epidêmica, termina quando o
processo epidêmico atinge seu clímax;
4. Incidência máxima: é o clímax. A força de crescimento da epidemia
extingue-se devido à diminuição do número de indivíduos expostos, à
diminuição do número de suscetíveis, a ações nacionais ou
internacionais de vigilância e controle ou ao próprio processo natural
de controle;
5. Regressão: é a última fase na evolução de uma epidemia. O
processo de massa tende a retornar aos valores iniciais de incidência,
estabilizar-se em patamar endêmico, abaixo ou acima do patamar
inicial ou regredir até incidência nula, incluída aí a erradicação;
6. Decréscimo endêmico: quando o processo regride em nível
endêmico e as ações de controle e vigilância continuam, a
endemicidade pode ser levada a patamares bastante baixos, mais do
que aqueles vigentes antes da eclosão da ocorrência epidêmica; pode-
se pensar, inclusive, na erradicação da doença (que pode ou não
ocorrer).

5.7.3.2 Caracterização temporal e espacial de uma epidemia

Uma endemia caracteriza-se por ser temporalmente ilimitada; a


epidemia, ao contrário, é restrita a um intervalo de tempo marcado
por começo e fim – bem definidos – com retorno das medidas de
incidência aos patamares endêmicos observados antes da ocorrência
epidêmica. Esse intervalo de tempo pode abranger poucas horas ou
estender-se a anos ou décadas.
Segundo o Ministério da Saúde, as epidemias podem ser
classificadas, também, pela abrangência espacial. Tais quais as
situações endêmicas, as ocorrências epidêmicas são limitadas não
somente a um tempo definido, mas também a um espaço delimitado,
desde os limites de um surto epidêmico até a abrangência de uma
pandemia (BRASIL, 2005).
Costuma-se designar surto epidêmico (Figura 5.15 – círculo
vermelho) quando 2 ou mais casos de determinada doença ocorrem
em locais circunscritos, como instituições, escolas, domicílios,
edifícios, cozinhas coletivas, bairros ou comunidades, aliados à
hipótese de que existia, como relação entre eles, a mesma fonte de
infecção ou de contaminação ou os mesmos fatores de risco, o
mesmo quadro clínico e ocorrência simultânea.
Denomina-se pandemia (Figura 5.15 – círculo verde) a ocorrência
epidêmica caracterizada por uma larga distribuição espacial que
atinge várias nações. São exemplos clássicos de pandemias a
epidemia de influenza de 1918 e a epidemia de cólera, iniciada em
1961, que alcançou o continente americano em 1991, no Peru. Mais
recentemente, no ano de 2009, foi vista a pandemia de influenza
(H1N1), que se iniciou no México e se espalhou rapidamente pelo
mundo.
No ano de 2019, até o mês de agosto, foram registrados novos casos
de sarampo em 11 estados do Brasil, sendo considerado um surto da
doença, com mais de 1.680 casos confirmados. O estado mais afetado
foi São Paulo, com mais de 99% dos casos confirmados da doença
(BRASIL, 2019).
Figura 5.15 - Classificação espacial de uma epidemia: surto epidêmico (círculo vermelho) e
pandemia (círculo verde)
5.7.3.3 Fatores condicionantes do surgimento das epidemias

Alguns fatores são imprescindíveis para o surgimento de uma


epidemia. Em linhas gerais, o aumento do número de indivíduos
suscetíveis destaca-se como um dos mais importantes. Quando o
número desses indivíduos em um local for suficientemente grande, a
introdução de um caso (alóctone ou importado) de uma doença
transmissível gera diversos outros, configurando um grande
aumento na incidência. O aumento do número de suscetíveis pode
apresentar diversas causas, como os nascimentos de novos
indivíduos, migrações e baixas coberturas de vacinas imunizantes.
Alterações no meio ambiente favorecem a transmissão de doenças
infecciosas e auxiliam na propagação dos agravos não infecciosos.
Destacam-se, entre eles, os seguintes fenômenos: contaminação da
água potável por dejetos, favorecendo a transmissão de doenças de
contaminação fecal-oral; aglomeração de pessoas em abrigos
provisórios, em situações de calamidade, facilitando a eclosão de
surtos de doenças respiratórias agudas; aumento no número de
vetores infectados, responsáveis pela transmissão de algumas
doenças em razão de condições ambientais favoráveis e/ou
inexistência ou ineficácia de medidas de controle; contaminação de
alimentos por micro-organismos patogênicos, ocasionando surtos
de intoxicação, toxinfecção e infecção alimentar; extravasamento de
produtos químicos poluindo ar, solo e mananciais, podendo levar a
intoxicações agudas na comunidade local; emissão descontrolada de
gás carbônico por veículos motorizados, que pode levar ao
desenvolvimento de problemas respiratórios agudos na população.
Na prática, o Ministério da Saúde ressalta que uma epidemia pode
surgir quando inexiste uma doença em determinado lugar e aí se
introduz uma fonte de infecção ou contaminação (por exemplo, um
caso de cólera ou um alimento contaminado), dando início ao
aparecimento de casos ou epidemia; quando ocorrem casos
esporádicos de uma determinada doença e logo se configura uma
inter-relação que contribui para o aumento na incidência além do
esperado; a partir de uma doença que ocorre endemicamente e
alguns fatores desequilibram a sua estabilidade, iniciando uma
epidemia (BRASIL, 2005).
5.7.3.4 Aspectos diferenciais das epidemias

Foi visto, até aqui, que uma epidemia se refere a uma alteração,
espacial e cronologicamente delimitada, do estado de saúde-doença
de uma população, que se caracteriza pelo aumento progressivo,
inesperado e descontrolado dos coeficientes de incidência de
determinada doença, ultrapassando o limiar epidêmico
preestabelecido.
Existem 2 aspectos básicos para a diferenciação das epidemias: o
primeiro diz respeito à velocidade com a qual ocorre o processo
epidêmico, classificando estas em epidemias lentas e explosivas; e o
segundo se refere à fonte ou origem da contaminação e divide-as em
fonte comum (pontual ou persistente) ou fonte progressiva ou
propagada (BRASIL, 2005).
Também denominada brusca, instantânea ou maciça, a epidemia
explosiva caracteriza-se por um aumento expressivo do número de
casos em curto espaço de tempo, compatível com o período de
incubação da doença. Nesse tipo de epidemia, quase todos os
indivíduos expostos e suscetíveis são acometidos em pouco tempo, e
a incidência máxima é alcançada rapidamente. Citam-se, como
exemplo, as intoxicações decorrentes da ingestão de água, leite ou
outros alimentos contaminados.
Na epidemia lenta, o critério diferenciador é a velocidade com a qual
ela ocorre na etapa inicial do processo, que é lenta e gradual e
progride durante um longo tempo. Acontece, em geral, nas doenças
de curso clínico longo, principalmente as não transmissíveis,
podendo ocorrer, também, com doenças cujos agentes apresentam
baixa resistência ao meio exterior ou para os quais a população seja
altamente resistente ou imune. Será lenta, ainda, se as formas de
transmissão e os meios de prevenção forem bem conhecidos pela
população, como AIDS, exposição a metais pesados ou agrotóxicos.
Quando não há um mecanismo de transmissão de hospedeiro para
hospedeiro na epidemia, por fonte ou veículo comum, o fator
extrínseco (agente infeccioso, fatores físico-químicos ou produtos
do metabolismo biológico) pode ser veiculado pela água, por
alimentos, pelo ar ou introduzido por inoculação. Todos os
suscetíveis devem ter acesso direto a uma única fonte de
contaminação, podendo ser por curto espaço de tempo (fonte
pontual) ou um espaço de tempo mais longo (fonte persistente).
Trata-se, geralmente, de uma epidemia explosiva e bastante
localizada, em relação a tempo e lugar, como a intoxicação
alimentar.
Na epidemia gerada por uma fonte pontual (no tempo), a exposição
ocorre durante um curto intervalo de tempo e cessa, não ocorrendo
novamente. Exemplos disso são as exposições a alimentos
contaminados em eventos. Já na epidemia ocasionada por uma fonte
persistente (no tempo), a fonte tem existência dilatada e a exposição
da população prolonga-se. Destacam-se, neste último caso, as
epidemias de febre tifoide devido a fonte hídrica, acidentalmente
contaminada pela rede de esgoto.
Epidemia de fonte progressiva ou propagada, de contato ou
contágio, ocorre quando o mecanismo de transmissão for de
hospedeiro-hospedeiro em cadeia, por via respiratória, anal, oral ou
genital (gripe, meningite meningocócica, doenças sexualmente
transmissíveis e raiva canina, por exemplo). Muitas vezes sua
progressão é lenta, contudo não se descarta a possibilidade de
epidemias explosivas por esse tipo de fonte.
O descontrole nos fatores determinantes da doença pode ocasionar
uma situação epidêmica. Esse descontrole deve ser detectado pelo
Sistema de Vigilância, classificado como uma situação de
emergência, e medidas circunstanciais devem ser tomadas para a
sua correção (ALVES, 2004).
A partir de quantos casos
podemos dizer que existe
uma epidemia?
Uma epidemia ocorre quando há um excesso do número de
casos em relação ao que é esperado para aquele tempo e
lugar; portanto, esse número dependerá de qual doença
está sendo estudada. Normalmente, esse excesso é
considerado quando o número ultrapassa 2 desvios-padrão
da média histórica daquela condição, como, por exemplo, a
média dos últimos 10 anos. Quando não há número de
casos anterior à ocorrência da condição estudada, 1 único
caso de doença após um longo tempo ausente na população
ou a primeira invasão de uma doença em uma área requer
reporte imediato às autoridades; 2 casos da mesma doença
associadas no tempo e local já podem ser evidência o
suficiente para ser considerada uma epidemia.
Você sabe diferenciar os
diferentes modos de realizar
vigilância em saúde?

6.1 INTRODUÇÃO
A vigilância em saúde visa à observação e análise permanentes da
situação de saúde da população, articulando-se em um conjunto de
ações destinadas a controlar determinantes, riscos e danos à saúde
de populações que vivem em determinados territórios e garantindo a
integralidade da atenção, o que inclui tanto a abordagem individual
quanto coletiva dos problemas de saúde.
O conceito de vigilância em saúde inclui:
a) Vigilância e controle das doenças transmissíveis;
b) Vigilância das doenças e agravos não transmissíveis;
c) Vigilância da situação de saúde;
d) Vigilância ambiental em saúde;
e) Vigilância da saúde do trabalhador;
f) Vigilância sanitária.

Antes da criação do Sistema Unificado e Descentralizado de Saúde


(SUDS) e do Sistema Único de Saúde (SUS), na década de 1980, a
cisão, do ponto de vista político e organizacional, estava bem
estabelecida: de um lado, sob a responsabilidade do extinto Instituto
Nacional de Assistência Médica da Previdência Social (INAMPS),
estavam as ações de assistência à saúde individual, e do outro, sob o
comando do Ministério da Saúde, encontravam-se as ações de
natureza coletiva vinculadas, essencialmente, a vigilância,
prevenção e controle das doenças transmissíveis.
Após a criação do SUS, o planejamento e a execução de um e outro
conjunto de ações passaram a ter um comando único em cada nível
de governo, favorecendo a formulação de políticas de saúde mais
efetivas. Além disso, esse processo tomou como princípios e
diretrizes a universalização do acesso, a descentralização e a
integralidade das ações e o controle social. Não obstante, os avanços
obtidos, principalmente na organização dos serviços assistenciais, a
dicotomia e a fragmentação das ações persistiram por longo tempo,
mesmo sob um único comando.
Ocorre, então, a adequação do sistema de vigilância com a nova visão
do processo saúde-doença, em que se pode pensar na assistência em
saúde não só como tratamento e/ou cura de doenças, mas também
como um produto de 2 momentos articulados que podem e devem
ser distinguidos: ações suscitadas pela presença da doença em razão
de condições de “risco” epidemiológico e da vulnerabilidade de
certos grupos; ações referentes à qualidade de vida, sem considerar
apenas a eliminação de doenças ou mesmo a prevenção delas, mas
uma ideia mais ampla que engloba a questão da promoção da saúde.
É justamente nessa articulação que age a vigilância em saúde.
6.2 COMPONENTES E AÇÕES DA
VIGILÂNCIA EM SAÚDE
Figura 6.1 - Evolução das formas de vigilância em saúde no Brasil
Fonte: elaborado pelos autores.

Sob a ótica estrutural, pode-se falar no resultado de um processo


histórico, no âmbito federal, iniciado pelo Centro Nacional de
Epidemiologia (CENEPI), do qual participaram instituições de saúde
e de ensino e pesquisa. A Secretaria de Vigilância em Saúde (SVS),
criada em 2003, congrega tradicionais campos de atuação e agrega
novos. Além da vigilância epidemiológica de doenças transmissíveis,
a SVS incorporou as vigilâncias em saúde ambiental, saúde do
trabalhador, das doenças e agravos não transmissíveis, análise de
situação de saúde e a promoção da saúde (Figura 6.2). Competem à
Secretaria a formulação de políticas e o aprimoramento e a
elaboração de sistemas de informação dessas áreas (BRASIL, 2010b).
Figura 6.2 - Ações desenvolvidas pela Secretaria de Vigilância em Saúde
Fonte: elaborado pelos autores.

Os componentes concretos da vigilância em saúde são Vigilância


Epidemiológica, Vigilância da Situação de Saúde, Vigilância em
Saúde Ambiental, Vigilância em Saúde do Trabalhador e Vigilância
Sanitária.
Existem várias atividades relacionadas a cada um desses
componentes principais (Quadro 6.1). Deve-se ressaltar que esses
componentes não devem agir isoladamente. Muitas vezes, a
existência da articulação entre eles auxilia na promoção de um
trabalho mais integral à população. Em situações de surtos ou
epidemias de fonte alimentar, é comum observar a Vigilância
Epidemiológica trabalhar lado a lado com a Sanitária, a fim de
esclarecer esse processo.
Um aspecto fundamental da vigilância em saúde é o cuidado integral
com a saúde das pessoas por meio da “promoção da saúde”, que
objetiva promover a qualidade de vida, criando condições para
reduzir a vulnerabilidade e os riscos à saúde da população,
relacionados aos seus determinantes e condicionantes – modos de
viver, condições de trabalho, habitação, ambiente, educação, lazer,
cultura e acesso a bens e serviços essenciais.
Quadro 6.1 - Componentes da vigilância em saúde no Brasil
As ações específicas da vigilância em saúde são voltadas para
alimentação saudável, prática corpórea/atividade física, prevenção e
controle do tabagismo, redução da morbimortalidade em
decorrência do uso de álcool e outras drogas, redução da
morbimortalidade por acidentes de trânsito, prevenção da violência
e estímulo à cultura da paz, além da promoção do desenvolvimento
sustentável.
No início de 2003, como parte das medidas de reestruturação do
Ministério da Saúde, foi criada a SVS, após a extinção de 3 secretarias
cujas atribuições foram redistribuídas entre as 5 que as
substituíram, o que visava reduzir a fragmentação das ações e
conferir maior organicidade à atuação do referido órgão. As
atribuições das novas estruturas foram regulamentadas pelo Decreto
4.726, de 09 de junho 2003, que estabeleceu a nova Estrutura
Regimental Básica (BRASIL, 2003).
Em 2019, a partir do Decreto 9.795 de 17 de maio 2019, houve nova
mudança da estrutura do Ministério da Saúde, com a criação de 5
departamentos da Secretaria de Vigilância em Saúde (Figura 6.3)
Figura 6.3 - Organização da Secretaria de Vigilância em Saúde

Fonte: Decreto 9.795, de 17 maio 2019.

A nova denominação adotada – vigilância em saúde – e o fato de a


SVS localizar-se formalmente no mesmo nível organizacional da
estrutura responsável pela área de Assistência à Saúde são indícios
do desejo de superação das dicotomias entre preventivo e curativo e
entre individual e coletivo, e das fragmentações entre práticas que
dificultam a construção da integralidade do modelo assistencial
vigente.
Com a criação da SVS, todas as ações de vigilância, prevenção e
controle de doenças, além da promoção à saúde, passaram a se
reunir em uma única estrutura do Ministério da Saúde, responsável
pela coordenação nacional de todas as ações executadas pelo SUS,
nas áreas de vigilância epidemiológica de doenças transmissíveis e
não transmissíveis, dos programas de prevenção e controle de
doenças, de vigilância em saúde ambiental, informações
epidemiológicas e análise de situação de saúde. Essas
responsabilidades são compartilhadas, segundo as atribuições de
cada esfera de governo, com os gestores estaduais e municipais
(BRASIL, 2006).
A descentralização das ações de vigilância em saúde para estados e
municípios concretizou um marco dessa área a partir de 1999,
quando foi publicada a Portaria 1.399 (BRASIL, 1999). A partir do ano
2000, todas as 27 Unidades Federativas foram certificadas para a
gestão da vigilância em saúde e passaram a receber recursos por
intermédio do Fundo Nacional de Saúde de forma regular e
automática. Posteriormente, essa Portaria foi atualizada pela
Portaria 1.172, de 15 de junho de 2004.
Em 2009, houve a necessidade de rever a normativa da vigilância em
saúde, tendo em vista o Pacto pela Saúde, o processo de
planejamento do SUS e a definição de estratégias de integração da
Vigilância com a Assistência à Saúde, em especial com a Atenção
Primária. Com o objetivo de potencializar o processo de
descentralização, fortalecendo estados, municípios e Distrito
Federal, foi publicada a Portaria GAB/MS 3.252, de dezembro de
2009, que aprova as diretrizes para a execução e o financiamento das
ações de vigilância em saúde pelas 3 esferas de gestão do SUS
(BRASIL, 2009a). Ela estabelece o Piso Fixo de Vigilância e Promoção
da Saúde como a principal fonte de financiamento das ações de
vigilância em saúde. Esse piso compõe-se de um valor per capita
estabelecido com base na estratificação, população e área territorial
de cada Unidade Federativa. As transferências são realizadas de
forma regular, da União para estados, municípios e Distrito Federal.
A Portaria 3.252 criou, ainda, o Piso Variável de Vigilância e
Promoção da Saúde, constituído por incentivo específico, por adesão
ou indicação epidemiológica, conforme normatização específica
(SAÚDE, 2011).
6.3 VIGILÂNCIA EPIDEMIOLÓGICA
6.3.1 Conceitos e propósitos
Vigilância pode ser entendida como a observação contínua da
distribuição e das tendências da incidência de doenças mediante a
coleta sistemática, consolidação e avaliação de informes de
morbidade e mortalidade, assim como de outros dados relevantes, e
a regulação da disseminação dessas informações a todos os que
necessitam conhecê-la (LANGMUIR, 1971).
A Vigilância Epidemiológica refere-se a um conjunto de atividades
que proporciona a obtenção de informações fundamentais para o
conhecimento e a detecção ou a prevenção de qualquer mudança que
possa ocorrer nos fatores que determinam e condicionam o processo
saúde-doença, em nível individual ou coletivo, com o objetivo de
recomendar e adotar de forma oportuna as medidas de prevenção e
controle dos agravos. Portanto, pode ser entendida como a obtenção
de informação para a ação (FISCHMANN, 1994; ALVANHA et al.,
2001).
Originalmente impregnadas pelo conceito de polícia médica vigente
no século 18, as ações de controle de doenças estavam limitadas à
vigilância de pessoas, com medidas de isolamento e quarentena
aplicadas individualmente, e não de forma coletiva. Posteriormente,
diante da intensificação do intercâmbio comercial entre os países,
surgiu a necessidade de instituir ações efetivas de caráter coletivo,
como a vacinação, o controle de vetores e o saneamento ambiental
(GAZE; PEREZ, 2009).
As ações de vigilância epidemiológica aplicam-se, em geral, às
doenças transmissíveis, mas podem ser estendidas às doenças não
transmissíveis (anomalias congênitas, desnutrição, doenças
crônico-degenerativas etc.) e a outros agravos (acidentes e
violências).
Pereira (2002) explica que é a forma mais tradicional da utilização da
Epidemiologia nos serviços de saúde, constituindo-se em um
instrumento importante para o planejamento, a organização e a
operacionalização destes, além de subsidiar as normatizações das
atividades técnicas correlatas (WALDMAN; MELLO JORGE, 1998;
ALVANHA et al., 2001).
Segundo o Ministério da Saúde, as competências de cada um dos
níveis do sistema de saúde (municipal, estadual e federal) abarcam
todo o espectro das funções de vigilância epidemiológica, porém,
com graus de especificidade variáveis. As ações executivas são
inerentes ao nível municipal, e seu exercício exige conhecimento
analítico da situação de saúde local. Aos níveis nacional e estadual
cabe conduzir ações de caráter estratégico, de coordenação em seu
âmbito de ação e de longo alcance, além da atuação de forma
complementar ou suplementar aos demais níveis.
6.3.2 Bases históricas
No Brasil, a preocupação do Estado com doenças transmissíveis e
seu controle ocorreu, primeiramente, no início do século 20, com a
realização de campanhas sanitárias que buscavam combater,
principalmente, doenças que comprometiam a atividade econômica,
como febre amarela, peste e varíola. Foi na década de 1950 que a
expressão “vigilância epidemiológica” foi aplicada ao controle de
doenças transmissíveis; significava, originalmente, “observação
sistemática e ativa de casos suspeitos ou confirmados de doenças
transmissíveis e de seus contatos”. Em 1963, a Organização Mundial
da Saúde (OMS) toma partido do assunto, divulgando algumas das
principais ações de vigilância. No Brasil, o desenvolvimento da
Vigilância Epidemiológica como um sistema tem aspectos
semelhantes ao entendido pela OMS.
A Campanha de Erradicação da Varíola – CEV (1966 a 1973) – é
reconhecida como marco da institucionalização das ações de
vigilância no país, tendo fomentado e apoiado a organização de
unidades de Vigilância Epidemiológica na estrutura das secretarias
estaduais de saúde. Tal processo fundamentou a consolidação de
bases técnicas e operacionais que possibilitaram o posterior
desenvolvimento de ações de grande impacto no controle de doenças
evitáveis por imunização. O principal êxito relacionado a esse
esforço foi o controle da poliomielite no Brasil, na década de 1980,
que abriu perspectivas para a erradicação da doença no continente
americano, finalmente alcançada em 1994.
O SUS incorporou o Sistema Nacional de Vigilância Epidemiológica
(SNVE), definindo a Vigilância Epidemiológica, em seu texto legal
(Lei 8.080/90), como “um conjunto de ações que proporciona o
conhecimento, a detecção ou a prevenção de qualquer mudança nos
fatores determinantes e condicionantes de saúde individual ou
coletiva, com a finalidade de recomendar e adotar as medidas de
prevenção e controle das doenças ou agravos”.
6.3.2.1 Evolução conceitual de vigilância

Em 1963, a OMS aponta algumas funções da Vigilância


Epidemiológica: busca de casos, exames complementares,
tratamento, investigação epidemiológica e eliminação de focos; com
o Programa de Erradicação da Varíola (lançado em 1955 e
intensificado em 1967), também da OMS, são salientadas mais 2
importantes funções: a busca de todos os casos e a aplicação de
medidas de controle. Assim, com o tempo, o papel de sistema de
informação que a Vigilância desenvolvia passa a agregar atividades
de controle da doença na população, monitorização, avaliação,
pesquisa e intervenção. A partir de 1968, com a 1ª Assembleia
Mundial da Saúde, a Vigilância passa a englobar o papel de vigiar
também outros agravos, além das doenças transmissíveis.
Posteriormente, a Vigilância assume a característica de se voltar ao
aspecto relacional dos indivíduos com o meio ambiente e com os
produtos e serviços consumidos por eles, ou seja, desenvolve-se a
noção de vigilância sanitária.
Logo, não se pode entender como objetivo da Vigilância apenas a
mera coleta de dados e análise das informações, mas também a
responsabilidade de elaborar, com fundamento científico, as bases
técnicas que guiarão os serviços de saúde na elaboração e
implementação dos programas de saúde, com a preocupação de
contínua atualização e aprimoramento.
1. Práticas de vigilância:
a) Controlar agravos à saúde das coletividades;
b) Monitorizar riscos de adoecimento, detectando precocemente o
surgimento de casos novos de doenças ou de novas doenças;
c) Monitorizar o surgimento de agravos à saúde consequentes ao uso
de substâncias de consumo humano;
d) Prevenir agravos e doenças nas populações.

Cada sistema de vigilância será responsável pelo acompanhamento


contínuo de específicos eventos adversos à saúde, com o objetivo de
estabelecer as bases técnicas e as normas para a elaboração e a
implementação dos respectivos programas de controle.
6.3.3 Funções
A Vigilância Epidemiológica tem como propósito primordial fornecer
orientação técnica permanente para os profissionais de saúde, que
têm a responsabilidade de decidir sobre a execução de ações de
controle de doenças e agravos, tornando disponíveis, para esse fim,
informações atualizadas sobre a ocorrência dessas doenças e
agravos, bem como sobre os fatores que os condicionam, em uma
área geográfica ou população definida.
Subsidiariamente, a Vigilância Epidemiológica constitui-se em
importante instrumento para o planejamento, a organização e a
operacionalização dos serviços de saúde, como também para a
normatização de atividades técnicas correlatas (BRASIL, 2009).
O sistema de vigilância epidemiológica produz informações que
funcionam como um mecanismo de alerta constante sobre a
incidência de alguns agravos à saúde.
1. Propósitos da Vigilância Epidemiológica:
a) Produzir dados que permitam conhecer a magnitude e a distribuição
de agravos nas populações, apontar grupos mais afetados ou sob
maior risco de adoecimento e identificar as variações sazonais e
geográficas dos casos e a evolução e a tendência dos agravos ao
longo dos tempos;
b) Desenvolver e executar ações que permitam controlar o problema
da forma mais imediata possível, reduzindo a morbimortalidade dos
agravos, evitar que um agravo se dissemine para uma região que não
sofreu perda e, sempre que possível, eliminar o problema de saúde;
c) Avaliar medidas de Saúde Pública, como o impacto das campanhas
de vacinação, cobertura de Papanicolaou, entre outras.

Portanto, cabe à Vigilância Epidemiológica fornecer orientação


técnica sobre a execução de ações de controle de doenças e agravos e
manter atualizadas as informações destes últimos. Além disso, as
informações fornecidas pelo sistema de vigilância permitem:
planejar ações em saúde, desde promoção da saúde e prevenção de
doenças até a recuperação; organizar a melhor forma de execução
dessas ações; operacionalizar essas ações; normatizar as atividades
técnicas a serem adotadas diante de um agravo.
A operacionalização da Vigilância Epidemiológica compreende um
ciclo de funções específicas e intercomplementares, desenvolvidas
de modo contínuo, permitindo conhecer, a cada momento, o
comportamento da doença ou agravo selecionado como alvo das
ações, para que as medidas de intervenção pertinentes possam ser
desencadeadas com oportunidade e eficácia. As funções da Vigilância
Epidemiológica serão explicadas a seguir (Figura 6.4).
Figura 6.4 - Funções da Vigilância Epidemiológica
Fonte: elaborado pelos autores.

6.3.4 Coleta de dados


A coleta de dados ocorre em todos os níveis de atuação do sistema de
saúde. O valor da informação (dado analisado) depende da precisão
com que o dado é gerado. Portanto, os responsáveis pela coleta
devem ser preparados para aferir a qualidade do dado obtido.
Tratando-se, por exemplo, da notificação de doenças
transmissíveis, são fundamentais a capacitação para o diagnóstico
de casos e a realização de investigações epidemiológicas
correspondentes (BRASIL, 2009).
O propósito básico da coleta de dados é gerar informação, um
poderoso instrumento capaz de subsidiar um processo dinâmico de
planejamento, avaliação, manutenção e aprimoramento das ações
desenvolvidas. Para tal, são importantes a disponibilidade dos dados
coletados e sua qualidade. Assim, a partir de fontes confiáveis, é
possível, sem o conhecimento da totalidade de casos, acompanhar as
tendências do agravo com auxílio de estimativas de subnumeração
de casos.
De acordo com o método de coleta de dados, podemos realizar
inquéritos, levantamentos ou investigações epidemiológicas.
Inquéritos são realizados quando dados são sistematicamente
coletados (por telefone, questionários, face a face, serviços postais);
o método experimental, entretanto, não é usado. Inquéritos são, por
definição, um estudo transversal. Levantamentos são estudos
realizados com base nos dados existentes nos registros dos serviços
de saúde ou de outras instituições. Normalmente não são estudos
amostrais, pois envolvem toda uma população específica.
Investigações são, por sua vez, um processo de pesquisa de campo
realizado a partir dos casos notificados (suspeitos ou confirmados).
O objetivo é identificar a fonte de infecção e o modo de transmissão,
os grupos expostos a maior risco e os fatores de risco, bem como
confirmar o diagnóstico e determinar as principais características
epidemiológicas.
6.3.4.1 Fonte de dados

Para obter os dados, a Secretaria de Vigilância em Saúde lança mão


de alguns meios, como a notificação compulsória, os prontuários
médicos, atestados de óbito, resultados de exames laboratoriais e
dados dos bancos de sangue, investigação de novos casos de uma
doença e epidemias, inquéritos comunitários, notícias veiculadas
pela imprensa, sistemas-sentinela, e faz uma busca ativa das
doenças ou agravos da saúde.
Quadro 6.2 - Fontes para coleta de dados para a Vigilância Epidemiológica
6.3.4.2 Tipos de dados

Os tipos de dados obtidos incluem dados demográficos, ambientais e


socioeconômicos, dados sobre morbidade e mortalidade, e as
notificações de emergências de saúde pública, surtos e epidemias.
Quadro 6.3 - Tipos de dados coletados nos níveis de atuação do sistema de saúde
6.3.5 Processamento dos dados coletados
Os dados coletados são consolidados segundo as técnicas da
Epidemiologia Descritiva, ou seja, descrevendo as características de
pessoa, tempo e espaço, em tabelas, gráficos, mapas etc.,
fornecendo, assim, uma visão global do evento. Dessa forma, é
possível avaliar a ocorrência do evento (“Quem?”, “Quando?”,
“Onde?”) e propor associação causal (“Por quê?”). Além disso, os
dados permitem o cálculo de indicadores, que serão muito úteis no
processo de comparação da situação atual do evento com a situação
do mesmo evento em anos anteriores e, até mesmo, de estudos
epidemiológicos.
6.3.6 Análise e interpretação dos dados
processados
Uma vez processados, os dados devem ser criteriosamente
analisados, transformando-se, assim, em informação que orientará
as ações de controle.
6.3.7 Recomendação das medidas de controle
Definir ações que possam ser realizadas para controlar e/ou eliminar
e/ou erradicar o agravo e/ou reduzir os óbitos por esse agravo e/ou
reduzir ou evitar sequelas por esse agravo etc. Ou seja, a partir da
informação, é elaborada a ação que permitirá o desenvolvimento das
funções da Vigilância Epidemiológica: essencialmente, reduzir as
taxas de morbimortalidade pelo agravo em questão.
6.3.8 Promoção das ações de controle indicadas
A partir da decisão tomada, é hora de partir para a ação, ou seja,
adotar as medidas consideradas necessárias para o controle do
agravo e a quebra da cadeia de transmissão, considerando-se,
também, possíveis ações para prevenção do agravo no futuro.
6.3.9 Avaliação da eficácia e efetividade das
medidas adotadas
Uma vez adotadas as medidas de controle propostas a partir das
informações obtidas dos dados analisados, é necessário estabelecer
um período após a adoção dessas medidas para realizar nova coleta
de dados, novo processamento e nova análise, a fim de observar se as
medidas aplicadas causaram alguma modificação ou controle do
agravo em questão, alterando, assim, as características de
ocorrência do evento. Segundo o Ministério da Saúde, o sistema de
vigilância epidemiológica pode ser avaliado por algumas medidas
quantitativas e qualitativas. As medidas quantitativas são a
sensibilidade (capacidade de detectar casos); especificidade
(capacidade de excluir os não casos); representatividade
(possibilidade de identificar todos os subgrupos da população onde
ocorrem os casos); oportunidade (agilidade do fluxo de sistema de
informação). Já as medidas qualitativas são a simplicidade
(facilidade de operacionalização e redução de custos); flexibilidade
(capacidade de adaptação do sistema a novas situações
epidemiológicas ou operacionais); e aceitabilidade (disposição de
indivíduos, profissionais e organizações participarem e utilizarem o
sistema – BRASIL, 2009b).
6.3.10 Divulgação de informações pertinentes
A divulgação das ações realizadas pela Vigilância Epidemiológica e
dos resultados consequentes a essas ações é o que se chama de
retroalimentação do sistema, um dos pilares para o adequado
funcionamento do sistema de vigilância. Essa retroalimentação
consiste no retorno regular de informações às fontes produtoras de
dados, por meio da disseminação periódica de informes
epidemiológicos sobre as situações local, regional, estadual e
nacional. Tal divulgação pode acontecer por meio de boletins oficiais
e de canais da imprensa, principalmente quando se está diante de
um surto ou epidemia, pois é fundamental retornar à população a
situação do agravo ocorrido e se houve ou não o controle desse
agravo e, principalmente, o que fazer para que ele não volte a ser
epidemia.
Desse modo, esse conjunto de atividades, que se inicia com a
notificação, deve ser sequencial, bem desenvolvido e dotado de
máxima eficiência, a fim de chegar à modificação e/ou ao controle do
evento notificante (Figura 6.5).
Figura 6.5 - Sequência de interação entre as funções da Vigilância Epidemiológica
Fonte: acervo Medcel.

A eficiência do SNVE depende do desenvolvimento harmônico das


funções realizadas nos diferentes níveis (municipal, estadual e
federal). Quanto mais capacitada e eficiente a instância local, mais
oportunamente poderão ser executadas as medidas de controle. Os
dados e as informações aí produzidos serão, também, mais
consistentes, possibilitando melhor compreensão dos quadros
sanitários estadual e nacional e, consequentemente, o planejamento
adequado da ação governamental. Nesse contexto, as intervenções
oriundas do nível estadual e, com maior razão, do federal tenderão a
tornar-se seletivas, voltadas para questões emergenciais ou que,
pela sua transcendência, requerem avaliação complexa e
abrangente, com participação de especialistas e centros de
referência, inclusive internacionais (BRASIL, 2009b).
6.4 DOENÇAS DE NOTIFICAÇÃO
COMPULSÓRIA
Também chamadas de doenças de notificação obrigatória, são
eventos cuja ocorrência deve ser notificada obrigatoriamente (por
lei) para o órgão de vigilância epidemiológica vigente. Em todos os
países, a lista de doenças de notificação é periodicamente revisada e
atualizada de acordo com as necessidades locais, podendo haver a
inclusão ou a retirada de algumas doenças. Em cada país, há 1 órgão
central que toma essas decisões.
No Brasil, a determinação de quais doenças devem estar presentes
na Lista Nacional de Doenças e Agravos de Notificação Compulsória é
responsabilidade do Ministério da Saúde. Habitualmente, essa lista
contempla as doenças sujeitas ao Regulamento Sanitário
Internacional (RSI) e doenças que são objetos de vigilância da
Organização Mundial da Saúde que apresentam importância
epidemiológica no país. Além disso, podem fazer parte dessa lista
doenças de particular importância para a saúde pública (que
necessitam de investigação epidemiológica ou medidas de controle
imediatas).
A Lista Nacional de Doenças e Agravos de Notificação Compulsória é
obrigatória em todo o território nacional. Estados e municípios
podem acrescentar doenças que apresentam importância
epidemiológica em sua região. A notificação compulsória é
obrigatória a todos os profissionais de saúde, ou seja, médicos,
enfermeiros, odontólogos, médicos veterinários, biólogos,
biomédicos, farmacêuticos e outros, no exercício da profissão, bem
como os responsáveis por organizações ou estabelecimentos
públicos e privados de saúde e de ensino em conformidade com a Lei
6.259, de 30 de outubro de 1975.
O processo de notificação compulsória de doenças no Brasil é
vinculado ao Sistema de Informação de Agravos de Notificação
(SINAN), que opera por meio da alimentação de dados coletados a
partir de 2 instrumentos padronizados e específicos: a ficha de
investigação epidemiológica (Figura 6.6) e a ficha de notificação
(Figura 6.7). As fichas preenchidas são digitadas em um software
específico e compõem um banco de dados com as informações
clínicas e epidemiológicas das doenças da lista nacional.
Figura 6.6 - Ficha do SINAN para notificação/investigação individual de caso de AIDS, em
adultos
Fonte: Instrumento para preenchimento de ficha de investigação, 2006.

As fichas de investigação epidemiológica são uma espécie de


questionário e seguem uma estrutura com campos abertos e
fechados para a descrição de dados de identificação, clínicos,
epidemiológicos e laboratoriais. Para cada doença da Lista Nacional
de Doenças e Agravos de Notificação Compulsória existe uma ficha
própria com campos específicos.
As fichas de notificação, costumeiramente chamadas de “ficha
SINAN”, são pré-numeradas pelo Ministério da Saúde e enviadas aos
demais níveis do SNVE. Exceto por sua numeração exclusiva, contêm
campos idênticos para qualquer uma das doenças da lista nacional e
serão sempre anexadas às fichas de investigação específicas para
cada doença, atribuindo-se, dessa forma, a numeração da ficha de
notificação ao caso suspeito da doença em investigação.
As fichas preenchidas nos serviços de saúde (Unidades Básicas de
Saúde e hospitais de referência do Subsistema Nacional de Vigilância
Epidemiológica em Âmbito Hospitalar) são encaminhadas para os
demais níveis do sistema de vigilância, seguindo o fluxo
estabelecido. Cabe ressaltar que, no caso dos hospitais de referência,
as fichas são diretamente digitadas no software SINANweb.
Figura 6.7 - Ficha do SINAN para notificação de quaisquer das doenças da lista nacional
Fonte: Ficha de notificação, 2006.

6.4.1 Critérios para a inclusão de doenças


6.4.1.1 Magnitude

Frequência das doenças na população, ou seja, sua incidência e


prevalência e seus índices de mortalidade e anos potenciais de vida
perdidos.
6.4.1.2 Potencial de disseminação

Poder de transmissão da doença, por meio de vetores ou outras


fontes, colocando em risco a saúde da população.
6.4.1.3 Transcendência

Existem 3 formas de expressão: severidade (medida por taxas de


letalidade, internações e sequelas da doença); relevância social
(avaliação subjetiva imputada pela reação da sociedade à doença –
medo, indignação, repulsa); relevância econômica (avaliada por
taxas de absenteísmo ao trabalho e às escolas, pelos custos
assistenciais e previdenciários etc.).
6.4.1.4 Vulnerabilidade

Existência de instrumentos específicos de controle e prevenção da


doença.
6.4.1.5 Compromisso internacional

Compromisso de um país com as metas mundiais de controle,


erradicação e eliminação de doenças, bem como com medidas que
devem ser adotadas diante de agravos inusitados, sob o risco de se
transformarem em pandemias.
6.4.1.6 Epidemias, surtos e agravos inusitados
Situações emergenciais em que é obrigatória a notificação imediata
dos casos suspeitos para delimitar a área de ocorrência e adotar
medidas de controle aplicáveis, visando à quebra da cadeia de
transmissão da doença.
6.4.2 Lista nacional de doenças de notificação
Em 28 de setembro de 2017, o Ministério da Saúde aprovou, pela
Portaria de consolidação 4, a definição da Lista Nacional de
Notificação Compulsória de doenças, agravos e eventos de saúde
pública nos serviços de saúde públicos e privados em todo o
território nacional, revogando a antiga Portaria 204, de 17 de
fevereiro de 2016. A lista completa pode ser vista no site da
Biblioteca Virtual de Saúde do Ministério da Saúde, no site
http://bvsms.saude.gov.br/bvs/saudelegis/gm/2017/prc0004_03_1
0_2017.html.
6.4.3 Subnotificação
Ocorre quando o sistema de vigilância não é informado de um caso.
Causas variadas colaboram para a não notificação de casos
observados: incerteza do diagnóstico, questões operacionais,
descrença no sistema de vigilância, entre outras. É muito conhecido,
no meio da Saúde, o termo “ponta do iceberg” (Figura 6.8) para se
referir a uma característica dos dados de notificação, ou seja,
informações de morbidade e mortalidade (especialmente de
mortalidade) representam apenas uma parcela da população (a
“ponta do iceberg”): a que morre ou que chega ao serviço de saúde e
tem o seu diagnóstico feito e registrado corretamente.
Figura 6.8 - Características da “ponta do iceberg” dos casos conhecidos de doença
Fonte: adaptado de Bases da Saúde Coletiva, 2001.

6.4.4 Notificação negativa


Algumas doenças, mesmo na ausência de casos, devem ser
notificadas às autoridades, ao que se denomina notificação negativa.
Funciona como um indicador de eficiência do sistema de
informações.
6.4.5 Notificação imediata e notificação não
imediata
Denominam-se notificações imediatas e não imediatas o que os
próprios nomes dizem, ou seja, respectivamente, notificações feitas
no momento da suspeita diagnóstica (imediata) ou no momento da
confirmação diagnóstica (não imediata). O que define quando
realizar um ou outro tipo de notificação é a rapidez com que a doença
pode se espalhar entre as pessoas.
6.5 VIGILÂNCIA EPIDEMIOLÓGICA DE
AGRAVOS NÃO TRANSMISSÍVEIS
Segundo o Ministério da Saúde, nas últimas décadas, as Doenças
Crônicas Não Transmissíveis (DCNTs) passaram a liderar as causas
de óbito no país, ultrapassando as taxas de mortalidade por doenças
infecciosas e parasitárias na década de 1980. Como decorrência da
queda da mortalidade e da fecundidade no país, aumentou o número
de idosos, particularmente do grupo com mais de 80 anos. Nos
próximos 20 anos, projeções apontam para a duplicação da
população idosa no Brasil – de 8 para 15%.
O Ministério da Saúde tem desenvolvido várias ações em articulação
com diversos setores governamentais e não governamentais, com o
objetivo de promover a qualidade de vida e prevenir e controlar as
DCNTs.
A Vigilância em DCNTs reúne o conjunto de ações que possibilitam
conhecer a distribuição, a magnitude e a tendência dessas doenças e
de seus fatores de risco na população, identificando seus
condicionantes sociais, econômicos e ambientais, com o objetivo de
subsidiar o planejamento, a execução e a avaliação da prevenção e do
controle delas. A prevenção e o controle dessas doenças e dos seus
fatores de risco são fundamentais para evitar o crescimento
epidêmico delas e suas consequências nefastas para a qualidade de
vida e para o sistema de saúde no país (BRASIL, 2005).
A estruturação da vigilância, do controle e da prevenção de DCNTs
no Brasil insere-se no contexto definido pelo Ministério da Saúde de
implementar ações de intervenção em DCNTs, resultando em
investimentos financeiros em capacitação de recursos humanos, em
equipamentos de informática e em pesquisa epidemiológica
contratada junto a centros colaboradores.
Para a vigilância, a Coordenação Nacional para Vigilância de Doenças
e Agravos Não Transmissíveis procurou estabelecer uma estratégia
sustentável centrada nas seguintes ações: monitorização das
doenças, vigilância integrada dos fatores de risco, indução de ações
de prevenção e controle e de promoção à saúde e monitorização e
avaliação das intervenções.
A monitorização da morbimortalidade por DCNT é feita de forma
contínua e consta como uma atividade fundamental do sistema de
vigilância. Ela é executada em todos os níveis gestores do sistema, do
municipal ao nacional. A partir dos indicadores pactuados nos
Fóruns Regionais de 2004, cada estado deverá produzir um relatório
anual com a descrição e a análise das respectivas taxas de
mortalidade e de morbidade para DCNTs.
A monitorização de fatores de risco é a principal atividade
sustentada pelo sistema de vigilância. Por meio de inquéritos de
saúde de diversos formatos, o Brasil vem constituindo bases de
dados que permitem a monitorização contínua dos fatores de risco
para DCNT. A proposta que o Brasil vem implementando combina
grandes inquéritos de fatores de risco de abrangência nacional com
inquéritos locais, em municípios, que possam apreender sobre a
diversidade de realidades locais de nosso país. Também estão sendo
realizados inquéritos com metodologias mais simples e rápidas,
como o Vigitel. Essas medidas são aplicadas em grupos
particularmente vulneráveis, como escolares e idosos, a fim de
orientar ou reorientar políticas específicas de redução de fatores de
risco nesses grupos.
O Vigitel tem como objetivo monitorizar a frequência e distribuição
de fatores de risco e proteção para DCNT em todas as capitais dos 26
estados brasileiros e no Distrito Federal, por meio de entrevistas
telefônicas realizadas em amostras probabilísticas da população
adulta residente em domicílios servidos por linhas fixas de telefone.
A indução das ações de prevenção de DCNT e promoção da saúde
constitui uma das principais atividades da área de Vigilância. A partir
da monitorização contínua da prevalência dos fatores de risco da
ocorrência dessas doenças na população e do impacto econômico e
social que elas provocam, é possível construir uma forte
argumentação sobre a necessidade de prevenir DCNTs. Devem-se
mostrar informações e argumentar para convencer os legisladores e
tomadores de decisão de que a prevenção de DCNTs é um
investimento de custo extremamente efetivo.
A monitorização e a avaliação das intervenções também podem ser
consideradas elementos-chave na vigilância das DCNTs. As
atividades atribuídas a essa monitorização permitem retroalimentar
os programas e projetos no sentido de readequar atividades de
prevenção e promoção da saúde.
Você sabe diferenciar os
diferentes modos de realizar
vigilância em saúde?
O Ministério da Saúde do Brasil divide a vigilância em
saúde em alguns componentes: Vigilância Epidemiológica,
Vigilância da Situação de Saúde, Vigilância em Saúde
Ambiental, Vigilância em Saúde do Trabalhador e
Vigilância Sanitária. Entre eles, destaca-se a Vigilância
Epidemiológica, que busca a informação de doenças
específicas na comunidade, principalmente por meio das
doenças de notificação compulsória às autoridades.
As mudanças socioculturais
e o avanço científico fizeram
a população mudar sua
estrutura etária, perfil de
saúde e nutrição. Você sabe
apontar quais são essas
mudanças?

7.1 INTRODUÇÃO
Neste capítulo, um panorama da situação brasileira será apresentado
em 2 aspectos: epidemiológico (frequência de doenças e
mortalidade) e demográfico (perfil da população – idade,
fecundidade, entre outros). Estudar esse panorama é uma
possibilidade de compreender não somente o processo pelo qual
passou o perfil de morbimortalidade nesse último século, mas,
sobretudo, de estar preparado para o constante processo de
modificação que continuará a acompanhar a população de maneira
variável.
As transformações sociais e econômicas ocorridas no Brasil durante
o século passado ainda provocam mudanças importantes no perfil de
ocorrência das doenças na população (BRASIL, 2011). As mudanças
nos níveis de mortalidade têm efeito sobre o ritmo de crescimento
populacional e afetam significativamente a composição etária,
levando a um processo de envelhecimento que aumenta o peso
relativo da população idosa. Isso favorece a ocorrência das doenças
crônicas e degenerativas, como as neoplasias e as doenças de
aparelho circulatório, e modifica a estrutura de mortalidade,
segundo a causa de óbito (MONTEIRO, 2000).
O processo de transição demográfica, com queda nas taxas de
fecundidade e natalidade, e o progressivo aumento na proporção de
idosos (diminuição das taxas de mortalidade) favoreceram o
aumento das doenças crônico-degenerativas (doenças
cardiovasculares, câncer, diabetes, doenças respiratórias). A
transição nutricional, com diminuição expressiva da desnutrição e
aumento do número de pessoas com excesso de peso (sobrepeso e
obesidade), e o aumento dos traumas decorrentes das causas
externas – violências, acidentes e envenenamentos – foram os
fatores responsáveis pelo cenário de mudança que vivenciamos na
Epidemiologia Médica (BRASIL, 2011).
Na primeira metade do século 20, as doenças infecciosas
transmissíveis eram as causas mais frequentes de morte. A partir de
1960, as Doenças e Agravos Não Transmissíveis (DANTs) passaram a
assumir esse papel (BRASIL, 2011).
Projeções para as próximas décadas apontam para crescimento
epidêmico das DANTs na maioria dos países em desenvolvimento,
em particular das doenças cardiovasculares, neoplasias e diabetes
tipo 2. Essas doenças respondem pelas maiores taxas de
morbimortalidade e por cerca de mais de 70% dos gastos
assistenciais com a saúde no Brasil, com tendência crescente. Assim,
o desenvolvimento de estratégias para o controle das DANTs
tornou-se uma das prioridades para o Sistema Único de Saúde (SUS).
A vigilância epidemiológica das DANTs e dos seus fatores de risco é
fundamental para a implementação de políticas públicas voltadas à
prevenção e ao controle (BRASIL, 2011).
7.2 TRANSIÇÃO DEMOGRÁFICA
Com os avanços da Revolução Industrial e seus desdobramentos
educacionais, científicos e tecnológicos, ficou claro que o
desenvolvimento econômico produz 2 efeitos sobre a população:
a) Reduz as taxas de mortalidade, em geral, e a mortalidade infantil,
em particular, e possibilita o aumento da esperança de vida da
população;
b) Depois de certo tempo do início da queda da mortalidade, as taxas
de fecundidade também começam a cair, provocando a diminuição do
tamanho das famílias.

Esse fenômeno, típico do século 20, foi chamado de “transição


demográfica”. Um ganho inequívoco foi que a expectativa de vida
média da população mundial dobrou em 10 décadas, passando de
cerca de 30 anos, em 1900, para mais de 60 anos, em 2000. Nunca,
na história, uma melhora das condições de saúde dessa magnitude
havia acontecido. No mesmo período, um fenômeno social sem
precedentes aconteceu com as taxas de fecundidade do mundo,
reduzidas pela metade, passando de menos do que 6 filhos por
mulher, em 1900, para cerca de 2,8 filhos, em 2000 (ALVES;
CAVENAGHI, 2008).
O modelo de transição demográfica mais difundido foi proposto por
Warren Thompson, em 1929. Com relação a este, Vermelho e
Monteiro (2009) explicam que, inicialmente, ocorre a queda de
mortalidade, que irá produzir ganho de vidas humanas em todas as
idades, podendo não alterar a estrutura etária de uma população. O
fator decisivo para o envelhecimento de uma população é a queda da
fecundidade, isto é, a diminuição relativa de contingentes
populacionais nas faixas etárias mais jovens e a ampliação da
população nas faixas etárias mais idosas. Assim, são identificados 4
estágios da transição demográfica, explicados a seguir:
1. Fase pré-industrial ou primitiva: é aquela na qual há equilíbrio entre
as taxas de mortalidade (principalmente infantil) e natalidade, contudo
ainda são elevadas;
2. Fase intermediária 1: é aquela de “divergência de coeficientes”, na
qual as taxas de natalidade permanecem altas, enquanto decrescem
as taxas de mortalidade. O ritmo de crescimento populacional aumenta
nessa fase, caracterizando a chamada “explosão populacional”;
3. Fase intermediária 2: é aquela de “convergência de coeficientes”,
quando a natalidade passa a diminuir em ritmo mais acelerado do que
a mortalidade, cujo efeito mais notável é um rápido “envelhecimento”
da população;
4. Fase moderna ou de pós-transição: existe a aproximação dos
coeficientes, só que em níveis muito mais baixos. Existe tendência à
estabilidade populacional, ou seja, os valores de fecundidade
aproximam-se do nível de reposição, o que tem aumentado a
esperança de vida. Em geral, a população envelhece com a ampliação
da proporção de mulheres.

Figura 7.1 - Etapas da transição demográfica

Legenda: a linha verde refere-se à taxa de natalidade; a linha roxa, à taxa de mortalidade e
a linha laranja, à população total. O preenchimento azul entre as linhas verde e roxa resulta
no crescimento natural da população.
Fonte: adaptado de World population growth, 2019.

Existe, atualmente, a discussão sobre uma possível quinta etapa, em


que a mortalidade superará a natalidade, devido ao alto custo de
criar filhos (principalmente em países desenvolvidos). As famílias,
por essa razão, optam por um número reduzido de filhos
(geralmente 1 ou nenhum). Esse fato levará a população ao
crescimento negativo, que será demarcado por maior proporção de
idosos em relação aos jovens, podendo acarretar sérios problemas
para os planos previdenciários de países nessa fase, além de
demandar uma importante reorganização dos serviços de saúde, a
fim de atender às necessidades de saúde de uma população mais
idosa.
7.2.1 Transição demográfica no Brasil
A transição demográfica é um dos fenômenos estruturais
populacionais importantes que têm marcado a economia e a
sociedade brasileira desde a segunda metade do século passado.
Caracteriza-se pela sua universalidade, mas é fortemente
condicionada ao contexto histórico em que se dá nos vários países. A
diferença com relação aos países desenvolvidos e sua semelhança
com os outros em desenvolvimento não esgotam a sua peculiaridade.
O notável crescimento da população brasileira a partir da década de
1950, que ainda se prolongará na primeira metade do século 21,
mostra com clareza 2 fases da transição demográfica. A primeira,
com um acelerado crescimento demográfico em função do declínio
da mortalidade e da manutenção da fecundidade em um patamar
extremamente alto, até a segunda metade da década de 1960. E a
segunda, quando a fecundidade começa a declinar e o ritmo de
crescimento da população inicia a sua desaceleração (BRITO, 2007).
No Brasil, a transição demográfica tem sido muito mais acelerada do
que nos países desenvolvidos, sem se diferenciar, entretanto, do que
têm passado outros países latino-americanos e asiáticos. Um bom
indicador tem sido o rápido declínio da fecundidade. Comparando o
Brasil com a França e a Itália, observa-se um expressivo diferencial
nas respectivas taxas de fecundidade total, já no início do século
passado, e, nos 2 países europeus, um declínio muito mais suave nos
100 anos seguintes, sendo que as suas transições demográficas já
tinham se iniciado no século anterior (BRITO, 2007).
Entre os anos 1940 e 1960, o Brasil experimentou um declínio
significativo da mortalidade, com ênfase para o coeficiente de
mortalidade infantil a partir da década de 1970. Pode-se afirmar que
esse fenômeno ocorreu de maneira desigual nas diferentes grandes
regiões do país. Nos últimos anos, por exemplo, notou-se uma queda
brusca nesse indicador para as regiões Sul, Sudeste e Centro-Oeste,
ao passo que o Norte e o Nordeste ainda mantêm números elevados.
Segundo o IBGE (1999), essa queda parece ser fortemente
dependente do modelo de intervenção na área das políticas públicas
adotado principalmente nos campos da Medicina Preventiva,
Medicina Curativa e de Saneamento Básico e, mais recentemente, na
ampliação dos programas de saúde maternoinfantil, sobretudo os
voltados para o pré-natal, parto e puerpério. Além disso, houve a
ampliação da oferta de serviços médico-hospitalares em áreas do
país até então bastante carentes, as campanhas de vacinação e os
programas de aleitamento materno e reidratação oral.
Curiosamente, o mesmo fenômeno não ocorreu com a fecundidade,
que se manteve em níveis bastante altos até a década de 1970 e
resultou em uma taxa de natalidade continuamente elevada,
produzindo, assim, uma população quase estável, jovem e com
rápido crescimento (Figura 7.2). Atualmente, a taxa de fecundidade
está em queda.
#IMPORTANTE
Uma das principais justificativas para a queda
da taxa de fecundidade é a mudança do perfil
do público feminino perante a sociedade,
passando do papel predominantemente de
mãe/esposa ao de parte da classe trabalhadora.

Carvalho e Rodríguez-Wong (2008) explicam que essa


transformação implica a diminuição, em termos relativos (e, às
vezes, transitoriamente, em termos absolutos), da população jovem.
No caso do Brasil, a porcentagem de crianças com menos de 5 anos
reduziu-se, entre 1970 e 1990, de 15 para 11%. A participação do
grupo etário de 5 a 9 anos declinou de 14 para 12%. A proporção de
crianças nesses 2 grupos de idade continuou a decrescer, chegando,
em 2000, a tamanhos similares (cada um representava cerca de 9%
da população total). Complementarmente, os grupos mais velhos
aumentaram sua participação: a população de 65 anos ou mais, por
exemplo, aumentou de 3,1%, em 1970, para 5,5%, em 2000.
Figura 7.2 - Taxas brutas de natalidade, mortalidade e crescimento populacional

Legenda: a chave vermelha representa ponto de elevado crescimento populacional.


Fonte: adaptado de A transição demográfica e a janela de oportunidade, 2008.

Segundo Brito (2007), as modificações na estrutura etária do Brasil


têm sido notáveis, indicando uma aceleração do envelhecimento da
população.
As pirâmides etárias, entre 1980 e 2050, mostram, no século 21, cada
vez mais, a sua passagem de uma forma típica de um país com forte
predominância de sua população jovem (pirâmide com base larga e
ápice estreito) para um novo formato, semelhante ao dos países hoje
desenvolvidos, onde a proporção de idosos tende a superar a dos
jovens (base estreitada e ápice alargado).
Em um retrato atual, esse fenômeno já pode ser visto de maneira
bem mais clara (Figura 7.3).
Figura 7.3 - Distribuição etária relativa para o Brasil
Fonte: adaptado Censo 2010, 2010.

Os resultados do Censo 2010 indicaram o total de 190.732.694


pessoas para a população brasileira em 1 de agosto, data de
referência. Em comparação com o Censo 2000, houve aumento de
20.933.524 pessoas. Esse número demonstra que o crescimento da
população brasileira no período foi de 12,3%, inferior ao observado
na década anterior (15,6% entre 1991 e 2000). Esse censo mostra,
também, que a população é mais urbanizada do que há 10 anos: em
2000, 81% dos brasileiros viviam em áreas urbanas, ao passo que
agora são 84% (IBGE, 2010).
A relação entre os sexos também se modificou, uma vez que existem
agora 95,9 homens para cada 100 mulheres, ou seja, existem 3,9
milhões de mulheres a mais do que homens no Brasil. Em 2000, para
cada 100 mulheres, havia 96,9 homens. A população brasileira é
composta por 97.342.162 mulheres e 93.390.532 homens. A
expectativa de vida para ambos os sexos subiu de 70 anos, em 1999,
para 73,1 anos, em 2010 (IBGE, 2010).
Figura 7.4 - Pirâmide etária da população brasileira

Fonte: Tábua completa de mortalidade para o Brasil – 2017, 2018.

A estrutura etária atual é marcada por grande proporção de mulheres


em idade reprodutiva, o que favorece o crescimento populacional,
apesar dos baixos níveis de fecundidade atualmente prevalentes
(RODRÍGUEZ-WONG; CARVALHO, 2006). Devido a isso, ainda se
deve esperar um crescimento expressivo da população brasileira nas
próximas décadas, em razão dos efeitos da fecundidade passada
sobre a estrutura etária da população (BRITO, 2007).
As projeções para 2050 indicam que a população brasileira será de
253 milhões de habitantes, a quinta maior do planeta, abaixo apenas
da Índia, da China, dos Estados Unidos e da Indonésia. Da década de
1970 até a atual, a população brasileira ainda está inserida em seu
grande ciclo de crescimento absoluto, com acréscimos médios
anuais superiores a 2,5 milhões de habitantes. Na próxima década,
esses acréscimos serão ainda superiores a 2 milhões. Contudo, como
previsto, as taxas de crescimento têm-se reduzido nesse mesmo
período, e espera-se que, na última década da primeira metade desse
século, ou seja, entre 2040 e 2050, essa taxa seja menor do que 0,5%
ao ano e, na década seguinte, em torno de zero (BRITO, 2007).
A transição demográfica é um dos principais fatores que acarretam a
transição epidemiológica, o que significa que o perfil de doenças da
população muda de modo radical, pois se deve aprender a controlar
primordialmente as doenças do idoso. Em um país essencialmente
jovem, as doenças são caracterizadas por eventos causados por
moléstias infectocontagiosas, cujo modelo de resolução se baseia no
dualismo cura-morte. O perfil de doenças no idoso muda para o
padrão de doenças crônicas.
Nessa situação de transição demográfica, devemos considerar a
possibilidade de compensação/não compensação. O modelo de não
compensação da doença crônica inclui maior disfunção, dependência
e quedas em relação ao de compensação (NASRI, 2008).
7.3 TRANSIÇÃO EPIDEMIOLÓGICA
Entendem-se por transição epidemiológica as mudanças ocorridas
no tempo, nos padrões de morte, na morbidade e na invalidez que
caracterizam uma população específica e que, em geral, ocorrem em
conjunto com outras transformações demográficas, sociais e
econômicas (SANTOS-PRECIADO et al., 2003; SCHRAMM et al.,
2004). Essa transição pode ser dividida em 4 principais estágios,
com um quinto em potencial (VERMELHO; MONTEIRO, 2009).
1. Primeiro estágio: período das pragas e da fome – níveis de
mortalidade e fecundidade elevados com predominância de doenças
infecciosas e parasitárias, desnutrição e problemas de saúde
reprodutiva (nesse período, ocorre crescimento populacional lento,
demarcado pela esperança de vida oscilando entre 20 e 40 anos e por
taxas de natalidade e mortalidade elevadas);
2. Segundo estágio: período do desaparecimento das pandemias de
doenças infectocontagiosas com mortalidade em declínio,
acompanhado por queda de fecundidade (possui variações
importantes no espaço e no tempo);
3. Terceiro estágio: período das doenças crônico-degenerativas e
causas externas (provocadas pelo homem), com mortalidade e
fecundidade em baixa;
4. Quarto estágio: período do declínio da mortalidade por doenças
cardiovasculares, envelhecimento populacional, modificações no
estilo de vida, ocorrência de doenças emergentes e ressurgimento de
doenças;
5. Quinto estágio: período de longevidade paradoxal, emergência de
doenças enigmáticas e capacitação tecnológica para a sobrevivência
do inapto.
Sob a óptica de um dos modelos de transição epidemiológica
corrente, a chamada “transição clássica das sociedades ocidentais”,
durante os últimos 200 a 300 anos, os primeiros 4 estágios
ocorreram quase sequencialmente nas sociedades do Ocidente, com
apenas pequenas superposições (VERMELHO; MONTEIRO, 2009).
Segundo Schramm et al. (2004), o processo pode ser sintetizado em
3 mudanças básicas: substituição das doenças transmissíveis por
doenças não transmissíveis e causas externas; deslocamento da
carga de morbimortalidade dos grupos mais jovens aos grupos mais
idosos; transformação de uma situação em que predomina a
mortalidade para outra na qual a morbidade é dominante.
A definição da transição epidemiológica deve ser considerada
componente de um conceito mais amplo, chamado transição da
saúde, que inclui elementos das concepções e dos comportamentos
sociais, correspondentes aos aspectos básicos da saúde nas
populações humanas.
Muitos epidemiologistas compactuam com a ideia de que existe uma
correlação direta entre os processos de transição epidemiológica e
demográfica. Sabe-se que, inicialmente, o declínio da mortalidade se
concentra seletivamente entre as doenças infecciosas e tende a
beneficiar os grupos mais jovens da população, que passam a
conviver com fatores de risco associados às doenças crônico-
degenerativas. À medida que cresce o número de idosos e aumenta a
expectativa de vida, as doenças não transmissíveis tornam-se mais
frequentes (CHAIMOWICZ, 1997; SCHRAMM et al., 2004).
7.3.1 Transição epidemiológica no Brasil
No Brasil, a transição epidemiológica não tem ocorrido de acordo
com o modelo experimentado pela maioria dos países
industrializados, nem mesmo por vizinhos latino-americanos como
Chile, Cuba e Costa Rica.
Há superposição entre as etapas nas quais predominam as doenças
transmissíveis e crônico-degenerativas. A reintrodução de doenças
como dengue e cólera ou o recrudescimento de outras como a
malária, a hanseníase e as leishmanioses indicam uma natureza não
unidirecional denominada contratransição. O processo não se
resolve de maneira clara, criando uma situação em que a
morbimortalidade persiste elevada para ambos os padrões,
caracterizando uma transição prolongada.
Schramm et al. (2004) acrescentam que o envelhecimento rápido da
população brasileira a partir da década de 1960 fez que a sociedade
deparasse com um tipo de demanda por serviços médicos e sociais
outrora restrito aos países industrializados. O Estado, ainda às voltas
em estabelecer o controle das doenças transmissíveis e a redução da
mortalidade infantil, não foi capaz de desenvolver e aplicar
estratégias para a efetiva prevenção e o tratamento das doenças
crônico-degenerativas e suas complicações, levando à perda de
autonomia e qualidade de vida (CHAIMOWICZ, 1997).
A mortalidade por causas é o indicador que melhor caracteriza a
transição epidemiológica, embora sejam importantes as abordagens
por idade e por sexo. No Brasil, observando-se a evolução da
mortalidade proporcional pelas principais causas, pode-se ter ideia
da mudança na estrutura de mortalidade ocorrida entre 1930 e 2000
(VERMELHO; MONTEIRO, 2009). Repare, sobretudo, que o
comportamento das doenças infecciosas e parasitárias tem mudado
ao longo das décadas, em decorrência do avanço técnico na área de
Saúde, de medidas de controle do meio ambiente e progressos na
assistência à saúde. Já as doenças crônico-degenerativas se
destacam, e as doenças do aparelho circulatório representam, desde
a década de 1990, mais de 30% de todos os óbitos (Figura 7.5).
Em 1980, a principal causa de morte era a decorrente de doenças do
aparelho circulatório, o que permaneceu em 2000. Entre os 10
principais grupos de causas, foram observadas algumas mudanças
significativas no ranking entre 1980 e 2000. Uma dessas alterações é
o aumento da participação das neoplasias. Em 1980, essa causa
correspondia ao quinto lugar, passando ao terceiro lugar em 2000.
Outras mudanças importantes foram o aumento das mortes por
doenças do aparelho respiratório e a redução das infecciosas e
parasitárias (Brasil, 2005).
Figura 7.5 - Mortalidade proporcional por causas no Brasil, entre 1930 e 2009

Fonte: adaptado de Amostragem probabilística, 2004.

Em 2016, cerca de 75% das mortes estavam concentradas em


doenças crônicas não transmissíveis, 12% em causas externas e 11%
em doenças transmissíveis, maternas, neonatais e nutricionais. Na
década de 1990, por exemplo, as doenças crônicas não
transmissíveis respondiam por 60% dos óbitos, seguidas por 25%
em doenças transmissíveis, maternas, neonatais e nutricionais, e
14% por causas externas. Afora as 9 maiores causas de óbitos
definidas, os demais capítulos da 10ª edição da Classificação
Internacional de Doenças (CID-10) representam apenas 5,1% do
total. As causas externas continuam a representar uma importante
causa de óbitos no Brasil, com aumento expressivo de participação
de algumas regiões específicas.
Quadro 7.1 - Ranking das principais causas de morte no Brasil
Com relação à idade, a mortalidade proporcional em menores de 1
ano, que representava, em 1980, cerca de 25% de todos os óbitos, em
2008 caiu para menos de 5%, enquanto nas idades a partir de 80
anos passou de 10% para mais de 30%. Para Vermelho e Monteiro
(2009), as diferenças regionais importantes devem ser consideradas
como efeitos das crises econômicas e sociais vividas pela população
de cada região brasileira e mesmo em cada estado e município.
Para o Brasil e todas as regiões, é evidente um pico de mortalidade
entre os homens de idades entre 20 e 29 anos que não é observado
nas mulheres. Em 2008, os óbitos masculinos nessa faixa etária
corresponderam a 7,2% do total de óbitos de homens no Brasil: 5,8%
na região Sudeste, 6,1% na região Sul, 8,5% na região Centro-Oeste,
9% na região Nordeste e 11% na região Norte (BRASIL, 2010). Esse
excesso de mortalidade entre os homens jovens pode ser atribuído,
em grande parte, aos óbitos por causas externas, que incluem
aqueles por violências e acidentes.
A substituição do padrão epidemiológico, por meio da diminuição
das mortes por doenças infecciosas, pelo padrão de morte de
doenças cardiovasculares, significou ganho de anos de vida
potenciais que persistem. No entanto, para os jovens e adultos do
sexo masculino, a transição não ocorreu da mesma forma, e as
grandes epidemias de doenças infecciosas e parasitárias foram ao
longo do tempo substituídas por outras, como a violência,
responsável por grande perda de vida na atualidade (VERMELHO;
MONTEIRO, 2009).
7.4 TRANSIÇÃO NUTRICIONAL
Tanto o Brasil quanto diversos países da América Latina estão
experimentando, nos últimos 20 anos, uma transição nutricional
que acompanha as transições demográfica e epidemiológica. Chama
atenção o marcante aumento na prevalência de obesidade nos
diversos subgrupos populacionais para quase todos os países latino-
americanos. Assim, a obesidade se consolidou como agravo
nutricional associado à alta incidência de doenças cardiovasculares,
câncer e diabetes, influenciando sobremaneira o perfil de
morbimortalidade das populações.
Estudos confirmam a magnitude crescente da obesidade em
crianças, adolescentes, adultos e mulheres em idade reprodutiva. Os
determinantes são o estilo de vida sedentário e o consumo de dietas
inadequadas.
A obesidade deixou de ser um problema presente apenas nos países
desenvolvidos, passando a afetar cada vez mais os grupos
populacionais menos favorecidos; assim, passa a demandar
intervenções e apoio governamental para a implementação de ações
claras para a promoção da saúde física, do controle do peso e da
ingesta de alimentos saudáveis.
As mudanças socioculturais
e o avanço científico fizeram
a população mudar sua
estrutura etária, perfil de
saúde e nutrição. Você sabe
apontar quais são essas
mudanças?
As mudanças ocorridas da estrutura etária da população
são principalmente a redução das taxas de mortalidade,
mortalidade infantil, aumento da expectativa de vida e a
redução da taxa de fecundidade, o que faz que haja um
estreitamento da base da pirâmide etária. Quanto à saúde,
no Brasil, principalmente, ainda existe um número
significativo de doenças infectocontagiosas, porém
também há um aumento das doenças crônicas não
transmissíveis e aumento de morte por causas externas.
Igualmente se observa, nutricionalmente, um aumento da
obesidade em todos os países latino-americanos e uma
mudança de estilo de vida para o sedentário.
Qual é a diferença entre
significância clínica e
significância estatística?

8.1 INTRODUÇÃO
Você já deve ter deparado várias vezes com a seguinte frase: “Fumar
causa câncer de pulmão”. Embora a sentença tenha forte impacto,
sabe-se que, do ponto de vista epidemiológico, essa afirmação
categórica não é 100% verdadeira, uma vez que existem pessoas que
fumam e nunca desenvolverão câncer de pulmão ou qualquer outra
doença associada a esse hábito. De fato, o que existe é uma
associação que começou a ser demonstrada a partir da década de
1950 pelos famosos trabalhos de Doll e Hill (1950-1954). Esses
estudos, além de evidenciarem a íntima relação tabaco versus câncer
de pulmão, demonstraram a correspondência entre o aparecimento
da neoplasia do pulmão e a quantidade de tabaco nos pacientes.
O pressuposto primordial para entender a discussão que será
iniciada é que a doença não surge ao acaso (aleatoriamente), ou seja,
existem fatores associados a maior ou menor frequência
(prevalência ou incidência), alguns que contribuem para o seu
surgimento (fatores de risco) e outros cujo caráter protege o
indivíduo (fatores de proteção).
Para os procedimentos de análise de estudos científicos, a
Epidemiologia é servida por uma disciplina chamada Estatística, ou,
mais precisamente, Bioestatística. Segundo Pereira (2010), a
Estatística é uma disciplina das ciências formais (despida de objeto,
tratando apenas de estrutura conceitual, lógica e epistemológica do
conhecimento) à qual diferentes ciências empíricas (com objeto
definido) recorrem para conhecer melhor os assuntos de seu
interesse. O prefixo “bio” para Bioestatística busca apenas dar-lhe o
sentido de aplicação às Ciências Biológicas e da Saúde, não havendo
nada conceitualmente diferente.
Em Epidemiologia, os assuntos nos quais se busca maior
entendimento são as relações que diversas variáveis do indivíduo, do
tempo e do espaço estabelecem com determinados desfechos, que,
muitas vezes, são as doenças de interesse do pesquisador, ficando
explícito que o ponto central de uma avaliação está alocado na
investigação da associação e do efeito de variáveis independentes
(fatores ou variáveis de exposição) sobre uma variável dependente
(variável desfecho).
Para ilustrar essa situação, imagine o seguinte: choveu muito a noite
toda e o nível dos rios estará elevado. Existe relação direta entre as
águas das chuvas e as dos rios, ou seja, elas estão associadas. Nesse
caso, seria possível, ainda, medir a influência da variável
independente (chuva) sobre a dependente (nível dos rios) e, de certo
modo, conhecer a influência que a variabilidade de uma exerce sobre
a da outra.
A associação, muitas vezes, indica que uma variável possa estar no
“caminho da causalidade” de determinado desfecho, contudo essa
relação pode existir pelo simples acaso ou por alguma distorção,
como o efeito de confusão ou algum erro sistemático. Existem, na
atualidade, tratamentos adequados que possibilitam ao pesquisador
fazer essas considerações, embora outras questões também sejam
importantes para abordar em inferência causal.
Tendo em vista que a Bioestatística está servindo a Epidemiologia
como uma ferramenta aplicada, torna-se necessária a utilização de
uma estrutura didática para direcionar o leitor. Almeida Filho e
Rouquayrol (2002) sugerem que as seguintes perguntas sejam
realizadas pelos interessados neste momento:
a) “Em que medida (com que intensidade) ocorre a doença Y?”;
b) “Na presença de que condições/fatores a doença Y se manifesta?”;
c) “Qual é a possibilidade de a associação entre a doença Y e o fator X
se dever ao acaso?”.

A organização dessas perguntas, segundo os autores, permite uma


discussão que pode ser sintetizada em 3 etapas: as medidas de
ocorrência, as medidas de associação e as medidas de significância
estatística.
8.2 CLASSIFICAÇÃO DE VARIÁVEIS
Podemos afirmar, de modo geral, que existem 2 funções primordiais
da estatística. A primeira função é avaliar a magnitude da associação
entre variáveis. Variáveis são atributos que mudam de pessoa para
pessoa, como cor dos olhos, ser tabagista/não tabagista, níveis de
colesterol etc. Magnitude da associação é o quanto uma variável
impacta outra. Por exemplo, ter história familiar de dependência
química de drogas de abuso (variável = história familiar) aumenta
em 7 vezes o risco (magnitude da associação) de ser dependente
químico de drogas de abuso (variável = ser dependente químico). A
segunda grande função da estatística é avaliar o grau de erro
amostral dos resultados obtidos; ou seja, o quanto esses resultados
são decorrentes da aleatoriedade de não se trabalhar com uma
população inteira teoricamente infinita. O primeiro passo para obter
esses dados é utilizar um linguajar comum, que permita a realização
de testes estatísticos adequados para cada situação. Desse modo,
precisamos classificar as variáveis para a escolha do teste estatístico.
Existem 2 grandes classificações de variáveis, com funções
diferentes, explicitadas nos Quadros 8.1 e 8.2.
Quadro 8.1 - Classificação de variáveis, conforme a sua função no teste estatístico
Quadro 8.2 - Classificação de variáveis, conforme a sua natureza matemática
Se você deparar com uma questão que pede a diferenciação entre
variáveis quantitativas ou qualitativas e ficar na dúvida, lembre-se
desta dica: variáveis quantitativas aceitam sua descrição em termos
de média e desvio-padrão (por exemplo, a idade média de um estudo
foi de 40 anos de idade). Já as variáveis qualitativas não aceitam a
sua descrição dessa maneira e precisam ser descritas em termos de
porcentagem (por exemplo, no estudo em questão, houve uma
proporção de mulheres de 60%).
8.3 MEDIDAS DESCRITIVAS
Para a descrição de variáveis quantitativas contínuas e discretas, são
utilizadas as medidas de tendência central (média, mediana e moda)
e de dispersão (variância e desvio-padrão). Para a descrição de
variáveis qualitativas, são utilizadas as medidas de ocorrência
(frequências absolutas e relativas).
Medidas de ocorrência, ou frequências, são usadas para descrever
variáveis qualitativas. A frequência absoluta é a contagem das
ocorrências de uma das categorias. Para facilitar a interpretação dos
resultados, as frequências relativas (proporção de elementos que
pertencem a uma categoria em relação ao conjunto) são calculadas
em termos de percentuais, assim se torna possível a comparação dos
dados.
Um banco de dados proveniente de uma pesquisa hipotética servirá
para exemplificar a utilização dessas medidas de maneira prática.
Imagine que esses dados são oriundos de pacientes selecionados no
serviço ambulatorial de um hospital e que o objetivo dos
pesquisadores era estudar a frequência de certa lesão cardíaca.
Foram avaliadas algumas variáveis do indivíduo e realizados alguns
exames laboratoriais. A presença ou a ausência da doença foi
definida por uma avaliação clínica e um exame de imagem (Quadro
8.3).
Quadro 8.3 - Banco de dados hipotético com diferentes tipos de variáveis
1 Em um banco de dados de análise estatística, não é necessário o registro do nome dos
indivíduos.

8.3.1 Medidas de tendência central


Entre as medidas utilizadas para sintetizar variáveis quantitativas,
encontram-se as de tendência central, que indicam o centro de uma
distribuição. As principais são média (média aritmética), mediana e
moda.
8.3.1.1 Média (média aritmética)
Trata-se de uma medida de resumo vastamente aplicada a variáveis
quantitativas. Como em medidas quantitativas o atributo é expresso
com intensidade, isso significa que a média é o valor que,
multiplicado pelo número de elementos do grupo, resulta em um
total, que é o mesmo da soma de valores de cada elemento.
A média aritmética é obtida quando se somam os valores de cada um
dos elementos (Xi) e divide-se pelo número de elementos (n), ou
seja, a soma dos valores observados dividida pelo tamanho da
amostra (Fórmula 8.1). É importante lembrar que a média sofre a
influência de valores extremos.
Fórmula 8.1 - Média aritmética

Toma-se, a seguir, a variável “glicose” para o cálculo de média.


Na prática, não será encontrado nenhum indivíduo com 124,88
mg/dL. Isso ocorre porque a média é uma expectativa ou estimativa,
refletindo o ponto central da distribuição da variável.
8.3.1.2 Mediana

A mediana é o ponto central da distribuição, que é obtido após todas


as observações serem colocadas em ordem crescente (ou
decrescente), de acordo com o seu valor.
#IMPORTANTE
A mediana é o valor que divide uma sequência
ordenada de dados em 2 partes iguais.
A mediana traduz o ponto de corte em que estão 50% das
ocorrências (acima ou abaixo) e pode ser obtida por meio da Fórmula
8.2, em que “n” se refere ao número de observações ou tamanho da
amostra avaliada.
Fórmula 8.2 - Ponto de Posicionamento da mediana (PP)

Toma-se, novamente, a variável “glicose” para o cálculo da


mediana.
Sabe-se agora que o valor que corresponde ao meio da distribuição
pertence ao indivíduo 13, e a mediana se refere exatamente ao valor
desse indivíduo, 120 mg/dL. Repare que, para chegar ao décimo
terceiro indivíduo, os dados foram ordenados. Na prática, isso
significa que 50% dos valores de glicose existentes estão aquém e
além de 120 mg/dL.
Quadro 8.4 - Valores de glicose em ordem crescente, para calcular a mediana
Podem ocorrer situações em que o número de observações é par, ou
seja, a distribuição não tem ponto médio. Nesse caso, a média dos 2
valores centrais resultará na mediana. Imagine que, no exemplo do
Quadro 8.4, o último indivíduo não existisse; a amostra total seria de
24 indivíduos, a posição resultante seria 12,5 (24 + 1/2), e a mediana,
117,50 (120 + 115/2).
Por ser uma medida de posição, a mediana é útil em situações em
que alguns valores são muito maiores do que os demais, já que não é
influenciada pelos extremos da variável. Pereira (2010) explica que,
entre os tantos percentis que se podem considerar, além do 50
(mediana), comumente se utilizam o 25 e o 75, também chamados
de 1º (Q1) e 3º (Q3) quartis.
8.3.1.3 Moda

A moda indica o valor que aparece o maior


número de vezes na amostra estudada.

A moda, embora seja simples, é outra medida importante de


tendência central, indicando o valor que aparece com maior
frequência na amostra. Não será necessária uma fórmula para obter
a moda; basta observar o valor que aparece com maior frequência.
A variável idade, disponível no Quadro 8.3, será utilizada como
exemplo. Observe que o valor mais frequente é o 28, que apareceu 4
vezes. Pode-se afirmar, então, que a moda das idades dessa amostra
é de 28 anos (Figura 8.1).
Figura 8.1 - Gráfico de barras para a variável idade (anos), mostrando que a moda é a
idade de 28 anos
8.3.2 Medidas de dispersão ou variabilidade
As medidas de tendência central fornecem um resumo apenas
parcial das informações de um conjunto de dados. É possível que
você encontre 2 amostras de indivíduos com médias de idade
semelhantes – por exemplo, 30 anos – porém, tratarem-se de
amostras completamente diferentes. Por exemplo, uma que inclua
desde indivíduos adolescentes até idosos e outra com muitos
indivíduos entre 25 e 35 anos. Portanto, a necessidade de uma
medida de variação é evidente, para que possamos comparar
conjuntos diferentes de valores.
8.3.2.1 Variância
As medidas de dispersão ou variabilidade pertencem a outro grupo
de medidas utilizadas para resumir dados. Seu principal objetivo é
indicar quão diferentes são os indivíduos em uma amostra, isto é,
como as informações se distribuem em torno da média/mediana.
Uma das medidas que contemplam a necessidade de expressão de
variabilidade, bastante utilizada, é a variância, representada por 2
símbolos: ² para população (parâmetro) Fórmula 8.3 e s² para uma
amostra (estimador) Fórmula 8.4.
O denominador “n - 1”, na Fórmula 8.4, tem o propósito de tornar a
variância da amostra na estimativa da variância da população.
Trata-se de uma correção do grupo pelos chamados graus de
liberdade, que se referem ao número de determinações
independentes (dimensão da amostra) menos o número de
parâmetros estatísticos a serem avaliados na população (BROD,
2004).
Fórmula 8.3 - Variância para universo

Fórmula 8.4 - Variância para amostra


Na prática, a variância é uma medida que expressa um desvio
quadrático médio (medida do quadrado da distância do valor
observado menos a média). A unidade da variância é, portanto, o
quadrado dos dados originais. Por exemplo, para dados expressos
em centímetros, a variância será expressa em cm².
Toma-se, novamente, a variável “glicose” para o cálculo da
variância. Como se trata de medidas provenientes de um grupo de
observações, será utilizada a Fórmula 8.4. Os valores podem ser
visualizados na Tabela 8.1. Seguem os procedimentos para obtenção
da variância:
1. Passo 1: calcula-se a média aritmética para a variável glicose
(124,88 mg/dL);
2. Passo 2: calcula-se o desvio médio para cada valor obtendo-se a
diferença que cada indivíduo apresenta em relação à média: Xi –
média aritmética;
3. Passo 3: note que existem valores negativos (variaram aquém da
média) e valores positivos (variaram além da média). Esses valores
tendem à anulação quando somados. O problema é resolvido ao
elevar cada um deles ao quadrado: (Xi – média aritmética)2 ;
4. Passo 4: o que existe, agora, é um valor de variação quadrática
individual em relação à média. A soma desses valores resulta em
34.018,64 (mg/dL)², que é a soma dos quadrados geral, de todo o
grupo;
5. Passo 5: é necessário que esse valor seja repartido entre os
indivíduos que contribuíram. Divide-se, então, o valor pelo número
de indivíduos observados, considerando-se os graus de liberdade da
amostra “n - 1”. O resultado é uma variância de s² = 1.417,44
(mg/dL)².
Tabela 8.1 - Procedimento de cálculo de variância para uma amostra
Do ponto de vista prático, a variância torna-se uma medida de difícil
entendimento. O leitor pode ater-se ao fato de a variação estar
expressa em unidades ao quadrado, fenômeno que só pode existir do
ponto de vista matemático. Para dar sentido prático a essa medida,
surge o conceito de desvio-padrão.
8.3.2.2 Desvio-padrão

#IMPORTANTE
O desvio-padrão sugere uma variação aceitável
dentro da amostra analisada, indicando a
distância média das observações em relação à
média.

Para resolver o problema da dimensão quadrática vinda do cálculo de


variância, deve-se calcular a raiz quadrada do resultado; o valor
obtido será o desvio-padrão (s). Com esse procedimento, recupera-
se a dimensão original da variável. Pereira (2010) explica que o
desvio-padrão sugere uma variação média da variável analisada,
uma variação esperada, uma variação que seja um padrão de
comportamento no grupo. O cálculo pode ser feito com a Fórmula
8.5.
Fórmula 8.5 - Desvio-padrão
Aplicando-se para a variável “glicose”, o desvio-padrão resultante é
s = 37,64 mg/dL. Em outras palavras, em termos de variação, existe
um padrão de 37,64 mg/dL para além ou aquém da média de 124,88
mg/dL.
Se a questão do desvio-padrão ainda estiver confusa, acompanhe a
seguinte ilustração proposta por Pereira (2010): um indivíduo vai à
feira para comprar bananas. Contudo, ele não sabe o quanto da fruta
quer levar. Com o objetivo de não errar muito, ele pergunta ao
feirante qual é o número de bananas que as pessoas, em geral,
compram. O feirante responde que são, em média, 12 unidades. O
cliente, pensativo, acredita que, talvez, 1 dúzia seja um número
elevado, questionando-o novamente se todos aqueles que vêm à sua
barraca levam exatas 12 unidades. O feirante responde que nem
todos, alguns levam meia dúzia, enquanto outros clientes preferem
levar 1 dúzia e meia.
Note que estão intrincados, nessa ilustração, os conceitos de média
(12 unidades) e de desvio-padrão (6 unidades), que podem ser
comparados aos dos cálculos aqui realizados.
A seguir, na Tabela 8.2, foram calculadas as medidas de tendência
central e dispersão para as variáveis quantitativas da pesquisa
(Quadro 8.3). Repare que, ao aplicar essas medidas, pode-se
conhecer o comportamento do grupo avaliado mesmo sem conhecer
os dados originais, fato que muito facilita a interpretação da
distribuição de variáveis, que poderão ser chamadas de fatores de
risco ou proteção.
Tabela 8.2 - Medidas de tendência central e dispersão das variáveis quantitativas
presentes no Quadro 8.3
Devido ao fato de descreverem a posição do conjunto de dados e
indicarem sua variabilidade em relação ao valor central, as medidas
de dispersão auxiliam na análise da homogeneidade dos grupos em
se tratando de variáveis quantitativas, o que é relevante para a
análise das diferenças estatísticas para os diferentes grupos
considerados em um estudo epidemiológico.
Quando se trata de uma variável contínua cuja frequência de
distribuição assuma uma curva de Gauss, a média e desvio-padrão
são parâmetros necessários e suficientes para descrever a forma
dessa curva. Quando somamos 1 desvio-padrão abaixo e acima da
média, isso representa que cerca de 68% da amostra está entre esses
valores; quando somamos 1,96 (ou, arredondando, 2) desvio-padrão
acima e abaixo da média, isso representa que cerca de 95% da
amostra está entre esses valores. As Figuras 8.2 e 8.3 representam
esses 2 conceitos.
Figura 8.2 - Gráfico da função de Gauss: representação da curva, conforme modificação
das variáveis μ e σ
Fonte: Inductiveload, 2008.

Figura 8.3 - Curva de Gauss: em laranja, 1 desvio-padrão; em azul, 2 desvios-padrão


8.4 MEDIDAS DE ASSOCIAÇÃO EM
ESTUDOS EPIDEMIOLÓGICOS
No item anterior, foi apresentado como se faz uma análise descritiva
básica de uma variável quantitativa; contudo, frequentemente, o
interesse do pesquisador é medir a contribuição de um requisito para
a ocorrência de determinado desfecho relacionado à saúde. É
importante relembrar que buscar associação é diferente de afirmar
causalidade etiológica.
As medidas de efeito podem ser relativas, do tipo “razão”, ou
absolutas, do tipo “diferença”. Para mensurar a magnitude da
associação entre determinado fator de exposição e quantas vezes a
ocorrência da doença é maior no grupo de expostos em relação ao de
não expostos, utilizam-se as medidas de associação do tipo razão; as
medidas de diferença auxiliam na resposta de quanto a frequência de
uma doença no grupo exposto excede em relação ao grupo não
exposto, refletindo, portanto, o número de casos atribuíveis à
exposição (KALE; COSTA; LUIZ, 2009).
O padrão característico da análise epidemiológica consiste na análise
tabular, com variáveis dicotômicas (sim/não ou presente/ausente).
Desse modo, serão apresentadas as medidas de associação utilizadas
em estudos observacionais (transversal, de coorte e caso-controle).
Para facilitar a discussão, deve-se retomar o modelo de tabela 2x2,
que representa a distribuição conjunta das frequências das 2
variáveis estudadas.
Tabela 8.3 - Distribuição conjunta dos dados de estudos epidemiológicos
Legenda: a: número de indivíduos expostos que desenvolveram a doença; b: número de
indivíduos expostos que não desenvolveram a doença; c: número de indivíduos não
expostos que desenvolveram a doença; d: número de indivíduos não expostos que não
desenvolveram a doença.

Um dos principais objetivos de uma distribuição conjunta é


descrever a associação entre as 2 variáveis e conhecer o grau de
dependência entre estas. Por exemplo, na Tabela 8.3, pode-se
questionar se a ocorrência da doença está associada a dada
exposição. Os valores marginais (fixando os totais das linhas) podem
ajudar na interpretação, uma vez que fica difícil analisar os valores
em forma de frequência absoluta. Desse modo, a proporção de
doentes entre os expostos e a proporção de doentes entre os não
expostos expressam a importância da exposição a determinado
fator, dando-se pelas seguintes relações:
Relação R1 - Proporção de doentes entre os expostos

Relação R2 - Proporção de doentes entre os não expostos

Relação R3 - Proporção de doentes entre todos os indivíduos

A relação de divisão entre as proporções de indivíduos expostos e


não expostos resultará, também, nas principais medidas de
associação do tipo razão utilizadas para a análise de estudos
epidemiológicos.
As medidas de associação do tipo razão
funcionam como uma espécie de quantificador
de risco e apontam se um fator está associado a
um desfecho, podendo aquele ser chamado de
fator de risco ou de proteção.

Segundo Luiz e Cohn (2006), o risco, do ponto de vista


epidemiológico, pode ser definido como a probabilidade de
ocorrência de determinado evento relacionado à saúde, estimado
com base no que ocorreu no passado recente. Assim, calcula-se o
risco quantificando o número de vezes que o evento ocorreu,
dividido pelo número potencial de eventos que poderiam ter
acontecido.
A comparação da frequência do evento entre grupos de indivíduos
expostos em relação aos não expostos retorna como um estimador
de risco.
Existem 3 estimadores de uso comum nas análises epidemiológicas:
Razão de Prevalência (RP), Risco Relativo (RR) e razão de chances ou
Odds Ratio (OR). Seu uso depende de algumas situações especiais que
serão apresentadas em momento adequado; a interpretação para os
2 primeiros refere-se ao quociente de prevalência ou incidência
entre expostos e não expostos e, no caso do OR, de chance de
ocorrência de exposição em doentes e não doentes. A conclusão é a
mesma para uns e outros.
O resultado do estimador não pode depender apenas do seu resultado
pontual, uma vez que existem erros aleatórios que devem ser
considerados. Desse modo, um Intervalo de Confiança (IC) sobre seu
resultado auxilia na decisão de o pesquisador aceitar ou refutar a
possível associação entre exposição e doença.
Tanto na razão de prevalência quanto no risco relativo ou no odds
ratio, a interpretação dos resultados para avaliar uma associação é a
mesma: > 1 há associação, = 1 não há associação, e 0 a < 1 há
associação entre os eventos estudados.
Quadro 8.5 - Interpretação dos estimadores de associação utilizados na análise de
estudos epidemiológicos

1 A classificação entre fator de risco e fator de proteção é comum, pois normalmente o


desfecho de interesse é algo negativo (como mortalidade, por exemplo). Caso o desfecho
seja algo positivo (cura ou sobrevida), essa classificação se inverte.

Os dados dicotômicos serão organizados na tabela de contingência,


independentemente do tipo de estudo epidemiológico que os
originou. Assim, o procedimento para o cálculo de proporção de
doentes entre expostos e não expostos deve obedecer ao mesmo
critério. O tipo de estudo epidemiológico apontará a maneira como
os dados da frequência de doença foram coletados, e, dependendo
desta, a frequência poderá ser denominada como prevalência ou
incidência.
A seguir, serão apresentadas as principais metodologias para
estimativas de associação em estudos epidemiológicos. O pré-
requisito principal é a compreensão das medidas de frequência.
8.4.1 Estudos transversais ou de prevalência
Nos estudos transversais, avaliam-se desfecho e
exposição concomitantemente em dada
população em um momento específico de
tempo.

Conforme já elucidado, a prevalência representa o “peso” da doença


em um momento específico de tempo. Baseia-se no número total de
casos da doença existentes na população total, mostrando, então, a
proporção de indivíduos doentes nessa população, naquele momento
definido. Não mede o risco de se desenvolver a doença (KIRKWOOD;
STERNE, 2003), entretanto é uma estimativa da probabilidade de
estar doente.
Então, se os dados que estão sendo analisados na tabela 2x2 forem
provenientes de um estudo transversal, as proporções dadas pelas
relações R1, R2 e R3 serão chamadas de prevalência, sendo
prevalência da doença entre os expostos (relação 1), prevalência da
doença entre os não expostos (relação 2) e prevalência da doença no
grupo ou população estudada (relação 3).
Seguindo a suposição de que os dados apresentados no Quadro 8.3
sejam oriundos de um estudo transversal, a frequência de lesão
cardíaca (desfecho) poderá ser cruzada com a variável “hábito de
fumar” (fator); podem-se, então, calcular as prevalências dadas
pelas relações já citadas.
Tabela 8.4 - Distribuição conjunta dos dados do estudo hipotético apresentado no Quadro
8.3
Em que:
Fórmula 8.6 - Prevalência: lesão entre “expostos”

Fórmula 8.7 - Prevalência: lesão entre “não expostos”

Fórmula 8.8 - Prevalência: lesão entre “todos os indivíduos”

Repare que a prevalência da lesão entre os indivíduos expostos foi de


83%, enquanto nos não expostos se observou apenas 30%. Pode-se
responder, agora, por meio de uma medida de associação do tipo
razão, o quão maior foi essa relação. O estimador utilizado é
denominado RP, uma vez que trata da razão (divisão) entre as
prevalências observadas em ambos os grupos (Fórmula 8.9).
Segundo Coutinho, Scazufca e Menezes (2008), esse é o estimador
clássico dos estudos de prevalência.
Fórmula 8.9 - Razão de prevalência
A medida de RP aplicada sobre os dados de exposição ao tabaco e
lesão cardíaca (Tabela 8.4) resultou em 2,76, o que sugere que a
prevalência da lesão entre os fumantes tenha sido de 2,76 vezes (ou
1,76 vez maior) em relação aos não fumantes. Utilizando a Tabela 8.4
para interpretação, pode-se considerar que o hábito de fumar é um
fator de risco para o tipo de lesão cardíaca pesquisada.
Chama-se a atenção para a questão do “fator de risco”. Embora a
conclusão tenha sido a de que a exposição testada funcione dessa
forma, foram utilizados parâmetros de prevalência (suposto estudo
de prevalência), que mostra qual é a proporção de estar doente e não
de tornar-se doente. Esse fato impede, sobretudo, uma conclusão
acerca do risco de se expor ao fator e desenvolver a doença.
8.4.2 Estudos de coorte e ensaios clínicos (ou de
incidência)

Nos estudos de coorte e ensaios clínicos, o fator


principal a ser avaliado é a incidência do
desfecho na população estudada.
O risco (ou incidência) de uma doença é a probabilidade de ela
ocorrer em um período determinado de tempo. O risco é estimado
contando-se o número de casos novos da doença durante um
período específico de tempo, dividido pelo número específico de
pessoas que, no momento inicial, eram não doentes, porém estavam
em risco de contraí-la (KIRKWOOD; STERNE, 2003).
Nesse caso, se os dados que estão sendo analisados forem
provenientes de estudo de incidência (coortes ou ensaios clínicos),
as proporções dadas pelas relações R1, R2 e R3 serão chamadas de
incidência, sendo incidência da doença entre expostos (relação 1),
incidência da doença entre não expostos (relação 2) e incidência da
doença no grupo ou na população estudada (relação 3).
Supõe-se que os dados relacionados na Tabela 8.5 tenham sido
provenientes de estudo de coorte. Desse modo, a medida de
frequência utilizada foi a incidência. Por exemplo, os pesquisadores
suspeitam que o uso de drogas injetáveis seja fator de risco para
contrair hepatite B. Os cálculos sugerem que a incidência do
desfecho entre expostos (20%) é bem superior, quando comparados
a não expostos (5%). O estimador utilizado, agora, é denominado
RR, uma vez que trata da razão (divisão) entre as incidências (risco)
observadas nos grupos que estiveram expostos e não expostos a esse
fator.
Tabela 8.5 - Distribuição conjunta dos dados do estudo hipotético sobre a incidência de
hepatite B
Em que:
Fórmula 8.10 - Incidência: hepatite B entre “expostos”

Fórmula 8.11 - Incidência: hepatite B entre “não expostos”

Fórmula 8.12 - Incidência: hepatite B entre “todos os indivíduos”

Fórmula 8.13 - Risco relativo

Repare que, operacionalmente, não existe nenhuma diferença entre


o cálculo de RR e RP. Ambos se referem a uma divisão ou razão (de
probabilidades), contudo o que deve estar totalmente claro é que o
RR só será utilizado quando a medida de frequência da pesquisa for
incidência (risco de tornar-se doente) e o RP quando tratar-se de
prevalência (probabilidade de estar doente).
A medida de RR, aplicada sobre os dados hipotéticos de exposição a
drogas injetáveis (Tabela 8.5), resultou em 4, sugerindo que a
incidência de hepatite B entre os indivíduos que usavam drogas, em
relação aos que não usavam, foi 4 vezes maior. Como o estimador
resultou em valor superior a 1, pode-se afirmar, então, que se expor
a drogas injetáveis oferece 3 vezes mais o risco (ou 4 vezes o risco)
de contrair hepatite B do que não se expor ao fator; a exposição pode,
então, ser considerada um fator de risco.
Quando se trabalha com incidência, como nos
estudos de coorte, as medidas de associação
mais utilizadas são o risco atribuível, o risco
atribuível na população e a fração atribuível na
população.

A interpretação do RR em estudos epidemiológicos serve para


indicar a força da associação entre o fator de exposição e a doença.
Contudo, quando se trabalha com incidência, medidas de impacto
(do tipo diferença) costumam ser utilizadas. Segundo Fletcher e
Fletcher (2006), as mais comuns são o Risco Atribuível (RA), Risco
Atribuível na população (RAp) e a Fração Atribuível na população
(FAp).
O RA, por sua vez, é a subtração entre o coeficiente de incidência dos
expostos e o coeficiente dos não expostos (Fórmula 8.14).
Fórmula 8.14 - Risco atribuível
O risco atribuível sinaliza a parcela do risco a que está exposto um
grupo da amostra e pode ser atribuída somente ao fator estudado,
excluindo outros fatores, sendo por isso um indicador usado no
planejamento dos programas de controle de doenças, bem como na
avaliação de impacto desses programas.
Caso o objetivo seja mensurar o excesso de morbidade que se pode
atribuir à presença de um fator de risco específico na população,
recomenda-se o cálculo do RAP, que mede a margem de excesso de
morbidade que há no conjunto de uma população e é atribuível à
presença de determinado fator de risco. Para isso, é necessária uma
estimativa do fator de risco na população – Prevalência (P) ou
Incidência (I) podem ser utilizadas (Fórmula 8.15). Na prática, o
estimador mede a incidência de uma doença na população associada
à frequência de um fator de risco.
Fórmula 8.15 - Risco atribuível na população

* No lugar de (P), pode-se também considerar a incidência da exposição (I).

Pode-se questionar, também, a proporção da doença na população


que é atribuível à exposição; o estimador utilizado é a FAP. Para o
cálculo desse estimador, é necessário que exista o parâmetro de
incidência total na população (Fórmula 8.16).
Fórmula 8.16 - Fração atribuível na população

Em que: IT = Incidência Total:


Esses estimadores populacionais (RAp e FAp) não são muito
utilizados, uma vez que são necessárias algumas medidas
populacionais. Na prática, podem ser úteis, porque mostram o
impacto de uma exposição da óptica populacional e, desse modo,
podem ser utilizados para estimar a queda no número de casos da
doença ou desfecho, caso seja eliminado (ou neutralizado) o fator de
exposição estudado.
Já com relação aos estimadores individuais, o RR é mais usado do
que o RA, pois ressalta a força da relação em vez de medir a diferença
em termos de riscos. Por outro lado, o RA indica o excesso de risco
que poderia ter sido evitado, caso não houvesse a exposição ao fator
de risco.
8.4.3 Outros indicadores também utilizados em
ensaios clínicos
Ao tratar-se de estudos longitudinais de intervenção (ensaios
clínicos), também se pode lançar mão dos cálculos de incidência
entre expostos e não expostos à intervenção. Contudo, como o
objetivo é estimar o tamanho do efeito do tratamento, a
nomenclatura deverá ser adaptada: em vez de incidência no grupo
dos expostos (Iexpostos), utilizar-se-á incidência do evento entre os
participantes tratados com a intervenção (Rt) e, no lugar de
incidência no grupo dos não expostos (Inão expostos), toma-se a
incidência do evento no grupo-controle (Rc).
Na prática, faz-se referência ao mesmo estimador utilizado nos
estudos de coorte, com uma interpretação que se adapta à
nomenclatura recém-modificada. Um RR = 1 ocorre quando não há
diferença entre grupo tratado e grupo-controle. Se o RR é superior a
1, o risco entre os tratados supera o risco entre os controles. Se o RR é
inferior a 1, a intervenção é considerada um fator de proteção.
Outros estimadores de efeito do tratamento são frequentemente
utilizados em estudos clínicos. A Redução do Risco Relativo (RRR), a
Redução Absoluta de Risco (RAR) e o Número Necessário para Tratar
(NNT) são os mais utilizados. Todos são construídos por meio da
relação de presença do desfecho no grupo tratado em relação ao
grupo-controle (COUTINHO; CUNHA, 2005).
A RAR representa a redução, em termos absolutos, do risco no grupo
que sofreu a intervenção de interesse, em relação ao grupo-controle
que, operacionalmente, lembra o RA utilizado em coortes. Pode ser
obtida por meio da subtração da incidência entre o grupo-controle e
o tratado (Fórmula 8.17).
A RRR é conhecida por indicar a eficácia do estudo. Enquanto a RAR
indica a diminuição absoluta, aquele estimador refere-se à
diminuição do RR em relação ao valor de não associação entre
tratamento e desfecho, ou seja, 1 (Fórmula 8.18). No caso de o
tratamento provocar aumento do risco de algum evento, tem-se o
Excesso Relativo de Risco (ERR), calculado como (RR-1)×100.
Um modo adicional de medir o impacto de uma intervenção que vem
se tornando popular nos últimos anos é o NNT. Essa medida
representa o número de pacientes que é preciso tratar para se
prevenir um evento indesejado (como morte ou recaída). O NNT é
calculado como o inverso da RAR.
Fórmula 8.17 - Redução absoluta de risco
Fórmula 8.18 - Redução do risco relativo

Fórmula 8.19 - Número necessário para tratar

Raramente se encontra um NNT próximo a 1, o que refletiria uma


intervenção extremamente benéfica.
A interpretação do NNT deve sempre ponderar o tempo de
seguimento, isto é, durante qual período o número de pacientes deve
ser tratado a fim de alcançar o benefício. Para os ensaios clínicos
preventivos, pode-se citar o Number Needed to Screen (NNS –
número necessário para rastrear). Benseñor e Lotufo (2005)
mencionam o NNEC – número necessário para causar efeito
colateral – como derivação do NNT.
8.4.4 Estudos caso-controle

Nos estudos caso-controle, não são utilizadas


medidas de frequência. Nesse caso, o estimador
de associação utilizado é o odds ratio (que é
uma razão de chance, e não probabilidade).

Nos estudos caso-controle, não se trabalha com nenhuma medida de


frequência, visto que os pacientes são incluídos de acordo com a
presença ou não do desfecho. Geralmente, são definidos um grupo de
casos (com o desfecho) e outro de controles (sem o desfecho) e
avalia-se a exposição (no passado) a potenciais fatores de risco
neles.
Repare que existe uma peculiaridade na tabela de contingência. Em
se tratando de estudos caso-controle, não há valores marginais das
somas de “a + b” e “c + d”. Isso ocorre devido a tal soma não ter
sentido prático, uma vez que os casos já têm a doença e os controles
não, por isso as medidas de frequência (prevalência ou incidência)
também não têm utilidade.
Apesar de não serem estimadas diretamente as incidências ou
prevalências da doença (desfecho) entre expostos e não expostos em
estudos caso-controle, é possível obter uma medida que se aproxime
da razão dessas incidências (RR) ou prevalências (RP) por meio de
uma adaptação do estimador chamado odds ratio.
Alguns epidemiologistas referem-se ao OR como “razão de
chances”, “razão de produtos cruzados” ou, ainda, “razão de odds”.
Em vista disso, optou-se por ficar com o termo original, odds ratio.
Na prática, a chance de observar casos expostos ao fator de risco
(R4) sobre a chance de observar controles expostos ao fator (R5)
resulta no OR (Fórmula 8.20).
A interpretação do estimador é similar à utilizada em RR ou RP;
contudo, agora, deve-se falar em “chance”. Assim, se a exposição ao
fator for a mesma para casos e controles, o OR valerá 1, indicando
que o fator não está associado à doença; acima de 1, significará que
as chances de doença entre os expostos são mais elevadas em relação
aos não expostos; abaixo disso, se poderá afirmar que as chances de
doença entre os expostos são menores em relação aos não expostos.
Tabela 8.6 - Distribuição conjunta dos dados do estudo caso-controle

Em que:
Relação R4 - Odds ratio ou chance entre os casos

Relação R5 - Odds ratio ou chance entre os controles

Fórmula 8.20 – Odds ratio


Serão utilizados como exemplos os dados da Tabela 8.5, supondo que
sejam provenientes de estudo caso-controle e, assim, não existam
medidas de frequência. A suposição dos investigadores permanece a
mesma, ou seja, deseja-se verificar se o fator “uso de drogas
injetáveis” está associado ao desenvolvimento de “hepatite B”.
As relações de chance resultam em:
Fórmula 8.21 - Odds dos casos (com hepatite)

Fórmula 8.22 - Odds dos controles (sem hepatite)


Verificou-se que o OR para essa situação foi 4,7, ou seja, a chance de
exposição a drogas injetáveis entre os casos foi de 4,7 vezes em
relação aos controles, fato que indica que esse fator pode ser
considerado de “risco” para contrair hepatite B.
Note que o valor de OR = 4,7 está próximo do RR calculado
anteriormente (RR = 4). Isso ocorreu porque a incidência da doença
foi relativamente baixa, de 12,5%. Essa aproximação refere-se a um
fenômeno comum quando os eventos são raros e é possível até
mesmo inferir risco, nesse caso. Porém, quando a frequência da
doença se eleva, esses 2 valores tendem a ficar bem distintos e,
então, interpretar OR como RR pode levar a grandes prejuízos na
inferência.
Devido à popularidade e à facilidade do uso de regressão logística
(modelo múltiplo) para controlar os chamados fatores de confusão,
o OR tornou-se muito popular, sendo comumente utilizado em
estudos transversais, clínicos e, até mesmo, de coorte. Nessa
perspectiva, a limitação dada pela frequência do desfecho sempre
deverá ser levada em conta.
As medidas de associação baseadas em razões (risco relativo e odds
ratio) fornecem dados sobre a força da associação entre o fator em
estudo e o desfecho, permitindo um julgamento sobre uma relação
de causalidade. Assim, risco relativo e odds ratio são as medidas de
escolha para estudar os possíveis determinantes das doenças,
frequentemente utilizadas em estudos de coorte e caso-controle,
respectivamente.
Medidas como a RRR e o NNT auxiliam na avaliação de estudos de
intervenção. Por outro lado, medidas como o RA e suas frações
populacionais apresentam uma perspectiva de saúde pública e
planejamento de ações de saúde, uma vez que são fundamentais para
que se possam avaliar o impacto de um fator de risco sobre uma
população e as possíveis repercussões de sua remoção. Enfim, essas
medidas de associação com suas características específicas são
instrumentos essenciais para a realização de estudos
epidemiológicos analíticos (WAGNER; CALLEGARI-JACQUES, 1998).
8.5 VARIÁVEIS DE CONFUSÃO
As medidas de associação discutidas até aqui são chamadas brutas,
pois não consideram outras variáveis. Apesar de todos os cuidados
metodológicos, essas medidas não terão maior validade para
confirmação ou refutação da hipótese básica, caso não seja
ponderada a influência de outras variáveis capazes de confundir ou
modificar a associação investigada.
Uma necessidade básica é verificar se as características entre o grupo
exposto e o não exposto são similares em relação a outros
fatores/variáveis que possam influenciar a variável de interesse
(desfecho). Dessa maneira, além dos cálculos mencionados, muitos
estudos optam por estimar as medidas de associação corrigidas ou
“ajustadas” por essas variáveis que podem influenciar os resultados
(variáveis de confusão). Uma maneira simples de verificar os fatores
de confusão é o uso da análise estratificada por níveis dos fatores de
confusão. Outra forma é o uso de modelos de regressão múltiplos
incluindo esses fatores como covariáveis.
A variável de confusão está associada tanto à variável de exposição
quanto ao desfecho (Figura 8.4). Então, para que os coeficientes não
sejam influenciados por essas relações, é importante garantir que os
grupos de expostos e não expostos estejam equilibrados em relação a
essas variáveis de confusão, justamente o que estudos randomizados
tentam fazer.
Figura 8.4 - Efeito da variável de confusão

Fonte: elaborado pelos autores.

Um exemplo simples para entender o efeito de uma variável de


confusão poderia ser explicado pela seguinte situação: um
pesquisador verifica que existe maior frequência de doentes de
câncer de pulmão entre indivíduos que fumam cigarros (tabaco) e
tomam café.
O hábito de fumar está, de fato, na cadeia de causalidade do câncer
de pulmão; contudo, o de tomar café pode ter surgido como uma
variável de confusão, não estando realmente associado ao câncer, e
sim ao hábito de fumar. Na verdade, a frequência de pessoas que
bebem café entre aquelas que fumam é bem elevada.
Helena et al. (2005) realizaram um estudo de coorte com
apresentação de 3.812 nascidos vivos, entre os quais ocorreram 31
óbitos neonatais. As variáveis de exposição foram agrupadas por 4
blocos de risco: sociodemográfico, assistência ambulatorial,
assistência hospitalar e risco biológico. Observou-se um OR bruto de
1,98, sugerindo que a maior frequência do desfecho estava
relacionada ao fato de as mães apresentarem idade inferior a 20 anos
(Tabela 8.7).
Tabela 8.7 - Idade materna relacionada à mortalidade neonatal

Fonte: Fatores de risco para mortalidade neonatal em Blumenau, Santa Catarina, 2005.

Observe a última coluna da Tabela 8.7, OR ajustado. No cálculo do


OR, foram usados como variáveis de confusão os componentes
sociodemográfico, ambulatorial, hospitalar e biológico. Após o
ajuste, os pesquisadores observaram que o OR diminuiu de 1,98
(valor bruto) para 1,07. Logo, é mais provável que a verdadeira
associação entre a idade materna e a mortalidade neonatal seja de
1,07. O ajuste, na prática, proporciona correção e, desse modo,
inferência mais adequada.
8.6 APLICAÇÃO DA ESTATÍSTICA EM
ESTUDOS EPIDEMIOLÓGICOS
Caso uma associação tenha sido identificada (há evidências
suficientes) com as medidas de associação discutidas (RP, RR e OR)
até aqui, ainda é necessário determinar o tipo de associação
estatística: se foi uma associação por artefato (viés) ou uma
associação verdadeira (entende-se como verdadeiro o que é
plausível acontecer, ou seja, as evidências mostram isso com uma
probabilidade de erro tolerável).
A associação significativa, do ponto de vista estatístico, entre uma
exposição e uma doença é condição necessária para se falar em
causalidade. Desse modo, responde-se à última das perguntas
apontadas por Almeida Filho e Rouquayrol (2002): “Qual é a chance
de que a associação entre a doença Y e o fator X se deva ao acaso?”. O
papel do teste é tentar descartar o acaso como possível explicação
para o resultado observado (distinguir diferenças causais e
diferenças reais). Logo, todo teste estatístico tem como resultado um
número que sinaliza a probabilidade de a associação ter ocorrido
devido ao acaso.
Variação randômica, indeterminada, resulta da dispersão inerente de
qualquer medida. É a contribuição do acaso que interfere nas
observações de doentes e não doentes, expostos e não expostos. As
formas objetivas para expressar os erros aleatórios são o valor de p e
do IC. Os cálculos matemáticos ou as consultas às tabelas já não são
mais necessários, pois programas estatísticos executam essas
tarefas facilmente.
8.6.1 Teste de hipótese
O uso da estatística para testar hipóteses é a maneira pela qual se
verifica se o que acontece na amostra é suficiente para rejeitar uma
hipótese de nulidade (H0 todos são iguais, não há diferença, e a
razão de riscos/chances é igual a 1) e substituí-la por uma hipótese
alternativa (Ha) que afirme que há diferença, associação ou
aumento/diminuição do risco.
#IMPORTANTE
Deve-se considerar que um teste de hipóteses
não é um cálculo ou uma conta. Há uma
proposta que se refere ao fato de orientar a
tomada de decisão de aceitar ou rejeitar uma
possível associação.
Existem diversos testes estatísticos nos quais se utiliza a estratégia
do teste de hipótese para a tomada de decisão. Serão apresentados,
ainda neste capítulo, alguns testes estatísticos e suas hipóteses: nula
e alternativa.
Um teste de hipóteses pode ser facilmente entendido quando se faz
referência a um julgamento criminal por júri popular, exemplo
proposto por Pereira (2010). A hipótese nula é a presunção de
inocência (princípio constitucional: Art. 5º, inciso LVII). Para alguém
ser considerado culpado, há de se provar que ele(a) não é inocente.
Os erros possíveis são condenar alguém que é inocente, equivalente a
rejeitar a hipótese nula (inocência) quando, na verdade, a pessoa é
inocente: erro de rejeição, cuja probabilidade é alfa; e absolver
alguém que é culpado, equivalente a aceitar a hipótese nula
(inocência) quando, na verdade, a pessoa é culpada: erro de
aceitação, cuja probabilidade é beta (Figura 8.5).
Inicialmente, para examinar a distribuição de probabilidades, parte-
se da suposta verdade, que seria a presunção da inocência.
Atribuindo a essa condição o valor 0 (H0 – linha azul), em torno
dele, tem-se uma distribuição em que se representa a condição de
culpado como valor positivo (Ha – linha vermelha). Pequenos
valores positivos podem ser considerados variação aleatória, e
grandes valores positivos podem ser tidos como maior evidência de
culpa, ou seja, será refutada H0 e aceita Ha.
Figura 8.5 - Aplicação de um teste de hipótese

Fonte: adaptado de Bioestatística em outras palavras, 2010.


Na prática, poder-se-ia pensar nesses valores positivos como o
número de provas que a acusação apresenta contra o réu e que
evidenciam que este cometeu o crime. Um número satisfatório
mudaria sua condição de inocente (H0) para culpado (Ha). Na
prática, nos testes estatísticos, o que será analisado é a distribuição
de frequência e, em seguida, de probabilidade dos valores da
variável. Alguns dos testes estarão baseados na média e no desvio-
padrão desses valores, ao passo que outros tomarão a variância, ou
tantos outros, parâmetros estatísticos existentes.
8.6.2 Nível de significância de um teste
É a probabilidade máxima de se rejeitar H0. Se, por exemplo, utiliza-
se o nível de significância de 5%, a hipótese nula (H0) será rejeitada
somente se o resultado da amostra for tão diferente do valor suposto
que uma diferença igual ou maior ocorreria com probabilidade
máxima de 0,05.
Desse modo, o valor de p é a probabilidade de se encontrar um
resultado tão extremo ou maior que o resultado observado, caso a
hipótese nula seja verdadeira; isto é, caso se realize um estudo cujo
resultado seja um risco relativo = 5, com um valor p = 0,01, isso
significa que há 1% de probabilidade de encontrar um risco relativo
de 5 ou maior, se a hipótese nula for verdadeira. Logo, como essa
probabilidade é muito baixa (menor que 5%), pode-se rejeitar a
hipótese de nulidade e aceitar a hipótese alternativa. É um erro
afirmar que o valor p é a probabilidade de acaso ou a probabilidade
de que H0 seja verdadeira. Como se pode notar, esse é um conceito
complexo de ser explicado e, por isso, muitos livros de
Epidemiologia acabam simplificando a definição para melhor
entendimento. Assim, algumas questões podem cobrar o conceito de
forma equivocada.
De forma arbitrária, habitualmente se define um nível de
significância de 1 em 20 (expressado como alfa = 0,05, ou seja, a
decisão é tomada comparando-se p com alfa; se p < alfa, então se
rejeita H0).
Medidas de associação com p ≤ 0,05 indicam que a probabilidade de
se encontrar a associação observada, caso a hipótese de nulidade seja
verdadeira, é menor do que 5% (rejeitando H0 e substituindo-a por
Ha).
Medidas de associação com p > 0,05 indicam que a probabilidade de
se encontrar a associação observada, caso a hipótese de nulidade seja
verdadeira, é maior do que 5% (sugerindo que não há evidência de
que H0 seja falsa, então esta não deve ser substituída).
Portanto, há significância estatística quando o valor de p é menor do
que o nível de significância (o erro que está disposto a tolerar)
adotado. Apesar da menor frequência, são usados, ainda, níveis de
significância de 0,1 e 1%, o que implica valores de p menores do que
0,001 (precisão 99,99%) e p = 0,01 (precisão de 99%).
8.6.3 Intervalo de confiança

#IMPORTANTE
O intervalo de confiança define os limites
inferior e superior de um conjunto de valores
com certa probabilidade de conter o valor
verdadeiro, na população, da medida analisada.

Segundo Coutinho e Cunha (2005), a cada 2 anos somos expostos aos


resultados das pesquisas eleitorais sobre as preferências dos
eleitores. O percentual de votos de cada candidato é apresentado
sempre seguido da seguinte informação: “a margem de erro da
pesquisa é de 2% ou de 3%”. Isso significa que, sempre que fazemos
uma pesquisa, seja eleitoral, seja um estudo epidemiológico,
utilizando uma fração da população, existe certo grau de incerteza
sobre o real valor da estimativa que está sendo feita.
O IC define os limites inferior e superior de um conjunto de valores
que tem certa probabilidade de conter, no seu interior, o valor
verdadeiro do estimador de risco que se analisa. Desse modo, o
processo pelo qual um IC de 95% é calculado é tal que ele tenha 95%
de probabilidade de incluir o valor real do estimador de risco
(Coutinho; Cunha, 2005). Assim, pode-se dizer que IC é outra forma
de quantificar a incerteza na mensuração, habitualmente relatado
como “IC de 95% (IC95%)”, correspondente a um alfa (nível de
significância) de 0,05 ou 5%. Para o cálculo dessas estimativas,
utiliza-se uma distribuição amostral de probabilidade.
Na aplicação do IC para os estimadores de risco RR, OR ou RP, se o IC
incluir o valor 1 (unidade), não se rejeita a hipótese H0, ou seja,
existe a possibilidade de a associação entre a exposição e o desfecho
ter ocorrido por acaso (afinal, o resultado da medida de associação
pode ser = 1). Em contrapartida, quando se menciona que o IC95%
não inclui a unidade, isso corresponde a afirmar que p ≤ 0,05. Na
Tabela 8.8, verifica-se que a exposição à onicofagia não está
associada à infecção por Toxocara sp. quando existe hábito de lavar
as mãos antes das refeições, pois para ambas as categorias (expostos
e muito expostos) a unidade 1 está incluída no IC de 95%,
diferentemente do que ocorre com a variável geofagia, em que, para
ambas as categorias, o IC inferior é superior à unidade 1, reforçando
que se trata de um fator de risco para a doença.
Tabela 8.8 - Exemplo de fatores de risco para infecção por Toxocara sp.

1 Ajustado pelo hábito de lavar as mãos antes das refeições.


Fonte: Frequência de anticorpos anti-Toxocara spp em escolares do município de
Fernandópolis-SP, Brasil e análise da contaminação do solo por ovos do parasito, 2010.

#IMPORTANTE
Se o intervalo de confiança inclui o valor 1, não
se rejeita a hipótese de nulidade, o que indica
que não há associação entre exposição e
desfecho. Caso não se inclua o valor 1, isso
significa p ≤ 0,05, por isso se pode inferir uma
associação.

Deve-se refletir que um IC95% “estreito” (exemplo: 2 a 2,5), obtido


geralmente em amostras grandes, mostra maior confiança e
precisão. Já um IC95% amplo (1,5 a 5,7) sugere menor precisão,
decorrente de amostra possivelmente pequena para avaliar a
associação em estudo. Os cálculos para ICs também são feitos pelos
pacotes estatísticos e podem ser usados para avaliar diferenças entre
médias (variáveis quantitativas) ou entre proporções (variáveis
qualitativas).
Na Figura 8.6, observa-se um exemplo de estimativa de média e IC
para idade (dados provenientes do Quadro 8.3). O IC pode ser útil
para responder à seguinte questão: indivíduos afetados pela lesão
cardíaca têm idade igual à dos não afetados? Quando se observa o IC,
nota-se que existe sobreposição desses intervalos, portanto, não se
pode concluir, com base no gráfico, que esses grupos apresentam
médias estatisticamente iguais ou diferentes. Assim, precisará ser
realizado algum teste estatístico para calcular a significância da
diferença entre os 2 ICs. Na Figura 8.7, apresenta-se a estimativa de
IC para a média de colesterol. Nesse exemplo, observa-se que a
média no grupo de indivíduos em que os pesquisadores detectaram
lesão no miocárdio é nitidamente mais elevada do que no grupo sem
lesão (média de aproximadamente 300 mg/dL no grupo com lesão e
de cerca de 200 mg/dL no grupo sem lesão). Ao verificar os ICs,
verifica-se que não existe sobreposição, então certamente essas
médias não são iguais do ponto de vista estatístico.
Figura 8.6 - Estimativa de médias e intervalos de confiança para idade em grupo de
indivíduos com e sem lesão no miocárdio

Figura 8.7 - Estimativa de médias e intervalos de confiança para colesterol em grupo de


indivíduos com e sem lesão no miocárdio
Quando estamos inspecionando os intervalos de confiança entre 2 ou
mais grupos, 2 situações podem ocorrer:
a) Os intervalos de confiança não se cruzam. Nesse caso, podemos
afirmar que existe uma diferença estatisticamente significativa entre os
grupos;
b) Os intervalos de confiança se cruzam. Nesse caso, não podemos
afirmar se existe ou não uma diferença estatisticamente significativa
entre os grupos. Precisaremos, então, lançar mão de um teste
estatístico.

8.6.4 Algumas considerações sobre os testes de


hipóteses
Vários testes estatísticos são bastante comuns na área médica. Todos
fazem uso de uma estatística e de sua respectiva distribuição
amostral. O procedimento geral do teste de hipóteses pode ser
resumido nos seguintes passos (BUSSAB; MORETTIN, 1987):
a) Escolha do parâmetro e da hipótese a ser testada. Por exemplo,
toma-se como hipótese nula (H0) que não haja diminuição do peso
após certa dieta. Então, diferença de peso, θ = 0. Como hipótese
alternativa (Ha), tem-se o que se deseja mostrar (diferença de peso
negativa), ou seja, há redução de peso após a dieta, < 0;
b) Escolha de amostra aleatória de indivíduos dessa população que
farão a dieta e terão os pesos avaliados pré e pós-dieta, com intuito de
refutação de H0. A hipótese Ha pode ser de 3 tipos, dependendo do
que se busca mostrar: >, < ou ≠;
c) Qualquer decisão a ser considerada com relação à rejeição ou não
de H0 está sujeita a erros, e, para facilitar o entendimento, definem-se
os seguintes:
Erro tipo I (probabilidade de erro tipo I = alfa): é visto como o mais
grave, pois é o que rejeita H0 quando H0 é verdadeira. É o que
considera culpado um inocente, que aponta que há uma diferença
quando ela não existe. Esse erro é chamado de “nível de
significância”;
Erro tipo II (probabilidade de erro tipo II = beta): é o erro de não
rejeitar H0 quando ela é falsa. Esse erro é considerado menos
grave por manter a hipótese de nulidade, por não encontrar
evidências para colocar na cadeia um culpado, por não afirmar
uma associação quando ela na verdade existe. O complemento
da probabilidade desse erro é chamado de “poder do teste”
(poder = 1 - beta).

A decisão do teste é tomada com base em uma estatística θ obtida de


uma amostra. Essa estatística e sua distribuição são usadas para
construir uma região crítica.
Ou melhor, com o valor que é observado e sua distribuição em torno
desse valor, verifica-se qual é a probabilidade de H0 ainda ser
verdadeira (considerando o que foi observado). Se essa probabilidade
for inferior à probabilidade de rejeitar-se H0, dado que H0 é
verdadeira, não existe razão para manter H0, passando-se a
considerar Ha como a mais plausível.
8.6.5 Testes estatísticos mais utilizados em
Epidemiologia
A Figura 8.8 apresenta um fluxograma esquemático sobre os testes
estatísticos mais utilizados em Epidemiologia, e o texto que segue
explica-os individualmente.
Figura 8.8 - Fluxograma esquemático para escolha dos testes estatísticos mais utilizados
em Epidemiologia

Fonte: elaborado pelos autores.

8.6.5.1 Para uma média populacional (variância conhecida) ou uma


proporção

Suponha que se deseja verificar se a média de peso de recém-


nascidos de uma cidade não é considerada baixa. Montam-se, então,
as seguintes hipóteses: H0: µ = 2.500 g versus Ha: µ > 2.500 g
(considerando uma variância conhecida, definida em um estudo
anterior). Nesse caso, testa-se a média de peso.
Ou suponha que se queira verificar se a prevalência de bebês
nascidos com baixo peso não supera 5%, mudando-se, então, as
hipóteses para a seguinte forma: H0: p = 0,05 versus Ha: p > 0,05.
Nesse caso, testa-se a prevalência de bebês nascidos com peso
inferior a 2.500 g.
Em ambos os casos, a distribuição das estimativas da média (com
variância conhecida) e da proporção é considerada normal. Por isso,
o teste indicado é o Z (utiliza a distribuição normal padrão,
conhecida como Z).
8.6.5.2 Para uma média populacional (variância desconhecida)

Suponha que se deseja verificar se a média de peso de recém-


nascidos de uma cidade não é considerada baixa, montando-se,
então, as seguintes hipóteses: H0: µ = 2.500g versus Ha: µ > 2.500 g,
porém não existe nenhuma informação sobre a variância dos dados.
Nesse caso, é preciso estimar, com base na estatística S2, a variância
amostral.
Quando há necessidade de estimar a variância com base na amostra,
a distribuição Z é substituída pela t de student – para o uso dessa
distribuição, é preciso definir o número de Graus de Liberdade (GLs);
como se calcula S2 e perde-se 1 grau, o número é o tamanho da
amostra menos 1; GL = n - 1.
8.6.5.3 Para comparação de 2 médias de populações com
distribuição normal

Se o objetivo é testar a hipótese de que, por exemplo, a média de peso


de recém-nascidos de uma cidade não é igual à de outra cidade,
montam-se as seguintes hipóteses: H0: µ1 = µ2 ou µ1 - µ2 = 0 versus
Ha: µ1 ≠ µ2 ou µ1 - µ2 ≠ 0. Nesse caso, será preciso calcular as 2
estimativas de variância, 1 para cada amostra respectiva de cada
cidade. Então, têm-se S12 e S22 e, consequentemente,
Nesse teste se utilizará, então, a distribuição t de student com GL =
n1 + n2 - 2. Os softwares estatísticos calculam o valor de p do teste
considerando 2 situações, a primeira com 2 variâncias
desconhecidas, porém iguais, e a segunda com 2 variâncias
desconhecidas e diferentes. Para testar essas variâncias, o software
calcula uma estatística F (Snedecor) que, quando o valor de p é muito
pequeno, significa que as variâncias não podem ser consideradas
iguais (rejeita-se a hipótese de igualdade de variâncias).
8.6.5.4 Para comparação de mais de 2 médias de populações com
distribuição normal

Se a necessidade é testar a hipótese de que, por exemplo, a média de


peso de recém-nascidos entre mais do que 2 cidades difere, o teste t
de student deixa de ser uma opção. Nesse caso, têm-se várias
amostras independentes, e a análise mais apropriada é a de variância
(ANOVA), com um fator (no exemplo, o fator cidade). As hipóteses
são:
Se H0 é rejeitada, há evidências de que pelo menos 1 par de
comparação de médias difira. Para controle do nível de significância,
ao rejeitar-se H0, são feitas as comparações múltiplas, entre pares
de médias, considerando alguma correção. A mais usual é a de
Bonferroni, que indicará os pares que diferem (um valor de p para
cada par de comparação, corrigido para manter o nível de
significância geral em alfa).
8.6.5.5 Teste de associação para tabela de contingência

No caso do Quadro 8.3, como verificar se há relação entre a variável


exposição e a ocorrência da doença? Para esse caso, há a
possibilidade de calcular um valor esperado para cada célula, sob
hipótese de independência. Se esses valores forem muito distantes
do que se observa no Quadro, então há razão para rejeitar a hipótese
de independência e substituí-la pela de associação entre as variáveis.
Para isso, utiliza-se uma estatística chamada “qui-quadrado”, que
tem o seu valor de p comparado com o nível de significância
estipulado; mais uma vez, quando esse valor é inferior ao tolerável,
há evidências para se rejeitar H0.
Esse pode ser interpretado, também, como um teste de proporções.
Por exemplo: se existem 2 ou mais categorias de exposição e a
ocorrência ou não de uma doença, é possível calcular o percentual de
doentes em cada categoria de exposição, e o resultado do teste dirá
se há alguma categoria de exposição que não apresenta um
percentual similar ao esperado sob hipótese de independência. A
distribuição “qui-quadrado” ( ²) é aproximada, e é preciso tomar
certo cuidado: todas as células devem ter, pelo menos, 1 valor
esperado de 5. Caso isso não aconteça, é preciso usar o teste exato de
Fisher (ambos são facilmente calculados em qualquer software
estatístico).
8.6.5.6 Testes pareados

O teste t de student e a análise ANOVA podem ser usados para


comparação de médias entre amostras dependentes, ou seja, para
comparação pré e pós, ou para comparação entre 3 ou mais
momentos. Para tanto, é preciso optar pelo teste t de student
pareado ou pela ANOVA com medidas repetidas.
8.6.5.7 Correlações (Pearson e Spearman)

Algumas vezes, o pesquisador não está interessado em avaliar


diferenças de médias entre 2 ou mais grupos (por exemplo: média de
pressão arterial entre quem tomou algum anti-hipertensivo ou
placebo) ou diferenças de proporções entre 2 ou mais grupos (por
exemplo: mortalidade entre quem usou ácido acetilsalicílico ou
placebo após sofrer infarto agudo do miocárdio).
Em contrapartida, o pesquisador quer correlacionar 2 variáveis
numéricas como Índice de Massa Corpórea (IMC) e Pressão Arterial
(PA), para verificar se o aumento do IMC acompanha o aumento de
PA.
Nesse caso, o teste estatístico apropriado é realizar uma correlação
de Pearson (caso os dados tenham uma distribuição normal) ou de
Spearman (caso os dados não tenham uma distribuição normal). Em
ambos os casos, as correlações geram resultados cuja interpretação é
a mesma. A correlação de Pearson gera um coeficiente r, e a de
Spearman gera um coeficiente (letra grega “Rô”), cujo valor varia
de -1 a 1. Em ambos os testes, um coeficiente de valor 1 representa
uma correlação positiva perfeita (ou seja, no exemplo citado, a cada
aumento de IMC haveria um aumento de PA previsível e sem erro); já
um coeficiente de valor -1 representa uma correlação negativa
perfeita (a cada aumento de IMC, haveria uma diminuição de PA
previsível e sem erro).
Um coeficiente igual a zero significa que não há correlação entre as 2
variáveis. Os valores intermediários significam que haja uma
tendência de correlação, mas que não é perfeita; ou seja, outras
variáveis não mensuradas também devem influenciar o desfecho.
Esses valores estão ilustrados na Figura 8.9. Por convenção,
estipulou-se que um coeficiente (r ou rô) > 0,9 é uma correlação
muito forte; entre 0,7 e 0,9, forte; entre 0,5 e 0,7, moderada; entre
0,3 e 0,5, fraca; 0,3 a 0, desprezível. Além disso, quando os
coeficientes são elevados ao quadrado, esse número representa o
quanto uma variável impacta outra. Por exemplo, caso a correlação
entre IMC e PA seja de 0,5, isso significa que o IMC é responsável por
25% do aumento de PA entre os indivíduos, pois (0,5)² = 0,25
(FIELD, 2009).
Figura 8.9 - Correlações entre variáveis numéricas ilustradas em gráficos
8.6.5.8 Regressões

As regressões são utilizadas quando se deseja associar uma variável a


um desfecho por meio de uma função matemática. Dito isso, é
natural que haja uma infinidade de regressões possíveis, com
diferentes finalidades, visto que existem inúmeras funções
matemáticas. Algumas regressões são mais conhecidas, como a
linear simples, uma função que pode ser escrita y = ax + b, em que y é
o desfecho (ou variável dependente), x é o fator em estudo (ou
variável dependente), b é uma constante e a é um parâmetro da
regressão. Por exemplo, a correlação mencionada no item anterior,
entre IMC e PA, pode ser expressa também em uma regressão linear
simples, em que, à medida que se aumenta x (IMC), aumenta-se y
(PA). Em alguns casos, o desfecho pode ser categórico (por exemplo,
morrer ou não morrer), em vez de numérico, como na regressão
linear. Nesse caso, podem-se utilizar outros modelos de regressão,
como a logística. A regressão logística também faz parte das
regressões multivariáveis (ou multivariadas), em que se pode
construir, em 1 único modelo, diversas variáveis, culminando em um
desfecho. Por exemplo, por meio da regressão logística, pode-se
construir uma função matemática que calcule o risco de sofrer um
evento cardiovascular (desfecho, y) por meio das variáveis
tabagismo, colesterol, diabetes, pressão arterial, sexo e idade (fator
em estudo, x).
Esse mesmo raciocínio, de avaliar diversas variáveis implicando um
desfecho, também pode ser aplicado quando o desfecho é contínuo
(por exemplo: pontuação em uma escala de depressão) e queremos
saber que variáveis podem influenciá-lo. Nesse último caso, a
regressão utilizada poderia ser a linear múltipla (FIELD, 2009). Para
fins de prova de concursos médicos, as informações mais
necessárias são: saber o que é uma regressão e o que significa uma
regressão multivariável. Elas são utilizadas, por exemplo, para
controles de fatores de confusão após os dados serem coletados.
8.6.5.9 Teste de kappa

Para descrever a intensidade da concordância entre 2 ou mais juízes,


ou entre 2 métodos de classificação (por exemplo, 2 testes de
diagnóstico), utiliza-se da medida kappa, baseada no número de
respostas concordantes, ou seja, no número de casos cujo resultado é
o mesmo entre os juízes/testes.
O kappa é uma medida de concordância interobservadora e mede o
grau de concordância além do que seria esperado tão somente pelo
acaso. Essa medida de concordância tem como valor máximo 1, que
representa total concordância, e os valores próximos e até abaixo de
zero indicam nenhuma concordância, ou a concordância foi
exatamente a esperada pelo acaso. Um eventual valor de kappa < 0
(negativo) sugere que a concordância encontrada tenha sido menor
do que aquela esperada pelo acaso. Sugere, portanto, discordância,
mas seu valor não tem interpretação como intensidade de
discordância.
Para avaliar se a concordância é razoável, faz-se um teste estatístico
para avaliar a significância do kappa. Nesse caso, a hipótese testada é
se o kappa = 0, o que indicaria concordância nula, ou se ele é > 0,
concordância maior do que o acaso (H0: k = 0; H1: k > 0). Um kappa
com valor negativo, que não tem interpretação cabível, pode resultar
em um paradoxal nível crítico (valor de p) > 1.
8.7 ERROS SISTEMÁTICOS
Outro tipo de erro possível é o sistemático, também chamado viés ou
bias. Como o próprio nome aponta, trata-se de uma variação
sistemática, com certo grau de conhecimento, resultado de desvios
no momento do delineamento ou da condução (coleta e análise de
dados) do estudo, produzindo um resultado que tende a ser diferente
do resultado real do efeito da exposição sobre o desfecho. O
contraponto do viés é a validade.
Hennekens e Buring (1987) comentam que há várias formas de
categorizar e nomear os diferentes tipos de vieses, que podem
provocar distorções na associação da exposição ao desfecho. Esses
vieses variam, inclusive, com o desenho metodológico adotado.
Existem 3 grandes grupos de classificação de vieses: seleção,
aferição e confusão; a diferença entre eles é o momento do estudo
em que ocorre. A Figura 8.10 ilustra, como exemplo, um ensaio
clínico randomizado, apresentando em quais momentos os vieses
acontecem.
Figura 8.10 - Principais classificações de vieses e o momento em que eles podem ocorrer,
em um exemplo de ensaio clínico randomizado

Fonte: elaborado pelos autores.

8.7.1 Viés de seleção


O viés de seleção compreende qualquer erro na
seleção da amostra a ser estudada, comum nos
estudos caso-controle.

Refere-se a qualquer erro no processo de seleção da amostra por


meio de um método que não garante a sua representatividade. Nos
estudos caso-controle, esse viés ficará evidente se os critérios para
escolha de casos e controles forem diferentes. Por exemplo, um viés
de seleção muito conhecido em estudos caso-controle é o viés do
trabalhador saudável, que ocorre quando a seleção de controles é
realizada entre trabalhadores formais. Como, via de regra, os
trabalhadores passam por exames admissionais iniciais, há uma
tendência de que essa população seja mais saudável do que a média
populacional.
Outro viés de seleção importante chama-se viés de Berkson, ou viés
berksoniano. Esse viés ocorre em estudos de casos-e-controles,
quando os pacientes do grupo controle apresentam uma frequência
de exposição maior do que a população que supostamente seria a
origem dos casos. Isso pode levar à conclusão equivocada de que a
exposição tem um menor tamanho de efeito (ou até um tamanho de
efeito negativo), visto que a relação da frequência da exposição entre
casos/controles fica enviesada.
Medronho (2009) valoriza o cuidado da seleção dos controles desse
estudo, ressaltando que tal processo seja independente do status de
exposição. Nos estudos de coorte retrospectiva, caso a seleção dos
expostos e não expostos seja, de certa forma, sugerida pela
ocorrência do desfecho, houve viés de seleção. Como a análise da
exposição não costuma acontecer na fase inicial dos estudos de
coorte prospectivos, esse tipo de viés é incomum para esse desenho.
Mesmo os ensaios clínicos randomizados não são isentos de vieses
de seleção. Quando a randomização é realizada de forma equivocada,
ou mesmo quando o tamanho amostral é demasiado pequeno para
permitir uma randomização apropriada, os grupos tornam-se muito
diferentes entre si e pode ocorrer viés de seleção. De forma geral,
pode-se afirmar que a principal estratégia para minimizar o viés de
seleção é uma randomização adequada.
8.7.2 Viés de aferição
O viés de aferição ocorre no momento da avaliação dos participantes
e pode acontecer quando eles são avaliados de maneira diferente
entre os grupos. Esse viés acontece, por exemplo, nos ensaios
clínicos abertos, em que os avaliadores sabem que intervenções os
participantes estão recebendo. Isso pode fazer com que os
avaliadores, propositadamente ou não, avaliem os grupos conforme
sua convicção prévia em cada tratamento. A principal maneira de
minimizar o viés de aferição é o cegamento ou mascaramento dos
avaliadores. Outro viés de aferição conhecido é o viés de memória,
que pode acontecer quando a exposição é obtida retrospectivamente,
após o desenvolvimento da doença. Isso acontece porque indivíduos
doentes tendem a lembrar mais das exposições passadas do que
indivíduos sadios. Em alguns livros, o viés de memória também pode
ser classificado como um viés de confusão.
8.7.3 Viés de confusão
O viés de confusão ocorre quando outra variável (que não a principal
do estudo) atrapalha a avaliação da associação entre exposição e
desfecho de um estudo.
O fator de confusão surge quando uma variável interferente distorce,
ficticiamente, a associação entre as variáveis de exposição e as de
resposta, alterando-lhes a força ou mesmo o sentido da relação.
Existem técnicas para o controle do viés; contudo, na prática, para
todos os estudos, é sempre necessário considerar cuidadosamente a
possibilidade de ocorrência de algum dos erros descritos. Verificada
a possibilidade de um viés, resta avaliar se tal erro pode causar
interferências na associação estudada. De modo geral, a melhor
estratégia para minimizar o viés de confusão antes da coleta de
dados é a randomização de participantes. Entretanto, quando não é
possível realizar randomização ou ela foi malfeita, após a coleta de
dados, pode-se recorrer a técnicas estatísticas para o controle de
fatores de confusão; entre elas, destacam-se os modelos
multivariados (ou multivariáveis), como a regressão linear múltipla
ou a regressão logística.
Se os erros acontecem de forma semelhante entre expostos e não
expostos, doentes e não doentes, menciona-se erro de classificação
não diferencial. Caso sejam maiores em 1 dos grupos, trata-se de um
erro de classificação diferencial. Os erros não diferenciais levam,
geralmente, a uma atenuação da força de associação (subvalorizam),
enquanto os erros diferenciais podem acentuar ou atenuar.
Diante das informações comentadas, fica evidente que a prevenção e
o controle de potenciais vieses são cruciais para assegurar a validade
dos resultados. Para tanto, há ferramentas importantes que podem
ser usadas no planejamento dos estudos:
a) Cuidados na escolha da população a ser estudada; por exemplo, a
seleção de controles hospitalares em estudos caso-controle pode
aumentar a semelhança com os casos em relação à aceitação em
participar; no entanto, a presença de fatores específicos e subjetivos
influencia a escolha das pessoas por determinados hospitais. Nas
coortes e nos ensaios clínicos, é importante avaliar a possibilidade
concreta de acompanhar o grupo pelo tempo necessário; por isso,
muitas vezes, pode ser oportuno trabalhar com grupos de categorias
profissionais (enfermeiras, médicos, forças armadas) ou residentes de
uma área geográfica específica;
b) Padronização na coleta de dados, mediante utilização de
instrumentos construídos especificamente para o estudo que valorize
questões neutras, objetivas. É preciso pensar, também, no tempo de
aplicação;
c) Cuidados na aplicação do instrumento: o mascaramento na
obtenção dos dados também pode ajudar a evitar tendências
potenciais. O treinamento da equipe que participa do trabalho de
campo usa, até mesmo, protocolos escritos;
d) Avaliar o número e a natureza das exposições e dos desfechos. A
informação desses eventos pode ser obtida por entrevistas com os
próprios participantes, bem como de prontuários (hospitalares ou de
ambulatórios ocupacionais), por exemplo. Os registros preexistentes
podem ser menos tendenciosos quando feitos antes da ocorrência do
desfecho. Entretanto, muitas vezes, as informações são incompletas
para todos os fatores de interesse.

A ausência de erros sistemáticos e aleatórios em um estudo assegura


a sua validade interna. Logo, quando esta existe, pode-se afirmar
que os resultados são representativos da amostra (população de
estudo). Já a validade externa é a capacidade de generalização dos
dados de um estudo.
Qual é a diferença entre
significância clínica e
significância estatística?
A significância estatística está preocupada em responder à
questão “Qual a probabilidade de os resultados
encontrados se deverem a erro amostral?”. Ou seja, a
estatística está preocupada com a precisão dos dados, se o
resultado obtido não foi encontrado devido a aleatoriedade
de se trabalhar com uma amostra e não uma população
completa. Já a significância clínica está preocupada em
responder se a informação levantada pela amostra é
relevante para a prática clínica. Ou seja, por mais que o
resultado seja preciso, ele pode não ser relevante para a
clínica. O ideal é que o resultado seja relevante e preciso.
Você saberia explicar por
que o ponto de corte de
glicemia para o diagnóstico
de diabetes é de 126 mg/dL,
e não 120 ou 130 mg/dL?

9.1 INTRODUÇÃO
Na graduação em Medicina, você aprendeu variadas técnicas de
exames físicos e anamneses que, ao que parece, o deixaram
preparado para identificar o indivíduo doente que, normalmente,
dirige-se a você contando alguma anormalidade sintomatológica,
permitindo gerar uma hipótese inicial. Na sequência, você deve
investigar alguns fatores relacionados com a possível doença e, na
maioria das vezes, tentar mediar alguma anormalidade que seja
objetiva e que auxilie de maneira satisfatória seu processo de tomada
de decisão. Entram em cena, então, os chamados Métodos
Diagnósticos (MDs).
Segundo Kawamura (2002), Thomas Bayes, matemático inglês do
século 18, legou-nos o seu teorema, o qual estabeleceu que a
probabilidade pós-teste de uma doença era função da sensibilidade e
especificidade do exame e da prevalência da doença na população
(probabilidade pré-teste). Os médicos, ao formularem as hipóteses
diagnósticas, interpretarem os exames laboratoriais e prescreverem
um tratamento, intuitivamente utilizam-se do teorema de Bayes.
Hoje, vive-se a era da alta tecnologia, em que as pessoas
frequentemente tendem a interpretar a positividade de um exame
sofisticado e custoso como sinônimo de doença. Não se deve
esquecer que todos os exames, sem exceção, desde o corriqueiro
exame clínico até uma tomografia computadorizada, estão limitados
pela sensibilidade, pela especificidade e pelo valor preditivo pré-
teste.
A avaliação criteriosa da real utilidade dos MDs vem ganhando
importância cada vez maior nos últimos anos em decorrência do
aumento de seu uso na prática clínica, de seu encarecimento
progressivo e da pressão exercida por grupos de interesse, nem
sempre baseada em critérios científicos, para a utilização desses
métodos. Assim, os clínicos precisam estar familiarizados com
alguns princípios básicos no momento de interpretar esses testes
(FLETCHER; FLETCHER, 2006).
O MD é o processo analítico de que se vale o especialista ao examinar
uma doença ou um quadro clínico, para chegar a uma conclusão.
Compreende anamneses, exame clínico, exames complementares,
provas terapêuticas e acompanhamento clínico.
Ao solicitar um teste diagnóstico, considera-se que há risco
atribuído a ele, que pode ser grande ou pequeno. Desse modo, deve-
se considerar a segurança do teste como uma premissa importante,
pois ela é um julgamento da aceitabilidade do risco (uma medida da
probabilidade de um resultado adverso e de sua severidade)
associada ao uso de uma tecnologia em dada situação.
Outros aspectos que devem ser considerados em um MD são
gravidade da doença, aceitação do teste e seus parâmetros. Estes
últimos são operacionalmente mais importantes, embora todos
sejam de interesse do médico, por estarem associados diretamente
ao fato de serem capazes de diagnosticar o paciente.
9.2 POSSIBILIDADES DIAGNÓSTICAS
Para o teste diagnóstico ser considerado útil, é preciso que ele
identifique corretamente a presença da doença.
Portanto, antes de adotar um procedimento tido como ferramenta
diagnóstica, deve-se verificar a sua capacidade de retornar um
resultado que direcione à tomada de decisão correta.
Ao solicitar um teste, podem-se ter 2 resultados cabíveis: positivo ou
negativo. Consideram-se, até mesmo, aqueles testes laboratoriais
cujo resultado é uma variável quantitativa contínua (exemplo: uma
medida de glicose em mg/dL), pois, ao final, um ponto de corte
poderá ser estabelecido. Para o indivíduo que foi examinado,
também existem 2 possibilidades: doente e não doente. Somam-se,
então, 4 diferentes situações; a relação entre elas vai delinear toda a
discussão em torno da utilidade de um MD.
1. Situações possíveis de serem observadas em um teste diagnóstico:
a) O resultado foi positivo, e o indivíduo está doente;
b) O resultado foi negativo, e o indivíduo está doente;
c) O resultado foi positivo, e o indivíduo não está doente;
d) O resultado foi negativo, e o indivíduo não está doente.

O teste que apresentar resultado correto na presença de doença será


chamado de verdadeiro positivo, e o negativo na ausência de doença
será o verdadeiro negativo. Por outro lado, o teste será errôneo se for
positivo quando a doença estiver ausente, sendo denominado falso
positivo, ou falso negativo quando for negativo e a doença estiver
presente. Essas relações podem ser analisadas na tabela de
contingência (Tabela 9.1).
Tabela 9.1 - Dupla entrada para a avaliação de testes diagnósticos
Quanto maior for o número de verdadeiros positivos e verdadeiros
negativos de um teste, maior será a sua acurácia. Portanto, a
acurácia de um teste é considerada com relação a alguma forma de
saber se a doença está realmente presente ou não, uma indicação
sólida da verdade frequentemente referida como padrão-ouro ou
gold standard. Entende-se acurácia como o grau pelo qual o
instrumento utilizado na mensuração é capaz de determinar o
verdadeiro valor daquilo que está sendo medido.
A acurácia de um teste indica a forma como se sabe se ele é ou não
verdadeiro; é a avaliação padrão-ouro da análise em questão. Quanto
maior o número de verdadeiros positivos e verdadeiros negativos,
maior será a acurácia do teste.
Algumas vezes, o padrão de acurácia é, por si só, um teste
relativamente simples e de baixo custo, como uma cultura de
orofaringe para Streptococcus do grupo A, para avaliar a impressão
clínica de faringite, ou um teste de anticorpos para a infecção pelo
vírus da imunodeficiência humana. Contudo, com maior frequência,
é preciso recorrer a testes relativamente elaborados, custosos e
arriscados, para ter certeza de que a doença está presente ou
ausente. Entre esses testes, estão a biópsia, a cirurgia exploratória,
os procedimentos radiológicos e, claro, a necrópsia (FLETCHER;
FLETCHER, 2006).
9.3 PARÂMETROS
A eficiência de um diagnóstico refere-se à sua capacidade em
distinguir as pessoas com doença das pessoas sem a doença. Tal
capacidade é dada pelo aumento da sensibilidade e da especificidade.
Desse modo, os parâmetros de um teste diagnóstico servem,
principalmente, para avaliar as proporções de seus acertos
(sensibilidade e especificidade), porém eles podem mensurar,
também, a probabilidade de um indivíduo diagnosticado como
positivo ou negativo ser, de fato, positivo ou negativo (valores
preditivos), o que é muito importante para a sua aplicação.
9.3.1 Sensibilidade e especificidade

A sensibilidade de um teste avalia os


verdadeiros positivos, ou seja, a proporção de
pessoas com a doença que tiveram o teste
positivo.

A sensibilidade de um teste é definida pela sua capacidade de


reconhecer os verdadeiros positivos em relação ao total de doentes,
ou seja, é a probabilidade de um indivíduo avaliado e doente ter seu
teste alterado (positivo). A tabela 2x2 (Tabela 9.1) representa a
proporção de indivíduos com a doença que têm teste positivo,
podendo ser mensurada pela relação a seguir (Fórmula 9.1).
Fórmula 9.1 - Sensibilidade
Repare que o procedimento é bem simples: trata-se da divisão dos
indivíduos diagnosticados como positivos no teste por todos os
doentes, lembrando que “a + c” representa o total de doentes
definido pelo padrão-ouro.
Testes altamente sensíveis têm baixíssimos índices de falsos
negativos. Dessa forma, um teste sensível precisa ser escolhido
quando são ruins as consequências de deixar passar uma doença. Os
testes altamente sensíveis são considerados como testes de escolha
para rastreamento populacional. Esses tipos de testes também são
úteis nos estágios iniciais de um processo diagnóstico, como o teste
de anticorpos para HIV na avaliação de infiltrados pulmonares para
detectar infecções relacionadas à AIDS.
A especificidade de um teste permite distinguir
os verdadeiros negativos, ou seja, a proporção
de pessoas sem a doença que tiveram um teste
negativo.

A especificidade do teste refere-se ao poder de distinguir os


verdadeiros negativos em relação ao total de doentes, ou seja, é a
probabilidade de um indivíduo avaliado e normal ter seu teste
normal (negativo). Na tabela de contingência, é a proporção de
indivíduos sem a doença que têm teste negativo que pode ser aferida
pela fórmula a seguir.
Fórmula 9.2 - Especificidade
Na prática, a especificidade trata da divisão dos indivíduos
diagnosticados como negativos em um teste por todos os indivíduos
não doentes, em que “b + d” se refere ao total de não doentes
definidos pelo método padrão-ouro.
Um teste altamente específico tem poucos falsos positivos. Portanto,
é útil para confirmar um diagnóstico que tenha sido sugerido por
outros métodos, como um exame clínico. A razão para isso é que um
teste específico raramente é positivo na ausência da doença, sendo
útil quando os resultados falsos positivos podem trazer prejuízos
físicos, emocionais e financeiros.
O poder que o teste diagnóstico tem de revelar um resultado correto
conceitua a acurácia. Na tabela de contingência, esse parâmetro é
mensurado pela relação a seguir (Fórmula 9.3).
Fórmula 9.3 - Acurácia

É importante lembrar que a sensibilidade e a especificidade são


atributos intrínsecos ao teste, por isso são chamadas propriedades
do teste. No entanto, os indicadores de desempenho de instrumento,
quando aplicados em condições de campo, são modificados pela
proporção de casos da doença na população, ou seja, pela
prevalência. Assim, para estimar a validade do instrumento em
condições operacionais, deve-se calcular o indicador denominado
valor preditivo, que varia com a prevalência.
Uma abordagem comum para alterar a sensibilidade e especificidade
de um teste é a realização de testes em série ou em paralelo. Fazer
testes em série significa realizar testes sequenciais em pacientes que
tiveram um resultado positivo prévio, visando aumentar a
especificidade, à custa de uma diminuição de sensibilidade. Essa
abordagem é usada, por exemplo, quando é solicitado o teste de
FTA-ABS, após o paciente ter um teste de VDRL positivo, no
diagnóstico de sífilis. Por outro lado, fazer testes em paralelo
significa realizar múltiplos testes simultaneamente, visando
aumentar a sensibilidade, à custa de uma perda de especificidade.
Essa abordagem é usada, por exemplo, em emergências clínicas, em
que vários exames são solicitados ao mesmo tempo, com a finalidade
de descartar doenças potencialmente graves.
9.3.2 Valores preditivos
O Valor Preditivo Positivo (VPP) refere-se à proporção de
verdadeiros positivos (realmente doentes) entre todos os indivíduos
com teste positivo. Repare que, embora o numerador seja o mesmo
utilizado para o cálculo de sensibilidade (verdadeiros positivos), o
denominador difere, levando em conta todos os indivíduos que
tiveram o teste positivo (Fórmula 9.4).
Fórmula 9.4 - Valor Preditivo Positivo
O VPP é capaz de expressar a probabilidade de
um paciente com teste positivo ter, de fato, a
doença.

Na mesma linha, existe o chamado Valor Preditivo Negativo (VPN),


que trata da proporção de verdadeiros negativos (realmente não
doentes) entre todos os indivíduos com teste negativo. Nesses
termos, o cálculo é igual ao da especificidade no numerador, que leva
os verdadeiros negativos, mas difere quanto ao denominador, que
inclui todos os indivíduos que apresentaram o teste negativo
(Fórmula 9.5).
Fórmula 9.5 - Valor Preditivo Negativo

O VPN tem a capacidade de expressar a


probabilidade de um paciente com o teste
negativo não ter realmente a doença.

Para cada instrumento, de acordo com a prevalência da doença


correspondente na população, existe certa probabilidade de qualquer
suspeito ao teste ser um verdadeiro positivo. A prevalência da doença
é, na realidade, a probabilidade pré-teste de ter a doença. O VPP e o
VPN são a probabilidade pós-teste (de ter ou não ter a doença,
respectivamente). Desse modo, os valores preditivos são
influenciados não apenas pela sensibilidade e especificidade,
devendo-se considerar também a prevalência da doença na
população em que o teste está sendo aplicado.
Assim, quanto maior a especificidade do teste, maior o seu VPP, ou
seja, maior a segurança de um paciente com resultado positivo ser
doente. Quanto maior a sensibilidade do teste, maior o VPN, ou seja,
maior a segurança de um paciente com teste negativo realmente não
ser doente. Como o valor preditivo é influenciado pela prevalência,
ele depende do contexto em que o teste é aplicado, como exames de
triagem ou exames confirmatórios utilizados na clínica.
A interpretação de um teste diagnóstico negativo ou positivo pode
variar de um local para outro, de acordo com a prevalência estimada
da doença. Assim, para um teste com sensibilidade e especificidade
de 100%, quando a prevalência da doença for de 100%, o VPN será
zero, e, quando a prevalência for de zero, o VPP também será zero.
9.3.3 Aplicação na avaliação de um teste
Barfield et al. (2011), preocupados com as melhorias para o
diagnóstico da doença de Chagas, desenvolveram e avaliaram um
novo teste rápido para o seu diagnóstico sorológico, utilizando
antígeno recombinante para a detecção de anticorpos contra
Trypanosoma cruzi. Para avaliar o desempenho desse teste, 375
amostras de soro provenientes de uma região onde a doença de
Chagas é endêmica foram testadas como uma prova de referência
(Tabela 9.2). Foram avaliadas 190 amostras positivas e 185 amostras
negativas (definidas pelo padrão-ouro).
Tabela 9.2 - Resultados da avaliação do teste rápido para doença de Chagas
Fonte: adaptado de A highly sensitive rapid diagnostic test for Chagas disease that utilizes
a recombinant Trypanosoma cruzi antigen, 2011.

Em que:
Pode-se afirmar que o teste rápido para o diagnóstico da doença de
Chagas teve um desempenho excelente, apresentando sensibilidade
e especificidade próximas de 100% e, consequentemente, a acurácia
também.
O VPP foi bem elevado, ou seja, a probabilidade de haver doença,
dado o teste positivo, é de cerca de 97%, e, em se tratando de VPN, a
probabilidade de não ter doença, dado um teste negativo, é de
99,5%.
Outra maneira de calcular o VPP de um teste sem precisar montar a
tabela 2x2, e que leva em conta a prevalência, é utilizar a fórmula
derivada do teorema de Bayes, apresentada na equação a seguir.
Fórmula 9.6 - VPP realizado por meio do teorema de Bayes (considerando a prevalência)
9.4 CURVA ROC
Muitos testes diagnósticos não produzem resultados diretamente
expressos como os mostrados na Tabela 9.2, e sim uma resposta sob
a forma de uma variável quantitativa discreta ou contínua. Nesse
caso, emprega-se uma regra de decisão baseada em buscar um ponto
de corte que resuma tal quantidade em uma resposta dicotômica, de
forma que um indivíduo com mensuração menor ou igual ao ponto
de corte seja classificado como não doente, e vice-versa. Uma das
metodologias para esse fim é a chamada curva ROC, sigla
proveniente de Receiver Operating Characteristic (MARTINEZ;
LOUSADA-NETO; PEREIRA, 2003).
O ideal seria um teste 100% sensível e específico, mas esses valores
dependem da distribuição do resultado do teste nos indivíduos com e
sem a doença e do valor do teste que define os valores anormais. O
balanço desse dualismo é determinado pela escolha do exame e do
ponto de corte corretos para um estudo em particular. Uma maneira
de estabelecer o ponto de corte (ponto de viragem ou valor crítico) é
analisar a especificidade e sensibilidade em vários níveis de
alteração do teste e desenhar, com base nesses dados, um gráfico no
qual a ordenada (y) é a sensibilidade e a abscissa (x) é 1-
especificidade (ou seja, os falsos positivos). Quanto mais perto do
canto superior esquerdo estiver a curva, melhor será o teste. A
discriminação de um ponto de corte deve ser criteriosa, pois rotular
doentes e não doentes é muito arriscado. A curva mostra que o
aumento da sensibilidade vem em detrimento da especificidade e
vice-versa. Outra utilização compara diferentes técnicas de
diagnóstico por meio da análise da área abaixo da curva.
A curva ROC é uma possibilidade estatística de analisar os
parâmetros de um teste diagnóstico. Essa curva é construída por
meio de um gráfico da taxa de verdadeiros positivos (sensibilidade)
contra a taxa de falsos positivos (1 - especificidade), ao longo de uma
faixa de possíveis pontos de corte.
A curva ROC mostra a relação entre a sensibilidade e a especificidade
de um teste e pode ser utilizada para decidir onde fica o melhor
ponto de corte.
Se os pesquisadores decidirem pelas maiores sensibilidade e
especificidade, o ponto estará no “ombro” esquerdo da curva ROC.
Existe uma linha que corta o gráfico, chamada linha de chance
(referência). Uma curva ROC que estiver exatamente sobre a linha de
chance (com ela coincidindo) terá acurácia de 50%, ou seja, a
probabilidade de acertar um resultado é igual à de jogar cara ou
coroa com uma moeda. A área entre a linha de chance e a curva ROC é
também chamada de área sobre a curva ROC, e seu cálculo resulta na
acurácia aferida por esse método.
Um exemplo de aplicação da curva ROC seria no caso da
determinação do diagnóstico de diabetes mellitus. Imagine que um
pesquisador queira determinar o ponto de corte de glicemia para a
definição de diagnóstico do diabetes mellitus tipo 1 usando como
padrão-ouro a destruição de ilhotas pancreáticas em biópsia de
pâncreas. Aqueles cuja biópsia indicava destruição eram
considerados doentes e aqueles cuja biópsia não indicava destruição
de ilhotas eram considerados saudáveis. Um possível resultado seria
que os pacientes saudáveis (sem destruição de ilhotas) apresentaram
glicemia de jejum entre 50 e 150 mg/dL; já aqueles com diabetes
(com destruição de ilhotas) apresentaram glicemia de jejum entre
100 e 200 mg/dL. Perceba que há um grau de sobreposição dos níveis
da glicemia de jejum entre os 2 grupos. Como determinar o ponto de
corte? O pesquisador poderá se valer da curva ROC, como a
representada na Figura 9.1. Uma glicemia muito baixa seria muito
sensível, ao passo que uma glicemia muito alta seria muito
específica. Logo, um valor mais próximo do canto superior esquerdo
da curva ROC seria o indicado, o qual costuma ser em torno de 126
mg/dL.
Figura 9.1 - Curva ROC e definições

Fonte: elaborado pelos autores.

9.5 TESTES DIAGNÓSTICOS E


PREDIÇÕES CLÍNICAS
As estimativas de valores preditivos (positivo e negativo) são úteis
para responder à probabilidade de o paciente ter ou não a doença,
dado um resultado positivo ou negativo. Os valores preditivos podem
ser chamados também de probabilidade posterior ou pós-teste, pois
sinalizam a probabilidade da situação após a realização do teste.
A prevalência, nesse contexto, também poderá ser chamada de
probabilidade anterior ou pré-teste, uma vez que se refere à
probabilidade da doença antes de o resultado do teste ser conhecido
(FLETCHER; FLETCHER, 2006).
A combinação desses parâmetros pode refletir o valor da informação
produzida pelo teste na avaliação dos pacientes (informação clínica),
podendo ser mensurado por meio da medida de acurácia do teste
diagnóstico, ou seja, da relação entre sensibilidade e especificidade
(parâmetros intrínsecos do teste), surgindo o conceito de razão de
verossimilhança.
Likelihood Ratio (LR), ou razão de verossimilhança, é uma valiosa
ferramenta para a prática clínica e laboratorial na análise de um
teste diagnóstico, relacionada com o desempenho dos testes
diagnósticos.
Assim, um LR positivo (LR+) expressa quantas vezes é mais provável
encontrar um resultado positivo em pessoas doentes quando
comparadas com pessoas não doentes (Fórmula 9.7). Já o LR
negativo (LR-) quantifica quantas vezes é mais provável encontrar
um resultado negativo em pessoas doentes quando comparadas com
pessoas não doentes (Fórmula 9.8).
Fórmula 9.7 - Razão de verossimilhança positiva

Fórmula 9.8 - Razão de verossimilhança negativa


Os valores de sensibilidade e especificidade, nesse caso, são
expressos em proporções, e não em porcentagens. Assim, quanto
maior o valor LR+ de um teste, maior a sua capacidade de
diagnosticar a doença, enquanto um valor de LR- baixo revela baixa
suspeita da doença em pacientes com teste negativo. Como sempre
se parte da probabilidade inicial da doença (conhecida como
probabilidade pré-teste), o valor de 1 é neutro, ou seja, um teste com
LR+ de 1 não acrescenta em nada ao diagnóstico, mesmo sendo
positivo. A aplicação dos LRs na clínica fica extremamente facilitada
quando se utiliza o nomograma de Fagan, disponível na Figura 9.2
(FAGAN, 1975).
Neves, Dias e Cunha (2003) sugerem um exemplo simples: a
utilização de um teste com LR+ de 7, em uma população em que a
prevalência da doença é de 30%. A probabilidade de presença da
doença no exame é de 75% (linha 1 – Figura 9.2). Essa probabilidade
pós-teste poderá ser utilizada, agora, como probabilidade pré-teste
de outro exame diagnóstico (confirmatório, por exemplo). Este
último apresenta, então, LR+ de 10, o que resulta em probabilidade
pós-teste de 95% (linha 2 – Figura 9.2).
Flores (2005) explica que, conhecendo ou estimando uma
probabilidade pré-teste e o LR do teste aplicado, pode-se
tranquilamente definir quantas vezes aumentou ou diminuiu a
chance do paciente que tem teste positivo ou negativo. A
probabilidade pré-teste depende da combinação de valores
epidemiológicos (prevalência), mas principalmente de uma
avaliação clínica criteriosa e quantitativa. A utilização do
nomograma de Fagan era uma grande promessa, como ferramenta,
para melhor precisão diagnóstica. Entretanto, após a popularização
dos smartphones e aplicativos gratuitos que realizam o cálculo da
probabilidade pós-teste com base nos mesmos dados, a tendência é
que o nomograma caia no esquecimento. Mesmo assim, algumas
questões de provas de concursos médicos ainda cobram esse
conceito.
Figura 9.2 - Nomograma de Fagan
Fonte: adaptado de Diagnóstico basado en evidencia, 2009.
9.6 TESTES DE RASTREAMENTO DE
DOENÇAS NA POPULAÇÃO
O termo “rastreamento” pode ser entendido como a identificação de
doença ou fator de risco não reconhecido por meio de história
clínica, exame físico, exame laboratorial ou outro procedimento que
possa ser aplicado rapidamente. Assim, os testes de rastreamento
separam as pessoas que estão aparentemente bem, mas apresentam
doença ou fator de risco para uma doença, daquelas que não os
apresentam (GOULART; CHIARI, 2007).
Fletcher e Fletcher (2006) explicam que o rastreamento de pacientes
na fase pré-clínica da doença (ou seja, antes de sua manifestação
clínica) já é uma constante na prática médica. Atualmente, o
rastreamento para detecção de agravos ou doenças diversas vem
sendo ampliado para a população em geral, sem queixas.
Rastreamento, derivado do inglês screening, vem da ideia de peneira
(do inglês “sieve”), rica em furos: todos os programas apresentam
resultados falsos positivos e falsos negativos. Contudo, atualmente
eles passaram a ter um significado de algo sem furos, e a expectativa
do público intensificou-se tanto que qualquer grau de falso positivo
ou negativo é automaticamente assumido como erro do programa ou
do médico (GRAY, 2004). Assim, a demanda na nossa época exige
que as provas sobre os danos potenciais sejam analisadas pelos
comitês nacionais de rastreamento (BRASIL, 2010).
É importante ressaltar que as recomendações atuais a favor da
prevenção são feitas a fim de submeter a população a testes
específicos, de acordo com a prevalência de distúrbios
característicos a determinadas faixas etárias, sexo e características
clínicas. Ou seja, rastrear doença em uma população na qual a
probabilidade pré-teste é extremamente baixa é como dar um tiro no
escuro: você até pode acertar o alvo, mas é mais provável que erre.
Deve haver clara distinção entre rastreamento e diagnóstico de
doenças. Nas situações clínicas, a equipe de saúde deve estar
empenhada em identificar a apresentação clínica na população sob
seus cuidados realizando os exames sempre que surjam sintomas
nos indivíduos assistidos e, sobretudo, de acordo com as
necessidades clínicas apresentadas. Isso não configura
rastreamento, mas cuidado e diagnóstico apropriados (ENGELGAU,
2000).
Observe que pedir um exame direcionado a um indivíduo que
apresenta determinada situação clínica eleva, e muito, a
probabilidade de acerto do diagnóstico. Isso ocorre pelo fato de os
indivíduos em situações clínicas terem probabilidade pré-teste
elevada; por exemplo, é muito mais provável obter uma baciloscopia
positiva para BAAR em um indivíduo com tosse crônica e laivos
sanguinolentos presentes no escarro do que em um indivíduo sem
manifestação clínica aparente. Isso ocorre porque a prevalência
(probabilidade de o indivíduo estar doente) de tuberculose em
pessoas com os sinais apresentados é muito elevada.
No rastreamento, os exames ou testes são aplicados em pessoas
sadias, o que deve implicar garantia de benefícios relevantes diante
dos riscos e danos previsíveis e imprevisíveis da intervenção. Assim,
deve-se considerar que a aplicação de testes de rastreamento deve
ser norteada pela premissa de que o diagnóstico precoce
efetivamente possa contribuir para a melhora do prognóstico da
doença.
Um exame positivo, em se tratando de rastreamento, não implica
fechar um diagnóstico, pois geralmente seleciona as pessoas com
maior probabilidade de apresentar a doença em questão. Outro teste
confirmatório (com maior especificidade para a doença em questão)
é necessário depois de um rastreamento positivo para que se possa
estabelecer um diagnóstico definitivo. Por exemplo, uma
mamografia sugestiva de neoplasia deve ser seguida de uma biópsia
e confirmação diagnóstica por anatomopatologia (BRASIL, 2010).
Um teste de rastreamento deve detectar o maior número de casos
com o menor custo, além de não acarretar reações adversas ou
efeitos colaterais. Considera-se, também, que existe menor grau de
benefício agregado ao teste de rastreamento em resposta aos
sintomas, se comparado à avaliação diagnóstica, devendo ele ser
mais seguro do que os testes clínicos correntemente empregados.
Isso se traduz em menor precisão com relação ao diagnóstico, visto
que os instrumentos diagnósticos tendem a ser mais específicos
(GOULART; CHIARI, 2007).
O teste ideal para rastreamento deveria levar apenas alguns minutos
para ser realizado, além de requerer um mínimo de preparação
prévia do paciente, não depender de agendamento especial e, uma
vez aplicado em grande escala, ser de baixo custo. Os resultados
devem ser válidos, confiáveis e reproduzíveis (FLETCHER;
FLETCHER, 2006). Em um rastreamento, a sensibilidade é um
parâmetro muito importante, e os testes devem ser sensíveis para
selecionar pessoas em fase pré-clínica, contudo se deve, também,
levar em conta uma boa especificidade para não selecionar muitos
falsos positivos.
Assim, para a implantação de programas de rastreamento, o
Ministério da Saúde entende que o problema clínico a ser rastreado
deve atender a alguns critérios, dispostos a seguir (BRASIL, 2010):
a) A doença deve representar importante problema de saúde pública
que seja relevante para a população, levando em conta os conceitos
de magnitude, transcendência e vulnerabilidade;
b) A História Natural da Doença (ou do problema clínico) deve ser bem
conhecida;
c) Deve existir estágio pré-clínico (assintomático) bem definido,
durante o qual a doença possa ser diagnosticada;
d) O benefício da detecção e do tratamento precoce com o
rastreamento deve ser maior do que se a condição fosse tratada no
momento habitual de diagnóstico;
e) Os exames que detectam a condição clínica no estágio
assintomático devem estar disponíveis e ser aceitáveis e confiáveis;
f) O custo do rastreamento e tratamento de uma condição clínica deve
ser razoável e compatível com o orçamento destinado ao sistema de
saúde como um todo;
g) O rastreamento deve ser um processo contínuo e sistemático.
Em conclusão, Fletcher e Fletcher (2006) comentam que a validade
de um instrumento para rastreamento ou diagnóstico é medida pela
sua habilidade em fazer aquilo que se propõe, ou seja, categorizar
adequadamente os indivíduos com sintomas pré-clínicos da doença
como teste positivo, e aqueles sujeitos sem sintomas pré-clínicos da
doença como teste negativo. Essas relações são expressas por meio
de sensibilidade, especificidade e valores preditivos dos testes, tanto
no rastreamento quanto no diagnóstico clínico (GOULART; CHIARI,
2007).
De forma geral, o rastreamento oportunístico ocorre quando a
pessoa procura o serviço de saúde por algum outro motivo e o
profissional de saúde aproveita o momento para rastrear alguma
doença ou fator de risco. Essa forma de proceder tem sido
predominante na maioria dos serviços de saúde no mundo, embora
seja menos efetiva no impacto sobre a morbimortalidade atribuída à
condição rastreada. Já os programas de rastreamento organizados
são aqueles nos quais há maior controle das ações e informações no
tocante ao rastreamento. Esses programas são sistematizados e
voltados para a detecção precoce de determinada doença, condição
ou risco oferecidos à população assintomática em geral e realizados
por instituições de saúde de abrangência populacional. Além disso,
os programas de rastreamento organizados costumam ser mais
efetivos porque há domínio maior da informação e os passos ao
longo dos níveis de atenção estão bem estabelecidos e pactuados.
9.6.1 Vieses de rastreamento
Alguns vieses são muito importantes quando se trata do
rastreamento de doenças. Lembrando que a definição de viés,
segundo Rosser (1998), se refere a qualquer erro na coleta, análise,
interpretação, publicação ou revisão de dados que pode levar a
conclusões que sejam sistematicamente diferentes da verdade.
Seguem 3 exemplos de como isso pode ocorrer nas pesquisas clínicas
que buscam responder se um procedimento de rastreamento traz ou
não benefícios à saúde (Brasil, 2010):
1. Seleção: está presente quando as amostras (grupos) que serão
comparadas durante o estudo têm características diferentes que
podem influenciar o desfecho. Pode ocorrer, por exemplo, quando o
estudo seleciona voluntários para participar do ensaio clínico. Esse
tipo de pessoa geralmente tende a aderir mais às orientações, a ser
mais saudável e preocupada com a saúde e a ter baixas taxas de
mortalidade, não somente para a doença específica;
2. Tempo de antecipação: falsa impressão de sobrevida. Na verdade,
o rastreamento não está oferecendo anos a mais de vida, mas alguns
anos extras antecipados de convívio com a doença. Isso ocorre
porque não se leva em conta o período assintomático da História
Natural da Doença em questão. Uma maneira de evitar o viés de
tempo de antecipação é comparar a taxa real de mortalidade nas
populações rastreadas com as não rastreadas. Medidas substitutas,
como sobrevida média ou em 5 anos, são sensíveis à sobreposição de
tempo, desde o diagnóstico até a morte, e influenciarão o programa
de rastreamento;
3. Tempo de duração: ocorre devido à heterogeneidade da doença que
se apresenta ao longo de um amplo espectro de atividade biológica,
em que existe um contínuo de severidade e nem todas as doenças se
comportam biologicamente da mesma forma. As menos agressivas
têm longo período assintomático e, por conseguinte, maior
probabilidade de serem identificadas por um programa de
rastreamento. Um exemplo seria quando uma coorte detectada pelo
rastreamento (por exemplo, mamografia) é comparada com uma
coorte identificada pela apresentação clínica (por exemplo, massa
palpável na mama); tumores menos agressivos estão
sobrerrepresentados na coorte do rastreamento, e os mais
agressivos, na coorte de apresentação clínica. Mesmo na ausência de
terapia, a coorte identificada pelo rastreamento terá melhor
prognóstico.
9.6.2 Rastreamento no Brasil
No Brasil, a questão do rastreamento de doenças tornou-se muito
comum na atualidade. Sobre esse assunto, vale consultar um
impresso recente do Ministério da Saúde. O material é direcionado a
médicos, enfermeiros e demais componentes das Equipes de Saúde
da Família no intuito de subsidiar suas condutas (BRASIL, 2010). O
guia cita as principais situações a serem rastreadas no Brasil (Quadro
9.1).
Quadro 9.1 - Situações de rastreamento no Brasil
Outras condições vastamente conhecidas são aquelas relacionadas com os diferentes
tipos de câncer. No Brasil, consideram-se típicos de rastreamento populacional os
cânceres de mama, colo de útero, cólon e reto. O rastreamento de câncer de próstata
ainda não tem benefício comprovado. Outros tipos, como o câncer de pele e o de boca,
embora sejam importantes, não são considerados para rastreamento devido à falta de
evidência de benefício para a população (BRASIL, 2010).

Segundo o Instituto Nacional de Câncer (INCA), alguns exames são


muito úteis para prevenir os principais tipos de câncer rastreáveis:
a) O câncer de intestino (colorretal) pode ser rastreado por meio da
pesquisa de sangue oculto nas fezes a partir dos 50 anos. Caso essa
pesquisa seja positiva ou haja um histórico familiar desse tipo de
câncer, recomenda-se uma colonoscopia;
b) O câncer de mama pode ser rastreado por mamografia, que permite
detectar tumores de poucos milímetros em mulheres entre 50 e 69
anos.
A rotina de rastreamento nesse tipo de câncer sofrerá alteração se a
mulher for considerada de alto risco, de acordo com o histórico familiar
de câncer;
c) O câncer de colo de útero pode ser rastreado por meio do exame de
Papanicolaou em toda mulher que teve ou tem vida sexualmente ativa,
após os 25 anos (em mulheres de 25 a 64 anos, conforme preconizado
pelas Diretrizes do Rastreamento do Câncer do Colo do Útero do
Ministério da Saúde). Após 2 exames normais no intervalo de 1 ano, a
periodicidade indicada do exame é de 3 anos. Essa faixa etária é
justificada por ser a de maior ocorrência das lesões pré-malignas de
alto grau, passíveis de serem efetivamente tratadas e não evoluírem
para câncer. Antes de 25 anos, prevalecem as lesões de baixo grau,
cuja maior parte regredirá espontaneamente e deverá ser apenas
observada. Após 64 anos, por outro lado, se a mulher tiver tido acesso
à rotina dos exames preventivos, com resultados normais, o risco de
desenvolvimento do câncer cervical será diminuído, dada a sua lenta
evolução. Após os 64 anos, a recomendação é de suspender o
rastreamento, caso os últimos exames estejam normais.

No Brasil, são realizados rastreamentos


populacionais para cânceres de mama, cólon,
reto e colo de útero.

Outros tipos de câncer devem ser pesquisados com base em


determinados sintomas, utilizando-se sempre os exames mais
apropriados para avaliar cada caso. Repare que a população-alvo
sempre é definida pelo maior risco de apresentar a doença em
situação pré-clínica ou por apresentar fatores de risco importantes
para a doença, como ser sexualmente ativa. Para outros tipos de
câncer ou demais doenças, segue-se a mesma ideologia.
Você saberia explicar por
que o ponto de corte de
glicemia para o diagnóstico
de diabetes é de 126 mg/dL,
e não 120 ou 130 mg/dL?
Esse é um ponto de corte que apresenta uma sensibilidade
e especificidade para que não haja um número alto de
falsos positivos e falsos negativos. No momento em que se
usa um ponto de corte baixo, iremos detectar mais doentes
(aumento da sensibilidade), porém também
aumentaremos o número de falsos positivos (diminuição
da especificidade). Em contrapartida, quando usamos um
ponto de corte mais alto, vamos ter um baixo número de
falsos positivos (aumento da especificidade), mas
deixaremos de diagnosticar indivíduos doentes
(diminuição da sensibilidade). Essa relação entre
sensibilidade e especificidade para variáveis contínuas é
normalmente avaliada por meio da ferramenta curva ROC.
Como diferenciar um
estudo que pode impactar
na prática clínica de um
estudo com informações
falaciosas?

10.1 INTRODUÇÃO
A pesquisa epidemiológica baseia-se na coleta sistemática de dados
sobre eventos ligados à saúde em uma população/grupo definido e
na quantificação desses eventos. O tratamento numérico dos fatores
investigados ocorre por 3 procedimentos relacionados: mensuração
de variáveis, estimativas de parâmetros populacionais/grupais e
testes estatísticos de hipóteses para comprovação ou refutação de
hipótese de associação estatística (BLOCK; COUTINHO, 2009).
Os autores citados explicam que o método científico, do qual a
Epidemiologia se serve, é um processo pelo qual se busca conectar
observações e teorias. Nele, as “hipóteses conceituais”, mais
amplas, são reescritas sob a forma de hipóteses operacionais,
possíveis de serem mensuradas. A teoria que gerou a hipótese
conceitual é, então, confrontada com os dados obtidos na
investigação. O mecanismo pelo qual a pesquisa epidemiológica
busca essa conexão, ou seja, o estabelecimento de inferência causal,
refere-se, principalmente, à inferência indutiva (Figura 10.1).
Rothman, Greenland e Lash (2008) explicam que, em Epidemiologia,
parte-se de observações para leis gerais da natureza. Essas
observações podem ser chamadas de “evidências científicas” e
levam a uma generalização que vai além desse conjunto particular
(processo chamado de “inferência indutiva”). Block e Coutinho
(2009) concordam que, nesse processo, observam-se fenômenos,
identifica-se uma relação constante entre eles e, finalmente,
generaliza-se essa relação para fenômenos que podem ainda não ter
sido observados. Todo esse processo só é possível graças às
diferentes metodologias existentes em Epidemiologia, também
denominadas como estudos ou delineamentos epidemiológicos.
Figura 10.1 - Inferência indutiva (generalização dos resultados), procedimento lógico
constantemente realizado nas pesquisas em Epidemiologia

Fonte: adaptado do Division of biostatistics.


10.2 CLASSIFICAÇÃO DOS
DELINEAMENTOS
Os delineamentos utilizados em Epidemiologia diferem entre si no
modo como selecionam as unidades de observação. Mensuram-se os
fatores de risco ou prognóstico, identificam-se as variáveis de
desfecho e garantem-se a comparabilidade entre os grupos que
fazem parte do estudo e a originalidade dos dados (BLOCK;
COUTINHO, 2009). É por essa perspectiva que os delineamentos
podem ser comparados, e a designação mais comum e vastamente
utilizada em Epidemiologia refere-se ao posicionamento do
pesquisador com relação à investigação (ativo ou passivo), podendo
ser classificados em observacionais ou experimentais (Figura 10.2).
Figura 10.2 - Características dos diferentes tipos de delineamentos utilizados nas
pesquisas epidemiológicas

Fonte: elaborado pelos autores.

Os estudos epidemiológicos podem ser do tipo observacional


experimental, que, então, se subdividem nos diferentes tipos de
estudo que se conhecem: relatos de casos ou de série de casos,
ecológico, transversal, de coorte, caso-controle e ensaios clínicos.
Nos estudos observacionais, o pesquisador não controla a exposição
nem distribui os indivíduos entre os grupos de expostos e não
expostos, adotando uma atitude passiva e de observador no estudo.
Esses estudos podem ser descritivos ou analíticos.
10.2.1 Estudos observacionais
Os estudos observacionais são assim chamados devido à implicação
no posicionamento passivo do investigador, que de forma
sistemática e acurada observa o processo de produção de doentes em
populações, com o mínimo de interferência nos objetos estudados.
Nesse sentido, o pesquisador não controla a exposição nem a
alocação dos indivíduos entre os grupos de expostos e não expostos.
Block e Coutinho (2009) lembram que, como os indivíduos estão
expostos ou não a uma causa potencial de doença,
independentemente da interferência do pesquisador, esses estudos
geralmente não apresentam problemas de natureza ética para a
investigação de fatores de risco. De modo geral, os estudos
epidemiológicos observacionais podem ser classificados (segundo o
método epidemiológico) em descritivos e analíticos.
Segundo Lima-Costa e Barreto (2003), os estudos descritivos têm
por objetivo determinar a distribuição de doenças ou condições
relacionadas à saúde segundo o tempo, o lugar e a pessoa
(características dos indivíduos), ou seja, responder às perguntas
“Quando?”, “Onde?” e “Quem adoece?”. Os estudos observacionais
podem fazer uso de dados secundários (preexistentes de mortalidade
em hospitalizações, por exemplo) e primários (coletados para o
desenvolvimento do estudo).
Nessa perspectiva, a Epidemiologia Descritiva examina como a
incidência (casos novos) ou a prevalência (casos existentes) de uma
doença ou condição relacionada à saúde varia de acordo com
determinadas características, como sexo, idade, escolaridade, renda,
entre outras. Quando a ocorrência da doença/condição relacionada à
saúde difere segundo tempo, lugar ou pessoa, o epidemiologista é
capaz não apenas de identificar grupos de alto risco para fins de
prevenção, mas também gerar hipóteses etiológicas para
investigações futuras (LIMA-COSTA; BARRETO, 2003; MARQUES;
PECCIN, 2005).
Estudos analíticos são aqueles delineados para examinar a existência
de associação entre uma exposição e uma doença ou condição
relacionada à saúde. São metodologias que têm capacidade para
responder (comprovar ou refutar) hipóteses de associações entre
variáveis. Portanto, envolvem de forma implícita ou explícita a
comparação entre expostos e não expostos/doentes e não doentes,
buscando relacionar eventos: uma suposta “causa” a um dado
“efeito”; determinada “exposição” leva à ocorrência de certa
“doença”.
Quando se trata de variáveis dicotômicas (do tipo “ser ou não ser”),
a organização das variáveis do estudo, bem como a análise, poderá
ser feita facilmente por meio da tabela de dupla entrada, 2x2 ou,
ainda, de contingência (conferir o capítulo “Bioestatística aplicada à
análise de estudos epidemiológicos”).
10.2.2 Estudos experimentais
Os estudos experimentais implicam o posicionamento ativo do
pesquisador, com estratégias de ação para interferir nos processos
em estudo, de forma metódica e controlada, resultando no que
correntemente se denomina experimentação. Trata-se de manobras
de intervenção que têm como objetivo isolar efeitos, controlar
intercorrências externas e desencadear processos. Os estudos
experimentais são essencialmente analíticos (ALMEIDA FILHO;
ROUQUAYROL, 2002).
Esses estudos também são conhecidos como de intervenção, clinical
trials (quando aplicados de modo individual) ou community trials
(quando aplicados em comunidades inteiras). Caracterizam-se,
principalmente, pelo fato de o investigador determinar os grupos de
indivíduos expostos e não expostos (PASSOS; RUFFINO-NETTO,
2005).
Block e Coutinho (2009) explicam que os indivíduos são alocados de
modo aleatório em diferentes grupos de exposição aos fatores que se
julga serem de risco ou de prognóstico. Esse processo de alocação
aleatória garante a todos os indivíduos a mesma probabilidade de
fazer parte de qualquer um dos grupos comparados. Outra
característica dos estudos experimentais reside no fato de o
investigador controlar a exposição ao fator de interesse, por isso
questões éticas fazem que tais estudos se restrinjam a fatores nos
quais se acredite haver influência positiva sobre a saúde. O modelo
de análise utilizado é o mesmo de um estudo observacional.
Existe, ainda, uma designação chamada “estudo quase-
experimental”, que ocorre quando existe o controle do fator de
estudo pelo investigador, mas a alocação dos indivíduos nos
diferentes grupos de comparação não pode ser aleatória, devido a
questões éticas. De maneira geral, esses estudos acabam sendo
considerados como experimentais, mas os impactos de seus
resultados devem ser avaliados/interpretados com mais cautela.
10.2.3 Tempo em relação ao surgimento do
desfecho
As caracterizações dos estudos segundo a posição do investigador
(observacional e experimental) e o método epidemiológico
empregado (analítico e descritivo) são, sem dúvida, as mais
importantes. Contudo, outras propriedades devem ser levadas em
conta quando se deseja conhecer essas metodologias com mais
profundidade.
Um estudo epidemiológico pode ser classificado, também, de acordo
com o tempo de ocorrência do desfecho (surgimento). Assim,
quando se investiga a frequência do desfecho ou de fatores
associados, no presente e ao mesmo tempo, menciona-se o estudo
transversal ou seccional (no tempo). Contudo, em muitos casos, a
investigação transversal não é suficiente, existindo a possibilidade
de recorrer a desenhos chamados de longitudinais, ou seja, quando o
desfecho e/ou os fatores associados não estão no presente. Isso
geralmente é necessário quando se deseja conhecer a incidência de
doença ou fatores de risco com maior precisão.
Se uma investigação tem o objetivo de conhecer com que frequência
as pessoas ficam doentes ou se expõem a certos fatores, ela deverá
acompanhar esses indivíduos. Nesse caso, tanto exposição quanto
desfecho estão no futuro em relação ao início da pesquisa, ou seja,
trata-se de um estudo longitudinal prospectivo. No entanto, se os
indivíduos já estiverem doentes (apresentarem o desfecho),
exposição e desfecho aconteceram antes do início da pesquisa;
assim, pode-se lançar mão dos estudos longitudinais retrospectivos.
Outra propriedade importante diz respeito à unidade de estudo ou
análise. Existem estudos focados no indivíduo, que avaliam grupos
de pessoas e pelos quais se consegue obter a frequência de doença e
de fatores associados, podendo, assim, ser calculado o risco
individual à doença. Porém, quando se trabalha com dados
populacionais, a unidade de observação passa a ser a população
estudada (agregado), e não os indivíduos, e, embora sejam estudos
importantes, são incapazes de revelar o risco individual, como é feito
no primeiro caso.
A seguir, serão apresentados os principais tipos de delineamentos
utilizados nas pesquisas epidemiológicas, bem como alguns
exemplos aplicados, suas vantagens e desvantagens.
10.3 TIPOS DE DELINEAMENTOS
10.3.1 Relatos de caso ou série de casos
Os relatos de caso consistem em uma descrição cuidadosa e
detalhada por 1 ou mais profissionais de saúde, geralmente clínicos,
das características clínicas de 1 único paciente ou série de pacientes.
O relato de caso é o estudo que mais se identifica com o médico
clínico. Aguça a interpretação de sinais e sintomas e constitui farto
material para discussões que alavancam o aprendizado de jovens
médicos (PARENTE et al., 2010).
Nesse tipo de trabalho, não existe comparação analítica, não sendo
possível a realização de inferência acerca da ocorrência daquele ou
daqueles casos. Contudo, uma apresentação de caso benfeita pode
auxiliar na descrição de um quadro clínico específico, que pode ser
importante para a Epidemiologia conhecer um padrão de doença ou
de doentes.
10.3.2 Estudo ecológico
O estudo ecológico é aquele que analisa um grupo ou determinada
população de um dado local, com grande relevância para a Saúde
Pública, pois permite avaliar a ocorrência de uma doença na
comunidade e a efetividade das intervenções feitas nesse local.
Trata-se do estudo no qual a unidade de análise é uma população ou
um grupo de pessoas, que geralmente pertence a uma área
geográfica definida, como um país, um estado, uma cidade, um
município ou um setor censitário. Esses estudos são feitos com
dados secundários, que não envolvem contato do pesquisador com
os indivíduos, sendo frequentemente realizados combinando-se
bases de dados de grandes populações (dados secundários não
devem ser confundidos com estudos secundários). Em função disso,
são geralmente mais baratos e mais rápidos do que os estudos que
envolvem indivíduos como unidade de análise (MEDRONHO, 2009).
Os principais objetivos são gerar hipóteses etiológicas a respeito da
ocorrência de determinada doença e avaliar a efetividade de
intervenções na população, testando a aplicação de determinado
procedimento para prevenir doença ou promover saúde em grupos
populacionais. Medronho (2009) explica também que é possível
avaliar hipóteses com esse tipo de estudo, porém é fortemente
prejudicado pela dificuldade de se controlar os “fatores de
confusão”.
Esse estudo, por ter forte característica exploratória, é considerado
por muitos autores essencialmente descritivo. No entanto, já se
mostrou que, por meio dele, é possível verificar associação entre
mudanças no tempo do nível médio de uma exposição e das taxas de
doença em uma população geograficamente definida, podendo
também ser entendido como estudo analítico.
Figura 10.3 - Características do estudo ecológico

Fonte: elaborado pelos autores.

Um estudo ecológico pode ser delineado em um eixo transversal, ou


seja, avaliando-se vários agregados com dados no mesmo período,
como um estudo que comparou a taxa de mortalidade em diversos
países, no ano de 2018 (presente). Contudo, o mais comum nos
estudos ecológicos são as avaliações de tendência construídas por
meio de análise de série histórica. Para isso, são necessários dados
retrospectivos (passado) para todas as unidades de análise
existentes.
Trata-se de um tipo de delineamento muito interessante para a
Saúde Pública e a Gestão em Saúde; pode-se, por exemplo, avaliar
uma série histórica de mortalidade infantil para diferentes
municípios e levantar aqueles em que a queda do indicador não foi
significativa ou se houve modificação na tendência. Deve-se lembrar
que a qualidade desse tipo de estudo depende do sistema de
informação de origem da base de dados.
Com relação ao tempo, um estudo ecológico pode ter característica
transversal quando faz uma avaliação como um corte no tempo,
podendo inclusive estudar associação, nesse sentido. Contudo,
dependendo do objetivo do trabalho e da disponibilidade de dados,
podem-se desenvolver estudos ecológicos de tendência histórica ou
séries históricas, isto é, longitudinais, em que é possível analisar o
comportamento de uma doença/desfecho no tempo (Figura 10.3).
Almeida Filho e Rouquayrol (2002) classificam 2 subtipos de estudos
ecológicos, de acordo com a base de referência para produção de
dados: estudo territorial, no qual há definição geográfica das
unidades/blocos de observação (bairros, distritos, municípios,
países etc.), e estudo institucional, que toma organizações coletivas
como parâmetros (fábricas, escolas).
Podem ser avaliadas medidas provenientes dos agregados (grupos de
indivíduos), como proporções de indivíduos com certa característica
(renda familiar, taxa de fumantes); medidas ambientais, como as
características físicas do lugar onde os membros de cada grupo
vivem ou trabalham; e medidas globais, como indicadores de saúde,
densidade demográfica ou existência de determinado nível de saúde.
Como não existe informação em nível individual, não é possível
trabalhar com a tabela de contingência para estudar as estimativas
de exposição e desfecho. Nesse caso, é muito comum a avaliação de
associação estatística utilizando métodos de regressão linear,
simples ou múltipla, em que se consegue chegar à chamada
correlação (método que estuda variação concomitante entre 2 ou
mais variáveis quantitativas contínuas).
Uma busca no PubMed, usando o termo “ecological study”, retorna
com quase 39 mil referências de artigos relacionados a estudos
ecológicos, o que aponta que esse tipo de estudo é relativamente bem
utilizado como ferramenta de pesquisa em Epidemiologia. A seguir,
um exemplo de estudo ecológico nomeado Queda de homicídios no
município de São Paulo (PERES, 2011).
1. Objetivo do estudo: descrever a evolução das Taxas de Mortalidade
por Homicídio (TMHs) e de indicadores sociodemográficos, de
investimento em políticas sociais e segurança pública, e analisar a
correlação entre a evolução das TMHs e das variáveis independentes
no município de São Paulo entre 1996 e 2008;
2. Métodos: foi realizado um estudo ecológico de série temporal,
exploratório. As seguintes variáveis foram incluídas: TMH por 100
mil habitantes, indicadores sociodemográficos, investimentos em
políticas sociais e de segurança pública. Foram calculadas as médias
móveis de todas as variáveis, e a tendência foi analisada por meio de
regressão linear. Além disso, calcularam-se as variações percentual
anual, média anual e percentual periódica, e a associação foi testada
por meio da análise de correlação de Spearman entre a variação
percentual anual das variáveis;
3. Resultados: foram encontradas correlações com a proporção de
jovens na população (r = 0,69), taxa de desemprego (r = 0,60),
investimento estadual em educação e cultura (r = 0,87) e saúde e
saneamento (r = 0,56), investimento municipal (r = 0,68) e estadual
(r = 0,53) em segurança pública, armas apreendidas (r = 0,69) e taxa
de encarceramento-aprisionamento (r = 0,71);
4. Conclusões: os resultados permitem sustentar a hipótese de que
alterações demográficas, aceleração da economia, em especial a
queda do desemprego, investimentos em políticas sociais e
mudanças nas políticas de segurança pública, atuam sinergicamente
para a redução da TMH em São Paulo. Torna-se necessário o
desenvolvimento de modelos de análise complexos que incorporem
a atuação conjunta dos distintos fatores com potencial explicativo.
Uma das suas vantagens é a possibilidade de examinar associações
entre exposição e doença (desfecho) relacionada nessa coletividade.
Isso é particularmente importante quando se considera que a
expressão coletiva de um fenômeno pode diferir da soma das partes
desse mesmo fenômeno. Por outro lado, embora uma associação
ecológica possa refletir, corretamente, uma associação causal com a
possibilidade de viés ecológico, é sempre lembrada como uma
limitação para o uso de correlações ecológicas (SZKLO; JAVIER
NIETO, 2000; LIMA-COSTA; BARRETO, 2003).
Os estudos ecológicos não podem tirar conclusões sobre a causa da
doença porque não há informação sobre o status de cada pessoa
quanto à exposição e ao desfecho; trata-se do viés ecológico (ou
falácia ecológica). Outras vantagens e desvantagens estão
relacionadas no Quadro 10.1.
Quadro 10.1 - Vantagens e desvantagens
As principais vantagens do estudo ecológico são o baixo custo e a
facilidade e a rapidez na execução; por outro lado, as principais
desvantagens incluem a dificuldade para controlar os fatores de
confusão, a ausência de acesso aos dados individuais e a maior
suscetibilidade à falácia ecológica, que consiste em atribuir a um
indivíduo o que se observou com base em análises de grupo.
10.3.3 Estudo transversal
10.3.3.1 Estrutura básica

Também chamado de estudo seccional, de corte, de prevalência ou


de inquérito epidemiológico, o estudo transversal é um
delineamento observacional que pode apresentar tanto caráter
descritivo quanto analítico, ambos de base individual. Consta como
um dos delineamentos mais comuns utilizados em Epidemiologia.
O estudo transversal caracteriza-se pela seleção de pessoas de toda
uma população ou amostra. Os indivíduos são selecionados sem
considerar a exposição ou estado da doença, e o objetivo principal é
estimar a prevalência de uma doença ou de fatores associados nessa
população.
As determinações da doença (entenda-se doença como desfecho) e
da exposição são realizadas simultaneamente, e subpopulações de
diferentes níveis de exposição são comparadas com relação à
prevalência da doença e aos fatores que se julgam associados a ela
(Figura 10.4).
Figura 10.4 - Características do estudo transversal

Fonte: elaborado pelos autores.

No estudo transversal, as coletas de dados tanto da exposição


(levantamento de fatores associados) como do desfecho são feitas
transversalmente, em um único ponto do tempo (no mesmo tempo
– presente). Seleciona-se uma amostra da população de interesse e
avalia-se essa amostra, que deve ser semelhante à população.
Quando se pesquisa desfecho binário (por exemplo,
presença/ausência de uma doença), é comum haver esses 4 estados
para cada parcela da amostra: exposto e doente, exposto e não
doente, não exposto e doente e não exposto e não doente. Os testes
de associação levarão em conta a relação entre essas parcelas da
amostra, além de ser estimada a prevalência da doença. Por
avaliarem um único ponto do tempo, os estudos transversais não
podem avaliar causalidade, visto que não se pode obedecer ao
critério de temporalidade (isto é, o fator em estudo acontece antes
do desfecho). Esse fato faz que os estudos transversais possam
ocasionar o fenômeno (viés) de causalidade reversa, ou seja, atribuir
o desfecho como consequência, quando pode ser, na verdade, causa.
Os estudos transversais, por lidarem exclusivamente com a medida
de frequência do tipo prevalência, são mais indicados para estudar as
doenças de longa duração e exposição que pouco se modificam com o
tempo. São úteis, também, para fornecer informações sobre
distribuição e características do evento investigado na população,
avaliar as necessidades de serviços de saúde e planejamento em
Saúde Pública e contribuir para o estudo da etiologia das doenças.
10.3.3.2 Planejamento e execução

No planejamento de um estudo transversal, há itens importantes a


serem considerados; um dos principais se refere à população que
dará origem à amostra a ser analisada. A seleção dessa população
dependerá basicamente do objetivo do estudo.
Lembre-se de que medir algum fator em uma população inteira é
logicamente inviável, por isso outro passo importante do estudo é a
amostragem. Para tanto, o pesquisador pode lançar mão de técnicas
para, com base na observação de um grupo de indivíduos, obter
parâmetros do todo (população). Uma amostra pela qual é possível a
realização de inferência (generalização dos resultados) deve ser
representativa da população que lhe deu origem. Assim, existem a
amostragem aleatória simples, a estratificada, a sistemática e aquela
por conglomerados. Muitas pesquisas trabalham com amostras
obtidas sem processo de aleatoriedade, fato que não garante a sua
representatividade. São as chamadas “amostras por conveniência”.
Um estudo transversal é pontual na medida em que não existe
acompanhamento dos indivíduos, ou seja, a avaliação ocorre em um
momento determinado. Como são estudos geralmente grandes, é
comum que levem um intervalo de tempo para serem desenvolvidos,
analisados e publicados. As ferramentas utilizadas na mensuração
das variáveis podem ser questionários de coleta de dados, exames
médicos ou exames laboratoriais.
Para se ter uma ideia do quanto é comum a utilização desse estudo,
uma busca no PubMed no ano de 2019 com o termo “cross-sectional
study”, geralmente utilizado para designar o estudo transversal,
resulta com 413.346 registros de artigos, com acréscimo de mais de
36.000 naquele ano. A seguir, um exemplo de estudo transversal,
Análise do Perfil de Pacientes com HIV/AIDS hospitalizados após
introdução da terapia antirretroviral (HAART) (NUNES, 2015).
1. Objetivo do estudo: desde a introdução da terapia antirretroviral
altamente ativa (HAART) em 1996, têm sido observadas em todo o
mundo mudanças nas causas de hospitalização em pacientes com
HIV/AIDS. O objetivo do artigo foi descrever as características das
hospitalizações de pacientes com HIV/AIDS no período de 1997 a
2012;
2. Métodos: trata-se de um estudo transversal que utiliza um banco
de dados hospitalar para concentrar registros de internações em 31
hospitais, públicos e privados, de 26 municípios do interior de São
Paulo. Para a verificação de associação entre variáveis, empregaram-
se a Razão de Prevalência (RP) e seu intervalo de confiança a 95%;
3. Resultados: foram registradas 10.696 internações entre 9.797
adultos e crianças, ou 1,09 internação por paciente, 62% do sexo
masculino, com faixa etária predominante dos 21 aos 50 anos
(63,5%). Considerando-se todas as faixas etárias, a mortalidade foi
maior entre pacientes do sexo masculino [RP = 1,42 (Intervalo de
Confiança – IC95%: 1,28-1,57); p < 0,05];
4. Conclusões: as doenças infecciosas foram as principais
responsáveis pelas hospitalizações – 54,5% do total. Notou-se que
ainda há predominância de doenças infecciosas (oportunistas ou
não) como causas de internação em pacientes com HIV/AIDS,
mesmo na era pós-HAART. Foram constatadas diferenças entre os
sexos e as idades dos pacientes considerando importantes variáveis,
como óbito.
Estudos transversais feitos em intervalos periódicos de tempo são
úteis, pois podem refletir mudanças na situação de saúde. Todavia,
uma de suas desvantagens importantes refere-se à impossibilidade
de seguimento, uma vez que indivíduos diferentes são avaliados em
cada amostra. As principais vantagens e desvantagens do estudo são
apresentadas no Quadro 10.2.
Quadro 10.2 - Vantagens e desvantagens
10.3.3.3 Associação entre exposição e desfecho

A primeira análise a ser realizada, em um estudo transversal, é a


determinação da prevalência da doença/fator de risco na população
estudada. Esse procedimento pode ser feito dividindo-se o número
de doentes existentes pela população total do estudo.
A segunda análise consiste em verificar a associação entre a
exposição (expostos e não expostos) e o desfecho (doentes e não
doentes). Essa metodologia pode ser representada em uma tabela
2x2. Segundo Coutinho, Scazufca e Menezes (2008), em estudos de
corte transversal com desfechos binários, a associação entre
exposição e desfecho poderá ser estimada pela RP.
Serão utilizados, como exemplo, dados de um estudo transversal
hipotético. O estudo foi realizado em determinada cidade após
período de enchente. Os pesquisadores gostariam de levantar a
soroprevalência de hepatite A e verificar se o contato com água
contaminada influencia a frequência da doença. Os dados foram
coletados e organizados na tabela de contingência (Tabela 10.1).
Tabela 10.1 - Organização dos dados de um estudo transversal sobre a associação entre
água contaminada e soroprevalência de hepatite A
Inicialmente, mensura-se a prevalência geral do desfecho:
1. Prevalência: percentual de indivíduos doentes (a + c) entre todos
os avaliados (a + b + c + d). Como os dados estão alocados nos
campos, utiliza-se a seguinte fórmula:
Fórmula 10.1 - Prevalência

Agora, será avaliada a influência da variável “contato com a água”


na prevalência da hepatite A:
2. Razão de Prevalência (RP): trata-se da razão entre a prevalência
do desfecho no grupo exposto (PGE) em relação ao grupo não
exposto (PGNE).
Fórmula 10.2 - Razão de Prevalência
Pode-se concluir que a prevalência de hepatite foi 2,31 vezes maior
entre os indivíduos que se expuseram à água contaminada quando
comparados com os não expostos a esse fator, sugerindo que esse
tipo de exposição seja considerado um fator de risco para a doença.
10.3.4 Estudo de coorte
10.3.4.1 Estrutura básica

A principal característica do estudo de coorte é a seleção de


indivíduos saudáveis (sem o desfecho) classificados segundo o grau
de exposição a um fator de interesse que se deseja investigar. Esses
indivíduos são, então, acompanhados ao longo do tempo para apurar
a incidência do desfecho de interesse. Nesse estudo, o interesse do
pesquisador é saber a frequência com que as pessoas se tornam
doentes, ou seja, a incidência.
Nos estudos tipo coorte, o pesquisador cataloga os indivíduos como
expostos e não expostos ao fator de estudo, segue-os por
determinado período e, ao final, verifica a incidência da doença entre
eles, comparando-a nos 2 grupos (MARQUES; PECCIN, 2005).
Há 2 tipos de estudo de coorte, segundo a localização temporal do
delineamento: prospectivo ou concorrente e retrospectivo ou não
concorrente (também chamado de coorte histórica). Tais estudos
também são chamados de “estudo de acompanhamento”, “de
incidência” ou “follow-up”.
A seleção dos participantes no estudo pode ser feita de 2 formas: por
meio de 2 grupos, um de indivíduos expostos e outro de indivíduos
não expostos ao fator de risco, ou seleciona-se um único grupo em
que estarão presentes indivíduos expostos e não expostos, fazendo,
em seguida, a sua classificação.
O objetivo do estudo é a comparação da incidência entre os grupos, e
para tanto é preciso garantir que todos os participantes não
apresentem o desfecho de interesse no início do estudo (o que
caracterizaria um caso prevalente). Essa característica do estudo de
coorte permite determinar uma relação temporal confiável entre
exposição e desfecho, essencial para determinar causalidade.
Um dos estudos de coorte mais conhecidos refere-se à pesquisa que
vem sendo desenvolvida na cidade norte-americana de
Framingham, Massachusetts. Em 1948, o Framingham Heart Study
embarcou em um projeto ambicioso de pesquisa em saúde para
identificar os fatores comuns que contribuem para doenças
cardiovasculares, seguindo o seu desenvolvimento por um longo
período em um grande grupo de participantes. Atualmente, o estudo
está avaliando a terceira geração de indivíduos (FRAMINGHAM,
2013).
10.3.4.2 Coorte prospectiva ou concorrente

A seleção dos participantes pode ser feita no presente, e estes são


observados até o desfecho. O delineamento prospectivo permite a
coleta mais detalhada dos dados de exposição, o acompanhamento
sistemático dos indivíduos com maior grau de refino e precisão e a
definição das variáveis que serão analisadas ao longo do tempo.
Porém, é um estudo longo, que demanda grande quantidade de
recursos (Figura 10.5).
Figura 10.5 - Características do estudo de coorte prospectiva ou concorrente
Fonte: Epidemiologia Clínica, 2006.

Uma coorte clássica inicia-se com um grupo de indivíduos


acompanhados ao longo do tempo. No caso de uma coorte
prospectiva, seleciona-se uma parcela da população com alguma
característica de interesse, como uma coorte de gestantes, que terá
como base de inclusão uma mulher que se torne gestante. São
selecionadas, então, as variáveis de exposição (álcool, tabaco,
violência), e essas gestantes são subdivididas em expostas e não
expostas aos fatores. Segue-se no tempo o desfecho (incidência ou
casos novos), por exemplo, abortamento. No final do estudo,
existirão mulheres que abortaram e estavam expostas aos fatores,
que abortaram e não estavam expostas, que não abortaram e
estavam expostas e que não abortaram e não estavam expostas.
Os fatores de risco são reconhecidos por meio da análise de
proporção de casos novos nesses grupos.
A amostra inicial apresenta apenas indivíduos não doentes ou sem o
desfecho. Cabe lembrar que os eventos de interesse podem ser:
ocorrência de novos casos, mortalidade por determinada causa ou
mudanças de um marcador biológico. Benseñor e Lotufo (2005)
afirmam que os estudos de coorte podem investigar, também,
respostas a tratamentos, embora não sejam indicados para a
inclusão de novos tratamentos na prática clínica, visto que os
participantes não estão randomizados e, consequentemente, com
fatores de confusão desbalanceados.
10.3.4.3 Coorte retrospectiva ou não concorrente

Na coorte retrospectiva, histórica ou ainda não concorrente, a


investigação inicia-se em um ponto no tempo em que tanto
exposição quanto desfecho já ocorreram (Figura 10.6). Nesse caso, o
registro inicial depende dos dados já coletados para outros
propósitos. É necessário confiar na memória dos participantes para
estabelecer a data de desenvolvimento do desfecho e para saber se
este não estava presente no início do estudo (caso prevalente). A
qualidade e o grau de detalhamento da informação obtida dependem
largamente do indivíduo e da sua memória, porém é um estudo que
pode ser feito de forma mais rápida e econômica, desde que haja
dados passados disponíveis.
Figura 10.6 - Características do estudo de coorte retrospectivo ou não concorrente
Fonte: Epidemiologia Clínica, 2006.

A estrutura de uma coorte histórica é a mesma que a de uma coorte


prospectiva, porém na primeira a coleta de dados é feita no presente,
ou seja, a definição entre exposição e desfecho é feita no presente,
mas a coorte já havia sido formada e iniciada anteriormente.
Imagine uma situação em que uma grande usina nuclear admite, no
ano de 2002, um contingente de 2.000 funcionários e, a cada mês,
avalia o estado de saúde de todos eles. No final de alguns anos,
existirá um banco de dados consistente sobre o estado de saúde
desses indivíduos ao longo do tempo. Um pesquisador com o
interesse de avaliar um tipo de câncer pode iniciar uma coorte
histórica em 2018, usando os dados dos funcionários admitidos na
empresa em 2002, verificando em seus registros a presença ou não
do desfecho de interesse e seus fatores. Quando se considera a
história natural de uma doença, ambos os delineamentos de coorte
podem ser considerados prospectivos, pois partem da exposição a
um fator e posterior desenvolvimento de desfecho, em oposição ao
estudo caso-controle, que parte do desfecho para estudar a
exposição e seria, então, retrospectivo, tanto no sentido temporal
quanto no sentido da história natural do desfecho.
As coortes retrospectivas podem ser indicadas para superar as
principais limitações das coortes prospectivas: incapacidade relativa
de abordar patologias pouco frequentes e com longo período de
latência; porém, para a operacionalização desse desenho, é preciso
contar com registros médicos confiáveis.
Estudos de coorte mantêm vasta literatura na área médica. Uma
pesquisa junto ao PubMed, com o termo “cohort study”, resulta com
2.062.635 trabalhos associados ao termo, com aumento de mais de
119.000 somente em 2018. A versão mais utilizada é a coorte
prospectiva. A seguir, apresentam-se 2 publicações de estudos de
coorte, uma prospectiva e outra retrospectiva.
Exemplo de estudo de coorte prospectiva, nomeado Retardo no
crescimento intrauterino, baixo peso ao nascer e prematuridade em
recém-nascidos de grávidas com malária, na Colômbia (TOBÓN-
CASTAÑO, 2011).
1. Objetivo do estudo: analisar a relação da malária gestacional com
esses efeitos em recém-nascidos, em uma região endêmica para
malária na Colômbia, entre 1993 e 2007;
2. Método: foram estudadas as características em 1.716 recém-
nascidos em um estudo de coorte. Fez-se seguimento em 394
gestantes com malária (27% por Plasmodium falciparum e 73% por
P. vivax) e 1.322 sem malária;
3. Resultado: foi encontrada uma relação entre a exposição à malária
na gestação e o risco maior de baixo peso ao nascer (Risco Relativo –
RR = 1,37; IC95% = 1,03 a 1,83), assim como estatura baixa (RR =
1,52; IC95% = 1,25 a 1,85), retardo no crescimento intrauterino (RR =
1,29; IC95% = 1 a 1,66) e prematuridade (RR = 1,68; IC95% = 1,3 a
2,17). A frequência de nascimentos prematuros foi maior nas mães
com malária por P. falciparum (77%) do que naquelas com P. vivax
(RR = 1,77; IC95% = 1,2 a 2,6);
4. Conclusão: o baixo peso ao nascer e o retardo no crescimento
foram associados à malária na gestação, na Colômbia. A infecção por
P. vivax foi relacionada com efeitos adversos sobre o recém-nascido,
de modo semelhante em relação à infecção por P. falciparum.
Exemplo de estudo de coorte retrospectiva, nomeado Progressão da
doença renal crônica: experiência ambulatorial em Santarém-PA
(CRESTANI FILHO, 2013).
1. Objetivo do estudo: conhecer aspectos demográficos, clínicos e
laboratoriais de pacientes com Doença Renal Crônica (DRC) não
dialítica e avaliar o impacto dessas variáveis na progressão da
doença;
2. Método: foi um estudo de coorte retrospectiva, composta de 65
pacientes adultos com DRC nos estágios 2 a 4, acompanhados e
tratados ambulatorialmente por média de 28,24 ± 13,3 meses;
3. Resultado: a idade média foi de 64,6 ± 12,6 anos. As principais
etiologias de DRC foram doença renal diabética (47,7%) e
nefrosclerose hipertensiva (34,2%). A maioria dos pacientes
encontrava-se no estágio 3 da DRC (44,6%), e a minoria alcançou os
alvos terapêuticos no controle de suas comorbidades, 40% para
pressão arterial e 38,7% para o controle glicêmico. A perda média
anual da taxa de filtração glomerular foi 3,1 ± 7,3 mL/min/1,73m2
(mediana = 1,4 mL/min/1,73m2), e 21,5% dos pacientes evoluíram
com DRC progressiva. Pressão arterial diastólica > 90 mmHg
aumentou 2,7 vezes o risco de evolução com DRC progressiva
(IC95% = 1,14 a 6,57; p = 0,0341), assim como Pressão Arterial
Sistólica (PAS) > 160 mmHg (RR = 3,64; IC95% = 1,53 a 8,65; p =
0,0053) e proteinúria (RR = 4,05; IC95% = 1,55 a 10,56; p = 0,0031).
Foram observadas, também, média de PAS maior (p = 0,0359) e
mediana de colesterol HDL menor (p = 0,0047) nos pacientes com
DRC progressiva;
4. Conclusão: nesse estudo, hipertensão e proteinúria foram fatores
de risco para evolução com DRC progressiva. Apesar do controle
clínico difícil, a minoria dos pacientes evoluiu com a forma
progressiva da DRC.
No geral, o estudo de coorte apresenta como vantagens permitir o
cálculo de incidência de um desfecho entre expostos e não expostos,
bem como a flexibilidade em escolher variáveis para registro
sistemático ao longo do estudo. Em contrapartida, ao se estudar um
desfecho raro, é preciso acompanhar um grupo muito grande de
indivíduos para obter algum resultado. Talvez a desvantagem mais
significativa do estudo de coorte seja comum a todos os estudos
observacionais: a posição do pesquisador é passiva, e ele não
influencia a distribuição dos indivíduos nos grupos.
Outras vantagens e desvantagens são apresentadas a seguir.
Quadro 10.3 - Vantagens e desvantagens
A principal vantagem dos estudos de coorte está na possibilidade de
cálculo das taxas de incidência de desfechos entre expostos e não
expostos, além de permitir o estudo de múltiplos
efeitos/consequências de um mesmo fator de exposição. Entre as
desvantagens, a principal é o potencial viés associado à perda de
seguimento (morte, migração, desistência e falta de adesão).
10.3.4.4 Associação entre exposição e desfecho

A expressão básica para risco é a incidência (frequência com que as


pessoas se tornam doentes em um período definido). Segundo
Fletcher e Fletcher (2006), em estudos de coorte a incidência da
doença é comparada entre 2 ou mais grupos que diferem quanto ao
status de exposição a um possível fator de risco/proteção (exposto
ou não exposto). Para comparar os riscos, diversas medidas de
associação entre a exposição e a doença, chamadas de medidas de
efeito, são comumente utilizadas. Essas medidas, que podem ser
calculadas na tabela de contingência, representam diferentes
conceitos de risco e são usadas com propósitos diferentes, em níveis
individual e populacional.
A seguir, será apresentado um exemplo de estudo de coorte com
desfecho e exposição binários. Trata-se de um estudo da relação
entre o uso de anticoncepcionais orais e bacteriúria. A proposição foi
investigada por Evans et al. (1978) em uma coorte de base
populacional de 2.390 mulheres, com idade inferior a 50 anos,
acompanhadas pelo período de 12 meses. Os dados do estudo foram
organizados na tabela 2x2 (Tabela 10.2).
Tabela 10.2 - Organização dos dados de um estudo de coorte sobre a relação entre o uso
de anticoncepcionais orais e bacteriúria

Fonte: adaptado de Evans et al., 1978.

Com relação a parâmetros individuais, pode-se, inicialmente,


mensurar a incidência geral do desfecho: 1. Incidência ou risco
absoluto (I): frequência de novos doentes (a + c) entre todos os
indivíduos em risco de adoecer (a + b + c + d). Nesse estudo, refere-
se à frequência com que as mulheres desenvolvem a bacteriúria,
calculada pela fórmula a seguir:
Fórmula 10.3 - Incidência ou risco absoluto

Nesse caso, pode-se afirmar que a taxa de novas mulheres


apresentando o desfecho foi de 4,3% no ano, ou seja, o risco absoluto
de desenvolver bacteriúria na coorte foi de 4,3%. A seguir, calcula-se
a diferença do risco entre mulheres expostas e não expostas ao
anticoncepcional.
2. Risco Atribuível (RA): diferença do risco (incidência) entre grupo
exposto (IGE) e não exposto (IGNE) em relação ao fator que se avalia.
Fórmula 10.4 - Risco atribuível

Essa última medida é muito útil para avaliar a importância da


exposição em relação à incidência total. Repare que existe bacteriúria
nos 2 grupos (IGE e IGNE); porém, no grupo exposto ao fator, existe
incidência adicional de 0,016 (o uso de anticoncepcional oral
aumenta o risco de bacteriúria em 0,016). O RA também pode ser
chamado de fração etiológica, uma vez que é calculada a incidência
do desfecho atribuído à exposição.
3. Risco Relativo (RR): é a razão entre as incidências do desfecho, ou
seja, entre o risco de apresentar o desfecho no grupo exposto (IGE)
em relação ao não exposto (IGNE).
Fórmula 10.5 - Risco relativo

Assim, pode-se afirmar que a incidência foi de 0,4 ou 40% maior nas
mulheres expostas ao anticoncepcional. Poderia ser dito, também,
que o anticoncepcional é um fator de risco para o desenvolvimento
desse desfecho, uma vez que é 40% mais provável que uma mulher
exposta ao anticoncepcional desenvolva bacteriúria, se comparada a
uma que não o utiliza. Por meio dos parâmetros obtidos em um
estudo de coorte, pode-se trabalhar com estimativas junto à
população. O RA e a fração atribuível na população são 2
possibilidades facilmente desenvolvidas.
4. Risco Atribuível na população (RAp): estima a incidência de uma
doença na população associada à prevalência de um fator de risco
(qual é a incidência da doença em uma população associada à
prevalência de um fator de risco?). Para desenvolver esse cálculo, é
necessário um parâmetro de prevalência da exposição. Aqui será
utilizado o parâmetro da prevalência de 66% (P = 0,66), levantado
na população de Pelotas, Rio Grande do Sul.
Fórmula 10.6 - Risco atribuível na população
Pode-se concluir que, se em uma população a prevalência do uso de
anticoncepcional for de 66% (Dias-da-Costa et al., 1996) e a
incidência obedecer à dinâmica da coorte estudada (EVANS et al.,
1978), existirá 1% de casos novos de bacteriúria em excesso, ou seja,
mais do que o normalmente ocorrido na população sem essa
exposição.
Esse tipo de informação pode ser muito útil para a organização de
políticas. Pense, por exemplo, em doenças como a AIDS e as
hepatites virais. O maior risco de infecção por esses vírus está no
compartilhamento de agulhas em grupos de usuários de drogas, e
não na relação sexual desprotegida. Esta última confere risco menor
de infecção. Contudo, quando se observa a prevalência do fator de
risco, existe uma diferença importante. Sabe-se que a prevalência de
pessoas que fazem sexo, na população, em geral é largamente maior
do que a de usuários de drogas. Então, o risco de infecção por relação
sexual, que é bem menos importante do que o compartilhamento de
agulhas, torna-se um fator importante.
5. Fração Atribuível na população (FAp): descreve a fração da
ocorrência de uma doença na população associada a um fator de
risco (que fração da doença em uma população é atribuível à
exposição a um fator de risco?). Para a execução desse cálculo, deve-
se conhecer a incidência do desfecho na população (IT – Incidência
Total) e RAp. Como exemplo, será utilizada uma IT hipotética de
3,1%, que seria a incidência de bacteriúria na população comparável
com a coorte.
Fórmula 10.7 - Fração atribuível na população

Assim, pode-se afirmar que 32% da incidência total da bacteriúria


na população é atribuível à exposição ao fator de estudo, ou seja, ao
anticoncepcional. De modo geral, esses 2 últimos estimadores
populacionais são pouco usados, já que, para a sua execução, é
necessário conhecer parâmetros populacionais, muitas vezes de
conhecimento impossível ou não viável.
10.3.5 Estudo caso-controle
10.3.5.1 Estrutura básica

Esse delineamento de estudo seleciona indivíduos que


desenvolveram e que não desenvolveram um desfecho de interesse
(ou seja, casos e controles) e procura avaliar a frequência de
exposição passada a fatores que se acreditam ser associados ao
desfecho (Figura 10.7). Assim, trata-se de estudo observacional,
longitudinal e unicamente retrospectivo. É importante frisar que os
controles devem ser pertencentes à mesma população a que
pertencem os casos, ou a comparação deixa de ser válida.
Para esse estudo, é imprescindível definir a população-base, em que
os casos devem ser uma amostra fidedigna dos casos totais e os
controles da mesma forma, inclusive para a exposição ao fator que se
deseja estudar. Caso haja restrição para a seleção de casos (por
exemplo, idade), essa mesma restrição deve ser aplicada aos
controles e enumerada no momento da inferência.
A inferência será válida para uma população com aquela restrição de
idade imposta à amostragem.
#IMPORTANTE
O estudo caso-controle é um estudo
observacional, longitudinal e necessariamente
retrospectivo.

Uma preocupação comum nesse tipo de estudo é que os casos e


controles sejam comparáveis. Se existem fatores predisponentes
conhecidos, a amostra deve ser restrita quanto à presença destes (se
possível), ou casos e controles devem ser pareados. O pareamento
refere-se ao procedimento pelo qual, para cada caso selecionado, são
recrutados 1 ou mais controles idênticos com relação a certas
características (no máximo 4), como sexo, idade e nível
socioeconômico. A escolha das variáveis para o pareamento deve
envolver possíveis variáveis de confusão.
A definição de “caso” é um ponto importante a ser frisado. Os
critérios de inclusão devem estar claros e bem documentados, quer
seja um resultado de exame laboratorial, com determinado ponto de
corte, quer seja um conjunto de sinais clínicos. A maioria dos
pesquisadores sustenta que apenas casos incidentes devem ser
utilizados nesse delineamento, mas existem algumas situações
específicas em que casos prevalentes podem ser de interesse. Uma
grande dificuldade com casos prevalentes é distinguir entre os
fatores importantes no processo de atingir o desfecho e aqueles
importantes em manter-se no desfecho (por exemplo, não se curar
ou não morrer). Como não existe certeza da data em que a condição
se manifestou, é difícil estabelecer uma linha temporal exata para a
presença dos fatores de interesse em casos prevalentes.
Figura 10.7 - Características do estudo de caso-controle

Fonte: adaptado de Epidemiologia, 2009.

Um estudo caso-controle inicia-se sempre com um grupo de


indivíduos afetados pelo desfecho de interesse. O que os
pesquisadores fazem é buscar outros indivíduos com características
semelhantes e comparar a presença dos fatores entre os casos e os
controles. Para isso, após a seleção dos controles (grupo de
comparação), ambos os casos e controles são pesquisados sob
exposições diversas de interesse, no passado. As situações
existentes, no final, serão casos que foram expostos, casos que não
foram expostos, controles que foram expostos e controles que não
foram expostos. A relação de avaliação de associação entre exposição
e desfecho é feita por meio dessa relação.
A coleta de dados sobre exposição ao fator de interesse e possíveis
variáveis de confusão deve ser feita com o mesmo nível de
detalhamento para casos e controles, para que esses dados sejam
comparáveis.
O ideal é utilizar o mesmo método de coleta desses dados e, se
possível, que o entrevistador não saiba quais são casos ou controles.
Os controles devem ser selecionados da população sob risco de
ocorrência do desfecho.
Estudos desse gênero são relativamente comuns na literatura
médica. Uma pesquisa rápida junto ao PubMed, utilizando o termo
case-control, aponta 1.145.964 registros relacionados com estudos
caso-controle, com aumento de mais de 72.000 somente em 2017.
No Brasil, eles não são tão utilizados quanto os estudos transversais,
por exemplo. Acompanhe o estudo desenvolvido por Gamba et al.
(2004) para compreender sua aplicação na pesquisa em
Epidemiologia.
Esse tipo de delineamento é muito útil para o estudo de doenças
raras ou com longos períodos de incubação, pois é possível localizar
os casos diretamente. É comparativamente mais econômico e mais
rápido de montar e conduzir e necessita de menor número de
participantes em relação ao estudo de coorte. Além disso, permite
que vários possíveis fatores predisponentes sejam estudados
simultaneamente e pode ser utilizado para avaliar componentes
genéticos e ambientais (THURSFIELD, 2005). Também é útil em
Vigilância Epidemiológica, quando aplicado em estudo de surto, em
especial aqueles por fonte de contaminação comum.
Deve-se ter cuidado para não confundir estudos caso-controle com
os de coorte retrospectivos, pois estes últimos medem a frequência
do desfecho, já que nenhum dos indivíduos que iniciou o estudo
apresentava o atributo de interesse, e, nos estudos caso-controle, o
grupo com desfecho é definido a priori e estuda-se o impacto das
exposições.
O contraponto é que não é possível estimar a proporção de expostos
e não expostos na população-base (exceto no delineamento
aninhado). Assim como no estudo de coorte retrospectiva, é preciso
confiar na memória dos participantes sobre exposição a
determinados fatores, e esta pode ser difícil de validar. A incidência
do desfecho em expostos e não expostos não pode ser calculada
(consequentemente, o RR também não), e, como em todos os demais
estudos observacionais, a distribuição dos grupos de expostos e não
expostos pode não ser aleatória em relação a outras variáveis que
representam risco (conhecido ou não), o que levaria a uma
inferência causal errônea, caso o pesquisador não tomasse as
devidas precauções. Outras vantagens e desvantagens podem ser
visualizadas na Quadro 10.4.
Exemplo de estudo caso-controle, nomeado Consumo de alimentos
de origem animal e câncer de boca e orofaringe (TOPORCOV et al.,
2012).
1. Objetivo do estudo: avaliar a relação entre alimentos de origem
animal e câncer de boca e orofaringe;
2. Método: estudo caso-controle, de base hospitalar, pareado por
sexo e idade (± 5 anos), com a coleta de dados realizada entre julho
de 2006 e junho de 2008. A amostra foi composta por 296 pacientes
com câncer de boca e orofaringe e 296 pacientes sem histórico de
câncer atendidos em 4 hospitais da cidade de São Paulo (SP), Brasil.
Foi aplicado um questionário semiestruturado, para a coleta de
dados relativos à condição socioeconômica e aos hábitos deletérios
(tabaco e bebidas alcoólicas). Para avaliação do consumo alimentar,
utilizou-se um questionário de frequência alimentar qualitativo.
A análise se deu por meio de modelos de regressão logística
multivariada, que consideraram a hierarquia existente entre as
características estudadas;
3. Resultado: entre os alimentos de origem animal, o consumo
frequente de carne bovina (OR = 2,73; IC95% = 1,27 a 5,87; P <
0,001), bacon (OR = 2,48; IC95% = 1,30 a 4,74; P < 0,001) e ovos (OR
= 3,04; IC95% = 1,51 a 6,15; P < 0,001) estava relacionado ao
aumento no risco de câncer de boca e orofaringe, tanto na análise
univariada quanto na multivariada. Entre os laticínios, o leite
apresentou efeito protetor contra a doença (OR = 0,41; IC95% = 0,21
a 0,82; P < 0,001);
4. Conclusão: o presente estudo sustenta a hipótese de que alimentos
de origem estejam relacionados à etiologia do câncer de boca e
orofaringe. Essa informação pode orientar políticas preventivas
contra a doença, gerando benefícios para a saúde pública.
Quadro 10.4 - Vantagens e desvantagens

As principais vantagens do estudo caso-controle envolvem o baixo


custo (em relação à coorte) e a possibilidade de obter informações
com base em um número pequeno de casos. Já as desvantagens
incluem a dificuldade para selecionar o grupo-controle e a
possibilidade de os dados de exposição no passado serem
incompletos ou inadequados.
Existe, além do estudo caso-controle convencional, o chamado
caso-controle aninhado (nested), um tipo de estudo em que a
população total é enumerada e acompanhada. Assim, o número de
casos descritos é o total de casos da população ou uma fração
representativa destes, enquanto os controles são selecionados entre
os indivíduos que estavam na população no momento em que cada
caso ocorreu. A grande vantagem dessa estratégia é minimizar o viés
de seleção, por termos certeza de que os controles são selecionados
da mesma população de casos. Esse tipo de estudo permite estimar a
frequência do desfecho por expostos e não expostos, o que é
incomum em estudos caso-controle convencionais. É muito comum
o desenvolvimento de estudos casos-controle aninhados a coortes,
formando, assim, estudos híbridos.
10.3.5.2 Associação entre exposição e desfecho

Odds ratio é a medida de associação do tipo probabilidade que é


utilizada em estudos caso-controle. Trata-se da razão entre as
chances de doença no grupo exposto em relação à doença no grupo
não exposto.
O RR não pode ser utilizado em estudos do tipo caso-controle, pois
não há como saber sobre taxas da doença, uma vez que os grupos
não são determinados pelo que acontece na natureza, e sim pelos
critérios de seleção estabelecidos pelo pesquisador. Utiliza-se,
então, uma estimativa desse parâmetro (proxy), denominada razão
de chances, ou Odds Ratio (OR), que é uma boa estimativa quando se
refere a doenças raras (BEAGLEHOLE; BONITA; KJELLSTRÖM, 2010).
O OR é a razão entre a chance de um indivíduo ser exposto no grupo
de casos e a chance de ser exposto no grupo-controle.
Para o desenvolvimento do estimador OR, será utilizado um estudo
caso-controle que avaliou a associação entre consumo recente de
carne e enterite necrosante na Papua-Nova Guiné, desenvolvido por
Millar, Smellie e Coldman (1985). Os dados do estudo foram
organizados na tabela 2x2 (Tabela 10.3). Repare, ainda, que a soma
total de expostos e não expostos não tem sentido prático, uma vez
que esses grupos são diferentes.
Tabela 10.3 - Organização dos dados de um estudo caso-controle sobre a associação
entre consumo recente de carne e enterite necrosante

Fonte: adaptado de Meat consumption as a risk factor in enteritis necroticans, 1985.

Como não há possibilidade de aferir nenhuma medida de frequência,


estuda-se logo a associação entre exposição e doença.
OR é uma medida de associação do tipo probabilidade. Trata-se da
razão entre as chances de doença no grupo exposto (a/c) em relação
à doença no grupo não exposto (b/d). Alguns autores chamam OR de
razão entre os produtos cruzados, pois a mesma fórmula pode ser
reescrita pela seguinte relação: [(a x d)/(b x c)].
Fórmula 10.8 – Odds ratio

Desse modo, pode-se afirmar que os indivíduos que apresentaram a


doença (casos) tiveram 11 vezes mais chances de ter ingerido carne
recentemente quando comparados com os controles. Assim, essa
ingestão pode ser considerada um fator de risco para enterite
necrosante. Lembre-se de que, embora OR seja uma aproximação de
RR, não deve ser utilizado o termo “probabilidade” para a descrição
de seus resultados, e sim “chance”.
10.3.6 Ensaios clínicos
10.3.6.1 Estrutura básica

Os ensaios clínicos constituem-se em uma poderosa arma de teste


de intervenções para a saúde. São estudos analíticos, prospectivos e
experimentais e têm por obrigação testar o efeito de uma
intervenção (SANTOS; BARBOSA; FRAGA, 2011). Trata-se de um
estudo em que um grupo de pessoas é acompanhado (como na
coorte), porém há intervenção terapêutica (nova droga) ou
preventiva (exame de rastreamento) por parte do pesquisador
(Figura 10.8). Os estudos de intervenção com indivíduos são
chamados de ensaios clínicos, e outros que envolvem agregados
populacionais, ou seja, uma comunidade inteira, são os ensaios
clínicos comunitários. A grande vantagem dos ensaios clínicos é
serem passíveis de terem a ferramenta mais poderosa para controle
dos fatores confundidores entre os grupos: a randomização. Quando
selecionamos uma amostra e a randomizamos em 2 grupos ou mais,
presume-se que todos os fatores confundidores, pelas leis das
probabilidades, estão balanceados entre os grupos. Isso significa
que, para qualquer intervenção realizada, o desfecho será devido à
intervenção e não a outros fatores. Por isso, o ensaio clínico
randomizado é o desenho que mais se aproxima do ideal para
inferência causal.
A primeira forma de classificar um ensaio clínico depende da
presença de controles. Um estudo de intervenção é dito controlado
quando são acompanhados 2 grupos: o primeiro é tratado com o
esquema terapêutico em estudo, e o outro recebe placebo ou
convencional (grupo-controle). Um exemplo apontado por
Medronho (2009) de estudos não controlados é o chamado estudo
“antes-depois”, em que todos os participantes recebem a mesma
intervenção e suas condições são verificadas no início do tratamento
e depois dele.
Figura 10.8 - Características dos ensaios clínicos

Fonte: Epidemiologia Clínica, 2006.

Os ensaios clínicos apresentam a mesma estrutura de uma coorte


prospectiva. No entanto, aqui os grupos de exposição não ocorrem
naturalmente, pois são expostos/não expostos experimentalmente,
em geral por critérios de randomização (aleatórios). O que será
verificado, com o tempo, é a diminuição da frequência do desfecho: o
fator experimental tem algum impacto na diminuição da
característica que agregava esses indivíduos nesse grupo, como uma
doença. Deve-se lembrar que, diferentemente da coorte, os estudos
clínicos sempre se iniciam com todos os indivíduos com a
doença/desfecho.
Uma segunda divisão desse método valoriza a forma de composição
dos grupos. De forma simplificada, o ensaio clínico controlado pode
ser randomizado, quando a alocação dos participantes nos grupos de
intervenção e controle é feita de forma aleatória; ou não
randomizado, quando os grupos experimental e controle são
formados com base em critérios de disponibilidade e conveniência,
havendo, portanto, maior possibilidade de viés (FLETCHER;
FLETCHER, 2006). Para o estudo ser considerado randomizado, a
alocação deve ser aleatória. Em outras palavras, deve haver,
necessariamente, um sorteio. Caso contrário, fatores confundidores
podem estar presentes. Além disso, quem deve ser randomizado são
os indivíduos, e não as comunidades. Caso elas sejam randomizadas
e suas taxas avaliadas após a intervenção, tratar-se-á de um ensaio
comunitário, podendo correr o mesmo risco de falácia ecológica,
presente nos estudos ecológicos. Além disso, quando não há
randomização, mas há experimento (por exemplo, avaliar a taxa de
mortalidade de um hospital antes e após a inauguração de um centro
de hemodinâmica), tratar-se-á de um quase-experimento.
Uma opção para alocação do grupo de intervenção é o ensaio clínico
controlado cruzado (crossover). Nesse caso, um grupo de pacientes
recebe um tratamento, e outro, o placebo. Após uma pausa temporal,
faz-se uma inversão, com a primeira metade recebendo o placebo, e
a segunda, o tratamento. Esse tipo de estudo permite comparar os
resultados em conjunto e, como cada indivíduo participa 2 vezes no
experimento, pode-se reduzir pela metade o número da casuística
em relação ao ensaio clínico controlado simples. Porém, deve-se
afastar a possibilidade de o tratamento ou sua falta na primeira fase
não ter repercussão na segunda.
Por fim, vale fazer um comentário sobre a chamada técnica de
mascaramento ou avaliação cega, que consiste em qualquer tentativa
de evitar que os participantes do estudo saibam qual é o tratamento
administrado.
Quadro 10.5 - Formas de realização dos ensaios clínicos
Efeito Hawthorne é um conceito que se originou nos estudos
Hawthorne e consiste em uma mudança positiva do comportamento
de um grupo de trabalhadores em relação aos objetivos de uma
empresa, devido ao fato de eles se sentirem valorizados pela
gerência ou pela direção da firma.
O mascaramento é uma das formas de controlar o efeito Hawthorne,
que recebe esse nome devido a uma instalação da Companhia
Elétrica de Chicago, onde foram feitos estudos sobre produtividade
de trabalhadores em diferentes condições, entre 1924 e 1932. Os
pesquisadores perceberam que, quando estavam presentes,
observando os trabalhadores, a produtividade melhorava, a despeito
das condições do ambiente. Nos ensaios clínicos, o efeito Hawthorne
é a tendência de os indivíduos mudarem seu comportamento quando
são alvos de atenção especial. O fato de o paciente saber que está
recebendo um novo tratamento pode ter efeito positivo e, ao
contrário, o fato de ele reconhecer que está no grupo de tratamento
convencional, ou sem tratamento, pode gerar um efeito
desfavorável.
Para viabilizar o mascaramento, muitas vezes, é necessário o uso de
um placebo, substância de aparência, forma e administração
semelhantes às do tratamento que está sendo testado, porém sem
princípio ativo. Por questões éticas, o placebo só deve ser utilizado
caso não exista um tratamento-padrão alternativo de eficácia
conhecida.
O ensaio clínico, como os demais estudos, deve recrutar um número
suficiente de pessoas para obter uma estimativa da resposta
desejada. Quando o tamanho da amostra necessária é muito grande,
o ensaio pode ser realizado em vários centros, o que caracteriza o
chamado ensaio multicêntrico (megaensaio ou megatrial).
Na literatura médica, são vastas as publicações que utilizam essa
metodologia, tendo em vista a necessidade de se conhecer com
clareza os mais diversos aspectos das diferentes intervenções a
serem realizadas. Uma busca no PubMed, usando “clinical trial”
como palavra-chave, resulta com aproximadamente 1.087.525
referências associadas ao termo, e somente em 2017 houve
acréscimo de cerca de 42.818 artigos.
A seguir, um exemplo interessante sobre uma intervenção
medicamentosa auxiliar na cessação do hábito de fumar,
desenvolvida nessa perspectiva, nomeado Parando de fumar cigarros
de tabaco com vareniclina: estudo clínico placebo controlado duplo-
cego randomizado (FAGERSTRÖM, 2010, tradução nossa).
1. Objetivo do estudo: avaliar a eficácia e a segurança da substância
vareniclina como auxiliar na cessação do hábito de fumar cigarros;
2. Métodos: estudo clínico randomizado, placebo-controlado,
duplo-cego e multicêntrico, desenvolvido em clínicas médicas de
atenção primária na Noruega e na Suécia. Os pacientes eram de
ambos os sexos, com idade superior a 18 anos, que fumavam pelo
menos 8 cigarros por dia sem período de abstinência e há mais de 3
meses antes do exame de seleção e que gostariam de parar de fumar.
A intervenção foi a substância vareniclina, na dosagem 1 mg, 2x/d,
titulada durante a primeira semana, ou o placebo, por 12 semanas,
com 14 semanas de observação após o tratamento. Os desfechos
analisados foram as taxas de abstinência entre as semanas 9 a 12 e 9
a 26;
3. Resultados: foram avaliados 431 participantes; destes 213
receberam a droga, e 218, o placebo. A taxa de abstinência na semana
9 a 12 foi maior no grupo da vareniclina do que no grupo placebo
[59% (125) versus 39% (85); RR = 1,60 (IC95% = 1,32 a 1,87);
diferença de risco de 20% e Número Necessário para Tratar – NNT =
5]. A vantagem da droga em relação ao placebo persistiu até a décima
quarta semana de acompanhamento [a taxa de abstinência contínua
para as semanas 9 a 26 foi de 45% (95) versus 34% (73); RR = 1,42
(1,08 a 1,79); diferença de risco de 11% e NNT = 9]. Entre os eventos
adversos mais comuns, ressaltam-se as náuseas [35% (74) versus
3% (6)]; fadiga [10% (22) versus 7% (15)]; cefaleia [10% (22) versus
9% (20)];
4. Conclusões: a vareniclina pode auxiliar na cessação do hábito de
fumar cigarros, com um perfil de segurança aceitável. A taxa de
resposta no grupo-placebo foi elevada, o que sugere uma população
menos resistente ao tratamento da cessação.
Segundo Hill (1969), o ensaio clínico randomizado é considerado o
delineamento padrão-ouro, pois é o que menos sofre a influência de
fatores de confusão e vieses em geral. Porém, apresenta limitações
importantes, especialmente do ponto de vista ético (Quadro 10.6).
Quadro 10.6 - Vantagens e desvantagens
Outra estratégia bastante utilizada em ensaios clínicos
randomizados é a análise por intenção de tratar (ou intention to
treat), apresentada no exemplo da Figura 10.9. Supõe-se a realização
de um ensaio clínico que teste a eficácia de uma nova técnica
cirúrgica comparando-a com o tratamento clínico padrão. A
hipótese em teste é que o tratamento cirúrgico é melhor do que o
tratamento clínico. Entretanto, após a randomização, alguns
pacientes do grupo clínico precisaram de tratamento cirúrgico de
emergência, e alguns pacientes do grupo cirúrgico desistiram da
cirurgia. Em outras palavras, houve cruzamento de tratamentos.
A análise por intenção de tratar não irá considerar a intervenção que
os pacientes receberam, e sim para qual grupo os pacientes foram
randomizados. Essa estratégia é utilizada por 2 motivos: o primeiro é
porque se aproxima mais da prática médica real; o segundo motivo é
que, ao usar essa técnica, introduz-se um viés conservador (isto é,
contra a hipótese) no estudo, de modo que, caso o tratamento
continue a ser eficaz mesmo usando a técnica, isso significa que, de
fato, o tratamento é eficaz. No exemplo citado (e ilustrado na Figura
10.9), a hipótese baseava-se no fato de que o tratamento cirúrgico
era melhor. Entretanto, quando houve cruzamento de tratamentos,
hipoteticamente o grupo randomizado para tratamento clínico teve
um desfecho pouco melhor do que o esperado (alguns pacientes
receberam cirurgia), e hipoteticamente o grupo randomizado para
cirurgia teve um desfecho pouco pior do que o esperado (alguns
desistiram). Desse modo, caso se use a análise por intenção de tratar
e mesmo assim o tratamento cirúrgico continuar a ser melhor, isso
significa que ele é tão bom, que, mesmo introduzindo esse viés,
ainda assim é superior.
Figura 10.9 - Exemplo de análise por intenção de tratar

Nota: quando há cruzamento de tratamentos, os grupos são avaliados de acordo com os


quais foram randomizados, e não para o que efetivamente receberam.
Fonte: elaborado pelos autores.

10.3.6.2 Estimadores de efeito de tratamento


Segundo Escosteguy (2009), há diversas formas de estudar os efeitos
do tratamento. Muitas dessas abordagens podem ser feitas após os
dados serem distribuídos na tabela 2x2. Será utilizado, a seguir, um
exemplo proposto pela própria autora, que trata dos resultados de
um estudo sobre os efeitos da trombólise intravenosa sobre a
mortalidade de 5 semanas no infarto agudo do miocárdio (Tabela
10.4).
Tabela 10.4 - Resultados do estudo sobre os efeitos da trombólise intravenosa na
mortalidade por infarto agudo do miocárdio

Fonte: adaptado de Epidemiologia, 2009.

Antes de adentrar as inúmeras possibilidades de avaliação do estudo


clínico, deve-se mensurar qual é a frequência do desfecho para os
diferentes grupos. Serão utilizadas as siglas Rt para designar o risco
no grupo tratado e Rc no grupo controle. Como ambas (Rt e Rc) são
frequências, podem ser facilmente obtidas pela divisão do número
de indivíduos com o desfecho pelo número total de indivíduos
expostos (uma vez que se trata do risco de morrer):
Esse procedimento é semelhante ao cálculo de incidência. Contudo,
aqui, trata-se de mortalidade tanto para o grupo que recebeu a droga
em teste quanto para o grupo-placebo, podendo ser chamada
também de letalidade (risco de morrer, dado que se apresenta em
uma doença). Pode-se verificar, por meio dessas frequências, que
existe mais morte no grupo de tratamento do que no grupo-placebo.
A seguir, serão resumidas algumas formas de medir o tamanho do
efeito do tratamento:
1. Redução Absoluta de Risco (RAR): refere-se à diferença de risco
entre os indivíduos controles em relação aos tratados, ou seja,
frequência do desfecho no grupo-placebo subtraída da frequência do
desfecho no grupo experimental. No caso a seguir, pode-se afirmar
que o risco de morte nos indivíduos tratados com a droga
experimental foi 3% menor em relação ao grupo-controle. RAR: 3%;
Fórmula 10.9 - Redução absoluta de risco

2. Risco Relativo: razão entre as incidências do desfecho, ou seja,


entre o risco de morte no grupo tratado e o controle. Desse modo, o
grupo tratado com trombolítico apresentou RR de morte de 0,76 em
relação ao controle, tratando-se, portanto, de uma intervenção
benéfica. Poderia ser utilizado o estimador de risco OR nesse caso,
desde que sua limitação fosse considerada. RR: 0,76;
Fórmula 10.10 - Risco relativo

3. Redução Relativa de Risco (RRR): expressa a redução percentual do


evento no grupo tratado em relação ao controle. Lembre-se de que
RR é uma razão; assim, quando resultar em 1, significa que o
desfecho ocorre igualmente em ambos os grupos, ou seja, receber
droga ou placebo não modifica o resultado (mortalidade). Ao subtrair
1 do RR, obtém-se a diferença do observado em relação ao que seria
nulo (1). Essa diferença é a redução do evento propriamente dita.
Fórmula 10.11 - Redução relativa de risco
Logo, quanto menor o RR, maior a redução percentual do evento no
grupo tratado em relação ao grupo-controle. Desenvolvendo o
exemplo, conclui-se que a droga em experimento possibilitou uma
redução na letalidade do infarto agudo do miocárdio de 24% em
relação ao grupo-controle. RRR: 24%;
4. NNT: essa medida expressa o número de pacientes que deve ser
tratado a fim de que um evento adverso adicional seja evitado. Por
exemplo, se uma droga tem o NNT = 5 em relação ao evento morte,
significa que 5 pacientes devem ser com ela tratados, com o objetivo
de uma morte adicional ser evitada.
Fórmula 10.12 - Número necessário para tratar

Note que, quanto maior a RAR, menor o NNT. Assim, se determinada


intervenção reduz muito o desfecho, serão necessários poucos
pacientes para tratar até que 1 apresente o resultado esperado.
Utilizando o exemplo citado, pode-se concluir que seria necessário
tratar 33 pacientes com a droga experimental, a fim de evitar a morte
de 1. Em outras palavras, para cada 33 indivíduos tratados, 1 morte é
prevenida. NNT: 33.
Apesar de apenas os estudos longitudinais (isto é, estudos de coorte
e ensaios clínicos) serem capazes de calcular o risco (incidência) da
exposição e, portanto, ter os tamanhos de efeitos medidos em risco
relativo, risco atribuível etc., não significa que não seja possível
expressar o tamanho de efeito em odds ratio também. Por exemplo,
em estudos de coorte, uma maneira muito utilizada de controlar
possíveis variáveis confundidoras é utilizar técnicas estatísticas
como análises multivariadas, como a regressão logística. Entretanto,
os resultados da regressão logística, por questões matemáticas, são
expressos em odds ratio; então, é possível que estudos de coorte que
utilizem essa técnica apresentem os resultados em odds ratio.
Porém, o contrário não é verdadeiro. Estudos de casos e controles,
que não são capazes de calcular risco (incidência), são obrigados a
calcular o tamanho de efeito em odds ratio, portanto não podem
expressar os dados em termos de risco relativo, risco atribuível etc.
Outra estratégia que os estudos de coorte também utilizam para
controle de variáveis confundidoras é a análise estratificada ou
estratificação.
10.3.6.3 Pesquisa de novos medicamentos

Antes de ser aprovada para comercialização no Brasil, uma droga


nova deve ser submetida a estudos rigorosos. Segundo a Agência
Nacional de Vigilância Sanitária (Anvisa), qualquer investigação em
seres humanos, objetivando descobrir ou verificar os efeitos
farmacodinâmicos, farmacológicos, clínicos e/ou outros efeitos de
produto(s) e/ou identificar reações adversas ao(s) produto(s) em
investigação, a fim de averiguar sua segurança e/ou eficácia, deve
seguir os passos referidos a seguir.
1. Fase pré-clínica: os estudos são realizados em animais. São
reunidas informações sobre absorção, distribuição, metabolismo,
eliminação da droga, além de suas ações e mecanismos. São
observados, ainda, os efeitos na capacidade reprodutiva e na saúde
da prole;
2. Primeira fase: são estudados seres humanos em pequenos grupos
de pessoas voluntárias, em geral, sadias. Estabelece-se uma
evolução preliminar da segurança e procuram-se caracterizar a
cinética e a dinâmica da nova droga;
3. Segunda fase: denomina-se estudo terapêutico piloto, em que as
pesquisas se realizam em um número limitado de pessoas e visam
demonstrar a atividade em pacientes afetados por determinada
condição patológica. Deve ser possível, também, estabelecer as
relações dose-resposta;
3. Terceira fase: são feitos estudos em grandes e variados grupos de
pacientes, objetivando determinar o resultado do risco-benefício em
curto e longo prazos das formulações do princípio ativo. Define-se o
perfil das reações adversas mais frequentes, assim como interações
relevantes e os principais fatores modificadores do efeito;
4. Quarta fase: vigilância de pós-comercialização. Mesmo depois da
aprovação de um medicamento novo, o fabricante deve coordenar
uma vigilância, comunicando imediatamente qualquer reação
medicamentosa adversa adicional ou não detectada. Médicos e
farmacêuticos são incentivados a participarem da monitorização
contínua do medicamento.
Os ensaios clínicos são os estudos epidemiológicos utilizados no
desenvolvimento e na investigação de novos medicamentos. Para
tanto, são divididos em 5 fases: pré-clínica, 1, 2, 3 e 4; esta última é a
etapa da pós-comercialização, quando o medicamento já foi
aprovado e se busca conhecer reações adversas ainda não detectadas.
Esse acompanhamento é importante, pois mesmo os estudos de pré-
comercialização mais abrangentes só conseguem detectar reações
adversas que ocorrem em cerca de 1 vez a cada 1.000 doses. Reações
adversas importantes que ocorrem 1 vez a cada 10.000 doses, ou
mesmo 1 vez a cada 50.000, podem ser detectadas apenas quando
grande número de pessoas já usou o medicamento, após seu
lançamento no mercado. O órgão responsável pela vigilância do
produto poderá suspender sua aprovação se novas evidências
indicarem que a droga representa um risco significativo à população.
A avaliação ética transforma-se em um marco essencial da
investigação clínica para assegurar que os seres humanos sejam
respeitados nos termos de sua dignidade, integridade e valores,
evitando que sejam usados apenas como instrumentos para a
obtenção de resultados.
O Código de Nuremberg (1947) foi o primeiro documento com
repercussão internacional que estabeleceu princípios éticos mínimos
a serem seguidos em pesquisa envolvendo seres humanos. Foi
elaborado em decorrência dos abusos e das atrocidades cometidos
durante a Segunda Guerra Mundial (nos campos de concentração
nazistas, os prisioneiros raciais, políticos e militares foram
colocados à disposição dos médicos para todo e qualquer tipo de
experimentação. Mediante o advento da comunicação e o alcance das
informações, que mostram ao mundo o conflito entre o interesse
científico e o interesse da sociedade em sua totalidade, e com a ética
tornando-se norteadora da evolução social, o choque das imagens da
Segunda Guerra produziu efeito ímpar sobre a comunidade científica
e a população). O código menciona que o consentimento voluntário
do ser humano é essencial quando da participação em ensaios
clínicos, além de afirmar a necessidade de estudos prévios em
animais, da análise de riscos e benefícios, da liberdade do
participante de se retirar no decorrer do experimento e da não
indução à participação (MARRUS, 1999).
Foi elaborada, em 1964, pela Associação Médica Mundial, a
Declaração de Helsinque, que determina que, em qualquer pesquisa
com seres humanos, cada participante deve ser informado
adequadamente sobre os objetivos, métodos, benefícios previstos e
potenciais perigos decorrentes do estudo. Os sujeitos de pesquisa
devem ser informados de que são livres para retirar, a qualquer
momento, seu consentimento em participar. Esse documento
condena ainda o uso do placebo quando já existe tratamento eficaz
estabelecido. Preconiza, também, que deve ser usado o menor
tamanho da amostra (obtido pelos cálculos) para atender aos
objetivos da investigação (VIEIRA; HOSSNE, 1998).
No Brasil, foi criada a Resolução 196/96 do Conselho Nacional de
Saúde, na qual constam as Diretrizes e Normas Regulamentadoras
de Pesquisa Envolvendo Seres Humanos e que se fundamenta nos
principais documentos internacionais resultantes das declarações e
diretrizes sobre pesquisas que envolvem seres humanos. Essa
resolução, além de normatizar a criação, composição e atuação de
Comitês de Ética em Pesquisa (CEPs) e da Comissão Nacional de
Ética em Pesquisa (CONEP), estabelece exigências éticas e científicas
para pesquisas envolvendo seres humanos e exige que o
esclarecimento dos sujeitos se faça em linguagem acessível (BRASIL,
1996).
10.4 ESTUDOS QUALITATIVOS
Até aqui, foram abordados delineamentos metodológicos, cujo
enfoque é a mensuração quantitativa de eventos. Nos últimos anos,
tem crescido o interesse em alargar o campo da investigação em
saúde para além dos indicadores básicos. Os fatores sociais têm,
progressivamente, assumido um papel tão importante como os
clínicos, a fim de compreender as motivações e percepções de todos
os componentes sociais envolvidos.
Interesses e realizações referentes a pesquisas qualitativas têm sido
crescentes no campo da Saúde. O método clínico-qualitativo é
definido como “aquele que busca interpretar os significados, de
natureza psicológica e complementarmente sociocultural, trazidos
por indivíduos (pacientes ou outras pessoas preocupadas ou que se
ocupam com problemas da saúde, como familiares, profissionais de
saúde e sujeitos da comunidade), acerca dos múltiplos fenômenos
pertinentes ao campo dos problemas da saúde-doença” (TURATO,
2005, p. 508). As principais diferenças entre os métodos
quantitativos e qualitativos são apresentadas no Quadro 10.7.
Quadro 10.7 - Diferenças entre métodos quantitativos e qualitativos
De acordo com o Quadro 10.7, os dados mostram que os métodos têm
identidades próprias, do momento em que seus autores levantam as
perguntas (hipóteses de trabalho) até quando redigem seus
relatórios finais de pesquisa. Diante da tamanha complexidade dos 2
olhares, Turato (2005) desaconselha o uso da terminologia “quanti-
quali”. Segundo o mesmo autor, o olhar quantitativo focaliza:
incidência, prevalência, fatores de risco e de sobrevida, achados
clínicos, diagnósticos, avanços terapêuticos e até análise custo-
benefício.
Já os métodos qualitativos valorizam os construtos: vivências e
experiências de vida, adesão e não adesão a tratamento, estigmas e
fatores facilitadores e dificultadores perante abordagens.
Quadro 10.8 - Características gerais dos estudos epidemiológicos
Como diferenciar um
estudo que pode impactar
na prática clínica de um
estudo com informações
falaciosas?
A diferenciação entre estudos válidos e não válidos passa
principalmente pelo conhecimento do poder dos estudos
epidemiológicos e sobre o que ele se propõe a responder.
Por exemplo, o ensaio clínico randomizado duplo-cego é o
estudo mais robusto para se testar uma intervenção
terapêutica. Caso outro tipo de estudo se proponha a
responder a mesma questão, esse estudo terá um valor
menor que o ensaio clínico. De modo geral, quanto maior a
capacidade de estabelecer relações causais entre variáveis,
mais robusto é o estudo.
#FALA AÍ
Tenho tido dificuldades em diferenciar estudos transversais de
estudos ecológicos. Qual é a diferença?
Estudos transversais são individualizados, que avaliam a prevalência
do desfecho em todos os indivíduos expostos e não expostos. Estas
pessoas são selecionadas e catalogadas pelo estudo. Já nos estudos
ecológicos, são avaliados os comportamentos populacionais, ou seja,
você não cataloga cada indivíduo que participa do estudo, e sim a
população como um todo.
Você saberia argumentar
por que é o tabagismo que
causa câncer de pulmão e
não outras características
genéticas e ambientais
comuns em tabagistas?

11.1 INTRODUÇÃO
Uma questão considerada fundamental na Epidemiologia envolve a
conceituação e a operacionalização metodológica da causalidade;
identificar causas é uma das formas do pensamento científico de
abordar a explicação das origens de um fenômeno. Assim, a causa
seria um agente eficaz, e desvendá-la garantiria conhecimento
maior a respeito do fenômeno estudado, uma vez que é possível
intervir sobre um efeito quando se remonta à sua origem.
Na ótica da Medicina, os médicos geralmente questionam se seus
pacientes com determinada doença foram expostos a possíveis
agentes causais; já os epidemiologistas observam se houve aumento
estatisticamente significativo da associação entre a doença e a
exposição estudada. Inicialmente, parecem 2 pontos de vista
distintos, contudo existe uma ideologia comum: observar possível
relação entre estar exposto e desenvolver a doença (causa e efeito).
Uma causa pode ser entendida como qualquer evento, condição ou
característica que desempenhe função essencial na ocorrência de
uma doença (LUIZ; STRUCHINER; KALE, 2009). A evolução do
conceito de causalidade está relacionada a uma mudança no
paradigma do conhecimento científico, com forte componente de
observação empírica que impulsionou a evolução da abordagem
epidemiológica e dos métodos estatísticos (LISBOA, 2008).
Os termos “causalidade” e “associação” são extremamente caros ao
pensamento científico em geral e ao raciocínio epidemiológico em
particular. No caso da pesquisa sobre fenômenos da saúde-doença,
diante da afirmação etiológica estável e demonstrada de que X causa
Y, não resta dúvida quanto à possibilidade de intervenção no que se
refere à prevenção do evento ou retificação de alguma situação
indesejável. Um exemplo trivial: colocar obstáculos de proteção em
terraços, abismos, pontes e outros locais elevados para evitar que
pessoas se aproximem e possam cair é uma iniciativa óbvia diante da
ameaça à vida oferecida pelas quedas de grande altura. Da mesma
forma, ninguém duvida que altas temperaturas ou frio intenso
representem risco à saúde/vida humana. Isso define indiscutíveis
medidas de proteção no seu uso. Em outras palavras, no âmbito da
prevenção em saúde, no momento em que se estabelece relação de
causa e efeito de caráter direto, tal relação articula 2 dimensões: a
definição de algo como perigoso e as medidas de proteção/prevenção
a tal perigo (COUTINHO et al., 2011).
A teoria da multicausalidade, com seus variados modelos
explicativos, tem hoje seu papel definido na gênese das doenças.
Surgiu em substituição à teoria da unicausalidade, que vigorou por
muitos anos e cujo único modelo existente era chamado de
“biomédico”. Esse pensamento atual considera que a grande maioria
das doenças advém de uma combinação de fatores que interagem
entre si e acabam desempenhando importante papel na
determinação delas, fato que deve ser levado em conta sempre que
um estudo ou uma pesquisa epidemiológica são desenvolvidos ou
simplesmente acessados para estudos. A Figura 11.1, adaptada de
Rothman (2011) ilustra bem esse conceito, utilizando como exemplo
um mecanismo de causa suficiente para a ocorrência de uma fratura
de quadril. Perceba que uma causa suficiente (ou seja, todos os
elementos do gráfico em conjunto) são necessários para que o
evento ocorra. Cabe notar que o maior componente sempre deve ser
de fatores inespecíficos e desconhecidos da patologia em questão.
Figura 11.1 - Causa suficiente para ocorrência de fratura de quadril

Legenda: (A) clima ruim; (B) calçada não adaptada para pedestres; (C) escolha
inadequada de calçado; (D) ausência de corrimão; (E) fatores desconhecidos e
inespecíficos.
Fonte: elaborado pelos autores.

Como outro exemplo dessas múltiplas causas, chamadas de


contribuintes, será citado o câncer de pulmão. Nem todo fumante
desenvolve câncer de pulmão, o que indica que há outras causas
contribuindo para o aparecimento da doença. Estudos mostraram
que descendentes de primeiro grau de fumantes com câncer de
pulmão tiveram chance 2 a 3 vezes maior de terem a doença do que
aqueles sem a doença na família; isso indica que há suscetibilidade
familiar aumentada para o câncer de pulmão. A ativação dos
oncogenes dominantes e a inativação de oncogenes supressores ou
recessivos são lesões que têm sido encontradas no DNA de células do
carcinoma brônquico e que reforçam o papel de determinantes
genéticos nessa doença (SRIVASTAVA; KRAMER, 1995; MENEZES,
2001).
Assim, mesmo depois de toda a trajetória epidemiológica
desenvolvida, não será possível observar um único fator (fator de
risco) e chamá-lo de causa, mesmo que atenda a todos os pré-
requisitos epidemiológicos. Justamente com esse pensamento,
alguns estudiosos criaram um conjunto de critérios e postulados que
devem ser utilizados para tratar de inferência causal. Tais critérios
não devem ser confundidos com modelos explicativos do processo
saúde-doença, muito embora alguns autores considerem os
assuntos sob a mesma linha de pensamento. Os modelos são
maneiras de pensar a realidade e expressam nossa imaginação sobre
como o mundo deve funcionar; já os critérios que serão aqui
apresentados têm uma proposta mais “singela”, que é estabelecer
uma regra para a inferência causal.
As possibilidades de estudo de associação foram apresentadas, e
uma delas destaca que a associação é um importante aspecto para o
estabelecimento de nexo causal. Entretanto, mesmo que 2 variáveis
estejam associadas, é preciso considerar alguns outros elementos
que devem fortalecer a ideia de causalidade, uma vez que algumas
associações poderão não ser entendidas como causas (Figuras 11.2 e
11.3).
Figura 11.2 - Processo de avaliação de causalidade
Fonte: elaborado pelos autores.

Figura 11.3 - Relação entre associação causal e não causal

Fonte: adaptado de Clinical Epidemiology, 2005.

Entretanto, poucos estudos, como ensaios clínicos randomizados de


tamanho amostral grande e bem conduzidos, conseguem controlar
bem os vieses de seleção, aferição e confusão. Assim, os principais
critérios para o julgamento de causa são os postulados de Henle-
Koch e os critérios de Bradford Hill e Henle-Koch-Evans,
apresentados a seguir.
11.2 POSTULADOS DE HENLE-KOCH
Em meados do século 19, em plena Revolução Industrial da Europa,
com o deslocamento das populações para as cidades e a ocorrência
das epidemias de cólera, febre tifoide e febre amarela, os estudiosos
ainda se dividiam entre a Teoria dos Miasmas e a Teoria dos Germes.
Ainda nesse século, o francês Louis Pasteur (1822-1895) não só
fundou as bases biológicas para o estudo das doenças infecciosas,
como também estudou outros conceitos epidemiológicos
importantes: o da resistência do hospedeiro e o da imunidade
(LISBOA, 2008; GUILAM, 2011). Robert Koch (1843-1910) e Louis
Pasteur (1822-1895) foram 2 dos fundadores da Microbiologia e
responsáveis por parte da atual compreensão da Epidemiologia
quanto às doenças transmissíveis. Foram, sobretudo, os descritores
da relação causal entre M. tuberculosis e a tuberculose (LISBOA,
2008).
Koch criou, também, um conjunto de regras conhecido como
“Postulados de Henle-Koch”, em 1882, que dava ênfase à etiologia
infecciosa das doenças (Quadro 11.1).
Quadro 11.1 - Postulados de Henle-Koch para explicação da associação causal

Fonte: adaptado de Epidemiologia, 2009.

O antraz foi a primeira doença a preencher todos esses critérios, os


quais, desde então, foram úteis em muitas outras moléstias
infecciosas e em intoxicações por agentes químicos. Entretanto, para
muitas doenças, tanto transmissíveis como não transmissíveis, os
postulados de Koch para determinar causalidade mostram-se
inadequados. Muitos agentes causais atuam em conjunto, e o
organismo causador pode desaparecer após o desenvolvimento da
doença, sendo, portanto, impossível a identificação do organismo no
indivíduo doente.
Os postulados de Henle-Koch aplicam-se quando a causa específica
é um agente infeccioso altamente patogênico, agente químico ou
outro agente específico que não apresenta portador saudável, logo
uma situação bastante incomum.
Nos anos que seguiram, houve uma transição de mortalidade por
doenças infecciosas para as doenças crônico-degenerativas que
impulsionou a evolução no conceito de causalidade, passando do
modelo monocausal para o que se chama de “rede de causalidade”,
na qual o conceito de causa etiológica dá lugar ao de fator
predisponente ou risco para a doença (WALDMAN, 1998).
A primeira referência à rede de causalidade surgiu em 1960, em
Epidemiology: Principles and Methods, livro de MacMahon e Pugh,
em que é catalogada e organizada toda a evolução conceitual e
metodológica da Epidemiologia.
11.3 CRITÉRIOS DE BRADFORD HILL
Em 1965, Austin Bradford Hill, epidemiologista e primeiro estudioso
a relacionar o uso de tabaco ao câncer de pulmão, propôs 9 critérios
(ou aspectos de associação, segundo ele próprio) a serem
considerados na distinção entre uma associação causal e uma não
causal, que ficaram conhecidos como critérios de Hill (Quadro 11.2).
A comparação entre os critérios de Koch e os de Hill mostra a
evolução de diferentes referenciais para o processo saúde-doença.
Enquanto no primeiro há a expectativa da monocausalidade, no
último há a especificidade entre causa e efeito (Lisboa, 2008).
Quadro 11.2 - Critérios de Hill para explicação da associação causal
Fonte: Statistical methods in clinical and preventive medicine, 1962.

Os critérios de Hill comparados com os de Koch


mostram uma evolução no modelo de
pensamento para o processo saúde-doença,
pois passa da ideia de monocausalidade para a
de especificidade entre causa e efeito.
Os critérios de Hill serão discutidos a seguir.

11.3.1 Força da associação


Uma associação forte tem maior probabilidade de ser causal do que
uma associação fraca, já que esta tem maior probabilidade de ser
ilegítima, por viés, confusão ou acaso. No entanto, uma associação
fraca pode ser causal. Assim, quanto mais elevada a medida de efeito
(risco relativo, odds ratio ou razão de prevalência), maior a
plausibilidade de a relação ser causal.
Exemplo
Um estudo sobre fumo em adolescentes mostrou que a força da
associação entre o fumo do adolescente e a presença do fumo no
grupo de amigos foi da magnitude de 17 vezes (odds ratio 17 – IC95%
= 8,8 a 34,8); ou seja, adolescentes com 3 ou mais amigos fumando
têm 17 vezes maior risco para serem fumantes do que aqueles sem
amigos fumantes (MALCON et al., 2003).

Um caso de associação forte tem maior


probabilidade de ser causal do que uma
associação fraca, apresentando, por isso, maior
medida de efeito (risco relativo, odds ratio,
razão de prevalência).

11.3.2 Consistência
Se a associação se observa repetidamente em diferentes populações e
diferentes circunstâncias, tem maior probabilidade de ser causal do
que de ser observação isolada. No entanto, falta de consistência não
afasta ligação causal, e pode acontecer que uma causa apenas o seja
na presença de fatores adicionais e/ou concomitantes.
Exemplo
A maioria, senão a totalidade, dos estudos sobre câncer de pulmão
detectou o fumo como um dos principais fatores associados a essa
doença (MENEZES, 2001).

11.3.3 Especificidade
O conceito aqui retratado implica que a causa apenas conduzirá a 1
efeito e não a múltiplos efeitos. Esse é um critério que pode ser
questionável, uma vez que algumas exposições conferem risco para
vários desfechos, como o caso da exposição ao tabaco, que confere
risco para câncer de pulmão, doenças cardiovasculares etc.
Exemplo
Poeira da sílica e formação de múltiplos nódulos fibrosos no pulmão
(silicose).

11.3.4 Temporalidade
A causa precede o efeito? A exposição ao fator de risco antecede o
aparecimento da doença e é compatível com o respectivo período de
incubação? Nem sempre é fácil estabelecer a sequência cronológica
nos estudos realizados, quando o período de latência é longo entre a
exposição e a doença.
Menezes (2001) sugere um exemplo desse critério: a prevalência de
fumo aumentou significativamente durante a primeira metade do
século, mas houve um lapso de vários anos até ser detectado o
aumento do número de mortes por câncer de pulmão. Nos Estados
Unidos, o consumo médio diário de cigarros, em adultos jovens,
aumentou de 1, em 1910, para 4, em 1930, e 10 em 1950, sendo que o
aumento da mortalidade ocorreu após várias décadas. Liu et al.
(1998) observaram que padrão semelhante vem ocorrendo na China,
particularmente no sexo masculino, só que com intervalo de tempo
de 40 anos. O consumo médio diário de cigarros, nos homens, era de
1 em 1952, 4 em 1972, atingindo 10 em 1992.
As estimativas, portanto, são que 100 milhões dos homens chineses,
hoje com idade de zero a 29 anos, morrerão por causas associadas ao
tabaco, o que implicará 3 milhões de mortes por ano quando esses
homens atingirem idades mais avançadas.
Esse é um dos critérios mais importantes quando associado aos
estudos epidemiológicos. Estudos como os de coorte (e ensaios
clínicos) e até mesmo os caso-controle são capazes de fazer uma
relação cronológica entre a exposição e o desfecho, fenômeno que
não poderá ser obtido por meio de estudo transversal, por exemplo,
pois o levantamento do desfecho e das exposições ocorre ao mesmo
tempo.
A temporalidade, na qual a causa precede o efeito, é o único critério
obrigatório para a avaliação de causalidade. Estudos que não são
passíveis de avaliação de temporalidade (como é o caso dos estudos
transversais) não são capazes de produzir evidências que afirmem
que a associação seja causal; ou seja, a temporalidade é um critério
necessário, porém não suficiente.
11.3.5 Gradiente biológico (efeito dose-resposta)
O aumento da exposição causa aumento do efeito? Sendo positiva
essa relação, há mais um indício do fator causal.
Exemplo
Os estudos prospectivos de Doll e Hill (DOLL, 1994) sobre a
mortalidade por câncer de pulmão e fumo nos médicos ingleses
tiveram seguimento de 40 anos (1951 a 1991). As primeiras
publicações dos autores já mostravam o efeito dose-resposta do
fumo na mortalidade por câncer de pulmão; os resultados desse
acompanhamento revelavam que fumantes de 1 a 14 cigarros/dia, de
15 a 24 cigarros/dia e de 25 ou mais cigarros/dia morriam 7,5 a 8,
14,9 a 15 e 25,4 a 25 vezes mais do que os não fumantes,
respectivamente.

11.3.6 Plausibilidade
A associação deve ter uma explicação plausível, concordante com o
nível atual de conhecimento do processo patológico.
A associação entre fumo passivo e câncer de pulmão é um dos
exemplos da plausibilidade biológica. Carcinógenos do tabaco têm
sido encontrados no sangue e na urina de não fumantes expostos ao
fumo passivo. A associação entre o risco de câncer de pulmão em não
fumantes e o número de cigarros fumados e anos de exposição do
fumante é, ainda, diretamente proporcional (efeito dose-resposta).
Embora, durante muitos anos, não se tenha acreditado, por
exemplo, que a úlcera gástrica ou o câncer de colo uterino poderiam
ter um componente infeccioso causal, os modelos recentes têm
demonstrado ação oncogênica do vírus HPV e mesmo o
envolvimento da bactéria Helicobacter pylori no processo
inflamatório gástrico.
11.3.7 Coerência
A assunção de causalidade deverá estar ligada a outras observações,
especialmente à história natural da doença (por exemplo, a relação
causal entre consumo de tabaco e câncer de pulmão era coerente
com as observações de que os fumantes tinham displasia do epitélio
brônquico). No entanto, a ausência de coerência não afasta relação
causal.
11.3.8 Evidência experimental
Mudanças na exposição resultam em mudanças na incidência de
doença. Por exemplo, sabe-se que os alérgenos inalatórios (como a
poeira) podem ser promotores, indutores ou desencadeantes da
asma; portanto, o afastamento do paciente asmático desses
alergênicos é capaz de alterar a hiper-responsividade das vias
aéreas, a incidência da doença ou a precipitação da crise.
11.3.9 Analogia
O observado é análogo ao que se sabe sobre outra doença ou
exposição.
Exemplo
É bem reconhecido o fato de que a imunossupressão causa várias
doenças; portanto, explica-se a forte associação entre HIV/AIDS e
tuberculose, já que, em ambas, a imunidade está diminuída.
Na atualidade, os critérios de Hill constam como um dos mais
discutidos em se tratando de inferência causal, embora raramente
seja possível comprovar os 9 postulados para determinada
associação. A pergunta-chave nessa questão da causalidade é a
seguinte: os achados encontrados indicam causalidade ou apenas
associação? O critério de temporalidade, sem dúvida, é indispensável
à causalidade; se a causa não precede o efeito, a associação não é
causal. Os demais critérios podem contribuir para a inferência da
causalidade, mas não necessariamente determinam a causalidade da
associação (MENEZES, 2001).
Embora se trate de uma abordagem muito útil em uma avaliação
geral do problema da causalidade, a “realidade” é mais complexa do
que emerge dos critérios anteriores. Basta pensar no que se conhece
sobre fatores de risco e na sua capacidade de atuação (aceleração ou
travagem) na cascata epidemiológica da causalidade. E a sua
classificação, por exemplo, em fatores de risco necessários,
suficientes, potencializadores, adjuvantes ou desencadeantes
ajudará a compreender essa complexidade, que as metodologias e
técnicas de investigação pretendem esclarecer e quantificar.
11.4 POSTULADOS DE HENLE-KOCH-
EVANS
Na mesma linha de Hill, o epidemiologista Alfred S. Evans descreveu,
em 1976, um conjunto de postulados que se constitui em uma
adaptação epidemiológica dos postulados de Henle-Koch, devido ao
fato de que, na prática, quando se trata de exposições não infecciosas
como as ambientais, as inferências biológicas não podem ser
estabelecidas com base no postulado de Henle-Koch e mesmo nos
critérios de Hill. Evans propôs alterações nos postulados originais,
criando os postulados de Henle-Koch-Evans (Quadro 11.3),
amplamente aceitos atualmente como critérios válidos para definir a
causa biológica da doença (THULER et al., 2003).
Thuler et al. (2003) explicam, ainda, que esses postulados não são
capazes de prover uma base completa para o estabelecimento de
uma relação causal, recorrendo-se à quantificação do risco
associado à exposição ao fator em estudo que se deseja atribuir “a
causa da doença”. O estudo de Marshall e Warren, que mostra a
associação entre úlcera péptica e Helicobacter pylori, é exemplo da
insuficiência da nomenclatura infecciosa/crônica, e os estudos de
genética do câncer, que se multiplicaram nos últimos anos, são
exemplos do desafio de revisão da concepção etiológica das doenças
(LISBOA, 2008).
Em 1985, Miettinen propôs o que chamou de “função de ocorrência”
para descrever as relações entre causa e efeito, que tem como
correspondentes subsídios de análise de associação estatística os
Modelos Lineares Generalizados, cujo modelo particular de
regressão logística encontra larga aplicação.
Quadro 11.3 - Postulados de Henle-Koch-Evans para explicação da associação causal
Fonte: Causation and disease, 1976.

Na atualidade, o postulado de Henle-Koch-


Evans é amplamente aceito para definir a causa
biológica da doença, uma vez que considera
exposições infecciosas e não infecciosas prévias
como causas para as diversas doenças.
Para superar essa dificuldade, Rothman e Greenland (2005)
propuseram formas de cálculo de efeitos por proposições lógicas de
união e intersecção de conjuntos de fatores causais. Eles apresentam
seu modelo geral de causalidade, sugerindo que, para a ocorrência da
doença, é necessário um conjunto de causas componentes. De forma
simplificada, pode-se interpretar como causa suficiente um
conjunto de eventos e condições mínimas que inevitavelmente
acarretam a doença. Assim, algumas causas componentes, quando
presentes em todas as causas suficientes alternativas, são chamadas
causas necessárias (LISBOA, 2008).
O fundamento de toda pesquisa é o método científico, que se baseia
na elaboração de conjecturas e na busca de evidências empíricas que
possam contribuir para negá-las ou confirmá-las. Assim, a busca de
regras ou receitas para inferir causalidade confere uma objetividade
pouco justificada a um processo que é, por definição, criativo e
imperfeito. Assim, seu uso deve ser visto como uma estratégia
subjetiva para facilitar a abordagem de um problema altamente
complexo.
Não há um critério totalmente confiável para determinar se uma
associação é causal. A “inferência causal” deve ser feita com base
nas evidências disponíveis: a incerteza sempre existirá assim que a
ciência atual for constituída.
Quando se toma uma decisão, deve-se dar peso adequado a
diferentes estudos. Ao avaliar os diferentes aspectos da causalidade
apresentados, a existência de clara relação temporal é essencial.
Uma vez que isso tenha sido estabelecido, os maiores pesos serão
dados para plausibilidade biológica, consistência e relação dose-
resposta. A possibilidade de que uma associação seja causal aumenta
quando diferentes tipos de evidência levam à mesma conclusão
(BEAGLEHOLE; BONITA; KJELLSTRÖM, 2010).
Evidências de estudos bem delineados são muito importantes,
especialmente se realizados em diferentes localidades. O uso mais
importante da informação sobre a causalidade de doenças e agravos
está na área da prevenção. Quando a cadeia causal é estabelecida com
base em dados quantitativos oriundos de estudos epidemiológicos,
as decisões sobre prevenção não serão controversas. Em situações
em que a causalidade não é bem estabelecida, mas a prevenção do
desfecho tem grande impacto sobre a saúde pública, o princípio da
precaução poderá ser aplicado para que sejam adotadas medidas
preventivas (BEAGLEHOLE; BONITA; KJELLSTRÖM, 2010).
11.5 AMOSTRAGEM
Outra variável importante para ser avaliada no momento de inferir a
causalidade de uma associação é a maneira como os dados foram
coletados. De modo geral, podemos afirmar que uma amostra é
adequada quando representativa da população de origem; isto é,
estima-se que a proporção das múltiplas variáveis encontradas na
população seja semelhante à proporção dessas mesmas variáveis na
amostra. Não existe método perfeito para que isso seja alcançado;
porém, a maneira mais precisa é uma seleção probabilística de
participantes na população, especialmente quando a amostra é
muito grande e aleatória. Dessa forma, os pacientes deveriam ser
selecionados aleatoriamente de uma população imaginária. Quanto
mais a amostra se aproximar desse ideal, maior será a capacidade de
o estudo poder inferir causalidade.
Figura 11.4 - Tipos de amostragem
Fonte: elaborado pelos autores.

11.5.1 Amostragem probabilística aleatória simples


A amostra probabilística aleatória simples é realizada quando cada
indivíduo da população tem a mesma probabilidade de ser
selecionado. Quando esse procedimento é feito em um grande
tamanho amostral, de modo que subgrupos minoritários da
população consigam ser selecionados, é teoricamente o padrão-ouro
das amostragens. Entretanto, quando a amostra é pequena,
indivíduos de subgrupos pequenos têm pouca probabilidade de
entrar na amostra, tornando o estudo deficitário. Esse tipo de
amostragem é realizado, por exemplo, em pesquisas de campanhas
eleitorais.
11.5.2 Amostragem probabilística estratificada
A amostra probabilística estratificada é realizada quando a
população é dividida em diferentes estratos de subgrupos e os
indivíduos são selecionados desses subgrupos.
É uma forma de garantir que todos os subgrupos, inclusive os
minoritários, façam parte da amostra. A desvantagem dessa
abordagem é que nem todos os subgrupos ficam representados, por
não terem sido identificados, ou que subgrupos com pouca
representatividade populacional ficam super-representados.
11.5.3 Amostragem probabilística por
conglomerados
A amostra probabilística por conglomerados é realizada
principalmente em estudos multicêntricos, como por exemplo,
selecionando hospitais representativos de um país. Para que isso
ocorra, os conglomerados devem ser selecionados aleatoriamente,
por meio de sorteio, caso contrário torna-se uma amostra de
conveniência.
Figura 11.5 - Amostragens probabilísticas esquematizadas

Fonte: EBM Academy vídeo-aula, 2017.

11.5.4 Amostragem por conveniência


A amostragem por conveniência é a mais usada pela facilidade de ser
obtida, embora a sua seleção não seja aleatória. A amostra, por essa
estratégia, é feita por meio de centros de saúde, instituições
acadêmicas ou locais em que os participantes sejam de fácil
obtenção. Não é uma prática incorreta, desde que, na interpretação
dos resultados, seja levado em conta a quem eles podem ser
aplicados. Entretanto, por conta disso, os resultados das pesquisas
clínicas resultam em um grande desafio aos clínicos, devido à
possibilidade de generalização dos resultados para sua prática
(FLETCHER;FLETCHER, 2005).
Você saberia argumentar
por que é o tabagismo que
causa câncer de pulmão e
não outras características
genéticas e ambientais
comuns em tabagistas?
O estabelecimento de que o tabagismo é um fator causal
para câncer de pulmão foi tema de amplo debate durante o
século 20, visto que não é possível realizar ensaio clínico
randomizado para testar essa hipótese. Desse modo,
alguns critérios causais, como os critérios de Bradford-Hill
auxiliaram nessa resposta. Fatores como força da
associação (um alto risco relativo), consistência
(observação em várias amostras), temporalidade (o uso do
cigarro precede o câncer), gradiente biológico (quanto
maior a carga tabágica, maior o risco), e analogia (uso de
cachimbo ou charutos) auxiliam na argumentação de que o
tabagismo é um fator causal.
Você sabe a diferença entre
revisão sistemática e meta-
análise?

12.1 INTRODUÇÃO
Este capítulo propõe a apresentação de um dos conteúdos mais
recentes discutidos em Epidemiologia e nas Ciências Médicas: a
Medicina Baseada em Evidências (MBE), as revisões sistemáticas e a
meta-análise. O médico que conhecer essas ferramentas estará apto
a fazer uma boa análise de novos trabalhos que forem publicados,
independentemente de sua área de atuação ou especialidade,
podendo lidar com a vastidão de informações que surgem no dia a
dia.
Tradicionalmente, a prática médica era em muito fundamentada na
experiência de cada profissional. As provas científicas tinham pouco
peso quando um médico tinha de tomar determinada decisão clínica.
Por mais contraditório que possa parecer, essa situação era ainda
mais presente no mundo acadêmico, quando o argumento de
autoridade, ex cathedra, prevalecia sobre qualquer outra coisa. No
entanto, setores importantes da classe médica, lentamente,
começaram a perceber que as decisões clínicas eram tão mais
apropriadas quanto mais embasamento encontravam em
conhecimentos provenientes de estudos científicos. Apesar da
grande resistência em determinados meios médicos, o movimento
favorável às decisões clínicas baseadas em evidências científicas
começou a ganhar corpo, sobretudo a partir da década de 1980
(CORDEIRO et al., 2012).
Nesse cenário, David Sackett e seu grupo da Universidade de
McMaster, no Canadá, cunharam o termo “medicina baseada em
evidências”. A ideia central era a de que os médicos se utilizassem de
modo consciencioso, explícito e judicioso da melhor evidência
científica atual quando tomassem decisões em seu trabalho de
cuidado individual dos pacientes. Obviamente, a MBE não nega o
valor da experiência pessoal do profissional, propondo apenas que
esta esteja alicerçada em evidências científicas, o que, além de tudo,
confere caráter ético à prática profissional (CORDEIRO et al., 2012).
Nas últimas 2 décadas, a produção científica apresentou crescimento
exponencial de artigos publicados em todas as áreas das Ciências da
Saúde. Utilizando um assunto relacionado à especialidade de
Cardiologia, a Figura 12.1 ilustra esse crescimento em um espaço de
tempo de 10 anos (2007 a 2017). Os termos-chave (descritores)
utilizados para essa pesquisa realizada junto ao PubMed foram:
“cardiovascular disease” e “adult”, considerando todos os tipos de
artigos (estudos originais, revisões, editoriais, entre outros).
Observe que existe crescimento médio elevado de cerca de 1.000
artigos por ano.
Figura 12.1 - Número de publicações entre 2006 e 2018 indexadas no PubMed,
relacionadas com doença cardiovascular em adultos
Essa evidência mostra a necessidade de sintetizar o conhecimento
científico para gerar atendimento melhor e mais próximo do mundo
“real” do paciente, por meio de provas obtidas das pesquisas básicas
e aplicadas.
A medicina baseada em evidências deve respeitar algumas etapas
para a síntese do conhecimento, que envolvem transformar as
necessidades de informação em perguntas passíveis de resposta;
buscar com máxima eficiência a melhor evidência para responder à
questão; avaliar criticamente as evidências quanto à sua validade e
utilidade; implementar os resultados na prática clínica; e, por fim,
avaliar o desempenho.
As principais metodologias que a MBE tem utilizado para a síntese
do conhecimento são revisão sistemática e meta-análise, descritas
metodologicamente a seguir.
12.2 MEDICINA BASEADA EM
EVIDÊNCIAS
A MBE refere-se ao aperfeiçoamento das competências tradicionais
do médico no diagnóstico, no tratamento, na prevenção e nas áreas
correlatas por meio do processamento sistemático de questões
relevantes e passíveis de resposta e do uso de estatísticas
matemáticas de probabilidade e risco (GREENHALGH, 2001). Em
outras palavras, a MBE utiliza provas científicas existentes e
disponíveis no momento, com boas validades interna e externa para
a aplicação de seus resultados na prática médica (EL DIB, 2007). A
MBE tornou-se factível, pois houve (GUIMARÃES, 2009):
a) O desenvolvimento das estratégias para busca e avaliação das
evidências;
b) A criação das revisões sistemáticas das intervenções em saúde;
c) O surgimento dos periódicos secundários com base em evidências;
d) A criação dos sistemas de informação que trazem até nós as
melhores evidências;
e) A identificação e a aplicação das estratégias efetivas para
aprendizado em longo prazo e melhora da performance clínica.

Para que a MBE seja desenvolvida na prática médica, alguns autores


estabeleceram passos para a busca de evidências, que podem ser
vistos no Quadro 12.1 (BENSEÑOR; LOTUFO, 2005).
Quadro 12.1 - Passos para realizar a busca de evidências
Fonte: adaptado de Epidemiologia: abordagem prática, 2005.

12.2.1 Passo 1

O primeiro passo na medicina baseada em


evidências é converter a informação que se
necessita conhecer sobre um paciente em uma
pergunta que possa ser respondida.

Inicialmente, é preciso converter a informação necessária sobre o


paciente em uma pergunta. Sackett et al. (1997) afirmam que esse
passo é o mais difícil na busca de melhores evidências para abordar
problemas clínicos. Para muitos médicos, os esforços para fazer
perguntas e procurar respostas são tão grandes que, somados à
limitação de tempo para leitura, impossibilitam que as necessidades
de informação sejam satisfeitas.
Os mesmos autores apontam os tópicos centrais do trabalho clínico
em que surgem frequentemente as perguntas clínicas. São eles:
achados clínicos, etiologia, manifestações clínicas das doenças,
diagnóstico diferencial, exames diagnósticos, prognósticos,
tratamento, prevenção, experiência e significado e automelhora.
Nobre, Bernardo e Jatene (2003) apontam, no primeiro de seus 3
artigos sobre a MBE, que a forma preconizada para a elaboração de
uma pergunta clínica é conhecida pelo acrônimo PICO (Quadro 12.2),
formado por “P” de “Paciente” ou “População”, “I” de
“Intervenção” ou “Indicador”, “C” de “Comparação” ou “Controle”
e “O” de “Outcome”, que significa desfecho clínico, resultado, ou,
por fim, a resposta que se espera encontrar nas fontes de informação
científica. “P” pode também ser problema ou “doença”.
Quadro 12.2 - PICO: como formular bem uma questão na medicina baseada em evidências

O acrônimo PICO forma um macete para a memorização do que é


necessário para formular uma questão em medicina baseada em
evidências: Paciente ou população, Intervenção ou indicador,
Comparação ou controle e Outcome (ou desfecho).
Lopes (2000) sugere a alternativa a seguir: a questão deve ser
enunciada da forma mais clara possível, para facilitar a pesquisa da
informação necessária e a identificação da melhor alternativa para a
resolução do problema. A questão tem sido colocada em um contexto
de 4 elementos:
a) Problema;
b) Fator de predição;
c) Alternativa;
d) Resultado ou evento.

É importante notar que, para determinar o valor preditivo de


determinado fator, torna-se necessária a comparação de 2 ou mais
alternativas. Dessa forma, os elementos 2 e 3 podem ser abordados
em conjunto, passando a questão a ser identificada por 3 elementos,
fáceis de serem lembrados por meio das iniciais PPR: Problema,
fator de Predição ou Preditor (P) e Resultado (R).
O fator preditor de resultado pode ser uma intervenção médica,
visando ao diagnóstico (por exemplo, teste diagnóstico positivo x
negativo) ou tratamento (por exemplo, anti-hipertensivo A x anti-
hipertensivo B), uma exposição (por exemplo, história positiva x
negativa para contato com portadores de tuberculose) a que o
paciente foi ou está submetido, comportamento do paciente (por
exemplo, história positiva versus negativa para hábito de fumar
cigarros), uma característica sociodemográfica (por exemplo, idade,
procedência, tipo de ocupação) ou um sintoma ou sinal do exame
físico. O resultado costuma ser um evento tipo cura ou melhora da
qualidade de vida.
O Quadro 12.3 traz 2 exemplos de questões construídas dentro do
contexto da MBE. No primeiro exemplo, ao unir os 3 elementos,
Problema (P), Preditor (P) e Resultado (R), a questão poderia ser
enunciada da seguinte forma: em pacientes adultos com
cardiomiopatia dilatada e em ritmo sinusal, o acréscimo de
anticoagulante oral à terapêutica habitual da insuficiência cardíaca
determina menor mortalidade e melhoria da qualidade de vida?
Quadro 12.3 - Elementos da questão clínica na perspectiva da medicina baseada em
evidências

12.2.2 Passo 2
O segundo passo da medicina baseada em evidências visa à busca
pela informação utilizando a abordagem “6S”: em Sistemas
computadorizados de apoio à decisão, Summaries (resumos),
Sinopse de sínteses, Sínteses ou revisões sistemáticas, Sínteses de
estudos isolados e Single original studies (estudos originais).
Uma vez formulada a pergunta, é preciso buscar a resposta. O
próximo passo para a aplicação da MBE, portanto, é o acesso à
informação. A busca pode ser realizada em bases de dados e
repositórios que disponibilizam os trabalhos científicos originais,
cabendo ao leitor o ônus de selecionar e analisar criticamente a
validade de seus resultados. Guimarães (2009) acrescenta que as
fontes de busca da melhor evidência para os cuidados de saúde estão
em constante aprimoramento. Atualmente, uma das estratégias
utilizadas é a da abordagem “6S”, desenvolvida por DiCenso, Bayley
e Haynes (2009), disponível para acesso a informações baseadas em
evidências (Quadro 12.4).
O primeiro S é o de Sistemas Computadorizados de Apoio à Decisão
(SCADs), os quais integram e sumarizam todas as evidências
relevantes sobre um problema clínico. Nesses sistemas, os dados
individuais dos pacientes são pareados com programas ou
algoritmos em uma base computadorizada, gerando recomendações
específicas para os médicos (GARG et al., 2005).
Quadro 12.4 - Abordagem “6S” para busca da melhor evidência

Fonte: adaptado de Accessing pre-appraised evidence: fine-tuning the 5S model into a 6S


model, 2009.

Quando não existe um SCAD para resolver um problema clínico,


utilizamos os Summaries (resumos), o 2S. Exemplos:
a) BMJ Clinical Evidence;
b) DynaMed;
c) Physicians’ Information and Education Resource (PIER);
d) UpToDate;
e) Registered Nurses’ Association of Ontario;
f) Canadian Diabetes Association;
g) National Guideline Clearinghouse.

O 3S é a Sinopse de sínteses, encontrada nos periódicos ou nas bases


de dados fundamentadas em evidências. Exemplos:
a) ACP Journal Club;
b) Evidence-Based Medicine;
c) Evidence-Based Mental Health;
d) Evidence-Based Nursing;
e) Database of Abstracts of Reviews of Effects (DARE).

As Sínteses (4S), ou revisões sistemáticas, são um resumo de todas


as evidências relacionadas a uma questão clínica específica. Podem
ser encontradas em:
a) ACP Journal Club Plus;
b) EvidenceUpdates;
c) Nursing+;
d) Cochrane Library;
e) Campbell Library.

As Sinopses de estudos isolados (5S) fornecem um resumo detalhado


de um artigo de boa qualidade. Também são encontradas nos
periódicos firmados em evidências, como ACP Journal Club Plus,
EvidenceAlerts e Nursing+.
Por fim, têm-se os Single original studies (estudos originais), 6S,
que podem ser acessados nas bases PubMed, EMBASE, PsycINFO®,
CINAHL etc. O Quadro 12.5 traz os endereços eletrônicos de algumas
dessas fontes.
Quadro 12.5 - Exemplos de fontes de informação para pesquisa
12.2.3 Passos 3 e 4

#IMPORTANTE
Os passos 3 e 4 da medicina baseada em
evidências são destinados a uma avaliação
crítica da literatura, a fim de determinar um
tipo de estudo que possibilite a menor
quantidade de viés possível.

O próximo passo crucial para uma pesquisa em busca de evidências é


a avaliação crítica da literatura. Para cada pergunta clínica, há um
tipo de estudo com menor possibilidade de viés. Logo, conhecer os
diversos tipos de estudo, suas vantagens e desvantagens é
fundamental para a seleção do tipo de estudo apropriado. No Quadro
12.6, estão presentes alguns dos tipos de estudos epidemiológicos
com uma breve descrição.
Quadro 12.6 - Tipos de estudos segundo a intervenção que se quer avaliar e suas medidas
de análise

Nota: no estudo de coorte existem as subdivisões: o estudo de coorte prospectivo e o


estudo de coorte retrospectivo; entre os 2, o prospectivo acaba sendo melhor.

Quando publicam os seus resultados, os pesquisadores almejam a


generalização de seus dados para um contexto mais universal.
Contudo, cabe a cada leitor julgar a real aplicação dos resultados na
sua realidade de trabalho, sobretudo na resposta de sua pergunta.
Essa capacidade de generalização chama-se validade externa.
Porém, mesmo com a validade externa aceitável, o leitor precisará
dimensionar a aplicação dos resultados no seu contexto local de
trabalho e no caso clínico em questão (passos 3 e 4).
12.2.4 Força de evidência
O Centre for Evidence-Based Medicine (CEBM-Oxford) desenvolveu
graus de recomendação e forças de evidências atualmente utilizados
pelas diferentes sociedades especializadas. No Brasil, por exemplo, a
Sociedade Brasileira de Cardiologia (SBC) utiliza esse sistema com o
objetivo de analisar o nível de evidência científica por tipo de estudo.
Os graus de recomendação e força de associação, elaborados pelo
CEBM-Oxford, são:
a) Estudos experimentais ou observacionais de melhor consistência;
b) Estudos experimentais ou observacionais de menor consistência;
c) Relatos de casos (estudos não controlados);
d) Opinião desprovida de avaliação crítica, com base em consensos,
estudos fisiológicos ou modelos animais.

Fundamentado nesses pressupostos, o CEBM-Oxford chegou aos


níveis de evidência científica para cada tipo de estudo, que são
utilizados nas diretrizes de diferentes sociedades e norteiam a MBE.
Podem ser analisados no Quadro 12.7.
Quadro 12.7 - Nível de evidência científica por tipo de estudo
Fonte: adaptado de The Oxford 2011 Levels of Evidence 2011, [2011?].

A hierarquia dos níveis de evidências apresentada é válida para


estudos sobre tratamento e prevenção. Se a questão formulada for
relacionada a fatores de risco, prevalência de uma doença ou
sensibilidade e especificidade de um teste diagnóstico, a ordem dos
níveis de evidências apresentados será modificada em virtude da
questão clínica. Em outras palavras, a hierarquia dos níveis de
evidências não é estática, mas, sim, dinâmica. O grau de evidência
surge devido à questão de que alguns delineamentos de pesquisa são
mais efetivos em sua função de solucionar questões sobre as
intervenções, trazendo a ideia de hierarquia das evidências (Figura
12.2).
Figura 12.2 - Tipos de estudo segundo a força de evidência

Fonte: adaptado de Introdução à medicina baseada em evidências: avaliação crítica da


literatura, 2003.

A hierarquização dos trabalhos científicos promove uma estrutura


para ordenar evidências que avaliam intervenções na área de Saúde e
indica que estudos devem ter mais confiabilidade na avaliação em
que uma mesma questão é examinada por diferentes estudos.
Observe que, tanto no Quadro 12.7 quanto na Figura 12.2, nos níveis
mais elevados estão os estudos de revisão sistemática e meta-
análise, portanto será apresentada uma síntese sobre a metodologia
de cada um desses estudos nos próximos tópicos.
Um conceito paralelo à MBE tem sido adotado na atualidade como
Prática Baseada em Evidências (PBE), pois foi abraçada por outras
áreas do conhecimento, como Enfermagem, Saúde Mental,
Fisioterapia, Terapia Ocupacional, Educação e Psicoterapia, entre
outras, abordando temas relativos a prevenção, diagnóstico,
tratamento e reabilitação. Essa prática também é utilizada pelos
formuladores de políticas de saúde e gestores de serviços de saúde,
não sendo hoje mais exclusividade da Clínica (SAMPAIO; MANCINI,
2007; SANDELOWSKI; BARROSO, 2007; JOANNA BRIGGS
INSTITUTE, 2008; DE-LA-TORRE-UGARTE-GUANILO;
TAKAHASHI; BERTOLOZZI, 2011).
12.3 REVISÃO SISTEMÁTICA
A revisão sistemática é uma metodologia rigorosa que inclui etapas
específicas que devem ser cumpridas, dividindo-se em 7:
formulação da pergunta, localização e seleção dos estudos, avaliação
crítica dos estudos, coleta de dados, análise e apresentação dos
dados, interpretação dos resultados e aperfeiçoamento e atualização.
A revisão sistemática constitui o meio de obter os subsídios para a
MBE ou PBE. É uma metodologia rigorosa, proposta para identificar
os estudos sobre um tema em questão, aplicando métodos explícitos
e sistematizados de busca; avaliar a qualidade e validade desses
estudos, assim como sua aplicabilidade no contexto em que as
mudanças serão implementadas, para selecionar os estudos que
fornecerão as evidências científicas e disponibilizar a sua síntese
com vistas a facilitar sua implementação na PBE. Cada um desses
momentos é planejado no protocolo da revisão sistemática,
considerando critérios que os validam para minimizar o viés e
outorgar qualidade à metodologia. Devem-se registrar os
procedimentos desenvolvidos em cada momento, para possibilitar
que a revisão sistemática seja reproduzida e conferida por outros
pesquisadores, tornando-a uma metodologia consistente para
embasar a PBE (EGGER; SMITH; ALTMAN, 2009; GREEN ET AL.,
2011;
DE-LA-TORRE-UGARTE-GUANILO; TAKAHASHI; BERTOLOZZI,
2012).
A expressão “revisão sistemática” surgiu em oposição à expressão
“revisão narrativa”. As revisões narrativas são bastante apropriadas
para descrever a história ou a evolução de um problema e seu
gerenciamento, bem como para discutir o assunto do ponto de vista
teórico ou contextual, estabelecer analogias ou integrar áreas de
pesquisa independentes, com o objetivo de promover um enfoque
multidisciplinar.
Dessa maneira, a revisão sistemática difere da revisão tradicional,
também conhecida como revisão narrativa da literatura, pois
responde a uma pergunta mais pontual. Para superar possíveis
vieses em cada etapa, exigem-se o planejamento de um protocolo
rigoroso sobre busca e seleção das evidências científicas, avaliação
da validade e aplicabilidade das evidências científicas e síntese e
interpretação dos dados oriundos das evidências científicas
(CORDEIRO et al., 2007; DE-LA-TORRE-UGARTE-GUANILO;
TAKAHASHI; BERTOLOZZI, 2012).
No entanto, as revisões narrativas não fornecem respostas
quantitativas para questões clínicas específicas. O Quadro 12.8
sintetiza as principais diferenças entre as revisões narrativas e
sistemáticas. Neste capítulo, os esforços estarão concentrados nas
revisões sistemáticas e na meta-análise, por serem metodologias
mais científicas do que as revisões narrativas.
Quadro 12.8 - Diferenças entre revisão narrativa e revisão sistemática
A execução de uma revisão sistemática baseia-se em métodos
sistemáticos e predefinidos. Assim, uma revisão sistemática é
executada em passos ou etapas. A metodologia da revisão
sistemática inclui etapas específicas que devem ser cumpridas. A
recomendação, em 7 passos, quanto à efetuação da revisão
sistemática (CLARKE; OXMAN, 2000) está a apresentada a seguir.
1. Formulação da pergunta: deve ser definido o PICO e devem ser
especificadas as características dos artigos (idioma, ano de
publicação, estado de publicação) a serem utilizadas como critério de
elegibilidade. Questões mal formuladas levam a decisões obscuras
sobre o que deve ou não ser incluído na revisão;
2. Localização e seleção dos estudos: não existe uma única fonte de
busca de estudos. Para identificar todos os estudos relevantes, é
necessário pesquisar nas bases de dados eletrônicas (como
MEDLINE, EMBASE, LILACS, Cochrane Central Register of
Controlled Trials, SciSearch etc.), verificar as referências
bibliográficas dos estudos relevantes, solicitar estudos de
especialistas e pesquisar manualmente algumas revistas e anais de
congressos. Cada uma das fontes usadas deve estar identificada em
relação ao método que se utilizou para encontrá-la;
3. Avaliação crítica dos estudos: existem critérios para determinar a
validade dos estudos selecionados e a probabilidade de suas
conclusões estarem firmadas em dados viciados. Com a avaliação
crítica, identificam-se os estudos válidos para inclusão na revisão,
bem como aqueles que não preenchem os critérios de validade. Cada
estudo excluído deve ser citado, junto à justificativa de sua exclusão;
4. Coleta de dados: as variáveis de cada estudo, as características da
metodologia e dos participantes e os desfechos clínicos são
registrados e resumidos. A avaliação desses parâmetros permitirá a
comparação ou não dos estudos selecionados. Eventualmente, será
necessário entrar em contato com os autores dos estudos para
solicitar informações mais detalhadas omitidas na publicação;
5. Análise e apresentação dos dados: o agrupamento dos estudos
selecionados para a meta-análise baseia-se na semelhança entre
eles. Cada um desses agrupamentos deverá ser preestabelecido no
projeto, assim como a forma de apresentação gráfica e numérica,
para facilitar o entendimento do leitor. Contudo, revisões
sistemáticas de estudos observacionais podem não apresentar meta-
análise pela diversidade entre eles;
6. Interpretação dos resultados: são determinadas a força da
evidência encontrada, a aplicabilidade dos resultados, as
informações sobre custo e a prática corrente e tudo mais que seja
relevante para a determinação clara dos limites entre riscos e
benefícios;
7. Aperfeiçoamento e atualização: depois de publicada, a revisão
sistemática passa por um processo de avaliação no qual receberá
críticas e sugestões que devem ser incorporadas às edições
subsequentes. Uma revisão sistemática é, portanto, uma publicação
viva, que pode ser atualizada cada vez que surgem novos estudos
sobre o tema.
Uma maneira simplificada de ilustrar uma revisão sistemática é
entendê-la como um quebra-cabeça. Por meio desse exemplo, a
literatura pode ser vista como um amontoado desorganizado de
peças para vários quebra-cabeças diferentes. Realizando uma
revisão sistemática, é possível identificar as peças que serão úteis em
cada um deles. Com base nessa montagem, é possível analisar a
consistência científica do que pode auxiliar em uma decisão clínica.
12.4 META-ANÁLISE
A meta-análise consiste em uma análise estatística que visa
sintetizar resultados dos diversos estudos incluídos na revisão
sistemática, a fim de obter um resultado, que é representado por
meio de um gráfico chamado forest plot.
Uma meta-análise refere-se a uma análise estatística para sintetizar
resultados dos vários estudos incluídos em uma revisão sistemática.
Como conceituado, a meta-análise é uma análise estatística que
objetiva maior poder estatístico e maior precisão para estimar
efeitos de pequena magnitude, consistência ou heterogeneidade de
resultados e generalização desses resultados. O resultado da análise
estatística é representado em um gráfico chamado forest plot
(Figura 12.4).
Segundo Mancini et al. (2014), forest plot é a representação gráfica
das medidas dos efeitos de cada estudo individual, assim como a dos
efeitos combinados. O termo “forest” (floresta, em inglês) foi criado
porque o gráfico parece uma floresta de linhas. A linha vertical
central indica quando não há diferença(s) estatisticamente
significativa(s) entre os grupos. Os pontos representam as médias
das diferenças de cada estudo, e as linhas horizontais, os intervalos
de confiança ao redor das médias das diferenças. O losango, também
chamado diamante, representa a média combinada de todos os
efeitos dos estudos da comparação analisada pela meta-análise.
A interpretação de uma figura forest plot é simples: se o diamante ou
os intervalos de confiança tocarem a linha central do gráfico, indica
que não há diferença estatisticamente significativa entre os grupos.
A seguir, veremos um passo a passo de como criar um gráfico forest
plot:
1. Passo 1: Lista de estudos dos quais os dados foram coletados; são
essas as publicações selecionadas na revisão sistemática;
2. Passo 2: linha vertical é a linha que delimita o valor basal do
estimador de risco, que pode ser Odds Ratio (OR), Razão de
Prevalência (RP) ou Risco Relativo (RR);
3. Passo 3: cada linha na vertical refere-se ao Intervalo de Confiança
(IC95%) de um estudo;
4. Passo 4: a área representa a contribuição de cada estudo na análise
(áreas maiores indicam estudos com estimativas mais precisas);
5. Passo 5: o diamante representa o resultado da combinação dos
estudos (meta-análise). O ponto central representa o estimador da
meta-análise, e seu tamanho mostra o IC – a Figura 12.3 traz uma
versão ampliada para simular que a extensão entre a esquerda e a
direita se refere ao IC; assim, se algumas dessas bordas estiverem
sobre a linha horizontal (2), o resultado da meta-análise não terá
significância estatística. A estimativa final (resultado) será sempre
expressa de acordo com o estimador dos estudos originais (RR, OR,
RP, média etc.);
6. Passo 6: na coordenada x desse gráfico, estão expressos os valores
dos estimadores de risco ou medidas de associação.
Figura 12.3 - Meta-análise de avaliação do risco de fenda palatina em filhos de mães que
fumaram na gestação em relação aos filhos de mães que não fumaram
Fonte: adaptado de Epidemiologia Básica, 2010.

Figura 12.4 - Gráfico tipo forest plot com risco relativo e IC 95% para reação local
associada à toxina botulínica em estudos randomizados

Fonte: adaptado de Efeitos adversos associados à aplicação de toxina botulínica na face:


revisão sistemática com meta-análise, 2008.

Os elementos principais do gráfico tipo forest plot estão demarcados


por números. Outros elementos geralmente presentes estão
representados na Figura 12.4: a segunda coluna contém os dados do
grupo experimental de cada estudo. Os valores indicam o número de
eventos (n) e o tamanho do grupo (N). Na próxima coluna, estão os
dados do grupo-controle, e os valores também indicam o número de
eventos no grupo (n) e o tamanho deste (N). No rodapé da Figura
12.4, encontram-se algumas informações sobre a meta-análise,
como o teste de significância do efeito global (um valor de p para a
meta-análise) e o resultado para a medida de inconsistência (I2),
que mede quanto da diferença, entre os estudos, se deve à
heterogeneidade. No resultado expresso em porcentagem, em que
inconsistências de até 25% são consideradas baixas; 50%,
intermediárias; e maiores que 75%, altas, a realização da meta-
análise pode ser questionável.
É importante lembrar, também, que as meta-análises e revisões
sistemáticas estão sujeitas a diversos vieses, dentre os quais os
principais são qualidade de estudos e publicação. O viés de
publicação está relacionado com a não publicação de resultados não
esperados. Por exemplo: um grupo está estudando o efeito de uma
intervenção na redução da gordura corpórea em adolescentes, mas a
intervenção não tem efeito. Os pesquisadores podem querer não
publicar a pesquisa ou, se submeterem o artigo, o editor/revisor
pode não aceitar o trabalho para publicação porque o resultado não
foi o esperado.
Outro gráfico importante nas meta-análises é o funnel plot (ou
gráfico de funil), que serve para identificação de viés de publicação
entre os estudos. Viés de publicação é um fenômeno que ocorre
quando há a tendência de publicação de resultados estatisticamente
significativos em detrimento de resultados negativos (sem
significância estatística). Por exemplo, vamos supor que
determinada medicação tenha um tamanho de efeito real na
população de um risco relativo entre 0,6 e 0,7. Simplesmente por
erro amostral (acaso), alguns estudos encontrarão tamanhos de
efeito maiores (por exemplo, risco relativo entre 0,3 e 0,4) ou
tamanhos de efeito menores e nulos (por exemplo, risco relativo
entre 0,9 e 1,2). Por viés de publicação, há a tendência de que os
estudos sem significância estatística, caso do último estudo citado,
não sejam publicados, o que faz com que, na meta-análise, o
tamanho de efeito fique superestimado por sumarizar apenas
resultados positivos. Além disso, os estudos sem significância
estatística tendem a ter menor tamanho amostral, o que dificulta
ainda mais a publicação. Dessa forma, o gráfico de funil propõe-se a
analisar esse fenômeno plotando, no eixo x, o tamanho de efeito e,
no eixo y, o tamanho amostral (n) do estudo (Figura 12.5). Espera-
se, em um estudo sem viés de publicação, uma simetria de
resultados, com resultados tanto negativos quanto positivos,
principalmente em estudos com amostras pequenas. À medida que
aumenta o tamanho amostral, o tamanho de efeito se aproxima do
tamanho de efeito real.
Figura 12.5 - Funnel plot ou gráfico de funil

Legenda: (A) apresenta estudos claramente com viés de publicação, pois estão todos
concentrados à direita do tamanho de efeito real e da meta-análise; (B) apresenta
resultados simetricamente em torno do tamanho de efeito real, causando um efeito de “funil
invertido”.
Fonte: adaptado de Misleading Meta-Analysis: Lessons From “An Effective, Safe, Simple”
Intervention That Wasn’t, 1995.

12.5 US PREVENTIVE SERVICES TASK


FORCE
Um dos órgãos principais de avaliação de evidências na população é
o norte-americano US Preventive Services Task Force (USPSTF).
Esse órgão é uma grande força-tarefa que visa avaliar a evidência
científica para exames de rastreio, aconselhamento e medicações
preventivas para adultos e crianças que não apresentam sintomas. O
USPSTF não leva em conta a custo-efetividade dos tratamentos, e,
sim, apenas se há fortes indícios científicos que apontem que
determinada intervenção seja benéfica. O órgão divide a qualidade
das evidências em 5 categorias:
1. Categoria A: há alta convicção de que o benefício é substancial
(recomendável);
2. Categoria B: há alta convicção de que o benefício é moderado, ou
há moderada convicção de que o benefício é moderado ou
substancial (recomendável);
3. Categoria C: para a maioria dos indivíduos, é provável que haja
apenas pequeno benefício (não recomendável);
4. Categoria D: há moderada ou alta convicção de que a intervenção
não tem benefício, ou que os danos são maiores do que os benefícios
(recomendação contra realizar a intervenção);
5. Categoria I: as atuais evidências são insuficientes para avaliar os
benefícios ou malefícios.
Algumas provas de concursos médicos estão cobrando as
intervenções de categoria A e B do USPSTF, as quais estão
sumarizadas no Quadro 12.9.
Quadro 12.9 - Recomendações de categoria A e B da US Preventive Services Task Force
* Recomendações alteradas em 2019.
Você sabe a diferença entre
revisão sistemática e meta-
análise?
Uma revisão sistemática é um estudo que busca a reunião
de todas as evidências que são capazes de responder uma
questão de pesquisa. O pesquisador irá descrever como fez
a busca, quais palavras-chave usou, quais bases de dados
procurou e também como foi o processo para encontrar as
evidências disponíveis que interessavam à questão. Já a
meta-análise é um passo além da revisão sistemática, que
pode ser realizada quando, matematicamente, é possível
de se chegar à conclusão de que os estudos são
semelhantes o bastante, por meio do cálculo de
heterogeneidade. Caso os estudos não apresentem uma
heterogeneidade muito grande, eles podem ter os
resultados agrupados em um efeito sumário, que será
chamado de meta-análise.

Você também pode gostar