Você está na página 1de 79

FaKtor de RisKo

Tiago Barroso
Por cada Sebenta vendida no Samju, 40 cêntimos
serão doados à Associação Acreditar
(Associação dos Pais e Amigos das Crianças com Cancro)

Entre outros projectos, a fundação Acreditar mantém as casas Acreditar,


próximas de vários centros hospitalares (em Lisboa é frente ao IPO),
onde podem ficar a viver crianças com cancro e respectivas famílias
em períodos de tratamento em ambulatório.

Isto é importante porque muitas crianças moram longe dos grandes centros hospitalares
e teriam de outro modo de ficar internadas durante o tratamento,
com consequente perda de qualidade de vida
2

A menos que seja dito algo em contrário, todos os números aqui apresentados são inven-
tados por mim.
Esta sebenta foca apenas a parte mais “matemática” da matéria, e mesmo assim podem
ter ficado algumas coisas de fora. Aconselho a leitura dos slides das aulas pelo menos uma
vez para ver o que é que falta aqui, e decidir o que é que tem de ser estudado pelos slides ou
pelas desgravadas. Não estudem só por aqui.
Peço desculpa por os exemplos serem um bocado monótonos. Eu sei que há outras razões
para ter cancro sem ser fumar, e que fumar faz mais coisas para além de dar cancro, mas isto
foi feito um bocado à pressa e eu estou preguiçoso.
Quis incluir outros exemplos mais engraçados, mas foram censurados com boas razões :)
Agora a sério: isto está uma m**** e nem sequer fala de Pokémon. Não leiam.
Esta sebenta é dedicada às seguintes pessoas (sem nenhuma ordem em particular):
À Larissa, que para além de ser linda reviu a actual versão desta sebenta em tempo
record, dando contribuições valiosas.
Ao Vitor Veríssimo, que me encorajou a fazer esta sebenta, e que sugeriu títulos que eu
não pude incluir por razão de decoro público.
À Inês Portela, que me chateou a cabeça até mais não para ver se eu acabava isto (agora
é bom que a leias...)
À minha Fofinha, por ser fofinha todos os dias.
À Lena, ao António Pinheiro, ao Rafa e à Mariana por serem quem são e por estarem
sempre lá para mim. Para além disso, a Mariana também é linda.
À Fred, por aturar o meu s’taque mad’rense.
À Nô, por ser querida :)
Ao Esperança por ser o maior barão.
Ao Vieira e ao Mendes, por serem os reis da massa (vai ganhar massa, Ricardo!) e pelo
nosso convívio nas Olimps.
Ao Vasco, o único, o S. baronnii de onde emana toda a baronice.
Aos porcos, (e porcas :) porque sim.
À Gabi, porque eu sei que vai ler esta sebenta e corrigir muitos erros.
À Pim, a nossa princesa mais nerd, como presente de anos!
À máfia do CSCM que eu adoro (e à Diana Marques, que também é fixe)
À mixf , pela citação mais random que aqui aparece e que ela sabe qual é.
À dupla KiVi.
A muitos outros e outras que não cabem aqui por falta de espaço.
Aos alunos do curso de 2011/2017 que vão ler isto para o ano e chumbar todos tal como
aconteceu com a biostatística1 :)

1 cortesia da Larissa
Índice

Índice 3

1 Estatística 5
1.1 Testes de hipóteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Estimação de parâmetros . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Intervalos de confiança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Intervalos de confiança na prática . . . . . . . . . . . . . . . . . . 11
1.4 Tipos de Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.1 Erro Tipo I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Erro Tipo II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Medição em Epidemiologia 21
2.1 Tipos de variáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Escalas de medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.1 Escala Nominal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.2 Escala Ordinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.3 Escala Nominal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.4 Escala de Razão . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Precisão e exactidão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.4 Unidades de Medida e Percentagens . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Medidas de Risco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.1 Medidas de Frequência . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.2 Medidas de Efeito . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.3 Medidas de Associação . . . . . . . . . . . . . . . . . . . . . . . . 30
2.5.3.1 Risco relativo . . . . . . . . . . . . . . . . . . . . . . . 31
2.5.3.2 Odds ratio . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5.4 Medidas de Impacto . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5.4.1 Risco atribuível . . . . . . . . . . . . . . . . . . . . . . 34
2.5.4.2 Fracção Etiológica de Risco . . . . . . . . . . . . . . . 36
2.5.4.3 Risco Atribuível Populacional . . . . . . . . . . . . . . 37
2.5.5 Correlação, Associação e Causalidade . . . . . . . . . . . . . . . . 40

3 Estudos Epidemiológicos 43

3
4 ÍNDICE

3.1 Ocorrência das Doenças . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43


3.1.1 Razão, Proporção e Taxas . . . . . . . . . . . . . . . . . . . . . . 44
3.1.2 Incidência e Prevalência . . . . . . . . . . . . . . . . . . . . . . . . 45
3.1.3 Taxa de Mortalidade . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1.4 Taxa de Letalidade . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 Epidemiologia Descritiva e Epidemiologia Analítica . . . . . . . . . . . . . 48
3.2.1 Epidemiologia Descritiva . . . . . . . . . . . . . . . . . . . . . . . 48
3.2.2 Epidemiologia Analítica . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3 Tipos de Estudos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.1 Estudos observacionais . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.1.1 Estudos Ecológicos . . . . . . . . . . . . . . . . . . . . 49
3.3.1.2 Estudos Transversais . . . . . . . . . . . . . . . . . . . 51
3.3.1.3 Estudos de Coorte . . . . . . . . . . . . . . . . . . . . 56
3.3.1.4 Estudo nested caso-controlo . . . . . . . . . . . . . . . 58
3.3.1.5 Estudos de Caso-controlo . . . . . . . . . . . . . . . . . 59
3.3.2 Estudos Experimentais . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.2.1 Estudos de Campo . . . . . . . . . . . . . . . . . . . . 63
3.3.2.2 Estudos Comunitários . . . . . . . . . . . . . . . . . . 64
3.3.2.3 Ensaios clínicos . . . . . . . . . . . . . . . . . . . . . . 65
3.3.3 Estudos Quase Experimentais . . . . . . . . . . . . . . . . . . . . 65
3.4 Ensaios clínicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.1 Fases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4.2 Tipos de Objectivos . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.4.3 Critérios de Inclusão e Exclusão . . . . . . . . . . . . . . . . . . . 67
3.4.4 Validade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4.4.1 Validade Interna . . . . . . . . . . . . . . . . . . . . . 68
3.4.4.2 Validade Externa . . . . . . . . . . . . . . . . . . . . . 69
3.4.5 Medidas de Efeitos . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.4.5.1 Redução do Risco Absoluto . . . . . . . . . . . . . . . 72
3.4.5.2 Número Necessário Tratar . . . . . . . . . . . . . . . . 72
3.4.5.3 Redução do Risco Relativo . . . . . . . . . . . . . . . . 73
3.4.6 Aleatorização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4.7 Ocultação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.4.8 Comparador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.5 Graus de Evidência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.5.1 Meta Análise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Capítulo 1

Estatística

“A Função da Estatística é observar o inobservável” — Paulo


Nogueira

1.1 Testes de hipóteses


“An error does not become truth by reason of multiplied propa-
gation, nor does truth become error because nobody sees it. Truth
stands, even if there be no public support. It is self sustained.” —
Mahatma Ghandi

Uma hipótese estatística é simplesmente uma afirmação acerca de parâme-


tros de uma população. O que se segue é uma lista de passos a seguir para
testar uma hipótese estatística. Isto pode parecer um bocado abstracto, mas
percebe-se bem fazendo exercícios e tentando fazer exemplos concretos. De
um ponto de vista prático, os detalhes dos passos não são essenciais. O que é
mais importante é saber o que é a significância estatística (α) e o que significa
o conceito de valor p.

1. Dados (data): A natureza dos dados que vão servir de base ao teste de
hipóteses deve ser compreendida, porque isso vai determinar o tipo de
teste que vai ser empregue (frequências ou medidas, por exemplo).

2. Suposições (assumptions): Diferentes suposições acerca dos dados le-


vam a modificações nos intervalos de confiança. O mesmo acontece no
teste de hipóteses: um procedimento geral é modificado baseado naquilo

5
6 CAPÍTULO 1. ESTATÍSTICA

que podemos assumir sobre a população e a amostra. As suposições que


são importantes são: se a população é normal, se as diferentes popula-
ções têm igualdade de variâncias e a independência das amostras.

3. Hipóteses: Há duas hipóteses envolvidas no teste de hipóteses. Es-


tas hipóteses devem estar bem explícitas. São: a hipótese nula (null
hypothesis), também chamada hipótese de não-diferença (hypothesis
of no difference) e a hipótese alternativa (alternative hypothesis). A
hipótese nula é representada pelo símbolo H0 (H-zero). No processo de
teste, a hipótese nula pode ser rejeitada (rejected) ou não rejeitada
(not rejected). Se a hipótese nula não é rejeitada, dizemos que o teste
não fornece provas suficientes para causar a rejeição. Uma das coisas
mais importantes a ter em conta nesta temática é que NUNCA SE
ACEITA A HIPÓTESE NULA; em estatística não estamos “auto-
rizados” a aceitar nenhuma hipótese. Se o teste leva à rejeição, dizemos
que os dados não são compatíveis com a hipótese nula, mas sugerem
outra hipótese. Esta hipótese é o contrário da hipótese nula e chama-
se hipótese alternativa (alternative hypothesis). Representamos esta
hipótese pelos símbolos HA ou H1 .

4. Estatística do teste (test statistic): É uma estatística que pode ser


calculada a partir dos dados da amostra (lembrem-se de que a média e o
desvio padrão são exemplos de estatísticas). A estatística toma valores
diferentes consoante a amostra. Nós usamos a estatística como um pro-
cedimento de decisão: se a estatística tomar valores pertencentes a um
certo intervalo, a hipótese nula é rejeitada. Se a estatística tomar valo-
res não pertencentes ao intervalo, a hipótese nula não é rejeitada (mas
não aceite! NUNCA SE ACEITA A HIPÓTESE NULA, porque
podemos estar a cometer um erro tipo II, ver abaixo). Um exemplo
de uma estatística de teste é (nunca vamos utilizar esta estatística em
cálculo nenhum em epidemiologia, mas serve como exemplo):
x̄ − µ
z= √
σ/ n

5. Distribuição da estatística de teste (test statistic distribution):


como sempre, a chave para a inferência estatística é a distribuição da
1.1. TESTES DE HIPÓTESES 7

amostra. Assim, é importante para nós conhecer a distribuição da es-


tatística de teste. Normalmente sabemos que a estatística de teste se-
gue uma certa distribuição de probabilidades. Este facto pode ser im-
portante para decidirmos se rejeitamos ou não a hipótese nula. Por
exemplo, a seguinte estatística de teste segue uma distribuição normal
standard se a hipótese nula é verdadeira:
x̄ − µ
z= √
σ/ n

6. Regra de decisão (decision rule): todos os valores possíveis que a


estatística de teste pode assumir são pontos no eixo horizontal do grá-
fico. Consoante a distribuição da estatística de teste, alguns valores
são mais prováveis que outros. Por exemplo, na curva da distribuição
normal, a probabilidade é maior mais próximo da média e diminui de
maneira simétrica à medida que nos afastamos da média. Com base
nas propriedades da distribuição de probabilidade, vamos definir duas
regiões: uma região de rejeição e uma região de não rejeição. Os valo-
res que pertencem à região de rejeição são aqueles que são improváveis
de obter se a hipótese nula é verdadeira. A regra de decisão diz-nos
para rejeitar a hipótese nula se o valor da estatística de teste cair na
região de rejeição, e para não a rejeitar se o valor cair na região de não
rejeição. Nível de significância: a demarcação das zonas de rejeição
e não rejeição é feita com base num valor que designamos por nível de
significância (significance level), e que se representa por α. Este valor é
escolhido por nós, idealmente antes de calcular o valor da estatística de
teste (para evitar manipular o α depois de já ter os dados, com o ob-
jectivo de tirar a conclusão que nos dá mais jeito). Esta nomenclatura
reflecte o facto de também se chamar aos testes de hipóteses testes de
significância (significance tests). Diz-se que um valor que cai na região
de rejeição é significante. O nível de significância corresponde à área
abaixo da curva da distribuição de probabilidades da estatística de teste
na região de rejeição. Esta área corresponde à probabilidade de termos
o azar de o valor da estatística de teste cair na região de rejeição se a
hipótese nula for verdadeira. Nunca podemos saber (como é óbvio) se
a hipótese nula é verdadeira ou não, e portanto se o valor da estatística
8 CAPÍTULO 1. ESTATÍSTICA

de teste cair na região de rejeição rejeitamos a hipótese, quer ela seja


verdadeira ou não. Assim, podemos definir α como a probabilidade de
rejeitarmos uma hipótese nula verdadeira. Como não queremos rejei-
tar uma afirmação que é verdadeira, devemos escolher um valor de α
pequeno, de modo a que seja pequena a probabilidade de rejeitar uma
afirmação verdadeira. Em contrapartida, escolher um valor alto para α
indica que estamos mais dispostos a rejeitar uma afirmação verdadeira.

7. Cálculo da estatística do teste: Agora calcula-se o valor da estatís-


tica de teste. O cálculo é efectuado só agora, depois de se ter definido
a regra de decisão. É importante definir a regra de decisão antes de
efectuar os cálculos, porque senão poderíamos ser levados a deixar que
os resultados influenciassem os nossos critérios. É preciso deixar bem
claro qual o conjunto de valores que nos levam a rejeitar a hipótese (foi
isso que estivemos a fazer no passo 6).

8. Decisão estatística (statistical decision): consiste em rejeitar ou não


rejeitar a hipótese nula. É rejeitada quando o valor da estatística de
teste cai na região de rejeição e não rejeitada quando o valor da esta-
tística cai for a desta região.

9. Conclusão (conclusion): Nesta etapa vamos decidir se rejeitamos H0


ou se não rejeitamos H0 . NUNCA VAMOS DIZER QUE ACEI-
TAMOS H0

10. Valor p (p value): o valor p diz-nos quão prováveis os nossos resultados


são se assumirmos que a hipótese nula é verdadeira. Um valor p muito
baixo indica que os seria muito improvável obter os resultados que se
obteve se a hipótese nula fosse verdadeira, pelo que temos boas razões
para rejeitar a hipótese nula. A definição rigorosa é a seguinte: O valor
p é a probabilidade de o valor da estatística de teste ser pelo menos
tão extremo como o que se obteve, assumindo que a hipótese nula é
verdadeira. Assim, o valor p é o menor valor de α para o qual podemos
rejeitar a hipótese nula com os dados que obtivemos. Se p é maior
do que α, então quer dizer que a probabilidade de obtermos os valores
que obtivemos (assumindo que H0 é verdadeira) é maior do que aquela
que fixámos como a probabilidade máxima que nos levaria a rejeitar
1.2. ESTIMAÇÃO DE PARÂMETROS 9

H0 . Neste caso, não podemos rejeitar a hipótese nula. É por isso que é
importante fixar α antes de calcular o valor p; se α não estiver fixo antes
do cálculo de p, podemos ser tentados a escolher α > p de maneira a
poder rejeitar a hipótese nula. Se α estiver fixo, não podemos cair nessa
tentação. ATENÇÃO: Não confundir o valor p com o parâmetro p,
que corresponde à proporção de uma população (por exemplo, qual a
proporção de ex-fumadores na nossa população de doentes com DPOC).
Estes passos são somente um procedimento que nos permite a maior exacti-
dão possível quando queremos determinar se uma determinada afirmação é
verdadeira ou falsa (conceito de exactidão discutido mais à frente). Como já
foi referido, não é de modo nenhum essencial saber isto tudo de cor.

1.2 Estimação de parâmetros


He who refuses to do arithmetic is doomed to talk nonsense.
— John McCarthy

Inferência estatística (statistical inference) é o procedimento pelo qual che-


gamos a uma conclusão acerca de uma população com base na informação
contida numa amostra dessa população.
O processo de estimação implica calcular uma estatística da amostra, que
serve como uma aproximação ao parâmetro da população de onde a amostra é
retirada. A inferência estatística permite-nos assim conhecer os parâmetros de
uma população, conhecendo apenas estatísticas de amostras dessa população.
Uma das razões pelas quais podemos querer fazer uma inferência estatística
é porque a população, apesar de finita, ser tão grande que podemos nunca
a conseguir analisar na totalidade. Outra razão é um pouco menos óbvia.
Queremos testar a eficácia de um medicamento. A população é a totalidade
de pessoas que alguma vez vão precisar de tomar esse medicamento. Não
queremos dar o medicamento a toda a população antes de saber se ele é eficaz
ou não, até porque a população é infinita (não só as pessoas que precisam, mas
também todas as pessoas que vão precisar). Assim, testamos o medicamento
numa amostra da população, calculando as estatísticas relevantes e a partir
das quais estimamos os parâmetros da população que traduzem a eficácia que
esperamos que esse medicamento tenha na população.
10 CAPÍTULO 1. ESTATÍSTICA

Exemplos de parâmetros que podemos querer estimar são a média de


uma população (qual a média de anos de vida dos pacientes após uma certa
lesão?), a proporção de uma população (qual a proporção de doentes
que apresentam reacções adversas a um certo antibiótico?) e medidas de
associação como o odds-ratio (razão de verosimilhança, em português). Ao
contrário do que acontecia na Biostatística, o foco aqui não é no cálculo dos
parâmetros mas sim na forma como se pode trabalhar e interpretar os valores
ja calculados.
Utilizamos dois tipos de estimativas: estimativa pontual ou estimativa de
intervalo:
Estimativa pontual (point estimate): um só valor numérico utilizado
para estimar um parâmetro da população. Em biostatística e epidemiologia,
isto não é nada e não diz nada (na realidade pode sugerir muita coisa, mas
por si só não prova nada nem diz nada).
Estimativa de intervalo (interval estimate): consiste em dois valores
definindo um intervalo, que com um grau específico de confiança, mais prova-
velmente inclui o parâmetro que estamos a estimar. Isto inclui não só o valor
que achamos mais provável, mas também o intervalo em que consideramos
que o valor deve cair com uma certa confiança. Nunca digam “com uma certa
probabilidade”, porque está errado e nem sequer faz sentido.

1.3 Intervalos de confiança


Os olhos confiam neles próprios. Os ouvidos confiam nos ou-
tros — Provérbio alemão

Em matemática, representamos normalmente um intervalo pelo seu valor mí-


nimo e máximo. Por exemplo, o intervalo que contém todos os números reais
entre 3 e 4 (inclusive) representa-se por [3, 4]. Outra maneira de representar
um intervalo, é indicar o seu centro e a distância dos elementos extremos ao
centro. Para o intervalo anterior seria: 3.5 ± 0.5. Utilizaremos as duas formas
em estatística.
Um intervalo de confiança é caracterizado por um parâmtero α, que varia
entre 0 e 1. A este parâmetro α dá-se o nome de nível de significância
(significance level)
1.3. INTERVALOS DE CONFIANÇA 11

Coeficiente de confiança (confidence coefficient): é a quantidade (1 −


α). Representa a confiança que temos em que o parâmetro que estamos a
estimar está de facto no intervalo que calculámos. Não representa a proba-
bilidade de o parâmtero lá estar! Representa a confiança. Nem sequer faz
sentido falar de probabilidades neste sentido.
Qual é o significado estatístico deste intervalo? Há duas interpretações
possíveis:
Interpretação prática: estamos 100(1−α)% confiantes de que o contém
o parâmetro que queremos calcular.
Interpretação probabilística: se tirarmos um grande número de amos-
tras e calcularmos o intervalo de acordo com a fórmula adequada, então em
100(1 − α)% dos casos, o parâmetro pertence ao intervalo que se calculou.
Dito de outra forma, se calcularmos muito intervalos, o parâmtro a estimar
(por exemplo, µ) pertence a alguns mas talvez não a todos. A percentagem
de intervalos a que µ de facto pertence é 100(1 − α)%. Se representarmos
com linhas a cheio os vários intervalos e com uma linha tracejada o valor
de µ, obtemos a figura seguinte. Repare-se que µ pertence a quase todos os
intervalos mas não a todos.

1.3.1 Intervalos de confiança na prática


Na prática, como é que vamos utilizar os intervalos de confiança? A maior
parte do tempo vamos utilizar intervalos de confiança para fazer testes de
hipóteses. Normalmente, o que nós vamos ter é uma hipótese sobre o valor de
um parâmetro. O que fazemos é calcular um intervalo de confiança para esse
parâmetro. Se o valor do parâmetro que corresponde à nossa hipótese nula não
pertence ao intervalo de confiança, então podemos rejeitar a hipótese nula. Se
12 CAPÍTULO 1. ESTATÍSTICA

pertence ao intervalo de confiança, então não podemos rejeitar a hipótese nula.


Matematicamente vamos ter uma hipótese acerca de uma parâmetro θ (lê-se
téta). A hipótese nula é de que o valor de θ é igual θ0 . A hipótese alternativa
é de que θ 6= θ0 . Em primeiro lugar, calculamos uma estimativa pontual
para o parâmetro a partir da amostra. Só a partir deste valor pontual não
podemos concluir nada, mas já nos dá uma ideia de quão válidas são as nossas
hipóteses. Para tirar conlcusões rigorosas, é preciso calcular um intervalo de
confiança para o parâmetro θ.
Nos testes estatísticos da biostatística do ano passado, os intervalos de
confiança eram simétricos em relação à estimativa pontual (com a excepção
do qui-quadrado, mas não era preciso saber calcular intervalos de confiança
para este). Nas distribuições abordadas em epidemiologia, os intervalos de
confiança são normalmente assimétricos
Nós vamos calcular a partir da amostra um intervalo de confiança para θ.
Suponhamos que calculamos o intervalo [a, b] para um nivel de confiança de
95%. Temos 3 hipóteses:

• se θ < a, então podemos concluir com 95% de confiança que θ < θ0

• se θ > b, então podemos concluir com 95% de confiança que θ > θ0

• se a < θ < b então não podemos concluir nada. Só sabemos que não
podemos afirmar com 95% de confiança que θ 6= θ0

Exemplos práticos
Se isto tudo foi um bocado abstracto, vamos dar exemplos concretos para
ilustrar.
Cálculo do odds ratio: O odds ratio (OR) é uma medida que traduz
o aumento ou a diminuição do risco de desenvolver uma determinada doença
em associação com a exposição a um factor. Se o OR associado com um de-
terminada exposição é maior que 1, então dizemos que é um factor protector.
Se o OR é menor que 1, então dizemos que é um factor protector. Se o OR
é igual a 1, dizemos que o factor não está associado ao risco de vir a desen-
volver doença. Para vermos que tipo de factor é, temos de saber se OR < 1,
OR = 1, OR > 1. Agora imaginemos que calculamos a partir da amostra
um OR = 2.6. Será que há risco aumentado? Só a partir de uma estimativa
pontual do OR não podemos concluir nada. Não nos podemos esquecer que
1.3. INTERVALOS DE CONFIANÇA 13

estamos a falar do OR da amostra (uma estatística). O que nos interessa é o


OR da população (um parâmetro). Como ja foi discutido, não podemos cal-
cular o valor exacto do OR da população. No entanto, podemos calcular um
intervalo de confiança para o OR. Agora calculamos o intervalo de confiança
(com 95% de confiança) e obtemos, por exemplo [2.4, 6.3]. Como o valor 1 não
pertence ao intervalo de confiança, podemos dizer que com 95% de confiança
que o OR da população é diferente de 1, logo há associação entre o factor em
estudo e a probabilidade de desenvolver a doença. Mas podemos dizer mais:
como 1 é menor do que 2.4 (o limite inferior do intervalo), podemos dizer que
o OR é significativamente maior do que 1. Assim, podemos afirmar com 95%
de confiança, que o factor em estudo é um factor de risco. Repare-se que o
intervalo de confiança para o OR da população ([2.4, 6.3]) nao é simétrico em
relação à estimativa pontual (2.6).

Como já foi referido, a ausência de simetria é típica nos intervalos de


confiança estudados em epidemiologia.

Cálculo do hazard-ratio: O hazard ratio (HR) é uma medida de risco


semelhante ao odds-ratio de facto, podemos olhar para ele como se fosse um
odds ratio normal. Se a administração de um fármaco A em relação ao con-
trolo tem um odds-ratio > 1 para um determinado evento, então dizemos que
o fármaco é factor de risco para esse evento. Vamos utilizar como exemplo um
estudo dinamarquês, referido na aula de farmacologia, para ver como interpre-
tar os intervalos de confiança do hazard-ratio. O estudo tem como objectivo
definir quais os anti-inflamatórios não esteróides que estão associados a risco
de morte ou enfarte agudo do miocárdio. Neste caso estamos a utilizar um
outcome composto (morte + enfarte do miocárdio). A figura relevante no
artigo é a seguinte:
14 CAPÍTULO 1. ESTATÍSTICA

Ora, quando é que o fármaco não é factor de risco? Quando o HR ≤ 1.


Mais uma vez, como no exemplo anterior, não podemos concluir que o HR
é menor ou igual 1 apenas com base na estimativa pontual obtida a partir
da amostra. Assim, temos de calcular o intervalo de confiança para o HR da
população. Mais uma vez, não nos interessa como é que isso é calculado, e
passamos directamente à análise dos resultados. Os resultados encontram-se
representados de forma gráfica. Para cada intervalo de tempo, e para cada
fármaco, a estimativa pontual do HR encontra-se representada por uma bola
preta. Para a direita e para a esquerda, estende-se uma linha que representa
o intervalo de confiança. A linha vertical a tracejado no centro do gráfico,
representa o ponto em que HR = 1. Ora, para podermos dizer que o fármaco
é factor de risco, a linha horizontal tem de estar completamente à direita
da linha a tracejado. Aí podemos dizer, com 95% de confiança, que o HR da
população é maior que 1. Pelo contrário, para podermos dizer que o fármaco
é factor protector, a linha horizontal tem de estar completamente à esquerda
da linha a tracejado. Aí podemos dizer, com 95% de confiança, que o HR
da população é menor que 1. Se a linha horizontal cruza a linha vertical
a tracejado, então não podemos afirmar que o fármaco é factor de risco ou
factor protector, com 95% de confiança.
Analisando a figura e tendo em conta o que foi dito, podemos conlcluir,
1.4. TIPOS DE ERRO 15

por exemplo, que o Celecoxib aos 14-30 dias é factor de risco. No entanto, já
não podemos afirmar que o mesmo Celecoxib aos 0-7 dias é factor de risco,
porque apesar da estimativa pontual para o HR ser maior que 1, o intervalo
de confiança inclui o 1. Isto quer dizer que a um nível de confiança de 95% (ou
equivalentemente, um nível de significância de 5%), não temos significância
estatística para o HR aos 0-7 dias.
O gráfico apresentado neste exemplo é típico de ensaios clínicos, e por-
tanto das aulas de farmacologia. Independentemente da medida representada
na horizontal (que normalmente é o hazard ratio ou odds ratio), existe signifi-
cância estatística se a linha horizontal não cruza a linha vertical sobre o valor
crítico da estatística (neste caso 1, mas pode ser diferente).

1.4 Tipos de Erro


Errare humanum est, perseverare diabolicum - Errar é humano.
Persistir no erro é próprio do diabo

Quando testamos uma hipótese, nunca podemos ter a certeza de que a hipó-
tese nula é verdadeira ou falsa (como é óbvio, também não temos maneira de
saber se a hipótese alternativa é verdadeira ou falsa). Não queremos rejeitar
uma hipótese nula verdadeira nem deixar de rejeitar uma hipótese nula falsa.
Os estatísticos inventaram nomes (muito imaginativos, aliás) para estes tipos
de erro:

1. Se rejeitamos uma hipótese nula verdadeira, diz-se que cometemos um


erro tipo I (type I error). Este erro chama-se tipo I porque é conside-
rado mais grave. Corresponde a condenar uma pessoa que na realidade
é inocente.

2. Se não rejeitamos uma hipótese nula falsa, diz-se que cometemos um


erro tipo II (type II error). Este erro chama-se tipo II porque é
considerado menos grave. Corresponde a não conseguir condenar um
culpado, o que apesar de indesejável é menos grave do que condenar um
inocente.
16 CAPÍTULO 1. ESTATÍSTICA

Hipótese Nula (H0 )


Verdadeira Falsa
Não rejeitamos H0 Acção correcta erro tipo II
Acção possível
Rejeitamos H0 erro tipo I Acção correcta

Como foi dado na Biostatística, o critério que decide qual é a hipótese


nula é a presença do sinal de igual. A afirmação que tem o sinal de igual
ou maior ou igual, ou menor ou igual é a hipótese nula. Por esta razão, a
hipótese nula é às vezes chamada hipótese da não-diferença (hypothesis
of no difference). Vamos agora concentrar-nos no caso mais simples em que
a hipótese nula tem o sinal de igual. Imaginemos que estamos a fazer um
ensaio clínico que compara o fármaco A e um grupo de controlo. O nosso
objectivo é ver se há diferença na mortalidade a 30 dias. A hipótese nula é a
de que a mortalidade aos 30 dias com o fármaco A é igual ao controlo. Agora
vamos imaginar o seguinte: fazemos o ensaio clínico e obtemos os seguintes
resultados:

• Grupo do fármaco A: sobrevida aos 30 dias = 44%

• Grupo de controlo: sobrevida aos 30 dias = 46%

Então e agora? O fármaco A é eficaz ou não a reduzir a mortalidade? Uma


diferença de 2% é uma boa redução da mortalidade... Mas isso foi na amostra,
e não na população. Podemos ter tido azar a escolher a amostra e a resposta
da amostra ao fármaco não reflectir a resposta na população. Claro que exis-
tem métodos objectivos, que não dão para aplicar aqui só com a informação
que eu estou a dar neste estudo inventado. Mas vamos reflectir em quais são
as nossas possibilidades enquanto investigadores que querem interpretar os
resultados deste estudo, e com essas possibilidades introduzir os erros de tipo
I e tipo II.
Situação 1: O fármaco A é MESMO melhor que o controlo. Aí, a dife-
rença que nós observamos na amostra reflecte-se ao nível da população. Neste
caso, devemos rejeitar a hipótese nula, visto ser essa a acção correcta (como
indicado na tabela acima)
1.4. TIPOS DE ERRO 17

1.4.1 Erro Tipo I


Situação 2: O fármaco A tão EFICAZ o controlo, e foi por mero acaso que
nesta amostra a sobrevida foi menor com o fármaco A. Neste caso, a hipótese
nula é verdadira. Assim, se rejeitamos a hipótese nula com base nestes dados,
estamos a cometer um erro tipo I. É considerado muito grave cometer um
erro tipo I, e por isso é que se escolhe um nível de significância pequeno
(normalmente α = 0.05). Os erros de tipo I foram abordados exaustivamente
na biostatística.

1.4.2 Erro Tipo II


Situação 3: O fármaco A é MESMO melhor que o controlo, mas quando
fazemos a análise estatística, vemos que não podemos afirmar, com 95% por
cento de confiança, que o fármaco A é melhor que o controlo. Assim, a
hipótese nula é falsa, mas cometemos o erro de não a rejeitar.1
Porque é que isto acontece? Normalmente porque as medidas de outcome
(neste caso a sobrevida a 30 dias) são tão próximas nos dois grupos, que é
muito provável terem aparecido por acaso e não por os tratamentos serem
diferentes.
Um exemplo intuitivo e simples do dia a dia é o seguinte: uma pessoa
tem duas moedas. Quer ver se a probabilidade de sair cara é igual nas duas
moedas. Atira a moeda #1 ao ar 10 vezes e obtém 6 caras. Depois atira a
moeda #2 ao ar e obtém 4 caras. Será que com base nisso vai dizer que nas
duas moedas a probabilidade de sair cara é diferente? Claro que não, porque
a diferença entre o número de caras é tão pequena que não nos permite tirar
uma conclusão definitiva.
Neste caso o que é que a pessoa faz? atira a moeda mais vezes, isto é,
aumenta a dimensão da amostra. É precisamente isso que se faz quando um
estudo dá um resultado que não é conclusivo mas que sugere que o efeito
existe.
1 Repararam no jogo de palavras complicado para não dizer que se aceitava a hipótese nula?
NUNCA SE ACEITA A HIPÓTESE NULA! Apesar disso, de acordo com a desgravada de 2009 o
professor parece ter dito que se aceitava a hipótese nula. Ele pode ter dito seja o que for, mas está
mal. Mas então ele pode dizer coisas mal e nós não? Assim ele não tem moral para nos criticar...
Ao que eu respondo: paciência...
18 CAPÍTULO 1. ESTATÍSTICA

Suponhamos que o efeito existe, mas que é pequeno. O que é que isto quer
dizer? Quer dizer que o fármaco A é mesmo melhor, mas é só um bocadinho
melhor. Por exemplo, pode ser apenas 2% melhor. Dependendo de vários
factores, o estudo pode ser incapaz de demonstrar que existe uma diferença
de 2%, por esta ser tão pequena. Se aumentarmos a amostra, é possivel que
passe a ser possivel detectar uma diferença de 2%.
Isto é intuitivo se pensarmos no exemplo das moedas: obter 60% vs 40%
de caras quando se lança uma moeda 10 vezes, não é o mesmo que obter uma
diferença de 60% vs 40% quando se lança uma moeda 1000 vezes. Enquanto
é provável obter com moedas idênticas 60% vs 40% de caras quando se lança
as moedas 10 vezes, não é nada provável obter uma diferença de 60% vs
40% quando se lança moedas as idênticas 1000 vezes. Assim, já podemos por
em causa a nossa hipótese nula de que as moedas têm a mesma probabilidade
de cair cara
Da mesma maneira, não é igual ter uma redução de 2% na sobrevida a
30 anos num estudo com 100 doentes e num estudo com 10.000. Claro que
num estudo com 10.000 vamos dar muito mais peso a uma diferença de 2%
(é improvável que esta diferença surja por acaso numa amostra tão grande)
do que num estudo com 50 doentes. Basta ver que num estudo com 100
dontes, se dividirmos o grupo em dois grupos de 50, no grupo A morrerem 22
e no grupo de controlo morrerem 23. As sobrevidas são respectivamente 44%
e 46%, os valores do exemplo anterior. Mas será que podemos dizer que o
fármaco é melhor quando só um doente a mais é que morreu? Pelo contrário,
numa amostra de 10.000 doentes é muito mais provável que uma diferença de
sobrevida (2% de 10.000 é 200 pessoas) seja real e não apenas um artefacto
da amostra.
Parta um dado estudo é possível (mas não está no programa) calcular a
probabilidade de se cometer erros tipo II. A probabilidade de se cometer um
erro tipo I representa-se por β. Um estudo em que não se detectou diferenças
apesar de elas existirem (isto é um estuo em que se cometeu um erro tipo I)
diz-se um falso negativo (false negative). Assim, podemos dizer que β é a
probabilidade de no estudo se obter um falso negativo2 .
À quantidade 1 − β chama-se o poder estatítico (power) de um estudo.
2 eusei que isto é óbvio, mas está aqui incluído porque afirmações deste tipo parecem material
provilegiado para escolhas múltiplas e verdadeiro e falso
1.4. TIPOS DE ERRO 19

Quanto maior o poder estatístico, menor a probabilidade de se cometer um


erro tipo II3 . O poder eststístico de um estudo traduz a possibilidade de
o estudo demonstrar a existência de diferenças pequenas entre os grupos.
Um estudo com elevado poder estatístico poderia conseguir determinar uma
diferença de 2% na sobrevida a 30 dias, enquanto que um estudo com baixo
poder estatístico poderia ser incapaz de determinar essa mesma diferença.
De que depende o poder estatístico de um estudo?

• Quanto maior o grau de associação dos factores em estudo e


quanto maior for o efeito4 entre os grupos. Um efeito pequeno
seria um aumento de 2% da sobrevida aos 30 anos, enquanto um efeito
grande seria um aumento de 40% da sobrevida aos 30 anos.

• Do tamanho da amostra (dah!): isto foi discutido de forma intuitiva


acima.

• Variância da amostra5 (sample variance) em relação aos efeitos me-


didos (s2 ): o poder do estudo diminui com o aumento da variância da
aostra para distribuições contínuas.

É óbvio que é mais facil perceber que há diferença nas médias de dois grupos
em que a variância da amostra é pequena do que entre dois grupos em que a
variância é grande. Uma variância grande mascara pequenas diferenças entre
as médias.

3 Quanto maior 1 − β, menor β. Por definição, β é a probabilidade de cometer um erro tipo II.
Assim, quanto maior 1 − β, menor é a probabilidade de cometer um erro tipo II
4 A definição rigorosa de tamanho de efeito (effect size) é complicada e não é para aqui

chamada.
5 O desvio padrão é igual à raiz quadrada da variância. Assim, se o poder do estudo diminui

com o aumento da variância, é óbvio o que quando aumenta o devio padrão também diminui o
poder do estudo.
Capítulo 2

Medição em Epidemiologia

“Smoking is one of the leading causes of all statistics.” — Liza


Minnelli

2.1 Tipos de variáveis


O Fortuna / Velut luna / Status variabilis
Ó Sorte, tal como a lua és variável
Carl Orff, in Carmina Burana

Em estatística, podemos identificar certos tipos de variáveis. Em primeiro


lugar, interessa definir o que é que se entende por variável.
Variável (variable): uma característica que toma diferentes valores nas
diferentes pessoas, coisas ou entidades estudadas. Por exemplo, são variáveis
a pressão arterial sistólica, a cor dos olhos e o sexo, pois variam consoante
as pessoas em que são medidas. Uma variável pode também variar dentro da
mesma pessoa, mas ao longo do tempo. Por exemplo, a altura de uma pessoa
não se mantém constante ao longo da vida.
Definido o conceito de variável, importa definir os conceitos de variável
quantitativa e qualitativa.
Variável quantitativa (quantitative variable): É uma variável que pode
ser medida no sentido usual, como peso e temperatura. Dão-nos informação
quanto a quantidade.
Variável qualitativa (qualitative variable): É uma variável que não pode
ser medida no sentido usual. Por exemplo, uma pessoa é dum certo grupo

21
22 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

étnico ou é diagnosticada como tendo uma certa doença. Essas variáveis


dão-nos informação quanto a atributos. Quanto a estas variáveis, não as
podemos tratar numericamente (isto é, calcular a média ou desvio padrão,
por exemplo), mas podemos contar quantas pessoas ou coisas pertencem a
cada categoria (por exemplo, contar o número de pessoas diagnosticadas como
tendo diabetes). Estas contagens ou frequências são os números que podemos
manipular com variáveis qualitativas.
As variáveis podem ainda ser aleatórias ou não aleatórias. Dentro das
variáveis aleatórias podemos identificar vários subtipos.
Variável aleatória (random variable): são variáveis cujo valor não pode
ser previsto por depender de factores ligados à sorte. Um exemplo é a al-
tura que uma criança vai atingir na idade adulta, que depende de numerosos
factores genéticos e ambientais que não podem ser previstos quando a cri-
ança nasce. Apesar do valor destas variáveis não poder ser previsto, pode
obviamente ser medido. Se esperarmos uns anos, podemos medir a altura da
criança na idade adulta.
Variável aleatória discreta (discrete random variable) e Variável ale-
atória contínua (continuous random variable): as variáveis podem ser carac-
terizadas como sendo discretas ou contínuas. A definição matemática rigorosa
está para além do nível exigido a alunos de medicina, e é a seguinte: uma
variável discreta é uma variável que só pode tomar valores pertencentes a
um conjunto finito (por exemplo {1, 2, 3, 4}) ou infinito contável1 (como por
exemplo N, Z ou Q). Uma variável contínua é uma variável que tem uma
distribuição de probabilidade contínua (o conceito de distribuição de proba-
bilidade será abordado mais adiante). De uma maneira intuitiva, pode-se
dizer que uma variável é contínua se pode tomar todos os valores num certo
intervalo e é discreta se tem saltos nos valores que pode tomar (o conjunto dos
números racionais, Q, tem saltos entre os seus valores, que são precisamente os
números irracionais). Um exemplo de variável contínua é a temperatura, que
pode tomar qualquer valor real a partir dos 0K (−273ºC). Devido a limita-
ções nos instrumentos de medida, por vezes certas variáveis que são contínuas
podem ser registadas como sendo discretas devido aos arredondamentos.
1 Ninguém vai perguntar nos testes nem no exame o que é que é um conjunto infinito contável;
Para além disso, no sentido matemático estrito, a definição que o professor deu de variável aleatória
contínua está errada, mas é uma simplificação compreensível. Eu não o censuro porque faço o
mesmo em vários sítios aqui.
2.2. ESCALAS DE MEDIDA 23

2.2 Escalas de medida


“Eu, caloiro de veterinária, 5 palmos abaixo de cão, 10 acima
da polícia e 50 acima do Afonso, juro solenemente que ...” - Ju-
ramento do Caloiro de Veterinária2

Para a epidemiologia é central o acto da medição.


Na secção anterior falou-se em medida (measurement). Vai-se agora de-
finir cientificamente o conceito de medição e as quatro escalas de medida
(measurement scales). As duas primeiras (nominal e ordinal) são usadas com
variáveis qualitativas enquanto as duas últimas, as escalas métricas (de inter-
valo ou razão) são usadas com variáveis quantitativas.
Medição (measurement): atribuição de números a objectos ou aconteci-
mentos com base num conjunto de regras. Uma medição pode ser feita numa
de várias escalas. As escalas seguem uma hierarquia, da mais baixa para a
mais elevada, no sentido em que há mais ou menos operações matemáticas
que são permitidas nos valores que são medidos de acordo com essas escalas.
Normalmente dizemos que uma escala A é mais forte ou mais poderosa do
que uma escala B quando existe um maior número de operações que se pode
efectuar com valores medidos na escala B do que com valores medidos na
escala A. De forma análoga, dizemos que a escala B é mais fraca ou menos
poderosa. Isto tornar-se-á mais claro à medida que forem sendo definidas as
escalas.

2.2.1 Escala Nominal


Escala nominal (nominal scale) consiste em atribuir nomes às observações
ou classifica-las em categorias que são (1) mutuamente exclusivas e (2) exaus-
tivas, isto é, abrangem todas as observações. Como exemplo de observações
medidas nesta escala temos: o diagnóstico de um doente, casado/solteiro,
macho/fêmea. Esta escala é muito pouco poderosa porque não nos permite
fazer muitas operações com os seus valores. Em primeiro lugar, não podemos
efectuar operações aritméticas (somar, subtrair, multiplicar, dividir). Isto é
claro, porque não há uma maneira óbvia de efectuar a soma “macho + fêmea”,
2e exemplo de uma escala ordinal
24 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

ou “olhos azuis + olhos verdes”. De igual maneira não faz sentido subtrair,
multiplicar ou dividir cores dos olhos ou sexos.
Relembrando as fórmulas da Biostatística, toran-se claro que não pode-
mos calcular a média nem o desvio padrão destas variáveis (porque envolve
pelo menos somas) e nem sequer podemos ordenar os elementos. Apesar de
podermos definir uma ordem, ela seria arbitrária e não iria trazer nenhuma
informação útil.
Se não podemos ordenar os elementos, não podemos calcular as estatísticas
que dependem da posição dos elementos da amostra. Assim, não podemos
calcular a mediana, os quartis ou percentis)3 . Podemos, no entanto, contar os
membros de cada classe e assim calcular as frequências e consequentemente
a moda.
Portanto, basicamente a única coisa que podemos fazer com variáveis que
pertençam a uma escala nominal é contá-las e calcular frequências.
Um caso especial das variáveis que são medidas numa escala nominal são as
variáveis dicotómicas (dicotomic variables), que são medidas numa escala
dicotómica (dicotomic scale). Nesta escala, cada variável apenas pode tomar
dois valores. Por exemplo: homem/mulher, casado/solteiro, morto/vivo.

2.2.2 Escala Ordinal


Escala ordinal (ordinal scale) consiste em atribuir às diferentes observações
categorias que não só são diferentes umas das outras mas podem ser também
ser ordenadas entre si. Por exemplo, doentes em convalescença podem ser
classificados como não melhor, melhor ou muito melhor. Estas situações
podem ser hierarquizadas, ao contrário do que acontecia na escala nominal.
Quando se atribui números às categorias desta escala pressupõe-se que os
números traduzem a hierarquia entre as categorias. No caso anterior: não
melhor = 0, melhor = 1 e muito melhor = 2, evidenciando o facto de que
as categorias estão por ordem crescente. Um exemplo muito falado de uma
escala ordinal é a New York classification for Heart Disease, que divide os
doentes com insuficiência cardíaca em quatro classes, ordenadas por ordem
3 Espero
que seja mais ou menos claro que é óbvio que precisamos de poder ordenar os valores
para poder calcular percentis, quartis e a mediana
2.2. ESCALAS DE MEDIDA 25

de gravidade, mas na qual não faz sentido comparar a diferença entre a Classe
IV e a Classe III com a diferença entre a Classe III e a Classe II.
Esta escala é mais poderosa que a anterior, porque não só nos permite
classificar os dados e calcular frequências como também nos permite ordenar
os valores, permitindo-nos calcular as medidas de dispersão, como a mediana,
os quartis e os percentis. No entanto, ainda não podemos efectuar operações
aritméticas com os valores, porque não tem sentido somar ou subtrair muito
melhor a melhor, por exemplo, porque os números apenas nos indicam a
hierarquia e não “distância” a que as categorias estão umas das outras.
Assim, não faz sentido calcular a média nem o desvio padrão destes valores,
porque ambas estas estatísticas são calculadas pelo menos a partir de somas
e subtrações.

2.2.3 Escala Nominal


Escala de intervalo (interval scale): nesta escala é possível não só ordenar as
medidas mas também saber a “distância” entre quaisquer duas medidas, isto
é, faz sentido subtrair as medidas umas às outras. Por exemplo, a temperatura
em ºC é medida numa escala de intervalo porque a diferença de temperaturas
entre 10ºC e 20ºC é a mesma do que entre 20ºC e 30ºC. Recorde-se que
na escala ordinal a diferença entre não melhor (0) e melhor (1) não era a
mesma do que entre muito melhor (2) e melhor (1), apesar de 2 − 1 = 1 −
0 = 1. Esta escala já pode ser utilizada para variáveis quantitativas. Por
exemplo, analisemos o que se passa com a temperatura medida em graus
Celsius. Nesta escala define-se uma unidade de medida, o grau Celsius, e um
valor de referência a que chamamos 0ºC (zero). No entanto, este zero não é
um verdadeiro 0. Não podemos dizer portanto que 20ºC é o dobro de 10ºC,
porque a referência do 0 é arbitrária. Se nos lembrarmos que se define a
temperatura como a agitação média das partículas que constituem a matéria,
percebe-se imediatamente que os 0ºC não correspondem a uma agitação nula
(isso é o zero absoluto). É assim incorrecto dizer que a agitação média das
partículas a 20ºC é o dobro da agitação a 10ºC. No entanto (e isto agora fica
um bocado complicado), podemos dizer que a diferença entre as temperaturas
40ºC e 20ºC é o dobro da diferença entre as temperaturas de 20ºC e 10ºC. Isto
é, é necessário fornecer duas vezes mais agitação de partículas para passar de
26 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

20ºC para 40ºC do que para passar de 10ºC para 20ºC.


Em resumo, nesta escala só fazem sentido as operações aritméticas de soma
e subtracção. Podemos assim calcular a média o desvio padrão4 , a moda, a
mediana e os quartis.

2.2.4 Escala de Razão


Escala de razão (ratio scale): Esta escala é parecida com a anterior, mas,
ao contrário dela, apresenta um verdadeiro 0 (zero). Isto permite-nos falar
em razões entre as quantidades, e não só de diferenças. Um exemplo desta
escala é a temperatura medida em kelvin (K). Neste caso, o zero corresponde
verdadeiramente ao zero absoluto, e portanto à ausência de agitação das mo-
léculas e portanto ausência de calor. O exemplo dos graus kelvin mostra que
a mesma grandeza, pode ser medida por meio de escalas diferentes. A escala
que utilizamos depende da situação em concreto. Nesta escala, uma tempe-
ratura de 40K é verdadeiramente o dobro de uma temperatura de 20K. Outro
exemplo é o peso, em que 0kg representa uma verdadeira ausência de massa, e
portanto 30kg é verdadeiramente o triplo de 10kg. Esta escala permite assim,
para além da soma, a divisão e a multiplicação.
Com esta escala podemos calcular a média, o desvio padrão, a moda, a
mediana e os quartis. Outras medidas que se podem calcular nesta escala
e não na anterior estão fora do programa da disciplina e são por exemplo a
média harmónica e média geométrica.
Nesta escala, os valores comportam-se como os números “normais” que se
dão na escola, no sentido em que podemos fazer as contas que nos apetecer
com eles.

2.3 Precisão e exactidão


Precisão e exactidão são dois conceitos muito simples, mas muito importantes.
4 Senão podemos multiplicar quantidades, como é que podemos calcular o desvio padrão? No
desvio padrão elevam-se quantidades ao quadrado. Isso não é multiplicar? A resposta é que no
desvio padrão não se eleva ao quadrado quantidades “em si”, mas sim uma diferença entre duas
quantidades. Isto faz toda a diferença, porque se x e y são medidas numa escala de intervalo, então
a diferença x − y é medida numa escala de razão e aí já se pode multiplicar os valores. Para quem
continua sem perceber muito bem, também não interessa assim tanto...
2.3. PRECISÃO E EXACTIDÃO 27

Exactidão de uma medição significa o quanto essa medição se aproxima


do valor real ou verdadeiro. Por exemplo, queremos medir o peso de um
bebé. Para isso vamos usar uma balança. O que é que quer dizer a balança
ser exacta? Se o bebé que pesa na realidade 2kg, e a nossa balança mede
2.1kg, podemos dizer que temos boa exactidão. Se a balança dá 10kg, então
podemos dizer que temos má exactidão.
Precisão de uma medição é quão próximos são as medidas obtidas quando
se mede a mesma coisa várias vezes. Voltando ao exemplo anterior: medimos
o peso do mesmo bebé 4 vezes de 5 em 5 minutos, e obtemos os seguintes
valores: 5.1kg, 5.2kg, 5.0kg, 5.1kg. Os valores obtidos são prócimos uns dos
outros, e por isso temos precisão. Claro que não temos exactidão, porque o
peso real é 2kg. Se as nossas 4 medições forem: 1.1kg, 10kg, 5.8kg, 9kg, então
não temos precisão, porque as várias medições são muito diferentes umas das
outras.
Como os exemplos deixam claro, é possível ter todas as combinações pos-
síveis:

• exactidão e precisão: isto é o ideal

• exactidão sem precisão: isto também não é muito mau porque desde
que haja exactdão, estamos à volta do valor certo. De um ponto de vista
estatísticao, o que podemos ter é um intervalo de confiança maior

• sem exactidão e com precisão: esta é a pior das combinações, por-


que como a precisão é muito boa somos levados a pensar que também
temos exactidão, o que é um erro. É melhor não ter a certeza de nada
do que ter a certeza duma coisa que está errada5

• sem exactidão nem precisão: também é mau mas não tanto como
a anterior. Ao menos temos uma pista de que as medições não são lá
grande coisa.

Como na prática nunca podemos saber qual é o valor real ou verdadeiro


daquilo que estamos a medir, nunca sabemos qual é a exactidão.
5 Cá está o que foi dito em relação aos erros tipo I e II. É mais grave cometer um erro tipo I de
que tipo II.
28 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

No caso de estarmos a estimar um parâmetro de uma população a partir


de uma amostra, o melhor que podemos fazer para garantir a exactidão é
escolher uma amostra representativa de forma aleatória.

2.4 Unidades de Medida e Percentagens

Unidades de medida é um conceito diferente do de escalas de medida.


Exemplos de unidades de medida são metro, quilómetro, grama, kelvin,
etc. São entidades que nós agarramos aos números. Podemos fazer certas
operações com elas. Uma das mais importantes é a conversão para outras
unidades de medida equivalentes, como por exemplo, converter quilómetros
para metros, ou graus Celsius para graus kelvin.
Outra propriedade interessante das unidades de medida, é que elas “cor-
tam” quando são divididas por unidades equivalentes.
Uma quantidade que não tem unidades designa-se adimensional (por ana-
logia à palavra dimensional que em inglês significa que a quantidade está
associada a uma certa unidade de medida).
É possivel utilizar unidades “mais estranhas”, como por exemplo, a uni-
dade pessoa-tempo. As unidades de medida do tipo pessoa-tempo (por exem-
plo pessoa-ano) significam pessoa × tempo e não devem ser confundidas com
pessoa / tempo. Em epidemiologia significa normalmente que uma pessoa
esteve exposta a um determinado factor durante um certo tempo. A unidade
2.5. MEDIDAS DE RISCO 29

pessoa-ano, por exemplo, significa que uma pessoa esteve exposta durante 1
ano. Um valor de 3 pessoas ano pode querer dizer que 1 pessoa esteve exposta
durante 3 anos ou que 3 pessoas estiveram expostas durante 1 ano cada uma
As percentagens apesar de paracerem unidades de medida (x% é parecido
com xcm), não são. O significado de x% (x por cento) é exactamente o mesmo
do que x/100 (x a dividir por 100). Assim, dizer que uma certa proporção é
de 5% é exactamente o mesmo que dizer que uma proporção é de 0.05. Isto
quer dizer que uma percentagem é adimensional.
Tudo isto é um pouco óbvio, mas ajuda a perceber algumas coisas que vão
aparecendo por aí.

2.5 Medidas de Risco


“A vida é um risco”

Risco (risk) é definido como a probabilidade de ocorrência de um aconte-


cimento num determinado período de tempo. Como isto é epidemiologia,
normalmente esse acontecimento é doença ou morte6 .
A partir da dfiniçao de risco, definem-se os conceitos de factor de risco e
factor protector.
Factor de risco (risk factor) é qualquer característica que aumenta o
risco de vir a desenvolver uma determinada doença.
Factor protector é qualquer característica que diminui o risco de vir a
desenvolver uma determinada doença.
Estas características podem ser demogáficas (idade e localização geográ-
fica, por exemplo), social, genética (raça, polimorfismos genéticos), ambiental
(exposição a determinados químicos, por exemplo) e comportamental. Um
factor de risco ou um factor protector é sempre específico para uma determi-
nada doença. Não existem factores de risco para “doenças em geral” (embora
o mesmo factor possa ser factor de risco para várias doenças). Um factor
de risco para uma doença pode ser factor protector para outra doença. Por
exemplo, ser do sexo masculino é factor protector para lúpus eritematosos
sistémico (LES), nas é factor de risco para enfarte agudo do miocárdio.
6 Quando vieram para medicina já sabiam que não era para calcular a probabilidade de viverem
felizes para sempre, não?
30 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

Em vez de dizermos factor de risco, podemos dizer determinante de


saúde (health deteminant).

2.5.1 Medidas de Frequência


Exemplos de medidas de risco são a taxa de mortalidade, a incidência e a
prevalência. Outras medidas de frequência são discutidas mais à frente.

2.5.2 Medidas de Efeito


Medidas de efeito quantificam o efeito da presença ou ausência de um
atributo (determinante de saúde) na probabilidade de ocorrência de doença.
Medidas de efeito podem ser divididas em Medidas de Impacto e Medidas
de Associação.

2.5.3 Medidas de Associação


Medidas de associação medem a associação de um determinante de saúde com
a ocorrência de uma certa doença. Basicamente, são medidas que quantificam
se as pessoas com um determinado determinante de saúde têm maior ou menor
probabilidade de virem a desenvolver a doença.
Por exemplo, há uma assiciação entre a diabetes e o aparecimento de
varizes. Isto significa que uma pessoa diabética tem maior probabilidade de
vir a desenvolver varizes. No entanto, isto não significa que a diabetes seja
um factor causal para as varizes (por acaso até é, mas não podemos saber
isto só pela associação). Apenas significa que os dois atributos (ter diabetes
e ter varizes se associam). A questão da causalidade tem de ser abordada em
mais detalhe mais à frente.
As medidas de associação mais utilizadas são o risco relativo e o odds ratio.
Estas medidas são muito semelhantes e calculam-se da mesma maneira. No
entanto, recebem nomes diferentes porque não são calculadas nas mesmas
situações. Normalmente, cada uma destas medidas está associada a um tipo
de estudos, e portanto talvez seja bom ler esta secção ao mesmo tempo que
a secção que diz respeito aos estudos epidemiológicos.
2.5. MEDIDAS DE RISCO 31

2.5.3.1 Risco relativo


O risco relativo (RR) (relative risk) corresponde à razão entre a taxa de
incidência da doença no grupo exposto ao factor causal em estudo e a taxa
de incidência no grupo não exposto. Simbolicamente, pode-se calcular com a
seguinte fórmula:

Ie
RR =
Ine
onde

• Ie é a taxa de incidência do grupo exposto

• Ine é a taxa de incidência do grupo não exposto

Vamos ilustrar com um exemplo concreto: temos uma população com 100
pessoas. Dessas pessoas, 30 fumam e 70 não fumam. Ao longo de um ano, das
30 que fumam, 6 desenvolvem cancro e das 70 que não fumam, 7 desenvolvem
cancro.
Queremos calcular o risco relativo. A taxa de incidência no grupo exposto
é 6/30 = 0.2. Assim, na fórmula anterior, Ie = 0.2. A taxa de incidência no
grupo não exposto é 7/70 = 0.1. Assim, na fórmula anterior, Ine = 0.1. O
risco relativo é a eazão entre as taxas e portanto, RR = 0.2/0.1 = 2. Isto
quer dizer que a incidência de cancro nas pessoas que fumam é duas vezes
maior do que nas pessoas que não fumam.
Quando é que consideramos que um determinado factor causal é factor de
risco?
Como é óbvio, quando RR > 1, porque isto quer dizer que a incidência da
doença nos expostos é maior do que nos não expostos.
Quando é que é um factor protector?
Quando RR < 1, porque isto quer dizer que a incidência da doença nos
expostos é menor do que nos não expostos.
Por fim, se RR = 1, então o factor causal não é nem factor de risco nem
factor protector para a doença. Diz-se que não existe associação.
Para além do que ja foi dito, define-se, um tanto arbitrariamente, valores
para os quais o RR representa uma força de associação elevada, moderada ou
baixa. Estes valores são os seguintes:
32 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

• RR = 1 — Ausência de Associação

• RR > 5 ou RR < 1/5 — Força de Associação Elevada

• 5 ≥ RR > 3 ou 1/3 ≥ RR > 1/5 — Força de Associação Moderada


(não esquecer que 1/5 = 0.2 e que 1/3 ≈ 0.33)

• 3 ≥ RR > 1 ou 1 > RR > 1/3 — Força de Associação Fraca

Graficamente, podemos representar:


Força de Associação Elevada

0 1/5 1/3 1 3 5

Força de Associação Fraca

Força de Associação Intermédia

2.5.3.2 Odds ratio


Quando eu escrever a definição dos vários tipos de odds ratio, vai parecer que
é igual à definição de risco relativo e que as definições dos vários tipos de
odds ratio são iguais umas às outras. Traduzindo literalmente do Inglês, um
odds ratio é sempre uma “razão de probabilidades”. No entanto, apesar de os
cálculos serem iguais, conceptualmente estamos a calcular coisas diferentes.
Há dois tipos de odds ratio: odds ratio de doença e odds ratio de exposição.
O odds ratio de doença é a razão entre a probabilidade de ocorrência
de doença entre os que têm uma dada característica e entre os que nõ têm essa
característica. Ou seja, conceptualmente, partimos que têm a exposição para
os que têm a doença (daí se chamar odds ratio de doença). Este odds ratio
calcula-se nos estudos transversais e nos estudos de coorte. Isto faz sentido
porque nos estudos de coorte também partimos da exposição para a doença,
como sera descrito mais à frente.
O odds ratio de exposição é a razão entre a probabilidade de ter estado
exposto entre os que têm uma doença e os que não têm essa determinada
doença. Equivalentemente, é a probabilidade de ter estado exposto, sabendo
que teve a doença. O seja, conceptualmente partimos dos que têm a doeça
2.5. MEDIDAS DE RISCO 33

para os que têm a exposição (daí se chamar odds ratio de exposição). Este
odds ratio calcula-se nos estudos de caso-controlo. Como no caso anterior,
isso faz sentido porque nos estudos de caso-controlo também partimos dos
que têm a doença para os que estiveram ou não expostos.
É importante manter presente a distinção entre estes tipos de odds ratio.

2.5.4 Medidas de Impacto


As medidas de impacto avaliam a extensão na qual a ocorrência de problemas
de saúde pode ser atribuída a uma dada exposição.
O que é que isto quer dizer? Quer dizer o seguinte: é conhecido que o
tabaco causa cancro do pulmão. Isto quer dizer que o fumo do tabaco está
associado com o aparecimento de cancro do pulmão (o contrário não é verdade!
Associação não implica causalidade). Mas há pessoas que não fumam e têm
cancro do pulmão. Assim, isto quer dizer que o tabaco está associado com o
cancro do pulmão, mas não os causou a todos. Há, portanto outras causas de
cancro do pulmão. O que nós queremos saber é o quantos cancros do pulmão
são de facto causados pelo tabaco. Podemos, por exemplo vir a descobrir que
o tabaco causa 50% dos cancros do pulmão, enquanto os outros 50% se devem
a outras causas (nem que sejam mutações pontuais aleatórias)7 .
Isto é uma medida de impacto, porque traduz o impacto que o fumo
do tabaco tem no cancro do pulmão em geral. Se, por exemplo, o tabaco
estivesse associado com o cancro do pulmão mas só causasse 1% dos cancros,
então não teria um grande impacto np total dos cancros. Se causasse 99%
dos cancros, então diríamos que teria um grande impacto.
As medidas de impacto são úteis para o planeamento na área da saúde
pública. Por exemplo, se nós sabemos que o tabaco só causa 1% dos cancros
do pulmão, então tentar reduzir o fumo do tabaco talvez não seja uma medida
muito inteligente para evitar o cancro do pulmão, porque vamos estar a reduzir
o aparecimento de um pequeno número de cancros. Talvez se deva procurar
uma causa evitável que cause mais do que 1% e tentar tratar dessa. Por
exemplo, se descobrirmos que a exposição aos asbestos causa 80% dos cancros
do pulmão, talvez se deva tentar diminuir a exposição aos asbestos em vez de
diminuir o fumo do tabaco (é um uso mais inteligente do nosso dinheiro).
7 números inventados
34 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

Quais são as medidas de impacto mais utilizadas? São o risco atribuível,


o risco atribuível populacional e a fracção etiológica de risco.

2.5.4.1 Risco atribuível


O Risco Atribuível (RA) (attributable risk) ou Diferença Absoluta ou
Excesso de Risco (risk excess) é a diferença entre a taxa de incidência da
doença num grupo exposto ao factor de risco em estudo e a taxa de incidência
do grupo não exposto. Exprime a menor ocorrência de novos casos da doença
se fosse eliminado o factor de risco. O RA é uma proporção, e portanto só varia
entre 0 e 1 (ou entre 0% e 100%, se a proporção for expressa em percentagem).
A fórmula utilizada para calcular o RA é a seguinte:

RA = Ie − Ine
onde:

• Ie é a taxa de incidência do grupo exposto

• Ine é a taxa de incidência do grupo não exposto

Vamos ilustrar com um exemplo concreto: temos uma população com 100
pessoas. Dessas pessoas, 30 fumam e 70 não fumam. Ao longo de um ano, das
30 que fumam, 10 desenvolvem cancro e das 70 que não fumam, 7 desenvolvem
cancro.
A taxa de incidência de cancro nas pessoas que não fumam é 7/70 = 0.10.
Logo, Ine = 0.10. A taxa de incidência de cancro nas pessoas que fumam
é 10/30 = 0.33. Logo, Ie = 0.33. A diferença entre as incidências dos que
fumam e dos que não fumam é de 0.33 − 0.10 = 0.23. Simbolocamente, a
diferença corresponde à fórmula Ie − Ine . O que é que este valor quer dizer?
Quer dizer que as pessoas que fumam têm uma taxa de incidência que é
maior do que as pessoas que não fumam. E quão maior é? É maior em 0.23
ou em 23%. Agora cuidado com uma coisa: eu evitei dizer é 23% maior.
Normalmente, diz-se que Ie é 23% maior do que Ine se Ie = 1.23Ine . Repare-
se que não é disto que estamos a falar! O que nós estamos a dizer é que a
diferença absoluta entre as duas taxas de incidência é 0.23 ou 23%.
2.5. MEDIDAS DE RISCO 35

A principal informação que o cálculo anterior nos dá é que a taxa de


incidência no grupo dos fumadores poderia ser 5% ao ano mais baixa se eles
não fumassem.
Agora que já vimos como é que se calcula o RA, vamos discutir como é
que se analisa o valor obtido.
A pergunta relevante a colocar é: Quando é que ha risco8 ? Há três hipó-
teses.

• RA = 0 — não há risco. Se RA é 0, então as incidências da doença em


quem é exposto e em quem não é exposto são as mesmas, e portanto é
indiferente fumar ou não. De um ponto de vista de saúde pública, não
vale a pena procurar reduzir a exposição.

• RA > 0 — há risco. Se RA é maior que 0, então a incidência da doença


em no grupo exposto é superior à incidência de no grupo não exposto.
De um ponto de vista de saúde pública, vale a pena procurar reduzir
a exposição.

• RA < 0 — é um factor protector. Se RA é maior que 0, então a


incidência da doença em quem é exposto é menor do que a incidência
no grupo não exposto. De um ponto de vista de saúde pública, deve-
se procurar aumentar a exposição. Por exemplo, a exposição
a iodo é um factor protector contra certas formas de hipotiroidismo.
Uma medida de saúde pública que foi implementada para aumentar a
exposição ao iodo foi a suplementação do sal de cozinha com iodo.

O conceito de risco atribuível pode ser representado pela diferença das alturas
das duas barras no seguinte gráfico (o gráfico também menciona o conceito
de risco relativo, definido mais à frente). Neste caso, a cirurgia é um factor
protector.

8A desgravada que se refere a isto está mal. O valor de cutoff para o risco é 0 e não 1 como lá
aparece.
36 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

2.5.4.2 Fracção Etiológica de Risco


A Fracção Etiológica do Risco (FER) (etiological fraction, attributable
fraction) é a razão entre o risco atribuível e a taxa de incidência da doença na
população exposta ao factor causal. Enquanto o risco atribuível (RA) traduz
o aumento absoluto da incidência de uma doença devido a uma exposição, a
fracção etiológica do risco vai dar-nos a fracção da incidência que aumentou
(daí se chamar fracção). A fórmula utilizada para calcular a fracção etiológica
de risco é a seguinte:
RA
FER =
Ie
onde:

• RA é o risco absoluto

• Ie é a taxa de incidência da doença no grupo não exposto

Se substituirmos na fórmula anterior RA por Ie − Ine (onde Ine é igual à taxa


de incidência nos não expostos) obtemos a fórmula equivalente:
Ie − Ine
FER =
Ie
2.5. MEDIDAS DE RISCO 37

Vamos agora ilustrar com o exemplo concreto dado anteriormente: temos


uma população com 100 pessoas. Dessas pessoas, 30 fumam e 70 não fumam.
Ao longo de um ano, das 30 que fumam, 10 desenvolvem cancro e das 70 que
não fumam, 7 desenvolvem cancro.
Para calcular a FER, primeiro calculamos o RA, como ja fizemos acima, e
obtemos um valor de RA = 0.23. A taxa de incidência nos expostos é igual a
10/30 = 0.33. Logo, Ie = 0.33. Assim, a fracção etiológica do risco é igual a
0.23/0.33 = 0.70, ou igual a 70% se escrevermos em percentagem. Agora sim,
podemos dizer que se eliminássemos a exposição ao factor de risco, teríamos
uma redução de 70% na taxa de incidência da doença, porque 70% das pessoas
que adoecem no grupo dos expostos deixariam de adoecer.
A escolha sobre se devemos apresentar a fracção etiológica do risco ou o
risco atribuível depende do contexto.
Num estudo de caso controlo (discutido mais à frente na secção dos estudos
epidemiológicos), a fracção etiológica de risco pode ser calculada em função
do odds ratio de exposição. Ora, o odds ratio de exposição não é mais do que
a razão entre a incidência dos expostos (Ie ) e a incidência dos não expostos
(Ine ). Para obter a fórmula que exprime a FER em função do odds ratio de
exposição, começemos por escrever:
Ie − Ine
FER =
Ie
Se dividirmos o numerador e o denominador da fracção por Ine , vamos
obter:

Ie /Ine − Ine /Ine (Ie /Ine ) − 1


FER = =
Ie /Ine (Ie /Ine )
Substituindo Ie /Ine por odds ratio de exposição (OR), obtemos:
OR − 1
FER =
OR

2.5.4.3 Risco Atribuível Populacional


O Risco Atribuível Populacional (RAP) ou Risco Atribuível na Po-
pulação (population attributable risk, PAR) é a taxa de incidência de uma
doença (numa certa população), que está associada a um factor de risco. É
38 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

a proporção pela qual a taxa de incidência de uma doença seria reduzida se


o factor de risco fosse eliminado. A fórmula que se usa para calcular é a
seguinte:
Ip − Ine
RAP =
Ine
onde

• Ip é a taxa de incidência da doença na população

• Ine é a taxa de incidência nos não expostos (não expostos = ne)

Vamos ilustrar com um exemplo concreto: como anteriormente temos uma


população com 100 pessoas. Dessas pessoas, 30 fumam e 70 não fumam. Ao
longo de um ano, das 30 que fumam, 10 desenvolvem cancro e das 70 que não
fumam, 7 desenvolvem cancro.
A taxa de incidência de cancro na população é de (10 + 7)/100 = 0.17 ao
ano. Logo, Ip = 0.17. A taxa de incidência de cancro no grupo não exposto
é 7/70 = 0.10 ao ano. Logo, Ine = 0.10. Se eliminássemos o factor de risco, a
incidência da população passaria a ser igual à incidência dos não expostos.
Isto implica que a incidência iria diminuir. Quanto é que iria diminuir?
Iria diminuir de 0.17 para 0.10. A diminuição seria 0.17 − 0.10 = 0.07.
Na fórmula apresentada acima, este é o significado de Ip − Ine . Esta dife-
rença corresponde à diminuição de incidência que teríamos se eliminássemos
o factor de risco. Mas nós não queremos a diminuição da incidência. Quere-
mos a proporção da diminuição da incidência. Para isso vamos ter de dividir
a diminuição da incidência pela incidência original, que é a incidência da
população. Ora a incidência da população é 0.17. A proporção é portanto
0.07/0.17 ≈ 0.41. Simbolicamente, a proporção da diminuição da incidência
corresponde a (Ip − Ine )/Ip , e está assim explicado porque é que a fórmula é
como é.
O seguinte quadro ajuda a sistematizar estas medidas:
Medidas
de Efeito

Medidas de Medidas de
Associação Impacto

Risco relativo odds ratio


2.5. MEDIDAS DE RISCO

Risco Atribuível Risco Atribuível Fracção Etiológica


estudos:
Populacional de Risco
- coorte
odds ratio odds ratio
de doença de exposição
estudos: estudos:
- coorte - caso controlo
- transversais

Calculam-se todas da mesma maneira


(só por razões técnicas é que têm nomes diferentes)
39
40 CAPÍTULO 2. MEDIÇÃO EM EPIDEMIOLOGIA

2.5.5 Correlação, Associação e Causalidade


Correlação entre duas variáveis é uma expressão que significa que as variáveis
estão de algum modo associadas. Diz-se que há uma correlação ou associação
entre X e Y quando os valores de Y estão de algum modo “ligados” aos valores
de X e vice versa. Por exemplo, a altura a que uma criança atinge quando
adulta está correlacionada com a altura dos pais. Não devemos confundir o
conceito de correlação com o conceito de causalidade (causation). Se X
está correlacionado com Y , não podemos concluir que X causa Y nem que
X causa Y , nem sequer que existe um W que causa simultaneamente X e Y .
É um erro enorme concluir que correlação implica causalidade.
A aula sobre causalidade é uma confusão completa. O mais importante
a reter da aula, é que há condições necessárias para estabelecer causalidade
mas não suficiêntes. Isto quer dizer que na prática é muito difícil estabelecer
causalidade. A única condição necessária para existir causalidade é
a seguinte: a causa tem de vir antes do efeito.
Este tema é bastante bem ilustrado por este cartoon, de Randall Monroe
(que publica no site xkcd.com9 ):

Ou então este10 :
9 Atenção: Alerta Nerd! As duas tiras que eu meti aqui são uma amostra representativa do
que lá vão encontrar.
10 Qual era a única condição necessária? Sim, essa mesmo.
2.5. MEDIDAS DE RISCO 41
Capítulo 3

Estudos Epidemiológicos

There is no fair. There is no justice. There is just me. —


Death, in Mort by Terry Pratchett

Nos tipos de estudos epidemiológicos, não há outra opção sem ser decorar os
nomes todos. Eu tento fazer com que isto pareça o mais lógico possível, mas
ainda assim é muito trabalho de decorar. Quanto às vantagens e desvantagens
de cada estudo, eu não aconselho a que se decore tudo, até porque é imensa
coisa. Se se perceber as razões para cada vantagem, nao há necessidade de as
decorar, porque é possível raciocinar de modo a chegar às conclusões correctas
acerca de quais são os pontos fortes e os pontos fracos de cada estudo.
Por outro lado, sinceramente, alguns não fazem sentido nenhum.

3.1 Ocorrência das Doenças


“The devil has put a penalty on all things we enjoy in life.
Either we suffer in health or we suffer in soul or we get fat.” —
Albert Einstein

Uma doença vai afectar uma determinada população com uma determinada
frequência. Para estudar os efeitos da doença na população, definem-se vá-
rios termos. É necessário saber muito bem as definições destes termos para
sabermos do que é que estamos a falar. Esta parte parece um bocado um
dicionário, e é chata como tudo, mas é para saber...

43
44 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

3.1.1 Razão, Proporção e Taxas


Três termos que são frequentemente confundidos em epidemiologia são os
termos razão, proporção e taxa. Estes termos têm significados diferentes, e
por isso é preciso defini-los rigorosamente. Todas estas entidades correspon-
dem a fracções. Vão ter um numerador (o número que está em cima) e um
denominador (o número que está por baixo)1 .
Razão (ratio) é a divisão de uma determinada quantidade por outra sem
que exista uma relação de específica entre elas. Numa razão, o numerador não
está incluído no denominador. Por exemplo, a “razão de masculinidade” pode
ser definida como o número de homens a dividir pelo número de mulheres.
O numerador não está incluído no denominador, porque uma pessoa ou é
homem ou é mulher. Uma razão de masculinidade de 3/4 traduz um dado
do género: há 3 homens por cada 4 mulheres. Não tem a ver com o número
de homens em relação à população total (isso é uma proporção, definida a
seguir). Uma razão pode tomar valores entre 0 e +∞. Por exemplo, a “razão
de masculinidade” é igual a 0 se houver 0 homens e 30 mulheres (0/30 = 0),
e igual a +∞ se houver 30 homens e 0 mulheres (30/0 = +∞). Compare-se
isso com uma proporção que só pode tomar valores entre 0 e 1.
Proporção (proportion) é a divisão de duas quantidades em que o nume-
rador está incluído no denominador. Por exemplo, a proporção de homens
numa população é igual ao número de homens a dividir pelo número de pes-
soas na população. Uma proporção de 1/3 significa que em cada 3 pessoas
na população, 1 é homem. Como uma parte nunca pode ser maior do que o
todo, uma proporção vai sempre variar entre 0 e 1. Por exemplo, a proporção
de homens pode ser 0 se houver 0 homens e 30 mulheres (0/30 = 0), e pode
ser 1 se houver 30 homens e 0 mulheres (30/30 = 1) Compare-se com a razão
que pode tomar qualquer valor entre 0 e +∞.
Taxa (rate 2 ) é uma divisão entre duas quantidades em que o numerador
está incluído no denominador, a dividir por um intervalo de tempo. O termo
taxa é provavelmente o que é mais frequentemente mal aplicado. Uma taxa
1A lógica para estes nomes é a seguinte: denominador é aquele que dá o nome à fracção. Por
exemplo 1/3 diz-se “um terço” e 2/3 diz-se “dois terços”. O nome da fracção é “qualquer coisa
terços”. O numerador diz “quantos é que há”, isto é, o número de terços. Por exemplo, 1/4 diz-se
“um quarto” e 3/4 diz-se “três quartos”. Espero que isto ajude quem tem dificuldades em decorar
os nomes.
2 Não se diz tax, que significa imposto.
3.1. OCORRÊNCIA DAS DOENÇAS 45

de mortalidade por uma certa doença vai ser igual ao número de pessoas que
morreram dessa doença, a dividir pelo número total de pessoas na população
no intervalo de tempo considerado. Porque é que o intervalo de tempo con-
siderado é importante? Porque não é a mesma coisa morrerem 1.5% durante
ano ou 1.5% por dia. Por exemplo, vamos calcular a taxa de mortalidade de
um tumor maligno: suponhamos que há 1.000.000 pessoas na nossa popu-
lação, de que ao fim de 1 ano morreram 350 pessoas com o tumor. A taxa
de mortalidade é igual ao número de pessoas que morreram (350), a divi-
dir pelo número de pessoas na nossa população (1.000.000) por ano (nunca
nos podemos esquecer do intervalo de tempo). Fazendo as contas obtemos:
350/1000000 = 0.000350 por ano, ou 0.0350% por ano, ou 350 por cada
milhão de habitantes por ano.

3.1.2 Incidência e Prevalência


Incidência (incidence) de uma doença é a taxa de ocorrência de novos ca-
sos num dado período de tempo e numa dada população. A incidência tem
unidades de 1/tempo (1 a dividir por tempo), porque é uma fracção (que
não tem unidades), a dividir pelo tempo. Por exemplo, 1.5% por dia ou ao
dia. Se não se disser por dia, não é incidência, não é nada! Exemplo prático:
se numa população de 1000 pessoas, há 15 pessoas que ficam doentes por
dia, então a incidência é de 15/1000 / dia, isto é, 0.015 por dia ou 1.5% por
dia (lembrem-se que uma percentagem é só uma forma mais conveniente de
escrever fracções).
Prevalência (prevalence) é a frequência de pessoas que têm uma dada
doença num determinado instante e numa de terminada população. A preva-
lência não tem unidades (não esquecer que percentagens não são unidades).
Por exemplo, prevalência de 11%, ou equivalentemente de 0.11 (sem mais
nada). Isto quer dizer que num dado instante, 11 em cada 100 pessoas têm a
doença.
Como dá para ver, a incidência é uma medida que traduz a evolução
ao longo do tempo de uma população sujeita a uma doença, enquanto a
prevalência é uma medida que traduz a uma “fotografia” do estado actual da
população sujeita à doença.
46 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

Factores que influenciam a taxa de prevalência Tudo isto é muito


lógico, e se aparecer num teste para escolher a correcta, normalmente é só
preciso pensar um bocadinho.

• taxa de prevalência aumenta com:

– A duração da doença. Se uma doença dura mais, cada pessoa


afectada vai contribuir para o número de casos existentes durante
um período de tempo muito maior. Por exemplo, um diabético
é diabético até morrer, e ainda vive muito tempo. A partir do
momento em que aparece a diabetes neste indivíduo, de cada vez
que for determinada a prevalência, este diabético vai contar para o
aumento da prevalência. No caso de uma gripe, por exemplo, nin-
guém tem gripe durante muito tempo, e portanto a cada instante,
muitos dos doentes que ja tiveram gripe no passado, terão deixado
de ter, e por isso ja não contam para a prevalência da doença.
– O prolongamento da vida sem haver cura (baixa taxa de
letalidade) O argumento é exactamente o mesmo da alínea anterior.
Se as pessoas morrem depressa da doença, não vão contar para a
prevalência durante muito tempo.
– Aumento de novos casos (aumento da incidência)
– Imigração de novos doentes. Não é o tipo de coisa que uma
pessoa se lembre mas é mais ou menos óbvio se se chamar a atenção
para esta questão.
– Emigração de pessoas saudáveis. Ainda menos óbvia que a
anterior, mas igualmente fácil de perceber: ao haver emigração de
pessoas saudáveis, está a diminuir o denominador da fracção, mas
o numerador mantém-se constante. Claro que a fracção cresce.
– Melhoria das capacidades de diagnóstico. Vai aumentar o
número de pessoas que nós sabemos ser doentes.

• a taxa de prevalência diminui com:

– Curta duração da doença (já foi discutido)


3.1. OCORRÊNCIA DAS DOENÇAS 47

– Alta taxa de letalidade, isto é, se as pessoas morrem muito da


doença, ao fim de um ano vai haver menos pessoas com doença
– Diminuição do número de novos casos
– Imigração de pessoas saudáveis
– Emigração de casos
– Melhoria das taxas de cura. Tem mesmo de ser cura; não pode
ser só prolongamento da vida apesar da doença, porque isso leva a
um aumento da prevalência como foi discutido anteriormente.

3.1.3 Taxa de Mortalidade


Taxa de mortalidade (mortality rate) é um indicador importante. É im-
portante reforçar que como se trata de uma taxa, depende do tempo. Uma
taxa de mortalidade que não se refere ao tempo não é taxa não é nada!3
A definição de taxa de mortalidade (TM) é a seguinte:

N.º de óbitos num período de tempo


TM =
População total em risco no mesmo período de tempo
A taxa de mortalidade em Portugal ronda os 10 por 100.000 habitantes.
Isto quer dizer que num ano morrem 10 pessoas por cada 100.000.

3.1.4 Taxa de Letalidade


A taxa de letalidade (case fatality) é uma medida da severidade da doença
e é definida como o número de óbitos causados por uma doença a dividir pelo
número total de pessoas afectadas pela doença. Dizer que uma doença Y tem
uma taxa de letalidade de 30% significa que significa que 30% das pessoas que
contraem a doença Y morrem devido à doença Y. Este é um exemplo de uma
“taxa” que não se refere ao tempo. Por isso, às vezes chama-se só letalidade.
Por vezes emprega-se “taxa de letalidade” com o seguinte significado: uma
taxa de letalidade de 30% significa que significa que 30% das pessoas que
3 Alguns
autores não são tão estritos acerca do termo taxa. É possível ver-se “taxas” que não
dependem do tempo.
48 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

contraem a doença Y morrem devido à doença Y ao fim de um ano. Isto já


é rigorosamente uma taxa

3.2 Epidemiologia Descritiva e


Epidemiologia Analítica
3.2.1 Epidemiologia Descritiva
Epidemiologia descritiva (descriptive epidemiology) tem como objectivo
caracterizar e descrever os fenómenos na saúde. Procura, por exemplo, medir
a frequência com que ocorrem as doenças.
A epidemiologia assenta numa tríade (= conjunto de três) clássica: pessoa,
lugar e tempo
• Pessoa: em quem ocorre a doença. Quanto à pessoa é relevante carac-
terizar, por exemplo, o sexo, raça, idade e estatuto socio-económico.
• Lugar: que pode ser por exemplo o país, cidade, centro de saúde.
• Tempo: o tempo em que ocorrem os fenómenos estudados (presente,
passado, um ano específico, etc).
Neste tipo de estudos apenas se descreve os fenómenos, e não as relações
entre eles. Por exemplo, um estudo em que se determina a concentração de
chumbo no sangue das crianças é um estudo descritivo. Um estudo emque se
determina a frequência de vários tipos de atraso mental em crianças de uma
dada região é também um estudo descritivo. Mesmo um estudo que meça
ambas as coisas é um estudo descritivo. No entanto, se se procurar analisar
qual a relação entre estes dois fenómenos (a exposição ao chumbo e a doença
que é o atraso mental), então aí já entramos no domínio da epidemiologia
analítica.

3.2.2 Epidemiologia Analítica


Epidemiologia analítica (analytic epidemiology) é a área da epidemiologia
que se dedica a estabelecer relações entre os fenómenos. Por exemplo, rela-
ções de causalidade (do tipo “A causa B”). Claro que o mais importante é a
3.3. TIPOS DE ESTUDOS 49

epidemiologia analítica, porque é aquela que nos diz o que fazer (se A causa
B, então se eliminarmos A deixamos de ter B). Continuando com o espírito
geral da sebenta, seja A = tabaco e B = DPOC...

3.3 Tipos de Estudos


“Ler é maçada, estudar é nada.” — Fernando Pessoa

Os estudos podem ser divididos em estudos observacionais e estudos experi-


mentais, consoante o investigador tem ou não controlo sobre a formação dos
grupos. Um tipo de estudos um pouco à parte são os estudos quase experi-
mentais, nos quais o investigador não tem controlo na formação de grupos,
mas que nos restantes aspectos se assemelham a um estudo experimental.

3.3.1 Estudos observacionais


Nos estudos observacionais (observational trials), o investigador não tem
controlo sobre a formação dos grupos.

3.3.1.1 Estudos Ecológicos


Estudos ecológicos são estudos que têm por base comparações entre popu-
lações em vez de indivíduos. Neste tipo de estudos, comparamos, tentamos
tirar conclusões acerca de populações em vez de indivíduos. Poderemos ten-
tar determinar, por exemplo, se há correlação entre o consumo de sal médio
numa população e a prevalência de doenças cardiovasculares.
Os estudos ecológicos são vulneráveis à falácia ecológica

Falácia Ecológica Os estudos ecológicos permitem determinar correlações


ao nível das populações, mas não dos indivíduos. O que é que isto quer dizer
na prática? Olhemos para o exemplo do seguinte gráfico (fonte: Linda B, et
allii, Basic Epidemiology).
50 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

O gráfico mostra que, pelo menos nas quatro barras da direita (Eastern
Mediterranean, South-East Asia without India, South-East Asia, Africa) não
há correlação entre a percentagem de partos que se dão na presença de pre-
sença de pessoal qualificado e a mortalidade materna. Isto signifca que e
indiferente a presença ou não de pessoal qualificado, visto que as diferenças
na mortalidade são provocadas por outros factores. Assim, nestas quatro re-
giões do mundo, não vale a pena ter durante o parto uma pessoa qualificada
a vigiar.
Ou será que vale?
De facto isto parece tudo um bocado suspeito... E quando um estudo
demonstra algo demasiado suspeito, devemos investigar melhor. Ora, que
dados é que nós temos? Sabemos que em África e no Sudeste Asiático a
percentagem de partos sem pessoal qualificado é a mesma e a mortalidade
materna é muito diferente.
No entanto, não sabemos mais nada acerca destas duas regiões! Não esta-
mos a fazer qualquer esforço para que o a exposição seja a única diferença entre
as populações em estudo. Existe um grande número de factores confusionais,
isto é, factores que podem ser responsáveis pelo efeito que estamos a medir
(mortalidade materna). Assim, é possível que a África e o Sudeste Asiático
sejam diferentes e que estas diferenças expliquem as variações na mortalidade,
e ainda assim ao nível do índivíduo, a presença de pessoal qualificado diminua
a mortalidade materna.
3.3. TIPOS DE ESTUDOS 51

O que se passa é o seguinte: uma mulher que vá parir quer no Sudeste


Asiático quer em África, tem menor probabilidade de morrer se tiver uma
pessoa qualificada a assistir ao parto. No entanto, África tem mais qualquer
coisa (que não vem referido na fonte de onde tirei o gráfico e que para aqui não
interessa) que faz com que as mães morram mais. Apesar disso, uma mulher
em África com pessoal qualificado a assistir ao parto tem maior probabilidade
de sobreviver do que a mesma mulher em África que tenha o parto sozinha.
Como é que o gráfico não captura isto? A razão é que o gráfico está a
juntar as mulheres africanas todas no mesmo saco, e a comparar o saco inteiro,
em vez de comparar as mulheres uma a uma.
Em resumo, queremos responder à seguinte pergunta “É ou não me-
lhor, em termos de mortalidade materna, ter pessoal qualificado a assistir
ao parto?”. Se, com base no gráfico respondermos “não, porque em quatro
das áreas geográficas não há correlação ao nível da população”, estamos a
cometer a falácia ecológica, porque apesar de não haver correlação ao nível
das populações, há correlação a nível individual. Isto é, cada mulhr deve
procurar parir na presença de pessoal qualificado, porque vai diminuir a sua
mortalidade.
A falácia ecológica ja foi descrita noutras situações. Por exemplo, na
eleição presidencial dos Estados Unidos Bush vs Kerry, os estados com pessoas
em média mais ricas votaram mais em Kerry, mas dentro de cada estado, as
pessoas mais ricas votaram mais em Bush. Olhando para os dados dos estado
podíamos ser levados a pensar que as pessoas mais ricas votaram em Kerry.
Isso seria cometer a falácia ecológica.
Não é difícil pensar em outras situações em que a falácia ecológica se possa
aplicar. A moral da histórica é a seguinte: correlações ao nível das populações
não têm de implicar correlações ao nível individual.

3.3.1.2 Estudos Transversais


Estudos transversais (cross-sectional studies) são estudos em que se pre-
tende estudar o estado de saúde ou doença numa população (ou em várias
populações) num dado lugar e tempo. Este tipo de estudos faz como que uma
fotografia do estado de uma população para um dado instante. São estudos
bons para determinar a prevalência de uma dada doença num dado instante.
Por essa razão também podem ser chamados estudos de prevalência (pre-
52 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

valence studies). Um dos principais inconvenientes deste tipo de estudos, é


que a medição da exposição e do efeito são feitos ao mesmo tempo. É assim
fácil detectar associações, mas não é fácil determinar qual a direcção causal da
associação (se é que existe alguma). Por exemplo, fazemos um questionário
em que perguntamos às pessoas se fumam ou não e se têm cancro do pulmão
ou não. Mesmo que encontremos uma associação entre o fumo do tabaco
e o cancro do pulmão, não podemos determinar o que é que veio primeiro:
se o doente começou a fumar e depois desenvolveu cancro ou se desenvolveu
cancro e depois começou a fumar.
Se num estudo transversal for possivel determinar que a exposição ocorreu
primeiro que a doença, então podemos tratar os dados como se fossem os dados
de um estudo de coorte, referido mais à frente
• Vantagens:

– Bons para gerar hipóteses


– Permitem estimar a prevalência global e específica e algumas
vezes taxas
– Permitem estimar as proporções de exposição na população
– Permitem fazer exposições múltiplas
– São fáceis de fazer, rápidos e pouco dispendiosos
– Não há necessidade de submeter animais a tratamentos particula-
res (é estúpido mas estava nas desgravadas)
– São mais indicados para estudar factores permanentes (Ex.
uma pessoas que tenha fumado durante 15 anos, tenha deixado
de fumar há 5 e voltado a fumar recentemente vai ser difícil de
categorizar quanto à exposição)
– Muitas vezes são um bom primeiro passo para outros estudos

• Desvantagens

– não são úteis para estudar doenças raras


– não são úteis para definir uma relação de causalidade
– é difícil evitar o confundimento
3.3. TIPOS DE ESTUDOS 53

– não têm controlo na definição do tamanho da amostra.


Entrevista-se uma série de pessoas e o número de doentes e não
doentes vai depender da prevalência da doença
– têm problemas com a sequência temporal dos aconteci-
mentos (a exposiçao vem antes ou depois do efeito?)
– É difícil definir quando foi contraída a doença actual. A
pessoas naqule momento podem não saber muito bem quando é
que começaram os sintomas
– Recordação da exposição anterior pode ser defeituosa
– Falha o reconhecimento das doenças ainda em período de
latência. Isto e mais ou menos óbvio: como um estudo transversal
é como que uma fotografia do estado actual da população, que não
permite o acompanhamento ao longo do tempo, não temos maneira
de identificar adoenças em fase de latência. Pelo contrário, nos
estudos de coorte, já é possivel identificar as doenças em fase de
latência, se se seguir as pessoas durante mais tempo.

Cálculo do tamanho da amostra O cálculo do tamanho da amostra vai


depender de três coisas: da prevalência da doença na população, da
margem de erro (error margin) que queremos para o nosso intervalo de
confiança, e do nível de confiança (confidence level) Na prática, o nível de
confiança é quase sempre 95% (logo, constante), e portanto podemos dizer
que só depende de duas4 : da prevalência da doença na população e da
margem de erro que queremos para o nosso intervalo de confiança.
Claro que por vezes a prevalência da doença é desconhecida (muitas vezes é
precisamente para determinar a prevalência que fazemos um estudo transver-
sal, visto que até nem dá para fazer muito mais com um estudo deste tipo...),
e nesse caso deve ser estimada. A maneira mais óbvia de estimar a prevalência
é ir a literatura e procurar a prevalência da doença numa população diferente
mas que pareça semelhante o suficiente. Será que são semelhantes o sufici-
ente em termos da doença que vamos estudar? Neste caso, os critérios que
4épossível que se isto for perguntado em exame se considere certo que só depende da prevalência
da doença na população e da margem de erro
54 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

utilizamos para estimar vão ser de natureza não estatística, e nenhum esta-
tístico vos pode dizer o qe fazer neste caso. Os critérios vão depender daquilo
que se sabe da doença em concreto (patogénese, factores de risco conhecidos,
determinantes genéticos conhecidos, etc.).
Outra maneira de estimar a prevalência é conduzir um estudo com uma
amostra mais pequena. A partir desse estudo mais pequeno obtém-se uma
estimativa pontual da prevalência da população. Nesta fase não nos preo-
cupamos muito com as margens de erro nem com intervalos de confiança.
Depois, usamos esta estimativa pontual para estimar a prevalência que va-
mos utilizar para calcular a dimensão da amostra. É complicado? Vamos
ver um exemplo (estúpido, mas simples, que é o que se quer para perceber):
queremos determinar a prevalência de insuficiência cardíaca em fase III da
classificação de New York na província de Trás-os-Montes. Não temos dados
suficientes para fazer uma estimativa preliminar. Então, vamos conduzir um
estudo mais pequeno, com 200 pessoas, por exemplo, e obtemos nesta amostra
mais pequena uma prevalência de 3%. A partir desta prevalência, estimamos
que vai ser precisa uma amostra de 6000 pessoas para termos uma margem
de erro de 1% com um intervalo de confiança de 95%.5
Como é que isso se calcula? Com matemática de m****, como é óbvio.
Para quem não quer saber disto, é possivel saltar para o fim desta secção, que
começa com “Na prática”.

Intervalo de confiança para a proporção de uma população Quem


quiser um pouco mais de detalhes sobre isto pode consultar uma sebenta
muito boa que está no Samju.

Margem de erro No caso das proporções, a fórmula que se usa para cal-
cular intervalos de confiança é:
v
u p(1 − p)
u
p ± z(1−α/2) σp = p ± z(1−α/2) t
n
Na fórmula anterior, σp representa o desvio padrão da população (portanto
um parâmetro). A margem de erro (margin of error) deste intervalo é
z(1−α/2) p(p − 1)/n.
q

5 Números aldrabados. É possível calcular isto a sério mas agora não me apetece.
3.3. TIPOS DE ESTUDOS 55

Muitas vezes é necessário calcular um dos seguintes valores:

1. Margem de erro dados α, n e p: vai-se ver z(1−α/2) à tabela q


da distribui-
ção cumulativa da distribuição normal e calcula-se z(1−α/2) p(1 − p)/n

2. Coeficiente de significância (1 −
q α), dadas a margem de erro (d), n e
p: resolve-se a equação z(1−α/2) p(1 − p)/n = d em ordem a z(1−α/2) e
vai-se à tabela ver qual é o valor de (1 − α/2) que corresponde àquele
z. Sabido (1 − α/2) é fácil calcular (1 − α).

3. Dimensão da amostra (n) dados o coeficiente de significância (1 − α),


σ para que a margem de erro seja inferior a d: vai-se ver o z(1−α/2) à
tabela e resolve-se a desigualdade z(1−α/2) p(1 − p)/n ≤ d em ordem a
q

n (exercício para o leitor6 ). Já agora, não esquecer que n é um número


inteiro. O cálculo da dimensão da amostra é o cálculo que mais nos
interessa em epidemiologia.

Em vez de se dar a margem de erro pode-se dar a largura do intervalo. Isso


não tem problema nenhum porque:

margem de erro = largura do intervalo/2

Para uma dada margem de erro d, o valor de n que queremos é7 :

p(1 − p)
n = z(1−α/2)
2
d2
Na prática, como o nível de significância é quase sempre 95% por cento,
1 − α = 0.95 ⇔ α = 0.05, isto é, α é constante. Por causa das propeiredades
da distribuição normal, sabemos que se α = 0.05, então z(1−α/2) ≈ 1.96.
Podemos assim simplificar a equação para o cálculo da dimensão da amostra,
escrevendo:

p(1 − p)
n ≈ (1.96)2
d2
6a sério, façam mesmo isto porque se conseguirem fazer isto nunca mais se esquecem no exame.
E melhor ainda, se se esquecerem podem deduzir na altura. É o que eu faço
7 fizeram o exercício para o leitor, não fizeram? Se fizeram tudo bem percebem como é que se

chega aqui
56 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

A fórmula anterior é a que aparece nos slides da aula8 . Já agora, não


esquecer que n é a dimensão da amostra, e que portanto é um número inteiro.
Em princípio deve-se arredondar para cima.
Estas considerações adequam-se também aos estudos de coorte, em que o
problema é o mesmo.
Estudos longitudinais (longitudinal studies) são todos aqueles em que
há um seguimento ao longo do tempo. Enquanto os estudos transversais
são como uma fotografia que documenta um instante específico, os estudos
longitudinais são como um filme, que documenta fenómenos que evoluem ao
longo do tempo.

3.3.1.3 Estudos de Coorte

• Vantagens

– Melhor caracterização do estado basal. Como seguimos as


pessoas desde o início, sabemos com detalhe o estado de que as
pessoas partiram. Isto permite-nos distinguir um doente que já
estava mal quando iniciou o estudo (se calhar por outra causa que
até nem tem nada a ver com a exposição) de um doente que evoluiu
para uma situação pior.
8 Narealidade, provavelmente só vai ser preciso saber esta última fórmula, mas eu incluí toda a
discussão anterior porque ajuda a perceber de onde é que isto vem e porque é que se faz assim.
3.3. TIPOS DE ESTUDOS 57

– Como é prospectivo (isto é, anda para a frente), é o ideal para


estudar a incidência. Relembre-se que a incidência representa
os casos novos que vão aparecendo ao longo do tempo. Como esta-
mos a seguir as pessoas ao longo do tempo, sabemos quando é que
aparecem novos casos. Contraste-se isto com os estudos transver-
sais, em que só sabemos qual é a prevalência da doença num dado
momento (e que portanto não permitem calcular a incidência).
– Permite a medição com exactidão das variáveis
– Permite o estudo de exposições raras. Compare-se com o
estudo de Caso-controlo, que permite o estudo de doenças raras.
– É a única maneira de obter informação prospectiva de doenças
rapidamente fatais. Se a doença mata muito depressa, então se
começamos com gente ja doente (como nos estudos caso-controlo),
as pessoas vão morrer demasiado depressa para obtermos dados ao
longo do tempo. Se começarmos a seguir as pessoas enquanto ainda
estão saudáveis, apanhamos a doença desde o início, e podemos
segui-la durante mais tempo para obter mais dados.
– Bom para definir a sequência temporal e a história natural
da doença. Isto é óbvio porque como estamos a seguir as pessoas
desde antes da exposição, vamos ter um conjunto de dados bastante
completo sobre não só sobre a associação entre a exposição e a
doença mas também sobre a maneira como os doentes evoluem,
que não é mais que a história natural da doença.
– Permite o exame de efeitos múltiplos ligados à exposição
(assiciação entre os mesmos efeitos e várias doenças). Porquê?
Porque nós registamos o início da exposição. Posteriormente, de
acordo com o seguimento que fazemos das pessoas, podemos regis-
tar o aparecimento de não uma mas sim várias doenças. Assim,
podemos ligar todas as doenças ao mesmo efeito. Compare-se com
os estudos de caso-controlo que permitem comparar o efeito de vá-
rias exposições na mesma doença (mas nunca ao contrário)
– Permite calcular taxas gerais e específicas das doenças,
habitualmente a incidência
– Podemos à partida selecionar o que queremos registar
58 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

– Tem um potencial de viés mais baixo que os outros estu-


dos. (talvez porque como estamos a seguir um conjunto de pessoas
ao longo do tempo há menos maneiras de aldrabar a situação.
– Os resultados são considerados mais conclusivos do que os
caso-controlo
– Quanto mais longo for o estudo, mais forte se pode tornar.
Por exemplo, o estudo de Framingham que já dura há uma série
de anos.

• Desvantagens

– Não se pode aplicar a doenças raras


– Dimensão da amostra é maior que a dos estudos caso-controlo
– Recolha de dados e observação dos doentes é muito dispen-
diosa
– Implica um tempo de seguimento longo, e portanto há um risco
de as pessoas se perderem

3.3.1.4 Estudo nested caso-controlo


Nestes estudos parte-se de um estudo de coorte, mas para poupar uns cobres9 ,
faz-se o seguinte:
Esperamos algum tempo até termos um bom número de pessoas que estão
doentes. Depois, fazemos uma amostra aleatória entre os não doentes, e
apartir de certo ponto passamos a seguir só essa amostra aleatória em vez de
seguir todos os não doentes. Qual é a vantagem disto?
Por exemplo, temos um estudo com 6000 pessoas. Esperamos 4 anos no
estudo e temos 60 pessoas doentes e 5940 pessoas saudáveis. Se 60 pessoas
doentes é o suficiente para os nossos propósitos, então não precisamos de
esperar por mais doentes. É um bocado um desperdício estar a seguir tantas
pessoas saudáveis, e portanto decidimos escolher aleatoriamente 60 pessoas
saudáveis para ser o nosso controlo. Assim, agora estamos só a seguir 120
pessoas em vez das 6000 que estavam a ser seguidas no início (o que sai mais
barato)
9 “Fazer uma melhor gestão de recursos”
3.3. TIPOS DE ESTUDOS 59

O esquema seguinte explica isso muito bem:

3.3.1.5 Estudos de Caso-controlo


O estudo de caso-controlo (case-control) compara casos de doentes com
casos-controlo, isto é, pessoas que não têm a doença em estudo. O objectivo é
determinar a associação entre uma exposição e um efeito (uma doença). Como
é que é feita esta comparação? Esta comparação é feita da seguinte maneira:
escolhe-se um grupo de pessoas que tem a doença e um grupo de pessoas
que não tem a doença. Depois, averigua-se se cada uma das pessoas esteve
exposta ao factor em estudo. Vamos ter assim as proporções de exposição
quer no grupo de controlo, quer no grupo dos doentes. Repare-se que neste
caso o inquérito “viaja para trás no tempo”. Nós entrevistamos as pessoas no
presente com o objectivo de saber o passado.

• Vantagens:

– O melhor para estudar doenças raras. Porquê? Porque te-


mos uma amostra de doentes “garantida”. Se decidíssemos fazer
um estudo de coorte (em que não sabemos à partida quem é que
vai desenvolver a doença), vamos ter de seguir um número muito
grande de pessoas para termos uma amostra decente de pessoas
doentes. Por exemplo, temos uma doença em que a prevalência
é 1 em 500.000. Se quisermos fazer um estudo de coorte em que
60 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

queremos acabar com uma amostra de 30 pessoas com doença, va-


mos ter de escolher uma coorte com 15.000.000 pessoas. Isto não
é muito prático. A abordagem mais prática para esta situação é
escolher 30 pessoas com doença, 30 pessoas sem doença, e averi-
guar quais as exposições em cada um dos grupos. Isto corresponde
exactamente à definição de um estudo de caso-controlo. Evitou-se
assim ter de seguir 15.000.000 pessoas. Claro que tem de haver
15.000.000 pessoas na população em estudo para termos boas hi-
póteses de ter uma amostra de 30 pessoas, mas a vantagem é que
não os temos que seguir a todos.
– É rápido. As pessoas já têm ou não a doença e é só averiguar
a exposição. O tempo de recolha de dados é só o tempo que leva
a averiguar a exposição. Não é preciso estar a seguir as pessoas
ao longo do tempo. Isto é particularmente útil se a doença tem
um longo perídodo de latência. Se uma exposição demora 50 anos
a causar doença, então num estudo de coorte teríamos que seguir
pessoas durante aproximada 50 anos até obtermos casos de doença.
Num estudo caso-controlo podemos averiguar se a pessoa esteve ex-
posta durante os 50 anos anteriores sem termos de a seguir durante
50 anos.
– É conveniente para estudos de base hospitalar. Como mui-
tas doenças têm seguimento hospitalar, é fácil seleccionar os casos.
– Permitem estudar várias exposições ao mesmo tempo (não
são os únicos que permitem fazer isto)

• Desvantagens:

– Problemas com a sequência temporal dos dados


– Difícil decidir quando é que a doença actual foi adquirida.
Isto dificulta a determinação do tempo de exposição necessário
para o desenvolvimento da doença.
– Doença pode mascarar a exposição (sinceramente não percebo bem
esta; será que é por a doença lixar tanto o cérebero da pessoa que
ela já não se lembra de como é que foi a exposição?)
3.3. TIPOS DE ESTUDOS 61

– Falha o reconhecimento das doenças em período de la-


tência: podemos achar que alguém é um controlo sadável, e na
realidade ser uma pessoa que tem a doença em período de latên-
cia. Porque é que isto é importante? Por exemplo, o carcinoma do
pulmão causado por mesotelioma normalmente demora cerca de
40 anos a manifestar-se. Nós podemos ter uma série de controlos
que estiveram expostos a asbestos há 5 anos e que portanto ainda
não têm manifestações. Isto quer dizer que vamos ter um grande
número de pessoas que estiveram expostas e não têm a doença.
Isso leva-nos a pensar que a exposição não está tão relacionada
com a doença (depois de fazer todos os cálculos apropriados, como
é óbvio). Num estudo de coorte, pelo contrário, se esperarmos
tempo suficiente vamos em teoria diagnosticar todas as doenças
que aparecerem nos participantes do estudo.
– Não permite calcular incidência, risco relativo ou risco
atribuível. Só permite calcular odds ratio. Isto é uma diferença
subtil e muito difícil de explicar. Decorem.
– Tem um viés relativamente elevado, e portanto não são os
melhores em termos de força de associação (sinceramente
também não sei porquê)
62 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

Note-se a diferença em relação aos estudos de coorte: nos estudos de


coorte, começamos com pessoas, observamo-las ao longo do tempo para de-
terminar a exposição, e esperamos que algumas adoeçam. Num estudo de
coorte histórica, escolhemos as pessoas independentemente de terem ou não
a doença e independentemente de terem ou não a exposição, e averiguamos
quais delas tiveram a doença e quais delas tiveram ou não a exposição (que só
é relevante se for antes do desenvolvimento da doença). Independentemente
de ser coorte histórica ou não, é um estudo em que o seguimento se faz em di-
recção ao futuro. No estudo de Caso-controlo, pegamos em pessoas que têm
ou não têm a doença, e fazemos um “seguimento” em direcção ao passado
para ver se tiveram a exposição.
Ajuda pensar o seguinte:

• caso-controlo: primeiro “medimos” a doença e depois “medimos” a


exposição (que ocorreu no passado, como é óbvio). Ou seja, o crucial
nestes estudos é escolher os casos e os controlos, e só após escolhermos
estes dois grupos é que averiguamos a exposição.

• coorte: primeiro “medimos” a exposição e depois medimos a “doença”


(porque nestes estudos seguimos as pessoas ao longo do tempo e como
a exposição aparece primeiro, nós medimo-la primeiro). Aqui o crucial
é escolher a coorte, isto é, o grupo de pessoas que vamos observar.
Só depois dividimos a coorte em grupos consoante a exposição e a pre-
sença/ausência de doença. Isto é verdade mesmo nos estudos de coorte
retrospectivos

As tabelas seguintes resumem as principais situações em que os vários ti-


pos de estudos observacionais são ou não aplicáveis, bem como as principais
vantagens e desvantagens de cada um:
3.3. TIPOS DE ESTUDOS 63

3.3.2 Estudos Experimentais

3.3.2.1 Estudos de Campo

Estudo de campo (field trial) é uma experiência feita numa base comuni-
tária, ou seja na população que está em observação. Estes estudos aplicam-se
a pessoas saudáveis, mas que se pensa estarem em risco. Isto deve ser con-
trastado com ensaios clínicos, que envolvem pessoas doentes.

Estes ensaios são aleatorizados. Na aleatorização, os indivíduos são divi-


didos em dois grupos: um grupo a quem se faz a intervenção preventiva e um
grupo de controlo.
64 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

É clássico apresentar um estudo de campo como, por exemplo, para a


vacina de Salk, na poliomielite. Para demonstrar a sua eficácia escolheu-se
um grande número de pessoas, crianças, que foram vacinadas e depois seguidas
para se perceber se a vacina tinha ou não significado preventivo da doença.
A principal desvantagem dos estudos de campo é que são muito dispen-
siosos, porque impliam o seguimento de um grande número de pessoas para
detrminar quem que desenvolve a doença.
Neste aspecto são semelhantes aos estudos de coorte. Podemos pensar nos
estudos comunitários como sendo semelhantes a um estudo de coorte, mas
no qual o investigador (ou melhor, o processo de aleatorização) é que decide
quem é que sofre a exposição e quem é que não sofre, em vez de esse aspecto
ser deixado ao acaso. No caso da vacina de Salk, trata-se da exposição a
um suposto factor protector, que o estudo comprovou ser de facto um factor
protector contra a poliomielite.

3.3.2.2 Estudos Comunitários


Estudos Comunitários (community studies) são estudos em que se compara
um determinado efeito em duas comunidades, onde uma comunidade não é
sujeita às medidas que se estão a implementar. Por exemplo, para saber
o efeito de um dado comportamento sobre uma doença, educa-se uma das
comunidades e monitoriza-se o seu comportamento, para que passados alguns
anos se possa medir os efeitos.
3.4. ENSAIOS CLÍNICOS 65

Não são realizados muitos estudos deste tipo.

3.3.2.3 Ensaios clínicos


Este tipo de de estudo é tão importante para a prática clínica que é discutido
mais em pormenor numa secção à parte

3.3.3 Estudos Quase Experimentais


Estudos quase experimentais são na realidade estudos observacionais, no sen-
tido em que o investigador não decide quais os grupos em que divide a amos-
tra. São situações em que a Natureza ou o acaso permitem criar situações
em que duas populações muito semelhantes passam a diferir por um factor.
Isto permite ao investigador estudar a influência da exposição a esse factor
nas duas populações, como se tratasse de um estudo experimental no qual se
modificou um certo factor para duas populações. O estudo não é verdadeira-
mente experimental porque não foi o investigador (ou um processo aleatório
definido pelo investigador) a controlar como é que se dividiam os grupos.
Um exemplo de uma situação situação que originou estudos quase experi-
mentais foi o acidente nuclear em Chernobyll. O acidente permitiu determinar
os efeitos de certas exposições sobre o desenvolvimento de certas doenças. Os
estudos quase experimentais são convenientes porque nem sempre o inves-
tigador tem o poder de iniciar estudos experimentais que testem para esse
factor. Muitas vezes, estas exposições exigem situações que seriam considera-
das pouco éticas se fossem propostas como parte de protocolos experimentais
(o que não impede alguns investigadores de tentar).

3.4 Ensaios clínicos


3.4.1 Fases
Um ensaio clínico apresenta 5 fases, desde a fase 0 até à fase IV. À medida
que vão progredindo as fases, vai aumentando o número de indivíduos que são
incluídos.
66 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

Fase 0 Nesta fase fazem-se testes com doses subterapêuticas, para determi-
nar uma relação dose-efeito.

Fase I Nesta fase testa-se os medicamentos em indivíduos saudáveis, com


o objectivo de determinar a segurança do medicamento. É nesta fase que se
vai determinar a tolerância e a segurança do fármaco.

Fase II Nesta fase testa-se a relação dose / eficácia. Utilizam-se até 200
indivíduos. É nesta fase que vão ser definidas as doses.

Fase III Nesta fase testa-se a eficácia das doses definidas na fase anterior
e se procura o aparecimento de efeitos adversos. É nesta fase que se procura
a significância estatística e se aplicam as considerações fixes que já foram
estudadas na biostatística.

Fase IV É uma fase de pós-comercialização. Deve ser distinguida de


farmacovigilância, que é algo a que todos os fármacos estão sujeitos. A
farmacovigilância é da responsabilidade das farmacêuticas. Isto é, se algo
corre mal com um medicamento depois de este ter sido lançado no mercado,
a culpa é da empresa que o desenvolveu10 .

3.4.2 Tipos de Objectivos


O objectivo de um ensaio clínico será sempre medir um conjunto de parâ-
metros. Muitas vezes esses parâmetros são proporções. Alguns parâmetros
particulamente importantes são:
Complicações: proporção dos doentes que têm efeitos adversos
Sobrevida: proporção de sobreviventes ao fim de um ano (ou ao fim de
outro período de tempo, como 5 anos, 10 anos). Uma sobrevida de 30% aos 5
anos quer dizer que 30% dos doentes morreu ao fim de 5 anos. Não confundir
com taxa de mortalidade.
10 Tal
como o professor referiu na aula, é eticament questionável responsabilizar uma empresa
que fez tudo bem por um problema que não surgiu durante os testes de pré-comercialização. Tal-
vez esta prática só seja tolerada por causa das margens de lucro obscenamente altas da indústria
farmacêutica.
3.4. ENSAIOS CLÍNICOS 67

Complicações: proporção de doentes que apresentam algum efeito ad-


verso.
Qualidade de vida: Traduz a capacidade de realizar tarefas do dia a dia,
ou qualquer outra medida subjectiva de agravamento ou alívio dos sintomas.
Normalmente medida numa escala ordinal.

3.4.3 Critérios de Inclusão e Exclusão


Os critérios de inclusão e exclusão são regras que nos levam a decidir, para
um determinado sujeto, se ele deve ser incluído ou não no ensaio clínico.
No desenho de um ensaio clínico, é muito importante a escolha dos critérios
de inclusão e exclusão. As considerações que levam à escolha dos critérios são
essencialmente de ordem logística (facilidade de executar o estudo), estatística
(possibilidade de obter um efeito significativo)
Em termos de estatística, o que deve guiar a nossa escolha deve ser a
tentativa de optimizar a taxa de efeito. Isto tem relação com a discussão
acerca dos erros tipo II. Vai ser preciso recrutar uma amostra suficientemente
grande para o estudo ter um bom poder estatístico.
Por outro lado, vamos querer escolher grupos nos quais se observem gran-
des diferenças entre os efeitos. Por exemplo, queremos ver qual é a eficácia
de um tratamento para prevenir o enfarte agudo do miocárdio. Em princípio
queremos recrutar pessoas que tenham alguma probabilidade de ter enfarte
agudo do miocárdio durante a duração do estudo. Quantos mais enfartes ob-
tivermos, maiores vão ser as nossas probabilidades de detectarmos diferenças
entre o grupo de controlo e o do tratamento. Por exemplo, é muito mais fácil
detectar o efeiro se as sobrevidas aos 3 anos forem 6% e 12% (grupos de alto
risco), em vez de 1% e 2% (grupos de baixo risco). Por outro lado, escolher
apenas doentes de alto risco pode por em risco a validade externa do estudo,
como vai ser estudado mais à frente.
Em termos de logística, vamos querer ter critérios que tornem fácil o
recrutamento (“incluir todos os homens entre 50 e 75 anos é um critério mais
fácil” do que “incluir todos os homens entre 50 e 75 anos com perfil lipídico
determinado por análises com uma frequência não inferior a 3 por ano durante
um perído não inferior a 4 anos, e com diagnóstico de lúpus eritematoso
sistémico efectuado por duas comissões independentes de reumatologistas”),
68 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

vamos querer indivíduos que tenham uma boa adesão ao tratamento (o que
pode excluir pessoas sem capacidade para controlarem a própria medicação
e sem um cuidador que se responsabilise), que sejam fáceis de seguir durante
o follow-up (um trabalhador de construção civil com projectos de construção
em vários lugares do mundo que saltita de casa em casa de 6 em 6 meses pode
não ser um candidato muito bom para o estudo).
Queremos também critérios que sejam abrangentes o suficiente para po-
dermos generalizar os resultados à população em geral. Se tivermos critérios
muito restritos (por exemplo, niguém se atreva a generalizar resultados de
estudos de iECAs apenas a indivíduos de raça negra à população em geral,
porque é mais que sabido que há polimorfismos genéticos importantes na an-
giotensina convertase que determinam a eficácia terapêutica destes fármacos)
torna-se difícil fazer essa generalização.
Em termos de validade, podemos dizer que os critérios de inclusão e ex-
clusão mais estritos tendem a fortalecer a validade interna mas a diminuir
a validade externa.
Talvez mais importante do que tudo isto, os critérios devem ser definido
a priori, isto é, antes de se iniciar o estudo. Os critérios devem ainda ser
suficientemente rigorosos para nao ser ambígua a inclusão de um dado doente
num estudo. Os critérios ajudam ainda a diminuir os efeitos do viés (bias) e
do acaso

3.4.4 Validade
Num estudo, distinguem-se dois tipos de validade: validade interna e validade
externa.

3.4.4.1 Validade Interna


Um estudo com validade interna significa que é um estudo no qual as
diferenças observadas entre dois grupos se devem apenas ao efeito que se está
a estudar.
Por exemplo, num ensaio clínico que compara um fármaco com o controlo,
queremos ter a certeza de que as diferenças se devem apenas ao facto de um
dos grupos estar a tomar o fármaco.
3.4. ENSAIOS CLÍNICOS 69

Não queremos, por exemplo, que as diferenças sejam devidas ao facto de


os grupos terem uma alimentação diferente. Por exemplo, dar o fármaco a
chineses a viverem na china e utilizar como grupo de controlo judeus Ashke-
nazi11 a viver em Israel destrói completamente a validade interna do estudo,
uma vez que há um grande número de factores que diferem entre os dois
grupos (quer factores genéticos que factores de estilo de vida / ambiente).
Um estudo tem boa validade interna se os dois grupos forem iguais em
tudo excepto no fármaco que estamos a dar (ou qualquer outro tipo de factor
em estudo).

3.4.4.2 Validade Externa


A validade externa traduz a capacidade de um estudo ser extrapolado (isto
é, generalizado) dos indivíduos que foram testados para a população alvo.
A validade externa depende essencialmente da representativida amostra. De
um ponto de vista matemático, depende de quão a amostra se aproxima de
uma amostra aleatória retirada da população alvo do estudo. Para isto é
importante a estratégia de amostragem.
Como já foi abordado na Biostatística, a representatividade da amos-
tra não depende da sua dimensão. Em princípio, uma amostra com
100 pessoas é tão representativa como uma amostra com 10.000 pessoas. No
entanto, como já foi referido anteriormente, uma amostra maior aumenta o
poder estatístico do estudo. Continua a ser melhor uma amostra grande; só
não é mais representativa.
Um exemplo de estudo com má validade externa, é um estudo no qual
a amostra foi escolhida aleatoriamente a partir de uma população de judeus
Ashkenazi a viver em Israel, e no qual a população alvo (a população para a
qual queremos extrapolar) é a população dos chineses que vivem na China.
Este exemplo é exagerado de propósito, mas por vezes temos de escolher
se extrapolamos ou não estudos de uma população para outra população
bastante diferente. Não é proibido fazer isso, mas a extrapolação vai ter de
ser baseada em critérios não estatísticos.
A figura seguinte ilustra estes conceitos:

11 um grupo geneticamente muito homogéneo de judeus. A homogeneidade genética destes indi-


víduos baseia-se no facto de esta cultura encorajar os seus elementos a casarem-se entre si.
Em todas as situações queremos generalizar resultados de um estudo
com a amostra que se indica para a população alvo indicada em baixo

Situação I Situação II Situação III


Amostra Amostra Amostra

Grupo A Grupo A Grupo A

Grupo B Grupo B Grupo B

Validade Interna Validade Interna Validade Interna


Grupos mal feitos - diferem em Grupos A e B só diferem no tratamento Grupos A e B só diferem no tratamento
outras características sem ser no
tratamento Validade Externa Validade Externa
população de onde foi retirada a amostra população de onde foi retirada a amostra
não é semelhante à população alvo é semelhante à da população alvo

População alvo

Legenda:
= Judeu Ashkenazi

A "População Alvo" é uma mistura de judeus Ashkenazi com Chineses = Chinês


3.4. ENSAIOS CLÍNICOS 71

3.4.5 Medidas de Efeitos


As medidas de efeito podem ser analisadas de duas formas: análise segundo
o tratamento e análise segundo intenção de tratar
Análise segundo o tratamento: vamos ver se de facto o doente segue o
tratamento que lhe é proposto. Se o doente é colocado no grupo de tratamento
mas não o toma, então não conta para os resultados finais
Análise segundo intenção de tratar (intention to treat): nestas situ-
ações, não sabemos se o doente adere de facto ao tratamento (como na vida
real, aliás). Nós damos, por exemplo os medicamentos ao doente, ele vem no
final do estudo para ser observado e nós registamos o resultado, sem sabermos
se de facto o doente aderiu ao tratamento. Porque é que se chama intenção
de tratar? Porque nós temos de facto a intençõ de tratar o doente. Se ele
não faz o que lhe dizemos, problema dele. Quando se utiliza a intenção de
tratar, damos um nome especial ao reultado do tratamento: a efectividade
do tratamento.
Qual dos métodos de análise é o “melhor”?
Bem, se garantirmos que o doente toma de facto o fármaco, estamos a
obter um melhor conhecimento dos efeitos fisiológicos do fármaco em seres
humanos, porque sabemos que as alterações que estamos a registar se deram
numa pessoa que, de certeza, tomou o fármaco (se foi o fármaco causou essas
alterações é uma questão completamente diferente).
No entanto, se utilizarmos a intenção de tratar, estamos a obter um resul-
tado que se aproxima mais do que se vai passar quando o fármaco for colocado
a venda e passar a ser tomado, na vida real pelas pessoas.Por exemplo, se o
medicamento for um supositório com 1.5cm de largura, se calhar os vossos
doentes, quer no ensaio clínico quer na vida real, podem mostrar alguma
relutância em tomar as doses todas12 . Se o vosso medicamento for um com-
primido que se toma com água, a aderência ao tratamento será possivelmente
diferente.
Assim, não há uma resposta correcta para qual dos métodos é o melhor.
Na análise de resultados, os três indicadores mais comuns são: redução
do risco absoluto (RRA), redução do risco relativo (RRR) e número
necessário tratar (NNT).
12 Alguns até são capazes de gostar mais...
72 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

Os métodos de análise estatística vão ser normalmente a distribuição T de


Student (para ver se as médias são diferentes). Se for um evento que é medido
por uma variável categórica, utilizamos normalmente o teste Qui-quadrado
com as frequências absolutas.
Passemos agora para a discussão das medidas de efeitos mais utilizadas

3.4.5.1 Redução do Risco Absoluto


Redução do Risco Absoluto (RRA) (absolute risk reduction, ARR) é a
diferença de incidências ou de proporções do efeito dos tratamentos. É uma
medida de quanto se reduz o risco de um certo outcome (por exemplo, morta-
lidade, evento cardio-vascular) com um dado tratamento. Por exemplo, beta-
bloqueantes. Em termos de redução de mortalidade, um certo estudo mostra
que na insuficiência cardíaca compensada, o tratamento com beta-bloqueantes
tem benefícios em termos de mortalidade. Claro que falar em mortalidade e
em sobrevida é equivalente porque sobrevida = 100% − mortalidade. Supo-
nhamos que a sobrevida aos 2 anos no grupo de controlo é 90% e no grupo
de controlo é 85%. Então, o RRA vai ser dado por 90% − 85% = 5%. Isto
significa que conseguimos uma redução absoluta da mortalidade de 5%.

3.4.5.2 Número Necessário Tratar


Número necessário tratar (NNT) (number need to treet, NNT ) é o nú-
mero de pessoas que temos de tratar para evitar um evento (por exemplo,
uma morte). Para que é que isto serve? Bem, voltemos ao exemplo do estudo
dos beta-bloquenates. Nós já descobrimos que os beta-bloquantes diminuem
a mortalidade. Mas não a eliminam completamente. Se dermos beta bloque-
antes a uma pessoa, não garantimos que a pessoa não morre, mas baixamos
a probabilidade de ela morrer. Se dermos beta-bloqueantes a várias pessoas,
então em média vamos evitar que morram algumas dessas pessoas. O número
necessário de tratar é o número de pessoas que temos de tratar para (em
média) evitar que uma delas morra. É igual ao inverso da redução do risco
absoluto. Matematicamente:

1
NNT =
RRA
3.4. ENSAIOS CLÍNICOS 73

Se a redução do risco relativo com beta-bloqueantes é de 5% (= 0.05),


então o número de pessoas que temos de tratar para evitar uma morte é
1/0.05 = 20. Assim, é preciso tratar 20 pessoas para salvar a vida a uma. É
bom um certo tratamento ter um NNT baixo e é mau ter um NNT alto. Por
exemplo, se chegarmos à conclusão que para um dado tratamento, o NNT=
106 , então se calhar nem vale a pena dar o tratamento, porque estarmos a
tratar 1 milhão de pessoas para salvar uma pode não ser uma gestão muito
boa dos recursos.

3.4.5.3 Redução do Risco Relativo


Redução do Risco Relativo (RRR) (relative risk reduction, RRR) corres-
ponde ao RRA a dividir pela proporção ou incidência do evento indesejável
no grupo de controlo. Por exemplo, reutilizando os dados do estudo dos beta-
bloqueantes, temos o seguinte: a sobrevida no grupo tratado foi de 90%. A
sobrevida no grupo não tratado foi 85%. Tivemos uma redução absoluta da
mortalidade RRA = 90% − 85% = 5%. Para calcular o RRR temos que di-
vidir pela mortalidade no grupo não tratado (100% − 85% = 15%). Assim,
obtemos RRR = 5%/15% = 1/3 ≈ 33%. A redução do risco relativo é por-
tanto 33%. Isto quer dizer que a mortalidade das pessoas que estão a fazer o
tratamento é 33% menor do que a do grupo de controlo.
Estas contas que eu exemplifiquei podem ser apresentadas na forma de
tabela, como está nas desgravadas, mas acho que essa maneira de apresentar
só confunde mais.

3.4.6 Aleatorização
A aleatorização (randomization, não se diz randomização nem randomizado
porque é feio) é uma parte essencial de um ensaio clínico bem conduzido.
A aleatorização é a forma pela qual se distribuem os sujeitos pelos grupos
experimentais.
Os estudos podem ser divididos em dois tipos de acordo com o tipo de
aleatorização. São os estudos paralelos ou cruzados.
Um estudo é paralelo quando há um grupo que faz um tratamento A e
ao mesmo tempo outro grupo faz um tratamento B.
74 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

Um estudo é cruzado quando todos iniciam o tratamento A, e passado al-


gum tempo interrompem, esperam algum tempo (o chamado período washout,
para passarem os efeitos da medicação anterior) e depois todos fazem o trata-
mento B. Um estudo cruzado tem a vantagem de que é necessário seleccionar
menos gente. Isto é útil porque muitas vezes num ensaio clínico há a dificul-
dade em recrutar pessoas.

3.4.7 Ocultação
A ocultação (blindness) pode ser definida como: “manutenção em segredo
sobre o grupo em que foram incluídos os participantes de um ensaio clínico
aleatorizado na aleatorização inicial”. Manter em segredo de quem? Conso-
ante as pessoas que são mantidas em segredo, podemos distingur três tipos
de ocultação: simples, dupla e tripla

• ocultação simples: o doente desconhece qual o tratamento que lhe


está a ser aplicado. Este tipo de ocultação evita o efeito placebo. Por
vezes não é possível/prático efectuar este tipo de auscultação.

• dupla: os doentes, o investigador, e outros intervenientes no estudo,


como os médicos. Este tipo de ocultação esconde conhecimento a quem
está a ser observado e a quem observa. Isto é importante para evitar
observações subjectivas ou tendenciosas do observador ou do observado.
Este é o tipo de ocultação mais utilizado. Por vezes não é possivel
recorrer a este tipo de auscultação, porque pode não ser prático esconder
da equipa de tratamento qual o tratamento que está a administrar. Por
exemplo, queremos comparar uma estratégia de manutenção de Hb entre
7g/dL e 9g/dL com uma estratégia de manutenção entre os 9g/dL e os
11g/dL (em termos de outcomes como a sobrevida aos 30 dias, por
exemplo). Não é prático esconder da equipa médica qual é o nível de
Hb do doente, até porque este tem de ser regulado dinamicamente à
custa de transfusões. Assim, no estudo em causa pode-se decidir não
utilizar ocultação dupla13
13 http://www.nejm.org/doi/full/10.1056/NEJM199902113400601. Foi esta a decisão dos au-
tores do estudo. Estudo real que esteve na base de um dos artigos das aulas teórico-práticas de
Fisiopatologia. A parte que descreve a análise estatística está particularmente boa, especialmente
3.5. GRAUS DE EVIDÊNCIA 75

• tripla: inclui o estatista, o patrocinador e o dono do laboratório. Este


tipo de ocultação não e muito utilizado porque o estatista não pode
descobrir nos números coisas que não estão lá. Pode-se dar mais im-
portância a certos efeitos do que a outros, mas isso é uma questão de
marketing mais do que de ciência, e não afecta a verdadade ou falsidade
das conclusões do estudo.

3.4.8 Comparador
Um ensaio clínico deve ter sempre pelo menos dois grupos, visto que o objec-
tivo é sempre comparar. Esses grupos podem ser:

• Droga vs Placebo, em que o Placebo é uma substância que não tem


acção na doença em si

• Droga Antiga vs Droga Nova, para ver se a nova é melhor que a


antiga

• Droga Antiga vs Droga Nova, em que parecem ambas igualmente


eficazes (estudo de equivalência ou não inferioridade)

3.5 Graus de Evidência


“Extraordinary claims require extraordinary evidence.” Carl
Sagan

Diferentes tipos de estudos têm diferentes graus de evidência em epidemio-


logia, isto é, alguns tipos de estudos são melhore do que outros. Quando
nos baseamos em certos resultados para a nossa prática clínica, queremos
basearmo-nos nos estudos com grau de evidência mais elevado.
A hierarquia da evidência científica é a seguinte (do maior grau de evi-
dência para o menor grau de evidência):

• revisões sistematizadas e meta-análises: são as melhores porque


incluem os dados de vários estudos e não de um só (ver secção Meta
por causa daquilo que os investigadores admitem que não fizeram muito bem e podiam ter feito
melhor.
76 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

Análise mais à frente). Podem revelar tendências que não são óbvias
olhando só para estudos individuais.

• Ensaios clínicos aleatorizados e controlados com resultados sig-


nificativos

• Ensaios clínicos aleatorizados e controlados sem resultados sig-


nificativos. Como é que vamos confiar num resultado “não significa-
tivo” isso serve para alguma coisa, sequer? Na realidade, nós conside-
ramos um resultado estatisticamente significativo quando p < 0.05. No
entanto, se pensarmos que o estudo deu p < 0.10, então a probabilidade
de estarmos a cometer um erro tipo I é so de 10%. Assim, é como se
fizéssemos uma aposta sobre o que é correcto

• Estudo quase experimentais ou ensaios comunitários. A capa-


cidade que se tem de fazer aleatorização e controlar as variáveis con-
fundentes nestes estudos é bastante baixa. Assim, é normal que eles
estejam abaixo dos ensaios clínicos.

• Estudos prospectivos (por exemplo, estudo de coortes)

• Estudos retrospectivos (por exemplo, estudos caso-controlo)

• Casos clínicos e opiniões de peritos. É fácil perceber porque é que,


estatisticamente, casos clínicos são lixo: basicamente, são um ensaio
clínico com uma amostra de 1 e sem grupo de controlo. As opiniões de
peritos também valem o que valem, porque apesar da grande experiência
de quem já viu uma coisa acontecer muitas vezes, sem um controlo
rigiroso e uma análise estatística controlada, é difícil eliminar viéses
que possam estar a originar recomendações erradas. Na prática, e do
ponto de vista do clínico, casos clínicos e opiniões de peritos são bastante
relevantes.

3.5.1 Meta Análise


A temática das meta-análises não foi muito referida na aula, mas é aqui
explicada para perceber porque é que estão no topo da hierarquia da evidência
3.5. GRAUS DE EVIDÊNCIA 77

em epidemiologia e também porque estudos deste tipo aparecem muito nas


aulas de farmacologia.
Meta-análise (meta analysis) é de finida como uma síntese estatística de
dados provenientes de estudos separados mas semelhantes. Uma meta-análise
leva a que se possa identificar a partir dos vários estudos, uma tendência que
poderia passar despercebida em vários estudos.
Uma meta análise é feita a partir daquilo a que se chama uma revisão
sistemática da literatura14 . No entanto, uma revisão sistemática da lite-
ratura não tem obrigatoriamente de incluir uma meta análise.
As meta-análises são diferentes da maioria dos estudos que foram aqui
falados porque não há colecção de dados novos. Apenas ha uma nova análise
de dados que ja existem.
Os passos que estão envolvidos na execução de uma meta análise são os
seguintes:

• formular a questão a que queremos responder

• identificar os estudos relevantes na literatura

• excluir os estudos com falhas ao nível dos métodos (por exemplo, alea-
torização inadequada)

• medir, combinar e comparar os resultados

De tudo isto, o mais difícil é decidir que estudos excluir e que estudos incluir.
Tal como os critérios de inclusão e exclusão dos ensaios clínicos, também
estes critérios de inclusão e exclusão de estudos numa meta-análise devem ser
rigorosos e não ambíguos. Se os critérios não forem rigorosos o suficiente, é
possivel que o resultado seja afectado pelos viéses (bias) do investigador, que
pode decidir incluir só os estudos que lhe dão jeito.
É ainda importante que os resultados dos estudos estejam todos medidos
na mesma escala, para que possam ser comparados.
Qual é a grande vantagem das meta-análises? A grande vantagem é que a
análise dos resultados combinados de vários estudos pode revelar informação
que nenhum estudo isoladamente revela. Um caso típico é o de ter vários
estudos que mostram o benefício de um certo tratamento. No entanto, nem
14 que é uma possibilidade para o trabalho de final do curso
78 CAPÍTULO 3. ESTUDOS EPIDEMIOLÓGICOS

todos são estatisticamente significativos (isto é, têm p > 0.05 ou os intervalos


de confiança incluem o valor crítico da estatística de teste). Nesta situação,
pode não ser claro que o benefício existe. No entanto, se combinarmos os
estudos com uma meta-análise, podemos vir a descobrir que afinal o benefício
existe com significância estatística.
Podemos ainda representar graficamente os resultados de uma meta-análise,
num tipo de gráfico chamado forest plot. Por exemplo, observe-se o gráfico
da seguinte meta-análise (que procura descobrir se ter uma mãe fumadora
durante a gravidez é factor de risco para o aparecimento de fenda palatina na
criança; como isto é epidemiologia, é claro que a resposta é sim):

Na coluna da esquerda encontram-se os nomes de vários estudos. O gráfico


é semelhante ao apresentado na comparação entre os riscos cardiovasculares
dos AINEs. As barras horizontais representam o intervalo de confiança para
3.5. GRAUS DE EVIDÊNCIA 79

o odds ratio (OR). Se o OR é maior que 1 e não há intersecção da barra


horizontal correspondente com a linha vertical sobre o 1.0, então considera-
se que o fumo do tabaco é factor de risco. A área do quadrado cinzento
representa a contribuição de cada estudo para a meta análise. O resultado
final da meta análise é o losango branco na linha mais inferior. O centro
do rectângulo representa a estimativa pontual do OR e a largura do losango
representa o intervalo de confiança. Podemos ver que com confiança de 95%,
o odds ratio é maior que 1, e portanto o fumo do tabaco é factor de risco.
Repare-se que a meta análise permitiu-nos chegar a esta conclusão apesar de
grande parte dos estudos não terem significância estatística.
Não serão aqui abordadas as técnicas matemáticas pelas quais se sumariza
um estudo numa meta-análise.
Depois de tudo o que foi dito, deve ser mais ou menos claro que uma meta
análise é frequentemente melhor que os estudos que teve por base. Portanto
é natural que esteja no topo da hierarquia da evidência em epidemiologia.
Para além disso, vale a pena estudar este gráfico, porque nas aulas de far-
macologia aparecem frequentemente gráficos que representam meta-análises
semelhantes a esta.

Você também pode gostar