Escolar Documentos
Profissional Documentos
Cultura Documentos
Pesquisa de
levantamento
Floyd J. Fowler Jr.
Sobre o Autor
Floyd J. Fowler, Jr., é graduado pela Wesleyan University e PhD pela University of
Michigan em 1966. É Senior Research Fellow do Center for Survey Research da University
of Massachusetts Boston desde 1971. Foi diretor do Center por 14 anos. Dr. Fowler é o
autor (ou coautor) de quatro livros-texto sobre pesquisa de levantamento, bem como
de inúmeros trabalhos de pesquisa e monografias. Seu recente trabalho se focou nos
estudos da formulação de questões e nas técnicas de avaliação da pesquisa de métodos
de levantamento aos estudos de tratamentos médicos.
CDU 001.891
Pesquisa de
levantamento
Tradução:
Rafael Padilha Ferreira
Consultoria, supervisão e revisão técnica desta obra:
Dirceu da Silva
Doutor em Educação pela Universidade de São Paulo.
Professor na Universidade Estadual de Campinas.
Versão impressa
desta obra: 2011
2011
Obra originalmente publicada sob o título
Survey Research Methods, 4th Edition.
ISBN 978-1-4129-5841-7
© 2009, Sage Publications, Inc.
Sage Publications are the original publishers in the United States,
London and New Delhi. Sage Publications são editores do título original.
This translation is published by arrangement with Sage Publications.
Tradução autorizada por acordo firmado com Sage Publications.
SÃO PAULO
Av. Embaixador Macedo Soares, 10.735 – Pavilhão 5 – Cond. Espace Center
Vila Anastácio 05095-035 São Paulo SP
Fone (11) 3665-1100 Fax (11) 3667-1333
IMPRESSO NO BRASIL
PRINTED IN BRAZIL
Sumário
Prefácio................................................................................................... 7
1 Introdução.......................................................................................... 11
2 Tipos de erros em levantamentos..................................................... 22
3 Amostragem...................................................................................... 30
4 Ausência de resposta: implementando um projeto de amostra...... 64
5 Método de coleta de dados.............................................................. 87
6 Formulando questões para que sejam boas medidas..................... 108
7 Avaliando questões e instrumentos de levantamento...................... 140
8 Entrevista de levantamento............................................................... 155
9 Preparando os dados do levantamento para análise....................... 177
10 Analisando os dados do levantamento............................................. 188
11 Problemas éticos em pesquisas de levantamento........................... 196
12 Fornecendo informações sobre os métodos de levantamento........ 204
13 Erros de levantamento em perspectiva............................................ 209
Referências............................................................................................. 217
Índice onomástico.................................................................................. 225
Índice remissivo..................................................................................... 228
Esta página foi deixada em branco intencionalmente.
Prefácio
Esta edição contém dois novos capítulos que não estavam nas edi-
ções anteriores. Erros em levantamentos são potencialmente confusos
porque há, pelo menos, quatro tipos diferentes destes e a metodologia
de pesquisa usada para minimizá-los. Quando eu ensinava metodologia
de pesquisa, normalmente dedicava uma aula exclusiva para o tópico so-
bre a natureza dos erros. Nas edições anteriores, tais conceitos eram dis-
tribuídos pelo livro de acordo com sua relevância. O novo Capítulo 2,
“Tipos de erro em levantamentos”, introduz esses conceitos agora.
De forma parecida, as implicações do projeto da amostra e da ausên-
cia de resposta para a análise dos dados da pesquisa foram discutidas de
acordo com sua relevância ao longo das primeiras edições. Uma vez que es-
sas questões normalmente são abordadas depois que os dados foram coleta-
dos, o novo Capítulo 10, “Analisando os dados do levantamento”, concentra
a discussão de como abordar essas questões durante a análise, depois que
todos os tópicos sobre coleta de dados foram abordados.
Nos seis anos desde que a terceira edição foi publicada, um dos maio-
res problemas que surgiu na metodologia de pesquisa é sobre o futuro au-
mento das entrevistas por telefone como a principal forma de coleta de da-
dos acerca de populações gerais. Ao mesmo tempo, há um maior esforço em
tentar entender como usar a internet de forma mais efetiva. Tais meios são
trabalhos em desenvolvimento enquanto esta edição é concluída, mas ela
reflete o esforço de colocá-los em perspectiva, mesmo sabendo que práticas
continuarão sendo desenvolvidas. Além disso, é claro, esta edição integra
novos estudos e publicações dos últimos seis anos.
AGRADECIMENTOS
nhum outro nesta edição, o que certamente reflete sua ampla e variada con-
tribuição para o campo da pesquisa de levantamento.
Também gostaria de agradecer especificamente a Tony Roman,
Mary Ellen Colten, Trish Gallangher e Dragana Bolcic-Jankovic por suas
revisões e por seus comentários úteis em vários capítulos. Gostaríamos
de agradecer aos revisores Mark Berends, Vanderbilt University; Adam
Berinsky, Massachusetts Institute of Technology; Amie L. Nielson, Uni-
versity of Miami; e Patric R. Spence, Western Kentucky University, que fi-
zeram comentários sobre a edição anterior, colaborando, assim, com a
formulação da presente edição. O Center for Survey Research prestou
serviços de apoio. Judy Chambliss, como sempre, teve um papel crucial,
ajudando-me a manter a saúde mental que este esforço exigiu. Agradeço
a esses e a outros por suas contribuições, mas a responsabilidade do pro-
duto final, boa ou ruim, é basicamente minha.
Jack Fowler
Esta página foi deixada em branco intencionalmente.
Introdução 1
*
N. de T.: The Bureau of Labor Statistics é uma agência de pesquisa do Ministério do Tra-
balho dos Estados Unidos que compila estatísticas sobre horas de trabalho, sobre índices
de emprego e desemprego, sobre preços ao consumidor e sobre outras variáveis.
**
N. de T.: The Bureau of the Census é a agência governamental responsável pelo censo
nos Estados Unidos.
***
N. de T.: O National Health Interview Survey é uma entrevista familiar administrada
pelo National Center for Health Statistics (NCHS), que é a principal fonte de informa-
ções sobre a saúde da população dos Estados Unidos.
14 Floyd J. Fowler Jr.
conjunto de eventos, isso não deve ser comparado com outras ca-
racterísticas necessárias para realizar a análise pretendida. Por
exemplo, os registros de alta hospitalar invariavelmente carecem
de informações sobre a entrada de pacientes. Por isso uma pesqui-
sa que colete informações sobre os dados de entrada e de hospita-
lização desses indivíduos é necessária para estudar a relação entre
o ingresso de uma pessoa e sua experiência hospitalar.
Amostragem
Um censo significa reunir informações sobre cada indivíduo de
uma população. O maior desenvolvimento no processo de fazer levanta-
mentos úteis foi aprender como coletar amostras: selecionar um peque-
no subgrupo de uma população que represente toda a população. As
chaves para uma boa amostragem são encontrar uma forma de dar a to-
dos (ou a quase todos) os membros da população a mesma chance de
ser selecionado e usar métodos de probabilidade para escolher a amos-
tra. Os primeiros levantamentos e sondagens basearam-se em amostras
16 Floyd J. Fowler Jr.
Formulação de questões
Usar questões como medida é outra parte essencial do processo de
pesquisa. Os primeiros esforços de levantamento, que representam ex-
tensões do jornalismo, não foram cuidadosos acerca da forma como as
questões foram colocadas. Logo se tornou evidente, contudo, que enviar
um entrevistador com um conjunto de questões sem fornecer termos es-
pecíficos para as questões produziu diferenças significativas nas respos-
tas que foram obtidas. Desta maneira, no início do século XX, os pesqui-
sadores começaram a formular questões padrão para medir fenômenos
subjetivos. Mais uma vez, os pesquisadores do Ministério da Agricultura
dos Estados Unidos receberam o crédito por estender o uso das questões
padrão, na década de 1940, para situações nas quais informações fac-
tuais ou objetivas foram solicitadas. Payne (1951) publicou um livro de
referência fornecendo diretrizes para formular questões claras que os en-
trevistadores pudessem administrar. Likert (1932) recebeu os créditos
Pesquisa de levantamento 17
Entrevista
Embora nem todos os levantamentos envolvam entrevistas (como
alguns nos quais os participantes respondem a questões autoadministra-
das), certamente é comum usar uma entrevista para fazer perguntas e gra-
var as respostas. Quando entrevistadores são usados, é importante evitar
que eles influenciem as respostas dadas pelos respondentes e ao mesmo
tempo maximizar a precisão com que as perguntas são respondidas.
O primeiro passo importante para melhorar a coerência dos entre-
vistadores foi dar a eles questões-padrão. Posteriormente se descobriu que
também era necessário treinar os entrevistadores para aplicar uma pesqui-
sa de modo que evitassem introduzir vieses importantes nas respostas que
obtinham (Friedman, 1942). Hyman, Feldman e Stember (1954) publica-
ram uma série de estudos documentando outras formas pelas quais os en-
trevistadores poderiam influenciar as respostas obtidas. Seu trabalho con-
duz ao treinamento mais elaborado dos entrevistadores no que diz respei-
to às estratégias de sondagem quando respostas incompletas são dadas e à
manipulação dos aspectos interpessoais da entrevista de forma imparcial.
Cannell, Oksenberg e Converse (1977) avançaram o processo de tentar re-
duzir a variação entre entrevistadores especificando o roteiro de apresen-
tações e de estímulo que estes dão aos entrevistados ao limitar uma dis-
cussão não estruturada. A importância do treinamento e da supervisão dos
entrevistadores para garantir a qualidade dos dados tem agora sido bem
documentada (Billiet e Loosveldt, 1988; Fowler e Mangione, 1990).
*
N. de R.T.: Psicologia Psicofísica é um ramo da psicologia que estuda a relação dos
estímulos com a resposta dos indivíduos . É uma área da psicologia experimental.
18 Floyd J. Fowler Jr.
Características
da população
Questão
Quão proximamente a
amostra respondente
reflete a população
Questão
Quão bem as respostas
medem as características
a ser descritas
Leituras COMPLEMENTARES
Groves, R. M. (1989). Survey errors and survey costs. New York: John Wiley.
Groves, R. M., Fowler, F.J., Couper, M.P., Lepkowski, J. M., Singer, E., & Tou-
rangeau, R. (2004). Survey methodology (Chap. 2). New York: John Wiley.
Lessler, J.T., & Kalsbeek, W. D. (1992). Nonsampling error in surveys. New York:
John Wiley.
3 Amostragem
A ESTRUTURA DA AMOSTRA
Uma vez que o pesquisador tenha tomado uma decisão sobre a es-
trutura da amostra ou a abordagem para a obtenção de uma amostra, a
próxima questão é especificamente como selecionar as unidades indivi-
duais a ser incluídas. Nas próximas seções, as várias formas tipicamente
usadas para extrair amostras são discutidas.
Amostras sistemáticas
A menos que uma lista seja pequena, tenha todas as unidades pré-
numeradas e seja informatizada para que possa ser numerada facilmente,
Pesquisa de levantamento 37
extrair uma amostra aleatória simples como descrito antes pode ser traba-
lhoso. Em tais situações, há uma forma de usar uma variação chamada
amostragem sistemática que terá uma precisão equivalente a uma amos-
tra aleatória simples e pode ser mecanicamente mais fácil de criar. Além
disso, os benefícios da estratificação (discutida na próxima seção) podem
ser efetuados mais facilmente por meio de amostragem sistemática.
Na elaboração de uma amostra sistemática a partir de uma lista, o
pesquisador primeiro determina o número de entradas na lista e de elemen-
tos dela que serão selecionados. Dividir este último pelo primeiro produzirá
uma fração. Assim, se há 8.500 pessoas em uma lista e uma amostra de 100
é requerida, 100/8.500 da lista (ou seja, 1 em cada 85 pessoas) deve ser
incluída na amostra. A fim de selecionar uma amostra sistemática, um pon-
to de partida é designado pela escolha de um número aleatório que está
dentro do intervalo de amostragem, neste exemplo, qualquer número de 1
a 85. O início aleatório garante que este é um processo de seleção casual.
Começando com a pessoa na posição selecionada aleatoriamente, o pesqui-
sador passa a selecionar cada 85ª pessoa na lista.
Muitos livros de estatística previnem sobre amostras sistemáticas se
a lista é ordenada por algumas características, ou tem um padrão recor-
rente, o que irá afetar diferencialmente a amostra dependendo do início.
Como um exemplo extremo, se os membros de um clube de casais foram
listados com o parceiro masculino sempre listado primeiro, qualquer in-
tervalo constante de números produziria uma amostra sistemática consti-
tuída de apenas um gênero, embora o clube como um todo seja uniforme-
mente dividido por gênero. Isso é definitivamente importante para exami-
nar uma potencial estrutura de amostra a partir da perspectiva de se há
ou não alguma razão para pensar que a amostra resultante de um início
aleatório será sistematicamente diferente daquela resultante de outro iní-
cio de formas que vão afetar os resultados do levantamento. Na prática, a
maioria das listas ou das estruturas de amostra não representa nenhum
problema para a amostragem sistemática. Quando representam, por uma
reordenação das listas ou ajuste dos intervalos de seleção, quase sempre é
possível formular uma estratégia de amostragem sistemática que é, ao
menos, equivalente à amostra aleatória simples.
Amostras estratificadas
Quando uma amostra aleatória simples é extraída, cada nova sele-
ção é independente, não afetada por nenhuma das seleções que veio an-
38 Floyd J. Fowler Jr.
vezes a mais do que resto da população. (Ver Capítulo 10 para mais deta-
lhes sobre ponderação.)
Mesmo se membros individuais de um subgrupo de interesse não
possam ser identificados com certeza antes da amostragem, às vezes a
abordagem básica esboçada anteriormente pode ser aplicada. Por exem-
plo, é muito incomum ter uma lista de unidades habitacionais que identi-
fica a raça dos ocupantes antes do contato. Não é incomum, contudo, para
famílias asiáticas estarem mais concentradas em algumas áreas de vizi-
nhança do que em outras. Nesse caso, o pesquisador pode ser capaz de
amostrar domicílios em áreas que são predominantemente asiáticas em
uma taxa superior à média para aumentar o número de respondentes
asiáticos. Novamente, quando é dada a um grupo uma chance de seleção
diferente daquela dada a outros membros da população, um peso com-
pensatório apropriado é necessário a fim de gerar estatísticas precisas so-
bre a população para a amostra combinada ou total.
Uma terceira abordagem é a de ajustar a chance de seleção baseada
em informações recolhidas depois de fazer contato com respondentes em
potencial. Voltando ao levantamento dos estudantes universitários, se o
sexo dos estudantes não pôde ser verificado com antecedência, os pesquisa-
dores poderiam selecionar uma amostra inicial de 1000 estudantes, ter en-
trevistadores que verifiquem o sexo de cada um, e então realizar uma entre-
vista completa com todos os estudantes do sexo masculino (200), mas com
apenas a metade dos estudantes do sexo feminino (400). O resultado seria
exatamente o mesmo que com a abordagem descrita anteriormente.
Finalmente, outra razão técnica para usar diferentes probabilidades
de seleção por camadas deveria ser mencionada. Se o que está sendo
mensurado é muito mais variável em um grupo do que em outro, isso
pode ajudar a precisão da estimativa global resultante para destacar o
grupo com o maior nível de variabilidade. Groves (1989) fornece uma boa
descrição da lógica e de como avaliar a eficiência de tais projetos
AMOSTRAGEM MULTIESTÁGIO
mentos que possa ser amostrado. Esses agrupamentos podem ser amostra-
dos como um primeiro estágio. Listas são feitas, então, de membros indivi-
duais dos grupos selecionados, com possivelmente uma seleção posterior a
partir da lista criada no segundo (ou posterior) estágio de amostragem. Na
terminologia de amostragem, os agrupamentos no último estágio de um
projeto de amostra são normalmente referidos como agrupamentos. A pró-
xima seção ilustra a estratégia geral para a amostragem multiestágio por
descrever seu uso em três dos tipos mais comuns de situações nas quais
listas de todos os indivíduos na população-alvo não estão disponíveis.
4 27 256 -
5 15 271 270
são associados com residências; a taxa é de cerca 30% nas áreas urbanas
e de 10% nas áreas rurais. Waksberg (1978) desenvolveu um método para
aproveitar o fato de que os telefones são ordenados em grupos. Cada gru-
po de 100 números de telefone é definido por um código de área de três
dígitos, por um intervalo de três dígitos e por dois números adicionais
(código de área- 4702-82xx). Por meio da realização de uma triagem ini-
cial dos números por chamar um número aleatório em uma amostra de
grupos, e então chamando números aleatórios adicionais apenas dentro
do grupo de números onde um número residencial foi encontrado, a taxa
de unidades habitacionais atingidas pode ser elevada a mais de 50%. Nes-
te esquema, os grupos de 100 números de telefone são os agrupamentos.
Nos últimos anos, a maioria das organizações de pesquisa tem co-
meçado a usar uma lista assistida de abordagem à discagem aleatória de
dígitos. Com o avanço da tecnologia computacional, as companhias po-
dem compilar versões computadorizadas de listas telefônicas. Essas listas
são atualizadas a cada três meses. Uma vez que todas estão em um arqui-
vo de computador, uma pesquisa pode produzir todos os agrupamentos
(código de área- 4702-82xx) que tenham pelo menos um número de tele-
fone residencial publicado. Essas companhias podem então produzir a
estrutura da amostra de todos os números de telefone possíveis nos agru-
pamentos que têm pelo menos um número de telefone residencial publi-
cado. A amostragem pode agora ser conduzida usando essa estrutura de
amostra. Esta abordagem tem duas vantagens distintas. A primeira é que a
triagem inicial de números de telefone requerida pelo método de Waksberg
não é mais necessária. A constrição da estrutura da amostra já o realizou. A
segunda vantagem é que a amostra selecionada usando essa estrutura não
é mais agrupada. Usando-se todos os agrupamentos que possuem núme-
ros de telefone residencial como uma estrutura da amostra, uma amostra
simples ou sistemática aleatória de números de telefone pode ser extraí-
da. Essa nova abordagem à discagem aleatória de dígitos é mais rentável
e eficiente do que as anteriores. Uma limitação é que números de telefone
em agrupamentos que não têm números de telefone residenciais listados
não têm chance de seleção. Brick, Waksberg, Kulp e Starer (1995) estima-
ram que, em média, cerca de 4% das famílias com serviço de telefone nos
Estados Unidos são deixadas de fora. Lepkowski (1988) fornece um bom
resumo de várias formas de produzir amostras de números de telefone a
fim de amostrar famílias.
O acúmulo de listas de indivíduos e suas características fez possível
alguns avanços para levantamentos por telefone. Um deles, comparativa-
48 Floyd J. Fowler Jr.
mente simples, é que diretórios de telefone invertidos podem ser usados para
vincular endereços a alguns números de telefone. Um dos inconvenientes da
discagem aleatória de dígitos é que as famílias não são notificadas de que um
entrevistador irá ligar. As listas possibilitam separar os números selecionados
em grupos (ou camadas) baseados em se há ou não um endereço residencial
conhecido associado ao número. Para aqueles em que há um endereço conhe-
cido, uma carta pode ser enviada com antecedência.
Mais elaboradamente, se há listas de pessoas que têm características
conhecidas que são alvo de um levantamento – uma faixa etária, aqueles que
vivem em uma determinada área geográfica, pessoas que doam a uma deter-
minada instituição de caridade – uma camada pode ser feita dos números de
telefone que são prováveis de se conectar com famílias que estão sendo o
alvo. Os números na outra camada ou para os quais a informação não está
disponível podem ser amostrados em taxas mais baixas, dando, desse modo,
a todas as famílias uma chance conhecida de seleção, mas aumentando a
eficiência da coleta de dados por concentrar mais esforços nas famílias prová-
veis de fornecer respondentes capacitados. Note que se as probabilidades de
seleção não são as mesmas para todos os respondentes, a ponderação deve
ser usada no estágio de análise, como descrito no Capítulo 10.
Há varias questões adicionais para notar sobre a abordagem da dis-
cagem aleatória de dígitos para produzir amostragens. Primeiro, o seu valor
depende do fato de que a maioria das famílias possui serviço de telefone.
Nacionalmente, apenas cerca de 5% das famílias não têm serviço domésti-
co, mas em algumas áreas, particularmente nas grandes cidades ou nas
áreas rurais, a taxa de omissão pode ser maior do que aquela. O uso cres-
cente de telefones celulares individuais também tem representado um pro-
blema crescente para as amostragens produzidas a partir da discagem
aleatória de dígitos. A mais atual amostragem por discagem aleatória de
dígitos foca apenas em serviços domésticos e evita a troca consagrada ao
uso de telefones celulares. É possível produzir amostras a partir de ambos
os tipos de serviço, mas a complexidade da amostragem, a coleta de dados
e a ponderação pós-levantamento são muito melhores se números de celu-
lar são incluídos nas estruturas da amostra (Brick, Diplo, Presser, Tucker e
Yuan, 2006; Lavraskas, Shuttles, Steeh e Fienberg, 2007).
Para dar um exemplo da complexidade: amostragens baseadas em dis-
cagem aleatória de dígitos usam códigos de área para atingir populações em
áreas geográficas definidas. Contudo, números de telefones celulares são
muito menos ligados ao lugar em que as pessoas realmente vivem. Um levan-
tamento baseado em códigos de área de telefones celulares alcançará algu-
Pesquisa de levantamento 49
mas pessoas que vivem fora da área geográfica alvo e, pior, omitirá aqueles
que vivem na área mas que têm celulares com códigos de área distantes.
Como qualquer abordagem particular de amostragem, a discagem
aleatória de dígitos não é o melhor modelo para todas as pesquisas. Prós
e contras adicionais serão discutidos no Capítulo 5. A introdução da dis-
cagem aleatória de dígitos como uma opção de amostragem, contudo, fez
uma grande contribuição para expandir as capacidades de pesquisa nos
últimos 30 anos. Com o impacto a longo prazo dos celulares e o problema
das taxas de resposta (discutido no Capítulo 5), o uso futuro da discagem
aleatória de dígitos continua a ser visado.
Seleção de respondentes
Tanto as amostras por área de probabilidade quanto a discagem
aleatória de dígitos designam uma amostra de unidades habitacionais. Há,
então, a questão posterior de quem no domicílio deve ser entrevistado.
A melhor decisão depende de que tipo de informação está sendo
reunida. Em alguns estudos, a informação que está sendo reunida é sobre
a família e sobre todas as pessoas na família. Se a informação é comumen-
te conhecida e fácil de relatar, talvez qualquer adulto que esteja em casa
possa responder às perguntas. Se a informação é mais especializada, o
pesquisador pode querer entrevistar o membro da família que é mais ex-
periente. Por exemplo, na National Health Interview Survey,* a pessoa que
“mais sabe sobre a saúde da família” será quem vai responder às questões
que envolvem todos os membros da família.
Há, porém, várias coisas que um indivíduo pode relatar apenas por
si próprio. Os pesquisadores quase universalmente acreditam que nenhum
indivíduo pode relatar sentimentos, opiniões ou conhecimentos por algu-
ma outra pessoa. Há também muitos comportamentos ou experiências
(por exemplo, o que as pessoas comeram ou beberam, o que compraram,
o que viram ou o que lhes foi dito) que normalmente apenas podem ser
reportados precisamente por autorrelatos.
Quando um estudo de variáveis para as quais apenas o autorrelato
é apropriado, o processo de produção da amostragem precisa ir além da
seleção de famílias para amostrar indivíduos específicos dentro daqueles
domicílios. Uma abordagem é entrevistar todas as pessoas elegíveis em
uma família. (Portanto, não há amostragem nesta fase.) Devido à homo-
geneidade dentro da família, porém, bem como às preocupações acerca
do fato de um respondente influenciar as respostas do seguinte, é mais
*
N. de R.T.: Levantamento Nacional de Saúde.
50 Floyd J. Fowler Jr.
EP = √ Var
n
Porque p(1 – p) é a variação de uma porcentagem,
EP = √ p(1–p)
n
uma delas. Mesmo se não se pode dizer que há uma única resposta correta,
contudo, pode ser dito que há três abordagens para decidir sobre o tama-
nho da amostra que são inadequadas. Especificar uma fração da população
a ser incluída na amostra nunca é o caminho certo para decidir sobre o ta-
manho desta. Os erros de amostragem dependem principalmente do tama-
nho da amostra, e não da proporção da população nela. Dizer que um ta-
manho de amostra em particular é a abordagem usual ou típica para estu-
dar a população também é quase sempre uma abordagem errada. Um plano
de análise que aborda os objetivos de um estudo é o primeiro passo crítico.
Finalmente, é muito raro que calcular um intervalo de confiança desejado
de uma variável para uma população inteira seja o cálculo determinante em
relação ao tamanho que a amostra deve ter.
EXERCÍCIOS
Leituras Complementares
nhas ou grupos onde omitir pessoas que não falam inglês poderia ser um
fator significante. Se medidas especiais não são tomadas para coletar da-
dos de um grupo particular, as estimativas da amostra requerem uma po-
pulação mais restrita: a população que realmente teve uma chance de
responder às questões ou de fornecer dados, por conta dos procedimen-
tos de coleta de dados implementados.
Apesar da tendência de ser demograficamente diferente entre res-
pondentes e não respondentes para levantamentos administrados por
um entrevistador, particularmente para levantamentos por telefone base-
ados na discagem aleatória de dígitos, o efeito da ausência de resposta
sobre as estimativas do levantamento é menos claro. Keeter, Miller, Kohut,
Groves e Presses (2000) relatam uma cuidadosa comparação dos resulta-
dos de dois levantamentos por telefone: um rendeu uma taxa de respos-
ta de 36%, o outro uma taxa de 60%. Com relação às atitudes políticas e
sociais que eram os tópicos do levantamento, havia muito pouca diferen-
ça estatisticamente significante entre os dois resultados. Os pesquisa-
dores relataram uma replicação desse estudo com resultados similares
(Keeter, Kennedy, Dimock, Best e Craighill, 2006).
Contudo, esses estudos não devem levar os pesquisadores a acre-
ditar que a ausência de resposta não é uma importante fonte de erro.
Groves (2006) relata sobre uma análise de taxas de resposta e erro de
ausência de resposta. Ele estudou mais de 200 estimativas baseadas em
30 levantamentos que usaram vários modos de coleta de dados. Encon-
trou evidencias consideráveis de erros devidos à ausência de resposta.
Groves alcançou, contudo, duas outras conclusões importantes:
1. A taxa de resposta para uma pesquisa não é uma predição mui-
to boa do erro de ausência de resposta. A correlação que ele re-
lata entre as duas é de 0,33.
2. Uma das razões principais para a associação comparativamente
baixa é a variabilidade dentro dos levantamentos no montante
dos erros de ausência de resposta para variáveis diferentes.
Sim 45 0 a 10 45 a 55
Não 45 0 a 10 45 a 55
Total 90 10 100
* Se a taxa de resposta foi de 90%.
** Se 50% dos respondentes responderam “sim”.
Fonte: Adaptado de uma tabela desenvolvida por Jack Elinson e Mitchell D. Elinson. Comunicação pessoal.
REDUZINDO A AUSÊNCIA DE RESPOSTA
Levantamentos por Entrevista Pessoal ou por Telefone
Assim como sempre se pode dizer que uma amostra maior será
mais confiável do que uma amostra pequena, sendo todas as outras coi-
sas iguais, também se pode dizer que um levantamento com uma taxa de
resposta maior provavelmente irá produzir uma amostra melhor e menos
tendenciosa do que um que tem mais ausência de resposta. Pelo menos,
dado que o erro da ausência de resposta normalmente não é medido, po-
de-se dizer que taxas de resposta maiores aumentam a credibilidade dos
resultados de um levantamento. Como em qualquer outra decisão do
projeto, um pesquisador deve escolher quanto esforço investir na redu-
ção da ausência de resposta.
Dois problemas diferentes devem ser abordados a fim de alcançar
uma alta taxa de resposta para levantamentos pessoais e por telefone:
obter acesso aos indivíduos selecionados e conseguir sua cooperação.
Para reduzir a ausência de resposta resultante da falta de disponi-
bilidade
• Faça diversas chamadas, concentrando-se nas noites e nos finais
de semana. O número necessário depende da configuração. Seis
Pesquisa de levantamento 73
Levantamentos multímodo
Um dos melhores caminhos para minimizar a ausência de resposta
em levantamento é usar mais de um modo de coleta de dados. As ques-
tões-chave, como observado, são acesso, motivação e custo. Misturar os
modos pode habilitar os pesquisadores a alcançar as pessoas que estão
inacessíveis por meio de um único modo. Isso também pode permitir-
-lhes coletar dados dos membros da amostra menos intrinsecamente mo-
tivados. Por exemplo, um protocolo atrativo é usar e-mail ou correio para
Pesquisa de levantamento 79
Substituindo respondentes
As discordâncias entre os pesquisadores sobre a importância da
amostragem probabilística é intrigante. O Governo Federal em geral não
custeará esforços de pesquisas projetadas para fazer estimativas das carac-
terísticas da população que não sejam baseadas nas técnicas da amostra-
gem probabilística. A maioria das organizações de pesquisa acadêmica e
muitas organizações de pesquisa sem fins lucrativos têm a mesma aborda-
gem para produzir a amostragem. Ao mesmo tempo, a maioria dos grupos
de pesquisa da opinião pública, de pesquisa de grupos políticos de votação
e das organizações de pesquisa de mercado apoiam-se pesadamente nos
métodos de amostragem não probabilística (ver Converse, 1987, para uma
discussão das raízes históricas dessa diferença).
O núcleo das estratégias de amostragem probabilística é que a in-
clusão de alguém em uma amostra é baseada em um procedimento pre-
determinado que define uma taxa de seleção para subgrupos definidos
da população. Além disso, nenhuma característica do respondente nem
critério do entrevistador influencia a probabilidade de uma pessoa estar
em uma amostra. Apesar das modificações não probabilísticas dos proce-
dimentos de amostragem variarem, todas compartilham a propriedade
de que, no último estágio, o critério do entrevistador e/ou as caracterís-
ticas do respondente que não fazem parte do modelo de amostra afetam
a probabilidade de ser incluído em uma amostra. Os dois procedimentos
mais comuns são descritos a seguir.
Para um estudo por entrevistas pessoais envolvendo amostragem
não probabilística, o pesquisador pode extrair quarteirões da mesma ma-
neira que um amostrador extrairia para uma área de amostra probabilís-
tica. A diferença seria que, uma vez que o quarteirão é selecionado, o
entrevistador seria instruído a visitar aquele quarteirão e completar al-
gum número fixo de entrevistas com as pessoas que residem no quartei-
rão. Não haveria nenhuma lista específica de unidades habitacionais no
quarteirão. Uma abordagem é dar ao entrevistador a liberdade de visitar
qualquer casa localizada naquele quarteirão; ele não faria visitas subse-
quentes para encontrar as pessoas que não estavam em casa no momen-
to da visita inicial.
Uma estratégia similar é usada para levantamentos por telefone.
Dentro de uma troca particular, ou conjunto de números dentro de uma
troca, um alvo é definido para completar um determinado número de
entrevistas. Caso não haja resposta ou nenhum respondente disponível
82 Floyd J. Fowler Jr.
das amostras é introduzir cotas para vieses óbvios. Desse modo um entre-
vistador pode ser obrigado a entrevistar metade de homens e metade de
mulheres em um determinado quarteirão ou agrupamento de telefone.
Ocasionalmente alguma restrição adicional será estabelecida, tal como a
composição racial esperada ou o número de adultos jovens ou velhos. É
importante, contudo, não colocar muitas limitações nas cotas, ou os entre-
vistadores terão que gastar uma grande quantidade de tempo ligando ou
caminhando pelos quarteirões procurando por respondentes elegíveis.
O viés final inerente ao fato de permitir substituições tem a ver com a
conquista da cooperação. No caso em que o respondente diz estar ocupado
ou que não é uma boa hora para ser entrevistado, o entrevistador não tem
incentivo para mobilizar a cooperação. Se um projeto não é efetivamente
apresentado, uma fração significativa da população não ficará interessada
em ajudar. Deixar as pessoas se recusarem facilmente sem um esforço árduo
para apresentar o estudo a eles não vai apenas influenciar uma amostra con-
tra as pessoas ocupadas, isso também vai influenciá-la contra as pessoas que
têm menos conhecimento prévio ou menos interesse intrínseco em pesquisa
e/ou no assunto particular que está sendo estudado.
Sudman (1967, 1976) argumenta que há ausência de resposta em
todos os levantamentos, mesmo naqueles em que todo esforço é feito para
contatar os não respondentes. Uma vez que foi aprendido que um indiví-
duo não irá cooperar ou que não pode ser alcançado depois de vários tele-
fonemas, ele sugere que substituir um respondente da mesma casa ou do
mesmo quarteirão na verdade pode melhorar a qualidade das estimativas.
Ele argumenta que ter um vizinho na amostra pode ser melhor do que não
ter nem o respondente designado nem seu vizinho ou vizinha. Quando um
controle cuidadoso é exercido sobre o critério dos entrevistadores, contu-
do, como Sudman defende, a economia em ligações de retorno são com-
pensadas pelo aumento nos custos de supervisão.
Métodos de amostragem não probabilística produzem economia
de custos para levantamentos de entrevista pessoal (menos para levanta-
mentos por telefone). Uma outra vantagem importante desses métodos,
particularmente para levantamentos políticos, é que eles possibilitam
conduzir levantamentos durante a noite ou em poucos dias. Há muitas
pessoas para as quais muitas ligações de retorno ao longo de vários dias
são necessárias para pegá-las em casa. Levantamentos rápidos, obvia-
mente, têm que contar principalmente com a resposta das pessoas que
estão mais disponíveis. Quando uma cota de amostra é efetivamente im-
plementada, as amostras resultantes normalmente são bastante similares
84 Floyd J. Fowler Jr.
EXERCÍCIO
Leituras Complementares
Dillman, D. A. (2007). Mail and Internet surveys: The tailored design method (2nd
ed.). New York: John Wiley.
Groves, R. M., & Couper, M. P. (1998). Nonresponse in household interview surveys.
New York: John Wiley.
Groves, R. M., Dillman, D. A., Eltinge, J. L., & Little, R. J. A. (Eds.). (2002). Survey
nonresponse. New York: John Wiley.
Método de coleta de dados 5
Uma das decisões mais urgentes que o pesquisador precisa tomar re-
fere-se ao modo como será realizada a coleta de dados. Um entrevistador
deveria fazer as perguntas e gravar as respostas, ou as questões deveriam
ser autoadministradas, ou seja, respondidas e conduzidas pelo próprio en-
trevistado? Se a participação de um entrevistador for necessária, há ainda a
decisão por uma entrevista realizada pessoalmente ou por telefone. Há dife-
rentes modos de apresentar o questionário ao respondente, caso este precise
ler e responder às questões sem o auxílio de um pesquisador. Em alguns ca-
sos, questionários são entregues aos entrevistados, em grupos ou individual-
mente, e devolvidos imediatamente. Em pesquisas realizadas com famílias,
questionários podem ser deixados nas casas ou enviados por correspondên-
cia e devolvidos da mesma maneira. Para os que possuem acesso à internet,
as perguntas podem ser enviadas por e-mail ou pode ser solicitado aos en-
trevistados que acessem sites para responder às questões.
Computadores podem ser incorporados de várias formas ao pro-
cesso de coleta de dados. Obviamente, entrevistadores costumam fazer
88 Floyd J. Fowler Jr.
rencial da amostra de uma área rural não estão incluídos os nomes e en-
dereços dos sujeitos, então a realização de um levantamento de dados
por correspondência está fora de questão.
Listas de amostragem que incluem endereços de e-mail obviamen-
te proporcionam novas oportunidades para métodos de coleta de dados.
Se por um lado ainda não é universal a utilização do correio eletrônico,
por outro há grupos (trabalhadores, estudantes, membros de organiza-
ções profissionais) para os quais é possível a aplicação de pesquisas en-
volvendo o uso deste. Nestes casos, o emprego da internet como um dos
principais métodos para coleta de dados torna-se uma boa alternativa.
Um último problema de amostragem a ser considerado é a desig-
nação de um respondente. Se a estrutura da amostra é uma listagem de
indivíduos, qualquer procedimento é viável, incluindo aquele baseado
em correspondência. Muitas pesquisas, no entanto, requerem a designa-
ção de um tipo específico de respondente para a realização da coleta de
dados. Se um questionário é endereçado a uma casa de família ou orga-
nização, o pesquisador terá algum controle sobre quem irá respondê-lo.
Portanto, o envolvimento de um entrevistador é um importante auxílio,
caso ocorram problemas na designação de respondentes.
Tipo de população
Como os sujeitos lidam com computadores, suas habilidades em
leitura e escrita e sua motivação para cooperar são fatores que devem
ser considerados no ato da escolha de um modo para a coleta de dados.
Procedimentos autoadministrados exigem mais das habilidades de leitu-
ra e escrita dos sujeitos do que procedimentos de entrevista, e a familia-
ridade dos mesmos com computadores é considerada se o pesquisador
fizer uso da internet como ferramenta de pesquisa. Respondentes que
não são proficientes em leitura e escrita (mas que possuem uma boa ex-
pressão oral), indivíduos que apresentam dificuldades de visão, pessoas
que não são familiarizadas com a utilização de computadores, ou aque-
las que, por alguma razão, estão fatigadas ou doentes, provavelmente
irão preferir responder a uma entrevista a preencher um questionário.
Outra dificuldade observada na aplicação de procedimentos au-
toadministrados é obter indivíduos que estejam dispostos a responder os
questionários adequadamente. Se não há o envolvimento de um entre-
vistador, a motivação partirá exclusivamente do respondente; indivíduos
que estão particularmente interessados no tópico da pesquisa tendem a
Pesquisa de levantamento 91
Formato de questões
Geralmente, se um pesquisador planeja realizar um questionário
autoadministrado, ele precisa limitá-lo a questões que requerem respos-
tas objetivas, ou seja, questões cujas respostas são apenas assinaladas em
uma folha entregue pelo pesquisador. Em parte, este método é utilizado
pela sua característica de simplificar respostas, o que pode aumentar a
taxa de devolução de questionários. Segundo, respostas amplas de ques-
tionários autoadministrados não costumam oferecer dados produtivos.
Sem a presença de um entrevistador para descobrir o significado de rela-
tos incompletos, baseado nos objetivos das questões, as respostas não
poderão ser comparadas entre os respondentes e, por consequência, se
tornarão praticamente indecifráveis. A provável função dessas respostas
(se apresentarem alguma utilidade) será de apoio aos dados inseridos na
pesquisa. Apesar da necessidade da presença de um entrevistador para
aplicar questões discursivas, há também alguns casos nos quais questões
objetivas produzem melhores resultados se autoadministradas. Um exem-
92 Floyd J. Fowler Jr.
suais para serem compreendidas, que não podem ser adaptadas para en-
trevistas por telefone. Se, porventura, tais questões forem elementos cru-
ciais da pesquisa, então outra forma para a realização da entrevista se
faz necessária. Pesquisadores têm demonstrado, entretanto, que é possí-
vel adaptar a maioria das questões para entrevistas por telefone. Se um
instrumento for utilizado para pesquisas autoadministradas e para aque-
las realizadas através de entrevistas, é importante elaborar as questões
com antecedência. Isso geralmente requer poucas mudanças para trans-
formar um roteiro de entrevistas em uma pesquisa autoadministrada.
Métodos baseados em computador proporcionam um número de
vantagens que não podem ser obtidas em procedimentos que utilizam
papel e caneta. Por exemplo, regras para o preenchimento de questões
que possuem mais de uma resposta possível são praticamente impossí-
veis de serem compreendidas sem a assistência de um computador. Por
vezes é aconselhável desarranjar a ordem das questões ou as alternativas
de resposta – uma tarefa simples com o auxílio de um computador, po-
rém quase impossível sem a sua assistência.
Finalmente, quando respondentes estão trabalhando diretamente
com um computador, uma maior quantidade de material complexo pode
ser incluída na pesquisa. Deste modo, fotos, material de áudio e outras
combinações dessa espécie podem ser apresentadas aos respondentes
como parte do processo de levantamento de dados.
Taxas de resposta
A taxa de resposta tende a ser um fator decisivo na escolha de um
procedimento de coleta de dados. Obviamente, umas das maiores poten-
cialidades de levantamentos de dados autoadministrados, quando eles
são possíveis, é a elevada taxa de resposta. Generalizando, quando estu-
dantes em uma sala de aula ou trabalhadores em seus respectivos setores
são solicitados a responder questionários, a taxa de resposta se aproxima
dos 100%. A quantidade de respostas geralmente diminui em razão de
abstenções ou escalas de trabalho (trocas, folgas).
A taxa de resposta por levantamentos de dados por correspondên-
cia ou e-mail depende dos sujeitos e do propósito da pesquisa. Uma pes-
quisa financiada pela Medicare, realizada com pacientes que passaram
96 Floyd J. Fowler Jr.
pessoais e por telefone no que diz respeito a tipos de resposta. Além disso,
quando pesquisadores optam por realizar novas entrevistas com respon-
dentes que já foram entrevistados para conseguir informações adicionais,
a taxa de resposta obtida pelo telefone não é diferente daquelas obtidas
por intermédio de entrevistas pessoais. Para populações maiores, aparen-
temente um dos custos da discagem aleatória de dígitos em levantamento
de dados por telefone é a reduzida taxa de resposta em famílias seleciona-
das, muito menor do que aquela obtida através de entrevistas pessoais.
Quando uma redução de 5 a 20% nas taxas de resposta é multiplicada
pela taxa na qual as pessoas sem telefone, ou linhas telefônicas, também
são excluídas de tais amostras, o diferencial nas taxas de resposta torna-se
considerável. Ao escolherem o método de discagem aleatória de dígitos, os
pesquisadores devem estar preparados ou para enfrentar dificuldades
como esta, ou para trabalhar muito, com o objetivo de evitá-la.
Custos
A grande vantagem dos procedimentos de levantamento de dados
por telefone e por correspondência é que eles geralmente possuem um
custo menor por retorno do que as entrevistas pessoais. Obviamente, o
método mais barato para levantamento de dados é aquele que utiliza a in-
ternet como ferramenta. Os custos dos levantamentos de dados dependem
de uma série de fatores. Alguns dos fatores mais expressivos são: a quanti-
dade de tempo exigida para a elaboração do questionário, o tempo neces-
sário para instalar e testar o programa de monitoramento por computador,
a extensão do questionário, o alcance geográfico da amostra, a disponibili-
dade e a importância da amostra, os procedimentos de retorno, as regras
para seleção de respondentes e a disponibilidade de equipe treinada.
Os custos de um levantamento de dados por correspondência po-
dem variar. O custo de postagem, as taxas de envio e a impressão de
questionários não são despesas baratas. Além disso, se forem realizadas
ligações como lembretes, o gasto torna-se maior.
Outro fator indispensável para comparação é associado às despe-
sas de telefone envolvidas. Os custos do uso de telefones irão afetar a
comparação existente entre levantamento de dados por telefone e por
entrevistas pessoais, no entanto entrevistas pessoais com famílias comu-
mente possuem um maior custo por entrevista do que aquelas realizadas
por telefone, fazendo uso de uma mesma amostra. Seguramente, os pa-
gamentos e os demais custos para um entrevistador visitar uma casa e
98 Floyd J. Fowler Jr.
Serviços disponíveis
Os serviços e a equipe disponíveis devem ser considerados na esco-
lha de um modo de coleta de dados. A formação de uma equipe de entre-
vistadores é custosa e difícil. As taxas de rejeição à pesquisa são geralmen-
te elevadas para entrevistadores recém-treinados. Obter a cooperação dos
respondentes é uma árdua tarefa para entrevistadores inexperientes, o que
resulta em altas taxas de recusa no início do processo. Em suma, torna-se
complicado encontrar profissionais qualificados para treinar e supervisio-
nar entrevistadores. Desta forma, uma sugestão prática para pesquisadores
interessados em realizar levantamento de dados baseado em entrevistas
pessoais é trabalhar a habilidade em coletar dados de maneira organizada
e profissional. Se um indivíduo tem acesso à outra pesquisa em andamen-
to ou se um dos membros da equipe já possui experiência em treinamento
e supervisão de entrevistadores, o sucesso de estudos baseados em entre-
Pesquisa de levantamento 99
vistas será provável. Caso isso não ocorra, um levantamento de dados au-
toadministrado apresentará vantagens consideráveis.
muitas questões não são afetadas pelo modo de coleta de dados. Combi-
nações de pessoal, por telefone, por correspondências e procedimentos
que utilizam a internet como ferramenta podem oferecer menores preços
aliados a métodos que não tenham o custo da amostragem ou ausência
de resposta. Dillman (2007) e Leeuw, Dillman e Hox (2008) discutem al-
gumas dessas combinações.
CONCLUSÃO
EXERCÍCIO
Leituras Complementares
portanto, não saber em quem ele realmente votou. Ele pode ter
esquecido. O respondente também pode ter alterado sua respos-
ta intencionalmente por alguma razão.
2. Um respondente nos diz quantas vezes foi ao médico durante o
ano passado. Este é o mesmo número a que o pesquisador che-
garia se tivesse seguido o respondente cerca de 24 horas todos
os dias durante o ano passado? Problemas de recordação, de de-
finição do que constitui uma visita ao médico e de boa vontade
para responder com precisão podem afetar a correspondência
entre o número que o respondente fornece e a conta a que o
pesquisador teria chegado de forma independente.
3. Quando um entrevistado qualifica o seu sistema de escolas pú-
blicas como “bom” em vez de “regular” ou “ruim”, o pesquisador
interpretará tal resposta como refletindo avaliações e percep-
ções daquele sistema escolar. Se o entrevistado classificou ape-
nas uma escola (em vez de todo o sistema), se inclinou a respos-
ta para agradar o entrevistador, ou entendeu a questão de ma-
neira diferente dos outros, sua resposta pode não refletir os sen-
timentos que o pesquisador tentou medir.
FORMULAÇÃO INCOMPLETA
Ruim Melhor
6.1 Idade? Qual era sua idade em seu último aniversário?
6.2 Razão pela qual foi ao médico Qual foi o problema médico ou a razão pela qual
da última vez? você foi ao medico mais recentemente?
6.7 Eu gostaria que você classificasse diferentes características do seu bairro como
muito bom, bom, razoável ou ruim. Por favor, pense cuidadosamente sobre cada
item quando eu os ler.
a. Escolas públicas
b. Parques
c. Transporte público
d. Outro
6.7a Eu irei pedir a você para que classifique diferentes características do seu bairro.
Eu quero que você pense cuidadosamente sobre as suas respostas.
Como você classificaria (CARACTERÍSTICA)- você diria muito bom, bom, razoável ou
ruim?
questão, uma abordagem mais construtiva pode ser fazer perguntas su-
plementares sobre eventos desejados que são particularmente suscetíveis
de serem omitidos. Por exemplo, visitas a psiquiatras, visitas para tomar
vacinas e consultas por telefone normalmente são subnotificadas e po-
dem justificar questões especiais de acompanhamento. Perguntar ques-
tões específicas de acompanhamento para ter certeza de que eventos não
foram deixados de lado é uma forma fácil de reduzir tais erros.
6.10a Uma proposta para o controle das armas é que a nenhuma pessoa que já tenha sido
condenada por um crime violento seja permitido comprar ou possuir uma pistola, um
rifle ou uma espingarda. Você se opõe ou apóia uma legislação como esta?
O problema é óbvio: rico e famoso não são a mesma coisa. Uma pes-
soa pode querer ser um, mas não querer ser o outro. Os respondentes, quan-
do se deparam com duas questões, terão de decidir a qual responder, e essa
decisão será feita de forma inconsistente por diferentes respondentes.
A maioria das questões múltiplas são um pouco mais sutis, contudo.
6.12a Nos últimos 30 dias, quantas vezes você sacou dinheiro em um caixa-eletrônico?
6.12b (SE ALGUMA) Em quantas dessas vezes você sacou menos de 25 dólares?
6.13 A que tipo de lugar você vai para o seu atendimento médico de rotina?
6.14 Qual foi a principal razão pela qual você foi ao médico – por um novo problema
de saúde, para o acompanhamento de um problema de saúde anterior, para
um checkup de rotina, ou por alguma outra razão?
6.17 Quais são algumas das coisas deste bairro que você mais gosta?
6.17a Qual é a característica deste bairro que você elegeria como a que você mais gosta?
6.17b Diga-me três coisas relacionadas a viver neste bairro de que você mais gosta.
Embora isso possa não ser uma solução satisfatória para todas as
questões, para a maioria das questões como essa isso é uma forma eficaz
de reduzir a variação indesejada nas respostas entre os respondentes.
122 Floyd J. Fowler Jr.
Níveis de mensuração
Tipos de questões
As questões de pesquisa podem ser grosseiramente classificadas
em dois grupos: aqueles para os quais uma lista de respostas aceitáveis é
fornecida aos respondentes (questões fechadas) e aqueles para as quais
as respostas aceitáveis não são exatamente fornecidas para os respon-
dentes (questões abertas).
Quando o objetivo é colocar as pessoas em categorias desordena-
das (dados nominais), o pesquisador pode escolher se perguntará uma
questão aberta ou fechada. Questões praticamente idênticas podem ser
formuladas de qualquer forma.
EXEMPLOS DE QUESTÕES ABERTAS E FECHADAS
6.20 Minha saúde está ruim. Você concorda fortemente, concorda, discorda
ou discorda fortemente?
6.20a Como você classificaria sua saúde – excelente, muito boa, boa, regular ou ruim?
AUMENTANDO A VALIDADE DOS RELATOS FACTUAIS
O quão bem as pessoas relatam, contudo, depende tanto de o que eles es-
tão sendo questionados quanto de como estão lhes perguntando. Há qua-
tro razões básicas que explicam o porquê de os respondentes relatarem
eventos com uma precisão menos perfeita:
1. Eles não entendem a questão.
2. Eles não sabem a resposta.
3. Eles não conseguem lembrar, embora saibam a resposta.
4. Eles não querem relatar a resposta no contexto da entrevista.
Entendendo a questão
Se os respondentes não têm todos o mesmo entendimento de o
que a questão solicita, isso certamente resultará em erro. Como discutido
antes, quando os pesquisadores estão tentando contar eventos que têm
definições complexas, tais como assaltos ou serviços médicos, eles têm
duas opções: (a) Fornecer definições para todos os respondentes; ou (b)
ter os respondentes fornecendo as informações necessárias para classifi-
car suas experiências em categorias detalhadas, complexas, e então ter
os codificadores categorizando as respostas.
Fowler (1992) mostrou que as pessoas respondem a questões que
incluem termos ambíguos, produzindo dados completamente distorcidos.
Os pesquisadores não podem presumir que os respondentes irão pedir
esclarecimentos se eles não estão certos de o que uma questão significa.
Para maximizar a validade de dados de levantamento factual, um pri-
meiro passo essencial é escrever questões que serão consistentemente
entendidas por todos os respondentes.
Falta de conhecimento
A falta de conhecimento como uma fonte de erro pode ser de dois
tipos principais: (a) O respondente escolhido não sabe a resposta para a
questão, mas alguém na família selecionada sabe; ou (b) ninguém na fa-
mília selecionada sabe a resposta. A solução para a primeira situação
está em escolher o respondente correto, não na formulação da questão.
Na maioria das vezes, o problema é que o respondente da família é soli-
citado a relatar informações sobre outros membros da família ou dela
como um todo. As soluções incluem o seguinte:
Pesquisa de levantamento 131
Conveniência social
Há certos fatos ou eventos que os respondentes preferirão não
relatar de maneira precisa em uma entrevista. Condições de saúde que
Pesquisa de levantamento 133
ESCALAS PROBLEMÁTICAS
6.22 Como você classificaria seu trabalho – muito gratificante, gratificante
mas estressante, não muito gratificante ou nada gratificante?
6.23 Como você classificaria seu trabalho – muito gratificante, algo gratificante,
gratificante ou nada gratificante?
EXERCÍCIOS
Leituras Complementares
DEFININDO OBJETIVOS
Esboçando questões
Munido de uma lista do que será avaliado, o pesquisador se es-
força em encontrar uma única questão ou relação de questões necessá-
rias para criar medidas das variáveis da lista. Muitas questões, como
aquelas que lidam com informações prévias ou problemas demográfi-
cos, são padrão para a maioria dos levantamentos de dados. Pode ser
útil revisar as questões utilizando o General Social Survey, com o apoio
do National Opinion Research Center, na University of Chicago. Muitas
pesquisas são também realizadas através da internet pelo Inter-univer-
sity Consortium of Political and Social Research (ICPSR), na University
of Michigan. McDowell (2003) é um excelente recurso para a realiza-
ção desses levantamentos de dados com temas relacionados aos cuida-
dos com a saúde. Cópias de instrumentos de levantamentos de dados
originais, advindos das mais importantes organizações de levantamen-
to, também são úteis como referências. Com base neles, o pesquisador
pode abstrair ideias sobre como questões específicas são estruturadas,
e sobre como gerar questões padronizadas e formatar instrumentos de
levantamentos de dados.
144 Floyd J. Fowler Jr.
Avaliação Pré-levantamento
Revisão crítica sistemática
A partir do momento em que o conjunto de questões é esboçado, é
aconselhável que o próximo passo seja submetê-lo a uma revisão crítica.
Lesser e Forsyth (1996) produziram uma lista de falhas a serem localiza-
das em um conjunto de questões. Fowler e Cosenza (2008) também pro-
puseram uma lista de padrões para questões que podem ser aplicados
inicialmente para teste. Enquanto a não utilização de listas pode tornar a
tarefa exaustiva, o uso de ambas as listas pode auxiliar na identificação
de uma série de características de questões que são indicadas como pro-
blemáticas. Uma extensão disso tem sido desenvolvida por Graesser e co-
laboradores (Graesser, Cai, Louwerse e Daniel, 2006), a qual é composta
por uma lista de 12 problemas em questões que podem ser identificados
através do uso de uma ferramenta eletrônica de avaliação. A utilização
de uma dessas listagens pode ser útil na identificação de questões que
podem precisar de revisão; bem como na indicação de dificuldades que
requerem atenção durante as próximas fases de teste.
Há um certo limite sobre o que pode ser obtido por intermédio de en-
trevistas em laboratórios. Poucas entrevistas desse tipo são realizadas (geral-
mente o número de entrevistas é inferior a 10), pois elas exigem trabalho e,
na maioria das organizações, podem ser conduzidas apenas por um reduzi-
do número de pessoas. Segundo, as entrevistas são conduzidas sob condi-
ções artificiais; tarefas pelas quais os respondentes estão realmente interes-
sados, e são hábeis para executar, podem não ser passíveis de execução por
uma amostra cruzada realizada em suas residências. Entretanto, estas entre-
vistas são muito utilizadas como um passo essencial na elaboração e avalia-
ção de um instrumento de levantamento de dados. Questões que não são
satisfatoriamente compreendidas ou respondidas em um laboratório certa-
mente não irão ter melhor resultado em uma situação real. Problemas de
compreensão e dificuldades com a tarefa de resposta não são consideradas
confiáveis em pretextos de campo como seriam em entrevistas em laborató-
rios, onde o processo para resposta pode ser examinado.
A entrevista cognitiva em laboratório tem sido comumente empre-
gada para testar protocolos de entrevista. Os mesmos problemas de com-
preensão e dificuldades da tarefa de resposta, contudo, se aplicam a mé-
todos autoadministrados. Embora o teste-padrão de métodos autoadmi-
nistrados, como descrito a seguir, geralmente envolva a ampliação de
questões similares àquelas empregadas em entrevistas cognitivas, a com-
preensão dos respondentes é mais aparente quando o processo de per-
guntas e respostas é realizado oralmente. Deste modo, para questões de
teste elaboradas para serem autoadministradas, uma entrevista cognitiva
pode ser um meio eficaz de identificar problemas que não seriam obser-
vados no pré-teste-padrão.
Pesquisa de levantamento 147
Uma vez que uma lista de questões é preparada para o pré-teste fi-
nal, é necessário arranjar as questões de maneira que facilite o processo de
entrevista ou autoadministração. O primeiro passo é ordenar as questões.
Muitos pesquisadores optam por iniciar aplicando questões relativamente
fáceis e diretas, que podem apresentar ao respondente o tópico da pesqui-
sa. Questões que exigem um raciocínio mais apurado, ou aquelas que li-
dam com temas delicados, são comumente reservadas para as últimas ses-
sões. Um procedimento aconselhável é numerar as questões de cada ses-
são: A1, A2, B1, B2, e assim por diante. Dessa forma, quando questões são
adicionadas ou excluídas, não é necessário renumerar todas as questões.
Quer o levantamento de dados seja administrado por um entrevis-
tador, quer pelo próprio respondente, o objetivo principal dos esquemas
e formato do questionário deve ser facilitar a tarefa dos entrevistadores
e dos respondentes. Com o intuito de alcançar este objetivo, a seguir po-
derão ser observadas algumas regras, elaboradas para um instrumento
de levantamento de dados administrado por um entrevistador:
1. Adotar uma convenção que diferencie as palavras lidas pelos en-
trevistadores para os respondentes, e as palavras que são instru-
ções. Uma convenção comum é o emprego de letras em caixa
alta para instruções e em caixa baixa para questões que devem
ser lidas em voz alta.
2. Se uma entrevista é apresentada em forma impressa, e não é
monitorada por computador, é necessário fazer uso de instru-
ções que permitam ao respondente que ignore questões que fo-
ram elaboradas para um grupo específico de indivíduos. Uma
convenção comum é colocar INSTRUÇÕES EM LETRAS MAIÚS-
CULAS. As instruções devem ser ligadas a respostas específicas,
auxiliando o entrevistador. Obviamente, instrumentos monitora-
dos por computador pularão questões automaticamente, com
base nas respostas fornecidas.
3. Colocar vocabulário opcional em parênteses. Convenções como
(dele/dela) ou (esposo/esposa) podem ser empregadas com na-
turalidade por entrevistadores se eles forem alertados por ter-
mos em parênteses. Uma convenção similar utiliza todas as le-
tras maiúsculas (por exemplo, CÔNJUGE) quando o entrevista-
dor precisa substituir uma palavra que não é fornecida na pró-
148 Floyd J. Fowler Jr.
PRÉ-TESTES DE CAMPO
CONCLUSÃO
EXERCÍCIOS
Leituras Complementares
Presser, S., et al. (2004). Methods for testing and evaluating survey questionnaires.
Hoboken, NJ: John Wiley.
Willis, G. (2005). Cognitive interviewing. Thousand Oaks, CA: Sage.
Entrevista de levantamento 8
Obtendo cooperação
Os entrevistadores precisam entrar em contato com os respondentes
para mobilizar a cooperação. A dificuldade dessa parte do trabalho difere
grandemente com a amostra. Os entrevistadores precisam estar disponí-
veis quando os respondentes querem ser entrevistados, eles precisam estar
disponíveis (e persistentes) o suficiente para fazer contato com responden-
tes difíceis de encontrar e para fazer entrevistas na casa das pessoas, preci-
sam estar aptos e dispostos a ir onde os respondentes estão.
Embora muitos indivíduos amostrados concordem prontamente em
ser entrevistados, conseguir a cooperação de respondentes desinformados
ou inicialmente relutantes é, sem dúvida, uma das mais difíceis e mais im-
portantes tarefas que os entrevistadores devem desempenhar. Mais entre-
vistadores provavelmente falham nessa área do que em qualquer outra.
Não há dúvidas de que alguns entrevistadores são muito melhores
do que outros em conquistar a cooperação. Também está claro que estilos
pessoais diferentes farão diferença. Alguns entrevistadores eficazes são
muito profissionais, enquanto outros são mais casuais e encantadores. A
experiência sugere que há duas características que os entrevistadores que
são bons em conquistar cooperação parecem compartilhar. Primeiro, eles
têm um tipo de confiança assertiva. Eles apresentam o estudo como se não
houvesse dúvida de que o respondente irá querer cooperar. O tom e o con-
teúdo de sua conversa não deixam dúvida de que a entrevista acontecerá.
Segundo, eles têm o dom de engajar de imediato as pessoas pessoalmente,
de forma que a interação é focada e feita muito individualmente para o
respondente. Isso pode ser muito orientado pela tarefa, mas é sensível às
necessidade, às preocupações e à situação do indivíduo. Ler um roteiro
predeterminado não é uma forma eficaz de conquistar a cooperação.
Embora essas habilidades do entrevistador sejam importantes para
todos os levantamentos, elas são particularmente desafiadoras para le-
vantamentos por telefone para os quais os respondentes não recebem
nenhum aviso prévio (como é o caso quando a discagem aleatória de dí-
Pesquisa de levantamento 157
TREINANDO ENTREVISTADORES
Conteúdo do treinamento
O conteúdo do treinamento inclui tanto informações gerais sobre
entrevistas que se aplicam a todos os levantamentos quanto informações
específicas ao estudo particular no qual os entrevistadores vão trabalhar.
Os tópicos gerais a serem abrangidos incluirão o seguinte:
• procedimentos para contatar os respondentes e apresentar o estudo;
• as convenções que são usadas na formulação de um instrumento
de levantamento com relação à formulação e ao salto de instru-
ções, de forma que os entrevistadores possam perguntar as ques-
tões de forma consistente e padronizada;
• procedimentos para sondar respostas inadequadas de forma não
diretiva;
• procedimentos para registro de respostas para questões abertas e
fechadas;
164 Floyd J. Fowler Jr.
SUPERVISÃO
Custos
Supervisionar os custos para entrevistadores requer informações opor-
tunas sobre o tempo gasto, a produtividade (normalmente as entrevistas
completadas) e taxas de milhagem para entrevistadores que usam carros. Os
altos custos de entrevistas por telefone são provavelmente daqueles que tra-
balham nos horários menos produtivos, que têm altas taxas de recusa (uma
recusa toma quase tanto tempo quanto uma entrevista) ou que simplesmente
encontram maneiras (por exemplo, editando entrevistas, apontando lápis) de
fazer menos ligações por hora. Os pesquisadores domiciliares com custos al-
tos provavelmente moram longe dos seus endereços da amostra, fazem via-
gens muito curtas ou nos horários errados (noites e finais de semana são cla-
ramente os mais produtivos) ou têm baixas taxas de resposta.
Taxas de resposta
É importante monitorar as taxas de resposta (particularmente as
taxas de recusa) por entrevistador em uma base oportuna; contudo, isso
não é algo fácil de fazer. Há três problemas principais:
1. Para entrevistas pessoais, mas não para levantamentos por telefone a
partir de uma instalação central computadorizada, pode ser difícil
manter informações oportunas sobre os resultados do entrevistador.
Pesquisa de levantamento 167
QUESTÕES DE LEVANTAMENTO
PROCEDIMENTOS DE ENTREVISTA
Treinando e motivando os respondentes
Estudos têm demonstrado o valor de se ir além da boa formulação
de questões para ajudar a padronizar a entrevista (Cannell et al., 1987;
Cannell, Oksenberg e Converse, 1977; Miller e Cannell, 1977). Por
exemplo, o pesquisador pode ajudar o entrevistador a treinar o respon-
dente de forma consistente. Antes de começar a entrevista, o entrevista-
dor deve ler algo como o seguinte:
170 Floyd J. Fowler Jr.
Formulação padronizada
Foi dito anteriormente que perguntar as questões exatamente
como foram formuladas é um fundamento das medições padronizadas,
mas nem todos concordam (Tanur, 1991). Críticos das entrevistas padro-
nizadas observaram que algumas questões não são regularmente com-
preendidas por todos os respondentes. Quando este é o caso, eles argu-
mentam que produziria melhores dados se o entrevistador fosse livre
para esclarecer ou explicar o significado da questão (por exemplo, Con-
rad e Schober, 2000; Schober e Conrad, 1997). De forma similar, os críti-
cos notam que algumas tarefas de coleta de dados – por exemplo, quan-
do a mesma informação está sendo colhida sobre várias pessoas ou even-
tos diferentes – produzem interações muito artificiais ou embaraçosas
quando os entrevistadores tentam usar apenas as formulações escritas.
Nestes casos, argumenta-se que dar aos entrevistadores mais flexibilida-
de com as formulações resultaria em uma interação entrevistador-res-
pondente mais confortável (Schaeffer, 1992).
Muitas das críticas à entrevista padronizada são principalmente
para o resultado das questões pobremente formuladas (ver Houtkoop-
Steenstra, 200; Suchman e Jordan, 1990). Quando as questões não são
claras ou fornecem roteiros embaraçosos para os entrevistadores, a solu-
ção normalmente é escrever questões melhores, não deixar que os entre-
vistadores as reformulem (Beatty, 1995). Há uma base real de preocupa-
ção de que quando é dado aos entrevistadores a flexibilidade para refor-
mular ou explicar as questões, eles farão isso de forma que mude o signi-
ficado das questões e piore, em vez de melhorar, os dados resultantes
(Fowler e Mangione, 1990). Contudo, há determinadas questões – tais
como séries repetitivas ou quando poucos respondentes precisam de de-
172 Floyd J. Fowler Jr.
VALIDAÇÃO DE ENTREVISTAS
EXERCÍCIOS
Leituras Complementares
CONSTRUINDO UM CÓDIGO
gar da entrada de dados por toque de tom. Obviamente que essas abor-
dagens se encaixam melhor quando as questões têm respostas fixas.
Outro meio de inserir os dados de levantamento que não usam
nem os entrevistadores nem o grupo envolvido com a entrada de dados
é o escaneamento óptico. Existem duas maneiras que o escaneamento é
usado para fazer a inserção dos dados.
As alternativas de resposta podem ser por códigos de barras, de
forma que a pessoa pode inserir os números passando o scanner sobre a
barra ao lado da resposta escolhida. A vantagem dessa abordagem é que
a pessoa sem habilidades de inserir dados pode fazê-lo, mas ainda é ne-
cessária uma pessoa para gerenciar a entrada de dados.
O escaneamento óptico de folhas e de formulários especiais, tais
como os usados para testes padronizados, tem sido viável há anos e não
requer um grupo para entrada de dados. Como resultado, os custos da
entrada de dados são bem baixos. O custo principal está na aquisição dos
equipamentos e, se formulários com propósitos especiais forem necessá-
rios, na construção e na impressão deles.
Historicamente, costumam ocorrer aspectos negativos no uso de
escaneamento óptico em levantamentos:
Os formulários não foram usados de um modo conveniente, e os pesqui-
sadores de levantamentos querem questionários que sejam o mais fácil
possível.
Criar formulários com propósito especial para levantamentos relativa-
mente pequenos é bastante oneroso.
Uma significativa falta de dados pode ser o resultado, particularmente
quando respondentes desmotivados ou não habilidosos descuidadamente
marcam suas respostas.
Assim que os dados forem coletados e o arquivo de dados houver sido criado,
o próximo passo será o de analisar esses dados para que sejam feitas esti-
mativas estatísticas e para que se possa chegar a algumas conclusões. Esse
capítulo foi feito para familiarizar os leitores com quatro questões analíticas
que a maioria dos usuários de dados de levantamento tem de resolver para
que a análise dos dados possa ser feita: ajustar a ausência de respostas ao
levantamento, ajustar os itens que não foram respondidos, fazer ponderações
para ajustar as diferentes probabilidades de seleção e calcular os efeitos do
planejamento da amostra em cálculos estatísticos.
480 + 640 = 1.120, o número total de drinques ingeridos por ambos os sexos
1.120 drinques divididos por 400, o número de entrevistados = 2,8, o
número médio de drinques ingeridos por aqueles da amostra.
ENTRETANTO
CONCLUSÃO
A maior parte deste livro visa a detalhar como devem ser coletados
os dados de levantamentos de uma forma que maximize o seu valor para
abordar as questões de análise. Está além do alcance deste livro cobrir as
técnicas analíticas e os problemas estatísticos relacionados. Os proble-
mas abordados neste capítulo são diretamente relacionados ao planeja-
mento e à execução de um levantamento. Como se faz inevitável a esco-
lha difícil sobre como os dados serão coletados, é importante que seja
pensando em como os dados irão ser analisados e planejar ajustes apro-
priados na análise para as decisões do projeto que são feitas e a pratica-
mente inevitável imperfeição nos dados que são coletados.
Leituras Complementares
Groves, R. M., Fowler, F. J., Couper, M. F., Lepkowski, J. M., Singer, E., &
Tourangeau, R. (2004). Survey methodology (Chap. 10). New York: John Wiley.
11 Problemas éticos em
pesquisas de levantamento
INFORMANDO OS RESPONDENTES
Esses casos são uma exceção, e não a regra. A maioria das entre-
vistas de levantamento não requerem formulários de concessão assina-
dos – somente protocolos que assegurem que os respondentes foram in-
formados antes de concordar com suas participações. Novamente, Sieber
(1992) discute bem sobre os formulários de concessão.
PROTEGENDO OS RESPONDENTES
CONCLUSÃO
Leituras Complementares
Citro, C., Ilgen, D., & Marrett, C. (2003). Protecting participants and facilitating so-
cial and behavioral sciences research. Washington, DC: National Academy Press.
Groves, R. M., Fowler, F. J., Couper, M. P., Lepkowski, J. M., Singer, E., & Tou-
rangeau, R. (2004). Survey methodology (Chap. 11). New York: John Wiley.
Sieber, J. (1992). Planning ethically responsible research: Developing an effective
protocol. Newbury Park, CA: Sage.
Fornecendo informações
12 sobre os métodos
de levantamento
EXERCÍCIO
ERRO EM PERSPECTIVA
CONCLUSÃO
Blumberg, S., Lake, J., & Cynamon, M. (2006). Telephone coverage and health survey
estimates: Evaluating concerns about wireless substitutes. American Journal of Public
Health, 96, 926-931.
Bradbum, N. M., & Sudman, S. (1992). The current status of questionnaire design.
In P. N. Beimer, R. M. Groves, L. E. Lyberg, N. Mathiowetz, & S. Sudman (Eds.),
Measurement errors in surveys (pp. 29^0). New York: John Wiley.
Bradbum, N. M., Sudman, S., & Associates (1979). Improving interview method and
questionnaire design. San Francisco: Jossey-Bass.
Brick, J. M., Dipko, S., Presser, S., Tucker, C., &Yuan,Y. (2006). Nonresponse bias in
a dual frame sample of cell and landline numbers. Public Opinion Quarterly, 70(5),
780-793.
Brick, J. M., Waksberg, J., Kulp, D., & Starer, A. (1995). Bias in list-assisted telephone
samples. Public Opinion Quarterly, 59, 218-235.
Bryson, M. (1976, November). The Literary Digest poll: Making of a statistical myth.
American Statistician, pp. 184-185.
Burton, S., & Blair, E. (1991). Task conditions, response formulation processes, and
response accuracy for behavioral frequency questions in surveys. Public Opinion
Quarterly, 55, 50-79.
Cannell, C., & Fowler, F. (1964). A note on interviewer effect in self-enumerative pro
cedures. American Sociological Review, 29, 276.
Cannell, C., Groves, R., Magilavy, L., Mathiowetz, N., & Miller, P. (1987). An experi
mental comparison of telephone and personal health interview surveys. Vital & Health
Statistics, Series 2, 106. Washington, DC: Government Printing Office.
Cannell, C., Marquis, K., & Laurent, A. (1977). A summary of studies. Vital & Health
Statistics, Series 2, 69. Washington, DC: Government Printing Office.
Cannell, C., & Oksenberg, L. (1988). Observation of behaviour in telephone
interviewers. In R. M. Groves, P. N. Biemer, L. E. Lyberg, J. T. Massey, W. L. Nichols
H, & J. Waksberg (Eds.), Telephone survey methodology (pp. 475^195). New York:
JohnWiley.
Cannell, C., Oksenberg, L., & Converse, J. (1977). Experiments in interviewing tech
niques: Field experiments in health reporting, 1971-1977. Hyattsville, MD: National
Center for Health Services Research.
Catania, J. A., Gibson, D., Chitwood, D., & Coates, T. (1990). Methodological prob
lems in AIDS behavioral research: Influences on measurement error and participation
bias in studies of sexual behavior. Psychological Bulletin, 108(3), 339-362.
Catlin, 0., & Ingram, S. (1988). The effects of CATI on costs and data quality: A com
parison of CATI and paper methods in centralized interviewing. In R. M. Groves, P. N.,
Biemer, L. E., Lyberg, J. T., Massey, W. L. Nichols II. & J. Waksberg (Eds.), Telephone
survey methodology (pp. 437—445). New York: John Wiley.
Chromy, J. R., Eyerman, J., Odom, D., McNeeley, M. E., & Hughes, A. (2005).
Association between interviewer experience and substance use prevalence rates in
NSDUH. In J. Kennett & J. Gfoerrer (Eds.), Evaluating and improving methods used in
the NSDUH (DHHS Publication number SMA 05-4044, methodology series M-5) (pp.
59-87). Rockville, MD: SAMSA.
Citro, C., Ilgen, D., & Marrett, C. (2003). Protecting participants and facilitating social
and behavioral sciences research. Washington, DC: National Academy Press.
Conrad, F. G., & Schober, M. F. (2000). Clarifying question meaning in a household
telephone survey. Public Opinion Quarterly, 64(1), 1-28.
Converse, J. (1987). Survey research in the United States. Berkeley: University of
California Press.
Referências 219
Converse, J., & Presser, S. (1986). Survey questions. Beverly Hills, CA: Sage.
Couper, M. P. (2007). Issues of representation in eHealth research (with a focus on
Web surveys). American Journal of Preventive Medicine, 32(5S), S83-S89.
Couper, M. P., et al. (Eds.). (1998). Computer assisted survey information collection.
New York: John Wiley.
Couper, M. P., Hansen, S. E., & Sadowsky, S. A. (1997). Evaluating interviewer use of
CAPI technology. In L. E. Lyberg, P. Beimer, M. Collins, & E. D. de Leeuw (Eds.), Survey
measurement and process quality (pp. 267-286). New York: John Wiley.
Cronbach, L. (1951). Coefficient alpha and the internal structure of tests. Psychiatrika,
16, 297-334.
Cronbach, L., & Meehl, P. (1955). Construct validity in psychological tests. Psychological
Bulletin, 52, 281-302.
de Leeuw, E. D. (2008). Choosing the method of data collection. In E. D. de Leeuw,
J. J. Hox, & D. A. Dillman (Eds.), International handbook of survey methodology (pp.
113-135). Mahwah, NJ: Lawrence Erlbaum.
de Leeuw, E. D., & de Heer, W. (2002). Trends in household survey nonresponse: A lon
gitudinal and international comparison. In R. M. Groves, D. A. Dillman, J. E. Eitinge, &
R. J. A. Little (Eds.), Survey nonresponse (pp. 41-54). New York: John Wiley.
de Leeuw, E. D., Dillman, D. A., & Hox, J. J. (2008). Mixed mode surveys: When and
why. In E. D. de Leeuw, J. J. Hox, & D. A. Dillman (Eds.), International handbook of
survey methodology (pp. 299-316). Mahwah, NJ: Lawrence Erlbaum.
de Leeuw, E. D., & van der Zouwen, J. (1988). Data quality in telephone and face to
face surveys: A comparative meta-analysis. In R. M. Groves, P. N. Biemer, L. E. Lyberg,
J. T. Massey, W. L. Nichols II, & J. Waksberg (Eds.), Telephone survey methodology (pp.
283-299). New York: John Wiley.
DeMaio, T. J., & Rothgeb, J. M. (1996). Cognitive interviewing techniques—in the lab
and in the field. In N. A. Schwarz & S. Sudman (Eds.), Answering questions (pp. 177-
196). San Francisco: Jossey-Bass.
Department of Health and Human Services. (2005). Protection of human subjects. Title
45, Code of Regulations, Part 46. Washington, DC: Government Printing Office.
DeVellis, R. F. (2003). Scale development: Theory and applications. Newbury Park, CA: Sage.
Dielman, L., & Couper, M. P. (1995). Data quality in CAPI survey: Keying errors. Journal
of Official Statistics, 11(2), 141-146.
Dillman, D. A. (2007). Mail and Internet surveys: The tailored design method (2nd ed.).
New York: John Wiley.
Dillman, D. (2008). The logic and psychology of constructing questionnaires. In
E. D. de Leeuw, J. J. Hox, & D. A. Dillman (Eds.), International handbook of survey
methodology (pp. 161-175). Mahwah, NJ: Lawrence Erlbaum.
Dillman, D. A., & Miller, K. J. (1998). Response rates, data and feasibility for optical
scannable mail surveys for small research centers. In M. P. Couper et al. (Eds.), Com
puter assisted survey information collection (pp. 475-498). New York: John Wiley.
Dillman, D. A., & Redline, C. D. (2004). Testing self-administered questionnaires:
Cognitive interview and field test comparision. In S. Presser et al. (Eds.), Methods for
testing and evaluating survey questionnaires (pp. 299-318). New York: John Wiley.
Dillman, D. A., & Tamai, J. (1991). Mode effects of cognitively designed recall ques
tions: A comparison of answers to telephone and mail surveys. In P. N. Biemer, R. M.
Corres, L. E. Lyberg, N. A. Mathiowetz, & S. Sudman (Eds.), Measurement errors in
surveys (pp. 367-393). New York: John Wiley.
Dykema, J., Lepkowski, J., & Blixt, S. (1997). The effect of interviewer and respon
dent behavior on data quality: Analysis of interaction coding in a validation study. In
220 Referências
L. Lyberg et al. (Eds.), Survey measurement and process quality (pp. 287-310). New
York: John Wiley.
Edwards, W. S., et al. (1994). Evaluation of National Health Interview Survey diag
nostic reporting. In Vital & Health Statistics, Series 2, No. 120. Hyattville, MD: National
Center for Health Statistics.
Edwards, W. S., Winn, D. M., & Collins, J. G. (1996). Evaluation of 2-week doctor visit
reporting in the National Health Interview Survey. In Vital & Health Statistics, Series 2,
No. 122. Hyattsville, MD: National Center for Health Statistics.
Erlich, J., & Riesman, D. (1961). Age and authority in the interview. Public Opinion
Quarterly, 24, 99-114.
Filion, F. (1975). Estimating bias due to nonresponse in mail surveys. Public Opinion
Quarterly, 39(4), 482-492.
Forsyth, B. H., & Lessler, J. T. (1992). Cognitive laboratory methods: A taxonomy.
In P. N. Biemer, R. M. Groves, L. E. Lyberg, N. A. Mathiowetz, & S. Sudman (Eds.),
Measurement errors in surveys (pp. 393-418). New York: John Wiley.
Fowler, F. J. (1991). Reducing interviewer related error through interviewer training,
supervision, and other means. In P. N. Biemer, R. M. Groves, L. E. Lyberg, N. A.
Mathiowetz, & S. Sudman (Eds.), Measurement errors in surveys (pp. 259-278). New
York: John Wiley.
Fowler, F. J. (1992). How unclear terms affect survey data. Public Opinion Quarterly,
56(2), 218-231.
Fowler, F. J. (1995). Improving survey questions. Thousand Oaks, CA: Sage.
Fowler, F. J. (2004). Getting beyond pretesting and cognitive interviews: The case for
more experimental pilot studies. In S. Presser et al. (Eds.), Questionnaire development,
evaluation, and testing methods (pp. 173-188). New York: John Wiley.
Fowler, F. J., & Cannell, C. F. (1996). Using behavioral coding to identify cognitive
problems with survey questions. In N. A. Schwarz & S. Sudman (Eds.), Answering
questions (pp. 15-36). San Francisco: Jossey-Bass.
Fowler, F. J., & Cosenza, C. (2008). Writing effective survey questions. In J. Hox, E. D.
de Leeuw, & D. Dillman (Eds.), The international handbook of survey methodology (pp.
136-160). Mahwah, NJ: Lawrence Erlbaum.
Fowler, F. J., Gallagher, P. M., Stringfellow, V. L., Zaslavsky, A. M., Thompson, J. W., &
Cleary, P. D. (2002). Using telephone interviewers to reduce nonresponse bias to mail
surveys of health plan members. Medical Care, 40(3), 190-200.
Fowler, F. J., & Mangione, T. W. (1990). Standardized survey interviewing: Minimizing
interviewer related error. Newbury Park, CA: Sage.
Fowler, F. J., Roman, A. M., & Di, Z. X (1998). Mode effects in a survey of Medicare
prostate surgery patients. Public Opinion Quarterly, 62(1), 29^46.
Fox, J. A., & Tracy, P. E. (1986). Randomized response: A method for sensitive surveys.
Beverly Hills, CA: Sage.
Fox, R., Crask, M., & Kirn, J. (1988). Mail survey response rate: A meta-analysis of
selected techniques for increasing response. Public Opinion Quarterly, 52(4), 467-91.
Friedman, P. A. (1942). A second experiment in interviewer bias. Sociometry, 15, 378-381.
Gallagher, P. M., Fowler, F. J., & Stringfellow, V. (2005). The nature of nonresponse
in a Medicaid survey: Causes and consequences. Journal of Official Statistics, 21(1),
73-87.
Graesser, A. C., Cai, Z., Louwerse, M., & Daniel, P. (2006). Question understanding aid
(QUAID): A Web facility that helps survey methodologists improve the comprehension
of questions. Public Opinion Quarterly, 70(1), 1-20.
Groves, R. M. (1989). Survey errors and survey costs. New York: John Wiley.
Referências 221
Keeter, S., Miller, C., Kohut, A., Groves, R. M., & Presser, S. (2000). Consequences
ofreducing nonresponse in a national telephone survey. Public Opinion Quarterly,
64(2), 125-148.
Kish, L. (1949). A procedure for objective respondent selection within the household.
Journal of the American Statistical Association, 44, 380-387.
Kish, L. (1962). Studies of interviewer variance for attitudinal variables. Journal of
the American Statistical Association, 57, 92-115. Kish, L. (1965). Survey sampling. New
York: John Wiley.
Krosnick, J. A., Judd, C. M., & Wittenbrink, B. (2007). The measurement of attitudes.
In D. Albarracin, B. T. Johnson, & M. P. Zanna (Eds.), The handbook of attitudes (pp.
21-78). Mahwah, NJ: Lawrence Erlbaum.
Lavrakas, P. J., Stuttles, C. D., Steeh, C., & Fienberg, H. (2007). The state of surveying
cell phone numbers in the United States in 2007 and beyond. Public Opinion Quarterly,
71(5), 814-854.
Lepkowski, J. M. (1988). Telephone sampling methods in the United States. In R. M.
Groves, P. N. Biemer, L. E. Lyberg, J. T. Massey, W. L. Nichols II, & J. Waksberg (Eds.),
Telephone survey methodology (pp. 73-98). New York: John Wiley.
Lessler, J. T, & Forsyth, B. H. (1996). A coding system for appraising questionnaires. N.
A. Schwartz & S. Sudman (Eds.), Answering questions (pp. 259-292). San Francisco:
Jossey-Bass.
Lessler, J. T., & Kalsbeek, W. D. (1992). Nonsampling error in surveys. New York: John
Wiley.
Lessler, J., & Tourangeau, R. (1989). Questionnaire design in the cognitive research laboratory.
Vital & Health Statistics, Series 6, 1. Washington, DC: Government Printing Office.
Likert, R. (1932). A technique for measurement of attitudes. Archives of Psychology, 140.
Locander, W., Sudman, S., & Bradbum, N. (1976). An investigation of interview me
thod, threat and response distortion. Journal of the American Statistical Association,
71, 269-275.
Lohr, S. L. (1998). Sampling design and analysis. New York: Brooks/Cole.
Mangione, T., Hingson, R., & Barret, J. (1982). Collecting sensitive data: A compari
son of three survey strategies. Sociological Methods and Research, 10(3), 337-346.
Marin, G., & Marin, B. V. (1991). Research with Hispanic populations. Newbury Park,
CA: Sage.
Marquis, K., Cannell, C., & Laurent, A. (1972). Reporting health events in household
interviews: Effects of reinforcement, question length, and reinterviews. Vital & Health
Statistics, Series 2, 45. Washington, DC: Government Printing Office.
McDowell, I. (2003). Measuring health: A guide to rating scales and questionnaires (3rd
ed.). Oxford, UK: Oxford University Press.
McHomey, C. A., Kosinsky, M., & Ware, J. E. (1994). Comparisons of the cost and
quality of norms for the SF-36 Health Survey by mail versus phone interviews: Results
from a national survey. Medical Care, 32(6), 551-567.
Miller, P. V., & Cannell, C. F. (1977). Communicating measurement objectives in the
interview. In P. Hirsch, P. V. Miller, & F. G. Kline (Eds.), Strategies/or communication
research (pp. 127-152). Beverly Hills: Sage.
National Commission for the Protection of Human Subjects of Biomedical and Behavioral
Research. (1979). Belmont report: Ethical principles and guidelines for the protection of
human subjects of research. Washington, DC: Government Printing Office.
Nichols, W. L., Baker, R. P., & Martin, J. (1997). The effect of new data collection tech
nologies on survey data quality. In L. Lyberg et al. (Eds.), Survey measurement and
process quality (pp. 221-248). New York: John Wiley.
Referências 223
Office of Management and Budget. (2006). Standards and guidelines for statistical
surveys. Washington, DC: Author.
Oksenberg, L., Cannell, C., & Kalton, G. (1991). New strategies of pretesting survey
questions. Journal of Official Statistics, 7(3), 349-366.
Payne, S. (1951). The art of asking questions. Princeton, NJ: Princeton University
Press.
Penne, M. A., Lessler, J. T., Beiler, G., & Caspar, R. (1998). Effects of experimental and
audio computer-assisted self-interviewing (ACASI) on reported drug use in the HSDA.
In Proceedings, 1998 (section on survey research methods; pp. 744-749). Alexandria,
VA: American Statistical Association.
Presser, S., Rothgeb, J. M., Couper, M. P., Lessler, J. T., Martin, E., Martin, J., & Singer,
E. (Eds.). (2004). Methods of testing and evaluating survey questionnaires. Hoboken,
NJ: John Wiley.
Rizzo, L., Brick, J. M., & Park, I. (2004). A minimally intrusive method for sampling
persons in random-digit dial surveys. Public Opinion Quarterly, 68(2), 267-274.
Robinson, D., & Rhode, S. (1946). Two experiments with an anti-Semitism poll.
Journal of Abnormal Psychology, 41, 136-144.
Robinson, J. P. (1989). Poll review: Survey organization differences in estimating
public participation in the arts. Public Opinion Quarterly, 53(3), 397-414.
Robinson, J. P., Shaver, P. R., & Wrightsman, L. S. (Eds.). (1997). Measures of per
sonality and social psychological attitudes (Vol. 1). New York: Harcourt Brace.
Saris, W., & Andrews, F. (1991). Evaluation of measurement instrument using a struc
tural modeling approach. In P. Biemer, R. Groves, L. Lyberg, N. A. Mathiowetz, & S.
Sudman (Eds.), Measurment errors in surveys (pp. 575-597). New York: John Wiley.
Schaeffer, N. C. (1992). Interview: Conversation with a purpose or conversation? In
P. Biemer, R. Groves, L. Lyberg, N. A. Mathiowetz, & S. Sudman (Eds.), Measurment
errors in surveys (pp. 367-393). New York: John Wiley.
Schober, M. R, & Conrad, F. G. (1997). Conversational interviewing. Public Opinion
Quarterly. 61(4), 576-602.
Schuman, H., & Converse, J. (1971). The effects of black and white interviewers on
black responses in 1968, Public Opinion Quarterly, 35, 44-68.
Schuman, H., & Presser, S. (1981). Question and answers in attitude surveys. New York:
Academic Press.
Sieber, J. (1992). Planning ethically responsible research: Developing an effective pro
tocol. Newbury Park, CA: Sage.
Singer, E. (2002). The use of incentives to reduce nonresponse in household surveys.
In R. M. Groves, D. A. Dillman, J. E. Eitinge, & R. J. A. Little (Eds.), Survey non-
response (pp. 163-177). New York: John Wiley.
Singer, E., Van Hoewyk, J., Gebler, N., Raghunnathan, T, & McGanagle, K. (1999).
The effect of incentives on response rates in interviewer-mediated surveys. Journal of
Official Statistics, 15(2), 217-230.
Singer, E., Van Hoewyk, J., & Maher, M. P. (2000). Experiments with incentives in tele
phone surveys. Public Opinion Quarterly, 64(2), 171-188.
Sirken, M. G., Herrmann, D. J., Schechter, S., Schwarz, N., Tanur, J. M., & Tourangeau,
R. (1999). (Eds.). Cognition and survey research. New York: John Wiley.
Suchman, L., & Jordan, B. (1990). Interactional troubles in face-to-face survey inter
views. Journal of the American Statistical Association, 85, 232-241.
Sudman, S. (1967). Reducing the cost of surveys. Chicago: Aldine.
Sudman, S. (1976). Applied sampling. New York: Academic Press.
Sudman, S., & Bradbum, N. (1982). Asking questions. San Francisco: Jossey-Bass.
224 Referências
Abramson, P., 162 Cannell, C., 17, 69, 93, 94, 114, 129, 132,
Alman, B. M., 127 133, 137, 150, 157, 161, 169, 169, 173
Anderson, B., 162 Caspar, R., 134
Andrews, F., 29 Catania, J. A., 133
Aquilino, W. S., 94, 133 Catlin, O., 100
Chave, E., 17, 124
Baker, R. P., 149, 186 Chitwood, D., 133
Barret, J., 93 Chou, C., 132
Baumgartner, R., 68, 91, 96 Chromy, J. R., 161
Beatty, P., 171 Citro, C., 197
Beiler, G., 134 Coates, T., 133
Belli, R. F., 132 Collins, J. G., 129
Belson, W. A., 114 Conrad, F. G., 18, 116, 171, 172
Berry, S., 76 Converse, J., 16, 17, 18, 68, 81, 137,
Best, J., 70 140, 157, 162, 169
Billiet, J., 17, 165, 169 Cosenza, C., 144
Beshop, G. F., 92 Couper, M. P., 34, 69, 73, 74, 100, 149,
Blair, E., 132 151, 186
Blixt, S., 172 Craighill, P., 70
Blom, E., 185 Crask, M., 70
Blumberg, S., 33 Crawford, S., 149
Bolstein, R., 76 Cronbach, L., 29, 110, 136
Bradburn, N. M., 133, 137, 140, 161 Cynamon, M., 33
Brick, J. M., 50, 48
Bryson, M., 68 Daniel, F., 144
Burton, S., 132 de Heer, W., 69
de Leeuw, E. D., 69, 93, 106, 133
Cai, Z., 144 DeMaio, T. J., 145
Callegro, M., 127 DeVellis, R. F., 136
226 Índice onomástico