Bauru/ 2015
2
1.Contexto Histórico e Fundamentos Teóricos
Pretendemos aqui discorrer brevemente sobre algumas das formas de análise incluídas no
método quantitativo. Tal enfoque utiliza-se de coletas de dados que podem ser produzidas de
4
maneiras diversas como, por exemplo, por meio de entrevistas, testes, enquetes e amostragens, para
que se possa aferir hipóteses a partir da utilização de dados e resultados numéricos e estatísticos.
Existem nas Ciências Sociais alternativas para lidarmos com estes problemas, as
quais passam pelo uso das chamadas proxies ou medidas aproximadas e indiretas
para captarmos determinados fenômenos. Como exemplo, podemos citar o caso do
preconceito racial, obviamente que não medimos entre um grupo de indivíduos
perguntando-se diretamente se são preconceituosos ou não. Existem escalas, isto é
conjunto de perguntas indiretas que permitem colocar os sujeitos em um contínuo
de valores, de acordo com as respostas e seus respectivos valores numéricos previ-
amente definidos pelo pesquisador. (RAMOS, 2013, p.57)
As pesquisas que utilizam o método quantitativo são, sim, importantes nas disciplinas de
humanas, não só por ser um método que possibilita conhecer determinados fatos sociais e determi-
nadas realidades, mas, também, por ser um método que colabora para a comprovação, refutação e
conhecimento dos fatos sociais a partir de hipóteses e teorias. Atualmente, com o avanço das teorias
e formas de quantificação, o uso de tal método nas pesquisas já se faz mais efetivo e com formas de
6
análise dos dados coletados que se mostram mais corretas. O fato de se utilizar de dados numéricos
e estatísticas não tira o caráter de importância de serem feitas pesquisas a partir de métodos quanti-
tativos. Nem sempre se deseja o aprofundamento sobre certos fatores, mas sim, uma visão mais
ampla e real sobre tal fato.
O que interessa ao se propor o uso dos métodos quantitativos é que eles funcionam
quando usados corretamente. O teste de hipóteses sempre pressupõe uma teoria
prévia e as mensurações, o que permite uma objetividade, ainda que relativa, posto
que a escolha do tema de pesquisa e da abordagem teórica nunca é neutra. A quan-
tificação tem sido bem sucedida e ainda mais hoje com auxílio dos recursos da in-
formática. O argumento de que seja impossível medir características psicológicas,
por exemplo, vem sendo refutado pela evidência. A inteligência, atitudes, classe
social, realização pessoal vem sendo eficazmente medidas. (Idem, Ibidem)
Para Carvalho (s. d., p. 2) “uma ciência só se torna ciência em sentido pleno quando con-
segue organizar um campo de conhecimentos sob a forma de um discurso lógico-formal, com as
consequências seguindo-se inapelavelmente das premissas, em linha reta como na aritmética ele-
mentar”. Essas premissas são de dois tipos: (1) os princípios gerais da lógica, válidos para todos os
campos do conhecimento (p.e., os princípios da não-contradição, identidade, analogia, causalidade
etc); (2) os princípios específicos próprios do objeto estudado por determinada ciência (p.e., os con-
ceitos de matéria e movimento na física moderna).
Dado que os princípios específicos só são conhecidos por meio das manifestações exteriores
dos objetos da realidade, torna-se necessário ao pesquisador observá-los e catalogá-los segundo as
suas propriedades mais distintivas e essenciais. Assim,
De acordo com Sampieri (2006, p. 10), essa catalogação é feita por meio da coleta e análise
de dados, que seguem certas regras lógicas necessárias para que “os dados gerados possuam os
padrões de validade e confiabilidade” e as conclusões obtidas possam ser válidas, havendo assim a
possibilidade “de serem contestadas ou replicadas com a finalidade de construir um conhecimento”.
Segundo Santos (2007, 103), a coleta de dados realizada em campo terá como padrão co-
mum a realização das seguintes etapas e procedimentos de pesquisa: “(a) objetivos e variáveis de-
7
limitados e claros; (b) escolha/montagem dos instrumentos de coleta; (c) pré-teste e aferição dos
instrumentos de coleta; (d) seleção/escolha do fato gerador (universo, sujeitos, amostra etc.)”.
Nos estudos quantitativos, o pesquisador primeiramente elabora uma ou várias hipóteses de
investigação, que, segundo Demo (1985, p. 52), “são posicionamentos básicos que admitimos de
modo geral válidos e que orientam a conduta na pesquisa e na construção científica em geral”.
Segue-se então o desenvolvimento de um plano para submeter as hipóteses à prova, verificar sua
existência ou ocorrência na realidade objetiva, e determinar uma amostra com os dados coletados
por meio de um instrumento apropriado de medição (por exemplo, questionários, entrevistas, es-
calas e testes). Conforme Sampieri (2006, p. 10), “os estudos quantitativos se associam aos experi-
mentos, as pesquisas a questões fechadas ou aos estudos em que se empregam instrumentos de
medição padronizados”.
Na pesquisa quantitativa é possível a generalização dos resultados e um maior controle so-
bre os fenômenos analisados, no sentido de lhes dar um caráter mensurável e objetivo por meio de
um conjunto dos procedimentos de observação, comparação, medição e verificação.
Baptista (2007) afirma que o modelo tradicional das pesquisas quantitativas é a pesquisa de
levantamento (survey). São exemplos desse modelo exploratório as pesquisas políticas de intenção
de voto ou de análise de políticas públicas e os censos populacionais, que, embora abranjam geral-
mente todos os membros de uma população, também podem ser feitos por meio de amostragem. O
objetivo da pesquisa de levantamento é chegar a uma análise descritiva e explicativa da amostra
coletada, que pode ser de duas ordens: interseccional e longitudinal. Naquele, os dados são mais
episódicos, cobrem um período de amostragem específico para determinado grupo e determinado
fenômeno, enquanto neste os dados colhidos seguem tendências e temáticas observados durante um
tempo médio de pesquisa a fim de explicar as mudanças ocorridas durante esse tempo.
Uma característica específica das pesquisas quantitativas, segundo Baptista (2007) é o uso
de símbolos para a representação de conceitos previamente elaborados pelo pesquisador. Isso ocorre
porque na mensuração dos fenômenos físicos e naturais é possível calcular com precisão a temper-
atura ambiente, a quantidade de água precipitada durante um período, a força aplicada em um obje-
to de determinada escala etc.; porém, nos fenômenos sociais e humanos as medidas absolutas ce-
dem espaço para as medidas relacionais e amostrais. Por exemplo, o grupo A tem uma maior pre-
disposição a reagir de maneira X quando exposto a determinada situação do que o grupo B ou do
que o indivíduo C e assim por diante.
8
Baptista (2007) cita o exemplo de uma pesquisa sobre as pessoas com câncer cuja presença
da doença em fumantes tem uma probabilidade maior de ocorrer do que em pessoas que não fu-
mam. Nesse caso, as variáveis de apresentam de forma natural e o pesquisador se vê impedido de
controlar os objetos da amostra como nas pesquisas em laboratório, uma vez que não há a possibili-
dade de se obrigar determinado grupo de pessoas a fumar para que se possa verificar ou não a in-
cidência do câncer nos participantes da pesquisa. No entanto, a amostra probabilística procede por
meio de medida relacional e não absoluta, donde se afirma, segundo o autor (2007), que neste ex-
emplo o aparecimento do câncer está relacionado ao hábito de fumar e não que o cigarro cause nec-
essariamente o câncer em todas as pessoas que fumem.
Nas pesquisas quantitativas por amostragem os resultados são sempre tratados de forma es-
tatística, seja ela probabilística, quando os dados a serem coletados são selecionados de maneira
aleatória, ou não-probabilística, quando o pesquisador faz um recorte de um universo de dados es-
colhendo aqueles mais acessíveis, por cotas ou tipicidade. As amostras probabilísticas são funda-
mentadas em leis estatísticas e, portanto, tem um caráter científico mais rigoroso.
Segundo Baptista (2007), as amostras probabilísticas podem ser de quatro tipos:
- amostragem simples, na qual cada elemento de uma totalidade é numerado de modo a que
se selecione alguns de maneira casual ou por sorteio;
- amostragem sistemática, em que o primeiro elemento em um grupo é selecionado de
maneira aleatória, mas após um recorte intervalado (por exemplo, a cada 100 vezes ou a cada 100
objetos ou ainda a cada 100 ocorrências), vê-se quantas vezes esse primeiro elemento se repete den-
tro da amostra total;
- amostragem estratificada, onde se busca proceder a um corte ainda mais específico dentro
de determinado grupo pesquisado dividindo-o em subgrupos (gênero, idade, escolaridade etc), de
maneira a diminuir o erro amostral por meio de uma maior representatividade encontrada nesses
subgrupos;
- amostra por conglomerados, na qual os elementos de um grupo ou os membros de deter-
minada totalidade de entes são pesquisados por estratos, como nos casos em que seja difícil a identi-
ficação de todos os componentes de uma universalidade — p. e., dada a dificuldade de listar todos
os professores universitários de um país pode-se proceder a um levantamento dos professores em-
pregados em universidades públicas ou privadas, selecionando-se algumas delas para exploração.
Segundo Da Cás (2008, p.90-91), as etapas finais da pesquisa de campo são: quantificação,
tabulação, organização e análise de dados; relatório dos dados, descrição sistematizada dos mes-
mos; discussão dos resultados. Appolinário (2011, p.91) diz que os resultados são uma “seção na
qual os dados coletados, reformatados dentro de uma lógica que permita uma apreciação simples e
imediata, serão apresentados de forma sintética e visualmente eficiente”. Ou seja, para a exposição
e a análise dos resultados é útil o uso de quadros, tabelas, figuras etc.
A princípio, deve-se fazer uma verificação crítica dos dados:
Andrade (2003, p.152) salienta que caso haja confirmação de erros originários, durante essa
verificação dos dados, o pesquisador “deve retornar ao campo e reaplicar os instrumentos de
pesquisa, para corrigir alguma distorção ocorrida na coleta”.
Depois de criticamente verificados os dados, o pesquisador passa à fase de categorização ou
codificação que, para Oliveira (1999, p.183), se dá em duas partes: “1 – classificação dos dados,
agrupando-os sob determinadas categorias; 2 – atribuição de um código, número ou letra, tendo
cada um deles um significado”.
Andrade (2003, p.153) exemplifica mostrando que em uma determinada pesquisa de campo
que envolva homens e mulheres, uma codificação primária pode se dar a partir do sexo: usar sim-
bolicamente (1) para identificar os homens e (2) para as mulheres ou, ainda mais didático, usar (H)
para homens e (M) para mulheres.
Por fim, já com relação à fase da tabulação dos dados levantados, Andrade (idem, ibidem)
diz que ela “consiste em dispor os dados em tabelas, para maior facilidade de representação e veri-
ficação das relações entre eles”. Oliveira (1999, p.183) complementa afirmando que a tabulação “é
uma parte do processo técnico de análise estatística, que permite sintetizar os dados de observação,
conseguidos pelas diferentes categorias e representa-los graficamente”.
No caso das pesquisas quantitativas, uma vez coletados os dados, devemos passar à
etapa de organizá-los e analisa-los, ou seja, digitaremos as informações em planil-
has, utilizando, por exemplo, algum programa do tipo Microsoft Excel. Esse pro-
cesso é conhecido como “tabulação dos dados”, e é por meio dele que organizamos
10
as diversas variáveis de nossa pesquisa em colunas, enquanto mantemos os reg-
istros de cada sujeito nas linhas das planilhas. (APPOLINÁRIO, 2011, p.82).
3.2 GENERALIZAÇÃO
Gil (2010, p.35), por sua vez, reafirma a possibilidade de generalizações, mas já salienta a
sua inexatidão: “as conclusões obtidas com base na amostra são projetadas para a totalidade do uni-
verso, levando em consideração a margem de erro [...]”.
Salientamos aqui que generalizações só são possíveis em amostras representativas, ou seja,
amostras aleatórias que representem o conjunto da população ou universo da pesquisa. Esse tipo de
amostra precisa ser calculada por um profissional estatístico, pois é um trabalho técnico especial-
izado.
A generalização é um exercício comum na vida acadêmica. Entretanto, generalizar é uma
ação não reservada apenas ao rigor científico, pois também o senso comum a utiliza e, ainda, sofis-
tas também podem se usar dessa prática; razão pela qual a generalização sempre foi objeto de críti-
ca epistemológica.
A seguir, apresentamos três definições básicas para o debate acerca da generalização:
• Generalização estatística: “processo pelo qual se generaliza os dados da amostra para
toda a população” (FAU-USP, 2015, p.2).
• Método indutivo: “a indução é o procedimento que leva do particular ao
universal” (ABBAGNANO, 2007, p.640).
• Falácia de generalização apressada: “[...] tirar uma conclusão com base em dados ou em
evidências insuficientes. Dito de outro modo, trata-se de julgar todo um universo com
base numa amostragem reduzida”. (SCARTON, 2015).
O filósofo contemporâneo Karl Popper fez uma crítica que se tornou notória contra o indu-
tivismo. Em seu exemplo clássico, ele afirma:
11
Ora, está longe de ser óbvio, de um ponto de vista lógico, haver justificativas no
inferir enunciados universais de enunciados singulares, independentemente de quão
numerosos sejam estes; com efeito, qualquer conclusão colhida desse modo sempre
pode revelar-se falsa: independentemente de quantos casos de cisnes brancos pos-
samos observar, isso não justifica a conclusão de que todos os cisnes são brancos.
(POPPER, 1972, p.27-28).
Segundo Appolinário (2011, p.83), após a elaboração e tratamento dos dados, os resultados
de pesquisa precisam ser analisados e discutidos. Este é o ponto alto do fazer científico: as consid-
erações finais ou conclusões. Tal discussão dos resultados numéricos deve ser feito à luz da revisão
de literatura. Nesse momento é que o pesquisador propõe soluções ao seu problema inicial de
pesquisa e, ainda, pode confirmar ou refutar as hipóteses levantadas no início do trabalho.
Para Duarte & Barros (2006, p.78): “analisar significa separar o todo em partes e examinar a
natureza, funções e relações de cada uma”. Assim, vemos aplicado o conceito clássico de análise
que, segundo a regra dois do método cartesiano, afirma ser preciso “dividir cada problema que se
estuda em tantas partes menores quantas for possível e necessário para melhor resolvê-lo” (REALE,
2005, p.289).
Ou seja, quando a pesquisa de campo termina e, já após a elaboração dos dados levantados, o
trabalho do pesquisador ainda não acabou. Pois então é que ele terá informações básicas suficientes
para fazer análises pormenorizadas e, assim, propor respostas à questão básica da sua pesquisa.
Nessa etapa é quando se procura padrões recorrentes nos dados, tendências, agrupamentos dos re-
sultados por gênero, idade, etc. Como se trata de uma pesquisa quantitativa, a magnitude das medi-
das feitas é o que guia esta etapa.
Segundo o IBGE (2015), o Brasil tem mais de 204 milhões de habitantes, sendo que, destes,
mais de 140 milhões são eleitores (TSE, 2014).
Dentro deste universo de eleitores, o Portal G1 de notícias (2014) divulgou a pesquisa
eleitoral feita pelo IBOPE/DataFolha durante o segundo turno da corrida presidencial no Brasil. O
IBOPE/DataFolha entrevistou 3.010 eleitores ao redor do país e, a partir dos dados levantados, con-
cluiu que havia um empate técnico entre a candidata Dilma Rousseff (PT), com 44% das intenções
de voto, e o candidato Aécio Neves (PSDB), com 46% das intenções de voto. O nível de confiança
dessa pesquisa foi divulgado como sendo em torno de 95% e a margem de erro em torno de 4%,
dois pontos para mais ou dois pontos para menos.
´Nível de confiança’, segundo o IBOPE (2015) – que é a maior empresa privada de
pesquisas para levantamento de dados da América Latina – sempre gira em torno de 95%, mas pode
oscilar conforme o formato de cada pesquisa. Falar do nível de confiança ou de intervalo de confi-
ança de 95% significa dizer que, considerando um mesmo modelo amostral, se 100 amostras forem
tiradas de uma determinada população, em 95 delas o índice resulta dentro da margem de erro.
Tal margem de erro deve sempre ser considerada em pesquisas que não consultam a popu-
lação como um todo, mas apenas a pequenos grupos representativos. O nível de erro deve ser calcu-
lado pelo profissional estatístico conforme o tamanho desses grupos representativos. E a tendência é
que quanto maior a amostra estudada, menor será a margem de erro nos resultados.
No exemplo citado sobre a pesquisa eleitoral do pleito de 2015, os números exatos divulga-
dos pelo IBOPE/Datafolha não se confirmaram ao final da eleição. Mas a proximidade nos números
13
de votos dados a cada candidato (Dilma Rousseff e Aécio Neves), proximidade essa que foi sugeri-
da durante a pesquisa eleitoral, pôde ser verificada após a abertura das urnas.
Segundo Mattar (2008, p.169), a pesquisa de campo pode se dar em muitos lugares, como
igrejas, empresas, organizações etc. Os documentos colhidos nas visitas a campo podem se tornar
fontes muito importantes de informação para a pesquisa. “São comuns pesquisas de campo em que
o pesquisador passa a conviver, por exemplo, com moradores de rua, procurando compreender a sua
maneira de viver”. O simples ato de conversar com esses moradores de rua já pode se caracterizar
como uma estratégia de coleta de dados.
Para Da Cás (2008, p.35) em pesquisas quantitativas, o pesquisador trabalha com dados es-
pecíficos, por exemplo: pode buscar descritivamente quantas escolas públicas há em uma determi-
nada cidade e quantos alunos há em cada uma delas.
Diante de tais exemplos práticos nos quais a pesquisa de campo se mostra, necessariamente,
in loco (nas ruas, em escolas, em igrejas etc.), lembramos Descartes ao criticar o filósofo de gabi-
nete e ao elogiar a leitura do ‘livro do mundo’:
E, decidindo-me a não mais procurar outra ciência além daquela que poderia en-
contrar em mim mesmo, ou então no grande livro do mundo, aproveitei o resto de
minha juventude para viajar, para ver cortes e exércitos, para frequentar pessoas de
diferentes humores e condições, para fazer variadas experiências, para pôr a mim
mesmo à prova nos reencontros que o destino me propunha e, por toda parte, para
refletir a respeito das coisas que se me apresentavam, a fim de que eu pudesse tirar
algum proveito delas. Pois acreditava poder encontrar muito mais verdade nos
raciocínios que cada um forma no que se refere aos negócios que lhe interessam, e
cujo desfecho, se julgou mal, deve penalizá-lo logo em seguida, do que naqueles
que um homem de letras forma em seu gabinete a respeito de especulações que não
produzem efeito algum e que não lhe acarretam outra consequência salvo, talvez, a
de lhe proporcionarem tanto mais vaidade quanto mais afastadas do senso comum.
(DESCARTES, 2001, p.13).
7.REFERÊNCIAS BIBLIOGRÁFICAS
ANDRADE, Maria Margarida de. Introdução à metodologia do trabalho científico. São Paulo:
Atlas, 2003.
16
APPOLINÁRIO, Fabio. Metodologia da ciência: filosofia e prática da pesquisa. São Paulo: Ce-
gage Learning, 2011.
CARVALHO, Olavo de. Problemas de método nas ciências humanas. (s. d.). Disponível em:
<http://pt.scribd.com/doc/230623391/Problemas-de-Me-todo-nas-Cie-ncias-Humanas#scribd>.
Acesso em: 6 jun. 2015.
DEMO, Pedro. Introdução à metodologia da ciência. 2. ed. São Paulo: Atlas, 1985.
DUARTE, J.; BARROS, A. Métodos e técnicas de pesquisa em comunicação. São Paulo: Atlas,
2006.
GARCIA, Mamerto Granja. O método quantitativo nas ciências sociais: aproximações em Émile
Durkheim. In Revista Ponto e Vírgula, 2011. Disponível em:
<http://revistas.pucsp.br/index.php/pontoevirgula/article/viewFile/13907/10231>
MATTAR, João. Metodologia científica na era da informática. São Paulo: Saraiva, 2008.
OLIVEIRA, Silvio Luiz de. Tratado de metodologia científica: projetos de pesquisa, TGI, TCC,
monografias, dissertações e teses. São Paulo: Pioneira,1999.
17
ORTIZ, Renzo Joel Flores. A incapacidade em idosos na Pesquisa Nacional por Amostra de
Domicílios (PNAD): uma aplicação da regressão logística em situação de evento pouco frequente.
Disponível em: <http://www.cead.ufop.br/jornal/index.php/rest/article/view/530/434> Acesso em: 4
jul.2015.
PORTAL G1. Ibope e Datafolha divulgam pesquisa sobre 2º turno da corrida presidencial.
Disponível em: <http://g1.globo.com/jornal-hoje/noticia/2014/10/ibope-e-datafolha-divulgam-
pesquisa-sobre-2-turno-da-disputa-presidencial.html> Acesso em: 4 jul.2015.
RAMOS, Marília Patta. Métodos quantitativos e pesquisa em ciências sociais: Lógica e Utilidade
do uso da quantificação nas explicações dos fenômenos sociais. In Mediações – Revista de Ciências
Sociais. Volume 18, número 1. Janeiro/Junho de 2013. Disponível em
REALE, G.; ANTISERI, D. História da Filosofia: do humanismo a Descartes. São Paulo: Paulus,
2005.
SAMPIERI, Roberto Hernández. Metodologia de pesquisa. 3. ed. São Paulo: Mcgraw-Hill, 2006.
SCARTON, Gilberto. Guia de produção textual: como evitar falácias. Disponível em: <http://
www.pucrs.br/gpt/falacias.php> Acesso em: 4 jul.2015.
TSE – Tribunal Superior Eleitoral. Estatísticas eleitorais 2014. Disponível em: <http://
www.tse.jus.br/eleicoes/estatisticas/estatisticas-eleitorais-2014-eleitorado> Acesso em: 4 jul.2015.