Você está na página 1de 151

UNIDADE I: INTRODUÇÃO A METODOLOGIA DE PESQUISA E PROJECTO

Conceitos e terminologias básicas

Tendo como ponto de partida os objectivos da cadeira, isto é,


compreender e saber aplicar na prática os métodos de investigação científica
nas engenharias, desenvolver uma atitude crítica face aos resultados da
investigação levadas a cabo, bem como aprender como se elabora um trabalho
de investigação científica, colocam-se as seguintes perguntas: o que é
metodologia? O que é investigar?

O que é metodologia?

Metodologia significa na origem do termo, estudo dos caminhos, dos


instrumentos usados para fazer ciência. É uma disciplina ao serviço da
pesquisa, que ao mesmo tempo visa conhecer os caminhos do processo,
também problematiza criticamente, no sentido de indagar os limites da ciência,
seja com referencia à capacidade de conhecer, seja com referencia de intervir
na realidade.

O que é investigação?

O objecto da investigação é descobrir respostas e determinadas


interrogantes através da aplicação de procedimentos científicos.

O ponto de partida da investigação é a essência de um problema a


definir, examinar, valorar e analisar criticamente para poder formular e entender
soluções.

O valor essencial da investigação cientifica reside em satisfazer nossa


curiosidade ao realizar o nosso desejo de conhecer e recordar o que já
Aristóteles havia escrito “…aprender é o maior dos prazeres não somente para
os filósofos, senão também para o resto da humanidade, por pequena que seja
sua capacidade para ele.

Isto significa que a Metodologia de Pesquisa e Projecto é a disciplina


que provê ao investigador uma série de conceitos, princípios e leis que lhe
permitem encaminhar o estudo verdadeiramente científico do objecto da
ciência de um modo eficiente.

O seu objecto de estudo é o processo de investigação científica, suas


características, regularidades, métodos de aquisição do conhecimento e
transformação da realidade.
2
Natureza do conhecimento científico e sua caracterização

Visão do Mundo – em sua interação com a natureza, o homem acumula


diversos conhecimentos, ocorrendo desde a antiguidade, até aos dias de hoje.
O conhecimento faz do ser humano um ser diverso dos demais, na medida que
lhe possibilita fugir da submissão da natureza. A acçao dos animais é
biologicamente determinada. O Homem actua na natureza não somente em
relação às necessidades de sobrevivência, mas se dá principalmente pela
incorporação da experiencia e conhecimentos produzidos e transmitidos de
geração a geração, através da cultura, isto permite que a nova geração não
volte ao ponto de partida da que precedeu. Ao actuar o Homem imprime sua
marca na natureza, torna-se humanizada. E a medida que a domina e
transforma, também amplia ou envolve suas próprias necessidades. Um dos
melhores exemplos desta actuaçao são as cidades.

O conhecimento só é perceptivel através da existência de três elementos: o


sujeito cognitivo (que conhece), o objecto (conhecido) e a imagem. O sujeito é
quem irá deter o conhecimento, o objecto é aquilo que será conhecido e a
imagem é a interpretação do objecto pelo sujeito. Neste momento, o sujeito
apropria-se, de certo modo do sujeito. Mas a realidade não se deixa revelar
facilmente. Ela é constituída de numerosos níveis e estruturas, de um mesmo
objecto podemos obter conhecimentos da realidade em distintos níveis.

Falar do conhecimento científico implica dizer que o homem como um ser


consciente e valendo-se das suas capacidades, procura conhecer o mundo que
o rodeia.

Tipos de conhecimento

Conhecimento empírico

Popular ou vulgar, é o modo comum, corrente e espontâneo de se


conhecer. É adquirido sem haver procurado, sem reflexão ou aplicação do
método. As informações são assimiladas por tradição, experiencias casuais e
ingénuas. O homem apropria-se de experiencias próprias e alheias
acumuladas no decorrer do tempo.

Segundo Zassala, C. (s/d. 20), “este conhecimento é falível e inexacto, pois


se conforma com a aparência e com o que se ouviu dizer a respeito do objecto.
Em outras palavras, não permite a formulação de hipóteses sobre a existência
de fenómenos situados além das percepçoes objectivas”. Portanto, é um
conhecimento não metódico porque circunscreve-se ao âmbito da vida diária,
isto é, apenas centra-se naquilo que se pode perceber no dia-a-dia.

3
O conhecimento filosófico

É valorativo, pois seu ponto de partida consiste em hipóteses, que não


poderão ser submetidas à observação: as hipóteses baseiam-se na
experiência, portanto, este conhecimento emerge da experiência e não da
experimentação; por este motivo, o conhecimento filosófico é, não verificável,
já que os enunciados das hipóteses filosóficas, ao contrário do que ocorre no
campo da ciência, não podem ser confirmados nem refutados ou infirmados
(inválidos). É racional, em virtude de consistir num conjunto de enunciado
logicamente corelacionados. Tem a característica de sistemático, pois suas
hipóteses e enunciados visam a uma representação corrente da realidade
estudada, numa tentativa de apreendê-lo em sua totalidade.

Por último, é infalível e exacto, já que, quer na busca da realidade capaz


de abranger todas outras, quer na definição do instrumento capaz de
apreender a realidade, seus postulados, assim como suas hipóteses, não são
submetidos ao decisivo teste da observação (experimentação). Portanto, o
conhecimento filosófico é caracterizado pelo esforço da razão pura para
questionar os problemas humanos e poder discernir entre o certo e o errado,
unicamente recorrendo às luzes da própria razão humana.

Conhecimento teológico

Conhecimento adquirido a partir da fé teológica, é fruto da revelação da


divindade. A finalidade do Teólogo é provar a existência de Deus e que os
textos Bíblicos foram escritos mediante inspiração Divina, devendo por isso ser
realmente aceitos como verdades absolutas e incontestáveis.

A fé não é cega baseia-se em experiências espirituais, históricas,


arqueológicas e colectivas que lhes dá sustentação. O conhecimento pode ter
função de libertação ou de opressão. O conhecimento pode ser libertador não
só de indivíduos como de grupos humanos. Nos dias actuais, a detenção do
conhecimento é um tipo de poder disputado entre as nações.

O questionamento sempre foi a alavanca crucial do conhecimento,


sendo que para mudar alguma coisa é imprescindível desfazê-la em parte ou,
com parâmetros, desfazê-la totalmente.

A lógica do questionar leva a uma coerência de que é preciso desfazer


para inovar. Como exemplo a informática, onde cada computador novo será
substituído futuramente por outro melhor, acabando então, no lixo. Podemos
então afirmar a reconstrução provisória dentro do ponto de vista desconstrutivo,
pois tudo que existe hoje será objecto de questionamento, e quem sabe

4
mudanças. O questionamento é assim passível de ser questionado, quando
cria um ambiente desfavorável ao homem e à natureza.

De forma geral podemos dizer que o conhecimento é o distintivo


principal do ser humano, é virtude e método central de análise e intervenção da
realidade. Também é ideologia com base científica a serviço da elite el ou da
corporação dos cientistas, quando isenta de valores. E finalmente pode ser, a
perversidade do ser humano, quando é feito e usado para fins de destruição.

Conhecimento científico

O conhecimento científico vai além do empírico, pois, preocupa-se não


só com os efeitos, mas principalmente com causas e leis. Ocorre de forma
lenta, sendo um processo contínuo de construção, com um complexo de
pesquisa, análise e síntese. "É uma busca constante de explicações e soluções
e a reavaliação de seus resultados". Este conhecimento é privilégio de
especialistas das diversas áreas das ciências.

Natureza da ciência

Etimologicamente, ciência significa conhecimento.

Mas hã conhecimentos que não pertencem à ciência como


conhecimento vulgar, o religioso e, em certa acepção, o filosófico.

Pode-se considerar a ciência como uma forma de conhecimento que tem


por objectivo formular, mediante linguagem rigorosa e apropriada - se possível
com auxílio da linguagem matemática - leis que regem os fenómenos. Embora
sendo as mais variadas, essas leis apresentam vários pontos em comum: são
capazes de descrever séries de fenómenos; são comparáveis por meio da
observação e da experimentação: são capazes de prever - pelo menos de
forma probabilística - acontecimentos futuros. Gil, A. C., (1999, p. 20).

Características do conhecimento científico

Gil, A. C., (1999, p. 20), na sua obra Métodos e técnicas de pesquisa


societ. "Pode-se definir ciência mediante a identificação de suas características
essenciais. Assim, a ciência pode ser caracterizada como uma forma de
conhecimento objectivo, racional, sistemático, geral, verificável e falível'.

 O conhecimento científico é objectivo porque descreve a realidade.


Para F. Selvaggi, (2002), o primeiro carácter do conhecimento científico
é a objectividade, no sentido de que a ciência deseja afastar do seu
domínio todo o elemento afectivo e subjetivo, pretende ser plenamente

5
independente dos gostos e das tendências pessoais do sujeito que a
elabora.
 O segundo carácter do conhecimento científico reside na sua
racionalidade. A ciência é essencialmente racional, isto é, não consta
de meros elementos empíricos mas é essencialmente uma construção
do intelecto. (...) A ciência pode ser definida como um esforço de
racionalização do real; partindo de dados empíricos, através de sínteses
cada vez mais vastas, o cientista esforça-se por abraçar todo o domínio
dos factos que conhece num sistema racional, no qual de poucos
princípios simples e universais possam logicamente deduzir-se as leis
experimentais mais particulares de campos à primeira vista
aparentemente heterogéneos. F. Selvaggi, (2002). Disponível em:
htt://ocanto.Webcindario.com/lexe.htm#empirico. Acesso em 12 de
Novembro de 2007.

 O conhecimento científico é sistemático porque se preocupa em


construir sistemas de ideias organizadas racionalmente e em incluir os
conhecimentos parciais em totalidades cada vez mais amplas. Gil, A. C.,
(1999, p. 21).

 O quarto carácter do conhecimento científico, consiste no facto de


ser geral, porque seu interesse se dirige fundamentalmente à
elaboração de leis ou normas gerais, que explicam todos os fenómenos
de certo tipo. Ibidem. p. 21.

 É verificável porque sempre possibilita demonstrar a veracidade das


informações. Ibidem. p. 21.

 Finalmente, o conhecimento científico é falível porque, ao contrário de


outros sistemas de conhecimento elaborados pelo homem, reconhece
sua capacidade de errar. Ibidem. p. 21.

As funções da ciência: descrição, explicação e previsão.

As funções são as seguintes:


a) Descrição
b) Explicação
c) Previsão

Descrição: É o elemento estrutural indispensável na investigação. É a


primeira função a mais simples, sem ela não se pode explicar nem menos
prever. A descrição responde a pergunta: Como é o objecto de estudo? Trata
de informar sobre seus componentes e características.

6
Explicação: A explicação responde a pergunta porque é que assim o
objecto de estudo? A explicação se preocupa por conhecer a razão ou motivo
de um feito, trata de demonstrar que o aparentemente singular ou natural, se
adapta a princípios definidos. A explicação sucede a descrição, já que nada se
pode explicar aquilo que ainda não foi descrito.

Para explicar um fenómeno se tem que saber como é.

A Previsão: se apoia nas explicações, onde é necessário conhecer as


variações ou câmbios e tendências. Toda a previsão é estimação ou resultado
esperado, que se deduz ou se baseia num conjunto de supostos e ou
proposições operacionalmente sustentados num modelo.

A previsão é uma estimação ou resultado esperado, é uma dedução a


partir de determinados supostos ou premissas onde sempre se usa um método
ou modelo para operacionalizá-la. A previsão responde as perguntas que
sucederá? Como sucederá? Quanto resultará? A previsão também é uma
estimação ou projecção para um futuro, baseados em feitos ocorridos.

Os canais de comunicação da ciência

Segundo Silva e Menezes (2001), o sistema de comunicação na ciência


apresenta dois tipos de canais de comunicação dotados de diferentes funções.
O canal informal de comunicação, que representa a parte do processo invisível
ao público, está caracterizado por contatos pessoais, conversas telefônicas,
correspondências, cartas, etc. O canal formal, que é a parte visível (pública) do
sistema de comunicação científica está representado pela informação
publicada em forma de artigos de periódicos, livros, comunicações escritas em
encontros científicos, etc.

Nos canais informais o processo de comunicação é ágil e seletivo. A


informação circulada tende a ser mais atual e ter maior probabilidade de
relevância, porque é obtida pela interação efetiva entre os pesquisadores. Os
canais informais não são oficiais nem controlados e são usados geralmente
entre dois indivíduos ou para a comunicação em pequenos grupos para fazer
disseminação seletiva do conhecimento.

Nos canais formais o processo de comunicação é lento, mas necessário


para a memória e a difusão de informações para o público em geral. Os canais
formais são oficiais, públicos e controlados por uma organização. Destinam-se
a transferir informações a uma comunidade, não a um indivíduo, e tornam
público o conhecimento produzido. Os canais formais são permanentes, as
informações que veiculam são registradas em um suporte e assim tornam-se
mais acessíveis.

7
Os canais informais, por meio do contato face a face ou mediados por
um computador, são fundamentais aos pesquisadores pela oportunidade
proporcionada para troca de ideias, discussão e feedbacks com os pares. O
trabalho publicado nos canais formais, de certa forma, já foi filtrado via canais
informais.

Os canais formais, por intermédio das publicações, são fundamentais


aos pesquisadores porque permitem comunicar seus resultados de pesquisa,
estabelecer a prioridade para suas descobertas, obter o reconhecimento de
seus pares e, com isso, aumentar sua credibilidade no meio técnico ou
acadêmico.

Os principais canais de comunicação onde os pesquisadores podem


pesquisar por informações úteis para os seus trabalhos científicos são:
 Periódicos científicos (nacionais e internacionais);
 Trabalhos apresentados em congressos, simpósios e encontros
(nacionais e internacionais);
 Teses e dissertações defendidas nos programas de pós-graduação das
diversas universidades espalhadas pelo país ou do exterior;
 Livros publicados sobre o tema de interesse;
 Sites na internet.

Cada um dos canais de comunicação apresentados tem maior ou menor


grau de aceitação na comunidade científica.

8
CAPÍTULO 2 – PROJETO DE PESQUISA

O que é um projeto de pesquisa

Um projeto de pesquisa representa uma necessidade para o


pesquisador, uma exigência universal de agências patrocinadoras e não
deixam de ser também condição metodológica para o êxito da pesquisa
(SALOMON, 2000).

Uma pesquisa, um trabalho científico por excelência, há de ser


planejada metodologicamente. As instituições promotoras e patrocinadoras da
pesquisa exigem previamente, até como requisito, para toda proposta de
pesquisa, seu respectivo projeto, a partir de cuja avaliação irá decidir sobre a
concessão ou não do patrocínio. Para tal estabelecem-se em formulários as
normas e diretrizes para a elaboração de tais projetos. Conteúdo e forma são
novamente os dois grandes referenciais de um projeto de pesquisa: o que deve
conter em sua estruturação e como deve ser redigido (SALOMON, 2000).

De uma forma geral, um projeto de pesquisa contempla os seguintes


passos:
 Escolha do tema e justificativa;
 Elaboração da revisão de literatura;
 Formulação do problema;
 Determinação dos objetivos;
 Construção de hipóteses e indicação de variáveis;
 Definição do tipo de pesquisa, do método de pesquisa e das técnicas de
coleta de dados;
 Cronograma;
 Referências bibliográficas.

Cada um desses passos será discutido em maior profundidade nos


tópicos seguintes deste capítulo.

Escolha do tema e justificativa

Segundo Appolinário (2006), o tema de uma pesquisa é o assunto geral


que desejamos estudar e investigar. Sendo assim, trata-se de uma definição
razoavelmente ampla, que servirá de ponto de partida para todo esforço
subseqüente do pesquisador. O tema é uma primeira delimitação, até certo
ponto vaga, acerca daquilo que se quer investigar.

Para Marconi e Lakatos (2006), escolher um tema significa:

9
 Selecionar um assunto de acordo com as inclinações, as possibilidades,
as aptidões e as tendências de quem se propõe a elaborar um trabalho
científico dentro da área da engenharia de produção;

 Encontrar um objeto que mereça ser investigado cientificamente e tenha


condições de ser formulado e delimitado em função da pesquisa.

Porém, há de se verificar se o tema selecionado é relevante


cientificamente. Para tanto, não pode deixar de aparecer no projeto de
pesquisa a justificativa para o mesmo. Para Salomon (2000), a justificativa
apresenta as razões, sobretudo teóricas, que legitimam o projeto como trabalho
científico. A justificativa é uma defesa do projeto, cujo referencial há de ser a
relevância do problema, seja ela teórica, humana, operacional ou
contemporânea. Deveriam ser justificados a escolha do tema, do objeto de
pesquisa e da(s) unidade(s) de investigação.

Elaboração da revisão de literatura

A revisão de literatura ou pesquisa bibliográfica é um apanhado geral


sobre os principais trabalhos já realizados, revestidos de importância, por
serem capazes de fornecer dados atuais e relevantes relacionados com o tema
escolhido. O estudo da literatura pertinente pode ajudar a planificar o trabalho e
representa uma fonte indispensável de informações, podendo até orientar
inicialmente na formulação do problema e na definição de hipóteses,
proposições e variáveis (MARCONI e LAKATOS, 2006)

Appolinário (2006) afirma que o pesquisador deve realizar um


levantamento bibliográfico aprofundado em fontes fidedignas de informações,
tais como, periódicos científicos, dissertações e teses. Outras fontes de
informações que podem ser consultadas são livros, documentos (normas,
legislações, etc.), mídias eletrônicas, etc., de forma a produzir um texto que
explicará ao leitor todo o histórico do problema proposto, os contextos teórico,
técnico e social nos quais o problema se insere, bem como os principais
autores, conceitos e ideias relacionadas ao tema. Esse passo começa no início
do processo de pesquisa, mas pode continuar até o final da pesquisa, na forma
de ajustes e redimensionamento do texto introdutório.

Neste item do projeto, a maior importância estará na comparação de


documentos científicos sobre o tema específico. E essa comparação deve ser
organizada de tal forma que a posterior formulação do problema seja sua
decorrência lógica. Em outras palavras, não se trata de fazer uma "colcha de
retalhos", emendando citações dos documentos consultados, mas sim de
articular ideias que conduzam à formulação do problema; ideias estas que
deverão estar apoiadas nas referências científicas citadas (VEIGA, 1996).
10
A pesquisa bibliográfica sobre a qual se constrói este tópico do projeto
de pesquisa não pode deixar de lado nenhuma obra importante sobre o tema
específico. Mas é impossível que consiga ser exaustiva. Ou seja, a revisão de
literatura do projeto de pesquisa será, por definição, exploratória.

Seria interessante responder às seguintes questões no momento de


elaborar a revisão de literatura:
 Quem são os autores clássicos e contemporâneos mais importantes
nessa área?
 Quais os principais conceitos envolvidos nesse assunto? Quem os
definiu?
 Quais os principais periódicos científicos dessa área?

Formulação do problema

Para Marconi e Lakatos (2006), um problema é uma dificuldade, teórica


ou prática, no conhecimento de alguma coisa de real importância, para a qual
se deve encontrar uma solução. Definir um problema significa especificá-lo em
detalhes precisos e exatos. Na formulação de um problema deve haver clareza,
concisão e objetividade. A colocação clara do problema pode facilitar a
construção da hipótese ou proposição central.

Appolinário (2006) considera que o problema consiste em uma pergunta


(por isso é também denominado de questão de pesquisa) bem delimitada, clara
e operacional. Por exemplo, para o tema “responsabilidade social nas
indústrias petrolíferas angolanas”, o problema ou questão de pesquisa poderia
ser “qual a percepção dos clientes das indústrias petrolíferas angolanas acerca
das iniciativas institucionais de responsabilidade social realizadas por elas nos
últimos três anos?”.

Segundo Veiga (1996), se o pesquisador não consegue formular o


problema central da pesquisa por meio de uma pergunta bem direta, o mais
provável é que ele tenha feito uma insuficiente discussão da produção científica
já existente sobre aquele assunto. Ou seja, quando o conhecimento acumulado
sobre o tema selecionado não foi suficientemente digerido, vários problemas se
superpõem na mente do pesquisador, e suas tentativas de definir "o" problema
resultam em proposições herméticas, intrincadas e nebulosas. O pesquisador
só poderá formular a pergunta da pesquisa se fizer uma boa revisão de
literatura, refletir, discutir com o orientador, reler parte do material, esboçar
algumas perguntas, submetê-las ao orientador, descartar as menos
pertinentes, reformular as outras, voltar a discuti-las, e assim por diante, até se
fixar numa frase interrogativa que sintetize bem o problema da pesquisa.

11
O problema deve ser levantado, formulado, de preferência em forma
interrogativa e delimitado com indicações das variáveis que intervêm no estudo
de possíveis relações entre si. É um processo contínuo de pensar reflexivo,
cuja formulação requer conhecimentos prévios do assunto, ao lado de uma
imaginação criadora. O problema, antes de ser considerado apropriado, deve
ser analisado sob o aspecto de sua valoração (MARCONI e LAKATOS, 2006):
 Viabilidade: pode ser eficazmente resolvido através da pesquisa;
 Relevância: deve ser capaz de trazer conhecimentos novos;
 Novidade: estar adequado ao estágio atual da evolução científica;
 Exequibilidade: pode chegar a uma conclusão válida;
 Oportunidade: atender a interesses particulares e gerais.

Uma forma de conceber um problema científico é relacionar vários


fatores (variáveis independentes) com o fenômeno estudado.

Determinação dos objetivos

Para Appolinário (2006), o objetivo de toda pesquisa, de uma maneira


geral, será responder ao problema formulado no passo anterior, levando em
consideração alguns fatores importantes como o tempo e os recursos
disponíveis para a realização da pesquisa, a experiência anterior do
pesquisador, as necessidades do programa de pesquisa ao qual o pesquisador
está vinculado, entre outros.

Normalmente, os objetivos são definidos em dois níveis distintos: geral e


especifico. Assim, toda pesquisa científica terá um único objetivo geral e um ou
mais objetivos específicos. Deve haver uma perfeita relação entre o problema
de pesquisa e os objetivos da mesma, pois, se não fosse assim, a estruturação
inicial desarticulada entre esses elementos certamente comprometeria os
passos seguintes do trabalho científico (APPOLINÁRIO, 2006).

Construção de hipóteses e indicação de variáveis

A hipótese é uma proposição que se faz na tentativa de verificar a


validade de resposta existente para um problema. É uma suposição que
antecede a constatação dos fatos e tem como característica uma formulação
provisória: deve ser testada para verificar a sua validade. A hipótese sempre
conduz a uma verificação empírica (MARCONI e LAKATOS, 2006).

De acordo com Salomon (2000), a hipótese e o problema formam um


todo indivisível e a hipótese é considerada uma resposta provisória para o
problema, de forma que para cada problema deveria haver, no mínimo, uma
hipótese.

12
Para Appolinário (2006), as hipóteses, quando existirem, são elementos
vitais em uma pesquisa científica, pois dirigirão todo o trabalho do pesquisador.
Pode-se dizer que a pesquisa é um trabalho meramente voltado para a
comprovação ou refutação de hipóteses.

Segundo Marconi e Lakatos (2006), não há regras para a formulação de


hipóteses de trabalho de pesquisa científica, mas é necessário que haja
embasamento teórico e que ela seja formulada de tal maneira que possa servir
de guia na tarefa de investigação.

Appolinário (2006) apresenta um bom exemplo de formulação de


hipóteses para um problema. O quadro abaixo mostra a formulação de duas
hipóteses para um problema relacionado ao tema da educação a distância.

Exemplo de formulação de hipóteses

Tema: Eficiência da educação a distância.

Problema Por que o rendimento dos estudantes em curso de inglês a distância,


por meio da internet, é inferior ao dos estudantes de cursos
presenciais?

Hipótese 1 Porque a motivação psicológica dos estudantes de cursos virtuais


encontra-se comprometida em virtude da falta de interação presencial.

Hipótese 2 Porque a tecnologia educacional inerente aos cursos a distância não


se encontra plenamente desenvolvida.

Ao se colocar o problema e se formular as hipóteses, deve-se fazer


também a indicação das variáveis dependentes e independentes. Elas devem
ser definidas com clareza e objetividade e de forma operacional.

Todas as variáveis que podem interferir ou afetar o objeto de estudo


devem ser levadas em consideração e controladas, para impedir o
comprometimento ou o risco de invalidar a pesquisa (MARCONI e LAKATOS,
2006).

Definição do método de pesquisa e das técnicas de coleta de dados

Os métodos e as técnicas (metodologias) a serem empregados na


pesquisa científica podem ser selecionados desde a proposição do problema,
da formulação das hipóteses e da delimitação do universo ou da amostra. A
seleção dos mesmos dependerá dos vários fatores relacionados com a
pesquisa, tais como a natureza dos fenômenos, o objeto de pesquisa, os
recursos financeiros, a abordagem da pesquisa (qualitativa ou quantitativa, ou
13
uma combinação dessas duas), a equipe humana, entre outros (MARCONI e
LAKATOS, 2006).

Os métodos quantitativos de pesquisa mais importantes são o


experimento, a pesquisa levantamento (survey) e a modelagem e simulação.
Os métodos qualitativos de pesquisa mais importantes são o estudo de caso, a
pesquisa-ação. Algumas das técnicas de pesquisa que podem ser
empregadas, muitas delas concomitantemente em qualquer um desses
métodos, são a entrevista, o questionário, leitura de documentos, observação,
entre outras.

Cronograma

No projeto de pesquisa, o pesquisador deve preparar um cronograma


que apresente as etapas do seu processo de pesquisa, assim como o tempo
previsto para sua conclusão.

Referências bibliográficas

Ao final do relatório de projeto de pesquisa, aparece um tópico


denominado referências bibliográficas. Nesse tópico serão apresentadas as
referências bibliográficas completas dos trabalhos citados na parte de
referencial teórico do projeto de pesquisa.

Existem algumas normas que definem regras para a referenciação. Esse


assunto será tratado com mais adiante.

14
CAPÍTULO 3 – FUNDAMENTAÇÃO TEÓRICA

O que é uma fundamentação teórica

A fundamentação teórica (também chamada de revisão bibliográfica,


referencial teórico ou revisão de literatura) é uma visão crítica da pesquisa
existente que é significante para o trabalho que o aluno/pesquisador está
desenvolvendo. Deve-se tomar o cuidado de não se confundir a
fundamentação teórica com um resumo. Apesar de que resumir os trabalhos de
outros pesquisadores seja importante, o aluno/pesquisador deve analisar este
trabalho, mostrar relações entre os diferentes trabalhos e, finalmente, mostrar
como os trabalhos anteriores se relacionam com o seu próprio trabalho. Não se
pode apenas descrever os trabalhos de outros pesquisadores.

Rowley e Slack (2004) afirmam que a fundamentação teórica identifica e


organiza os conceitos encontrados em trabalhos relevantes. Seu objetivo é
captar o estado da arte de um campo do conhecimento.

A partir dessa revisão de trabalhos antigos (clássicos) e recentes, torna-


se possível identificar áreas nas quais uma pesquisa mais profunda poderia ser
benéfica. De fato, os parágrafos finais da fundamentação teórica deveriam
conduzir para a apresentação das proposições e da metodologia da pesquisa.

Uma fundamentação teórica é uma consideração do que foi publicado


em um dado tema por estudiosos e pesquisadores credenciados. Ao se
escrever uma fundamentação teórica, o propósito é comunicar aos leitores
quais conhecimentos e ideias foram estabelecidas acerca desse tema e quais
são os seus pontos fortes e os seus pontos fracos. Como uma parte do texto
de um artigo ou de uma dissertação/tese, a fundamentação teórica deve ser
definida por um conceito que a direciona (por exemplo, o objetivo de pesquisa,
o problema ou assunto que está sendo discutido, ou a argumentação de uma
tese).

Uma boa fundamentação teórica deve atender ao seguinte:


 Ser organizada e relacionada diretamente com o tema do trabalho de
pesquisa ou com a questão de pesquisa que está sendo desenvolvida;
 Identificar a literatura na qual a pesquisa dará uma contribuição e
contextualizar a pesquisa dentro dessa literatura;
 Construir um entendimento dos conceitos teóricos e das terminologias
utilizadas;
 Sintetizar os resultados em um resumo do que é conhecido e do que não
se conhece sobre o assunto;
 Identificar áreas de controvérsias na literatura;

15
 Facilitar a elaboração de uma bibliografia ou lista de fontes que foram
consultadas;
 Formular questões que necessitam de pesquisa mais profunda.

Como primeiro passo, deve-se ler o artigo e avaliar qual a relevância


dele para a sua área de estudo.

Se ele for considerado relevante, considere a hipótese de selecionar


uma parte deste artigo que seja apropriada para uma discussão (por exemplo,
pode ser o tópico referente ao método de pesquisa empregado). Qual método
foi empregado? Essa abordagem já havia sido utilizada anteriormente?

Posteriormente, analise o artigo sob a luz de outros artigos e trabalhos


de pesquisa. Qual a relação dele com os trabalhos realizados por outros
pesquisadores?

Algum método similar já foi adotado ou este artigo é revolucionário?


Compare este artigo com trabalhos de outros pesquisadores e avalie as
abordagens e métodos utilizados. Existem algumas vantagens ou
desvantagens aparentes?

Pode-se, então, ligar os resultados da comparação anterior com o


trabalho que se está desenvolvendo. Talvez surja a seguinte pergunta: qual a
relação desses outros trabalhos com a pesquisa que está sendo desenvolvida?
Pode não existir um relacionamento claro e direto imediatamente, mas lembre-
se que o objetivo principal da fundamentação teórica é desenvolver uma ideia
de como a sua pesquisa pode estar ligada e visualizada como uma extensão
de uma área existente.

Portanto, uma fundamentação teórica feita apropriadamente pode


auxiliar o pesquisador a sustentar ou refutar argumentos que ele desenvolveu,
assim como ajudá-lo a desenvolver suas próprias teorias e proposições.

A importância de se escrever uma fundamentação teórica

Antes de investigar mais a fundo qualquer teoria ou argumento que


tenha sido desenvolvida, é necessário descobrir o que outras pessoas
pesquisaram sobre esta área. Realizar este tipo de levantamento preliminar
pode render informações úteis na forma de palavras-chave e assuntos-chave, a
base para uma investigação mais aprofundada.

Ao se elaborar uma fundamentação teórica para uma dissertação


(licenciatura), (mestrado) ou tese (doutorado), espera-se que ela cubra as
principais linhas de pensamento e investigue os mais significantes e recentes
trabalhos, bem como introduza alguns dos mais proeminentes pesquisadores
16
da área. Nesse ponto, os orientadores cumprem um papel importante de
indicar alguns autores clássicos sobre o tema, de forma a tornar a
fundamentação teórica o mais completa possível.

Como escrever uma boa fundamentação teórica

Uma fundamentação teórica de alta qualidade é completa e focada em


conceitos. Uma revisão completa cobre a literatura relevante sobre o tema e
não se baseia em uma única metodologia de pesquisa, um único grupo de
periódicos ou uma única região geográfica (WEBSTER e WATSON, 2002).

Torraco (2005) afirma que a organização da revisão começa com uma


coerente estruturação conceitual do tema. Porém, para tal, Webster e Watson
(2002) recomendam que uma abordagem estruturada deva ser empregada
para determinar a fonte do material. Segundo eles, a maiores contribuições
geralmente se encontram nos principais periódicos. Esses periódicos podem
ser acessados das bases eletrônicas de dados, mas os artigos publicados em
congressos também devem ser examinados. A partir de alguns artigos
selecionados, analise suas citações para identificar alguns artigos publicados
anteriormente e que merecem ser analisados. A partir das palavras-chaves
identificadas nos artigos selecionados, identifique outros artigos (talvez até
mais recentes aqueles identificados inicialmente) que talvez mereçam ser
incluídos na revisão.

De acordo com Bem (1995), os principais critérios para uma boa


redação científica são clareza e precisão. A clareza é conseguida por
intermédio de uma redação simples e direta. Uma revisão disserta sobre um
conteúdo franco sobre uma questão circunscrita que espera por uma resposta.
Não se trata de um romance com tramas e flashbacks, mas uma história curta
com uma linha de narrativa simples e linear.

Brown (2002) sugere algumas dicas para se preparar e para escrever


uma fundamentação teórica:

 Para preparar uma boa fundamentação teórica é necessário ler


aproximadamente dois novos artigos ou capítulos de livros a cada
semana e reler o mesmo número de artigos antigos;

 Mantenha uma cópia de cada artigo, dissertação ou livro lido. Ter de


procurar por eles depois é pura perda de tempo;

 A roupa mais cara que você comprou é aquela que você nunca usou.
Copiar um documento (fotocópia ou download) e não lê-lo é um grande
desperdício de recursos.

17
 Leia seus documentos com uma caneta e um marca-texto sempre a
mão. O ideal é destacar a parte do texto que será importante para a sua
fundamentação teórica e escrever alguns comentários ou questões a
serem usados futuramente.

A revisão bibliográfica pode ser organizada de várias maneiras, por


exemplo:

 Cronologicamente: organização com base no tempo. As primeiras


citações da pesquisa seriam as mais antigas e depois iam aparecendo
as mais recentes. Se a ordem cronológica for importante para explicar a
área de pesquisa, então ela pode ser uma boa estratégia.

 Alfabeticamente: outra forma pode ser organizar a revisão pela ordem


alfabética dos autores. Este método, contudo, não permite que se
explore livremente as relações entre a pesquisa. Este método deve ser
evitado.

 Esboço: elaborar um esboço visual do que se pretende incluir na revisão


pode fornecer uma estrutura útil para começar o trabalho. Esse esboço
pode ser alterado e melhorado na medida em que a pesquisa evolui.

Lista de verificação para uma boa fundamentação teórica

Durante a preparação, organização e redação da fundamentação teórica


algumas questões podem auxiliar o pesquisador nessa tarefa (BROWN, 2002;
TORRACO, 2005; CRASWELL, 2005; TAYLOR, 2006):

 Por que este é um tema importante?

 O que é conhecido e o que não é conhecido a respeito do tema?

 Quais são as lacunas a serem preenchidas?

 Quais lacunas o seu trabalho pretende preencher e porque elas foram


escolhidas?

 Como o seu trabalho se propõe a preencher essas lacunas?

 Qual é a tese, problema ou questão de pesquisa específica que a


fundamentação teórica auxilia a definir?

 Que tipo de fundamentação teórica será conduzida? Procura-se por


assuntos na teoria? Na metodologia? Em pesquisa quantitativa? Em
pesquisa qualitativa?

18
 Qual o escopo da fundamentação teórica? Quais os tipos de publicação
que estão sendo utilizados (periódicos, livros, dissertações, teses,
documentos do Governo, sites da internet)? Qual a disciplina que está
sendo tratada (sociologia, engenharia de produção, gestão do
conhecimento)?

 A busca de informação foi bem realizada? Ela assegura que foram


encontrados todos os materiais relevantes? O material irrelevante foi
excluído? O número de fontes utilizadas está de acordo com o trabalho
que está sendo desenvolvido?

 A literatura utilizada foi criticamente analisada? Os conceitos e questões


foram comparados entre si? Os pontos fortes e fracos de cada item
foram discutidos?

 Os estudos com perspectiva contrária ao do pesquisador foram citados e


discutidos?

 O leitor irá considerar a fundamentação teórica relevante, apropriada e


útil?

 A fundamentação teórica está organizada em uma estrutura conceitual


coerente do tema?

 A fundamentação teórica sintetiza o conhecimento da literatura em uma


contribuição significativa e com valor agregado para o conhecimento
sobre o tema?

Fontes de informação para a fundamentação teórica

Segundo Rowley e Slack (2004), um grande número de fontes de


informação pode ser usado para a elaboração da fundamentação teórica.

Uma dessas fontes é formada por literatura acadêmica, que pode ser
encontrada em teses, dissertações e artigos científicos. Os artigos podem estar
publicados em revistas científicas (journals) nacionais ou internacionais, ou
ainda em congressos, simpósios etc.

Rowley e Slack (2004) afirmam que a literatura acadêmica contém uma


base teórica fundamentada, com um tratamento mais crítico dos conceitos e
modelos. Os artigos publicados em revistas científicas deveriam formar a
essência da fundamentação teórica.

A maioria desses artigos são escritos por pesquisadores e incluem uma


fundamentação teórica, uma discussão sobre a metodologia de pesquisa, uma
19
análise dos resultados e declarações enfocadas das conclusões e
recomendações para futuros trabalhos. Além disso, esses trabalhos foram
avaliados por dois ou três avaliadores (referees) com grande experiência e
trabalhos publicados na área antes de serem aceitos para publicação,
assegurando que as pesquisas publicadas seguiram todo o rigor e os métodos
científicos preconizados.

As teses e dissertações também são ricas fontes de informação


científica para a fundamentação teórica, uma vez que são trabalhos pautados
nos princípios da pesquisa científica e foram referendados por uma banca
formada por pesquisadores experientes.

Outra fonte de informação para a fundamentação teórica são os livros,


principalmente aqueles que são considerados clássicos para um dado tema. As
boas publicações são escritas por um autor respeitável, com vasta experiência
no campo de conhecimento abarcado pelo tema, e possuem referências de
outras literaturas associadas. Em geral, devem ser bem estruturados, bem
apresentados e serem de fácil leitura e entendimento.

Os recursos da internet (páginas da web) também podem ser


considerados fontes de informação para um levantamento de dados, mas
devem ser usadas com cuidado quando utilizadas como um dado de entrada
para uma fundamentação teórica. Esses recursos podem fornecer, por
exemplo, estatísticas valiosas ou informações sobre um dado mercado ou
sobre uma determinada empresa, que podem ser empregados para
contextualizar uma dada informação da sua fundamentação teórica. Os
recursos da internet não podem ser considerados fontes confiáveis de
informações para a fundamentação teórica pelo fato de serem de propriedade
de uma pessoa ou instituição e, por causa disso, ficarem à mercê de
atualizações indiscriminadas e sem um critério definido. Além disso, as próprias
informações muitas vezes não podem ser confirmadas.

Porém, onde podem ser buscadas essas fontes de dados? Uma fonte
convencional são as bibliotecas. Todas as grandes universidades e escolas de
ensino superior possuem em suas bibliotecas exemplares de revistas
científicas (nacionais e internacionais), teses e dissertações (de seus
programas de pós-graduação), além dos livros.

Com o advento da internet, atualmente existe ainda a possibilidade de


acessar esses documentos eletronicamente, em bases de dados oferecidas por
entidades governamentais de apoio a pesquisa e nos sites das bibliotecas das
principais universidades do país. Os tópicos a seguir apresentam alguns
desses portais onde o pesquisador pode buscar trabalhos científicos para a sua
fundamentação teórica.
20
CAPÍTULO 4 – PROCESSO DE PESQUISA

A natureza da pesquisa organizacional

Segundo Bryman (1989), uma grande parte da pesquisa organizacional


pode ser descrita como possuidora de muitas características da “pesquisa
quantitativa”. A essência desse modelo do processo de pesquisa se aproxima
muito de uma abordagem “científica” para conduzir essa pesquisa. Um termo
como “científico” é inevitavelmente vago e discutível, mas na cabeça de muitos
pesquisadores e autores em metodologia ele requer um compromisso com uma
abordagem sistemática para as investigações, onde a coleta de dados e sua
análise detalhada em relação ao problema de pesquisa previamente formulado
são ingredientes mínimos. Uma forma de construir este processo de pesquisa é
apresentada na figura abaixo, que contém os elementos chave tipicamente
delineados por autores de metodologia de pesquisa em ciências sociais.

A estrutura lógica do processo de pesquisa. Fonte: Bryman (1989)

De acordo com este modelo, o ponto de partida para o estudo é a teoria


sobre algum aspecto do funcionamento organizacional. Uma teoria requer uma

21
tentativa de formular uma explicação sobre alguma faceta da realidade, tal
como por que algumas pessoas desfrutam de seu trabalho e outras não, ou por
que algumas organizações são burocráticas e outras não. A partir desta teoria,
uma hipótese específica (ou hipóteses) é formulada para ser testada. Esta
hipótese não só permite um teste (embora possivelmente um teste parcial) da
teoria em questão, mas os resultados do teste, independente de que as
descobertas a sustentam ou não, realimentam nosso estoque de conhecimento
a respeito do fenômeno que está sendo estudado. É a geração de dados para
testar a hipótese que em muitos aspectos constitui o ponto crucial do processo
de pesquisa quantitativa, refletindo a crença na primazia da coleta de dados
sistemáticos no empreendimento científico. Esta orientação geral para o
processo de pesquisa produziu um número de preocupações que serão
posteriormente discutidas.

Abordagens científicas

Todas as ciências caracterizam-se pela utilização de abordagens


científicas. Em contrapartida, nem todos os ramos de estudo que empregam
estas abordagens são ciências. Dessas afirmações pode-se concluir que a
utilização das abordagens científicas não é da alçada exclusiva da ciência, mas
não há ciência sem o emprego das abordagens científicas.

Assim, a abordagem científica é o conjunto das atividades sistemáticas e


racionais que, com maior segurança e economia, permite alcançar o objetivo,
conhecimentos válidos e verdadeiros, traçando o caminho a ser seguido,
detectando erros e auxiliando as decisões do pesquisador (MARCONI e
LAKATOS, 2006).

As principais abordagens científicas são as abordagens indutiva e


dedutiva, como ilustra a figura abaixo.

Abordagem indutiva

Indução é um processo mental por intermédio do qual, partindo de dados


particulares, suficientemente constatados, infere-se uma verdade geral ou
universal, não contida nas partes examinadas.

Portanto, o objetivo dos argumentos indutivos é levar a conclusões cujo


conteúdo é muito mais amplo do que o das premissas nas quais se basearam.
Contudo, as premissas conduzem apenas a conclusões prováveis.

22
Exemplos:

O corvo 1 é negro. Cobre conduz energia.

O corvo 2 é negro. Zinco conduz energia.

O corvo 3 é negro. Cobalto conduz energia.

(todo) corvo é negro. Ora, cobre, zinco e cobalto são metais.

Logo, (todo) metal conduz energia.

Os métodos dedutivo e indutivo

A indução ocorre em três etapas:

a) Observação dos fenômenos: observam-se os fatos ou fenômenos e


os mesmos são analisados, com a finalidade de descobrir as causas de sua
manifestação;

b) Descoberta da relação entre eles: procura-se por intermédio da


comparação, aproximar os fatos ou fenômenos, com a finalidade de descobrir a
relação constante existente entre eles;

c) Generalização da relação: generaliza-se a relação encontrada na


precedente, entre os fenômenos e fatos semelhantes, muitos dos quais ainda
não foram observados (e muitos inclusive inobserváveis).

Para que se não cometam equívocos facilmente evitáveis, impõem-se


três etapas que orientam o trabalho de indução:

23
a) Certificar-se de que é verdadeiramente essencial a relação que se
pretende generalizar, evitando a confusão entre o acidental e o essencial;

b) Assegurar-se de que sejam idênticos os fenômenos ou fatos dos


quais se pretende generalizar uma relação, evitando aproximações entre
fenômenos e fatos diferentes, cuja semelhança é acidental.

c) Não perder de vista o aspecto quantitativo dos fatos ou fenômenos.


Impõe-se esta regra já que a ciência é primordialmente quantitativa, motivo
pelo qual é possível um tratamento objetivo, matemático e estatístico.

Como as abordagens dedutiva e indutiva se complementam

Abordagem dedutiva

Dois exemplos servem para ilustrar a diferença entre argumentos


dedutivos e indutivos.

Dedutivo: Indutivo:

Todo mamífero tem um coração. Todos os cães que foram observados


tinham um coração.

Ora, todos os cães são mamíferos. Logo, todos os cães têm um


coração.

Logo, todos os cães têm um coração.

Para a característica I, no argumento dedutivo, para que a conclusão


“todos os cães têm um coração” fosse falsa, uma das ou as duas premissas
teriam de ser falsas: ou nem todos os cães são mamíferos ou nem todos os
mamíferos têm um coração. Por outro lado, no argumento indutivo é possível
24
que a premissa seja verdadeira e a conclusão falsa: o fato de não ter, até o
presente, encontrado um cão sem coração, não é garantia de que todos os
cães têm um coração.

Para a característica II, quando a conclusão do argumento dedutivo


afirma que todos os cães têm um coração, está dizendo alguma coisa que, na
verdade, já tinha sido dita nas premissas; portanto, como todo argumento
dedutivo, reformula ou enuncia de modo explícito a informação já contida nas
premissas.

Dessa forma, se a conclusão, a rigor, não diz mais que as premissas, ela
tem de ser verdadeira se as premissas o forem. Por sua vez, no argumento,
indutivo, a premissa refere-se apenas aos cães já observados, ao passo que a
conclusão diz respeito a cães ainda não observados; portanto, a conclusão
enuncia algo não contido nas premissas. É por este motivo que a conclusão
pode ser falsa, pois pode ser falso o conteúdo adicional que encerra, mesmo
que a premissa seja verdadeira. Os dois tipos de argumentos têm finalidades
diversas. O dedutivo tem o propósito de explicar o conteúdo das premissas e o
indutivo tem o desígnio de ampliar o alcance dos conhecimentos. Analisando
isso sobre outro enfoque, pode-se dizer que os argumentos dedutivos ou estão
corretos ou incorretos, ou as premissas sustentam de modo completo a
conclusão ou, quando a forma é logicamente incorreta, não a sustentam de
forma alguma; portanto, não há graduações intermediárias. Contrariamente, os
argumentos indutivos admitem diferentes graus de força, dependendo da
capacidade das premissas de sustentarem a conclusão. Resumindo, os
argumentos indutivos aumentam o conteúdo das premissas, com sacrifício da
precisão, ao passo que os argumentos dedutivos sacrificam a ampliação do
conteúdo para atingir a “certeza”.

Os exemplos inicialmente citados mostram as características e a


diferença entre os argumentos dedutivos e indutivos, mas não expressam sua
real importância para a ciência.

Fatos e teorias

Para Marconi e Lakatos (2006), o senso comum tende a considerar o


fato como realidade, isto é, verdadeiro, definitivo, inquestionável e auto-
evidente. Da mesma forma, imagina teoria como especulação, ou seja, ideias
não comprovadas que, uma vez submetidas à verificação, se se revelarem
verdadeiras, passam a constituir os fatos, e até leis.

Sob o aspecto científico, entretanto, se fato é considerado uma


observação empiricamente verificada, a teoria se refere a relações entre fatos
ou, em outras palavras, à ordenação significativa desses fatos, consistindo em

25
conceitos, classificações, correlações, generalizações, princípios, leis, regras,
teoremas, axiomas, etc.

A teoria serve como orientação para restringir a amplitude dos fatos a


serem estudados em cada campo do conhecimento e definindo os principais
aspectos de uma investigação, precisando os tipos de dados que devem ser
abstraídos da realidade como objeto de análise, estudando os fenômenos mais
importantes neles contidos.

Entretanto, uma questão vem à tona. Que critérios genéricos poderiam


ser empregados para se julgar uma contribuição científica? Whetten (1989)
aborda a questão dos critérios a serem adotados para julgar uma contribuição
teórica. Assim, um trabalho científico digno de publicação deveria responder
satisfatoriamente a oito questões:

 O que há de novo? O trabalho faz uma contribuição representativa ao


estado da arte no campo?

 E daí? O trabalho mudará a prática da ciência organizacional na área?

 Por que desta forma? A lógica e as evidências apresentadas são


convincentes? Os pressupostos estão explícitos? Os pontos de vistas
são convincentes?

 Foi bem realizado? A revisão teórica foi bem conduzida? Os métodos


utilizados são os mais adequados?

 O trabalho reflete amplitude e profundidade? Os múltiplos elementos


teóricos são bem cobertos?

 Foi realizado com esmero? O trabalho está bem escrito e flui


logicamente? As ideias centrais são claramente colocadas? A leitura é
agradável?

 Por que agora? O tópico tratado é de interesse atual para os


pesquisadores na área? O trabalho estimulará discussões em torno do
tema tratado?

 A quem interessa? Uma percentagem significativa de acadêmicos estará


interessada no tema?

26
Variáveis de pesquisa

Segundo Appolinário (2006), quando investigamos determinados


fenômenos por meio das pesquisas científicas, organizamos nossa percepção
e nossa compreensão dessa realidade pelo uso das variáveis.

Pode-se entender as variáveis, portanto, como os aspectos ou as


propriedades daquilo que o pesquisador irá examinar. Além disso, como o
nome já denuncia, a variável possui um conteúdo inconstante, ou seja, ela
varia.

As variáveis são as características ou as dimensões que o pesquisador


elege como relevantes para a sua investigação, donde se depreende que elas
se constituem nas entidades organizadoras centrais de um trabalho científico.

Para Marconi e Lakatos (2006), figurativamente, pode-se imaginar o


“universo” da ciência como constituído de três níveis: no primeiro, ocorrem as
observações de fatos, fenômenos, comportamentos e atividades reais; no
segundo, encontram-se as hipóteses; finalmente, no terceiro, surgem as
teorias, hipóteses válidas e sustentáveis. O que nos interessa neste tópico é a
passagem do segundo para o primeiro nível, que ocorre através do enunciado
das variáveis.

Em ciência, existem diversas classificações e denominações para os


mais diferentes tipos de variáveis e enumerar todos esses sistemas
classificatórios fugiria do escopo deste trabalho. Sendo assim, adota-se uma
classificação com apenas três tipos principais, com base na função que
determinada variável exerce no trabalho científico. Nesse sistema, pode-se
classificar as variáveis em:

a) Variável genérica: típica em pesquisas descritivas, é a variável que


serve apenas a uma função descritiva, ou seja, uma variável que será coletada
por meio de um instrumento qualquer e que será meramente objeto de uma
análise estatística descritiva. Por exemplo, em uma pesquisa cuja finalidade
seja levantar as características demográficas dos alunos do ensino
fundamental de determinada região de uma cidade, pode-se coletar as
variáveis genéricas sexo, idade, renda familiar, grau de escolaridade dos pais,
etc. Ao final do estudo, realiza-se um resumo desses dados por meio da
estatística descritiva (médias, desvios, frequências, gráficos visualizadores,
etc.) (APPOLINÁRIO, 2006);

b) Variável independente: é aquela que influencia, determina ou afeta


outra variável. É fator determinante, condição ou causa para determinado
resultado, efeito ou consequência. É o fator manipulado (geralmente) pelo

27
pesquisador, na sua tentativa de assegurar a relação do fator com um
fenômeno observado ou a ser descoberto, para ver que influência exerce sobre
um possível resultado. Por exemplo, em uma pesquisa médica, deseja-se
averiguar o efeito de um medicamento experimental sobre determinada
doença. Alguns pacientes receberão um placebo (medicamento sem efeito) e
outros a droga experimental, enquanto se monitora o que ocorre com a saúde
desses pacientes. A variável independente neste exemplo é o “tipo de droga
administrada” (placebo ou droga experimental) (MARCONI e LAKATOS, 2006;
APPOLINÁRIO, 2006);

c) Variável dependente: consiste naqueles valores (fenômenos, fatores)


a serem explicados ou descobertos, em virtude de serem influenciados,
determinados ou afetados pela variável independente. É o fator que aparece,
desaparece ou varia à medida que o pesquisador introduz, tira ou modifica a
variável independente. A propriedade ou fator que é efeito, resultado,
consequência ou resposta a algo que foi manipulado (variável independente).
No exemplo anterior, podemos ter diversas variáveis dependentes, tais como a
pressão arterial, a frequência cardíaca, o nível de glicose no sangue, etc.
(MARCONI e LAKATOS, 2006; APPOLINÁRIO, 2006).

Hipóteses

Marconi e Lakatos (2006) consideram a hipótese como um enunciado


geral de relações entre variáveis (fatos, fenômenos):

a) Formulado como solução provisória para um determinado problema;

b) Apresentando caráter ou explicativo ou preditivo;

c) Compatível com o conhecimento científico (coerência externa) e


revelando consistência lógica (coerência interna);

d) Sendo passível de verificação empírica em suas consequências.

Constituindo-se a hipótese uma suposta, provável e provisória resposta


a um problema, cuja adequação será verificada através da pesquisa, interessa-
nos o que é e como se formula um problema.

O tema de uma pesquisa é o assunto que se deseja provar ou


desenvolver, uma proposição até certo ponto abrangente do que se pretende
estudar, e o problema é mais específico, indicando exatamente qual a
dificuldade que se pretende resolver.

Uma vez formulado o problema, com a certeza de ser cientificamente


válido, propõe-se uma resposta “suposta, provável e provisória”, isto é, uma

28
hipótese. Ambos, problema e hipótese, são enunciados de relações entre
variáveis (fatos, fenômenos). A diferença reside em que o problema constitui
sentença interrogativa e a hipótese em uma sentença afirmativa mais
detalhada.

Há várias maneiras de se formular hipóteses, sendo que a mais comum


é “se x, então y”, onde x e y são variáveis ligadas entre si pelas palavras “se” e
“então”. Se as hipóteses são colocações conjecturais da relação entre duas ou
mais variáveis (denominada de condição No. 1), devem conduzir a implicações
claras para o teste da relação colocada, isto é, as variáveis devem ser
passíveis de mensuração ou potencialmente mensuráveis (condição No. 2),
especificando, a hipótese, como estas variáveis estão relacionadas. Uma
formulação que seja falha em relação a estas características (ou a uma delas)
não é uma hipótese (no sentido científico da palavra).

As hipóteses são importantes em um trabalho científico, pois:

 São instrumentos de trabalho da teoria, pois novas hipóteses podem


dela ser deduzidas;

 Podem ser testadas e julgadas como provavelmente verdadeiras ou


falsas;

 Constituem instrumentos poderosos para o avanço da ciência, pois sua


comprovação requer que se tornem independentes dos valores e
opiniões dos indivíduos;

 Dirigem a investigação, indicando ao investigador o que procurar ou


pesquisar;

 Pelo fato de serem comumente formulações relacionais gerais, permitem


ao pesquisador deduzir manifestações empíricas específicas, com elas
correlacionadas;

 Desenvolvem o conhecimento científico, auxiliando o investigador a


confirmar (ou não) sua teoria, pois incorporam a teoria (ou parte dela)
em forma testável ou quase testável.

Temporalidade da pesquisa

Uma pesquisa pode ser classificada quanto à sua temporalidade em


longitudinal ou transversal.

Na pesquisa longitudinal acompanha-se o comportamento das variáveis


estudadas em um mesmo grupo de sujeitos, durante certo período de tempo.
29
Por exemplo, suponha que um pesquisador deseje analisar como as
percepções dos estudantes universitários sobre as perspectivas profissionais
de suas áreas se alteraram ao longo do seu período de formação de quatro
anos. Num estudo longitudinal, esse pesquisador pode, através de um
questionário, entrevistar os alunos que estão cursando a primeira série do
curso. No ano seguinte, ele coleta novamente os dados, com os mesmos
alunos e, assim procede até o quarto ano. Ao final, o pesquisador analisa os
dados coletados e, finalmente, pode comparar como a percepção dos alunos
evoluiu ao longo do tempo.

Mas, suponhamos, por outro lado, que o pesquisador não disponha de


quatro anos para realizar essa pesquisa. Se for esse o caso, ele pode fazer
uma pesquisa transversal, que pode ser realizada da seguinte forma: ao invés
de entrevistar os alunos ao longo do seu tempo de formação, ele pode realizar
um “corte transversal” na amostra pesquisada, de forma a entrevistar, por
exemplo, no prazo de uma semana, alunos diferentes da primeira, segunda,
terceira e quarta séries.

A pesquisa longitudinal tem como desvantagem o tempo de realização,


embora apresente uma grande vantagem: como trabalha sempre com os
mesmos sujeitos, trata-se de uma pesquisa muito fidedigna, isto é, seus dados
são muito precisos.

A pesquisa transversal possui como grande vantagem o tempo de


realização mais curto, embora os dados coletados não apresentem o mesmo
grau de fidedignidade da pesquisa longitudinal.

Validade e fidedignidade das pesquisas científicas

Uma pesquisa é válida quando suas conclusões são corretas. É


fidedigna quando seus resultados são replicáveis. Fidedignidade e validade são
requisitos que se aplicam tanto ao delineamento quanto a mensuração da
pesquisa. A nível do delineamento de pesquisa examinamos as conclusões e
perguntamos se são corretas e aplicáveis. A nível de mensuração examinamos
os escores ou observações e perguntamos se são precisos e replicáveis
(KIDDER, 2004).

Existem muitas maneiras de classificar a validade das pesquisas e


conclusões. Discutiremos as seguintes:

 Validade interna.

Uma pesquisa tem validade interna quando identifica relações causais


precisamente. Se desejar afirmar que um evento foi causa de outro, deverá

30
estar apto a descartar as explicações rivais e demonstrar que sua conclusão é
válida.

 Validade de constructo.

Uma pesquisa possui validade de constructo quando identifica ou


nomeia adequadamente as variáveis em estudo. Quanto mais complexo for o
tratamento, mais difícil será especificar a causa e identificar o constructo
envolvido.

 Validade externa

Uma pesquisa tem validade externa quando demonstra algo que é


verdadeiro para além dos estreitos limites do seu estudo. Se os resultados
forem verdadeiros não apenas para o momento, lugar e pessoas de seu
estudo, mas também o forem para outros momentos, lugares e pessoas, seu
estudo possuirá validade externa. A validade externa requer que as conclusões
sejam verdadeiras não somente para diferentes pessoas, mas também para
diferentes condições.

A única forma pela qual podemos avaliar a validade externa é


verificando se os resultados podem ser replicados em um outro momento e
lugar e com diferentes pessoas e procedimentos. Quanto maior for a variação
de lugares, pessoas e procedimentos a que a pesquisa pode resistir,
continuando a produzir os mesmos resultados, maior a validade externa das
conclusões. Validade externa é semelhante à fidedignidade. Demonstramos
ambas replicando ou repetindo resultados.

Fidedignidade

Os resultados de uma pesquisa fidedigna são replicáveis: as conclusões


podem ser generalizadas para além das condições específicas da pesquisa
original. Para demonstrar que a pesquisa é fidedigna, precisa-se demonstrar
que ela pode ser repetida ou replicada. Contudo, os pesquisadores raramente
são recompensados por simplesmente repetir uma pesquisa, seja sua ou de
outro autor. Replicações fiéis são menos criativas e interessantes que novas
descobertas; consequentemente os pesquisadores acham difícil publicar ou
receber reconhecimento por trabalhos que replicam uma pesquisa anterior.

Quanto menos uma pesquisa parecer mera repetição ou réplica exata de


um trabalho anterior, mais interessante ser tornará. A pesquisa que repete
ideias ou conceitos, ao invés de detalhes de procedimentos de estudos
anteriores, serve a dois propósitos: fornece algumas descobertas novas sobre
um outro conjunto de eventos e permite uma replicação conceitual de ideias
anteriores.
31
Replicar um resultado em uma situação diferente e com diferentes
procedimentos é o mesmo que demonstrar que a pesquisa tem validade
externa e pode ser generalizada para diferentes pessoas, lugares e condições.
Replicações exatas de procedimentos e resultados demonstram que os
resultados são fidedignos. Replicações conceituais de ideias e conclusões
demonstram que a pesquisa tem validade externa.

Classificação da pesquisa científica

A classificação das pesquisas científicas pode ser um assunto bastante


controverso, pelo fato da mesma se basear no enfoque dado pelo autor.
Contudo, uma forma clássica de classificar as pesquisa científica pode ser
dada pela figura abaixo.

Classificação da pesquisa científica em engenharia de produção

Quanto a sua natureza, a pesquisa pode ser classificada em pesquisa


básica ou aplicada.

A pesquisa básica é aquela que procura o progresso científico, a


ampliação de conhecimentos teóricos, sem a preocupação de utilizá-los na
prática. É a pesquisa formal, tendo em vista generalizações, princípios, leis.
Tem por meta o conhecimento pelo conhecimento.

32
A pesquisa aplicada caracteriza-se por seu interesse prático, isto é, que
os resultados sejam aplicados ou utilizados imediatamente na solução de
problemas que ocorrem na realidade. Segundo Appolinário (2006), a pesquisa
básica estaria mais ligada ao incremento do conhecimento científico, sem
objetivos comerciais, ao passo que a pesquisa aplicada seria suscitada por
objetivos comerciais através do desenvolvimento de novos processos ou
produtos orientados para as necessidades do mercado.

Quanto aos seus objetivos, a pesquisa pode ser classificada em


exploratória, descritiva, explicativa e normativa.

A pesquisa exploratória visa proporcionar maior familiaridade com o


problema com vistas a torná-lo explícito ou a construir hipóteses. Envolve
levantamento bibliográfico; entrevistas com pessoas que tiveram experiências
práticas com o problema pesquisado; análise de exemplos que estimulem a
compreensão.

A pesquisa descritiva “delineia o que é” e visa descrever as


características de determinada população ou fenômeno ou o estabelecimento
de relações entre variáveis. Envolve o uso de técnicas padronizadas de coleta
dados: questionário e observação sistemática.

A pesquisa explicativa visa identificar os fatores que determinam ou


contribuem para a ocorrência dos fenômenos. Aprofunda o conhecimento da
realidade porque explica a razão, o “porquê” das coisas.

Quando realizada nas ciências naturais, requer o uso do método


experimental, e nas ciências sociais requer o uso do método observacional. A
pesquisa normativa está primariamente interessada no desenvolvimento de
políticas, estratégias e ações para aperfeiçoar os resultados disponíveis na
literatura existente, para encontrar uma solução ótima para novas definições de
problemas ou para comparar várias estratégias relativas a um problema
específico (BERTRAND e FRANSOO, 2002).

Quanto a forma de abordar o problema, a pesquisa pode ser classificada


em quantitativa, qualitativa e combinada.

A pesquisa quantitativa considera que tudo pode ser quantificável, o que


significa traduzir em números opiniões e informações para classificá-las e
analisá-las. Requer o uso de recursos e de técnicas estatísticas (percentagem,
média, moda, mediana, desvio padrão, coeficiente de correlação, análise de
regressão, etc.).

A pesquisa qualitativa considera que há uma relação dinâmica entre o


mundo real e o sujeito, isto é, um vínculo indissociável entre o mundo objetivo e
33
a subjetividade do sujeito que não pode ser traduzido em números. A
interpretação dos fenômenos e a atribuição de significados são básicas no
processo de pesquisa qualitativa. Não requer o uso de métodos e técnicas
estatísticas. O ambiente natural é a fonte direta para coleta de dados e o
pesquisador é o instrumento-chave. É descritiva. Os pesquisadores tendem a
analisar seus dados indutivamente. O processo e seu significado são os focos
principais de abordagem.

A pesquisa combinada considera que o pesquisador pode combinar


aspectos das pesquisas qualitativas e quantitativas em todos ou em algumas
das etapas do processo de pesquisa.

Do ponto de vista dos métodos, a pesquisa pode ser feita através de


experimentos, levantamentos ou surveys, modelagem e simulação, estudos de
caso, pesquisa-ação.

O experimento é empregado quando se determina um objeto de estudo,


selecionam-se as variáveis que seriam capazes de influenciá-lo, definem-se as
formas de controle e de observação dos efeitos que a variável produz no
objeto.

A pesquisa levantamento ou survey é empregada quando a pesquisa


envolve a interrogação direta das pessoas cujo comportamento se deseja
conhecer.

A modelagem e simulação é empregada quando se deseja


experimentar, através de um modelo, um sistema real, determinando-se como
este sistema responderá a modificações que lhe são propostas. O estudo de
caso envolve o estudo profundo e exaustivo de um ou poucos objetos de
maneira que se permita o seu amplo e detalhado conhecimento. A pesquisa-
ação é utilizada quando concebida e realizada em estreita associação com
uma ação ou com a resolução de um problema coletivo. Os pesquisadores e
participantes representativos da situação ou do problema estão envolvidos de
modo cooperativo ou participativo.

O SSM auxilia a formulação e estruturação do pensamento sobre os


problemas em situações complexas. Seu princípio está na construção de
modelos conceituais (baseados no entendimento das atividades humanas) e na
comparação desses modelos com o mundo real.

Técnicas de coleta de dados

Do ponto de vista das técnicas de coleta de dados, uma pesquisa pode


usar um ou mais das seguintes formas de fonte ou coleta de dados:
questionários, roteiros, entrevistas, observação e informações de arquivo
34
(documentação). Técnica é um conjunto de preceitos ou processos de que se
serve uma ciência ou arte; é a habilidade para usar esses preceitos ou normas,
a parte prática. Toda ciência utiliza inúmeras técnicas na obtenção de seus
propósitos.

A seguir discutiremos cada uma das técnicas de coleta de dados mais


empregadas em pesquisas científicas.

Questionários

De acordo com Marconi e Lakatos (2006), o questionário é um


instrumento de coleta de dados, constituído por uma série ordenada de
perguntas, que devem ser respondidas por escrito e sem a presença do
entrevistador. Em geral, o pesquisador envia o questionário ao informante, pelo
correio, por um portador ou por e-mail; depois de preenchido, o pesquisado
devolve-o do mesmo modo.

Junto com o questionário deve-se enviar uma nota ou carta explicando a


natureza da pesquisa, sua importância e a necessidade de obter respostas,
tentando despertar o interesse do recebedor, no sentido de que ele preencha e
devolva o questionário dentro de um prazo razoável. Em média, os
questionários expedidos pelo pesquisador alcançam 25% de devolução.

A elaboração de um questionário requer a observância de normas


precisas, a fim de aumentar sua eficácia e validade. O pesquisador deve
conhecer bem o assunto para poder dividi-lo, organizando uma lista de 10 a 12
temas e, em cada um deles, extrair duas ou três perguntas. O processo de
elaboração é longo e complexo, exigindo cuidado na seleção das questões,
levando em consideração a sua importância, isto é, se oferece condições para
a obtenção de informações válidas. Os temas escolhidos devem estar de
acordo com os objetivos geral e específico.

O questionário deve ser limitado em extensão e em finalidade. Se for


muito longo, causa fadiga e desinteresse; se for curto demais, corre o risco de
não oferecer suficientes informações. Deve conter de 20 a 30 perguntas e
demorar por volta de (no máximo) 20 minutos para ser respondido. Ele deve
ser acompanhado por instruções definidas e notas explicativas, para que o
informante tome ciência do que se deseja dele. O aspecto material e a estética
também devem ser observados: tamanho, facilidade de manipulação, espaço
suficiente para as respostas, a disposição dos itens, de forma a facilitar a
computação dos dados.

Depois de redigido, o questionário precisa ser testado antes de sua


utilização definitiva, aplicando-se alguns exemplares em uma pequena

35
população escolhida. Esse procedimento é chamado de pré-teste ou teste
piloto.

A análise dos dados, após a tabulação, evidenciará possíveis falhas


existentes: inconsistência ou complexidade das questões; ambiguidade ou
linguagem inacessível; perguntas supérfluas ou que causam embaraço ao
informante; se as questões obedecem a determinada ordem ou se são muito
numerosas, etc.

Verificadas as falhas, deve-se reformular o questionário, conservando,


modificando, ampliando ou eliminando itens; explicitando melhor alguns ou
modificando a redação de outros. Perguntas abertas podem ser transformadas
em fechadas se não houver variabilidade das respostas.

O pré-teste deve ser aplicado em populações com características


semelhantes, mas nunca naquela que será alvo de estudo. Ele serve também
para verificar se o questionário apresente três importantes elementos:

a) Fidedignidade: qualquer pessoa que o aplique obterá sempre os


mesmos resultados;

b) Validade: os dados recolhidos são necessários à pesquisa;

c) Operatividade: vocabulário acessível e significado claro

Quanto à forma, as perguntas podem ser classificadas em abertas,


fechadas ou de múltiplas escolhas.

As perguntas abertas são as que permitem ao informante responder


livremente, usando linguagem própria, e emitir opiniões. Elas possibilitam
investigações mais profundas e precisas; entretanto, apresenta alguns
inconvenientes: dificulta a resposta ao próprio informante, que deverá redigi-la,
o processo de tabulação, o tratamento estatístico e a interpretação. A análise é
difícil, complexa, cansativa e demorada.

As perguntas fechadas são aquelas que o informante escolhe sua


resposta entre duas opções.

Embora restrinja a liberdade das respostas, facilita o trabalho do


pesquisador e também a tabulação: as respostas são mais objetivas.

As perguntas de múltipla escolha são perguntas fechadas, mas que


apresentam uma série de possíveis respostas, abrangendo várias facetas do
mesmo assunto.

36
Como toda técnica de coleta de dados, o questionário também
apresenta uma série de pontos fortes e limitações. Alguns dos principais pontos
fortes são:
 Economiza tempo, viagens e obtém grande número de dados;
 Atinge maior número de pessoas simultaneamente;
 Abrange uma área geográfica mais ampla;
 Economiza pessoal, tanto em treinamento quanto em trabalho de
campo;
 Obtém respostas mais rápidas e mais precisas;
 Há maior liberdade nas respostas, em razão do anonimato;
 Há mais segurança, pelo fato de as respostas não serem identificadas;
 Há menos risco de distorção, pela não influência do pesquisador;
 Há mais tempo para responder e em hora mais favorável;
 Há mais uniformidade na avaliação, em virtude da natureza impessoal
do instrumento;
 Obtém respostas que materialmente seriam inacessíveis.
E algumas das limitações são:
 Percentagem pequena dos questionários que voltam;
 Grande número de perguntas sem respostas;
 Não pode ser aplicado a pessoas analfabetas;
 Impossibilidade de ajudar o informante em questões mal compreendidas;
 Dificuldade de compreensão, por parte dos informantes, leva a uma
uniformidade aparente;
 Na leitura de todas as perguntas, antes de respondê-las, pode uma
questão influenciar a outra;
 A devolução tardia prejudica o calendário ou sua utilização;
 O desconhecimento das circunstâncias em que foram preenchidos torna
difícil o controle e a verificação;
 Nem sempre é o escolhido quem responde ao questionário, invalidando,
portanto, as questões;
 Exige um universo mais homogêneo.

Roteiros de entrevistas (ou formulários)

O formulário é um dos instrumentos essenciais para a investigação


social, cujo sistema de coleta de dados consiste em obter informações
diretamente do entrevistado (MARCONI e LAKATOS, 2006). É o nome geral
usado para designar uma coleção de questões que são perguntadas e
anotadas por um entrevistador numa situação face a face com outra pessoa.

37
Portanto, o que caracteriza o formulário é o contato face a face entre o
pesquisador e o informante e ser roteiro de perguntas preenchido pelo
entrevistador, no momento da entrevista.

As qualidades essenciais de todo formulário são:

 Adaptação ao objeto de investigação;

 Adaptação aos meios que se possui para realizar o trabalho;

 Precisão das informações em um grau de exatidão suficiente e


satisfatório para o objetivo proposto.

Na construção de um formulário (roteiro de entrevista) deve haver


espaço suficiente para a redação das respostas e as formas de registro
escolhidas para assinalar as respostas (traço, círculo, quadrado, parêntesis,
etc.) devem permanecer sempre as mesmas em todo o instrumento. A redação
simples, clara e concisa é ideal. Itens em demasia devem ser evitados; a
estética e o espaçamento entre linhas também devem ser observados.

Os principais pontos fortes do emprego dos formulários são:

 Pode ser utilizado em quase todo o segmento da população


(alfabetizados, analfabetos, etc.) porque seu preenchimento é feito pelo
entrevistador;

 A presença do pesquisador permite a explicação dos objetivos da


pesquisa, orientação quanto ao preenchimento do formulário e
elucidação do significado de algumas perguntas que não estejam muito
claras;

 Flexibilidade para adaptar-se às necessidades de cada situação,


podendo o entrevistador reformular itens ou ajustar o formulário à
compreensão de cada informante;

 Obtenção de dados mais complexos e úteis;

 Facilidade na aquisição de um número representativo de informantes,


em determinado grupo.

Algumas limitações são:

 Menos liberdade nas respostas, em virtude da presença do


entrevistador;

 Risco de distorções, pela influência do entrevistador;


38
 Menos prazo para responder às perguntas; não havendo tempo para
pensar, elas podem ser invalidadas;

 Mais demorado, por ser aplicado a uma pessoa de cada vez;

 Insegurança das respostas, por falta do anonimato;

 Pessoas possuidoras de informações necessárias podem estar em


localidades muito distantes, tornando a resposta difícil, demorada e
dispendiosa.

Entrevista

Segundo Marconi e Lakatos (2006), a entrevista é um encontro entre


duas pessoas, a fim de que uma delas obtenha informações a respeito de
determinado assunto, mediante uma conversação de natureza profissional. É
um procedimento utilizado na investigação social, para a coleta de dados ou
para ajudar no diagnóstico ou no tratamento de um problema social.

Trata-se de uma conversação face a face, de maneira metódica,


proporcionando ao entrevistado, de forma verbal, as informações necessárias.

A entrevista tem por objetivo principal a obtenção de informações do


entrevistado, sobre determinado assunto ou problema. Existem diferentes tipos
de entrevistas, que variam de acordo com o propósito do pesquisador:

a) Estruturada: é aquela em que o entrevistador segue um roteiro


previamente estabelecido. As perguntas feitas ao entrevistado são
predeterminadas. Ela se realiza de acordo com um formulário (roteiro)
elaborado e é efetuada de preferência com pessoas selecionadas de acordo
com um plano. O motivo da padronização é obter, dos entrevistados, respostas
às mesmas perguntas, permitindo que todas elas sejam comparadas com o
mesmo conjunto de perguntas, e que as diferenças devem refletir diferenças
entre os respondentes e não diferenças nas perguntas. O pesquisador não é
livre para adaptar suas perguntas a determinada situação, de alterar a ordem
dos tópicos ou de fazer outras perguntas.

b) Não-estruturada: o entrevistador tem liberdade para desenvolver cada


situação em qualquer direção que considere adequada. É uma forma de poder
explorar mais amplamente uma questão. Em geral, as perguntas são abertas e
podem ser respondidas dentro de uma conversação informal.

c) Painel: consiste na repetição de perguntas, de tempo em tempo, às


mesmas pessoas, a fim de estudar a evolução das opiniões em períodos

39
curtos. As perguntas devem ser formuladas de maneira diversa, para que o
entrevistado não distorça as respostas com essas repetições.

A preparação da entrevista é uma etapa importante da pesquisa. Ela


requer tempo (o pesquisador deve ter uma ideia clara da informação de que
necessita) e exige algumas medidas:

 Planejamento da entrevista: deve ter em vista o objetivo a ser alcançado;

 Conhecimento prévio do entrevistado: objetiva conhecer o grau de


familiaridade dele com o assunto;

 Oportunidade da entrevista: marcar com antecedência a hora e o local,


para assegurar-se de que será recebido;

 Condições favoráveis: garantir ao entrevistado o segredo de suas


confidências e de sua identidade;

 Conhecimento prévio do campo: evita desencontros e perda de tempo;

 Preparação específica: organizar roteiro (formulário) com as questões


importantes.

A entrevista, que visa obter respostas válidas e informações pertinentes,


é uma verdadeira arte, que se aprimora com o tempo, com treino e com
experiência. Exige habilidade e sensibilidade; não é fácil, mas é básica.

Para maior êxito da entrevista, devem-se observar alguns


procedimentos:

Contato inicial: o pesquisador deve entrar em contato com o informante


e estabelecer, desde o primeiro momento, uma conversação amistosa,
explicando a finalidade da pesquisa, seu objeto, relevância e ressaltar a
necessidade de sua colaboração. É importante obter e manter a confiança do
entrevistado, assegurando-lhe o caráter confidencial de suas informações.
Criar um ambiente que estimule e que leve o entrevistado a ficar à vontade e a
falar espontânea e naturalmente, sem tolhimentos de qualquer ordem.

A conversa deve ser mantida numa atmosfera de cordialidade e de


amizade. O pesquisador pode falar, mas principalmente, deve ouvir,
procurando sempre manter o controle da entrevista.

Formulação de perguntas: as perguntas devem ser feitas de acordo com


o tipo de entrevista (estruturada ou não-estruturada). Para não confundir o
entrevistado, deve-se fazer uma pergunta de cada vez e, primeiro, as que não

40
tenham probabilidade de ser recusadas. Deve-se permitir ao informante
restringir ou limitar suas informações. Toda pergunta que sugira resposta deve
ser evitada.

Registro das respostas: as respostas devem ser anotadas no momento


da entrevista, para maior fidelidade e veracidade das informações. A anotação
posterior apresenta duas inconveniências: falha de memória e/ou distorção do
fato, quando não se guardam todos os elementos. O uso do gravador é ideal,
se o informante concordar com a sua utilização. O registro deve ser feito com
as mesmas palavras que o entrevistado usar, evitando-se resumi-las. Outra
preocupação é o entrevistador se manter atento em relação aos erros,
devendo-se conferir as respostas sempre que puder. Se possível, anotar
gestos, atitudes e inflexões de voz. Ter em mãos todo o material necessário
para registrar as informações.

Término da entrevista: deve terminar como começou, ou seja, em


ambiente de cordialidade, para que o pesquisador, se necessário, possa voltar
e obter novos dados, sem que o informante se oponha a isso.

Uma condição para o êxito da entrevista é submeter seu relatório final à


aprovação do informante. Como técnica de coleta de dados, a entrevista
oferece os seguintes pontos fortes:

 Pode ser utilizada em todos os segmentos da população (analfabetos ou


alfabetizados);

 Fornece uma amostragem muito melhor da população geral: o


entrevistado não precisa saber ler ou escrever;

 Há maior flexibilidade, podendo o entrevistador repetir ou esclarecer


perguntas, formular de maneira diferente; especificar algum significado,
como garantia de estar sendo compreendido;

 Oferece maior oportunidade para avaliar atitudes, condutas, podendo o


entrevistado ser observado naquilo que diz e como diz: registro de
reações, gestos, etc.

 Dá oportunidade para a obtenção de dados que não se encontram em


fontes documentais e que sejam relevantes e significativos;

 Há possibilidade de conseguir informações mais precisas, podendo ser


comprovadas, de imediato, as discordâncias;

 Permite que os dados sejam quantificados e submetidos a tratamento


estatístico.
41
Contudo, a entrevista apresenta algumas limitações que podem ser
superadas ou minimizadas se o pesquisador for uma pessoa com bastante
experiência ou tiver muito bom senso. Essas limitações são:

 Dificuldade de expressão e comunicação de ambas as partes;

 Incompreensão, por parte do informante, do significado das perguntas,


da pesquisa, que pode levar a uma falta interpretação;

 Possibilidade de o entrevistado ser influenciado, consciente ou


inconscientemente, pelo pesquisador, pelo seu aspecto físico, suas
atitudes, ideias, opiniões, etc.;

 Disposição do entrevistado em dar as informações necessárias;

 Retenção de alguns dados importantes, receando que sua identidade


seja revelada;

 Pequeno grau de controle sobre uma situação de coleta de dados;

 Ocupa muito tempo e é difícil de ser realizada.

Observação

A observação é uma tática de coleta de dados para conseguir


informações e utiliza os sentidos na obtenção de determinados aspectos da
realidade. Não consiste apenas em ver e ouvir, mas também em examinar
fatos ou fenômenos que se desejam estudar.

Ela ajuda o pesquisador a identificar e a obter provas a respeito de


objetivos sobre os quais os indivíduos não têm consciência, mas que orientam
seu comportamento. Desempenha papel importante nos processos
observacionais, no contexto da descoberta e obriga o investigador a um
contato mais direto com a realidade. É o ponto de partida da investigação
social.

A observação torna-se científica à medida que convém a um plano de


pesquisa formulado; é planejada sistematicamente; é registrada
metodicamente e está relacionada a proposições mais gerais, em vez de ser
apresentada como uma série de curiosidades interessantes; está sujeita a
verificações e controles sobre a validade e segurança.

Na investigação científica são empregadas várias modalidades de


observação. As principais são:

42
a) Observação estruturada ou sistemática: Realiza-se em condições
controladas, para responder a propósitos preestabelecidos. Todavia, as normas
não devem ser padronizadas nem rígidas, pois tanto as situações quanto os
objetos e objetivos da investigação podem ser muito diferentes. Nela, o
observador sabe o que procura e o que carece de importância em determinada
situação; deve ser objetivo, reconhecer possíveis erros e eliminar sua influência
sobre o que vê ou recolhe. Vários instrumentos podem ser utilizados nesse tipo
de observação, tais como quadros, anotações, escalas, dispositivos
mecânicos, etc.;

b) Observação não-estruturada ou assistemática: consiste em recolher e


registrar os fatos da realidade sem que o pesquisador utilize meios técnicos
especiais ou precise fazer perguntas diretas, como em uma experiência casual,
sem se saber de antemão os aspectos a serem observados. É mais
empregada em estudos exploratórios e não tem planejamento e controle
previamente elaborados.

c) Observação não-participante: o pesquisador toma contato com a


comunidade, grupo ou realidade estudada, mas sem integrar-se a ela, ou seja,
permanece de fora, sem se envolver.

d) Observação participante: consiste na participação real do pesquisador


com a comunidade ou grupo. Ele se incorpora ao grupo e confunde-se com ele.
Este tipo de observador enfrenta grandes dificuldades para manter a
objetividade, pelo fato de exercer influência no grupo, ser influenciado por
antipatias ou simpatias pessoais, e pelo choque do quadro de referência entre
observador e observado. O objetivo principal seria ganhar a confiança do
grupo, fazer os indivíduos compreenderem a importância da investigação, sem
ocultar o seu objetivo ou sua missão, mas em certas circunstâncias, há mais
vantagem no anonimato.

Do ponto de vista científico, a observação oferece uma série de


vantagens e limitações, como as outras técnicas de pesquisa, havendo, por
isso, a necessidade de se aplicar mais de uma técnica ao mesmo tempo.

Os principais pontos fortes da observação são:

 Possibilita meios diretos e satisfatórios para estudar uma ampla


variedade de fenômenos;

 Exige menos do pesquisador do que as outras técnicas;

 Permite a coleta de dados sobre um conjunto de atitudes


comportamentais típicas;

43
 Depende menos da introspecção ou da reflexão;

 Permite a evidência de dados não constantes do roteiro de entrevistas


ou de questionários.

As principais limitações são:

 O observado tende a criar impressões favoráveis ou desfavoráveis no


observador;

 A ocorrência espontânea não pode ser prevista, o que impede, muitas


vezes, o observador de presenciar o fato;

 Fatores imprevistos podem interferir na tarefa do pesquisador;

 A duração dos acontecimentos é variável; pode ser rápida ou demorada


e os fatos podem ocorrer simultaneamente; nos dois casos, torna-se
difícil a coleta de dados;

 Vários aspectos da vida cotidiana, particular, podem não ser acessíveis


ao pesquisador.

Informações de arquivo (pesquisa documental)

A característica da pesquisa documental é que a fonte de coleta de


dados está restrita a documentos, escritos ou não, constituindo o que se
denomina de fontes primárias. Estas podem ser feitas no momento em que o
fato ou fenômeno ocorre, ou depois.

Utilizando essas três variáveis: fontes escritas ou não, fontes primárias


ou secundárias, contemporâneas ou retrospectivas, pode-se apresentar um
quadro abaixo que auxilia na compreensão do universo da pesquisa
documental.

Os dados secundários obtidos de revistas, livros, jornais, publicações


avulsas e teses, cuja autoria é conhecida, não devem ser confundidos com
documentos, isto é, dados de fontes primárias. Contudo, existem registros em
que as características primária ou secundária não é tão evidente, o mesmo
ocorrendo com algumas fontes não escritas.

44
45
CAPÍTULO 5 – LEITURA E ANÁLISE DE ARTIGOS

Leitura

A leitura constitui-se em fator decisivo de estudo, pois propicia a


ampliação de conhecimentos, a obtenção de informações básicas ou
específicas, a abertura de novos horizontes para a mente, a sistematização do
pensamento, o enriquecimento do vocabulário e o melhor entendimento do
conteúdo das obras (MARCONI e LAKATOS, 2006).

É necessário ler muito, continuada e constantemente, pois a maior parte


dos conhecimentos é obtida por intermédio da leitura. Como existem muitas
fontes disponíveis para leitura, e muitas delas não são tão importantes, é
necessária uma seleção.

O ideal seria iniciar a leitura das obras clássicas, que permitem obter
uma fundamentação de qualquer campo da ciência a que se pretende dedicar,
passando depois para a leitura de outras obras mais especializadas e atuais,
relacionadas com a área de interesse da pesquisa.

A leitura deve conduzir a obtenção de informações tanto básicas quanto


específicas, variando a maneira de ler, segundo os propósitos em vista, mas
sem perder os seguintes aspectos: leitura com objetivo determinado, mantendo
as unidades de pensamento, avaliando o que se lê; preocupação com o
conhecimento de todas as palavras, utilizando para isso glossários ou
dicionários; interrupção da leitura, quer periódica quer definitivamente, se
perceber que as informações não são as que esperava ou não são mais
importantes; discussão frequente do que foi lido com colegas e professores
(MARCONI e LAKATOS, 2006).

O que nos interessa a respeito desse tópico é a leitura de estudo ou


informativa. Esta visa a coleta de informações para determinado propósito. Ela
apresenta três objetivos principais:

a) Certificar-se do conteúdo do texto, constatando o que o autor afirma,


os dados que apresenta e as informações que oferece;

b) Correlacionar os dados coletados a partir das informações do autor


com o problema em pauta;

c) Verificar a validade dessas informações.

A leitura informativa engloba várias fases. São elas:

46
Reconhecimento ou prévia: leitura rápida, cuja finalidade é procurar um
assunto de interesse ou verificar a existência de determinadas informações.
Pode ser feita lendo-se o resumo de um artigo ou o sumário de um livro ou
dissertação/tese.

Exploratória ou pré-leitura: leitura de sondagem, tendo em vista localizar


as informações, uma vez que já se tem conhecimento de sua existência.
Examina-se a introdução e a bibliografia.

Seletiva: leitura que visa a seleção das informações mais importantes


relacionadas com o problema em questão. A seleção consiste na eliminação do
supérfluo e concentração em informações verdadeiramente pertinentes ao
problema da pesquisa.

Reflexiva: leitura mais profunda que as anteriores, refere-se ao


reconhecimento e a avaliação das informações, das intenções e dos propósitos
do autor. Procede-se a identificação das palavras-chave para saber o que o
autor afirma e por que o faz.

Crítica: avalia as informações do autor. O propósito é obter uma visão


sincrética e global do texto e descobrir as intenções do autor. No primeiro
momento da fase de crítica deve-se entender o que o autor quis transmitir e,
para tal, a análise e o julgamento das ideias dele devem ser feitos em função
de seus próprios propósitos, e não dos do pesquisador; é no segundo momento
que devemos, com base na compreensão do quê e do porquê de suas
proposições, retificar ou ratificar os argumentos e conclusões do pesquisador.

Interpretativa: relaciona as informações do autor com os problemas para


os quais, através da leitura de textos, está-se buscando uma solução.

Explicativa: leitura com o intuito de verificar os fundamentos de verdade


enfocados pelo autor.

Geralmente necessária para a redação de trabalhos acadêmicos, tais


como uma dissertação ou uma tese.

A leitura informativa também é denominada de leitura de estudo. Para tal


é necessário dominar duas técnicas: saber como sublinhar e como fazer os
resumos da parte lida.

Algumas das noções básicas da arte de sublinhar são:

 Nunca assinalar nada na primeira leitura, cuja única finalidade é


organizar o texto na mente e de forma hierarquizada;

47
 Sublinhar apenas as ideais principais e os detalhes importantes, usando
dois traços para as palavras-chave e um para os pormenores mais
significativos;

 Quando aparecem passagens que se configuram como um todo


relevante para a ideia desenvolvida no texto, elas devem ser
inteiramente assinaladas com uma linha vertical, à margem. As
passagens que despertam dúvidas, que colidem com o tema exposto e
as proposições que o apoiam devem ser assinaladas com um ponto de
interrogação, pois constituem material base para a leitura explicativa. O
que se considera passível de crítica, objeto de reparo ou insustentável
dentro do raciocínio desenvolvido, deve ser destacado mediante uma
interrogação.

 Cada parágrafo deve ser reconstituído a partir das palavras sublinhadas,


e sua leitura deve apresentar a continuidade e a plenitude de um texto
de telegrama, com sentido fluente e concatenado.

 Cada palavra não compreendida deve ser entendida mediante consulta


a dicionários. Durante a primeira leitura deve-se anotar os termos
desconhecidos e, antes da segunda, consultar a fonte que esclarecerá o
sentido deles. A leitura é uma das maneiras de se ampliar o vocabulário.

Depois de assinalar, com marcas ou cores diferentes, as várias partes


constitutivas do texto, após sucessivas leituras, deve-se proceder à elaboração
de um esquema que respeite a hierarquia emanada do fato de que, em cada
frase, a ideia expressa pode ser condensada em palavras-chave; em um
parágrafo, a ideia principal é geralmente expressa numa frase-mestra; e,
finalmente, na exposição, a sucessão das principais ideias concretiza-se nos
parágrafos-chave. No esquema, deve-se levar em consideração que: se as
ideias sencundárias têm de ser diferenciadas entre si, depois de desprezar as
não importantes, deve-se procurar as ligações que unem as ideias sucessivas,
quer sejam paralelas, opostas, coordenadas ou subordinadas, analisando-se
sua seqüência, encadeamento lógico e raciocínio desenvolvido. Dessa forma, o
esquema emerge naturalmente do trabalho de análise realizado (MARCONI e
LAKATOS, 2006). A figura 5.1 mostra um exemplo de esquema.

A síntese (ou resenha crítica) consiste na capacidade de condensação


de um texto, parágrafo, frase, reduzindo-o a seus elementos de maior
importância. Diferente do esquema, a síntese forma parágrafos com sentido
completo: não indica apenas os tópicos, mas condensa sua apresentação.
Finalmente, a síntese facilita o trabalho de captar, analisar, relacionar, fixar e
integrar aquilo que se está estudando, e serve para expor o assunto. As
sínteses serão tratadas com mais detalhes no item 5.4 deste capítulo.
48
Análise de textos

Analisar significa estudar, decompor, dissecar, dividir, interpretar. A


análise de um texto refere-se ao processo de conhecimento de determinada
realidade e implica o exame sistemático dos elementos. Portanto, é decompor
um todo em suas partes, a fim de poder efetuar um estudo mais completo,
encontrando o elemento-chave do autor, determinar as relações que
prevalecem nas partes constitutivas, compreendendo a maneira pela qual
estão organizadas, e estruturar as ideias de maneira hierárquica.

É a análise que vai permitir observar os componentes de um conjunto,


perceber suas possíveis relações, ou seja, passar de uma ideia-chave para um
conjunto de ideias mais específicas, passar à generalização e, finalmente, à
crítica.

A análise de texto pode ser feita de três formas (MARCONI e LAKATOS,


2006):

a) Análise textual: começa por uma leitura rápida do texto para se ter
uma visão de conjunto da unidade. Leituras sucessivas vão permitir,
inicialmente, assinalar e esclarecer palavras desconhecidas, identificando os
conceitos utilizados e, depois, esquematizar o texto (mostrar como o texto foi
organizado), com a finalidade de evidenciar sua estrutura redacional.

b) Análise temática: permite maior compreensão do texto, fazendo


emergir a ideia central e as secundárias, as unidades e subunidades de
pensamento, sua correlação e a forma pela qual esta se dá. Adentrando no
mundo de ideias do autor, pode-se esquematizar a seqüência das várias ideias,
reconstruindo a linha de raciocínio do autor e fazendo emergir seu processo
lógico de pensamento. Na análise temática procura-se identificar o tema, o
objetivo, as proposições e a argumentação do trabalho que está sendo lido.

c) Análise interpretativa e crítica: deve-se procurar associar as ideias


expressas pelo autor com outras de conhecimento do leitor, sobre o mesmo
tema. A partir daí, faz-se a crítica, do ponto de vista da coerência interna e
validade dos argumentos empregados no texto, da profundidade e originalidade
dada à análise do problema e do alcance das conclusões; realiza-se uma
apreciação pessoal e mesmo emissão de juízo sobre as ideias expostas e
defendidas. Deve ser elaborado um resumo para discussão futura.

Fichamento

À medida que o pesquisador tem em mãos as fontes de evidência


(artigos, livros, dissertações, teses, etc.), ele pode transcrever os dados em
fichas, com o máximo de exatidão e cuidado. A ficha, sendo de fácil
49
manipulação, permite a ordenação do assunto, ocupa pouco espaço e pode ser
transportada de um lugar para outro. Até certo ponto, leva o indivíduo a por
ordem no seu material.

Possibilita ainda uma seleção constante da documentação e de seu


ordenamento. Atualmente, com a facilidade de diversas soluções de software,
as fichas podem ser elaboradas a partir de pequenos editores de texto, tais
como o notepad ou o wordpad do pacote Microsoft Windows, ou mesmo de
softwares para banco de dados, tal como o Microsoft Access, do pacote do
Microsoft Office.

A ficha é um bom instrumento de trabalho para o pesquisador, uma vez


que o mesmo manipula um material bibliográfico que, em geral, não lhe
pertence. As fichas permitem identificar as obras, conhecer seu conteúdo, fazer
citações, analisar o material e elaborar críticas.

As fichas podem ser do tipo bibliográfica (refere-se ao campo do saber


que é abordado, os problemas significativos tratados, as conclusões
alcançadas, as contribuições especiais sobre o assunto, as fontes de dados, os
métodos de abordagem e de procedimentos utilizados pelo autor), de citações
(reprodução fiel de frases ou sentenças consideradas relevantes ao estudo), de
resumo ou de conteúdo (síntese clara e concisa das ideias principais do autor
ou um resumo dos aspectos essenciais da obra), de esboço (parecida com a
de resumo, porém mais detalhada) e de comentário ou analítica (explicação ou
interpretação crítica pessoal das ideias expressas pelo autor, em todo o
trabalho ou em parte dele).

A estrutura das fichas, de qualquer um dos tipos, compreende três


partes principais: cabeçalho (denominação ou título genérico do trabalho
estudado), referência bibliográfica (completa, seguindo a norma) e texto
(resumo, citação, esboço ou comentários).

OBS: fornecer aos estudantes exemplos de fichas.

Síntese (ou resenhas críticas)

De acordo com Lakatos e Marconi (2006), as sínteses são instrumentos


obrigatórios de trabalho para os pesquisadores através dos quais se podem
selecionar obras que merecem a leitura do texto completo.

Entretanto, as sínteses somente são válidas quando contiver, de forma


clara e sintética, tanto a natureza da pesquisa realizada quanto os resultados e
as conclusões mais importantes, em ambos os casos destacando-se o valor
dos achados ou de sua originalidade.

50
A síntese é a apresentação concisa e frequentemente seletiva do texto,
destacando-se os elementos de maior interesse e importância, isto é, as
principais ideias do autor da obra (LAKATOS e MARCONI, 2006).

Dependendo do tipo do trabalho científico que se pretende realizar, a


síntese pode ser:

Indicativa ou descritiva: quando faz referência às partes mais


importantes, componentes do texto. Utiliza frases curtas, cada uma
correspondendo a um elemento importante da obra. Não dispensa a leitura do
texto completo, pois apenas descreve sua natureza, forma e propósito;

Informativa ou analítica: quando contém todas as informações principais


apresentadas no texto e permite dispensar a leitura desse último; portanto, é
mais amplo do que o indicativo ou descritivo. Tem a finalidade de informar o
conteúdo e as principais ideias do autor, salientando: os objetivos e assunto, os
métodos e as técnicas, os resultados e as conclusões. Utiliza as palavras de
quem escreveu a síntese e quando cita as do autor, apresenta-as entre aspas.
Ao final da síntese, indicam-se as palavras-chave do texto;

Crítico: quando se formula um julgamento sobre o trabalho. É a crítica da


forma (aspectos metodológicos), do conteúdo, do desenvolvimento da lógica da
demonstração, da técnica de apresentação das ideias principais. Neste tipo de
síntese não se faz citações.

Antes de se elaborar uma síntese deve-se proceder como se segue.


Primeiramente, é aconselhável realizar uma primeira leitura do texto, para se
fazer um esboço do mesmo e tentar captar o plano geral da obra e seu
desenvolvimento (proposição, explicação, discussão e demonstração).

Em seguida, lê-se novamente o texto buscando responder a duas


questões principais: de que trata este texto? O que pretende demonstrar? Com
isso identifica-se a ideia central e o propósito que nortearam o autor.

Em uma terceira leitura a preocupação é descobrir as partes principais


em que se estrutura o texto, ou seja, compreender as ideias, provas, exemplos
etc. que servem como explicação, discussão e demonstração da proposição
original (ou ideia central).

A quarta e última leitura do texto deve ser feita com a finalidade de


compreender o sentido de cada parte importante, anotar as palavras-chave e
verificar o tipo de relação entre as partes (consequência, oposição,
complementação etc.).

51
Uma vez compreendido o texto, selecionadas as palavras-chave e
entendida a relação entre as partes essenciais, pode-se passar para a
elaboração de um dos três tipos de sínteses citadas anteriormente.

OBS: Simular na prática.

52
CAPÍTULO 6 – REDAÇÃO DE TRABALHOS CIENTÍFICOS

Estrutura dos trabalhos científicos

Para a elaboração de trabalhos acadêmicos, seja de doutorado,


mestrado, especialização ou licenciatura, é necessário que se defina uma
estrutura básica que oriente o pesquisador nessa tarefa. Em geral, cada
instituição deensino tem a sua norma com estrutura própria, mas que não
difere muito da estrutura sugerida pelas normas internacionais.

A estrutura dos trabalhos acadêmicos se divide em três elementos


principais: os pré-textuais, os textuais e os pós-textuais (MÜLLER e
CORNELSEN, 2003). Este conteúdo será desenvolvido com mais detalhes nos
capítulos seguintes.

Dicas de boa redação

A redação de teses, dissertações, monografias ou artigos científicos


apresenta algumas características próprias, dado que a linguagem científica
tem como premissas a precisão e a objetividade (MÜLLER e CORNELSEN,
2003).

Sendo assim, em trabalhos científicos deve-se cuidar para que os


assuntos sejam tratados de maneira direta e simples, que concilie objetividade,
clareza e precisão com lógica e continuidade no desenvolvimento das ideias,
de forma a impedir que a sequência seja “quebrada” por considerações
irrelevantes. Os textos científicos se apoiam e se sustentam em dados e
provas, e não em opiniões sem confirmação.

As qualidades exigidas na linguagem científica são: precisão, clareza,


objetividade, imparcialidade, coerência e impessoalidade. Para tal, é
recomendável empregar o verbo na terceira pessoa, evitando-se pronomes da
primeira pessoa, tanto no singular quanto no plural, como por exemplo:

... procurou-se analisar os resultados de acordo com as teorias ...

... a partir da mensuração realizada, concluiu-se que ...

Segundo Versiani (2001), a primeira regra para uma boa redação, que
de fato engloba todas as outras, é a clareza do texto. Se maximizar a clareza
deve ser a preocupação maior de quem escreve academicamente, cabe
também notar que se trata, por assim dizer, de uma maximização
condicionada: uma redação clara não pode ser obtida pela simplificação
excessiva, em detrimento de uma completa exposição dos elementos em que
se baseiam os argumentos apresentados, ou os resultados obtidos. É da

53
essência de um trabalho acadêmico o cuidado em fundamentar a
argumentação e as conclusões, por meio de referências frequentes à literatura,
a dados estatísticos ou outro tipo de evidência.

Um texto claro deve ser bem escrito, procurando evitar alguns tropeços
comuns no manejo da linguagem; deve ser bem estruturado, desenvolvendo
sua argumentação de forma organizada; deve citar de forma completa e correta
as referências à literatura e as fontes de dados; e deve obedecer a certas
normas convencionais de apresentação.

A busca da boa expressão passa necessariamente pela leitura de


autores que a praticam: quem não lê muito dificilmente pode escrever bem.
Isso aponta para a vantagem de cultivar o hábito da leitura, de modo geral: a
frequência de bons escritores não só traz prazeres intelectuais e amplia o
horizonte cultural do leitor, como também lhe proporciona uma vantagem
prática, contribuindo para o aperfeiçoamento da qualidade de sua própria
redação. Além de desenvolver o costume de ler boa literatura, é útil também
prestar atenção nas formas de expressão dos autores de textos técnicos de
Engenharia de Produção.

Uma outra vantagem, mais prática, de uma leitura atenta às formas de


expressão é a possibilidade de identificar algumas características de textos
bem escritos, que sejam fáceis de ler (amigáveis ao leitor). Entre essas
características, podem-se citar:

Frases não muito longas: nos textos científicos, a regra é evitar períodos
muito compridos, que quase sempre tendem a dificultar a compreensão.
Quando a frase começa a parecer muito longa, é hora de colocar um ponto, ou
um ponto-e-vírgula. Contudo, deve-se tomar o cuidado de não se escrever um
texto composto só de frases muito curtas, pois ele pode adquirir um ar de
composição infantil.

Linguagem sem exageros: o tom da linguagem acadêmica é


necessariamente comedido: exageros de expressão ou adjetivos
desnecessários devem ser inteiramente banidos. Portanto, nada de comentar
que houve uma “queda” na produtividade, ou que ocorreu uma “drástica” ou
“profunda” reformulação no quadro de funcionários de uma empresa.

Uso adequado de termos técnicos: é necessário cuidar para que o uso


de linguagem técnica não seja excessivo, a ponto de deixar o texto
desnecessariamente obscuro; afinal, é desejável que o texto escrito, como em
um artigo em revista acadêmica, possa ser lido e compreendido por muitos,
não apenas por meia dúzia de especialistas.

54
Por outro lado, um texto científico deve primar pela sua qualidade
ortográfica e gramatical. Sendo assim, o autor do texto deve se atentar para
uma correta utilização das concordâncias verbais, da pontuação (ponto final,
vírgula, ponto e vírgula) e da acentuação (acento agudo, circunflexo, til e
crase).

É conveniente, em benefício da clareza, que todo texto tenha, para o


leitor, uma sequência lógica, com princípio, meio e fim. Daí decorre a vantagem
de se distinguir (inclusive separando-as formalmente do corpo do trabalho) uma
introdução e uma conclusão (VERSIANI, 2001).

A introdução indica o sentido geral do que vai ser dito, algo como um
roteiro do que virá a seguir, o que facilita ao leitor percorrer os passos da
argumentação. Para isso, é útil (e usual) que se faça referência expressa, na
introdução de um trabalho, às partes em que se divide o texto subsequente.
Algo como: “A próxima seção contém uma discussão geral do problema; a
seção seguinte trata dos dados e da metodologia; a quarta seção apresenta os
resultados; e uma seção final resume as conclusões e discute suas
implicações.”

Não importa a extensão de um trabalho, é indispensável que este tenha


um fecho formal, ou seja, uma conclusão. Evidentemente nem todo texto chega
a conclusões no sentido lógico da palavra (proposições inferidas de outras
proposições ou de fatos observados); mas não pode faltar um apanhado final
da argumentação, um epílogo (a palavra conclusão tem também esse
significado).

Citações e referências

Normas para citações

Citações reproduzem texto ou pensamento de outra pessoa. No primeiro


caso tem-se uma transcrição, citação direta, e no segundo uma paráfrase,
citação indireta. Podem ainda, quando não se teve acesso ao autor original, ser
feitas a partir de um outro. Nesse caso tem-se a citação de citação.

Quanto à apresentação, em se tratando de texto transcrito, esse é


destacado (cf. NBR 10520) mediante colocação entre aspas (“ ”). Quando no
original transcrito já existirem aspas, essas são indicadas mediante o uso de
aspas simples (‘ ’). As citações longas, com mais de três linhas, devem
aparecer em parágrafo isolado, destacado do texto normal, por dois espaços
de 1,5 – antes e depois – sem aspas, (salvo o caso de aparecerem em rodapé)
em espaço interlinear simples, com a mesma fonte do texto, mas em tamanho
proporcional menor, com recuo de 4 cm da margem esquerda e sem recuo de

55
primeira linha. Deve reduzir-se ao mínimo indispensável o número de citações
longas. É melhor sintetizar o texto e transcrever o pensamento do autor. Veja o
padrão de página digitada no Apêndice F.

Do ponto de vista redacional, na medida do possível e sem ferir a


fluência, é preciso indicar com clareza o autor no próprio texto: “Na opinião de
tal autor ...”; “Como ensina Fulano de Tal, ...”. “Ponto de vista distinto, defende
NN, para quem ...”.

Referências e sistemas de chamada

Todas as citações devem ter as suas fontes rigorosamente identificadas.

A fim de não sobrecarregar o texto, adota-se um sistema de chamadas.


Existem basicamente três tipos: o sistema autor-data, o numérico e o de
referência em nota de rodapé. Pelo sistema numérico usa-se um número após
a citação, remetendo a uma listagem sequencial, por número de chamada, ao
final do artigo. É bastante comum em algumas áreas tecnológicas, onde as
bibliografias se restringem a artigos especializados.

Nas ciências humanas adota-se mais comumente um dos outros dois


modos: a nota de referência no rodapé ou o sistema de autor-data. Pelo
primeiro, associa-se a um número de chamada a referência ao pé da página,
devendo constar os elementos essenciais para identificar a obra, no seguinte
formato: SOBRENOME, nome. Título, p. No caso de capítulo ou parte de obra
coletiva, ao nome do autor devem seguir o título, a indicação da obra e
página(s) em que foi encontrado. Tratando-se de artigo de periódico é preciso
indicar ainda o ano e o volume.

No segundo modo, mencionam-se entre parênteses o sobrenome do


autor, a data e a página: exemplo (SALVADOR, 1986, p. 17). As duas maneiras
têm suas vantagens próprias.

Em textos mais longos e com muitas obras citadas o sistema autor-data,


pode dificultar o acompanhamento da exposição. O sistema de referência ao
pé de página, apresenta a desvantagem de exigir mais espaço e mais
digitação, embora permita seguir com mais segurança o que está sendo
discutido ou apresentado.

Cada autor deve escolher um dos sistemas e adotá-lo


consequentemente até o final do trabalho, conforme as orientações a seguir.

56
Sistema de chamadas

O sistema de nota de referência em rodapé

Após citar ou aludir ao texto de outro autor, coloca-se, depois do sinal de


pontuação, ou do conceito ao qual se refere, o número sequencial
correspondente à nota de rodapé, na qual deverão aparecer os dados
suficientes para recuperar a informação.

Nas presentes orientações, sugere-se adotar o princípio de citar a partir


do sobrenome, seguido das iniciais do nome, com o título em itálico,
eventualmente abreviado e a página correspondente. Os dados completos
devem figurar na lista de referências ao final do artigo ou trabalho.

Na opinião de H. Küng, “no final da vida humana e do curso do mundo, [...] se

encontrará o próprio inefável”1.

___________

1 KÜNG, H. Teologia a caminho, p. 291.

Nas Referências: KÜNG, Hans. Teologia a caminho. São Paulo: Paulinas,


1999.

Citações de citações devem ser evitadas o quanto possível, preferindo-


se a consulta à obra original. Quando inevitáveis, referir o autor original das
mesmas, seguidas da expressão latina apud ou seu equivalente junto a ou
citado por.

Quando o mesmo autor é citado em sequências imediatas, e na mesma


página, pode usar-se a expressão latina Idem (o mesmo), seguido de vírgula
com o título da obra e a página correspondente. No caso de citar o mesma
obra do autor, sempre na mesma página, pode substituir-se por Ibidem (no
mesmo lugar). Uma referência a uma obra anteriormente citada, mas não
imediatamente antes, pode ser feita por op. cit. (obra citada), ou loc. cit. (lugar
citado). O problema no uso desse tipo de referência é a mobilidade das
páginas. Geralmente, na fase de formatação final, e mesmo de impressão, há
deslocamentos de quebra de página.

Convém, por isso, tentar evitar ao máximo essa forma de indicação de


fonte.
57
O sistema autor-data

Explica-se a seguir, o sistema autor-data, apenas para fins de


conhecimento.

Os elementos fundamentais para esse sistema são:

a) o autor ou primeira palavra pela qual se dá a entrada na lista de


referências ao final do texto;

b) a data;

c) página ou páginas, indicada(s) por p.

Podem aparecer, em parte ou no seu todo, entre parênteses, separados,


por vírgula. A parte que aparece no texto, segue as normas gramaticais para
maiúsculas e minúsculas. À diferença do que ocorre frequentemente no
sistema de nota de referência, nas citações indiretas (paráfrases ou resumos),
não se faz a indicação «cf.» ou «ver». Identifica-se esse tipo de citação pela
ausência de aspas ou recuo de margem. A indicação de páginas, no entanto,
quando se trata de partes, em geral deve ser feita, mesmo se a norma não o
exige.

Para Hans Küng (1999, p. 291) “no final não haverá mais profetas ou
iluminados que dividam as religiões”.

Há quem pense que “no final não existirá nenhuma religião” (KÜNG, 1999, p.
291).

A Teologia da libertação se entende por um lado como «reflexão crítica da fé»

(GUTIÉRREZ, 1972) e por outro, no caso de Jon Sobrino (1988, 1992, p. 47-
80), como «intellectus amoris».34

Quando entre parênteses, usa-se apenas o Sobrenome do autor, ou a


primeira palavra com a qual uma obra consta na lista de referência, seguido
pelo ano de publicação e a página correspondente, quando for o caso.

Havendo coincidência de sobrenomes, acrescenta-se a primeira letra do


nome; permanecendo a confusão, usa-se todo o nome. Em caso de o autor
haver publicado duas obras num ano, diferencia-se por letras, de acordo com a
listagem bibliográfica.

58
(ECCLESIA ..., 1970) remetendo à obra: ECCLESIA a Spiritu Sancto edocta.
LG 53. Leuven; Gembloux (Belgique): Duculot, 1970.

(RAHNER, H., 1960)

(RAHNER, K., 1972)

(SOBRINO, JOSÉ, 1950)

(SOBRINO, JON, 1965)

(KASPER, 1974a)

(KASPER, 1974b)

Nas citações de citação, deve mencionar-se o autor original, com seus


dados, seguido de apud (junto a) e a chamada correspondente à obra da qual
se tomou a citação. Embora não se conheça uma norma para a referência, a
sugestão da Universidade Federal do Paraná (2002, v. 7, p. 12), de citar a fonte
primária em nota de rodapé, deve ser tomada como pertinente.

Exemplo.:

No Texto: Conforme S. Tomás36, citado por C. Boff (1998, p. 545), “alguém


pode pecar ao fazer Teologia”.

Na lista de referências, ao final: BOFF, Clodovis. Teoria do método teológico.

Petrópolis: Vozes, 1998.

Consegue-se, desta maneira, controlar efetivamente a referência,


independente da fonte secundária.

Notas de rodapé e número de chamada

Nos textos científicos as notas de rodapé constituem parte do aparato


crítico e servem a três finalidades: explicitar ou comentar algum elemento do
texto (notas explicativas), referir a alguma outra passagem no próprio trabalho
(referências cruzadas) e registrar as referências bibliográficas de citações.

As notas de rodapé, como diz a própria palavra, são apresentadas ao pé


da página e referidas a um número de chamada sequencial. Este, com os
recursos da informática, deve ser sobrescrito, após o sinal de pontuação. Em
se tratando de palavras ou expressões, segue imediatamente.

59
Quanto ao texto das notas. Vai separado por um expaço simples “E por
filete de 5 cm, a partir da margem esquerda”. O espaço interlinear é simples e a
letra menor, possivelmente corpo 10, no mesmo estilo de fonte do texto e
coerente com as citações longas no texto. Entre as notas insere-se um espaço
correspondente ao de parágrafo (p. ex., 1,5 ou 6pt). O número da nota aparece
isolado à esquerda do alinhamento do texto.

NORMAS PARA REFERÊNCIAS E LISTAS BIBLIOGRÁFICAS

Normas gerais de apresentação

O formato básico de referência bibliográfica será o seguinte:

60
61
62
63
CAPÍTULO 7 – ESTRATÉGIA DE PESQUISA I: EXPERIMENTO OU
PESQUISA EXPERIMENTAL

O que é a pesquisa experimental e quando ela pode ser utilizada

Segundo Bryman (1989), a pesquisa experimental adquiriu uma


considerável importância na pesquisa organizacional devido, principalmente, a
dois fatos. O primeiro deles diz respeito a força desse método de investigação
em permitir que o pesquisador faça fortes declarações de causalidade.

Quanto a este aspecto, Kidder (2004) acrescenta que os experimentos


genuínos são instrumentos altamente especializados e, como qualquer
instrumento, são excelentes para alguns trabalhos e pouco adequados para
outros. Eles se adaptam perfeitamente à análise causal. Nenhum outro método
de pesquisa científica permite ao pesquisador dizer com a confiança de um
experimentador: “isto causou aquilo”. Ao ler trabalhos científicos baseados em
outros métodos (principalmente os qualitativos), é normal encontrar muitas
afirmações causais cautelosas, cheias de ressalvas e indiretas, tais como: “X
parece ser um fator que determina Y”, ou “a pesquisa sugere que X seja um
fator que determina Y”. As conclusões soam indiretas e as palavras,
cuidadosamente escolhidas, porque os autores não podem fazer afirmações
causais definitivas.

Contudo, Bryman (1989) considera que a capacidade de estabelecer


causalidade é importante para muitos pesquisadores organizacionais, não
simplesmente em virtude de sua associação com a abordagem científica, mas
devido a tal procedimento ser visto como um caminho para o conhecimento
prático e relevante.

O segundo fato da importância da pesquisa experimental, conforme


Bryman (1989), diz respeito a facilidade que o pesquisador que emprega os
projetos (ou delineamentos) experimentais encontra para estabelecer relações
de causa e efeito, fazendo com que o experimento seja considerado um
modelo de delineamento de pesquisa.

Portanto, é importante reafirmar que a principal característica da


pesquisa experimental é que o pesquisador tem o controle total sobre os
valores que as variáveis independentes irão assumir, ou seja, é o pesquisador
quem estabelece e controla os valores que serão experimentados. Trata-se de
um método de pesquisa quantitativo, onde o objetivo do pesquisador ao fazer
uso do mesmo é demonstrar, usando técnicas de análise estatísticas, as
relações causais entre a variável independente (também chamada de variável
de controle, fator ou causa) e a variável dependente (também chamada de
variável resultante, resposta ou efeito).

64
Kidder (2004) considera que a principal força dos experimentos
genuínos seja sua validade interna. Quanto mais controle o experimentador
tiver, maior a validade interna do experimento. Para Bryman (1989), a ideia de
controle é essencial ao experimento. Ela implica na eliminação de explicações
alternativas da conexão aparente entre uma suposta causa e um particular
efeito.

Entretanto, a mesma característica que propicia validade interna pode


prejudicar a validade externa.

Quanto mais controle um experimentador tiver sobre os sujeitos e as


muitas variáveis que poderiam influenciar os resultados, menos natural será o
estudo. Quanto mais as condições deferirem de situações da vida real, mais
difícil será generalizar os resultados para processos sociais que ocorrem
naturalmente e, consequentemente, menor será a validade externa da
pesquisa.

Muitas das pesquisas organizacionais baseadas em experimentos


podem ser desenvolvidas em laboratórios ou em campo. Quando a pesquisa é
realizada em organizações reais (experimentos de campo) algumas
dificuldades podem surgir. Uma primeira relaciona-se com o fato de que as
pessoas participantes do experimento, sabendo que são sujeitas do estudo,
podem apresentar um comportamento diferente do habitual. Outro fato que
pode ocorrer é em relação às dificuldades de preparação dos arranjos
experimentais que o pesquisador pode encontrar, diferentemente do que
poderia ocorrer em um laboratório. Aqueles para quem a pesquisa é conduzida
podem suspeitar dos verdadeiros objetivos do estudo; além disso, os sujeitos
envolvidos com a pesquisa podem estar interessados em certos resultados
específicos.

A primeira dessas dificuldades, a de que a experimentação de campo


raramente possibilita uma “carta branca” ao pesquisador, significa que muitos
desses experimentos não podem ser considerados como experimentos
“verdadeiros”, nos termos dos princípios que serão tratados nos próximos
tópicos. Diante disso, Bryman (1989) faz uma distinção entre os experimentos
genuínos e os “quase-experimentos”, sendo que este último se refere aos
experimentos no qual o pesquisador é incapaz de cumprir com todos os
requisitos para um estudo experimental genuíno.

Manipulação e controle de variáveis

Toda pesquisa requer a manipulação ou observação de variáveis.


Variáveis são qualidades que o pesquisador deseja estudar e tirar conclusões a
respeito. Como o nome sugere, as variáveis devem variar e ter, pelo menos,

65
dois valores. Os experimentadores estudam variáveis que eles próprios ou
outra pessoa possam manipular (tal como horário, conteúdo ou quantidade de
alguma coisa).

Além disso, Kidder (2004) afirma que os experimentadores podem


controlar a influência de variáveis estranhas aos propósitos do estudo. Por
exemplo, se um pesquisador deseja estudar a influência da propaganda de
televisão no comportamento de votar e não estivesse interessado nos efeitos
da escolaridade, sexo, religião, atitudes antiaborto e preferências partidárias
dos pais, ele poderia controlar os efeitos dessas variáveis de uma dentre duas
maneiras:

a) Mantendo as outras variáveis constantes: no exemplo citado, o


pesquisador poderia transformar as variáveis religião, sexo, escolaridade e
preferências partidárias em constantes, escolhendo apenas homens católicos,
com escolaridade secundária e atitudes antiaborto como participantes do
experimento.

Esta técnica de controlar outras variáveis maximiza a validade interna à


custa da validade externa;

b) Distribuindo aleatoriamente os sujeitos pelas condições


experimentais: sujeito é o nome dado às unidades nos estudos experimentais,
podendo ser pessoas, plantas ou coletividades como colégios eleitorais. No
exemplo citado, se o pesquisador incluir no estudo pessoas que diferem em
escolaridade, religião, preferências dos pais e atitudes em relação ao aborto,
ele poderá eliminar a influência destas variáveis distribuindo as pessoas
aleatoriamente pela suas condições experimentais. A distribuição aleatória
controla os efeitos de todas as variáveis estranhas dos sujeitos que o
pesquisador não quer estudar, mas que também não quer manter constantes
porque isto limitaria a generalidade do estudo.

Esta é a característica definidora de um experimento genuíno.

Ameaças a validade interna dos experimentos

Todo experimento deveria ser delineado para ter validade interna, um


termo que denota que o mesmo está apto para concluir que a variável
independente realmente afeta a variável dependente (BRYMAN, 1989).

Em uma pesquisa, o pesquisador realiza inferências causais para tentar


maximizar a validade interna.

Formular inferências causais é o que fazem os médicos quando tentam


diagnosticar a causa do desconforto de um paciente ou o que fazem os
66
detetives quando identificam a causa de um óbito. O pesquisador, médico e o
detetive devem todos descartar uma lista de hipóteses rivais entre si, para
chegar à causa mais provável.

As hipóteses rivais são ameaças à validade interna da pesquisa. Essas


ameaças podem se dar por uma das seguintes formas (KIDDER, 2004):

a) Maturação: os sujeitos da pesquisa podem ter amadurecido ou se


cansaram diferentemente nas diferentes condições ambientais;

b) História: quando o clima de alterações a que o ambiente pode ser


submetido é diferente para os sujeitos da pesquisa;

c) Seleção: quando os sujeitos não são distribuídos aleatoriamente entre


os grupos pesquisados;

d) Instrumentação: diferenças que podem acontecer com os grupos


pesquisados quando ou como os mesmos foram testados;

e) Regressão em relação à média: quando os sujeitos são selecionados


apresentando, de início, tendências extremas em qualquer das medidas
analisadas.

f) Difusão: tendência de um efeito experimental afetar não somente o


grupo experimental, mas também o grupo de controle.

Em geral, um pesquisador não precisa se preocupar em percorrer a lista


inteira de hipóteses rivais plausíveis para avaliar a validade interna de um
experimento. A distribuição aleatória e o controle cuidadoso das condições
experimentais salvaguardam-no contra a maioria dessas ameaças à validade
interna.

Tipos de experimentos

Em um experimento estuda-se a relação entre dois tipos de variáveis, as


independentes e as dependentes. As variáveis independentes são as causas e
as variáveis dependentes os efeitos.

Em uma manipulação experimental deve-se ter pelo menos um grupo


experimental e um grupo para comparação (ou grupo de controle), criando
desta forma uma variável independente porque há dois valores, tratamento e
não-tratamento.

Existe na literatura alguns delineamentos experimentais clássicos que


serão apresentados a seguir.

67
Para isso, usar-se-á a seguinte notação para descrever os diferentes
delineamentos de pesquisa:

 X: um tratamento, uma variável independente, uma causa;

 O: uma observação, uma variável dependente, um efeito;

 R: um sinal de que os sujeitos foram distribuídos aleatoriamente pelas


condições experimentais.

Contudo, para exemplificar esses delineamentos experimentais


clássicos, vamos apresentar um experimento de campo realizado em 1976 pelo
pesquisador Richard Schulz (KIDDER, 2004).

Seu experimento de campo consistia em estudar os efeitos do controle e


possibilidade de predição sobre o bem-estar físico e psicológico de pessoas
num asilo. Schulz iniciou seu experimento tendo como premissa que: “desde as
pessoas muito jovens, até as muito velhas, e moribundas, as pessoas se
esforçam para controlar seu ambiente”. Ele perguntou a residentes de um asilo
se participariam de um estudo sobre “as atividades diárias de indivíduos
idosos”. Quarenta pessoas concordaram e ele, aleatoriamente, designou-as
para uma das quatro condições experimentais. Tentou incluir em seu estudo
pessoas que não estivessem em contato diário umas com as outras, para
evitar que trocassem impressões e com isso levantassem suspeitas ou
contaminassem os resultados do estudo. Estudantes visitaram três dos quatro
grupos.

Mostraram-se interessados em conhecer algumas pessoas idosas


porque estavam fazendo um curso sobre velhice e achavam interessante obter
alguma experiência direta sobre o assunto. A manipulação experimental era o
grau de controle que os residentes tinham sobre a escolha do momento e
duração das visitas. Foram estabelecidas três variações e um quarto grupo de
comparação.

O primeiro grupo tinha controle sobre as visitas. Os residentes


controlavam tanto a frequência como a duração das visitas dos estudantes.
Eles chamavam as visitas quando desejavam que viessem e determinavam
quanto tempo deveriam ficar.

O segundo grupo podia prever a visita. Estes residentes sabiam quando


seus visitantes apareciam, mas não podiam controlar nem a ocorrência e nem
a duração das visitas. Para tornar estas visitas comparáveis às do primeiro
grupo, cada visitante deste grupo foi pareado com um visitante daquele e
manteve um esquema de visitas semelhantes. Assim, se um residente que
podia controlar a presença do visitante requisitasse visitas diárias com duas
68
horas de duração cada uma, Schulz selecionava um visitante do grupo 2 para
que tivesse encontros similares, todos os dias por duas horas. Isto assegurava
quantidades de visitas equivalentes nos dois grupos e, então, a única diferença
passava a ser os residentes a ocorrência das visitas ou poderem apenas
predizer quando elas ocorreriam.

No terceiro grupo os residentes não podiam controlar nem prever a


ocorrência das visitas. Eles recebiam visitas tão frequentemente e pelo mesmo
tempo que os outros residentes, pois cada visitante deste grupo também foi
pareado com um visitante do primeiro grupo, mantendo o mesmo esquema
daquele, mas sem informar ao residente o horário ou a duração de cada visita.
As visitas eram imprevisíveis do ponto de vista dos residentes e o visitante
chegava sem avisar.

O quarto grupo era o grupo de comparação, que não recebia nenhuma


visita. Os residentes deste grupo não receberam as visitas dos estudantes,
mas foram entrevistados no início e no final do estudo a fim de medir sua
saúde, bem-estar psicológico e nível de atividade.

Delineamento 1: delineamento de dois grupos casualizados

Os sujeitos são distribuídos aleatoriamente para o grupo experimental


(X) ou para o grupo nãoexperimental (não-X). Há uma pequena chance de que
a casualização falhe e que eles difiram em relação à variável dependente (O1 e
O2) mesmo que nenhum tratamento intervenha. Esta é uma possibilidade
pequena e remota, levada em consideração o cálculo de probabilidade ou nível
p.

Este delineamento contém, a grosso modo, o essencial a um


experimento: distribuição aleatória, grupos com tratamento e sem tratamento, e
observações após o tratamento. É necessário ter pelo menos dois grupos para
saber se o tratamento teve algum efeito.

Podem-se descartar várias hipóteses rivais ou ameaças à validade


interna usando este delineamento.

As diferenças pós-tratamento não são um produto de vieses na seleção


dos sujeitos, pois eles foram distribuídos aleatoriamente entre os grupos. As
diferenças pós-tratamento não são um produto da maturação, pois os dois
grupos devem ter amadurecido na mesma proporção. Pode-se eliminar a
história, pois o grupo de tratamento não foi exposto a nenhum outro evento que
o grupo sem tratamento não experienciou. Se os dois grupos foram testados ou
observados sob circunstâncias similares, pode-se eliminar diferenças na
instrumentação com uma explicação.

69
Uma vez que tenham sido eliminadas essas hipóteses rivais, pode-se ter
confiança de que o tratamento experimental tenha ocasionado as diferenças
subsequentes entre os dois grupos (O1 e O2). O delineamento 1 é o mais
simples dentre os delineamentos experimentais propriamente ditos (genuínos).

Delineamento 2: delineamento antes e depois com dois grupos

Este delineamento tem um conjunto adicional de testes ou observações


da variável dependente antes do tratamento experimental, denominados pré-
testes. Os pré-testes apresentam várias vantagens. Permitem verificar a
casualização e permitem ao experimentador perceber se os grupos eram
equivalentes antes do tratamento. Se os grupos não forem equivalentes no pré-
teste, o experimentador pode fazer ajustamentos nas medidas do pós-teste
para possibilitar um teste mais justo do tratamento.

Os pré-testes fornecem também um teste mais sensível dos efeitos do


tratamento permitindo que cada sujeito sirva como seu próprio controle. Em vez
de comparar apenas O2 e O4, o experimentador pode comparar os escores de
cada sujeito no pré e no pós-teste (O1 com O2 e O3 com O4). Quando todos
os escores dos sujeitos no pré-teste diferem entre si e seus escores no pós-
teste refletem algumas destas diferenças individuais preexistentes, o
experimentador ganha precisão ao fazer estas comparações intraindividuais.

Entretanto, o pré-teste tem também algumas desvantagens. Ele pode


sensibilizar os sujeitos para os objetivos do experimento e enviesar seu escore
no pós-teste. Se isso ocorre da mesma forma para os grupos experimental e
controle, seus escores no pós-teste deverão ser igualmente elevados ou
diminuídos e a pré testagem sozinha não seria uma explicação rival para uma
diferença entre O2 e O4. Contudo, se o pré-teste afetar o grupo experimental
de forma diferente do grupo de controle, isto apareceria como uma diferença
nos escores de pós-teste e seria indistinguível de uma diferença produzida
apenas pelo tratamento. O delineamento 2 não fornece nenhuma solução para
este problema.

No exemplo do experimento de Schulz, ele usou uma variação deste


delineamento antes-depois em seu estudo. Em vez de dois grupos, ele tinha
quatro, e todos tiveram pré e pós-testes.

Os pré-testes (letras O com índices ímpares) e pós-testes (letra O com


índices pares) incluíam várias medidas de variável dependente: condições de
saúde, bem-estar psicológico e atividades. Os tratamentos, por outro lado,
eram todos variações de uma variável independente. Qualquer variável
independente única pode ter vários valores ou níveis. Portanto, os quatro X no
diagrama anterior não representam quatro variáveis independentes, mas quatro

70
valores de uma variável independente, denominada “grau de controle sobre as
visitas”.

Schulz não encontrou diferenças entre os quatro grupos após o


tratamento. Ao invés disso, descobriu que os dois primeiros eram semelhantes,
e ambos tinham melhor saúde que os dois últimos, que também eram
semelhantes entre si. Ele concluiu que o importante ingrediente benéfico no
grau de controle era a possibilidade de predição, pois era o que os dois
primeiros grupos tinham em comum.

Delineamento 3: delineamento de quatro grupos de Solomon

Este delineamento combina os dois primeiros. Com este delineamento o


experimentador pode testar definitivamente se as diferenças de pós-teste foram
causadas pelo tratamento, pelo pré-teste ou pela combinação tratamento mais
pré-teste.

O delineamento 3 é um delineamento dispendioso porque requer quatro


grupos de sujeitos para testar os efeitos de apenas dois níveis de um
tratamento. São necessários os quatro grupos porque temos os grupos de pré-
teste e sem pré-teste em conjunto com os grupos experimentais e de controle.

Este delineamento oferece as vantagens isoladas do delineamento 1


(não interferência de efeitos do pré-teste) e do delineamento 2 (maior precisão
advinda dos escores do pré-teste que servem como linha debase com a qual
se comparará os efeitos do tratamento). Além disso, este delineamento permite
ao experimentador observar se a combinação pré-teste mais tratamento
produzem um efeito diferente do que esperaríamos se simplesmente
somássemos os efeitos isolados do pré-teste e do tratamento. Tais
combinações, se forem diferentes da soma dos dois efeitos individualmente,
são denominadas efeitos de interação. Em muitos problemas da ciência social,
as interações são importantes. O delineamento fatorial é o ideal para analisar
as interações.

Delineamento 4: delineamento fatorial

Este delineamento é utilizado quando o experimentador não está


interessado em apenas uma variável experimental, mas em duas. Isso pode
acontecer por várias razões, uma das quais pode ser a convicção de que uma
variável adicional é capaz de moderar o relacionamento entre a variável
independente e a variável dependente. O delineamento fatorial é
frequentemente usado em pesquisa organizacional devido ao aumento do
interesse nas relações que são moderadas por outras variáveis.

71
No diagrama acima, X é uma variável independente e Y é outra. Num
delineamento fatorial duas ou mais variáveis independentes são apresentadas
sempre em combinação. O delineamento completo inclui todas as combinações
possíveis das variáveis independentes (também conhecidas por fatores, daí o
nome de delineamento fatorial).

Uma razão para o emprego de delineamentos fatoriais é a busca de


efeitos de interação. Outra razão é para ser capaz de generalizar os efeitos de
uma variável para vários níveis de outra. Uma terceira razão para incluir mais
de uma variável independente num experimento é estudar os efeitos isolados
daquela variável.

Os delineamentos fatoriais com duas ou mais variáveis independentes,


portanto, apresentam diversas vantagens sobre os delineamentos com um
único fator. Permitem ao investigador descobrir interações bem como efeitos
principais. E se não houver interações permitem ao pesquisador generalizar o
efeito isolado de um fator para dois ou mais valores de outro fator.

Ameaças a validade externa dos experimentos

Segundo Bryman (1989), a validade externa se preocupa com a


extensão na qual os frutos de uma parte da pesquisa podem ser generalizados
além do limite específico do cenário no qual o estudo foi realizado.

Porém, existem diversas fontes potenciais de ameaças à validade


externa. Algumas delas são:

a) Quando um experimento envolve sujeitos em um pré-teste, é possível


que o pré-teste possa sensibilizar os sujeitos e fazê-los mais receptivos ao
tratamento experimental do que normalmente poderiam ser. O simples fato.
Isso poderia limitar a generabilidade das descobertas, uma vez que não seria
possível dizer com certeza se isso poderia ser aplicado a uma população que
não havia sido pré-testada. Para lidar com este tipo de ameaça, uma boa
opção é utilizar o delineamento 3 (delineamento de quatro grupos de Solomon).

b) Tendências na seleção dos sujeitos pode significar que as respostas


dos sujeitos ao tratamento experimental não são representativas. Alguns
pesquisadores ao conduzirem experimentos geralmente não empregam os
procedimentos de distribuição aleatória. Muitas vezes eles preferem
voluntários, que tem um efeito adverso na validade externa.

c) O planejamento experimental pode fixar um certo número de efeitos


reativos que limitam a capacidade do pesquisador a generalizar além do
cenário experimental, porque tais efeitos provavelmente são únicos ao contexto
do experimento.
72
Etapas para se planejar um experimento

Ao se planejar um experimento genuíno, sugere-se o seguinte


procedimento:

a) Planejamento do experimento: nesta etapa o pesquisador escolhe as


variáveis a serem exploradas;

b) Operacionalização das variáveis: o pesquisador deve definir cada


uma das variáveis e também a forma como as mesmas serão mensuradas;

c) Estabelecimento das relações causais (hipóteses): o pesquisador


estabelece as variáveis independentes e as variáveis dependentes do
experimento a ser realizado;

d) Definição das técnicas de análise dos dados do experimento: nesta


etapa a técnica estatística é definida; isto é essencial para a condução do
experimento;

e) Especificação da unidade de análise ou montagem do banco de


ensaio: onde o pesquisador começa a preparação da coleta de dados;

f) Especificação do tempo para a condução do experimento: o momento


do tempo da realização do experimento é fundamental para pesquisas a serem
realizadas no futuro;

g) Projeto do experimento: estabelecimento dos níveis (valores) para


cada variável de controle, estabelecimento da sequência de cada evento da
experimentação (são necessários cuidados em relação a aleatorização dos
eventos de forma a reduzir possíveis erros nas variáveis de controle) e
definição do número de eventos do experimento (verificar se serão necessárias
replicações);

h) Realização do experimento e coleta dos dados: nesta etapa deve


seguir o que foi projetado na etapa de projeto do experimento (letra g);
i) Análise estatística: a técnica de análise estatística escolhida na fase
de análise de dados deve ser aplicada aos dados colhidos;
j) Análise dos resultados: o pesquisador analisa os resultados obtidos na
fase de analise estatística e compara com a teoria existente sobre o tema que
foi experimentado;
k) Conclusão: o pesquisador apresenta os resultados em relação a
hipótese estabelecida na etapa de estabelecimento de hipóteses (letra c);

l) Redação e publicação dos resultados.

73
CAPÍTULO 8 – ESTRATÉGIA DE PESQUISA II: MODELAGEM E
SIMULAÇÃO

Origem da modelagem e simulação

A evolução da simulação está intrinsecamente relacionada à evolução


tanto de hardware quanto das inovações de software.

Nas décadas de 60 e 70 a simulação era excessivamente cara e


utilizava ferramentas que, geralmente, só eram disponíveis em grandes
corporações. A mão de obra precisava ser especializada, pois a construção e
execução de modelos dependiam de conhecimentos muito acima da média
observada em usuários comuns. O grupo que trabalhava em simulação
geralmente era composto por doutores, trabalhando em universidades, centros
de pesquisa e no meio militar, que desenvolviam sistemas grandes e
complexos utilizando as linguagens disponíveis na época, tais como o Fortran.
As execuções eram sofríveis, pois, naquela época, os computadores eram
menos poderosos que os atuais computadores embarcados em automóveis.

No final da década de 70 e início da década de 80, os computadores


foram se tornando mais rápidos e mais baratos. Nesta época, por exemplo, as
linhas de montagens de carros passaram a utilizar a simulação para resolver
problemas tais como de segurança e otimização da linha. Nesta mesma época,
a simulação começou a ser utilizada em negócios e por estudantes e
pesquisadores que descobriram seu potencial. A simulação foi difundida nos
setores de engenharia e negócios, graças ao surgimento de linguagens
próprias de simulação. O aprendizado e ‘debugging’, porém, ainda eram
longos.

No final da década de 80 o valor da simulação foi reconhecido por


muitas organizações. Tanto, que várias delas fizeram da simulação um
requisito para que investimentos grandes pudessem ser aprovados. No
entanto, organizações pequenas raramente utilizavam essa técnica. Os
computadores pessoais (Pc’s) permitiram o surgimento de várias ferramentas
de simulação manipuláveis por qualquer profissional.

Nos anos 90 a simulação atingiu um grau de maturidade suficiente para


que seja adotada por organizações de variadas áreas e diferentes portes. É
utilizada em estágios iniciais de projetos, em animações, pesquisa, entre
outros. Este avanço foi principalmente possível pelo surgimento de ferramentas
voltadas para a simulação e fáceis de usar, e pela disponibilidade de
computadores mais rápidos e baratos.

74
Com os atuais softwares de simulação de 4a. geração, o tempo e
esforço dispendido num projeto de simulação se concentra mais na atividade
de análise dos resultados e menos na programação e ‘debugging’.

À primeira vista isto pode parecer frustrante a um professor da área que


estava habituado a lecionar programação e debugging. A ênfase agora deve
ser dada à sistemática de análise, o que inclusive viabiliza muito a utilização
prática de simulação nas indústrias. O quadro 8.1 apresenta as gerações dos
softwares de simulação.

O que é a modelagem e simulação e quando ela pode ser utilizada

Segundo Chung (2004), a modelagem e simulação é o processo de criar


e experimentar um sistema físico através de um modelo matemático
computadorizado. Um sistema pode ser definido como um conjunto de
componentes ou processos que se interagem e que recebem entradas e
oferecem resultados para algum propósito.

O propósito de se conduzir uma pesquisa através da modelagem e


simulação de sistemas é:

 Conhecer mais a fundo a forma de operação do sistema;

 Desenvolver políticas operacionais e recursos para aperfeiçoar o


desempenho do sistema;

 Testar novos conceitos e/ou sistemas antes de implementá-los;

 Obter informações sem incomodar o sistema atual.

Para Pereira (2000), a simulação computacional é a representação de


um sistema real através de um modelo utilizando um computador, trazendo a
vantagem de se poder visualizar esse sistema, implementar mudanças e
responder a testes do tipo “o que aconteceria se” (what-if), minimizando custos
e tempo. Desse modo, o objetivo da simulação é estudar o comportamento de
um sistema, sem que seja necessário modificálo ou mesmo construí-lo
fisicamente.

Segundo Seila (1995), um sistema é um conjunto de componentes ou


entidades interativos. Esses sistemas podem ser discretos ou contínuos, ou
uma combinação de ambos. Os sistemas discretos são aqueles em que as
variáveis envolvidas assumem valores finitos ou infinitos numeráveis (por
exemplo, peças que chegam a uma máquina) e os sistemas contínuos são
aqueles em que as variáveis mudam continuamente no tempo (por exemplo,
quilômetros rodados pelos caminhões na simulação de um sistema logístico).
75
Neste caso, as linguagens de simulação devem estar em condições de resolver
sistemas de equações diferenciais. Nas simulações de eventos discretos os
programas são dotados de um relógio, que é inicializado com o evento ao qual
está vinculado e avança até que o próximo evento esteja programado
(PEREIRA, 2000).

Um modelo é a representação abstrata e simplificada do sistema


(SEILA, 1995). Os modelos de simulação também podem ser determinísticos
ou estocásticos. Os modelos são determinísticos quando as variáveis que dão
entrada que representam o sistema assumem valores exatos, assim, os
resultados desse tipo de simulação serão sempre os mesmos
independentemente do número de replicações que se fizer para o modelo. O
modelo estocástico permite que se dê entrada com uma coleção de variáveis
que podem assumir diversos valores dentro de uma distribuição de
probabilidades, distribuição esta que pode ser definida pelo modelador. Os
resultados gerados pelos modelos estocásticos são diferentes a cada
replicação, em razão da natureza aleatória das variáveis que dão entrada no
modelo (PEREIRA, 2000).

A simulação terminante é aquela em que se está interessado em estudar


o comportamento do sistema num dado intervalo de tempo de simulação.
Quando se está interessado em estudar o sistema a partir do momento em que
o mesmo atingir um estado estável (steady-state), a simulação é dita não
terminante (PEREIRA, 2000).

Quando os modelos de simulação representam o sistema sem levar em


conta sua variabilidade com o tempo, ou seja, é uma representação do sistema
congelado num determinado momento, é dito estático. O modelo é dinâmico,
quando representa o sistema a qualquer tempo, a exemplo dos modelos que
representam uma linha de produção durante um turno de oito horas (PEREIRA,
2000). O quadro 8.2 apresenta um resumo desses conceitos apresentados
anteriormente para facilidade de visualização.

Muitas operações dos sistemas estão sujeitas a variabilidade, muitas


delas estão interconectadas e ainda são complexas. Robinson (2004) afirma
que a variabilidade pode ser previsível (paradas programadas em uma
instalação fabril) ou imprevisíveis (taxa de chegada dos pacientes na
emergência de um hospital); os componentes de um processo estão
interconectados, uma vez que trabalham de forma isolada, mas afetando uns
aos outros; e, finalmente, a complexidade de um sistema pode ser
combinatorial (relacionada ao número de componentes do sistema ou ao
número de combinações possíveis entre os componentes de um sistema) ou
dinâmica (a partir da interação entre os componentes do sistema ao longo do
tempo).
76
A maioria das operações dos sistemas é interconectada e sujeita a
variabilidade e complexidade (combinatorial e dinâmica). Devido a dificuldade
de se predizer o desempenho dos sistemas sujeitos a variabilidade,
interconectividade ou complexidade, é muito difícil, senão impossível, predizer
o desempenho dos sistemas operacionais que estão potencialmente sujeitos
aos três tópicos. Os modelos de simulação, entretanto, são aptos para
representar explicitamente a variabilidade, a interconectividade e a
complexidade de um dado sistema. Como resultado, é possível com a
simulação predizer o desempenho de um sistema, comparar projetos de
sistemas alternativos e determinar o efeito das políticas alternativas no
desempenho do sistema.

Harrel, Ghosh e Bowden (1996) consideram que a simulação é bastante


adequada quando:

 é difícil, ou mesmo impossível, o desenvolvimento de um modelo


matemático;

 o sistema possuir variáveis aleatórias;

 houver complexidade na dinâmica do processo;

 deseja-se observar o comportamento do sistema por um determinado


período;

 o uso da animação for importante para visualizar o processo.

Chung (2004) destaca as seguintes vantagens para o uso da simulação:

 a experimentação pode ocorrer em um curto período de tempo, em


virtude do apoio computacional;

 menor necessidade de análise, uma vez que os pacotes de softwares


disponíveis no mercado facilitam a análise dos dados;

 facilidade da demonstração dos modelos, em virtude da alta capacidade


gráfica dos pacotes de softwares disponíveis no mercado para a
simulação.

Robinson (2004) considera que a simulação tem as seguintes


desvantagens:

 custo elevado, uma vez que os softwares tem um alto custo de


aquisição. Além disso, se for necessária a contratação de consultores
para a construção do modelo, o custo pode ser ainda mais alto;

77
 consome muito tempo e os benefícios podem não ser imediatos;

 a maioria dos modelos para simulação requerem uma quantidade


significativa de dados;

 requer habilidade dos analistas/pesquisadores, pois os softwares não


analisam os dados por si só. Entre as habilidades necessárias pode-se
citar a modelagem conceitual, validação e estatística;

 confiança exagerada no modelo deve ser evitada. Consideração deve


ser dada para a validade do modelo e para as simplificações realizadas
no mesmo.

Para não dizer que simulação pode se aplicar a praticamente todo tipo
de sistema, a seguir apresenta-se um enquadramento das aplicações em
contextos mais específicos:

 Tempo: redução dos tempos improdutivos, nos quais não se agrega


valor a um item.

Num cenário típico, 1 peça é usinada; espera alguém p/ lhe movimentar;


é deslocada até o próximo posto; e aguarda a disponibilidade da próxima
máquina ou operador. Nestas quatro etapas, apenas a primeira agrega valor.
Técnicas como JIT, kanban e balanceamento de linhas buscam solucionar este
problema. A simulação comporta bem as inconsistências inerentes ao meio
produtivo, ao admitir a adoção de valores estocásticos nos tempos de
processos, quebras, chegadas de MP, etc. Desta forma, simulação permite ao
modelador a adoção do tamanho dos lotes, procedimentos e controles mais
sintonizados à realidade do chão-de-fábrica;

 Manuseio de material: projeto de sistemas de manuseio e transporte


mais eficazes e adequados;

 Layout e planejamento de capacidade: projeto de layout otimizado e


previsão realista da capacidade produtiva tanto para instalações novas,
quanto para alterações ou ampliações;

 Apoio ao PCP: a simulação auxilia a equacionar a programação dos


lotes, dentro do conflito imposto aos programadores - minimizar e
garantir os tempos de entrega dos produtos X maximizar a carga-
máquina e a utilização dos recursos;

 Avaliação de novas tecnologias: compara o desempenho e a relação


custo/benefício entre a sistemática corriqueira e o sistema dotado de

78
novas tecnologias, para avaliação da viabilidade técnica e comercial do
investimento;

 Estocagem e distribuição: definição de melhores alternativas de pontos e


características de estoques e sistemas de distribuição;

 Logística: adequação da programação de suprimentos entre


departamentos de uma empresa, ou da empresa com seus fornecedores
e clientes;

 Manutenção e meio ambiente: melhor adequação dos programas de


manutenção e do fluxo e manuseio de resíduos recicláveis ou nocivos.

Implementação da modelagem e simulação

Segundo Bertrand e Franzoo (2002), a metodologia de pesquisa na


modelagem quantitativa da gestão de operações tradicionalmente não é
percebida como um assunto. A mais antiga contribuição para a discussão
sobre metodologia em simulação foi apresentada por Mitroff em 1974, cujo
modelo é apresentado na figura 8.1.

Neste modelo a abordagem operacional de pesquisa consiste de quatro


fases: conceitualização, modelagem, solução pelo modelo e implementação.

Na fase de conceitualização, o pesquisador cria o modelo conceitual do


problema e do sistema sob estudo, toma decisões sobre as variáveis que
necessitam ser incluídas no modelo e sobre o escopo do problema e do
modelo a serem estudados.

Na fase de modelagem, o pesquisador realmente constrói o modelo


quantitativo, definindo as relações causais entre as variáveis.

Na fase de solução pelo modelo, em geral, a matemática desempenha


um papel determinante.

Finalmente, na fase de implementação, os resultados do modelo são


implementados e um novo ciclo pode começar.

Conceitualização

Segundo Robinson (2004), a motivação para um estudo de simulação é


o reconhecimento de que um problema realmente existe no mundo real. O
problema deve abranger um sistema existente ou um entendimento sobre um
sistema proposto.

79
Para Seila (1995), uma declaração clara e concisa do problema de
decisão ou a razão para se desenvolver o modelo de simulação é a primeira
ação desta fase. O pesquisador deveria saber os tipos de decisões a serem
antecipadas e qual o sistema envolvido. Segundo Robinson (2004), em muitos
casos, o próprio cliente tem condições de explicar e descrever as operações do
sistema do mundo real que é o coração da situação problema para a definição
do modelo conceitual.

O modelo conceitual, segundo Robinson (2004), é uma descrição


específica do modelo de simulação, não se importando com o software,
descrevendo os objetivos, entradas, saídas, conteúdo, suposições e
simplificações do modelo.

Outro ponto importante nesta fase é a definição dos objetivos da


simulação. Para Robinson (2004) ela significa a natureza pela qual o modelo é
determinado, o ponto de referência para a validação do modelo, o guia para a
experimentação e uma das métricas pela qual o sucesso do estudo é julgado.

Os objetivos definem o que se espera atingir com o estudo, o nível de


desempenho esperado e as restrições existentes.

O pesquisador deve conhecer a fundo o sistema que está sendo


analisado. Se o sistema existe, ele deve ser cuidadosamente estudado,
inclusive através de observações de suas operações e de entrevistas com as
pessoas que gerenciam o sistema. Os componentes desse sistema e suas
interações devem ser identificadas e descritas como um prelúdio para a fase de
modelagem (construção do modelo computacional).

Todos os parâmetros de entrada potenciais e variáveis aleatórias


envolvidas com o modelo deveriam ser identificadas (SEILA, 1995). Dessa
forma, cada variável aleatória do modelo deve ser examinada e a forma da sua
distribuição e a de seus parâmetros determinada.

As técnicas de fluxograma do processo e mapofluxograma do processo


são utilizadas visando exatamente um melhor planejamento da simulação,
como ilustra a figura 8.2. Estas técnicas auxiliam o modelador a representar da
forma mais próxima a real o sistema que será simulado. O resultado do
mapeamento do processo, geralmente, é uma representação gráfica, o qual
mostra como os recursos de entrada são processados e transformados em
saídas, destacando-se a relação e a conexão entre cada atividade. Além disso,
é interessante coletar dados para as variáveis de entrada do sistema, indicando
inclusive os equipamentos/máquinas do mundo real que serão objeto da
simulação, como mostra a figura 8.3.

80
Modelagem

Segundo Robinson (2004), na etapa de modelagem, o modelo conceitual


é convertido no modelo computadorizado. O modelo pode ser programado
através de uma planilha eletrônica, de um software especialista em simulação
ou de uma linguagem de programação.

A natureza desta etapa irá depender em grande parte do software para


simulação escolhido para a implementação do modelo. O pesquisador pensa
pela primeira vez em como relacionar o modelo conceitual com o modelo
computacional.

Segundo Robinson (2004), este modelo computacional deve ser


desenvolvido de forma incremental, documentando-o e testando-o a cada
passo, de forma que os erros possam ser identificados previamente, ao
contrário do que aconteceria se os testes para verificar a
confiabilidade/validade do modelo fossem deixados para depois de que todo o
modelo estivesse pronto. A maioria dos softwares disponíveis para simulação
permite essa abordagem incremental na construção dos modelo típico a ser
simulado é composto de:

 Locais: postos físicos (máquinas, áreas de depósito, esteiras


transportadoras) onde são realizados os processos;

 Entidades: elementos (peças, lotes, etc.) que transitam pelos locais e


sofrem processamento;

 Recursos: elementos (funcionários, empilhadeiras, etc.) que auxiliam no


transporte das entidades entre os diferentes locais ou na execução dos
processos;

 Processos: operações realizadas no sistema (roteiros e procedimentos


de fabricação).

Finalmente, o modelo computacional desenvolvido deve ser


documentado. A documentação serve para lembrar ao pesquisador o que foi
feito na elaboração do modelo, permite que outro pesquisador continue o
desenvolvimento do modelo ou faça melhorias ao mesmo ou permite ainda que
uma parte do atual modelo seja reutilizada em um outro modelo para uma
aplicação similar ou mesmo diferente.

Solução pelo modelo

Para Robinson (2004), uma vez desenvolvido o modelo,


experimentações são realizadas através do modelo simulado para se obter um
81
melhor entendimento do mundo real ou para encontrar soluções para os
problemas do mundo real. Trata-se de um processo de análise what-if, ou seja,
fazer alterações nas entradas do modelo, rodar o modelo, analisar os
resultados, aprender com os resultados, fazer alterações na entrada e assim
sucessivamente.

Segundo Seila (1995), uma boa ideia é armazenar os dados obtidos ao


se rodar o modelo computacional de forma que não se necessite repetir o
processo no caso de alguma alteração no procedimento usado para analisar os
dados. Uma vez que o modelo começa a rodar e a gerar os resultados, é
preciso aplicar os procedimentos de análise estatística dos dados para avaliar
o desempenho do sistema.

Robinson (2004) considera que os experimentos através da simulação


podem se dar por experimentação interativa ou por lote. A primeira envolve
observar a simulação rodar e fazer alterações ao modelo para ver os possíveis
efeitos. O objetivo deste primeiro tipo é desenvolver um entendimento maior
sobre o modelo (e do sistema real), das principais áreas de problemas e
identificar as soluções potenciais, facilitando a tomada de decisão. Na
experimentação por lote, os fatores experimentais são definidos e o modelo é
colocado para rodar por um dado número de replicações. O objetivo é rodar o
modelo por um tempo suficiente e obter resultados estatísticos significativos.
Os softwares de simulação possuem aptidões especiais para rodar esse tipo de
experimentação, como ilustra a figura 8.5.

Implementação

Robinson (2004) afirma que a implementação pode ser interpretada de


três formas. A primeira pela implementação das descobertas do estudo de
simulação no mundo real. A segunda é a implementação do modelo ao invés
de suas descobertas; e a terceira é interpretar a implementação como um
aprendizado, que pode ser colocada em prática apenas em uma tomada de
decisão futura.

No primeiro caso, ou seja, a implementação das descobertas do estudo


de simulação, um relatório final deve ser elaborado descrevendo a situação
problema e os objetivos do projeto, um resumo do modelo, os experimentos
realizados e destacando os resultados obtidos, uma lista das conclusões e
recomendações e, finalmente, relatando sugestões para simulações futuras. No
processo de implementação são os clientes que determinam quais das
recomendações do estudo de simulação serão colocadas em prática no mundo
real.

82
O segundo caso envolve entregar uma cópia do estudo de simulação
desenvolvido ao cliente, de forma que ele possa rodar o modelo no momento
em que achar mais oportuno ou que necessitar dos Metodologia de Pesquisa
em Engenharia de Produção Estratégias, métodos e técnicas para condução
de pesquisas quantitativas e qualitativas resultados para tomar uma decisão.
Neste caso, é necessária a documentação adequada do modelo e o
treinamento dos clientes para sua correta utilização.

No terceiro caso o pesquisador, o usuário da simulação e os clientes


ganham um maior entendimento do mundo real não apenas a partir dos
resultados dos experimentos da simulação, mas de todo o processo de
desenvolvimento e uso do modelo de simulação.

Verificação e validação

A verificação é o processo que assegura que o modelo conceitual foi


transformado em um modelo computacional com precisão adequada
(ROBINSON, 2004). Seila (1995) completa que trata-se basicamente de um
processo de “debugging”, mas que pode ser complicado pelo fato do programa
de simulação envolver variáveis aleatórias cujos valores não podem ser
prognosticados antecipadamente.

Segundo Duarte (2003), verificar o modelo é realizar um trabalho de


depuração da programação procurando dois tipos de erros: erros de sintaxe e
erros de semântica. As principais técnicas de verificação são: revisar a
codificação (programação) do modelo, verificar se a resposta de saída do
modelo é coerente, verificar se a animação é coerente com a realidade ou com
o esperado, usar o recurso de detecção de erros do pacote do software
utilizado.

Para Seila (1995) a validação é o processo que assegura que o modelo


computacional se aproxima adequadamente do comportamento desejado do
sistema real. Geralmente a validação envolver coletar dados do sistema real e
do sistema simulado, comparando-os e certificando-se de que os resultados
não diferem substancialmente.

A validação, portanto, vem a ser uma avaliação de o quanto o modelo


que foi construído é semelhante ao sistema real que se pretendeu simular, no
aspecto de se questionar se esse modelo atende ou não, às finalidades para as
quais foi construído, ou seja, se está dando resposta conveniente ao problema
que foi levantado ao se iniciar o projeto de simulação (PEREIRA, 2000).

Segundo Pereira (2000), apesar de não haver uma metodologia que


garanta a hipótese de que o sistema seja válido para os objetos propostos,

83
algumas propostas ajudam na tomada de decisão e podem reduzir as
probabilidades de que se esteja tomando a decisão errada, validando um
modelo que vai gerar resultados não confiáveis, ou invalidando um modelo
bom, ocasionando perda inútil de tempo. As técnicas mais comuns de
validação utilizadas são (DUARTE, 2003):

a) Observação da animação: o comportamento operacional do modelo é


disposto graficamente da forma como o modelo se movimenta ao longo do
tempo e similar com o que acontece no mundo real (SARGENT, 2005);

b) Comparação com o sistema atual: comparação dos dados das


variáveis do modelo computacional e o mundo real;

c) Comparação com outros modelos já validados;

d) Mudanças nos parâmetros de entrada: mudar os dados de entrada e


verificar se as respostas que serão fornecidas serão próximas às respostas que
o sistema real daria. Este teste também vai realizar uma análise de
sensibilidade, de modo a indicar ao modelador quais são os parâmetros para
os quais se deve dar maior atenção na coleta de dados, tendo em vista o seu
nível de influência nas saídas do programa.

e) Validação por aparência: onde as pessoas que dominam o


conhecimento do sistema são convidadas a opinar sobre a aparência final do
resultado;

f) Teste com dados históricos do sistema real: se existirem dados


históricos, parte é usado para a construção do modelo e a outra parte é usada
para determinar se o sistema computacional se comporta de forma similar ao
sistema real (SARGENT, 2005);

g) Condução de turing tests: Nesse teste as respostas dadas pelo


modelo e as respostas que são dadas pelo sistema modelado, são ambas
entregues a pessoas que conheçam o sistema. A essas pessoas não é dito
quais são as respostas do sistema e do modelo, para que não sejam
influenciadas em sua opinião.

Caso essas pessoas conseguirem distinguir entre os dois conjuntos


dados, devem explicar ao pesquisador que distinção encontrou. Essas
diferenças são então analisadas uma a uma, juntamente com o pesquisador,
que dessa forma poderá implementar mudanças no modelo de maneira a
aproximar os resultados (PEREIRA, 2000).

h) Desenvolvimento do modelo juntamente com o usuário: os modernos


softwares de simulação possibilitam a animação. Através dessa animação, o
84
modelador pode interagir facilmente com as pessoas que conhecem o sistema,
além de motivá-las para o envolvimento com o estudo de simulação (PEREIRA,
2000).

i) Recorrer a especialistas: o pesquisador poderá recorrer ao auxílio de


pessoas que conheçam um sistema similar, ou mesmo dos fornecedores de
equipamentos. A validade nesses casos pode até mesmo ser verificada através
de outros sistemas similares existentes, ou mesmo que não se tenha o sistema
todo, mas apenas uma parte deste, a validação através da comparação com o
sistema real poderia ser feita somente para aquele determinado módulo que se
tem.

Softwares para simulação

Os softwares de simulação foram desenvolvidos para superar as


deficiências associadas com a modelagem de sistemas complexos baseados
em uma linguagem de propósito geral como Fortran, C, Pascal ou Basic.
Algumas das vantagens da utilização de um software de simulação são:

 O tempo de programação é significativamente reduzido, pois o software


provê maior flexibilidade para tarefas como geração de números
aleatórios a partir de uma distribuição de probabilidade, avançar o tempo
de simulação, determinar o próximo evento, coletar e analisar dados,
informar os resultados e adicionar ou apagar registros.

 Os blocos de construção básicos no software de simulação representam


a simulação do sistema real em um formato melhor. O layout dos blocos
representa o fluxo de entidades em uma forma clara. O código de
programação em uma linguagem como o FORTRAN é mais difícil
entender.

 Os modelos de simulação são, geralmente, mais fáceis de alterar


quando escrito em uma linguagem de simulação porque envolve alterar
um código em um bloco particular, que pode ser facilmente descoberto
por meio de ferramentas de verificação e depuração. Uma linguagem de
programação necessita que mudanças sejam feitas em um grande
número de linhas, dificultando sua detecção.

 A descoberta de um erro é mais fácil, uma vez que um menor número de


linhas de código tem que ser escritas.

A crescente popularidade de uso da simulação como ferramenta de


modelagem e análise de problemas resultou em uma vasta e também
crescente disponibilidade de softwares de simulação no mercado. Como estes
softwares normalmente representam dispêndios consideráveis para as
85
empresas que adquirem uma licença de uso, sua seleção adequada passa a
ser um dos fatores chave no sucesso dos projetos de simulação a serem
futuramente desenvolvidos. Assim sendo, esta seleção deverá ser feita cada.

86
CAPÍTULO 9 – ESTRATÉGIA DE PESQUISA III: PESQUISA
LEVANTAMENTO OU SURVEY.

Origem da pesquisa levantamento

Segundo Groves et al. (2004), talvez o mais antigo tipo de levantamento


é o censo, realizado por instituições ligadas ao governo para saber o número
de habitantes de uma dada localidade. Biemer e Lyberg (2003) contam que no
Velho Testamento existem passagens que falavam em censo bíblico.

Os métodos básicos de amostragem empregados em surveys foram


introduzidos entre as décadas de 1930 e 1940. As escalas formais de medida
foram desenvolvidas por Likert e outros pesquisadores entre os anos de 1924 e
1950. Em 1940, pesquisas acadêmicas extensivas foram realizadas a respeitos
dos instrumentos utilizados nas surveys para identificar os pontos fortes e
fracos do desenvolvimento de questionários (BIEMER e LYBERG, 2003).

Os questionários em papel enviados pelo correio foram testados pela


primeira vez na década de 1960 para a realização de um censo nos Estados
Unidos e na década de 1970 estes censos já eram realizados utilizando-se
deste procedimento. Posteriormente, a realização de pesquisas via survey
evoluiu para a utilização do telefone como instrumento, devido a expansão
deste tipo de tecnologia. Na década de 1990, contudo, as pesquisas de
marketing partiram para a realização de survey face-a-face. Atualmente, nos
EUA apenas o governo federal continua a empregar este tipo de levantamento
(GROVES et al., 2004).

Assim como esses vários desenvolvimentos evoluíram, esse campo de


pesquisa desenvolveu um conjunto de diretrizes para a realização desta
estratégia de pesquisa com qualidade. São essas diretrizes que estaremos
comentando nos próximos tópicos desse capítulo.

87
O que é a pesquisa levantamento e quando ela pode ser utilizada

A pesquisa levantamento ou survey, segundo Fink e Kosecoff (1998), é


um método de coleta de informações diretamente de pessoas a respeito de
suas ideias, sentimentos, saúde, planos, crenças e de fundo social,
educacional e financeiro. Uma survey pode ser feita através de um questionário
autoadministrado onde alguém completa os dados com ou sem assistência.
Esse questionário pode ser enviado pelo correio ou por e-mail. A survey pode
ainda ser feita através de entrevistas pessoais ou por telefone.

Segundo Filippini (1997), a survey pode ter três objetivos:

 Pesquisa levantamento exploratória: quando o objetivo é obter uma


percepção preliminar a respeito de um tópico, fornecendo a base para
um levantamento mais profundo. Esse tipo de pesquisa pode auxiliar na
determinação de conceitos a serem medidos em relação ao fenômeno
88
de interesse, em qual a melhor forma de medi-los e em como descobrir
novas facetas do fenômeno sob estudo. Em alguns casos, este tipo de
survey pode ser realizado utilizando dados coletados em estudos
anteriores.

 Pesquisa levantamento confirmatória (ou teste de teoria ou


explanatória): realizada quando o conhecimento de um fenômeno foi
articulado de forma teórica utilizando conceitos, modelos e proposições
bem definidos. Neste caso, a coleta de dados é realizada com a
finalidade específica de testar a adequação dos conceitos desenvolvidos
em relação ao fenômeno, das ligações hipotéticas entre os conceitos e
da fronteira da validade dos modelos. Os estudos longitudinais são mais
úteis para este tipo de survey.

 Pesquisa levantamento descritiva: realizada para entender a relevância


de um certo fenômeno e descrever a distribuição do fenômeno em uma
população. Sua finalidade primária não é o desenvolvimento de teorias,
embora através dos fatos descritos ela pode fornecer sugestões úteis
para a construção da teoria e para o refinamento da teoria.
Tradicionalmente, a maioria das pesquisas levantamento em gestão de
operações foram realizadas para propósitos descritivos.

Segundo Fink e Kosecoff (1998), a survey pode ser usada para fazer
política ou para planejar e avaliar programas e conduzir pesquisas quando a
informação necessária deve ser extraída diretamente de pessoas. Os dados
fornecidos por essas pessoas são descrições de atitudes, valores, hábitos e
características básicas como idade, saúde, educação e renda.

Vínculo com o nível teórico

A pesquisa de levantamento de teste da teoria é um longo processo que


pressupõe a preexistência de um modelo teórico (ou de uma estrutura
conceitual).

Segundo Forza (2002), antes de iniciar a pesquisa de levantamento de


teste da teoria, o pesquisador precisa estabelecer o modelo conceitual
fornecendo:

 Nomes do construto e definições nominais: identificação e definições


claras de todos os construtos (conceitos teóricos ou variáveis)
considerados relevantes.

 Proposições: apresentação e discussão do papel dos construtos


(independente, dependente, interveniente, moderado), as ligações

89
importantes entre eles e uma indicação da natureza e direção das
relações (especialmente se disponíveis de descobertas anteriores).

 Explicação: uma clara explicação do porque do pesquisador esperar


observar essas relações e, eventualmente, ligações com outras teorias.

 Condições limites: definição das condições sob as quais o pesquisador


pode esperar estas relações aconteçam; isso inclui a identificação do
nível de referência dos construtos e suas declarações de relações (onde
o pesquisador pode esperar que o fenômeno exista e se manifeste – em
nível individual, grupal, funcional ou organizacional).

Normalmente, a estrutura teórica é representada através de um


diagrama esquemático, como o da figura 9.1.

Uma vez que os construtos, suas relações e suas condições limites


foram articuladas, as proposições que especificam as relações entre os
construtos devem ser traduzidas em hipóteses. Segundo Groves et al. (2004),
construtos são elementos da informação que são explorados pelos
pesquisadores.

Contudo, antes do pesquisador pensar em como coletar os dados é


necessário:

 Definir a unidade de análise;

 Fornecer e testar as definições operacionais;

 Traduzir as proposições em hipóteses.

A unidade de análise se refere ao nível de agregação dos dados durante


a subseqüente análise. As unidades de análise na gestão de operações podem
ser indivíduos, grupos, plantas, divisões, empresas, projetos, sistemas, etc. É
necessário determinar a unidade de análise quando da formulação das
questões de pesquisa. Os métodos de coleta de dados, o tamanho da amostra
e mesmo a operacionalização dos construtos podem algumas vezes ser
determinados ou guiados pelo nível no qual os dados estarão agregados no
momento da análise. Quando o nível de referência é diferente da unidade de
análise o pesquisador irá encontrar um problema de inferência de nível
cruzado.

O primeiro problema que um pesquisador enfrenta é a transformação


dos conceitos teóricos em elementos observáveis e mensuráveis. Se o
conceito teórico é multidimensional, então todas as suas dimensões precisam
encontrar os correspondentes elementos na definição operacional. Esta ação
90
serve para reduzir a abstração dos construtos de forma que eles possam ser
mensurados.

A tradução dos conceitos teóricos em definições operacionais pode ser


muito diferente de um construto a outro. Enquanto alguns construtos permitem
medidas objetivas e precisas, outros são mais nebulosos, especialmente
quando sentimentos, atitudes e percepções de pessoas estão envolvidos.
Segundo Groves et al. (2004), as medidas são mais concretas que os
construtos. As medidas são formas de se coletar informações a respeito dos
construtos e, em geral, são constituídas de questões propostas a um
respondente usando-se de palavras.

O processo de identificar os elementos a serem inseridos na definição


operacional pode incluir o contato com aqueles que fazem parte da população
de interesse para adquirir conhecimento prático de como o construto é visto em
organizações reais e identificando elementos específicos importantes da
indústria que está sendo estudada.

Quando a definição operacional foi desenvolvida, o pesquisador deveria


testá-la quanto a sua validade de conteúdo. A validade de conteúdo da medida
de um construto pode ser definida com o grau no qual a medida abarca o
domínio da definição teórica do construto. Esta é a extensão na qual a medida
captura as diferentes facetas do construto.

Uma hipótese é uma relação logicamente conjecturada entre duas ou


mais variáveis (medidas) expressas na forma de declarações testáveis. Uma
hipótese pode também testar se existem diferenças entre dois grupos (ou
diversos grupos) com respeito a qualquer variável. As hipóteses podem ser
estabelecidas nos formatos de proposição ou de declaração do tipo se-então
(if-then).

Projeto

O projeto da pesquisa levantamento inclui todas as atividades que


precedem a coleta de dados. Antes de embarcar em um levantamento de teste
da teoria, o pesquisador deveria considerar a conveniência do método desse
levantamento e da viabilidade geral do projeto de pesquisa, visando considerar
as restrições macro.

Tempo, custo e requisitos de recursos gerais podem restringir um projeto


de pesquisa levantamento, forçando um tipo de levantamento mais barato ou,
no extremo, torná-lo inviável. Outras possíveis restrições são a acessibilidade
da população e a viabilidade de envolvimento dos informantes certos. Para
avaliar adequadamente a parcimônia das restrições o pesquisador deveria

91
identificar as principais necessidades de informações (horizonte de tempo,
natureza da informação, etc.) que fluem das hipóteses formuladas e, em última
instância, dos vários propósitos do estudo. Se o estudo requer informação que
é considerada de natureza confidencial pelos respondentes, então o custo e o
tempo para conseguir a informação é provavelmente alto e um número de
alternativas para o projeto da pesquisa pode não ser viável.

As grandes decisões sobre a coleta de dados (telefone, entrevista ou e-


mail) e horizonte de tempo (transversal ou longitudinal) devem ser tomadas
antes de projetar e selecionar a amostra e de elaborar o questionário e outros
materiais.

Para tratar da definição da amostra alvo é necessário conhecer a


definição de alguns termos.

A amostragem supera as dificuldades de coleta de dados de uma


população inteira, que seria impossível ou proibitiva em termos de tempo, custo
e outros recursos humanos. Um projeto de amostra pobre pode restringir a
aplicação de técnicas estatísticas mais apropriadas e a generalização dos
resultados. Dois tópicos devem ser cuidados: aleatoriedade e tamanho da
amostra.

Os projetos de amostras podem ser do tipo probabilísticos ou não-


probabilísticos. A amostra probabilística é usada para assegurar a
representatividade da amostra quando o pesquisador está interessado na
generalização dos resultados.

A amostragem aleatoriamente estratificada é um tipo muito útil de


amostragem pois ela fornece mais informação para um dado tamanho de
amostra. Este procedimento assegura alta homogeneidade dentro de cada
92
estrato e a heterogeneidade entre os estratos. Ela permite a comparação dos
subgrupos da população e também o controle de fatores tais como tipo ou
tamanho da indústria que frequentemente afetam os resultados.

O tamanho da amostra é um tópico complexo que está ligado ao nível de


significância, a potência do teste estatístico e também ao tamanho da relação
pesquisada. Uma potência do teste alta é necessária para reduzir a
probabilidade de falha em detectar um efeito quando o mesmo está presente.
Para este tipo de análise utiliza-se o teste de hipóteses. Segundo Freitas et al.
(2000), o tamanho da amostra deve ser estabelecido considerando-se alguns
aspectos: se o universo é finito ou infinito, o nível de confiança estabelecido
(usualmente 95%), o erro permitido (normalmente não superior a 5%) e a
proporção em que a característica foco da pesquisa se manifesta na
população.

Os métodos de coleta de dados mais utilizados na pesquisa


levantamento são a entrevista e o questionário. As entrevistas podem ser
estruturadas ou não-estruturadas. Elas podem ser conduzidas face-a-face ou
por telefone. Os questionários podem ser administrados pessoalmente, por
telefone, por correio ou por e-mail para os respondentes. O pesquisador pode
também utilizar o telefone para melhorar a taxa de resposta dos levantamentos
realizados por correio ou e-mail através de ligações de notificação anteriores
ao envio do instrumento. As vantagens e desvantagens de cada método são
apresentadas no quadro abaixo.

Recentemente uma nova forma de abordar as empresas e administrar


questionários apareceu. O pesquisador pode enviar o questionário por e-mail
ou solicitar os respondentes a visitarem uma página da web onde o
questionário pode ser completado e reenviado eletronicamente. Uma das
vantagens desse método é o baixo custo se comparado com os outros
métodos. Algumas desvantagens são a falta de anonimato e a falta de
incentivo (Forza, 2002; Ranchhod e Zhou, 2001).

93
Uma das principais características de uma pesquisa levantamento é que
ela se baseia em instrumentos estruturados para a coleta da informação. Uma
vez que o pesquisador decidiu o conteúdo de uma medida (os aspectos
empíricos específicos que devem ser observados), restam diversas tarefas
para se desenvolver os instrumentos de medida, tais como:

 Definir a forma como as questões são formuladas para coletar a


informação de um conceito específico;

 Decidir para cada questão a escala na qual as respostas serão dadas;

 Identificar os respondentes apropriados para cada questão;

 Colocar as questões juntas no questionário de forma que facilite e


motive os respondentes a responder.

Ao formular as questões, o pesquisador deveria assegurar que a


linguagem dos questionário é consistente com o nível de entendimento dos
respondentes. O pesquisador pode escolher entre um questionário com
94
questões abertas ou fechadas. Estas últimas facilitam as decisões rápidas e a
rápida codificação da informação, mas o pesquisador tem de garantir que as
alternativas são mutuamente exclusivas e coletivamente exaustivas. As
questões ambíguas deveriam ser eliminadas e não redigidas para deduzir
respostas socialmente desejáveis. Uma declaração ou questão não deveria ter
mais que 20 palavras em uma linha escrita.

Uma segunda tarefa no desenvolvimento de um instrumento de medição


é a definição de escalas utilizadas para medir as respostas. Segundo Fink e
Kosecoff (1998) existem quatro tipos de escalas de medidas: nominais,
ordinais, intervalais e proporcionais.

As escalas nominais são geralmente chamadas de escalas de resposta


por categoria e referem-se a respostas dadas por pessoas a respeito de grupos
aos quais pertencem: gênero, afiliação religiosa, escolaridade, etc.

As escalas ordinais requerem que os respondentes ordenem as


respostas. A situação econômica de uma pessoa (alta, média ou baixa) poderia
ser um exemplo deste tipo de escala. A medida na qual um indivíduo concorda
fortemente, concorda, discorda ou discorda fortemente com uma declaração é
considerada uma medida ordinal por alguns pesquisadores e uma medida
intervalar por outros.

As escalas intervalais oferecem uma significado real para as distâncias


entre números. A renda anual de um indivíduo, por exemplo, pode ser disposta
em intervalos.

As escalas proporcionais são aquelas em que as unidades inseridas na


escala são sempre eqüidistantes uma das outras, não importando onde elas se
encontram na escala. Uma survey raramente emprega as escalas
proporcionais.

Frequentemente, a unidade de análise da pesquisa é uma empresa ou


uma de suas plantas. Mas, não é a empresa que vai lhe dar as respostas e sim
uma pessoa empregada pela mesma. Mesmo assim, na estrutura hierárquica
de uma empresa, algumas pessoas tem conhecimento sobre determinado
assunto, enquanto outras conhecem outros assuntos. Por causa disso, o
pesquisador deve identificar os informantes apropriados para cada conjunto de
informações necessárias. Para aumentar a confiabilidade das descobertas, o
pesquisador pode utilizar alguma forma de triangulação, tal como o emprego de
múltiplos respondentes para uma mesma questão ou o uso de múltiplos
métodos de medição (por exemplo, qualitativos e quantitativos) (FORZA, 2002).

95
Para aumentar a probabilidade de sucesso da coleta de dados o
pesquisador deve planejar cuidadosamente a execução da survey e fornecer
instruções detalhadas sobre: como as unidades amostrais serão abordadas e
como os questionários serão administrados. Em outras palavras, o protocolo a
ser seguido para administrar o questionário desenvolvido tem que ser
elaborado.

Adicionalmente, as empresas e respondentes podem se tornar


relutantes em responder aos questionários. Para minimizar tal ocorrência, os
pesquisadores devem buscar formas de obter a colaboração dos mesmos.
Outro problema que pode acontecer é a dificuldade de se encontrar o
respondente certo. A estratégia de contato deveria levar este problema em
conta e variar a abordagem baseada nestas influentes variáveis. Uma
estratégia poderia ser entrar em contato com os respondentes potenciais e
obter deles o comprometimento em responder ao questionário (FORZA, 2002).

Teste piloto

Nesta etapa o pesquisador necessita testar o que foi planejado. É


notável o número de problemas que este teste piloto pode destacar mesmo
quando todos os passos anteriores tenham sido seguidos com a máxima
atenção.

O pré-teste do questionário deveria ser feito submetendo a versão final


do mesmo a três tipos de pessoas: colegas, especialistas da indústria e
respondentes-alvo. O quadro 9.3 mostra o papel de cada uma dessas pessoas
no pré-teste do questionário.

Forza (2002) propõe duas fases para o pré-teste do questionário auto-


administrado. Na primeira o pesquisador completa o questionário junto a um
grupo de respondentes potenciais ou durante uma visita a três ou quatro
respondentes potenciais. Nessa etapa o pesquisador deveria estar presente,
observando como os respondentes completam o questionário e registrando
suas percepções. Na segunda etapa o pesquisador realiza uma pequena
amostra pré-teste (por exemplo, com 15 unidades) para testar o protocolo de
administração de contato, para coletar dados para realizar uma avaliação
exploratória da qualidade da medição e para obter informações que definam
melhor a amostra e a adequação das medidas em relação a amostra.

Os não-respondentes alteram a estrutura da amostra e pode conduzir a


uma amostra que não representa a população mesmo quando a amostra foi
adequadamente projetada para este propósito. Isso pode ainda limitar a
generalizabilidade dos resultados. Esse problema com não-respondentes pode
ser tratado de duas formas (FORZA, 2002):

96
 Tentando-se aumentar a taxa de respostas;

 Tentando-se identificar os não-respondentes para controlar se eles são


diferentes dos respondentes.

A taxa de respostas pode ser melhorada consideravelmente quando um


programa de acompanhamento subseqüente é aplicado:

 Depois de uma semana um cartão postal é enviado para cada um (pode


servir como um lembrete e como um agradecimento);

 Depois de três semanas uma carta e um novo questionário é enviado


apenas para os não-respondentes;

• Uma última carta similar a primeira (ou mesmo uma ligação telefônica).

Os pesquisadores deveriam ao menos manter o rastro dos não-


respondentes. Eles deveriam examinar alguns deles (usando um questionário
condensado ou através de uma ligação telefônica) para entender como e
quanto de tendência foi introduzido.

Em relação ao processamento dos dados, o primeiro passo requer


transcrever esses dados dos documentos originais para um banco de dados ou
planilha eletrônica de um computador. Neste processo pode acontecer de
alguns dados serem transcritos incorretamente. Esses erros podem aparecer
de duas situações: a pessoa responsável pela transcrição lê incorretamente a
fonte no documento, mas transcreve corretamente os dados mal interpretados;
e a pessoa pode ler a fonte no documento corretamente, mas transcreve
erradamente os dados. Uma verificação independente de qualquer transcrição
envolvendo leitura e interpretação do material escrito é, portanto, aconselhável
(FORZA, 2002).

A avaliação da qualidade da medição pode ser feita em termos de


validade e confiabilidade. A falta de validade introduz um erro sistemático
(tendência), enquanto a falta de confiabilidade introduz um erro aleatório.

A confiabilidade indica dependabilidade, estabilidade, previsibilidade,


consistência e precisão, e refere-se a extensão na qual um procedimento de
medida rende os mesmos resultados em tentativas repetidas. Ela é avaliada
após a coleta de dados. Os quatro métodos mais comuns utilizados para
estimar a confiabilidade são apresentados no quadro 9.4.

97
Uma medida possui validade do construto se um conjunto de itens que
constituem a medida representa fielmente o conjunto de aspectos do construto
teórico medido e não contém itens que representam aspectos não incluídos no
construto teórico.

A avaliação empírica da validade do construto foca basicamente na


convergência entre medidas (ou itens da medida) do mesmo construto
(validação convergente) e separação entre medidas (ou itens da medida) de
construtos diferentes (validação discriminante). Quando um teste, conduzido
para avaliar um aspecto da validade do construto, não suporta o resultado
esperado, tanto o instrumento de medida ou a teoria podem estar inválidos. É
uma questão de julgamento do pesquisador em interpretar adequadamente os
resultados obtidos.

A validade relacionada ao critério é estabelecida quando a medida


diferencia indivíduos em um critério em que se espera predição.
Estabelecendo-se a validade simultânea ou a validade prognostica pode-se
fazer isso. A validade simultânea é estabelecida quando a escala discrimina
indivíduos que reconhecidamente são diferentes. A validade prognostica é a
capacidade da medida de diferenciar entre indivíduos como um critério futuro.

A avaliação da qualidade da medida, portanto, acontece em vários


estágios da pesquisa levantamento: antes da coleta de dados, durante o teste
piloto e após a coleta de dados para o teste de hipóteses. Entretanto, a
realização das avaliações de confiabilidade e validade pode ser organizada na
98
forma de um processo iterativo de três passos: avaliação da validade,
avaliação da confiabilidade e avaliação da validade do construto. A eliminação
de itens no segundo e terceiro passos requer que o pesquisador retorne ao
primeiro passo e refaça as análises para a medida modificada.

Coleta de dados para o teste da teoria

O pesquisador só deve prosseguir para a coleta de dados (realização da


survey) quando todos os assuntos relevantes levantados no teste piloto
estiverem resolvidos. Idealmente, os problemas de coleta de dados e de
medida deveriam estar reduzidos ao mínimo possível.

Nesta etapa, fundamentalmente, o pesquisador irá repetir as atividades


realizadas no teste piloto só que com uma amostra maior:

 Abordar as empresas/respondentes e coletar os dados;

 Controlar e reduzir os problemas causados pelos não-respondentes;

 Realizar limpeza e entrada de dados;

 Se possível, entrar em contato novamente com as empresas para


reduzir os dados problemáticos ou perdidos;

 Avaliar a qualidade da medida.

Uma atividade adicional é fornecer feedback às empresas/respondentes


para motivar seu comprometimento atual e futuro.

Lidar com os dados perdidos deveria ser uma preocupação chave


durante a coleta de dados. A melhor abordagem é prevenir a presença dos
mesmos aumentando-se o envolvimento do respondente, dando a ele
instruções claras, um questionário bem elaborado, apoio e reavisá-lo
periodicamente para assegurar a completude.

A avaliação da qualidade da medida pode ser feita de uma forma


exploratória quando do teste piloto. Adicionalmente, ela merece análises
confirmatórias durante a realização da análise com os dados que serão
utilizados para testar as hipóteses. Entretanto, isso não é suficiente para
garantir a precisão da análise.

Os modelos de equações estruturais, também conhecido por LISREL,


fornecem um instrumento para testar a qualidade da medida e para considerá-
la durante o teste de hipóteses.

99
Análise de dados

A análise de dados pode ser dividida em duas fases: a análise preliminar


dos dados e o teste de hipóteses.

Para adquirir conhecimento das características e propriedades dos


dados coletados algumas análises preliminares dos dados são geralmente
realizadas antes de se fazer a avaliação da qualidade da medida ou de se
conduzir os testes de hipóteses. Realizar tais análises antes de avaliar a
qualidade da medida fornece indicadores preliminares de como a codificação e
a entrada de dados foram bem feitos ou não, se as escalas estão boas e se
existe a suspeita de um conteúdo pobre ou tendenciosidade sistemática.

A análise preliminar dos dados é realizada checando-se as tendências


centrais, dispersões, distribuições de frequência e correlações. É uma boa
prática calcular: a distribuição de frequências das variáveis demográficas; a
média, desvio padrão, variação e variância das outras variáveis independentes
e dependentes; e uma matriz de inter-correlação das variáveis.

A análise de dados para o teste de hipóteses pode ser feita através de


testes de significância que podem ser agrupados em duas classes gerais:
paramétricos e não-paramétricos.

Os testes paramétricos são geralmente considerados mais poderosos


porque seus dados são tipicamente derivados de medidas de razão e intervalos
quando o modelo mais provável é conhecido, exceto para alguns parâmetros.
Alguns exemplos de testes paramétricos são: correlação de Pearson, teste t e
a análise de variância (ANOVA).

Os testes não-paramétricos também são usados com dados nominais e


ordinais. Eles são indicados quando a distribuição da população é indefinida ou
viola a suposição dos testes paramétricos. Alguns exemplos de testes não-
paramétricos são: Chi-quadrado, teste da mediana, teste de Fisher e o teste U
de Mann-Witney.

Em qualquer campo de aplicação, tal como a gestão de operações, a


maioria das ferramentas é, ou deveria ser, multivariada. Alguns exemplos de
métodos de análise multivariados são: regressão múltipla, análise multivariada
da variância (MANOVA), modelos de equações estruturais, análise de fatores e
análise de cluster.

A escolha e a aplicação do teste estatístico apropriado é apenas um


passo da análise de dados para a construção da teoria. Adicionalmente, os
resultados dos testes estatísticos devem ser interpretados. Ao interpretar os
resultados o pesquisador se move do domínio empírico para o teórico. Este
100
processo implica considerações de inferência e generalização (MEREDITH,
1998).

Mesmo nos casos em que os resultados da análise de dados são


consistentes com a teoria no nível da amostra, o pesquisador deve ter cuidado
em inferir que a mesma consistência pode ser estendida para o nível da
população, devido aos problemas com taxa de resposta e tendenciosidade das
respostas discutidas anteriormente.

Gerar relatório

No relatório escrito o pesquisador deve fornecer, de uma forma concisa


mas completa, todas as informações que permitem aos revisores e leitores:

 Entender o que foi feito;

 Avaliar criticamente o que o trabalho atingiu;

 Reproduzir o trabalho ou comparar os resultados com estudos similares.

Os principais pontos a serem considerados na elaboração do relatório


são: base teórica (nome e definições dos construtos, relações entre variáveis,
unidade de análise), contribuição esperada, abordagem adotada para a coleta
de dados e a amostra, descrição do processo de construção das medidas
(comparação com medidas similares, descrição dos respondentes), descrição
das técnicas empregadas para a análise de dados e discussão.

101
CAPÍTULO 10 – ESTRATÉGIA DE PESQUISA IV: ESTUDO DE CASO

Origem do estudo de caso

Segundo Leffa (2007), o estudo de caso é uma das mais antigas


ferramentas de pesquisa. Começou a ser usado no início do Século XX,
principalmente nas áreas da Medicina, com o método clínico, e depois na
Sociologia e na Antropologia, que o aprimoraram, deixando-o como o
conhecemos hoje. Robert Park, um ex-jornalista que se tornou sociólogo e
lecionou na Universidade de Chicago na década de 20, introduziu técnicas de
reportagem ao método. Para ele o sociólogo era um repórter, mais exigente e
responsável, comprometido com a descrição profunda dos eventos, de modo a
levantar as grandes tendências sociais de uma época. Segundo ele, as leis da
sociedade e do comportamento humano não eram rígidas como queriam os
positivistas, mas dinâmicas e fluidas com a constante possibilidade da
mudança.

Nas décadas de 30 e 40, o estudo de caso entrou em decadência,


devido, principalmente, ao avanço das metodologias positivistas e o enfoque na
pesquisa quantitativa. Os pesquisadores queriam leis estáveis, permanentes e
generalizáveis para a ciência. Criticavam a falta de confiabilidade nos
resultados, devido principalmente ao caráter subjetivo das descrições.

O ressurgimento do estudo de caso começou na década de 50, na área


da educação, usado, num primeiro momento, não como metodologia de
pesquisa, mas como técnica de ensino, na Escola de Administração da
Universidade de Harvard (Harvard Business School). A ideia era de que o
Estudo de Caso dava aos alunos a oportunidade de experienciar a realidade
como ela é, preparando-os para o mundo real, dependendo menos de seus
professores, e assumindo a responsabilidade por sua aprendizagem.

Na área da pesquisa, o ressurgimento ocorreu na década de 60, com o


desencanto pelas abordagens meramente quantitativas. Contribuiu também
para acelerar esse interesse o conceito de “Teoria Fundamentada” (Grounded
Theory), desenvolvido por Strauss e Glaser em 1967, normalmente descrita
como uma construção teórica baseada na coleta e análise de dados (Martin e
Turner, 1986). Trata-se, portanto, de uma metodologia indutiva, em que a teoria
é feita a partir de observações empíricas com ênfase na interação entre os
dados e sua análise. As descrições e explicações são feitas com ênfase no
processo e no contexto em que se encontram os dados.

102
O que é o estudo de caso e quando ele pode ser utilizado

O estudo de caso vem sendo considerado um dos mais poderosos


métodos de pesquisa na gestão de operações, particularmente no
desenvolvimento de novas teorias. Contudo, existem muitos desafios na
condução de um estudo de caso: ele consome muito tempo, necessita de
entrevistadores habilidosos, é necessário muito cuidado na generalização das
conclusões a partir de um limitado conjunto de casos e na garantia do rigor da
pesquisa. Apesar disso, os resultados de um estudo de caso podem ter um
forte impacto e levar a novas e criativas percepções e a se desenvolver novas
teorias (Voss, Tsikriktsis e Frohlich, 2002).

Yin (2001) define o estudo de caso como uma investigação empírica que
investiga um fenômeno contemporâneo dentro de seu contexto da vida real,
especialmente quando os limites entre o fenômeno e o contexto não estão
claramente definidos. A investigação de estudo de caso enfrenta uma situação
tecnicamente única em que haverá muito mais variáveis de interesse do que
pontos de dados e, como resultado, baseia-se em várias fontes de evidências,
com os dados precisando convergir em um formato de triângulo; e, como outro
resultado, beneficia-se do desenvolvimento prévio de proposições teóricas para
conduzir a coleta e a análise de dados.

Há, predominantemente, três tipos de estudo de caso, dependo dos


objetivos para o qual ele é usado: exploratório, explanatório e descritivo (Yin,
1993).

O estudo de caso exploratório é uma espécie de estudo piloto que pode


ser feito para testar as perguntas norteadoras do projeto, hipóteses, e
principalmente os instrumentos e procedimentos. Concluído o estudo
exploratório, haverá perguntas que serão modificadas, retiradas ou
acrescentadas, instrumentos que serão refinados, ou hipóteses que serão
reformuladas, com base no que funcionou ou deixou de funcionar.

Mesmo sendo exploratório, haverá um planejamento cuidadoso, o mais


detalhado possível, para que não haja desperdício de tempo, nem do
pesquisador nem dos sujeitos envolvidos.

O estudo de caso descritivo tem por objetivo mostrar ao leitor uma


realidade que ele não conhece.

Não procura estabelecer relações de causa e efeito, mas apenas


mostrar a realidade como ela é, embora os resultados possam ser usados
posteriormente para a formulação de hipóteses de causa e efeito. Pode
mostrar, por exemplo, um professor fazendo uso inadequado da Internet,

103
levando os alunos para o laboratório de informática para acessar uma página
de texto sem links, numa atividade de leitura que poderia ser feita com menos
desperdício de tempo com uma folha impressa na sala de aula. O estudo, no
entanto, apenas descreveria o evento, sem preocupação de generalizar,
sugerindo que seja um exemplo típico e que todos os professores fazem assim,
nem de apontar relações de causa e efeito, sugerindo que o mau uso da
tecnologia possa ser improdutivo.

O estudo de caso explanatório pode ser considerado o mais ambicioso


dos três, já que tem por objetivo não apenas descrever uma determinada
realidade, mas também explicá-la em termos de causa e efeito. No exemplo
acima, em vez de usar o caso de um único professor, pode mostrar dois,
comparando um exemplo de mau uso da tecnologia com um exemplo
adequado e tentar ver o impacto que isso pode ter na aprendizagem dos
alunos. O estudo de caso explanatório pode também ter como objetivo a
confirmação ou generalização de determinadas proposições teóricas.

Yin (2001) considera que existem três condições para definir a utilização
de métodos de pesquisa: (a) o tipo de questão de pesquisa proposto; (b) a
extensão do controle que o pesquisador tem sobre eventos comportamentais
efetivos; (c) o grau de enfoque em acontecimentos históricos em oposição a
acontecimentos contemporâneos.

Sendo assim, as questões de pesquisa do tipo “como” e “por que”


estimulam o uso da estratégia de estudo de caso. Por outro lado, o estudo de
caso é a estratégia escolhida ao se examinarem acontecimentos
contemporâneos, mas quando não se podem manipular comportamentos
relevantes. O poder diferenciador do estudo de caso sobre outras estratégias
de pesquisa está na sua capacidade de lidar com uma ampla variedade de
evidências (documentos, artefatos, entrevistas e observações). O quadro 10.1
apresenta um resumo das condições para uso do estudo de caso.

Resumo das condições para uso do estudo de caso.

Estratégia de Forma da questão de Exige controle sobre Focaliza


pesquisa pesquisa eventos acontecimentos
comportamentais? contemporâneos?

Estudo de Caso Como? Por que? Não Sim

Fonte: Adaptado de Yin (2001)

Eisenhardt (1989) afirma que os estudos de casos costumam combinar


diversos métodos de coleta de dados, tais como documentos de arquivo,
104
entrevistas, questionários e observações. As evidências podem ser qualitativas
(palavras), quantitativas (números) ou ambas.

Segundo Voss, Tsikriktsis e Frohlich (2002), o estudo de caso pode ser


usado para diferentes propósitos de pesquisa, tais como exploração,
construção de teoria, teste de teoria e refinamento/extensão de teoria. O
quadro abaixo apresenta esses diferentes propósitos de pesquisa em função
da metodologia.

Implementação do estudo de caso

O método do estudo de caso pode ser implementado a partir das


atividades descritas no quadro acima.

Definir o projeto de pesquisa

Voss, Tsikriktsis e Frohlich (2002) consideram que o ponto de partida


para o estudo de caso é a estrutura da pesquisa.

Yin (2001) denomina essa estrutura de projeto de pesquisa. Segundo


esse autor, o projeto de pesquisa é a sequência lógica que conecta os dados
empíricos às questões de pesquisa iniciais do estudo e, em última análise, às
suas conclusões. O projeto de pesquisa trata de, pelo menos, quatro
105
problemas: quais questões estudar, quais dados são relevantes, quais dados
coletar e como analisar os resultados. Seu propósito principal é ajudar a evitar
a situação em que as evidências obtidas não remetam às questões iniciais da
pesquisa.

Para Yin (2001) os projetos de pesquisa para o estudo de caso


apresentam cinco componentes principais: as questões de estudo (ou da
pesquisa), suas proposições (se houver), suas unidades de análise, a lógica
que une os dados às proposições e os critérios para se interpretar as
descobertas.

Segundo Eisenhardt (1989), uma definição inicial da questão da


pesquisa, mesmo que em termos gerais, é importante para a construção de
teorias a partir do estudo de caso. Uma pesquisa sem foco torna-se susceptível
de ser subjugada pelo volume de dados. A definição da questão de pesquisa
dentro de um tópico abrangente permite ao pesquisador especificar o tipo de
organização a ser abordada e o tipo de dados a serem coletados.

Voss, Tsikriktsis e Frohlich (2002) acrescentam que nesta estratégia de


pesquisa a quantidade de dados que podem ser coletados é muito grande; por
essa razão, quanto maior for o foco da pesquisa, mais fácil será para identificar
os casos potenciais e para se desenvolver os protocolos de pesquisa.

Vale lembrar que para a estratégia de estudo de caso são apropriadas


as questões do tipo como e por que. Além disso, Eisenhardt (1989) destaca
que a questão de pesquisa pode ser alterada durante o decorrer da pesquisa,
106
uma vez que no início da definição do projeto a mesma é tratada como uma
tentativa.

A especificação de construtos a priori também pode ajudar no


desenvolvimento do projeto inicial da pesquisa de construção da teoria
(EISENHARDT, 1989). Apesar deste tipo de especificação não ser comum nos
estudos de construção da teoria, ela é valiosa porque permite que os
pesquisadores meçam os construtos com maior precisão. Se esses construtos
provam a sua importância durante o progresso da pesquisa, os pesquisadores
têm uma forte fundamentação empírica para a teoria emergente. Esses
construtos podem ser explicitamente medidos nos protocolos e questionários
de entrevistas.

Voss, Tsikriktsis e Frohlich (2002) afirmam que na condução de


pesquisa baseada em casos é comum que a questão de pesquisa evolua e que
os construtos sejam modificados, desenvolvidos ou mesmo abandonados
durante o curso da pesquisa. Isso pode ser um ponto forte, assim como pode
permitir o desenvolvimento de mais conhecimento se ao invés existisse apenas
uma questão de pesquisa fixa.

Em algumas situações, as questões como e por que podem não apontar


para aquilo que o pesquisador deveria estudar. Nesses casos, estabelecer
algumas proposições de estudo pode ajudar a conduzir a pesquisa para a
direção certa. Cada proposição destina a atenção a alguma coisa que deveria
ser examinada dentro do escopo do estudo (YIN, 2001). Além das proposições,
Eisenhardt (1989) considera vital ainda especificar algumas variáveis
potencialmente importantes, com referências à literatura existente.

Entretanto, essa autora enfatiza que os pesquisadores devem evitar


pensar a respeito das relações específicas entre essas variáveis e a teoria
tanto quanto for possível, especialmente no princípio desse processo.

Outro ponto importante do projeto de pesquisa é definir a unidade de


análise ou de investigação. Yin (2001) considera que definir o que é um caso é
um problema que atormentou muitos pesquisadores. Esse autor explica que o
caso pode ser um indivíduo ou algum evento ou entidade. Ele assume que a
definição da unidade de análise está relacionada à maneira como as questões
iniciais da pesquisa foram definidas. Uma sugestão é discutir o caso em
potencial com outros pesquisadores, de forma a evitar a identificação incorreta
da unidade de análise.

Segundo Yin (2001), em um projeto de pesquisa de estudo de caso, ligar


os dados a proposições pode ser feito de várias maneiras. Uma abordagem
para os estudos de caso é a ideia da adequação ao padrão, por meio da qual

107
várias partes da mesma informação do mesmo caso podem ser relacionadas à
mesma proposição teórica. Esta abordagem será comentada com mais
detalhes ainda neste capítulo.

Por fim, para concluir o projeto de pesquisa, Yin (2001) afirma que não
há uma maneira precisa de se estabelecer os critérios para interpretação das
descobertas do estudo. O que se espera é que os diferentes padrões estejam
contrastando, de forma clara e suficiente, e que as descobertas possam ser
interpretadas em termos de comparação por, pelo menos, duas proposições
concorrentes.

Selecionar os casos

Eisenhardt (1989) considera que a seleção dos casos é um aspecto


importante na construção de teorias a partir dos estudos de caso.

Para Yin (2001) é interessante, antes de se fazer a coleta de dados dos


casos finais da pesquisa, realizar um estudo de caso piloto. Este pode ser
escolhido por várias razões que nada tem a ver com os critérios usados para
se selecionar os casos finais no projeto de estudo de caso. Entre essas razões
pode-se citar facilidade de acesso aos informantes, conveniência geográfica do
local, a existência de uma grande quantidade de dados e documentos a serem
coletados, ou ainda que o local represente o mais complicado dos casos reais.

O estudo de caso piloto auxilia os pesquisadores no momento de


aprimorar os planos para a coleta de dados, tanto em relação ao conteúdo dos
dados quanto aos procedimentos que devem ser seguidos. Ele é utilizado de
uma maneira formativa, ajudando o pesquisador a desenvolver o alinhamento
relevante das questões. Em geral, a conveniência, o acesso aos dados e a
proximidade geográfica podem ser os principais critérios para se selecionar o
caso ou os casos piloto (YIN, 2001).

Segundo Yin (2001), a investigação para o caso piloto pode ser muito
mais ampla e menos direcionada do que o plano final para a coleta de dados.
Além disso, a investigação pode incluir tanto questões imperativas quanto
metodológicas. Sob o ponto de vista metodológico, o trabalho realizado nos
locais do caso piloto podem fornecer algumas informações sobre as questões
de campo relevantes e sobre a logística da investigação de campo.

Para a realização dos casos finais, a estratégia de estudo de caso


admite que a pesquisa seja realizada através de um caso único ou através de
casos múltiplos. Essa decisão sobre um caso único ou casos múltiplos deve
acontecer antes da coleta de dados.

108
Segundo Yin (2001), o estudo de caso único é um projeto apropriado
nas circunstâncias onde ele representa:

 um caso decisivo ao testar uma teoria bem formulada: pode ser utilizado
para determinar se as proposições de uma teoria são corretas ou se
algum outro conjunto alternativo de explanações pode ser mais
relevante;

 um caso raro ou extremo;

 um caso revelador: quando o pesquisador tem a oportunidade de


observar e analisar um fenômeno previamente inacessível à
investigação científica.

Existem outras situações onde o estudo de caso único pode ser


conduzido como a introdução de um caso mais apurado, como o uso de
estudos de caso como mecanismos exploratórios ou a condução de um caso
piloto que é o primeiro de um estudo de casos múltiplos (YIN, 2001).

Voss, Tsikriktsis e Frohlich (2002) destacam como vantagem da


utilização do estudo de caso único a oportunidade que ele permite para
observações mais profundas.

Contudo, Voss, Tsikriktsis e Frohlich (2002) afirmam que o estudo de


caso único tem suas limitações.

A principal é o limite para a generalização das conclusões, modelos ou


teorias desenvolvidos a partir do mesmo. Isso inclui o risco do mau julgamento
de um único evento e na facilidade de se exagerar com os dados disponíveis.
Os casos múltiplos podem reduzir a profundidade do estudo quando os
recursos são restritos, mas pode aumentar a validade externa e auxiliar a evitar
a tendenciosidade dos observadores. Yin (2001) acrescenta que o caso único
pode, mais tarde, acabar se revelando como não sendo o caso que se pensava
que fosse no princípio.

Yin (2001) considera que os projetos de casos múltiplos possuem


vantagens e desvantagens distintas em comparação aos projetos de caso
único. As provas resultantes de casos múltiplos são consideradas mais
convincentes e o estudo global é visto como sendo mais robusto.

Cada caso deve servir a um propósito específico dentro do escopo


global da investigação. Deve-se considerar os casos múltiplos como se
consideraria experimentos múltiplos, ou seja, seguir a lógica da replicação.
Cada caso deve ser cuidadosamente selecionado de forma a (YIN , 2001):

109
 prever resultados semelhantes (uma replicação literal);

 produzir resultados contrastantes apenas por razões previsíveis (uma


replicação teórica).

Para Eisenhardt (1989), dada a limitação do número de casos que


podem ser estudados, é mais sensato selecionar casos que apresentem
situações extremas ou do tipo polar, no qual o processo de interesse é
transparentemente observável. Voss, Tsikriktsis e Frohlich (2002) destacam
três tipos de situações para se selecionar os casos: quando pode-se encontrar
casos típicos ou representativos, casos que neguem ou desconfirmem uma
proposição, ou casos do tipo polar, que apresentem características nitidamente
contrastantes que irão destacar as diferenças que estão sendo estudadas.

Yin (2001) pondera que uma questão importante em um projeto de


casos múltiplos é a respeito do número de casos supostamente necessários ou
suficientes para o estudo. Ele afirma que não se deve empregar a lógica da
amostragem, mas sim pensar nessa decisão como um reflexo do número de
replicações de caso, literais e teóricas, que o pesquisador gostaria de ter no
seu estudo.

Segundo esse autor, para o número de replicações literais, a seleção do


número de replicações depende da certeza que você quer ter sobre os
resultados obtidos dos casos múltiplos. Por exemplo, pode-se estabelecer duas
ou três replicações literais quando as teorias concorrentes forem
completamente diferentes e o tema ao alcance exigir um grau excessivo de
certeza. Entretanto, se as teorias concorrentes possuírem diferenças sutis ou
se é desejável obter um alto grau de certeza, poderia-se solicitar cinco, seis ou
até mais replicações. Para o número de replicações teóricas, quando não se
tem certeza de que as condições externas produzirão resultados diferentes de
estudo de caso, pode-se articular essas condições relevantes de uma forma
mais explícita no princípio do estudo e identificar um número maior de casos
que devem ser incluídos nele. Em contraste, quando não se acredita que as
condições externas produzam muita variação no fenômeno que está sendo
estudado, é necessário um número menor de replicações teóricas.

Desenvolver instrumentos e protocolos de pesquisa

Segundo Eisenhardt (1989), os pesquisadores de um estudo de caso


geralmente combinam múltiplos métodos de coleta de dados. Voss, Tsikriktsis
e Frohlich (2002) consideram que a principal fonte de dados em um estudo de
caso é a entrevista estruturada, frequentemente apoiada por entrevistas não
estruturadas e interações. Outras fontes de dados podem incluir observação
pessoal, conversas informais, participação em reuniões ou eventos,
110
levantamentos administrados dentro da organização, coleta de dados objetivos
e análise de dados documentais.

Para orientar o pesquisador na condução do seu estudo de caso é


interessante a elaboração de um protocolo de pesquisa. Segundo Yin (2001), o
protocolo é uma das táticas principais para se aumentar a confiabilidade e a
validade da pesquisa de estudo de caso. O protocolo contém o instrumento
(questionário), mas também contém os procedimentos e as regras gerais que
deveriam ser seguidas ao utilizar o instrumento, sendo essencial para o projeto
de casos múltiplos (sendo desejável nos projetos de caso único).

Voss, Tsikriktsis e Frohlich (2002) consideram que a essência do


protocolo é o conjunto de questões a serem usadas nas entrevistas. Eles
ilustram que um formato utilizado é o do funil, que começa com perguntas
abertas e, a medida que a entrevista vai progredindo, as perguntas se tornam
mais específicas e as questões detalhadas são deixadas para o final.

Yin (2001) sugere que o protocolo apresente as seções apresentadas no


Quadro 10.3. Voss, Tsikriktsis e Frohlich (2002) acrescentam que os dados de
um estudo de caso não são coletados apenas por meio de entrevistas.
Frequentemente, um instrumento, o questionário, é utilizado para coleta de
dados. Porém, uma questão chave no projeto de um estudo de caso é qual o
número desejável de respondentes? Se um conjunto de perguntas pode ser
confiavelmente respondido por um informante chave, então o processo de
pesquisa deveria dar foco na identificação deste e em validar esta pessoa
como tal.

Contudo, quando as questões não puderem ser respondidas por uma


única pessoa (que não detém todo o conhecimento requerido ou onde os
eventos estudados podem apresentar diferentes interpretações), o pesquisador
pode considerar a realização de entrevistas de múltiplos respondentes, até
mesmo porque um respondente único pode levar a dados subjetivos ou mesmo
tendenciosos.

111
Conduzir a pesquisa de campo

Para iniciar a pesquisa de campo, o primeiro passo é conseguir acesso à


organização que será considerada como unidade de investigação. Voss,
Tsikriktsis e Frohlich (2002) consideram que o primeiro contato ideal deveria
ser com um funcionário com certo nível hierárquico na empresa que possa abrir
as portas onde for necessário, para indicar as melhores pessoas a serem
entrevistadas para a coleta de dados e que possa fornecer o suporte
necessário para a condução da pesquisa.

Nesse contato inicial o pesquisador pode apresentar o protocolo de


pesquisa e discutir os benefícios mútuos da pesquisa com os participantes
potenciais. Dessa forma, a organização pode ter uma primeira noção do
contexto que envolve a pesquisa, do perfil dos respondentes potenciais e dos
procedimentos necessários para a realização da pesquisa.

Uma vez tendo conseguido a concordância da organização para a


realização da pesquisa, o passo seguinte é agendar as reuniões para a
condução da pesquisa. O número de reuniões a ser agendado vai depender da
experiência do pesquisador e da profundidade da pesquisa que está sendo
realizada. Sugere-se que se programe duas ou três visitas de até 60 minutos
112
cada, apoiadas posteriormente por reuniões de acompanhamento de 20 a 30
minutos para conclusão dos dados coletados e esclarecimento de eventuais
dúvidas.

Segundo Voss, Tsikriktsis e Frohlich (2002), um princípio subjacente na


coleta de dados dos estudos de caso é a triangulação, ou seja, a combinação e
uso de diferentes métodos para estudar um mesmo fenômeno.

Woodside e Wilson (2003) afirmam que a triangulação frequentemente


inclui: observação direta do pesquisador no ambiente do caso, sondagens
através de questionamentos dos participantes do caso por explicações e
interpretações dos dados operacionais e análises de documentos escritos e
dos locais onde se dá o ambiente do caso estudado.

Lewis (1998) acrescenta o conceito da triangulação interativa que


expande o conceito da triangulação tradicional, utilizando estudos de caso
existentes para aumentar a representatividade do estudo. O processo
metodológico da triangulação interativa consiste de quatro fases: princípio
fundamental (revisão de literatura e seleção dos casos), indução (análise dos
dados dos casos e desenvolvimento de conjunturas), iteração (refinamento da
teoria) e conclusão.

Yin (2001) discute seis fontes de evidências: documentação, registros


em arquivos, entrevistas, observação direta, observação participante e os
artefatos físicos. Nenhuma dessas fontes possui uma vantagem indiscutível
sobre as outras, na verdade elas são complementares. Um bom estudo de
caso utilizará o maior número possível de fontes de evidências. O quadro 10.4
apresenta uma comparação dessas seis fontes de evidências.

Eisenhardt (1989) acrescenta que a coleta de dados deve combinar


evidências qualitativas e quantitativas. A combinação desses tipos de dados
pode ser altamente sinergético. As evidências quantitativas podem indicar
relacionamentos que podem não parecer salientes para o pesquisador em um
primeiro momento e ainda corroborar as descobertas provenientes das
evidências qualitativas.

Segundo Yin (2001), os benefícios que se pode obter a partir dessas


seis fontes de evidências podem ser maximizados se o pesquisador mantiver
presente três princípios para a coleta de dados. Eles são importantes para
todas as seis fontes de evidências e auxiliam o pesquisador a estabelecer a
validade do construto e a confiabilidade do estudo de caso.

O primeiro princípio é o de se utilizar várias fontes de evidência. Um


ponto forte muito importante da coleta de dados para um estudo de caso é a

113
oportunidade de utilizar muitas fontes diferentes para a obtenção de
evidências, denominada de triangulação. O uso de várias fontes de evidência
nos estudos de caso permite que o pesquisador dedique-se a uma ampla
diversidade de questões históricas, comportamentais e de atitudes. A
vantagem mais importante, no entanto, é o desenvolvimento de linha

114
convergentes de investigação. Com a triangulação, o pesquisador pode se
dedicar ao problema em potencial da validade do construto, uma vez que
várias fontes de evidências fornecem essencialmente várias avaliações do
mesmo fenômeno (YIN, 2001).

115
116
O segundo princípio é a criação de um banco de dados para o estudo de caso.
Esse princípio tem a ver com a maneira de organizar e documentar os dados
coletados para os estudos de casos. Todo projeto de estudo de caso deve
empenhar-se para desenvolver um banco de dados formal apresentável, de
forma que, em princípio, outros pesquisadores possam revisar as evidências
diretamente, e não ficar limitados a relatórios escritos. Um banco de dados
aumenta a confiabilidade do estudo. O quadro abaixo apresenta os
componentes principais de um banco de dados para estudos de caso.

Ainda a respeito das notas para o estudo de caso, Eisenhardt (1989)


comenta que elas devem ser registradas no momento em que uma impressão
ocorre, ou seja, não selecionar o que deve ser anotado, porque é difícil saber o
que pode vir a ser útil no futuro. Ela ainda acrescenta que o pesquisador deve
estar sempre se perguntando ao escrever as notas: “o que eu estou
aprendendo?” e “como este caso se difere do anterior?”.

O terceiro princípio é manter o encadeamento de evidências. Esse


princípio consiste em permitir que um observador externo, o leitor do estudo de
caso, por exemplo, possa perceber que qualquer evidência proveniente de
questões iniciais da pesquisa leve às conclusões finais do estudo de caso.
Além disso, o observador externo deve ser capaz de seguir as etapas em

117
qualquer direção (das conclusões para as questões iniciais da pesquisa ou das
questões para a conclusão).

Eisenhardt (1989) considera que alternar a coleta de dados com a


análise de dados não apenas dá ao pesquisador a vantagem na análise, mas
mais importante, permite que os pesquisadores tirem vantagem da flexibilidade
da coleta de dados. Ajustes adicionais podem ser feitos aos instrumentos de
coleta de dados, tais como a adição de uma questão a um protocolo de
entrevistas ou a um questionário.

Voss, Tsikriktsis e Frohlich (2002) afirmam que as tendências (ou


preconceitos) pessoais podem influenciar o que você observa, ouve e registra.
Existem algumas formas de minimizar isso. Eisenhardt (1989) cita o uso de
múltiplos investigadores. Segundo ela, essa estratégia tem duas vantagens:
ampliar o potencial criativo do estudo e aumentar a confiança nas descobertas
a partir da convergência das observações produzidas por vários
pesquisadores. Uma forma de colocar isso em prática é realizar visitas nos
locais do estudo de caso em equipe, permitindo que o caso seja visualizado de
diferentes perspectivas. Voss, Tsikriktsis e Frohlich (2002) citam que o uso de
gravadores pode contribuir na redução da tendenciosidade do observador,
especialmente se a evidência for apresentada literalmente ao invés de
resumida.

Voss, Tsikriktsis e Frohlich (2002) lembram que ao final da pesquisa de


campo, com a elaboração do relatório final, é chegado o momento da avaliação
e realimentação dos dados. Esta etapa envolve geralmente a apresentação da
descrição do caso para a organização estudada a fim de que seus
representantes possam avaliar seu conteúdo (também chamada de devolutiva).

Voss, Tsikriktsis e Frohlich (2002) ressaltam a importância de saber


quando parar a pesquisa e que esta é uma habilidade importante do
pesquisador de estudos de caso. Eles relatam duas situações onde o
pesquisador deve saber o momento de parar. A primeira é quando ele está em
perigo de não ter tempo suficiente para completar as análises e de escrever a
pesquisa dentro do tempo disponível. A outra é o retorno cada vez menor dos
casos ou entrevistas incrementais. Ou seja, o momento de parar é quando o
pesquisador possui casos e dados suficientes para responder satisfatoriamente
às questões da pesquisa.

Estabelecer confiabilidade e validade

Para Voss, Tsikriktsis e Frohlich (2002) é particularmente importante


prestar atenção à confiabilidade e validade nas pesquisas de estudos de caso.
Yin (2001) afirma que quatro testes vêm sendo comumente utilizados para

118
determinar a qualidade de qualquer pesquisa social empírica: a validade do
construto, a validade interna, a validade externa e a confiabilidade. O quadro
abaixo mostra as táticas empregadas no estudo de caso para esses quatro
testes da qualidade da pesquisa.

Meredith (1998) destaca que uma das dificuldades que os


pesquisadores de estudo de caso enfrentam na gestão de operações é a má
interpretação de que essa estratégia de pesquisa não tem rigor porque muitas
de suas variáveis dependentes não podem ser matematicamente quantificadas
e que as variáveis independentes não podem ser manipuladas à vontade.
Contudo, os estudos de caso podem atingir os quatro requisitos para o rigor em
pesquisa: observações controladas, deduções controladas, replicabilidade e
generalizabilidade. O quadro 10.7 mostra como esses requisitos podem ser
aplicados nos estudos de caso.

119
Yin (2001) trata a generalização dos resultados e conclusões dos
estudos de caso de outra forma.

Segundo ele, o maior erro que se comete ao se realizar estudos de


casos é conceber a generalização estatística como método de se generalizar
os resultados do caso, uma vez que os casos não são unidades de
amostragem. Ou seja, o estudo de caso é generalizável a proposições teóricas
e não a populações ou universos. Nesse sentido, o estudo de caso, assim
como o experimento, não representa uma amostragem e o objetivo do
pesquisador é expandir e generalizar teorias (generalização analítica) e não
enumerar frequências (generalização estatística).

Analisar os dados

Segundo Eisenhard (1989) a análise de dados é o coração da


construção de teorias a partir dos estudos de caso, mas é também a mais difícil
e a parte menos codificada do processo. Yin (2001) também concorda,
afirmando que a análise das evidências de um estudo de caso é um dos
aspectos menos explorados e mais complicados ao realizar estudos de caso.

Para Yin (2001), o objetivo final dessa análise é tratar as evidências de


uma maneira justa, produzir conclusões analíticas irrefutáveis e eliminar
interpretações alternativas. Ele sugere duas estratégias analíticas gerais que
buscam auxiliar o pesquisador a escolher entre as diferentes técnicas e
concluir, com sucesso, a fase analítica da pesquisa.

A primeira estratégia geral é baseada em proposições teóricas. Nesta,


os objetivos e o projeto originais do estudo baseiam-se, presumivelmente, em
proposições que, por sua vez, refletem o conjunto de questões da pesquisa, as
revisões feitas na literatura sobre o assunto e as novas interpretações que
possam surgir. As proposições dariam forma ao plano de coleta de dados e,

120
por conseguinte, estabeleceriam a prioridade às estratégias analíticas
relevantes.

A segunda estratégia geral é o desenvolvimento de uma descrição de


caso. Trata-se de desenvolver uma estrutura descritiva a fim de organizar o
estudo de caso. Esta estratégia pode ser usada quando o propósito inicial do
estudo de caso é uma descrição propriamente dita. Em outras situações, o
objetivo principal do estudo de caso pode não ser uma descrição, mas uma
abordagem descritiva pode ajudar a identificar as ligações causais apropriadas
a serem analisadas, mesmo quantitativamente.

Além dessas estratégias gerais, Yin (2001) sugere a utilização de outras


técnicas analíticas específicas, elaboradas especificamente para tratar de
problemas previamente percebidos com relação ao desenvolvimento de
validade interna e validade externa ao se realizar estudos de caso. O quadro
10.8 apresenta um resumo dessas técnicas, denominadas de métodos
principais de análise. Eisenhardt (1989) sugere que a análise dos dados seja
feita em duas etapas: a análise intra-caso (dentro do mesmo caso) e a análise
inter-casos (ou de casos cruzados).

Segundo essa autora, a análise intra-caso é conduzida devido a uma


das realidades da pesquisa por estudos de caso: o estonteante volume de
dados. Esse tipo de análise envolve uma narrativa por escrito detalhada para
cada local. Essas narrativas por escrito são frequentemente descrição pura,
mas elas são fundamentais para a geração da percepção uma vez que ajudam
os pesquisadores a enfrentar prematuramente o processo de análise do grande
volume de dados.

121
122
A ideia geral é tornar-se intimamente familiar com cada caso como uma
entidade única. Este processo permite que padrões únicos de cada caso
surjam antes que os investigadores busquem generalizar esses padrões na
análise cruzada dos casos. Voss, Tsikriktsis e Frohlich (2002) sugerem que o
ponto de partida para a análise intra-caso seja a construção de uma ordenação
dos dados e com casos longitudinais construir uma análise da sequência de
eventos. A partir disso, o pesquisador poderia começar a procurar por
explicações e causalidades.

A busca sistemática pelos padrões na análise inter-casos é uma etapa


chave na pesquisa por estudos de casos. Também é essencial para aumentar
o poder de generalização das conclusões extraídas dos casos (Voss, Tsikriktsis
e Frohlich, 2002).

Eisenhardt (1989) considera que a chave para uma boa comparação


inter-casos é ver os dados de diversas divergentes formas. Ela cita três táticas
para tal.

A primeira delas é selecionar categorias ou dimensões e então buscar


por similaridades intra-grupos junto com diferenças inter-grupos. As dimensões
podem ser sugeridas pelo problema da pesquisa ou pela literatura existente, ou
o pesquisador pode simplesmente selecionar algumas dimensões. Uma
extensão desta tática é utilizar células 2 x 2, ou outro agrupamento, para
comparar diversas categorias de uma vez, ou mudar para uma escala de
medida contínua que facilite a apresentação gráfica.

A segunda tática é selecionar pares de casos e então listar as


similaridades e diferenças entre cada par. Esta tática força os pesquisadores a
buscar as similaridades e diferenças sutis entre os casos. O resultado dessas
comparações forçadas podem ser novas categorias e conceitos que os
investigadores não anteciparam. Finalmente, uma extensão desta tática é
agrupar os casos em grupos de três ou quadro para comparação.

A terceira tática é dividir os dados por fonte de dados. Por exemplo, um


pesquisador cuida dos dados provenientes das observações, enquanto outro
analisa as entrevistas e outro pesquisador trabalha com as evidências dos
questionários. Quando o padrão de uma fonte de dados é corroborada pelas
evidências de outra fonte, a descoberta é mais forte e melhor fundamentada.
Quando as evidências são conflituantes, o pesquisador pode algumas vezes
reconciliar a evidência através de sondagens mais profundas do significado
dessas diferenças. Uma variação desta tática é dividir os dados em grupos de
casos, enfocando em um grupo de casos inicialmente e nos outros
posteriormente.

123
A ideia geral por trás dessas táticas de análises inter-casos é forçar os
pesquisadores a ir além das impressões iniciais, especialmente pelo uso de
métodos estruturados para uso dos dados (Eisenhardt, 1989).

Desenvolver e testar hipóteses

Segundo Voss, Tsikriktsis e Frohlich (2002), o estudo de caso é usado


para testar as hipóteses e para o desenvolvimento de teorias. Na maioria das
pesquisas com estudos de caso existem algumas hipóteses iniciais que podem
ser diretamente testadas usando-se os dados do caso. Entretanto, em outros
estudos de caso o foco pode ser também o desenvolvimento de teorias e o
desenvolvimento ou ajuste de novas hipóteses a partir dos dados coletados,
assim como testar as hipóteses iniciais.

Wacker (1998) estabeleceu um procedimento geral de quatro passos


para a construção da teoria: definição de variáveis, limitação do domínio,
construção do relacionamento (modelo) e predição da teoria e suporte
empírico. O quadro 10.9 apresenta esse procedimento geral para a construção
de teoria, incluindo sua seu entendimento para aplicação em estudos de caso.

Eisenhardt (1989) sugere dois passos para o ajuste das hipóteses. O


primeiro passo é aprimorar os construtos, envolvendo: refinamento da definição
do construto e a construção de evidências que meçam o construto em cada
caso. Isso acontece através da constante comparação entre os dados e o
construto, de forma que as evidências acumuladas das diversas fontes
convirjam para um único e bem definido construto.

Esse processo é similar ao desenvolvimento de uma única medida para


o construto a partir de múltiplos indicadores na pesquisa de teste de hipóteses.
Ou seja, os pesquisadores utilizam múltiplas fontes de evidência para elaborar
medidas para os construtos, que definem o construto e o distinguem de outros
construtos.

O segundo passo é verificar se as relações emergentes entre os


construtos se ajustam com as evidências de cada caso. Cada hipótese é
examinada para cada caso e não para os casos agregados. Assim, a lógica por
trás desse procedimento é a replicação, ou seja, a lógica de tratar uma série de
casos como uma série de experimentos onde cada caso serve para confirmar
ou refutar as hipóteses. Na lógica da replicação, casos que confirmam as
relações emergentes aumentam a confiança na validade dessas relações. Os
casos que refutam essas relações frequentemente podem fornecer uma
oportunidade para refinar e estender a teoria.

124
Eisenhardt (1989) afirma que os dados qualitativos são particularmente
úteis para entender por que as relações emergentes acontecem. Quando uma
relação é sustentada, os dados qualitativos em geral fornecem um bom
entendimento da dinâmica por trás da relação, ou seja, o “por que” do o que
está acontecendo. Isso é crucial para o estabelecimento da validade interna.

Eisenhardt (1989) conclui que o ajuste das hipóteses na pesquisa de


construção da teoria envolve medir os construtos e verificar as relações. Ela
considera que esse processo é similar a tradicional pesquisa de teste de
hipóteses. Contudo, ela explica que esses processos são mais baseados no
julgamento nas pesquisas de construção da teoria porque os pesquisadores
não podem aplicar testes estatísticos. Os pesquisadores devem julgar a força e
a consistência das relações nas análises intra e inter-casos e também
apresentar todas as evidências e procedimentos quando da publicação dos
resultados, de forma que os leitores possam aplicar seus próprios padrões.

Comparar com a literatura

Uma característica essencial para a construção da teoria é comparar os


conceitos, teorias ou hipóteses emergentes com a literatura existente. Isso
envolve perguntar o que é similar, o que se contradiz e por que. Quanto mais
extensa for a literatura pesquisada, melhor (Eisenhardt, 1989).

Segundo Voss, Tsikriktsis e Frohlich (2002), é muito importante consultar


a literatura que conflita com as descobertas. Não fazer isso reduz a confiança

125
nas descobertas e fazer isso pode forçar o pesquisador a ser mais criativo e a
ser mais perspicaz.

Eisenhardt (1989) considera que a literatura que trata da discussão de


descobertas similares também é importante porque ela liga similaridades
subjacentes em fenômenos normalmente não associados entre si.

O resultado é, com frequência, uma teoria com uma validade interna


mais forte, uma generalização mais ampla e um nível conceitual mais alto.

Compor o relatório final do estudo de caso

Segundo Yin (2001), a fase de composição do relatório exige o maior


esforço de um pesquisador de estudo de caso e não segue nenhuma fórmula
estereotipada. O pesquisador perspicaz começa a redigir o relatório do estudo
antes do término da coleta e da análise de dados. Deixar para escrever o
relatório somente no final pode trazer alguns dissabores, tal como o bloqueio
de escritor.

Existem alguns aspectos que devem ser salientados para a composição


de relatórios de estudos de caso, são eles: identificação do público do estudo
de caso, variedades de estrutura, estruturas ilustrativas, procedimentos para
redigir o relatório e características para um estudo de caso exemplar.

Como os estudos de caso possuem um público em potencial muito maior


do que outros tipos de pesquisa, uma tarefa essencial ao projetar o relatório
global do estudo é identificar cada um dos públicos específicos para o relatório.
Para fins de pesquisa científica acadêmica, o público que mais se destaca são
os colegas pesquisadores, os componentes de bancas de doutorado ou
mestrado e as instituições financiadoras de pesquisa.

Para os colegas pesquisadores, o mais importante é, provavelmente, a


relação entre o estudo de caso, suas descobertas e as teorias ou a pesquisa já
existente. Se um estudo de caso consegue transmitir todas essas relações, ele
será amplamente lido por um bom período de tempo. Para uma banca de
doutorado ou mestrado, especialista na metodologia e nas questões teóricas
de um tópico de estudo de caso, o importante são as indicações dos cuidados
que estão sendo tomados durante a pesquisa e as evidências que o estudante
obteve com sucesso em todas as fases do processo de pesquisa. Ainda para
este público, uma forma de fazer o relatório final se comunicar diretamente com
a banca é integrar a pesquisa já realizada pelos membros dessa banca ao
trabalho de pesquisa do doutorando ou do mestrando, aumentando o seu
potencial de comunicabilidade (YIN, 2001).

126
O relatório de estudo de caso pode ser apresentado na forma escrita,
como uma exposição oral ou até como um conjunto de fotos ou gravações em
vídeo. Um produto escrito oferece várias vantagens importantes, tais como,
transmitir e comunicar informações mais precisas, por tratar de conceitos
abstratos na maior parte das vezes; e tanto o autor como o leitor são mais
familiarizados com este tipo de apresentação.

Contudo, nada impede que o material escrito possa ser complementado


com gráficos e figuras atraentes Para escrever um relatório existem quatro
variedades de estruturas importantes que podem ser utilizadas. A primeira
delas é o clássico estudo de caso único. Para tal, utiliza-se uma narrativa
simples para descrever e analisar o caso. As informações da narrativa podem
ser realçadas com tabelas, gráficos ou imagens. Um segundo tipo é uma
versão de casos múltiplos desse mesmo caso único clássico, que deverá
conter várias narrativas sobre cada um dos casos individuais. Ele pode
apresentar um capítulo ou uma seção que apresente a análise e os resultados
de casos cruzados. Um terceiro tipo é aquele que trata tanto de um estudo de
caso único quanto de casos múltiplos, mas que não apresenta a narrativa
tradicional em sua estrutura. Em vez disso, a elaboração de cada caso segue
uma série de perguntas e respostas, baseada nas perguntas e respostas
constantes no banco de dados para o estudo de caso. O quarto e último tipo de
relatório escrito aplica-se apenas a estudos de caso múltiplos. Este relatório
inteiro consiste em uma análise cruzada, mesmo que seja puramente descritivo
ou que lide com tópicos explanatórios. Cada capítulo ou seção pode se
destinar a uma questão distinta do caso cruzado, e as informações
provenientes de casos individuais devem ser distribuídas ao longo de cada
capítulo ou seção. Com este formato, podem-se apresentar informações
resumidas sobre os casos individuais, se estas não forem totalmente ignoradas
(YIN, 2001).

Segundo Yin (2001), os capítulos, as seções, os subtópicos e outras


partes integrantes de um relatório devem ser organizados de alguma maneira e
essa estrutura constitui a estrutura ilustrativa do relatório. O quadro 10.10
apresenta um resumo de seis estruturas alternativas para compor os relatórios
de estudo de caso.

127
Quanto aos procedimentos para se fazer o relatório do estudo de caso,
Yin (2001) adverte que os pesquisadores devem sempre se lembrar de que
escrever significa reescrever. Quanto mais se reescrever, especialmente em
resposta aos comentários dos outros, melhor o relatório final ficará. O quadro
10.11 apresenta um resumo de três procedimentos importantes que constituem
características específicas dos estudos de caso.

128
Finalmente, Yin (2001) sugere cinco características que tornam um
estudo de caso exemplar. Ele realça que o estudo de caso exemplar vai além
dos procedimentos metodológicos já mencionados ao longo deste capítulo.
Essas cinco características devem indicar que o estudo de caso é ou deve:

Significativo: isso acontece quando o caso ou casos individuais não


forem usuais e de interesse público; as questões subjacentes forem de
importância nacional, tanto em termos teóricos quanto em termos políticos ou
práticos; ou as duas condições anteriores.

Completo: essa completude pode ser caracterizada de três maneiras.

Primeiro, o caso completo é aquele em que os limites do caso recebem


uma atenção explícita.

Segundo, ele deve demonstrar, de maneira convincente, que o


pesquisador despendeu esforços exaustivos ao coletar as evidências
relevantes. A documentação dessas evidências não precisar ser incluída no
texto do caso, o que o tornaria entediante.
129
Terceiro, um estudo de caso não estará completo se o estudo
simplesmente terminar porque os recursos se esgotaram, porque o
pesquisador excedeu o tempo ou porque ele enfrentou outras limitações que
não tinham relação com a pesquisa. O correto seria o pesquisador projetar um
estudo de caso que pode ser incluído dentro desses limites.

Considerar perspectivas alternativas: para os estudos de caso


explanatórios, uma abordagem muito valiosa é o exame de proposições
concorrentes e a análise de evidências nos termos dessas proposições.
Entretanto, mesmo ao se realizar um estudo de caso exploratório ou descritivo,
a consideração das evidências a partir de perspectivas diferentes aumentará as
chances de o estudo de caso ser exemplar.

Apresentar evidências suficientes: o estudo de caso deve apresentar


evidências convincentes para que o leitor possa fazer um julgamento
independente em relação ao mérito da análise. Essa seletividade não quer
dizer que as evidências devam ser citadas de uma maneira tendenciosa. Pelo
contrário, as evidências devem ser apresentadas de forma neutra, tanto com
dados de sustentação quanto com dados de contestação.

Ser elaborado de uma maneira atraente: ou seja, ele deve ser escrito em
um estilo claro e que incite o leitor a continuar lendo. Engajamento, instigação e
sedução, essas são características incomuns dos estudos de caso. Produzir
um estudo de caso como esse exige que o pesquisador seja entusiástico em
relação à investigação e deseje transmitir amplamente os resultados obtidos.

130
CAPÍTULO 11 – ESTRATÉGIA DE PESQUISA V: PESQUISA-AÇÃO

Origem da pesquisa-ação

Segundo Susman e Evered (1978), o termo pesquisa-ação foi


introduzido por Kurt Lewin em 1946 para denotar uma abordagem pioneira da
pesquisa social que combinava a geração de teoria com a mudança do sistema
social através da ação do pesquisador no sistema social. A ação, por si só, é
apresentada na forma de mudança no sistema e de geração de conhecimento
crítico sobre a mesma.

O que é a pesquisa-ação e quando ela pode ser utilizada

A pesquisa-ação é um termo genérico, que cobre muitas formas de


pesquisa orientada para a ação, e indica uma diversidade na teoria e na prática
entre os pesquisadores usuários deste método, fornecendo um amplo leque de
opções para os potenciais pesquisadores para o que pode ser apropriado para
suas questões de pesquisa (COUGHLAN e COUGHLAN, 2002).

Segundo Thiollent (2005), a pesquisa-ação é um tipo de pesquisa social


com base empírica que é concebida e realizada em estreita associação com
uma ação ou com a resolução de um problema coletivo e no qual os
pesquisadores e os participantes representativos da situação ou do problema
estão envolvidos de modo cooperativo ou participativo.

Para tentar esclarecer ainda mais o significado de pesquisa-ação, Oquist


(1978) afirma que pesquisa é a produção de conhecimento e ação é a
modificação intencional de uma dada realidade. A ação implica em
consequências que modificam uma dada realidade independente da ação ser
de sucesso ou não em termos da intenção de modificar a realidade em questão
em uma dada direção.

Bryman (1989) considera que a pesquisa-ação é uma abordagem a


pesquisa social aplicada na qual o pesquisador e o cliente colaboram no
desenvolvimento de um diagnóstico e para a solução de um problema, por
meio da qual as descobertas resultantes irão contribuir para a base de
conhecimento em um domínio empírico particular.

Ao nível das definições, uma questão frequentemente discutida é a de


saber se existe uma diferença entre pesquisa-ação e pesquisa participante. De
acordo com Thiollent (2005), toda pesquisa-ação é do tipo participativo, ou
seja, a participação das pessoas implicadas nos problemas investigados é
absolutamente necessária. No entanto, tudo o que é chamado pesquisa
participante não é pesquisa-ação. Isso porque a pesquisa participante é, em
alguns casos, um tipo de pesquisa baseado numa metodologia de observação
131
participante na qual os pesquisadores estabelecem relações comunicativas
com pessoas ou grupos da situação investigada com o intuito de serem mais
bem aceitos.

Para não haver dúvidas, Thiollent (2005) explica que uma pesquisa pode
ser qualificada de pesquisa-ação quando houver realmente uma ação por parte
das pessoas ou grupos implicados no problema sob observação. Além disso, é
preciso que a ação seja uma ação não-trivial, o que quer dizer uma ação
problemática merecendo investigação para ser elaborada e conduzida. Na
pesquisa-ação os pesquisadores desempenham um papel ativo no
equacionamento dos problemas encontrados, no acompanhamento e na
avaliação das ações desencadeadas em função dos problemas.

As principais características que definem a pesquisa-ação são:

Pesquisa com ação, ao invés de pesquisa sobre a ação: a ideia central é


que a pesquisa-ação utiliza uma abordagem científica para estudar a resolução
de importantes assuntos sociais ou organizacionais juntamente com aqueles
que experimentam esses assuntos diretamente. A pesquisa-ação trabalha
através de um processo cíclico de quatro passos: planejamento, tomada de
ação e avaliação da ação, levando para outro planejamento e assim por diante.

Participativa: membros do sistema que está sendo estudado participam


ativamente no processo cíclico citado acima. Tal participação contrasta com a
pesquisa tradicional onde os membros do sistema são objetos de estudo.
Riordan (1995) busca apresentar um paralelo entre observador e participante.
Segundo ele, o observador é independente dos eventos observados e dá como
exemplo um torcedor em um estádio que possui uma visão geral de tudo o que
acontece na partida, vendo coisas que nenhum jogador particular pode ver. Já
o participante procura gerar um entendimento adequado da realidade social ou
organizacional, entendendo seu trabalho e reproduzindo os significados do
papel dos atores em termos de propósitos e valores do ambiente da pesquisa.

Simultânea com a ação: a meta é fazer a ação mais efetiva enquanto


simultaneamente é construído um corpo de conhecimento científico.

Sequência de eventos e uma abordagem para a solução de problemas:


como uma sequência de eventos, ela compreende ciclos iterativos de coleta de
dados, realimentação desses dados para aqueles interessados, análise dos
dados, planejamento das ações, tomada de ações e avaliação, levando para
nova coleta de dados e assim por diante. Como uma abordagem para a
solução de problemas, ela é uma aplicação do método científico na descoberta
do fato e experimentação para os problemas práticos que requerem ações de
solução e envolvendo a colaboração e cooperação dos pesquisadores e dos

132
membros do sistema organizacional. As saídas desejadas da abordagem da
pesquisa-ação não são apenas soluções para os problemas imediatos, mas
importantes aprendizados destas saídas, intencionais ou não, além de uma
contribuição para a teoria e para o conhecimento científico.

Outras dez características da pesquisa-ação são:

 Pesquisadores tomam ações e ativamente trabalham para isto


acontecer;

 Envolve duas metas: solucionar um problema e contribuir para a ciência


(aumentar o conhecimento dos pesquisadores e o conhecimento ou o
nível de consciência das pessoas e grupos envolvidos);

 Requer cooperação entre os pesquisadores e o pessoal da empresa


sendo, portanto, interativa. Os membros da empresa são co-
pesquisadores na medida em que o pesquisador trabalha com eles
sobre um problema que deve ser resolvido ou aperfeiçoado, gerando
uma contribuição para o corpo do conhecimento. Segundo Thiollent
(2005), desta interação resulta a ordem de priorização dos problemas a
serem pesquisados e das soluções a serem encaminhadas sob a forma
de ação concreta;

 Visa o desenvolvimento de um entendimento holístico, desse modo os


pesquisadores necessitam ter uma visão geral de como o sistema
funciona e ser capaz de se movimentar entre as estruturas formal e
técnica e as estruturas informais dos subsistemas.

 Trata fundamentalmente de mudança, sendo aplicável para o


entendimento, planejamento e implementação de mudanças em
diversos tipos de empresas;

 Requer um entendimento da estrutura ética, valores e normas quando


utilizada em um contexto particular;

 Pode incluir todos os tipos de técnicas de coleta de dados, tal como


ferramentas qualitativas e quantitativas como as entrevistas e as
surveys. As técnicas de coletas de dados são por si somente
intervenções e geram dados;

 Requer um largo pré-entendimento do ambiente empresarial, das


condições do negócio, da estrutura e dinâmica dos sistemas
operacionais e das justificativas teóricas de tais sistemas;

133
 Deveria ser conduzida em tempo real, apesar de que uma pesquisa-
ação retrospectiva seja aceitável;

 O paradigma da pesquisa-ação requer os seus próprios critérios de


qualidade.

A pesquisa-ação é apropriada quando a questão de pesquisa relaciona-


se em descrever o desdobramento de uma série de ações ao longo do tempo
em um dado grupo, comunidade ou organização; para explicar como e porque
a ação de um membro de um grupo pode mudar ou melhorar o trabalho de
alguns aspectos do sistema; e para entender o processo de mudança ou de
melhoria para aprender com ele.

Segundo Ballantyne (2004), existe um senso comum de que o propósito


da pesquisa-ação é mudar um sistema organizacional ou social particular no
qual os participantes estão envolvidos. Em outras palavras, a pesquisa-ação é
uma forma de investigação pautada em ações de seus participantes e em suas
reflexões críticas a respeito das consequências das suas ações. Desta forma o
conhecimento acontece, e é ampliado pela pesquisa como base para as ações
subsequentes.

Thiollent (2005) afirma que a configuração da pesquisa-ação depende


dos seus objetivos e do contexto no qual é aplicada. No primeiro caso, a
pesquisa-ação é organizada para realizar os objetivos práticos de um ator
social homogêneo dispondo de suficiente autonomia para encomendar e
controlar a pesquisa. Os pesquisadores assumem os objetivos definidos e
orientam a investigação em função dos meios disponíveis. No segundo caso, a
pesquisa-ação é realizada dentro de uma organização (empresa ou instituição)
na qual existe hierarquia ou grupos cujos relacionamentos são problemáticos.
Considera-se, no plano ético, que os pesquisadores da linha da pesquisa-ação
não podem aceitar trabalhar em pesquisas manipuladas por uma das partes
nas organizações.

Quanto a objetivos, a pesquisa-ação se divide em (THIOLLENT, 2005):

a) Objetivo prático: contribuir para o melhor equacionamento possível do


problema considerado como central da pesquisa, com levantamento de
soluções e proposta de ações correspondentes às soluções para auxiliar o
agente na sua atividade transformadora da situação.

b) Objetivo do conhecimento: obter informações que seriam de difícil


acesso por meio de outros procedimentos, aumentar nosso conhecimento de
determinadas situações.

134
Thiollent (2005) afirma que a relação existente entre esses dois tipos de
objetivos é variável, mas que um equilíbrio entre as duas ordens de
preocupação deve ser mantido.

Segundo Oquist (1978), a pesquisa-ação é altamente controversa.


Disputas a respeito da forma como o conhecimento da ciência social é
produzido geralmente passa por controvérsias ideológicas e partidárias.

Com frequência é discutida a real contribuição da pesquisa-ação em


termos de conhecimento. Na prática, nem todas as pesquisas-ação chegam a
contribuir para a produção de conhecimentos novos. Segundo Thiollent (2005),
entre os objetivos de conhecimento potencialmente alcançáveis com a
pesquisa-ação, destacam-se:

 A coleta de informação original acerca de situações ou de atores em


movimento;

 A concretização de conhecimentos teóricos, obtida de modo dialogado


na relação entre pesquisadores e membros representativos das
situações ou problemas investigados;

 A comparação das representações próprias aos vários interlocutores,


com aspecto de cotejo entre saber formal e saber informal acerca da
resolução de diversas categorias de problemas;

 A produção de guias ou de regras práticas para resolver os problemas e


planejar as correspondentes ações;

 Os ensinamentos positivos ou negativos quanto à conduta da ação e


suas condições de êxito;

 Possíveis validações estabelecidas a partir de várias pesquisas


semelhantes e com o aprimoramento da experiência dos pesquisadores.

O papel da metodologia

Parece haver certa imprecisão no uso dos termos terminologia, método


e técnica.

Segundo Thiollent (2005), a metodologia é entendida como uma


disciplina que se relaciona com a filosofia da ciência. Seu objetivo consiste em
analisar as características dos vários métodos disponíveis, avaliar suas
capacidades, potencialidades, limitações ou distorções e criticar os
pressupostos ou as implicações de sua utilização. A metodologia lida com a
avaliação de técnicas de pesquisa e com a geração ou a experimentação de
135
novos métodos que remetem aos modos efetivos de captar e processar
informações e resolver diversas categorias de problemas teóricas e práticas da
investigação. Além de ser uma disciplina que estuda os métodos, a
metodologia é também considerada como modo de conduzir a pesquisa. Nesse
sentido, a metodologia pode ser vista como conhecimento geral e habilidade
que são necessários ao pesquisador para se orientar no processo de
investigação, tomar decisões oportunas, selecionar conceitos, hipóteses,
técnicas e dados adequados. Além disso, o estudo da metodologia exerce uma
importante função de ordem pedagógica, isto é, a formação do estado de
espírito e dos hábitos correspondentes ao ideal da pesquisa científica.

Sendo assim, a pesquisa-ação não é considerada como metodologia.


Trata-se de um método, ou de uma estratégia de pesquisa agregando vários
métodos ou técnicas de pesquisa social, com os quais estabelece uma
estrutura coletiva, participativa e ativa ao nível da captação de informação. A
metodologia das ciências sociais considera a pesquisa-ação como qualquer
outro método (THIOLLENT, 2005).

O papel da metodologia consiste também no controle detalhado de cada


técnica auxiliar utilizada na pesquisa. A pesquisa-ação, definida como método
(ou como estratégia de pesquisa), contém diversos métodos ou técnicas
particulares em cada fase ou operação do processo de investigação. Assim, há
técnicas para coletar e interpretar dados, resolver problemas, organizar ações,
etc. A diferença entre método e técnica reside no fato de que a segunda possui
em geral um objetivo muito mais restrito do que o primeiro. Seja como for,
podemos considerar que, no desenvolvimento da pesquisa-ação, os
pesquisadores recorrem a métodos e técnicas de grupos para lidar com a
dimensão coletiva e interativa da investigação e também técnicas de registro,
de processamento e de exposição de resultados. Em certos casos, os
convencionais questionários e as técnicas de entrevista individual são
utilizados como meio de informação complementar. Também a documentação
disponível é levantada. Em certos momentos da investigação recorre-se
igualmente a outros tipos de técnicas: diagnósticos de situação, resolução de
problemas, mapeamento de representações, etc. Na parte informativa da
investigação, técnicas didáticas e técnicas de divulgação ou de comunicação,
inclusive audiovisual, também fazem parte dos recursos mobilizados para o
desenvolvimento da pesquisa-ação (THIOLLENT, 2005).

Outra questão a ser considerada é aquela na qual muitos autores


consideram que para a pesquisaação não se aplica o tradicional esquema de
formulação de hipóteses, coleta de dados e comprovação (ou refutação) das
hipóteses.

136
Segundo Thiollent (2005), pode-se considerar que a pesquisa-ação
opera a partir de determinadas instruções (ou diretrizes) relativas ao modo de
encarar os problemas identificados na situação investigada e relativa aos
modos de ação. Essas diretrizes possuem um caráter menos rígido do que as
hipóteses, porém desempenham uma função semelhante. A substituição das
hipóteses por diretrizes não implica que a forma de raciocínio hipotética seja
dispensável no decorrer da pesquisa. Trata-se de definir problemas de
conhecimento ou de ação cujas possíveis soluções, num primeiro momento,
são consideradas como suposições (quase-hipóteses) e, num segundo
momento, objeto de verificação, discriminação e comprovação em função das
situações constatadas. A formulação das hipóteses (ou das quase-hipóteses)
permite ao pesquisador organizar o raciocínio estabelecendo pontes entre as
ideias gerais e as comprovações por meio de observação concreta.

Implementação da pesquisa-ação

O ciclo de pesquisa-ação compreende três tipos de passos:

 Pré-passo: para entender o contexto e a proposta;

 Seis passos principais: para coletar, realimentar e analisar dados, e para


planejar, implementar e avaliar as ações;

 Meta-passo para monitoração: este é o foco para uma dissertação de


mestrado.

Pré-passo: entendendo o contexto e a proposta

Segundo Coughlan e Coughlan (2002), o pré-passo é dirigido por duas


questões relacionadas com a racionalidade para a ação e para a pesquisa.

A racionalidade para a ação começa quando a pesquisa-ação se


desdobra em tempo real e começa com os membros-chaves da organização
desenvolvendo um entendimento do contexto do projeto da ação:

 Por que o projeto é necessário ou desejável?

 Quais são as forças econômicas, políticas, sociais e técnicas que


governam a necessidade para a ação?

A análise dessas forças identifica sua fonte, sua potencialidade e a


natureza da demanda que elas têm sobre o sistema.

Um segundo elemento-chave contextual é o grau de escolha que o


sistema cliente faz para a tomada da ação. As escolhas não são absolutas.

137
Enquanto pode não haver controle sobre as forças que demandam ação, existe
um controle adequado sobre como responder a estas forças. Neste caso
parece haver um escopo sobre quais mudanças, como e em que escala de
tempo a ação acontecerá.

A racionalidade para a pesquisa envolve o questionamento do porque


desta ação ser digna de ser estudada, como a pesquisa-ação pode ser
considerada a metodologia apropriada a ser adotada e qual a contribuição
esperada para desenvolver o conhecimento.

Para Thiollent (2005) esta é a chamada fase exploratória, que consiste


em descobrir o campo de pesquisa, os interessados e suas expectativas e
estabelecer um primeiro levantamento (ou diagnóstico) da situação, dos
problemas prioritários e de eventuais ações. Após o levantamento de todas as
informações iniciais, os pesquisadores e os participantes estabelecem os
principais objetivos da pesquisa. Os objetivos dizem respeito aos problemas
considerados como prioritários, ao campo de observação, aos atores e ao tipo
de ação que estarão focalizados no processo de investigação.

Em seguida, deve ser definido o tema da pesquisa. Thiollent (2005)


afirma que o tema da pesquisa é a designação do problema prático e da área
de conhecimento a serem abordados. Ele deve ser definido de modo simples e
sugerir os problemas e o enfoque que serão selecionados. Na pesquisa-ação,
a concretização do tema e seu desdobramento em problemas a serem
detalhadamente pesquisados são realizados a partir de um processo de
discussão com os participantes. Quando um primeiro tema se revelar inviável a
curto prazo, é bom delimitar um tema que esteja ao alcance dentro de um
prazo razoável. Na pesquisa-ação, em geral, o tema é solicitado pelos atores
da situação. Contudo, um acordo entre os participantes e entre os
pesquisadores deve ser procurado.

Nesta fase inicial é necessário dar uma atenção especial à colocação


dos problemas principais a partir dos quais a investigação será desencadeada.
Trata-se de definir uma problemática na qual o tema escolhido adquira sentido.
Esta problemática deve ser entendida como a colocação dos problemas que se
pretende resolver dentro de um certo campo teórico e prático. Na pesquisa
científica, o problema ideal pode remeter à constatação de um fato real que
não seja adequadamente explicado pelo conhecimento disponível
(THIOLLENT, 2005).

No caso da pesquisa-ação, os problemas colocados são inicialmente de


ordem prática. Trata-se de procurar soluções para se chegar a alcançar um
objetivo ou realizar uma possível transformação dentro da situação observada.

138
Na sua formulação, um problema desta natureza é colocado da seguinte forma
(THIOLLENT, 2005):

a) Análise e delimitação da situação real;

b) Delineamento da situação final, em função de critérios de


desejabilidade e de factibilidade;

c) Identificação de todos os problemas a serem resolvidos para permitir


a passagem de (a) para (b);

d) Planejamento das ações correspondentes;

e) Execução e avaliação das ações.

Thiollent (2005) considera que o projeto de pesquisa-ação precisa ser


articulado dentro de uma problemática com um quadro de referência teórico
adaptado aos diferentes setores. O papel da teoria consiste em gerar ideias,
hipóteses ou diretrizes para orientar a pesquisa e as interpretações. Os
pesquisadores devem ficar atentos para que a discussão teórica não
desestimule e não afete os participantes que não dispõem de uma formação
teórica. Certos elementos teóricos deverão ser adaptados ou traduzidos em
linguagem comum para permitir um certo nível de compreensão.

Como qualquer pesquisa social, na pesquisa-ação o uso de


procedimentos hipotéticos não será descartado, será apenas suavizado. De
acordo com Thiollent (2005), uma hipótese é simplesmente definida como
suposição formulada pelo pesquisador a respeito de possíveis soluções a um
problema, colocado na pesquisa, principalmente ao nível observacional. A
hipótese desempenha um importante papel na organização da pesquisa: a
partir da sua formulação, o pesquisador identifica as informações necessárias,
evita a dispersão, focaliza determinados segmentos do campo de observação,
seleciona dados, etc. A hipótese, ou diretriz, deve ser formulada em termos
claros e concisos, sem ambiguidade gramatical e designar os objetos em
questão a respeito dos quais seja possível fornecer provas concretas ou
argumentos convincentes, favoráveis ou não. A hipótese qualitativa é usada
para organizar a pesquisa em torno de possíveis conexões ou implicações não-
causais, mas suficientemente precisas para se estabelecer que uma variável
independente X tem algo a ver com a variável dependente Y na situação
considerada. Em função das hipóteses ou diretrizes escolhidas, os
pesquisadores sabem quais são as informações que são necessárias e as
técnicas de coleta a serem utilizadas. Na pesquisa-ação, recorre-se a técnicas
de coleta de grupo e aos mais diversos procedimentos, inclusive questionários

139
e entrevistas, sendo utilizadas como instrumentos de captação auxiliar
(THIOLLENT, 2005).

A partir do momento em que os pesquisadores e os interessados na


pesquisa estão de acordo sobre os objetivos e os problemas a serem
examinados, começa a constituição dos grupos que irão conduzir a
investigação e o conjunto do processo, no que Thiollent (2005) denominou de
seminário.

O seminário centraliza todas as informações coletadas e discute as


interpretações, sendo que seus resultados são registrados em atas. As
principais tarefas do seminário, segundo Thiollent (2005) são:

 Definir o tema e equacionar os problemas para os quais a pesquisa foi


solicitada;

 Elaborar a problemática na qual serão tratados os problemas e as


correspondentes hipóteses de pesquisa;

 Constituir os grupos de estudos e equipes de pesquisa, além de


coordenar suas atividades;

 Centralizar as informações provenientes das diversas fontes e grupos;

 Elaborar as interpretações;

 Buscar soluções e definir diretrizes de ação;

 Acompanhar e avaliar as ações;

 Divulgar os resultados pelos canais apropriados.

Dentro do seminário, os pesquisadores assumem os seguintes papéis:

 Colocar a disposição dos participantes os conhecimentos de ordem


teórica ou prática para facilitar a discussão dos problemas;

 Elaborar atas de reuniões, elaborar os registros de informação coletada


e os relatórios de síntese;

 Conceber e aplicar, no desenvolvimento do projeto, modalidades de


ação, em estreita colaboração com os demais participantes;

 Participar de uma reflexão global para eventuais validações e discussão


dos resultados no quadro mais abrangente das ciências sociais ou de
outras disciplinas implicadas no problema.
140
Passos principais

Os seis passos principais relacionam-se primeiro com os dados e então


com a ação. Esses passos são os seguintes:

a) Coleta de dados

Os dados são coletados de diferentes formas, dependendo do contexto,


por grupos de observação e por pesquisadores. Existem os chamados dados
peso-pesados. Esses dados são coletados através, por exemplo, de estatística
operacional, informes financeiros e relatórios de marketing. Existem também os
dados peso-leves. Esses são coletados através de observação, discussões e
entrevistas. A suposta leveza reside no fato de que esses dados são baseados
na percepção e pode ser difícil de interpretar a sua validade (COUGHLAN e
COUGHLAN, 2002).

Segundo Thiollent (2005), as principais técnicas utilizadas são a


entrevista coletiva nos locais de trabalho e a entrevista individual aplicada de
modo aprofundado. Ao lado dessas técnicas também são utilizados
questionários convencionais que são aplicáveis em maior escala. No que diz
respeito à informação já existente, diversas técnicas documentais permitem
resgatar e analisar o conteúdo de arquivos ou de jornais.

Conforme Coughlan e Coughlan (2002), para o pesquisador, a geração


dos dados vem através do envolvimento ativo no dia-a-dia dos processos
organizacionais relacionados com o projeto de pesquisa-ação.

Os dados não são gerados apenas da participação e observação das


equipes no trabalho, de problemas sendo resolvidos, decisões sendo tomadas,
mas também através de intervenções que são feitas para avançar o projeto.
Algumas dessas observações e intervenções são realizadas de maneira formal,
através de reuniões e entrevistas; muitas são realizadas de maneira informal,
durante o cafezinho, jantar ou atividades recreativas.

Na pesquisa-ação a observação direta do comportamento é uma


importante fonte de dados para o pesquisador. Ele lida com fenômenos
observáveis diretamente nas organizações com as quais ele trabalha.

O ponto crítico está no como ser útil para o sistema cliente e, ao mesmo
tempo, como investigar sobre o que está sendo observado (COUGHLAN e
COUGHLAN, 2002).

Thiollent (2005) afirma que sejam quais forem as técnicas utilizadas, os


grupos de observação compostos de pesquisadores e de participantes comuns
procuram a informação que é julgada necessária para o andamento da
141
pesquisa, respondendo a solicitação do seminário. Todas as informações
coletadas pelos diversos grupos de observação e pesquisadores de campo são
transferidas ao seminário, onde são discutidas, analisadas, interpretadas, etc.

b) Realimentação dos dados

O pesquisador recolhe os dados coletados e o realimenta para o sistema


cliente com uma conotação para torná-lo disponível para análise. Algumas
vezes o pesquisador coletou os dados e faz o relatório; outras vezes, a própria
organização coleta os dados e o pesquisador facilita ou participa nas reuniões
de realimentação (COUGHLAN e COUGHLAN, 2002).

c) Análise dos dados

Segundo Coughlan e Coughlan (2002), o aspecto crítico da análise de


dados na pesquisa-ação é que ela é colaborativa, tanto o pesquisador quanto
os membros do sistema cliente (por exemplo, o time de gerentes, um grupo de
clientes, etc.) fazem-na juntos. Esta abordagem colaborativa é baseada na
suposição de que os clientes conhecem melhor a sua empresa, sabem o que
irá funcionar e, principalmente, serão aqueles que irão implementar e seguir as
ações a serem implementadas. Portanto, seu envolvimento na análise é crucial.
Os critérios e ferramentas para a análise precisam ser discutidos e, em última
instância, necessitam ser diretamente ligados ao propósito da pesquisa e no
âmago das intervenções.

d) Planejamento da ação

Coughlan e Coughlan (2002) consideram que após as análises, mais


adiante a ação é planejada. O pesquisador e os membros da organização
decidem quem faz o que e em um prazo adequado. Algumas questões chaves
surgem:

 O que precisa mudar?

 Em que partes da organização?

 Que tipos de mudanças são necessárias?

 Que tipo de apoio é necessário?

 Como é o compromisso a ser formado?

 Qual é a resistência a ser gerenciada?

Essas questões são críticas e necessitam ser respondidas como parte


do plano de mudança.
142
e) Implementação

O cliente implementa a ação planejada. Segundo Thiollent (2005), a


ação corresponde ao que precisa ser feito (ou transformado) para realizar a
solução de um determinado problema. Para Coughlan e Coughlan (2002), esta
tarefa envolve realizar as mudanças desejadas e seguir os planos de forma
colaborativa com relevantes membros-chaves da organização.

f) Avaliação

Coughlan e Coughlan (2002) consideram que a avaliação envolve uma


reflexão sobre os resultados da ação, tanto intencionais quanto não
intencionais, uma revisão do processo para que o próximo ciclo de
planejamento e ação possa beneficiar-se do ciclo completado. A avaliação é a
chave para o aprendizado.

Sem ela as ações são implementadas ao acaso, independente de


sucesso ou fracasso, e os erros se proliferam, gerando um aumento da
ineficácia e da frustração.

Meta-passo: monitoramento

De acordo com Coughlan e Coughlan (2002), o monitoramento é um


meta-passo que ocorre em todos os ciclos. Cada ciclo de pesquisa-ação
conduz a um novo ciclo, e então planejamento, implementação e avaliação
contínuos acontecem ao longo do tempo, como ilustrado pela figura 11.2.

Portanto, a oportunidade para a aprendizagem contínua existe. Pode ser


útil perceber que os ciclos de coleta, realimentação, análise de dados,
planejamento das ações, tomada das ações e avaliação ocorrem
periodicamente na medida que ações particulares são planejadas e
implementadas. Alguns ciclos podem se referir a eventos específicos em um
ciclo de curto período; outros podem ser simultâneos e ao longo de um ciclo de
tempo maior. Certamente o papel do projeto de pesquisa-ação deve ser um
ciclo maior que envolve diversos outros ciclos menores (COUGHLAN e
COUGHLAN, 2002).

Idealmente, aqueles envolvidos nos ciclos de pesquisa-ação estão


continuamente monitorando cada um dos seis passos principais, investigando o
que está acontecendo, como esses passos estão sendo conduzidos e quais
suposições subjacentes são operativas. Enquanto os funcionários da
organização estudada focam os resultados práticos, o pesquisador não está
apenas interessado em como o projeto está funcionando, mas está também
monitorando o processo de aprendizagem e inquirindo na investigação
(COUGHLAN e COUGHLAN, 2002).
143
Geração da teoria através da pesquisa-ação

Inicialmente, trataremos sobre como escrever um relatório de pesquisa-


ação. Existem algumas convenções estabelecidas para se escrever tal
relatório. Alguns autores sugerem que este relatório seja estruturado da
seguinte forma:

 Propósito e racionalidade da pesquisa;

 Contexto;

 Metodologia e métodos de investigação;

 Conteúdo e resultados;

 Auto-reflexão e aprendizagem do pesquisador;

 Reflexão sobre o conteúdo sob a luz da experiência e da teoria;

 Extrapolação para um contexto mais amplo e articulação do


conhecimento utilizável.

Cada uma dessas estruturas não necessitam ser expressas na forma de


um capítulo diferente, mas cada uma delas deve ser tratada com formalismo.
Por exemplo, o conteúdo poderia ser dividido em diversos capítulos,
dependendo do seu nível de detalhamento e complexidade e da extensão do
processo de pesquisa (COUGHLAN e COUGHLAN, 2002).

Para Coughlan e Coughlan (2002), os projetos de pesquisa-ação são


específicos e não visam criar um conhecimento universal. Por outro lado, a
pesquisa-ação deve possuir algumas implicações além daquelas necessárias
para a ação ou o conhecimento no contexto do projeto. Algumas diretrizes úteis
para direcionar como a pesquisa-ação contribui para a teoria são:

 A pesquisa-ação gera teoria emergente, na qual a teoria se desenvolve


a partir de uma síntese daquilo que emerge dos dados e do que emerge
do uso na prática do corpo de teoria que informa a intervenção e a
intenção da pesquisa;

 A construção da teoria, como resultado da pesquisa-ação, será


incremental, movendo-se do particular para o geral em pequenos
passos;

144
 A pesquisa-ação depende de uma preocupação explícita com a teoria
que é formada do conceitualização da experiência particular em formas
de se tornarem intencionalmente significativas para os outros;

 Não é suficiente esboçar a generalidade da pesquisa-ação através do


projeto de ferramentas, técnicas e modelos, assim como base para o
seu projeto deve ser explícito e demonstrado para ser relacionado com a
teoria.

De forma a manter a validade, os pesquisadores devem


conscientemente e deliberadamente ordenar os ciclos da pesquisa-ação,
testando suas próprias suposições e submetendo suas suposições para o teste
público. A principal ameaça para a validade da pesquisa-ação é a falta de
imparcialidade por parte do pesquisador. Como estes estão engajados no
delineamento e na narração de uma história, eles precisam considerar a
extensão na qual a história é uma representação válida do que aconteceu e
como ela é entendida, em lugar de uma versão parcial (COUGHLAN e
COUGHLAN, 2002).

Coughlan e Coughlan (2002) destacam que uma crítica a pesquisa-ação


é rotulá-la como uma consultoria maquiada como pesquisa. Esta é uma crítica
que os pesquisadores devem levar a sério. Pode-se destacar quatro diferenças
básicas entre a consultoria e a pesquisa-ação:

 Consultores que trabalham segundo a estratégia da pesquisa-ação


necessitam ser mais rigorosos na sua investigação e documentação;

 Pesquisadores requerem justificações teóricas, enquanto os consultores


requerem justificações empíricas;

 Consultores trabalham sob cronograma apertado e restrições de


orçamento;

 A consultoria é frequentemente linear (contratação, análise, ação e


encerramento). Em contraste, a pesquisa-ação é cíclica (coleta de
dados, realimentação, análise, planejamento das ações, tomada de
ações e avaliação), conduzindo para uma próxima etapa de coleta de
dados e, assim, sucessivamente.

Bryman (1989) afirma que a pesquisa-ação contrasta com o


relacionamento consultor-cliente, no qual os funcionários podem ter pouca ou
nenhuma participação na natureza e direcionamento do esforço de pesquisa, e
no qual existe pouco interesse na possível contribuição da investigação para a
base de conhecimento.

145
Bibliografia
1. ALVES, R. Filosofia da ciência: introdução ao jogo e a suas regras. 11ª
Ed., São Paulo: Edições Loyola, 2006.

2. APPOLINÁRIO, F. Metodologia da ciência – filosofia e prática da


pesquisa. São Paulo: Editora Pioneira Thomson Learning, 2006.

3. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 10520 –


Informação e documentação. Citação em documentos. Apresentação.
Rio de Janeiro, ago 2002a.

4. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 6023 –


Informação e documentação. Referências. Elaboração. Rio de Janeiro,
ago 2002b.

5. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 14724 –


Informação e documentação. Trabalhos acadêmicos - Apresentação. Rio
de Janeiro, dez 2005.

6. BALLANTYNE, D. Action research reviewed: a market-oriented


approach. European Journal of Marketing, v. 38, n. 3/4, p. 321-337,
2004.

7. BEM, D. J. Writing a review article for Psychological Bulletin.


Psychological Bulletin, v. 118, n. 2, p. 172-177, 1995.

8. BERTRAND, J. W. M.; FRANSOO, J. C. Modelling and simulation:


operations management research methodologies using quantitative
modeling. International Journal of Operations & Production Management,
v. 22, n. 2, p. 241-264, 2002.

9. BIEMER, P. P.; LYBERG, L. E. Introduction to survey quality. New


Jersey: John Wiley and Sons Inc., 2003. BROWN, R. How to prepare a
literature review. Disponível em:
<http://www.csu.edu.au/faculty/commerce/research/students/literature/rbr
own_litreview.pdf>. Acesso em: 08 mar. 2002.

10. BRYMAN, A. Research methods and organization studies (contemporary


social research). 1st edition, London: Routledge, 1989.

11. CHUNG, C. A. Simulation modeling handbook: a practical approach.


Florida: CRC Press, 2004.

146
12. CLEGG, C.; WALSH, S. Soft Systems Analysis. In Symon, G.; Cassel, C.
Qualitative Methods and Analysis in Organizational Research: A
Practical Guide. California: Sage Publications Ltd., 1998.

13. COUGHLAN, P.; COGHLAN, D. Action research. Action research for


operations management. International Journal of Operations &
Production Management, v. 22, n. 2, p. 220-240, 2002.

14. CRASWELL, G. Writing for academic success: a postgraduate guide.


London: Sage Publications, 2005.

15. CRESWELL, J. W.; PLANO CLARK, V. L. Designing and conducting


mixed methods research. California: Sage Publications, 2007, 265p.

16. CUNHA, G. D. Um Panorama da Engenharia de Produção. Porto Alegre,


2002, disponível no site da ABEPRO, < www.abepro.org.br >. Acesso
em 27/02/2007.

17. CULNAN, M. J. Mapping the intellectual structure of MIS, 1980-1985: a


co-citation analysis. Management of Information System Quarterly, v.11,
n. 3, p. 341-353, 1987.

18. DEMO, P. Metodologia do conhecimento científico. 1ª ed., 3ª tir., São


Paulo: Editora Atlas, 2000.

19. DIODATO V. Dictionary of Bibliometrics. NY: Haworth Press:


Binghamton, 1994.

20. DUARTE, R. N. Simulação computacional: análise de uma célula de


manufatura em lotes do setor de autopeças. 2003. Dissertação
(Mestrado em Engenharia de Produção) do Programa de Pós-
Graduação em Engenharia de Produção, UNIFEI, Itajubá/MG, 2003.

21. EISENHARDT, K. M. Building theories from case study research. The


Academy of Management Review, v. 14, n. 4, p. 532-550, Oct. 1989.

22. FAÉ, C. S.; RIBEIRO, J. L. D. Um retrato da engenharia de produção no


Brasil. Revista Gestão Industrial, v. 1, n. 3, p. 315-324, 2005.

23. FILIPPINI, R. Operations management research: some reflections on


evolution, models and empirical studies in OM. International Journal of
Operations & Production Management, v. 17, n. 7, p. 655-670, 1997.

24. FINK, A.; KOSECOFF, J. How to conduct surveys – a step-by-step


guide. 2a. Ed., Thousand Oaks, California: Sage Publications, 1998.

147
25. FONSECA, J. J. S. Metodologia da pesquisa científica. Apostila do curso
de especialização em comunidades virtuais de aprendizagem –
informática educativa. Universidade Estadual do Ceará, Ceará, 2002.

26. FORZA, C. Survey research in operations management: a process-


based perspective. International Journal of Operations & Production
Management, v. 22, n. 2, p. 152-194, 2002.

27. FREITAS, H.; OLIVEIRA, M.; SACCOL, A. Z.; MOSCAROLA, J. O


método de pesquisa survey. Revista de Administração, v. 35, n. 3, p.
105-112, 2000.

28. GROVES, R. M.; FOWLER, F. J. Jr.; COUPER, M. P.; LEPKOWSKI, J.


M.; SINGER, E; TOURANGEAU, R. Survey methodology. New Jersey:
John Wiley and Sons Inc., 2004.

29. HANSON, W. E.; PLANO CLARK, V. L.; PETSKA, K. S.; CRESWELL, J.


W.; CRESWELL, J. D. Mixed Methods Research Designs in Counseling
Psychology. Journal of Counseling Psychology, v. 52, n. 2, p. 224-235,
2005.

30. HARREL, C. R.; GHOSH, B. K.; BOWDEN, R. Simulation using


promodel. New York: McGraw-Hill, 1996.

31. JICK, T. D. Mixing qualitative and quantitative methods: triangulation in


action. Administrative Science Quarterly, v. 24, p. 602-611, December,
1979.

32. JOHNSON, R. B.; ONWUEGBUZIE, A. J.; TURNER, L. A. Toward a


definition of mixed methods research. Journal of Mixed Methods
Research, v. 1, n. 2, p. 112-133, April 2007.

33. KIDDER, L. H. (org.). Métodos de pesquisa nas relações sociais. Volume


1: delineamentos de pesquisa. 4ª. ed., 3ª. reimpressão, São Paulo:
Editora Pedagógica e Universitária Ltda., 2004.

34. LEAL, F.; MONTEVECHI, J. A. B.; PINHO, A. F.; ALMEIDA, D. A.;


MARINS, F. A. S.; OLIVEIRA, J. B. Análise da capacidade de produção
e dimensionamento de estoques intermediários de processamento no
estudo de um novo processo de manufatura através da simulação de
eventos discretos. Anais do XXXVIII SBPO, Goiânia, 2006.

35. LEFFA, V. J. Aprendizagem de línguas mediada por computador.


Disponível em <

148
http://www.leffa.pro.br/HP_GTLA/livro/Aprend_med_computador.pdf>,
acesso em 06/01/2007.

36. LEONEL, S. G. Um estudo do processo de planejamento tecnológico de


uma empresa nascente: alinhando tecnologia, produto e mercado com
foco na necessidade do cliente. Dissertação de Mestrado em
Engenharia de Produção. Escola de Engenharia, Departamento de
Engenharia de Produção. Universidade Federal de Minas Gerais, Belo
Horizonte/MG, 2007.

37. LEWIN, K. Action research and minority problems. Journal of Social


Issues, v. 2, 1946, p. 34-46.

38. LEWIS, M. W. Iterative triangulation: a theory development process using


existing case studies. Journal of Operations Management, v. 16, p. 455-
469, 1998.

39. MARCONI, M. A.; LAKATOS, E. V. Fundamentos de metodologia


científica. 6ª ed., São Paulo: Editora Atlas, 2006.

40. MARTIN, P. Y.; TURNER, B. A. Grounded theory and organizational


research. The Journal of Applied Behavioral Science, v. 22, n. 2, p. 141-
157, 1986.

41. MATALLO JR., H. A problemática do conhecimento. In: CARVALHO, M.


C. M. de (org.). Construindo o saber: metodologia científica,
fundamentos e técnicas. 17ª ed., São Paulo: Editora Papirus, 2006.

42. MATTOS NETO, P. Planejamento de novos produtos por intermédio do


Método Technology

43. Roadmapping (TRM) em uma pequena empresa de base tecnológica do


setor de internet móvel. Dissertação de Mestrado em Engenharia de
Produção. Escola de Engenharia, Departamento de Engenharia de
Produção. Universidade Federal de Minas Gerais, Belo Horizonte/MG,
2005.

44. MEREDITH, J. Building operations management theory through case


and field research. Journal of Operations Management, v. 16, p. 441-
454, 1998.

45. MIGUEL, P. A. C. QFD no desenvolvimento de novos produtos: um


estudo sobre a sua introdução em uma empresa adotando a pesquisa-
ação como abordagem metodológica. Produção, v. 19, n. 1, p. 105-128,
jan./abr. 2009.

149
46. MULLER, M. S.; CORNELSEN, J. M. Normas e padrões para teses,
dissertações e monografias. 5ª Ed., Londrina: Editora da Universidade
Estadual de Londrina, 2003.

47. NIKOUKARAN, J.; HLUPIC, V.; PAUL, R. J. Criteria for simulation


software evaluation. Proceedings of the 1998 Winter Simulation
Conference, 1998.

48. NORONHA, J. C. Opções reais aplicadas à gestão do processo de


desenvolvimento de produto em uma indústria de autopeças.
Dissertação de Mestrado do Programa de Pós-Graduação em
Engenharia de Produção. Universidade Federal de Itajubá, Itajubá/MG,
2009.

49. OQUIST, P. The epistemology of action research. Acta Sociologica, v.


21, n. 2, 1978.

50. PEREIRA, I. C. Proposta de sistematização da simulação para


fabricação em lotes. Dissertação (Mestrado em Engenharia de
Produção) do Programa de Pós-Graduação em Engenharia de
Produção, UNIFEI, Itajubá/MG, 2000.

51. PORTELINHA, M. A. Contribuição do mapa estratégico para as atuações


na cadeia de suprimentos em uma empresa do setor elétrico.
Dissertação de mestrado do Programa de Pós-Graduação em
Engenharia de Produção. Universidade Federal de Itajubá (UNIFEI),
Itajubá, 2004.

52. RANCHHOD, A.; ZHOU, F. Comparing respondents of e-mail and mail


surveys: understanding the implications of technology. Marketing
Intelligence & Planning, v. 19, n. 4, p. 254-262, 2001.

53. RIORDAN, P. The philosophy of action science. Journal of Managerial


Psychology, v. 10, n. 6, p. 6-13, 1995.

54. ROBINSON, E. Simulation: the practice of model development and use.


England: John Wiley and Sons Ltd., 2004.

55. SALOMON, D. V. Como fazer uma monografia. 9ª ed., 2ª tiragem, São


Paulo: Editora Martins Fontes, 2000.

56. SARGENT, R. G. Validation and verification of simulation models.


Proceedings of the 2005 Winter Simulation Conference, p. 130-143,
2005.

150
57. SCHWAB, D. P. Research methods for organizational studies. 2a edição,
Routledge, 2005.

58. SEILA, A. F. Introduction to simulation. Proceedings of the 1995 Winter


Simulation Conference, 1995.

59. SERSON, S. M. Fábrica veloz: um modelo para competir com base no


tempo. Dissertação (Mestrado). Programa de Pós-Graduação em
Engenharia de Produção. Escola Politécnica da Universidade de São
Paulo, 1996.

60. SILVA, E. L.; MENEZES, E. M. Metodologia da pesquisa e elaboração


da dissertação. 3ª ed., Universidade Federal de Santa Catarina,
Programa de pós-graduação em engenharia de produção, laboratório de
ensino à distância, Florianópolis, 2001.

61. SUSMAN, G. I.; EVERED, R. D. An assessment of the scientific merits of


action research. Administrative Science Quarterly, v. 23, December,
1978.

62. SUTTON, R. I.; STAW, B. M. What theory is not. Administrative Science


Quarterly, n. 40, p. 371-384, 1995.

63. TAHAI, A.; MEYER, M. J. A revealed preference study of management


journal’s direct influences. Strategic Management Journal, v. 20, n. 3, p.
279-296, 1999.

64. TAYLOR, D. The literature review: a few tips on conducting it. Disponível
em <http://www.utoronto.ca/writing/>. Acesso em 20/03/2007.

65. THIOLLENT, M. Metodologia da pesquisa-ação. 14a. edição, São Paulo:


Cortez Editora, 2005.

66. TORRACO, R. J. Writing integrative literature reviews: guidelines and


examples. Human Resource Development Review, v. 4, n. 3, p. 356-367,
2005.

67. YIN, R. Estudo de caso. Planejamento e métodos. 2ª edição, Porto


Alegre/RS: Bookman, 2001.

68. YIN, R. Applications of case study research. Newbury Park, CA: Sage
Publishing, 1993.

69. VEIGA, J. E. Como elaborar seu projeto de pesquisa. São Paulo: USP,
1996. Disponível na URL: <

151
http://www.econ.fea.usp.br/zeeli/textos/outrostrabalhos/manual.doc>.
Acesso em 23/03/2007.

70. VERSIANI, F. R. Normas para a boa redação de trabalhos acadêmicos.


Departamento de Economia da Universidade de Brasília, 2001.
Disponível na URL: <http://www.unb.br/face/eco/textos/boaredacao.pdf>.
Acesso em 23/03/2007.

71. VOSS, C; TSIKRIKTSIS, N; FROHLICH, M. Case research in operations


management. International Journal of Operations & Production
Management, v. 22, n. 2, p. 195-219, 2002.

72. WACKER, J. G. A definition of theory: research guidelines for different


theory-building research methods in operations management. Journal of
Operations Management, n. 16, p. 361-385, 1998.

73. WEBSTER, J. e WATSON, R. T. Analysing the past to prepare for the


future: writing a literature review. MIS Quarterly, v. 26, n. 2, p. xiii-xxiii,
2002.

74. WEICK, K. Theory construction as disciplined imagination. Academy of


Management Review, v. 14, n. 4, p. 516-531, 1989.

75. WHETTEN, D. What constitutes a theoretical contribution? Academy of


Management Review, v. 14, n. 4, p. 490-495, 1989.

76. WOODSIDE, A. G. e WILSON, E. J. Case studies research methods for


theory building. Journal of Business and Industrial Marketing, v. 18, n.
6/7, p. 493-508, 2003.

152

Você também pode gostar