Você está na página 1de 489

Metodologia de Investigação

em Ciências Sociais
e Humanas: teoria e prática
Clara Pereira Coutinho
2014
2ª edição
METODOLOGIA DE INVESTIGAÇÃO EM CIÊNCIAS
SOCIAIS E HUMANAS: TEORIA E PRÁTICA
AUTOR
Clara Pereira Coutinho
EDITOR
EDIÇÕES ALMEDINA, S.A.
Rua Fernandes Tomás, nos 76, 78 e 79
3000-167 Coimbra
Tel.: 239 851 904 · Fax: 239 851 901
www.almedina.net · editora@almedina.net
DESIGN DE CAPA
FBA.
Abril, 2014
Toda a reprodução desta obra, por fotocópia ou outro qualquer processo, sem prévia
autorização escrita do Editor, é ilícita e passível de procedimento judicial contra o
infractor.

BIBLIOTECA NACIONAL DE PORTUGAL – CATALOGAÇÃO NA


PUBLICAÇÃO
COUTINHO, Clara Maria Gil Fernandes Pereira
Metodologia de Investigação em Ciências
Sociais e Humanas: teoria e prática
ISBN 978-972-40-5610-4
CDU 303
INTRODUÇÃO

Fazer perguntas é uma atividade especificamente humana, e


desde os primórdios da história que o homem se preocupa por
conhecer e compreender o mundo que o rodeia. Ou seja,
sempre manifestou o gosto por investigar. Conhecer as leis que
se escondiam por detrás dos fenómenos e que os regulavam,
saber que determinadas condições contribuíam para que os
fenómenos acontecessem, foi um desejo permanente do
homem que lhe deu a crença de que podia ser «dono do
universo».
A investigação científica e a Ciência são o resultado dessa
atitude incessante do homem de querer conhecer e dominar o
mundo; através ela, foram-se encontrando soluções para os
problemas que continuamente surgiam e, ao mesmo tempo,
foi-se acumulando um corpo de conhecimento que,
transmitido de geração e geração, chegou até aos nossos dias
(Latorre et al., 1996).
Investigar, etimologicamente, significa procurar e
investigação, procura: repare-se que é esse mesmo sentido que
está contido nas palavras research da língua inglesa e
recherche da língua francesa (e provavelmente também o da
palavra italiana ricerca). Naturalmente, se investigar é
procurar, nem toda a procura é investigação, em particular, se
o que tivermos em mente for o conhecimento científico e a
ciência.
Duas questões muito simples acorrem ao nosso espírito
quando se fala de investigação científica. A primeira é «Qual é
o meu problema?» e a segunda é «Que devo fazer?» Com estas
duas questões tão simples, temos a síntese do que constitui o
processo da investigação em qualquer área científica. É ou não
verdade que, quando se procura, procura-se sempre alguma
coisa, em algum lugar, com alguma intenção, de alguma
maneira? Então se investigar é procurar, impõem-se, portanto,
e imediatamente, outras tantas perguntas, como seja: procurar
o quê? Com que objetivos? Procurar como? E, também,
procurar para quê?
Questões que nos remetem para os propósitos da
investigação e da sua relevância. Investigar é assim uma
atividade que pressupõe algo que é investigado, uma
intencionalidade de quem investiga e um conjunto de
metodologias, métodos, e técnicas para que a investigação seja
levada a cabo numa continuidade que se inicia com uma
interrogação e termina com a apresentação pública dos
resultados da investigação.
A presente obra está organizada em três partes. Na
primeira, Fundamentos teóricos da investigação em CSH,
começamos por equacionar as condicionantes humanas e
culturais que condicionam as “escolhas” do investigador e
fazem com que investigação se desenvolva sempre num “aqui”
e num “agora” ou seja, dentro de um referencial teórico a que
chamamos paradigma de investigação.
Na segunda parte, O processo da investigação em CSH,
mais ligada à prática da pesquisa no terreno, apresentamos os
diferentes passos que compõem uma investigação em CSH,
desde a formulação do problema à redação do relatório de
investigação, passando pela constituição da amostra e escolha
dos métodos e técnicas mais apropriadas para a recolha e
tratamento dos dados.
Na terceira parte, Planos de investigação em CSH,
apresentamos alguns dos modelos metodológicos mais
utilizados na investigação social.
Parte I

Fundamentos Teóricos da Investigação em Ciências


Sociais e Humanas

A investigação é uma actividade de natureza cognitiva que


consiste num processo sistemático, flexível e objetivo de
indagação e que contribui para explicar e compreender os
fenómenos sociais. É através da investigação que se reflete e
problematizam os problemas nascidos na prática, que se
suscita o debate e se edificam as ideias inovadoras.
Quando se fala de investigação em CSH dois requisitos se
impõem: que seja científica – pautada pela sistematização e
pelo rigor – e que seja adequada ao objeto de estudo. Como
nos restantes campos e áreas do saber, a investigação em CSH
carateriza-se quer pela multiplicidade quer pela dependência
contextual.
A multiplicidade observa-se pela existência de diferentes
abordagens e/ou modelos, e/ou paradigmas, por exemplo, o
modelo das ciências naturais e o das ciências sociais, os
métodos indutivo e dedutivo, as técnicas quantitativa e
qualitativa, o que origina uma discussão, por vezes dicotómica
e contraditória, sobre os aspectos epistemológicos e
metodológicos da investigação.
A dependência contextual resulta do facto, inquestionável,
do cientista social não poder dissociar-se do contexto
sociocultural em que está inserido, partilhando muitas das
questões teóricas e metodológicas com outros investigadores,
actuando na base de uma especificidade própria,
comprometendo-se deliberadamente com um determinado
rumo na investigação: a ciência actual está intimamente
relacionada com os universos sociais em que é produzida.
Capítulo 1

Paradigmas, Metodologias e Métodos de


Investigação

1.1 Paradigmas da Investigação em CSH


O conceito de paradigma de investigação pode definir-se como
um conjunto articulado de postulados, de valores conhecidos,
de teorias comuns e de regras que são aceites por todos os
elementos de uma comunidade científica num dado momento
histórico (Coutinho, 2005). Significa um compromisso
implícito de uma comunidade de investigadores com um
quadro teórico e metodológico preciso, e, consequentemente,
uma partilha de experiências e uma concordância quanto à
natureza da investigação e à conceção do conhecimento
(Pacheco, 1993).
O conceito de paradigma deve-se ao célebre historiador
Thomas Kuhn que, na célebre obra The Structure of Scientific
Revolution (1962), o definiu como sendo, em primeiro lugar, o
conjunto de crenças, valores, técnicas partilhadas pelos
membros de um dada comunidade científica e, em segundo,
como um modelo para o “que” e para o “como” investigar
num dado e definido contexto histórico/social.
Na investigação científica o paradigma cumpre duas
funções principais: a de unificação de conceitos, de pontos de
vista, a pertença a uma identidade comum com questões
teóricas e metodológicas; a de legitimação entre os
investigadores, dado que um determinado paradigma aponta
para critérios de validez e de interpretação (Coutinho, 2005).
Para Latorre et al. (1996) e ainda Bisquerra (1989), os
paradigmas de investigação não são mais do que esquemas
teóricos, com caráter didático, que agrupam o conjunto de
cientistas que utilizam uma dada metodologia na prática da
investigação, constituindo uma comunidade científica cujos
membros partilham “… linguagem, valores, metas, normas e
crenças” (Latorre et al., 1996, p. 39).
Nem todos os investigadores estão de acordo em relação à
utilização do conceito de paradigma para o caso da
investigação em CSH. Sendo um termo polissémico, utilizado
com significados tão diferentes seria inadequado para autores
como Jacob (1987) ou Shulman (1989), que, perante tanta
diversidade e, por vezes, conflitualidade, preferem o conceito
lakatiano de “programa de investigação”1.
Jacob (1987), por seu lado, baseando-se na ideia do próprio
Thomas Kuhn, para quem as Ciências Sociais eram designadas
de pré-paradigmáticas, sugere o termo “tradição” que, na
perspetiva do autor pretende traduzir “um grupo de
investigadores que, entre eles, estão de acordo com a natureza
do universo que estão a estudar, com as questões legítimas e
problemas a estudar e com as técnicas legítimas para procurar
as soluções” (p. 1).
Perspetiva, tradição, programa de investigação,
paradigma, são, portanto, termos idênticos que têm em
comum uma ideia fundamental: unificar e legitimar a
investigação tanto nos aspetos conceptuais como nos aspetos
metodológicos, servindo de identificação do investigador no
que se relaciona com a partilha de um corpo específico de
conhecimentos e de atitudes face à delimitação de problemas,
ao processo de recolha de dados e à sua interpretação.
A questão de identificar “quantos” paradigmas – termo que
continuaremos a privilegiar porque adotado pela maioria dos
autores consultados –, enquadram a investigação em CSH
também não tem sido isenta de uma viva polémica de marcado
cariz dicotómico: quantitativo versus qualitativo; explicar
versus compreender; investigação positivista versus
humanista, etc., etc.
Na atualidade a opinião mais consensual defende a
existência de três grandes paradigmas na investigação em
CSH: o paradigma positivista ou quantitativo, o interpretativo
ou qualitativo e o paradigma sociocrítico ou hermenêutico
(Bisquerra, 1989; Latorre et al., 1996; Morin, 1983).
1.1.1 Paradigma positivista 2
Também denominado quantitativo, empírico-analítico,
racionalista, empiricista, este paradigma procura adaptar o
modelo das Ciências Naturais à investigação em Ciências
Sociais e Humanas, utilizando basicamente uma metodologia
de cariz quantitativo (Anderson & Arsenault, 1999; Bisquerra,
1989; Latorre et al., 1996; Mertens, 1998; Shaw, 1999; Usher,
1996).
A investigação em CSH seguiu tradicionalmente este
paradigma e o do seu sucessor, o pós-positivismo (Mertens,
1998), impulsionados pelas ideias “positivistas” tão em voga
no século XIX, nascidas do pensamento de Augusto Comte
(considerado o primeiro representante deste movimento) que
defendia, na senda do empirismo de Bacon, a primazia do
estádio positivo3 do conhecimento baseado na observação.
Esta forma de ver o mundo, inspirada numa ontologia
realista em que se pretendia “… descobrir como as coisas são,
e como trabalham mesmo” (Guba, 1990, p.19), e cujo fim
último seria o de “… prever e controlar os fenómenos”
(ibidem), encontrou na metodologia experimental o
instrumento mais eficaz para a sua concretização: se há um
mundo objetivo a descobrir, que opera segundo leis naturais,
considera então o autor que o investigador deve, e passamos a
citar, “… colocar as questões à natureza e ver como ela lhe
responde” (ibidem), ou dito de outro modo, o investigador
deve levantar hipóteses e submetê-las à confrontação empírica
(falsificação) sob rigoroso controlo experimental.
Defender este postulado, significa aceitar para a
investigação em CSH uma orientação nomotética, em que o
conhecimento se questiona por hipóteses causais e
estatísticamente comprovadas. Nesta perspetiva, consideram
Bibble e Bramble (1986, citados em Pacheco, 1993, p. 10)
que:
As hipóteses confirmadas podem generalizar-se a outras
populações ou a situações similares às estudadas.
Pressupõe a existência de relações simples entre os termos
e conceitos técnicos do investigador, as operações de
investigação, as descobertas e as conclusões da
investigação. Considera-se sobretudo que a investigação
social oferece os meios de criar provas objetivas para
evitar a subjetividade e os juízos de valor.
O papel da teoria é crucial, como seria de prever, para os
defensores da perspetiva positivista; por trás de uma
investigação há sempre uma teoria que a orienta e, muitas das
vezes, o objetivo central da investigação científica é pura e
simplesmente a verificação dessa mesma teoria (Crotty, 1998;
Mertens, 1998; Oldroyd, 1986; Shaw, 1999).
Estas são caraterísticas gerais da investigação científica
segundo o paradigma positivista/quantitativo, que constituiu,
na opinião de Usher (1996) “um poderoso e influente modo de
entender a investigação podendo falar-se de um “discurso das
ciências” que ditava como devia ser feita a investigação não só
nas ciências naturais, mas também nas ciências sociais e
humanas” (p. 11).
Para este último autor, o discurso da ciência resultou, desde
um ponto de vista histórico, do desmantelamento da tradição e
autoridade como fontes do conhecimento, que colocava a
questão de saber como considerar válido um determinado
conhecimento, ou mesmo a posição, mais radical, de
questionar a possibilidade de sequer se poder conhecer. A
primeira resposta encontrada surgiu no Renascimento na obra
Novum Organum da autoria de Francis Bacon de Verulam
(1561-1626) que assentou as bases do empirismo: tradição
substituída pela experiência, a observação e experimentação
constituindo as únicas fontes do conhecimento, e o método
indutivo como sendo o único método “científico” para os
estudos das leis da natureza.
Bacon influiu decididamente sobre Descartes (1596-1650)
que, no seu Discurso do Método muito contribuiu para a
fundamentação do método científico, e também sobre Stuart
Mill (1806-1873) – que se refere pela primeira vez à
metodologia das ciências positivas – mas é Augusto Comte
“quem inventa o nome e tenta estabelecer uma “escola
positivista”, através da qual estenderia ao estudo da sociedade
os métodos próprios das ciências físicas” (Oldroyd, 1986, p.
256).
O movimento do positivismo lógico – também denominado
de neopositivismo –, nasce no século XX integrando, para
além de Augusto Comte, figuras de renome como Bertrand
Russell (1872-1970), Ludwig Wittgenstein (1889—1951) ou
Rudolf Carnap (1891-1970) que ficaram conhecidas como o
Círculo de Viena; em conjunto, trataram de criar uma nova
filosofia da ciência integrando os conhecimentos obtidos nos
campos da matemática e da lógica com a tradição empirista do
positivismo do século anterior. De facto, também para os
positivistas lógicos só o método científico dava garantias de
obtenção do conhecimento mais objetivo possível. Outro
ponto forte em que se insistia sempre, tinha a ver com a
objetividade do investigador, que deveria permanecer neutro,
evitando juízos subjetivos: “objetividade”, meios de ser
“objetivo” são palavras fortes na epistemologia objetivista que
está na base deste paradigma, e cujos princípios sintetizamos
com base no pensamento dos diferentes autores consultados
(Crotty, 1998; Guba, 1990; Shaw, 1999):
1. O mundo é “objetivo” na medida em que existe
independente do sujeito. Esse mundo consiste em
acontecimentos que ocorrem de forma organizada, pelo
que sendo objetivos poderemos descobrir essas leis e
prever e controlar os fenómenos;
2. Há uma clara distinção entre o investigador “subjetivo”
e o mundo “objetivo”, entre valores e factos. Para o
investigador, apenas contam os primeiros, pelo que o
subjetivo (valores e preconceitos) não devem interferir na
descoberta do mundo “objetivo”;
3. A validade do conhecimento depende da forma como se
procede à observação – a questão da medida. Diferentes
observadores perante os mesmos dados devem chegar às
mesmas conclusões – a replicação é garantia da busca da
objetividade;
4. O mundo social é semelhante ao mundo físico. Há razão
e ordem no mundo social, as coisas não acontecem de
forma arbitrária, pelo que importa encontrar relações
causa-efeito tal como no mundo físico;
5. O objetivo da ciência é descobrir o mundo, pelo que
tanto as ciências naturais como as sociais partilham uma
mesma lógica e metodologia comum;
6. Desde que os processos metodológicos tenham sido
corretamente aplicados, não há porque duvidar da validade
do conhecimento obtido.
Esta epistemologia levou a um paradigma da investigação
que enfatiza o determinismo (há uma verdade que pode ser
descoberta), a racionalidade (não podem existir explicações
contraditórias), a impessoalidade (tanto mais objetivos e
menos subjetivos melhor), a previsão (o fim da investigação é
encontrar generalizações capazes de controlar e prever os
fenómenos), e acrescenta Usher (1996) uma certa
irreflexividade na medida em que faz depender a validade dos
resultados de uma correta aplicação de métodos esquecendo o
processo da investigação em si.
Para Usher (1996) o domínio da epistemologia
objetivista/positivista teve consequências ao nível da
investigação em CSH a dois níveis: em primeiro lugar, a
importância atribuída à produção do conhecimento baseada na
descoberta de factos e formulação de teorias visando a
generalização. Em segundo lugar, a adoção da linguagem,
metodologia e técnicas de medida e quantificação próprias das
ciências naturais que passaram a ser adotadas na investigação
em CSH, constituindo para muitos setores da comunidade
científica os únicos referenciais válidos e aceites para a
investigação na área (Anderson & Arsenault, 1999; Punch,
1998).
Críticas ao paradigma positivista
Mas será mesmo possível quantificar, generalizar e prever os
fenómenos sociais em geral e educativos em particular?
São muitos os que consideram que essa meta jamais foi
atingida na investigação em CSH por razões que têm a ver
com a própria essência do ato social em geral e educativo em
particular (Bogdan & Bilken, 1994; Cohen & Manion, 1994;
Crotty, 1998; Flick, 1998; Punch, 1998; Shaw, 1999; Usher,
1996).
Para Usher (1986) a investigação baseada numa tal
epistemologia estava predestinada ao insucesso à partida:
como é possível que um modelo que concebe o mundo como
sendo ordenado e sujeito a leis (logo previsível) podia aplicar-
se a uma realidade social que é aberta e indeterminada? Cziko
(2000) apresenta então cinco argumentos para a
imprevisibilidade do comportamento humano: as diferenças
individuais; o processo evolutivo da aprendizagem e
desenvolvimento; a influência da consciência no
comportamento humano; a mecânica quântica; o caos.
Estas atitudes críticas foram muito influenciadas pelas
ideias de Kuhn (1962, 1979) que, como referimos atrás,
vieram modificar radicalmente a forma de entender a ciência,
a investigação e o método científico, ao admitir que a
investigação é uma prática que se desenvolve dentro de uma
comunidade científica situada histórica e socialmente. O
investigador “pertence” a uma comunidade que define o que é
“conhecimento”, “verdade”, “objetividade” e “método
correto” (Oldroyd, 1986).
Assim sendo, o cientismo positivista com a sua conceção
universalista de que só o modelo de investigação das ciências
naturais é “supra histórico”, o “único que possibilita
verdadeiro conhecimento”, cai por terra a partir do momento
em que, ao situar-se num dado paradigma, constitui mais uma
forma de olhar o mundo, nunca a única. Ficava então aberta a
porta para que outras abordagens se afirmassem.
Apesar das duras críticas a que tem vindo a ser submetido,
o paradigma positivista e a metodologia que lhe está associada
mantém ainda hoje uma posição de destaque na investigação
em CSH, realidade que, segundo Guba (1990), pode ser
explicada pela evolução registada nas bases teóricas deste
paradigma que não tem parado na busca de respostas para os
desafios a que tem sido submetido e que se concretizaram nas
diversas “versões modificadas” (p. 21) constituindo aquilo que
conhecemos como os movimentos pós-positivistas.
Do ponto de vista ontológico, “o pós positivismo passa de
um realismo dito ‘ingénuo’ para uma versão hoje designada
por realismo crítico” (Guba, 1990, p. 20), ou seja, muito
embora admitindo a existência de um mundo exterior que
opera por leis causais, admite a impossibilidade de obtenção
de um conhecimento totalmente objetivo fruto das múltiplas
limitações humanas (sensoriais e intelectuais) que exigem do
investigador uma rigorosa posição crítica perante os dados da
observação. Daí a evolução epistemológica para um
“objetivismo modificado” (Guba, 1990, p. 21) que admite a
interação entre investigador e objeto e a impossibilidade de ser
possível investigar de uma forma neutra. Esta postura reflete-
se, ao nível metodológico, pela ênfase dada à multiplicidade
de fontes (dados, investigadores, teorias, métodos) único meio
de possibilitar o confronto crítico capaz de garantir a maior
objetividade possível aos resultados da investigação (Gibbons
& Limoges, 1994; Guba, 1990).
Mas nem este imenso esforço levado a cabo pelo pós-
positivismo no sentido de reabilitar os princípios tradicionais
do positivismo lógico poderia resistir aos ventos de mudança
protagonizados pelo ressoar de novas epistemologias que pura
e simplesmente deitam por terra os alicerces em que se
baseava o positivismo.
1.1.2 Paradigma qualitativo ou interpretativo
Também designado por hermenêutico, naturalista, qualitativo
ou ainda, mais recentemente, construtivista (Creswell, 1994;
Crotty, 1998; Guba, 1990) este paradigma tem as origens ainda
no século passado (Bogdan & Bilken, 1994); na opinião de
Flick (1998), o período que designa por “tradicional” teria
coincidido com o nascimento da antropologia e da sociologia
de Chicago, embora só na década de 60 os cientistas sociais
tivessem começado a mostrar real interesse por abordagens de
cariz interpretativo, aparecendo nos EUA os primeiros estudos
subsidiados por entidades oficiais utilizando tais abordagens
(Crotty, 1998; Mertens, 1998).
Na década de 70, sobretudo nos EUA, assiste-se a uma
verdadeira explosão de pesquisas levadas a cabo sob este novo
referencial, espelhando o sentimento que muitos partilhavam
da inoperacionalidade do paradigma positivista que se revelara
incapaz de resolver os problemas investigados nas CSH – é a
2ª fase ou período “modernista” (Flick, 1998).
Nos meados dos anos 80 surge a 3ª fase da história da
investigação qualitativa, fruto de uma “crise de representação”
nascida das discussões em torno da inteligência artificial que
vai ter forte impacto sobre estes estudos, levando a que sejam
encarados de forma global, como um processo contínuo de
construção de múltiplas versões da realidade (Flick, 1998).
Com os anos 90 chega a fase atual, designada por Flick
(1998) por 4º momento, em que a tónica vai para a construção
de teorias que se adaptem a problemas/situações muito
específicas, uma “tradição” que reúne hoje grande número de
adeptos, e que, na literatura anglo-saxónica, é conhecida por
grounded theory (Flick, 1998; Punch, 1998).
Tal como o paradigma quantitativo/positivista vai buscar as
suas origens ao positivismo de Augusto Comte e ao empirismo
de Locke e Stuart Mill, as abordagens
interpretativas/qualitativas identificam-se com a perspetiva
fenomenológica patente nos trabalhos dos filósofos Edmund
Husserl e Alfred Schutz4, com o interacionismo simbólico de
Herbert Mead5e a etnometodologia de Harold Garfinkel6.
Do ponto de vista ontológico, na opinião de Guba (1990),
este paradigma adota uma posição relativista – há múltiplas
realidades que existem sob a forma de construções mentais
social e experiencialmente localizadas –, inspira-se numa
epistemologia subjetivista que valoriza o papel do
investigador/construtor do conhecimento, justificando-se por
isso a adoção de um quadro metodológico incompatível com
as propostas do positivismo e das novas versões do pós-
positivismo.
De uma forma sintética pode afirmar-se que este paradigma
pretende substituir as noções científicas de explicação,
previsão e controlo do paradigma positivista pelas de
compreensão, significado e ação. Vejamos então porquê.
A abordagem interpretativa/qualitativa das questões sociais
e educativas procura penetrar no mundo pessoal dos sujeitos, “
(…) para saber como interpretam as diversas situações e que
significado tem para eles” (Latorre et al., 1996, p. 42),
tentando “… compreender o mundo complexo do vivido desde
o ponto de vista de quem vive” (Mertens, 1998, p.11). Se a
ação humana é intencional, pensam, há que interpretar e
compreender os seus significados num dado contexto social.
Nesse sentido, como podem os métodos próprios das
ciências naturais elucidar-nos dos significados das ações
humanas se esses significados não são “mensuráveis” ou seja,
suscetíveis de uma observação rigorosa como pretendem os
positivistas? Pode o comportamento das pessoas ser regulado
por leis gerais e causais suscetíveis de serem generalizáveis?
Para explicar o mundo social e educativo, argumenta Usher
(1996), há que ir buscar os significados profundos dos
comportamentos que se constróem na interação humana.
Investigador e investigado interagem e cada um por si molda e
interpreta os comportamentos de acordo com os seus
esquemas socioculturais, num processo de dupla busca de
sentido a que se costuma chamar “dupla hermenêutica”. Ao
contrário da situação da investigação nas Ciências Naturais e
Exatas, em contextos socioeducativos tanto o sujeito
(investigador) como o objeto (sujeito) da investigação têm a
caraterística comum de serem, ao mesmo tempo, “intérpretes”
e “construtores de sentidos” (Usher, 1996, p. 19).
A busca dos significados, a construção indutiva da teoria, o
papel central assumido pelo investigador, o não admitir uma
única mas várias vias metodológicas, levam, necessariamente,
à produção de “outro” tipo de conhecimento (Mertens, 1998;
Punch, 1998; Shaw, 1999).
Mas que conhecimento, perguntar-se-á? Para Gadamer
(1975), o conhecimento resultante será necessariamente, e nas
palavras do próprio, “parcial e perspetivado” já que relativo a
uma forma de ver, que é como um background sociocultural
pessoal e que “… constitui a diretriz da nossa capacidade de
experimentar… é a condição para termos experiência das
coisas, de elas nos dizerem alguma coisa” (p. 215).
Investigar implica interpretar ações de quem é também
intérprete, envolve interpretações de interpretações – a dupla
hermenêutica em ação. Além de parciais e perspetivadas as
interpretações são circulares. A interpretação da parte depende
da do todo, mas o todo depende das partes. Esta interação da
interpretação todo/parte é designada por círculo hermenêutico
da interpretação. A produção do conhecimento é assim
concebida como um processo circular, iterativo e em espiral,
não linear e cumulativo como retratado na epistemologia
positivista.
E que concluir da objetividade do conhecimento assim
obtido?
Para Gadamer (1975), um conhecimento “objetivo” no
sentido positivista do conceito é de todo impossível. Mas não
deixa de ser um conhecimento válido na medida em que, o ter
consciência da influência da “tradição” na sua interpretação,
faz com que o investigador tenha uma maior abertura de
espírito no momento de interpretar. Estar consciente dos seus
preconceitos – o seu “horizonte” na aceção de Gadamer –
torna o investigador mais lúcido e o conhecimento que daí
resulta será, necessariamente, mais objetivo.
A investigação é, então, como que uma “fusão de
horizontes”, já que, consciente das suas ideias pré-concebidas
– o seu “horizonte” –, o investigador busca incessantemente o
conhecimento abrindo a “sua” a outras perspetivas (outros
horizontes) que com ele se fundem, completam e expandem.
A “fusão de horizontes” constitui, na opinião de Gadamer
(1975), o referencial da objetividade que funciona como que
uma alternativa à noção “clássica” do conceito, de acordo com
a epistemologia positivista.
1.1.3 Paradigma sociocrítico
Tal como o paradigma positivista também o paradigma
interpretativo viria a ser alvo de severas críticas por parte de
um outro grupo de autores que representam um terceiro
referencial teórico cuja influência foi particularmente sentida
no caso da investigação em Ciências da Educação e na
Sociologia: referimo-nos ao paradigma “sociocrítico” também
chamado de “emancipatório”. Verdadeira amálgama de
tendências, visíveis, na opinião de Lather (1992) nas múltiplas
designações a ele associadas – “neo-marxista”, “feminista”,
“freiriano”, “participatório”, “transformista” – aglutina todo
um conjunto de investigadores para quem o paradigma
interpretativo não foi uma solução porque “… mudou as regras
mas não a natureza do jogo” (Mertens, 1997, p. 15).
De uma forma simplista, digamos que o paradigma
crítico/emancipatório constitui, de certa forma, um
desenvolvimento e uma versão modernizada da filosofia
marxista, remontando as suas origens ao movimento da escola
de Frankfurt na Alemanha no início dos anos 20 do século
passado. Os fundamentos filosóficos encontram-se nas críticas
de Adorno e Habermas à economia liberal, de Marcuse à
alienação consumista das sociedades capitalistas, a nível
pedagógico nas ideias de Paulo Freire concretizadas na sua
pedagogia da libertação, e, mais recentemente (anos 80-90), ao
movimento pedagógico de autores como Michael Apple e
Henry Giroux nos Estados Unidos da América (Gitlin, Siegel
& Boru, 1993; Marques, 1999).
A Teoria Crítica de Jurgen Habermas sustenta
conceptualmente este paradigma e deu-lhe o nome com que
ficou conhecido. Na realidade trata-se de uma abordagem
“crítica” na medida em que desafia tanto o reducionismo do
paradigma positivista como o conservadorismo do paradigma
qualitativo/interpretativo na investigação em ciências sociais e
educação:
A minha crítica não é apenas contra uma prática de
investigação científica estritamente empírica; a minha
crítica estende-se ao nível positivista interpretativo de tais
processos de investigação. A falsa consciência de uma
prática correta tem um efeito retroativo sobre essa mesma
prática. (Habermas, 1974, p. 235).
A grande novidade desta abordagem é a introdução
explícita da ideologia no processo de produção do
conhecimento científico. Para Habermas (1974) os diferentes
paradigmas da investigação estão sempre ligados e
dependentes de determinados interesses sociais. Assim, a
investigação em ciências exatas utiliza uma metodologia
técnico/instrumental e Habermas conclui que o conhecimento
produzido sob tal paradigma obedece a um interesse técnico.
Quanto ao paradigma qualitativo/hermenêutico não emprega
uma metodologia rígida mas antes prática porque pretende
compreender a ação humana no processo da comunicação.
Nem um nem outro no entanto incluem nos seus objetivos
explícitos a intenção de modificar o mundo rumo à liberdade,
justiça e democracia.
Considera então Habermas (1974) a existência de um
terceiro tipo de conhecimento que liga à sua Teoria Crítica – o
conhecimento emancipatório, que visa desmascarar as
ideologias que sustentam o status social restringindo o acesso
ao conhecimento aos grupos sociais mais oprimidos, numa
primeira fase, e, numa segunda fase, intervir de forma ativa
para modificar essas situações.
A Teoria Crítica rejeita a possibilidade de um
conhecimento objetivo. Não há perspetivas neutras ou
desinteressadas na investigação, porque todo o investigador
está situado socialmente e defende sempre os interesses de um
dado grupo social. O conhecimento é sempre uma construção
social ligado a um interesse de cariz técnico (paradigma
positivista) ou a um interesse de comunicação prática
(paradigma qualitativo) ou ainda a um interesse crítico
emancipatório. E conclui: se todo o conhecimento está
enraizado na história e na estrutura social, então qual é o
conhecimento melhor? Que critérios para definir “melhor”?
Para Habermas (1987) o melhor conhecimento é aquele que
emerge no decurso de um discurso ideal onde se treina a
“hermenêutica da suspeição” que procura, além de um “saber
ver” um “saber onde ver” e “procurar” os nós do poder,
ocultos muitas das vezes sob os aspetos mais banais e
incondicionalmente aceites na rotina do quotidiano e/ou nos
saberes científicos mais tradicionalmente aceites.
Para Carr e Kemmis (1988) ter em conta a Teoria Crítica na
investigação em CHS implica:
• ter consciência de que o saber é poder e não algo de
puramente técnico e instrumental;
• a compreensão de que cada ator social vê o mundo
através da sua própria racionalidade, facto que condiciona
a leitura que cada um faz dos fenómenos com que tem de
lidar, pelo que as noções de “objetividade”, de “verdade” e
mesmo de “facto” são relativas e adquirem novo sentido;
• a compreensão do significado do exercício permanente
de um olhar analítico sobre todos os fenómenos, sobre
todas as explicações mesmo sobre as tidas como
indiscutíveis, identificando assim as interpretações
ideologicamente distorcidas;
• a identificação de determinantes macro-estruturais que,
embora por vezes enganosamente distantes, embora
aparentemente justas e imparciais e neutras, conseguem
condicionar ou dificultar as possibilidades de ação de
qualquer um de nós;
• o reconhecimento do significado teórico e da natureza
prática quer da teoria quer da prática (tidas em estatuto
idêntico) e de que qualquer intervenção tem que ser tecida
de fios de prática numa trama teórica bem sólida.
Em resumo, digamos que este paradigma apresenta a nível
metodológico algumas parecenças com o paradigma
qualitativo mas a inclusão da componente ideológica confere-
lhe um cariz muito mais interventivo que está na origem de
estudos sobre o curriculum (Apple, 1979), a administração
educativa (Giroux, 1983) e formação de professores (Zeichner,
1983) e no proliferar de metodologias de investigação que se
agruparam em torno da designação geral de “Investigação-
Ação” (Goméz et al., 1996).
No quadro 1.1, adaptado de Lukas e Santiago (2004, p. 33)
comparam-se as caraterísticas identificadoras dos três
paradigmas apresentados.
QUADRO 1 – Comparação de critérios entre paradigmas

1.2 Do Nível Paradigmático ao Metodológico


Os paradigmas de investigação constituem, como vimos, o
sistema de pressupostos e valores que guiam a pesquisa,
determinando as várias opções que o investigador terá de
tomar no caminho que o conduzirá rumo às “respostas” ao
“problema/questão” a investigar (ou seja, ao “conhecimento”);
tomando as palavras de Crotty (1998, p. 3) “os paradigmas são
o referencial filosófico que informa a metodologia do
investigador”.
“Metodologia”, “métodos” e mesmo “técnicas” são termos
que surgem na literatura para designar os diversos meios que
ajudam e/ou orientam o investigador na sua busca do
conhecimento; no entanto, enquanto alguns autores usam os
três termos indiferentemente, como se de sinónimos se tratasse
(Charles, 1998; Macmillan & Schumaker, 1997), muitos
outros (Bisquerra, 1989; Deshaies, 1992; Kaplan, 1998)
consideram haver entre os três conceitos diferenças teóricas
subtis, mas fundamentais, que importa clarificar.
Para Bisquerra (1989), por exemplo, os métodos de
investigação “constituem o caminho para chegar ao
conhecimento científico, (sendo) o conjunto de procedimentos
que servem de instrumentos para alcançar os fins da
investigação” (p. 55). Quanto às técnicas, seguindo o
pensamento do mesmo autor, são “procedimentos de atuação”
concretos e particulares, “meios auxiliares” do método, porque
dentro de um método, que é sempre mais geral, podem
utilizar-se diversas técnicas: “A relação entre método e técnica
é semelhante à que existe entre género e espécie em biologia.”
(Bisquerra, 1989, p. 55). Opinião que também partilham
Latorre et al. (1996, p. 876) quando afirmam que “… o
método é o caminho e as técnicas o modo de percorrê-lo”.
Por último a metodologia, num nível mais geral, teria
como função “… velar pelos métodos, assinalar os seus limites
e alcance, clarificar e valorizar os seus princípios,
procedimentos e estratégias mais adequadas para a
investigação” (Latorre et al., 1996, p. 87), ou seja, “refletir
sobre os meios que demonstraram o seu valor na prática”
(Kaplan 1998, p. 24) interessando-se mais “pelo processo da
investigação do que pelos resultados” (Bisquerra, 1989, p. 56).
Outros autores ainda lhe atribuem uma função mais
pragmática “de plano de ação, processo e desenho da escolha e
uso dos métodos” (Crotty, 1998, p. 3), mas nunca descuram a
sua função crítica e reguladora.
Em suma, a “metodologia” tem sempre um sentido mais
amplo que o “método”, porque questiona o que está por trás,
os fundamentos dos métodos, as filosofias que lhes estão
subjacentes e que, como já vimos anteriormente, influem
sempre sobre as escolhas que faz o investigador.
Nada melhor que o pensamento de Kaplan (1998), que
passamos a transcrever, para elucidar esta questão:
A metodologia preocupa-se com as técnicas e princípios
que designarei por métodos. Os métodos são técnicas
suficientemente gerais para serem comuns às diferentes
ciências ou a uma parte significativa delas (…) Incluem
procedimentos como formar conceitos e hipóteses, fazer
observações e medidas, descrever protocolos
experimentais, construir modelos e teorias (…). A
metodologia, por seu lado, procura descrever e analisar os
métodos, alertar para os seus limites e recursos, clarificar
os seus pressupostos e consequências, relatar as suas
potencialidades nas zonas obscuras das fronteiras do
conhecimento. (…) Convida (a metodologia) a uma
especulação sobre a ciência e o sentido prático da filosofia.
Em suma, o objetivo da metodologia é ajudar-nos a
compreender, no sentido mais amplo do termo, não os
resultados do método científico mas o próprio processo em
si. (p. 23)
Em jeito de síntese, temos assim três conceitos
técnicas/métodos/metodologias cujas fronteiras se tocam mas
com níveis de generalidade crescente:
• num primeiro nível, muito próximo da prática, temos as
técnicas utilizadas por determinado ramo do saber ou
ciência na sua praxis científica;
• um conjunto de técnicas suficientemente gerais para
serem comuns a um número significativo de ciências,
passam a constituir um método;
• num nível mais geral, a metodologia analisa e descreve
os métodos, distancia-se da prática para poder tecer
considerações teóricas em torno do seu potencial na
produção do conhecimento científico;
• acima da metodologia está o paradigma, sistema de
princípios, crenças e valores que orienta a metodologia e
fundamenta as suas conceções numa dada epistemologia.
A título de exemplo, teríamos um esquema representado
no Quadro 2.

QUADRO 2 – Do paradigma aos métodos e técnicas

1.2.1 Perspetiva Quantitativa, Qualitativa e Orientada


Comparando as propostas dos diversos autores depressa nos
apercebemos que a maioria coincide na aceitação de duas
grandes derivações metodológicas dos paradigmas de
investigação em CSH: a perspetiva quantitativa e a perspetiva
qualitativa. A estas acresce uma terceira perspetiva – a
denominada perspetiva orientada para a prática – que, embora
mais diretamente associada à investigação em Ciências da
Educação, Psicologia e Sociologia se constitui também como
um referencial para a generalidade da pesquisa em CSH
(Bisquerra, 1989; La Torre et al., 1996).
1.2.1.1 Perspetiva quantitativa
Do ponto de vista conceptual, a pesquisa centra-se na análise
de factos e fenómenos observáveis e na medição/avaliação em
variáveis comportamentais e/ou socioafetivas passíveis se
serem medidas, comparadas e/ou relacionadas no decurso do
processo da investigação empírica.
Do ponto de vista metodológico, alicerça-se num modelo
hipotético-dedutivo, partindo o investigador do postulado de
que os problemas sociais têm soluções objetivas e que estas
podem estabelecer-se mediante a utilização de métodos
científicos (Carr & Kemmis, 1988). A realidade social deve
ser objeto de estudo através de uma metodologia única, a
científica, o que, na opinião de Pérez Serrano (1998) conduziu
ao reduccionismo metodológico típico destas abordagens:
Isto significa que o método nos está limitando,
circunscrevendo a realidade a estudar: só podem ser
objetos de estudo os fenómenos observáveis,
quantificáveis, medíveis. É o que se denomina
reduccionismo metodológico: adequa-se o objeto de estudo
ao método e não o método ao objeto de estudo. (p. 24)
Do ponto de vista da relação teoria-prática, e uma vez que
o objetivo desta linha de investigação é a busca da eficácia e o
aumento de um corpus de conhecimento teórico, a teoria
assume um papel de relevo no sentido em que é ela que deve
guiar a praxis do investigador (Pacheco, 1993).
Por este motivo, o interesse do investigador é assumir uma
atitude científica, distanciada e neutra, de modo a comprovar
estatisticamente as hipóteses e a contribuir para a relação
causal do processo-produto. Os problemas que são objeto de
estudo entendem-se a partir de uma perspetiva de eficácia.
O que se estuda pouco tem a ver com os problemas reais e
práticos da realidade investigada, respondendo mais a
solicitações do próprio investigador do que à intervenção e
colaboração do investigado. A relação
investigador/investigado carateriza-se por um distanciamento e
separação entre os papéis assumidos por cada uma das partes.
Dado que se baseiam em grandes amostras e se
fundamentam na crença de que a realidade social é repetível e
se pode estudar mediante os modelos das ciências naturais, os
resultados dos estudos da investigação quantitativa são
suscetíveis de generalização (Wiersma, 1995); nesta
perspetiva, a cientificidade dos estudos manifesta-se numa
conceção pan-estatística quer do conhecimento, quer da
realidade.
Em síntese e tendo como base o pensamento de alguns dos
autores consultados (Bisquerra, 1989; Creswell, 1994;
Wiersma, 1995), sintetizamos as caraterísticas gerais da
perspetiva quantitativa:
• ênfase em factos, comparações, relações, causas,
produtos e resultados do estudo;
• a investigação é baseada na teoria, consistindo muitas das
vezes em testar, verificar, comprovar teorias e hipóteses;
• plano de investigação estruturado e estático (conceitos,
variáveis e hipóteses não se alteram ao longo da
investigação);
• estudos sobre grandes amostras de sujeitos, através de
técnicas de amostragem probabilística;
• aplicação de testes válidos, estandardizados e medidas de
observação objetiva do comportamento;
• o investigador externo ao estudo, preocupado com
questões de objetividade;
• utilização de técnicas estatísticas na análise de dados;
• o objetivo do estudo é desenvolver generalizações que
contribuam para aumentar o conhecimento e permitam
prever, explicar e controlar fenómenos.
1.2.2 Perspetiva qualitativa
Surge na sequência das críticas ao positivismo agregadas num
movimento que ataca o “mecanicismo” e o “reducionismo” da
visão positivista do mundo que menospreza a dignidade
humana (Anderson & Arsenault, 1999; Bisquerra, 1989; Shaw,
1999). As primeiras críticas começaram com o existencialismo
de Kierkegard que recusa a possibilidade do comportamento
humano se reger por leis: cada homem é autónomo, logo a
ciência é necessariamente subjetiva. Segue-se a psicologia
humanista de Carl Rogers, que ao acreditar só ser possível
estudar o indivíduo e não os grupos, afasta a possibilidade de
quantificar resultados. No entanto, os principais representantes
do movimento antipositivista em Ciências Sociais e Humanas
estão representados, como já referimos anteriormente, pela
fenomenologia, etnometodologia e interacionismo simbólico.
Não é fácil encontrar uma definição unívoca para a
investigação qualitativa; alguns manuais limitam-se a
considerar qualitativa a investigação que “não é quantitativa”,
ou mesmo “… que descreve os fenómenos por palavras em
vez de números ou medidas“ (Wiersma, 1995, p. 12).
A nível conceptual, o objeto de estudo na investigação não
são os comportamentos, mas as intenções e situações, ou seja,
trata-se de investigar ideias, de descobrir significados nas
ações individuais e nas interações sociais a partir a perspetiva
dos atores intervenientes no processo.
A nível metodológico a investigação de índole qualitativa
baseia-se no método indutivo “… porque o investigador
pretende desvendar a intenção, o propósito da ação,
estudando-a na sua própria posição significativa, isto é o
significado tem um valor enquanto inserido nesse contexto”
(Pacheco, 1993, p. 28), adotando a postura de quem “… tenta
compreender a situação sem impor expectativas prévias ao
fenómeno estudado” (Mertens, 1998, p. 160).
A interrelação do investigador com a realidade que estuda
faz com que a construção da teoria se processe, de modo
indutivo e sistemático, a partir do próprio terreno à medida que
os dados empíricos emergem (Creswell, 1994), num processo
de certa forma como que “inverso” ao que ocorre na
investigação quantitativa, como o esquema do Quadro 3
procura ilustrar (adaptada de Creswell, 1994, p. 88).
QUADRO 3 – O desenrolar de uma investigação quantitativa versus qualitativa

Assim, a teoria surge à posteriori dos factos e a partir da


análise dos dados, fundamentando-se na observação dos
sujeitos, na sua interpretação e significados próprios e não nas
conceções prévias do investigador que estatisticamente as
comprovaria e generalizaria (Miles & Huberman, 1994).
Uma vez que, como considera Pacheco (1993), numa
investigação qualitativa não se aceita a uniformização dos
comportamentos mas a riqueza da diversidade individual:
O interesse está mais no conteúdo do que no
procedimento, razão pela qual a metodologia é
determinada pela problemática em estudo, em que a
generalização é substituída pela particularização, a relação
causal e linear pela relação contextual e complexa, os
resultados inquestionáveis pelos resultados questionáveis,
a observação sistemática pela observação experiencial ou
participante. A questionabilidade dos resultados impõe-se
porque mais do que o estudo de grandes amostras interessa
o estudo de casos, de sujeitos que agem em situações, pois
os significados que compartilham são significados-em-
ação. (p. 28)
Como diria Shaw (1999) mais importante que o rigor é a
relevância dos significados, e daí que o propósito do
investigador não seja de generalizar mas particularizar, estudar
os dados a partir de uma situação concreta, buscando, tal como
sugere Erickson (1986), os factores universais concretos que
possibilitam a comparação de um caso específico com outros
casos estudados anteriormente.
Para a obtenção e análise dos dados, utilizam-se,
preferencialmente, técnicas de observação, cujo objetivo é
recolher os dados no meio natural em que ocorrem
(observação naturalista) com a participação ativa do
investigador (observação participante) ou participação
mediatizada (observação participativa) (Lincoln, 1990; Miles
& Huberman, 1994). Contudo em muitas situações de
investigação é particularmente útil uma metodologia mista em
que se integra o quantitativo e o qualitativo, aquilo que
Shulman (1989) designa de “modelo ponte” entre a perspetiva
quantitativa e a perspetiva qualitativa.
A perspetiva qualitativa na relação teoria-prática
perspetiva-se numa investigação de índole prática (Gómez et
al., 1996). O seu objetivo é o de melhorar a prática individual,
contribuindo para a descrição e compreensão de situações
concretas. A teoria é de tipo interpretativo, ou seja, não é
anterior aos dados mas surge a partir desses mesmos dados,
numa relação constante e dinâmica com a prática, sem intuitos
precisos de normatividade:
A teoria hermenêutica é clarificadora, iluminativa e
articulada no seu esforço de compreensão da prática social.
Compreender é a palavra de ordem neste tipo de teorias. Por
isso, se o que queremos é compreender o que sucede numa
situação concreta, em vez de estabelecer controlos
necessitamos de observar a interação entre todos os
intervenientes da forma como operam no seu contexto natural
(Pérez Serrano, 1998, p. 27).
O problema ou problemática de estudo do investigador
depende, por conseguinte, de questões práticas, reclamando-se
uma maior interligação entre teoria-prática e entre
investigador-investigado (Gómez et al., 1996; Pacheco, 1993;
Pérez Serrano, 1998).
1.2.3 Perspetiva orientada para a prática
Nos meados dos anos sessenta, emerge ainda um terceiro
enfoque na investigação em CSH denominada investigação
orientada ou ainda investigação aplicada (Bravo, 1992d) ou
ainda modelo sociocrítico (Pérez Serrano, 1998) constituindo-
se como uma alternativa aos dois enfoques anteriores.
Trata-se de uma investigação com forte caráter
instrumental, visando uma tomada de decisões, uma melhoria
das praxis, o controlo da implantação de políticas
socioeducativas, ou a avaliação dos efeitos de outras já
existentes (Pérez Serrano, 1998).
Frente à perspetiva empírico-analítica centrada na
explicação dos fenómenos, ou à humanístico-interpretativa na
compreensão das ações, esta perspetiva tem por fim otimizar a
prática social mediante a aquisição de conhecimentos práticos.
A nível conceptual, de salientar, como referido atrás, a
inspiração na filosofia marxista nas teorias críticas de Adorno
e Habermas à economia liberal, de Marcuse à alienação
consumista das sociedades capitalistas, e, a nível pedagógico,
nas ideias de Paulo Freire e, mais recentemente, de Michael
Apple e Henry Giroux.
O quadro teórico que enquadra esta linha de investigação
parte de dois pressupostos básicos (Pérez Serrano, 1998):
a) Assume uma visão global e dialética da realidade. A
realidade social não pode ser compreendida à margem das
condições ideológicas, económicas, políticas e históricas
que a conformam e para cujo desenvolvimento contribuiu.
b) A investigação crítica trata de ser uma prática social e
intelectual comprometida na luta ideológica dirigida a
desvendar representações, a pôr a descoberto interesses,
valores e crenças, muitas vezes implícitos, que sobressaem
na prática social tanto dos investigadores como dos
investigados.
Em termos metodológicos, de salientar o facto da
investigação orientada não possuir uma metodologia própria
no sentido das duas perspetivas anteriores, antes se servir dos
métodos de ambas (Bravo, 1992b).
No entanto e uma vez que o objetivo do investigador crítico
é “… descobrir que condições objetivas e subjetivas limitam
as situações e como poderiam mudar umas e outras” (Carr &
Kemmis, 1988, p. 156), a investigação implica uma
participação e colaboração estreita entre os atores
(investigadores e investigados), a criação de comunidades
críticas de investigação, comprometidas em melhorar as
práticas.
De certa forma temos uma forte aproximação às
metodologias típicas de enfoque qualitativo, mas em que a
inclusão do “objetivo emancipatório” (Gitlin, Siegel & Boru,
1993) e do “método da crítica ideológica” (Pérez Serrano,
1998), marcam a diferença conferindo-lhes a sua
especificidade:
O método requerido é a crítica ideológica. O que se
procura é um método que liberte os sujeitos da eficácia
causal dos problemas sociais que distorcem a comunicação
(…) Para isso há que partir da reflexividade: reflexão do
sujeito sobre si mesmo ao mesmo tempo que interage e
reflete com os outros. A reflexão é um processo de
libertação do eu e dos seus condicionamentos na busca da
identidade. O seu valor como método está direcionado a
elaborar conhecimentos com fim emancipatório e
libertador. (pp. 37-38)
Na relação teoria-prática, à semelhança do enfoque
qualitativo, considera-se também uma investigação de índole
prática, uma vez que, e tomando as palavras de Pérez Serrano
(1998, p. 34) se “articula, gera e organiza na prática e desde a
prática”; ou seja, a investigação centra-se em problemas da
realidade social e na prática dos sujeitos nela implicados, é
orientada para a ação, para a resolução de problemas que
formam parte dessa realidade, num processo em que a teoria é
emancipatória porque nasce na busca da modificação da
situação real, assumindo uma visão democrática do
conhecimento (Carr & Kemmis, 1988).
Para Pérez Serrano (1998), na investigação orientada há
que sublinhar esta visão muito particular da teoria do
conhecimento e das suas relações com a realidade e com a
prática; teoria e realidade são chamadas a manter o que se
costuma designar por constante tensão dialética:
O raciocínio dialético em vez de considerar os problemas
da sociedade apenas como os problemas de um agregado
de indivíduos, ou dos problemas individuais como
procedentes da determinação social nas vidas dos sujeitos,
tenta descobrir as inter-relações dinâmicas, interativas,
mutuamente constitutivas entre a vida do sujeito e a vida
social. (p. 36).
1.3 Tendência Atual: Integração Metodológica
Uma boa parte das três últimas décadas do século passado foi
caraterizada pelo debate epistemológico entre os diversos
paradigmas, fundamentalmente entre o que se costuma chamar
de enfoque quantitativo e qualitativo.
Na perspetiva de Lukas e Santiago (2004) a polémica
estaria viciada desde a raiz pelas seguintes razões: a)
Identifica-se um determinado método com um paradigma
específico; b) fundamenta-se o debate paradigmático em
pressupostos meta-teóricos; c) oculta-se a possibilidade de
utilização conjunta de métodos quantitativos e qualitativos.
Mais do que debater as questões de fundo, consideram os
autores, o confronto entre defensores e detratores dos
diferentes paradigmas se limitou a uma série de acusações e
críticas mútuas com forte carga ideológica e emocional que em
pouco ou nada contribuiu para melhorar a qualidade da
investigação em CSH. No entanto, a partir dos anos 80, o
confronto virulento que pugnava pela imposição do modelo do
paradigma único deu lugar a uma situação de maior
tranquilidade em que se começa a aceitar a possibilidade de
influências mútuas. Para Walker e Evers (1997) podem
considerar-se três posições no debate epistemológico entre
paradigmas:
a) Incompatibilidade: os diferentes paradigmas (dois ou
três) são epistemologicamente diferentes por tão
incomensuráveis e irreconciliáveis – esta é a posição
“purista” (Rossman & Wilson, 1985) ou “monoteísta”
(Lecompte, 1990) que tem sido defendida por autores
como Egon Guba e Yvonna Lincoln;
b) Complementaridade: tal como na postura anterior
acredita-se que os paradigmas são diferentes a nível
ontológico e epistemológico, mas aceita-se que o
investigador não tenha de se enquadrar num deles como o
único e o melhor; defende-se a complementaridade de
métodos quantitativos e qualitativos em função do que se
afigura ser a melhor solução do problema a estudar;
c) Integração/unidade epistemológica: rejeita-se o
conceito de confronto entre paradigmas advogando-se
alternativas que integrem ou superem o “velho” confronto.
Entre os defensores da última perspetiva podemos
encontrar posições diversas. Temos assim a posição extrema
que defende pura e simplesmente a adoção de um novo
paradigma a que Nisbet (1992) chama de “investigação
orientada à decisão e mudança”. Ainda na linha da
“superação” ou “integração” dos distintos paradigmas estão os
contributos de Howe em vários artigos publicados entre 1985 e
1992; o autor nega a obrigatoriedade de opções metodológicas
unívocas e defende a necessidade (mesmo oportunidade) das
combinações metodológicas, porque, argumenta, se o
paradigma positivista é insustentável e o interpretativo
incompleto, há que encontrar uma perspetiva epistemológica
capaz de superar o antagonismo integrando aspetos de um e de
outro dos paradigmas diletantes (Howe, 1988; 1992).
Outros consideram ainda que a solução do conflito passa
por deixar de lado os aspetos teóricos e epistemológicos do
debate paradigmático (centrais nas posições anteriores) e
centrar a discussão apenas no nível metodológico e técnico. A
este nível, destacamos a postura de Reichardt e Cook (1979),
para quem a polémica quantitativo versus qualitativo estaria
viciada de raiz, ao confundir-se método e paradigma: há que
distinguir, dizem, o nível paradigmático, mais abrangente e o
nível metodológico mais pragmático em que é possível a
complementaridade de métodos. Este mesmo equívoco –
confundir paradigma com método – é reconhecido por muitos
outros autores, caso de Pacheco (1993) ou Pérez Serrano
(1998); para esta última autora, reconhecer tal equívoco é
aceitar que se trata de dois níveis de decisão diferentes o que
implica ter em conta:
a) Que a opção por um paradigma determinado não é
exclusiva da metodologia de investigação escolhida, que as
metodologias não se contradizem, mas antes se
complementam;
b) Se um investigador vai empreender uma investigação
qualitativa, não implica que tenha de assumir todos os
atributos do paradigma em questão;
c) Os métodos quantitativos e qualitativos podem aplicar-
se conjuntamente dependendo as exigências da situação a
investigar. A ciência vale-se de todos os métodos, porque
lhe proporcionam uma visão mais ampla da realidade;
d) A utilização conjunta não está isenta de dificuldades,
mas é a postura cada vez mais aceite junto da comunidade
científica em geral.
Pode hoje afirmar-se com propriedade que o debate
epistemológico está em vias de superação no que toca aos
aspetos ontológicos e epistemológicos; acreditamos, à
semelhança de Pérez Serrano (1998) “(…) que faz todo o
sentido romper com a rígida couraça dos paradigmas para
verificar como se podem complementar e ajudar mutuamente
na realização das investigações concretas” (p. 41).
Assim sendo, nos últimos anos, vimos assistindo a diversas
tentativas de integração das perspetivas metodológicas
quantitativa e qualitativa, que nos deixam antever um futuro
de complementaridade metodológica em vez do antagonismo
tradicional (Crotty, 1998; Wiersma, 1995); “há que superar a
dicotomia qualitativo/quantitativo”, defende Pérez Serrano
(1998, p. 52), se queremos melhorar a conturbada reputação da
utilidade (e qualidade) da investigação em CSH.
Para Salomon (1991), transcender o debate qualitativo-
quantitativo é hoje, e mais do que nunca, uma “necessidade”
para quem investiga a complexa realidade social e educativa
(sala de aula, escola, família, cultura), onde conglomera a
intervenção de variáveis interdependentes (comportamentos,
perceções, atitudes, expectativas, etc.), cujo análise e estudo
não pode ser encarado à maneira das ciências exatas onde se
conseguem isolar variáveis e factos individuais. Analisar os
problemas sociais exige abordagens diversificadas que
combinem o que de melhor tem para dar cada um dos
paradigmas litigantes: combinar a “precisão” analítica do
paradigma quantitativo, com a “autenticidade” das abordagens
sistémicas de cariz interpretativo é – e tomando as palavras de
Salomon –, “… uma coabitação que está longe de ser um luxo;
é antes uma necessidade se desejamos mesmo que dela nasçam
resultados frutíferos” (Salomon, 1991, p. 17).
Estas ideias são partilhadas por muitos outros autores
quando sugerem a utilização das estratégias que melhor se
adaptam às questões colocadas pela investigação,
independentemente dos paradigmas: tal é o caso de Campbell
que, após militância convicta na corrente quantitativa,
revaloriza a perspetiva qualitativa como complemento
indispensável e insubstituível da quantitativa, afirmando que
“(…) nós, metodólogos, devemos tentar conseguir uma
epistemologia aplicada que integre ambas as perspetivas”
(Campbell, citado em Bisquerra, 1986, p. 90).
O que deve determinar a opção metodológica do
investigador não será a adesão a uma ou outra metodologia, a
um ou outro paradigma mas o problema a analisar; como
comenta Anguera (1985): “Um investigador não tem de aderir
cegamente a um dos paradigmas, podendo eleger livremente
uma relação de atributos que, indistintamente, provenham de
um ou de outro, se assim se conseguir uma adaptação flexível
à sua problemática” (p. 133).
Captar a essência do fenómeno social, eis o cerne da
questão à volta do qual se devem organizar todas as opções
metodológicas do investigador; Bachelard (1979) chamava-lhe
o “sentido do problema” condição sine qua non, considerava,
da existência de um “verdadeiro espírito científico”.
Mais importante do que estar preocupado com a escolha de
métodos, o investigador deve partir para a sua investigação
tendo em mente uma estratégia flexível, adaptada não apenas
ao problema que vai investigar, mas também, tal como sugere
Albano Estrela, à forma como vai evoluir o decorrer da
pesquisa:
Este será, na nossa opinião o princípio que deverá
enformar toda a investigação futura, ou seja: 1º O cientista
deverá estar equipado com técnicas não com métodos; 2º o
cientista deverá ter a possibilidade de organizar (e
reorganizar) as estratégias adequadas às situações que
investiga; 3º a pesquisa deverá ser perspetivada dentro de
um quadro conceptual que se aproxime, cada vez mais, de
um sistema aberto de explicação. (Estrela, 1984, citado em
Pacheco, 1993, p. 16)
Para Landsheere (1990), as diferenças significativas entre
quantitativo/qualitativo ou ciências da explicação/ciências da
compreensão, o autor propõe-se ultrapassá-las mediante o que
designa por “realismo transcendental”, procedimento que, na
perspetiva do autor “… pressupõe a interdependência, por um
lado, entre as análises causais e as interpretações e, por outro,
entre as investigações quantitativas de regularidades e a
generalização” (De Landsheere, 1990, p. 53).
A Figura 1, adaptada de Black (1999, p. 9), ilustra a forma
como as duas abordagens se complementam no processo
global da investigação social, contribuindo cada uma a seu
modo para a construção e consolidação das teorias e
consequente progresso do conhecimento.

FIGURA 1 – Complementaridade entre as abordagens quantitativa e qualitativa

Wiersma (1995, p. 12), fala num contínuo quantitativo-


qualitativo em vez da existência de diferenças conceptuais e
metodológicas de cariz dicotómica entre ambos os
paradigmas; e o autor sintetiza as suas ideias numa figura
muito simples em que situa as duas perspetivas de
investigação sobre uma linha contínua tendendo cada
modalidade (ou método), ora para um, ou para outro lado da
extremidade da linha, consoante se trata de uma investigação
experimental pura, de um estudo de caso ou etnográfico
(Figura 2).

FIGURA 2 – O contínuo quantitativo-qualitativo em investigação educativa

Por seu lado, Lukas e Santiago (2004), preocupam-se em


encontrar pontos críticos de convergência entre metodologias
de investigação sejam elas de cariz quantitativo ou qualitativo
(ver Quadro 4). Em suma, podemos concluir que as tentativas
de aproximação e o proliferar de planos
multi/plurimetodológicos combinando métodos quantitativos e
qualitativos são uma das caraterísticas mais marcantes na
investigação atual em CSH (Charles, 1998; Crotty, 1998;
Latorre et al., 1992; Salomon, 1991; Usher, 1996; Wiersma,
1995).
QUADRO 4 – Pontos de convergência entre metodologias

1.4 Métodos/Planos de Investigação


Passando agora do nível das metodologias para o dos métodos
propriamente ditos, deparamo-nos com um número crescente
de opções metodológicas tal como o Quadro 5 procura ilustrar.
QUADRO 5 – Das metodologias aos métodos de investigação

Ao mesmo tempo, as designações que os autores mais


conceituados propõem para os diferentes modelos
metodológicos nem sempre são coincidentes. Comparem-se,
por exemplo, as propostas de Cohen e Manion (1994), de
Wiersma (1995), Charles (1998), Best e Kahn (1993), Mason e
Bramble (1997) ou mesmo Mertens (1998) – que resumimos
no Quadro 6 – e depressa nos apercebemos que as diferenças
terminológicas são aparentes dependendo, sobretudo, do
enfoque ou ponto de vista sob o qual o autor em causa aborda
e problematiza a questão.

QUADRO 6 – Algumas propostas de classificação de planos de investigação

Com o objetivo de proporcionar uma abordagem tão


abrangente quanto possível, capaz de enquadrar a generalidade
dos planos de investigação ou métodos desenvolvidos em
CSH, destacamos como mais representativos os seguintes
enfoques:
• Segundo a conceção do fenómeno social: investigação
nomotética, se pretende estabelecer leis gerais (do grego
nomos=lei) o que implica a utilização de métodos
quantitativos, e investigação idiográfica, se enfatiza o
individual e particular, sem pretender chegar a leis gerais
nem ampliar o conhecimento teórico (tratamento
qualitativo de dados) (Bisquerra, 1989; Latorre et al.,
1996);
• Segundo a finalidade, distingue-se a investigação pura
ou básica, se o objetivo primeiro é conseguir novos
conhecimentos, aumentar a teoria, da investigação
aplicada, se está encaminhada para a resolução de
problemas práticos, sem preocupações por generalizar
resultados e encorpar teorias (Charles,1998; Wiersma,
1995);
• Segundo a natureza dos dados, a investigação pode ser
quantitativa (objetivista, nomotética, recolha de dados com
base em provas objetivas, aplicação de técnicas estatísticas
para a análise de dados), ou qualitativa (desde “dentro”,
interpretativa, dirigida ao particular, idiográfica)
(Bisquerra, 1989);
• Segundo a manipulação de variáveis, pode ser
descritiva (não se manipulam variáveis), experimental
(manipulam-se variáveis) ou ex post facto (não se controla
a variável independente porque ocorreu de forma natural,
estuda-se o fenómeno “depois” de ter acontecido)
(Bisquerra, 1989);
• Segundo o objetivo, podemos considerar os métodos ou
planos descritivos (descrevem um fenómeno), explicativos
(o objetivo é explicar os fenómenos) experimentais (o
objetivo é controlar o fenómeno) ou preditivos (o objetivo
é prever o fenómeno) (Bisquerra, 1989);
• Segundo o alcance temporal a investigação é
transversal se estuda um aspeto dos sujeitos num dado
momento, e longitudinal se estuda os sujeitos em
diferentes momentos. Chama-se de painel se a observação
incide sempre sobre os mesmos sujeitos e de tendência se
os sujeitos são diferentes;
• Segundo a profundidade, é possível distinguir (Best &
Kahn, 1993; Bisquerra, 1989; Macmillan & Schumaker,
1997; Wiersma, 1995):
a) a investigação exploratória de caráter provisório na
medida que se realiza para obter um primeiro
conhecimento da situação que se quer estudar;
b) a investigação descritiva que tem como objetivo
principal descrever os fenómenos, utiliza métodos
descritivos e inclui grande variedade de estudos como os
survey;
c) a investigação comparativa/causal quando se procura
encontrar relações causa-efeito entre fenómenos, sem
manipular variáveis, porque a variável independente é fixa
(é o caso dos denominados estudos ex post facto ou
comparativo-causais, dos estudos correlacionais, etc.);
d) a investigação experimental se manipula uma variável
independente e se estudam os seus efeitos sobre variáveis
dependentes em grupos de sujeitos que devem ser
equivalentes (selecionados de forma aleatória), utilizando
métodos quantitativos para a análise de dados;
e) a investigação quase experimental, semelhante à
anterior mas para o caso de os grupos não serem
equivalentes;
• Segundo o número de indivíduos, é costume distinguir
os estudos de grupo, que partem de grandes amostras
selecionadas por técnicas de amostragem probabilística
para garantir a sua representatividade, e que adotam na
maioria das vezes uma metodologia quantitativa, ou os
estudos de sujeito único, em que se analisa um só sujeito,
ou um grupo muito reduzido sem preocupações de
representatividade, processo que pode ser implementado
tanto com base em metodologias de cariz qualitativo como
quantitativo (Bisquerra, 1989; MacMillan & Shumaker,
1997).
ATIVIDADES
1 – O que distingue a investigação qualitativa da quantitativa?
Faça uma lista das principais caraterísticas identificadoras de
cada uma dessas duas grandes famílias metodológicas da
investigação em Ciências Sociais e Humanas em função dos
fundamentos teóricos, natureza da realidade a investigar,
finalidade da investigação e estilo do investigador (use a
tabela que segue para responder).

-
1 Para Imre Lakatos, o conhecimento científico progride de forma contínua a partir
de correções, avanços e recuos em que as teorias recuperam e corrigem outras
precedentes. Nesse sentido, em qualquer programa de investigação científica há
sempre, um núcleo duro de teorias (hardcore) que nunca são postas em causa. É a
partir desse núcleo, formado por um conjunto de teorias gerais provisórias
(hipóteses), que surge um conjunto de outras hipóteses auxiliares (protective belt)
cuja verificação leva ao avanço da ciência (Coutinho, 2005).
2 No Renascimento, o «método experimental» foi o critério encontrado para
distinguir a ciência da não-ciência. Stuart Mill e Augusto Comte, seguindo a esteira
iniciada por Bacon e Galileu, consideraram que todo e qualquer conhecimento com
pretensão à cientificidade deveria aplicar o referido método, único capaz de garantir
a explicação de um fenómeno de modo positivo, isto é sem recursos a magias ou ao
sobrenatural, e daí a origem da designação positivista (Coutinho, 2005).
3 Além do estádio «positivo», Augusto Comte considerava outros dois, o teológico
e o metafísico. No estádio teológico, as explicações para os fenómenos são de
ordem espiritual ou sobrenatural, enquanto no estádio metafísico se recorre a
abstrações e essências. Só o estádio positivo recusava argumentos metafísicos e
especulativos para explicar os fenómenos da natureza.
4 Em vez de procurarem estudar o comportamento humano com o objetivo de
descobrir «factos» e «causas» os investigadores fenomenologistas tentam
compreender o significado que os acontecimentos e interações têm para as pessoas
vulgares em situações particulares. Procuram penetrar no mundo conceptual dos
seus sujeitos com o objetivo de compreender qual o significado que constróem dos
acontecimentos das suas vidas quotidianos sem a presunção de ideias pré-
concebidas “A investigação fenomenológica começa com o silêncio” (Douglas,
1976 citado em Bogdan & Biklen, 1994, p. 53). Husserl (1859-1938) é, como
referimos atrás, um dos principais representantes desta corrente: há que ir às
próprias coisas, diz, ver mais além das aparências da vida quotidiana, para chegar
ao que é essencial, pondo o mundo «entre aspas», ou seja, libertando-nos das
formas vulgares de o perceber.
5 No seu livro intitulado Mind, Self and Society Herbert Mead defende a ideia de
que a experiência humana é mediada pela interpretação. O significado que as
pessoas atribuem às suas experiências, bem como o processo de interpretação, são
elementos essenciais e constitutivos, não acidentais ou alheios àquilo que é a
experiência. Os significados são construídos no jogo das interações que o sujeito
realiza em cada situação da sua vida. Mesmo a noção de ego (self), não reside no
interior da própria pessoa mas é uma construção social. As pessoas tendem a ver-se
como os outros as veem, interpretando os gestos e as ações que lhes são dirigidas e
colocando-se no papel de outras pessoas, num processo interativo em que o sujeito
aprende sobre si próprio, cresce e se modifica.
6 Os «etnometodólogos» tentam compreender o modo como as pessoas percebem,
explicam e descrevem o mundo que as rodeia e em que habitam. Em vez de
analisarem acontecimentos extraordinários, dedicam-se às atividades da vida
quotidiana, procurando uma compreensão “desde dentro”. Harold Garfinkel é um
dos principais representantes desta corrente.
REFERÊNCIAS BIBLIOGRÁFICAS
Anguera, M. T. (1985). Posibilidades de la metodologia
cualitativa vs cuantitativa. Investigación Educativa, 3(6), 133-
139.
Apple, M. (1979). Ideology and curriculum. Boston:
Routledge & Kegan Paul.
Anderson, G., & Arsenault, N. (1999). Fundamentals of
educational research. London: Falmer Press Teachers Library.
Bachelard, G. (1971). Epistemologie – Textes choisis. Paris:
PUF.
Best, J., & Kahn, J. (1993). Research in Education (7ª ed.).
Boston: Allyn and Bacon.
Bisquerra, R. (1989). Métodos de investigacion educativa:
Guia practica. Barcelona: Ediciones CEAC.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Bogdan, R., & Biklen, S. (1994). Investigação qualitativa em
Educação: uma introdução à teoria e aos métodos. Porto:
Porto Editora.
Bravo, M. P. C. (1992b). Los métodos de investigación en
Educacion. In M. P. C. Bravo & L. B. Eisman (Eds.),
Investigación educativa (pp. 43-67). Sevilha: Ediciones Alfar.
Carr, W., & Kemmis, S. (1988). Teoría crítica de la
enseñanza. Barcelona: Martinez Roca.
Charles, C. M. (1998). Introduction to educational research
(3ª ed.). New York: Longman.
Cohen, L., & Manion, L. (1994). Research methods in
Education (4ª ed.). London: Routledge.
Coutinho, C. P. (2005). Percursos da investigação em
tecnologia educativa em Portugal: uma abordagem temática e
metodológica a publicações científicas (1985-2000). Braga:
CIED, Universidade do Minho.
Creswell, J. (1994). Research design: Qualitative and
quantitative approaches. Thousand Oaks: SAGE Publications.
Crotty, M. (1998). The foundations of Social Research:
meaning and perspetive in the research process. London:
SAGE Publications.
Cziko, G. (2000). The things we do. Using the lessons of
Bernard and Darwin to understand the what, the how, and why
of our behavior. Cambridge, MA: MIT Press.
Deshaies, B. (1992). Metodologia da investigação em
Ciências Humanas. Lisboa: Instituto Piaget.
Erickson, F. (1986). Qualitative Methods in Research on
Teaching (3ª ed.) M. C. Wittrock (Ed.) Handbook of research
on teaching, pp. 119-161. New York,NY: MacMillan.
Flick, U. (1998). An introduction to qualitative research.
London: Sage Publications.
Gadamer, H. G. (1975). Truth and method. London: Sheed &
Ward.
Gibbons, M., & Limoges, C. (1994). The new production of
knowledge: The dinamics of science and research in
contemporary societies. Newbury Park: SAGE Publications.
Giroux, H. (1983). Theory and resistance in Education: a
Pedagogy for the opposition. South Hadley, MA: Bergin &
Garvey.
Gitlin, A., Siegel, M., & Boru, K. (1993). On the politics of
method: from leftist ethnography to educative research. In M.
Hammersley (Ed.), Educational Research: current issues (pp.
191-210). London: The Open University Press.
Gómez, G. R., Flores, J. G., & Jimènez, E. (1996).
Metodologia de la investigacion cualitativa. Malaga:
Ediciones Aljibe.
Guba, E. (1990). The paradigm dialog. Newbury Park, CA:
SAGE Publications.
Habermas, J. (1974). Theory and practice. London: Heineman
Habermas, J. (1983). Modernity: an incomplete project. In H.
Foster (Ed.), The antiaesthetic: Essays on postmodern culture
(pp. 3-15). Seattle, WA: Bay Press.
Howe, K. (1988). Against the quantitative-qualitative
incompatibility thesis or dogmas die hard. Educational
Researcher, 17(8), 10-16.
Howe, K. (1992). Getting over the quantitative-qualitative
debate. American Journal of Education, 100(2), 236-256.
Jacob, E. (1987). Qualitative research traditions: a review.
Review of Educational Research, 57(2), 1-50.
Kaplan, A. (1998). The conduct of inquiry: Methodology for
Behavorial Science. London: Transaction Publishers.
Kuhn, T. S. (1962). The structure of scientific revolution.
Chicago: University of Chicago Press.
Kuhn, T. S. (1979). A função do dogma na investigação
científica. In História e prática das ciências. Lisboa: Regra do
Jogo.
Landsheere, G. (1993) History of educational research. In M.
Hammersley (Ed.), Educational research: current issues (pp.
3-15). London: The Open University Press.
Lather, P. (1992). Critical frames in educational research:
Feminist and post sctructuralist perspetives. Theory and
Practice, 31(1), 87-99.
Lecompte, M. (1990). Emergent paradigms – How new? How
necessary? In E. G. Guba (Ed.), The paradigm dialog The
paradigm dialog 255). Newbury Park: Sage Publications.
Lincoln, Y. (1990). The making of a constructivist. In E. Guba
(Ed.) The paradigm dialog (pp. 67-87). Newbury Park: SAGE
Publications.
Lukas, J. F., & Santiago, K. (2004). Evaluacion educativa.
Madrid: Alianza Editorial.
Macmillan, J. H., & Schumacher, S. (1997) Research in
Education: a conceptual introduction. New York: Longman.
Marques, R. (1999). Modelos pedagógicos atuais. Lisboa:
Plátano Edições Técnicas.
Mason, E., & Bramble, W. (1997). Research in Education and
the Behavorial Sciences: concepts and methods. Madison, WI:
Brown & Benchmark.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Miles, M. & Huberman, A. M. (1994). Qualitative data
analysis (2ª ed.). Thousand Oaks: Sage Publications.
Morin, E. (1983). O Paradigma perdido. Lisboa: Publicações
Europa-América.
Nisbet, J. (1992). Aprender e ensinar a pensar: uma (re)visão
temática. Inovação, 5(2), 17-27.
Oldroyd, D. (1986). The arch of knowledge: an introductory
study of the history of the Philosophy and methodology of
Science. New York; NJ: Methuen.
Pacheco, J. A. (1993). O pensamento e a ação do professor em
formação (Tese de doutoramento). Instituto de Educação e
Psicologia da Universidade do Minho, Braga.
Peréz Serrano, G. (1998). Investigación qualitativa. Retos e
interrogantes (2ª ed., Vol. 1). Madrid: Editorial La Muralla, S.
A.
Punch, K. (1998). Introduction to Social Research:
quantitative & qualitative approaches. London: SAGE
Publications.
Rossman, G. B., & Wilson, B. L. (1985). Numbers and words:
Combining quantitative and qualitative methods in a single
large-scale evaluation study. Evaluation Review, 9(5), 627-
643.
Salomon, G. (1991). Transcending the qualitative-quantitative
debate: The analytic and systemic approaches to educational
research. Educational Researcher, 20(6), 10-18.
Shaw, I. F. (1999). Qualitative evaluation. London: SAGE
Publications.
Shulman, L. (1989). Paradigmas y programas de investigacion
en el estudio de la ensenanza: Una perspetiva contemporanea.
In M. Wittrock (Ed.), La investigacion da la ensenanza, I –
Enfoques, teorias y métodos (pp. 9-75). Barcelona: Ediciones
Paidos.
Usher, R. (1996). A critique to the neglected epistemological
assumptions of educational research. In D. Scott, & R. Usher
(Eds.), Understanding educational research. London:
Routledge.
Walker, J. C., & Evers, C. W. (1997). Research in Education:
Epistemological issues. In J. P. Keeves (Ed.), Educational
research, methodology, and measurement: An international
handbook (2ª ed., pp. 23-31). Oxford: Elsevier Science.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Zeichner, K. (1983). Alternative paradigms of teacher
education. Journal of Teacher Education, 34(3), 3-13.
Parte II

O Processo da Investigação em Ciências Sociais e


Humanas

O processo de uma investigação necessita ser planeado,


desde o momento em que se selecciona a problemática, se
formulam as hipóteses, se definem variáveis e se escolhem
instrumentos, até à fase em que se interpretam e comunicam os
resultados. Trata-se de tarefa fundamental em investigação, se
não queremos que o relatório final seja um conjunto de dados
e resultados inconsistentes e sem relevância para a
investigação em CSH.
Para isso o investigador deve “desenhar” o seu estudo,
planificar a investigação a empreender, processo que na
literatura se designa research design, que traduzimos por
desenho de investigação. Este será o objeto da Parte 2 que
agora se inicia e que está organizada da seguinte forma:
Capítulo 2 – Problema e Hipótese
Capítulo 3 – Revisão da Literatura
Capítulo 4 – Definição de Variáveis
Capítulo 5 – Amostra
Capítulo 6 – Recolha de Dados
Capítulo 7 – Estatísticas Descritivas
Capítulo 8 – Estatísticas Inferenciais
Capítulo 9 – Análise de Dados Qualitativos
Capítulo 10 – Validade e Fiabilidade na Investigação
Qualitativa
Capítulo 11 – O Relatório de Investigação
Capítulo 2

Problema e Hipótese

2.1 O problema de investigação


Uma investigação envolve sempre um problema, seja ele (ou
não) formalmente explicitado pelo investigador. De uma
maneira geral, na investigação que adota uma metodologia de
cariz quantitativo, a formulação do problema faz-se via de
regra numa fase prévia, seja sob a forma de uma pergunta
(interrogativa), seja sob a forma de um objetivo geral
(afirmação).
Quando a investigação adota uma metodologia qualitativa,
menos estruturada e pré-determinada, o problema pode ser
formulado de uma forma muito geral, como que “emergindo”
no decurso da investigação. Como, nestes planos, nem sempre
“… há uma teoria de base que guie o estudo, porque as
existentes são inadequadas, incompletas ou mesmo
inexistentes” (Creswell, 1994, p. 10), o problema tem a
importante função de focalizar a atenção do investigador para
o fenómeno em análise, desempenhando o papel de “guia” na
investigação.
Assim sendo podemos concluir que, formulado ou
emergente, o problema de investigação é fundamental porque:
– Centra a investigação numa área ou domínio concreto;
– Organiza o projeto, dando-lhe direção e coerência;
– Delimita o estudo, mostrando as suas fronteiras;
– Guia a revisão da literatura para a questão central;
– Fornece um referencial para a redação do projeto;
– Aponta para os dados que será necessário obter.
2.1.1 Grau de especificidade do problema de investigação
Há uma enorme variedade de formas para se definir um
problema de investigação. Assim sendo, numa breve análise à
literatura de investigação podemos encontrar problemas
definidos de forma muito vaga e geral (Quadro 7), ou, ao
contrário, problemas descritos com muita especificidade
(Quadro 8).
Problemas de investigação definidos de forma muito
geral
– O propósito deste estudo é o de estudar o insucesso
escolar
– Esta investigação analisará a integração de alunos
deficientes
– O objetivo deste estudo é investigar os processos
cognitivos dos estudantes
– Este estudo investiga as relações entre criatividade e
inteligência
QUADRO 7 – Problemas definidos de forma muito geral

Como se pode verificar, embora o investigador defina uma


área de investigação, falta-lhe poder de concretização e
ambiguidade nos termos, não nos fornecendo a informação
suficiente para compreendermos o que vai ser o estudo.
Problemas de investigação definidos de forma mais
específica
– O propósito deste estudo é investigar se o aproveitamento
em Matemática de alunos do ensino secundário das escolas
do concelho de…, difere em função da eficácia dos seus
professores medida através da Escala de Eficácia Docente x.
– Há diferenças significativas entre alunos de 9º ano de
Biologia que aprendem a unidade didática “Vulcões” pelo
método tradicional e com base num protótipo hipermédia?
– Este estudo pretende caraterizar os professores estagiários
de Português do 2º Ciclo do concelho de Braga.
QUADRO 8 – Problemas definidos de forma mais específica

Na opinião de Cardona Moltó (2002), é desejável que a


definição do problema seja o mais específica possível
contendo os aspetos essenciais do estudo, ou seja, fazer
referência ao que se estuda (objeto de investigação), com quem
se vai levar a cabo a investigação (sujeitos) e como se estuda o
problema (definição de variáveis).
Segundo a mesma autora os objetivos de investigação
podem ser exploratórios (descritivos) ou analíticos
(explicativos ou preditivos). Os objetivos exploratórios ou
descritivos aproximam-nos a problemáticas pouco conhecidas
e implicam:
• Identificar e/ou descrever caraterísticas ignoradas até ao
momento.
• Quantificar a frequência de algum fenómeno social.
• Selecionar problemas ou áreas de interesse para a
investigação.
Os objetivos analíticos estudam a relação entre variáveis (a
variável independente ou causa) e a dependente (ou efeito); a
dimensão da relação antecipa-se através de hipóteses que são
imprescindíveis neste tipo de estudos. Regra geral os objetivos
analíticos permitem:
• Contrastar ou verificar hipóteses.
• Confirmar relações entre variáveis
• Comparar a eficácia de, ao menos, duas
intervenções/tratamentos
• Compreender as causas ou fatores subjacentes.
• Antecipar ou prever fenómenos.
2.1.2 Fontes para a definição de problemas
a) O interesse e a experiência do investigador
Os professores defrontam-se diariamente com questões e
problemas que podem ser objeto de uma investigação: Que
métodos são melhores para ensinar o conteúdo x? Porque estão
mais atentos os estudantes quando trabalham em grupo?
Porque não funcionou esta estratégia com o Grupo A mas sim
com o B?
Cada uma destas questões e muitas outras que surgem da
experiência do investigador são pois fontes inesgotáveis de
problemas de investigação.
b) A vontade de testar a aplicação de uma teoria a um
problema social
As teorias vigentes num dado momento podem também ser
fonte de problemas a investigar. Por exemplo, a investigação
psicológica revelou que os sujeitos têm diferentes estilos de
liderança (autocríticos, participativos e o laissez-faire) e que
isso se reflete em diferentes formas de atuação dos sujeitos:
será que isto se aplica também ao rendimento académico? Que
estilos de liderança dão melhores resultados escolares?
c) A replicação de estudos prévios
Por vezes o problema pode partir de estudos prévios
realizados sobre a mesma temática. O investigador pode ter
dúvidas sobre os resultados ou conclusões de tais estudos, ou
então pode encontrar um estudo prévio tão interessante que
considere valer a pena replicá-lo ou seja, levá-lo a cabo noutro
contexto e/ou com outros sujeitos.
Embora à primeira vista possa parecer que a replicação não
acrescenta novo conhecimento, isso não é verdade. O
progresso na construção de um corpo de conhecimentos
depende da capacidade das replicações que servem para
verificar e ampliar os resultados obtidos anteriormente. Na
opinião de Cardona Moltó (2002), um dos principais
problemas da investigação em CSH é a falta de replicação de
estudos que faz com que se considerem válidos os
pressupostos/resultados que ainda estão pouco consolidados
ou mal compreendidos.
d) A identificação de resultados e/ou conclusões
contraditórias em estudos prévios
Da mesma forma podem surgir resultados contraditórios
em estudos prévios, apontando uns num sentido e outros no
sentido oposto. Estas aparentes contradições oferecem
excelentes oportunidades para investigar. A escolha de
metodologias inapropriadas para o estudo de um problema, a
opção por desenhos pouco rigorosos, a adoção de
procedimentos inadequados na constituição das amostras
podem constituir, muitas vezes, a explicação para tais
contradições.
2.1.3 Critérios para avaliação de problemas de
investigação
Segundo MacMillan e Schumaker (1997) os critérios a
considerar na avaliação dos problemas de investigação são:
1. Exequibilidade (feasibility): o problema tem de ser
concretizável, ou seja, tem de poder ser respondido
mediante a recolha e análise de dados.
2. Relevância: o problema tem de ser importante para o
estado atual do conhecimento. Isso é o mesmo que dizer
que o problema e os resultados têm de ter importância
teórica e prática.
3. Clareza: o problema tem de ser formulado sem termos
vagos ou confusos; deve ser uma pergunta inequívoca,
evitando ambiguidades na interpretação, deve ser curto,
preciso e mostrar a intenção (objetivo) da pesquisa.
4. O problema deve dar pistas para o tipo de investigação,
ou seja, a linguagem que o explicita deve indicar qual a
orientação metodológica do estudo a realizar (se o estudo é
experimental ou descritivo, etc.).
5. O problema deve fazer referência à população ou à
amostra, ou seja, precisar com quem se vai fazer a
investigação.
6. O problema deve fazer referência explícita às variáveis
a investigar num nível moderado de especificidade.
2.2 A Hipótese de Investigação
Para Punch (1998), uma hipótese é uma previsão de resposta
para o problema da investigação. Sendo uma previsão de
explicação de um fenómeno que está expresso no problema a
investigar, resulta óbvio que o papel da hipótese numa
investigação dependerá da perspetiva ou paradigma –
quantitativa/positivista ou qualitativa/interpretativa – em que
se insere a investigação propriamente dita.
Na investigação quantitativa, que visa explicar os
fenómenos a definição de hipóteses faz sentido mas não deixa
de colocar algumas questões: em que se baseia o investigador
para fazer uma previsão de resultados? Porque esperar
encontrar isto e não aquilo? Para Punch (1998) a resposta está
na teoria que, num processo de raciocínio dedutivo, explica a
hipótese. Neste caso, levando a cabo a investigação e testando
a hipótese, no fundo o que se testa é a teoria que está por
detrás dela e a sustenta.
Este é o modelo de investigação hipotético-dedutivo
positivista clássico, que na opinião de Karl Popper (1957),
permitiu o progresso científico pondo à prova a qualidade das
teorias, mantendo-se em vigor apenas aquelas que
conseguiram resistir à refutação das hipóteses mais exigentes
(falsicacionismo popperiano). É este modelo que sustenta as
metodologias experimentais, preocupadas em explicar os
fenómenos sociais e em que o papel da hipótese é
determinante e inseparável do problema a investigar (Black,
1993, 1999; Punch, 1998).
Radicalmente distinto o papel da hipótese na investigação
qualitativa: fará algum sentido formular uma hipótese para um
problema que emergirá no decurso da investigação? A
ausência, em muitos casos, de hipóteses formalmente
explicitadas é uma das caraterísticas mais marcantes da
investigação não quantitativa que permite delimitar fronteiras
entre diferentes paradigmas da investigação em CSH
(Bisquerra, 1989; Strauss, 1987). No entanto, em estudos
qualitativos, podem ser formuladas hipóteses indutivas, que
nascem das observações do investigador, como forma de
orientar o processo de recolha de dados (Cardona Moltó,
2002).
2.2.1 Hipótese de investigação e hipótese nula
Mais complicado é a tarefa de explicar a função
desempenhada pelo que, na literatura, se designa por hipótese
nula, questão crucial em planos quantitativos de tipo
experimental, ou seja, planos em que se testam relações
causais entre variáveis e, nos quais, o investigador pretende
fazer generalização dos resultados para a população no seu
todo a partir do verificado numa amostra representativa da
mesma (Black, 1993).
Dissemos atrás que as teorias ganham força quando não são
rejeitadas pelo confronto com a realidade. Na prática, o que
faz cada investigador na sua investigação é pôr à prova aspetos
de uma teoria em diferentes grupos e contextos, testando assim
os limites da sua aplicabilidade (Black, 1999). As hipóteses,
tal como as descrevemos acima, expressam uma antecipação
de resultados de acordo com uma dada teoria, ou melhor, as
consequências esperadas da aplicação de princípios da teoria a
uma situação, formulados em termos mais específicos do que
os de uma questão geral ou problema de investigação.
Formulada a hipótese, o investigador tem de a testar ou pôr
à prova. A testagem passa pela aplicação de testes estatísticos
inferenciais, assim chamados por informarem o investigador
da probabilidade de poder (ou não) inferir (extrapolar) dos
resultados obtidos na sua amostra para a população de onde a
amostra foi extraída (Black, 1993; Stern & Kalof, 1996).
Imaginemos que o investigador formula uma hipótese
relativamente a uma relação entre duas variáveis, constituindo
para o efeito dois (ou mais) grupos representativos nessas
variáveis (p. ex. dois métodos de ensino diferentes). Para
confirmar a sua hipótese vai confrontá-la com todas as outras
hipóteses possíveis (as hipóteses alternativas) recorrendo para
o efeito a testes estatísticos inferenciais que lhe vão fornecer
informações no referente a: há (ou não) diferenças entre os
grupos? São essas diferenças significativas, ou seja,
suficientemente grandes para não serem fruto apenas do
acaso?
Sem informar diretamente o investigador da causa das
diferenças observadas entre os grupos, o teste estatístico diz-
lhe se há (ou não) diferenças significativas entre os grupos,
possibilitando ao investigador a rejeição de todas as hipóteses
alternativas à sua hipótese, e, indiretamente, dando
credibilidade aquela que defende. É neste processo que a
hipótese experimental vai ganhando força (tanto maior quanto
mais hipóteses alternativas rejeitar como falsas) embora nunca
possa ser confirmada como verdadeira, porque, então, deixaria
de ser uma hipótese (Campbell & Stanley, 1963).
A forma de operacionalizar as hipóteses alternativas (H 1,
H2, etc.) resulta na formulação negativa de uma antecipação de
que não vai haver diferenças significativas nos resultados, ou
seja, na formulação daquilo a que se chama uma hipótese nula
(H0). Rejeitar uma hipótese nula significa que não há
evidência que suporte a conjetura de “não relação entre as
variáveis”, pelo que o investigador poderá presumir de que há
mesmo uma relação entre elas (Black, 1993).
Nem sempre é necessário que numa investigação sejam
formuladas hipóteses nulas, mas se a intenção do investigador
é fazer inferências da amostra para a população, então elas não
só fazem todo o sentido como são imprescindíveis (Black,
1999).
ATIVIDADES
1 – Para cada uma das situações de investigação abaixo
discriminadas:
a) Formule uma hipótese de investigação (H1);
b) Enuncie a correspondente hipótese nula (H0);
c) Proponha um título para o estudo.
A – Um professor de 3ºano de escolaridade escolhe ao
acaso 10 alunos da sua turma para um grupo de leitura que
recebe ensino assistido por computador, 10 alunos a outro que
recebe ensino direto por parte do professor e os outros 10
alunos a um grupo de aprendizagem colaborativa. No final do
curso, compara as pontuações obtidas pelos alunos em rigor e
compreensão da leitura valorizadas no teste de TALE (Teste de
Análise da Leitura e da Escrita).
B – Um orientador que trabalha com estudantes do ensino
secundário quer comparar quatro procedimentos diferentes de
formação em estratégias e técnicas de estudo. No primeiro ano
do estudo escolhe 100 alunos para integrar cada um dos 4
procedimentos que pretende comparar. No final do curso do
ensino secundário calcula as percentagens de alunos que
ficaram aprovados nas disciplinas principais (específicas) dos
respetivos cursos.
C – Um professor de terapêutica acredita que os alunos
integrados classificados como com “dificuldades de
aprendizagem” têm mais problemas de comportamento que os
alunos que os que apresentam outras necessidades educativas
especiais. Para averiguar se isto é assim, solicita aos
professores dos vários centros educativos que respondam a um
questionário acerca do comportamento dessas crianças.
REFERÊNCIAS BIBLIOGRÁFICAS
Bisquerra, R. (1989). Métodos de investigacion educativa:
Guia practica. Barcelona: Ediciones CEAC.
Black, T. (1993). Evaluating Social Science research: An
introduction. London: SAGE Publications.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Campbell, D., & Stanley, J. (1963). Experimental and quasi
experimental designs. Boston: Houghton Mifflin Company.
Cardona Moltó, M. C. (2002). Introduccion a los métodos de
investigación en Educación. Madrid: Editorial EOS.
Creswell, J. (1994). Research design: Qualitative and
quantitative approaches. Thousand Oaks: SAGE Publications.
Macmillan, J. H., & Schumacher, S. (1997) Research in
Education: a conceptual introduction. New York: Longman.
Punch, K. (1998). Introduction to Social Research:
quantitative & qualitative approaches. London: SAGE
Publications.
Stern, P., & Kalof, L. (1996). Evaluating Social Science
research (2ª ed.). Oxford: Oxford University Press.
Strauss, A. (1987). Qualitative analysis for social scientists.
Cambridge: Cambridge University Press.
Capítulo 3

A Revisão de Literatura

Um dos primeiros propósitos de uma investigação é gerar


informação que possa contribuir para uma melhor
compreensão do fenómeno social em estudo, o que implica,
necessariamente, identificar toda a investigação anterior
relevante com a qual esse fenómeno se relaciona. O
investigador nunca parte do zero. Existe um corpo de
conhecimento que foi estabelecido por outros investigadores,
e, por isso, a literatura publicada constitui um importante
recurso para o investigador no processo de planificação,
implementação e interpretação dos resultados da investigação
que vai iniciar.
3.1 Propósitos e Funções
A revisão de literatura consiste na identificação, localização e
análise de documentos que contêm informação relacionada
com o tema de uma investigação específica. O objetivo da
revisão bibliográfica é o de situar o estudo no contexto e, com
isso, estabelecer um vínculo entre o conhecimento existente
sobre o tema – o chamado estado da arte – e o problema que se
pretende investigar (Cardoso, Alarcão & Celorico, 2010).
Uma boa revisão de literatura potencia a credibilidade da
investigação ao relacionar e conectar a investigação prévia
com o problema objeto da investigação. Outras funções da
revisão bibliográfica são:
1. Ajudar a centrar e refinar o problema, ao informar o
leitor do que foi feito até ao momento e do que se sabe
com relação ao tema da pesquisa.
2. Aprofundar o conhecimento do problema e desenvolver
o seu significado. Isto consegue-se mediante a análise da
investigação anterior e permite justificar porque razão é
necessário ampliar o conhecimento existente.
3. Analisar os métodos de investigação utilizados por
outros investigadores para investigar o tema. Esta
atividade ajuda a identificar possíveis erros metodológicos
e fornece sugestões para empreender estudos subsequentes.
4. Identificar possíveis resultados contraditórios na
investigação prévia.
5. Proporcionar as bases teóricas para a formulação das
hipóteses de investigação.
6. Sugerir ideias e procedimentos metodológicos para
planificar a investigação empírica.
7. Proporcionar ao investigador informação recente e atual
sobre o problema que investiga.
O investigador pode ser visto como alguém que procura
resolver problemas. Uma vez que o objetivo da investigação é
aumentar a compreensão de um dado fenómeno, o problema
pode ser entendido como um obstáculo a ultrapassar, um vazio
conceptual no conhecimento acerca do mesmo. Para resolver o
problema, o investigador deve acrescentar/procurar
informação empírica que lhe permita retirar conclusões e fazer
recomendações para trabalhos futuros.
Assim sendo, a literatura ajuda o investigador a elaborar o
marco teórico/conceptual. Este marco constitui-se como o
referencial para a investigação na medida em que dá sentido às
atividades e procedimentos que vão ser postos em prática,
assim como aos resultados que se obtenham.
3.2 Fases na Revisão de Literatura
Com a revisão de literatura pretende-se identificar e localizar
os estudos mais relevantes relacionados com o problema de
investigação. Para isso há que se buscar fontes. Esta não é uma
tarefa fácil, mas o tempo inicialmente dispendido nesta tarefa,
se bem conseguida, significa enorme poupança em fases
posteriores da implementação do estudo.
Não há regras para identificar quanta literatura tem de ser
revista sobre um dado tema de investigação; quantidade não é
sinónimo de qualidade e lá porque um problema é alvo de
muita investigação isso não significa que seja mais importante
o seu estudo.
Convém lembrar que a revisão de literatura é histórica por
natureza, ou seja, os problemas investigados fazem parte de
um contexto social daquilo que num dado momento são os
interesses e preocupações de uma comunidade de investigação
(Cooper, 1998). Por isso é importante o contacto com outros
investigadores e profissionais que podem ajudar a situar os
problemas, sua atualidade ou fornecer informações novas que
ainda não podem ser encontradas na literatura publicada.
Outra forma para identificar e aprofundar problemas passa
por assistir a congressos e conferências que de alguma forma
se relacionem com a temática em causa.
3.3 Revisão de Fontes Secundárias
Muitas vezes a revisão de literatura começa pela leitura de
fontes secundárias. Uma fonte secundária é aquela que recolhe
de forma resumida a investigação levada a cabo por outros
autores/investigadores. Qualquer publicação referida por um
autor que não implementou ele próprio o processo de pesquisa
é considerado uma fonte secundária. A consulta de fontes
secundárias é necessária numa fase inicial da revisão de
literatura porque, para além de ajudar a formar uma visão geral
do tema, possibilita que o cientista social aceda às referências
das fontes primárias. São fontes secundárias as sebentas e
manuais7, as monografias8, as enciclopédias9, as revisões
bibliográficas10, entre outras.
O principal inconveniente destas fontes é o risco de que o
autor da fonte não informe/interprete com exatidão a fonte
onde foi buscar a informação, uma vez que não é o seu autor.
A busca de fontes secundárias inicia-se pela consulta dos
catálogos das bibliotecas que hoje existem em suporte
informático.
A busca pode realizar-se não apenas por autor ou título,
mas também por tema/assunto. Neste último caso deve
prepara-se um conjunto de descritores ou palavras-chave.
Unindo as palavras-chave por conectores lógicos como o and,
or, not, a busca torna-se mais seletiva. Regra geral, usam-se os
conectores quando a informação acerca do título ou autor é
incompleta ou o domínio a pesquisar é muito amplo. Por
exemplo a busca de “aprendizagem colaborativa” and
“rendimento escolar” permite aceder a um conjunto de
informação muito mais restrito mas porventura muito mais útil
do que qualquer um dos conceitos em separado.
3.4 Identificação de Palavras-chave ou Descritores
Embora a tarefa de levar a cabo uma revisão de literatura seja
sempre uma tarefa complexa, a existência das atuais bases de
dados agiliza muito o processo.
Consultadas as fontes secundárias, refinado o problema, o
investigador necessita agora de fazer uma lista de
termos/descritores que representem o problema/questão de
investigação. Esses termos/descritores podem ser localizados
em índices ou bases de dados quando se procede a buscas de
termos relacionados e permitem navegar e identificar artigos e
relatórios de investigação relevantes.
O processo de gerar descritores é emergente. O
investigador pode começar por gerar palavras a partir do
conhecimento obtido pela sua experiência ou leituras
anteriores. Localizadas algumas referências úteis, o
investigador pode então modificar a sua lista inicial
eliminando os descritores que não lhe permitem aceder a
referências relevantes e acrescentando novas palavras-chave
sugeridas pela leitura das referências que se revelaram
interessantes. Uma forma útil de obter a lista de descritores é
consultando os chamados thesaurus. Os thesaurus são
instrumentos de controlo da terminologias que se utilizam para
traduzir a linguagem natural numa linguagem precisa e surgem
associados a bases de dados para localizar referências. O
thesaurus de descritores do ERIC (Educational Resources
Information Center) organiza as palavras-chave de forma
alfabética e define cada uma delas, pelo que o investigador
pode emparelhar a sua definição com alguma das que surgem
descritas no thesaurus que também refere termos relacionados.
A melhor forma de sabermos se um descritor é útil é utilizá-lo
na procura de artigos (títulos e resumos) e verificar se o
conteúdo dos mesmos corresponde aquilo que se pretende.
3.5 Localização das Fontes Primárias
O objetivo final da revisão de literatura é identificar as fontes
primárias. Essas fontes são artigos originais e relatórios de
investigação em que o autor comunica diretamente ao leitor o
que foi o seu estudo, que metodologia e/ou métodos utilizou e
a que resultados chegou. Para aceder a estas fontes podem
utilizar-se vários índices que hoje em dia estão incorporados
nas bases de dados eletrónicas das bibliotecas universitárias e
que também podem ser acedidos pela Internet.
3.5.1 Consulta em Bases de Dados
O acesso a bases de dados pode ser realizado online ou através
de CD-ROM. As bases de dados mais utilizadas para a
investigação em Ciências da Educação e na Psicologia são:
1) Base de dados ERIC (Educational Resources
Information Center). Contém informação desde 1966 e
consta de dois arquivos:
– RIE (Resources in Education): resume relatórios de
investigação, papers apresentados em congressos, etc;
– CIJE (Current Index to Journals in Education):
proporciona resumos de artigos de quase 800 revistas e
publicações periódicas.
2) Psychological Abstracts: proporciona acesso a
bibliografia mundial sobre psicologia e disciplinas afins,
tanto teóricas como aplicadas. Inclui mais de um milhão de
referências de livros, teses e artigos de revistas em mais de
30 línguas desde 1887.
3) Dissertations Abstratcts: Contém referenciais
bibliográficas em língua inglesa, de teses de doutoramento
publicadas em universidades do mundo inteiro, norte-
americanas desde 1861 e europeias desde 1988.
4) Base de dados del CSIC: Referência e em muitos casos
resumo da produção científica em Espanha.
Uma busca exaustiva pode conter umas 30 referências; há
que limitar os anos para que a busca não contenha demasiadas
referências que possam ser menos interessantes.
Na fase seguinte, ou seja, limitada a busca e identificados
as fontes, convém ler atentamente o resumo que nos é
disponibilizado na base. Regra geral, a experiência mostra que
só se encontra um ou dois artigos por cada 10 ou 20
referências realmente interessantes para o problema que é o
objeto de análise.
3.5.2 Sínteses de Literatura e Meta-análises
Uma outra forma de acrescentar informação para a revisão de
literatura é identificar artigos de síntese de literatura ou de
meta-análise (Fink, 2005). Os primeiros estudos, de síntese de
literatura, exigem que o investigador reúna toda a literatura
relevante para um dado tema, especialmente fontes primárias,
que as analise criticamente, faça uma síntese do estado da arte
e tire conclusões a partir do conhecimento base a que acedeu.
De uma maneira geral, o investigador sintetiza as conclusões e
identifica as áreas que necessitam ser investigadas (Hart,
1998).
Enquanto a investigação anterior é integrativa, ou seja,
baseia-se numa síntese conceptual de resultados da pesquisa
anterior, o enfoque de tipo meta-análise utiliza procedimentos
estatísticos sofisticados para combinar os resultados de um
grande número de estudos que analisam o mesmo problema de
investigação (amostra documental).
São exemplos deste tipo de fontes para a revisão de
literatura em Ciências da Educação as seguintes publicações:
– Review of Educational Research: cada volume desta
revista com 4 volumes anuais contém revisões críticas da
investigação desenvolvida no momento no campo das
Ciências da Educação: os artigos relativos aos últimos 5
anos anteriores estão acessíveis online.
– Review of Research in Education: cada volume desta
publicação anual concentra-se na investigação de uma ou
duas áreas dentro do campo das Ciências da Educação. Os
artigos publicados nos últimos 5 anos estão disponíveis
online.
Para procura de mais publicações para um estudo
específico, deve procurar-se em article indexes usando as
palavras-chave do tópico e a frase literature review.
3.5.3 Buscas através da Internet
A Internet proporciona informação e recursos sobre uma
infinidade de temas que interessam a um cientista social.
A Web contém endereços específicos direcionados para
cada uma das áreas e domínios dentro das Ciências Sociais e
Humanas. Para as Ciências da Educação, por exemplo, todos
os URL que contêm a designação ed referem-se a instituições
educativas. Uma das páginas mais importantes para a
investigação em Ciências da Educação é o ERIC a que nos
referimos atrás, mas existem muitas outras páginas que
permitem o acesso a revistas que fornecem o texto completo
dos artigos, informação bibliográfica ou abstracts.
Alguns endereços de interesse:
Em português/espanhol:
– Recursos informativos do SDUM (Universidade do
Minho): www.sdum.uminho.pt em especial o
repositoriUM (http://repositorium.sdum.uminho.pt/)
– Outros repositórios portugueses: Universidade do
Porto (http://repositorio.up.pt/), Universidade de
Coimbra (https://estudogeral.sib.uc.pt/), Universidade
de Lisboa (http://repositorio.ul.pt/)
– Latindex é um sistema de informação académica, de
consulta gratuita, especializado em revistas académicas
editadas na América Latina, Espanha e Portugal:
http://www.latindex. unam.mx/
– Portal Periódicos/CAPES: acesso livre e gratuito a
textos completos de artigos de mais de 7400 revistas:
http://periodicos. capes.gov.br/
Em língua inglesa:
– ERIC: http://www.eric.ed.gov/
– Thomson Reuters Web of Knowledge (anteriormente
ISI Web of Knowledge) é a plataforma digital mais
prestigiada para procurar e partilhar informação na área
das CSH. Permite a busca de textos em múltiplas bases
de dados em simultâneo: http://thomsonreuters.com
– EBSCO, uma base de dados que agrega textos
integrais de revistas de editores de renome em diversos
domínios científicos bem como milhares de e-books:
http://www.ebscohost. com/
– Scopus ou SciVerse Scopus, propriedade da Elsevier,
é uma base bibliográfica de abstracts e citações que
cobre mais de 20 000 títulos de cerca de 5000 editores
internacionais. Esta disponível online mas exige
subscrição: http://www. scopus.com
Use ainda os seguintes índices para procurar artigos
académicos por tópico ou por autor:
– Academic Search Premier: multidisciplinar, cobre
cerca de 4700 revistas e jornais;
– Education Abstracts: integra cerca de 525 revistas e
Yearbooks em língua inglesa desde 1983;
– Historical Abstracts: indexa cerca de 2000 revistas
que abarcam a cobertura histórica do mundo desde
1450 até à atualidade;
– PsynINFO: cobre mais de 1800 revistas e
dissertações para a Psicologia em mais de 24 línguas;
também contém capítulos de livros e livros em língua
inglesa;
– Sociological Abstracts: cobre mais de 2000 revistas e
jornais na área: também inclui livros seleccionados,
dissertações e papers publicados em actas de
conferências.
Um procedimento que completa o anterior é a busca no
sistema. Esta busca permite obter informação específica
através de motores de busca como o Google Scholar, o
Yahoo!, o Lycos, o Excite ou o Altavista. Antes de se aceder ao
sistema há que preparar os descritores e pedir ao sistema que
examine a rede. Uma combinação de buscas na biblioteca e na
Internet dará como resultado abundantes recursos que devem
ser sempre objeto de análise e classificação atendendo à sua
qualidade e relevância11.
3.6 Como Organizar a Informação das Fontes Primárias
É útil adotar uma estratégia para registar as anotações que
resultam da leitura das fontes primária. A forma mais comum
de o fazer é criando uma ficha para cada artigo lido contendo a
informação mais relevante (existe software específico para
este efeito como é o caso do programa Endnote).
Uma sugestão possível é a seguinte:
1. Ler o abstract e o propósito do estudo;
2. Ler os resultados e, se o artigo merecer a pena, ler todo
o texto.
3. Tomar nota dos aspetos mais salientes, como seja:
– Anotar a referência completa do artigo;
– Resumir o problema de investigação;
– Anotar as variáveis em estudo;
– Identificar participantes, instrumentos e
procedimentos;
– Anotar resultados e conclusões;
– Tomar nota de citações que possam parecer
relevantes;
– Valorizar o artigo (muito importante, importante,
etc.).
Em seguida, devem agrupar-se os estudos por temas
investigados ou tópicos similares, e dentro destes, por ordem
cronologia; esta forma de organizar as fontes permite
equacionar o desenvolvimento temporal da temática ao longo
do tempo.
3.7 Como Avaliar a Revisão de Literatura
Alguns critérios úteis para analisar criticamente uma revisão
de literatura são os seguintes:
1. Cobre adequadamente a investigação anterior?
2. São referidos os resultados atualizados de outros estudos
empíricos?
3. É atualizada?
4. São analisados e resumidos outros estudos?
5. São descritos com pormenor os estudos mais relevantes
e significativos?
6. Derivam as hipóteses da revisão bibliográfica?
7. É estabelecido um marco teórico?
8. O estudo acrescenta algo de novo à literatura anterior?
ATIVIDADES
1. Proponha um tema sobre o qual gostaria de investigar. Não
se esqueça de que um tema ou problema de investigação deve:
a) Ser investigável, ou seja, verificar se é possível aceder
aos dados e proceder à sua análise;
b) Ter importância teórica e prática;
c) Ser apropriado ao seu nível de conhecimentos.
– Prepare uma lista de termos ou palavras-chave
relacionados com o tema proposto.
– Identifique uma lista de referências (5-10) que se
relacionem diretamente com o tema que pretende
investigar tendo estes pressupostos em conta.
-
7 Proporcionam uma visão geral sobre temas ou tópicos de estudo pelo facto de
serem escritos para estudantes. Daí advém também a sua maior limitação ou seja,
não têm um nível de pormenor suficiente e também pecam muitas vezes pela falta
de atualidade.
8 Referem um tema concreto e podem ser localizadas nos catálogos das bibliotecas.

9 São constituídas por resumos curtos sobre temas variados e por isso constituem
um bom recurso em fases iniciais da revisão bibliográfica.
10 Contém revisões atualizadas sobre temas específicos. Exemplo: Handbook of
Educational Psychology.
11 Os documentos obtidos na Internet devem constar da lista de referências
bibliográficas. É necessário indicar, também, a data em que a informação foi
encontrada na Web devido à possibilidade de mudanças no conteúdo ou na
localização.
REFERÊNCIAS BIBLIOGRÁFICAS
Cardoso, T., Alarcão, I. & Celorico, J. A. (2010). Revisão da
Literatura e Sistematização do Conhecimento. Porto: Porto
Editora
Cooper, H. (1998). Synthetizing research: a guide for
literature reviews. Thousand Oaks, CA: Sage Publications.
Fink, A. (2005). Conducting research literature reviews: from
paper to internet. Thousand Oaks, CA: Sage Publications.
Hart, C. (1998). Doing a literature review: releasing the Social
Science imagination. London: Sage Publications.
Capítulo 4

Definição de Variáveis

Variável é um “atributo que reflete ou expressa um conceito ou


constructo e pode assumir diferentes valores” (Ary et al.,
1989, p. 29), opondo-se ao conceito de “constante” (Almeida
& Freire, 1997, p. 56).
Precisando melhor: na investigação social, estudamos
conceitos abstratos (classe social, aptidões cognitivas,
aproveitamento, sucesso, liderança, atitudes, etc.) que tomam a
forma de variável se lhes associarmos determinados atributos.
Por exemplo, o conceito de “sexo” operacionaliza-se numa
variável com dois atributos distintos: masculino e feminino.
Mas há conceitos bem mais complexos, caso por exemplo de
“classe social”, variável composta por atributos múltiplos
como seja “rendimento familiar”, “nível educacional”,
“profissão”, “estatuto familiar” entre muitos outros mais.
Para Stern e Kalof (1996) a operacionalização das
abstrações que constituem a grande maioria de variáveis
socioeducativas são o primeiro requisito para a qualidade
científica da investigação em si. É pois fundamental, que, ao
iniciar uma investigação empírica, o investigador defina
claramente, os conceitos que serão alvo do estudo, ou seja,
operacionalize as variáveis em jogo: se para o seu estudo
“classe social” vai ser determinada pelo “rendimento
familiar”, diz-se que operacionalizou a variável, ou ainda, que
criou uma medida para a mesma, medida essa que lhe vai
indicar se os sujeitos são de classe “elevada”, “média” ou
“baixa”.
São as definições operacionais das variáveis abstratas que
permitem ao investigador fazer observações com rigor
científico, ao dizerem-lhe exatamente aquilo que vai ser
observado ou medido (Eisman, 1992). Mas como poderemos
saber se a abstração (ou melhor a variável) está corretamente
definida/operacionalizada? Stern e Kalof (1996) apontam-nos
o caminho: “o teste para sabermos se uma abstração está
adequadamente concretizada é verificar se observadores
independentes a usam da mesma maneira” (p. 12). Em termos
técnicos trata-se do conceito de fiabilidade (ou fidelidade)
fundamental em investigação educativa e de que nos
ocuparemos mais adiante (Black, 1999).
Em jeito de resumo, digamos que a definição operacional é
a evidência que o investigador usa para justificar a existência
relativa (por vezes quantificável) do conceito abstrato, tarefa
primordial que coloca enormes desafios ao investigador, e da
qual depende uma boa consecução de um qualquer projeto de
investigação, uma vez que a ela está diretamente associada a
qualidade dos instrumentos para recolha de dados (Bisquerra,
1989; Eisman, 1992; Stern & Kalof, 1996).
4.1 Classificações de Variáveis
As variáveis podem classificar-se segundo diversos critérios.
O Quadro 9 apresenta uma classificação que nasceu da análise
das propostas de Bisquerra (1989) e de Black (1999).

QUADRO 9 – Classificação de variáveis

• Do Ponto de Vista Teórico-Explicativo


Desde este critério, são consideradas variáveis estímulo as
condições externas ao sujeito que podem afetar o seu
comportamento, por exemplo, um método de ensino. As
variáveis resposta, são os comportamentos manifestados pelos
sujeitos, por exemplo, a agressividade. Quanto às variáveis
intervenientes, são aquelas que se interpõem entre as
anteriores, provocando modificações incontroladas nas
variáveis resposta (Bisquerra, 1989).
• Do Ponto de Vista Metodológico
É talvez o critério mais conhecido porque ligado à
metodologia quantitativa de cariz experimental e pressupõe a
classificação das variáveis em quatro tipos: independentes,
dependentes, estranhas, moderadoras e de controlo
(Bisquerra, 1989; Black, 1999).
– Variável independente (VI): é a variável que o
investigador manipula, ou seja, é aquela em que os grupos
em estudo diferem e cujo efeito o investigador vai
determinar; pode ser uma situação, caraterística ou
fenómeno que possa assumir pelo menos 2 níveis por
forma a comparar grupos. Também se pode designar por
variável experimental ou tratamento. Alguns autores, caso
de Tuckman (1978), referem ainda uma variável
independente secundária a que chamam moderadora, que
o investigador seleciona para estudar possíveis efeitos
sobre a interação estabelecida entre a variável
independente principal e a dependente. Por exemplo, o
sexo poderá ser a variável moderadora num estudo em que
se relaciona um novo método de ensino (VI) com o
aproveitamento numa dada disciplina (VD).
– Variável dependente (VD): define-se como a caraterística
que aparece ou muda quando o investigador aplica,
suprime ou modifica a variável independente (Almeida &
Freire, 1997). É a variável que o investigador vai medir
para avaliar diferenças nos sujeitos derivadas da exposição
(ou não) ao tratamento (variável independente). Quando a
variável dependente resulta do efeito de uma variável
atributiva, pode chama-se também variável critério (Ary et
al., 1989; Mertens, 1998), como seja, por exemplo, a
“altura de uma criança” ser efeito da sua “idade”.
– Variável estranha: nem sempre a variável independente é
a única a influenciar os resultados de uma experiência,
sobretudo quando se analisam fenómenos sociais
naturalmente complexos: essas outras variáveis designam-
se por variáveis estranhas ou parasitas por afetarem os
resultados da variável dependente “contaminando-os”
(Almeida & Freire, 1997). É o caso, por ex. da formação
prévia dos sujeitos em Matemática numa experiência sobre
cálculo numérico. O controlo das variáveis estranhas é
uma das tarefas que exige mais cuidados por parte do
investigador, havendo para o efeito métodos capazes de
minorar a ação de tais variáveis (ver Almeida & Freire,
1997, p. 52-53).
– Variável moderadora e de controlo: quando uma variável
estranha é tida em conta pelo investigador no estudo pode
designar-se por variável moderadora ou variável controlo.
Uma variável moderadora é um fator que influencia o
impacto da VI sobre a VD e que investigador procura
determinar (medir). Por exemplo, a variável “sexo” num
estudo que avalia a incidência de cancro em fumadores,
pode ser estudada deliberadamente pelo investigador no
sentido de encontrar possíveis associações na incidência da
doença. Uma variável controlo é uma variável moderadora
cujo efeito é deliberadamente eliminado pelo investigador.
No caso acima referido, se o investigador decidir incluir no
seu estudo apenas homens. Convém ter presente que o
controlo de variáveis – neste caso eliminar o grupo das
mulheres do estudo – coloca limitações à generalização
dos resultados obtidos (Black, 1999).
• Quanto à Possibilidade de Manipulação
Se uma variável pode ser manipulada pelo investigador ela
diz-se ativa (Black, 1999) e como exemplo temos o tipo de
material ou método de ensino a utilizar numa investigação cuja
opção depende exclusivamente da vontade do investigador; no
caso em que o investigador não controla a variável por ela
constituir, por exemplo, uma caraterística inerente ao sujeito
como seja a idade, o sexo ou a aptidão intelectual, a variável
diz-se atributo ou atributiva ou ainda natural (Almeida &
Freire, 1997). Também se incluem nesta categoria
caraterísticas ambientais como seja a localização geográfica, o
grau de ensino entre muitas outras.
• Do Ponto de Vista de Medição ou Matemático
Considera Bisquerra (1989, p. 77) que, segundo este critério,
as variáveis podem ser qualitativas ou categóricas e
quantitativas.
Relativamente ao primeiro tipo, as variáveis serão
qualitativas ou categóricas quando se referem a caraterísticas
não quantificáveis havendo necessidade de se estabelecerem
categorias para cada modalidade da variável. Teremos então as
variáveis dicotómicas, se apresentam duas categorias (o sexo,
sim-não, verdadeiro-falso) ou politómicas se apresentam mais
de duas categorias (classe social, nível de estudo). A
categorização das variáveis qualitativas é tarefa essencial que
precede a análise de dados e da qual depende a qualidade
informativa dos mesmos. Para Bisquerra (1989), na
categorização de variáveis deste tipo deve ter-se sempre em
conta:
– as categorias devem ser estabelecidas em função do
problema e objetivos da investigação
– devem ser claramente definidas
– devem ser exaustivas
– devem ser mutuamente excluentes.
Relativamente ao segundo tipo, as variáveis serão
quantitativas se suscetíveis de serem traduzidas
numéricamente, como o peso, a idade, o aproveitamento
escolar, etc. Dividem-se em discretas, quando só podem tomar
certos valores que coincidem com os números inteiros (como
por exemplo, nº de filhos, nº alunos da turma, etc), e contínuas
se podem tomar qualquer valor dentro de um intervalo (idade,
inteligência).
Por vezes pode surgir confusão, porque algumas variáveis
contínuas são transformadas em discretas embora os
construtos que medem sejam contínuos. É o que acontece
muitas vezes em escalas de formato Likert em que o sujeito
deve assinalar o seu grau de acordo relativamente a um dado
conceito expresso sob a forma de uma afirmação (Figura 3).

FIGURA 3 – Exemplo de uma escala de Likert

O construto subjacente – “grau de acordo” – é de natureza


contínua, embora a escala só permita 5 valores possíveis
valores associados à variável em si. Enquanto as variáveis
discretas são suscetíveis de serem medidas com mais precisão,
as variáveis contínuas só podem ser medidas por aproximação,
pelo que na prática, muitas variáveis são transformadas de
contínuas em discretas para proporcionar maior rigor à
medição. Embora este procedimento seja aceite de forma
generalizada, diversos autores, caso de Wiersma (1995) ou de
Black (1999) alertam para o facto de que não podemos
esquecer nunca a verdadeira natureza da variável que
queremos medir: o facto de uma variável ser contínua (poder
tomar qualquer valor num intervalo) ou discreta, influencia
decisivamente o tratamento estatístico que possibilita e o
significado que dela se extrai (faz sentido dizer que um aluno
tem 12,5 anos mas não que tem 3,2 irmãos).
4.2 Escalas de Medida de Variáveis
A ligação do conceito de variável à noção de medida é subtil e
pode resumir-se do seguinte modo: quando medimos algo
devemos distinguir o registo que fazemos do objeto em si. Em
investigação socioeducativa, o objeto que queremos medir
chama-se construto e tanto pode ser um conceito abstrato
(ansiedade, interesse) como algo mais tangível, como seja, por
exemplo, o tempo de resposta, movimentos de olhos, etc.
Alguns construtos podem servir de indicadores de outros
conceitos por nos fornecerem informação sobre eles. Se os
indicadores nos permitem aceder a dados do mundo real sobre
os respetivos construtos diz-se que os operacionalizam. Se a
operacionalização capta a totalidade da manifestação do
construto no mundo real, diz-se que o “mede”. Uma variável é
pois a operacionalização de um construto que pode tomar
muitos valores. (Schutt, 1999; Smithson, 2000).
Os conceitos de medida e escala estão sempre baseados em
propriedades numéricas, mas, no entanto, nem sempre essas
propriedades podem ser extensivas a todos os tipos de escalas.
Os sistemas numéricos obedecem a três propriedades básicas
apresentadas no Quadro 10.

QUADRO 10 – Propriedades dos sistemas numéricos

Apesar de óbvias e invariáveis estas propriedades dos


sistemas numéricos devem ser analisadas com cuidado no
contexto da investigação porque nem sempre é possível
utilizá-las como referência para interpretar os resultados
obtidos numa pesquisa. Na investigação em CSH, os
resultados, quando quantificados, devem ser analisados dentro
de um dos quatro tipos de escalas de medida de variáveis:
nominal, ordinal, intervalar e de razão.
Regra geral, os dados que apresentam somente
propriedades de tipo nominal e ordinal são classificados como
dados não-métricos (variáveis qualitativas), enquanto os dados
com propriedades de intervalo e de razão são classificados
como dados métricos (variáveis quantitativas). A caraterística
que diferencia esses dois tipos de dados é que as diferenças
entre os números têm significado preciso para os dados
métricos e não o tem para os dados não métricos.
4.2.1 Escalas nominais
Uma escala nominal é aquela em que os números servem
apenas para nomear, identificar e categorizar dados sobre
pessoas, objetos ou factos, ou seja, em que os números
funcionam como rótulos usados para identificar diferentes
categorias de respostas. Um exemplo está ilustrado no Quadro
11.
Que software utilitário mais gosta de utilizar no seu
computador? (assinale uma única opção)
1. Processador de texto
2. Excel
3. Powerpoint
4. Publisher
QUADRO 11 – Exemplo de uma escala nominal

A escala nominal é o tipo de escala menos sofisticado;


envolve apenas a classificação de certos atributos e pode ser
aplicada a muitas variáveis educativas como sejam o género,
profissão, raça, escola frequentada, tipo de residência, ou
ainda preferências, gostos, ocupações, usos, etc.
A única operação matemática permitida para a análise de
resposta em escalas nominais é a contagem do número de
ocorrências em cada categoria e por isso a moda é a única
medida de tendência central que pode ser calculada.
4.2.2 Escalas ordinais
Como o próprio nome indica as escalas ordinais ordenam os
sujeitos ou objetos em estudo de acordo com certas
caraterísticas segundo um processo de comparação. É por isso
uma escala mais poderosa do que a escala nominal porque
permite a ordenação (de maior a menor ou de menor a maior)
dos dados, segundo o grau em que as pessoas ou objetos
possuem uma dada caraterística.
Para Black (1999), a escala ordinal indica a ordem de
ranking de um grupo de itens associados a determinadas
caraterísticas mas não indica a medida das diferenças entre os
rankings. Ou seja, trata-se de uma escala que permite concluir,
por exemplo, que os alunos da turma A usam mais o
computador do que os da turma B mas não permitem saber o
“quanto” mais (Quadro 12).
Quantas horas por dia estudas usando o computador?
1. Menos de uma hora
2. Entre uma a duas horas
3. Entre duas a três horas
4. Mais de três horas
QUADRO 12 – Exemplo de uma escala ordinal

Os valores da escala 1, 2, 3, e 4 além de determinarem as


categorias de resposta, fornecem informação sobre o tempo
gasto no estudo utilizando o computador. Portanto pode-se
dizer que os alunos que estão enquadrados na categoria 4 usam
mais o computador para estudar do que os da categoria 3; no
entanto não nos diz quanto tempo a mais os primeiros usam o
computador do que os últimos.
As escalas ordinais são muito usadas na pesquisa educativa
sempre que se deseja obter um ordenamento de preferências,
opiniões, atitudes, etc. em que o sujeito se posiciona no grau
com que está de acordo ou em desacordo (1= Nada de acordo,
2=Pouco de acordo, 3= Indeciso, etc.). A diferença entre a
posição 1 e 2 pode não ser a mesma que a diferença entre o 2 e
o 3. Esta caraterística faz com que estas escalas tenham
limitações a nível da análise estatística; ou seja, não se podem
utilizar com elas técnicas de análise estatística paramétricas.
4.2.3 Escalas de intervalo
Uma escala de intervalo é aquela em que os intervalos entre os
valores da escala dizem a posição e quanto os sujeitos, objetos
ou factos estão distantes entre si em relação a determinada
caraterística. Permite comparar diferenças entre medições, mas
não permite concluir quanto à magnitude absoluta das
medições, porque estas são calculadas a partir de um ponto
zero fixado de forma arbitrária.
São escalas muito mais poderosas que as escalas ordinais
porque além das propriedades destas, as diferenças entre os
valores de uma escala de intervalo podem ser interpretadas
com um significado específico.
Um exemplo típico de uma escala de intervalo é a
temperatura. Fazendo uma comparação entre as escalas de
temperatura Celsius e Fahreneit, sabemos, por exemplo, que
100° C não é o dobro de 50° C; de facto, transformando esses
valores para a escala Fahreneit, obtemos respetivamente 212°F
e 122°F, que não são o dobro uma da outra (ver Quadro 13).

QUADRO 13 – Exemplo de uma escala de intervalo

Na investigação em CSH as escalas de intervalo são


utilizadas para medir muitíssimas variáveis socioeducativas e,
salvo raras excepções, são a escala de mais elevado nível de
quantificação que conseguimos alcançar. De facto, a maior
parte dos testes de rendimento, inteligência, motivação,
interesses utilizam escalas de intervalo.
As variáveis de escala de intervalo podem ser tratadas com
técnicas de análise estatística paramétrica (Black, 1999).
4.2.4 Escalas proporcionais ou de razão
Nas escalas de razão há um zero absoluto, e é nessa
caraterística que reside a diferença, relativamente à escala de
intervalo. Tais “pontos zero” (ausência de caraterística ou
propriedade) são difíceis de fixar em educação e psicologia
porque reportadas a caraterísticas internas inerentes aos
sujeitos que são difíceis de contabilizar; reportando-nos à
aprendizagem escolar, por exemplo, uma hipotética
classificação de zero num teste não poderia ser assumida como
ausência perfeita ou completa de conhecimentos.
São exemplos de escalas proporcionais ou de razão as
variáveis altura, peso, idade, entre muitas outras.
As escalas quantificadas que formam uma escala de razão
são também as mais versáteis em termos de análise estatística.
As quatro escalas apresentadas distribuem-se num contínuo
em termos do nível de quantificação que asseguram,
decorrendo daí implicações em termos da formulação das
hipóteses e das análises estatísticas passíveis de serem usadas
pelo investigador. O Quadro 14 apresenta uma visão geral dos
quatro tipos de escalas, destacando caraterísticas, usos e/ou
exemplos típicos, bem como as técnicas estatísticas que podem
ser usadas na sua análise.
QUADRO 14 – Caraterísticas dos quatro tipos de escala de medida de variáveis

4.3 Controlo de Variáveis


Para Wiersma (1995) um bom plano de investigação deve
atender a critérios de rigor capazes de lhe conferir validade
experimental. Esta pode ser de dois tipos, interna e externa:
A validade interna refere o controlo mínimo necessário
capaz de assegurar uma interpretação correta dos
resultados e a validade externa trata da possibilidade de
generalizar esses mesmos resultados. (Wiersma, 1995, p.
112).
De certa maneira os critérios completam-se. A validade
interna preocupa-se com o controlo de variáveis estranhas que
possam comprometer a interpretação dos resultados (Borg &
Gall, 1989), mas resulta óbvio que se os resultados do estudo
forem imputáveis à variável experimental (VI ou ainda
tratamento), ou seja, se o estudo tem validade interna isso seja
determinante para o grau de generalização dos resultados
(validade externa).
4.3.1 Validade Interna
São várias as possíveis ameaças, que mais não são do que
outras tantas variáveis “estranhas” ou “parasitas” que podem
associar-se à variável independente e comprometer a validade
dos resultados (Almeida & Freire, 1997, dente e comprometer
a validade dos resultados (Almeida & Freire, 1997, 189;
Mertens, 1998, pp. 64-67; Ross & Morrison, 1996, p. 1151;
Wiersma, 1995, p. 114):
• Tempo/contexto (history): trata-se de eventos que, para
além do tratamento, ocorrem durante o estudo e podem
influenciar a variável dependente. Por exemplo, na
aplicação de um protótipo que deverá ser feita numa
mesma semana, um grupo “falha” uma sessão por falta de
luz na escola.
• Tempo/Maturação (maturation): podem ocorrer
mudanças nos sujeitos derivadas do seu crescimento
biológico ou da própria aprendizagem, idade, experiência,
doença, etc. Por exemplo, o grupo experimental que testa
um novo programa, começa a diminuir o rendimento ao
fim de 50 minutos devido à fadiga. Só a existência de um
grupo de controlo que apresente os mesmo sinais de
cansaço, pode assegurar não ser o tratamento a afetar os
resultados.
• Seleção diferencial dos sujeitos (selection): desvios
decorrentes da seleção dos grupos para o estudo que
podem não ser homogéneos à partida, como acontece com
a utilização de grupos intactos (turmas, por exemplo). Se
por, exemplo, se testa a capacidade de resolver problemas
e uma turma tem alunos mais velhos do que outra, isso
pode afetar os resultados e ser a diferença de idades e não
o tratamento a determinar diferenças observadas.
• Mortalidade experimental (experimental mortality):
refere os sujeitos, e/ou tratamentos e/ou circunstâncias que
desaparecem no decurso de uma investigação, como pode
acontecer em estudos que se prolongam no tempo. Por
exemplo, alunos que não gostam do computador
abandonam uma experiência que o utiliza deixando apenas
os alunos mais motivados pode “deturpar” os resultados,
ou um estudo centrado num programa de televisão que
entretanto acaba. Só a aleatorização dos sujeitos para os
grupos e dos grupos para as condições (grupo experimental
e de controlo), pode assegurar, do ponto de vista formal ou
teórico, o controlo desta variável estranha (Mertens, 1998,
p.66).
• Efeito tratamento ou experimentação (diffusion of
treatments): a implementação do tratamento pode
influenciar os sujeitos no grupo de controlo, pela troca de
informações entre os grupos, pelo desejo de imitação que
leva os sujeitos a alterarem comportamentos, o que pode
acontecer quando os grupos são da mesma comunidade.
• Efeito teste (testing): acontece sobretudo nos planos que
usam pré e pós-teste e refere o facto dos sujeitos ficarem
influenciados pela aplicação do pré-teste, seja criando
expectativas, seja “aprendendo” para o pós-teste, seja
ficando mais sensibilizados para o estudo a iniciar.
• Regressão estatística (regression): meramente
probabilístico, este erro ocorre associado à tendência dos
valores extremos numa distribuição tenderem para a média
numa avaliação posterior, pelo que é importante conhecer
a constituição dos grupos e evitar situações extremas,
como seria, por exemplo, o grupo de controlo ter os alunos
com melhores pontuações e o experimental os de
pontuações mais baixas e o estudo não revelar diferenças
significativas entre ambos. Como interpretar resultados?
O Quadro 15, que segue, sintetiza os vários fatores que
podem condicionar e comprometer a validade dos resultados
obtidos numa investigação.

QUADRO 15 – Ameaças à validade interna

4.3.2 Validade externa


Quanto à validade externa (ou ecológica) de um plano de
investigação, a questão passa por equacionar as condições que
afetam a representatividade dos seus procedimentos e
resultados com vista à uma generalização a outras situações
reais. Os principais fatores que afetam a validade externa são
(MacMillan & Schumaker, 1997; Mertens, 1998; Stern &
Kalof, 1996):
• Reatividade experimental ou efeito de Hawthorne: os
sujeitos do grupo experimental alteram os seus padrões
habituais de comportamento face à especificidade do
tratamento, por vezes pelo simples facto de se saberem
alvo de uma investigação.
• Novidade do tratamento: pode afetar o impacto da
variável independente “potenciando-o” na maior parte das
vezes mas podendo também acontecer o efeito contrário
(um tratamento não foi eficaz no início, mas, assimilado no
sistema, pode vir a resultar bastante).
• Efeito investigador: a eficácia de um tratamento pode
estar associada à individualidade de quem o aplica, não
podendo extrapolar-se a outras situações.
• Efeito pré-teste: o treino no pré-teste pode ser suficiente
para afetar a generalização de resultados.
• Interferência de tratamentos múltiplos: quando os mesmo
sujeitos recebem dois ou mais tratamentos (medidas
repetidas) pode acontecer que os efeitos de um afetem o
tratamento seguinte, enviesando resultados.
• Efeito interação tempo/tratamento: o timing da
administração do pós-teste pode influenciar resultados; ser
feito imediatamente após, ou uma semana ou um mês
depois, pode alterar significativamente os resultados.
O Quadro 16 sintetiza as várias condicionantes à validade
externa de uma investigação em CSH. Aliados a outras fontes
sistemáticas de erro – caso dos erros aleatórios de amostragem
e derivados dos instrumentos de medida – constituem, as mais
das vezes, fontes involuntárias de desvio (bias) a que o
investigador é alheio mas que não pode nem deve ignorar.
QUADRO 16 – Ameaças à validade externa

No entanto há outras ameaças à validade externa de um


trabalho de investigação de natureza mais delicada, e por isso
mesmo menos afloradas na literatura, mas que tem vindo a ser
alvo de interesse crescente por parte de muitos autores
sobretudo na literatura norte americana. Hammersley e Gomm,
por exemplo, num interessante artigo publicado em 1997,
depois de considerarem os tradicionais bias ou desvios
sistemáticos à validade de um estudo a que já aludimos,
referem outros, caso, por exemplo, da tendência consciente ou
inconsciente do investigador para recolher e/ou interpretar e
apresentar dados de forma a favorecer resultados falsos, mas
que estão mais de acordo com os pressupostos teóricos ou
práticos que fundamentam a sua investigação. Tais desvios
podem levar o investigador seja a defender conclusões falsas,
seja a excluir de ter em consideração no estudo outras
conclusões possíveis, e passíveis de incluírem a verdade.
Excluindo à partida desvios derivados de posições
políticas/ideológicas do investigador que podem sempre
ocorrer em muitas modalidades da investigação em Ciências
Sociais e Humanas, os autores exemplificam alguns dos erros
que podem ocorrer e ameaçar a validade externa de um
qualquer estudo seja ele de cariz quantitativo ou qualitativo:
• a forma como se selecionam e se fazem as perguntas
numa entrevista;
• a escolha do grupo que se vai auscultar;
• no caso da investigação quantitativa, a tendência para
esquecer que os dados numéricos são também eles
construções do investigador e podem conter erros bem
como a visão metodológica simplista que considera as
técnicas estatísticas como máquinas de transformar dados
em conclusões válida;
• no caso da investigação qualitativa a ideia ingénua de
acreditar que se pode descrever a realidade tal como ela é,
simplesmente porque se está em contacto estreito com ela
como acontece no caso da observação participante ou num
estudo de caso.
“Verdade” e “objetividade” são conceitos cujo valor tem
sido questionado pelos adeptos de posições anti-positivistas da
investigação em CSH, mas cuja pertinência tem uma
atualidade crescente (Levine, 1993): para que nos servirá
construir conhecimento que não tem validade científica?
Teremos o direito de divulgar informação “inválida” (no
sentido pouco “fiável”)?
“Informação é poder”, mas a verdade é que só alguma
informação é, de facto, poder: a informação válida (reliable)
diz-nos Harris (1997). É com base na informação que
acreditamos, decidimos, escolhemos e compreendemos o
mundo: se decidimos com base em informação inválida, não
temos poder, pelo contrário, erramos, somos derrotados, e,
mais grave ainda, no caso da investigação, comprometemos a
investigação futura.
Numa época em que há cada vez mais acesso a informação
que nos é facultada gratuitamente sem qualquer controlo de
qualidade (caso da WWW) estas questões tomam nuances
novas que importa questionar (Hammersley & Gomm, 1997;
Harris, 1997; Levine, 1993).
ATIVIDADES
1 – A lista que segue inclui variáveis e categorias (valores) de
variáveis. Identifique quais são “variáveis” e quais são
“categorias” de uma variável.
Idade
Jovem
Nível de inteligência
Tipo de residência
Rural
Estatuto socioeconómico
Clube recreativo
Muito doente
Incontinente Sobredotado
2 – Defina operacionalmente as seguintes variáveis (considere
todas as categorias exaustivas e mutuamente exclusivas):
Raça
Aproveitamento escolar em Matemática
3 – Em cada um dos projetos de investigação abaixo descritos,
identifique a variável independente, as condições da variável
independente e a variável dependente:
a) Um investigador estuda se as pontuações num exame
final são influenciadas pelo facto da prova decorrer com
música ambiente suave, forte ou inexistente.
b) Um investigador compara alunos do 1º ciclo, 2º, 3º ciclo
e secundário relativamente ao gosto que sentem por
frequentar a escola.
c) O investigador compara se o facto de se ser o primeiro,
segundo ou terceiro filho está (ou não) relacionado com o
grau de inteligência.
d) O investigador pesquisa se o facto de os adolescentes
permanecerem em quartos com paredes azuis, vermelhas,
verdes ou brancas tem influência sobre a agressividade.
3 – Na tabela que segue, identifique as caraterísticas de cada
variável:

4 – Entre professores recém-licenciados, os que receberam


formação em estatística desenham testes de avaliação que os
alunos consideram mais bem conseguidos dos que os de
professores que não receberam formação nessa área. A
diferença é maior no caso dos alunos do ensino secundário,
menor no caso de alunos de 3º ciclo e média no de alunos do
2º ciclo do Ensino Básico.
Identifique:
a) A variável dependente
b) A variável independente
c) A variável moderadora
d) A variável controlo
REFERÊNCIAS BIBLIOGRÁFICAS
Almeida, L., & Freire, T. (1997). Metodologia da investigação
em Psicologia e Educação. Coimbra: APPORT.
Ary, D., Razavieh, A., & Jacobs, L. (1989). Introduccion a la
investigacion pedagógica. México: MacGraw Hill, S. A.
Bisquerra, R. (1989). Métodos de investigacion educativa:
Guia practica. Barcelona: Ediciones CEAC.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Borg, W., & Gall, M. (1989). Educational research: an
introduction (5ª ed.). New York: Longman.
Eisman, L. B. (1992). El processo de investigácion. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación educativa
(pp. 69-105). Sevilha: Ediciones Alfar.
Hammersley, M., & Gomm, R. (1997). Bias in Social
Research. Sociological Research Online, 2(1), Retirado de
http://www. socresonline.org.uk/2/1/2.html.
Harris, R. (1997). Evaluating internet research sources.
Retirado de
http://www.niu.edu/facdev/programs/handouts/evaluate. htm.
Levine, J. H. (1993). Exceptions are the rule: An inquiry into
methods in the Social Sciences. Boulder, CO: Westview Press.
Macmillan, J. H., & Schumacher, S. (1997) Research in
Education: a conceptual introduction. New York: Longman.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Ross, S., & Morrison, G. (1996). Experimental research
designs. In D. Jonassen (Ed.), Handbook of research for
educational communications and technology (pp. 1148-1170).
New York: Macmillan USA.
Schutt, R. K. (1999). Investigating the Social World: The
process and practice of research (2ª ed.). Thousand Oaks: Pine
Forge Press.
Smithson, M. (2000). Statistics with confidence. London:
SAGE Publications.
Stern, P., & Kalof, L. (1996). Evaluating Social Science
research (2ª ed.). Oxford: Oxford University Press.
Tuckman, B. (1978). Conducting educational research (2ª
ed.). New York: Harcourt Brace Jovanovich, Inc.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Capítulo 5

Amostra

Amostragem é o processo de seleção dos sujeitos que


participam num estudo. Sujeito é o indivíduo de quem se
recolhem dados (participantes na investigação qualitativa).
População é o conjunto de pessoas ou elementos a quem se
pretende generalizar os resultados e quem partilham uma
caraterística comum. População acessível ou disponível é a
parte da população da qual se selecionará a amostra. Amostra é
o conjunto de sujeitos (pessoas, documentos, etc.) de quem se
recolherá os dados e deve ter as mesmas caraterísticas das da
população de onde foi extraída.
Uma amostra está bem definida se o investigador descrever
com exatidão:
1 O procedimento de amostragem que utilizou para
selecionar a amostra;
2 As caraterísticas da amostra selecionada.
Uma amostra é pois “um grupo de sujeitos ou objetos
selecionados para representar a população inteira de onde
provieram” (Charles, 1998, p. 145). É um subconjunto da
população que terá de a representar, ou seja refletir os seus
traços, caso contrário incorremos no chamado erro amostral
(quanto maior o erro amostral menos representativa será a
amostra). A Figura 4 representa duas amostras uma
representativa e a outra não representativa de uma mesma
população. Como se pode verificar a amostra representativa
“parece-se” – looks like – com a população de onde foi
extraída, ou seja, a “distribuição das caraterísticas na amostra é
igual à sua distribuição na população” (Schutt, 1999, p. 112).
FIGURA 4 – Amostra representativa e não representativa da população (adaptada
de Schutt, 1999, p. 113)

Nem sempre é necessário o investigador constituir uma


amostra para o seu estudo, caso, por exemplo, da investigação
histórica ou da investigação-ação que partem sempre de um
grupo muito específico para a análise, ou mesmo de estudos
em que o grupo-alvo (target group) coincide a população, ou
seja, é analisado na sua totalidade. No entanto são muitas as
situações em que a constituição de uma amostra representativa
da população é preocupação central do investigador social.
Há três momentos chave no processo de amostragem:
1. Identificação da população e amostra;
2. Seleção da amostra;
3. Dimensão da amostra.
5.1 Seleção da Amostra
Para Charles (1998) os métodos de seleção de amostra podem
dividir-se em dois tipos: a amostragem probabilística e não-
probabilística.
5.1.1 Amostragem probabilística
A amostragem é probabilística se podemos determinar o grau
de probabilidade (diferente de zero) de um sujeito da
população pertencer, ou não, à amostra. São métodos em que a
seleção dos sujeitos é aleatória, fruto apenas do acaso, o que
exclui desde logo o erro sistemático que afeta as amostras não
probabilísticas (Schutt, 1999).
Dentro das várias modalidades da amostragem
probabilística é comum distinguir:
Amostragem aleatória , se todos os sujeitos da população tem
igual probabilidade de pertencer à amostra, ou seja se a
seleção é apenas fruto do caso. Por exemplo, para representar
os alunos de uma escola, escrever os nomes de todos os alunos
num papel, baralhar e tirar nomes ao acaso. O procedimento
para constituir uma amostra deste tipo quando a população é
pequena é o seguinte:
1. atribui-se um número a cada membro da população;
2. colocam-se todos os números num recipiente;
3. tiram-se à sorte os sujeitos que devem integrar a
amostra.
Se a população é grande a seleção é feita de uma forma
muito mais simples e exequível, recorrendo a programas de
computador ou a tabelas de números aleatórios (tabela
organizada em colunas de cinco dígitos que foram gerados ao
acaso mediante procedimentos estatísticos) (ver Anexo 1). O
procedimento para extrair uma amostra aleatória utilizando a
tabela de números aleatórios é o seguinte:
1. Identificar e definir a população.
2. Obter uma lista com os membros da população.
3. Atribuir um número consecutivo a cada membro a partir
do zero. Por exemplo 00 até 79 ou 000 até 149 se a
população tiver 80 e 150 elementos respetivamente.
4. Determinar o tamanho da amostra (10%, 15% da
população).
5. Selecionar um número arbitrário da tabela de números
aleatórios (basta fechar os olhos e apontar com um dedo
um número da tabela ao acaso).
6. Identificar os números. Se a população tiver 500
membros, só necessitaríamos de usar os 3 últimos dígitos
do número da tabela; se a população fosse de 80 membros,
só empregaríamos os 2 últimos dígitos do número
aleatório.
7. Se o número encontrado corresponder a um elemento da
população, esse membro integrará a amostra. Por exemplo,
se a população tiver 500 membros e o número selecionado
for o 375, o membro da população com esse número faz
parte da amostra; se a população tivesse apenas 300
membros, ignorava-se o 375.
8. Continuar com o número seguinte (sempre na mesma
direção seja para baixo ou seja para a direita) e repetir o
passo 7 até que se reúna o número de membros que se
necessita para obter a amostra desejada.
9. Da amostra obtida podem formar-se subgrupos. Por
exemplo, pode interessar dividir a amostra em dois
subgrupos, o grupo experimental e o de controlo; neste
caso deita-se uma moeda ao ar e a primeira metade será o
grupo experimental, e a segunda, o de controlo (assignação
aleatória dos grupos).
Amostragem aleatória sistemática , semelhante à anterior,
por vezes mais conveniente sobretudo quando trabalhamos
com amostras muito grandes. Neste procedimento, cada k
membros da população fica selecionado automaticamente a
partir de um número inicial escolhido ao acaso (k obtém-se
dividindo o tamanho da população pelo da amostra). Os passos
para obter uma amostra aleatória sistemática são os seguintes:
1. Identificar e definir a amostra.
2. Obter uma listagem da população.
3. Determinar o tamanho da amostra.
4. Determinar K dividindo o tamanho da população (N)
pelo da amostra (n) (por exemplo, se quisermos selecionar
100 sujeitos de uma população de 5000 membros, k seria 1
por cada 50 sujeitos: 5000:100=50).
5. Escolher um número aleatório da tabela.
6. Selecionar os sujeitos da lista de 50 em 50 a partir do
número inicial (se o número aleatório de partida fosse 240,
o primeiro elemento seria o 240, o segundo 240+50=290, o
terceiro 360 e assim sucessivamente até completar a
amostra).
7. Se entretanto se chegar ao fim da lista sem se obter o
número necessário de sujeitos para a amostra recomeçar
todo o procedimento.
Amostragem estratificada , se usamos informação sobre a
população total antes da aleatorização para a tornar mais
eficiente. Primeiro os elementos da população são organizados
em função do seu valor em categorias relevantes (os strata, em
português “estratos”). Depois procede-se à seleção aleatória
dentro dos estratos. A representatividade dos estratos pode ser
proporcional ou não proporcional à existente na população,
dependendo a opção dos objetivos do investigador. No caso de
se respeitar a proporcionalidade dos estratos temos aquilo a
que alguns autores chamam também de amostragem por
quotas (Ghiglione & Matalon). Imaginemos uma escola que
tem 30% dos alunos no 3º ciclo e 70% no secundário; se
queremos constituir uma amostra de 100 alunos representativa
da população dessas escolas deveremos ter em conta a
estrutura da população e selecionar 30 ao acaso dentro do 2º
ciclo e70 dentro do 3º ciclo. Mas imaginemos que o que
queremos é comparar o 3º ciclo com o Secundário; neste caso,
não faz grande sentido obter uma amostra que represente a
escola mas duas amostras representativas de cada ciclo (p. ex.
2 turmas de cada ciclo). Neste caso uma amostra estratificada
não proporcional, seria sem dúvida mais conveniente para os
objetivos da investigação muito embora ela não represente a
população. As amostras estratificadas não proporcionais são
recomendadas se sabemos da existência na população de
grupos minoritários que nos interessa contemplar na nossa
investigação (Schutt, 1999). Entre as variáveis que costumam
funcionar como critério na formação dos estratos temos o
género, o estatuto socioeconómico, a formação académica, a
localização geográfica, etc., etc.).
Procedimentos para a constituição de uma amostra
estratificada não proporcional:
1. Identificar e definir a população;
2. Identificar a variável que se estratificará e os subgrupos
ou estratos para os quais se pretende igual representação;
3. Determinar o tamanho da amostra;
4. Classificar todos os membros da população como
pertencentes a cada um dos estratos identificados;
5. Selecionar aleatoriamente (usando a tabela de números
aleatórios) o mesmo número de sujeitos para cada um dos
subgrupos a estudar.
Amostragem por clusters , implica a seleção aleatória
dentro de grupos já existentes. Por exemplo, se quisermos
estudar a influência de um novo método de matemática num
dado ano de escolaridade, seleciona-se aleatoriamente uma (ou
várias) região do país, dentro da região uma (ou várias) cidade,
dentro da cidade uma (ou várias) escola e, dentro desta,
selecionam-se aleatoriamente turmas para aplicar o novo
método. O esquema representado na Figura 5 (adaptada de
Schutt, 1999, p. 126) exemplifica este método:
FIGURA 5 – Amostragem por clusters

Os passos para constituir uma amostra deste tipo são os


seguintes:
1. Identificar e definir a população;
2. Determinar o tamanho da amostra;
3. Identificar e definir um cluster razoável e lógico;
4. Fazer uma lista de todos os clusters que compõem a
população;
5. Estimar a média de elementos da população por cluster;
6. Determinar o número de clusters, dividendo o tamanho
da amostra pelo tamanho estimado do cluster;
7. Selecionar de forma aleatória o número de clusters que
se necessitam (com uma tabela de números aleatórios);
8. Incluir no estudo todos os membros de cada um dos
clusters selecionados.
Exemplo:
Pretendemos obter obter uma amostra representativa dos
5000 professores de ensino secundário do distrito X. Numa
amostragem por clusters teríamos de proceder seguinte forma:
1. A população é composta pelos 5000 professores do
distrito X;
2. A amostra desejada são 500 professores (10%);
3. Um cluster lógico é a escola;
4. O investigador dispõe de uma lista com todas as escolas
do distrito. No total há 100 escolas.
5. Ainda que as escolas variem no que refere ao nº de
professores, há uma média de 50 professores por escola;
6. O número de escolas de que se necessita são 10 (500:
50=10);
7. Portanto 10 dos 100 centros selecionam-se
aleatoriamente, atribuindo um número a cada um e usando
a tabela de números aleatórios;
8. Todos os professores de cada escola selecionada formam
parte da amostra (10 escolas com uma média de 50
professores dará aproximadamente os 500 elementos
desejados).
5.1.2 Amostragem não probabilística
A amostragem é não probabilística se não podemos especificar
a probabilidade de um sujeito pertencer a uma dada população.
• Amostragem por conveniência, se usamos grupos intactos
já constituídos, como uma ou mais turmas. Os resultados
obtidos nestes estudos dificilmente podem ser
generalizados para além do grupo em estudo (Schutt,
1999).
• Amostragem criterial (judgmental sampling, Charles,
1998, p.146), se o investigador seleciona segmentos da
população para o seu estudo segundo um critério pré-
definido. Se quero estudar casos de alunos “problema” vou
selecionar uma amostra de alunos que apresentam tais
caraterísticas de comportamento irregular dentro da escola.
Trata-se de um tipo de amostragem mais apropriado para
as abordagens qualitativas do que para as quantitativas. O
denominador comum a todas as amostras não
probabilísticas é o facto de se basearam em “… critérios
pragmáticos e teóricos em vez de critérios probabilísticos”
(Bravo, 1992b, p. 254), como acontece na amostra
intencional ou teórica que a Figura 6 ilustra: à medida que
o investigador descobre novos dados para o estudo, novas
comparações que importa fazer, vai escolhendo novos
elementos para incorporar na sua amostra.

FIGURA 6 – Amostragem criterial (Schutt, 1999)

• Amostragem por quotas ou quota sampling, muito vulgar


em educação, utiliza-se quando o investigador não tem
possibilidade de constituir uma amostra aleatória
representativa da população para o estudo que vai iniciar,
mas pretende que nela estejam representados todos os seus
diferentes estratos. Por exemplo se quiser analisar o
aproveitamento escolar de alunos filhos de pais separados,
pode obter na secretaria uma lista dos alunos nessas
condições, e com eles constituir a sua amostra. Convém
notar, adverte Schutt (1999), que o facto de sabemos que
uma tal amostra é representativa de algumas caraterísticas
da população, não significa que o seja para outras
caraterísticas dessa mesma população. E exemplifica com
o esquema abaixo representado (Schutt, 1999, p. 130), de
uma amostra por quotas representativa da população no
referente a género mas não a raça (figura 7):
FIGURA 7 – Amostragem por quotas

• Amostragem acidental, constituída por voluntários que se


oferecem para participar.
• Amostragem “bola de neve” (snowball sampling), em
que se identifica um membro da população alvo e se lhe
pede que identifique outros membros dessa mesma
população, e assim por diante (o efeito bola de neve…).
Trata-se de uma técnica útil em populações difíceis de
identificar e de alcançar (por exemplo, traficantes de
droga, lideres de gangs, prostituição, etc.).
O Quadro 17 que segue (adaptado de Black, 1999) sintetiza
a informação relativa a este assunto.
QUADRO 17 – Tipo de amostras

5.2 Dimensão da Amostra


Sempre foi uma preocupação para a maioria dos
investigadores o tamanho ideal que deve ter uma amostra
capaz de garantir a qualidade dos resultados da investigação.
Sabemos em termos gerais, que amostras grandes garantem à
partida maior generalização aos resultados por diminuírem o
erro amostral (Schutt, 1999), o que é de facto verdade, mas
nem sempre uma amostra grande é possível nem tão pouco
necessária, sendo muitos os autores que defendem ser mais
importante o cuidado na seleção da amostra do que
propriamente o tamanho da mesma (Best & Kahn, 1993;
Charles, 1998; Mertens, 1998).
Em todos os casos, conscientes de que o número não é de
facto o fator mais importante numa amostra, é frequente, dada
a sua utilidade na investigação em CSH, os autores apontarem
valores para o tamanho ideal da amostra a constituir numa
investigação. Surge assim, muitas vezes referido o número 30,
como o número mágico da amostra “ideal” na investigação
experimental e quase experimental: de facto, amostras
inferiores a 30 têm poucas probabilidades de refletirem
fielmente os traços da distribuição de uma dada população e
comprometer os resultados da investigação. Mesmo que
amostras mais pequenas representem fielmente a população, o
seu tamanho reduz a possibilidade de os resultados do
tratamento estatístico obtido terem significância, como
acontece numa correlação ou uma diferença de médias em que
é exigido um número mínimo de casos (Black, 1999; Heiman,
1996; Vogt, 1999).
Para Mertens (1998) e Charles (1998), o tamanho ótimo de
uma amostra está diretamente relacionado com o tipo de
problema a investigar, havendo no entanto um conjunto de
critérios ou rules of thumb que podem ajudar o investigador a
determinar a dimensão “ideal” em particular quando se trata de
investigação experimental e quase experimental da sua
amostra. Assim, sempre que o investigador tenha a
possibilidade de poder escolher, o Quadro 18 aponta pistas a
título meramente indicativo.

QUADRO 18 – Dimensão da amostra


Todos estes números devem ser interpretados e usados com
as devidas cautelas, uma vez que, amostras maiores, se
incorretamente constituídas, podem conduzir a resultados
inválidos. Para os autores consultados é mais importante o
cuidado na seleção da amostra do que a dimensão da mesma
(Best & Kahn, 1993; Charles, 1998; Mertens, 1998).
ATIVIDADES
1. Um investigador está interessado em saber o que pensam os
professores do 1º ciclo do EB de um agrupamento de escolas
da área suburbana do grande Porto sobre questões de
integração e aproveitamento escolar de alunos filhos de
imigrantes que habitam na referida região. No sentido de
garantir uma amostra que represente os professores que
lecionam nesse agrupamento de escolas e sabendo que estes se
distribuem por ano e género tal como representado no Quadro
1, diga como deveria o investigador proceder para selecionar
os 60 professores a inquirir no seu estudo.

2 – O Diretor de uma instituição de ensino superior está


interessado em saber o que pensam os licenciados que
terminaram o curso na sua instituição sobre a qualidade da
formação recebida. São 500 os licenciados que terminaram o
referido curso há 5 anos. Listados abaixo estão possíveis
técnicas de amostragem que podem ser levadas a cabo pelo
Diretor para desenvolver a pesquisa. Analise cada uma e
classifique-a de acordo com as seguintes hipóteses:
1. Aleatória simples (probabilística)
2. Estratificada (probabilística)
3. Sistemática (probabilística)
4. Acidental (não probabilística)
5. Conveniência (não probabilística)
6. Por quotas (não probabilística)
2.1 Envia-se uma mensagem a todos os 500 licenciados
solicitando a sua participação no preenchimento de um
questionário. Respondem 200 voluntários e vai-se fazendo
uma lista à medida que as respostas chegam. Escolhe-se um
número aleatório entre 1 e 10 e fixa-se esse número na lista.
Um questionário detalhado é enviado a cada 4ª pessoa da lista,
começando no número inicial escolhido aleatoriamente. Todas
as 50 pessoas contactadas respondem ao questionário.
2.2 O Diretor seleciona a sua amostra de licenciados a partir
de uma lista de todos os licenciados que concluíram o curso há
cinco anos, sendo atribuído a cada um número e selecionados
os 50 membros da amostra a partir de uma tabela de números
aleatórios.
2.3 Enviam-se questionários a todos os 500 graduados.
Recebem 200 respostas. Analisam-se os questionários
devolvidos e verifica-se que as pessoas que responderam
correspondem ao perfil dos licenciados daquele ano em termos
de género, classificação final no curso, número de repetências.
Analisam-se as 200 respostas.
2.4 Pega-se na lista dos 500 licenciados e organiza-se a lista
por ordem alfabética. Usa-se uma tabela de números aleatórios
para escolher um número inicial da lista. Escolhe-se um
licenciado cada 10º seguinte na lista, até se obterem 50
sujeitos. Envia-se um questionário a cada um dos 50
selecionados. Codificam-se os questionários por forma a
seguir o curso das respostas por forma a conseguir uma taxa de
retorno de 100%. Analisam-se os 50 questionários obtidos.
2.5 O Diretor do Instituição tem interesse em comparar as
opiniões dos professores do ensino básico com as dos do
secundário. Uma vez que sabe que só 10% dos licenciados
daquele ano eram professores do ensino secundário, admite
que apenas 5 em cada 50 respondentes serão professores do
secundário. Por isso, no sentido de assegurar que os dois
estratos fiquem igualmente representados na amostra, ao
selecionar a sua lista dos 50 respondentes descrita na alínea
anterior, usa listas separadas para professores do básico e
secundário e escolhem-se depois, dentro de cada lista,
aleatoriamente, 25 sujeitos para a amostra.
2.6 Qual das técnicas de amostragem acima descritas
considera ser a amostragem mais adequada ao estudo no
sentido de assegurar a sua validade externa? Justifique a
resposta.
3 – Sabendo que uma amostra está bem definida se o
investigador descrever com exatidão:
a) O procedimento de amostragem que utilizou;
b) As caraterísticas da população e da amostra selecionada.
Diga, justificando, se a amostra abaixo descrita cumpre (ou
não) os referidos requisitos.
“A amostra deste estudo é formada por 9 professores de
Matemática de 6º ano de escolaridade e seus respetivos alunos,
pertencentes 4 escolas públicas de uma cidade com cerca de
100 000 habitantes. A comunidade onde as escolas se radicam
pode considerar-se de classe média-baixa. Uma pequena
proporção da amostra pertence a minorias. O distrito tem
aproximadamente 32000 alunos distribuídos por 42 escolas
primárias, 9 escolas EB 2/3 e 9 escolas secundárias. O número
de alunos por turma oscila entre 16 e 34 alunos. A média da
idade dos professores, 6 mulheres e 3 homens é de 37 anos,
com 11 anos de experiência docente (amplitude 2-26), 8 anos
como professor de Matemática no ensino básico (amplitude 2-
22) e seis no ensino secundário (amplitude 2-10). Todos os
professores exceto 2 são licenciados em Matemática.”
REFERÊNCIAS BIBLIOGRÁFICAS
Best, J., & Kahn, J. (1993). Research in Education (7ª ed.).
Boston: Allyn and Bacon.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Bravo, M. P. C. (1992b). La metodología cualitativa. In M. P.
Colás Bravo & L. B. Eisman (Eds.), Investigación educativa
(pp. 249-288). Sevilha: Ediciones Alfar.
Charles, C. M. (1998) Introduction to educational research (3ª
ed.). New York: Longman.
Ghiglione, R., & Matalon, B. (1997). O inquérito: Teoria e
prática (3ª ed.). Oeiras: Celta Editora.
Heiman, G. (1996). Basic statistics for the Behavorial
Sciences (2ª ed.). Boston: Houghton Mifflin Company.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Schutt, R. K. (1999). Investigating the Social World: The
process and practice of research (2ª ed.). Thousand Oaks: Pine
Forge Press.
Vogt, W. P. (1999). Dictionary of statistics and methodology: a
nonethical guide for the Social Sciences (2ª ed.). Newbury
Park, CA: SAGE Publications.
Capítulo 6

Recolha de dados

Definido o problema, a hipótese, as variáveis, selecionada a


amostra, o passo seguinte no processo da investigação tem a ver
com a recolha de dados empíricos. Trata-se de saber “o que” e
“como” vão ser recolhidos os dados, que instrumentos vão ser
utilizados, questões fundamentais das quais depende a qualidade
científica dos resultados e das conclusões do estudo (Almeida &
Freire, 1997; Black, 1999).
6.1 Procedimentos
Todo e qualquer plano de investigação, seja ela de cariz
quantitativo, qualitativo ou multimetodológico implica uma
recolha de dados originais por parte do investigador. Na opinião
de Charles (1998), existem seis procedimentos distintos para a
recolha de dados numa investigação: notação, descrição,
análise, questionário, testes e medição.
Notação é o processo de fazer registos ou breves descrições
acerca de pessoas ou de objetos, contextos ou acontecimentos. O
investigador observa um dado comportamento, fenómeno ou
documento e regista ocorrências ou faz uma lista das suas
caraterísticas (listas de controlo, aferição ou checklists,
matrizes), em suma, trata-se de um método que parte da
observação e que pode ser utilizado em qualquer tipo de
pesquisa, mas que é a peça central na investigação descritiva
(Charles, 1998). Uma checklist é normalmente organizada por
categorias e subcategorias de variáveis nominais, devendo o
investigador registar a presença ou ausência de certos atributos
sem fazer qualquer outro juízo ou apreciação (Sousa, 2009). Para
além do registo de pequenas unidades de comportamento podem
ser usadas para análise registos de áudio e vídeo (Sousa, 2009).
Descrição é “… o processo de transformar observações em
anotações verbais, mas que vai mais longe do que a notação pela
preocupação em proporcionar um retrato tão fiel quanto possível
da situação, repleto de detalhes” (Charles, 1998, p. 153). É o
método de recolha de dados utilizado sempre que se investigam
contextos naturais, processos, acontecimentos ou
comportamentos em profundidade, tomando os dados a forma de
longos textos escritos que podem ocupar uma simples página ou
uma infinidade delas!
Depende da observação direta do observador ou da análise de
registos vídeo ou áudio, ou seja, para além do papel e lápis, o
gravador áudio e/ou a câmara de vídeo podem constituir
preciosas ferramentas ao serviço do investigador.
Como será fácil depreender, trata-se do método mais
apropriado para a obtenção de dados em estudos etnográficos
(pela riqueza de pormenores que proporciona), mas também o
pode ser na investigação histórica, em estudos descritivos ou na
investigação-ação.
Embora o termo análise possa ser usado na linguagem da
investigação social com outros significados1, como
procedimento ligado à recolha de dados numa investigação,
refere o processo em que o investigador, mais do que observar
(caso da descrição) procura sim “… inferir traços, processos,
significados e relações” (Charles, 1998, p. 154). Ou seja, o
investigador não vai para o terreno observar tudo o que se passa,
mas apenas aquilo que interessa no contexto do seu estudo, ou
seja, os objetivos específicos que procura alcançar: para isso, o
investigador socorre-se de uma “ferramenta” denominada
analysis guide (guia ou grelha de análise) em que especifica,
para além dos objetivos a alcançar, os critérios que devem ser
tidos em conta na análise (com exemplos, de preferência), já que
esta tarefa poderá ser feita com a colaboração de
avaliadores/codificadores externos (Charles, 1998). Os dados
obtidos, podem ser de tipo verbal ou numérico.
Inquérito (questioning) é o processo que visa a obtenção de
respostas expressas pelos participantes no estudo (Ghiglione &
Matalon, 1997; Wiersma, 1995), e pode ser implementado com o
recurso a entrevistas ou a questionários (Charles, 1998; Eisman,
1992).
A entrevista é levada a cabo por uma pessoa, que pode (ou
não) ser o próprio investigador, e processa-se face a face ou pelo
telefone (Charles, 1998; Eisman, 1992); o contacto entre
entrevistador e entrevistado, possibilita que o primeiro possa
adaptar as questões e/ou pedir informação adicional sempre que
tal se revele importante, e é precisamente essa caraterística, ou
seja a sua flexibilidade que a individualiza relativamente a outras
formas de inquérito. Também a tornam mais dispendiosa em
termos de tempo e de custos, já que impõem limites ao número
participantes, sendo por isso muitas vezes preteridas em favor do
questionário.
A entrevista pode envolver um único entrevistado ou então
ser concebida para um grupo de pessoas, originando o que se
costuma designar na literatura por focus groups (grupos de
enfoque, grupos focais); trata-se de uma metodologia de recolha
de dados que, em vez do clássico pergunta-resposta da entrevista
individual, adota o formato de uma “discussão guiada” pelo
investigador a um grupo de 7-10 pessoas (que não têm de estar
relacionadas e que são recrutadas sem preocupações de
representatividade), em torno de questões que são debatidas em
sessões de 1h30m a 2 horas, apostando-se sobretudo nas
“interações” que se geram no grupo durante a entrevista (Mason
& Bramble, 1997), e da qual resulta “informação qualitativa e
pouco estruturada” (Schutt, 1999, p. 308)
Os questionários assemelham-se às entrevistas, mas por
dispensarem a presença do entrevistador são autoadministrados
(Ghiglione & Matalon, 1997); tomam quase sempre a forma de
formulários impressos que podem ser enviados por correio (para
grandes populações), entregues em mão (para amostras mais
pequenas) ou por email (questionários electrónicos) (Charles,
1998). Passíveis de aplicação a variadíssimas situações e
contextos de investigação, não impõem as restrições referidas
para as entrevistas, estando assim explicada a sua enorme
popularidade na pesquisa em CSH (Moreira, 2004).
Comparativamente com a entrevista o questionário é mais amplo
no alcance, mas mais impessoal em natureza: implica menores
custos médios, mas não fornece a riqueza de pormenores de uma
entrevista nem a certeza de obtenção de 100% de índice de
retorno (índices de retorno na ordem dos 70% para
investigadores que usam questionários são considerados bons!)
(Mason & Bramble, 1997).
A recolha de dados por inquérito socorre-se, via de regra, de
duas ferramentas auxiliares: o guião de entrevista e o
questionário.
O guião de entrevista contém as questões e a sequência de as
colocar ao inquirido, e, em função do grau de liberdade
concedido ao entrevistado podem classificar-se em: diretivas ou
estruturadas. Na UM, a qual dos três aspetos atribuiu maior
importância: a) aos professores?; b) às instalações?; c) às
bibliotecas e equipamentos?) –, semidiretivas ou
semiestruturadas: Como aluno da UM que aspetos valoriza mais
na sua universidade? –, ou livres – Que sugere para aumentar o
prestígio da UM?
Os questionários podem incluir o mesmo tipo de questões que
uma entrevista, mas o facto de não haver contacto pessoal com o
inquirido, obriga a que devam ser prestados especiais cuidados
ao nível da conceção do mesmo (número de perguntas, tipo de
resposta a solicitar que deve ser fácil para não desmotivar o
inquirido, etc), bem como ao layout e aparência geral do
formulário (bom arranjo gráfico, boa apresentação) (Eisman,
1992; Ghiglione & Matalon, 1997).
A testagem/medição é o processo de obtenção de dados pela
resposta/ desempenho dos participantes em testes, inventários,
escalas, em suma, provas de avaliação específicas para
aferição/avaliação de caraterísticas ou traços individuais: físicos
(peso, altura), performance (velocidade, endurance), acuidade
mental (capacidade de observação, memorização, tempo de
resposta), conhecimentos (domínio do cálculo numérico,
resolução de equações do 2º grau). Os dados obtidos neste tipo
de provas são quase sempre numéricos – daí serem também
denominadas “provas objetivas” (Eisman, 1992, p. 229) –,
embora possam ser também de outro tipo (Black, 1999; Charles,
1998).
Como seria de prever, e muito embora não se possam
estabelecer regras muito rígidas, é possível estabelecer um
paralelo entre o plano de investigação e as técnicas de recolha de
dados que lhe estão associadas como revela o Quadro 19: como
se pode verificar, nos planos de cariz qualitativo a recolha de
dados baseia-se em notações e descrições, enquanto nos planos
da investigação quantitativa se baseia em técnicas de
testagem/medição; nos planos mistos, a maior variedade de
técnicas utilizadas é a nota dominante a assinalar.
QUADRO 19 – Relação entre planos, procedimentos, fontes e formato dos dados
(adaptado de Charles, 1998)

Seja qual for o tipo de dados obtidos, é fundamental


assegurar a sua qualidade informativa, ou seja, há que aferir da
sua validade e fiabilidade; conceitos complexos que devem ser
analisados tendo em conta o método de recolha e sobretudo o
“formato” dos dados, ou seja, se foram obtidos com base em
instrumentos objetivos como os testes ou escalas de medida
(dados numéricos, quantitativos), ou, pelo contrário, se estamos
perante descrições verbais de observações, ou seja aquilo que
genericamente se costuma designar por dados de natureza
descritiva ou qualitativa.
É usual associarmos a questão da fiabilidade e validade à
investigação quantitativa o que se entende facilmente se
pensarmos que nesses planos a questão é vital para efeitos de
qualidade científica do estudo. Claro que a questão se coloca
também em planos qualitativos, mas não com a mesma
premência pelo simples facto de, nesses planos, o investigador
ser o principal e, muitas das vezes, o único “instrumento” do
estudo não fazendo por isso mesmo grande sentido equacionar a
qualidade informativa dos dados no sentido de replicação ou
generalização dos resultados obtidos, como acontece na
investigação quantitativa (Coutinho, 2005; Vieira, 1999). Estas
são questões de que nos ocuparemos no Capítulo 7.
6.2 Instrumentos
Em muitos planos de orientação metodológica quantitativa o
objetivo do investigador é averiguar o impacto de uma variável
independente (manipulável ou não) sobre uma variável
dependente e esse resultado (aproveitamento num teste,
pontuação numa escala, etc.) precisa “medido”, ou seja,
“quantificado”. Como as variáveis dependentes podem tomar
formas diversificadas, existe uma multiplicidade de instrumentos
de medida na investigação socio-educativa: testes, inventários,
grelha de observações, escalas, etc. Outro caso porém, é o dos
planos de tipo survey, em que há que inquirir os sujeitos sobre
aspetos do seu background pessoal/social ou pedir
opiniões/perceções sobre variadíssimos temas, recorrendo para o
efeito o investigador a questionários, escalas ou entrevistas. Em
suma, para todos eles são necessários instrumentos de medida
dos quais dependerá a qualidade informativa dos dados obtidos
na investigação.
A existência de grande variedade e quantidade de
instrumentos de medida na investigação em CSH não equivale a
dizer que esteja facilitada a tarefa do investigador. Em primeiro
lugar temos uma questão crucial: as variáveis socioeducativas
envolvem, como já tivemos oportunidade de referir
anteriormente, conceitos abstratos que não podem ser
observados diretamente (inteligência, motivação, conhecimento
de uma língua…); investigar um problema com base numa ideia
abstrata implica pensar numa forma de a medir de a quantificar.
Ou seja, temos que encontrar um “instrumento” que constitua
uma definição operacional (quer dizer observável) dessa
abstração. Mas será que vou encontrar um instrumento de
medida adequado às minhas abstrações (variáveis)? E se o
instrumento apropriado não existir? Devo criar um instrumento
novo? Mas conceber um instrumento “à medida” das minhas
variáveis não implica conhecimentos especializados, não requer
muito tempo e não obriga a uma pré-testagem antes da utilização
no projeto definitivo?
De facto, se nalguns projetos de investigação social, os
procedimentos de medida podem partir da utilização de
instrumentos previamente existentes, noutros o desenvolvimento
de tais instrumentos pode ser a parte central do processo da
investigação em si. Em ambos os casos, a adequação dos
instrumentos de medida às variáveis, conceitos ou fenómenos
que se quer medir é condição sine qua non para a qualidade final
da investigação (Black, 1993; Punch, 1998; Schutt, 1999;
Wiersma, 1995).
6.2.1 Construir um instrumento ou usar um existente?
Esta é uma questão com que se defrontam quase todos os
investigadores em CSH: devemos usar um instrumento existente
ou construir o nosso próprio instrumento? Para Punch (1998),
embora não haja regras gerais a seguir, importa que, antes de
decidir, o investigador equacione e pondere os três aspetos que
passamos a expor:
1. É sempre possível conceber instrumentos originais de boa
qualidade mas isso requer um trabalho considerável. Se a
variável é complexa e multidimensional é preciso muito
tempo, trabalho e recursos para obtermos um instrumento
válido e fiável;
2. Se usarmos um instrumento já existente contribuímos para
o conhecimento das suas propriedades e valor, sobretudo se
se trata de uma variável central para o domínio de estudo em
causa, em que muitos investigam e em que é importante
comparar e confrontar resultados para se obterem
instrumentos cada vez mais fiáveis e válidos;
3. Usar um instrumento já existente mas cujos itens não
esgotam a variável em análise, não vale de todo a pena,
devendo o investigador avançar para o desenvolvimento de
um instrumento novo.
Ponderado cada caso, temos duas situações distintas à
partida: ou o investigador utiliza um instrumento já existente e
previamente aferido, ou então adapta ou constrói o seu próprio
instrumento.
6.2.2 Instrumentos estandardizados
Um instrumento (teste, prova, escala) é estandardizado se inclui
procedimentos uniformes e consistentes para a administração,
avaliação e interpretação de resultados (Moore, 1983; Wiersma,
1995).
A construção de um teste estandardizado é um processo lento
que se inicia por um plano de teste que inclui sempre os
objetivos que pretende alcançar, o formato dos itens, a
população-alvo e que termina na aferição do instrumento para
um grupo-alvo com caraterísticas perfeitamente definidas
chamado grupo norma. Os testes estandardizados são
normalmente publicados em revistas da especialidade, vêm
sempre acompanhados por um manual de utilização que deve ser
cumprido à risca sob pena de conduzir à obtenção de resultados
inválidos. Ao nível da Psicologia existem muitos testes deste
tipo desenvolvidos por investigadores ao longo das últimas
décadas, e a primeira tarefa será localizar tais instrumentos nas
principais bases de dados em que se encontram compilados. Para
Punch (1998), se encontramos um qualquer teste na literatura,
devemos sempre verificar se ele foi superiormente aferidos2.
Os testes estandardizados podem dividir-se em dois grupos:
referenciados à norma ou ao critério.
No primeiro caso, o desempenho de cada sujeito no teste é
comparado com todos os outros que já realizaram a mesma
prova e que são o grupo norma (daí a designação de teste
normativo) que serve de aferição para os desempenhos
considerados normais (trata-se de um grupo com caraterísticas
bem definidas e semelhantes a nível de idade, sexo, nível
instrução, região geográfica, etc.). São testes de realização
máxima, em que se comparam e seriam os sujeitos em função
das respostas consideradas “boas” ou “más“ às questões do teste.
Em termos práticos, digamos que a distribuição dos resultados
num teste normalizado vai ser uma distribuição normal de tipo
gaussiano, em que os “melhores” e “piores” realizadores se
distribuem igualmente pelos dois extremos da curva (Moore,
1983).
Um teste referenciado ao critério descreve o desempenho do
sujeito com base num dado critério pré-definido, sem pretender
uma comparação interindividual propriamente dita. O critério
que pode ter natureza objetiva – tempo de realização da prova
(completar a tarefa sem erro em 20 segundos) ou precisão da
tarefa (completar com dois erros no máximo), é definido por um
valor – o “valor do critério”3 e o sujeito é classificado num de
dois grupos mestria/não mestria ou passar/reprovar (Black,
1999). Daqui resulta que a distribuição dos resultados pode não
ser normal, como acontece nos testes normalizados, o que coloca
alguns cuidados a nível do cálculo da validade e fidelidade do
instrumento.
Os testes estandardizados aparecem na literatura em
variadíssimos formatos classificados em função do conceito ou
construto que pretendem medir, sendo os mais comuns e
divulgados os testes de inteligência e aptidões cognitivas (Escala
de Inteligência de Wechsler, o Cognitive Abilities Test ou CAT, o
Otis-Lennon Mental Ability Test ou OLMAT, entre outros) e os
testes de personalidade (como o Teste de Rorschach, por
exemplo), os inventários de atitudes, de auto conceito, entre
muitos outros4.
Quando um investigador utiliza um teste estandardizado, a
tarefa essencial é escolher um teste que “meça o que ele próprio
pretende também medir” (Wiersma, 1995, p. 316). Isto requer
uma criteriosa revisão de literatura que vá às fontes originais em
que se baseou o construtor do teste, bem como uma verificação
da adequação do seu grupo às normas estabelecidas no manual
que acompanha sempre o teste em questão.
À partida, um teste estandardizado bem aplicado garante ao
investigador a qualidade dos dados e reduz a complicada tarefa
que é sempre a construção de um qualquer instrumento de
medida. No entanto só existem testes deste tipo para medir um
número muito limitado de variáveis socioeducativas, não
abrangendo muitas das situações reais da investigação na área.
É por isso mesmo que os investigadores decidem construir o
seu próprio instrumento, ou então adaptar o de outro
investigador que trabalha com variáveis semelhantes e que não
adquiriu ainda o estatuto de “estandardizado”. Neste caso, o
processo de aferição da qualidade do instrumento deve ser seguir
os mesmos passos que se de um instrumento novo se tratasse.
6.2.3 Instrumentos não estandardizados
São todos os instrumentos que não cabem na categoria anterior e
que são construídos pelos investigadores para os seus estudos.
Podem tomar formatos diversificados desde o questionário à
entrevista, permitindo avaliar uma infinidade de construtos que o
investigador deverá primeiro operacionalizar para depois poder
medir.
Ou seja, numa fase prévia à construção ou escolha de um
qualquer tipo de instrumento de medida o investigador precisa
definir de forma clara e operacional a variável dependente que
pretende medir: a natureza da variável determina o tipo de dados
a obter e estes os instrumentos que melhor se lhes adequam
(Black, 1999).
O Quadro 20 que se segue, adaptado de Black (1999, p. 191),
ilustra a relação que deve existir entre o tipo de instrumento para
a recolha dos dados e o tipo de variável que pretende “medir”
(ou quantificar) concretizado na sua definição operacional.

QUADRO 20 – Tipo de instrumento em função do tipo de variável

O Quadro 20 permite uma dupla leitura. A leitura horizontal


informa-nos qual o tipo de instrumento que poderemos usar em
função do indicador/variável que pretendemos medir:
• se pretendemos uma recolha direta de informação factual
relacionada com o background dos sujeitos, indicadores da
classe social, preferências, etc., a técnica será “perguntar”
aos sujeitos seja através de um questionário escrito ou
durante uma entrevista;
• se o objetivo é, por exemplo, medir atitudes, opiniões
perceções e valores, então o tipo de instrumento a utilizar
será, preferencialmente, o questionário de tipo escala ou
inventário que pode ser (ou não) complementado com
observações e/ou entrevistas;
• pelo contrário, se pretendermos medir o aproveitamento ou
as aptidões cognitivas então deveremos optar por um teste de
conhecimentos/aptidões.
A leitura vertical do quadro repete a informação na inversa,
ou seja, para cada tipo de instrumento informa quais os
indicadores que ele é capaz de medir:
• Questionários: dados do background dos sujeitos,
indicadores de classe social, tipo de organização, tipo de
organização, preferências (survey, estudos correlacionais,
etc.);
• Grelha de observação, entrevista estruturada: tipo de
organização, preferências, atitudes, opiniões, valores (survey,
estudos correlacionais);
• Testes: aptidões, aproveitamento, inteligência, etc. (estudos
de tipo experimental, ex post facto).
Livros inteiros foram escritos sobre processos de construção
dos diferentes tipos de instrumentos acima referidos, havendo
mesmo obras que se especializam totalmente em tipos
específicos mas não é essa a questão que nos importa; o que nos
interessa, sim, é sermos capazes de saber se o instrumento que
pretendemos utilizar numa investigação nos dá garantias da
qualidade informativa dos dados recolhidos. Dito de outro
modo: se queremos que os resultados da investigação sejam
válidos, os dados em que estes se basearam terão de ser fiáveis.
Validade e fidelidade (ou fiabilidade) são assim as duas
caraterísticas que um instrumento deve ter para nos garantir a
qualidade informativa dos dados (Eisman, 1992; Wiersma,
1995). Conceitos distintos mas estreitamente relacionados: a
validade refere a qualidade dos resultados da investigação no
sentido de os podermos aceitar como “factos indiscutíveis”
(empiricamente verdadeiros, com rigor preditivo ou consistentes
com o conhecimento estabelecido), enquanto a fiabilidade nos
“… assegura se os dados foram obtidos independentemente do
contexto, do instrumento ou do investigador” (Mehrens &
Lehman, 1984, p. 83), ou seja, verifica a “consistência do
processo de medição” (Anderson & Arsenault, 1999, p.12) o que
na prática equivale a verificar a “replicabilidade das conclusões
do estudo, ou seja, se diferentes investigadores, utilizando os
mesmos procedimentos, poderiam chegar a resultados idênticos
sobre o mesmo fenómeno” (Vieira, 1999, p. 93).
Para Anderson & Arsenault (1999) a validade é o
complemento da fiabilidade, ao indicar até que ponto o que
medimos com o nosso instrumento reflete a realidade que
queremos conhecer, ou seja “até que ponto são credíveis as
descrições, explicações, interpretações ou qualquer outro tipo de
relatos feitos pelo investigador” (Maxwell, 1996, citado em
Vieira, 1999, p. 101); isto equivale a dizer que não poderemos
aspirar à validade sem assegurar primeiro a fiabilidade, embora
assegurar a fiabilidade não garanta a validade dos resultados: “a
fiabilidade é condição necessária mas não suficiente para haver
validade”, diz Krippendorff (1980, p. 129).
Além da fiabilidade e validade, alguns autores referem ainda
outras caraterísticas metrológicas dos instrumentos em
investigação em CSH: a sensibilidade (Fox, 1987), a
usabilidade (Almeida & Freire, 1997) entre outras.
Entende-se por sensibilidade de um instrumento o grau com
que os resultados nela obtidos aparecem distribuídos
diferenciando os sujeitos entre si nos diversos níveis de
realização, ou seja, pode definir-se como a capacidade que o
instrumento tem para fazer as discriminações exigidas pelo
problema da investigação (Fox, 1987, p. 429). A análise da
sensibilidade justifica-se apenas quando numa investigação se dá
grande ênfase ao caráter seletivo do instrumento, não se
justificando noutras circunstâncias daí a pouca divulgação desta
técnica na atualidade da investigação social.
Por seu lado a usabilidade de um instrumento faz referência
a aspetos de índole prática, postulados numa lógica dos
utilizadores. A usabilidade pondera entre outros aspetos, a
facilidade de aplicação, o tempo requerido para a sua aplicação,
a facilidade de estandardização dos resultados, a facilidade de
correção e de interpretação, a existência de formas equivalentes
do teste, o seu próprio custo ou a existência de suporte
informáticos para o tratamento das respostas (Almeida & Freire,
1997).
6.3 Validade e fiabilidade de um instrumento
Antes de mais, importa chamar a atenção para dois aspetos
importantes: em primeiro lugar devemos sempre reportar o
cálculo dos indicadores da fiabilidade e validade não ao
instrumento em si mesmo, mas aos dados com ele obtidos
(Almeida & Freire, 1997). Ou seja, não podemos esquecer nunca
que vamos descrever as propriedades de um teste/questionário a
partir da forma como este avaliou/aferiu as variáveis de um
estudo concreto; por isso mesmo, um instrumento pode reunir
determinados atributos (ser válido e fiável) num dado grupo ou
situação e não noutro, pode ser um bom teste num país e noutro
não.
Em segundo lugar, que a grandeza numérica dos coeficientes
obtidos que irá determinar a sua aceitação/rejeição como
“adequados”, deve sempre ser ponderada com cuidado porque
diretamente associada à heterogeneidade das amostras e às
caraterísticas do próprio teste (o seu tamanho, a forma como está
redigido, a forma e o tempo de aplicação, etc., etc.).
Admitir estas limitações não significa abdicar de
responsabilidades: se não podemos eliminar a 100% a
subjetividade inerente à avaliação e medida de variáveis
socioeducativas podemos pelo menos exigir instrumentos que
consigam diminuir essa subjetividade, o que implica sempre
equacionar as questões que passamos a expor.
6.3.1 Fidelidade ou fiabilidade
Um instrumento é fiável se, aplicado duas vezes ao mesmo
fenómeno/situação, fornece os mesmos resultados,
independentemente das circunstâncias de aplicação, do
instrumento ou do investigador, tomando as palavras de Black
(1999) digamos que “… a fidelidade é um indicador da
consistência entre duas medidas de uma mesma coisa” (Black,
1999, p. 195).
Na prática é um conceito estatístico baseado na associação
entre dois grupos de observações resultantes de duas medições
obtidas por um (ou dois) instrumento(s) a uma mesma
instituição, a um mesmo grupo de sujeitos, de registos ou de
documentos (Wiersma, 1995).
As duas medições podem ser (fontes de erro entre parêntesis):
• de dois instrumentos separados (falta de equivalência);
• duas partes semelhantes de um mesmo instrumento
(inconsistência de itens emparelhados);
• mesmo instrumento aplicado em dois momentos diferentes
(instabilidade no tempo);
• mesmo instrumento administrado por duas pessoas
diferentes (inconsistência entre observadores/avaliadores).
O conceito de fidelidade parte do seguinte pressuposto:
quando uma série de medições são efetuadas num grupo de
sujeitos, é pouco provável que todos respondam exatamente o
mesmo e terminem com igual pontuação ou score, ainda que
fossem iguais no traço a medir. Por isso há sempre variabilidade
nas pontuações, o que matematicamente se traduz pelo conceito
de variância. Mas de onde vêm essa variância? Uma parcela será
fruto da natural variabilidade a que nos referíamos acima, e outra
parcela é fruto de erro do instrumento usado para a medição. Isto
acontece sempre em diferentes graus, evidentemente, com todo e
qualquer instrumento de medida seja ele uma régua ou uma
escala de atitudes.
Se fizermos uma teste de aptidão matemática a um grupo de
alunos, a maior parcela de variabilidade será fruto das diferenças
individuais, mas há sempre uma parcela que é atribuível ao
instrumento: forma como as questões são redigidas, como são
interpretadas, como foram selecionadas. Temos assim dois
resultados: as pontuações observadas e medidas com o
instrumento (observed scores) e as pontuações verdadeiras, reais
– (true scores) – impossíveis de serem avaliadas por incluirem o
erro derivado das limitações do próprio instrumento: contexto,
erro humano de quem concebeu, por um lado, e/ou aplicou o
teste, por outro (Quadro 21).
QUADRO 21 – Parcela de pontuação verdadeira e erro
O cálculo da fidelidade obtém-se pela razão entre as duas
variâncias, real e de erro:

É impossível todavia determinar as pontuações verdadeiras,


pelo que equação anterior foi matematicamente manipulada para
se adaptar à realidade, partindo de estimativas das três fontes de
erro possíveis:
• consistência no conteúdo e sua interpretação;
• estabilidade no tempo;
• consistência entre observadores.
Temos assim várias formas de expressar a fidelidade de um
instrumento, que resumimos no Quadro 22 que segue (adaptado
de Black, 1999, p. 197).

QUADRO 22 – Tipos de fidelidade/fiabilidade

Há seis tipos de coeficientes para o cálculo da fidelidade de


um instrumento, e cada investigador deve escolher o que melhor
se adapta ao seu instrumento. Convém relembrar ainda que, da
impossibilidade de se conhecerem as verdadeiras pontuações,
estes coeficientes serão sempre, e apenas, estimativas devendo
ser interpretados como tal.
Partindo do princípio que a distribuição dos resultados é
normal, Black (1999) propõe seis tipos de coeficientes de
fidelidade possíveis de serem estimados:
1. Medida da estabilidade de um único instrumento
administrado mais do que uma vez (teste-reteste);
2. Medida da equivalência de dois instrumentos diferentes
para o mesmo domínio (formas paralelas);
3. Estimativa da bipartição (split-half) do teste para o cálculo
da consistência interna, adequado a testes de
aproveitamento/desempennho ou testes de atitudes formato
Likert ou rating5;
4. Alpha de Cronbach (α) para a consistência interna
adequado a testes de aproveitamento/desempenho e
questionários de atitudes com escalas de tipo Likert ou
rating;
5. Coeficiente de Kuder-Richardson para a consistência
interna, apropriado para testes que pedem resposta
dicotómica e objetiva de tipo errado/certo ou ainda de
escolha múltipla;
6. Coeficiente de fidelidade de “acordo de juízes” ou de
“consenso” (observadores/codificadores), para dois
observadores ou para um observador em dois momentos
separados no tempo.
6.3.2 Coeficiente de estabilidade (test-retest)
Procura averiguar da estabilidade do instrumento no tempo, ou
seja, se esta dá resultados idênticos quando administrado em dois
momentos diferentes (Moore, 1983). Os resultados das duas
aplicações são correlacionados pelo coeficiente de Pearson
produto/momento, e o valor obtido indica a estabilidade do teste
no tempo. Se for superior a 0.8, significa que os sujeitos tendem
a obter pontuações semelhantes (não iguais) nas duas aplicações
logo o instrumento é estável.
Este coeficiente deve calcular-se sempre em planos com pré,
pós-teste, e em planos de tipo série temporal. Convém no entanto
não esquecer que há que interpretar este coeficiente com cuidado
uma vez que, adverte (Black, 1999):
• A repetição do mesmo instrumento aos mesmos sujeitos
pode influenciar a segunda aplicação (efeito conhecimento
do teste);
• Em planos de tipo série temporal, é de esperar alterações
nos sujeitos, o que deve ser tido em conta;
• Se o intervalo entre as duas aplicações for muito curto (dias
a uma semana) os sujeitos podem relembrar as respostas e
invalidar estimativas; se demasiado longo (um ano ou mais)
pode não refletir a estabilidade fruto da maturação dos
sujeitos.
6.3.3 Coeficiente de equivalência
Mede a consistência do conteúdo de um instrumento,
administrando aos mesmos sujeitos, e de preferência no mesmo
dia, duas versões equivalentes de um teste para o mesmo
domínio/construto a medir (formas paralelas).
Especialmente indicado para testes de aproveitamento que
cobrem determinado conteúdo/área curricular ou ainda para
alguns questionários de atitudes, não se aplica a testes que
abarquem dimensões de tipo psicológico.
O cálculo é feito como anteriormente pelo coeficiente de
correlação de Pearson produto/momento (Almeida & Freire,
1997; Black, 1999; Moore, 1983). Mais recentemente, tem
aparecido na literatura a utilização da análise de variância
(RBANOVA) para determinar a fidelidade de um instrumento de
medida seja em aplicações sucessivas aos mesmos sujeitos (test-
retest) ou ainda em versões paralelas do mesmo instrumento
(formas paralelas), funcionando como alternativa ao cálculo dos
coeficientes de estabilidade e equivalência pela correlação de
Pearson (Shavelson, 1996).
A lógica é a seguinte: fazemos medições múltiplas aos
mesmos sujeitos com o mesmo instrumento em momentos
diferentes: variações sistemáticas refletem consistência ou
dependência na medida enquanto variação aleatória reflete erro.
Em alternativa, podemos calcular a fidelidade fazendo medições
múltiplas aos mesmos sujeitos com versões paralelas do mesmo
instrumento: selecionamos aleatoriamente itens do teste que
medem o mesmo atributo para uma de duas versões alternativas
e equivalentes, e fazemos aplicações e medições múltiplas aos
mesmos sujeitos. De novo, inconsistências na leitura e
interpretação refletem erro enquanto dependência reflete que o
instrumento é consistente (Shavelson, 1996, p.475)6.
6.3.4 Consistência interna
É a única medida possível de obter quando temos um único teste
que é administrado uma única vez (Punch, 1998).
Para obter a estimativa da consistência interna de um
instrumento o coeficiente a calcular terá sempre de ter em conta:
a) a média das correlações entre todos os itens ou partes e b) o
número de itens ou partes.
É o que faz o coeficiente Alpha de Cronbach (α) ou a fórmula
de Kuder Richardson, mais apropriada para instrumento de
resposta objetiva tipo dicotómica (certo/errado ou de escolha
múltipla).
Existe ainda outra forma alternativa de calcular a fidelidade
de um teste, que só pode ser calculada se tivermos duas
medições obtidas pelo mesmo grupo de sujeitos em duas versões
gémeas de uma mesma escala: o coeficiente de bipartição do
teste. Vejamos em que situações se deve optar por cada um deles.
• COEFICIENTE DE BIPARTIÇÃO DO TESTE
Sempre que um teste foi construído como sendo formado por
duas metades paralelas, em que cada questão tem uma gémea
algures no teste (pergunta o mesmo por outras palavras) é o
coeficiente ideal a calcular.
A fidelidade determina a consistência com que os sujeitos
tendem a responder a pares de questões. O teste é tratado
matematicamente como se de dois testes se tratasse (duas médias
e dois desvios padrão), e o coeficiente de correlação de Pearson
é aplicado com uma leve adaptação7 derivada do facto de termos
dois meios testes, mais curtos do que o original (a fidelidade de
um teste é sensível ao número de questões).
É um indicador apropriado para testes cognitivos
(aproveitamento) e para testes afetivos ou de atitudes (Black,
1999).
• ALPHA DE CRONBACH
É o indicador mais aconselhado para a consistência interna de
instrumentos de tipo escala de Likert ou rating.
Em termos de procedimento, exige uma única aplicação do
teste. Em termos matemáticos, procura avaliar em que grau a
variância geral dos resultados da prova se associa ao somatório
da variância item a item (Almeida e Freire, 1997).
De certa forma, este coeficiente estima a média de todas as
possíveis bipartições do instrumento, pelo que não deve ser
aplicado em instrumentos em que a bipartição é possível (caso
anterior) porque é menos preciso e rigoroso. O seu cálculo tem
em conta as médias das correlações interitens bem como o
número de questões do teste8.
Interpretar o Alpha de Cronbach requer alguns cuidados. Por
vezes um valor de α moderado pode não significar baixa
fidelidade do teste em si, mas apenas de falta de homogeneidade
em alguns dos seus itens, que importa retirar.
A melhor forma de avaliar itens individuais é calcular uma
matriz de correlações que relacione cada item com a correlação
total da prova (Black, 1999, p. 280). Podemos então comparar a
resposta de um sujeito a um item com o valor da sua resposta ao
instrumento como um todo, e verificar quão consistentemente
um item mede o mesmo que o instrumento total, contribuindo
para a sua consistência interna. Um item com correlação baixa
(ou negativa) mostra que não induziu a respostas consistentes
com o instrumento no seu todo9. Este valor é conhecido como o
poder discriminativo do item e dele falaremos adiante.
• COEFICIENTE DE KUDER-RICHARDSON
Nem sempre os testes podem ser concebidos como sendo
constituídos por duas metades emparelhadas, pelo que nestes
casos o coeficiente de bipartição não se aplica.
Quando se trata de respostas objetivas de tipo certo/errado ou
escolha múltipla o coeficiente de Kuder-Richardson10, uma
adaptação do α de Cronbach é o mais apropriado.
Paralelamente ao cálculo deste coeficiente é aconselhável
neste tipo de testes de resposta objetiva que o investigador
proceda a uma análise individual de itens, para aferir do seu
poder discriminativo e do indice de dificuldade, aspetos
fundamentais em teste que requerem uma resposta objetiva.
• INDICE DE DIFICULDADE
O índice de dificuldade traduz a proporção de sujeitos que
respondem corretamente a um item e calcula-se dividindo o nº de
respostas corretas pelo nº total de sujeitos que realizaram a
prova, o que nos dá uma relação inversa, ou seja quanto maior o
valor de ID mais fácil a questão.
O leque de resultados possíveis varia entre 0 e 1.00, sendo
que no primeiro caso ninguém responde corretamente e no
segundo todos respondem corretamente. O valor médio ID =
0.50 corresponde ao valor que mais discrimina os sujeitos em
termos da dificuldade (por proporcionarem maior variância nos
resultados).
A escolha do nível de dificuldade dos itens a incluir na prova
depende dos objetivos da prova: nos testes normativos que visam
a seriação dos sujeitos e em que se pretende obter uma
distribuição normal é aconselhável optar por itens de dificuldade
média (cerca de 0.50), embora nunca todos apenas. Almeida e
Freire (1997) sugerem a inclusão de alguns (2 ou 3) itens muito
fáceis para incentivarem e alguns muito difíceis (2 ou 3) para
garantirem a diferenciação dos sujeitos, sendo esta a estrutura
mais eficaz de testes referenciados à norma.
Se o teste for referenciado a um critério (desempenho dos
sujeitos com referência a um patamar pré-estabelecido) já fará
mais sentido incluir predominantemente itens com índices de
dificuldade mais elevados que se refletirão numa distribuição de
desvio negativo mais fácil de interpretar, embora não permita a
utilização de testes estatísticos exclusivos de distribuições
normais.
Em testes de tipo escala de Likert, a questão do índice de
dificuldade dos itens põe-se de forma diferente, porque se
avaliam atitudes/valores e não conhecimentos objetivos de tipo
certo/errado, não havendo pois itens difíceis e fáceis.
No entanto, importa ao investigador selecionar itens
geradores de dispersão nos resultados, já que no final se pretende
obter uma pontuação dos sujeitos na escala. Por isso devem
selecionar-se os itens em que os sujeitos se distribuem mais
pelos vários pontos da escala, já que são esses os que maior
variabilidade darão aos resultados diferenciando melhor os
sujeitos na prova (Almeida & Freire, 1997).
• PODER DISCRIMINATIVO
Por poder discriminativo de um item “entende-se o grau com
que o item diferencia no mesmo sentido do teste global”
(Almeida & Freire, 1997, p. 129). Em termos práticos este índice
indica-nos a tendência do item para discriminar os sujeitos entre
dois grupos – o dos sujeitos melhores e piores realizadores do
teste11 (Black, 1999).
O poder discriminativo é um coeficiente de correlação e
como tal varia entre +1.0 (item perfeitamente discriminativo)
passa por 0 (item de poder discriminativo nulo) e -1.0 (item que
discrimina ao contrário, ou seja, os piores desempenhos no teste
são os melhores naquele item).
Mehrens e Lehmann (1984) sugerem que itens com valor
baixo e próximo de zero são demasiado fáceis (todos acertam),
demasiado difíceis (todos erram) ou ambíguos (a resposta correta
é difícil de identificar mesmo pelos mais capazes). E apontam
como ideais valores superiores a 0,6, embora para testes em
Educação, por exemplo, o valor de 0,4 seja considerado
aceitável.
De uma maneira geral, testes que incluam itens de maior
poder discriminativo associam-se coeficientes mais elevados de
fidelidade, que vão no sentido da homogeneidade da prova ou da
sua unidimensionalidade. É por isso que se aconselha uma
análise aos itens da prova (sobretudo se se tratando de testes de
desempenho que requerem resposta objetiva) em paralelo com o
cálculo da consistência interna e da fidelidade.
6.3.5 Fiabilidade entre observadores
Nem sempre a medição das variáveis socioeducativas é feita por
testes ou questionários. Por vezes há que quantificar opções
humanas, e é importante saber quão válidos e fiáveis são os
julgamentos humanos pois deles depende a validade interna do
estudo (até que ponto o observador/avaliador não foi demasiado
exigente/condescendente na atribuição de cotações aos sujeitos?
Será que interpretou objetivamente os conteúdos expressos no
documento?). É em casos como este que faz todo o sentido aferir
a consistência intra e entre observadores (observer,
Krippendorff, 1980), juízes (judges, Meltzoff, 1998) ou
codificadores (scorer, Black, 1999).
Os observadores/juízes/codificadores devem sempre ser
sujeitos competentes que são chamados a avaliar/codificar
instrumentos em cujos itens há uma razoável margem de
ambiguidade de interpretação; a existência (ou não) de acordo
entre dois (ou mais) observadores independentes dá ao
investigador uma boa ideia da objetividade com que o seu
instrumento avalia potencialmente tais variáveis (Black, 1999;
Meltzoff, 1998; Moore, 1983).
São pois os indicadores mais apropriados para situações de
investigação em que intervêm critérios pessoais que têm a ver
com o observador/avaliador/codificador: classificar um teste,
observar comportamentos de sujeitos ou extrair informação do
conteúdo textual de um qualquer documento escrito, são apenas
alguns dos exemplos possíveis. Nestas situações, a fiabilidade do
instrumento traduzirá a sua capacidade para proporcionar uma
pontuação correta, uma observação imparcial e/ou uma
codificação fidedigna independentemente do sujeito que
avalia/pontua/codifica: se o instrumento for fiável conduzirá
necessáriamente a resultados idênticos, caso contrário, os dados
que fornece não nos darão o qualquer garantia de não estarem
contaminados por elementos estranhos aos objetivos da
investigação (interesses pessoais, acaso, etc.).
Krippendorff (1980) considera que, nestes casos, se pode
calcular a fiabilidade a três níveis distintos: estabilidade,
replicabilidade e acuracia (ou rigor).
• FIABILIDADE INTRA OBSERVADORES
(ESTABILIDADE)
A estabilidade mede o grau de invariância no tempo
(condição teste-reteste, em que um mesmo sujeito codifica os
mesmos dados duas vezes em momentos diferentes de tempo) e
traduz a fiabilidade intra observador, também chamada de
consistência intra observador ou simplesmente consistência.
Faz sentido avaliar a estabilidade quando um volume
significativo de dados é recolhido por um mesmo observador em
períodos que se prolongaram no tempo: diferenças nos modos de
registar, pontuar ou codificar refletem inconsistências, mudanças
cognitivas que ocorreram dentro do observador ou dificuldades
em interpretar as instruções de preenchimento. Trata-se da forma
de fiabilidade menos rigorosa e exigente que, se usada em
exclusivo, deve colocar algumas reservas à qualidade
informativa dos dados obtidos com o instrumento.
• ACORDO DE OBSERVADORES OU CONSENSO
(REPRODUTIVIDADE OU REPLICABILIDADE)
A reprodutividade ou replicabilidade mede o grau com que
um processo pode ser recriado em circunstâncias diferentes, em
lugares diferentes com diferentes observadores (condição teste-
teste). Neste caso, dois (ou mais) codificadores diferentes
classificam/avaliam a mesma situação: acordos e desacordos
refletem, em simultâneo, inconsistências do mesmo observador e
diferenças entre observadores distintos – é a chamada fiabilidade
entre observadores ou acordo de observadores ou simplesmente
consenso (Esteves, 2006).
A fiabilidade expressa-se em função da % de Acordos (A)
obtido entre os codificadores: se houver acordo total na
assignação das diferentes unidades de informação às categorias
(itens) teremos uma percentagem de 100% de Acordo ou seja
uma fiabilidade de 1. Pelo contrário se houver total Desacordo
(D) a percentagem será de 0% e a fiabilidade do instrumento será
nula. São considerados bons indicadores de fiabilidade
percentagens de Acordo superiores a 80% (Moore, 1983, p. 176),
embora alguns autores apontem para valores mais exigentes
(85% para Krippendorff, 1980).
• ACURACIA
A acuracia, por último, indica o grau de rigor da avaliação
feita com o instrumento, o que na prática se traduz pela
comparação de uma codificação individual com a codificação
norma ou padrão reconhecida como “correta”: diferenças entre
as duas formas de codificação refletem inconsistências do (intra)
observador, desacordos (entre observadores) bem como desvios
sistemáticos em relação ao que é tido como “correto”,
constituindo a forma mais exigente de avaliar a fiabilidade de
instrumentos que envolvam julgamento pessoal na análise.
Determinar o que constitui o “padrão” correto nem sempre é
tarefa simples ou fácil de operacionalizar (muitas das vezes
passa pela intervenção de um painel de especialistas); daí a
acuracia ser pouco divulgada na investigação social constituindo
o Acordo de Observadores o indicador que melhor a substitui. O
Quadro 23 (adaptado de Krippendorff, 1980) que segue, resume
a informação relativa a estes três indicadores da fiabilidade.

QUADRO 23 – Indicadores de fiabilidade

6.3.6 Indicadores de Fiabilidade/Fidelidade: Síntese


Vimos que existem vários tipos de coeficientes de fidelidade
consoante o tipo de instrumento que se usa e os objetivos do
investigador. O Quadro 24 sintetiza a informação mais relevante
relativa aos diferentes indicadores que temos vindo a apresentar.

QUADRO 24 – Quadro-resumo dos indicadores da fiabilidade/fidelidade


Consoante o método usado para o cálculo da fidelidade assim
resultam variações na grandeza ou valor do coeficiente.
Teoricamente os coeficientes de fidelidade podem tomar
qualquer valor entre 0 e 1: se for zero, não haveria nenhuma
componente “verdadeira” no resultado obtido com o
instrumento, ou seja só consistiria em erro. Pelo contrário, um
valor de 1 significa que o resultado obtido com o teste estaria
isento de erro, ou seja seria “verdadeiro e real”. O ideal será que
o coeficiente seja o mais elevado possível, embora não haja
regras muito rígidas a este respeito.
Almeida & Freire (1997) apontam valores superiores a 0,85
para os coeficientes de consistência interna e superiores a 0,75
para os coeficientes assentes na estabilidade. Wiersma (1995)
considera valores superiores a 0,9 como um indicador de boa
consistência interna, embora admita que esse valor dependa do
tipo de variável a medir, sendo que testes de desempenho e
aproveitamento tendem a exigir valores dos coeficientes de
fidelidade mais elevados do que os de atitudes e interesses (para
estes testes um valor superior a 0,7 é muitas vezes apontado
como limiar aceitável).
Quando num teste o valor do coeficiente de fidelidade é
baixo, uma forma prática de o fazer aumentar para o limiar
desejável consiste no aumento do número de itens do teste,
havendo fórmulas para o respetivo cálculo (Almeida & Freire,
1997, p. 152).
No caso do coeficiente de acordo entre observadores o
patamar de >0.9 é o mais aceite se forem tidos em conta a
totalidade dos registos, embora possam aceitar-se valores
superiores a 0.75 se não se contabilizarem as situações de
ausência de registo (Almeida & Freire, 1997).
6.3.7 Validade de um instrumento
A validade de um instrumento, talvez o melhor indicador da sua
qualidade, indica se, de facto, o instrumento “mede aquilo que
acreditamos (ou queremos) que ele meça” (Punch, 1998, p. 100).
Dito de outra forma, tal como sugere Merriam (1998), a questão
passa por saber se os dados obtidos “refletem” ou “traduzem” a
realidade: “Quão congruentes estão os dados com a realidade?
Captam o que está lá mesmo? Os investigadores estão a observar
ou a medir aquilo que pensam que estão a medir?” (Merriam,
1998, p. 201).
O conceito de validade, aplicado aos estudos de natureza
quantitativa, tem as suas raízes no clássico trabalho de Campbell
& Stanley (1963) completado posteriormente por Cook &
Campbell (1979) onde podemos encontrar a distinção que estes
autores propõem entre validade interna e externa. O primeiro é
definido como o grau de correspondência entre as observações e
medições científicas e a realidade estudada –“credibilidade das
respostas, precisão dos registos, autenticidade dos documentos e
artefactos” (Anderson & Arsenault, 1999, p. 13) – ou seja, tem a
ver com o rigor da medição. O segundo tipo, a validade externa,
está diretamente relacionada com a generalização de resultados
(Anderson & Arsenault, 1999; Vieira, 1999), isto é, “até que
ponto as representações que se obtiveram da realidade podem ser
legitimamente comparadas e generalizadas a outros grupos de
indivíduos, a outros contextos, a outros instrumentos de medida
ou a outros investigadores” (Vieira, 1999, p. 102).
Embora ambos os tipos de validade estejam diretamente
inter-relacionados, há todo o interesse em distingui-los por
razões de ordem prática. Assim, se a questão da validade externa
está intimamente ligado à problemática da constituição das
amostras e da sua representatividade (Black, 1999; Ghiglione &
Matalon, 1997) a validade interna tem diretamente a ver com o
instrumento de medida, porque nos vai informar sobre a
qualidade dos seus itens no referente à sua acuracia informativa
para justificar as inferências que queremos fazer acerca da
amostra a que se aplica. Na opinião de Black (1999, p. 298),
quando concebemos um instrumento “os itens desse instrumento
são apenas uma amostra dos itens possíveis”; a validade é o
indicador da precisão das inferências a partir desses itens, e
dependem, por conseguinte da nossa capacidade para redigir e
selecionar as questões que o compõem (Eisman, 1992; Moore,
1983; Punch, 1998).
Há vários tipos de validade de um instrumento embora na
literatura seja quase sempre feita referência a três tipos: de
conteúdo, de critério e de construto.
6.3.7.1 Validade de conteúdo
Também chamada validade “lógica” (Almeida & Freire, 1997)
ou ainda de “face” (Smithson, 2000, p. 34) atinge-se “se as
medições se referirem exclusivamente e exaustivamente aquilo
que o investigador pretende medir”.
O objetivo é pois investigar se o conteúdo dos itens da prova
cobrem os aspetos mais relevantes do construto/conceito que o
instrumento pretende medir (Eisman, 1992). De natureza
subjetiva, não é possível obter um valor numérico para este
indicador como acontecia com o coeficiente de fidelidade que
referimos atrás. Aqui o que se costuma fazer é submeter o teste à
opinião de peritos e especialistas que se vão pronunciar sobre
uma tabela de especificações onde o investigador
operacionalizou as definições dos construtos que os itens devem
abranger (Almeida & Freire, 1997).
Moore (1983) sugere que metade dos especialistas analise o
teste em si, pronunciando-se sobre aquilo que ele pretende medir,
enquanto a outra metade a quem se fornece o teste e a tabela de
especificações deve avaliar se os itens cobrem a totalidade do
construto; do confronto de ambos resulta uma estimativa da
validade de conteúdo do instrumento.
Para este autor, a validade de conteúdo faz sentido em
instrumento que avaliam inteligência, habilidade, conhecimentos
e destrezas dos sujeitos, mas pode não se adequar a testes de
personalidade e outras variáveis psicológicas (Moore, 1983).
6.3.7.2 Validade de critério
Até há bem pouco tempo era a validade mais divulgada na
investigação social, embora na atualidade tenha caído em desuso
e sendo de certa forma englobada na validade de construto de
que falaremos em seguida.
Averiguar o nível deste indicador exige comparar os
resultados obtidos no instrumento com outro já existente (que
constitui o critério externo), calculando-se as correlações dos
resultados dos sujeitos nos dois testes (Black, 1999).
Mas fará algum sentido justificar a validade de um
instrumento novo com base nos resultados obtidos pelos sujeitos
noutro cuja validade não é da nossa responsabilidade? Quem nos
garante que haja uma associação entre a minha prova e a prova
critério?
Para a maioria dos autores que consultámos, o cálculo da
validade por referência a um critério externo pode servir como
um referencial para a validade do instrumento, mas não deve ser
nunca a única justificação para a sua validade (Black, 1999;
Eisman, 1992; Moore, 1983; Smithson, 2000; Wiersma, 1995).
Esta validade pode assumir dois tipos em função da escala de
tempo que medeia a comparação:
Validade concorrente (desempenho atual), usa-se para testes
de conhecimentos e dizem-nos da precisão com que estes medem
o construto: será que um teste interno de Matemática de 12º ano
de uma escola avalia tão bem um aluno como o teste nacional?
Calculando as correlações dos resultados nos dois testes teremos
um bom indicador do padrão do teste interno face ao externo
(Punch, 1998).
Validade preditiva (desempenho futuro) indica quão bem o
resultado num teste permite prever desempenhos futuros dos
sujeitos noutras situações. É o caso de muitos testes de
orientação vocacional ou seleção profissional, que visam obter
informações “distanciadas no tempo” sobre a performance futura
dos sujeitos (Black, 1999; Punch, 1998).
6.3.7.3 Validade de conceito ou construto
Para Moore (1983) é o sentido de validade mais ampla e atual
englobando as validades anteriormente referidas. Para Almeida
& Freire (1997)
o que está em causa neste tipo de validade é o grau de
consonância entre os resultados obtidos no teste, a teoria e a
prática a propósito das dimensões em avaliação e daí a
pertinência da expressão também usada de validade
hipotético-dedutiva. (p. 159)
A validade de construto deve acompanhar todo o processo da
construção de um instrumento e não se expressa sob a simples
forma de um coeficiente de correlação: como referem Almeida
& Freire (1997, p. 160) “trata-se de um julgamento com base em
diferentes tipos de informação” e ainda “um processo que
envolve uma certa imaginação e raciocínio que se pode assumir
como sempre inacabado”.
Quer isto dizer que a metodologia usada para a apreciação da
validade de conceito ou construto é diversificada e, segundo
Black (1999), deve comportar a combinação e ponderação da
informação proveniente de três abordagens distintas: a lógica,
estatística e empírica.
Uma abordagem lógica à elaboração do construto com base
numa teoria ou modelo, que implica a análise da consistência
entre a sua definição, especificação e operacionalização em
termos de itens contidos no instrumento. Esta fase comporta
ainda a análise da forma como estão redigidos os itens,
sobretudo em testes de resposta não objetiva caso de atitudes,
opiniões e valores. Black (1999) aponta alguns dos possíveis
desvios ao conceito a medir derivados de padrões de resposta:
a) dissimulação, se o sujeito responde em função do que
pensa irá causar boa impressão no avaliador, como sucede
em testes de personalidade em que a intenção da pergunta é
transparente;
b) socialmente desejável, se os sujeitos respondem não o que
pensam mas o que consideram ser socialmente aceite: por
ex., homens de meia idade não devem gostar de música
metálica;
c) distorção, caso das escalas de Likert em que os sujeitos se
inclinam para um extremo ou o centro pode revelar
incapacidade de induzir uma tomada de decisão. A
prevalência de respostas nos valores centrais, pode ainda
revelar questões pobremente redigidas incapazes de
estimular uma resposta;
d) Má interpretação das questões, fruto de vocabulário, caso
de palavras difíceis que não fazem parte do universo dos
respondentes;
e) Respostas aleatórias em testes de escolha múltipla como
acontece quando os respondentes não estão muito motivados
para responder (“voluntários” pedidos pelo professor);
f) Questões indutoras de uma resposta que conduzem a
resultados inválidos.
A abordagem estatística, passa pela aplicação de um
método denominado análise fatorial aos itens e resultados. Parte-
se do cálculo da intercorrelação entre os itens de um teste para se
identificarem as componentes gerais e/ou diferenciadas que
possam explicar a variância comum neles encontrada, sendo que
os itens mais válidos e a incluir no instrumento são os que
explicam a maior proporção de variância relativa (Almeida &
Freire, 1997; Black, 1999; Moore, 1983):
A abordagem empírica, implica a aplicação do instrumento
a um grupo piloto identificado com contendo o conceito/traço
em análise e sobre o qual versa o instrumento. O ideal é que a
aplicação do instrumento a esse grupo seja confrontado com
outro grupo que sabemos não contém esse mesmo
conceito/traço: se o grupo que possui o traço responder
consistentemente melhor ao instrumento do que o grupo sem
traço, isso sugere alta validade do instrumento em classificar os
sujeitos em relação ao conceito/traço (Black, 1999).
Convém estarmos cientes de que a utilização de um qualquer
instrumento de medida na investigação social, é sempre uma
fonte potencial de introdução de novas variáveis estranhas no
estudo que importa controlar, não só na fase de desenho e
desenvolvimento do instrumento em si e de que temos vindo a
falar, mas também em todo o processo da sua aplicação,
envolvendo as fases de recolha e registo dos dados.
Em jeito de síntese, apresentamos uma série de medidas
práticas que Black (1999) aconselha sejam sempre levadas a
cabo para evitar a introdução de novas e indesejáveis variáveis
estranhas decorrentes do inevitável recurso a um instrumento de
medida:
• Valide o instrumento: ouça sempre a opinião de experts
sobre a qualidade do instrumento para medir o construto
desejado, porque o autor está demasiado próximo para evitar
o óbvio;
• Um estudo piloto do instrumento numa amostra da
população a que se destina é tarefa essencial se usa um
instrumento novo: as perguntas são interpretadas como
pretendo? Converse com os sujeitos sobre as questões e ouça
atentamente o que pensam e como reagem. Calcule a
fidelidade do instrumento se a amostra for representativa, e
averigue da qualidade das respostas aos itens: ainda está a
tempo de encontrar a fonte do problema e repará-lo antes do
estudo em pleno;
• Codificar os dados implica traduzir respostas a
questionários ou entrevistas por letras ou números. Utilize
sempre um guia de codificação escrito com explicações
detalhadas (essenciais em perguntas abertas ou livres) para
evitar desnecessárias inconsistências;
• O registo dos dados envolve a transferência dos dados dos
questionários para o computador. Esta tarefa é mais rápida e
fiel se realizada por duas pessoas, uma lendo e outra
escrevendo registos;
• Verificar as entradas, sobretudo se há grande número de
respondentes (p.ex., olhando a coluna de idades um valor de
501 mostra erro tipográfico).
6.4 Estratégias de Recolha de Dados
6.4.1 Técnicas de observação
As técnicas de observação consistem no registo de unidades de
interação numa situação social bem definidas baseada naquilo
que o observador vê e ouve (Denzin, 1989; Flick, 1998). Através
da observação o investigador consegue documentar atividades,
comportamentos e caraterísticas físicas sem ter de depender da
vontade e capacidade de terceiras pessoas. É uma técnica de
recolha de dados fundamental em Ciências da Educação,
Antropologia, Psicologia e outras CSH.
A figura 8 apresenta a tipologia das técnicas de observação
em CSH. Assim há duas dimensões importantes a considerar nas
técnicas de observação. A dimensão estruturada – não
estruturada, varia dependendo do protocolo de observação
adotado. No caso da observação estruturada, o investigador
parte para o terreno com um protocolo de observação pré-
definido e estruturado em função das dimensões que pretende
observar, e que podem mesmo tomar a forma de escalas
numéricas (Kumar, 2011). Trata-se de instrumentos de
observação estandardizados, constituídos por um conjunto de
itens acompanhados por protocolos padronizados de respostas
codificadas em categorias (Kumar, 2011; Teddlie & Tashakorri,
2009). Exemplo deste tipo de instrumentos são as chamadas
grelhas de observação, usadas pelos professores de diferentes
disciplinas dos ensinos básico e secundário, destinadas à
observação de comportamentos e atitudes dos alunos em
contexto de sala de aula, em que o observador se limita a
selecionar e registar na grelha a categoria que melhor se aplica
ao comportamento manifestado pelo estudante. Os dados obtidos
neste tipo de instrumento são de tipo quantitativo (numérico) e a
sua análise processa-se através de técnicas de análise estatística
descritiva e mesmo inferencial (Angrosino, 2012; Kumar, 2011).
FIGURA 8 – Tipologia de Técnicas Observacionais usadas nas CSH

Na observação não estruturada, o investigador parte para o


terreno apenas com uma folha de papel onde regista tudo o que
observa, são as chamadas notas de campo extensivas, traduzidas
em narrativas e registos detalhados, como é o caso dos diários
de bordo (Bogdan & Biklen, 1994; DeWalt & DeWalt, 2011).
Neste tipo de observação, o investigador observa o que acontece
“naturalmente” e daí ser também designada observação
naturalista, sendo um dos instrumentos preferencialmente
usados na investigação qualitativa.
A dimensão envolvimento do observador, varia em função do
grau de participação do investigador na situação social em
análise. Na literatura são referidas quatro situações que se
desenvolvem num contínuo: participante pleno, participante
observador, observador participante e simples observador
(Denzin, 1989; Patton, 2002). Temos assim num extremo, o
observador que é também ele membro de pleno direito do grupo
que estuda, e no extremo oposto o observador que é um
elemento externo ao grupo que observa, não se envolvendo, nem
interagindo com os participantes na situação em estudo. Entre os
dois extremos temos uma variedade de situações possíveis a ter
em conta (Teddlie & Tashakorri, 2009). Relativamente a esta
questão do grau de participação do investigador na situação
social que observam, Angrosino (2012) considera três situações
distintas. A primeira corresponde à situação em que o
investigador é um observador externo que não intervém na ação
que está a observar, e, em casos extremos, como seja, por
exemplo, o caso de locais públicos, procuram mesmo passar
despercebidos não se identificando como tal. A este tipo de
observação designa por observação não obstrutiva ou não-reativa
(unobstructive ou non-reative) (Angrosino, 2012, p. 166). A
segunda categoria é a observação reativa (reative observation)
que significa que o investigador se identifica, explica aos
participantes quais são as suas intenções, mas assume sempre o
seu papel de investigador, não tentando mudar o rumo natural
dos acontecimentos. Na terceira categoria que designa de
observação participante, o investigador assume um papel ativo e
atua como mais um membro do grupo que observa; o objetivo
neste caso, é conseguir ter a perspetiva de um insider do grupo,
sem perder a credibilidade que assiste a um investigador social
(Angrosino, 2012).
Uma vez que as técnicas de observação lidam com pessoas
reais que têm direitos e a quem são devidas obrigações morais, é
importante não esquecer as questões éticas que se levantam
quando se recorre a técnicas de observação para a recolha de
dados na investigação em CSH. No caso das técnicas de
observação os dois princípios éticos a respeitar são o
consentimento informado e a confidencialidade. Quer isto dizer
que as pessoas que vão ser observadas devem saber que está em
curso uma investigação e que lhes será garantida a
confidencialidade e o anonimato. Depois de informados, os
potenciais participantes podem optar por abandonar ou integrar o
estudo, podendo eventualmente ser assinados entre investigador
e os participantes protocolos de consentimento informado
(Elliott & Stern, 1997).
Por outro lado, em estudos que usam técnicas de observação
direta, em termos de validade interna não pode ser ignorado o
efeito Hawthorne, que pode ter traduzido numa alteração dos
padrões de comportamento dos investigados por saberem que
fazem parte de uma investigação (Mertens, 1998).
6.4.2 Questionário
As técnicas de recolha de dados em que a informação é obtida
inquirindo os sujeitos podem ser agrupadas sob a designação
geral de técnicas de inquirição ou inquérito (Ghiglione &
Matalon, 1997). O inquérito, tal como referido na secção
anterior, pode incidir sobre atitudes, sentimentos, valores,
opiniões ou informação factual, dependendo do seu objetivo,
mas todos os inquéritos envolvem sempre a administração de
perguntas a indivíduos.
Quando as perguntas são colocadas pelo investigador o
inquérito designa-se por entrevista, quando as questões são
apresentadas através de um formulário que o inquirido
administra a si próprio, o inquérito designa-se por questionário
ou auto-administrado. De uma forma geral, recorremos ao
questionário quando queremos inquirir um grande número de
pessoas no sentido de caraterizar os traços identificadores de
grandes grupos de sujeitos, devendo para o efeito ser
constituídas amostras probabilísticas e por isso associamos este
instrumento a planos de investigação de cariz quantitativo. A
entrevista, na investigação em CSH surge associada a planos de
investigação qualitativa, já que o seu objetivo é fornecer ao
investigador informação detalhada e profunda sobre um dado
tópico devendo por isso ser realizada junto de sujeitos
cuidadosamente selecionados em função de critérios muito bem
definidos à partida, ou seja, amostras intencionais e não
probabilísticas.
Tradicionalmente os questionários envolviam o envio de um
formulário em papel, mas com a proliferação do uso do
computador, a Internet passou a ser a forma mais popular de
administrar do questionário, o que traz manifestas vantagens
para o investigador em termos de rapidez de resposta e economia
de custos, mas que coloca desafios que importa ter presentes
quando se decide optar por meios eletrónicos para a obtenção
dos dados para a investigação científica. A este respeito, salienta
Coutinho (2011) que, para além das dificuldades inerentes ao
acesso aos endereços eletrónicos dos inquiridos ou a constituição
de amostras representativas, o investigador ter sempre de
implementar, de forma extensiva, técnicas de follow-up no
sentido de diminuir o número de não-respostas associados aos
inquéritos online e que levam a que elementos de uma amostra
selecionada nunca participem no estudo (attrition) colocando
problemas à validade externa dos estudos, sobretudo se os não
respondentes forem sistematicamente diferentes dos
respondentes, o que não é fácil detetar (Teddlie & Tashakorri,
2009).
Por outro lado, dependendo da complexidade das variáveis
em estudo, os questionários exigem sempre um nível mínimo de
literacia de leitura que tem de ser equacionada tendo em conta a
população alvo a quem se destinam, no entanto, se a literacia não
for problema, o questionário constitui um meio eficiente e rápido
de obtenção de dados para uma investigação (Teddlie &
Tashakorri, 2009).
Em termos de formato para as questões a formular, o
questionário permite inúmeras possibilidades que devem ser
determinadas por questões como a literacia, acima referida, o
nível etário (para estudos em Ciências da Educação este fator
pode ser determinante), o tempo de resposta que exige, a
natureza do conteúdo que versa, entre muitos outros aspetos.
Poderá assim optar por respostas de escolha dicotómica ou
múltipla, questões abertas ou fechadas, questões diretas ou
indiretas, sendo que todas as escolhas devem ser fundamentadas
com base na literatura da especialidade.
Em síntese, a construção de um questionário é um processo
complexo que consome muito tempo ao investigador, e que deve
sempre começar pela definição de forma clara e inequívoca dos
objetivos que o levam a colocar questões ao inquirido. Este é o
primeiro passo do longo processo de construção de um
questionário, sugerindo-se ao leitor a consulta de obras
especializadas como sejam as de Ghiglione e Matalon (1997),
Hill e Hill (2008) ou Monteiro (2009).
6.4.3 Entrevista
Tal como o questionário a entrevista visa a obtenção de
informação através de questões que são colocadas ao inquirido
pelo investigador. As questões a colocar podem ser abertas,
fechadas ou uma mistura de ambas.
As entrevistas são uma poderosa técnica de recolha de dados
porque pressupõem uma interação entre o entrevistado e o
investigador, possibilitando a este último a obtenção de
informação que nunca seria conseguida através de um
questionário, uma vez que pode sempre pedir esclarecimentos
adicionais ao inquirido no caso da resposta obtida não ser
suficientemente esclarecedora (Silverman, 2000). Podem mesmo
gerar informação nova que implique uma reconceptualização dos
tópicos em estudo, e por isso podem ser importantes na fase
inicial de estudos de tópicos com os quais o investigador ainda
não está suficientemente familiarizado ou escasseia investigação
prévia (Teddlie & Tashakorri, 2009).
Patton (2002) define três tipos de entrevista, da menos
estruturada – informal conversational interview –, à mais
estruturada – a closed fixed interview – constituída por um
conjunto de respostas fixas e pré-determinadas, à semelhança de
um questionário, e que, na opinião do autor, são desaconselhadas
na investigação em CSH. No caso da entrevista não estruturada
ou aberta o autor refere que as perguntas surgem do contexto
imediato e são levantadas no curso natural dos acontecimentos,
ou seja, o investigador não leva consigo qualquer tipo de guião
com tópicos prévios a abordar (Silverman, 2000).
Taylor e Bogdan (1998) referem as entrevistas em
profundidade (in-depth interviewing) que se enquadram na mais
pura tradição do paradigma interpretativo e que consistem em
repetidos encontros face a face entre o entrevistador e os
informantes focalizados “(…) na compreensão das perspetivas
destes sobre as suas vidas, experiências ou situações, expressas
com as suas próprias palavras” (Taylor e Bogdan, 1998, p. 77).
Uma vez que este tipo de técnica de recolha de dados envolve
contactos repetidos e prolongados com os entrevistados, fica
desde logo assumido o envolvimento intenso do investigador e
as consequentes implicações que daí derivam para assegurar a
credibilidade do estudo (ver Capítulo 10).
Tradicionalmente as entrevistas são conduzidas face a face,
mas também podem ser implementadas por telefone (com todas
as implicações que daí derivam como seja a impossibilidade de
percecionar as reações faciais/físicas do entrevistado) ou pela
Internet (Coutinho, 2011). Não esqueça que as entrevistas devem
ser gravadas e transcritas para posterior análise e interpretação o
que implica recorrer a técnicas de análise de conteúdo (ver
Capítulo 9). As entrevistas transcritas bem como as anotações
que fez após a realização das entrevistas devem ser devolvidas
aos informantes para confirmação como forma de garantir a
acurácia das informação recolhida (ver Capítulo 10).
6.4.4 Métodos não interferentes
Por métodos não interferentes (unobstrusive measures)
entendemos todas as técnicas de recolha de dados que permitem
ao investigador obter informação sobre um fenómeno social sem
nele poder intervir ou modificar (Teddlie & Tashakorri, 2009).
Estas técnicas também são referidas na literatura por medidas
não-reativas (non reative measures) e foram alvo de estudo
desde os anos 60 do século passado por investigadores como
Eugene Webb e colaboradores (1966) e, mais recentemente por
Lee (2000).
O que carateriza estes métodos e técnicas é o facto dos
investigados não saberem que são alvo de investigação e por
conseguinte, agirem naturalmente. Sintetizando o pensamento de
diversos autores, Teddlie e Tashakorri (2009) referem que estes
métodos seriam uma forma de minorar as fragilidades inerentes a
técnicas de inquirição (self reports), caso dos questionários das
entrevistas em que as respostas dadas podem sofrer
enviesamentos que retiram qualidade informativa aos dados.
Os autores apresentam ainda uma tipologia deste tipo de
técnicas incluindo o que designam por artefactos (arquivos
públicos, legislação, cartas, fotografias, traços físicos) e
observação não-reativa em que o investigador observa uma
situação social de forma passiva sem ter qualquer tipo de
interferência sobre o desenrolar dos acontecimentos (Teddlie e
Tashakorri, 2009).
6.4.5 Focus Group
O focus group que em português traduzimos por grupos de
enfoque ou grupos focais, nada mais é do que uma entrevista
realizada a um grupo de sujeitos. Para Morgan & Spanish (1984)
trata-se de uma estratégia de recolha de dados que tem objetivos
muito específicos e por isso deve ser considerada como uma
técnica autónoma para a recolha de dados em CSH.
De facto, tal como referem Teddlie e Tashakorri (2009) o
focus group combina a entrevista e observação, já que, embora
muito semelhante à entrevista – o investigador coloca aos
entrevistados uma série de perguntas pré-determinadas – pelo
simples facto de envolver um grupo, as interações que se
estabelecem entre os participantes são uma importante fonte de
informação para a colheita de dados.
O focus group visa explorar perceções, experiências ou
significados de um grupo de pessoas que têm alguma experiência
ou conhecimento em comum sobre uma dada situação ou tópico
(Kumar, 2011). Por exemplo, podem ser tópicos de um focus
group temas como a violência doméstica, a deficiência, a droga
ou a questão dos refugiados de guerra. Os tópicos devem ser
preparados de antemão seja por iniciativa do investigador ou
mesmo dos participantes (Kumar, 2011), utiliza um protocolo
muito semelhante ao de uma entrevista semiestruturada, e deve
ser realizado sempre num ambiente ´”não ameaçador” (Krueger
e Casey, 2000, p. 5). Para estes últimos autores, a realização de
um focus group deve obedecer aos seguintes requisitos:
• O número ideal de participantes varia entre 5 e 10;
• A composição do grupo deve ser homogénea;
• Os procedimentos implicam a realização da entrevista ao
grupo por um moderador que pode ser acompanhado por um
assistente;
• As sessões não devem exceder as 2 horas;
• As sessões devem ser focalizadas num tópico de interesse
para o grupo.
Tal como a entrevista o focus group é uma técnica muito
usada em estudos qualitativos, e a sua análise processa-se através
de técnicas de análise de conteúdo categorial ou exploratória (ver
Capítulo 9).
Da parte do investigador importa assegurar que tudo o que
acontece é discutido e deve ser registado detalhadamente. O
ideal é fazer a gravação (em vídeo ou áudio) das sessões
podendo para o efeito pedir a colaboração de alguém que o
assista. Se tomar notas durante as discussões tem de ter cuidado
para não perder nada de importante que possa ocorrer durante a
discussão. Tal como sugere Kumar (2011), é boa prática enviar
as notas que escreveu durante e após a sessão de focus group aos
participantes para correção, verificação e confirmação como
forma de garantir a qualidade do estudo (ver Capítulo 10 para
mais informação).
6.4.6 Testes
Os testes são uma técnica de recolha de dados que se destinam à
avaliação de conhecimentos, inteligência, raciocínio abstrato,
criatividade, entre muitas outras variáveis do foro cognitivo e
mesmo socioafetivo.
Quando utilizados na investigação em CSH são quase sempre
usados como variável dependente (ver Capítulo 4) e estão por
isso muito associadas aos planos de investigação quantitativo de
tipo diferencial como seja a investigação experimental,
correlacional ou ex-post facto (Black, 1999).
Em termos de formato assemelham-se a outros instrumentos
já referidos neste capítulo, por exemplo, podem incluir itens de
resposta fechada (escolha múltipla, verdadeiro/falso) que geram
dados de natureza numérica mas também podem incluir questões
de resposta aberta (tipo ensaio) que originam dados de tipo
narrativo que são também avaliados segundo escalas numéricas
ou rubricas (escalas de avaliação com guias para avaliar
respostas a item abertos, Mertler, 2001), uma vez que são as que
mais interessam aos investigadores que recorrem a este tipo de
instrumentos. Como referido neste mesmo capítulo os testes
podem ser estandardizados, ou seja, desenvolvidos, aplicados e
avaliados de forma uniforme, devendo o investigador seguir
rigorosamente as instruções que acompanham o teste seja
quando comprado ou disponibilizado pelos autores para ser
utilizado noutros contextos. Dentro desta categoria incluem-se os
diversos testes de aptidões a que nos referimos na secção 6.2.2
do presente capítulo.
Os testes de aproveitamento (achievement tests) procuram
medir/avaliar conhecimentos adquiridos sobre factos já
conhecidos e são seus exemplos os exames e os testes
desenvolvidos pelos professores para avaliarem os estudantes.
Neste caso, o teste deve sempre ser aferido em termos de
validade e fiabilidade (ver secção 6.3 do presente capítulo).
No Quadro 25, a seguir representado, sintetizamos os pontos
fortes e fracos das estratégias de recolha de dados analisadas.
QUADRO 25 – Pontos fortes e fracos das principais estratégias de recolha de dados
em CSH (adaptado de Teddlie & Tashakorri, 2009, p. 239).

ATIVIDADES
1 – O processo de recolha de dados numa investigação tem de
ser válido e fiável por forma a que as evidências recolhidas pelo
investigador não sejam contraditórias e inconsistentes. Leia cada
uma das afirmações abaixo descritas e depois identifique:
Qual é a melhor definição para o conceito de fiabilidade?
Uma das afirmações descritas é a definição de validade.
Qual?
a) Diz respeito a saber se o processo de recolha de dados
mede aquilo que é suposto medir;
b) Refere o grau com o processo de recolha de dados cobre
na totalidade o conceito que é suposto avaliar/medir;
c) Diz respeito a saber se o processo de recolha de dados é
apropriado para as pessoas a quem é administrado;
d) Refere a consistência no processo de recolha de dados
para medir/avaliar o que se quer medir/avaliar;
e) Diz respeito aos processos de estandardização de
administrar, avaliar e interpretar o processo de recolha de
dados;
f) Diz respeito a saber se o processo de recolha de dados foi
concebido com um adequado nível de dificuldade.
2 – Todas as afirmações abaixo descritas à exceção de uma
são fatores que influenciam a validade do processo de recolha de
dados numa investigação. Escolha a exceção.
a) uma correta definição operacional das variáveis;
b) uma correspondência correta entre as tarefas previstas
para a recolha de dados e a definição operacional das
variáveis;
c) as dificuldades inerentes ao processo de recolha de dados;
d) a fiabilidade do processo de recolha de dados.
3 – No exame final de Matemática o João teve 9 valores, o
que significa que vai reprovar no curso. Protestou junto do
Diretor da Escola e mais dois professores avaliaram o teste. Um
deu-lhe uma pontuação de 11 valores e o outro de 12 valores.
Qual das três afirmações abaixo indicadas é a opção que melhor
qualifica a fiabilidade do processo de avaliação do teste do João?
a) Há evidência de que o processo de avaliação do teste do
João é fiável;
b) Há evidência de que o processo de avaliação do teste do
João não é fiável;
c) Não há evidência suficiente para nos pronunciarmos sobre
a fiabilidade do processo de avaliação do teste do João.
4 – A diretora de turma de uma escola básica de uma cidade
do norte de Portugal pretende, no seguimento de um problema de
indisciplina, verificar se a Joana cumpre, na prática, as regras
adotadas na escola. Qual seria a estratégia de recolha de dados
mais válida para obter a informação que pretende? Justifique a
resposta.
a) Um teste de avaliação de conhecimentos;
b) Um questionário;
c) Uma entrevista;
d) A observação participante;
e) A observação não participante (não reativa);
f) Um teste estandardizado.
-
1 O termo análise pode ser usado em investigação com três sentidos. O primeiro, está
associado à obtenção de dados e é a esse que agora nos referimos: o investigador
analisa um livro, um artigo ou um comportamento individual, desdobrando-o nos seus
componentes, determinando a natureza das partes e das relações que entre elas se
estabelecem para que funcionem como um todo. O segundo sentido, refere análise
como um produto: é o resultado verbal ou escrito, por exemplo, de um estudo sobre o
currículo escolar do 1º ciclo. Por último, a análise pode referir o processo de
tratamento estatístico dos dados para deles ser extraída informação (Black, 1999).
2 Por forma a evitar erros e abusos na utilização de testes estandardizados, numa ação
conjunta da American Psychological Association, American Educational Research
Association e o National Council on Measurement in Education, foram estabelecidos
padrões rigorosos para a avaliação de testes para as áreas da Psicologia e Educação,
que se revelaram muito úteis não só para quem utiliza mas para para quem os constroi
(Moore, 1983).
3 Nos testes referenciados ao critério, é o investigador que decide qual o “poder
discriminativo” do teste ou seja aquele que “corta” o grupo em dois (superior e
inferior) não necessariamente do mesmo tamanho. Esse índice define-se como a
diferença entre a proporção de sujeitos respondendo como esperado (i.e. os melhores
acertadamente e os piores erradamente) e a proporção dos que respondem contra o
esperado (i.e. os melhores respondendo mal e os piores bem).
4 Podemos encontrá-los em revistas especializadas para a área da educação (Journal of
Educational Measurement) bem como em bases de dados internacionais como o ERIC
ou o EUDISED.
5 As escalas de tipo rating são muito usadas em educação e constam de uma série de
itens relativos a um conceito, fenómeno, atividade e em que o respondente deve
selecionar numa escala o descritor que melhor relata concordância com o teor do item.
6 Shavelson (1996) propõe ainda a utilização da RBANOVA para o cálculo da
consistência interna de instrumentos.
7 A aplicação da fórmula de correção visa atenuar o efeito negativo da diminuição do
número de itens, ou seja, estima o coeficiente esperado se o mesmo fosse calculado
com o tamanho do teste na sua globalidade (Almeida & Freire, 1997).
8 A fórmula deste coeficiente, e para o caso de testes normalizados, pode encontrar-se
em Black (1999, p. 279). Este autor apresenta ainda adaptações deste coeficiente para
o caso de testes referenciados ao critério.
9 Este indicador também chamado poder discriminatório do item, indica quanto o item
discrimina os sujeitos que pontuam alto dos que pontuam baixo no instrumento.
10 A fórmula pode encontrar-se em Black (1999, p. 282) ou em Almeida & Freire
(1997, p. 150).
11 No caso de questionários, inventários ou escalas de formato tipo Likert, em que não
há respostas “boas e más” o cálculo do poder discriminativo dos itens é feito
correlacionando a pontuação no item e a nota total da escala a que pertence (os
programas de estatística dão-nos estes valores incluídos no cálculo da fidelidade). Um
item é tanto mais discriminativo quanto maior discrepância proporciona entre dois
grupos (valores mais altos e mais baixos na escala). Numa escala de 5 pontos likert, a
diferenciação máxima situa-se nos 4 pontos (de um lado todos com 1 e do outro todos
com 5). Neste caso, devemos optar por itens com um mínimo de 1.5 pontos, e sempre
no sentido positivo, ou seja, no sentido do global da prova.
REFERÊNCIAS BIBLIOGRÁFICAS
Almeida, L., & Freire, T. (1997). Metodologia da investigação
em Psicologia e Educação. Coimbra: APPORT.
Anderson, G., & Arsenault, N. (1999). Fundamentals of
educational research. London: Falmer Press Teachers Library.
Angrosino, M. V. (2012). Observation-based research. In J.
Arthur et al. (Eds.), Research methods & methodologies in
Education (pp. 165-169). Thousand Oaks, CA: Sage.
Black, T. (1993). Evaluating Social Science research: An
introduction. London: SAGE Publications.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Bogdan, R., & Biklen, S. (1994). Investigação qualitativa em
Educação: uma introdução à teoria e aos métodos. Porto:
Porto Editora.
Campbell, D., & Stanley, J. (1963). Experimental and quasi
experimental designs. Boston: Houghton Mifflin Company.
Charles, C. M. (1998) Introduction to educational research (3ª
ed.). New York: Longman.
Cook, T., & Campbell, D. (1979). Quasi-experimentation:
design and analysis issues for field setting. Boston: Houghton
Mifflin Co.
Coutinho, C. P. (2011). Metodologia de investigação em
Ciências Sociais e Humanas: Teoria e prática. Coimbra:
Almedina.
Denzin, N. K. (1989). Interpretative biography. Thousand
Oaks, CA: Sage.
DeWalt, K., & DeWalt, B. R. (2011). Participant
observation: A guide for fieldworkers. Janham: Altamira
Press.
Eisman, L. B. (1992). El método experimental: Diseños de
investigácion. In M. P. Colás Bravo, & L. B. Eisman (Eds.),
Investigación educativa (pp. 109-151). Sevilha: Ediciones
Alfar.
Elliott, D., & Stern, J. E. (Eds.). (1997). Research ethics: a
reader. Hanover, NJ: University Press of New England.
Esteves, M. (2006). Análise de Conteúdo. In J. A. Lima, & J.
A. Pacheco (Orgs.), Fazer Investigação: Contributos para a
elaboração de dissertações e teses (pp. 105-126). Porto: Porto
Editora.
Flick, U. (1998). An introduction to qualitative research.
London: Sage Publications.
Fox, D. (1987). El proceso de investigacion en Educación.
Pamplona: Ediciones Universidad de Navarra, S.A.
Ghiglione, R., & Matalon, B. (1997). O inquérito: Teoria e
prática (3ª ed.). Oeiras: Celta Editora.
Hill, A., & Hill, M. (2008). Investigação por questionário.
Lisboa: Edições Silabo.
Krueger, R. A., & Casey, M. A. (2000). Focus group: a
practical guide for applied research (3ª ed.). Thousand Oaks,
CA: Sage.
Kumar, R. (2011). Research methodology: a step by step guide
for beginners (3ª ed.). London: Sage.
Lee, M. (2000). Unobstrusive methods in the Social Sciences.
Buckingham, UK: Open University.
Lessard-Hébert, M., Goyette, G., & Boutin, G. (2005).
Investigação qualitativa – Fundamentos e práticas (2ª ed.).
Lisboa: Instituto Piaget.
Mason, E., & Bramble, W. (1997). Research in Education and
the Behavorial Sciences: concepts and methods. Madison, WI:
Brown & Benchmark.
Mehrens, W., & Lehman, I. (1984). Measurement and
evaluation (3ª ed.). New York: CBS College Publishing.
Meltzoff, J. (1998). Critical thinking about research -
Psychology and related fields. Washington DC: American
Psychology Association.
Merriam, S. (1998). Qualitative research and case studies
applications in Education: Revised and expanded from case
study research in Education. San Francisco: Jossey-Bass
Publishers.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Mertler, C. A. (2001). Designing scoring rubrics for your
cllassroom. Practical Assessment, Research and Evaluation
7(25). Retirado de http://PAREonline.net/ getvn.asp?
v=7&n=25
Monteiro, J. M. (2009). Questionários: teoria e prática.
Coimbra: Almedina.
Moore, G. W. (1983). Developing and evaluating educational
research. New York: HarperCollins Publishers.
Moreira, J. M. (2004). Questionários: teoria e prática.
Coimbra: Livraria Almedina.
Morgan, D., & Spanish, M. (1984). Focus group: A new tool
for qualitative research. Qualitative Sociology, 7Qualitative
Sociology, 7 270.
Patton, M. Q. (2002). Qualitative research and evaluation
methods (3ª ed.). Thousand Oaks: Sage.
Punch, K. (1998). Introduction to Social Research:
quantitative & qualitative approaches. London: SAGE
Publications.
Schutt, R. K. (1999). Investigating the Social World: The
process and practice of research (2ª ed.). Thousand Oaks: Pine
Forge Press.
Shavelson, R. (1996). Statistical reasoning for the Behavorial
Sciences (3ª ed.). Needham Heights, MA: Allyn & Bacon.
Silverman, D. (2000). Doing qualitative research: a practical
guide. Thousand Oaks: SAGE Publications.
Smithson, M. (2000). Statistics with confidence. London:
SAGE Publications.
Sousa, A. (2009). Investigação em Educação. Lisboa: Livros
Horizonte.
Taylor, S. J., & Bogdan, R. (1998). Introduction to qualitative
research methods: a guidebook and resource (3ª ed.). New
York: Wiley.
Teddlie, C., & Tashakkori, A. (2009). Foundations of mixed
methods research: integrating quantitative and qualitative
approaches in the Social and Behavioral Sciences. Thousand
Oaks, CA: Sage.
Vieira, C. M. (1999). A credibilidade da investigação
científica de natureza qualitativa: questões relativas á sua
fidelidade e credibilidade. Revista Portuguesa de Pedagogia,
33(2), 89-11.
Webb, E. J., Campbell, D. T., & Schwartz, R. D. (1966).
Unobstrusive measures: non reative research in the social
sciences. Chicago: Rand McNally.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Capítulo 7

Estatística Descritiva

Numa investigação os dados obtidos necessitam de ser


organizados e analisados e, como a maioria das vezes tomam
uma forma numérica procede-se à sua análise estatística.
Associamos sempre a estatística com a investigação
quantitativa porque de facto, na investigação qualitativa a
recolha e análise de dados é um processo contínuo integrado
na sequência da investigação, de forte cariz indutivo,
resultando como produto final uma descrição, ou seja,
“palavras”. É certo que a estatística pode ser apropriada em
certas etapas da análise de dados em investigação qualitativa,
mas não é de facto a parte central do processo, como acontece
na metodologia quantitativa.
Considera Black (1999, p. 304) que a função da análise
estatística é “… transformar os dados em informação” e é
precisamente para isso mesmo que ela nos serve. Enquanto
disciplina científica, a Estatística é um campo da Matemática
Aplicada, e se é um facto que dominar os métodos da
Estatística requer alguma destreza Matemática, o certo é que o
é muito menos do que vulgarmente se pensa. De facto, a
ligação da Estatística à Matemática, criou junto de muitos
investigadores um certo “mito” de dificuldade que
procuraremos desmistificar: será nosso objetivo demonstrar
que não é preciso saber muita Matemática para se investigar
com rigor em CSH, bastando para tal, saber pensar, ser
responsável e ter espírito crítico.
Se é verdade que todos os conceitos estatísticos que vamos
abordar tem por detrás complicadíssimos cálculos
matemáticos, veremos como, com o auxílio do computador,
essa complexidade nos passa despercebida, libertando-nos
tempo para centrar a atenção no que verdadeiramente é
importante: a lógica da análise, ou seja, as razões que nos
devem levar a escolher uma dada técnica ou teste estatístico e
não outra(o), com todas as sua implicações e riscos como seja
o de termos de assumir que as nossas hipóteses não são válidas
e que importa reformulá-las.
Levar o investigador a adotar uma permanente atitude
crítica em relação aos resultados obtidos na sua análise, será
outra das nossas prioridades. Não devemos confiar demais na
“infalibilidade” da estatística como se de um deus se tratasse:
será que as decisões que tomei foram corretas? Apliquei os
testes mais adequados ao problema em análise e às condições
do meu estudo? Não forcei resultados? Estarei consciente do
alcance das conclusões a que cheguei, no que concerne a
referenciais teóricos que irão necessariamente influenciar (e
condicionar) a investigação futura?
Voltemos então atrás ao ponto em que ficámos no capítulo
anterior: o investigador vai recolher os seus dados junto de um
grupo de sujeitos. Ao grupo estudado chamamos amostra, ao
grupo a que pretendemos generalizar os resultados população.
Às estatísticas que permitem descrever a amostra chamamos
descritivas, e aos procedimentos estatísticos que permitem
inferir resultados da amostra para a população designamos por
estatísticas inferenciais.
Qualquer que seja a natureza dos dados, o objetivo da
análise será sempre:
a) organizar e descrever os dados de forma clara;
b) identificar o que é típico e atípico;
c) trazer à luz diferenças, relações e/ou padrões;
d) encontrar respostas para o problema, ou seja, testar as
minhas hipóteses.
As estatísticas descritivas visam atingir os objetivos a), b) e
c) e serão o objeto de estudo no presente Capítulo 7.
O objetivo d) só se atinge com o recurso a estatísticas
inferenciais que serão apresentadas no Capítulo 8.
7. Estatísticas Descritivas
Um dos maiores desafios que se coloca ao investigador é não
só descobrir significações “ocultas” no amontoado de dados de
que dispõe, mas também ser capaz de comunicar os resultados
do seu estudo à comunidade científica restrita e erudita que
são os seus “pares”, e, na medida do possível, também ao
público em geral.
Tal é a função das estatísticas descritivas: obter uma
primeira leitura dos dados capaz de dar uma ideia acerca da
dispersão, forma e estrutura da distribuição, entendida como
“o conjunto de todos os scores ou observações numa variável”
(Wiersma, 1995).
A escolha das estatísticas descritivas a utilizar vai depender
da quantidade dos dados que dispomos e, sobretudo, do tipo de
dados que temos, ou seja, importa desde logo saber se provém
de variáveis nominais/ordinais ou, pelo contrário, de variáveis
de tipo intervalar.
7.1 Apresentando os Dados de uma Distribuição
7.1.1 Variáveis nominais
Os diagramas stem and leaf (a tradução literal será
“pedúnculo e folha” derivado do aspeto geral do diagrama,
mas utilizaremos a expressão original inglesa) são uma das
formas mais simples e claras de apresentar dados e podem ser
utilizados, tanto para variáveis discretas como contínuas desde
que tomem valores numéricos de pelo menos dois dígitos
significativos, como por exemplo unidades e dezenas. O
primeiro algarismo significativo torna-se o “stem” e o segundo
o “leaf ”. (Fielding & Gilbert, 2000, p. 120).
Ilustremos esta técnica considerando a distribuição de
pontuações (notas) obtidas numa variável X (aproveitamento
num teste de 8º ano de Matemática) (Quadro 25).
Pontuações: 11, 23, 24, 31, 36, 45, 47, 52, 55, 56, 58, 59,
64, 65, 68, 69, 72, 72, 77, 81, 88 e 91.

QUADRO 25 – Diagrama “stem and leaf ”

Esta primeira “arrumação” dos dados dá-nos logo uma


ideia geral da distribuição que, como vemos, tende a
concentrar-se em volta dos valores centrais 5 e 6. No caso de
termos duas distribuições para a mesma variável obtemos o
“stem and leaf ” duplo que pode revelar-se muito eficaz para
facilitar comparações: imaginemos que os dados do diagrama
acima eram da turma A, e que agora acrescentamos os da
turma B (Quadro 26)

QUADRO 26 – “Stem and leaf ” duplo

Podemos da simples observação verificar que os resultados


da turma B foram superiores aos da turma A, com
concentração de valores nos stems 6 e 7, além da fraca
ocorrência nos stems mais baixos, revelando que apenas 2
alunos obtiveram resultados inferiores a 50%.
Uma outra forma de organizar os dados da nossa
distribuição é agrupando-os em categorias e apresentando-os
em tabelas de frequências, em que, a cada grupo/categoria
está associado o seu respetivo número de ocorrências. Na
tabela de frequências do Quadro 27, estão apresentados os
dados referentes a “preferências” de alunos de uma turma
relativamente a 4 disciplinas do seu curriculum.

QUADRO 27 – Tabela de frequências

Tal como no exemplo, os resultados numa tabela de


frequência incluem sempre a frequência (xi) que é o número
de sujeitos numa dada categoria, e a percentagem que expressa
a proporção de cada categoria no total da amostra num valor
que vai de 0% a 100%. Podem ainda incluir frequências e
percentagens acumuladas dependendo do interesse do
investigador.
Os dados da tabela de frequências podem ser apresentados
graficamente, fazendo-se corresponder ao eixo horizontal dos
x a variável independente, e ao eixo vertical dos y as
frequências/ocorrências verificadas na variável dependente.
Para dados nominais e/ou ordinais, as representações gráficas
podem fazer-se através de gráficos de barras e gráficos
circulares (pie chart), como os que seguem na figura 9 e que
ilustram os dados do exemplo anterior.
FIGURA 9 – Gráfico de barras e circular

Num gráfico de barras a altura das barras representa a


frequência de ocorrências por cada categoria; as barras devem
ser separadas por espaços entre elas, para indicar que as
categorias da variável não são adjacentes umas às outras nem
ordenadas segundo alguma ordem particular. A alternativa
mais comum são os gráficos de tipo circular (pie chart) que
dão a mesma informação, mas em que se usa o tamanho da
fatia em vez da altura para representar a frequência. No
entanto, e no exemplo que apresentamos acima isso é bem
patente, o gráfico de barras é mais claro na apresentação de
dados do que o circular quando os valores das frequências são
muito próximos (no caso, a frequência de Mat e EV), em que
as diferenças resultam bem mais visíveis no primeiro do que
no segundo tipo de gráfico.
O embelezamento de gráficos com cores, padrões, e mesmo
efeitos de 3D, nada acrescentam ao gráfico, podendo apenas
obscurecer a verdadeira informação e produzindo efeitos
perversos (Smithson, 2000). A Figura 10 ilustra como barras
idênticas podem parecer ter alturas diferentes por efeito de
diferentes padrões de preenchimento que enviesam a leitura e
interpretação.

FIGURA 10 – Efeito de diferentes padrões de preenchimento sobre a leitura de


gráficos

O estatístico William Cleveland (1993) realizou estudos


empíricos sobre a qualidade com que as representações
gráficas transmitem informação, estabelecendo uma hierarquia
de qualidade decrescente para as diferentes representações; a
posição cimeira era ocupada pelos gráficos de barras, seguidos
dos de áreas, depois dos de volumes e, por último, os de cores
como aqueles sendo aqueles em que é pior a função
informativa.
A Figura 11 representa a escala de Cleveland (1993) com
as suas sete hierarquias de representação gráfica por ordem
decrescente de qualidade informativa (na ilustração uma barra
é metade da outra, um ângulo metade do outro, etc.):

FIGURA 11 – Escala de Cleveland

Dos trabalhos de Cleveland (1993) não se pode concluir


que o recurso à cor ou a diferentes padrões e texturas prejudica
sempre a qualidade da representação gráfica. Há situações em
que o seu uso se justifica plenamente, como acontece, por
exemplo, no caso de em vez de um grupo único tivermos
dados de dois (ou mais) grupos; neste caso, as representações
gráficas com o recurso à cor (ou padrão) revelam-se
extremamente úteis para fazer comparações. Vejamos alguns
exemplos, partindo dos dados da tabela de frequências
anterior, mas desta vez com as preferências relativas a dois
grupos de alunos A e B (Quadro 27).

QUADRO 27 – Tabelas de frequências para pontuações de dois grupos A e B

Os programas de computador fornecem muitas alternativas


gráficas, devendo sempre optar-se por aqueles que tornam
mais fácil e clara a leitura e compreensão dos dados. Em
seguida apresentamos duas modalidades fornecidas pelo Excel
(no primeiro com sobreposição de cores diferentes na mesma
barra, e no segundo com barras de padrões diferentes) (Figura
12).

FIGURA 12 – Gráficos de barras com pontuações de dois grupos A e B

7.1.2 Variáveis intervalares


Também para estas variáveis importa organizar os
resultados/pontuações/scores obtidas na recolha de dados –
que tomam quase sempre a forma de longas séries de números
– em tabelas de frequências. Contrariamente ao caso anterior
em que havia categorias pré-definidas (as 4 disciplinas), temos
que estabelecer intervalos para agrupar os dados de natureza
contínua. Chase (1985) aconselha a rule of thumb de 15
categorias, embora possa aceitar-se valores que oscilem entre
um mínimo de 10 e um máximo de 20: fora destes valores a
forma das distribuições pode ser distorcida (Black, 1999).
Importa também que a sucessão dos intervalos tenha
significado e seja fácil de seguir: valores de 2 em 2, 3 em 3, 10
em 10 são melhores que frações como 2 ¼. Também não é
necessário começar no valor mais baixo, porque isso pode
tornar difícil a construção de gráficos. Por exemplo, se os
resultados de um teste variam entre 23 e 64, uma diferença de
41 pontos, poderíamos formar 15 intervalos de 3 pontos cada
(intervalo de 45 pontos). Onde começar? Há muitas hipóteses,
mas devemos optar sempre pela forma mais lógica e fácil de
ler: neste caso seria 21-23, 24-26, 27-39, etc.
O passo seguinte é definir as fronteiras do intervalo. Se a
tarefa é fácil com números inteiros, com números decimais
importa tomar uma decisão. No caso anterior, qual é o ponto
fronteira entre o 23 e o 24? Um valor de 23.3 para que
intervalo deve ir? Por convenção estabeleceu-se que se o valor
é inferior a metade vai para o intervalo inferior e ser for
superior vai para o grupo superior. Por isso, um valor inferior a
23.5 é contabilizado no intervalo 21-23 (chamado intervalo
aparente) e superior a 23.5 vai para o intervalo 24-2612.
a) os pontos médios do intervalo: no caso 22, 25, 28, etc.;
b) os intervalos aparentes: no caso 21-23, 24-26, 27-29,
etc.;
c) os limites reais: aqui 20.5, 23.0, 26.5, etc.
Se optarmos por um histograma, qualquer um dos valores é
aceitável, mas para polígonos de frequências convencionou-se
usar a), ou seja, os pontos médios do intervalo. Em todos os
outros casos, a escolha dependerá apenas de critérios estéticos
e facilidade de leitura, e também das opções proporcionadas
pelo pacote de software que utilizarmos. Na tabela de
frequências (Quadro 28), estão apresentados os resultados
obtidos num teste de aproveitamento de alunos de duas turmas
fictícias A e B.

QUADRO 28 – Tabela de frequências absolutas e relativas de uma variável


intervalar

Com estes dados podemos construir vários tipos de


representações gráficas (figura 13).
• GRÁFICO DE BARRAS/RETÂNGULOS
FIGURA 13 – Gráfico de barras ou retângulos

• POLÍGONO DE FREQUÊNCIAS OU GRÁFICO DE


LINHAS (SCATTERGRAM)

FIGURA 14 – Gráfico de pontos (scattergram)

Obtém-se unindo os pontos médios de cada barra ou


retângulo (Smithson, 2000). Esta representação gráfica
(Quadro 7.6) melhor ainda que o histograma dá ao
investigador uma ideia geral da forma da distribuição, o que,
como veremos mais adiante, é um aspeto extremamente
importante na decisão sobre que técnicas devem ser utilizadas
para a análise estatística.
Com dois grupos podemos também construir vários tipos
de representações gráficas que facilitam as comparações entre
os grupos (ver Figuras 14 a 17) dependendo o tipo de gráfico
da natureza dos dados e das possibilidades permitidas pelo
pacote de software que utilizarmos, não esquecendo nunca que
a representação gráfica deve ter por objetivo facilitar a leitura
e compreensibilidade da informação.
FIGURA 15 – Gráfico de barras de duas distribuições

FIGURA 16 – Gráfico de pontos ou scattergram de duas distribuições

FIGURA 17 – Gráficos de áreas e linhas de duas distribuições

7.2. Descrevendo Distribuições


À Estatística, mais do que conhecer caraterísticas de sujeitos
individuais, interessa sim quantificar traços e caraterísticas de
grupos (doravante designados por distribuições) seja para ver
o que têm em comum ou o que os diferencia. Em sentido
estrito chamamos estatístico a um número baseado nos dados
da distribuição que sumariza ou quantifica uma caraterística
desses dados (Smithson, 2000). Os estatísticos mais usados
para quantificar distribuições são as medidas de tendência
central, variabilidade e relação, e que nada mais são do que
números que descrevem o grupo como um todo (Black, 1999).
7.2.1 Medidas de Tendência Central
São mais conhecidas por médias. Na realidade são apenas
pontos na distribuição e o seu nome deriva na sua localização
ser situada na zona central da distribuição. A média, mediana
e a moda são as mais usadas.
A média – de longe a mais utilizada – não é mais do que a
média aritmética obtida somando os scores e dividindo pelo
número deles. Como envolve operações matemáticas só pode
utilizar-se para variáveis de escala de medida intervalar/razão.
Costuma representar-se por vários símbolos como M ou µ (o
miu grego) ou ainda por:

Imaginemos uma distribuição com pontuações de 10


sujeitos numa escala de 0 a 20 pontos:
19
14
14
13
13
11
9
7
7

A mediana é o ponto da escala de medida acima e abaixo


do qual se localizam metade dos scores da distribuição.
Utiliza-se para variáveis de escala de medida ordinal e/ou
intervalar. Numa série de números impar é sempre o valor
central.

Numa série em que N é par, a mediana calcula-se pela


média dos dois valores centrais:
29
26
24
24
22
20
19
18
14
12

A moda é a pontuação ou score mais frequente. Pode ser


utilizada com variáveis em qualquer escala de medida.
79
60
55
54
54 -> Moda
54
51
51
43
42
As três medidas de tendência central completam-se na
informação que fornecem ao investigador, e por isso, sempre
que possível, o investigador deve calculá-las todas (Smithson,
2000).
A mediana, por exemplo, é uma medida insensível a
valores extremos, o mesmo acontecendo com a moda que
atualmente caiu em desuso, sendo calculada apenas como uma
estimativa do valor da média. A média é a mais estável, mas é
muito influenciada pelos valores extremos da distribuição,
podendo falsear o real valor central da mesma, como acontece
quando a distribuição toma uma forma assimétrica. No
apresentado no Quadro 29, temos duas distribuições X1 e X2,
iguais à exceção do valor máximo: nestas distribuições o valor
da mediana 12, reflete melhor o valor central da distribuição
do que a média, sobretudo em X2, onde a média disparou sob
a influência da do valor extremo 52, muito superior aos 18 de
X1.

QUADRO 29 – Média em duas distribuições distintas

A Figura 18 (Black, 1999, p. 331) apresenta os valores de


médias, medianas e modas em várias distribuições. Na
distribuição normal c), a simetria faz com que média, mediana
e moda sejam coincidentes. Quando a distribuição é
assimétrica, a média inclina-se sempre na direção do valor
extremo, sendo neste caso a mediana um valor muito mais fiel
da centralidade devendo ser utilizada no lugar da média. Nas
duas distribuições assimétricas da figura, vemos em b) uma
curva de desvio positivo com a média a ser atraída para as
pontuações mais altas, e em a) uma curva de desvio negativo,
com a média a inclinar-se para os valores mais baixos da
distribuição. Em d) temos o caso de uma distribuição bimodal.

FIGURA 18 – Média, mediana e moda em quatro distribuições distintas

O Quadro 30 sumariza os pontos principais da comparação


das três medidas de tendência central:
QUADRO 30 – Comparação da média, mediana e moda

7.2.2 Medidas de variabilidade


As medidas de variabilidade ajudam a descrever uma
distribuição, mostrando como se dispersam as pontuações em
torno do valor central da distribuição (média ou mediana). Por
necessitarem sempre dessa referência base, as medidas de
dispersão parecem sempre associadas a medidas de tendência
central mas, ao contrário destas últimas, que são pontos,
representam intervalos, ou seja, designam um conjunto de
unidades na escala de medida.
Podemos distinguir dois tipos: as medidas de dispersão
associadas à mediana (para variáveis de escala
nominal/ordinal) ou à média (para variáveis de escala
intervalar) (Black, 1999; Smithson, 2000).
7.2.3 Associadas à mediana: quartis e percentis
A medida de dispersão associada à mediana chama-se o
intervalo interquartil (ou desvio interquartil). Enquanto a
mediana divide a distribuição em duas partes (contendo cada
uma 50% das ocorrências), o quartil divide a distribuição em
4 partes (contendo cada uma 25% dos casos). O primeiro
quartil inclui as pontuações situadas abaixo do qual caem 25%
das ocorrências, o segundo é a mediana, e o terceiro é a
pontuação abaixo da qual caem 75% dos casos.
O intervalo interquartil é a diferença entre o 3º e o 1º
quartil agrupando 50% dos casos de localização central na
distribuição (Heiman, 1996; Smithson, 2000) (figura 19).
FIGURA 19 – Intervalo interquartil numa distribuição de desvio positivo (adaptado
de Heiman, 1996, p. 118)

A divisão da distribuição pode prosseguir originando fatias


mais estreitas chamadas percentis (para alguns autores
“quantis”). Um percentil pode definir-se como sendo a
pontuação ou valor abaixo do qual se encontra uma
determinada percentagem de ocorrências: a mediana é o
mesmo que o 50º percentil, o primeiro quartil o 25º percentil e
assim por diante, sendo vulgar a divisão da distribuição em 5
percentis respetivamente o 10º, 25º, 50º , 75º e 90º (Glass &
Hopkins, 1996; Smithson, 2000).
7.2.4 Associadas à média: intervalo, variância e desvio-
padrão
• O intervalo (range), obtido pela diferença entre o valor
máximo e mínimo da distribuição, pouco usado por fornecer
pouca informação. Nos cinco scores que seguem:
9 11 12 18 52 o intervalo é 52 – 9 = 43

• A variância, que se obtém somando os quadrados dos


desvios (o desvio é diferença entre uma dada pontuação e a
média da distribuição) e dividindo pelo nº de observações. Por
outras palavras, a variância é a média aritmética dos desvios
em relação à média da distribuição, e representa-se por s2, S2,
ou
O desvio padrão é a raiz quadrada da variância, e
representa-se por s, S, SD ou σ.

A variância e o desvio padrão são as medidas da


variabilidade mais utilizadas, aplicam-se a variáveis de escala
intervalar, e dão indicações muito precisas sobre a dispersão
das pontuações numa distribuição. Em conjunto com as
medidas de tendência central descrevem uma distribuição, mas
convém sempre que o investigador proceda a uma análise
conjunta dos dois tipos de medidas (tendência central e
variabilidade), uma vez que distribuições que parecem
semelhantes, não o são na realidade como é o caso das
representadas na Figura 20 :
a) Distribuições com idêntica tendência central mas
diferente variabilidade;
b) Distribuições com variabilidade semelhante mas
diferente tendência central;

FIGURA 20 – Variabilidade e tendência central em duas distribuições distintas

7.3 Medidas de Relação


Quando o investigador tem duas distribuições (uma para cada
umas das variáveis dependentes) para um mesmo grupo de
sujeitos, pode estar interessado em determinar se há (ou não)
relação/associação entre as duas variáveis em jogo. Partindo
da análise dos pares de observações (scores) obtidos por cada
sujeito, em cada variável, o investigador pode saber se eles
covariam (partilham variância), ou seja, se as variações numa
variável afetam a outra.
O grau de relação entre duas variáveis designa-se por
correlação e a sua medida quantitativa designa-se por
coeficiente de correlação (Moore, 1983). Há muitos
processos para calcular coeficientes de correlação dependendo
a decisão do tipo de escala de medida da variável bem como
da correlação ter (ou não) forma linear, como veremos adiante
(Moore, 1983; Punch, 1998; Shavelson, 1996).
O coeficiente de correlação toma valores que vão de -1 a
+1, correspondendo o zero a não haver correlação, ou seja, as
variáveis são independentes. O sinal + ou - indica a direção da
correlação: o sinal +, diz que valores altos numa variável se
associam a valores altos na outra variável, e idem para valores
baixos. O sinal - reflete uma relação inversa, ou seja, baixos
valores numa variável associam-se a valores altos na outra
variável, ou vice-versa. De uma maneira geral, positivas ou
negativas, as correlações são consideradas altas se > ± 0.7,
médias se apresentam um valor entre ±0.4 e ±0.6, e baixas se
inferiores a ±0.3 (Charles, 1998, p. 107).
Convém ficar claro que a correlação, só por si, pode
sugerir uma relação causa-efeito entre variáveis mas nunca a
pode demonstrar (Charles, 1998). Verdadeiras relações causa-
efeito exigem que uma variável independente seja manipulada
de forma a que uma variável dependente mude fruto dessa
manipulação, o que só pode ocorrer se planificarmos
verdadeiros planos experimentais.
7.3.1 Tipos de coeficientes de correlação
Para variáveis não intervalares (nominais e ordinais), o cálculo
do coeficiente de correlação pressupõe a organização dos
dados numa tabela de frequências também chamada tabela de
contingências, assim denominada uma vez que o seu objetivo
é permitir ver se a distribuição de uma das variáveis se
relaciona, ou é contingente, com a outra. Existem coeficientes
específicos para o cálculo da correlação consoante o tipo e
natureza da variável:
• no caso da variável ser nominal, usa-se o coeficiente de
contingência que parte de uma tabela de contingência 2x2
(variáveis dicotómicas), ou o coeficiente Cramer C quando
as variáveis apresentam mais categorias (Siegel &
Castellon, 1988, p. 225);
• no caso das variáveis apresentarem uma ordenação
(ordinais) podem usar-se o coeficiente de correlação de
Spearman rank order (Rho) ou o coeficiente de correlação
de Kendall entre outros (Siegel & Castellon, 1988, p. 245);
• se uma variável é contínua (por exemplo
“aproveitamento em Matemática”) e a outra é dicotómica
(por exemplo “ter/não ter computador pessoal”) pode usar-
se a o coeficiente de correlação biserial (Charles, 1998, p.
267);
• quando ambas as variáveis são intervalares (contínuas), a
medida da correlação é muito mais potente e rigorosa, e
obtém-se pelo coeficiente de correlação de Pearson ou
produto-momento, que nos mostra tanto a direção como a
força (o “como” e o “quanto”) da relação entre as variáveis
(Charles, 1998; Punch, 1998).
7.3.2 Representação gráfica da correlação
Tanto a correlação de Spearman (rho) como a de Pearson (r)
medem uma relação linearentre duas variáveis X e Y, em que a
cada par de observações/medições corresponde um ponto, pelo
que podemos descrever a relação não só numericamente, mas
também de forma gráfica num gráfico de pontos ou scatterplot
(Shavelson, 1996). As Figuras que seguem, mostram as três
configurações gráficas mais comuns:
• Na Figura 21, a forma do gráfico de pontos ou scatterplot
é oval tendendo os pontos para cima e para a direita: scores
mais altos em X correspondem a scores mais altos em Y.
As variáveis são positivamente correlacionadas, e
podemos prever os resultados de um sujeito em Y
conhecido o X e vice versa.
Na figura 22, a inversa é verdadeira: o scatterplot continua
oval ou elíptico mas a inclinação, desta feita, é para baixo:
valores altos em X correspondem a valores baixos em Y: as
variáveis estão negativamente (inversamente, indiretamente)
correlacionadas, sobem e descem em direções opostas.
Mantém-se possível a previsão de uma a partir da outra.
Na figura 23 o gráfico tem forma circular: um valor de X
pode ser associado com qualquer valor de Y, e vice-versa: as
variáveis não se correlacionam.

FIGURA 23 – Variáveis não correlacionadas

A representação gráfica da dispersão dos pontos também


nos dá indicação da “força” da correlação: quanto mais os
pontos se concentram mais acentuada é a elipse e maior a
correlação, quanto mais a elipse tende para a forma circular
menor a correlação (Wiersma, 1995).
A fórmula mais difundida para o cálculo algébrico da
medida da força da relação entre duas variáveis lineares, é a
proposta de Pearson e daí a designação de coeficiente de
correlação de Pearson ou r, que, como já dissemos
anteriormente pode tomar valores que vão da correlação
perfeita (–1 ou +1) a todo um leque de valores intermédios, e
em que o zero indica que não há relação (Charles, 1998;
Punch, 1998; Shavelson, 1996; Wiersma, 1995).
A figura 24, adaptada de Shavelson (1996, p. 153), mostra
alguns exemplos de correlações lineares, com os
correspondentes valores da magnitude do coeficiente de
correlação r, e onde podemos ver como há uma associação
entre a forma do scatter/magnitude da relação.

FIGURA 24 – Scatterplot de correlações lineares

7.3.3 Interpretação do coeficiente de correlação


Calculado o valor do coeficiente de correlação r, há que
se proceder à sua interpretação o que nem sempre é tarefa
simples. Para Cohen, Manion e Morrison (2001), a
interpretação de um coeficiente de correlação deve fazer-se
segundo três perspetivas:
a) examinando a pontuação obtida, ou seja o valor
numérico do coeficiente;
b) analisando a significância estatística da correlação;
c) mediante a análise do quadrado do coeficiente de
correlação (o coeficiente de determinação).
O valor numérico da correlação dá-nos logo uma ideia da
força da relação entre as variáveis como referimos atrás:
valores perto de zero indicam correlações fracas e próximos de
+1 ou -1 correlações fortes. As dificuldades prendem-se
precisamente na interpretação dos valores intermédios e é, por
isso, que se revela importante aferir da significância estatística
da correlação. A questão pode colocar-se do seguinte modo:
quão forte é que deve ser uma correlação para podermos
aceitá-la como válida, ou seja, como sendo estatisticamente
significativa?
Vamos imaginar que calculámos o coeficiente de
correlação entre as variáveis “altura” e “peso” de 30 crianças e
obtivemos um coeficiente de correlação com o valor de 0,38.
Será que posso concluir que as duas variáveis estão
correlacionadas? Ou seja, a correlação terá significância
estatística? Para o sabermos teremos de consultar uma tabela
de valores de significância estatística (em qualquer manual de
estatística); neste caso concreto verificamos que, para um nível
de significância de menos de 0,05 (nível mais divulgado na
investigação educativa), o valor do coeficiente de correlação
para 30 sujeitos terá de ser igual ou superior a 0,38. No nosso
caso, o valor encontrado é superior pelo que podíamos
concluir que a relação entre as duas variáveis, para o grupo de
30 sujeitos avaliados nas duas variáveis tinha significância
estatística. O nível de significância estatística varia em função
do número de elementos da amostra por isso é fundamental
que, para além do valor numérico do coeficiente de correlação,
o investigador tenha em conta a dimensão da sua amostra
quando está a interpretar. Quanto maior for o tamanho da
amostra menor é o valor numérico necessário para que a
correlação seja significativa mas a inversa é igualmente
verdadeira (no nosso exemplo, se em vez de 30 tivéssemos
apenas 10 sujeitos o valor do coeficiente de correlação teria de
ser muito superior para ter significância estatística, neste caso,
ser superior a 0,65). A questão da significância estatística de
uma correlação é particularmente importante em estudos
correlacionais exploratórios, porque em estudos de previsão o
que importa mesmo é a magnitude da relação.
Por último, outro indicador que nos pode ajudar a
interpretar melhor esta questão da intensidade de uma
correlação é a análise do quadrado da correlação, o chamado
coeficiente de determinação r2. Este valor indica-nos a
proporção de variância de uma primeira variável X que pode
ser atribuída a uma relação linear com a segunda variável Y.
Dito de outra forma, indica-nos a proporção de variância
comum às duas variáveis X e Y.
Por exemplo: se duas variáveis X e Y têm um coeficiente
de correlação de 0,65, então 42,5% (quase metade) da variação
de X pode ser fruto da tendência que X tem de covariar com Y
(ou de variar em função de Y). Na Figura 25 está representada
graficamente uma correlação de 0,65 entre duas variáveis X e
Y: 0,652 = 42,25, o que significa que as duas variáveis
partilham 42,25% da variância comum.

FIGURA 25 – Representação gráfica de uma correlação de 0,65 entre X e Y

Embora os três procedimentos indicados nos ajudem a


interpretar um dado coeficiente de correlação é importante
termos sempre presente que há muitos outros fatores que
podem influenciar o valor de uma correlação e que, por isso
mesmo, há sempre que ser muito cauteloso no que toca a
extrapolar resultados para além dos dados obtidos na amostra a
que o coeficiente de correlação se refere.
No entanto e sempre numa lógica de ajudar os
investigadores a analisarem os coeficientes de correlação
obtidos num estudo concreto surgem muitas vezes, na
literatura, informações que podem ajudar na tarefa de
interpretar resultados; tal é o caso da proposta de Borg , Gall e
Gall (1993) que apresentamos no Quadro 31, e que refere
índices aproximativos para estimar a magnitude de
coeficientes de correlação relativos a amostras de 100 (ou
mais) sujeitos.
QUADRO 31 – Sugestões para interpretar a magnitude de coeficientes de
correlação

7.3.4 Curvilinearidade
Até agora assumimos sempre as correlações serem lineares, ou
seja que as variáveis covariavam no mesmo sentido, o que leva
a que, no gráfico do scatterplot, a correlação se materialize
sob a forma de uma linha reta que é possível traçar entre os
pontos. No entanto, na investigação educativa, nem sempre é
possível assumir a linearidade na relação entre duas variáveis,
como é o caso, por exemplo da variável stress: um nível baixo
de stress pode aumentar positivamente a perfomance dos
sujeitos mas se for em demasia pode levar a um retrocesso no
rendimento. O resultado não é uma relação linear mas uma
linha curva indicadora da existência de uma correlação
curvilínea. Da mesma forma acontece por exemplo com a
temperatura da casa e o grau de conforto: aquecer a casa
aumenta o conforto – correlação positiva, mas aquecer demais
pode ser fator de desconforto – correlação negativa. Outros
exemplos de correlação curvilíneas entre variáveis
socioeducativas são os que a seguir se indicam:
– Pressão do diretor da escola sobre os professores;
– Pressão do professor sobre o rendimento do aluno;
– Grau de desafio e desempenho académico;
– Idade e concentração;
– Idade e sociabilidade.
O que se pretende dizer é que, na prática da pesquisa, antes
de assumir o pressuposto da linearidade o investigador deve
estar sensível à circunstância de isso não acontecer: nesse
caso, ou seja, se a curvilinearidade for uma possibilidade a
admitir, terá de utilizar técnicas estatísticas apropriadas a
correlações não lineares entre as variáveis como é o caso do
coeficiente η(eta) (Cohen, Manion & Morrison, 2001, p. 198),
ou então, em alternativa, proceder a uma transformação da
correlação não linear em linear.
7.3.5 Uso da correlação para previsão: estudo da regressão
Além da utilização como um estatístico descritivo, a
correlação pode também ser usada para previsão, ou seja para
estimar a presença de uma variável pelo conhecimento de
outra variável, o que se faz recorrendo à reta de regressão
(Punch, 1998).
A variável que permite a previsão é chamada preditora e a
variável a prever chama-se variável critério. A previsão em
CSH pode tomar formas muito variadas, por exemplo prever o
aproveitamento/sucesso (critério) a partir de testes de
inteligência/competência (preditora) como se faz em certas
universidades americanas para selecionar os alunos que aí
querem ingressar. A precisão da previsão é tanto maior quanto
maior for a correlação entre as duas variáveis (preditora e
critério).
Vejamos então como a correlação fundamenta o modelo de
regressão linear que vínhamos delineando: se duas variáveis
estão correlacionadas (seja positiva ou negativamente) tendem
a agrupar-se ao longo de uma linha diagonal que cruza o eixo
do scatter respetivo. Nas alíneas a) e b) da Figura 26, tentemos
traçar a linha para onde “tendem” os pontos do gráfico. Essa
linha “… que melhor se ajusta aos pontos” (line of best fit)
(Calder, 1996, p. 254), obtém-se calculando a média dos
desvios dos pares de pontuações, e constitui como que “…
uma linha de previsão das duas variáveis” (Punch, 1998, p.
123) ou seja, a reta de regressão linear simples.

FIGURA 26 – Retas de regressão linear simples

Com o auxílio do computador é possível ajustar a reta de


regressão linear aos dados com rigor e precisão (Punch,
1998), e obter uma linha perfeitamente ajustada, ajustada ou
pouco ajustada aos dados (ver Figura 9.18 adaptada de Calder,
1996, p.256). A medida de quão “ajustada” é a reta de
regressão aos dados, é-nos fornecida pelo valor do coeficiente
de correlação de Peason r respetivo: se for alto, significa que
os pontos de agrupam junto à reta, se baixo, os pontos
afastam-se dela.
7.3.5.1 Coeficiente de determinação
Como vimos o coeficiente de correlação r de Pearson, dá-nos a
medida da intensidade da associação entre duas variáveis X e
Y: quanto maior o valor absoluto de rxy maior a relação entre
X e Y. O quadrado de rxy é r2xy ou coeficiente de
determinação : “Os valores de r2xyindicam a proporção total
da variabilidade dos scores explicada pela relação entre as
duas variáveis” (Moore, 1983, p. 261), ou como diz Shavelson
(1996, p. 162) “ a proporção da variância total que é partilhada
por x e y”.
Sendo uma proporção, representa valores percentuais, e
calcula-se quadrando o valor de r: quando r é zero, r2xy é zero,
e quando r é 1.0 é r2xy =100%, ficando explicada a proporção
de variância através do valor do coeficiente de determinação
como a Figura 27 procura ilustrar.
FIGURA 27 – Representação gráfica do coeficiente de determinação

O círculo x representa a variabilidade dos scores em x, e o


círculo y a variabilidade em y. Quanto maior a sobreposição
dos círculos, maior a variância comum partilhada por x e y (ou
seja, maior a relação entre x e y), maior a percentagem de
variância em y resultado de conhecermos x, e maior a
percentagem de variância em x derivada de conhecermos y.
Assim em a) x e y não partilham variância, são independentes
e r2 xy=0; em b) temos o caso em que x e y partilham uma
percentagem moderada de variância comum, isto é x é
moderadamente previsível a partir de y e vice versa; em c)
quase toda a variabilidade em x resulta da variabilidade em y e
vice-versa.
O Quadro 32 indica a proporção de variância explicada por
diferentes valores de r2xy:

QUADRO 32 – Coeficiente de determinação

Por exemplo, numa correlação moderada de 0.50, apenas


25% da variabilidade dos scores da distribuição é explicada
pela relação entre as duas variáveis. Ou seja 75% da
variabilidade das pontuações não é explicada por estas
variáveis, o que significa que pode haver outras relações entre
variáveis que importa analisar. Só correlações altas (r >0.70
que dá um r2xy > 49%) explicam mais de metade da
variabilidade dos scores de uma distribuição, pelo que
devemos ser cuidadosos na hora de atribuir grande significado
a correlações débeis (inferiores a 0.70) (Punch, 1998;
Shavelson, 1996).
Este é um aspeto muito importante que não devemos
descurar, nomeadamente na avaliação de instrumento de
medida e recolha de dados. Para Moore (1983), quando se
procede à validação de instrumentos de recolha de dados e se
calcula a fiabilidade do mesmo pelo coeficiente de Pearson r,
não nos devemos esquecer de o quadrar (elevar ao quadrado)
para termos bem clara a percentagem de variância que esse
coeficiente explica. Imaginemos que obtemos num teste-
reteste um coeficiente de fiabilidade de 0.80 (r2 = 64%): isto
quer dizer que apenas 64% da variabilidade dos scores são
explicados pelo fator “hora do teste”. Os restantes 36%
devem-se a outras fontes que não a que analisámos.
No Quadro 33, adaptado de Moore (1983, p. 237),
sintetizam-se as estatísticas descritivas apresentadas ao longo
do capítulo.
QUADRO 33 – Quadro-resumo das estatísticas descritivas

7.4 O Programa SPSS para Análise de Dados


O SPSS (Statistical Package for the Social Sciences) é uma
poderosa ferramenta informática que permite realizar cálculos
estatísticos complexos e visualizar os seus resultados em
instantes. Constitui um auxiliar excelente para um investigador
em CSH que tenha procedido a uma recolha de dados
quantitativos em o objetivo da análise é descrever, relacionar
ou mesmo contrastar hipóteses de investigação.
No sentido de sensibilizar os investigadores para a
utilização destes importantes auxiliares no processo de
transformação dos dados em informação, vamos apresentar
nesta obra duas atividades que constituem uma introdução à
utilização do SPSS em CSH.
ATIVIDADES
1 – Vamos organizar os resultados obtidos por um grupo de 75
sujeitos num teste de aptidão X (rapazes a sublinhado).
Em papel quadriculado:
1.1 – Construa um diagrama stem and leaf duplo (para
rapazes e raparigas)
1.2 – Defina classes de intervalo para a variável contínua e
construa uma tabela de frequências simples e acumuladas
(para todo o grupo).
1.3 – Construa um histograma simples (todo o grupo) e
duplo (rapazes e raparigas).
2 – Com base nos dados da tabela anterior, crie um ficheiro de
dados no SPSS. Objetivos:
Criar um ficheiro de dados em SPSS.
Organizar ficheiro de dados em três variáveis: número,
ordem (ordinal), género (nominal) e pontuação no teste
(intervalo).
1.1 Definir as variáveis
O variable view dispõe de linhas destinadas a definir (ou
alterar) as caraterísticas das variáveis:
– O nome da variável (Name), deverá começar por uma
letra e ter no máximo oito carateres. Por exemplo, no
nosso caso temos 3 variáveis: número de ordem (ordinal),
género (nominal) e pontuação no teste (intervalo). Vamos
considerar as seguintes designações para cada uma: r
“nordem” “genero” e “pontuac”.
– O tipo de variável (Type), que pode ser numeric, comma,
dot, etc. Por defeito, de uma maneira geral, assumem-se
todas as variáveis como numéricas. O tipo de variável
inclui ainda a definição da sua largura (Width) e do número
de casas decimais (Decimal places). Por exemplo, a
variável “género” em ser codificada como numérica, com
valores 1 (Masculino) e 2 (Feminino); escolheu-se o valor
1 para width, visto existir apenas um dígito para
representar a variável, e o valor 0 para representar “zero”
casas decimais.
– A etiqueta ou rótulo da variável (Label) serve para
melhor explicitar o nome da variável que pode ir até 256
carateres contornando a restrição dos 8 carateres
identificativos do nome da variável.
– Os códigos utilizados (Values) são de grande utilidade
quando se opera com variáveis qualitativas, onde os
números apenas definem as categorias da variável.
– O Value Labels divide-se em dois itens: Value, onde se
insere o código das categorias e Value Label, onde se
insere o seu significado. Por exemplo, dado que 1 significa
ser a “Masculino”, inscreve-se no Value o valor 1 e no
Value Label a palavra “Masculino”, seguida de ADD (idem
para a categoria Feminino).
– As “não respostas” (Missing), servem para identificar a
informação em falta, mas também podem ser utilizadas
para excluir valores ou categorias da análise estatística. O
utilizador pode definir como Missing Values várias opções
mas a mais usada são os valores individuais; por exemplo,
pode definir-se o valor individual 9, diferente dos rótulos
das variáveis, como respostas omissas e no label das
variáveis deve inscrever-se no value 9 e no value label o
seu significado isto é “não respostas”.
– O formato da coluna (Columns) controla
simultaneamente a largura da coluna (Width) que surge no
Data Editor bem como o seu alinhamento (Text
Alignment). Se a largura da coluna for insuficiente
aparecem asteriscos em vez de números.
– O alinhamento dos dados na grelha (Align) que pode ser
ao centro, à direita ou à esquerda.
– Por último a escala de medida da variável (Measure) que
pode ser nominal, ordinal, etc.
2.2 Criação do ficheiro de dados
No SPSS crie um ficheiro de dados com as variáveis Nº
Ordem do sujeito, Género e Nota no teste. Introduza os dados
com base na tabela fornecida (respeitando a ordem da direita
para a esquerda e de cima para baixo).
Proceda à análise descritiva dos dados.
(Comando: Analyse – Descriptive Statistics –
Frequencies…; e comando “Explore”: Analyse Descriptive
Statistics Explore Dependent List nota Statistics Descriptive
Confidence Interval for Mean 95% Percentiles Outliers
Continue Plots Boxplots Fator Levels Together, Histogram,
Stem-and-leaf Continue OK).
-
12De facto, os intervalos reais são de 20.50000 a 23.49999… , 23.50000 a
26.49999 etc. Podemos assim optar por uma das três convenções ao etiquetar o eixo
dos x num gráfico de variáveis contínuas:
REFERÊNCIAS BIBLIOGRÁFICAS
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Borg, W. R., Gall, J. P., & Gall, M. D. (1993). Applying
educational research: A practical guide (3ª ed.). New York:
Longman.
Calder, J. (1996). Statistical techniques. In R. Sapsford, & V.
Jupp (Eds.), Data collection and analysis (pp. 195-261).
London: SAGE Publications.
Charles, C. M. (1998) Introduction to educational research (3ª
ed.). New York: Longman.
Chase, C. I. (1985). Elementary statistical procedures (3ª ed.).
New York: MacGraw Hill.
Cleveland, W. (1993). Visualizing data. Summit, NJ: Hobart
Press.
Cohen, L., & Manion, L., & Morrison, K. (2001). Research
methods in Education (5ª ed.). New York: Routlegde Falmer.
Fielding, J., & Gilbert, N. (2000). Understanding social
statistics. London: SAGE Publications.
Glass, G., & Hopkins, K. (1996). Statistical methods in
Education and Psychology (3ª ed.). Needham Heights, MA:
Allyn & Bacon.
Heiman, G. (1996). Basic statistics for the Behavorial
Sciences (2ª ed.). Boston: Houghton Mifflin Company.
Moore, G. W. (1983). Developing and evaluating educational
research. New York: HarperCollins Publishers.
Punch, K. (1998). Introduction to Social Research:
quantitative & qualitative approaches. London: SAGE
Publications.
Shavelson, R. (1996). Statistical reasoning for the Behavorial
Sciences (3ª ed.). Needham Heights, MA: Allyn & Bacon.
Siegel, S., & Castellon, N. J. (1988). Non parametric statistics
for the Behavorial Sciences (2ª ed.). NY: MacGraw-Hill
International Editions.
Smithson, M. (2000). Statistics with confidence. London:
SAGE Publications.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Capítulo 8

Estatística Inferencial

Em muitos dos trabalhos de investigação empírica levados a


cabo em CSH, utiliza-se um grupo que é estudado – a amostra
– e procura-se generalizar ou inferir os resultados para um
grupo muito mais amplo, a população. A constituição das
amostras é pois tarefa fundamental para o sucesso das
inferências de uma investigação, porque o investigador não
recolhe dados de toda uma população, mas apenas de uma
amostra que, necessariamente, terá de a representar, pois, caso
o não faça, os resultados do estudo poderão ser inconclusivos
(Black, 1999).
Para inferir da amostra para a população há que utilizar
outro tipo de estatísticos que nos permitam extrapolar os
resultados a outras situações ou seja, generalizar: a estatística
inferencial (Glass & Hopkins, 1996). Compreender a
estatística inferencial implica entender alguns conceitos de
base que, nas palavras de Moore (1983), a “suportam” do
ponto de vista teórico:
• Curva normal e números z;
• Probabilidade e nível de significância;
• Erros tipo I e II.
8.1 Curva Normal
Quando se traçam histogramas e polígonos de frequências da
distribuição de variadíssimas variáveis físicas e psicológicas,
verificou-se que, muito frequentemente, a forma das
representações gráficas obtidas se assemelhavam à de um sino:
em torna da média agrupavam-se a maioria das ocorrências,
diminuindo estas à medida que nos afastávamos do centro da
distribuição, como nos mostra a Figura 28.
FIGURA 28 – Curva normal ou de Gauss

Distribuições que apresentam esta forma típica, tão vulgar


(pelo menos teoricamente) nas variáveis da investigação
social, são chamadas de distribuição normal, curva normal ou
ainda curva de Gauss13, nome do matemático que estudou o
seu modelo teórico14. Trata-se de uma curva simétrica, em
forma de sino, em que o ponto central é a média X, e as
restantes áreas se “medem” em termos de número de “desvios
padrão” de afastamento da média (são estas propriedades
matemáticas que a tornam tão útil para a interpretação de
muitos dos testes estatísticos utilizados na investigação social)
(Ary et al., 1989; Charles, 1988; Fielding & Gilbert, 2000).
É fácil depreender que não há uma única distribuição
normal mas muitas – como a Figura 29 (adaptada de Wiersma
1995, p. 342) ilustra – dependendo dos valores da média e do
desvio padrão de cada distribuição, embora todas tenham em
comum: a forma de sino, o serem simétricas, contínuas (a
variável pode assumir um número infinito de valores) e
assimptóticas (as duas caudas nunca tocam o eixo dos x
porque há sempre a probabilidade de que mais valores
extremos possam ocorrer) (Fielding & Gilbert, 2000).
FIGURA 29 – Exemplos de curvas normais ou de Gauss

A existência de tantas curvas normais (uma para cada


distribuição) tornava difícil a comparação entre valores de
distribuições diferentes o que levou à conceção de uma curva
normal standard, que pudesse servir de referência teórica a
todas as outras curvas normais, facto que se revelou de grande
utilidade. A curva normal standard tem as seguintes
caraterísticas: a sua média é zero, o desvio padrão é 1, e
divide-se em intervalos iguais de unidades de desvio padrão
em relação à média (ver Figura 30): entre cada dois intervalos
uma dada percentagem de observações/pontuações vai ocorrer.

FIGURA 30 – Curva normal standard

A média de uma curva normal é o ponto abaixo e acima do


qual caem exatamente 50% dos casos, concentrando-se a
maioria das ocorrências perto da média e diminuindo a
frequência à medida que nos afastamos dela. Como a Figura
30 ilustra, cerca de 34% dos casos localiza-se entre a média e
± 1 unidades de desvio padrão; a área compreendida entre ±1 e
± 2 unidades de desvio padrão contém cerca de 14% dos casos
e apenas cerca de 2% para além de ± 3 unidades de desvio
padrão (Ary et al., 1989)
Sempre que a distribuição dos dados recolhidos numa
investigação se assemelha a uma curva normal, podemos
desde logo inferir estimativas muito úteis a partir das
propriedades teóricas da curva normal standard.
Mas não fica por aqui a importância da curva normal
standard, (doravante apenas curva normal) para a investigação
em CSH. De facto a aplicação da grande maioria dos testes
estatísticos para testar hipóteses exige, que a distribuição das
medições na variável dependente (scores, pontuações ou
resultados) seja normal, condição sine qua non para a sua
correta utilização. E não só. Sempre que aplico um qualquer
instrumento objetivo de medida (teste, prova) os resultados
brutos obtidos, só por si, têm pouco sentido. Para os podermos
apreciar precisamos de critérios ou normas que possibilitem
dar sentido à informação recolhida (Almeida & Freire, 1997).
A curva normal, baseada nos valores da média e do desvio
padrão, vai funcionar como norma, obrigando a que todas as
distribuições sejam convertidas aos seus padrões. Só assim
será possível a comparação de grupos que seria impensável
sem existir este referencial teórico comum que é a curva
normal.
8.2 Números Z
A conversão à curva normal, processa-se pela estandardização
dos valores que tenho, ou seja, pela transformação das
pontuações/scores/classificações obtidos na aplicação da
minha prova ou teste em valores padronizados, os
denominados números z: neste processo, o desvio padrão
funciona como a nossa unidade de medida, e o número z não é
mais do que o número de desvios padrão que uma dada uma
das pontuações concretas da minha distribuição se desvia da
média (Ary et al., 1989; Black, 1999; Fielding & Gilbert,
2000; Vogt, 1999; Wiersma, 1995)15.
Assim sendo, os números z podem tomar valores positivos
e negativos, distribuindo-se ao longo de uma curva normal
para um e outro lado do valor da média, conforme ilustra a
Figura 31, abaixo representada: uma pontuação igual à média
terá um valor z igual a zero, e situa-se no centro (Fielding &
Gilbert, 2000; Wiersma, 1995).

FIGURA 31 – Distribuição dos números z na curva normal standard

8.2.1 Como obter os números z


A fórmula para calcular os números z é a seguinte:

Suponhamos que se utiliza um protótipo experimental que


é avaliado em duas variáveis dependentes “aproveitamento em
Matemática” e “aproveitamento em Ciências”. Um sujeito que
obtém 78% no teste de Matemática e 92% em Ciências em
qual das disciplinas teve melhor aproveitamento? O valor
absoluto das pontuações não é suficiente para contrastar
resultados, porque os testes podem ter usado escalas
diferentes, número de itens ou grau de dificuldade também
diverso.
Para comparar os dois scores neste caso há que os
padronizar, convertendo-os aos valores standard ou seja, aos
números z (Fielding & Gilbert, 2000; Wiersma, 1995).
Suponhamos que as médias e desvios padrões das duas
distribuições são os seguintes:
Convertendo as notas obtidas 78 e 92 respetivamente para
valores z, obtemos:

Estes são os dois valores standard z, para um sujeito


individual. É fácil verificar que a posição relativa da nota de
Matemática com um valor z = +.50 é muito melhor que a do
teste de Ciências com um valor de z = - .33, apesar das notas
iniciais parecerem dizer o contrário.
O exemplo mostra como os valores z podem tomar valores
positivos e negativos, distribuindo-se na curva normal para um
e outro lado do valor da média, conforme ilustra a Figura 31,
atrás representada. Como é evidente um score igual à média
terá um valor z igual a zero, e situa-se no centro (Fielding &
Gilbert, 2000; Wiersma, 1995)16.
O desvio padrão é a nossa unidade de medida, e o número z
não é mais do que o número de desvios padrões com que um
dado score/pontuação se desvia da média (Wiersma, 1995).
8.2.2 Vantagens dos números z
Como cada pontuação original tem um correspondente número
z, a distribuição dos números z é um “espelho” da distribuição
original com as seguintes vantagens (Black, 1999; Fielding &
Gilbert, 2000; Moore, 1983; Wiersma, 1995):
a) A forma da distribuição dos números padronizados z é
idêntica à original;
b) A média da distribuição é sempre igual a zero, qualquer
que seja a média da distribuição original;
c) A variância da distribuição é sempre 1, pelo que o
desvio padrão é sempre também 1, independentemente dos
valores que possa ter na distribuição original.
Ou seja, estamos agora em condições de comparar valores
de distribuições diferentes, porque todos os valores estão
convertidos numa mesma unidade de medida que são os
números z. De facto, conhecido o valor do número z, sabemos
logo qual a sua localização na curva normal, ou o que é o
mesmo, qual é a sua percentagem ou probabilidade de
ocorrência, ou seja, o percentil em que se situa, bastando para
tal que se consulte uma qualquer tabela de valores z17 em
qualquer manual de estatística.
8.3 Inferência Estatística
Como vimos anteriormente, o investigador desenha o seu
plano por forma a poder testar o efeito de uma variável
independente, ou tratamento, sobre uma variável dependente
que deverá variar por influência da primeira. Para isso
organiza dois (ou mais) grupos que devem ser iguais
(aleatórios), expõe um e outro não à influência do tratamento
experimental (ou variável independente) e, no final, compara
os grupos para averiguar se há (ou não) diferenças entre os
valores observados. É neste preciso momento que vai precisar
de testes estatísticos.
Para Black (1999) nenhum teste estatístico pode provar que
uma variável provocou uma mudança noutra variável, mas
pode dizer se a diferença entre as médias das pontuações
obtidas por cada um dos grupos, é (ou não) fruto da ação do
mero acaso. Se o teste disser que a diferença observada não é
fruto do mero acaso, o investigador poderá concluir que essa
diferença é fruto da manipulação que operou na variável
independente.
É por este motivo que, desvendar relações entre variáveis,
implica sempre comparar grupos, e toda a comparação exige
que se conheça a forma da distribuição bem como a média dos
grupos. Para termos todos os ingredientes necessários à
compreensão desta matéria apenas nos falta apresentar a curva
normal de distribuição de amostragem.
Vimos atrás como os traços individuais de um grupo
variam em volta da média para formar uma distribuição
normal; se em vez dos valores individuais, passarmos a tratar
com as médias das amostras (ou grupos), verificamos que
também elas variam em torno de um valor central formando
uma curva normal.
A essa curva, também ela normal, a que corresponde a
distribuição das médias de muitas amostras de uma mesma
população é designada na literatura por curva normal de
distribuição de amostragem18 e é com base nela que se
processa toda a lógica de raciocínio da estatística inferencial
(Wiersma, 1995):
a) Temos uma população e queremos tomar decisões
acerca de parâmetros19dessa população;
b) Selecionamos uma amostra aleatória da população e
recolhemos “dados” da amostra;
c) Os dados recolhidos refletem parâmetros da população,
mas também flutuações da amostragem (erro amostral);
d) Confrontamos os dados que temos com os valores
teóricos “ideais” representados na curva normal de
distribuição de amostragem.
A Figura 32, abaixo representada, esquematiza esta lógica
que sempre ocorre quando o investigador utiliza a estatística
inferencial e que vai permitir que extrapole dos resultados da
amostra para a população, ou seja, a possibilidade de
generalizar conclusões (Black, 1999):
FIGURA 32 – Inferência estatística

8.4 Teste de Hipóteses


Quando o investigador confronta os valores da sua amostra
com os valores “teóricos” da curva normal, diz-se, na gíria da
investigação, que procede a um “teste de hipóteses” (Black,
1999).
Como referimos atrás, uma hipótese é uma conjetura que o
investigador faz “… acerca do que pensa serão os resultados
do processo da sua investigação (…) tendo em conta a teoria,
pesquisa anterior ou experiência pessoal” (Moore, 1983, p.
62); mais complicado é explicar a função desempenhada pelo
que, na literatura, se costuma designar por hipótese nula,
questão crucial em planos quantitativos de tipo experimental,
ou seja, planos em que se testam relações causais entre
variáveis e, nos quais, o investigador pretende generalizar
(inferir) para a população no seu todo a partir dos resultados
obtidos numa amostra representativa da mesma (Black, 1993).
Na prática, o que faz cada investigador na sua investigação
particular é pôr à prova aspetos de uma teoria em diferentes
grupos e contextos, testando os limites da sua aplicabilidade
(Black, 1999). As hipóteses, tal como as descrevemos acima,
expressam uma antecipação de resultados de acordo com uma
dada teoria, ou melhor, as consequências esperadas da
aplicação de princípios da teoria a uma situação, formulados
em termos mais específicos do que os da questão geral em
estudo.
Formulada a hipótese, o investigador tem de a testar ou pôr
à prova. A testagem passa pela aplicação de testes estatísticos
inferenciais, assim chamados por informarem o investigador
da probabilidade de poder (ou não) inferir (extrapolar) dos
resultados obtidos na sua amostra para a população de onde a
amostra foi extraída (Black, 1993; Stern & Kalof, 1996).
Imaginemos que o investigador formula uma hipótese
relativamente a uma relação entre duas variáveis, constituindo
para o efeito dois (ou mais) grupos representativos nessas
variáveis (p. ex., dois métodos de ensino diferentes). Para
confirmar a sua hipótese vai confrontá-la com todas as outras
hipóteses possíveis (as hipóteses alternativas) recorrendo para
o efeito a testes estatísticos inferenciais que lhe vão fornecer
informações no referente a: há (ou não) diferenças entre os
grupos? São essas diferenças significativas, ou seja,
suficientemente grandes para não serem fruto apenas do
acaso?
Sem informar diretamente o investigador da causa das
diferenças observadas entre os grupos, o teste estatístico diz-
lhe se há (ou não) diferenças significativas entre os grupos,
possibilitando ao investigador a rejeição de todas as hipóteses
alternativas à sua hipótese, e, indiretamente, dando
credibilidade aquela que defende. É neste processo que a
hipótese experimental vai ganhando força (tanto maior quanto
mais hipóteses alternativas rejeitar como falsas) embora nunca
possa ser confirmada como verdadeira, porque, então, deixaria
de ser uma hipótese (Campbell & Stanley, 1963).
A forma de operacionalizar as hipóteses alternativas resulta
na formulação negativa de uma antecipação de que não vai
haver diferenças significativas nos resultados, ou seja, na
formulação daquilo a que se chama uma hipótese nula.
Rejeitar uma hipótese nula significa que não há evidência que
suporte a conjetura de “não relação entre as variáveis”, pelo
que o investigador poderá presumir de que há mesmo uma
relação entre elas, ou seja aceitar uma hipótese alternativa,
representada por H1 (Black, 1993): só quando a hipótese Ho é
rejeitada, é que a hipótese alternativa pode ser aceite seja num
determinado sentido ou direcionalmente (H1 “maior” ou
“menor” que H0), ou sem direção definida (apenas “diferente
de”)20.
8.5 Probabilidade e Nível de Significância
8.5.1 Noção de probabilidade
A noção de probabilidade faz parte do nosso quotidiano, todos
sabemos que há acontecimentos mais ou menos prováveis de
acontecerem, e em alguns casos, podemos mesmo determinar
com precisão a probabilidade da sua ocorrência. O exemplo
clássico é o jogo da roleta, onde podemos determinar com
exatidão as hipóteses de o jogador ganhar, uma vez que todas
as variáveis estranhas são controladas e só o acaso dita os
resultados. Os prémios dos nossos seguros do carro, da casa,
do cão, são calculados com base em previsões de
probabilidade determinada pela experiência passada mais uma
certa margem de lucro (Black, 1999).
A estatística aborda a noção de probabilidade desde uma
dupla perspetiva. A abordagem clássica, ou a priori no sentido
de anterior ao evento, deve-se a Laplace e considera a
probabilidade de um facto ocorrer como a razão entre o
número de vezes que pode ocorrer e o número de casos
possíveis:
Em termos numéricos, a probabilidade varia entre 0.00 (o
esperado não acontece nunca, o inesperado ocorre sempre) a
1.00 (o esperado é certo ocorrer o inesperado nunca). De
forma alternativa podemos considerar a abordagem a
posteriori baseada na suposição de que já recolhemos dados da
experiência passada, o que na equação anterior equivale a
considerar o esperado como já ocorrido, ou seja, como uma
frequência observada. É este tipo de probabilidade que se usa
para fazer previsões com acontece no exemplo das
seguradoras: que probabilidade temos de viver até aos 65
anos? Porque não se fazem seguros de saúde depois dos 65
anos?
A ligação da noção de probabilidade à curva normal e à
estatística inferencial (que é o nosso objetivo) fica mais fácil e
clara com o recurso a um exemplo. Imaginemos que atiramos
ao ar um único dado. Trata-se de um cubo com seis faces
iguais pelo que a probabilidade de ocorrer uma qualquer face é
sempre igual a 16,67% qualquer que seja a face, e desde que o
dado não esteja viciado será:

Em termos gráficos, a representação destas probabilidades


resulta em algo como o representado na Figura 33.

FIGURA 33 – Gráfico de probabilidades de ocorrência de uma face de um dado

Como a probabilidade de cada face aparecer é igual, 1/6, o


gráfico de barras mostra seis barras de igual altura, em que o
símbolo (número) de cada face do dado funciona como uma
variável nominal ou categórica, já que poderiam ser
representados igualmente por letras A, B, etc. Mas a verdade é
que em cada face do dado o símbolo representado tem com um
valor numérico quantitativo, e, se o tivermos em conta, a
análise pode assumir outra dimensão. Para exemplificar, em
vez de um, utilizemos dois dados que são atirados ao ar ao
mesmo tempo, somando-se os valores obtidas no par de faces:
os resultados são somas que oscilam entre 2 e 1221. O Quadro
34 que segue, resume os valores esperados e a probabilidade
de ocorrência de cada uma das somas:

QUADRO 34 – Distribuição de probabilidades das somas das faces de dois dados

A distribuição poderia ser representada tal como surge no


gráfico da Figura 34:

FIGURA 34 – Probabilidades das somas das faces no lançamento de dois dados

Se em vez de dois dados lançássemos 3 e


contabilizássemos as somas obtidas obteríamos um gráfico de
probabilidades como o apresentado na Figura 35.
FIGURA 35 – Probabilidades das somas das faces no lançamento de três dados

Representemos esta última distribuição num polígono de


frequências, e vejamos o resultado que o gráfico da Figura 36
ilustra: quererá isto dizer que o lançamento de dados pode
gerar uma distribuição normal? Claro que sim, e se esse facto
não parecia muito óbvio no caso dos dois dados que geravam
apenas 9 intervalos, começava a vislumbrar-se com os três
dados e 16 intervalos, mais ainda com quatro dados e 21
intervalos, e assim sucessivamente aproximando-se a
distribuição das probabilidades cada vez mais da curva normal
gaussiana.

FIGURA 36 – Polígono de frequências da probabilidade das somas no lançamento


de três dados

Poderíamos continuar a exemplificar com muitas outras


variáveis contínuas físicas (a altura), ou psicológicas (a
inteligência), e obteríamos resultados semelhantes aos
verificados com a variável discreta que acabámos de
exemplificar, ou seja, que se distribuíam normalmente.
Poderíamos também constatar que a forma da distribuição se
aproximava tanto mais da curva normal gaussiana, quanto
maior fosse o número de observações obtidas: com poucos
casos, podemos não vislumbrar a forma de sino típica, mas à
medida que aumentam as observações/ocorrências, mais a
forma da distribuição se aproxima da curva normal. Começa
agora a entender-se porque razão é tão importante o número de
sujeitos de uma amostra e a exigência de “números mínimos”
de sujeitos quando pretendemos utilizar determinados testes
estatísticos (Black, 1999; Siegel & Castellon, 1988).
Fica também mais clara a interdependência que há entre os
requisitos da amostra, o tipo de dados e a escolha do teste, e o
que as probabilidades têm a ver com tudo isto: a curva normal
de distribuição de amostragem é uma distribuição de
probabilidades, o nível de significância, que passamos a
descrever de seguida é também ele um nível de probabilidade.
8.5.2 Nível de significância
À probabilidade que o investigador estabelece como limiar
para a aceitação/rejeição das hipóteses é o que em linguagem
estatística se chama nível de significância (Wiersma, 1995, p.
366), e se representa pelo símbolo α (nível alpha).
De facto, admitindo que uma distribuição é normal, as
médias de distribuições que vão para os extremos da curva são
altamente improváveis de acontecerem. Assim os
investigadores em Ciências Sociais e em Educação, aceitam
que acontecimentos que ocorram menos do que 5% das vezes
são improváveis de acontecer apenas fruto do acaso22. Se não
são fruto do acaso são resultado de “algo mais”: têm
significância estatística, dizem então.
Estabelecer um nível de significância de 0.05 ou 5% para
aceitar/rejeitar uma hipótese, significa que o investigador
apenas admite a probabilidade de menos de 5% dos valores
que dispõe serem fruto do acaso e não da influência da
variável experimental. É a probabilidade que o investigador
utiliza como o limiar para aceitar ou rejeitar a sua hipótese
nula; trata-se, pois, de um critério que determina sempre uma
tomada de decisão (Wiersma, 1995).
Em Educação, os níveis de significância α (alpha) mais
usados são 0,05 e 0.01 (em percentagem 5% e 1%
respetivamente), dependendo da natureza do problema de
investigação. Para Moore (1983), compreender o conceito de
nível de significância e a forma de o usar corretamente é talvez
o aspeto mais importante a considerar quando se tratam os
dados de uma investigação.
De facto, qualquer que seja a análise estatística que
utilizarmos, obtemos sempre um valor final (um único
número!), que se vai traduzir numa decisão fundamental por
parte do investigador: rejeitar ou aceitar a hipótese nula.
Quando estabelecemos, por exemplo, um nível de
significância de menos de 0,05 o que fazemos de facto?
Estabelecemos haver uma probabilidade de erro igual ou
inferior a 5% (p=0.05 ou p<0.05), ou seja, a probabilidade dos
meus valores serem fruto do acaso é menor que 5 vezes em
100. Dito ainda de outra forma: se repetíssemos o estudo 100
vezes, obteríamos as mesmas diferenças que as agora
observadas nos grupos em 95 das vezes23. Apenas em 5 (ou
menos) das vezes (p<0.05), essas diferenças não ocorreriam
fruto do acaso.
A lógica é a mesma para outros níveis de significância: se o
estabelecermos em p<0,001 (menos de 1%), é porque o
investigador decidiu aceitar um nível de erro menor. Ou seja,
p<0,001, significa que apenas em 1 caso em 100 admite a
probabilidade de errar a decisão acerca da hipótese nula a
testar, ou seja, repetindo o estudo 100 vezes em 99 das vezes
as diferenças encontradas entre as variáveis seriam as mesmas
(no entanto o investigador admite ainda 1 hipótese em 100 de
cometer erro).
Por mais que se aumente o nível de significância (e há
estudos em que se estipula um valor de alpha p<.0001, ou seja
menos de 1 caso em 10 000!), há sempre uma probabilidade
(por mais mínima que seja) de se tomar uma decisão errada no
teste da hipótese: há que estar sempre bem consciente disso.
Em termos gráficos o nível de significância pode ser
visualizado na curva normal delimitando a zona de rejeição da
hipótese: os 5% divididos entre os dois topos da curva normal,
com 2,5% para cada lado (há ocasiões em que os 5% ocorrem
apenas numa das caudas, mas é um caso particular a que nos
referiremos mais adiante), como a Figura 37, adaptada de
Black (1999, p. 360) ilustra: consultando a tabela da curva
normal, o topo superior 2,5% equivale a um valor de z=1.96
desvios padrão igual ou superior à média, e idem para o topo
inferior.

FIGURA 37 – Distribuição normal de amostragem para um nível de significância


de 5%

A curva normal (de distribuição de amostragem) fica assim


dividida em duas zonas, a de aceitação e rejeição de Ho como
a Figura 8.10 ilustra: valores que ocorram na zona central dos
95% resultam na rejeição de Ho (e aceitação de H1) mas se
caiem na zona dos 5% (2,5% para cada uma das caudas da
curva) corresponde à zona de aceitação de Ho (e consequente
rejeição de H1).
Mas pode acontecer que, como vimos anteriormente, ao
comparar grupos se queira dar um sentido definido às
diferenças encontradas, que se expressa numa direccionalidade
na hipótese alternativa H1: por exemplo que a média do grupo
A seja maior do que a do grupo B. Neste caso, tal como a
Figura 38 ilustra, os 5% do nível de significância não se
repartem pelos dois extremos da curva como no caso da
hipótese alternativa de sentido ou contraste bilateral ou
bicaudal, mas por uma só das caudas, originando um teste de
contraste unilateral ou unicaudal (Almeida & Freire, 1997).

FIGURA 38 – Nível de significância num contraste uni e bilateral

É por esta razão que testamos hipóteses recorrendo a testes


unicaudais (one-tail) ou bicaudais (two-tailed): tudo depende
da forma como formulamos as hipóteses nula e alternativa,
embora esta opção seja sempre questão delicada como já
referimos.
8.6 Erros Tipo I e II
Como vimos, costuma-se chamar nula a hipótese, e representa-
se por Ho, que é provisoriamente aceite como verdadeira e que
é submetida a comprovação experimental. Em vista dos
resultados experimentais ou continuaremos a aceitá-la como
verdadeira ou então rejeitamo-la. Também vimos que Ho vai
sempre acompanhada por uma outra hipótese, a alternativa,
que se costuma designar por H1.
Se, no decurso da análise estatística, uma hipótese
verdadeira é aceite e uma falsa é rejeitada, o investigador toma
a decisão certa e não comete erros. As inversas são os erros
tipo I e II (ou α e β) que podem ocorrer aquando da tomada de
decisão acerca de aceitar/rejeitar Ho.
O primeiro, erro tipo I ou α (alpha), envolve a rejeição de
Ho, quando, de facto, ela é verdadeira (Moore, 1983; Siegel &
Castellon, 1988). Essa probabilidade iguala o nível de
significância α (nível alpha) estipulado pelo investigador no
início da investigação e que pode ocorrer, como vimos atrás,
devido a flutuações ou erros amostrais. De facto, quando o
investigador decide contrastar uma hipótese e fixa um nível de
significância, por exemplo de menos de 5%, afirma que
considerará como estatisticamente significativa toda a
diferença que se deva ao acaso em 5% das vezes ou menos.
Mas ao fazer a afirmação de que uma diferença é “real” fá-lo
sabendo que há sempre uma probabilidade de 5% de que essa
diferença se deva ao acaso. Este erro concreto – o qualificar
uma diferença como “real” quando na prática se deve ao acaso
– chama-se erro de tipo I ou de tipo α e a sua probabilidade é a
mesma que o nível de significância.
Falta o erro tipo II ou β (beta): uma hipótese falsa não ser
rejeitada, ou seja, aceitarmos a hipótese nula havendo, de
facto, diferenças. As implicações de cometer um erro tipo II,
são algo deste estilo: «Devia ter concluído que existiam
diferenças mas não o fiz; aceitei a hipótese de não diferença
(nula) quando a devia ter rejeitado» (Moore, 1983, p. 272). A
situação alternativa a esta, aceitar corretamente a hipótese
nula Ho é igual a 1 – β e na literatura designa-se por poder
estatístico do estudo (power) (Black, 1999).
O Quadro 35 revela as quatro possíveis decisões do
investigador num teste de hipóteses: duas corretas e os erros
tipo I e II.

QUADRO 35 – Decisões possíveis do investigador num teste de hipóteses

Existe uma relação de reciprocidade entre os dois tipos de


erros apontados, na medida em que reduzir um aumenta o
outro e vice-versa. Suponhamos que Ho é verdadeira. A
margem de erro será tanto maior quanto menor for o nível de
significânciaα estipulado para recusar Ho. Mas, diminuir o
erro α, aumenta a hipótese de se incorrer no erro tipo II ou β,
ou seja aceitarmos Ho quando ela é falsa (Almeida & Freire,
1997).
Que fazer então para controlar erros, sobretudo os de tipo
II, que nem sequer podemos manipular, como acontece com o
nível α? É uma questão subtil, à qual não é feita sequer
referência na maioria das investigações que conhecemos, mas
que preocupa cada vez mais os diversos autores consultados:
encontrar formas de diminuir β sem aumentar α, única forma
de aumentar o poder (ou power) da investigação (em termos
matemáticos o cálculo do “power” (em termos matemáticos o
cálculo do “power” β), é hoje o cerne da questão se queremos
aumentar a qualidade da investigação quantitativa
desenvolvida em Ciências Sociais e Humanas e também em
Educação (Black, 1999; Cohen, 1988; Hinton, 1995; Wiersma,
1995)24.
Consegui-lo, contudo, é, na opinião que partilhamos de
Black (1999), tarefa delicada que exige atenção redobrada nos
quatro momentos da planificação de uma investigação: seleção
da amostra, construção do instrumento de medida, escolha do
teste estatístico e do tratamento experimental. Idêntica a
opinião de Meltzoff (1998, p. 62) quando refere que, ao
planear o seu estudo, “o investigador prudente estabelece à
partida um nível de significância, antecipa qual será o efeito
experimental desejado e o teste estatístico que vai usar.
Munido dessa informação, calcula antecipadamente qual será
o tamanho que deve ter a sua amostra”. (Meltzoff, 1998, p.
62).
O Quadro 36, adaptado de (Black, 1999, p. 393), sintetiza
as fases de uma investigação às quais o investigador deve
prestar especial atenção se pretender aumentar o “poder” do
seu estudo.
QUADRO 36 – Como aumentar o poder de uma investigação

8.7 Testes Uni ou Bilaterais (Uni ou Bicaudais)?


Até aqui apenas considerámos a situação em que se utilizavam
testes bilateriais, ou seja, estudos em que se afirma duas
hipóteses Ho (não diferença) e H1 (diferença), sem antecipar
uma direção para a diferença de médias.
Mas podem acontece situações em que o investigador,
apoiado em factos anteriores ou em teorias sólidas, possa à
partida antecipar resultados, imprimindo uma direção a H1.
Nesse caso, como já referido anteriormente, deverá optar por
um teste com contraste unilateral (Black, 1999; Hinton, 1995).
A opção por um teste unilateral (ou unicaudal) é, e
continuará a ser uma questão polémica em investigação
socioeducativa, mas num aspeto todos os autores estão de
acordo: tal opção deve ser sempre feita (tal como a escolha
deα) numa fase anterior à análise estatística, e nunca depois.
Vejamos porquê: estabelecer um nível de significância de
p<0.05 com contraste unilateral, equivale, na prática, a
estipular um nível de significância de 204 p<0,1, ou seja, um
teste unicaudal a 5% é equivalente a um teste bilateral a 10%.
Tal facto, considera Black (1999),

pode levar a que surja a tentação de se aplicar um teste


unicaudal quando não se verifica significância no teste
bilateral porque a diferença é demasiado pequena (…) só
devemos considerar válidos os testes se Ho for expressa
antes da análise dos resultados (…) senão está a fazer-se
batota. (p. 396)
A Figura abaixo representada, adaptada de Smithson (2000,
p. 156), ilustra de forma gráfica a realidade anterior, ou seja, a
diferença de entre as margens de confiança num contraste uni
e bilateral: como se pode verificar, há um espaço debaixo da
curva a que correspondem valores da minha distribuição que
seriam rejeitados como não sendo significativos se optássemos
pelo contraste bilateral, mas aceites no caso do contrate ser
unilateral (zona assinalada pela seta a vermelho na Figura 39).

FIGURA 39 – Diferenças nas margens de confiança num contraste uni e bilateral

Assim sendo, ao optar por utilizar um teste com contraste


unilateral (ou unicaudal), o investigador deve sempre em
mente que:
• o teste adotado nunca detetará diferenças significativas
noutra direção além da antecipada, pelo que lhe passarão
inadvertidas outras que não aquelas;
• o tipo de teste estatístico é diferente, mas sempre menos
conservador ou seja, menos exigente;
• vai aumentar a probabilidade de se incorrer em erro tipo
I, porque o valor crítico de α aproxima-se da média,
diminuindo e aumentando 1-β.
Posto tudo isto, quando devemos optar por um teste
unilateral? Sempre que a diferença só faça sentido numa
direção única, como acontece com muitas situações
socioeducativas em que um grupo é treinado numa dada
destreza e não faz sentido pensar que possa haver regressão;
ou então o caso de estudos comparativos em que a direção
definida faça parte da hipótese, baseada ela mesma em
evidências de estudos anteriores (Black, 1999; Hinton, 1995).
Pelo contrário não se deve escolher um teste unilateral sempre
que se testa uma teoria nova ou outras ainda empiricamente
débeis, onde é mais importante “descobrir” do que “impor”
direção a uma relação ou diferença (Black, 1999).
8.8 Análise Paramétrica e Não Paramétrica
Antes de avançar na escolha dos vários testes estatísticos que
existem à disposição do investigador, parece-nos importante
parar e recapitular a lógica da estatística inferencial para o
teste de hipóteses na investigação socioeducativa, cujo
esquema foi apresentado na página:
a) Temos uma população e queremos tomar decisões
acerca de parâmetros dessa população;
b) Selecionamos uma amostra aleatória da população e
recolhemos “dados” da amostra;
c) Os dados recolhidos refletem parâmetros da população,
mas também flutuações da amostragem (erro amostral);
d) Confrontamos os dados que temos com os valores
teóricos “ideais” representados na curva normal de
distribuição de amostragem (doravante apenas curva
normal).
É esta a lógica da estatística inferencial que vimos
analisando até aqui e que vai permitir que se extrapolem dos
resultados da amostra para a população, ou seja, a
possibilidade de generalizarem conclusões (Black, 1999).
A estatística inferencial processa-se pela utilização de
técnicas estatísticas que podem ser paramétricas ou não
paramétricas (Moore, 1983; Siegel & Castellon, 1988;
Wiersma, 1995).
A opção por uma ou por outra, tem a ver com as condições
que exigem para uma correta utilização dos respetivos testes.
No primeiro caso, análise paramétrica, são exigidas condições
– parâmetros – muito restritos, razão que justifica a respetiva
designação:
1. A escala de medida da variável cujos dados vamos
analisar tem de ser, no mínimo, intervalar;
2. Normalidade, ou seja a distribuição dos dados obtidos
aproxima-se da distribuição normal;
3. Homogeneidade de variâncias;
4. Independência de observações.
Passemos então a analisar estas condições básicas que
devem fundamentar a nossa decisão por uma análise
paramétrica ou não paramétrica.
8.8.1 Tipo de variável
A opção por utilizar estatísticas paramétricas ou não
paramétricas tem a ver com o tipo de variável em análise:
variáveis nominais e ordinais só podem ser analisadas com
métodos não paramétricos, enquanto para variáveis
intervalares podem ser usados testes paramétricos desde que
sejam satisfeitas as condições exigidas por cada teste
específico. A significância estatística dos resultados depende
do cumprimento destas condições.
8.8.2 Normalidade
Uma primeira análise ao leque de
resultados/pontuações/scores obtidos pelos sujeitos (por
exemplo, pela sua representação num gráfico de barras),
seguida da apreciação do valor da média e da sua proximidade
em relação à mediana e à moda (valores que, como vimos se
sobrepõem na curva normal gaussiana), dão-nos logo uma
primeira ideia da normalidade da distribuição (Figura 40,
adaptada de Black, 1999).
FIGURA 40 - Curva de uma distribuição “real” versus “ideal” (curva normal)

Acontece que nem sempre é fácil decidir da normalidade


da distribuição pela simples observação visual da curva real e
ideal. Ou seja, qual deve ser o grau de desvio à normalidade
para eu decidir não utilizar testes paramétricos na minha
análise? Isto equivale a quantificar o desvio, existindo para o
efeito dois coeficientes estatísticos que permitem calcular os
desvios mais frequentes e aferir com mais rigor da
normalidade da distribuição:
• O desvio permite avaliar o afastamento à simetria da
curva normal: uma curva de desvio positivo significa
poucas pontuações altos e muitos baixos e médios,
produzindo o denominado efeito de chão ou floor effect
(Moore, 1983, p. 273). Pelo contrário uma curva de desvio
negativo implica scores muito baixos e o grosso da
amostra ser médio/alto, como acontece quando um teste é
demasiado fácil e muitos alunos tem resultados altos e
poucos baixos, produzindo o efeito de teto ou ceiling effect
(Moore, 1983, p.273). Os pacotes de estatística (caso do
SPSS) permitem calcular um coeficiente de desvio que vai
de zero – curva totalmente simétrica – a valores
positivos/negativos conforme os desvios verificados na
distribuição. A Figura 41 ilustra os dois casos descritos:

FIGURA 41 – Curvas de desvio positivo e negativo


• O segundo desvio chama-se curtose (Kurtosis), e é a
medida do achatamento em relação à curva normal. A
Figura 42 ilustra os três casos possíveis: ao centro a curva
normal, acima dela a curva simétrica estreita e alta
(leptokurtic) e abaixo a curva simétrica e chata
(platokurtic).

FIGURA 42 – Kurtosis (achatamentos)

Os valores do achatamento da curva fornecidos calculados


pelo SPSS variam de zero para a curva normal a valores
positivos para distribuição leptokurtica, e negativos para a
distribuição platokurtica25.
8.8.3 Homogeneidade de variâncias
O pressuposto da homogeneidade de variâncias permite ao
investigador saber se os grupos que vai analisar são (ou não)
homogéneos, ou seja, se não apresentam diferenças
significativas entre eles.
De facto fará algum sentido comparar grupos que, à
partida, são diferentes (ou seja, não são homogéneos)?
Os testes mais usados para este efeito são o F-test (se tenho
apenas 2 grupos em estudo) ou o F-max test (para mais do que
duas variâncias) (Moore, 1983).
Se os valores de F obtidos forem inferiores aos da tabela
respetiva (se usarmos o computador o valor de p<.05),
poderemos concluir que os grupos são homogéneos ou
semelhantes e que podemos prosseguir com o nosso estudo.
8.8.4 Independência de observações
O pressuposto da independência atinge-se se as pontuações
(observações) de um sujeito forem independentes de todos os
outros do grupo, ou seja, cada sujeito atua sem ser
influenciado pelos outros (como pode acontecer se os alunos
copiarem num teste).
Sempre que um plano de investigação não garanta à partida
o pressuposto da independência das observações, convém
proceder a uma verificação. Do ponto de vista estatístico, o
que se faz é verificar se os scores não estão relacionados,
emparelhados ou correlacionados (Moore, 1983, p. 277).
Quando as variáveis são de escala intervalar, esta
verificação processa-se através da aplicação do t test de
Student para grupos independentes (unpaired t test). No caso
de planos em que os mesmos sujeitos são medidos duas vezes
(caso do pré-pós-teste) aconselha-se a utilização do mesmo t
test de Student mas desta feita para grupos emparelhados
(paired t-test).
Quando as variáveis são nominais ou ordinais esta
verificação opera-se pela aplicação da prova qui quadrado de
independência (Siegel & Castellon, 1988).
8.8.5 Que decidir: análise paramétrica ou não-
paramétrica?
De uma maneira geral sempre que algum dos pressupostos
anteriores não se verifica, a opção por testes não paramétricos
não é uma recomendação mas antes uma exigência. É
frequente notar-se uma certa relutância por parte dos
investigadores relativamente à utilização de testes não
paramétricos como se o seu uso pudesse minorar a qualidade
dos resultados obtidos na investigação. Trata-se de uma ideia
errada que justificamos apenas por falta de informação (e
formação…) dos investigadores relativamente à análise não
paramétrica, porque nada prova a «superioridade» de uma
relativamente à outra: cada uma tem o seu contexto de
utilização e «nele» é superior!
Para Gibbons (1993, p. 63), devemos recorrer a
procedimentos não paramétricos sempre que seja verdadeiro
um dos itens, e passamos a referir:
1. Os dados são contagens ou frequências de diferentes
tipos de resultado (variável dependente);
2. A escala de medida da variável é nominal;
3. A escala de medida da variável é ordinal;
4. Os pressupostos requeridos para a validade do
correspondente teste paramétrico não são totalmente
cumpridos;
5. A forma da distribuição da população de onde provém a
amostra é desconhecida;
6. A amostra é pequena;
7. As medições são imprecisas;
8. Existem valores estranhos e/ou extremos nos dados que
nos levam a considerar a mediana mais representativa do
que a média.
As estatísticas não paramétricas, por não fazem tantas
exigências acerca da distribuição dos dados, apenas partem de
um pressuposto único: a sua independência. De facto, e
segundo Siegel e Castellon (1988):
Os testes estatísticos não paramétricos apenas especificam
condições muito gerais e nenhuma sobre a forma da
distribuição de que a amostra provém. Podem quando
muito assumir que as observações sejam independentes,
talvez que a variável em estudo manifeste continuidade,
mas menos pressupostos e exigências que os testes
paramétricos. Também são os únicos que podem ser
aplicados a variáveis de escala ordinal ou categórica
(nominal). (…) São os únicos que permitem tratar
amostras de populações diferentes. (p. 34)
Portanto, insistem, a decisão a tomar é simples: sempre que
todos os pressupostos para a utilização de testes paramétricos
não possa ser satisfeita, devemos optar por testes não
paramétricos que, a) contemplam todas as situações de teste de
hipóteses a que se aplicam os testes paramétricos; b) são mais
fáceis de aprender e interpretar. A única desvantagem que
podem apresentar, concluem, é serem usados quando todos
pressupostos do modelo paramétrico estavam cumpridos e não
os usámos: só então, e apenas neste caso, seriam perfeitamente
“inúteis” (Siegel & Castellon, 1988, p. 36).
Em conclusão: a análise estatística dos dados pode ser
descritiva e/ou inferencial. A análise inferencial processa-se
através da aplicação de testes que podem ser paramétricos e/ou
não paramétricos. No Quadro 37 são apresentados os testes
paramétricos/não paramétricos mais utilizados na
investigação em CSH, com as respetivas condições de
aplicabilidade
QUADRO 37 – Condições de aplicação de testes paramétricos e não-paramétricos

ATIVIDADES
1.Na exploração da influência das TIC na aprendizagem dos
alunos, prevê-se uma relação com significado estatístico entre
o recurso às novas tecnologias na sala de aula e o desempenho
dos alunos. Formule:
(a) Uma hipótese estatística uni-caudal;
(b) Uma hipótese estatística bicaudal;
(c) Diferencie as implicações destas duas formulações ao
nível da recusa/aceitação da Hipótese Nula.
2. Na aplicação de um teste t de Student para comparar a
média de dois grupos (experimental e de controlo) num pós-
teste de avaliação de conhecimentos foram obtidos os
seguintes valores:
Média do grupo experimental = 53,2
Média do grupo de controlo = 51,5
Nº sujeitos: 60
Valor de t = 2,70
Valor de p = 0,035
a) A diferença nas médias dos dois grupos é significativa
para o nível de p < 0,05?
b) O investigador deve aceitar ou rejeitar a hipótese nula?
Justifique a sua resposta.
-
13 Apesar de associarmos a curva normal a Karl Friedrich Gauss (1777-1855), já
anos antes, mais precisamente em 1733, o matemático francês Abraham de Moivre
tinha publicado a sua fórmula. Foi contudo Gauss quem aprofundou o seu estudo e
aplicação aos mais diversos campos científicos (Fielding & Gilbert, 2000, p. 140).
14 A fórmula da curva teórica pode encontrar-se em Ary et al. (1989, p.116).

15 A fórmula para calcular os números z pode encontrar-se em Black (1999, p.


361).
16 Para evitar valores z de zero e negativos, alguns autores aconselham a
transformação da curva normal standard noutra modalidade de distribuições
standard com valores de média e desvio padrão predefinidos, convertendo-se em
seguida os números z para essas distribuições. Uma das convenções usadas é, por
exemplo, uma média de X=50 e um desvio padrão de 10. Obtendo-se os números z
transformados para essa distribuição da seguinte forma:

Score transformado = 50 + 10 z no nosso exemplo zcn = 50 + 10(-.33) =


46.7

Como se vê resultam valores que se localizam em volta da média 50, evitando-se


assim scores de zero e negativos, mas sempre valores padronizados que permitem
uma comparação relativa. Podem ainda encontrar-se outros valores de
transformação de números z (a média de 500 e desvio padrão de 100 aparecem
muitas vezes), ou mais recentemente a curva normal NCE com média de 50 e s=
21.06 (Moore, 1983, p.224).
17 Pode consultar a tabela de números aleatórios em
http://www.des.uem.br/docentes/robson/pdf/tabelas/TNA.pdf.
18 Na curva de distribuição de amostragem, a distribuição das médias das
diferentes amostras tendem a formar uma distribuição normal cuja média é a da
população; esta tendência, conhecida sob a designação de “teorema do limite
central” aplica-se a todas as amostras desde que estas sejam suficientemente
grandes para compensar eventuais erros de amostragem (Mason & Bramble, 1997).
19 Parâmetros são medidas da população, enquanto os dados (scores, pontuações)
são as medidas da amostra: “As inferências são sempre feitas dos dados para os
parâmetros” (Wiersma, 1995, p. 363).
20 A hipótese alternativa pode ser direcional ou não direcional. No segundo caso,
não direcional, o investigador apenas afirma existirem diferenças entre as variáveis
ou grupos sem especificar que tipo de diferença espera encontrar. No primeiro caso,
direcional, o investigador, suportado pela teoria, explicita na formulação da
hipótese a direção específica da diferença que espera encontrar entre as variáveis ou
grupos.
21 As combinações de pares de faces possíveis são as 36 que seguem:

22 Como trabalhamos com amostras e não com a população, estas também podem
sofrer erros de amostragem, flutuações aleatórias; a isso se chama o “acaso”
(Wiersma, 1995, p. 366).
23 Alguns autores designam este valor por «nível de confiança». De facto ao
estipular um nível de significância o investigador delimita o seu nível de confiança
(confidence level), ou seja, a probabilidade das diferenças não serem fruto do
“acaso”. Assim se o nível de significância é 5% (probabilidade de errar) o nível de
confiança será de 95% (probabilidade de não errar, ou seja confiar).
24 Determinar o «poder» da investigação (power) é questão fulcral na investigação
quantitativa que pretende regular-se por padrões de nível crescente de exigência
científica. Em titativa que pretende regular-se por padrões de nível crescente de
exigência científica. Em β); assim se a probabilidade de um erro tipo II é 10%, o
poder será de 90%. Em contraste se β é 70%, o «poder» será de 30%, ou seja o
power depende do nível de significância ∝, do tamanho da amostra e da magnitude
do efeito experimental que o investigador espera obter (Black, 1999; Cohen, 1988;
Hinton, 1995).
25 Também se podem calcular os coeficientes de desvio e achatamento por outros
métodos, caso do qui quadrado, ou do teste de normalidade de Geary (Moore,
1983). A utilização deste tipo de testes numa investigação são reveladoras da
preocupação do investigador com o pressuposto da normalidade da sua distribuição.
REFERÊNCIAS BIBLIOGRÁFICAS
Almeida, L., & Freire, T. (1997). Metodologia da investigação
em Psicologia e Educação. Coimbra: APPORT.
Ary, D., Razavieh, A., & Jacobs, L. (1989). Introduccion a la
investigacion pedagógica. México: MacGraw Hill, S. A.
Black, T. (1993). Evaluating Social Science research: An
introduction. London: SAGE Publications.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Campbell, D., & Stanley, J. (1963). Experimental and quasi
experimental designs. Boston: Houghton Mifflin Company.
Charles, C. M. (1998) Introduction to educational research (3ª
ed.). New York: Longman.
Cohen, J. (1988). Statistical power analysis for the Behavorial
Sciences (2ª ed.). Hillsdale N.J.: Lawrence Erlbaum.
Fielding, J., & Gilbert, N. (2000). Understanding social
statistics. London: SAGE Publications.
Gibbons, J. D. (1993). Nonparametric statistics. Newbury
Park: Sage Publications.
Glass, G., & Hopkins, K. (1996). Statistical methods in
Education and Psychology (3ª ed.). Needham Heights, MA:
Allyn & Bacon.
Hinton, P. (1995). Statistics explained: a guide for Social
Science students. London: Routledge.
Mason, E., & Bramble, W. (1997). Research in Education and
the Behavorial Sciences: concepts and methods. Madison, WI:
Brown & Benchmark.
Meltzoff, J. (1998). Critical thinking about research –
Psychology and related fields. Washington DC: American
Psychology Association.
Moore, G. W. (1983). Developing and evaluating educational
research. New York: HarperCollins Publishers.
Siegel, S., & Castellon, N. J. (1988). Non parametric statistics
for the Behavorial Sciences (2ª ed.). NY: MacGraw-Hill
International Editions.
Smithson, M. (2000). Statistics with confidence. London:
SAGE Publications.
Stern, P., & Kalof, L. (1996). Evaluating Social Science
research (2ª ed.). Oxford: Oxford University Press.
Vogt, W. P. (1999). Dictionary of statistics and methodology: a
nonethical guide for the Social Sciences (2ª ed.). Newbury
Park, CA: SAGE Publications.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Capítulo 9

Análise de Dados em Planos Qualitativos

O caráter indutivo da pesquisa empírica em planos de


investigação qualitativa, leva a que as diferentes fases de
desenvolvimento do projeto da investigação se constituam
como elementos de um contínuo que liga o problema aos
dados (ver Figura 43).

FIGURA 43 – Desenvolvimento de um plano qualitativo (adaptado de Wiersma,


1995, p. 218).

A análise e interpretação de dados nestes planos, torna-se,


por isso mesmo, uma tarefa tão crucial quanto “problemática”
e por dois motivos: em primeiro lugar, porque os dados podem
tomar formas tão diversificadas como relatos ou fotografias,
passando por objetos, desenhos, gravações audio e video, etc.,
etc. Em segundo lugar, porque, enquanto na investigação
quantitativa era fácil distinguir com clareza as duas fases de
recolha por um lado e de análise de dados por outro, tal
distinção é difícil de conseguir na investigação qualitativa uma
vez que ambas as fases se afetam mutuamente e se completam.
Por isso mesmo Myers (1997) prefere não falar em análise de
dados mas em “modos de análise”, entendidos como diferentes
abordagens à recolha e interpretação de dados em estudos
qualitativos.
A caraterística comum a todos esses “modos de análise” é o
facto de incidirem, de uma forma ou de outra, sobre
“palavras”, ou seja tratar-se de análise textual.
9.1 Redução de Dados e Codificação
Pelo seu caráter aberto e flexível, os planos qualitativos
produzem quase sempre uma enorme quantidade de
informação descritiva que necessita de ser organizada e
reduzida (data reduction) por forma a possibilitar a descrição e
interpretação do fenómeno em estudo.
Essa tarefa opera-se através de uma operação designada
codificação (Bravo, 1998; Wiersma, 1995) que vai permitir ao
investigador saber o que “contêm” os dados.
A codificação ocorre na maior parte das vezes numa fase
posterior à recolha dos dados, “as categorias emergem dos
dados” diz (Wiersma, 1995, p. 217), em que o investigador
busca padrões de pensamento ou comportamento, palavras,
frases, ou seja regularidades nos dados que justifiquem uma
categorização.
São muitas as técnicas usadas para desvendar padrões na
informação textual: tomada de anotações detalhadas, indução
analítica, comparação sistemática são apenas alguns dos
processos referidos pelos vários autores consultados (Bogdan
& Bilken, 1994; Miles & Huberman, 1994). Surgem assim os
sistemas de codificação que devem ter duas caraterísticas
básicas: a) captar a informação relevante dos dados a codificar
e, b) recolher informação útil para descrever e compreender o
fenómeno que se estuda. Em suma, e como sintetiza Bravo e
Eisman (1998) a análise qualitativa de dados ou análise de
conteúdo, envolve sempre três dimensões básicas: a teorização
(categorização), seleção (codificação) e análise (redução de
dados).
9.2 Análise de Conteúdo
É um método muito utilizado para a análise de texto, e utiliza-
se na análise de dados de estudos em que os dados tomam a
forma de texto dito ou escrito (Krippendorff, 1980; Marshall
& Rossman, 1989; Schutt, 1999) ou, como refere Bardin
(2011, p. 33) “(…) é um conjunto de uma técnicas de análise
das comunicações.”
É pois um método de análise que pode ser utilizado, com
êxito, em planos quantitativos de tipo inquérito (survey) por
questionário quando as perguntas são de tipo “aberto” e
originam dados textuais dos quais é preciso extrair sentido, e,
claro, sempre que temos de analisar entrevistas ou
depoimentos de tudo o que é escrito em jornais, livros,
websites, e também em imagens de filmes, desenhos, pinturas,
cartazes, etc. (Bardin, 2011).
A análise de conteúdo é pois um conjunto de técnicas que
permitem analisar de forma sistemática um corpo de material
textual, por forma a desvendar e quantificar a ocorrência de
palavras/frases/temas considerados “chave” que possibilitem
uma comparação posterior, ou, tomando as palavras de
Marshall e Rossman (1989, p. 98), “é uma forma de perguntar
um conjunto fixo de questões aos dados de modo a obter
resultados contáveis”. O investigador busca estruturas e
regularidades nos dados e faz inferências com base nessas
regularidades (Krippendorff, 1980; Myers, 1997). A ideia
básica é a de que signos/símbolos/palavras – as unidades de
análise –, podem organizar-se em categorias conceptuais, e
essas categorias podem representar aspetos de uma teoria que
se pretende testar.
É usual considerar dois tipos de análise de conteúdo:
aqueles que fazem intervir categorias pré-definidas
anteriormente à análise própriamente dita, e aqueles que não
as fazem intervir, tendo por isso um caráter puramente
exploratório (Ghiglione & Matalon, 1997). No primeiro caso,
a análise está associada a um quadro teórico que a sustém e ao
qual se refere, e no segundo, “… os resultados são devidos
unicamente à metodologia de análise, estando isenta de
qualquer referência a um quadro teórico préestabelecido”
(Ghiglione & Matalon, 1997, p. 210).
Segundo Bardin (2011), a análise de conteúdo de tipo
exploratório realiza-se em três momentos sucessivos: a pré-
análise, a exploração do material e o tratamento dos resultados
(a inferência e a interpretação).
9.2.1 Pré-análise
Este momento é o de organizar o material, de escolher os
documentos a serem analisados, formular hipóteses ou
questões norteadoras, elaborar indicadores que fundamentem a
interpretação final. No caso de entrevistas, elas deverão ser
previamente transcritas e a sua junção constituirá o corpus da
pesquisa. Na fase de pré-análise deve obedecer-se às seguintes
regras:
• exaustividade – deve-se esgotar a totalidade da
comunicação, não omitir nada;
• representatividade – a amostra deve representar o
universo;
• homogeneidade – os dados devem referir-se ao mesmo
tema, serem obtidos por técnicas iguais e recolhidos por
indivíduos semelhantes;
• exclusividade – um elemento não deve ser classificado
em mais de uma categoria. O primeiro contacto com os
documentos recebe o nome de “leitura flutuante” (Bardin,
1997; Esteves, 2006). É neste momento que surgem as
hipóteses ou questões norteadoras, em função de teorias
conhecidas;
• pertinência – os documentos precisam adaptar-se ao
conteúdo e objetivo da pesquisa.
O primeiro contacto com os documentos recebe o nome de
“leitura flutuante” (Bardin, 2011; Esteves, 2006). É neste
momento que surgem as hipóteses ou questões norteadoras em
função de teorias conhecidas.
Através da leitura flutuante, surgem as primeiras hipóteses
e objetivos do trabalho. Hipótese é uma explicação antecipada
do fenómeno observado, uma afirmação provisória, que nos
propomos verificar. No entanto, nem sempre as hipóteses são
estabelecidas na pré-análise, pois podem surgir, assim como as
questões norteadoras, no decorrer da pesquisa (Bardin, 2011).
Após a leitura flutuante, deve-se escolher índices, que
surgirão das questões norteadoras ou das hipóteses, e organizá-
los em indicadores.
A preparação do material faz-se pela “edição” das
entrevistas transcritas, dos artigos recortados, das questões
anotadas em fichas. A organização do material realiza-se em
colunas, com espaços vazios à esquerda e à direita, para anotar
semelhanças e contrastes, dependendo estes procedimentos
dos interesses do pesquisador e dos objetivos que o levam a
realizar a pesquisa.
9.2.2 Exploração do material
Esta é a etapa mais longa e cansativa. É a realização das
decisões tomadas na pré-análise em que o investigador
organizar os dados brutos e os transforma de acordo com um
quadro teórico que lhe serve de referente. Durante a
codificação os dados brutos são transformados, num processo
sistemático que tem como principal objetivo “atingir uma
representação do conteúdo, ou da sua expressão” (Bardin,
2011, p. 129). Segundo a mesma autora, a codificação
compreende três procedimentos essenciais:
• o recorte que consiste na escolha da unidade de análise;
• a enumeração que consiste na escolha das regras de
contagem das unidades de análise;
• a categorização que consiste na escolha das categorias.
9.2.2.1 Escolha da unidade de análise
As unidades de análise são secções de texto de natureza e
dimensão variáveis, que devem afigurar-se como elementos
detentores de um sentido completo e com pertinência para o
objeto de estudo. Pode apresentar-se sob forma de unidade de
registo, que se define como “a unidade de significação a
codificar ao segmento de conteúdo a considerar como unidade
base, visando a categorização e a contagem frequencial.”
(Bardin, 2011, p. 130).
Geralmente, o critério de definição das unidades de registo
deverá ser semântico (uma unidade com significado específico
e autónomo) e não formal (por exemplo, uma palavra, uma
linha, uma frase ou um parágrafo), embora, tal como referem
Carmo e Ferreira (1998, p. 257), ambas possam fornecer dados
relevantes. Na terminologia da análise de conteúdo importa
referir um outro termo a “unidade de contexto” que refere o
segmento de texto mais lato de onde é retirada a unidade de
registo. Para Bardin (2011), “a unidade de contexto serve de
unidade de compreensão para codificar a unidade de registo e
corresponde ao segmento da mensagem, cujas dimensões
(superiores às da unidade de registo) são ótimas para que se
possa compreender a significação exata da unidade de
registo”. Contudo, tal como advertem Carmo e Ferreira (1998,
p. 257) a análise de “unidades de registo e de contexto longas
levantam dificuldades à sua validade interna”.
9.2.2.2 A enumeração
Segue-se a enumeração, que consiste na contagem das
unidades de registo. A frequência costuma ser a medida mais
utilizada e serve para determinar a maior ou menor relevância
das unidades de registo segundo a sua frequência de aparição.
Para realizar uma enumeração rigorosa, deve ter-se em atenção
algumas questões:
– a presença de elementos pode ser significativa;
– a ausência pode significar bloqueios ou traduzir uma
vontade escondida, como acontece, frequentemente, nos
discursos dos políticos;
– a frequência com que aparece uma unidade de registo
confere-lhe importância. Se consideramos todos os itens de
mesmo valor, a regularidade com que aparece será o que se
considera mais significativo;
– a intensidade será medida através dos tempos verbais
(condicional, futuro, imperativo), dos advérbios de modo,
e dos adjetivos;
– a direção será favorável, desfavorável ou neutra. Os
pólos direcionais podem ser: positivo ou negativo, bonito
ou feio (critério estético), pequeno ou grande (critério de
tamanho);
– a ordem de aparição das unidades de registo. Por
exemplo, se o sujeito A está em primeiro lugar e o sujeito
D em último, pode ter significado importante;
– a concorrência é a presença simultânea de duas ou mais
unidades de registo. Este facto mostra-nos a distribuição
dos elementos e a sua associação.
9.2.2.3 A categorização
A categoria é uma forma geral de conceito, uma forma de
pensamento. São rubricas ou classes que reúnem um grupo de
elementos (unidades de registo) em razão de caraterísticas
comuns.
A categorização permite reunir maior número de
informações à custa de uma esquematização e assim
correlacionar classes de acontecimentos para ordená-los. Para
serem consideradas boas, as categorias devem possuir as
seguintes qualidades (Bardin, 2011; Esteves, 2006):
– exclusão mútua – um elemento não pode ser
classificado em duas ou mais categorias;
– homogeneidade – para definir uma categoria, é preciso
haver só uma dimensão na análise. Se existem diferentes
níveis de análise, eles devem ser separados em diferentes
categorias;
– pertinência – as categorias devem dizer respeito às
intenções do investigador, aos objetivos da pesquisa, às
questões norteadoras, às caraterísticas da mensagem, etc.;
– objetividade e fidelidade – se as categorias forem bem
definidas, se os índices e indicadores que determinam a
entrada de um elemento numa categoria forem bem claros,
não haverá distorções devido à subjetividade dos analistas.
Assim, com diferentes codificadores, o resultado será o
mesmo;
– produtividade – as categorias serão produtivas se os
resultados forem férteis em inferências, em hipóteses
novas, em dados exatos.
Uma vez estabelecidas as categorias, podemos passar para
a etapa seguinte da análise de conteúdo: o tratamento dos
resultados – a inferência e interpretação.
9.2.3 Tratamento dos resultados: a inferência e
interpretação
Descoberto um tema nos dados, é preciso comparar
enunciados e ações entre si, para ver se existe um conceito que
os unifique. Quando se encontram temas diferentes, é
necessário achar semelhanças entre eles.
Durante a interpretação dos dados, é preciso voltar
atentamente aos marcos teóricos, pertinentes à investigação,
pois eles dão o suporte e as perspetivas significativas para o
estudo. A relação entre os dados obtidos e a fundamentação
teórica é que dará sentido à interpretação. Para Bardin (1997) e
também Esteves (2006), as interpretações serão sempre no
sentido de buscar o que se esconde sob a aparente realidade, o
que significa verdadeiramente o discurso enunciado, o que
querem dizer em profundidade certas afirmações/constatações
aparentemente superficiais.
O maior interesse deste instrumento polimorfo e
polifuncional que é a análise de conteúdo reside – para além
das suas funções heurísticas e verificativas – no
constrangimento por ela imposto de alongar o tempo de
latência entre as intuições ou hipóteses de partida e as
interpretações definitivas. Ao desempenharem o papel de
«técnicas de rutura» face à intuição aleatória e fácil, os
processos de análise de conteúdo obrigam à observação de um
intervalo de tempo entre o estímulo-mensagem e a reação
interpretativa.
A fidelidade e validade da aplicação do método da análise
de conteúdo deve merecer especial atenção por parte do
investigador, uma vez que a análise de palavras pode estar
sujeita, entre outros, a problemas de homografia (palavras que
se escrevem do mesmo modo mas com significados
diferentes), daí ser aconselhada a verificação da fidelidade da
codificação pelo método do “acordo entre juízes” ou consenso
em que se comparam as propostas de diferentes codificadores
e calcula-se o coeficiente de fidelidade respetivo (Black,
1999). Vamos dedicar-nos a esta questão na secção seguinte.
Relativamente à validade (codifiquei de facto aquilo que
queria analisar?), Schutt (1999) sugere uma validação de
construto ou conceito, em que, com a ajuda de peritos, o
investigador confronta se as suas categorias de análise podem
representar (ou não) aspetos de uma teoria ou tópico que
pretende investigar.
A existência de programas de computador para a análise de
conteúdo (Nudist, NVivo, por exemplo), veio facilitar a
complicada tarefa que constitui esta técnica de análise na
medida em que possibilitou o cruzamento de categorias e
novas formas de o investigador “questionar” os dados e
conseguir uma análise mais profunda e profícua.
Da mesma família de técnicas de análise qualitativa são
também a “análise conversacional” e a “análise de discurso”.
Esta última analisa conteúdos verbais bem como “jogos de
linguagem” que decorrem espontaneamente numa situação de
diálogo interativo entre o investigador e o sujeito/objeto da
investigação.
9.3 A fiabilidade do processo de análise de conteúdo
O processo de análise de conteúdo, para produzir resultados
válidos, deve possuir objetividade e fiabilidade, ou seja, o
mesmo material, quando analisado com base no mesmo
sistema de categorias deve ser codificado da mesma forma,
mesmo quando sujeito a várias análises. A fiabilidade é um
atributo essencial do qual depende a qualidade científica dos
dados obtidos numa investigação e que está intrinsecamente
ligado aos instrumentos usados e ao processo de recolha dos
dados (Coutinho, 2008). No caso da análise de conteúdo
considera Krippendorff (1980, p. 132-132) que podem ser
considerados três tipos de fiabilidade: a estabilidade, a
reprodutividade (reprodutividade) e a precisão (accuracy).
A estabilidade, também designada por “fiabilidade
intracodificador” ou, simplesmente, “consistência” refere-se
ao grau de invariabilidade de um processo de codificação ao
longo do tempo. Isto acontece em situações em que um mesmo
codificador repete, num momento posterior, o procedimento
de codificação que aplicou a um conjunto de dados.
Não existindo desvios relevantes entre as codificações
realizadas em ambos os momentos, conclui-se que os
resultados são fiáveis. As diferenças verificadas entre a forma
como as unidades foram codificadas nos dois momentos
podem ser o reflexo de diversos fatores: inconsistências do
codificador (“ruído”), mudanças cognitivas que pode ter
experienciado, instruções de codificação pouco claras,
ambiguidades presentes no próprio texto, dificuldades do
codificador em interpretar adequadamente as instruções de
codificação que lhe foram transmitidas ou meros erros casuais
de codificação. Esta é a forma mais fraca de fiabilidade e
nunca deverá ser utilizada como único indicador da
aceitabilidade de uma análise de conteúdo.
A reprodutividade (também denominada de “fiabilidade
intercodificadores”, “acordo intersubjetivo” ou meramente
“consenso”) designa o grau em que é possível recriar um
processo de recodificação em diferentes circunstâncias, com
diferentes codificadores. O caso mais típico refere-se à
situação de teste-teste, em que dois codificadores aplicam, de
forma independente, as mesmas instruções de codificação ao
mesmo material, num determinado momento temporal. As
diferenças eventualmente verificadas entre as codificações
serão o reflexo tanto de inconsistências intracodificadores
(acima explicitadas) como de diferenças entre os codificadores
(quanto, por exemplo, à forma como interpretam as instruções
de codificação), podendo ainda exprimir simples erros
aleatórios de codificação.
A precisão consiste no grau em que um processo de
codificação se conforma funcionalmente com um padrão
conhecido. Ela é determinada quando o desempenho de um
codificador ou de um instrumento de codificação é comparado
com um padrão de desempenho correto conhecido,
previamente estabelecido. Esta é a forma mais forte de
medição da fiabilidade. Infelizmente, os padrões comparativos
que permitiriam o cálculo deste tipo de fiabilidade raramente
existem. Não sendo possível na grande maioria dos casos optar
por ela, a solução mais adequada será recorrer à forma que
apresenta a maior qualidade possível: a reprodutividade – os
resultados encontrados por um codificador terão de ser, no
mínimo, reproduzíveis por outros codificadores, utilizando as
mesmas instruções de codificação. É a reprodutividade o tipo
de fiabilidade recomendado no presente artigo como patamar
mínimo a que qualquer analista de conteúdo deve aspirar.
Uma condição essencial para que exista reprodutibilidade
(isto é, fiabilidade inter codificadores) é que os codificadores
façam a codificação de forma independente. Isto implica que
não conversem entre si quanto à codificação a aplicar e que
não procurem chegar a consensos prévios sobre que decisões
de codificação tomar a respeito de determinados segmentos de
texto. Também implica que um codificador que eventualmente
ocupe uma posição estatutária mais elevada relativamente aos
restantes não use essa posição como fonte de legitimidade para
impor o seu próprio entendimento ao(s) outro(s). A existência
de comunicação entre os codificadores durante o processo de
codificação inflaciona artificialmente o consenso.
9.3.1 Medição do acordo entre codificadores
A medição do acordo entre codificadores é essencial para que
o investigador aferir a fiabilidade do processo de análise de
conteúdo que realizou. A fiabilidade exprime-se num valor
quantitativo, que revele em que grau diferentes codificadores
estão de acordo quanto à classificação da informação
analisada. Este valor quantitativo exprimirá o grau de
concordância entre codificadores quanto ao significado da
informação qualitativa em análise.
O processo mais simples para a medição da taxa de acordo
entre codificadores (ou grau de concordância) baseia-se no
cálculo da percentagem do acordo conseguido no processo de
codificação (por dois ou mais codificadores). A fórmula,
proposta por Holsti (1969), avalia o coeficiente de fiabilidade
da seguinte forma:

Embora amplamente usada, o cálculo da fiabilidade pela


proporção de acordo não é um método recomendado por
muitos autores, caso de Cohen (1960) que alegam que o
método sobrestima o valor do real acordo observado na
medida em que não tem em conta a influência do mero acaso.
Isso levou o autor a propor uma outra fórmula, denominada k
(kappa) de Cohen (1960), que tem sido muito utilizada no
cálculo da fiabilidade em modelos que avaliam a comunicação
assíncrona. A fórmula para o cálculo de k é a seguinte:

Em que:
N = número total de decisões tomadas pelos codificadores
Fo= número de decisões em que os codificadores estão de
acordo
Fc= número de decisões esperadas por via do acaso.
Um exemplo concreto: Imaginemos que dois codificadores
independentes vão codificar 50 mensagens deixadas num
fórum de discussão assíncrona (ou num blog), e que a análise
de conteúdo pressupõe a categorização da mensagem (unidade
de análise) em três categorias: C1, C2 e C3. Os resultados das
codificações individuais devem ser registados numa tabela
criada para o efeito tal como se exemplifica no Quadro 38
abaixo representado:

QUADRO 38 – Dados codificados por dois avaliadores independentes

O passo seguinte consiste em organizar as classificações


numa tabela de contingências onde se contabilizam os acordos
e desacordos obtidos em cada uma das três categorias (ver
Quadro 39). No final de cada linha e coluna da tabela devem
ser também contabilizados os totais gerais de linha e de coluna
porque serão valores necessários aos cálculos subsequentes.
QUADRO 39 – Tabela de contingências com Acordos e Desacordos

Na diagonal podemos observar o nº de acordos entre os


dois codificadores em cada uma das categorias, o que perfaz
um total de 36 (14+12+10) na codificação das 50 mensagens
que integram o corpus. Aplicando a fórmula de Holsti para
calcular a percentagem de acordo simples (ver acima),
verificamos que:
% de acordo=2x36/(50+50)=0,72
A percentagem de acordo entre codificadores ou
coeficiente de concordância é pois 72%. Passando agora ao
cálculo do k de Cohen, verificamos que, para aplicar a
fórmula, teremos de calcular o valor de Fc, ou seja, o número
de decisões esperadas por via do acaso para cada uma das três
categorias. Para tal há que calcular as frequências esperadas
usando a fórmula respetiva, como se exemplifica abaixo para o
caso da categoria C1.

Fazendo o mesmo para C2 e C3 obtemos, respetivamente


os valores de 5,76 e 3,64 que registamos no Quadro 2 para
facilitar a compreensão do leitor. O passo seguinte consiste em
somar as frequências esperadas nas três categorias: 7,6 + 5,76
+ 3,64 = 17,0. Ou seja o valor a frequência esperada por via do
acaso - Fc - é 17.
Estamos agora em condições de aplicar a fórmula do kappa
de Cohen:
Como se pode verificar o valor do acordo expresso pelo k
de Cohen é 57%.
Para interpretar os números obtidos no cálculo destes
indicadores Riffe, Lacy e Fico (1998) sugerem que um
mínimo de 80% para o coeficiente de concordância ou % de
acordo pode ser considerado um valor standard. Para o k de
Cohen, consideram os mesmos autores que valores excedendo
0.75 sugerem acordo forte, valores entre 0,40 e 0,75 acordo
razoável e valores abaixo de 0,40 sejam indicadores de acordo
pobre, para além do acaso. No caso concreto do exemplo,
tanto o valor da % de acordo como, sobretudo o do k de Cohen
revelam um acordo “razoável” o que deve suscitar uma
reflexão por parte do investigador.
O que fazer quando a fiabilidade é baixa? Nestas situações,
o que a maioria dos autores recomenda é o investigador
aperfeiçoar o sistema de categorias adaptando-o à realidade do
corpus que pretende analisar. Outra forma de melhorar o
índice de fiabilidade é apostar no diálogo e treino dos
codificadores e no estabelecimento de regras para a
codificação que podem levar a que sejam alterados os
descritivos das categorias e sub-categorias; outra sugestão
interessante consiste na inserção de exemplos típicos
adequados para ilustrar o conteúdo indicativo das diferentes
categorias ou sub-categorias. Rourke et al. (2001) advertem
para a necessidade das discrepâncias serem sempre discutidas
pelos codificadores por forma a obter uma taxa de fiabilidade
capaz de assegurar a validade do processo de análise da
comunicação assíncrona.
Para terminar importa referir que existem diversos software
que permitem calcular alguns destes indicadores de forma
rápida e fácil. Para o caso do Kappa de Cohen podemos
recorrer ao programa SPSS 19 para Windows ou mesmo a
sítios específicos e gratuitos na Web como seja, por exemplo,
o Online Kappa Calculator (http://justusrandolph.net/kappa/).
9.4 Hermenêutica
Pode ser entendida tanto como uma “filosofia”, como um
método de análise de dados qualitativos (Bleicher, 1980).
Enquanto perspetiva filosófica, é uma das bases dos
paradigmas interpretativos da investigação socioeducativa, e
enquanto método de análise sugere formas de buscar
significados latentes em textos escritos. Nesta última
perspetiva – que é a que importa no momento – a questão
básica traduz-se em algo do estilo: que significa este texto?
Para a busca dos significados que se ocultam no texto, a
hermenêutica opera num círculo dialético envolvendo o texto
em si e os seus componentes, ou seja opera num “…
movimento de compreensão constante do todo para a parte e
desta para o todo“ (Gadamer, 1975, p. 117).
REFERÊNCIAS BIBLIOGRÁFICAS
Bardin, L. (2011). Análise de conteúdo (4ª ed.). Lisboa:
Edições 70.
Bleicher, J. (1980). Contemporary Hermeneutics:
Hermeneutics as a method, Philosophy and critique. London:
Routledge.
Bogdan, R., & Biklen, S. (1994). Investigação qualitativa em
Educação: uma introdução à teoria e aos métodos. Porto:
Porto Editora.
Bravo, M. P., & Eisman, L. B. (1998). Investigación educativa
(3ª ed.). Sevilha: Ediciones Alfar.
Cohen, J. (1960). A coefficient of agreement for nominal
scales. Educational and Psychological Measurement, 20(1),
37-46.
Coutinho, C. P. (2008). A qualidade da pesquisa educativa de
natureza qualitativa: questões relativas à fidelidade e validade.
Revista Educação Unisinos, 12(1), 5-15. Retirado de
http://www.unisinos.
br/publicacoes_científicas/images/stories/pdfs_educacao/vol12
n1/005a015_ art01_coutinho%5Brev_ok%5D.pdf
Esteves, M. (2006). Análise de Conteúdo. In J. A. Lima, & J.
A. Pacheco (Orgs.), Fazer Investigação: Contributos para a
elaboração de dissertações e teses (pp. 105-126). Porto: Porto
Editora.
Gadamer, H. G. (1975). Truth and method. London: Sheed &
Ward.
Ghiglione, R., & Matalon, B. (1997). O inquérito: Teoria e
prática (3ª ed.). Oeiras: Celta Editora.
Holsti, O. R. (1969). Content analysis for the Social Sciences
and Humanities. Reading, MA: Addison-Wesley.
Krippendorff, K. (1980). Content Analysis: an introduction to
its methodology (Vol. 5, The Sage Commtext Series).
Newbury Park: SAGE Publications.
Marshall, C., & Rossman, G. (1989). Designing qualitative
research. Newbury Park: SAGE Publications.
Miles, M. & Huberman, A. M. (1994). Qualitative data
analysis (2ª ed.). Thousand Oaks: Sage Publications.
Myers, M. D. (1997). Qualitative research in information
systems. MIS Quarterly, 21(2), 241-242.
Riffe, D., Lacy, S., & Fico, F. (1998). Analyzing media
messages: Quantitative content analysis. New Jersey:
Lawrence Erlbaum Associates, Inc.
Rourke, L., Anderson, T., Garrison, D. R., & Archer, W.
(2001). Methodological issues in the content analysis of
computer conference transcripts. International Journal of
Artificial Intelligence in Education, 12.
Schutt, R. K. (1999). Investigating the Social World: The
process and practice of research (2ª ed.). Thousand Oaks: Pine
Forge Press.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Capítulo 10

Validade e Fiabilidade na Investigação Qualitativa

É fundamental que todo o investigador em CSH se preocupe


com a questão da fiabilidade e validade dos métodos a que
recorre sejam eles de cariz quantitativo ou qualitativo, porque,
tal como referem Morse et al. (2002, p. 2), sem rigor a
investigação “não tem valor, torna-se ficção e perde a sua
utilidade”.
No entanto, na prática da pesquisa em CSH, a questão do
rigor científico parece preocupar mais os investigadores que
utilizam metodologias quantitativas do que quem investiga sob
a égide do paradigma interpretativo. De facto, a questão do
rigor e da qualidade científica da investigação qualitativa está
envolvida numa polémica acesa que se arrasta desde inícios da
década de 1980 e que vem apaixonando a comunidade de
investigadores em CSH desde então. O cerne da polémica
pode sintetizar-se da seguinte forma: temos, por um lado, a
posição dos que consideram que a natureza intrínseca da
investigação qualitativa não precisa de se preocupar com os
critérios de cientificidade adotados pelo modelo de pesquisa
quantitativo, de forte cariz positivista e normativo que apenas
faz sentido no âmbito da investigação realizada nas Ciências
Naturais e Exatas.
Numa posição intermédia, menos ortodoxa, temos a linha
dos que defendem que a pesquisa qualitativa se deve pautar
por critérios de qualidade científica sim, mas em termos
totalmente distintos dos padrões positivistas clássicos
assumidos pela investigação quantitativa.
Por último, temos a posição menos conhecida, porque mais
recente e menos divulgada na literatura, dos que consideram
que os conceitos abstratos de validade e fiabilidade típicos da
pesquisa quantitativa deveriam ser aplicados também para a
aferição da qualidade da investigação qualitativa, já que,
consideram, a utilização de uma terminologia diversa acaba
por ser prejudicial levando a que os métodos qualitativos
sejam vistos como inválidos e não fiáveis, o que explica a má
reputação que impera em torno da investigação qualitativa e
que se estendeu até aos nossos dias.
10.1 Antecedentes
Tal como referido no Capítulo 1, são vários os autores que
consideram que, na investigação nas Ciências Sociais e
Humanas, têm prevalecido duas perspetivas teóricas
principais: a positivista, que procura conhecer os factos e
causas dos fenómenos sociais independentemente dos estados
subjetivos dos sujeitos e a fenomenologia que procura
compreender os fenómenos sociais desde o ponto de vista ou
perspetiva dos próprios autores. A estas duas perspetivas, para
autores como Carr e Kemmis (1988), acresce uma terceira
perspetiva, denominada crítica ou sociocrítica.
A problemática coloca-se, então, na disjuntiva de saber se
as ciências sociais podem (ou não) adotar a metodologia das
chamadas ciências naturais e utilizá-la para investigar o
mundo social e humano. O grupo identificado como positivista
(inspirado em representantes como Augusto Comte, Stuart
Mill ou Durkheim), defende que sim e desenvolvem todo o
processo de pesquisa com base nesse pressuposto.
Por seu lado, o grupo que se costuma denominar de
idealista (representado por Dilthey, Rickert e Weber entre
muitos outros) desenvolveu uma filosofia própria inspirada na
tradição kantiana. Os defensores desta posição consideram
que, na investigação em ciências sociais e humanas, é
impossível separar o pensamento das emoções, que a
subjetividade e os valores são válidos e que devem refletir-se
na forma como abordamos a pesquisa nesses domínios: a
complexidade do mundo social apresenta permanentes
mudanças e é impossível estabelecer leis semelhantes às das
Ciências Naturais.
Estas duas posturas epistemológicas sustentam conceções
distintas acerca da natureza do conhecimento e da realidade e
são o suporte conceptual para a batalha que vem opondo os
méritos relativos dos dois paradigmas divergentes.
O quantitativo, também chamado de tradicional,
positivista, racionalista, empírico-analítico ou empiricista
(Latorre et al., 1996; Mertens, 1998) e o qualitativo também
designado na literatura por hermenêutico, interpretativo ou
naturalista (Creswell, 1998; Denzin e Lincoln, 2000).
Para os defensores do paradigma quantitativo:
• A realidade a investigar é objetiva na medida em que
existe independente do sujeito; os acontecimentos ocorrem
de forma organizada sendo possível descobrir as leis que
os regem para os prever e controlar;
• Há uma clara distinção entre o investigador subjetivo e o
mundo exterior objetivo;
• A validade do conhecimento depende da forma como se
procede à observação; diferentes observadores perante os
mesmos dados devem chegar às mesmas conclusões – a
replicação é garante da objetividade;
• O mundo social é semelhante ao mundo físico; o objetivo
da ciência é descobrir a realidade, pelo que tanto as
ciências naturais como as sociais devem partilhar uma
mesma lógica de racionalidade e uma metodologia
comum;
• Desde que os processos metodológicos tenham sido
corretamente aplicados, não há por que duvidar da
validade e fiabilidade da informação obtida.
Estamos perante um paradigma de investigação que
enfatiza o determinismo (há uma verdade que pode ser
descoberta), a racionalidade (não podem existir explicações
contraditórias), a impessoalidade (os dados obtidos devem ser
objetivos, independentes do observador e do contexto) e ainda
a previsão (o fim último da pesquisa é encontrar
generalizações capazes de controlar e prever os fenómenos).
A posição do paradigma qualitativo adota, do ponto de
vista ontológico, uma posição relativista – há múltiplas
realidades que existem sob a forma de construções mental e
socialmente localizadas –, inspira-se numa epistemologia
subjetivista que valoriza o papel do investigador/construtor do
conhecimento, justificando-se por isso a adoção de um quadro
metodológico incompatível com as propostas do positivismo e
do pós-positivismo. De uma forma sintética, pode afirmar-se
que o paradigma qualitativo pretende substituir as noções de
explicação, previsão e controlo do paradigma quantitativo
pelas de compreensão, significado e ação em que se procura
penetrar no mundo pessoal dos sujeitos, “saber como
interpretam as diversas situações e que significado tem para
eles” (Latorre et al., 1996, p. 42), tentando “compreender o
mundo complexo do vivido desde o ponto de vista de quem
vive” (Mertens, 1998, p. 11).
Estas diferenças a nível ontológico (natureza da realidade)
e epistemológico (relação do investigador com o objeto ou
sujeito de estudo) originaram duas posturas metodológicas
distintas entendidas como decisões que o investigador pode
tomar relativamente às diferentes etapas de realização da sua
pesquisa. A postura quantitativa desenvolve a chamada
metodologia hipotético-dedutiva segundo a qual a explicação
causal e a previsão se regem por uma lógica dedutiva: a
pesquisa está referenciada a uma teoria que fundamenta e
justifica as tentativas de explicação para os fenómenos em
análise (as hipóteses de investigação); o passo seguinte é
recolher dados e testar a hipótese que será aceite ou rejeitada.
A outra postura metodológica defende uma lógica indutiva
no processo da investigação; os dados são recolhidos não em
função de uma hipótese predefinida que há que pôr à prova,
mas com o objetivo de, partindo dos dados, encontrar
regularidades que fundamentem generalizações que serão cada
vez mais amplas. A abordagem dedutiva exige decisão prévia
do investigador sobre aquilo que serão os resultados esperados
na investigação. Na abordagem indutiva nada é definido a
priori: presume-se que o conhecimento profundo de um
fenómeno e dos seus resultados só podem ser obtidos com
insights sobre as experiências pessoais dos
intervenientes/participantes (Latorre et al., 1996).
Como seria de esperar, a estas duas abordagens
correspondem diferentes métodos de recolha de informação: o
investigador quantitativo necessita de instrumentos
estruturados (como questionários ou entrevistas estruturadas)
com categorias estandardizadas que permitam encaixar as
respostas individuais. O investigador qualitativo ausculta as
opiniões individuais (entrevista não estruturada ou livre,
observação participante ou não participante) sem se preocupar
em categorizar as respostas de antemão; pressupõe ser
fundamental atender às caraterísticas individuais dos
intervenientes num programa/intervenção, porque é da forma
como estes se empenham que tudo depende. Estas diferenças a
nível epistemológico e metodológico vão-se refletir
naturalmente na forma de equacionar a questão da qualidade
científica dos resultados obtidos na investigação e daí a
polémica de que falámos anteriormente e dos distintos
posicionamentos relativamente a aferir os critérios de
qualidade a considerar nos estudos qualitativos.
10.2 A Questão da Qualidade Científica da Investigação
Qualitativa
10.2.1 A posição purista: incompatibilidade entre
paradigmas
A posição “purista” (Rossman & Wilson, 1985) ou
“monoteísta” (Lecompte, 1990) tem sido defendida por
diversos autores que consideram que as diferenças a nível
epistemológico e ontológico entre as duas perspetivas teóricas
impediriam qualquer possibilidade de mistura ao nível dos
métodos e técnicas de pesquisa empírica. Gorman e Clayton
(1997), sem quererem assumir de forma explícita uma posição
a favor da “pureza paradigmática”, consideram que os
pressupostos básicos das duas posturas epistemológicas são
duas formas de ver o mundo tão diametralmente opostas (a
quantitativa assume a objetividade real dos factos sociais, e a
qualitativa a construção social da realidade) que não é possível
superar as barreiras que os separam ao nível dos métodos e
técnicas de investigação (Denzin & Lincoln, 2000).
Consideram que, num estudo qualitativo, uma correta
aplicação de métodos e técnicas de investigação (ferramentas
metodológicas) não tem necessariamente de garantir a
objetividade na busca do conhecimento/informação; acreditam
que há diferenças fundamentais entre os fenómenos naturais e
os sociais e que os métodos preconizados pelo paradigma
positivista se revelam inadequados para o estudo destes
últimos, não fazendo sentido que os critérios para aferição da
qualidade científica dos resultados obtidos na pesquisa
interpretativa possam ser os mesmos que os adotados pela
pesquisa quantitativa. Como podem os métodos próprios das
ciências naturais elucidar-nos dos significados das ações
humanas se esses significados não são “mensuráveis”, ou seja,
suscetíveis de uma observação rigorosa como pretendem os
positivistas? Pode o comportamento das pessoas ser regulado
por leis gerais e causais suscetíveis de serem generalizáveis?
Para que insistir “[…] nessa obsessão constante pela
santíssima trindade da validade, fiabilidade e generalização?”
(Janesick, 1994, p. 215).
Nesse sentido, os adeptos desta posição não mostraram
qualquer preocupação em justificar e garantir o rigor na
pesquisa qualitativa, argumentando mesmo que a validade e a
fiabilidade seriam conceitos que faziam sentido na lógica do
paradigma quantitativo, mas nenhum sentido na pesquisa de
cariz interpretativo (Janesick, 1994; Lecompte, 1990;
Rossman e Wilson, 1985).
Muito embora esta posição reunisse o apoio de muitos
investigadores que desenvolviam pesquisas sob a égide do
paradigma interpretativo, a verdade é que a radicalidade desta
posição não advogou a favor do mérito científico dos estudos
qualitativos, que se viram relegados para segundo plano na
atribuição de verbas ou em concursos face a outros estudos
desenvolvidos segundo os standards de qualidade
reconhecidos pela comunidade científica das CSH.
Surge então, na comunidade de investigadores qualitativos,
um movimento encimado por uma série de autores, caso de
Egon Guba e Yvonna Lincoln, que defendem a necessidade da
adoção de critérios de rigor para a investigação desenvolvida
sob a égide do paradigma interpretativo/construtivista.
10.2.2 A posição intermédia: necessidade de adoção de
critérios específicos
Embora considerando que, nos estudos naturalistas, a natureza
qualitativa dos dados leva a que a questão da qualidade
informativa dos dados se tenha de colocar em termos distintos
dos preconizados no quadro da investigação quantitativa,
Lincoln (1995) defende que isso não equivale a dizer que a
questão do rigor científico não tenha de ser colocada e
debatida; mais ainda, se os critérios de rigor tradicionais não
se adequam ao paradigma interpretativo, há que desenvolver
critérios apropriados que demonstrem a qualidade científica
dos estudos desenvolvidos sob a sua égide (Guba 1981; Guba
& Lincoln, 1988, 1994). O cerne da questão coloca-se da
seguinte forma: como é que o investigador prova que se
podem acreditar, confiar e aplicar os resultados obtidos numa
pesquisa que é relativista, subjetiva, interpretativa?
Na perspetiva dos autores, todo o processo de pesquisa
precisa de ter valor próprio (truth value), aplicabilidade ou
confirmabilidade (applicability), consistência (dependability)
e neutralidade (neutrality) para ter valor científico,
independentemente de se admitir que a natureza do
conhecimento dentro do paradigma racionalista ou
quantitativo seja diferente do conhecimento obtido na pesquisa
dentro do paradigma interpretativo (Guba, 1981; Guba &
Lincoln, 1988). No entanto, argumentam, se cada paradigma
exige critérios específicos para alcançar o rigor (termo usado
pelo paradigma quantitativo) ou a trustworththiness
(confiabilidade), termo paralelo que propõem para o
paradigma qualitativo e que, segundo os autores, nos dá como
que uma medida do quanto podemos confiar/acreditar nos
resultados obtidos na pesquisa interpretativa. Assim, enquanto
para quem investiga dentro do paradigma quantitativo o rigor
se atinge buscando a validade interna e externa, a fiabilidade e
a objetividade, propõem os autores que para o paradigma
qualitativo os critérios sejam a credibilidade (credibility, ou
seja a capacidade dos participantes confirmarem os dados), a
transferibilidade (transferability, ou seja, a capacidade dos
resultados do estudo serem aplicados noutros contextos), a
consistência (dependability, ou seja, a capacidade de
investigadores externos seguirem o método usado pelo
investigador) e a aplicabilidade ou confirmabilidade
(confirmability, ou seja a capacidade de outros investigadores
confirmarem as construções do investigador) (Lincoln &
Guba, 1991).
Propõem inclusivamente estratégias específicas para se
atingir tais requisitos, como sejam os negative cases analysis
(casos negativos), a triangulation (triangulação), o peer
debriefing (a revisão por pares), um prolonged engagement
(envolvimento prolongado), uma persistent observation
(observação persistente), os audit trails (auditorias) e o
member checking (revisão pelos participantes). Analisemos
mais de perto estes conceitos.
Credibilidade
A credibilidade é o termo paralelo ao de “validade interna” de
um estudo quantitativo e diz respeito ao quanto as
construções/reconstruções do investigador reproduzem os
fenómenos em estudo e/ou os pontos de vista dos participantes
na pesquisa.
Obtém-se a credibilidade “submetendo (os resultados) à
aprovação dos construtores das múltiplas realidades em
estudo” (Lincoln & Guba, 1991, p. 296) e pode
operacionalizar-se de diversas formas. Uma delas é o chamado
prolonged engagement, conceito definido por Lincoln e Guba
(1991) da seguinte forma: “um investimento no tempo que se
considere necessário para atingir os objetivos da pesquisa;
aprender a cultura (dos participantes); testar informação
contraditória introduzida por distorções tanto do investigador
como dos participantes; criar confiança (nos participantes)”
(Lincoln & Guba, 1991, p. 301).
Outro processo é o peer debriefing, que traduzimos por
revisão por pares, que consiste em “permitir que um par (um
colega) que seja um profissional fora do contexto mas que
tenha conhecimento geral da problemática e do processo de
pesquisa, analise os dados, teste as hipóteses de trabalho e
sobretudo escute as ideias e preocupações do investigador”
(Erlandson et al., 1993, p. 140).
Outro processo ainda é o que se costuma designar por
member checks, que traduzimos por revisão pelos
participantes, que consiste em devolver aos participantes do
estudo os resultados da análise feita pelo investigador às
informações que lhe forneceram (em entrevistas, observações
diretas/indiretas), para que estes possam verificar/confirmar se
as interpretações do investigador refletem de facto as suas
experiências/ideias/sentimentos.
Transferibilidade e descrições compactas (thick
descriptions)
A transferibilidade refere a possibilidade de que os resultados
obtidos num determinado contexto, numa pesquisa qualitativa,
possam ser aplicados noutro contexto. Trata-se do conceito
equivalente ou paralelo ao de generalização (ou validade
externa) da metodologia quantitativa experimental mas que
deve ser encarado em termos totalmente distintos na pesquisa
interpretativa.
Podemos considerar três graus ou níveis na generalização
dos resultados de um estudo empírico: a generalização da
amostra para a população, a generalização analítica ou
relacionada à teoria. A generalização nos planos qualitativos é
do segundo tipo, ou seja, analítica, relacionada à teoria ou,
como referem Stake (1995) ou Flick (1998), é uma
generalização teórica que contrapõem à generalização
científica da investigação experimental clássica. É por isso
mesmo que, na gíria da investigação qualitativa, são preferidas
as expressões transferibilidade (Flick, 1998; Lincoln & Guba,
1991; Mertens, 1998) ou, ainda, generalização naturalística
(Stake, 1995).
No entanto a transferibilidade deve ser preocupação central
do investigador qualitativo, já que, como referem Lincoln e
Guba (1991):
Se houver transferibilidade, o fardo da prova fica menos
em cima do investigador original do que na pessoa que
procura aplicar os resultados do estudo noutro contexto. O
investigador original não conhece o ambiente para o qual
se vai proceder à transferibilidade, mas quem o faz sabe…
A responsabilidade do investigador original termina no
momento em fornece um conjunto de dados descritivos
capazes de permitirem que juízos de semelhança sejam
possíveis. (p. 298)
Fornecer dados descritivos suficientes é o que se costuma
designar por “thick description” (Stake, 1995, p. 39), ou seja, a
descrição dos dados deve ser “densa”, “compacta”, capaz de
representar a diversidade das perspetivas dos participantes e a
forma como estas conduziram a uma interpretação que teve em
conta tanto as variações como as redundâncias em diferentes
contextos/condições.
Triangulação e casos negativos
As perspetivas pós-modernas sugerem que a objetividade
numa investigação nunca pode ser alcançada: tal como as
várias leituras de um texto podem conduzir a diferentes
interpretações, sem nenhuma versão assumir uma
interpretação privilegiada, salienta-se a ideia de que a
investigação pode ser reveladora das múltiplas dimensões que
compõem a realidade em estudo. É neste contexto que emerge
o conceito de “triangulação” entendido como uma combinação
de pontos de vista, métodos e materiais empíricos
diversificados suscetíveis de “constituírem uma estratégia
capaz de acrescentar rigor, amplitude e profundidade à
investigação” (Denzin & Lincoln, 2000, p. 5).
A triangulação consiste em combinar dois ou mais pontos
de vista, fontes de dados, abordagens teóricas ou métodos de
recolha de dados numa mesma pesquisa por forma a que
possamos obter como resultado final um retrato mais
fidedigno da realidade ou uma compreensão mais completa do
fenómenos a analisar. A ideia básica é a de que, se dois pontos
de vista ou dois conjuntos de dados parecem contradizer-se um
ao outro, então a diferença pode ser usada como forma de
reflexão que implique uma repetição da análise dos dados
empíricos que ajude a encontrar uma explicação/justificação
para as diferenças. Flick (1998, p. 229) propõe os seguintes
“protocolos de triangulação” (triangulation protocols):
– triangulação das fontes de dados, em que se confrontam
os dados provenientes de diferentes fontes;
– triangulação do investigador, em que
entrevistadores/observadores diferentes procuram detetar
desvios derivados da influência do fator “investigador”;
– triangulação da teoria, em que se abordam os dados
partindo de perspetivas teóricas e hipóteses diferentes;
– triangulação metodológica, em que, para aumentar a
confiança nas suas interpretações, o investigador faz novas
observações diretas com base em registos antigos, ou
múltiplas combinações metodológicas (aplicação de um
questionário e de uma entrevista semiestruturada,
observação direta e indireta, observação indireta e
entrevista, etc.).
Na prática da pesquisa empírica, a triangulação é muitas
vezes usada pelo investigador não no sentido estrito de
confrontar uma teoria, um conjunto de dados ou uma
abordagem com uma proposta rival, mas antes como forma de
conseguir uma análise de maior alcance e riqueza. De facto,
mesmo que dois pontos de vista pareçam contradizer-se um ao
outro, as diferenças podem ser usadas como forma de voltar a
“olhar para os dados” e tentar encontrar uma explicação que
resolva as diferenças. Este é, de facto, um processo comum em
etnografia, quando o investigador compara o que as pessoas
dizem com aquilo que elas fazem na prática. Se existirem
diferenças, então há que ir mais fundo e procurar uma
explicação válida para o novo facto agora revelado.
Na mesma linha da triangulação e também no sentido de
explicar diferenças nos resultados provenientes de diferentes
fontes de dados, é boa prática, na pesquisa qualitativa, a busca
constante do que se costuma designar por negative cases ou
casos negativos. Trata-se de casos, contextos, acontecimentos
que não se alinham com os resultados ou mesmo que
contradizem as explicações do investigador. Os casos
negativos correspondem aos outliers da investigação
quantitativa e dizem respeito a contradições ou casos, que, por
diferentes do comum podem ser particularmente importantes
para mostrar mais acerca do fenómeno em causa. Na pesquisa
quantitativa, a ocorrência de um caso negativo pode ser o
suficiente para que toda uma teoria seja rejeitada, mas tal não
é o caso na pesquisa qualitativa: a resposta do investigador a
um caso negativo implica um voltar a reexaminar os dados
para tentar perceber porque razão aquele caso aconteceu de
forma tão atípica. O resultado mais comum é uma modificação
das ideias e pressupostos e, muitas vezes, uma
interpretação/compreensão muito mais rica e profunda dos
fenómenos em estudo.
Consistência, confirmabilidade e auditoria
A dependability, que traduzimos por consistência, é o
equivalente qualitativo para o conceito de fiabilidade da
investigação quantitativa, ou seja, a capacidade de replicar o
estudo, o que é possível se os instrumentos de pesquisa forem
“neutros”, ou seja, aplicados de novo produzem os mesmos
resultados (Coutinho, 2008). Na pesquisa qualitativa este tipo
de replicabilidade é impossível de conseguir fruto da
flexibilidade do desenho, da constante interação entre
investigador e participantes que levam a que os resultados
sejam “irrepetíveis”. Daí que, nos estudos qualitativos a
questão da fiabilidade possa ser traduzida da seguinte forma:
“Se outra pessoa fizesse o mesmo estudo, obteria os mesmos
resultados e chegaria às mesmas conclusões a que chegou o
investigador?”
Por seu lado, a confirmabilidade é o paralelo da
objetividade na pesquisa quantitativa e visa certificar se o
investigador “(…) tenta estudar objetivamente os conteúdos
subjetivos dos sujeitos” (Bogdan & Bilken, 1994, p. 188), se
“(…) está envolvido na atividade como um insider mas é
capaz de refletir sobre ela como um outsider” (Eisenhart in
Ponte, 1994, p. 9), em suma, averiguar até que ponto o
investigador se esforça “(…) por ver a realidade através dos
olhos dos sujeitos envolvidos” (Vieira, 1999, p. 94). De certa
forma, trata-se também de equacionar a legitimidade para se
inferir dos dados, ou seja, verificar até que ponto “(…) as
interpretações que o investigador faz não são fragmentos da
sua imaginação” (Mertens, 1998, p. 184).
Apesar da consistência e da confirmabilidade
corresponderem a noções distintas na pesquisa quantitativa,
são conseguidas pelas mesmas técnicas na pesquisa
qualitativa, dando os autores particular ênfase ao chamado
processo de auditoria(audit trail ou auditing). Para Schwandt
(1997, p. 6), a auditoria pode ser definida como “o processo
pelo qual uma terceira parte examina sistematicamente o
processo de pesquisa conduzida pelo investigador”. O audit
trail inclui todos os registos do investigador, como sejam
cassetes áudio e vídeo, transcrições de entrevistas, guiões de
entrevistas e questionários, listas de categorias e hipóteses que
o investigador usou durante o processo de análise dos dados,
notas de campo, diários, etc.; na perspetiva de Lincoln e Guba
(1991), o audit trail deve ser dirigido ao leitor externo e deve
permitir que este seja capaz de seguir o pensamento do
investigador, as decisões chave que tomou, a forma como
recolheu e trabalhou os dados, bem como as conclusões a que
chegou.
Embora, para alguns autores, o processo de reanálise que
implica uma auditoria possa colocar questões éticas (Miles &
Huberman, 1994), trata-se de uma prática que deve constituir
preocupação do investigador qualitativo porque, ao fazê-lo,
abre a pesquisa a outros investigadores que assim podem
verificar se o estudo foi conduzido de forma sistemática e
coerente, tornando-o mais consistente e possível de reaplicar a
outros contextos/situações.
É sempre uma boa prática assegurar que todo o processo de
pesquisa possa ser alvo de uma auditoria por um avaliador
externo (auditability). Por outras palavras, possibilitar a
reprodução dos passos conducentes a uma dada interpretação
ou teoria que permita verificar que nenhuma alternativa foi
excluída e que nenhum desvio influenciou a interpretação do
investigador e, consequentemente, os resultados. Normalmente
isto implica o registo da informação do que se fez com os
dados e a forma como se deu a génese das interpretações para
que possam ser entendidas por um auditor externo. Um tal
audit trail permite traçar todo o processo da pesquisa de modo
a que outro investigador/auditor externo seja capaz de seguir o
pensamento do investigador para entender a forma como
trabalhou os dados e tirou as conclusões a partir deles.
10.2.3 Unificação terminológica
Muitos outros autores ou seguiram a proposta intermédia de
Guba e Lincoln (caso de Sandelowsi, 1986, por exemplo) ou
então, partindo de uma mesma lógica conceptual pós-
positivista, sugeriram termos afins para a aferição da qualidade
em estudos qualitativos e quantitativos.
Na opinião de Morse et al. (2002), a proliferação de termos
e critérios distintos contribuiu para que a questão do rigor dos
métodos qualitativos fosse posta em causa, levando a que, nos
anos 80, fossem definidos standards para a avaliação da
qualidade dos estudos qualitativos. Para Creswell, (1998), a
criação de tais referenciais permitiu o estabelecimento de um
padrão mínimo/máximo para a aferição da qualidade científica
dos estudos qualitativos possibilitando que, por um lado, os
investigadores no terreno pautassem os seus estudos reais em
função do padrão ideal contido nos referenciais e, por outro,
que auditores/avaliadores externos os utilizassem como
critérios de avaliação para a concessão de bolsas e submissão
de trabalhos a revistas e conferências científicas.
No entanto, a utilização de standards numa fase posterior à
condução do estudo (post hoc evaluation) pode servir para os
fins acima referidos, ou seja, para o estabelecimento de um
juízo de valor relativo ao produto final, mas, na perspetiva de
Morse et al. (2002), pouco valor têm para o investigador que já
terminou a pesquisa e não pode voltar atrás.
Nesse sentido, nos últimos anos, vem-se registando uma
preocupação crescente no sentido de que os processos
conducentes a assegurar a validade e fiabilidade dos métodos
qualitativos não se limitem apenas a preparar o estudo para
uma avaliação feita a posteriori por auditores externos que
analisam o produto final, mas antes se processem de uma
forma autónoma e ativa durante todo o processo da pesquisa
em si, desde a fase de planeamento e desenvolvimento do
projeto à escrita dos resultados obtidos. A solução passaria, na
perspetiva de Morse et al. (2002), pela adoção das chamadas
estratégias de verificação que permitiriam a tão desejada
unificação terminológica em torno dos conceitos abstratos e
unívocos de validade e fiabilidade aplicáveis a todos os
métodos da investigação em CSH, sejam eles de cariz
quantitativo ou qualitativo.
10.3 A Natureza da Verificação na Pesquisa Qualitativa
A verificação é o processo de testar, confirmar, assegurar. Na
pesquisa qualitativa, a verificação refere os mecanismos
usados durante o processo da pesquisa para, de forma gradual
e progressiva, assegurar a fiabilidade e validade e, assim, o
rigor da pesquisa desenvolvida. Estes mecanismos são levados
a cabo em cada passo do estudo de forma a assegurar um
produto final sólido (Creswell, 1998), ao permitirem a
identificação e consequente correção de erros antes que estes
possam surgir e subverter a análise. O objetivo é conseguir do
investigador uma atitude autocorretora. Como a pesquisa
qualitativa é iterativa e não linear, o bom investigador
qualitativo anda para a frente e para trás entre planeamento e
desenvolvimento para assegurar congruência entre a
formulação da questão de investigação, a revisão de literatura,
a amostragem, e ainda a recolha e análise de dados. Os dados
recolhidos são sistematicamente verificados, o foco mantido e
o ajustamento dos dados ao marco conceptual para a análise e
interpretação são monitorizados e confirmados
constantemente.
As estratégias de verificação surgem com o objetivo de
ajudar o investigador a saber quando deve prosseguir, parar ou
modificar o rumo da pesquisa com vista a conseguir a validade
e fiabilidade e assegurar o rigor e, segundo Morse et al.
(2002), são as seguintes: methodological coherence, theorical
sampling e sampling adequacy, analytic stance, e saturation.
Na perspetiva dos autores, não é possível dissociar estas
estratégias do trabalho analítico do investigador que está
subjacente a elas e das quais depende. Ou seja, o primeiro
requisito tem a ver com o estilo do investigador e com aquilo
que designam por investigator responsiveness expressão
utilizada por Morse et al. (2002) que traduzimos por
“sensibilidade do investigador”.
A sensibilidade do investigador (investigator
responsiveness) é a flexibilidade e destreza em utilizar as
estratégias de verificação que determinam a validade e
fiabilidade do estudo qualitativo. Por exemplo, a formulação
de conjeturas determina a intencionalidade da amostra; da
análise dos dados é que depende o recrutamento dos novos
participantes. Dentro das noções de categorização e saturação
estão estratégias de amostragem que asseguram a replicação e
confirmação.
A prontidão e a atenção do investigador em decidir se o
esquema de categorias é de manter ou se pelo contrário parece
restrito ou indefinido (há que o modificar) influenciam os
resultados. Por isso, é fundamental que o investigador
permaneça aberto, que use a sensibilidade a criatividade e
reflexão e que esteja sempre pronto a pôr de lado ideias com
pouco suporte mesmo que de início o tivessem entusiasmado
pelo potencial que pareciam conter. São essas qualidades ou
atos que são capazes de produzir conhecimento científico e
que são cruciais para que um estudo qualitativo seja válido e
fiável.
Na perspetiva de Morse et al. (2002), a falta de
sensibilidade/acurácia do investigador nas diversas etapas do
processo de pesquisa é a maior ameaça à validade e fiabilidade
do estudo e que dificilmente pode ser verificado na aplicação
dos critérios post hoc da credibilidade. A falta de sensibilidade
pode ser fruto de falta de conhecimento, da preocupação em
aderir a instruções em vez de escutar os dados, da inabilidade
para abstrair, sintetizar ou ir mais além dos aspetos técnicos da
codificação dos dados, da incapacidade para pensar de forma
dedutiva (implícita ou explicitamente) a partir de assunções
previamente estabelecidas ou de um referencial teórico, ou da
preocupação em seguir instruções que deveriam ser usadas de
forma criativa na tomada de decisões.
Dentro do processo de pesquisa em si, as estratégias de
verificação que asseguram ao mesmo tempo a fiabilidade e
validade dos processos de recolha de dados são as seguintes:
1. Coerência metodológica (methodological coherence);
2. Adequação da amostragem teórica (theorical sampling e
sampling adequacy);
3. Processo interativo de recolha e análise de dados
(analytic stance);
4. Pensar de forma teórica (thinking theorically);
5. Desenvolvimento de teoria (theory development).
O primeiro requisito a ter em conta é a coerência
metodológica. O objetivo desta estratégia de verificação é
assegurar uma articulação correta entra a questão de
investigação e os procedimentos metodológicos. A natureza
circular, iterativa e interativa da pesquisa qualitativa exige que
o problema se adapte ao método, que, por sua vez, tem que
adaptar-se aos dados e ao processo de análise. À medida que a
pesquisa avança, o processo pode não ser linear. Os dados
podem precisar de um tratamento diferente, o que leva a que o
problema tenha de ser alterado ou os métodos modificados. A
escolha dos participantes pode ter que ser aumentada ou
modificada também. A forma como todos estes componentes
se ajustam e reajustam para que nunca se perca o norte, ou
seja, o que é a essência dos objetivos a atingir, leva a que cada
um e todos os componentes do processo de pesquisa tenham
de ser vistos e analisados como um todo, de forma holística.
Segundo, a amostra tem de ser apropriada, composta pelos
participantes que melhor representam ou melhor conhecem o
tópico sobre o qual incide a pesquisa. Isto assegura a eficiência
e uma saturação efetiva das categorias com uma qualidade
ótima do poder informativo dos dados e um mínimo de perdas.
A adequação da amostra, evidenciada pela saturação e pela
replicação, significa que é fundamental assegurar dados
suficientes para darem conta da multiplicidade dos aspetos do
fenómeno que se quer estudar. Só assim é possível obter a
saturação dos dados, ou seja, chegar a um ponto que o
investigador percebe que não está a ouvir nem a ver nada de
novo, que o processo de recolha de dados está terminado.
A busca de casos negativos é também essencial,
assegurando a validade pela indicação de aspetos da análise
que foram esquecidos ou minimizados. Por definição, a
saturação dos dados assegura a replicação das categorias; a
replicação verifica e assegura a compreensão e que o processo
está completo.
Terceiro, só recolhendo, analisando e confrontando dados
concorrentes é possível conseguir uma interação mútua entre
o que é conhecido e o que precisa de se conhecer. Esta
interação entre os dados e a análise é a essência para se atingir
a fiabilidade e validade dos resultados de uma pesquisa de
cariz qualitativo.
O quarto aspeto a considerar é a capacidade de se pensar
de forma teórica. As ideias emergem dos dados e são
reconfirmadas por novos dados; isto dá origem a novas ideias
que, por sua vez, têm de ser verificadas em dados já
recolhidos. Pensar de forma teórica requer macro e
microperspetivas, andar para a frente sem atropelos cognitivos,
voltar atrás para constantemente pensar e repensar, alicerçando
uma sólida base teórica que sustente a interpretação dos dados.
Por último, desenvolver teoria implica progredir com
sensatez entre a perspetiva micro dos dados para uma
compreensão macro de tipo conceptual/teórica. Neste
processo, a teoria desenvolve-se através de um duplo
mecanismo: (i) como resultado do processo de pesquisa e não
como o referencial para a análise a ser desenvolvida; (ii) como
um termo de comparação que permite o desenvolvimento de
novos postulados/conceitos. As teorias válidas são bem
desenvolvidas e fundamentadas, são amplas, lógicas,
parcimoniosas e consistentes (Coutinho, 2008).
Na perspetiva de Morse et al. (2002), as estratégias de
verificação devem acompanhar de forma cumulativa e
interativa o desenrolar de um estudo qualitativo no sentido de
assegurarem o seu rigor e qualidade científica. Claro que se
trata de um conjunto de procedimentos exigentes na medida
em que implicam uma atitude de permanente questionamento
e responsabilização por parte do investigador que não deixa
que a questão do rigor se coloque como uma reflexão a
posteriori quando o estudo já está terminado.
No entanto, consideram, se bem interiorizadas e aplicadas
pelo investigador dão garantias de rigor e qualidade científica.
Para que continuar a utilizar expressões diferentes para aferir
um mesmo critério, questionam? Na perspetiva de Morse et al.
(2002), o conceito de validade deve ser sinónimo de rigor em
todos os estudos, sejam eles de cariz quantitativo ou
qualitativo. Validar é investigar, verificar, questionar, teorizar,
e, embora cada paradigma utilize para o efeito estratégias
diversificadas, isso não justifica a utilização de expressões
diversas.
Na perspetiva dos autores, a unificação conceptual advoga
a favor da valorização das metodologias qualitativas junto da
comunidade científica, que não pode continuar a olhar estes
modelos metodológicos como formas de investigação soft
indicadas apenas para os estudos menos rigorosos (Lecompte,
1990).
Atividades
Avalie criticamente o relatório de um estudo qualitativo de
acordo com o guião proposto por Borg, Gall e Gall (1993, p.
431-434).
Introdução
O marco conceptual e teórico está claramente explicitado?
Inclui a perspetiva do investigador?
É revelado o grau de implicação do investigador e possíveis
desvios negativos ou positivos na descrição do conteúdo do
estudo?
É a revisão de literatura suficientemente ampla? Inclui
estudos relevantes para o problema? É clarificada a
perspetiva do investigador?
Procedimentos
A amostragem revela-se adequada? É dada informação
sobre a forma como foram selecionados os participantes?
É referido o grau de implicação do investigador no estudo?
A recolha de dados é suficiente?
As variáveis são suficientemente válidas para o objetivo que
se persegue?
As variáveis são suficientemente fiáveis para o objetivo a
alcançar?
As variáveis são relevantes para a amostra?
Os procedimentos de investigação são apropriados? São
previstas técnicas múltiplas de recolha de dados?
Apresentam-se com suficiente detalhe para que seja possível
replicar a investigação?
Resultados
O relatório inclui uma descrição profunda que seja o reflexo
de como os sujeitos respondem na entrevista ou como se
comportam quando observados?
As descrições são separadas das interpretações?
É feita referência à credibilidade?
Emerge cada variável da análise e estudo dos dados?
São formuladas hipóteses ou perguntas de investigação?
Usam-se técnicas estatísticas? Em caso afirmativo, são
usadas de uma forma correta?
Discussão dos resultados
Existem fonte de evidência que deem suporte às conclusões?
O investigador proporciona explicações razoáveis para os
resultados encontrados? Resulta apropriado algum tipo de
generalização (no sentido de transferência a outras
situações)?
São sugeridas implicações para a prática?
REFERÊNCIAS BIBLIOGRÁFICAS
Bogdan, R., & Biklen, S. (1994). Investigação qualitativa em
Educação: uma introdução à teoria e aos métodos. Porto:
Porto Editora.
Borg, W., & Gall, M. (1989). Educational research: an
introduction (5ª ed.). New York: Longman.
Carr, W., & Kemmis, S. (1988). Teoría crítica de la
enseñanza. Barcelona: Martinez Roca.
Coutinho, C. P. (2008). A qualidade da pesquisa educativa de
natureza qualitativa: questões relativas à fidelidade e validade.
Revista Educação Unisinos, 12(1), 5-15. Retirado de
http://www.unisinos.
br/publicacoes_científicas/images/stories/pdfs_educacao/vol12
n1/005a015_ art01_coutinho%5Brev_ok%5D.pdf
Creswell, J. (1998). Qualitative inquiry and research design:
choosing among five traditions. Thousand Oaks: Sage
Publications.
Denzin, N., & Lincoln, Y. (2000). The discipline and practice
of qualitative research. In N.K. Denzin, & Y. Lincoln (Eds.),
Handbook of qualitative research (3ª ed., PP 1-32). Thousand
Oaks, CA: SAGE Publications.
Erickson, F. (1986). Qualitative methods in research on
teaching. In M.C. Wittrock (Ed.), Handbook of research on
Teaching (pp. 119-161). New York: Macmillan.
Erlandson, D., Harris, E., Skipper, B., & Allen, S. (1993).
Doing naturalistic inquiry: A guide to methods. Newbury
Park: Sage Publications.
Flick, U. (1998). An introduction to qualitative research.
London: Sage Publications.
Gorman, G., & Clayton, P. (1997). Qualitative research for the
information professional: A practical handbook. London:
Library Association Publishing.
Guba, E. (1981). Criteria for assessing the trustworthiness of
naturalistic inquiries. Educational Communication and
Technology Journal, 29(2), 75-92.
Guba, E., & Lincoln, Y. (1988). Do inquiry paradigms imply
inquiry methodologies? In D.M. Fetterman (Ed.), Qualitative
approaches to evaluation in education: The silent scientific
revolution (pp. 89-115). London: Praeger.
Janesick, V. (1994). The dance of qualitative design. In N.K.
Denzin, & Y. Lincoln (Eds.), Handbook of qualitative research
(pp. 209-219). Thousand Oaks: Sage Publications.
Latorre, A., & Del Rincon, D., & Arnal, J. (1996). Bases
metodológicas de la investigación educativa. Barcelona:
Hurtado Ediciones.
Lecompte, M. (1990). Emergent paradigms – How new? How
necessary? In E. G. Guba (Ed.), The paradigm dialog The
paradigm dialog 255). Newbury Park: Sage Publications.
Lincoln, Y. (1995). Emerging criteria for quality in qualitative
and interpretive research. Qualitative Inquiry, 11 289.
Lincoln, Y. & Guba, E. (1991). Naturalistic inquiry. New
York: Sage.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Miles, M. & Huberman, A. M. (1994). Qualitative data
analysis (2ª ed.). Thousand Oaks: Sage Publications.
Morse, J., Barrett, Mayan, M., Olson, K., & Spiers, J. (2002).
Verification strategies for establishing reliability and validity
in qualitative research. International Journal of Qualitative
Methods, 1(2), 13-22.
Patton, M. (1990). Qualitative evaluation and research
methods (2ª ed.). Newbury Park: Sage Publications.
Ponte, J. P. (1994) O estudo de caso na investigação em
educação matemática. Quadrante, 3(1), 3-17.
Rossman, G. B., & Wilson, B. L. (1985). Numbers and words:
Combining quantitative and qualitative methods in a single
large-scale evaluation study. Evaluation Review, 9(5), 627-
643.
Schwandt, T. A. (1997). Qualitative inquiry: A dictionary of
terms. Thousand Oaks: Sage Publications.
Stake, R. E. (1995). The art of case study research. Thousand
Oaks: Sage Publications.
Vieira, C. M. (1999). A credibilidade da investigação
científica de natureza qualitativa: questões relativas á sua
fidelidade e credibilidade. Revista Portuguesa de Pedagogia,
33(2), 89-11.
Capítulo 11

O Relatório de Investigação

11.1 Em Que Consiste?


O relatório é o suporte escrito (documento) que se elabora no
sentido de comunicar os resultados de uma investigação e os
procedimentos adotados. O relatório deve dar uma ideia global
de todo o processo da investigação. No domínio académico
pode adquirir a forma de uma tese (dissertação).
11.2 Como se Estrutura?
Regra geral o relatório científico é composto de 5 secções:
Introdução, Revisão de Literatura, Metodologia, Apresentação
e Discussão de Resultados e a Conclusão. No caso de
dissertações e teses, as secções podem corresponder a
capítulos que levam os títulos expressos como consta na
Figura 44.
CAPÍTULO 1 – INTRODUÇÃO
CAPÍTULO 2 – REVISÃO DE LITERATURA
CAPÍTULO 3 – METODOLOGIA
CAPÍTULO 4 – APRESENTAÇÃO E DISCUSSÃO DE RESULTADOS
CAPÍTULO 5 – CONCLUSÃO
REFERÊNCIAS BIBLIOGRÁFICAS
FIGURA 44 – Estrutura de um relatório de investigação

Alguns investigadores preferem considerar a Introdução e


Conclusão como secções autónomas independentes dos
capítulos e, nesse caso, a dissertação fica organizada tal como
representado na Figura 45.
INTRODUÇÃO
Capítulo 2 – REVISÃO DE LITERATURA
Capítulo 3 – METODOLOGIA
Capítulo 4 – APRESENTAÇÃO E DISCUSSÃO DE RESULTADOS
CONCLUSÃO
REFERÊNCIAS BIBLIOGRÁFICAS
FIGURA 45 – Estrutura de um relatório de investigação (alternativo)

No caso de artigos de revisão científica ou de trabalhos


académicos curriculares, a introdução e a revisão de literatura
podem ser reunidos numa única secção, a iniciar o trabalho,
sem título expresso.
11.2.1 Introdução
Segundo Azevedo (2000), a introdução inclui, pela ordem
julgada mais conveniente, os elementos de apresentação do
tema e do trabalho de investigação. Entre esses elementos
contam-se os seguintes:
1. Interesse/Pertinência do tema;
2. Enquadramento teórico dos assuntos tratados (ou
Contextualização da Problemática);
3. Definição do problema/Hipóteses;
4. Referência geral ao objetivo do trabalho;
5. Indicação precisa dos objetivos e enumeração das
hipóteses teóricas ou questões empíricas a que se pretende
responder (quando a natureza do problema não torna
possível a formulação de uma hipótese, formula-se apenas
o problema/questão de investigação);
6. Explicitação quer das variáveis independentes ou
preditoras quer das variáveis dependentes ou criteriais e
indicação das previsões de resultados;
7. Explicitação da planificação global dos conteúdos das
diversas partes do trabalho.
Note-se que as expressões Capítulo 1 e Introdução
costumam ser omitidas em artigos e em trabalhos de mais
reduzida extensão. Deve ainda salientar-se que um trabalho
académico ou um artigo de revista científica, que se limitem a
algumas dezenas de páginas, não são divididos em capítulos
mas em secções/tópicos que podem (ou não) começar com a
Introdução logo a seguir ao título, devendo o investigador
consultar antecipadamente as normas da revista onde pretende
publicar o seu artigo.
Alguns autores de teses e dissertações preferem dividir este
primeiro capítulo em dois, o primeiro dos quais, mais breve,
constitui a introdução propriamente dita, e o segundo, mais
desenvolvido, contém o enquadramento teórico.
A estrutura clássica do relatório costuma começar com o
mais geral (Introdução), passar depois para o mais particular
(Revisão da literatura, Metodologia e Resultados) e concluir
novamente com o mais geral (Discussão e Conclusão).
Também é importante que o investigador mantenha um padrão
de escrita no decorrer do texto. Uma boa dica é começar cada
capítulo com um parágrafo de introdução ao que vai ser o
assunto abordado e encerrar com uma subsecção de
“Considerações Finais” em que pode resumir o capítulo e
salientar os seus aspetos mais relevantes (Moro et al., 2004).
11.2.2 Revisão da Literatura
A Revisão de Literatura destina-se a reunir informação sobre a
investigação realizada em áreas próximas à que está a ser
investigada.
A revisão da literatura inclui os seguintes elementos:
1. definição dos critérios que foram usados para a
delimitação da área de investigação que se vai rever,
diretamente relacionada com o presente trabalho;
2. identificação dos trabalhos (empíricos) realizados por
outros investigadores em áreas que se aproximam daquela
que nos ocupa e resumo da metodologia de investigação e
dos resultados obtidos em cada um desses trabalhos;
3. sínteses gerais do resultados que foram obtidos por
outrem e que são considerados relevantes para o presente
trabalho.
11.2.3 Metodologia
O capítulo Metodologia destina-se a dar informação sobre os
procedimentos gerais usados na pesquisa empírica, os
instrumentos utilizados e relatar a maneira como os dados
foram recolhidos. Inclui normalmente os seguintes elementos:
1. alusão ao enfoque de investigação (quantitativa vs
qualitativo vs misto) e apresentação do design ou plano
metodológico do estudo;
2. descrição da população alvo, da população acessível, da
amostra dos participantes utilizada e do processo de
definição da amostra;
3. justificação dos instrumentos escolhidos;
4 descrição dos instrumentos usados (testes, questionários,
entrevistas);
5. considerações sobre a fiabilidade e validade dos
instrumentos;
6. descrição dos procedimentos adotados no estudo.
Os instrumentos usados são descritos, mas em regra não
são incluídos neste capítulo. Costumam ser integralmente
reproduzidos nos apêndices, com o mesmo formato com que
foram apresentados aos participantes.
Note-se que a palavra “sujeitos” caiu em ultimamente em
desuso, sendo substituída por “participantes” ou, em estudos
de natureza etnográfica, por “informante”. Em estudos
quantitativos de tipo survey é costume usar-se a designação
“respondentes” para referir os sujeitos que integram a amostra.
11.2.4 Apresentação e Discussão de Resultados
O capítulo Apresentação e Discussão de Resultados destina-se
a informar o leitor sobre as respostas que os dados obtidos
forneceram em relação às questões empíricas formuladas no
início do trabalho. Inclui entre outros os seguintes elementos:
1. descrição dos resultados obtidos, por referência às
hipóteses e previsões iniciais, com ilustração através de
figuras, quadros e/ou gráficos considerados convenientes;
2. descrição dos métodos utilizados para o tratamento dos
dados;
3. indicação dos testes estatísticos aplicados;
4. informação sobre a confirmação ou não confirmação das
previsões iniciais.
Em regra, os resultados são apresentados tendo em conta a
ordem das questões empíricas do trabalho, e não a ordem dos
instrumentos utilizados. Como em tudo, a lógica interna é que
determina a sequência dos assuntos.
11.2.5 Conclusão
O último capítulo, Conclusão constitui uma reflexão sobre os
resultados encontrados. Inclui entre outros os seguintes
pontos:
1. discussão dos resultados obtidos por referência às
questões empíricas, hipóteses ou previsões iniciais;
2. considerações sobre a validade dos resultados bem como
sobre a legitimidade de possíveis generalizações, tendo em
conta as circunstâncias da amostragem utilizada e da
metodologia seguida;
3. imitações impostas pela imperfeições do processo de
amostragem ou da metodologia seguida;
4. considerações sobre o interesse e novidade dos
resultados obtidos; ligação entre os resultados verificados e
o estado atual dos conhecimentos sobre a matéria em
questão;
5. sugestões para aplicação prática dos resultados obtidos;
6. problemas que se levantam com a presente investigação
e pistas para prosseguir com investigações futuras.
11.2.6 Resumo ou Abstract
O Resumo ou Abstract é um texto de umas 50-150 palavras
que contêm a informação principal do estudo. No Resumo ou
Abstract faz-se uma indicação expressa do tema que é objeto
do estudo, da metodologia seguida e dos resultados obtidos. A
importância do Resumo ou Abstract reside em proporcionar ao
leitor elementos que lhe permitam decidir sobre a pertinência
ou não da leitura do relatório completo.
11.2.7 Referências Bibliográficas
A secção Referências consta de uma lista de fontes citadas no
relatório de investigação. O estilo para apresentação de
referências bibliográficas varia em função das diferentes áreas
e domínios das Ciências Sociais e Humanas, embora, o mais
recomendado, para quem investiga em Ciências da Educação e
Psicologia, seja usar as normas da APA (American
Psychological Association disponível em
http://www.apastyle.org).
Não se deve confundir Referências Bibliográficas com
Bibliografia; a Bibliografia inclui, para além das fontes citadas
no texto do relatório, aquelas fontes que não foram citadas no
relatório mas que foram também consultadas e utilizadas
pelo(s) autor(es). Da mesma forma, há três indicações gerais
que devem ser sempre tidas em conta na referenciação das
fontes consultadas, a referir:
a) Nomes : para autores deve-se respeitar a forma: Apelido
(por extenso, Maiúscula apenas no início), Primeiro Nome
e Nomes do Meio marcados pelas iniciais. Em caso de dois
ou mais autores, os nomes devem ser separados por
vírgulas, e o apelido do último autor precedido por &.
Ex: Apelido, N., Apelido, N., & Apelido, N. (…)
Esta regra não se aplica somente quando os nomes dos
autores aparecem de forma secundária, como os autores de
livros e atas nos quais os autores principais têm capítulos
ou trabalhos publicados. Neste caso a ordem é: Inicial dos
Primeiros Nomes, Apelido (Por extenso, Maiúscula apenas
no início).
Ex: Apelido, N., Apelido, N., & Apelido, N. (Ano).
Título do capítulo/trabalho. In N. Apelido, N. Apelido,
& N. Apelido. (…)
b) Títulos : Os títulos de todos os trabalhos (livros,
capítulos, teses, artigos) devem ser escritos com Maiúscula
apenas na palavra inicial, com exceção a nomes próprios e
áreas do conhecimento.
Ex: Garcia Hoz, V. (Ed.). (1994). Problemas e métodos
de investigacion en Educación.
Apenas os títulos de periódicos, revistas e eventos são
escritos com todas as palavras em maiúsculas.
Ex: Dias, P. (2000). Hipertexto, hipermédia e media do
conhecimento: representação distribuída e
aprendizagens flexíveis e colaborativas na Web.
Revista Portuguesa de Educação, 13(1), 141-167.
c) Abreviaturas
As palavras referentes aos autores (Editor, Organizador,
Coordenador) são sempre abreviadas respeitando as
maiúsculas (Ed. Org., Coord.) e o plural (Eds., Orgs.,
Coords.).
As palavras referentes às publicações (edição, volume,
coleção) são sempre abreviadas utilizando minúsculas (ed.,
vol., col.).
O Quadro 40, abaixo representado, resume o modo de citar
as diferentes fontes segundo as normas APA.
Livro
Apelido, N. (Ano). Título do livro em itálico. Local de edição: Editora.
Apple, M. (1979). Ideology and curriculum. Boston: Routledge & Kegan Paul.
Livro editado pelo próprio autor
Apelido, N. (Ed.). (Ano). Título do livro em itálico. Local de edição: Editora.
Garcia Hoz, V. (Ed.). (1994). Problemas e métodos de investigacion en
Educación. Madrid: Rialp
Livro publicado online
Apelido, N. (Ano). Título do livro em itálico. Retirado de link da publicação
Carvalho, A. A. A. (Org.) (2008). Manual de ferramentas da Web 2.0 para
professores. Retirado de http://www.crie.min-
edu.pt/publico/web20/manual_web20-professores.pdf
Capítulo de livro
Apelido, N. (Ano). Título do artigo. In N. Apelido do
editor/coordenador/organizador do livro (Ed. / Coord. / Org.), Título do livro em
itálico (pp. páginas inicial-página final). Local de edição: Editora.
Bravo, M. P. C. (1992). Los métodos de investigación en Educación. In M. P.
Colás Bravo & L. B. Eisman (Ed.), Investigación Educativa (pp. 43-67).
Sevilha: Ediciones Alfar.
Artigo de revista de caráter científico
Apelido, N. (Ano). Título do artigo. Nome da Revista Em Itálico, Vol.(nº),
Página inicial-Página final do artigo.
Dias, P. (2000). Hipertexto, hipermédia e media do conhecimento: representação
distribuída e aprendizagens flexíveis e colaborativas na Web. Revista Portuguesa
de Educação, 13(1), 141-167.
Artigo de jornal ou revista de caráter divulgativo
Apelido, N. (Dia, mês e ano). Título do artigo. Nome da Revista em Itálico,
páginas de início e de fim.
Matos, J. F. (05 de abril de 1987). Os computadores e a escola. O Público, p. 26.
Artigo de revista de caráter científico publicado online com DOI (Número
de identificação online)
Apelido, N. (Ano). Título do artigo. Nome da Revista Em Itálico, Vol.(nº),
Página inicial-Página final do artigo. doi: XXXXXXXXXX.
Sylla, C., Branco, P., Coutinho, C. P, & Coquet, E.. 2011. TUIs vs. GUIs:
comparing the learning potential. Personal and Ubiquitous Computing, 1, 1-10.
doi: 10.1007/s00779-011-0407-z
Artigo de revista de caráter científico publicado online sem DOI
Apelido, N. (Ano). Título do artigo. Nome da Revista Em Itálico, Vol.(nº),
Página inicial-Página final do artigo. Retirado de link da publicação
Carvalho, A. A., Aguiar, C., Cabecinhas, R., & Carvalho, J. (2008). Integração
de podcasts no ensino universitário: Reações dos alunos. Prisma.com, 1(6), 50-
74. Retirado de http://prisma.cetac.up.pt/
Teses Publicadas em Repositório Institucional (RepositoriUM, por exemplo)
Apelido, N. (Ano). Título da tese de mestrado ou de doutoramento (Tese de
mestrado ou de doutoramento). Retirado de Nome do Repositório. (Número de
Acesso)
Bottentuit Junior, J. B. (2011). Conceção, avaliação e dinamização de um portal
educacional de webQuests em língua portuguesa (Tese de doutoramento).
Retirado de RepositoriUM. (1822/11889)
Teses Não Publicadas
Apelido, N. (Ano). Título da tese de mestrado ou de doutoramento (Tese de
mestrado ou doutoramento não publicada). Instituição: Local.
Andrade, E. (2013). Utilização de materiais híbridos na Educação de Infância
(Tese de mestrado não publicada). Universidade do Minho: Braga.
Trabalho apresentado em congresso (não publicado) – Comunicação oral,
poster, conferência.
Apelido, N. (Mês e Ano). Título da comunicação em itálico. Trabalho
apresentado no Nome do Evento, Local.
Pereira, D. C. (dezembro de 1991) Aprendizagem e hipertexto. Comunicação
apresentada no I Congresso da SPCE: Situação Atual e Perspetivas , Lisboa.
Trabalho publicado em atas de eventos científicos (Congressos,
Conferências)
Apelido, N. (Ano). Título da comunicação. In N. Apelido do
editor/coordenador/organizador das Atas (Ed. / Coord. / Org.). Título das Atas
em Itálico (pp. Página Inicial-Página Final). Local de Edição: Editora.
Coutinho, C. P. (2001) Desafios à investigação em TIC na Educação: as
metodologias de desenvolvimento. In P. Dias, & C. V. Freitas (Orgs.) Atas da II
Conferência Internacional das TIC na Educação: Desafios/Challenges 2001
(pp. 895-904). Centro de Competência Nónio Sec XXI: Universidade do Minho.
Referências eletrónicas
Vídeo Online
Nome do Produtor. (Produtor). (Ano). Título do video [Meio de distribuição].
Disponível em linkdovideo
American Psychological Association. (Producer). (2000). Responding
therapeutical/y to patient expressions of sexual attraction [DVDI. Available
from http://www.apa.org/videos/.
Podcast Online
Autor. (Produtor). (Dia, Mês, Ano). Título do podcast. [Podcast Áudio].
Retirado de.
Dutra, I. (Produtor). (19 de junho de 2007). Mapas Conceituais. [Podcast
Áudio]. Retirado de http:// www.podcast.sitedaescola.com/index.php?id=89.
Software
Nome do Software (Versão) [Software de Computador]. Local: Editora.
Manual Digital (1) [Software de Computador]. Portugal: Lusoinfo &
Universidade do Minho.
Mensagem postada em um fórum ou grupo de discussão.
Autor, A. (Dia, Mês, Ano). Título da Mensagem. [Comentário em fórum/grupo
de discussão online]. Retirado de link da mensagem postada.
Noronha, A. (08 de janeiro de 2008). Podemos prever um tsunami? [Comentário
em fórum de discussão online]. Retirado de
http://www.cienciaviva.pt/foruns/index.asp?accao=showMesg&forumID=11
0&mesgID=385
Post de Blogue
Autor. (Dia, Mês, Ano). Título do post. [Post de Blogue Web]. Retirado de link
do post.
Paulo Guinote. (13 de fevereiro de 2013). Absolutamente Lamentável. [Post de
Blogue Web]. Retirado de
http://educar.wordpress.com/2013/02/13/absolutamente-lamentavel 2/.
QUADRO 40 – Citação de fontes bibliográficas segundo a norma APA

11.3 Redação do Relatório de Investigação


11.3.1 A quem nos dirigimos?
À humanidade, ou seja, a todos os interessados, uma vez que o
leque de leitores pode ser vasto. Por isso, deve-se dominar e
ter claro o assunto sobre o qual se escreve e fazer uma
explicação dos conceitos fundamentais utilizados no texto.
11.3.2 Como se comunica/redige? (estilo da escrita)
Em geral, usando linguagem sóbria, simples e correta e isso
obriga a:
– evitar períodos longos e fazer parágrafos com
frequência;
– usar os termos e conceitos com propriedade e explicar os
que são usados pela primeira vez;
– usar de pontuação mas não utilizar reticências ou pontos
de exclamação;
– usar ironias e metáforas com parcimónia e não as
explicar;
– utilizar o plural majestático “nós” em vez de dizer “eu”
pois, escrever é um ato social;
– não colocar artigo (definido) antes de nomes próprios;
– não aportuguesar nomes de batismo estrangeiros a não
ser que isso seja sancionado pela tradição;
– não usar calões ou expressões da gíria popular.
11.3.3 As citações
Cita-se um texto (ou excerto) sobre o qual depois nos iremos
debruçar com o objetivo de interpretar ou para apoio da nossa
interpretação. Por isso, citamos ideias que trazem algo de novo
em relação ao que dissemos ou vamos dizer.
A citação obedece a regras, tais como:
– as citações, no corpo do texto, devem ter uma extensão
razoável, não ultrapassando a meia página; devem referir-
se, tanto quanto possível, à edição mais cotada;
– quando não ultrapassa as 40 palavras, insere-se a citação
no corpo do parágrafo, entre aspas. Quando é mais longa,
deve-se colocá-la recolhida, após parágrafo, a um espaço e
em letra de tamanho inferior. Neste caso não se usam
aspas;
– os textos de literatura crítica só devem ser citados
quando, através da sua autoridade, corroborarem ideias
nossas;
– de todas as citações devem ser claramente reconhecíveis
o autor e a fonte impressa (ou manuscrita) especialmente
quando é nomeado pela primeira vez. Usa-se a colocação
do nome do autor, entre parêntesis, e depois da citação,
seguido da data de publicação da obra referenciada e da
página de onde foi extraída a citação. (Eco, 1984, p. 169);
– na citação literal de referências da Internet em que não
há paginação, no corpo do texto, indicar, após a data, o
parágrafo seguido sempre de “para.” . Ex: (Young, 2008,
para. 4). Na lista de referências não é preciso indicar
parágrafo nem a expressão online, basta o link ou o doi;
– quando se cita pela segunda vez o mesmo autor e obra
pode-se escrever à frente do nome op. cit. Quando nos
referimos a uma citação precedente (autor, obra e página)
basta colocar ibid ou ibidem.
– as citações de fontes primárias são feitas, na medida do
possível, com referência à edição mais reputada (ou
original);
– as citações de obras em língua estrangeira (de autores
estrangeiros) devem ser feitas na língua original. A
tradução, quando possível e necessária, deve figurar em
nota de rodapé;
– quando se cita uma obra publicada que não foi possível
consultar diretamente referem-se as datas de publicação de
ambas as fontes, devendo ser ambas incluídas na lista final
de referências. Se a fonte primária é inédita, apenas a fonte
secundária é incluída na bibliografia;
– a referência ao autor e à obra referida devem ser claras
para não suscitar dúvidas. A referência deve ser exata e
precisa. A fonte deve figurar obrigatoriamente na
bibliografia final;
– os autores são referidos pelo último nome com maiúscula
inicial nas citações dentro do texto. Assim o livro
Evaluation Research de Alan Clarke, seria citado no texto
apenas como Clarke (1999);
– se o nome do autor não faz parte do texto, nome e data
são inseridos entre parêntesis; se o nome do autor citado
faz parte do texto, só o ano do trabalho vai entre
parêntesis;
– as referências simultâneas de vários trabalhos devem ser
separadas por ponto e vírgula e ordenadas segundo a
ordem alfabética dos respetivos nomes. Ex: (Jeremias &
Elias, 1985, 1987; Marnoto, 1986, 1987; Vespúcia, 1988;
Woodworth, 1949);
– se uma obra tem dois autores citam-se sempre ambos;
– se uma obra tem mais do que dois autores e menos que
seis, cite todos os apelidos na primeira referência; nas
seguintes cite apenas o apelido do primeiro autor seguido
de et al.;
– se uma obra tem mais do que seis autores, cite sempre
apenas o sobrenome do primeiro autor seguido de et al.
(sem itálico e com o ponto final); no entanto na lista de
referências bibliográficas a referência deve ser completa;
– para citar trabalhos do mesmo autor ou autores, da
mesma data, acrescentam-se ao ano as letras, a, b, c, até o
que for necessário, repetindo sempre o ano.
– as citações devem ser fiéis, transcrevendo as palavras tal
como estão; não se deve eliminar partes do texto a citar
sem que isso seja assinalado na forma (…); não se devem
fazer interpolações ou comentários pessoais, sendo
preferível sublinhar (ou destacar em negrito),
acrescentando a observação [sublinhado nosso]; se
tivermos de acrescentar palavras nossas à citação, para
elevar a compreensão, isso deverá ser feito entre
parêntesis. Se constatamos que o autor citado comete um
erro ortográfico, escrevêmo-lo tal e qual seguido da nota
[sic].
É preciso diferenciar a citação (transcrição exata das ideias
de um autor) da paráfrase (transcrição das ideias de um autor
por palavras nossas) e do plágio (usar ideias de outrem, sem
aspas, como se fossem nossas).
11.3.4 As notas de rodapé
As notas de rodapé (ou de fim de página) servem para:
– acrescentar outras indicações bibliográficas de reforço a
um assunto discutido no texto;
– fazer referências a outras fontes a que se remete para
confronto;
– introduzir uma citação de reforço que no texto viria
perturbar a leitura;
– ampliar e/ou corrigir as afirmações que se fizeram no
texto;
– fornecer a tradução de uma citação que teve de ser feita
em língua estrangeira;
– pagar dívidas, ou seja, agradecer contributos teóricos de
outros.
11.3.5 Formatação do texto
O aspeto do texto é importante, especialmente no que diz
respeito às margens, aos parágrafos, aos sublinhados, aos
títulos dos capítulos, aos espaços entre linhas, às abreviaturas e
siglas, aos algarismos, à pontuação e acentuação, etc.
A escrita deve ser sóbria, com períodos curtos, com
parágrafos frequentes. As ideias devem ser concisas, usando
os conceitos adequados. Deve revelar seriedade, rigor e
modéstia, especialmente quando se trata de comunicar
“descobertas” acerca de um assunto de investigação.
Existem algumas normas gerais que se devem considerar
na redação de um texto para o tornar atraente, mas muito
depende do bom senso de quem escreve, especialmente no que
diz respeito à manutenção de um critério uniforme em todo o
trabalho.
– um texto de um trabalho académico processado em
computador pode utilizar carateres do tamanho 12 e a 2
espaços entre linhas; as linhas aumentam ao separar
capítulos e subcapítulos;
– as margens podem ser de 3 cm ao alto e à esquerda e de
2,5 cm em baixo e à direita. As notas de rodapé não devem
ultrapassar o limite da margem inferior;
– os títulos dos capítulos podem aparecer centrados ou
alinhados à esquerda e escritos com MAIÚSCULAS; neste
caso levam numeração romana;
– Não acrescentar ou eliminar notas só para acertar a
numeração.
– Dar sempre indicações precisas sobre as edições críticas,
revisões e similares.
– Não esquecer de incluir no fim a lista da bibliografia
consultada na e para a elaboração do trabalho.
– Fazer uma revisão cuidadosa do texto para eliminar as
gralhas e os erros. Se se detetarem erros posteriormente à
edição, deve-se anexar uma errata.
– Todos os materiais que serviram de fontes primárias de
recolha de informação (instrumentos do tipo questionários
e roteiros de observação e de entrevista, documentos do
tipo atas, relatórios, depoimentos) podem ser apresentados
em anexo ao trabalho.
– Grande parte das tabelas de dados, quadros e fórmulas
utilizadas para o tratamento dos dados podem figurar em
anexo, ficando no corpo do texto apenas os elementos
imprescindíveis para ilustrar as análises.
– Não esquecer os agradecimentos a todos os que
colaboraram na elaboração do trabalho (desde o orientador
aos sujeitos inquiridos, passando pelos críticos, revisores
do texto, facultadores de documentação/informação, etc.
– Incluir o índice do trabalho no início do relatório,
porque, em geral, é a primeira coisa que se procura para se
ter uma visão geral do trabalho.
REFERÊNCIAS BIBLIOGRÁFICAS
Azevedo, M. (2000). Teses, relatórios e trabalhos escolares:
sugestões para estruturação da escrita. Lisboa: Universidade
Católica Portuguesa.
Eco, U. (1988). Como se faz uma tese em Ciências Humanas.
Lisboa: Presença.
Moro, M., Graganholo, V., Nacul, A., & Fornari, M. (2004).
Rumo ao título de Doutor/Mestre. RITA, 10(2), 99-112.
Retirado de
http://www.researchgate.net/publication/220162257_Rumo_ao
_Ttulo_de_ DoutorMestre
Parte III

Planos De Investigação

A investigação é um processo que visa a obtenção de


conhecimento científico, mas não existe nenhum método
inteiramente “seguro” para eliminar fontes de erro na
implementação de um qualquer projecto de investigação
científica; se esse facto é uma realidade incontornável em
qualquer campo do conhecimento, mais o é ainda no caso
concreto da investigação em CSH, onde os procedimentos são
sempre relativos a um dado momento histórico e à
especificidade e natureza do conhecimento a alcançar.
Passamos agora apresentar alguns dos planos mais
representativos da investigação em Ciências Sociais e
Humanas. Assim sendo, no Capítulo 12, apresentamos os
Planos Experimentais, a que recorremos sempre que o
objetivo do nosso estudo é testar hipóteses de causalidade
entre variáveis. De entre os diferentes planos de tipo
experimental abordamos as seguintes modalidades:
• Planos pré-experimentais
• Planos experimentais puros
• Planos quase experimentais
• Planos de sujeito único
No Capítulo 13, serão apresentados os Planos Não
Experimentais ou Descritivos, ou seja, planos a que o
investigador recorre quando procura descrever condições
existentes num dado contexto, ou então quando procura
averiguar a forma como se relacionam as variáveis do seu
estudo sem pretensão de causalidade. Serão alvo de análise as
seguintes modalidades:
• Estudo Ex post facto ou causal comparativo
• Estudos Correlacionais
• Inquérito ou Survey
• Estudos psicométricos
Do Capítulo 14 constam os Planos Qualitativos, que se
caraterizam pelo facto de a investigação decorrer em contextos
naturais e o investigador procurar a compreensão mais do que
a explicação do fenómeno investigado. De entre os planos
qualitativos abordarmos:
• Estudo de caso
• Etnografia
• Teoria Fundamentada
• Fenomenologia
No Capítulo 15 apresentamos os Planos Multi-
metodológicos ou Mistos, assim designados por combinarem
num mesmo estudo ou projecto de investigação métodos
quantitativos e qualitativos. Serão alvo de análise:
• Investigação-acção
• Estudos de Avaliação
• Investigação analítica
No sentido de ajudar o investigador na escolha do modelo
metodológico que melhor se adapta às condições particulares
do seu estudo, apresentamos, na página seguinte um diagrama
de decisão que contempla a pluralidade dos modelos
metodológicos que serão abordados nos capítulos que se
seguem (Figura 46).
FIGURA 46 – Diagrama de decisão metodológica do
investigador
Capítulo 12

Investigação Experimental

12.1 Caraterização Geral


Apoiada no paradigma positivista, a metodologia experimental
constitui o modelo “clássico” da investigação quantitativa em
CSH.
A lógica de um plano experimental, na sua versão mais
simples, funciona assim: o investigador forma dois grupos de
sujeitos, aplica a um dos grupos o experimento ou tratamento
(VI que manipula), e, ao outro grupo, ou não faz nada, ou
aplica um tratamento diferente também designado por efeito
placebo (Stern & Kalof, 1996; Vogt, 1999). O grupo que
recebe o experimento chama-se grupo experimental e o grupo
em que nada acontece ou acontece algo diferente chamamos
de grupo de controlo. Comparamos os grupos na variável
dependente, com o objetivo de verificar se as diferenças nos
resultados são devidas ou melhor causadas pelo tratamento. A
atribuição de causalidade baseia-se no pressuposto da
equivalência dos grupos que terão de ser necessariamente
semelhantes em tudo exceto na exposição à variável
independente ou tratamento, ou seja, ao facto do grupo
experimental ter recebido o tratamento e o de controlo não, o
que fornece base para o investigador inferir de que as
diferenças na VD são causadas pela VI (Bisquerra, 1989;
Charles, 1998; Eisman, 1992c; Moore, 1983; Punch, 1998;
Schutt, 1999).
12.1.1 Equivalência dos grupos
A validade dos planos de tipo experimental reside no
pressuposto da semelhança26 ou melhor, equivalência dos
grupos que se comparam (experimental e de controlo) e daí
terem sido desenvolvidos métodos específicos para se
conseguir atingir tal propósito. Os mais referidos na literatura
são: “aleatorização”, emparelhamento (matching) e controlo
estatístico de variáveis estranhas:
• Emparelhamento (matching): era, no passado recente, a
técnica mais utilizada pelos investigadores, consistindo na
formação de grupos com base em caraterísticas relevantes
e conhecidas dos sujeitos, por exemplo, “alunos com
dificuldades de aprendizagem”, “alunos com QI superior
a”, que eram tidas em conta na formação dos grupos (seja
formando grupos idênticos ou, deliberadamente diferentes)
(MacMillan & Schumaker, 1997; Stern & Kalof, 1996);
• “Aleatorização”: é, na atualidade, a técnica que merece
o maior consenso junto dos investigadores sociais para se
atingir o requisito da semelhança dos grupos. A
incorporação aleatória dos sujeitos aos grupos – RS,
complementada pela incorporação aleatória dos grupos aos
tratamentos – RA, maximiza a probabilidade de não
diferença sistemática entre os grupos, permitindo controlar
variáveis estranhas que, por diferirem nos grupos,
poderiam invalidar relações e conclusões tiradas acerca da
influência da VI sobre a VD, aquando da comparação dos
grupos (Moore, 1983; Punch, 1998);
• Controlo estatístico: deve ser aplicado quando não é
possível proceder à “aleatorização” dos sujeitos para os
grupos, e o investigador trabalha com grupos intactos o
que obriga a transformar os planos experimentais puros em
planos quase experimentais (Moore, 1983; Punch, 1998).
Como há uma multiplicidade de situações específicas,
assim foram surgindo modalidades de planos de tipo
experimental, todos seguindo a lógica que acabámos de
descrever (manipulação da VI; comparação de grupos; grupos
equivalentes) (Tellez, 1993). Convém notar que, percorrendo
as principais obras de referência, todos os autores coincidem,
basicamente, na tipologia de planos que vamos apresentar
sendo que a obra clássica por excelência continua a ser a de
Campbell e Stanley (1963), referência indispensável a este
nível.
12.1.2 Pré e pós-teste
Todos os planos experimentais têm necessariamente um pós-
teste, ou seja uma medição dos grupos intervenientes depois
da aplicação do tratamento ou condição ao grupo experimental
(Schutt, 1999). Muitas vezes incluem também um pré-teste
que mede a variável dependente antes da intervenção
experimental (um pré-teste é exatamente o mesmo que um
pós-teste apenas diferindo no tempo o momento da sua
administração).
Em planos experimentais puros, não faz muito sentido
incluir um pré-teste, uma vez que a atribuição aleatória dos
sujeitos aos grupos garante a equiparação dos mesmos, ou
seja, a semelhança à partida, condição essencial na
comparação no pós-teste (Black, 1999). Não quer isto dizer
que o pré-teste não faça sentido mesmo nos planos
experimentais puros em que poderia ser dispensada a sua
administração: o pré-teste pode sempre funcionar como
comprovante do sucesso da “aleatorização”, e, por outro lado,
ao identificar os scores/pontuações iniciais dos sujeitos na
variável dependente, o pré-teste dá uma imagem mais nítida
dos efeitos da intervenção e permite medir as mudanças
ocorridas nos grupos no tempo (Schutt, 1999). Múltiplos pré e
pós-testes são ainda possíveis de serem incluídos em planos
experimentais. Os pós-teste múltiplos permitem identificar
efeitos do tratamento retardados no tempo.
12.1.3 Notações
É frequente recorrer-se a notações abreviadas para representar
os constituintes dos diferentes planos experimentais (grupo
experimental e de controlo, variável dependente e
independente, etc., etc.). O Quadro 38 sintetiza as notações
mais vulgares utilizadas nos manuais de investigação para
representar as componentes básicas dos planos de investigação
experimental, que passaremos a utilizar doravante.

QUADRO 38 – Notações mais utilizadas em planos de tipo experimental

12.2 (A) Planos Pré-experimentais


Incluídos por alguns autores nos planos quase experimentais
(Mertens, 1998; Moore, 1983; Wiersma, 1995), considerados
por outros como nem merecendo a categoria da designação de
“plano de investigação” – caso de Tuckman (1978, p. 128),
por exemplo, que os designa non designs por não permitirem
um controlo adequado de fontes de validade interna – trata-se
de planos “demasiado” utilizados na investigação em CSH
para os não referirmos com particular destaque, nem que seja,
tal como advertem Campbell e Stanley (1963, p. 6), como “…
forma de alertar para o seu pouco valor científico”.
Embora incluam os ingredientes básicos de um plano
experimental (variáveis, grupos, tratamento), trata-se de planos
que não garantem o mínimo de valor aos resultados (Campbell
& Stanley, 1963; Eisman, 1992a; Fox, 1987; Stern & Kalof,
1996), uma vez que, em qualquer das suas três modalidades,
ou incluem um único grupo intacto sem grupo de controlo –
static-group comparison (Moore, 1983, p. 171) –, ou então
dois grupos não equivalentes em que apenas um deles recebe o
tratamento – nonequivalent control group design (Moore,
1983, p. 170).
O Quadro 39 ilustra as três variantes possíveis destes
planos, com esquema e comentários sobre caraterísticas e
deficiências de cada um.
QUADRO 39 – Quadro-resumo dos planos pré-experimentais

No plano A1, não se faz qualquer comparação: as


inferências baseiam-se em expectativas do que seriam os
dados se X não ocorresse, ou seja, compara-se um grupo com
aquilo a que Black (1999) chama o “conhecimento geral”; ora
uma evidência científica segura implica que se faça, pelo
menos, uma comparação que permita um registo de
diferenças.
Já os planos A2 e A3 permitem a comparação mas são
“maus exemplos” porque se revelam incapazes de controlar
variáveis estranhas que podem comprometer definitivamente a
validade interna da investigação.
12.3 (B) Planos Experimentais Puros (True Experimental
Designs)
É o plano experimental “ideal” que maximiza a validade
interna da investigação. A caraterística individualizadora deste
tipo de plano, que o superioriza em relação a todos os outros
planos de tipo experimental, é a incorporação aleatória
(randomization) dos sujeitos aos grupos a comparar, bem
como a escolha aleatória dos grupos para as condições (qual
dos grupos será o experimental e o de controlo), eliminando
fontes sistemáticas de erro ligadas à utilização de grupos
intactos (seleção, maturação, história, mortalidade) (Meltzoff,
1998; Mertens, 1998; Spector, 1994; Stern & Kalof, 1996).
A questão da constituição dos grupos experimental e de
controlo é fundamental na investigação experimental pura que
procura determinar os efeitos da variável independente sobre a
dependente e buscar relações de causalidade entre ambas
(Schutt, 1999). De facto, se os grupos intervenientes não
forem idênticos antes da introdução do tratamento
experimental, não é possível a comparação ou seja, cai por
terra o princípio base deste tipo de planos: determinar os
efeitos únicos atribuíveis ao tratamento experimental (Black,
1999; Heiman, 1996; Schutt, 1999). A “aleatorização” é o
garante da homogeneidade dos grupos, “… fazendo do grupo
de controlo a ferramenta poderosa que permite identificar os
efeitos do tratamento” (Schutt, 1999,p. 190).
Quando falamos em “aleatorização” importa distinguir
três situações distintas:
• a seleção aleatória (random sampling) dos sujeitos para
o estudo, ferramenta que assegura a generalização dos
resultados ou validade externa do estudo;
• da assignação aleatória (random assignment) dos
sujeitos para os grupos experimental e de controlo,
ferramenta que permite assegurar a validade interna do
plano;
• a assignação aleatória dos grupos para as condições,
que é aquela situação em que se determina qual será o
grupo experimental e o de controlo.
É frequente a confusão entre os dois primeiros tipos de
“aleatorização” referidos acima, facto que procuraremos
remediar com a ajuda das figuras que seguem e que adaptámos
da obra de Schutt (1999, p. 192). A primeira (Figura 47)
ilustra o conceito de seleção aleatória: há uma população
(alunos de uma escola), e dessa população são selecionados,
numa base em que intervém apenas a sorte/acaso (ou seja,
aleatoriamente)27 os sujeitos que vão participar no estudo (ou
participantes).
FIGURA 47 – Seleção aleatória dos participantes num estudo
Vejamos agora em que consiste a segunda situação, ou seja
a assignação ou incorporação aleatória dos sujeitos para os
grupos, ilustrada na Figura 48: os participantes no estudo são
aleatoriamente divididos entre o grupo que vai receber o
tratamento experimental e o de controlo, o que permite criar
dois (ou mais) grupos equivalentes assegurando a validade
interna do experimento (Black, 1999; Meltzoff, 1998; Schutt,
1999; Stern & Kalof, 1996).

FIGURA 48 – Escolha aleatória dos sujeitos para os grupos

Um grupo de controlo de incorporação aleatória fornece


ao investigador uma boa estimativa do chamado contrafacto,
ao mostrar o que aconteceria se os sujeitos não fossem
expostos ao tratamento e fosse mantida a rotina habitual. Isso
só é possível no caso dos dois grupos (experimental e
controlo) diferirem apenas no facto de um receber e o outro
não receber o tratamento, condição sine qua non para se
identificarem efeitos únicos e exclusivos do tratamento
experimental, e que só a incorporação aleatória garante
(Black, 1999; Heiman, 1996).
Um outro processo reportado na literatura para constituir e
equiparar os grupos experimental e de controlo é a técnica do
emparelhamento (matching): trata-se de formar pares de
participantes com base em caraterísticas comuns como seja
idade, sexo, ano de escolaridade (Schutt, 1999). O
emparelhamento em si não dá qualquer garantia ao
investigador da semelhança dos grupos, mas, se aliado a uma
posterior assignação aleatória dos pares para os grupos (ver
Figura 49, adaptada também de Schutt, 1999, p. 193), é um
processo que reúne algumas garantias de reduzir as diferenças
atribuídas ao acaso, e permite explorar aspetos específicos
adicionais, que podem ter interesse para a investigação (por
exemplo, a influência de variáveis moderadoras caso do sexo,
estatuto social, etc.).

FIGURA 49 – Emparelhamento seguido de assignação aleatória

Como veremos, é com base na existência (ou não) de


aleatorização dos grupos, que se distinguem os planos
experimentais puros ou verdadeiros dos restantes planos de
“tipo” experimental (Black, 1999; Heiman, 1996; Schutt,
1999; Vogt, 1999).
Os planos experimentais puros podem assumir modalidades
múltiplas28, de que destacaremos apenas as mais significativas
de acordo com a revisão de literatura realizada para o efeito
(Campbell & Stanley, 1963; Mertens, 1998; Schutt, 1999;
Wiersma, 1995).
12.3.1 (B1) Pré, pós-teste com grupo de controlo
É o plano experimental “clássico” que assegura ao
investigador controlo sobre todas as variáveis estranhas, dando
à investigação garantias de validade interna (Black, 1999;
Campbell & Stanley, 1963; Meltzoff, 1998; Mitchell & Jolley,
1996; Ross & Morrison, 1996; Schutt, 1999; Stern & Kalof,
1996; Wiersma, 1995). Graficamente, este plano pode
esquematizar-se da seguinte forma:
RS O1 X O2
RS O3 O4
No entanto, para Campbell e Stanley (1963), este desenho
pode conter algumas ameaças ao nível da validade externa
(generalização dos resultados), por não assegurar o controlo
dos chamados efeitos de interação envolvendo X e uma outra
variável estranha que pode passar inadvertida. Quer isto dizer,
que há que acautelar a extrapolação dos resultados a outros
contextos que não os da experiência.
Existem várias técnicas para aferir da significância
estatística das diferenças entre os dois grupos experimental e
de controlo. Relativamente a testes paramétricos, uma primeira
hipótese é o teste t de Student para grupos independentes
(unpaired t test)29mas, como este teste compara apenas duas
médias, só pode ser utilizado no caso do investigador
pretender comparar os chamados “ganhos”, ou seja, as
diferenças entre O2-O1 e O4-O3 (Heiman, 1996; Shavelson,
1996).
Bem melhores as soluções que passam por aplicar uma
análise de variância ANOVA one way30 (adequada para a
análise de dados provenientes da ação de uma única variável
independente sobre dois grupos, ou seja quatro observações =
quatro médias), ou ainda uma análise de covariância
(ANCOVA) com as pontuações do pré-teste funcionando
como “variável de controlo” ou covariate31.
No caso da escala de medida da variável não ser intervalar,
devem contrastar-se as médias dos grupos com base nos testes
equivalentes não paramétricos, caso do teste do Quiquadrado
de independência ou do Wilcoxon Mann Whitney para
substituir o t teste, ou então da Anova Kruskall Wallis para a
análise de variância32.
12.3.2 (B2) 4 Grupos de Solomon
Desenvolvido por Solomon em 1949, este plano utiliza dois
grupos experimentais e dois de controlo, todos de constituição
aleatória; aplica-se o pré-teste a um grupo de cada tipo; a todos
é aplicado o pós-teste no final da intervenção experimental
(Eisman, 1992a, p. 134). Como se pode verificar há uma só
variável independente (X), dois grupos experimentais que
recebem a sua intervenção, e dois grupos de controlo. Os
efeitos da variável independente são medidos por comparação
dos scores/pontuações obtidas no pós-teste pelos grupos
experimentais e de controlo (Black, 1999; Campbell &
Stanley, 1963; Ross & Morrison, 1996; Wiersma, 1995).
O plano de Solomon pode esquematizar-se da seguinte
forma:
RS O1 X O2
RS O3 O4
RS X O5
RS O6
Na opinião de Mertens (1998), o plano de Solomon foi
desenvolvido para os investigadores preocupados com os
efeitos do pré-teste sobre a validade interna dos resultados; de
facto, sabe-se que o efeito do tratamento X não é igual em
grupos que receberam/não receberam pré-teste, e daí fazer
todo o sentido que surgissem formas de “fortalecer” tais
planos sem sacrificar a informação válida obtida no pré-teste
(Moore, 1983; Wiersma, 1995). Os inconvenientes destes
planos resultam do elevado número de grupos aleatórios que
envolve, o que nem sempre é fácil de implementar em
contextos socioeducativos.
Para Campbell e Stanley (1963) foi também o plano
experimental que, pela primeira vez, teve em consideração
fatores de invalidade externa: ao estabelecer um paralelo entre
as observações do plano B1, com outras de grupos
experimentais e controlo que não receberam o pré-teste,
controla efeitos teste e interação teste/X, aumentando
consideravelmente a capacidade de generalizar resultados a
outros contextos. O Quadro 40 (adaptado de Eisman, 1992a, p.
135), sintetiza numa matriz a forma como o plano de Solomon
possibilita o controlo dos efeitos acima referidos ao permitir
três comparações entre as quatro observações feitas:
• a comparação C-D permite apreciar o efeito da variável
independente X;
• a comparação O2, O4, O5 e O6, os efeitos da interação
entre o pré-teste e X;
• a comparação A-B determina o efeito do pré-teste.

QUADRO 40 – Matriz de comparações num plano de Solomon

Não há um teste estatístico que permita, ao mesmo tempo,


tirar ilações das seis observações (O1 a O6) que contém este
plano. As assimetrias do desenho, impedem que se utilize uma
ANOVA para comparar “ganhos” (ou seja O4-O2 com O6-
O5). Uma hipótese poderá ser o seguinte: ignorando as
pontuações do pré-teste, ou melhor, considerando-os como
outro “tratamento” coordenado com X, tratam-se os resultados
no pós-teste numa análise de variância ANOVA 2x2 (dois
fatores ou two way):
Das médias das colunas, estima-se o efeito principal de X,
da média das linhas o efeito principal do pré-teste e da média
das células o efeito interação teste/X. Outra será hipótese, será
processar uma ANCOVA de O4 versus O2, usando os pré-
testes como variável de controlo (ou covariate). Neste caso
não se detetam efeitos de interação, pelo que só a devemos
usar se esses efeitos não nos interessarem para o nosso estudo
concreto (Black, 1999).
12.3.3 (B3) Só pós-teste com grupo de controlo
RS X O1
RS O2
Há muitas situações socioeducativas em que não faz sentido,
ou é mesmo inconveniente, incluir um pré-teste, como
acontece, por exemplo, se vamos introduzir um conteúdo
totalmente novo: para tais situações o plano B3 é o mais
aconselhado.
De certa maneira este plano é semelhante ao plano B2 de
Solomon para os dois últimos grupos, controlando também os
efeitos teste e interação teste/X (mas não os medindo como B2
fazia), e tendo a vantagem de não necessitar de tantos grupos
envolvidos no estudo.
Embora a ideia de incluir um pré-teste continue muito
arreigada na mente dos investigadores, é um facto que a sua
inclusão não é essencial nos planos experimentais verdadeiros
(Black, 1999; Campbell & Stanley, 1963; Wiersma, 1995): não
há maior garantia da semelhança dos grupos do que a
incorporação aleatória dos sujeitos, pelo que não é necessário
ir “tirar a limpo” com um pré-teste se serão “mesmo”
semelhantes!
Apesar dos seus méritos este plano tem vindo a perder
prestígio junto dos cientistas sociais por razões várias: não
permite comparar ganhos como acontece em B1, não permite a
utilização de testes estatísticos tão poderosos como os planos
B1 e B2, e a falta de informação fornecida pelo pré-teste limita
muito a exploração de outros aspetos interessantes como por
exemplo a interação de X/desempenho no pré-teste, que
enriquecem sempre uma investigação (Mitchell & Jolley,
1996; Ross & Morrison, 1996; Shavelson, 1996). A técnica
estatística mais utilizada para a comparação das duas únicas
médias obtidas no pós-teste é o teste t de Student para grupos
independentes (Campbell & Stanley, 1963)33.
No entanto, podemos tornar a análise muito mais rica e
interessante se incluirmos, além da variável externa
manipulada (tratamento), caraterísticas dos sujeitos ou aquilo a
que se convencionou chamar de variáveis individuais (notas
noutras disciplinas, QI, ocupação dos pais, classe social,
atitudes face ao computador) (Stern & Kalof, 1996); desta
forma, poderemos pôr à prova “suspeitas” de possíveis
interações, baseadas seja na literatura seja na nossa
experiência pessoal.
Nestes casos precisamos de testes que permitam detetar
diferenças atribuídas à VI (tratamento) e que separe este efeito
das variáveis individuais dos sujeitos, como o faz a ANCOVA
(Punch, 1998). Esta opção tem ainda outros pontos positivos
importantes: a inclusão das “variáveis moderadoras” como
“variáveis de controlo” ou “covariates”, aumentam o poder da
significação estatística do teste e colmatam, de certa forma, a
falta do pré-teste nestes desenhos, aproximando-os assim dos
planos de tipo B1 (Black, 1999).
A inclusão deste pseudo pré-teste, pode, em certos casos,
substituir com vantagem o verdadeiro pré-teste. De facto, é
muito referido na literatura o chamado efeito “conhecimento
do teste/experimentador” atribuído ao pré-teste, que provoca
desinteresse no pós-teste pela repetição de conteúdos muito
semelhantes, como acontece em testes de atitudes. Nestes
casos, é muito mais sensato optar por um plano B3 c/ pseudo
pré-teste do que um plano B1 (Campbell & Stanley, 1963).
12.3.4 (B4) Planos Fatoriais
O plano de Solomon pertence a uma família de planos muito
utilizados em investigação social, chamados planos fatoriais
(Campbell & Stanley, 1963; Eisman, 1992b; Mitchell & Jolley,
1996; Shavelson, 1996; Wiersma, 1995). São planos que
incluem duas (ou mais) variáveis independentes – os fatores –
e permitem estudar várias interações entre as VI que possam
ter impacto sobre os resultados (VD): são os chamados efeitos
de interação34 (Eisman, 1992a; Wiersma, 1995).
Por exemplo, imaginemos que a nossa variável
experimental X é um “novo método EAC (ensino assistido por
computador) ” e queremos avaliar atitudes face às TIC
(variável dependente). Podíamos muito simplesmente usar um
plano tipo B1, mas, se quisermos que entre também em jogo
uma segunda variável independente (sexo, por exemplo) seria
muito mais interessante optar por um desenho fatorial de tipo
3x2 como o representado no Quadro 41:

QUADRO 41 – Tipo de efeitos num plano fatorial

Vejamos as possibilidades de análise que este desenho nos


oferece: da média das colunas (setas largas), estima-se o efeito
principal de X; da média das linhas (setas tracejadas) o efeito
principal do “tipo de grupo”, e da média de todas as células o
efeito interação X/ tipo grupo (ou EAC/Sexo).
Este plano permite ao investigador: testar diferenças entre
tipo de classe (sexo) sem atender ao programa, diferenças
entre com/sem programa independente do tipo de classe, e
ainda interações entre estes dois efeitos principais (Black,
1999; Shavelson, 1996).
Muito embora existam uma multiplicidade de planos
fatoriais, todos utilizam como base as técnicas estatísticas de
análise de variância. A ANOVA two way é a técnica
apropriada para planos fatoriais simples, e para os mais
complexos, utiliza-se a ANOVA fatorial (Black, 1999).
Convém não esquecer que quantos mais fatores (variáveis)
maior o número de sujeitos a incluir no estudo, mais sujeitos
originam maior volume de dados o que torna a análise cada
vez mais difícil de interpretar. Muitas vezes vale mais a pena
ponderar um eventual desdobramento de hipóteses e optar por
soluções sectoriais mais simples de analisar, do que nos
arriscarmos a obter um emaranhado de soluções mecânicas
(que o computador sempre nos dá!) das quais não
conseguimos extrair grande sentido ou significado (Black,
1999).
12.3.5 (B5) Plano de medidas repetidas (repeated measures)
Ross e Morrison (1996), Wiersma (1995), Shavelson (1996) e
ainda Black (1999) referem esta variante de plano fatorial, que
contempla a situação em que é necessário medir os mesmos
sujeitos mais do que uma vez na variável dependente, uma
para cada um dos diferentes tratamentos em análise,
originando um plano de medidas repetidas, ou, usando a
terminologia de alguns autores os planos denominados
intrassujeitos (within-subjects designs) (Mitchell & Jolley,
1996; Shavelson, 1996; Stern & Kalof, 1996), por observarem
sempre os mesmos sujeitos em mais do que uma condição
experimental.
Dentro destes planos podem surgir três modalidades: na
primeira parte-se de um grupo único (mas podendo ser mais),
aleatório, que recebe vários tratamentos não relacionados,
sendo efetuadas múltiplas observações, como o diagrama
ilustra:

A ordem pela qual os sujeitos do grupo recebem cada


tratamento pode, no ideal, ser também aleatória, para evitar
influência da ordem e aumentar a validez interna do plano
(Ross & Morisson, 1996). Podem também incluir um pré-teste
anterior à aplicação de qualquer tratamento experimental,
embora a versão mais comum seja incluir apenas pós-testes
(Wiersma, 1995). O esquema abaixo, ilustra a versão mais
simples de um plano de medidas repetidas:

Cada sujeito individual serve de controlo a si mesmo, e é


testado e avaliado em cada um dos tratamentos experimentais.
Os inconvenientes mais apontados a estes planos são
basicamente dois: a) geram muita informação que vai
complicar a análise estatística e a interpretação dos resultados;
b) as observações não são independentes porque provém dos
mesmos sujeitos, o que obriga a cuidados adicionais na hora
de escolher os testes estatísticos mais adequados (Black,
1999).
Uma outra modalidade deste tipo de plano, muito
divulgada na investigação em TE, é a que resulta da extensão
dos planos de tipo pré, pós-teste (A3) com a inclusão de testes
de retenção aplicados em períodos posteriores ao tratamento
(p.ex. uma semana e um mês depois), o que vai transformar
um plano pré experimental num plano de medidas repetidas e
aumentar a sua validade interna (Shavelson, 1996).
Finalmente há ainda a hipótese de pares de sujeitos serem
emparelhados (matched) com base em variáveis individuais (p.
ex. habilidade verbal) que se relacionam com a VD (no
exemplo habilidade verbal e académica) e assignados
aleatoriamente a um de dois grupos experimentais,
funcionando cada sujeito do par como imagem do outro para
os objetivos do estudo, sendo tratados como se observasse um
mesmo sujeito no tratamento. No final, comparam-se as
médias de desempenho dos grupos nos dois tratamentos. Por
exemplo, 6 pares de sujeitos (N=12) seriam emparelhados
numa medida de habilidade verbal e aleatoriamente
incorporados a um de dois tratamentos: um sujeito do par para
um tratamento e o outro para o outro. Formam-se assim dois
blocos de seis sujeitos emparelhados, em que, em cada bloco,
cada sujeito foi incorporado aleatoriamente, razão porque este
desenho se designa também por plano de blocos aleatórios
(randomized-block design, Shavelson, 1996), ou ainda plano
de blocos emparelhados (matched-pair design, Mitchell &
Jolley, 1996).
Temos assim três formatos:
1. O mesmo sujeito é observado em todos os tratamentos;
2. O mesmo sujeito é observado antes e depois de um
único tratamento (extensão do plano pré-pós-teste);
3. Os sujeitos são emparelhados numa variável pessoal e
assignados aleatoriamente aos tratamentos.
A vantagem dos planos de medidas repetidas sobre todos
os outros planos de que vimos falando em que os grupos
experimentais e de controlo são formados por sujeitos
diferentes (baseados numa comparação “entre-sujeitos”, daí
serem também conhecidos na literatura por between-subjects
designs) resulta do facto de conferirem mais poder à hipótese
nula Ho (Mitchell & Jolley, 1996; Shavelson, 1996). De facto,
como observamos os mesmos sujeitos em todos os
tratamentos, temos mais garantias da não variabilidade (erro)
dentro dos grupos (pelo controlo das diferenças individuais), e
podemos confiar mais nos resultados do tratamento
experimental (Shavelson, 1996).
A desvantagem é que nem sempre se ajustam à
investigação que queremos fazer, razão que levou ao
aparecimento de múltiplas combinações possíveis (ver
Shavelson, 1996, p. 461).
Relativamente a técnicas de análise estatística, embora
estes planos possam tomar diversos formatos, em termos
gerais, são planos em que se fazem medições nos mesmos
sujeitos (necessariamente relacionadas) o que conduz, no final,
à obtenção de um bloco ou conjunto de medições/observações
para cada sujeito. O teste que mede a significância estatística
destas observações pode ser entendido como uma extensão do
teste t de Student para dois grupos relacionados, originando
uma ANOVA modificada ou de medidas repetidas que se
costuma chamar RBANOVA (randomized blocks ANOVA)35.
O Quadro 42 sintetiza a informação referente aos planos
experimentais puros de que vimos falando:
QUADRO 42 – Resumo dos planos experimentais puros

12.4 (C) Planos Quase Experimentais


Acontece que, na maioria das vezes, em contextos
socioeducativos, não é possível a constituição de grupos
aleatórios, já que muita pesquisa se realiza em salas de aula e
os grupos de alunos são turmas formadas no início do ano
letivo, ficando de certa maneira excluída à partida a
possibilidade de implementação de planos experimentais puros
ou verdadeiros (Campbell & Stanley 1963, p. 34; Eisman,
1992a; Mertens, 1998, p. 78; Ross & Morrison, 1996, p. 1150;
Wiersma, 1995, p. 140).
Daí a pertinência da observação de Charles (1998) quando
opina que, no caso da investigação em Ciências da Educação,
“planos quase experimentais são mais a regra que a exceção”
(Charles, 1998, p. 71).
Como a própria designação refere estes planos são “quase”
experimentais, porque podem introduzir muitas condicionantes
de tipo experimental (o como e quando medir), diferindo
apenas na não incorporação aleatória dos sujeitos para os
grupos, utilizando-se portanto grupos intactos (Black, 1999;
Campbell & Stanley, 1963; Eisman, 1992; Meltzoff, 1998;
Stern & Kalof, 1996).
Reconhecidas as limitações à implementação dos planos
experimentais puros em CSH, um dos nossos propósitos será
encorajar à utilização de planos quase experimentais, alertando
para os cuidados adicionais que exigem do investigador, dada
a falta de controlo que apresentam sobre algumas variáveis
estranhas que ameaçam constantemente tanto a validade
interna como externa destes planos.
Tal como nos planos experimentais puros estes planos
podem assumir várias cambiantes, sendo as que nos merecem
maior destaque os planos pré, pós-teste com grupo de
controlo, as chamadas séries temporais (time series) e ainda
os planos de sujeito único.
12.4.1 (C1) Pré, pós-teste com grupo de controlo
É o mais divulgado na investigação em educação CSH,
envolvendo um grupo experimental e um de controlo ambos
recebendo pré e pós-teste. A incorporação/assignação dos
grupos para o tratamento é aleatória (RA).
RA O1 X O2
RA O3 O4
Quanto mais cuidado tivermos na escolha de grupos
semelhantes para a situação experimental e de controlo, e
quanto mais esse cuidado for confirmado pelos resultados no
pré-teste, mais efetivo é o controlo das variáveis estranhas
história, maturação, efeito teste e efeito tratamento ou
experimentação (Campbell & Stanley, 1963). O teste t de
Student para grupos independentes (unpaired t test) é o mais
indicado para comparar os grupos no pré-teste (O1/O3): numa
segunda fase, processar um outro t teste unpaired poderá então
testar a hipótese experimental (O2/O4). Em alternativa poder-
se-á processar uma ANCOVA tomando os resultados do pré-
teste como variável de controlo (ou covariate).
12.4.2 (C2) Séries temporais (time series)
Constituem uma grande família de planos que têm em comum
o facto de preverem que um grupo seja medido/avaliado na
variável dependente em intervalos periódicos, mediado pela
aplicação do tratamento entre qualquer duas observações
(Eisman, 1992, p. 121; Miller, 1991, p. 21; Ross e Morrison,
1996, p. 1150).
São o protótipo dos planos de tipo longitudinal, uma vez
que se prolongam no tempo, ou melhor, visam detetar
mudanças ocorridas (comportamentais, sociais, de atitudes)
nos sujeitos em períodos variáveis no tempo (Eisman, 1992;
Miller, 1991).
Trata-se de mais um plano não experimental pelo facto de
se trabalhar com grupos intactos, embora, na opinião de
Wiersma (1995, p.129) e de Eisman (1992, p. 125), se houver
incorporação aleatória dos sujeitos bem como a inclusão de
um grupo de controlo, as séries temporais possam ser, também
elas, planos experimentais puros. Há uma enorme variedade de
planos deste tipo, mas o exemplo mais simples pode
diagramar-se como segue:
O1 O2 O3 O4 X O5 O6 O7 O8
Como se pode ver, há um só grupo a ser observado antes de
receber o tratamento e depois disso. Por exemplo, o Professor
dá testes semanais de aproveitamento (O1 O2 O3 O4), depois
aplica um protótipo experimental (X) para alunos com
dificuldades de aprendizagem, e prossegue com testes
periódicos após a intervenção (O5 O6 O7 O8).
Este plano baseia-se na lógica de que, se o comportamento
dos sujeitos é estável antes da introdução do tratamento
experimental, e se modifica depois, a mudança deve ser
atribuída ao tratamento. A maior ameaça a este desenho é a
história, porque o plano se desenvolve ao longo de um período
alargado no tempo e como não há grupo de controlo, não é
possível assegurar o controlo sobre a “evolução temporal” dos
sujeitos que pode naturalmente ocorrer, “ocultando” o efeito
real do tratamento.
No entanto as séries temporais asseguram o controlo sobre
várias ameaças à validade interna, como sejam a maturação
(controlada pela aplicação periódica de testes antes e depois),
o efeito testagem (seria facilmente detetado esse efeito na
aplicação sucessiva dos pré-testes) e seleção, uma vez que
todos os sujeitos estão envolvidos na experiência e são
controlo de si próprios.
Há razões várias para se utilizarem tais planos em
investigação social, sobretudo quando é importante verificar se
uma mudança perdura no tempo, o que se pode observar se as
observações forem consistentemente baixas antes do
tratamento X, permanecendo consistentemente altas depois
(Black, 1999; Eisman, 1992; Shavelson, 1996). A Figura 50
mostra alguns efeitos numa série temporais longitudinal como
as que temos vindo a descrever (cada ponto, corresponde à
média do grupo no momento de avaliação respetivo):
FIGURA 50 – Exemplos de efeitos numa série temporal longitudinal

a) efeito duradouro: média de valores consistentemente


baixos antes e mantendo-se altos depois. É a situação ideal
para o investigador;
b) efeito retardado: o efeito só se torna visível depois da
segunda observação pós tratamento X, persistindo. Um
plano B1 ou C1, nunca o detetaria;
c) efeito efémero: sobem muito, mas caem, revelando
efeito que não perdura ou nunca ocorreu. Também seria
indetetável num plano B1 ou C1;
d) variável estranha: há uma subida contínua suave, que
não pode ser atribuída a X mas a um efeito de maturação,
por exemplo;
e) resultados erráticos: os scores sobem e descem, fruto,
talvez, de um instrumento inválido.
Outros padrões de resultados seriam ainda possíveis, todos
revelando muito mais informação do que a fornecida por
planos em que se faz uma simples observação antes e depois
do tratamento (Black, 1999). A inclusão de um grupo de
controlo, também otimizaria este plano, tornando-o
experimental puro como já referimos atrás.
O teste paramétrico que melhor se adequa a estes planos é a
ANOVA de medidas repetidas, ou os seus equivalentes não
paramétricos Cochran Q (variáveis nominais) e ANOVA
Friedman (variáveis ordinais).
12.4.3 (C3) Planos de sujeito único ou intrassujeitos
Os planos pré-experimentais, experimentais puros e quase
experimentais que acabámos de apresentar utilizam sempre
grupos uma vez que os objetivos da investigação visam
encontrar resultados aplicáveis a outros grupos (de alunos,
professores etc.). Podem, no entanto, surgir circunstâncias nas
quais seja indesejável ou impossível usar grupos de sujeitos na
investigação de variáveis socioeducativas, como acontece se
investigamos por exemplo, estratégias de ensino
individualizado. Nessas situações os planos de sujeito único
(single-subject designs) ou intrassujeito (Eisman, 1992, p. 143)
são os mais apropriados para prover inferências causais
rigorosas no referente a comportamentos individuais
(Kratchowill & Levin, 1992; MacMillan & Schumaker, 1997;
Meltzoff, 1998; Mertens, 1998).
Pouco utilizados até há bem pouco na investigação em
CSH, são contudo planos muito divulgados na investigação em
Psicologia e em certas áreas das Ciências da Educação caso da
Educação Especial. Para MacMillan e Schumaker (1997), os
planos de sujeito único não devem ser confundidos com os
“estudo de caso”. A confusão entre ambos deriva do facto da
amostra ser de “um”: 1 sujeito (ou, para Meltzoff (1998), um
único grupo) no caso dos planos de sujeito único e 1 caso no
estudo de caso (1 caso não é necessariamente um único
sujeito, poder ser uma escola, um grupo social, um
acontecimento, etc.). As metodologias em que se baseiam são,
essas sim, literalmente opostas: enquanto o estudo de caso
utiliza metodologias de base qualitativa (muito embora para
alguns autores possa incluir análises quantitativas e apresentar
aspetos metodológicos mais bem mistos), os planos de sujeito
único, tal como os planos experimental e quase experimental
visam fazer inferências causais utilizando para o efeito
procedimentos para o controlo rigoroso de variáveis
estranhas. Por isso, estes planos inserem-se num paradigma
quantitativo da investigação em CSH.
As caraterísticas mais salientes destes planos têm a ver com
formas de conseguir bons índices de validade interna para um
plano que usa, não grupos como acontecia nos planos
anteriores, mas um só sujeito que é controlo de si próprio
(Eisman, 1992). A este respeito MacMillan e Schumaker
(1997) e Mertens (1998) apontam os seguintes meios de
reforçar a validade das inferências nestes planos:
• Fiabilidade na medição (observação): o rigor da
medição, crucial em planos de sujeito único, baseia-se em
observações objetivas (contagem do número de palavras
bem soletradas, de comportamentos agressivos, etc.) que
exigem: a) a estandardização das condições da observação
em termos de tempo e lugar; b) observação ser feita por
observadores bem treinados; e c) definição operacional
rigorosa do comportamento a observar;
• Medições repetidas: um único comportamento (variável)
é medido múltiplas vezes ao longo do estudo, e não apenas
antes e depois do tratamento. A medição repetida controla
o que seria de esperar numa variação normal em períodos
curtos de tempo, fornecendo uma descrição fiável do
comportamento observado;
• Descrição das condições: as condições em que o
comportamento vai ser observado devem ser descritas
detalhadamente, para permitir a replicação do estudo por
outros investigadores reforçando a sua validade interna e
externa;
• Duração e estabilidade: as condições a observar devem
durar o mesmo tempo (duração) e conter o mesmo número
de observações devendo as observações prolongar-se por
um período suficientemente alargado no tempo para
garantir o estabelecimento de um padrão de
comportamento estável (estabilidade). Se o tempo ou o
número de observações varia, então as variáveis “tempo” e
“nº de observações” tornam-se variáveis estranhas que
confundem os resultados e debilitam a validade interna
destes planos;
• Condições de base e tratamento: na primeira fase de um
plano de sujeito único, o comportamento alvo é observado
nas condições naturais até que se verifique estabilidade. A
este período chama-se condição de base (baseline). O
tratamento ocorre com a modificação de condições pelo
investigador e deve prolongar-se no tempo para garantir a
estabilidade;
• Regra da variável única: é fundamental que só se altere
uma única variável durante a fase de aplicação do
tratamento, e essa variável deve ser descrita precisa e
pormenorizadamente. Se duas ou mais variáveis mudarem
ao mesmo tempo, o investigador nunca pode saber ao certo
o que determinou mudança (s) nos resultados.
A singularidade destes planos e como forma de os
distinguir dos planos tradicionais de grupos levou à adoção de
uma forma de notação específica em que as letras, em vez de
referirem grupos representam as condições: «A» representa a
condição de base (baseline) e «B» a condição tratamento ou
experimental. As modalidades de plano de sujeito único mais
divulgados na literatura são o plano A-B e o plano A-B-A.
PLANO A- B
É o mais simples e fácil de interpretar. Observa-se o
comportamento alvo até este estabilizar (condição base A);
introduz-se então o tratamento/condição experimental
(condição B) e observam-se alterações no comportamento alvo
(Figura 51).
FIGURA 51– Esquema de um plano A-B

A interpretação dos resultados parte da premissa de que, se


o tratamento não fosse introduzido, o comportamento seria o
mesmo da condição de base, logo se há mudanças elas podem
ser atribuídas à intervenção experimental (MacMillan &
Schumaker, 1997; Meltzoff, 1998; Wiersma, 1995).
PLANO A-B-A
É o mais vulgar dos planos de sujeito único, também chamado
plano reverso (reversal), uma vez que uma segunda condição
de base é acrescentada depois do tratamento (Mertens, 1998).
O esquema deste plano está representado esquematicamente na
Figura 52 que segue (Wiersma, 1995, p. 155):

FIGURA 52 – Plano A-B-A

Este plano justifica forte inferência causal se o padrão de


comportamento mudar durante o tratamento e voltar ao padrão
inicial quando este cessar (MacMillan & Schumacher, 1997).
Maior evidência de mudança comportamental pode ser ainda
testada numa extensão do desenho que reincorpore o
tratamento ou seja num modelo A-B-A-B.
O Quadro 43 resume a informação básica relativa aos
planos quase-experimentais que acabámos de apresentar.
QUADRO 43 – Planos quase-experimentais

ATIVIDADES
1. Para o estudo abaixo descrito, classifique a estrutura como
sendo equivalente a A1, A2 ou A3, identificando cada uma das
componentes (RS, X , O, Y) esboçando um mapa de variáveis.
Alberto Fonseca, investigador, queria testar uma possível
influência da toma de vitaminas na inteligência das crianças. A
sua hipótese de investigação foi a de que uma tomada regular
de um complexo multivitamínico potenciava positivamente o
coeficiente de inteligência (QI) das crianças. A sua hipótese
nula era a de que, depois da experiência, não haveria
diferenças significativas entre dois grupos: o que tomou
vitaminas e o que não tomou. Cem crianças de escolas
primárias locais foram selecionadas aleatoriamente para
participar no estudo. Todas foram avaliadas previamente com
um mesmo teste de inteligência; depois tomaram o complexo
vitaminas durante seis meses e voltaram a ser avaliadas no
final no teste de IQ. Os resultados mostraram que a média do
QI do grupo aumentou de 105 pontos (desvio padrão = 14,5)
para 110 (desvio padrão = 15,5), uma diferença
estatisticamente significativa (t= 2,36, p<0,05), e por isso o
investigador aceitou a sua hipótese de investigação de que as
vitaminas potenciam a inteligência.
a) Para cada uma das oito fontes potenciais de invalidade e
erro abaixo listadas, preencha com um - , + , ? ou deixe em
branco no espaço assinalado com um [ ] .
1. Não houve comparação entre grupos [ ]
2. Tempo: acontecimentos [ ]
3. Tempo: maturação [ ]
4. Seleção: amostra e assignação para os grupos [ ]
5. Seleção: regressão [ ]
6. Seleção: estabilidade da amostra [ ]
7. Interação tempo/amostra [ ]
8. Interação variável independente/amostra [ ]
b) As conclusões são legítimas ou seja, estão justificadas?
Porquê sim ou não?
-
26 Os grupos, normalmente dois nos planos experimentais mais simples, podem ser
mais se o objetivo é testar versões diferentes da variável independente ou
combinações de diferentes tratamentos experimentais.
27 Há múltiplos formas de proceder à “aleatorização”: consultar tabelas de números
aleatórios, método da lotaria (escrevem-se números num papel e retiram-se estes de
um saco), mas na atualidade o computador é capaz de gerar amostras aleatórias de
forma simples e rápida (Schutt, 1999).
28 Nos vários planos experimentais que se seguem, teremos apenas uma VI (ou
tratamento), representada por X, que é comparada com uma situação sem X. Trata-
se de uma super simplificação, podendo a comparação ser entre dois tratamentos
X1 e X2, ou entre X1 e X0 (experiência de controlo), por exemplo.
29 O t test ou t de Student, é um teste paramétrico que se usa para determinar a
significação estatística da diferença de duas médias, ou seja, informar o
investigador de qual a probabilidade da diferença entre as duas médias ser real (ou,
o que é o mesmo, fruto de diferenças sistemáticas entre os grupos) ou fruto do mero
acaso. Existe em duas versões uma para o caso das médias provirem de grupos
diferentes – unpaired t test, ou para grupos independentes, e outra para o caso das
médias provirem de duas medições ao mesmo grupo – paired t teste para grupos
emparelhados. Consultar Tuckman (1978), Moore (1983), Heiman (1996) ou
Smithson (2000).
30 Também conhecida por one factor ANOVA (Shavelson (1996, p. 370) por tratar
apenas de uma variável independente (one factor) o que obriga os sujeitos a serem
colocados de forma única (one way) em grupos (ou níveis da variável
independente). Para mais informação sobre este teste estatístico consultar também
Calder (1996), Shavelson (1996), Spector (1994) e Kanji (1999).
31 Para mais informação sobre esta técnica estatística consultar Sapsford e Jupp
(1996), Punch (1998), Calder (1996) ou Shavelson (1996).
32 Para mais informação sobre estas técnicas estatísticas consultar Siegel e
Castellon (1988).
33 Os correspondentes não paramétricos são o teste do Quiquadrado de
independência, o teste Kolmogorov-Smirnov (grupos independentes) ou o teste
Mann Whitney U (para grupos independentes); para mais informação sobre as
condições específicas de utilização de cada um destes testes, consultar Siegel e
Castellon (1988).
34 Uma interação existe se “o efeito conjunto de duas VI não é igual aos seus
efeitos separados, ou seja, o efeito de uma só não é o mesmo que quando
combinada com a outra” (Wiersma, 1995, p. 123).
35 Para mais informação consultar Black (1999) e Shavelson (1996).
REFERÊNCIAS BIBLIOGRÁFICAS
Bisquerra, R. (1989). Métodos de investigacion educativa:
Guia practica. Barcelona: Ediciones CEAC.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Calder, J. (1996). Statistical techniques. In R. Sapsford, & V.
Jupp (Eds.), Data collection and analysis (pp. 195-261).
London: SAGE Publications.
Campbell, D., & Stanley, J. (1963). Experimental and quasi
experimental designs. Boston: Houghton Mifflin Company.
Charles, C. M. (1998) Introduction to educational research (3ª
ed.). New York: Longman.
Eisman, L. B. (1992). El método experimental: Diseños de
investigácion. In M. P. Colás Bravo, & L. B. Eisman (Eds.),
Investigación educativa (pp. 109-151). Sevilha: Ediciones
Alfar.
Fox, D. (1987). El proceso de investigacion en Educación.
Pamplona: Ediciones Universidad de Navarra, S.A.
Heiman, G. (1996). Basic statistics for the Behavorial
Sciences (2ª ed.). Boston: Houghton Mifflin Company.
Kanji, G. (1999). 100 statistical tests. London: SAGE
Publications.
Macmillan, J. H., & Schumacher, S. (1997) Research in
Education: a conceptual introduction. New York: Longman.
Meltzoff, J. (1998). Critical thinking about research –
Psychology and related fields. Washington DC: American
Psychology Association.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Miller, D. C. (1991). Handbook of research design and social
measurement (5ª ed.). London: Sage Publications.
Mitchell, M., & Jolley, J. (1996) Research design explained (3ª
ed.). Orlando: Harcourt Brace College Publishers.
Moore, G. W. (1983). Developing and evaluating educational
research. New York: HarperCollins Publishers.
Punch, K. (1998). Introduction to Social Research:
quantitative & qualitative approaches. London: SAGE
Publications.
Ross, S., & Morrison, G. (1996). Experimental research
designs. In D. Jonassen (Ed.), Handbook of research for
educational communications and technology (pp. 1148-1170).
New York: Macmillan USA.
Sapsford, R., & Jupp, V. (Eds.). (1996). Data collection and
analysis. London: SAGE Publications.
Schutt, R. K. (1999). Investigating the Social World: The
process and practice of research (2ª ed.). Thousand Oaks: Pine
Forge Press.
Shavelson, R. (1996). Statistical reasoning for the Behavorial
Sciences (3ª ed.). Needham Heights, MA: Allyn & Bacon.
Siegel, S., & Castellon, N. J. (1988). Non parametric statistics
for the Behavorial Sciences (2ª ed.). NY: MacGraw-Hill
International Editions.
Smithson, M. (2000). Statistics with confidence. London:
SAGE Publications.
Spector, P. (1994) Research designs. In M. Lewis-Beck (Ed.),
Experimental design and methods. International handbooks of
quantitative applications in the Social Sciences (Vol. 3, Sage
University Papers Series) (pp. 1-74). Iowa: SAGE. Toppan
Publishing.
Stern, P., & Kalof, L. (1996). Evaluating Social Science
research (2ª ed.). Oxford: Oxford University Press.
Tellez, K. (1993). Experimental and quasi-experimental
research in technology and teacher education. In H. Waxman,
& G. Brigh (Eds.), Approaches to research on teacher
education and technology (pp. 67-78). Charlottesville, VA:
AACE.
Tuckman, B. (1978). Conducting educational research (2ª
ed.). New York: Harcourt Brace Jovanovich, Inc.
Vogt, W. P. (1999). Dictionary of statistics and methodology: a
nonethical guide for the Social Sciences (2ª ed.). Newbury
Park, CA: SAGE Publications.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Capítulo 13

Planos Não Experimentais ou Descritivos

Quando numa investigação não é possível a manipulação


direta da variável independente, seja porque esta “já ocorreu”
seja porque o objetivo é “descrever” não “explicar” um
qualquer fenómeno social (Meltzoff, 1998; Moore, 1983; Stern
& Kalof, 1996), utilizam-se planos que procuram apresentar
“aquilo que é” (“what is” Knupfer & McLellan, 1996, p.
1197). Muito embora alguns autores, caso de Best e Kahn
(1993, p. 26), por exemplo, subdividam a investigação
descritiva em quantitativa e qualitativa – consoante o
investigador quantifica (ou não) aquilo que descreve, analisa
ou regista –, vamos considerar no presente capítulo os planos
descritivos quantitativos, uma vez que os restantes estão
incluídos na categoria genérica dos planos qualitativos,
“descritivos” por força da natureza do tipo de dados que geram
(notações e descrições) (Charles, 1998; Mertens, 1998).
Para Mertens (1998), são exemplos de variáveis estudadas
nos planos descritivos:
a) caraterísticas inerentes aos sujeitos: idade, sexo,
estrato socioeconómico, traços de personalidade;
b) caraterísticas não eticamente manipuláveis: fumar,
uso de drogas e medicamentos;
c) caraterísticas manipuláveis que o não podem ser:
inserção num dado grupo social.
Em todos os planos descritivos o objetivo é recolher dados
que permitam descrever da melhor maneira possível
comportamentos, atitudes, valores e situações. Assim sendo,
enquanto o objetivo dos planos experimentais é estabelecer
relações de causalidade entre variáveis, nos planos descritivos
o objetivo do investigador é “retratar o que existe hoje e agora
em relação a um problema ou fenómeno, por vezes mesmo
descobrir relações entre fenómenos em busca de informação
útil para planear uma investigação experimental posterior”
(Mertens, 1998, p. 174).
Na literatura encontramos uma grande variedade de planos
não experimentais ou descritivos – só Moore (1983) fala em
25 modalidades –, mas vamos apenas apresentar as mais
representativas, ou seja, os estudos ex-post facto ou causal-
comparativo, o inquérito e o estudo correlacional.
Associadas aos planos descritivos, surgem as designações
longitudinal e transversal (Moore, 1983). Um estudo é
longitudinal se abrange um período alargado no tempo durante
o qual os mesmos sujeitos são avaliados (medidos) duas ou
mais vezes (como é o caso das séries temporais a que já
aludimos). Um estudo é transversal (cross sectional) se
compara grupos diferentes num mesmo momento temporal em
vez de seguir um só grupo no tempo como acontecia no tipo
anterior. Criticados por utilizarem grupos não equivalentes
(caso dos planos ex post facto) ou por introduzirem o
“barómetro” apenas num momento único e determinado no
tempo (caso da maioria dos inquéritos ou survey e dos estudos
correlacionais), os planos transversais são, de entre os estudos
descritivos os mais utilizados em investigação social por
economizarem tempo, dinheiro e recursos humanos (Miller,
1991; Moore, 1983).
13.1 (D) Plano Ex Post Facto ou Causal Comparativo
Como a própria expressão indica, “… o investigador chega à
cena depois do acontecimento ter ocorrido” (Shavelson, 1996,
p. 26), pelo que, o que importa agora é observar e medir – não
manipular –, de forma retrospetiva e em contextos naturais,
em busca de possíveis relações (Meltzoff, 1998; Sousa, 2009;
Stern & Kalof, 1996; Wiersma, 1995).
Miller (1991) chama a estes planos de “experimentos
naturais”, uma vez que o investigador capitaliza mudanças que
ocorrem em contextos naturais estudando os seus efeitos num
desenho de tipo experimental. É indicada para a realização de
estudos em que o investigador apenas pode manipular a
variável dependente porque a independente já ocorreu
anteriormente, ou seja, tal como refere Sousa (2009, p. 177)
“trata-se de uma investigação que se realiza em sentido
contrário: parte-se dos dados para o tratamento e deste para as
hipóteses. Na relação causa-efeito, analisam-se os efeitos para
determinar as causas”.
Em termos práticos trata-se de uma variação do plano
experimental B3: temos também uma variável independente
real que não podemos manipular (Black, 1999), e constituímos
dois (ou mais) grupos aleatórios distintos na referida variável
real cujo efeito queremos avaliar. A seleção para os grupos
pode ser específica (p. ex., alunos com bom e mau
aproveitamento) ou observada (p. ex., medindo o seu grau de
resistência ao computador numa escala de atitudes): um grupo
é o critério (tem o “traço”) e o outro compara-se com ele. Para
isso medimos com um pós-teste ambos os grupos no “traço”
que equivale à variável independente dos planos
experimentais, e aplicamos testes inferenciais para contrastar
médias e aferir diferenças nos grupos (Black, 1999; Shavelson,
1996).

Relativamente ao plano experimental de tipo B3 (ver pág.


280), no plano ex post facto o controlo de variáveis estranhas
depende das técnicas de amostragem que possibilitem um
grupo homogéneo no traço a observar (caraterística do
background, experiência, ou qualquer outra variável real) e um
grupo controlo com variações nesse mesmo traço (Black,
1999).
Para exemplificar imaginemos dois grupos aleatórios
distintos numa variável independente real (não manipulada) –
ter ou não ter computador pessoal –, e uma variável
dependente – gosto pelo computador –, em que se procuram
detetar relações entre essas variáveis, sem pretensão de
causalidade: trata-se de um estudo ex post facto.
Embora este tipo de plano seja enquadrado pela maioria
dos autores dentro dos planos de tipo descritivo, é de todos os
planos não experimentais o que mais se aproxima da
metodologia experimental na medida em que compara um
grupo experimental e um grupo de controlo de incorporação
aleatória. Por isso mesmo a análise estatística nestes planos é
em tudo semelhante à do plano B3, muito embora a
interpretação dos resultados deva ter sempre em conta os
desafios inerentes ao facto de trabalharmos com variáveis reais
(Black, 1999).
13.2 (E) Investigação Correlacional
Sob a designação genérica de “correlacionais” englobamos
todos os planos de investigação social em que, de uma forma
ou de outra, o objetivo central da pesquisa é encontrar e
avaliar a intensidade de relações entre variáveis, sem
manipulação e sem pretensões de causalidade (Almeida &
Freire, 1997; Anderson, 1999; Black, 1999; Bravo, 1992c;
Meltzoff, 1998; Moore, 1983; Stern & Kalof, 1996). A busca
de relações ou de associações entre as variáveis processa-se
através de procedimentos estatísticos que nos fornecem uma
medida quantificada do grau de relação entre as variáveis a
que se costuma chamar de coeficiente de correlação.
Trata-se contudo de uma familia metodológica tão ampla
tanto ao nível dos procedimentos metodológicos como dos
objetivos científicos que visa alcançar, que continua a persistir
em torno destes modelos metodológicos uma clara
ambiguidade conceptual patente nas múltiplas definições e
propostas de classificação que, na literatura, surgem
associadas a estes métodos. A título de exemplo, e tal como
refere Bravo (1992c), enquanto para uns os métodos
correlacionais se podem incluir no grupo mais amplo dos
estudos chamados de comparativos, para outros autores os
métodos correlacionais e os comparativos são ambos
modalidades da chamada investigação ex post facto
(Bisquerra, 1989); a investigação ex post facto, por seu lado,
seria, na perspetiva de Campbell e Stanley(1963) um caso
especial dos planos ditos quasi-experimentais.
Pela parte que nos toca e na ausência de unanimidade
vamos adotar a posição dos que consideram os estudos
correlacionais como uma variante dos desenhos descritivos
caraterizados por fazerem a ponte entre os métodos
compreensivos da realidade (estudos qualitativos) e os
explicativos (estudos experimentais) (Almeida & Freire,
1997). Em relação aos primeiros os métodos correlacionais
conseguem ir para além da mera descrição dos fenómenos uma
vez que possibilitam que o investigador estabeleça relações
entre as variáveis, quantificando inclusive tais relações;
relativamente aos segundos (estudos experimentais) estes
modelos não conseguem fundamentar o significado da
causalidade ao nível das relações encontradas (Lukas &
Santiago, 2004).
De um maneira geral, podemos apontar como caraterísticas
individualizadoras destes modelos metodológicos os seguintes
aspetos: a) o investigador trabalha em contextos naturais; b)
sem exercer qualquer tipo de influência direta sobre o curso
dos acontecimentos (não se manipulam variáveis); e c) serem
estudos destinados a testar hipóteses que permitem corrobar
teorias ou confrontá-las (Bravo, 1992c; Lukas & Santiago,
2004). Relativamente a este último aspeto convém ter presente
que a qualidade de um estudo correlacional depende muito,
como veremos, da fundamentação e profundidade dos
constructos teóricos de que derivam as hipóteses do
investigador. Sem fundamentação teórica prévia, a busca de
relações e, sobretudo, a interpretação dos coeficientes de
correlação encontrados pode ser um exercício académico
estéril ou mesmo inútil (Borg & Gall, 1989).
13.2.1 O âmago da investigação correlacional
Para desenvolver um estudo de análise correlacional temos
obrigatoriamente de ter medições/pontuações em pelo menos
duas variáveis distintas; a primeira variável da qual obtemos
dados empíricos costuma ser designada pela notação X e a
segunda por Y. Na terminologia da investigação correlacional
a variável X é denominada variável antecedente ou preditora e
a variável Y costuma ser designada por variável critério ou
predita (Cohen, Manion & Morrison, 2001). Na prática, o
objetivo último de um estudo deste tipo é pois o de obter pares
de pontuações X e Y para cada sujeito da amostra e essa é uma
das caraterísticas identificadoras deste modelo metodológico
que estabelece a fronteira relativamente aos planos de
investigação que designamos por experimentais (Borg & Gall,
1989).
Nesse sentido, quando dizemos que há uma relação entre
duas variáveis X e Y, queremos referir que as pontuações nas
duas variáveis covariam, ou seja, mudam ao mesmo tempo,
uma com a outra. Por exemplo, acredita-se hoje que os hábitos
de leitura influenciam o rendimento académico; assim sendo,
se existir de facto uma relação entre as duas variáveis nº de
horas de leitura e rendimento académico devem covariar
(Heiman, 1996, p. 182 e ss.).
Dizer que duas variáveis estão relacionadas (ou
correlacionadas) não significa que se trate de uma relação
causal entre elas. De facto para se demonstrar uma relação de
causalidade entre as duas variáveis que nos serviram de
exemplo, haveria que se planificar um estudo experimental e
manipular o número de horas de leitura para aferir de uma
eventual relação causal; teríamos de formar, por exemplo, três
grupos equivalentes, em que um grupo de sujeitos fosse
classificado como leitores assíduos, outro grupo como leitores
médios e um terceiro de sujeitos sem hábitos de leitura. No
final do ano letivo, todos os sujeitos seriam alvo de uma
avaliação num mesmo teste geral de avaliação de
conhecimentos e, só depois, se poderia inferir se os hábitos de
leitura, resultam, de facto, num melhor desempenho
académico dos sujeitos.
Contudo é possível que esta mesma questão de
investigação possa ser alvo de uma abordagem de tipo
correlacional. Neste caso, não haveria manipulação ou seleção
de pessoas para condições experimentais específicas como no
caso anterior. Pelo contrário, apenas se mediriam os mesmos
sujeitos nas duas variáveis para averiguar se a relação estava
(ou não) presente. Poderíamos, por exemplo, perguntar aos
alunos quantos livros tinham lido no último mês e avaliar o
desempenho de cada um pelo cálculo da média das avaliações
finais do ano anterior. Por um procedimento idêntico
poderíamos saber, por exemplo, da relação entre as pontuações
dos alunos num teste de personalidade e as suas pontuações
numa escala de atitudes, ou se haveria relação entre um bom
desempenho em Matemática e Português correlacionando as
notas finais dos mesmos sujeitos nessas disciplinas nos
exames finais do 12º ano, etc., etc.
Tal como o nome indica, na investigação correlacional
usam-se sempre indicadores estatísticos da relação para
sumariar a magnitude da correlação entre as variáveis. No
entanto não basta que se usem coeficientes de correlação para
que um estudo seja correlacional: é a ausência de manipulação
de variáveis que transforma automaticamente um estudo em
correlacional. Esse é o âmago da investigação correlacional.
Em suma, podemos concluir que a investigação
correlacional se carateriza por colocar hipóteses e objetivos de
investigação sobre factos e fenómenos que não são
intrinsecamente manipuláveis, com o objetivo de decifrar e
analisar relações subjacentes aos mesmos numa tentativa de
exploração de possíveis relações entre elas (Borg & Gall,
1989; Lukas & Santiago, 2004).
13.2.2 Correlação e causalidade
Quando dizemos que há uma relação entre duas variáveis X e
Y, temos tendência para inferir de uma possível causalidade,
ou seja, que X causa Y. Assim, se no estudo que nos serviu de
exemplo verificarmos que os sujeitos menos ansiosos também
têm tendência para ter melhor desempenho académico, temos
quase sempre a tentação de querer concluir que mais ansiedade
é sinónimo de pior desempenho.
Esse é um dos problemas subjacente aos estudos
correlacionais e de que devemos estar bem conscientes: a
investigação correlacional apenas nos diz como duas variáveis
X e Y se associam ou relacionam e o facto de haver uma
relação entre as duas variáveis não significa de forma alguma
que a relação é causal, ou seja, que alterações numa variável
causem alterações na outra (Heiman, 1996).
Ou seja, haver associação ou relação não significa que se
trate de uma relação de causalidade. Na perspetiva de Heiman
(1996), há dois requisitos ou exigências para se poder inferir
de relações causais entre variáveis. A primeira é que a variável
X tem de ocorrer temporalmente sempre antes de Y. Ora, na
investigação correlacional podemos não conseguir sabê-lo de
forma inequívoca. Voltando ao exemplo acima referido, nós
apenas avaliamos as horas de leitura dos sujeitos e o seu
desempenho académico. Nada nos garante que tenham sido os
hábitos de leitura a aumentar o rendimento académico; não
seria antes o rendimento académico a motivar o interesse pela
leitura?. Ou seja em qualquer correlação tanto pode ser X a
causar Y, como Y a causar X.
Em segundo lugar, a variável X teria de ser a única a causar
Y. Acontece que na investigação correlacional nunca somos
capazes de controlar ou eliminar outras variáveis que,
potencialmente, podem causar as mudanças ocorridas. Por
exemplo pode acontecer que os sujeitos que dizem gostar mais
de ler sejam também mais inteligentes, e nesse caso nunca
poderemos saber com certeza se são os hábitos de leitura ou a
inteligência os responsáveis pelo melhor aproveitamento dos
sujeitos.
Em suma, uma correlação por si não permite aferir de
causalidade. Só em estudos experimentais em que nos é
possível manipular a variável independente (VI) e manter sob
controlo todas as outras potenciais variáveis estranhas capazes
de contaminarem a variável dependente (VD) é que temos
base de sustentação para aferir de uma relação causal entre
variáveis (Charles, 1998; Moore, 1983; Punch, 1998; Schutt,
1999; Stern & Kalof, 1996; Vogt, 1999).
13.2.3 Investigação correlacional versus experimental
Se a manipulação de variáveis é o ponto de clivagem crucial
no que toca a separar a investigação correlacional da
experimental outros aspetos podem ainda ajudar a diferenciar
estas duas grandes famílias metodológicas da investigação em
CSH (Heiman, 1996):
1. A investigação experimental normalmente utiliza dois
(ou mais) grupos de sujeitos e a análise estatística baseia-
se na comparação de dois (ou mais) valores grupais
(normalmente a média das pontuações de cada um dos
grupos); na investigação correlacional usamos apenas um
grupo e sumarizamos o valor da relação entre as variáveis
em análise num valor único calculado a partir de todos os
pares de pontuações X-Y dos sujeitos que a integram (N
representa o número de pares de pontuações/observações);
2. Ao contrário da metodologia experimental em que a VI
(variável independente) tem de ser sempre anterior no
tempo à VD (variável dependente), num estudo
correlacional nunca podemos identificar qual é a variável
anterior e a posterior e por isso não podemos falar de
variáveis independentes ou dependentes. Então como
decidimos qual das variáveis é X e qual é a Y? Tudo
depende da forma como formulamos as nossas hipóteses
de investigação. Se, relativamente ao problema que nos
tem servido de exemplo a questão de investigação for:
“Será que os alunos que leem mais têm melhor
desempenho académico?” então a leitura será a variável X,
também denominada variável antecedente ou preditora e o
desempenho académico a variável critério ou predita. De
forma inversa se a questão de investigação for: “Será que
um melhor desempenho académico fomenta o gosto pela
leitura?” então X será o desempenho e Y o gosto pela
leitura.
3. Por último, na investigação correlacional a
representação gráfica dos pares de pontuações X-Y dos
sujeitos em cada uma das variáveis faz-se com recurso aos
chamados gráficos de pontos ou “scatterplots” o que não
acontece nos estudos experimentais em que se usam
gráficos de barras, histogramas, etc.
13.2.4 Classificação dos estudos correlacionais
De acordo com Cohen, Manion e Morrison (2001, p. 199) os
estudos correlacionais podem ser divididos em duas grandes
famílias: os estudos de relação e os estudos de previsão. Nos
primeiros, o objetivo central da investigação é tentar
compreender melhor a complexidade do fenómeno
socioeducativo estudando as relações entre as variáveis sobre
as quais o investigador coloca hipótese sobre possíveis
associações. Nesse sentido, trata-se de uma metodologia de
investigação particularmente importante em áreas do
conhecimento em que ainda há pouca investigação realizada e
em que há necessidade de encontrar pistas que possibilitem a
compreensão da complexidade do fenómeno pela descoberta
de eventuais relações entre os constructos e conceitos que o
integram e explicam (Charles, 1998; Lukas & Santiago, 2004).
Talvez por isso a investigação correlacional de tipo
relacional seja muitas vezes alvo de intensas críticas por
alguns autores que subvalorizam a qualidade científica de tais
abordagens metodológicas (cf. Cohen, Manion & Morrison,
2001). É o que acontece quando os estudos correlacionais são
conduzidos sob o que alguns designam de “shotgun
approaches” (Borg & Gall, 1989, p. 581) ou ainda “looking
approaches” (Anderson, 1999, p. 113) e que se caraterizam
pelo facto do investigador partir à procura de relações entre as
variáveis sem ter em conta um referencial teórico que norteie e
justifique a sua busca de eventuais relações/associações (uma
lógica de “looking for” a que alude Anderson, id, ibid.).
Tomemos como exemplo o conceito complexo e ambíguo
de “eficácia docente” de que nos falam também Cohen,
Manion e Morrison (2001). Trata-se de um constructo amplo
que depende de outras variáveis de menor complexidade que
operam em conjunto ou separadamente sobre ele. Fatores
como a inteligência, a motivação, a perceção de autoeficácia,
as destrezas verbais, a empatia surgem logo na nossa mente
como podendo afetar o desempenho docente. Uma revisão de
literatura pode confirmar ou rejeitar tal possibilidade. Assim
que um conjunto significativo de fatores sejam identificados e
justificados pela literatura, faz então sentido que sejam
desenvolvidos instrumentos de medida para a sua avaliação.
Estes instrumentos são então aplicados a uma amostra
representativa de sujeitos e aferidas pontuações nas referidas
variáveis; estas são depois correlacionadas com a medida da
variável mais complexa que está a ser investigada, neste caso
concreto, o conceito de “eficácia docente”. Nesta fase
exploratória a análise estatística consiste muitas vezes no
cálculo simples dos coeficientes de correlação bivariados
(porque aplicados a duas variáveis) que nos dão logo um
esclarecimento adicional sobre a variável que queremos
investigar. Neste exemplo, o estudo correlacional permitiu
obter dados que podem ser usados e desenvolvidos por outros
investigadores como hipóteses adicionais em estudos futuros,
e é essa a mais-valia que pode advir de um estudo
correlacional de tipo exploratório bem conduzido, porque é
sustentado numa correta revisão da literatura (Cohen, Manion
& Morrison, 2001).
Em contraste com o estudo exploratório de relação entre
variáveis, os estudos correlacionais de previsão são
desenvolvidos em áreas do saber em que o conhecimento está
mais desenvolvido e alicerçado em investigação anterior
(Heiman, 1996). A previsão a partir de técnicas de correlação
baseia-se no pressuposto de que, pelo menos, um dos fatores
de que se tem uma avaliação/medição está presente e
conduz/justifica o comportamento da variável que se quer
prever (Punch, 1998). Se, por exemplo, quisermos prever a
probabilidade de sucesso de um grupo de vendedores num
curso de formação intensivo, devemos começar por encontrar
as variáveis que, em estudos prévios, verificaram estarem
relacionadas com o sucesso nas vendas. Essas caraterísticas
poderiam ser o empreendedorismo, a capacidade de
comunicação verbal, a motivação para o sucesso, a maturidade
emocional, a sociabilidade, etc. O grau de correlação com que
estes preditores se relacionam com o comportamento que
queremos prever, neste caso, o sucesso a vender, determinará a
acuracia/justeza da nossa previsão. As variáveis cruciais para o
sucesso não podem ser previstas se não estiverem presentes no
momento em que se faz a previsão. Em termos de potencial
preditivo, o grau de associação entre as duas variáveis tem de
ser muito forte, e quanto mais forte maior o poder preditivo.
Em teoria só uma correlação perfeita evitaria erros na previsão
de uma variável conhecida a outra. Também é importante que
a previsão se reporte a um futuro próximo, previsões de longo
prazo terão poucas possibilidades de sucesso porque as
variáveis mudam com o evoluir do tempo.
Não devemos esquecer nunca que a correlação é um
conceito grupal, uma medida genérica importante para se
prever o desempenho de todo um grupo no seu conjunto ou
seja, válido para todo o grupo que é alvo de uma
avaliação/medição; se é possível prever que um grupo de
crianças sobredotadas como um todo terá sucesso académico,
já não é possível prever com exatidão que uma dada criança
sobredotada venha a ser excelente. Por fim, baixos
coeficientes de correlação têm fraco poder preditivo e só
correlações altas podem ser tidas em conta em estudos de
previsão (Cohen, Manion & Morrison, 2001).
13.2.5 Fases de um estudo correlacional
A planificação de um estudo correlacional é em tudo
semelhante ao de um qualquer plano descritivo de cariz
quantitativo (Charles, 1998; Lukas & Santiago, 2004). Nesse
sentido, regra geral, os passos que pressupõe o
desenvolvimento de um plano de investigação deste tipo são
os seguintes:
1. Formulação do problema de investigação;
2. Formulação de hipóteses acerca de relações/associações
entre variáveis;
3. Procedimentos metodológicos:
a) Seleção e definição operacional das variáveis
(fundamentadas na revisão de literatura);
b) Seleção ou elaboração do instrumento de recolha de
dados;
c) Seleção da amostra (não aleatória mas que deve ser
o mais homogénea possível, caso contrário as
correlações podem ser obscurecidas pela presença de
sujeitos que diferem muito uns dos outros);
4. Recolha de dados (por instrumentos tão variados como
sejam testes estandardizados, questionários, entrevistas ou
mesmo técnicas de observação);
5. Análise estatística dos dados e discussão dos resultados;
6. Redação do relatório de investigação.
13.2.6 Tipologia dos desenhos correlacionais
Tal como seria de prever a tipologia dos estudos correlacionais
está muito associada ao tipo de técnicas estatísticas utilizadas
para o cálculo dos indicadores seja da relação seja da previsão;
a proposta que passamos a apresentar baseia-se na proposta
análoga sugerida por Bravo (1992c), mas conta ainda com o
contributo de mais alguns dos autores que consultámos para a
elaboração deste artigo (Calder & Sapsford, 1996; Heiman,
1996; Lukas & Santiago, 2004).
13.2.6.1 Estudos de relação
Trata-se do modelo clássico dentro da família dos estudos
correlacionais em que, como já referimos anteriormente, o
objetivo do investigador é o de avaliar a magnitude da relação
entre variáveis pelo cálculo e interpretação dos coeficientes de
correlação (Almeida & Freire, 1997).
A análise de tipo relacional pode envolver a relação de
duas ou mais variáveis. No primeiro caso, como vimos atrás, a
análise diz-se bivariada e é o modelo mais simples dentro da
análise correlacional; mesmo que a análise envolva várias
variáveis, o investigador calcula os coeficientes de correlação
entre duas das variáveis em estudo de cada vez e interpreta os
resultados obtidos normalmente centrando a atenção nos
indicadores mais altos e/ou mais baixos.
No segundo caso, ou seja, se a análise relacional envolver
ação simultânea de mais do que duas variáveis a análise
correlacional diz-se multivariada. A regressão múltipla, a
análise discriminante, a análise fatorial, a análise de clusters
e a análise de sendas são os exemplos mais relevantes dentro
desta família de modelos de análise correlacional multivariada
(Borg & Gall, 1989; Calder & Sapsford, 1996).
Antes de passarmos a apresentar cada uma dessas técnicas
não queremos deixar de nos referir à chamada correlação
parcial que, de certa forma faz a ponte entre os modelos de
análise bi e multivariadas que vimos apresentando e que
consta de todos os programas de análise estatística como é
caso do SPSS 14.0. De facto, o cálculo da correlação parcial
envolve a presença de, pelos menos, três variáveis mas não as
analisa em simultâneo como acontece nos modelos de tipo
multivariado; na correlação parcial o que o investigador faz é
calcular o coeficiente de correlação entre duas variáveis
mantendo uma terceira variável sob controlo ou neutralizada
(Cohen, Manion & Morrison, 2001). Um exemplo é a alta
correlação que se verifica entre os valores do desempenho em
testes de leitura e de vocabulário já que ambas as variáveis são
também altamente correlacionadas com o fator inteligência.
Tentar explorar relações entre as duas primeiras variáveis per
si, implica neutralizar a influência da inteligência, o que é
conseguido por meio do recurso ao cálculo da correlação
parcial cujo coeficiente é designado por “Partial r” (Charles,
1998).
13.2.6.2 Regressão múltipla
A regressão múltipla é uma técnica de análise multivariada
que permite determinar a relação entre uma variável critério e
uma combinação de duas ou mais variáveis preditoras. Trata-
se de uma das técnicas de análise multivariada mais
popularizadas na investigação em CSH pela sua grande
versatibilidade e pela qualidade da informação que nos pode
fornecer acerca da relação entre múltiplas variáveis já que
permite estimar tanto a magnitude como a significância
estatística da relação entre elas (Borg & Gall, 1989). Para além
da investigação correlacional esta técnica pode ser utilizada
para a análise de dados de estudos causais comparativos e até
de estudos experimentais, podendo ser usada com variáveis de
vários níveis ou escalas de medida (intervalar, ordinal e
nominal).
O cálculo da equação da regressão múltipla envolve
operações matemáticas bastante complexas que possibilitam a
obtenção de coeficientes de previsão (os coeficientes β) da
variável critério tomando como base os valores obtidos nas
diversas variáveis preditoras; quanto maior for o coeficiente β
de uma variável preditora maior o seu peso relativo na
equação da reta de regressão múltipla para a qual participam
(contribuem) todas as variáveis preditoras na proporção da sua
influência relativa (Borg & Gall, 1989; Cohen et al., 2003).
Um exemplo concreto é-nos descrito por Borg e Gall
(1989) tomando como base o estudo desenvolvido por Paula
Jorde-Bloom e Martin Ford: os dois investigadores queriam
identificar fatores que distinguissem diretores de escolas
primárias que fomentavam o uso do computador na escola
para fins administrativos e para usos pedagógicos (as duas
variáveis critério) dos que não o faziam. A revisão de literatura
fundamentou três ordens de fatores possíveis: a) a experiência
prévia com o computador; b) as expectativas face ao potencial
das TIC; c) as perceções de auto eficácia; d) propensão para
inovar; e, e) o apoio externo. O objetivo da análise de
regressão múltipla foi o de verificar, de entre os vários fatores
possíveis, quais os que se revelavam mais importantes na
tomada de decisões dos diretores de escola para os dois fins
em vista (usos administrativos e pedagógicos). Com base na
regressão múltipla foi possível verificar que, para usos
administrativos o fator que mais pesava na decisão do diretor
de escola era a “experiência prévia com o computador”, mas,
para usos pedagógicos a “perceção de auto-eficácia” era o
fator determinante.
13.2.6.3 Análise discriminante
Permite diferenciar grupos de indivíduos segundo os seus
perfis em função de um conjunto de variáveis.
A análise discriminante é muito semelhante à da regressão
múltipla na medida em que ambas as técnicas envolvem duas
ou mais variáveis preditoras e uma variável critério. A análise
discriminante contudo está limitada ao caso especial da
variável critério ser dicotómica, como seja, por exemplo, o
caso de uma pessoa pertencer ou não a um determinado grupo:
ser homem ou mulher; ter bom/mau rendimento escolar;
engenheiros versus médicos, etc., etc. A equação da análise
discriminante usa as pontuações de uma pessoa na variável
preditora para tentar prever a que grupo essa pessoa pode
pertencer (critério) (Anderson, 1999; Bravo, 1992c; Cohen et
al.,2003).
13.2.6.4 Estudos baseados na análise fatorial
Estes estudos pretendem conhecer a estrutura interna de
determinados fatores capazes de explicarem um número mais
amplo de variáveis, ou seja, trata-se de um método que
pretende trazer à luz “padrões” de variáveis: um conjunto de
variáveis estão correlacionadas e a presença de
intercorrelações altas entre elas pode ser indiciadora da
presença de um “fator” mais geral que as explica
conceptualmente. Por exemplo, podemos medir vários aspetos
ligados ao sucesso escolar, como seja as notas em disciplinas
como Português e Matemática, as perceções de autoeficácia,
os hábitos de estudo, e concluir que altas correlações entre elas
poderia revelar a presença de um fator comum capaz de as
explicar a todas. Ou seja, se as variáveis não estão
correlacionadas não poderá haver nenhum fator que as
explique; no entanto, se um grupo de variáveis estão
fortemente relacionadas pode existir acima delas uma variável
mais genérica a que chamamos “fator” e que as explica a todas
(Kline, 1986). A análise fatorial constituiu-se como um
método que fornece ao investigador uma base empírica para
reduzir um grande número de variáveis que estão moderada a
fortemente correlacionadas a um (ou mais) fatores que as
integra. Um fator representa as variáveis mais correlacionadas.
Quando a busca dos fatores é mais empírica que teórica
utiliza-se o chamado método das componentes principais que
se tem revelado muito útil para a análise e validação de
instrumentos de medida de variáveis, em especial escalas de
atitudes e de valores numa fase inicial de desenvolvimento
(Anderson, 1999).
13.2.6.5 Análise de conglomerados ou de clusters
Consiste em classificar os sujeitos em grupos o mais
semelhantes possível entre si e o mais diferentes possível em
relação a outros grupos. Para além da sua utilização para a
elaboração e refinamento de instrumentos de medida também
tem sido usada para detetar constructos pessoais e perceções
de grupos sobre temáticas socioeducativas. Em conjunto com
os estudos de análise discriminante são também chamados de
estudos de classificação (Cohen et al., 2003; Stevens, 2002).
13.2.6.6 Análise de sendas (path analysis)
Servem para contrastar a plausibilidade ou a coincidência
empírica de modelos teóricos causais. O seu principal objetivo
é o de estudar os efeitos diretos e indiretos de variáveis,
consideradas “causas”, sobre variáveis consideradas “efeito”,
sem manipular as mesmas. Podem considerar-se uma
alternativa aos estudos experimentais puros que são muito
difíceis de empreender, uma vez que, embora não sejam
desenhados para o estabelecimento de relações causais entre
variáveis, são-no sim para comprovar o ajuste ou a
coincidência com modelos teóricos causais préviamente
planeados (Borg & Gall, 1989).
A questão central numa análise de sendas tem a ver com a
interpretação que o investigador faz do modelo causal que
quer testar e nunca deve ser conduzida com o fim de descobrir
causas mas de as testar. Um estudo em que um modelo causal
foi testado com base na análise de sendas foi o desenvolvido
por Bárbara Munro (1981) sobre uma amostra nacional de
alunos que tinham concluído o ensino secundário uns anos
antes. Nesse estudo, a investigadora pretendia testar o modelo
teórico de Vincent Tinto que apontava como principal causa
do abandono da universidade a incapacidade do estudante de
fazer a transição para o ensino superior e de se integrar na vida
académica. Através da análise de sendas foi possível obter um
modelo causal mais completo e detalhado. De facto, as
caraterísticas dos alunos finalistas foram capazes de prever a
integração académica mas não foram capazes de justificar de
forma direta o abandono escolar. O desejo do aluno completar
o curso foi o fator que teve o efeito mais positivo na decisão
de permanecer na instituição e concluir os estudos superiores.
13.2.6.7 Estudos de previsão ou preditivos
Procuram prever comportamentos/atitudes (variável critério) a
partir do conhecimento que se tem do valor de determinadas
variáveis ditas preditoras. Baseiam-se na correlação e na
regressão (linear, múltipla, polinómica, não linear). Através
destas técnicas define-se um grupo de variáveis critério com o
objetivo de ver os níveis de contribuição de cada variável
preditora para o prognóstico da variável critério. Para além da
validação de instrumentos de medida, as maiores aplicações
são no campo da orientação escolar profissional e diagnóstico
pedagógico (Lukas & Santiago, 2004)
13.2.6.8 Síntese
O Quadro 44 que segue, adaptado de Bravo (1992c), sintetiza
os principais métodos correlacionais apresentados com os
objetivos que permitem alcançar.

QUADRO 44 – Síntese dos principais métodos correlacionais


13.2.7 Aplicação dos métodos correlacionais à investigação
em CSH
Os métodos correlacionais são muito úteis para nos ajudar a
compreender acontecimentos, condições ou comportamentos
que estão relacionados entre si (Charles, 1998).
Para Juste (1985) os métodos correlacionais podem ser
desenvolvidos como estudos preparatórios de estudos
experimentais, já que a existência de uma correlação entre
variáveis não tem grande valor em si mesma se não tiver
continuidade na procura de justificações possíveis para as
relações encontradas, o que só é possível, como vimos, com a
manipulação de variáveis num estudo de tipo experimental.
Numa mesma lógica mas analisados desde um outro ponto
de vista, os estudos correlacionais também podem ser muito
úteis ao permitirem identificar possíveis variáveis estranhas
que importa controlar num estudo experimental que, no futuro,
possa vir a ser implementado.
Por último, podem também constituir uma alternativa
válida em situações em que, por razões organizacionais ou
éticas, não é possível realizar uma investigação com as
exigências dos desenhos experimentais ou quase-
experimentais (Bravo, 1992c).
13.2.8 Vantagens e limitações dos desenhos correlacionais
Relativamente a vantagens Borg e Gall (1989) e também
Cohen, Manion e Morrison (2001) destacam as seguintes:
1. aproximações exploratórias a áreas de investigação em
que pouco se conhece sobre o objeto de estudo;
2. não exigirem amostras grandes e permitirem trabalhar
com número elevado de variáveis estudando as relações
entre elas simultaneamente;
3. ao contrário da investigação experimental que só
permite a manipulação de uma variável única e que, por
isso mesmo, introduz alguma “irrealidade” na pesquisa, a
investigação correlacional, embora menos rigorosa,
permite o estudo das variáveis em situações muito mais
próximas da realidade social;
4. por último, o facto de nos fornecer indicadores
quantificados do grau de relação entre as variáveis – o
coeficiente de correlação dá-nos a medida numérica da
relação para todo um grupo de sujeitos – ajuda-nos muito a
encontrar “sentidos” na complexidade dos fenómenos
sociais e a procurar novas respostas.
Entre os inconvenientes (e os erros) mais frequentemente
praticados nos estudos que recorrem a este modelo
metodológico Borg e Gall (1989) e Anderson (1999)
destacam:
1. a tentação do investigador em considerar os resultados
da investigação correlacional como prova de uma relação
causa-efeito entre variáveis: a correlação não estabelece
relações de causalidade e não permite um controlo
rigoroso das variáveis estranhas como acontece na
investigação experimental, pelo que os resultados destes
estudos terão sempre um valor precário;
2. a seleção das variáveis para análise não se fundamentar
numa sólida revisão de literatura que inclua as teorias mais
representativas e a investigação prévia como acontece nas
abordagens de tipo shotgun;
3. utilizarem-se coeficientes bivariados que não são
apropriados ao tipo de variáveis em estudo;
4. a imprecisão da informação fornecida pelos coeficientes
de correlação que está muito condicionada pela fiabilidade
do processo de recolha de dados;
5. as variáveis podem apresentar correlações débeis,
comprometendo a relevância científica do estudo que se
limita a sugerir outras formas mais rigorosas de pesquisa;
6. ter presente que os coeficientes de correlação não
podem ser interpretados como valores absolutos, ou seja,
que são relativos a uma dada população/grupo e que, muito
provavelmente, não se repetem noutra;
7. falhas no desenvolvimento de variáveis critério capazes
de servirem para estudos de previsão futuros;
8. em estudos que incorporam muitas variáveis, não se
deve limitar a análise a coeficientes de correlação
bivariados deve-se avançar com técnicas de análise
multivariada que permitem clarificar como todas as
variáveis se relacionam e interagem entre si;
9. falhas na interpretação prática da significância
estatística dos coeficientes de correlação uma vez que,
perante um grande número de casos, não são necessários
coeficientes de correlação elevados para que esta se
produza; apesar de poderem ser mais do que fruto do
“mero acaso” (ou seja, apesar de terem significação
estatística), tais correlações terão sempre pouca ou
nenhuma validade prática;
10. Para o caso da análise de sendas (path analysis),
acrescem ainda:
a) falhas na especificação de uma variável causal
importante;
b) não verificar se os dados satisfazem os pressupostos
teóricos que estão na base da condução da análise.
Utilizam um grupo único que é observado num conjunto de
traços (Oa, Ob, Oc, etc,) e, numa espécie de scanning ao
terreno, procura-se detetar possíveis relações entre pares de
variáveis, capazes de justificarem uma investigação futura de
causalidade através de um plano experimental (Anderson,
1999; Black, 1999; Moore, 1983).
As variáveis nos estudos correlacionais são chamadas de
explicativas ou preditoras em vez de independentes (porque
não se manipulam) e a variável dependente designa-se também
por variável resultado ou critério (Mertens, 1998, p.95).
Em suma, o objetivo dos estudos correlacionais é encontrar
relações entre variáveis seja para as descrever (utilizando para
tal os coeficientes de correlação) ou mesmo para as prever, o
que transforma muitos estudos correlacionais em estudos de
regressão ou preditivos (Miller, 1991, p.23): para tal é
necessário que ambas as variáveis sejam contínuas
(intervalares ou razão), e, detetada a correlação, o investigador
analisa alterações que uma variável X produz numa outra Y,
podendo mesmo estabelecendo um padrão que permite a
previsão de Y a partir de X (Black, 1999).
Particularmente úteis em estudos em que há muitas
variáveis complexas em jogo e em que importa fazer um
despiste inicial de possíveis relações, importa sublinhar as
muitas limitações normalmente apontadas a este tipo de planos
(Anderson, 1999, p. 117):
1. As variáveis podem apresentar correlações débeis,
comprometendo a relevância científica do estudo que se
limita a sugerir outras formas mais rigorosas de pesquisa;
2. A simplicidade do modelo linear assumido pela
investigação correlacional clássica, oculta muitas vezes a
riqueza dos pormenores que não são sequer tidos em conta;
3. Problemas na significância estatística, uma vez que,
perante um grande número de casos, não são necessários
coeficientes de correlação elevados para que esta se
produza; apesar de serem mais do que fruto do mero acaso
(ou seja, apesar de terem significação estatística), tais
correlações terão sempre pouca ou nenhuma significação
prática;
4. A correlação não estabelece relações de causalidade e
não permite um controlo rigoroso das variáveis estranhas
como acontece na investigação experimental, pelo que os
resultados terão sempre um valor precário.
Por todas estas razões os mesmos autores consideram as
abordagens correlacionais úteis numa fase exploratória em que
se buscam possíveis relações entre variáveis, sobretudo
quando estas abundam ou quando se tem em mãos um volume
grande de dados que urge simplificar, mas não devendo nunca
constituir o fim último de uma investigação.
13.3 (F) – Inquérito ou Survey
Encontramos uma grande variedade de estudos descritivos
catalogados sob a designação genérica de survey – os termo
portugueses mais próximos são “sondagem” ou “inquérito” –,
caso dos censos da população, estudos de opinião pública, de
mercado ou estudos académicos entre muitos outros (Babbie,
1997). Os survey começam quase sempre por levantar uma
questão ou problema sobre “Quanto?”, “Com que frequência?”
ou “Quão comum?” é um fenómeno, a que o investigador
procura responder, inquirindo uma amostra de sujeitos que
seja representativa da população (Stern & Kalof, 1996).
Constituindo, provavelmente, o plano de investigação mais
utilizado em investigação social (Landsheere, 1993),
contribuíram decisivamente para muito do conhecimento que
hoje temos dos contextos sociais, sendo mesmo considerados
por alguns autores não apenas como uma modalidade de plano
descritivo mas também como um método autónomo de recolha
de dados dentro de outros planos de investigação (Mertens,
1998).
Os procedimentos da investigação por inquérito ou survey
devem estabelecer regras que nos permitam aceder de forma
científica ao que os inquiridos opinam, o que na prática
equivale a dizer que um segundo investigador possa repetir
todo o processo. Como, regra geral, só se fazem perguntas a
um subconjunto da população, para conduzir corretamente um
survey há que:
1. Escolher e selecionar corretamente os sujeitos a quem se
vai inquirir – amostra;
2. Elaborar corretamente as perguntas do questionário;
3. Equacionar todas as respostas possíveis para que possam
ser analisadas e interpretadas de forma correta.
Como de uma maneira geral, um survey visa analisar a
incidência, distribuição e relações entre variáveis que são
estudadas tal qual existem, em contexto natural, sem
manipulação (Bravo, 1992e; Meltzoff, 1998; Miller, 1991;
Stern & Kalof, 1996; Wiersma, 1995), sendo quase sempre
classificados em função desses três objetivos básicos:
descrever, explicar ou ainda explorar.
13.3.1 Survey descritivo
Se o objetivo do investigador é descobrir a incidência e
distribuição de determinados traços ou atributos de uma dada
população, sem os procurar explicar, o survey é puramente
descritivo do status quo de uma dada situação e é aplicado
num momento único (Babbie, 1997; Bravo, 1992e). É o survey
clássico (sample survey), em que o investigador estuda a
distribuição do traço (variável) numa amostra representativa
da população (sample), para dela inferir para a descrição na
população de que a amostra foi extraída.
13.3.2 Survey explicativo
Embora o objetivo principal seja sempre descrever, alguns
survey podem ter o objetivo adicional de tentar determinar
relações entre as variáveis, aproximando-se neste caso dos
planos ex post facto e correlacionais já anteriormente referidos
(Babbie, 1997; Black, 1999; Moore, 1983).
Convém referir que a inclusão de objetivos explicativos nos
survey, que, já de si produzem grande volume de dados para a
análise descritiva, implica o recurso a técnicas de análise
estatística multivariada (para o exame simultâneo de duas ou
mais variáveis), tarefa complexa que requer formação do
investigador e cuidados adicionais na interpretação dos
resultados obtidos (Calder & Sapsford, 1996).
13.3.3. Survey exploratório
Aqui o objetivo principal é fornecer pistas para estudos futuros
e por isso se chamam também de estudos exploratórios
(Babbie, 1997).
Imagine-se que queremos fazer um estudo sobre uma
temática complexa e abrangente, por exemplo: “insucesso
escolar: causas e consequências”. Apesar de termos sobre o
assunto as nossas ideias, seria bem mais sensato não iniciar o
estudo principal só com base nas nossas próprias conceções,
mas realizar primeiro um survey exploratório: com base num
questionário pouco estruturado, entrevistam-se, por exemplo
50 alunos com diferentes níveis de sucesso, sem grandes
preocupações de constituir uma amostra representativa nem de
obter dados muito estruturados. Com base nesta informação
inicial, que não responde à questão básica, seria então
preparado com mais rigor o estudo definitivo (Babbie, 1997).
Estes são os três objetivos que pode prosseguir um plano de
tipo survey, mas há casos em que se acumulam dois ou mesmo
os três objetivos num mesmo estudo. Definido(s) o(s)
objetivo(s), a fase seguinte é escolher o formato que vai tomar
o survey: se transversal ou longitudinal (Babbie, 1997).
13.3.4 Survey transversal
Neste caso, os dados são recolhidos num só momento no
tempo numa amostra representativa de uma população seja
para a descrever, seja para detetar possíveis relações entre
traços/variáveis.
13.3.5 Survey longitudinal
Alguns survey, sejam eles descritivos ou explicativos,
permitem a análise de dados ao longo de um período de tempo
que possibilitam ao investigador “detetar e explicar mudanças
ocorridas no tempo” (Babbie, 1997, p. 57). É o caso dos trend
studies (estudos de tendência), os cohort studies e os panel
studies (estudos de painel).
No primeiro caso, estudos de tendência, temos uma
população muito vasta (p.ex., alunos universitários), e dessa
população são extraídas amostras para estudos em momentos
diferentes no tempo. Ou seja, apesar de se analisarem
diferentes pessoas em cada momento (em geral, estes estudos
implicam períodos longos de mediação entre as medições o
que leva a que o aluno universitário do primeiro estudo seja já
licenciado no segundo), todas as amostras representam a
população, sendo então legítimo falar-se de tendências
(Babbie, 1997).
Quanto ao estudo cohort, a população em análise é sempre
muito mais específica do que no caso anterior. Por exemplo,
formamos uma amostra de 20 alunos finalistas de
Matemática/ensino do curso de 2000, avaliamos as suas
expectativas profissionais, e passados 5 anos, fazemos um
novo estudo com uma outra amostra de 20 sujeitos dessa
mesma classe para averiguar da evolução verificada: embora
as duas amostras sejam diferentes ambas são representativas
do curso de 2000.
O estudo de painel, por seu lado, recolhe dados no tempo
sempre à mesma amostra de sujeitos, por isso mesmo chamada
de “painel”. É a forma mais sofisticada de survey por
possibilitar a explicação de fenómenos (é fácil inquirir o painel
sobre motivos da evolução verificada), mas é a mais difícil de
concretizar por depender demasiado da perda de respondentes
ao longo do tempo (Babbie, 1997).
13.3.6 Caraterização geral de um survey
Seja qual for o formato que tomar, é característico de um
survey:
• a técnica de recolha de dados que se concretiza na
aplicação de um questionário em que a informação é
obtida inquirindo os sujeitos, o que, no caso de certas
variáveis pessoais como sejam perceções, atitudes,
comportamentos ou valores que podem transformar o
questionário numa espécie de “self report” (Moore, 1983,
p.175), cuja “… validade vai depender necessariamente da
honestidade dos inquiridos.” (Mertens, 1998, p. 105). Os
questionários podem tomar formatos diversificados dos
quais se destacam, os questionários auto administrados, as
entrevistas ou mesmo testes psicológicos (Mitchell &
Jolley, 1996);
• a constituição do grupo alvo a que se aplica o estudo e
que pode ser a totalidade dos sujeitos (população) ou, o
que é mais vulgar, a constituição de uma amostra
representativa de sujeitos da população (Miller, 1991;
Stern & Kalof, 1996).
O esquema da Figura 53 (adaptada de Wiersma, 1995, p.
178), sintetiza os passos que integram um plano survey.
FIGURA 53 – Esquema de um inquérito ou survey

Os critérios para conduzir um survey de qualidade,


assemelham-se bastante ao que acontece na investigação
experimental e quase experimental, nomeadamente no que
concerne à necessidade de se constituírem amostras
representativas da população; no caso dos survey, acresce a
necessidade de se utilizarem questionários e entrevistas bem
concebidos e válidos para os objetivos do estudo, sob pena de
se obterem dados inúteis e/ou distorcidos.
De facto, um dos problemas mais reportados na literatura
relativamente aos survey, é a possibilidade do investigador
obter elevados níveis de não-respostas (incluindo os
questionários não devolvidos e/ou não totalmente
preenchidos). Em termos gerais, índices de retorno da ordem
dos 70% são considerados aceitáveis (Ghiglione & Matalon,
1997; Mason & Bramble, 1997), mas, caso sejam
contabilizados em conjunto com as “não-respostas”, então
índices da ordem dos 60% poderão ainda ser considerados
“aceitáveis” (Ghiglione & Matalon, 1997; Mertens, 1998). No
sentido de aumentar os índices de retorno num inquérito,
diversos autores sugerem procedimentos de “follow-up”
(incluir envelope de resposta selado e endereçado, enviar um
postal a relembrar o preenchimento a quem ainda não
devolveu o formulário 8-10 dias depois), mas, por precaução,
e na opinião de Borg e Gall (1989), o investigador deverá
investigar as causas das “não respostas” sempre que estas
excedam 20% do total dos questionários enviados.
Razões de sobra para justificar a importância que reveste
num survey a implementação de uma qualquer forma de
testagem antecipada do estudo própriamente dito, e que passa
pela implementação do chamado estudo piloto em que se
aplica uma versão quase definitiva do questionário a um grupo
alvo com caraterísticas semelhantes à da nossa amostra da
população, se procede à recolha e análise estatística dos dados
tal qual como se do estudo principal se tratasse.
A implementação de um estudo piloto vai permitir ao
investigador:
• aferir da funcionalidade do questionário, permitindo a
reformulação/eliminação de itens que foram mal
interpretados, erroneamente respondidos ou mal
compreendidos pelos destinatários;
• como não há planos de investigação perfeitos, uma
análise rigorosa de dados no estudo piloto pode alertar o
investigador para erros de lógica e de raciocínio que
poderão ser superados no estudo principal.
13.3.7 Critérios para avaliar estudos de tipo survey ou
inquérito
Na opinião de Cardona Moltó (2002, p. 189), eis os critérios
que devem pesar na avaliação da qualidade científica de uma
investigação de tipo inquérito:
1. Prestar atenção ao tipo de conclusões do estudo: uma
das limitações destes estudos é que se devem limitar a
descrições e que não se podem tirar conclusões acerca de
relações causais observadas entre as variáveis;
2. Observar se a amostra e o instrumento estão descritos
com a suficiente precisão e detalhe;
3. Ver se trata de uma amostra de conveniência ou de uma
amostra representativa da população;
4. As representações gráficas devem respeitar a
proporcionalidade dos resultados obtidos para evitar
distorções que não representam os números.
Na mesma ordem de ideias, Borg e Gall (1989, p. 465)
advertem ainda dos erros mais frequentes nestes estudos:
1. Não formularem objetivos claros e específicos;
2. Os dados recolhidos relacionarem-se de forma ténue
com os objetivos do estudo;
3. As amostras serem quase sempre de conveniência (não
aleatórias);
4. Análise superficial das relações entre variáveis e das
mudanças no tempo;
5. Utilizarem o inquérito para estudar problemas que
poderiam ser melhor estudados com outros métodos de
pesquisa social;
6. Prestarem pouca atenção ao desenvolvimento do
questionário (validação do conteúdo);
7. Não fazerem estudo piloto do questionário (validação
empírica); Perguntarem demasiadas coisas aos inquiridos.
13.4 (G) Estudos Psicométricos
Sob a designação geral de estudos psicométricos ou
psicometria, entende-se um conjunto de abordagens teóricas,
técnicas e metodológicas cuja finalidade comum é facilitar
uma medição precisa e rigorosa das variáveis psicológicas e
socioeducativas (Nunnaly & Bernstein, 1994).
Trata-se de enquadramentos metodológicos que sofreram
nos últimos anos grandes desenvolvimentos, contribuindo
decisivamente para que se encontrassem soluções alternativas
para os problemas que tradicionalmente se colocavam à
investigação em CSH, resultantes da falta de um número
suficiente de provas de avaliação e medição de variáveis
aferidas em termos de problemáticas ou mesmo de grupos
específicos (DeVellis, 1991).
O objetivo dos métodos psicométricos é equacionar a
medição de variáveis através de uma visão crítica do alcance e
limitações dos instrumentos existentes, assim como
estabelecer as bases para a construção de novos instrumentos
mais rigorosos e precisos. (DeVellis, 1991; Kline, 1986;
Muniz, 1996).
No caso concreto da investigação em TE, incluem-se nesta
categoria os estudos preocupados com a conceção e aferição
de instrumentos e escalas de avaliação de variáveis
socioeducativas e psicológicas muito diversificadas (atitudes
face a diferentes tecnologias, opiniões, personalidade, etc.),
bem como os que se centram na aferição de testes
estandardizados para outros contextos de investigação
específicos e/ou situações didáticas particulares e concretas.
O quadro 45 sintetiza a informação relativa aos planos não
experimentais ou descritivos de que vimos falando.
QUADRO 45 – Planos não experimentais ou descritivos
REFERÊNCIAS BIBLIOGRÁFICAS
Almeida, L., & Freire, T. (1997). Metodologia da investigação
em Psicologia e Educação. Coimbra: APPORT.
Anderson, G. (1999). Correlational research. In G. Anderson,
& N. Arsenault (Eds.), Fundamentals of educational research
(pp. 111-118). London: Falmer Press Teachers Library.
Babbie, E. (1997). Survey research methods (2ª ed.). Belmont,
California: Wadsworth Publishing Company.
Best, J., & Kahn, J. (1993). Research in Education (7ª ed.).
Boston: Allyn and Bacon.
Bisquerra, R. (1989). Métodos de investigacion educativa:
Guia practica. Barcelona: Ediciones CEAC.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Borg, W., & Gall, M. (1989). Educational research: an
introduction (5ª ed.). New York: Longman.
Bravo, M. P. C. (1992c). Los métodos correlacionales. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación
educativa(pp. 155-175). Sevilha: Ediciones Alfar.
Bravo, M. P. C. (1992e). Los métodos descritivos. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación
educativaInvestigación educativa 199). Sevilha: Ediciones
Alfar.
Calder, J., & Sapsford, R. (1996). Multivariate analysis. In R.
Sapsford, & V. Jupp (Eds.), Data collection and analysis (pp.
262-281). London: SAGE Publications.
Campbell, D., & Stanley, J. (1963). Experimental and quasi
experimental designs. Boston: Houghton Mifflin Company.
Charles, C. M. (1998) Introduction to educational research (3ª
ed.). New York: Longman.
Cohen, J., West, S. G., Aijen, L., & Cohen, P. (2003). Applied
multiple regression/correlation analysis for the Behavioral
Sciences. Mahwah, NJ: Lawrence Erlbaum.
Cohen, L., & Manion, L., & Morrison, K. (2001). Research
methods in Education (5ª ed.). New York: Routlegde Falmer.
DeVellis, R. F. (1991). Scale development: Theory and
applications (Vol. 26, Applied Social Sciences Methods
Series). Newbury Park: Sage
Ghiglione, R., & Matalon, B. (1997). O inquérito: Teoria e
prática (3ª ed.). Oeiras: Celta Editora.
Heiman, G. (1996). Basic statistics for the Behavorial
Sciences (2ª ed.). Boston: Houghton Mifflin Company.
Juste, P. (1985). Estudios correlacionales. In A. De La Orden
(Ed.), Diccionário de investigácion educativa. Madrid: Anaya.
Kline, P. (1986). A handbook of test construction: introduction
to psychometric design. New York: Methuen & Co.
Knupfer, N., & McLellan, H. (1996) Descriptive research
methodologies. In D. Jonassen (Ed.), Handbook of research
for educational communications and technology (pp. 1196-
1212). New York: Macmillan USA.
Landsheere, G. (1993) History of educational research. In M.
Hammersley (Ed.), Educational research: current issues (pp.
3-15). London: The Open University Press.
Lukas, J. F., & Santiago, K. (2004). Evaluacion educativa.
Madrid: Alianza Editorial.
Mason, E., & Bramble, W. (1997). Research in Education and
the Behavorial Sciences: concepts and methods. Madison, WI:
Brown & Benchmark.
Meltzoff, J. (1998). Critical thinking about research -
Psychology and related fields. Washington DC: American
Psychology Association.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Miller, D. C. (1991). Handbook of research design and social
measurement (5ª ed.). London: Sage Publications.
Mitchell, M., & Jolley, J. (1996) Research design explained (3ª
ed.). Orlando: Harcourt Brace College Publishers.
Moore, G. W. (1983). Developing and evaluating educational
research. New York: HarperCollins Publishers.
Muniz, J. (1996). Psicometria. Madrid: Universitas.
Munro, B. (1981). Dropouts from higher education: Path
analysis of a national sample. American Educational Research
Journal, 18(2), 133-141.
Nunnaly, J., & Bernstein, I. H. (1994). Psycometric theory (3ª
ed.). New York: MacGraw-Hill
Punch, K. (1998). Introduction to Social Research:
quantitative & qualitative approaches. London: SAGE
Publications.
Schutt, R. K. (1999). Investigating the Social World: The
process and practice of research (2ª ed.). Thousand Oaks: Pine
Forge Press.
Shavelson, R. (1996). Statistical reasoning for the Behavorial
Sciences (3ª ed.). Needham Heights, MA: Allyn & Bacon.
Sousa, A. (2009). Investigação em Educação. Lisboa: Livros
Horizonte.
Stern, P., & Kalof, L. (1996). Evaluating Social Science
research (2ª ed.). Oxford: Oxford University Press.
Stevens, J. (2002). Applied multivariate statistics for the
Social Sciences. Mahwah, NJ: Lawrence Erlbaum.
Vogt, W. P. (1999). Dictionary of statistics and methodology: a
nonethical guide for the Social Sciences (2ª ed.). Newbury
Park, CA: SAGE Publications.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Capítulo 14

Planos Qualitativos

Os estudos qualitativos constituem uma família de planos de


investigação que partem de pressupostos epistemológicos,
filosóficos e metodológicos caraterizados por uma rejeição do
modelo da investigação nas ciências naturais (Silverman,
2000).
Enquanto noutras formas de pesquisa, nomeadamente na
metodologia quantitativa, o investigador pode usar
instrumentos mais ou menos padronizados (já existentes ou
por si cuidadosamente elaborados) e adotar os procedimentos
metodológicos recomendados na literatura, na investigação de
tipo interpretativo o trabalho de recolha e análise de dados é
uma atividade sempre diversificada, que coloca
frequentemente problemas inesperados, o que requer
criatividade e flexibilidade. Dito de outro modo, na
investigação qualitativa/interpretativa quer os instrumentos
quer a conduta do investigador são difíceis de formalizar num
conjunto de normas universalmente aplicáveis a todas as
situações de pesquisa.
Por isso mesmo resulta difícil determinar e classificar os
métodos de investigação qualitativa não havendo unanimidade
nos diferentes autores relativamente a este assunto, bastando
para tal consultar a obra dos autores mais consagrados (Denzin
& Lincoln, 1994; Gómez et al., 1996; Guba & Lincoln, 1994;
Mertens, 1998; Punch, 1998; Silverman, 2000). A este
respeito, o excerto de Denzin e Lincoln (1994) que passamos a
transcrever, elucida bem aquilo que acabamos de referir:
A investigação qualitativa utiliza uma multiplicidade de
métodos para abordar uma problemática de forma
naturalista e interpretativa, ou seja estuda-se o problema
em ambiente natural, procurando interpretar os fenómenos
em termos do que eles significam para os sujeitos (…)
utiliza uma variedade de materiais empíricos – estudo de
caso, experiência pessoal, entrevista, histórias de vida,
introspeção – que descrevem rotinas e significados nas
vidas dos sujeitos. (p. 105)
Na citação supra estão também contidas as ideias base ou
palavras-chave comuns a todas as metodologias qualitativas:
complexidade, subjetividade, descoberta, lógica indutiva.
Na opinião de Flick (1998), a caraterística que nos permite
desde logo identificar um plano de investigação qualitativo é a
sua não linearidade, ou seja, estamos em presença de planos
em que a linearidade do modelo metodológico “clássico” cede
lugar à interatividade entre todas as fases do processo da
pesquisa (problema, recolha de dados, hipótese, constituição
da amostra), originando um modelo de investigação em que, e
tomando as palavras do autor, a “… circularidade é a
caraterística central” (Flick, 1998, p. 43). A Figura 54 ilustra a
ideia defendida pelo autor.

FIGURA 54 – Plano de investigação linear e circular.

Para além da não linearidade, os planos de investigação


qualitativos apresentam outras caraterísticas
individualizadoras; na perspetiva de Miles e Huberman (1994,
p. 6) um estudo é qualitativo se:
• for conduzido num contacto intenso e prolongado com
uma “situação real” também ela “banal” ou “normal”,
refletindo o dia a dia de indivíduos, grupos, sociedades,
etc.;
• o objetivo do investigador for o de conseguir uma visão
“holística” (sistemática, integrada) do contexto em estudo:
a sua lógica, princípios e regras;
• o investigador procurar captar os dados partindo das
perceções dos próprios atores, “desde dentro”, num
processo de atenção profunda e compreensão empática,
deixando de parte preconceitos e ideias feitas;
• a análise de dados não desvirtuar nunca a originalidade
dos mesmos;
• os instrumentos de recolha de dados não forem
estandardizados, sendo o investigador o principal
“instrumento de medida” no estudo;
• os dados tomarem quase sempre a forma de “palavras”
obtidas através de observações diretas ou indiretas,
entrevistas ou documentos;
• as palavras forem “analisadas” de forma a permitir ao
investigador contrastar, comparar, analisar e desvendar
padrões “dentro” delas.
Na investigação quantitativa o propósito é fazer descrições
objetivas de um fenómeno (estudos descritivos) ou determinar
se esses fenómenos podem ser controlados através de
determinadas intervenções (estudos experimentais).
O propósito da investigação qualitativa é compreender os
fenómenos na sua totalidade e no contexto em que ocorrem,
pelo que pode acontecer que só se conheça o foco do problema
depois de se começar a pesquisa ou trabalho de campo: à
medida que se fazem observações e entrevistas vão sendo
identificados os temas relevantes e padrões que se tornam a
partir de então o foco da atividade do investigador e o alvo de
observações mais intensas e sistematizadas.
14.1 Caraterização Geral
Na investigação qualitativa o problema começa por ser uma
descrição do objetivo da pesquisa. Esse propósito vai-se
refinando como resultado da revisão de literatura e da recolha
de dados. Por vezes pode incluir também uma referência à
metodologia: por exemplo, “o objetivo geral do estudo foi
examinar o clima social de uma sala de aula em que havia três
alunos surdos integrados”. Ao problema seguem-se questões
mais específicas que guiarão a recolha de dados:
1. Qual a natureza do clima social da sala de aula
observada?
2. Que padrões verbais e não verbais usa o professor na
interação com os alunos surdos?
3. Como entende e interpreta as suas próprias ações?
4. Tais perceções e ações mudam quando interage com os
restantes alunos?
5. Que relações existem entre os alunos surdos e os
restantes colegas de turma?
6. Etc., etc.
14.1.1 Seleção dos participantes
Num estudo qualitativo a amostra é sempre intencional,
porque não há qualquer razão para que seja representativa da
população. Por vezes selecionam-se casos que são atípicos em
combinação com outros que não o são e que possam
representar a variação natural que existe numa variável. As
técnicas de amostragem são variadíssimas como se pode
constatar no Quadro 46.
QUADRO 46 – Amostras em estudos qualitativos

14.1.2 Técnicas para a recolha de dados


Observações, entrevistas, documentos pessoais e oficiais,
fotografias, desenhos, e-mails e conversas informais podem
constituir-se como fontes de informação em estudos
qualitativos. Os dados obtidos a partir destas fontes têm um
denominador comum: a sua análise depende
fundamentalmente das capacidades integradoras e
interpretativas do investigador.
a) Observação
Pode adotar formatos diversos dependendo do grau de
participação do observador. Na observação qualitativa o
observador passa muito tempo no contexto a observar com o
objetivo de compreender melhor o fenómeno em estudo. Por
vezes o investigador pode ser também um participante ativo no
estudo; quando o investigador interage com os participantes
mas não é um membro do grupo diz-se que é um observador
participante. Se participa também no estudo chama-se
participante. Se observa mas não participa no estudo é um
observador não participante ou externo.
Entre estas diversas modalidades há outras possibilidades:
ser numa fase inicial não participante e numa fase posterior
participante; atuar como observador “encoberto”, embora esta
modalidade possa levantar problemas éticos a ter em conta.
Cada sessão de observação deve centrar-se num único
objetivo e pressupõe sempre a conceção de um protocolo ou
grelha de observação com os aspetos que guiarão a
observação. O protocolo deve especificar:
A quem se observa;
Como se desenrola a sessão: natureza do problema, que
fazem os participantes, contexto e ambiente, quem é o
líder, quem segue a quem, quem é decisivo, como é o
clima da sessão, que crenças, valores e atitudes podem
emergir;
Como termina a sessão: o grupo está dividido, unido,
cansado, aborrecido, entusiasmado, etc.;
Que atividades ou interações foram significativas para o
esclarecimento do problema.
A observação qualitativa materializa-se em notas de
campo que podem ser de dois tipos:
Descritivas (notações e descrições): geralmente são
descrições tão precisas e minuciosas quanto possível
(baixo grau de inferências) do ambiente, da aparência
física e do caráter dos participantes, daquilo que dizem e
de como atuam;
Reflexivas (análise): são especulações do investigador,
expressões dos seus sentimentos, interpretações, ideias e
impressões que vai formando a partir dos dados que
observa. As reflexões podem conter temas emergentes e/ou
padrões de resposta possíveis. No entanto, é importante
que o investigador saiba separar a sua reflexão e análise do
que é a informação descritiva real e catalogá-la como
“comentários do observador”.
b) Entrevista em profundidade
Outra técnica muito utilizada na investigação qualitativa é a
entrevista com elementos informativos chave. O grau de
estruturação da entrevista depende dos objetivos do estudo. Se
o objetivo é conhecer a perspetiva dos participantes sobre
determinado problema, a entrevista pode ser não estruturada.
A entrevista semi estruturada utiliza-se quando importa obter
dados comparáveis de diferentes participantes. A entrevista
estruturada não se costuma utilizar em estudos qualitativos.
As entrevistas servem para obter informação que não foi
possível obter pela observação ou para verificar (triangulação)
observações. O objetivo é sempre o de explicar o ponto de
vista dos participantes, como pensam interpretam ou explicam
o seu comportamento no contexto natural em estudo.
As entrevistas podem ser conduzidas individualmente ou
em grupo. A primeira incide sobre elementos informativos
considerados “chave” para o objeto de estudo. Outras vezes o
que importa é conhecer a história pessoal dos participantes e a
entrevista é feita ao grupo (entrevista de 10-12 pessoas durante
uma ou duas horas por vezes com um moderador) para se
conseguir captar uma melhor compreensão do fenómeno.
Os entrevistadores têm três opções para recolher dados:
tomar notas durante ou depois da entrevista ou gravá-la numa
cassete áudio ou vídeo (opção mais viável na prática). Para
Seidman (1991) eis algumas regras que podem melhorar a
qualidade de uma entrevista:
Ouvir mais que falar;
Evitar perguntas fechadas;
Não interromper. Aprender a esperar a resposta;
Perguntar coisas concretas;
Tolerar o silêncio (sinal de que o entrevistado está a
pensar);
Não julgar os pontos de vista do entrevistado.
O entrevistador está ali para aprender as perspetivas do
entrevistado, esteja ou não de acordo com elas;
Não discutir ou debater as respostas obtidas. O seu
papel é recolher informação.
Existem duas ameaças à validade da observação e da
entrevista: os desvios do observador e o efeito observador. Os
desvios do observador ocorrem quando a perspetiva ou
opiniões do investigador influenciam aquilo que vê ou escuta
quando recolhe dados. Os efeitos do observador acontecem
quando a presença do investigador leva os participantes a
comportarem-se de forma diferente do habitual. Para aumentar
a validade dos dados e reduzir estas ameaças à validade dos
estudos qualitativos recomenda-se a incorporar no estudo mais
do que um observador ou entrevistador e utilizar protocolos de
triangulação (dos dados, da teoria) (Coutinho & Chaves,
2002).
Apresentadas as caraterísticas gerais dos planos
qualitativos falta agora especificar as suas vertentes
metodológicas específicas. No entanto, a tarefa não é fácil tal a
multiplicidade de propostas distintas que são descritas na
literatura: a título de exemplo consultemos Mertens (1998) que
identifica 26 modalidades distintas! Pela nossa parte, vamos
centrar a atenção nos quatro modelos metodológicos que
consideramos mais representativos para a investigação atual
no domínio das CSH:
• Estudo de caso
• Teoria fundamentada (grounded theory)
• Estudos etnográficos
• Fenomenologia
14.2 Estudo de Caso 36
O estudo de caso tem vindo a ganhar popularidade crescente
na investigação em CSH nos últimos anos a avaliar pelo
aumento crescente do número de projetos de investigação que
utilizam este método de pesquisa (Yin, 1994). Este facto
explica-se, na opinião de Cohen e Manion (1994), pela
desvalorização da investigação desenvolvida sob o paradigma
positivista por parte significativa da comunidade de
investigadores em CSH.
O estudo de caso é um dos referenciais metodológicos com
maiores potencialidades para o estudo da diversidade de
problemáticas que se colocam ao cientista social. Trata-se
contudo de uma metodologia de investigação que não é fácil
de levar a cabo, abundando (infelizmente) demasiados estudos
mal concebidos e implementados sob a designação genérica de
que se trata de estudo de caso, numa tentativa “de se evitar
definir e descrever métodos de recolha de dados, de
fundamentar pressupostos teóricos e até de descrever
claramente os resultados a que se chegou” (Savenye &
Robinson, 1996, p. 1171), razão porque são encarados por
muitos cientistas sociais com desdém (Yin, 1994), com a
auréola de “tolerantes” (Ponte, 1994) ou anda como formas de
investigação desprovida de rigor (Yin, 1994).
14.2.1 O que é um “estudo de caso”?
A caraterística que melhor identifica e distingue esta
abordagem metodológica, é o facto de se tratar de um plano de
investigação que envolve o estudo intensivo e detalhado de
uma entidade bem definida: o “caso”.
E o que é um caso? Quase tudo pode ser um caso: um
indivíduo, um personagem, um pequeno grupo, uma
organização, uma comunidade ou mesmo uma nação! Pode
também ser uma decisão, uma política, um processo, um
incidente ou acontecimento imprevisto, enfim um sem fim de
hipóteses mil! Numa tentativa de síntese, Brewer e Hunter
(1989, citados em Punch, 1996, p. 152) propõem seis
categorias de “caso” passíveis de serem estudados na
investigação em Ciências Socais e Humanas: indivíduos;
atributos dos indivíduos; ações e interações; atos de
comportamento; ambientes, incidentes e acontecimentos; e
ainda coletividades.
No estudo de caso, tal como a expressão indica, examina-se
o caso (ou um pequeno número de casos) em detalhe, em
profundidade, no seu contexto natural, reconhecendo-se a sua
complexidade e recorrendo-se para isso todos os métodos que
se revelem apropriados (Gómez, Flores & Jimenez, 1996;
Punch, 1998; Yin, 1994)
A finalidade da pesquisa, essa, é sempre holística
(sistémica, ampla, integrada) ou seja, visa preservar e
compreender o caso no seu todo e na sua unicidade, razão
porque vários autores preferem a expressão estratégia à de
metodologia de investigação (Gómez et al., 1996; Ponte, 1994;
Punch, 1998). Começa agora a perceber-se a razão porque os
vários autores consultados, em vez de avançarem com
propostas de uma definição unívoca, apontem ideias muito
gerais em vez de proporem uma definição unívoca:
“O estudo de caso é a exploração de um “sistema
limitado”, no tempo e em profundidade, através de uma
recolha de dados profunda envolvendo fontes múltiplas de
informação ricas no contexto” (Creswell, 1998, p. 61)
“O estudo de caso é uma investigação empírica que
investiga um fenómeno no seu ambiente natural, quando as
fronteiras entre o fenómeno e o contexto não são bem
definidas… (e)… em que múltiplas fontes de evidência são
usadas” (Yin, 1994, p. 13).
“É a estratégia de investigação mais adequada quando
queremos saber o “como” e o “porquê” de acontecimentos
atuais sobre os quais o investigador tem pouco ou nenhum
controlo” (Yin, 1994, p. 9)
Das diferentes propostas emergem as cinco caraterísticas-
chave desta abordagem metodológica:
– O caso é “um sistema limitado” – logo tem fronteiras
“em termos de tempo, eventos ou processos” e que “nem
sempre são claras e precisas” (Creswell, 1998): a primeira
tarefa do investigador é pois definir as fronteiras do caso
da forma mais clara precisa.
– Segundo, é um caso sobre “algo”, que há que identificar
para conferir foco e direção à investigação.
– Terceiro, tem de haver sempre a preocupação de
preservar o caráter “único, específico, diferente, complexo
do caso” Mertens (1998); a palavra holístico é muitas
vezes usada nesse sentido.
– Quarto, a investigação decorre em ambiente natural.
– Quinto, o investigador recorre a fontes múltiplas de
dados e a métodos de recolha muito diversificados:
observações diretas e indiretas, entrevistas, questionários,
narrativas, registos audio e video, diários, cartas,
documentos, etc.
Em síntese, o estudo de caso é uma investigação empírica
(Yin, 1994); que se baseia no raciocínio indutivo (Gómez et
al., 1996); que depende fortemente do trabalho de campo
(Punch, 1998); que não é experimental (Ponte, 1994); que se
baseia em fontes de dados múltiplas e variadas (Yin, 1994).
Tem sempre forte cariz descritivo apoiando-se em
“descrições compactas” (thick description) do caso (Mertens,
1998, p. 161) o que não impede todavia que possam ter “um
profundo alcance analítico, interrogando a situação,
confrontando-a com outros casos já conhecidos ou com teorias
existentes, ajudando a gerar novas teorias e novas questões
para futura investigação” (Ponte, 1994, p. 4).
É o seu forte cunho descritivo, associado ao facto do
investigador estar pessoalmente implicado num estudo
aprofundado de casos particulares, que leva a que muitos
tendam a associar o estudo de caso à investigação qualitativa o
que é todavia uma conceção errada já que o estudo de caso
pode também ser conduzido no quadro de outros paradigmas
de investigação como o positivista ou mesmo o crítico (Ponte,
1994; Punch, 1998), razão porque alguns autores a consideram
como uma modalidade de investigação mista (Gómez et al.,
1996). De facto, se é verdade que na investigação em CSH
abundam mais os estudos de caso de natureza
interpretativa/qualitativa, não menos verdade é admitir que,
estudos de caso existem em que se combinam com toda a
legitimidade métodos quantitativos e qualitativos: por
exemplo, quando o “caso” é uma escola ou um hospital, fará
todo o sentido que o investigador recorra a dados numéricos
de natureza demográfica, como número de alunos/doentes,
taxas de reprovação/admissão, origem social, ou seja,
indicadores quantitativos que fazem todo o sentido no estudo
porque proporcionam uma melhor compreensão do “caso”
específico.
14.2.2 Objetivos do Estudo de Caso
Para Yin (1994) o estudo de caso pode ser conduzido para um
dos três propósitos básicos: explorar, descrever ou ainda
explicar.
Guba e Lincoln (1994) por seu lado, consideram que, num
estudo de caso o investigador pode: a) relatar ou registar os
factos tal como sucederam; b) descrever situações ou factos; c)
proporcionar conhecimento acerca do fenómeno estudado; e d)
comprovar ou contrastar efeitos e relações presentes no caso.
Ponte (1994) refere as duas funções “descritiva” e
“analítica”; por sua vez Merriam (1998) refere: “descrever,
interpretar e avaliar”. Por último Gómez et al. (1996, p. 99)
numa tentativa de síntese das diversas e por vezes
contraditórias posições acerca desta questão, conclui que, bem
vistas as coisas, os objetivos que orientam um estudo de caso
podem ser em tudo coincidentes com os da investigação social
em geral: “explorar, descrever, explicar, avaliar e/ou
transformar”.
14.2.3 Tipologia do Estudo de Caso
Com tanta variedade de “casos” e objetivos a perseguir, está
justificada a diversidade de estudos de caso que surgem
descritos na literatura e de que vamos referir apontar os mais
representativos. A primeira proposta a que todos os autores
aludem é a divisão básica entre estudo de caso único e estudo
de caso múltiplo ou comparativo (Bogdan & Biklen, 1994;
Punch, 1998; Yin, 1994). Prosseguimos com a proposta de
Stake (1995), referência clássica na literatura da especialidade,
que distingue os três tipos seguintes:
– o estudo de caso intrínseco, quando o investigador
pretende uma melhor compreensão de um caso particular,
que lhe oferece de per si um interesse intrínseco;
– o instrumental, quando um caso é examinado para
fornecer introspeção sobre um assunto, para refinar uma
teoria, para proporcionar conhecimento sobre algo que não
é exclusivamente o caso em si; o estudo do caso funciona
como um instrumento para compreender outro(s)
fenómeno(s);
– o coletivo, quando o caso instrumental se estende a
vários casos, para possibilitar, pela comparação,
conhecimento mais profundo sobre o fenómeno, população
ou condição.
Interessante é também a proposta de Bogdan e Biklen
(1994) que Gómez et al. (1996) sintetizam no Quadro 47 que
reproduzimos abaixo: trata-se de uma classificação pragmática
que tem em conta os métodos e procedimentos que se adotam
em cada estudo de caso específico.
QUADRO 47 – Métodos e procedimentos num “estudo de caso”

Yin (1994, p. 41) considera um outro critério que


equaciona se o investigador enquadra a recolha de dados de
observação relativamente a uma única ou a várias unidades de
análise, a que correspondem respetivamente, e na aceção do
autor, os holistic versus embebbed case studies, ou, na
tradução de Gómez et al. (1996, p. 97) os estudos globais
versus inclusivos. Imaginemos que o “caso” é uma turma, que
poderá ser analisada, em função dos objetivos do estudo, como
um todo (uma unidade de análise) ou como sendo constituída
por uma série de sub unidades cuja caraterização exige
tratamento específico (sexo ou estrato socioeconómico dos
alunos, aproveitamento em certas disciplinas, etc.). No
primeiro caso teremos um holistic ou estudo de caso global e
no segundo um estudo de caso embebbed ou inclusivo.
Combinando os dois critérios (número de casos e número de
unidades de análise), Yin (1994) propõe quatro modalidades
que o esquema do Quadro 48 ilustra.

QUADRO 48 – Estudos de caso globais e inclusivos

Por último Gómez et al. (1996) numa proposta que


considera em conjunto os três critérios fundamentais (nº casos,
nº unidades análise e objetivos do estudo) chega a um total de
20 tipos possíveis como o Quadro 49 ilustra:

QUADRO 49 – Modalidades de “estudo de caso”

14.2.4 Constituição da Amostra ou Seleção do “Caso”


Para Bravo (1992b) a seleção da amostra num estudo de caso
adquire um sentido muito particular, diríamos nós que é a sua
essência metodológica. De facto, ao escolher o “caso” o
investigador estabelece o referencial lógico que orientará todo
o processo de recolha de dados (Creswell, 1998), mas, adverte
Stake (1995), é importante termos sempre presente que “o
estudo de caso não é uma investigação baseada em
amostragem. Não se estuda um caso para compreender outros
casos, mas para compreender o caso” (Stake, 1995, p. 4)
Por isso, a constituição da amostra é sempre intencional
(purposeful sampling), “… baseando-se em critérios
pragmáticos e teóricos em vez de critérios probabilísticos,
buscando-se não a uniformidade mas as variações máximas”
(Bravo, 1992b, p. 254). E a autora prossegue, inspirada desta
feita no pensamento de Patton (1980) identificando seis
modalidades de amostragem intencional passíveis de
integrarem um estudo de caso:
1. amostras extremas (casos únicos que proporcionem
dados muito interessantes);
2. amostras de casos típicos ou especiais;
3. amostras de variação máxima, adaptadas a diferentes
condições;
4. amostras de casos críticos;
5. amostras de casos sensíveis ou politicamente
importantes;
6. amostras de conveniência.
Em todas estas amostras há caraterísticas identificadoras
que as destacam relativamente às amostras probabilísticas
típicas das abordagens quantitativas (Bravo, 1992b; Yin,
1994):
– processo de amostragem dinâmico e sequencial, que
pode ser alterado/ aumentado à medida que o estudo evolui
para completar ou contrastar os dados já obtidos;
– ajuste automático da amostra sempre que surjam novas
hipóteses de trabalho que justifiquem uma redefinição da
amostra e/ou o seu reajustamento às novas condições da
análise;
– o processo de amostragem só está concluído quando se
esgotar toda a informação passível de ser obtida no
confronto das várias fontes de evidência: a saturação ou
redundância é o principal critério para considerar
finalizado o processo da amostragem.
14.2.5 Recolha de Dados num Estudo de Caso
No processo de recolha de dados, o estudo de caso recorre a
várias técnicas próprias da investigação qualitativa,
nomeadamente o diário de bordo, o relatório, a entrevista e a
observação. A utilização destes diferentes instrumentos
constitui uma forma de obtenção de dados de diferentes tipos,
os quais proporcionam a possibilidade de cruzamento ou
triangulação da informação (Coutinho, 2005).
Assim sendo, são utilizadas múltiplas fontes de evidência
ou dados por permitir por um lado, assegurar as diferentes
perspetivas dos participantes no estudo e por outro, obter
várias “medidas” do mesmo fenómeno, criando condições para
uma triangulação dos dados, durante a fase de análise dos
mesmos. Segundo Yin (1994, p. 92), a utilização de múltiplas
fontes de dados na construção de um estudo de caso, permite-
nos considerar um conjunto mais diversificado de tópicos de
análise e em simultâneo permite corroborar o mesmo
fenómeno.
O diário de bordo constitui um dos principais
instrumentos do estudo de caso. O diário de bordo tem como
objetivo ser o instrumento onde o investigador vai registando
as notas retiradas das suas observações no campo. Bogdan e
Biklen (1994, p. 150) referem que essas notas são “o relato
escrito daquilo que o investigador ouve, vê, experiencia e
pensa no decurso da recolha e refletindo sobre os dados de um
estudo qualitativo”.
O diário de bordo representa, não só, uma fonte importante
de dados, mas também pode apoiar o investigador no
desenvolvimento do estudo. Bogdan e Biklen (1994, p. 151)
referem que “acompanhar o desenvolvimento do projeto, a
visualizar como é que o plano de investigação foi afetado
pelos dados recolhidos, e a tornar-se consciente de como ele
ou ela foram influenciados pelos dados”.
A entrevista adquire bastante importância no estudo de
caso, pois através dela o investigador percebe a forma como os
sujeitos interpretam as suas vivências já que ela “ é utilizada
para recolher dados descritivos na linguagem do próprio
sujeito, permitindo ao investigador desenvolver intuitivamente
uma ideia sobre a maneira como os sujeitos interpretam
aspetos do mundo” (Bogdan & Biklen, 1994, p. 134).
Ao longo da investigação podem ser elaborados relatórios
do tipo descritivo ou reflexivo, como ferramenta de recolha de
dados. Os relatórios podem também surgir numa fase final, de
forma a redigir conclusões sobre os dados recolhidos.
A pesquisa documental deve constar do plano de recolha
de dados: cartas, memorandos, comunicados, agendas, planos,
propostas, cronogramas, jornais internos, etc. O material
recolhido e analisado é utilizado para validar evidências de
outras fontes e/ou acrescentar informações. É preciso ter em
mente que nem sempre os documentos retratam a realidade.
Por isso, é importantíssimo tentar extrair das situações as
razões pelas quais os documentos foram criados.
No processo de recolha de dados num “estudo de caso” Yin
(1994) alerta para a importância de se respeitarem três
princípios básicos:
a) Usar múltiplas fontes de evidências
O uso de múltiplas fontes de evidência permite o
desenvolvimento da investigação em várias frentes –
investigar aspetos diferentes do mesmo fenómeno. As
conclusões e descobertas são assim mais convincentes e
apuradas já que advêm de um conjunto de confirmações. Além
disso os potenciais problemas de validade do estudo são
atendidos, pois as conclusões, nestas condições, são validadas
através de várias fontes de evidência.
b) Construir, ao longo do estudo, uma base de dados
Embora no estudo de caso a separação entre a base de
dados e o relato não seja muitas vezes respeitada, sugere-se
que essa separação aconteça para garantir a legitimidade do
estudo, uma vez que os dados encontrados são armazenados,
possibilitando que fiquem acessíveis a outros investigadores.
Os registos podem efetuar-se através de: notas, documentos e
narrativas (interpretações e descrições dos eventos observados,
etc.).
c) Formar uma cadeia de evidências
Construir uma cadeia de evidências permite configurar o
“estudo de caso”, de tal modo que se consiga levar o leitor a
perceber a apresentação das evidências que legitimam o
estudo, desde as questões de pesquisa até às conclusões finais.
14.2.6 A que Situações de Investigação se Aplica?
Sempre que o investigador não pode manipular variáveis para
determinar a sua relação causal (Coutinho & Chaves, 2002);
quando a situação é de tal modo complexa que não permite a
identificação das variáveis eventualmente relevantes (Ponte,
1994); em situações excecionais (Yin, 1994); ou ainda quando
é a única abordagem metodológica passível de ser
implementada numa situação bem real e concreta (Punch,
1998). Para Gómez et al. (1996, p. 92) a única exigência que o
estudo de caso impõe “são certos limites físicos ou sociais que
lhe conferem a unidade de um “caso”.
Um serviço hospitalar, um professor, uma escola, uma junta
de freguesia, um doente crónico, uma comunidade cigana, uma
política social, eis apenas alguns exemplos de variáveis para as
quais o estudo de caso é a metodologia de investigação que
melhor se aplica. Por vezes é mesmo a única. É precisamente
por isso, por se tratar de uma metodologia que se adapta a
muitas situações na investigação social (Punch, 1998) que é
(quase) sempre possível de se levar a cabo (Gómez et al.,
1996) para a qual todos nos sentimos minimamente habilitados
(Yin, 1994) que levou a que se encarassem estas abordagens
metodológicas como formas de “investigação soft indicada
apenas para os estudos menos rigorosos” (Lecompte, 1997,
citada em Vieira, 1999, p. 90).
Acreditamos firmemente no potencial que o estudo de caso
bem conduzido pode trazer à investigação em CSH, à
semelhança do que tem feito noutras em áreas em que o
conhecimento é escasso, fragmentado, incompleto e onde pode
dar importantes contributos e a três níveis:
– Aprendemos sempre com aquilo que é único num caso,
por isso o seu estudo profundo tem sempre algo a revelar
(Bravo, 1992b);
– Só um estudo profundo pode ajudar a compreender
aspetos importantes de áreas de investigação problemáticas
complexas e/ou novas;
– Em combinação com outras abordagens metodológicas o
estudo de caso pode dar uma contributos importantes na
sua boa consecução, ajudando a clarificar pormenores que
passariam despercebidos num estudo de tipo experimental
ou conferindo direção a um survey que poderia ser
infrutífero sem a compreensão prévia do fenómeno
fornecido pelo “estudo de caso” (Punch, 1998).
Acreditar no seu potencial não equivale a ignorar as
críticas, algumas delas bem legítimas, como acontece quando
o estudo de caso é conduzido de forma isolada, puramente
descritivo, sem se integrar com outras abordagens ao mesmo
assunto, ou ainda quando pretende extrapolar para além do que
os dados recolhidos revelam e sustentam (Punch, 1998; Yin,
1994).
Invariavelmente as críticas convergem no sentido de
apontar aos estudos de caso “insuficiente precisão,
objetividade, e rigor” (Yin, 1994, p. 8), ou seja, questiona-se a
credibilidade das conclusões a que conduz. A credibilidade é
um conceito genérico (muito divulgado na literatura do estudo
de caso e da investigação qualitativa, em geral), que engloba
em si os três critérios “clássicos” de aferição da qualidade de
um qualquer trabalho de investigação: a validade externa ou
possibilidade de generalização dos resultados, a fiabilidade
(replicabilidade) do processo de recolha e análise de dados, e
para o estudo de caso de tipo explicativo, coloca-se ainda a
questão do rigor ou validade interna das conclusões obtidas37.
Insistir na necessidade de se definir critérios para aferir da
credibilidade dos estudos de caso – critérios esses que se
aplicam não apenas a estudos de caso mas a toda a
investigação qualitativa –, não significa que esses critérios
possam ser encarados de forma prescritiva como acontece nos
estudos quantitativos. Trata-se de duas formas distintas, não
comparáveis, de investigar e produzir conhecimento, exigindo
estratégias diferenciadas para a avaliação da qualidade
científica do trabalho científico a que conduziram (Bravo,
1992b). Mas não significa também que tais standards não
façam sentido devendo constituir uma preocupação constante
para o investigador que vai iniciar um estudo de caso e que
precisa de estar bem consciente “da necessidade de ser muito
cuidadoso no desenho e implementação do seu estudo para ser
capaz de ultrapassar as tradicionais críticas ao método” (Yin,
1994, p. 1).
Parece-nos também que ficou clara a forma de evitar as
críticas e aumentar a credibilidade de um estudo de caso, mas
nunca é demais insistir: fazer uma descrição pormenorizada e
abundante de todo o processo da investigação, porque “sem
essa informação é impossível fazer um juízo informado acerca
das conclusões do estudo” (Schofield, 1993, p. 96). Mas
atenção: descrições compactas sim, mas daquilo que é
essencial para o foco da questão, já que é impensável aspirar a
uma cobertura total. “É fundamental perder o melhor tempo na
análise dos melhores dados”, diz-nos Stake (1995, p. 84) e é
precisamente essa seleção entre o que é central e periférico
que distingue um estudo de caso de outros que assim se
intitulam mas mais não são do que amontoados de descrições
sem rumo e foco “onde o investigador se afunda” (Stake,
1995, p. 85). Para terminar reproduzimos as palavras de
Wolcott (1990, citado em Stake, 1995) porque exprimem
melhor que as nossas a essência da questão: “o ponto crítico na
investigação qualitativa não é tanto acumular dados mas
“filtrar” (i.e., livrar-se de) a maior parte dos dados que
acumula. A solução está em descobrir essências e revelar essas
essências com suficiente contexto, sem contudo ficar obcecado
em incluir tudo o que potencialmente é passível de ser
descrito” (Wolcott, 1990, citado em Stake, 1995, p. 84).
É por todas estas razões e mais alguma, que o relatório de
um estudo de caso não deve deixar de incluir:
– A definição clara do “caso” e a delimitação das suas
“fronteiras”;
– Descrição pormenorizada do contexto em que o caso se
insere;
– Justificação da pertinência do estudo e quais os objetivos
gerais que persegue (o foco);
– Identificação da estratégia geral, justificando as razões
da opção por caso “único” ou “múltiplo”;
– Definir qual vai ser a unidade de análise (ou unidades de
análise);
– Fundamentação dos pressupostos teóricos que vão
conduzir o trabalho de campo;
– Descrição clara de “como” os dados serão recolhidos,
“de quem” e “como”;
– Descrição pormenorizada da análise dos dados.
14.3 Teoria Fundamentada (Grounded Theory)
Apresentada pela primeira vez por Glaser e Strauss num livro
publicado em 1967 e intitulado The Discovery of Grounded
Theory, a teoria fundamentada vai beber nas fontes do
interacionismo simbólico, uma vez que o investigador procura
determinar qual o significado simbólico dos factos para os
intervenientes no fenómeno em estudo (Goméz et al., 1996).
Considerada por uns como uma metodologia e por outros
como método de recolha de dados, a teoria fundamentada
busca desenvolver teoria a partir dos dados sistematicamente
recolhidos e analisados, tratando-se de uma das modalidades
de investigação qualitativa mais atuais e divulgadas na
investigação em CSH, já que, na opinião de Myers (1997), se
trata de uma abordagem que se revela muito útil em estudos
centrados na descrição e explicação de fenómenos inseridos
em contextos e processos de ensino e aprendizagem.
Em termos gerais, pode ser definida como uma
metodologia de descoberta indutiva que permite ao
investigador desenvolver a sua perspetiva teórica acerca de
um dado assunto ao mesmo tempo que a vai fundamentando
na observação empírica dos dados que recolhe (Flick, 1998;
Glaser & Strauss, 1967; Punch, 1998; Strauss, 1987). A ênfase
na criação de teoria é, na opinião de Goméz et al. (1996), a
caraterística metodológica individualizadora desta abordagem:
o investigador inicia a sua tarefa sem ideias préconcebidas
acerca de qual será o seu problema de investigação, partindo
do princípio de que a teoria vai nascer, ser testada e refinada
ao longo da investigação, ou seja, o objetivo é desenvolver
teoria, num processo interativo análise de dados/análise
teórica, em que dos dados nascem padrões, esses padrões são
testados com nova recolha de dados, emergido a teoria a partir
dos dados:
A teoria nasce a partir dos dados, é geradora, indutiva. (…)
as teorias desenvolvem-se desde baixo, a partir da
interconexão de evidências e dados observados, é
construtiva – a análise de dados não é pré definida, começa
na observação e descrição dos dados observados (Bravo
1992b, p. 252).
Trata-se de planos de investigação nos quais a revisão
bibliográfica tem uma função totalmente diferente da
habitualmente assumida em qualquer outro plano de
investigação, porque, tal como comenta Punch (1998, p. 167),
“… se existir já uma teoria satisfatória sobre um dado tópico,
não fará qualquer sentido levar a cabo um estudo que visa
gerar nova teoria sobre a questão em foco”.
Assim sendo, é natural e desejável (para não influenciar o
investigador) que a investigação se inicie guiada apenas pelas
questões a investigar (o problema), e atrasar a revisão da
literatura para uma fase posterior ou seja, para depois de “…
serem encontradas e tornadas claras as diretrizes conceptuais
teóricas contidas nos dados” (Punch, 1998, p. 168). A sua
função (da revisão de literatura) será a de fornecer pistas
alternativas/complementares que possam ser introduzidas em
fases subsequentes da análise de dados, amplificando o seu
espectro de intervenção: só um tal uso da literatura faz sentido
na lógica global de uma abordagem deste tipo.
Um exemplo de utilização prática desta metodologia pode
ser encontrada em Savenye e Robinson (1996, p. 1177): num
estudo levado a cabo em 1992 nos EU numa Universidade de
Ensino a Distância, um investigador gravou horas de uso
interativo do vídeo para analisar tipos de interações que
ocorriam nas classes observadas. A partir das gravações
recolhidas construiu categorias de dados que lhe permitiram
criar uma teoria para televisão educativa, com técnicas de
“close-up” e “clean-cut” que se revelaram potencialmente
capazes de incentivar as interações entre os intervenientes.
14.4 Estudos Etnográficos
Também designada por “antropologia cultural” ou
“investigação naturalista” (Best & Kahn, 1993), a etnografia,
de ethnos = gente e grafia = descrever, significa precisamente
isso mesmo: “Uma pintura da «forma de vida» de um grupo de
pessoas” (Punch, 1998, p. 160) em que o papel do investigador
é o de “… examinar os padrões de comportamento, os
costumes e modos de vida de um grupo” (Creswell, 1998, p.
58). O seu objetivo é pois estudar e compreender os aspetos
culturais e simbólicos do comportamento dos sujeitos
inseridos num dado contexto (Merriam, 1998).
Punch (1998, p. 161) considera seis pressupostos básicos
na investigação etnográfica:
a) O investigador assume que os significados culturais do
grupo são cruciais para compreender as suas ações
(comportamentos) e busca descobrir esses significados;
b) O investigador é sensível às significações que tais
comportamentos têm para os sujeitos envolvidos no estudo
(insider perspetive);
c) O grupo é estudado sempre no contexto natural, e o
investigador insere-se naturalmente nesse mesmo contexto
“… imerso no dia a dia dos sujeitos observados”
(Creswell, 1998, p. 58);
d) O plano da investigação não se estrutura à partida, antes
evolve do contexto da sua implementação: embora possam
haver questões prévias, elas serão sempre muito gerais e
desenvolvidas no terreno;
e) A recolha de dados pode processar-se de múltiplas
formas, sem restrições, embora o trabalho de campo seja
sempre uma constante: observações, entrevistas, relatos de
vida, diários, gravações audio e vídeo, até às chamadas
“vozes dos nativos”, tudo é importante em etnografia;
f) A recolha de dados em etnografia prolonga-se
geralmente no tempo, porque a realidade a analisar é
complexa exigindo registos minuciosos que podem ocorrer
repetidas vezes até se conhecerem as significações
culturais ocultas.
Uma vez que, como refere Mertens (1998, p. 165), “O foco
da etnografia é compreender uma cultura desde uma
perspetiva emic (desde dentro) e etic (desde fora)” (ibidem), a
observação nas suas diversas modalidades é o método de
recolha de dados por excelência numa investigação de tipo
etnográfico38.
Em especial a observação participante é a metodologia de
recolha que surge na literatura intimamente ligada à
etnografia, uma vez que, enquanto processo, a etnografia
envolve a observação prolongada e participante do
investigador no dia a dia do grupo que analisa. O que a
distingue de todas as outras técnicas observacionais de tipo
naturalístico ou não participante é o facto de: a) o
investigador acumular ao mesmo tempo as funções de
observador e interveniente no processo; b) o facto de se
desenrolar em períodos alargados no tempo, envolvendo
sempre entrevistas regulares, observações diretas e gravadas
que servem para a recolha de dados e para o desenvolvimento
do estudo.
Um exemplo pode ser o caso de um investigador que
pretende analisar o efeito de um protótipo experimental sobre
o tema X por si concebido, que vai aplicar em turmas de
alunos de 8º ano. Para isso, vai estar presente nas aulas onde o
protótipo é apresentado (tomando notas e fazendo registos
vídeo, por exemplo), anotando as perguntas que surgem na
turma depois da utilização do protótipo, entrevistando alunos e
docentes antes e depois da introdução do mesmo, ou seja, o
investigador acompanha todo o processo de perto numa
interação constante com os participantes.
14.5 Fenomenologia
Para Goméz et al. (1996) as raízes da fenomenologia podem
encontrar-se no pensamento de Husserl (1859-1938) e nas
discussões filosóficas em que se envolveram figuras como
Sartre, Heidegger e Merleau-Ponty (Creswell, 1998),
constituindo nos nossos dias uma metodologia de investigação
largamente divulgado na sociologia, psicologia, ciências
médias e também em educação.
O que destaca a fenomenologia relativamente a outras
formas de investigação qualitativa é o facto de pôr a tónica
sobre o “individual” e sobre a “experiência subjetiva”: ou seja,
o investigador pretende conhecer e compreender um fenómeno
– o seu problema de investigação –, e, para o conseguir, vai
reunir um conjunto de “experiências vividas” desse fenómeno,
interpretá-las, analisá-las e extrair aquilo a que Husserl
chamava a essência do fenómeno, ou seja, o seu significado
profundo e invariante (Creswell, 1998), a sua verdadeira
natureza (Goméz et al., 1996).
Sem pretender alongar-nos muito mais sobre esta
modalidade de investigação qualitativa tão raramente
referenciada na investigação em TE, não queremos terminar
sem salientar, tal como o fazem Goméz et al. (1996), alguns
contributos do método fenomenológico para a investigação
qualitativa em CSH:
a) a primazia dada à experiência subjetiva imediata como
base do conhecimento;
b) o estudo dos fenómenos desde a perspetiva dos sujeitos
individuais;
c) o interesse por conhecer como as pessoas experienciam
e interpretam o mundo social que constróem em interação.
A título de exemplo, e relativamente à alínea c) é fácil
imaginar as potencialidades do método fenomenológico no
estudo dos ambientes de aprendizagem colaborativa
proporcionados pela utilização dos múltiplos serviços da
Internet: saber como é a experiência de estar numa classe
multicultural, o que é ser aluno numa classe virtual, entre
muitas outras, são apenas exemplos das potencialidades desta
abordagem metodológica na investigação no nosso domínio.
Em síntese, apresentamos no Quadro 50 as caraterísticas
identificadoras de cada um dos planos qualitativos que vimos
apresentando ao longo do presente capítulo.

QUADRO 50 – Diferenças entre os diferentes planos qualitativos

14.6 Critérios para Avaliar a Qualidade de um Estudo


Qualitativo
Uma investigação qualitativa de qualidade é muito mais difícil
de conseguir do que uma quantitativa porque os dados, via de
regra, são subjetivos, a partir do momento em que o
investigador é o principal instrumento para a recolha de dados.
Por isso mesmo, devem tais estudos pautar-se por padrões de
qualidade que podem ser verificados, por exemplo, de acordo
com o protocolo sugerido por Borg, Gall e Gall (1993, p. 31),
que apresentamos no Quadro 51.
Introdução
O marco conceptual e teórico está claramente explicitado?
Inclui a perspetiva do investigador?
É revelado o grau de implicação do investigador e possíveis
desvios negativos ou positivos na descrição do conteúdo do
estudo?
É a revisão de literatura suficientemente ampla? Inclui
estudos relevantes para o problema? É clarificada a
perspetiva do investigador?
Procedimentos de investigação
A amostragem revela-se adequada? É dada informação
sobre a forma como foram selecionados os participantes?
A recolha de dados é suficiente?
As variáveis são suficientemente válidas para o objetivo que
se persegue? As variáveis são suficientemente fiáveis para o
objetivo a alcançar?
As variáveis são relevantes para a amostra?
Os procedimentos de investigação são apropriados? São
previstas técnicas múltiplas de recolha de dados?
Apresentam-se com suficiente detalhe para que seja possível
replicar a investigação?
Resultados
O relatório inclui uma descrição profunda que seja o reflexo
de como os sujeitos respondem na entrevista ou como se
comportam quando observados?
As descrições são separadas das interpretações?
É feita referência à credibilidade?
Emerge cada variável da análise e estudo dos dados?
São formuladas hipóteses ou perguntas de investigação?
Usam-se técnicas estatísticas? Em caso afirmativo, são
usadas de uma forma correta?
Discussão dos resultados
Existem fontes de evidência que deem suporte às
conclusões?
O investigador proporciona explicações razoáveis para os
resultados encontrados? Resulta apropriado algum tipo de
generalização (no sentido de transferência a outras
situações)?
São sugeridas implicações para a prática?
QUADRO 51 – Critérios para avaliar a qualidade de um estudo qualitativo

ATIVIDADES
Avalie criticamente o relatório de um estudo qualitativo de
acordo com o guião sumarizado no Quadro 51.
-
36 Incluímos o estudo de caso neste capítulo reservado à apresentação de alguns
planos de investigação cujos pressupostos se fundamentam no paradigma
qualitativo, ou seja, em que o investigador se acerca ao problema de investigação
numa lógica de compreensão do significado das ações humanas e dos fenómenos
sociais. No entanto, pode acontecer que, num estudo de caso, o investigador tenha
necessidade de, na prática da pesquisa empírica, recolher dados de cariz
quantitativo, o que leva a que o estudo de caso adote uma metodologia mista e,
nesse caso, podermos considerar que se trata de um estudo de caso misto. Para mais
informação consultar o Capítulo 15.
37 A discussão destes critérios foi alvo de análise e discussão para a generalidade
dos estudos qualitativos no Capítulo 7.
38 Muito embora a observação seja a técnica de recolha de dados por excelência em
estudos etnográficos e na generalidade dos planos da investigação qualitativa, não
significa que não seja também um recurso muito útil e divulgado em planos
quantitativos: encontramos autores que falam em observação «quantitativa» que
distinguem da «qualitativa». De facto, trata-se de uma técnica que pode ser usada
em qualquer uma das metodologias, havendo no entanto diferenças importantes a
assinalar. Nas abordagens quantitativas a observação é fortemente estruturada
usando esquemas detalhados, com categorias e classificações que condicionam as
escolhas do observador, enquanto em estudos qualitativos é quase sempre livre e
informal (Creswell, 1998; Merriam, 1998).
REFERÊNCIAS BIBLIOGRÁFICAS
Best, J., & Kahn, J. (1993). Research in Education (7ª ed.).
Boston: Allyn and Bacon.
Bogdan, R., & Biklen, S. (1994). Investigação qualitativa em
Educação: uma introdução à teoria e aos métodos. Porto:
Porto Editora.
Borg, W. R., Gall, J. P., & Gall, M. D. (1993). Applying
educational research: A practical guide (3ª ed.). New York:
Longman.
Bravo, M. P. C. (1992b). La metodología cualitativa. In M. P.
Colás Bravo & L. B. Eisman (Eds.), Investigación educativa
(pp. 249-288). Sevilha: Ediciones Alfar.
Cohen, L., & Manion, L. (1994). Research methods in
Education (4ª ed.). London: Routledge.
Coutinho, C. P. (2005). Percursos da investigação em
tecnologia educativa em Portugal: uma abordagem temática e
metodológica a publicações científicas (1985-2000). Braga:
CIED, Universidade do Minho.
Coutinho, C., & Chaves, J. H. (2002). O estudo de caso na
investigação em tecnologia educativa em Portugal. Revista
Portuguesa de Educação, 15(1), 221-244.
Creswell, J. (1998). Qualitative inquiry and research design:
choosing among five traditions. Thousand Oaks: Sage
Publications.
Denzin, N., & Lincoln, Y. (Eds.). (1994). Handbook of
qualitative research. Thousand Oaks, CA: SAGE Publications.
Flick, U. (1998). An introduction to qualitative research.
London: Sage Publications.
Glaser, B., & Strauss, A. (1967). The discovery of Grounded
Theory: strategies for qualitative research. New York: Aldine
de Gruyter.
Gómez, G. R., Flores, J. G., & Jimènez, E. (1996).
Metodologia de la investigacion cualitativa. Malaga:
Ediciones Aljibe.
Guba, E., & Lincoln, Y. (1994). Competing paradigms in
qualitative research. In N.K. Denzin, & Y. Lincoln (Eds.),
Handbook of qualitative research (pp. 105-117). Thousand
Oaks: Sage Publications.
Merriam, S. (1998). Qualitative research and case studies
applications in Education: Revised and expanded from case
study research in Education. San Francisco: Jossey-Bass
Publishers.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Miles, M. & Huberman, A. M. (1994). Qualitative data
analysis (2ª ed.). Thousand Oaks: Sage Publications.
Myers, M. D. (1997). Qualitative research in information
systems. MIS Quarterly, 21(2), 241-242.
Patton, M. (1980). Qualitative evaluation and research
methods. Newbury Park: Sage Publications.
Ponte, J. P. (1994) O estudo de caso na investigação em
educação matemática. Quadrante, 3(1), 3-17.
Punch, K. (1998). Introduction to Social Research:
quantitative & qualitative approaches. London: SAGE
Publications.
Savenye, W., & Robinson, R. (1996) Qualitative research
issues and methods: an Introduction for educational
technologists. In D. Jonassen (Ed.), Handbook of research for
educational communications and technology (pp. 1171-1195).
New York: Macmillan USA.
Schofield, J. W. (1993) Increasing the generalizability of
qualitative research. In M. Hammersley (Ed.), Educational
research: current issues (pp. 91-114). London: The Open
University Press.
Seidman, I. (1991). Interviewing as qualitative research: A
guide for researchers in education and the social sciences.
New York: Teachers College Press.
Silverman, D. (2000). Doing qualitative research: a practical
guide. Thousand Oaks: SAGE Publications.
Stake, R. E. (1995). The art of case study research. Thousand
Oaks: Sage Publications.
Strauss, A. (1987). Qualitative analysis for social scientists.
Cambridge: Cambridge University Press.
Vieira, C. M. (1999). A credibilidade da investigação
científica de natureza qualitativa: questões relativas á sua
fidelidade e credibilidade. Revista Portuguesa de Pedagogia,
33(2), 89-11.
Yin, R. (1994). Case study research: design and methods (2ª
ed.). Thousand Oaks, CA: SAGE Publications.
Capítulo 15

Metodologias Mistas

Introdução
No seio do debate que, nas últimas décadas tem sido
desenvolvido em torno da dicotomia existente entre as
metodologias quantitativa e qualitativa (para mais informação
ver Capítulo 10), tem vindo a ganhar crescente interesse o
emergir de um terceiro movimento metodológico, com recurso
à mixed methodology (Tashakkori & Teddlie, 2010) – que
traduzimos por metodologia mista e abreviamos na sigla MM
– preocupado com o estabelecimento de pontes entre os
paradigmas tradicionais, conciliando os fundamentos teóricos
com a prática científica (Creswell 1994, Teddlie & Tashakkori,
2009).
De facto a integração metodológica é uma tendência que se
vem manifestando de forma mais incisiva a partir dos anos 80
do século XX, começando a ser cada vez melhor aceite o
trabalho de investigação com enfoques mistos, isto é,
transpondo a dicotomia quantitativo e qualitativo, colocando
de lado a ideia de confronto paradigmático e apostando na
complementaridade metodológica na implementação da
investigação no campo empírico. Na verdade, trata-se de
adotar, num mesmo estudo, uma metodologia que pode
combinar técnicas e métodos de recolha de dados, quer de um,
quer de outro referencial metodológico e que levou, desde o
início dos anos 90 a uma proliferação de planos de
investigação multimetodológicos (Brewer & Hunter, 2006;
Morse, 2003) ou mistos (Creswell, 1994; Teddlie &
Tashakkori, 2009).
Reichardt e Cook (1979) referem a possibilidade de uma
combinação de métodos quantitativos e qualitativos,
afirmando que um investigador para melhor resolver um
problema de pesquisa, não tem que aderir rigidamente a um
dos dois paradigmas tradicionais, podendo adotar uma
combinação dos atributos de cada um deles, com recurso a
métodos de cariz quantitativo e qualitativo. Alertam, no
entanto, para os desafios que a utilização conjunta dos dois
referenciais coloca, já que as implicações são de natureza
teórica, uma vez que ambos partem de bases ou pressupostos
diferentes acerca da realidade social e da própria natureza da
realidade de onde os dados são recolhidos. Uma das formas de
ultrapassar esta dificuldade é relacionar cada conjunto de
dados com a teoria que lhe está subjacente e analisar de que
modo os diferentes conjuntos de dados são complementares ou
apresentam contradições entre eles.
Esta ideia de uma coexistência pacífica (Teddlie &
Tashakkori, 2009) seria justificada, segundo Howe (1988) pela
necessidade de adotar uma posição mais pragmática na
abordagem à complexidade dos problemas na investigação em
CSH, e resultou no emergir de um movimento muito forte no
sentido da compatibilidade metodológica não apenas ao nível
dos métodos mas também de distintas perspetivas teóricas para
a interpretação dos dados empíricos (Brewer & Hunter, 2006).
Para Teddlie e Tashakori (2009) o debate paradigmático, que
agitou a comunidade de investigação em CSH ao longo de
toda a década de 90 do século passado, opondo defensores da
perspetiva quantitativa (QUAN) e qualitativa (QUAL), está
hoje superado, uma vez que, tal como referem (Teddlie &
Tashakori, 2009), “Though distinct, these commiunities can
coexist peacefully, so long as no group proclaims its
superiority and tries to dictate the methods of the other
groups” (p. 16).
Segundo Teddlie e Tashakkori (2009) as metodologias
mistas (MM) apresentam-se como uma alternativa às
tradicionais QUAL e QUAN defendendo que o uso das
ferramentas metodológicas (métodos e técnicas de recolha de
dados) para a recolha de informação de natureza descritiva
(narrativas) ou numérica, é independente da metodologia
utilizada, devendo o investigador centrar-se no problema em
estudo, ou seja, na busca da resposta mais correta à sua
questão inicial.
Podemos assim falar de três grandes famílias
metodológicas – QUAL, QUANT e MM – que se diferenciam
umas das outras através de um conjunto de dimensões que
Teddlie e Tashakori (2009, p. 22) sintetizam no Quadro 53
abaixo representado:

QUADRO 53 – Dimensões de contraste nas comunidades metodológicas (adaptado


de Teddlie & Tashakkori, 2009, p. 22).

Uma vez que os estudos que adotam modelos mistos (MM)


estabelecem pontes entre as duas tradições metodológicas
tradicionais (QUAL e QUANT), colocam-se desde logo outras
questões que têm a ver seja com a tipologia dos desenhos a
implementar seja com a diversidade dos graus de integração
metodológica (QUAL-QUANT) no desenvolvimento de uma
dada investigação em particular.
Relativamente a este último aspeto – o nível de mistura ou
integração metodológica –, Teddlie e Tashakkori (2009, p. 28)
propõem um esquema que poderá servir de base de apoio para
ultrapassar esta dificuldade. Partindo das duas comunidades
metodológicas tradicionais (paradigmas vigentes QUAL/
QUAN) propõem um esquema que as relaciona de forma
dinâmica através de um conjunto de círculos que se cruzam
entre si e que são intercetados por uma linha reta contínua com
setas em ambas as extremidades, direcionada ou para a
esquerda (orientação QUAL) para o centro (orientação MM)
ou para a direita (orientação QUANT) (ver Figura 55).

FIGURA 55 – O continuum QUAL-MM-QUAN (adaptado de Teddlie &


Tashakkori, 2009, p. 28)

Temos assim cinco áreas distintas, resultantes das zonas


sobrepostas (áreas de contacto com caraterísticas diferentes)
regendo-se o investigador particular mais pelo paradigma
qualitativo ou quantitativo, de acordo com a posição que o seu
estudo ocupa ao longo da linha reta que atravessa a figura
(Figura 55). O movimento em direção ao meio do continuum
indica pois uma maior integração dos métodos e técnicas de
investigação, enquanto o movimento no sentido das
extremidades (maior distância ao centro) indica o sentido para
posições mais “puristas” (Rossman & Wilson, 1985) ou
“monoteísta” (Lecompte, 1990) (consultar mais informação no
Capítulo 10).
Relativamente à tipologia dos estudos mistos, vários
autores defendem a importância do seu estabelecimento desde
o momento em que emergiu este terceiro movimento
metodológico na investigação em CSH (Greene, Caracelli &
Graham, 1989; Johnson & Onwuegbuzie, 2004; Morse, 2003).
Baseados nesses e noutros contributos Teddlie e Tashakkori
(2009, p. 140 e seguintes), sistematizam os múltiplos formatos
de um estudo misto em função de um conjunto de 6 critérios a
referir: i) número de abordagens metodológicas; ii) número de
fases ou etapas do estudo; iii) tipo de implementação; iv)
Nível de integração metodológica; v) prioridade metodológica,
vi) funções do desenho do estudo/investigação. O Quadro 54
abaixo representado, resume a matriz metodológica obtida.
QUADRO 54 – Critérios que determinam a tipologia dos MM (adaptado de Teddie
& Tashakorri, 2009, p. 141)

De ressaltar, no Quadro 54, o recurso a um sistema de


notação desenvolvido por Morse (2003, p. 198) e que ajuda a
compreender e representar de forma muito simples e intuitiva
os diferentes formatos de estudo que segue uma metodologia
mista. De acordo com o sistema de notação da autora, o sinal +
indica que as duas vertentes do estudo (QUAL e QUANT) são
desenvolvidas em simultâneo – desenhos paralelos, e a seta
indicando que a integração metodológica se desenvolve de
forma sequencial, ou seja, que há uma ordem cronológica no
desenvolvimento das diferentes fases do estudo – desenhos
sequenciais. O uso das maiúsculas serve para indicar qual a
vertente metodológica dominante ou prioritária no estudo.
Teddlie e Tashakorri (2009) consideram que a principal
razão que leva um investigador a utilizar uma abordagem
mista (MM) deve ser sempre a de proporcionar uma melhor
compreensão do fenómeno que está sob investigação. Em
estudos MM sequenciais, a adição de vertentes QUAL ou
QUAN melhora a compreensão do fenómeno e procura dar
resposta às questões iniciais, sugerindo modificações em
questões pontuais ou mesmo um novo design, no sentido de
providenciar novas hipóteses que permitam explorar o que está
por detrás das razões e significados ou mesmo das conclusões
de uma etapa anterior. Por outro lado, os modelos paralelos,
envolvem uma planificação antecipada do processo de
integração com o objetivo de obter uma compreensão mais
completa e holística do fenómeno.
Em síntese, tendo como critério o tipo de implementação
do processo da investigação, Teddlie e Tashakorri (2009, p.
147-160) consideram cinco grandes famílias de desenhos
(designs) na metodologia mista (MM):
• Desenho paralelo misto (Parallel mixed design) – nestes
estudos, as pesquisas com recurso aos métodos QUAL e
QUAN ocorrem de forma paralela, ou quase em
simultâneo, sendo previstas e executadas fases conjuntas
(ou com pequenos lapsos de tempo) e obtidos dados
suficientes para responder a aspetos relacionados com as
questões de investigação.
• Desenho sequencial misto (Sequential mixed design) – a
passagem do QUAL/QUAN ocorre em fases cronológicas
distintas do estudo, em que as questões e procedimentos de
uma fase resultam ou emergem dos resultados obtidos nas
fases anteriores, ajustando-se paulativamente à
necessidade de encontrar resposta para as questões de
investigação.
• Desenho de conversão misto (Conversion mixed design)
– ocorre quando um tipo de dados é transformado e
analisado, quer qualitativa quer quantitativamente,
procurando responder a aspetos relacionados com as
mesmas questões de investigação.
• Desenho multinível misto (Multilevel mixed designs) –
nestes estudos, que podem ser paralelos ou sequenciais, a
mistura ocorre em vários níveis de análise, sendo os dados
QUAN e QUAL, em cada nível, analisados e integrados
para melhor compreender e atender a aspetos da mesma
questão ou de questões que estão relacionadas.
• Desenho misto totalmente integrado (Fully integrated
mixed designs) – nestes estudos, a mistura ocorre de uma
maneira interativa em todas as fases da investigação, sendo
cada fase resultado da anterior.
Passando do patamar metodológico para o nível das
estratégias de recolha de dados consideram Teddie e
Tashakorri (2009) que, em estudos mistos, podemos recorrer a
múltiplas técnicas de recolha de dados que podem ser usadas
em separado ou combinadas nas diferentes fases ou etapas do
estudo. Entre as mais relevantes os autores destacam: a) as
técnicas de observação (participante e não participante,
estruturada ou não estruturada); b) os métodos não
interferentes (unobstrusive measures) que incluem artefactos,
arquivos, observação não-reativa; c) os grupos de enfoque
(focus group); d) as entrevistas; e) os questionários; e f) os
testes (de aptidões, de desempenho, as rubricas).
Elencadas as caraterísticas básicas dos estudos que adotam
uma metodologia mista, passamos agora a apresentar alguns
modelos metodológicos que se caraterizam precisamente por
combinar, em proporções e/ou momentos distintos do processo
de implementação, métodos e técnicas que combinam recolha
de dados quantitativos e qualitativos.
15.1 Investigação-Ação
Dizer que qualquer ato de investigação assenta num
determinado paradigma é algo que, embora exaustivamente
gasto pelo uso, apresenta-se como indiscutivelmente
imperioso. Sabemos também que os paradigmas ao serem uma
forma de desmantelar a complexidade do mundo real (Patton,
1980), são também, cada um deles, uma forma diferente de ver
do mundo e, como tal, revestem-se de caraterísticas e
peculiaridades que os tornam marcantemente particulares,
claramente identificáveis e altamente controversos. Assim,
sem querer trazer para este palco a distinção entre os
diferentes paradigmas predominantes na cena da investigação
educativa, uma vez que já está sobejamente estudada e
divulgada, passamos a um olhar intencionalmente focalizado
naquele que é conhecido como o paradigma sociocrítico, não
porque queiramos escalpelizar aqui as suas caraterísticas,
potencialidades, virtudes ou limitações, mas antes para nos
servir de antecâmara à entrada em cena de uma metodologia
de investigação com caraterísticas muito próprias: a
Investigação-Ação.
Ao distanciar-se dos paradigmas positivista e interpretativo
pelo excessivo objetivismo e neutralidade do primeiro e pela
propensão para a subjetividade do segundo, o paradigma
sociocrítico traz para a ribalta das práticas investigatórias a
conceção ideológica e valorativa que está presente na
investigação e que acaba por determinar o conhecimento que
daí possa advir. Por outro lado, e na senda dos princípios
filosóficos de Jurgen Habermas sob os quais uma investigação
deve sempre conter em si uma intenção de mudança, este
paradigma faz também incidir o seu foco sobre o
conhecimento emancipatório, que pretende pôr a nu as
ideologias que condicionam o acesso ao conhecimento e
operar ativamente na transformação dessa realidade (Coutinho,
2005).
Esta perspetiva teórica, sendo caraterizada por um maior
dinamismo na forma de encarar a realidade, maior
interatividade social, maior proximidade do real pela
predominância da praxis, da participação e da reflexão crítica,
e intencionalidade transformadora, torna-se num verdadeiro
esteio onde acabam por vir apoiar-se muitos dos
investigadores que desenvolvem os seus estudos no seio das
Ciências Sociais em geral e da Educação em particular.
É, pois, neste contexto teórico de pendor mais interventivo
e transformador que surgem, no campo da investigação
educativa, metodologias capazes de proporcionar uma ação
mais profícua e consequente na medida em que se centram na
reflexão crítica, por um lado, e na atitude operacional de
práticas que acabam por ser ponto de partida para a
emergência de possíveis teorias. A associação destas diferentes
propostas metodológicas dá origem a uma metodologia que
ganhou contornos mais definidos na década de 40 do século
passado, através do artigo de Kurt Lewin “Action Research
and Minority Problems”, apadrinhando, assim, o termo
“Investigação-Ação” e dando lugar a uma série de estados
evolutivos de uma metodologia que se revelou bastante
adequada aos estudos na área das Ciências Sociais, em geral, e
das Ciências da Educação, em particular.
15.1.1.O Que é a Investigação-Ação
Na revisão bibliográfica realizada surgem inúmeras respostas
com diversas propostas de definição para o conceito. Como
refere Coutinho (2005, p. 219), trata-se de uma expressão
ambígua, que se aplica a contextos de investigação tão
diversificados que se torna quase impossível, tal como
consideram Goméz et al. (1996) ou ainda de McTaggart
(1997), chegar a uma “conceptualização unívoca”. Latorre
(2003), no seu livro intitulado “La investigación-acción”,
referencia vários autores:
• Elliot (1993) que define a Investigação-Ação como um
estudo de uma situação social que tem como objetivo
melhorar a qualidade de ação dentro da mesma;
• Com Kemmis (1988) a Investigação-Ação não só se
constitui como uma ciência prática e moral como também
como uma ciência crítica;
• Lomax (1990) define a Investigação-Ação como “uma
intervenção na prática profissional com a intenção de
proporcionar uma melhoria”;
• Bartolomé (1986) define a Investigação-Ação como “um
processo reflexivo que vincula dinamicamente a
investigação, a ação e a formação, realizada por
profissionais das ciências sociais, acerca da sua própria
prática.
Continuando a nossa pesquisa bibliográfica, encontrámos
Watts (1985), que refere que a Investigação-Ação é um
processo em que os participantes analisam as suas próprias
práticas educativas de uma forma sistemática e aprofundada,
usando técnicas de investigação. Entretanto, para além dos
autores acima citados, e que são sobejamente conhecidos pela
qualidade dos seus escritos e pela forma entusiástica como têm
vindo a estudar e a divulgar a Investigação-Ação, encontrámos
também outras definições que, não tendo o cunho dos grandes
mestres, são, sem dúvida, mais um contributo para a
compreensão da essência desta metodologia.
A Investigação-Ação pode ser descrita como uma família
de metodologias de investigação que incluem ação (ou
mudança) e investigação (ou compreensão) ao mesmo tempo,
utilizando um processo cíclico ou em espiral, que alterna entre
ação e reflexão crítica. Nos ciclos posteriores, são
aperfeiçoados, de modo contínuo, os métodos, os dados e a
interpretação feita à luz da experiência (conhecimento) obtida
no ciclo anterior (Dick, 1999). Vamo-nos apercebendo que a I-
A atualmente se utiliza em diferentes perspetivas, dependendo
sempre da problemática a estudar. No referencial do ensino-
aprendizagem poderemos arriscar dizer que a I-A é também
uma forma de ensino e não somente uma metodologia para o
estudar. O essencial na I-A é a exploração reflexiva que o
professor faz da sua prática, contribuindo dessa forma não só
para a resolução de problemas como também (e
principalmente!) para a planificação e introdução de alterações
dessa e nessa mesma prática. Neste campo, teve um papel
fundamental Jonh Elliot com os seus projetos de investigação
em torno do professor-investigador (reflective practitioner),
projetos esses que tornam clara a forte componente
diagnóstica do professor-investigador (Coutinho, 2005).
Ainda no terreno educativo e retomando as ideias de
Latorre (2003), podemos afirmar que o desenvolvimento
profissional se subordina a uma tríade de dimensões
interligadas representativas de todo o processo reflexivo
(Figura 56).

FIGURA 56 - Triângulo de Lewin (1946, in Latorre 2003, p.24)


Sintetizando o pensamento de diversos autores considera
René Barbier (1996, pp.18-19) que,
A Investigacão-Ação constituiria sobretudo uma
«alternativa metodológica» no campo das ciências do
homem e da sociedade, bem mais do que um novo
paradigma da sociologia. A Investigação-Ação supõe uma
conversão epistemológica, isto é, uma mudança de atitude
da postura académica do investigador em ciências
humanas. Sempre que a Investigação-Ação se torna mais
radical, essa mudança resulta de uma transformação da
atitude filosófica do investigador relativamente à sua
própria relação com o mundo. (…). Trata-se de um outro
olhar sobre a cientificidade das ciências do homem e da
sociedade.
Podemos ir inferindo, de toda a pesquisa que temos vindo a
realizar, que a I-A (action-research) considera o “processo de
investigação em espiral”, interativo e sempre focado num
problema. No entanto, uma outra questão ganha um peso cada
vez maior: em que família metodológica da investigação
educativa deverá ser incluída a I-A? Também aqui não se
encontra uma opinião consensual na bibliografia consultada.
As semelhanças de algumas estratégias da I-A com estratégias
da Investigação Qualitativa são razões que levam a que alguns
autores considerem a I-A como uma modalidade de
Investigação Qualitativa (cf. Coutinho, 2005).
Também surgem dúvidas quanto a categorizar a I-A dentro
da investigação fundamental/básica – que tem como objetivo
aumentar o conhecimento geral, e a aplicada que tem como
objetivo produzir resultados que possam ser usados em
tomadas de decisão ou melhoria de programas. Continuando,
então, na procura de uma resposta, ou pelo menos, de uma
tentativa de resposta à questão atrás levantada, socorremo-nos
da opinião de Coutinho (2005), que considera a I-A como uma
modalidade dos planos de investigação plurimetodológicos ou
mistos, apesar de não ser uma opinião muito consensual.
Nesse sentido, interpretando o pensamento de diversos
autores, considera Coutinho (2005, p. 222), que a “(…) a
inclusão da componente ideológica confere à I-A uma
individualidade própria que não pode ser menosprezada e que
justifica que a consideremos como uma modalidade de planos
de investigação “pluri” ou “multi” metodológicos, por isso
mesmo também designados como planos “mistos.”
15.1.2 Caraterização Geral
De acordo com os vários autores consultados (Cohen &
Manion, 1994; Cortesão, 1998; Elliott,1991; MacTaggart,
1994; Simões, 1990), as caraterísticas individualizadoras da I-
A podem sintetizar-se com apenas quatro palavras:
situacional, interventiva, participativa, autoavaliativa.
• situacional, porque visa o diagnóstico e a solução de um
problema encontrado num contexto social específico;
• interventiva, porque não se limita a descrever um
problema social (como em muitos estudos qualitativos)
mas a intervir: a ação tem de estar ligada à mudança, é
sempre uma ação deliberada;
• participativa, no sentido em que todos os intervenientes
(e não só o investigador) são co-executores na pesquisa, ou
seja é levada a cabo por um “investigador coletivo”
(Cortesão, 1998, p. 31);
• autoavaliativa, na medida em que as modificações vão
sendo continuamente avaliadas, com vista a produzir
novos conhecimentos e a alterar a prática.
Para Bravo (1992a), a investigação-ação constitui-se assim
como um verdadeiro ciclo espiral em que teoria e prática se
mesclam e interligam permanentemente. De igual forma
pensam Lessard-Hébert et al. (1994, p. 16) e ilustram a ideia
com um esquema semelhante ao representado na Figura 57
abaixo representada: num permanente “… entrelaçar entre
teoria e prática” (Cortesão, 1998, p.30), teoria e conhecimento
gerados são de novo testados guiando as mudanças na praxis,
uma vez que, para a I-A, “… o resultado da investigação terá
sempre um triplo objetivo: produzir conhecimento, modificar a
realidade e transformar os atores” (Simões, 1990, p. 43).

FIGURA 57 – Esquema metodológico de uma investigação-ação

Em termos metodológicos própriamente ditos, a I-A pode


recorrer à generalidade dos métodos de outros planos de
investigação e a técnicas quantitativas e qualitativas, embora,
como já referimos atrás, a tendência que predomine seja a de
se privilegiarem as técnicas qualitativas (Bisquerra, 1989).
Regra geral segue um modelo indutivo, ao exemplo da
investigação etnográfica, mas procura superar o nível
descritivo para poder intervir na situação em causa. Na opinião
de Bisquerra (1989, p. 283) há, contudo, uma técnica de
recolha de dados exclusiva da I-A: o inquérito feedback
(encuesta feedback). Composto de duas fases, na primeira ou
de diagnóstico da situação problema, aplica-se um
questionário auto administrado aos intervenientes; no segundo
tempo, a fase de feedback, os resultados do questionário são
reinjectados no grupo, discutidos e, depois de propostas
soluções alternativas, são fixados os objetivos e o plano da
ação (Bisquerra, 1989).
Para Rodrigues Lopes (1990) a I-A os contributos da I-A
para o universo da investigação educativa são inegáveis
embora nem sempre devidamente reconhecidos. Entre os mais
importantes queremos destacar:
• o desenvolvimento de uma nova mentalidade na
investigação em ciências sociais que enfatiza a
participação e envolvimento social, a “dialética” entre
investigador e participantes (Rodrigues Lopes, 1990);
• o interesse por novas técnicas de recolha de dados:
conceitos como “entrevista narrativa” e “investigação
biográfica”, a ideia de combinar métodos quantitativos e
qualitativos levam à emergência de um novo paradigma
para a investigação educativa a que alguns autores
chamam de “interaccionista” (Rodrigues Lopes, 1990);
• o impacto em programas de investigação sobre o
“pensamento dos professores” que incitou a novas práticas
na formação docente caso do “reflective practitioner”
(Schon, 1983) que rapidamente se popularizaram noutras
profissões.
15.1.3 Propósitos e contributos da Investigação-Ação
Inspirado no pensamento de Kemmis y McTaggart (1994),
considera Antonio Latorre que os principais benefícios da I-A
são a melhoria da prática, a compreensão da prática e a
melhoria da situação onde tem lugar a prática (Latorre, 2003).
E prossegue, considerando que o propósito fundamental da I-A
não é tanto gerar conhecimento, é sobretudo, questionar as
práticas sociais e os valores que as integram com a finalidade
de explicá-los. A I-A é um poderoso instrumento para
reconstruir as práticas e os discursos, (Latorre, 2003). Na
mesma linha de pensamento, considera então Simões (1990, p.
32) que, e passamos a citar, “ (…) o resultado da investigação
terá sempre um triplo objetivo: produzir conhecimento,
modificar a realidade e transformar os actores”.
Podemos ainda considerar que a Investigação-Acção tem
como objetivos:
• compreender, melhorar e reformar práticas;
• intervenção em pequena escala no funcionamento de
entidades reais e análise detalhada dos efeitos dessa
intervenção;
Fazer Investigação-Acção implica planear, actuar, observar
e reflectir mais cuidadosamente do que aquilo que se faz no
dia a dia, no sentido de induzir melhorias nas práticas e um
melhor conhecimento dos práticos acerca das suas práticas.
(Zuber-Skerritt, 1996).
• Perante o que foi apresentado, são metas da Investigação-
Acção:
• Melhorar e/ou transformar a prática social e/ou
educativa, ao mesmo tempo que procuramos uma melhor
compreensão da referida prática.
• Articular de modo permanente a investigação, a acção e a
formação.
• Aproximarmo-nos da realidade: veiculando a mudança e
o conhecimento.
Segundo Coutinho (2005) e ainda Rodrigues Lopes (1990),
a I-A trouxe à investigação em CSH e em particular às
Ciências da Educação os seguintes contributos:
• uma nova forma de investigar que dá maior relevo ao
social, pondo o investigador e os participantes no mesmo
plano de intervenção;
• a combinação de métodos quantitativos e qualitativos,
originando novas técnicas de recolha de dados, tais como
“entrevista narrativa” e “investigação biográfica”;
• a disseminação do conceito de “prático reflexivo” de
Schön (1983) na formação de professores, bem como
noutras áreas profissionais.
15.1.4 O processo de Investigação-Acção
Para além de se constituir como uma metodologia de
investigação a I-A ganha consistência e marcas distintivas
comparativamente a outros modelos metodológicos na
investigação em CSH na medida em que se impõe como um
“projecto de acção”, tendo, para tal, que transportar em si
“estratégias de acção” que os investigadores adoptam em
função das situações concretas que estão a ser investigadas.
É pois neste constante diálogo entre pressupostos teóricos e
a acção concreta que nasce o carácter cíclico da I-A, uma vez
que, através dela, se gera uma dinâmica que Carr e Kemmis
(1986), entre outros autores, materializaram sob a forma de
uma espiral ou, como refere Latorre (2003), numa espiral
dialética em que acção e reflexão se integram e
complementam. De facto, no processo de desenvolvimento de
uma I-A observamos sempre um conjunto de fases que se
desenvolvem de forma contínua e que, basicamente, se
resumem na sequência: planificação, acção, observação
(avaliação) e reflexão (teorização). Este conjunto de
procedimentos origina um movimento circular que dá início a
um ciclo de I-A que, por sua vez, desencadeia novas espirais
de experiências de acção reflexiva (ver Figura 58).

FIGURA 58 – Espiral de ciclos da Investigação-Acção

Como se pode observar na Figura 59, um processo de I-A


não se confina a um único ciclo. Tendo em conta que o que se
pretende com esta metodologia é, operar mudanças nas
práticas tendo em vista alcançar melhorias nos resultados da
intervenção, normalmente esta sequência de fases repete-se ao
longo do tempo, porque há necessidade por parte do
investigador, de explorar e analisar convenientemente e com
consistência todo o conjunto de interacções ocorridas durante
o processo, não deixando de lado eventuais desvios
processados por razões exógenas mas que têm que ser levados
em conta e, desse modo, proceder a reajustes na abordagem ao
problema em estudo.
15.1.5 Técnicas e instrumentos de recolha de dados
Para uma investigação realizada segundo esta metodologia, tal
como para qualquer acto de investigação, é sempre necessário
pensar nas formas de recolher a informação que a própria
investigação vai proporcionando.
No caso do professor/investigador, este tem que ir
recolhendo informação sobre a sua própria acção ou
intervenção, no sentido de ver com mais distanciamento os
efeitos da sua prática lectiva, tendo, para isso, que refinar de
um modo sistemático e intencional o seu “olhar” sobre os
aspectos acessórios ou redundantes da realidade que está a
estudar, reduzindo o processo a um sistema de representação
que se torne mais fácil de analisar, facilitando, assim, a fase da
reflexão (Latorre, 2003).
Para tal, existe um conjunto de técnicas e de instrumentos
de recolha de dados que António Latorre divide em três
categorias:
• Técnicas baseadas na observação – estão centradas na
perspectiva do investigador, em que este observa em
directo e presencialmente o fenómeno em estudo;
• Técnicas baseadas na conversação – estão centradas na
perspectiva dos participantes e enquadram-se nos
ambientes de diálogo e de interacção;
• Análise de documentos – centra-se também na
perspectiva do investigador e implica uma pesquisa e
leitura de documentos escritos que se constituem como
uma boa fonte de informação.
Estas técnicas e instrumentos podem ainda classificar-se do
seguinte modo (Quadro 55):

QUADRO 55 – Técnicas e Instrumentos de Investigação-Acção

15.1.6 Em que Situações de Investigação se Aplica a


Investigação-Acção
Para um jovem investigador que, necessariamente, encontra
dificuldades em saber qual a metodologia a adoptar mediante o
seu objeto de investigação, e que tendo ouvido falar da
Investigação-Acção põe a si próprio a possibilidade de
enveredar por esta metodologia, deverá atentar nas seguintes
proposições que, de uma forma prática, poderão dar resposta
às suas potenciais dúvidas:
Se pretendermos saber mais sobre um número limitado de
variáveis e as relações causais entre elas, o método de
investigação experimental ou quase-experimental irá, sem
dúvida, adequar-se muito melhor às suas necessidades do que
a Investigação-Acção.
No entanto, se quisermos investigar alguma organização ou
um determinado grupo em profundidade, o estudo etnográfico
ou outros métodos qualitativos serão preferíveis.
Por último, se se trata de um professor ou de outro
profissional que tem de responder às novas exigências de uma
situação ou fazer a avaliação de um programa em curso ou
ainda proceder a alterações num currículo, a Investigação-
Acção será, indubitavelmente, o processo mais valioso para a
consecução do seu objetivo.
Cohen e Manion (1994) e ainda Sousa (2009), apontam
algumas situações exemplares em que a Investigação-Acção se
aplica de forma adequada ao mundo da Educação:
• Métodos de aprendizagem: descoberta de novos métodos
que possam substituir os tradicionais;
• Estratégias de aprendizagem: experimentando
aproximações integradas de aprendizagem em vez do estilo
unilinear de transmissão de conhecimentos;
• Procedimentos de avaliação: ensaiando novos métodos
de avaliação contínua;
• Atitudes e valores: possibilidade de encorajar atitudes
mais positivas de trabalho ou modificação dos sistemas de
valores dos alunos com vista a alguns aspectos da vida;
• Formação contínua de professores: procurando
desenvolver capacidades, experimentar novos métodos de
aprendizagem, poder de análise, auto-avaliação, etc.;
• Treino e controlo: gradual introdução a novas técnicas de
modificação comportamental;
• Administração/gestão: incremento da eficiência de alguns
aspectos da parte administrativa escolar.
E assim, mais uma vez, verificamos que sempre que numa
investigação se coloca a possibilidade, ou mesmo necessidade,
de proceder a mudanças, de alterar um determinado status quo,
em suma, de intervir na reconstrução de uma realidade, a
Investigação-Acção regressa de imediato à ribalta para se
afirmar como a metodologia mais apta a favorecer essas
mudanças.
15.2 Estudos de Avaliação
Não faria sentido num trabalho focalizado na investigação em
Tecnologia Educativa deixar de referir com particular realce os
planos de tipo avaliação, já que se trata de uma das
modalidades de investigação em CSH. Estamos, todavia,
conscientes de que, em termos de puro “desenho” de
investigação, os planos classificados como de avaliação
podem tomar formatos variados, desde os puramente
descritivos aos correlacionais e experimentais (Knapper,
1980), aos qualitativos (Mason & Bramble, 1997), ou seja,
formatos todos eles “encaixáveis” noutros métodos já descritos
anteriormente, e daí o termos considerado os estudos de
avaliação na categoria dos planos mistos ou pluri-
metodológicos.
A este respeito as palavras de Weiss (1975) exprimem
melhor que as nossas essa mesma ideia:
A avaliação aplica todos as metodologias da investigação
social. Os princípios e métodos que são válidos para outro
tipo de investigação, são válidos aqui também. Todo o que
sabemos acerca de desenho, medida e análise entra em
jogo para planear e levar a cabo um plano de avaliação. O
que distingue a investigação avaliativa não é o método ou
a matéria de estudo mas o objetivo ou finalidade que a
motivam: uma tomada de decisão. (p.18)
Em termos gerais, e citando Mertens (1998, p. 218), é do
tipo avaliação “… toda a investigação sobre o mérito ou valor
de um objeto ou programa, com o objetivo de fundamentar
uma tomada de decisão”, sendo o modelo ideal de plano de
investigação a adoptar quando se estuda a
implementação/impacto de “inovações” pedagógicas como
sejam novos métodos/estratégias de ensino-aprendizagem,
materiais curriculares ou novos programas disciplinares
(Anderson & Arsenault, 1999; Borg & Gall, 1989).
A proliferação da avaliação na investigação em TE não
causa qualquer surpresa, uma vez que é muito vulgar na nossa
área que sujeitos (muitas das vezes os próprios professores)
individualmente ou em grupos, concebam novos “produtos”
para melhorar o processo de ensino-aprendizagem. Esses
produtos podem ser documentos, estratégias ou programas
educativos. O desenvolvimento de um novo produto constitui
um processo complexo que passa normalmente por quatro
fases: desenho, concepção, implementação e utilização. Como
a avaliação se pode realizar em qualquer uma dessas quatro
fases podemos considerar, tal como o faz Romberg (1992),
quatro tipos ou modelos de planos de avaliação:
• análise de necessidades (analyse des besoins, needs
assessment), em que o investigador recolhe dados que lhe
forneçam resposta para três tipos de questões: a) Há
necessidade deste produto?; b) Que probabilidade tem o
produto de preencher essa necessidade?; e c) Entre outros
produtos possíveis qual a prioridade que este tem?;
• avaliação formativa (formative evaluation) que ocorre no
final da fase de conceção em que o investigador busca
respostas para questões do tipo: a) O conteúdo do produto
está bem analisado?; b) Alcançaram-se os resultados
esperados?; ou ainda, c) Alcançam-se resultados não
esperados?;
• avaliação sumativa (summative evaluation), permite
aferir da qualidade do produto no terreno, em que o
investigador recolhe dados que lhe permitam responder a
questões do tipo: a) Em que medida o conteúdo do meu
produto é superior aos seus concorrentes? Qual a
performance do meu produto face aos seus concorrentes?
Que diferenças nos custos?
• avaliação iluminativa (illuminative evaluation), que visa
a avaliação de programas inovadores com o recurso a
metodologias qualitativas como o estudo de caso, a
etnografia ou a investigação-acção.
Numa tentativa de caraterizar, em termo gerais, um plano
de tipo avaliação, digamos que:
• É uma modalidade de investigação aplicada, que se
destina ao uso por oposição à investigação fundamental ou
básica preocupada com aumentar o corpo dos
conhecimentos existentes;
• compara o que é com o que deveria ser, ou seja, os
resultados obtidos com os objetivos/metas definidos à
partida;
• visa fundamentar uma tomada de decisões acerca do que
se avalia: aprovar, rejeitar, modificar.
O Quadro 56 (adaptado de Shaw, 1999, p. 8) que segue,
destaca as caraterísticas individualizadoras dos planos de tipo
“avaliação” relativamente a outras modalidades de
investigação social.

QUADRO 56 – Como identificar um plano de tipo “avaliação”

Em termos metodológicos, os planos de “avaliação” podem


tomar formatos muito variados, embora, a esse nível, as
opiniões não sejam unânimes. De facto, alguns autores usam o
termo num sentido amplo, incluindo sob esta mesma
designação planos descritivos e mesmo survey desde que estes
analisem programas ou políticas educativas (Cook &
Reichardt, 1997; Mertens, 1998). Pela nossa parte,
defendemos com Anderson e Arsenault (1999) e Schutt (1999)
que o que individualiza os estudos de avaliação não é o facto
de serem um tipo particular de plano de investigação mas uma
modalidade de pesquisa que pode ser aplicada a campos como
a educação, a saúde ou a sociedade com o objetivo de tecer
juízos de valor e/ou tomar decisões sobre a continuidade de
estratégias implementadas.
15.3 Investigação Analítica
Muitas vezes em Educação, é importante compreender o
porquê de se implementarem determinadas práticas o que
implica conhecer o contexto em que se iniciaram e
desenvolveram, ou seja, fazer uma análise do que constituiu o
seu “passado” ou mesmo dar sentido ao seu “presente” (Bravo,
1992e).
O denominador comum às várias modalidades de estudos
que incluiremos sob esta designação geral, tem a ver com o
facto de todos fundamentarem o trabalho de campo na análise
de fontes seleccionadas que normalmente tomam a forma de
documentos (escritos ou orais) muito diversos: artigos de
revistas, livros, cartas, diários, registos áudio e vídeo etc. etc
(Mason & Bramble, 1997).
Trata-se por isso de modalidades de investigação
secundária ou de síntese (Fernandez, 1995, p. 165),
designação usada para contrapor à investigação primária em
que o investigador prepara e planifica a forma como vai testar
e medir no terreno o impacto de um dado tratamento
experimental (como é o caso na investigação experimental).
Talvez por isso, alguns autores associem a investigação
analítica aos planos qualitativos (Best & Kahn, 1993; Mason
& Bramble, 1997), muito embora a maioria opte por os
considerar como uma metodologia de investigação com
caraterísticas muito específicas (Cohen & Manion, 1994);
MacMillan & Schumaker, 1997; Mertens, 1998) que
justificam a sua inclusão na categoria das metodologias
específicas ou mistas. De entre as várias modalidades
reportadas na literatura, destacaremos aqui a investigação
histórica e os estudos de tipo “síntese da literatura”, caso das
meta-análises e dos estudos bibliométricos. Tal como na
investigação histórica, também nestes planos o objetivo do
investigador é fornecer ao domínio científico respectivo um
conjunto de insights sobre o passado que orientem a acção
futura, mas operando de forma distinta; ao contrário da
investigação analítica/histórica que utiliza técnicas de análise
documental de tipo qualitativo/descritivo (em particular as
técnicas de análise de conteúdo) nas meta-análises e nos
estudos bibliométricos utilizam-se técnicas quantitativas
(aplicação de métodos matemáticos e estatísticos) para a
integração da produção científica existente.
15.3.1 Investigação histórica
Na investigação histórica, o objetivo é descrever e interpretar
uma situação, prática ou acontecimento em que, e passamos a
citar,
O investigador não observa directamente, não mede ou faz
experimentação em factos existentes, nem testa
estatisticamente a significância dos resultados a que chega.
Pelo contrário usa a indução lógica para analisar
qualitativamente traços do que já ocorreu a partir de
documentos ou de testemunhos orais. (McMillan &
Schumaker, 1997, p. 464).
São muitos os tópicos educativos que podem servir de alvo
a uma investigação deste tipo: a análise da legislação existente
ou o estudo de determinadas políticas educativas poderão
constituir temas de análise, mas são sem dúvida os tópicos que
tem a ver com a história do passado de um domínio/área
científica que mais fecundos se têm revelado para a
investigação na área da Tecnologia Educativa. Assim, e a
título de exemplo, poderiam servir de tema a uma investigação
analítica/histórica a biografia de um autor conceituado (p.ex.
Skinner ou Gagné), a análise de um determinado movimento
(p.ex., o lifelong learning), o estudo de uma instituição (p.ex.,
a Telescola) ou ainda a análise de determinados conceitos
(p.ex., a literacia visual, a formação professores do 1º ciclo,
entre outros).
A investigação histórica em Educação tem-se revelado um
excelente auxiliar no desenvolvimento de muitos dos seus sub-
domínios campos científicos por fornecer insights sobre os
conceitos e acontecimentos passados e permitir assim que se
compreendam melhor as políticas, as tendências e as práticas
do presente.
15.3.2 Meta-análise
As meta-análises ocupam hoje um lugar de destaque na
investigação social. Há mais de duas décadas que aparecem
referenciadas, sobretudo na literatura norte americana, tendo
contribuído de forma significativa para o conhecimento que
hoje temos a nível de resultados da investigação na nossa área
(Cohen, Ebeling & Kulik, 1981; Cohen, Kulik & Kulik, 1982;
Flechter, 1990; Jonhston, 1995; Kulik & Kulik, 1989).
Surgindo na literatura com designações diversas, caso, por
exemplo, de rigorous research review, systematic research
synthesis ou ainda integrative research review (MacMillan &
Schumacher, 1997), as meta análises constituem uma
metodologia de investigação sem tradição no nosso país, mas
não nos surpreenderia e seria mesmo louvável que, num futuro
próximo, surgissem estudos deste tipo em educação e em TE
uma vez que a investigação em Ciências da Educação em
Portugal já tem longevidade e volume de produção científica
suficientes para justificar estudos deste tipo.
A necessidade de se proceder a sínteses da investigação
anterior surgiu na sequência lógica do aumento do volume da
investigação educativa produzida na primeira metade do
século XX, que, muitas das vezes, produzia resultados
aparentemente divergentes, até mesmo contraditórios
(Bangert-Browns, 1986): diferenças nos estudos derivadas de
distintos tratamentos, contextos, instrumentos de mediada,
metodologias tornava difícil a comparação dos resultados
obtidos. A revisão de literatura num dado tema era por vezes
tão extensa, que obscurecia as tendências chave sob um
volume de informação imenso que escapava na globalidade ao
investigador. Mesmo quando havia poucos estudos sobre um
dado tópico, era complicado atribuir significado às diferenças
verificadas. Era premente a necessidade de se desenvolverem
técnicas capazes de quantificar diferenças, determinar margens
de “desvios” ou “efeitos clandestinos” (bias, Bangert-Browns,
1986) e solucionar aparentes contradições nos resultados.
O termo “meta análise” é usado pela primeira vez em 1976
por Gene Glass, mais para referir uma filosofia de revisão
bibliográfica sistemática, do que uma técnica estatística
própriamente dita. As revisões integrativas tomavam, até
então, o formato de planos descritivos, consistindo numa
espécie de classificação de investigações anteriores, um pouco
aquilo que todos fazemos aquando da revisão bibliográfica
numa dissertação (Moore, 1983; Mullen, 1989). A síntese de
estudos anteriores tomava sempre o padrão de uma revisão
com base individual, sem uma preocupação com as variações
que pudessem ocorrer nos resultados dos vários estudos
congéneres, como se depreendia da conclusão da maioria deles
aconselhando a que “mais pesquisa era necessária” para
sustentar os resultados encontrados (Hunter & Schmidt, 1990;
Wachter & Straf, 1990). Esta metodologia sintetizadora
tradicional/narrativa/integrativa (Fernandez, 1995; Mullen,
1989), nada tem a ver com a revisão quantitativa que Glass
apelidou de meta-análise, e que definiu da seguinte forma:
As meta-análises são uma análise de análises… a análise
estatística de grande número de resultados de estudos
individuais com o objetivo de os integrar. Pressupõe uma
alternativa de rigor à abordagem casualística tradicional
que tentamos fazer aquando da revisão da literatura.
(Glass, 1976, p.3).
O objetivo é sintetizar os resultados de estudos que, de
alguma forma se relacionam, ou seja, que abordam as mesmas
problemáticas e/ou utilizam os mesmos tratamentos
experimentais, ou as mesmas populações, em suma, um
qualquer critério que o investigador estabelece e que lhe vai
assegurar um nível de semelhança transversal a todos esses
estudos. (Adér & Mellenbergh, 1999; Glass, 1976; Schutt,
1999; Wiersma, 1995).
As meta análises podem ser levadas a cabo quando vários
estudos tentaram encontrar resposta para o mesmo problema
de investigação; procede-se então a uma revisão sistemática da
literatura com vista a identificar todo o conjunto de estudos
relevantes (recurso a bases de dados múltiplas, dissertações,
artigos publicados em revistas e actas de congressos).
Identificados os estudos, os resultados, os métodos ou outras
caraterísticas procede-se à sua codificação (p.ex., tamanho da
amostra, grau de associação entre as variáveis, etc.), e numa
fase posterior, à sua análise estatística.
Este último objetivo consegue-se com recurso, e passamos
a citar,
As técnicas que procuram somar os resultados de estudos
separados e similares. De certa forma sintetizam-se dados
de vários estudos sobre um mesmo tópico: A ideia é a de
que o resultado combinado de muitos estudos individuais,
tem maior poder estatístico do que os resultados dos
estudos singulares. (Fink, 2005, p.213).
Relativamente à individualidade metodológica destes
estudos as opiniões variam: alguns autores consideram as
meta-análises como um tipo de estudo ex post facto (ou
causal-comparativo), outros limitam-se a falar de uma técnica
de análise de dados enquanto outros lhe reconhecem um
estatuto autónomo (Moore, 1983; Mullen, 1989).
O aumento do recurso a esta abordagem de finais da década
de 70 até à actualidade, em campos tão variados como a
medicina, as ciências empresariais e a educação, são
reveladoras do crescente interesse que tem vindo a merecer
junto da comunidade científica granjeando convictos
defensores, caso de Bangert-Browns (1986, p. 398), que sobre
ela tece as seguintes considerações:
As meta análises não são uma fraude. Baseiam-se nos
valores fundamentais do trabalho científico:
replicabilidade, quantificação, análise causal e
correlacional. Informação válida perde o seu valor se
dispersa em estudos individuais. A possibilidade dos
investigadores sociais poderem generalizar respostas para
as questões básicas obriga a que seja tido em consideração,
e não menosprezado, o contributo da investigação
integrativa. Os benefícios potenciais das meta análises
parecem, de facto, imensos.
A citação supra deixa implícita a ideia das muitas críticas
que são apontadas ao valor científico das meta-análises,
críticas essas centradas no argumento (bem lógico,
convenhamos), de que a sua validade depende da validade dos
estudos “primários” em que se baseiam.
De facto, a integração de resultados é feita através de
procedimentos estatísticos de índole quantitativa que partem
sempre dos dados das investigações individuais – primary
analysis, que são depois reanalisados numa segunda fase –
secondary analysis (Glass, 1976; Glass & Stanley, 1970;
Hunter e Schmidt, 1990; Wolf, 1986; Mullen, 1989).
Regra geral, numa meta-análise o investigador segue os
seguintes passos:
1. O investigador define o objetivo da sua análise que deve
ser suficientemente claro para guiar a seleção e recolha de
dados;
2. Selecciona uma amostra que deve conter todo o volume
da investigação relevante;
3. Codifica as caraterísticas a reter nos estudos de acordo
com os objetivos da revisão;
4. Transforma os resultados numa “métrica comum” que
permita fazer comparações posteriores.
A medida comum mais utilizada para comparar resultados
através dos estudos primários é o chamado effect size (ES),
valor estandardizado expresso em unidades de desvio padrão
(Moore, 1983; Wiersma, 1995)39; o ES é tratado, do ponto de
vista estatístico e numa fase inicial, com testes tradicionais
(coeficiente de correlação, análise de variância) e numa fase
posterior com técnicas específicas como sejam as propostas
por Hunter e Schmidt (1990) que, ao permitirem incluir na
análise todos os estudos, independentemente da sua qualidade
ou valor científico, evitam que o investigador ceda à tentação
de excluir estudos que não sustentam as suas conclusões, o que
constituía uma das críticas mais fortes apontadas a esta técnica
de análise de dados.
Wolf (1986) identifica cinco “problemas potenciais” nas
meta-análises:
1. seleção dos estudos a incluir na análise baseada num
critério pessoal;
2. atribuição diferencial e subjectiva de valor aos
resultados dos estudos singulares;
3. interpretações falsas de resultados;
4. falta de uma análise global ao estudo que possa explicar
resultados disparatados e inconsistentes;
5. incapacidade de detectar variáveis moderadoras que
possam interagir nos resultados encontrados.
Os avanços recentes nas técnicas estatísticas permitem
superar e compensar muitas das deficiências metodológicas
destes estudos, sendo hoje possível realizar pesquisa
integrativa com base em critérios fiáveis e válidos aceites pela
comunidade científica. Este facto, associado à (inegável)
utilidade das sínteses quantitativas que fornecem (caso das
famosas tendências trends que encontramos em muitas
sínteses já levadas a cabo em domínios vários das Ciências da
Educação) explicam, pensamos, o aumento exponencial de
estudos que recorrem a métodos síntese bibliográfica desde o
final de 70 até à actualidade (Rosenthal, 1991).
15.3.3 Estudos bibliométricos
Na opinião de Borgman (1990), “… o interesse de uma área
científica pela sua própria produção científica é um sinal da
sua maturidade” (Borgman, 1990, p. 12), e é um facto que, nas
Ciências da Educação, se tem verificado um crescente
interesse pela investigação que tem precisamente esse
objetivo: recolher, analisar e sintetizar a informação produzida
pelo domínio e que foi publicada em revistas ou em actas de
reuniões/congressos científicos.
Em termos muito gerais, e segundo Pritchard (1969),
cabem na categoria de bibliométricos os estudos que analisam
a forma como um determinado campo de estudo (uma
disciplina, uma área científica), usa e dissemina informação
através dos canais de comunicação formais e informais,
recorrendo para o efeito à aplicação de métodos estatísticos
para análise de conteúdo de livros, revistas e outros meios de
difusão académica, a chamada comunicação académica40.
Para Broadus (1987), são bibliométricos “… os estudos
quantitativos de unidades físicas de texto ou de bibliografia
publicada” (Broadus, 1987, p. 376).
São muitos os que defendem que o processo central da
investigação num dado domínio científico é a publicação:
“Sem comunicação não podemos falar de ciência como
actividade social” diz Lievrouw (1990, p. 61). De facto,
quando publica, um autor exprime não só as suas ideais, mas
as ideias de outros experts no assunto. Para credibilizar os
argumentos que defende, o autor faz citações e referências
bibliográficas específicas de outros investigadores, e desse
modo, estabelecem-se relações entre os autores e aqueles que
eles citam. Por outro lado, ao serem publicadas, as ideias de
um autor são automaticamente revistas e avaliadas por outros
peritos (os seus pares) sendo muito das vezes o artigo sujeito a
uma avaliação prévia à publicação (pelos chamados referees).
É neste processo cíclico contínuo (investigação-publicação-
avaliação) que o conhecimento num dado domínio científico
se acumula e cimenta:
A apresentação do trabalho científico à comunidade mais
próxima antes mesmo da publicação em revista ou acta, marca
a entrada da informação no domínio formal (…) a pretensão
de legitimidade segue-se à apresentação oficial ao mundo, não
apenas à leitura pelos investigadores seus pares. Uma vez
publicado, o artigo é citado, revisto e avaliado. Eventualmente
parte do seu conteúdo é (ou não…) integrado na disciplina
como conhecimento básico. (…) Esta base de conhecimento é
o modo como a disciplina compreende o seu próprio objeto;
incrementa a prática profissional; é popularizada e incorporada
em programas de formação educacional e profissional. A
forma como este processo ocorre parece ser a medida da
importância e estabilidade da disciplina ou área científico.
(Griffith, 1990, p. 32).
Recentemente ressurgiu o interesse pela publicação
académica enquanto área de estudo e investigação e pela
aplicação de métodos bibliométricos como metodologia de
investigação; trata-se de técnicas que se aplicam, em vários
formatos, há mais de um século, mas só recentemente a
recolha de dados deixou de ser tarefa fastidiosa com a
utilização de bases de dados bibliográficas internacionais em
que é fácil o acesso a um volume incomensurável de
informação nos mais variados formatos (desde índices a textos
completos).
Este renascer do interesse pela investigação na
comunicação académica justifica-se, pensamos, pela facilidade
que hoje temos em aceder a vastas bases de dados
bibliográficas internacionais, mas também, na opinião de
Borgman (1990) por duas outras ordens de razões: entre as
externas, destaca a competição entre as diferentes áreas
científicas pela obtenção de fundos para investigação bem
como a necessidade de afirmação das diversas
áreas/disciplinas na comunidade científica internacional. As
razões internas têm a ver, considera, com um salutar exercício
introspetivo do campo científico sobre o seu objeto e
viabilidade disciplinar, porque, e passamos a citar, “… o
interesse de um campo científico por si mesmo é um sinal da
sua maturidade” Borgman (1990, p. 12). O investigador busca,
usa e dissemina informação através da publicação dos seus
trabalhos e da consulta dos trabalhos dos seus pares; em última
análise, a forma como se processa a comunicação e difusão da
informação na comunidade científica permite deslindar a
forma como evolui, muda e se solidifica uma disciplina ou
área científica, “… verdadeira medida da sua força e
integridade” (Griffith, 1990, p. 45).
Assim, diz Pritchard (1969, p. 63), a metodologia
bibliométrica pode definir-se, “como o método que estuda a
natureza e curso de uma disciplina (desde que esta dê origem a
publicações) por meio do cômputo e análise das várias facetas
da respectiva comunicação escrita.”
Trata-se de uma verdadeira família de técnicas estatísticas
que, partindo da análise da literatura publicada num dado
domínio científico, procura caracterizá-la em termos de: a)
autores (nacionalidade, instituição, onde e como publicam,
quem é mais influente, etc.); b) tópicos/problemáticas mais
abordadas pelos investigadores, c) quais os autores mais
produtivos; d) quais as revistas que publicam os artigos mais
relevantes num dado domínio científico. Podem ainda, na
opinião de Ungern-Sternberg (1995, p. 3), ser utilizados
eficazmente para o “… estudo de padrões regionais de
investigação, para avaliar a colaboração entre grupos e
instituições e para definir o perfil da investigação nacional”.
Na opinião de White (1990) trata-se da forma mais
imparcial de obtermos informação sobre o estado actual e a
evolução registada no conhecimento científico, porque,
acrescenta, “… a ciência equivale à comunicação científica
publicada ou seja ao processo de publicar formalmente os
resultados da investigação em revistas científicas” (White,
1990, p. 98). Pensamos que, exageros à parte, as técnicas
bibliométricos não esgotando o tema, podem dar contributos
interessantes para que uma comunidade académica possa ver o
reflexo do trabalho por si desenvolvido, conhecer-se melhor e,
a partir daí perspetivar o rumo futuro da investigação a
desenvolver.
Os padrões das referências ou co-citações (cocitation
analysis), as associações entre dois artigos que citam um
terceiro em conjunto (bibliographic coupling) ou ainda as co-
ocorrências de palavras-chave (coword analysis) são outras
tantas técnicas da metodologia bibliométrica que se têm vindo
a desenvolver nos últimos anos,
Revelando a estrutura “cognitiva” ou “intelectual” de um
campo científico (…) mostrando quem é central e
periférico num dado domínio (…) mostrando quais as
temáticas centrais e periféricas dentro de um mesmo
domínio ou disciplina (…) permitindo ainda a
interpretação dos mapas de autores revelar nacionalidades
comuns, relações académicas, orientações filosóficas
comuns, etc. (White, 1990, p. 103).
Em resumo, e tomando as palavras de Griffith (1990),
analisam-se utilizadores e usos que se fazem da comunicação
científica que é publicada nos diversos circuitos académicos.
Face à diversidade e formatos que podem tomar estes estudos,
Borgman (1990) propõe uma classificação em função do tipo
de variável que analisam e em função do tipo de problema
(ou questão) a investigar. Os estudos bibliométricos da análise
de publicação académica usam uma ou várias de três tipos de
varíaveis teóricas: produtores, produtos e conceitos ou,
cientistas, textos e cognições (Borgman, 1990).
• A variável produtores pode operacionalizar-se como os
autores individuais, equipas de investigação, instituições,
campos de estudo ou mesmo países. A análise pode incidir
seja nas ideias contidas nas publicações seja na influência
desse autor sendo a unidade de análise a sua “obra”;
• Produtos, são os outputs ou resultados da comunicação:
artigos publicados em revistas, actas de congressos ou
livros. Podem ser estudados individualmente (cada artigo é
visto como uma mensagem que dá corpo a uma ideia) ou
como componente de uma revista ou conferência (neste
caso o artigo em si é visto como o canal de comunicação
entre produtores);
• Por último, os conceitos, que podem dar origem: a) a
estudos que usam palavras do autor (palavras do título ou
do texto) ou qualquer tipo de classificação externa; b)
estudos que se centram nos motivos ou propósitos das
citações contidas na publicação. Em ambos os casos,
procura-se dar sentido ao conteúdo da publicação – o
primeiro ao conteúdo substantivo o segundo às ligações
que se estabelecem com outros produtos.
Relativamente a questões de investigação, e segundo
Borgman (1990), podem constituir problemas nos estudos
bibliométricos:
• A caraterização das comunidades de investigação num
dado momento: invisible colleges41, áreas e tipos de
investigação, metodologias, etc;
• A evolução das comunidades de investigação, através de
estudos longitudinais em que, pela comparação da forma
como evoluem clusters de co-citações, é possível
identificar mudanças de direcção nos tópicos de
investigação;
• A avaliação das contribuições académicas (influência) de
produtores e produtos: o número de vezes que uma
publicação é citada pode determinar a influência do
respectivo autor. Da mesma forma a importância de uma
“ideia” pode ser medida pelo número de citações recebidas
pela publicação que lhe deu corpo;
• O estudo da difusão de uma ideia/conceito através de
várias disciplinas: é o caso, por exemplo da teoria da
comunicação de Shannon, e de conceitos como “sociedade
da informação”, “gap do conhecimento” que se desligaram
dos seus artigos originais e apareceram em campos muito
diversos.
Elogiados por uns como fornecedores de valiosas
introspeções sobre os processos da produção científica das
comunidades académicas, os métodos bibliométricos não
foram poupados a críticas, em particular o facto de
promoverem uma visão “positivista” e “racionalista” da
ciência. No entanto todos reconhecem o elevado grau de
fidelidade dos resultados a que conduzem, o que não espanta,
uma vez que a análise parte de dados de fácil acesso e
imparcialmente publicados por autores que estão identificados
e que sujeitam a sua publicação à crítica aberta pelos seus
pares, num processo em que são definidos os referenciais de
qualidade para a investigação no domínio em causa,
entendidos como a “capacidade” para resistir à crítica por
parte da comunidade científica respectiva.
Também a validade destas pesquisas tem sido posta em
causa sobretudo nas que se centram na análise de citações. De
facto, tais estudos partem do princípio de que autores/artigos
frequentemente citados são de alguma forma importantes, mas
não analisam os motivos/contextos em que as citações foram
feitas. É por este motivo que os resultados deste tipo de
estudos devem ser encarados desde uma ótica de macro
perspectiva de tendências e desde que incidam sobre grande
volume de dados, pois só desta forma poderão “… ajudar a
conhecer os processos sociais e cognitivos da ciência”
(Griffith, 1990, p. 31).
15.4. Quadro Síntese
Para finalizar, apresentamos o Quadro 57 que sintetiza a
informação relativa aos diferentes planos de investigação
apresentados nos Capítulos 12 a 15.

-
39 A fórmula para o seu cálculo pode encontrar-se em Moore (1983, p. 182).
40 O termo na língua inglesa é scholarly communication (Borgman, 1990;
Lievrouw, 1990).
41 O termo invisible college surge amíude na literatura dos estudos bibliométricos e
pode ser definido como “O conjunto de interações comunicativas que se
estabelecem entre investigadores que partilham um interesse ou objetivo de
investigação comum” (Lievrouw, 1990, p. 63).
REFERÊNCIAS BIBLIOGRÁFICAS
Anderson, G., & Arsenault, N. (1999). Fundamentals of
educational research. London: Falmer Press Teachers Library.
Bangert Browns, R. (1986). Review of developments in meta
analytic method. Psychological Bulletin, 99(3), 388-399.
Barbier, R. (1996). La recherche-action. Paris : Ed.
Economica.
Best, J., & Kahn, J. (1993). Research in Education (7ª ed.).
Boston: Allyn and Bacon.
Bisquerra, R. (1989). Métodos de investigacion educativa:
Guia practica. Barcelona: Ediciones CEAC.
Borg, W., & Gall, M. (1989). Educational research: an
introduction (5ª ed.). New York: Longman.
Borgman, C. L. (1990). Editor´s Introduction. In C. Borgman
(Ed.), Scholarly communication and bibliometrics (pp. 10-27).
Newbury Park: SAGE Publications.
Bravo, M. P. C. (1992e). Los métodos descritivos. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación
educativaInvestigación educativa 199). Sevilha: Ediciones
Alfar.
Bravo, M. P. C. (1992a). La investigación-accion. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación
educativa(pp. 291-315). Sevilha: Ediciones Alfar.
Brewer, J., & Hunter, A. (2006). Foundations of multimethod
research: Synthesizing styles. Thousand Oaks, CA: Sage
Publications.
Broadus, R. (1987). Toward a definition of “bibliometrics”.
Scientometrics, 5 5 379.
Cohen, L., & Manion, L. (1994). Research methods in
Education (4ª ed.). London: Routledge.
Cook, T., & Reichardt, C. S. (1997) Métodos qualitativos e
quantitativos em Investigacion Evaluativa (3ª ed.). Madrid:
Ediciones Morata
Cortesão, L. (1998). Da necessidade de vigilância crítica à
importância da prática da investigação-acção. Revista de
Educação, 7(1), 27-33.
Coutinho, C. P. (2005). Percursos da investigação em
tecnologia educativa em Portugal: uma abordagem temática e
metodológica a publicações científicas (1985-2000). Braga:
CIED, Universidade do Minho.
Creswell, J. (1994). Research design: Qualitative and
quantitative approaches. Thousand Oaks: SAGE Publications.
Dick, B. (1999). What is action research? Retirado de
http://www.scu.edu.au/schools/gcm/ar/whatisar.html
Elliot, J. (1991). Action Research for Educational Change.
Philadelphia: Open University Press.
Fernandez, A. C. (1995). Métodos para evaluar la
Investigacion en Psicopedagogia. Madrid: Editorial Síntesis, S
A.
Fink, A. (2005). Conducting research literature reviews: from
paper to internet. Thousand Oaks, CA: Sage Publications.
Glass, G. (1976). Primary, secondary and meta-analysis.
Educational Researcher, 5(10), 3-8.
Glass, G., & Stanley, J. C. (1970). Statistical methods in
Education and Psychology. Englewood Cliffs, NJ: Prentice
Hall
Gómez, G. R., Flores, J. G., & Jimènez, E. (1996).
Metodologia de la investigacion cualitativa. Malaga:
Ediciones Aljibe.
Greene, J.C., Caracelli, V. J., & Graham, W. F. ((1989).
Toward a conceptual framework for mixed-method evaluation
designs. Educational Evaluation and Policy Making, 11, 255-
274.
Griffith, B. (1990) Understanding science: studies of
communication and information. In C. Borgman (Ed.),
Scholarly communication and bibliometrics (pp.31-46).
Newbury Park: SAGE Publications.
Howe, K. (1988). Against the quantitative-qualitative
incompatibility thesis or dogmas die hard. Educational
Researcher, 17(8), 10-16.
Hunter, J. E., & Schmidt, F. L. (1990). Methods of meta-
analyis: correcting error and bias in research findings.
Newbury Park: SAGE Publications.
Johnson, R. B., & Onwuegbuzie, A. (2004). Mixed method
research: a research paradigm whose time has come.
Educational Researcher, 33(7), 14-26.
Knapper, C. (1980). Evaluating instructional technology. New
York: John Wiley & Sons.
Latorre, A. (2003). La Investigación-Acción. Barcelo: Graó.
Lecompte, M. (1990). Emergent paradigms– How new? How
necessary? In E. G. Guba (Ed.), The paradigm dialog The
paradigm dialog 255). Newbury Park: Sage Publications.
Lessard-Hébert, M., Goyette, G., & Boutin, G. (2005).
Investigação qualitativa – Fundamentos e práticas (2ª ed.).
Lisboa: Instituto Piaget.
Lievrouw, L. (1990). Reconciling structure and process in the
study of scholarly communication. In C. Borgman (Ed.),
Scholarly communication and Bibliometrics (pp. 46-59).
Newbury Park: SAGE Publications.
Macmillan, J. H., & Schumacher, S. (1997) Research in
Education: a conceptual introduction. New York: Longman.
Mason, E., & Bramble, W. (1997). Research in Education and
the Behavorial Sciences: concepts and methods. Madison, WI:
Brown & Benchmark.
Mctaggart, R. (1994). Participatory action research: issues in
theory and practice. Educational Action Research, 2(3), 313-
37.
Mertens, D. M. (1998). Research methods in Education and
Psychology: Integrating diversity with quantitative &
qualitative approaches. London: Sage Publications.
Moore, G. W. (1983). Developing and evaluating educational
research. New York: HarperCollins Publishers.
Morse, J. (2003). Principles of mixed methods and
multimethod design. In A. Tashakorri, & C. Teddlie (Eds.),
Handbook of mixed methods in social and behaviorial
research (pp. 189-208). Thousand Oaks, CA: Sage.
Mullen, B. (1989). Advanced basic meta-analysis. Hillsdale:
Lawrence Erlbaum Associates
Patton, M. (1980). Qualitative evaluation and research
methods. Newbury Park: Sage Publications
Pritchard, A. (1969). Statistical bibliography on bibliometrics.
Journal of Documentation, 25(4), 358-359.
Reichardt, C. S, & Cook, T. D. (1979). Beyond qualitative
versus quantitative methods. In T. D. Cook ,& C. S.
Reuichardt (Eds.), Qualitative and quantitative methods in
program evaluation (7-32). Thousand Oaks, CA: Sage.
Rodrigues Lopes, A. (1990). A investigação ação:
problemática da sua evolução histórica e epistemológica. In A.
Estrela, & M. E. Falcão (Orgs.) Investigação-ação em
Educação: problemas e tendências (pp. 63-81). Lisboa:
Faculdade de Psicologia e Ciências da Educação da
Universidade de Lisboa.
Romberg, T. (1992). Perspetives on scholarship and research
methods. In D. Grouws (Ed.), Handbook of research on
Mathematics teaching and learning (pp. 49-57). NY:
MacMillan Publishing Co
Rosenthal, R. (1991). Meta analyitic procedures for Social
Sciences. (Applied Social Sciences Methods Series, Vol. 6.).
Newbury Park: SAGE Publications.
Rossman, G. B., & Wilson, B. L. (1985). Numbers and words:
Combining quantitative and qualitative methods in a single
large-scale evaluation study. Evaluation Review, 9(5), 627-
643.
Schon, D. (1983). The reflective practitioner: how
professionals think in action. Cambridge: Basic Books, Inc.
Schutt, R. K. (1999). Investigating the Social World: The
process and practice of research (2ª ed.). Thousand Oaks: Pine
Forge Press.
Shaw, I. F. (1999). Qualitative evaluation. London: SAGE
Publications.
Simões, A. (1990). Investigação-ação: natureza e validade.
Revista Portuguesa de Pedagogia, 22, 39-51.
Sousa, A. (2009). Investigação em Educação. Lisboa: Livros
Horizonte.
Tashakkori, A., & Teddlie, C. (2010). Handbook of mixed
methods in Social & Behavioral Research (2ª ed.). Thousands
Oaks, Califórnia: Sage Publications, Inc.
Teddlie, C., & Tashakkori, A. (2009). Foundations of mixed
methods research: integrating quantitative and qualitative
approaches in the Social and Behavioral Sciences. Thousand
Oaks, CA: Sage.
Wachter, K., & Straf, M. L. (1990). (Eds.). The future of meta-
analysis. New York: Russell Sage Foundation.
Watts, H. (1985). When teachers are researchers, teaching
improves. Journal of Staff Development, 6 (2), 118-127.
Weiss, C. (1975). Investigación evaluativa: Métodos para
determinar da eficiencia de los programas de acción. México:
Editorial Trillas.
White, H. (1990). Author cocitation analysis: overview and
defense. In C. Borgman (Ed.), Scholarly communication and
Bibliometrics (pp. 84-107). Newbury Park: SAGE
Publications.
Wiersma, W. (1995). Research methods in Education: An
introduction (6º ed.). Boston: Allyn and Bacon.
Wolf, F. M. (1986). Meta-analysis quantitative methods for
Research Synthesis (Series Quantitative Applications in the
Social Sciences, 59). Beverly Hills: SAGE Publications.
Correção de Atividades

Capítulo 1
1 – O que distingue a investigação qualitativa da quantitativa?
Faça uma lista das principais caraterísticas identificadoras de
cada uma dessas duas grandes famílias metodológicas da
investigação em Ciências Sociais e Humanas em função dos
fundamentos teóricos, natureza da realidade a investigar,
finalidade da investigação e estilo do investigador (use a
tabela que segue para responder).

Capítulo 2
A
H1: Há diferenças significativas nas pontuações no teste de
TALE em alunos que receberam EAC, ensino direto pelo
professor e aprendizagem colaborativa? (Hipótese
bidirecional, pede um teste de contraste bicaudal ou bilateral).
H0: Não há diferenças significativas nas pontuações no
teste de TALE em alunos que receberam EAC, ensino direto
pelo professor e aprendizagem colaborativa.
Se existir referencial teórico que sustente a primazia de um
método sobre os restantes então podemos mesmo formular
uma hipótese dedutiva:
H1: Se os alunos aprenderem a leitura com base na
aprendizagem colaborativa, então obterão melhores resultados
no teste de TALE comparativamente com os que aprendem por
ECA ou por ensino direto.
Título: Estudo da influência de três diferentes métodos de
ensino na aprendizagem da leitura: um estudo experimental
com alunos de 3º ano de escolaridade.
B
H1: Há relação entre estratégias de estudo e
aproveitamento escolar dos estu dantes do ensino secundário.
H0: Não há relação entre estratégias de estudo e
aproveitamento escolar dos estudantes do ensino secundário.
Título: Influência de diferentes estratégias de Ensino no
aproveitamento escolar: um estudo correlacional com
estudantes do ensino secundário.
C
H1: Alunos classificados como com ‘’dificuldades de
aprendizagem’’ apresentam mais problemas de
comportamento do que alunos com outras necessidades
educativas especiais.
H0: Não há diferenças no comportamento entre alunos
classificados com “dificuldades de aprendizagem” e alunos
com outras NEE.
Título: Problemas comportamentais em alunos com NEE:
estudo exploratório com professores dos centros educativos da
região X.
Outra formulação possível:
Perceções de professores de alunos com NEE sobre
questões comportamentais: um estudo exploratório.
Capítulo 4
1 – A lista que segue inclui variáveis e categorias (valores) de
variáveis. Identifique quais são “variáveis” e quais são
“categorias” de uma variável.

2 – Defina operacionalmente as seguintes variáveis (considere


todas as categorias exaustivas e mutuamente exclusivas):
– Raça – Variável qualitativa nominal (por exemplo:
caucassiana, africana, asiática, indiana etc., etc.). Podem
existir muitas outras operacionalizações mas o importante
é que sejam coerentes com um mesmo critério e
sustentadas na literatura publicada.
– Aproveitamento escolar em Matemática – Variável
quantitativa (intervalo): 0-20 valores; 0-100 pontos
percentuais.
ou
– Variável qualitativa (ordinal): Muito Fraco, Fraco,
Satisfaz, Muito Bom, Excelente) / Nível 1, Nível 2, Nível
3, Nível 4, Nível 5
3 – Em cada um dos projetos de investigação abaixo descritos,
identifique a variável independente, as condições da variável
independente e a variável dependente:
a)
Variável Independente – intensidade da música ambiente
Condições da VI – música suave, forte ou inexistente
Variável dependente – pontuação num exame final
b)
Variável Independente – nível de ensino
Condições da VI – 1º ciclo, 2º ciclo, 3º ciclo e secundário
Variável dependente – gosto que sentem por frequentar a
escola
c)
Variável Independente – ordem de nascimento dos filhos
Condições da VI – 1º, 2º, 3º filho a nascer
Variável dependente – grau de inteligência
d)
Variável Independente – a cor do local de permanência
Condições da VI – azul, vermelho, verde ou branco
Variável dependente – agressividade
3 – Na tabela que segue, identifique as caraterísticas de cada
variável:

4–
a) A variável dependente: qualidade dos testes.
b) A variável independente: curso de estatística.
c) A variável moderadora: nível de ensino (2º, 3º e
secundário).
d) A variável controlo: professores recém-licenciados.
Capítulo 5
1 – Uma solução possível: o investigador calcula qual é a
percentagem da amostra que quer criar no total da população,
neste caso 60:290= 0,2068 ou seja 21%. A partir daí calcula o
número de sujeitos a considerar em cada categoria,
multiplicando o seu número por 0,21 ou 21% obtendo assim
uma nova tabela como a abaixo representada.

A técnica a utilizar, pelo investigador, para selecionar os 60


professores será a amostragem probabilística estratificada
proporcional. Tendo em conta as variáveis acima referidas,
que se constituíram como estratos, os elementos a integrar na
amostra manteriam a mesma proporção com que existem na
população total. Em seguida, com a ajuda da tabela de
números aleatórios ou um programa de geração de números
aleatórios, selecionar-se-iam os professores a inquirir.
2 – Para a obtenção de uma amostra dos sujeitos da população
utilizar-se-ia a técnica da amostragem probabilística aleatória
simples. Começar-se-ia por atribuir a cada aluno dos 80 alunos
número consecutivo de 00 a 79. No caso de se usar uma tabela
de números aleatórios, e estando já definido que o tamanho da
amostra seria de 10 alunos, selecionar-se-ia um número ao
acaso (poder-se-ia apontar com o dedo para um número da
tabela ao acaso). Depois de identificado esse número seriam
utilizados apenas os dois últimos dígitos de cada linha,
percorrendo-se a tabela sempre na mesma direção, horizontal
ou vertical. No caso dos últimos dois dígitos encontrados
corresponderem a um dos números atribuídos aos sujeitos da
população esses fariam parte da amostra; no caso dos dois
dígitos encontrados forem superior ao nº 79, isto é, não
corresponder a um membro da população, ignorar-se-ia e
continuar-se-ia a “correr” a tabela mantendo sempre a mesma
direção. Este seria um processo contínuo até se ter os 10
alunos a integrar na amostra.
Em vez da tabela de números aleatórios poder-se-ia usar
um programa que gera números aleatórios como o
www.randomizer.org. Exemplo: 23, 20, 0, 34, 68, 58, 56, 30, 3
e 17.
3 – Técnicas de amostragem usadas em cada uma das
situações:
3.1 acidental (não probabilística) – d
3.2 aleatória simples (probabilística) – a
3.3 por quotas (não probabilística) – f
3.4 sistemática (probabilística) – c
3.5 estratificada (probabilística) – b
3.6 As técnicas de amostragem mais adequadas no sentido de
assegurar a validade externa do estudo são as opções a
(aleatória simples) ou c (aleatória sistemática).
Justifique a sua resposta: uma vez que o investigador podia
identificar cada um dos membros da população era possível
proceder a uma amostragem aleatória simples. Se a população
fosse muito grande a amostragem sistemática seria a mais
adequada mas no caso concreto de 500 membros não haveria
necessidade disso.
4 – A amostra descrita não está bem definida porque apesar de
descrever a amostra selecionada, não carateriza claramente a
população donde foi selecionada a amostra, logo não se pode
constatar se a amostra é ou não representativa, também não se
sabe exatamente como foi selecionada a amostra. Os
procedimentos da amostragem não estão devidamente
especificados. Além disso também não refere o problema a
estudar, logo também se tornar impossível saber se o
procedimento de amostragem foi o mais indicado.
Capítulo 6
1 – Melhor definição para o conceito de fiabilidade – d
Definição de validade – a
2- A exceção é a afirmação c
3 – É a opção b
4 – A estratégia de recolha de dados mais válida para obter a
informação que a diretora pretende seria uma técnica de
observação não participante (não reativa).
Seria a forma mais eficaz de minimizar os efeitos reativos
da observação, inquirição e efeito investigador/observador.
Capítulo 8
1.
a) Os alunos que utilizam as tecnologias (TIC) na sala de
aula revelam desempenho superior ao de alunos que não
utilizam essas mesmas tecnologias em contexto de sala de
aula.
b) Os alunos que utilizam as tecnologias (TIC) na sala de
aula apresentam diferenças de desempenho relativamente a
alunos que não utilizam essas mesmas tecnologias em
contexto de sala de aula.
c) A formulação de uma hipótese unicaudal (caso da alínea
a) equivale, na prática, a estipular um patamar de rejeição
da hipótese nula menos exigente que numa hipótese
bicaudal (caso da alínea a) aumentando a possibilidade de
se incorrer em erro de tipo II (uma hipótese falsa não ser
rejeitada).
2.
a) Sim a diferença das duas médias é significativa para o
nível estipulado (menos de 5%).
b) O investigador deve rejeitar a hipótese nula e aceitar a
sua hipótese de investigação porque o nível de
significância obtido na aplicação do teste t de Student às
duas médias (t= 2,7, p= 0,035) é inferior ao nível de
significância de referencia (p<0,05).
REFERÊNCIAS BIBLIOGRÁFICAS
Almeida, L., & Freire, T. (1997). Metodologia da investigação
em Psicologia e Educação. Coimbra: APPORT.
Anderson, G. (1999). Correlational research. In G. Anderson,
& N. Arsenault (Eds.), Fundamentals of educational research
(pp. 111-118). London: Falmer Press Teachers Library.
Anderson, G., & Arsenault, N. (1999). Fundamentals of
educational research. London: Falmer Press Teachers Library.
Angrosino, M. V. (2012). Observation-based research. In J.
Arthur et al. (Eds.), Research methods & methodologies in
Education (pp. 165-169). Thousand Oaks, CA: Sage.
Anguera, M. T. (1985). Posibilidades de la metodologia
cualitativa vs cuantitativa. Investigación Educativa, 3(6), 133-
139.
Apple, M. (1979). Ideology and curriculum. Boston:
Routledge & Kegan Paul.
Ary, D., Razavieh, A., & Jacobs, L. (1989). Introduccion a la
investigacion pedagógica. México: MacGraw Hill, S. A.
Azevedo, M. (2000). Teses, relatórios e trabalhos escolares:
sugestões para estruturação da escrita. Lisboa: Universidade
Católica Portuguesa.
Babbie, E. (1997). Survey research methods (2ª ed.). Belmont,
California: Wadsworth Publishing Company.
Bachelard, G. (1971). Epistemologie – Textes choisis. Paris:
PUF.
Bangert Browns, R. (1986). Review of developments in meta
analytic method. Psychological Bulletin, 99(3), 388-399.
Barbier, R. (1996). La recherche-action. Paris : Ed.
Economica.
Bardin, L. (2011). Análise de conteúdo (4ª ed.). Lisboa:
Edições 70.
Best, J., & Kahn, J. (1993). Research in Education (7ª ed.).
Boston: Allyn and Bacon.
Bisquerra, R. (1989). Métodos de investigacion educativa:
Guia practica. Barcelona: Ediciones CEAC.
Black, T. (1993). Evaluating Social Science research: An
introduction. London: SAGE Publications.
Black, T. (1999). Doing quantitative research in the Social
Sciences: An integrated approach to research design,
measurement and statistics. London: Sage Publications.
Bleicher, J. (1980). Contemporary Hermeneutics:
Hermeneutics as a method, Philosophy and critique. London:
Routledge.
Bogdan, R., & Biklen, S. (1994). Investigação qualitativa em
Educação: uma introdução à teoria e aos métodos. Porto:
Porto Editora.
Borg, W., & Gall, M. (1989). Educational research: an
introduction (5ª ed.). New York: Longman.
Borg, W. R., Gall, J. P., & Gall, M. D. (1993). Applying
educational research: A practical guide (3ª ed.). New York:
Longman.
Borgman, C. L. (1990). Editor´s Introduction. In C. Borgman
(Ed.), Scholarly communication and bibliometrics (pp. 10-27).
Newbury Park: SAGE Publications.
Bravo, M. P. C. (1992a). La investigación-accion. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación educativa
(pp. 291-315). Sevilha: Ediciones Alfar.
Bravo, M. P. C. (1992b). La metodología cualitativa. In M. P.
Colás Bravo & L. B. Eisman (Eds.), Investigación educativa
(pp. 249-288). Sevilha: Ediciones Alfar.
Bravo, M. P. C. (1992c). Los métodos correlacionales. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación educativa
(pp. 155-175). Sevilha: Ediciones Alfar.
Bravo, M. P. C. (1992d). Los métodos de investigación en
Educacion. In M. P. C. Bravo & L. B. Eisman (Eds.),
Investigación educativa (pp. 43-67). Sevilha: Ediciones Alfar.
Bravo, M. P. C. (1992e). Los métodos descritivos. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación
educativaInvestigación educativa 199). Sevilha: Ediciones
Alfar.
Bravo, M. P., & Eisman, L. B. (1998). Investigación educativa
(3ª ed.). Sevilha: Ediciones Alfar.
Brewer, J., & Hunter, A. (2006). Foundations of multimethod
research: Synthesizing styles. Thousand Oaks, CA: Sage
Publications.
Broadus, R. (1987). Toward a definition of “bibliometrics”.
Scientometrics, 5 5 379.
Calder, J. (1996). Statistical techniques. In R. Sapsford, & V.
Jupp (Eds.), Data collection and analysis (pp. 195-261).
London: SAGE Publications.
Calder, J., & Sapsford, R. (1996). Multivariate analysis. In R.
Sapsford, & V. Jupp (Eds.), Data collection and analysis (pp.
262-281). London: SAGE Publications.
Campbell, D., & Stanley, J. (1963). Experimental and quasi
experimental designs. Boston: Houghton Mifflin Company.
Cardona Moltó, M. C. (2002). Introduccion a los métodos de
investigación en Educación. Madrid: Editorial EOS.
Carr, W., & Kemmis, S. (1988). Teoría crítica de la
enseñanza. Barcelona: Martinez Roca.
Charles, C. M. (1998) Introduction to educational research (3ª
ed.). New York: Longman.
Chase, C. I. (1985). Elementary statistical procedures (3ª ed.).
New York: MacGraw Hill.
Cleveland, W. (1993). Visualizing data. Summit, NJ: Hobart
Press.
Cohen, J. (1960). A coefficient of agreement for nominal
scales. Educational and Psychological Measurement, 20(1),
37-46.
Cohen, J. (1988). Statistical power analysis for the Behavorial
Sciences (2ª ed.). Hillsdale N.J.: Lawrence Erlbaum.
Cohen, J., West, S. G., Aijen, L., & Cohen, P. (2003). Applied
multiple regression/correlation analysis for the Behavioral
Sciences. Mahwah, NJ: Lawrence Erlbaum.
Cohen, L., & Manion, L. (1994). Research methods in
Education (4ª ed.). London: Routledge.
Cohen, L., & Manion, L., & Morrison, K. (2001). Research
methods in Education (5ª ed.). New York: Routlegde Falmer.
Cook, T., & Campbell, D. (1979). Quasi-experimentation:
design and analysis issues for field setting. Boston: Houghton
Mifflin Co.
Cook, T., & Reichardt, C. S. (1997) Métodos qualitativos e
quantitativos em Investigacion Evaluativa (3ª ed.). Madrid:
Ediciones Morata
Cooper, H. (1998). Synthetizing research: a guide for
literature reviews. Thousand Oaks, CA: Sage Publications.
Cortesão, L. (1998). Da necessidade de vigilância crítica à
importância da prática da investigação-ação. Revista de
Educação, 7(1), 27-33.
Coutinho, C. P. (2005). Percursos da investigação em
tecnologia educativa em Portugal: uma abordagem temática e
metodológica a publicações cientções cient2000). Braga:
CIED, Universidade do Minho.
Coutinho, C. P. (2008). A qualidade da pesquisa educativa de
natureza qualitativa: questões relativas à fidelidade e validade.
Revista Educação Unisinos, 12(1), 5-15. Retirado de
http://www.unisinos.
br/publicacoes_científicas/images/stories/pdfs_educacao/vol12
n1/005a015_ art01_coutinho%5Brev_ok%5D.pdf
Coutinho, C. P. (2011). Metodologia de investigação em
Ciências Sociais e Humanas: Teoria e prática. Coimbra:
Almedina.
Coutinho, C., & Chaves, J. H. (2002). O estudo de caso na
investigação em tecnologia educativa em Portugal. Revista
Portuguesa de Educação, 15(1), 221-244.
Creswell, J. (1994). Research design: Qualitative and
quantitative approaches. Thousand Oaks: SAGE Publications.
Creswell, J. (1998). Qualitative inquiry and research design:
choosing among five traditions. Thousand Oaks: Sage
Publications.
Crotty, M. (1998). The foundations of Social Research:
meaning and perspetive in the research process. London:
SAGE Publications.
Cziko, G. (2000). The things we do. Using the lessons of
Bernard and Darwin to understand the what, the how, and why
of our behavior. Cambridge, MA: MIT Press.
Denzin, N. K. (1989). Interpretative biography. Thousand
Oaks, CA: Sage.
Denzin, N., & Lincoln, Y. (2000). The discipline and practice
of qualitative research. In N.K. Denzin, & Y. Lincoln (Eds.),
Handbook of qualitative research (3ª ed., PP 1-32). Thousand
Oaks, CA: SAGE Publications.
Denzin, N., & Lincoln, Y. (Eds.). (1994). Handbook of
qualitative research. Thousand Oaks, CA: SAGE Publications.
Deshaies, B. (1992). Metodologia da investigação em
Ciências Humanas. Lisboa: Instituto Piaget.
DeVellis, R. F. (1991). Scale development: Theory and
applications (Vol. 26, Applied Social Sciences Methods
Series). Newbury Park: Sage
DeWalt, K., & DeWalt, B. R. (2011). Participant
observation: A guide for fieldworkers. Janham: Altamira
Press.
Dick, B. (1999). What is action research? Retirado de
http://www.scu.edu.au/schools/gcm/ar/whatisar.html
Eco, U. (1988). Como se faz uma tese em Ciências Humanas.
Lisboa: Presença.
Eisman, L. B. (1992). El processo de investigácion. In M. P.
Colás Bravo, & L. B. Eisman (Eds.), Investigación educativa
(pp. 69-105). Sevilha: Ediciones Alfar.
Eisman, L. B. (1992). El método experimental: Diseños de
investigácion. In M. P. Colás Bravo, & L. B. Eisman (Eds.),
Investigación educativa (pp. 109-151). Sevilha: Ediciones
Alfar.
Elliott, D., & Stern, J. E. (Eds.). (1997). Research ethics: a
reader. Hanover, NJ: University Press of New England.
Elliot, J. (1991). Action Research for Educational Change.
Philadelphia: Open University Press.
Erickson, F. (1986). Qualitative methods in research on
teaching. In M.C. Wittrock (Ed.), Handbook of research on
Teaching (pp. 119-161). New York: Macmillan.
Erlandson, D., Harris, E., Skipper, B., & Allen, S. (1993).
Doing naturalistic inquiry: A guide to methods. Newbury
Park: Sage Publications.
Esteves, M. (2006). Análise de Conteúdo. In J. A. Lima, & J.
A. Pacheco (Orgs.), Fazer Investigação: Contributos para a
elaboração de dissertações e teses (pp. 105-126). Porto: Porto
Editora.
Fernandez, A. C. (1995). Métodos para evaluar la
Investigacion en Psicopedagogia. Madrid: Editorial Síntesis, S
A.
Fielding, J., & Gilbert, N. (2000). Understanding social
statistics. London: SAGE Publications.
Fink, A. (2005). Conducting research literature reviews: from
paper to internet. Thousand Oaks, CA: Sage Publications.
Flick, U. (1998). An introduction to qualitative research.
London: Sage Publications.
Fox, D. (1987). El proceso de investigacion en Educación.
Pamplona: Ediciones Universidad de Navarra, S.A.
Gadamer, H. G. (1975). Truth and method. London: Sheed &
Ward.
Ghiglione, R., & Matalon, B. (1997). O inquérito: Teoria e
prática (3ª ed.). Oeiras: Celta Editora.
Gibbons, J. D. (1993). Nonparametric statistics. Newbury
Park: Sage Publications.
Gibbons, M., & Limoges, C. (1994). The new production of
knowledge: The dinamics of science and research in
contemporary societies. Newbury Park: SAGE Publications.
Giroux, H. (1983). Theory and resistance in Education: a
Pedagogy for the opposition. South Hadley, MA: Bergin &
Garvey.
Gitlin, A., Siegel, M., & Boru, K. (1993). On the politics of
method: from leftist ethnography to educative research. In M.
Hammersley (Ed.), Educational Research: current issues (pp.
191-210). London: The Open University Press.
Glaser, B. G. (1978). Theoretical sensitivity. Advances in the
methodology of Grounded Theory. Mill Valley: Sociology
Press.
Glaser, B., & Strauss, A. (1967). The discovery of Grounded
Theory: strategies for qualitative research. New York: Aldine
de Gruyter.
Glass, G. (1976). Primary, secondary and meta-analysis.
Educational Researcher, 5(10), 3-8.
Glass, G., & Hopkins, K. (1996). Statistical methods in
Education and Psychology (3ª ed.). Needham Heights, MA:
Allyn & Bacon.
Glass, G., & Stanley, J. C. (1970). Statistical methods in
Education and Psychology. Englewood Cliffs, NJ: Prentice
Hall
Gómez, G. R., Flores, J. G., & Jimènez, E. (1996).
Metodologia de la investigacion cualitativa. Malaga:
Ediciones Aljibe.
Gorman, G., & Clayton, P. (1997). Qualitative research for the
information professional: A practical handbook. London:
Library Association Publishing.
Greene, J.C., Caracelli, V. J., & Graham, W. F. ((1989).
Toward a conceptual framework for mixed-method evaluation
designs. Educational Evaluation and Policy Making, 11, 255-
274.
Griffith, B. (1990) Understanding science: studies of
communication and information. In C. Borgman (Ed.),
Scholarly communication and bibliometrics (pp.31-46).
Newbury Park: SAGE Publications.
Guba, E. (1981). Criteria for assessing the trustworthiness of
naturalistic inquiries. Educational Communication and
Technology Journal, 29(2), 75-92.
Guba, E. (1990). The paradigm dialog. Newbury Park, CA:
SAGE Publications.
Guba, E., & Lincoln, Y. (1994). Competing paradigms in
qualitative research. In N.K. Denzin, & Y. Lincoln (Eds.),
Handbook of qualitative research (pp. 105-117). Thousand
Oaks: Sage Publications.
Guba, E., & Lincoln, Y. (1988). Do inquiry paradigms imply
inquiry methodologies? In D.M. Fetterman (Ed.), Qualitative
approaches to evaluation in education: The silent scientific
revolution (pp. 89-115). London: Praeger.
Habermas, J. (1974). Theory and practice. London: Heineman
Habermas, J. (1983). Modernity: an incomplete project. In H.
Foster (Ed.), The antiaesthetic: Essays on postmodern culture
(pp. 3-15). Seattle, WA: Bay Press.
Hammersley, M., & Gomm, R. (1997). Bias in Social
Research. Sociological Research Online, 2(1), Retirado de
http://www. socreonline.org.uk/cocreonline/2/1/2. html
Harris, R. (1997). Evaluating internet research sources.
Retirado de
http://www.niu.edu/facdev/programs/handouts/evaluate.htm
Hart, C. (1998). Doing a literature review: releasing the Social
Science imagination. London: Sage Publications.
Heiman, G. (1996). Basic statistics for the Behavorial
Sciences (2ª ed.). Boston: Houghton Mifflin Company.
Hill, A., & Hill, M. (2008). Investigação por questionário.
Lisboa: Edições Silabo.
Hinton, P. (1995). Statistics explained: a guide for Social
Science students. London: Routledge.
Holsti, O. R. (1969). Content analysis for the Social Sciences
and Humanities. Reading, MA: Addison-Wesley.
Howe, K. (1988). Against the quantitative-qualitative
incompatibility thesis or dogmas die hard. Educational
Researcher, 17(8), 10-16.
Howe, K. (1992). Getting over the quantitative-qualitative
debate. American Journal of Education, 100(2), 236-256.
Hunter, J. E., & Schmidt, F. L. (1990). Methods of meta-
analyis: correcting error and bias in research findings.
Newbury Park: SAGE Publications.
Jacob, E. (1987). Qualitative research traditions: a review.
Review of Educational Research, 57(2), 1-50.
Janesick, V. (1994). The dance of qualitative design. In N.K.
Denzin, & Y. Lincoln (Eds.), Handbook of qualitative research
(pp. 209-219). Thousand Oaks: Sage Publications.
Johnson, R. B., & Onwuegbuzie, A. (2004). Mixed method
research: a research paradigm whose time has come.
Educational Researcher, 33(7), 14-26.
Juste, P. (1985). Estudios correlacionales. In A. De La Orden
(Ed.), Diccionário de investigácion educativa. Madrid: Anaya.
Kanji, G. (1999). 100 statistical tests. London: SAGE
Publications.
Kaplan, A. (1998). The conduct of inquiry: Methodology for
Behavorial Science. London: Transaction Publishers.
Kline, P. (1986). A handbook of test construction: introduction
to psychometric design. New York: Methuen & Co.
Knapper, C. (1980). Evaluating instructional technology. New
York: John Wiley & Sons.
Knupfer, N., & McLellan, H. (1996) Descriptive research
methodologies. In D. Jonassen (Ed.), Handbook of research
for educational communications and technology (pp. 1196-
1212). New York: Macmillan USA.
Kratochwill, T. R.