Você está na página 1de 43

Metodologia de Pesquisa Quantitativa

Prof. Rafael Goldszmidt


Metodologia de pesquisa quantitativa

• Questão de pesquisa
• Referencial teórico
• Hipóteses
• Mensuração
• Teste de hipóteses
O problema de mensuração

Como medir o que não observamos diretamente?


A maioria dos fenômenos é medida de forma indireta...

Tempe- Coluna de
ratura erro
mercúrio

Constructo Medida
Desenvolvimento de escalas

• Podemos observar as conseqüências (indicadores) de


certos construtos (variáveis latentes)

• Há escalas desenvolvidas para medir construtos como


materialismo, satisfação, etc…

• Considerações importantes
• Validade (estamos medindo o que queremos
• Confiabilidade (estamos medindo bem?)
Causalidade

• Condições para identificação de uma relação causal

– Covariação
– Temporalidade (a causa deve preceder o efeito)
– Exclusão de hipóteses alternativas

• Critérios para avaliação de um estudo causal


– Validade interna
• Confiança na validade da relação causal
– Validade externa
• Confiança na possibilidade de extrapolação dos resultados
das unidades observadas para o universo de interesse
Desenho de pesquisa

• Experimento
– Grupo de tratamento e controle
– Aleatorização do tratamento
– Alta validade interna
• Aleatorização permite supor que a única diferença média na
variável de interesse entre os grupos de tratamento e
controle seja o tratamento
• Hipóteses alternativas controladas no planejamento
Desenho de pesquisa

• Quase-experimento
– Grupo de tratamento e controle
– Definição de indivíduos tratados não é aleatória
– Limitações na validade interna
• Pode haver outras diferenças entre os grupos de tratamento
e controle, além do tratamento
• Hipóteses alternativas controladas na análise
– É necessário incluir variáveis de controle
Desenho de pesquisa

• Não-experimento
– Tratamento não é controlado pelo pesquisador
– Definição de indivíduos tratados não é aleatória
– Sérias limitações na validade interna
• Pode haver diferenças não conhecidas entre os tratamentos
recebidos por diferentes indivíduos
• Pode haver outras diferenças entre os grupos de tratamento
e controle, além do tratamento
• Hipóteses alternativas controladas na análise
– É necessário incluir variáveis de controle
Os mundos da Estatística na pesquisa em Administração

• Quanto ao desenho da pesquisa


– Experimental
– Quase experimental
– Não-experimental

• Quanto ao tipo de dados


– Séries de tempo
– Dados de painel
– Dados de corte transversal

• Quanto à natureza da análise


– Estimação
– Inferência
Fontes de dados
Fontes de dados

• Dados primários
– Dados originais coletados em uma pesquisa de campo para um
fim específico
– Vantagens:
• Flexibilidade na escolha das informações coletadas
– Desvantagens
• Amostras pequenas
• Alto custo de coleta
• Problemas de confiabilidade
Fontes de dados

• Dados secundários
– Dados já coletados e disponíveis, por exemplo o Censo
Demográfico
– Vantagens:
• Maior qualidade e quantidade de informações
• Menor custo
• Pronta disponibilidade
– Desvantagens
• Menor liberdade de escolha das variáveis a analisar
• Dados desatualizados
Tipos de dados secundários

• Dados agregados
– Já em distribuições de freqüência, tabulações cruzadas, etc.
– Medidas-resumo por Setor Censitário, Município, UF, etc..
Tipos de dados secundários

• Micro-dados
– Dados individuais de cada respondente (pessoas, empresas,
etc)
– Quando se trata de amostras, normalmente tem pesos
associados
• O peso indica quantos elementos da população cada
elemento da amostra representa
– Por exemplo, população tem 1000 elementos. A amostra
foi aleatória simples com 20 elementos. O peso de cada
observação na amostra é 50.
Dicionário de variáveis

Código Quesito Categorias


Posição
Tamanho de
Inicial
variável N° Descrição Tipo Descrição
PARTE 1 – IDENTIFICAÇÃO E CONTROLE
1 4 V0101 Ano de referência
11 Rondônia
12 Acre
13 Amazonas
14 Roraima
15 Pará
16 Amapá
17 Tocantins
21 Maranhão
22 Piauí
23 Ceará
24 Rio Grande do Norte
25 Paraíba
26 Pernambuco
5 2 UF 2 Unidade da Federação 27 Alagoas
28 Sergipe
29 Bahia
ANOVA (Analysis of Variance)
Desempenho: o tipo de treinamento faz diferença?

Treinamento Treinamento Treinamento


A B C
22,2 24,6 22,7
19,9 23,1 21,9
20,3 22,0 23,3
21,4 23,5 24,1
21,2 23,6 22,1
21,0 22,1 23,4
20,3 23,5 22,6
Comparação do desempenho por tipo de treinamento:
Boxplot
Desempenho: Estatísticas Descritivas

Descriptive Statistics
N Mean Std. Deviation
Desempenho 21 22.3 1.30
Valid N (listwise) 21

Std.
Treinamento N Mean
Deviation
A 7 20.9 0.79
B 7 23.2 0.91
C 7 22.9 0.78
Total 21 22.3 1.30
ANOVA – O modelo nulo

• Podemos pensar na Análise de Variância em termos da


comparação de dois modelos
• No primeiro modelo, temos um único desempenho
médio (m -> o mesmo para os três treinamentos) e
cada observação (yij -> indivíduo “i” no treinamento “j”) é
resultado desta média mais um resíduo aleatório (eij ->
desvio do desempenho de cada indivíduo em relação a
esta média).
Yij  m  eij

• Não conseguimos explicar porque alguns casos têm


valores maiores que outros.
Exemplo: Desempenho após treinamento

Treinamento Treinamento Treinamento


x1a A B C
x2a 22,2 24,6 22,7
x3a 19,9 23,1 21,9
20,3 22,0 23,3
21,4 23,5 24,1
21,2 23,6 22,1
21,0 22,1 23,4
20,3 23,5 22,6
ANOVA – O modelo nulo

x2 a  19,9 m
variabilidade erro x  22,3
ANOVA – Modelo com efeito treinamento

• No segundo modelo, incluimos outra fonte de variação no


desempenho: o tipo de treinamento e dividimos a
variabilidade em duas partes:
– A variabilidade “entre” treinamentos
– A variabilidade “dentro” dos treinamentos
• O desempenho de cada indivíduo é agora o desempenho
médio de seu tipo de treinamento (mk) mais um resíduo
aleatório de cada indivíduo (eik)
Yik  mk  eik
• A parte da variabilidade do desempenho entre indivíduos
(resíduo eij) que não conseguimos explicar diminui, já que
parte desta variabilidade agora é explicada pelo tipo de
treinamento.
ANOVA - Modelo com efeito treinamento

Treinamento Treinamento
Treinamento C B
A

x2 a  19,9 m a m m c mb
dentro entre

x ia  xa  x a x  x c  22,8
x a  20,9 x  22,3 xb  23, 2
ANOVA – decomposição da variabilidade

• Variabilidade dentro dos tratamentos ou resíduo (SSR –


Sum of Squares of Residual)
n1 n2 nk
SS R   ( xi1  x1 ) 2   ( xi 2  x 2 ) 2  ...   ( xik  x k ) 2 
i 1 i 1 i 1
k nk
  ( xik  x k ) 2

k 1 i 1

• Variabilidade entre tratamentos, explicada pelo modelo


(SSM – Sum of Squares of Model)
k
SS M   nk ( x k  x ) 2
k 1
ANOVA – decomposição da variabilidade

• Variabilidade total (SST – Total Sum of Squares)


n1 n2 nk
SST   ( x1 j  x)   ( x2 j  x)  ...   ( xkj  x) 
2 2 2

j 1 j 1 j 1
k ni
  ( xij  x)2
i 1 j 1
Exemplo: Tabela de ANOVA

SSM – Soma de quadrados


do modelo (entre)
ANOVA

Consumo
Sum of
Squares df Mean Square F Sig.
Between Groups 21.664 2 10.832 15.808 .000
Within Groups 12.334 18 .685
Total 33.998 20

SSR – Soma de quadrados


erro (dentro) SST – Soma de
quadrados total
ANOVA – r2 (a rigor, Eta squared)

• Com a introdução do efeito treinamento, a variabilidade não-


explicada entre o desempenho dos indivíduos diminui, pois
parte dela é explicada pelo treinamento;
• Ainda há variabilidade entre indivíduos sob o mesmo tipo de
treinamento, que deve-se a outros fatores não analisados,
como seu grau de instrução prévio, dedicação ao
treinamento, interesse pelo trabalho, etc.
• Se dividimos a variabilidade entre o desempenho dos
diferentes treinamento sobre a variabilidade total do
desempenho, temos o “r2”
• Este coeficiente indica a proporção da variabilidade do
desempenho que se deve ao tratamento (tipo de
treinamento)
ANOVA - R2

ANOVA

Consumo
Sum of
Squares df Mean Square F Sig.
Between Groups 21.664 2 10.832 15.808 .000
Within Groups 12.334 18 .685
Total 33.998 20

Effect size
SS M 21, 664
r 
2
  0, 637
SST 33,998
r  r 2  0.79
63,7% da variabilidade do
r=0,1 efeito pequeno
desempenho na amostra é explicado
pelo tipo de treinamento r=0,3 efeito médio
r=0,5 efeito grande
ANOVA – Teste de hipótese de igualdade de médias

• A análise descritiva anterior sugere que o treinamento


está associado ao desempenho na amostra, mas e na
população?
• É possível que, na população as médias dos grupos
sejam iguais e, por acaso, as médias das amostras
sejam diferentes.
• Quanto maior a variabilidade devida ao tratamento
(SSM) e menor a variabilidade do erro (SSR), mais
evidências teremos que as médias são diferentes na
população.
ANOVA – Teste de hipótese de igualdade de médias

• As hipóteses testadas são:


H 0 : m1  m2  m3
H a : pelo menos uma das médias é diferente das demais

• Podemos, então analisar a relação entre SSM e SSR e,


se SSM for grande e SSR pequeno, a partir de um certo
valor crítico de SSM/SST, podemos rejeitar H0 e concluir
que as médias são diferentes na população.
• Mas SSM/SST não é uma estatística de teste adequada,
porque não leva em conta os graus de liberdade.
ANOVA – Teste de hipótese de igualdade de médias

ANOVA

Consumo
Sum of
Squares df Mean Square F Sig.
Between Groups 21.664 2 10.832 15.808 .000
Within Groups 12.334 18 .685
Total 33.998 20

DF (Degrees of freedom) GL (Graus de liberdade)


MS (Mean Square) MQ (Média de quadrados)
SS (Sum of Squares) SQ (Soma de quadrados)
DFentre = k-1
SS
DFdentro = n-k
MS 
k – n. de grupos df
n – n. total de obs.
ANOVA: Teste F

• A estatística de teste, levando em conta os graus de


liberdade, passa a ser:
SS M / df m MS M
F =
SS R / df r MS R

• MSM (Mean Square of Model)


• MSR (Mean Square of Residual)
ANOVA: Teste F

ANOVA

Consumo
Sum of
Squares df Mean Square F Sig.
Between Groups 21.664 2 10.832 15.808 .000
Within Groups 12.334 18 .685
Total 33.998 20

Se as médias são iguais na população, a estatística F segue a


distribuição F de Fisher-Snedecor, cujos parâmetros são graus de
liberdade do numerador e graus de liberdade do denominador.
Rejeitamos a hipótese nula apenas para valores altos
de Fobs (o teste é unicaudal).
Região de
rejeição

F 
1 2
ANOVA: Teste F

ANOVA

Consumo
Sum of
Squares df Mean Square F Sig.
Between Groups 21.664 2 10.832 15.808 .000
Within Groups 12.334 18 .685
Total 33.998 20

Podemos comparar o Fobs (15,81) com um valor crítico ou


simplesmente observar o valor p.

Como o valor p é menor que 5%, rejeitamos H0. Ou seja, há


evidências que há pelo menos uma média diferentes das
demais.
Premissas do modelo de ANOVA

• O modelo de ANOVA descrito parte de três premissas básicas, que


devem ser respeitadas para que o modelo seja válido:

• Independência
– Depende do planejamento da pesquisa. As amostras de cada grupo foram
extraídas independentemente.

• Normalidade
– Pode ser testada pela inspeção visual do histograma dos erros ou por um teste
de aderência

• Homoscedasticidade
Premissa do modelo de ANOVA: Homoscedasticidade

• No modelo de ANOVA, calculamos uma única variância do erro,


utilizamos MQE e não MQEi, ou seja, consideramos que a variância
do erro é a mesma em todos os grupos.
• Esta premissa de igualdade de variância do erro entre grupos é
denominada homoscedasticidade e é necessária para que o
modelo seja válido.
• A homoscedasticidade pode ser testada em caráter exploratório
pela inspeção visual dos boxplots dos resíduos ou por testes de
hipótese como o teste de Bartlett ou Levine.
• Em suma, nosso modelo é:

Yij  m j  eij eij ~ N (0; e2 )


• Sendo
 e2  MS R
Premissa do modelo de ANOVA: Homoscedasticidade

Treinamento Desempenho Xbarra j erro ij


A 22,2 20,9 1,3
A 19,9 20,9 -1,0
A 20,3 20,9 -0,6
A 21,4 20,9 0,5
A 21,2 20,9 0,3
A 21,0 20,9 0,1
A 20,3 20,9 -0,6
B 24,6 23,2 1,4
B 23,1 23,2 -0,1
B 22,0 23,2 -1,2
B 23,5 23,2 0,3
B 23,6 23,2 0,4
B 22,1 23,2 -1,1
B 23,5 23,2 0,3
C 22,7 22,9 -0,2
C 21,9 22,9 -1,0
C 23,3 22,9 0,4
C 24,1 22,9 1,2
C 22,1 22,9 -0,8
C 23,4 22,9 0,5
C 22,6 22,9 -0,3
Comparações múltiplas

• O resultado do teste F indica que há pares de médias


diferentes entre si, mas quais pares?
• Uma forma de checar seria utilizar Intervalos de
Confiança para cada par de médias. Se o intervalo não
incluir o zero, há evidências que as médias em questão
diferem na população.
• No entanto, o grau de confiança de cada intervalo
deveria ser ajustado de maneira que o grau de
confiança global seja de 95%, por exemplo.
• Há vários tipos de ICs para comparações múltiplas,
como Tukey, Tukey-Kramer e Bonferroni.
Comparações múltiplas: Bonferroni

(i) Fixar o nível de confiança 1- .


(ii) Determinar o número de comparações m desejadas.
(iii) Calcular     /m.
(iv) Construir os IC:
1 1
IC ( m1  m2 ;1   )  ( y1  y2 )  t(1 ;n  I ) MSR   
 n1 n2 
Suponha que há três grupos sendo analisados, portanto, tem-se três pares de
médias a comparar. Considerando-se um  global de 5%, o valor de ´ será 0,05/3
ou 0,017 e o grau de confiança de cada intervalo será de 98,3%.
Outros métodos como Tukey ou Tukey-Kramer usam estratégias semelhantes
Comparações múltiplas: Bonferroni

IC (mB  mA) e (mC  mA)


não contém “0”
Multiple Comparisons
Desempenho
Bonferroni
95% Confidence Interval
(I) (J) Mean
Std. Error Sig.
Treinamento Treinamento Difference (I-J) Lower Bound Upper Bound

A B -2.3000* .4425 .000 -3.468 -1.132


C -1.9714* .4425 .001 -3.139 -.804
B A 2.3000* .4425 .000 1.132 3.468
C .3286 .4425 1.000 -.839 1.496
C A 1.9714* .4425 .001 .804 3.139
B -.3286 .4425 1.000 -1.496 .839
*. The mean difference is significant at the 0.05 level.

IC (mC  mB) contém “0”


Passos para Comparação de Médias

• Defina o modelo teórico considerado


• Crie a tabela de ANOVA
– Construa o valor p do teste F.
• Se H0 não for rejeitada
– Conclua que não há diferença entre médias.
• Se H0 for rejeitada
– Analise o R2
– Compare os pares de médias utilizando um método de
comparações simultâneas (Bonferroni, Tukey)
– Analise se as premissas do modelo são respeitadas
(homoscedasticidade e normalidade dos resíduos)
E se as premissas não forem respeitadas?

• Heterocedasticidade
– Se as variâncias forem diferentes, há, entre outras, uma solução para
comparação de médias de 2 grupos:
• Analyze Compare Means Independent Samples T-test

• Dependência
– Se as observações não forem independentes (ex.: produtividade do mesmo
funcionário antes e depois de um treinamento)
• Analyze Compare Means Paired Samples T-test

• Não Normalidade
– Para amostras pequenas (n<30) e distribuição não-normal, usam-se testes não-
paramétricos

Você também pode gostar