Você está na página 1de 78

CONTEÚDO BRUTO DA DISCIPLINA DE ESTATÍSTICA PARA

NEGÓCIOS

Elaboração: prof. Augusto Lima Verde


2022
SUMÁRIO

PARTE I – ESTATÍSTICA DESCRITIVA E PROBABILIDADE

CAPÍTULO 01 – ESTATÍSTICA DESCRITIVA

CAPÍTULO 02 – PROBABILIDADE

PARTE II – ESTATÍSTICA INFERENCIAL

CAPÍTULO 03 – INTERVALO DE CONFIANÇA

CAPÍTULO 04 – TESTE DE HIPÓTESES

CAPÍTULO 05 – CORRELAÇÃO E REGRESSÃO

PARTE III – PRÁTICA DE PESQUISA QUANTITATIVA

CAPÍTULO 06 – PRÁTICA DE PESQUISA QUANTITATIVA


Introdução

Para muitos, a estatística não passa de conjuntos de tabelas de dados numéricos. E os estatísticos pessoas
que coletam esses dados.

Falando um pouco da história, a estatística originou-se com a coleta e construção de tabelas de dados para
os governos. A situação evoluiu e atualmente, ela está presente em qualquer área do conhecimento, com
um papel importante de organizar, descrever, analisar e interpretar dados oriundos de estudos ou
experimentos.

A Estatística pode ser definida como: a ciência de coletar, organizar, apresentar, analisar e interpretar dados
numéricos com o objetivo de tomar melhores decisões. (LARSON, 2016)

Se divide em três grandes áreas: na estatística descritiva, probabilidade e inferência estatística.

A estatística descritiva é a etapa inicial da análise utilizada para organizar, descrever e resumir o
comportamento dos dados. A disponibilidade de uma grande quantidade de dados e de métodos
computacionais muito eficientes revigorou está área da estatística.

Conjuntos de dados desorganizados são de pouco ou nenhum valor. Para que os dados se transformem em
informação é necessário organizá-los, resumi-los e apresentá-los. O resumo de conjuntos de dados é feito
através das medidas de tendência central ou de dispersão e a organização e apresentação através das
distribuições de frequências e dos gráficos ou diagramas.

A teoria de probabilidades nos permite descrever os fenômenos aleatórios, ou seja, aqueles em que está
presente a incerteza.

A probabilidade é a ciência que está nos bastidores das principais tecnologias do século 20 e início do século
21. Não conseguimos imaginar o dia em que não utilizamos a probabilidade em nossas ações rotineiras. Por
exemplo, ao consultarmos a previsão de tempo ou, ao realizarmos jogos da loteria estamos sob os princípios
da teoria da probabilidade.

E, por fim, a inferência estatística é o estudo de técnicas que possibilitam a extrapolação, a um grande
conjunto de dados, das informações e conclusões obtidas a partir da amostra.

Tem como objetivo estudar generalizações sobre uma população através de evidências fornecidas por uma
amostra retirada desta população. A amostra contém os elementos que podem ser observados e é onde as
quantidades de interesse podem ser medidas, e como tudo faz parte da atividade diária da maioria das
pessoas.
1. ESTATÍSTICA DESCRITIVA

1.1. Conceitos básicos

O conjunto de todos os elementos que se deseja estudar é denominado de população. Note-se que o termo
população é usado num sentido amplo e não significa, em geral, conjunto de pessoas.

Pode-se definir uma população como sendo o conjunto de elementos sobre o qual incide o estudo estatístico
e que apresentam uma ou mais características em comum. Esse conjunto pode ser o conjunto das rendas de
todos os habitantes de Fortaleza ou o conjunto de todas as notas dos alunos da disciplina de estatística da
Unichristus.

A cada elemento da população nomeia-se Unidade Estatística. O número de elementos de uma população,
ou seja, o número de unidades estatísticas é designado de Dimensão Populacional. E essa dimensão
populacional pode ser finita ou infinita.

• Dimensão populacional ou população finita: em uma população finita é possível enumerar todos os
elementos que a formam. Refere-se a um universo limitado. Exemplos: Quantidade de celulares
produzidos por uma indústria por mês; A população da cidade de Fortaleza; O número de alunos nos
cursos de EAD da Unichristus.
• Dimensão populacional ou população infinita: em uma população infinita os seus elementos não
podem ser mensurados. Refere-se a um universo não delimitado. Exemplos: Os resultados (cara ou
coroa) obtidos em sucessivos lançamentos de uma moeda; O conjunto de números inteiros, reais ou
naturais; os pontos de uma reta.

Um levantamento efetuado sobre toda uma população é dito de levantamento censitário ou simplesmente
censo. Fazer levantamentos, estudos, pesquisas, sobre toda uma população (censo) é, em geral, muito difícil.
Isto se deve à vários fatores. O principal é o custo. Um censo custa muito caro e demanda um tempo
considerável para ser realizado.

Assim, normalmente, se trabalha com partes da população denominadas de amostras. Uma amostra pode
ser caracterizada como um subgrupo ou subconjunto da população, que pode ser estudado para investigar
as características ou o comportamento dos dados populacionais.

O processo de escolha de uma amostra da população é denominado de amostragem. E as técnicas de


amostragem podem ser classificadas em probabilística e não probabilística. A probabilística se subdivide em
amostragem aleatória simples, sistemática, estratificada e por conglomerado. A não probabilística se
subdivide em amostragem não aleatória intencional, voluntária e acidental ou não intencional.
Para os estudos estatísticos utilizamos as técnicas de amostragem probabilísticas. Pois, pelo Princípio da
Equiprobabilidade, todos os sujeitos da população têm a mesma probabilidade de fazerem parte da amostra.
E apresenta o menor risco de viés.

A primeira técnica é a aleatória simples, é o processo mais elementar, basta atribuir um número a cada
elemento da população em estudo e em seguida escolhe-se os elementos por meio de sorteio. Das Amostras
Probabilísticas é a mais utilizada pela simplicidade de aplicação.

A segunda técnica é a sistemática. As unidades amostrais são selecionadas a partir de um esquema rígido e
preestabelecido de sistematização, com o propósito de cobrir a população em toda sua extensão, a fim de
obter um modelo sistemático simples e uniforme. Exemplo: vamos supor que sejam escolhidos os elementos
da população baseado nos números múltiplos de 3. Então, serão escolhidos os elementos da população que
possuem a numeração múltipla de 03, isto é, 3, 6,9,12.... e assim sucessivamente.

A terceira técnica é a estratificada, são identificados vários estratos de uma população e para cada estrato é
determinada a amostra. O número de sujeitos por estrato pode ser igual ou proporcional à população de
cada um destes estratos.

Essa situação deve ser considerada quando selecionamos uma amostra para mantermos a
representatividade da população. Uma amostra aleatória simples pode não incluir elementos
representativos de um ou mais estratos. Neste caso, pode-se realizar uma amostragem estratificada que é
obtida simplesmente tomando amostras de cada estrato da população.

A diferença da amostragem estratificada simples e a proporcional, é que na primeira será utilizada na


pesquisa a mesma quantidade de indivíduos nos diferentes estratos. Já na segunda, a quantidade de
indivíduos será proporcional a população de cada estrato.

Veja o exemplo: será realizada uma pesquisa com 200 estudantes de uma população de 10 mil. Suponhamos
que o grupo de alunos dessa instituição seja composto de 30% de calouros, 30% de estudantes do primeiro
ano, 20% do segundo e 20% do terceiro. Seria possível estratificar por classes, antes da seleção aleatória,
para garantir que a amostra fosse exata em termos de representação dessas classes. Nesse caso, na técnica
de amostragem estratificada proporcional selecionaríamos, de modo aleatório, 60 estudantes dos 3 mil
calouros; 60 dos 3 mil do primeiro ano; 40 dos 2 mil do segundo ano; e 40 dos 2 mil do terceiro ano. No final,
teríamos uma amostra total de 200 estudantes. Já na amostragem estratificada simples, que não é a mais
apropriada neste contexto, seriam selecionados 50 indivíduos de cada estrato.

A quarta é a amostragem por conglomerados ou clusters, uma técnica que explora a existência de grupos na
população. Esses grupos representam adequadamente a população total em relação a característica que
queremos medir. É utilizada quando dentro de uma população são identificados agrupamentos (Clusters)
naturais; por exemplo, alunos de mestrado no estado do Ceará. Neste tipo de amostragem o elemento focal
não é o sujeito e sim o cluster. Identificados os clusters, utiliza-se alguma das técnicas de amostragem
mostradas para se atingir o tamanho da amostra desejada. Outro exemplo, se desejarmos saber a
escolaridade dos moradores de um bairro de uma determinada cidade brasileira, dividiremos, em um mapa,
esse bairro em pequenas áreas. Após esta divisão, faz-se uma amostragem aleatória simples dessas pequenas
áreas e, nas mesmas, serão entrevistados todos os seus moradores para conhecermos suas escolaridades.

Entre estes conceitos importantes, encontra-se a definição de variável e as suas classificações.

Conforme Bussab et al (2017), podemos definir variável como a característica que é medida ou avaliada em
cada elemento da amostra ou população.

Em resumo, é aquilo que está sendo avaliado na sua pesquisa. Como o próprio nome diz, seus valores variam
de elemento para elemento. E as variáveis podem ter valores numéricos ou não numéricos, e podem ser
classificadas da seguinte forma:

• Variáveis Quantitativas: as variáveis quantitativas são as que podem ser descritas por números,
sendo estas classificadas entre contínuas e discretas.
• Variáveis discretas: a variável é avaliada em números que são resultados de contagens e, por
isso, somente fazem sentido números inteiros. Exemplos: número de filhos, número de bactérias
por litro de leite, número de cigarros fumados por dia.
• Variáveis contínuas: a variável é avaliada em números que são resultados de medições e, por
isso, podem assumir valores com casas decimais e devem ser medidas por meio de algum
instrumento. Exemplos: massa (balança), altura (régua), tempo (relógio), pressão arterial, idade.
• Variáveis Qualitativas: as variáveis qualitativas (ou categóricas) são as que não possuem valores
quantitativos, são definidas por categorias, ou seja, são valores expressos por atributos não
numéricos. E podem ser nominais ou ordinais.
• Variáveis nominais: não existe ordenação dentre as categorias. Exemplos: sexo, cor dos olhos,
fumante/não fumante, doente/sadio.
• Variáveis ordinais: existe uma ordenação entre as categorias. Exemplos: escolaridade (1º, 2º, 3º
graus), estágio da doença (inicial, intermediário, terminal), mês de observação (janeiro,
fevereiro, …, dezembro).

1.2. Distribuição de frequências

Para se trabalhar com grandes conjuntos de dados é necessário inicialmente agrupar estes dados. O
agrupamento é feito em tabelas, denominadas de distribuições de frequências. Para se construir uma
distribuição de frequências é comum fazer a distinção entre dois tipos de variáveis. A variável (ou conjunto
de elementos) discreta (valores que são resultados de contagem) e a variável (ou conjunto de elementos)
contínua (valores que são resultados de uma medida). Em geral variáveis discretas são agrupadas em
distribuições por ponto ou valores e variáveis contínuas em distribuições por classes ou intervalos. A
separação não é rígida e depende basicamente dos dados considerados.

1.2.1 Distribuição por ponto ou valores

Considere-se um conjunto de valores resultados de uma contagem. Poderia ser, por exemplo, o número de
irmãos dos alunos matriculados em EAD da Unichristus.

Número de irmãos dos alunos matriculados em EAD da Unichristus

0–1–1–6–3–1–3–1–1–0–4–5–1–1–1–0–2–2–4–1–3–1–2–1–1–1–1–5–5–6–
4–1–1–0–2–1–4–3–2–2–1–0–2–1–1–2–3–0–1–0

Para uma melhor organização, aconselha-se organizar os dados em ordem crescente ou decrescente, pois
facilita as análises. Esta organização dos dados, chamamos de rol. Em nosso exemplo fica desta forma:

Rol: Número de irmãos dos alunos matriculados em EAD da Unichristus

0–0–0–0–0–0–0–1–1–1–1–1–1–1–1–1–1–1–1–1–1–1–1–1–1–1–1–1–2–2–
2–2–2–2–2–2–3–3–3–3–3–4–4–4–4–5–5–5–6–6

Esta coleção de valores não constitui informação, mas pode ser transformada em informação mediante sua
representação em uma distribuição de frequências por pontos ou valores. Para tal, coloca-se o conjunto em
uma tabela.

Tabela 01 – Distribuição de frequência por ponto ou valores do número de irmãos dos alunos matriculados em EAD
da Unichristus.
Número de irmãos Número de alunos
0 7
1 21
2 8
3 5
4 4
5 3
6 2
Total 50

No exemplo apresentado o número de alunos será categorizado como frequência simples.

Além da frequência simples (fi) temos a frequência relativa (fr) que é definida como sendo o quociente entre
a frequência simples “fi” e o total de dados “n”. No exemplo, o n = 50.

Na tabela tem-se: fr3 = 8 / 50 = 0,16 = 16%, significando que 16% dos alunos em EAD da Unichristus possuem
2 irmãos.
A frequência acumulada simples ou absoluta da linha “i” é definida como sendo a soma das frequências
simples ou absolutas até a linha “i “. Isto é, Fi = f1 + f2 + ... + fi

Na tabela tem-se: F4 = f1 + f2 + f3 + f4 = 7 + 21 + 8 + 5 = 41, significando que 41 alunos em EAD da Unichristus


possuem até 3 irmãos.

Na tabela 02, abaixo, estão ilustrados os cálculos das frequências simples, frequência relativas percentuais,
da frequência acumulada simples.

Tabela 02 – Distribuição de frequência por ponto ou valores com frequência simples, relativa e acumulada.

Número de irmãos Número de alunos (fi) fr Fi


0 7 14 7
1 21 42 28
2 8 16 36
3 5 10 41
4 4 8 45
5 3 6 48
6 2 4 50
Total 50 100%

1.2.2 Distribuição por classes ou intervalos

Considere-se um conjunto de valores resultados de uma medida. Poderia ser, por exemplo, a quantidade de
celulares vendidos durante os últimos 30 meses em uma determinada loja.

Rol organizado na ordem crescente:

17 – 19 – 21 – 23 – 23 – 24 – 25 – 26 – 28 – 29 – 29 – 30 – 30 – 33 – 33 – 35 – 36 – 36 – 36 – 37 – 39 – 40 –
42 – 43 – 49 – 50 – 50 – 59 – 59 – 79.

Neste caso é necessário construir uma tabela denominada de distribuição de frequências por classes ou
intervalos.

O procedimento para construir esta distribuição envolve os seguintes passos:

1. Determinar a amplitude dos dados: h = Xmax – Xmin → h = 79 – 17 → h = 62


2. Definir a quantidade de classes: k = √𝑛 → k = √30 → k = 5,44 → k = 5 (arredonda-se inteiro inferior)
3. Determinar a amplitude de cada classe: hi = h / k → hi = 62 / 5 → hi = 12,4 → hi = 13 (arredonda-se
inteiro superior)

Baseado no passo a passo ficou estabelecido as 05 classes definidas para o exemplo. Em seguida definimos
os cálculos das frequências simples, frequência relativas percentuais, da frequência acumulada simples
Tabela 03 – Estrutura de classes com frequência simples, relativa e acumulada.

Classes fi fr Fi
17 Ⱶ 30 11 36,7 11
30 Ⱶ 43 12 40 23
43 Ⱶ 56 4 13,3 27
56 Ⱶ 69 2 6,7 29
69 Ⱶ 82 1 3,3 30
30 100%

Observações:

• A primeira classe sempre começa pelo menor número do rol de dados


• Contar o número de valores pertencentes a cada classe. Em geral, utiliza-se a simbologia ( Ⱶ ), para
indicar um intervalo fechado à esquerda e aberto à direita. Também poderia ser utilizado o intervalo
aberto à esquerda e fechado à direita (-|). Para melhor entendimento, a primeira classe é composta
com os números do intervalo que começa com 17 e vai até o número 30. Porém o número 30 não
entra nos cálculos, pois como é intervalo aberto à direita, ele será contado somente na segunda
classe.

1.2.3 Apresentação de uma distribuição de frequências

Distribuição de frequências por pontos ou valores

Uma distribuição de frequências por pontos ou valores é apresentada graficamente através de um diagrama
de linhas ou colunas, onde a variável “xi” é representada no eixo das abcissas (horizontal) e as frequências
(que podem ser de qualquer tipo) no eixo das ordenadas (vertical). Veja o diagrama de colunas simples do
exemplo que estabelecemos.
Distribuição de frequências por classes ou intervalos

Uma distribuição de frequências por classes ou intervalos é apresentada graficamente através de um


diagrama denominado de histograma. Um histograma é um gráfico de retângulos justapostos onde a base
de cada retângulo é a amplitude de cada classe e a altura é proporcional a frequência (simples ou relativa)
de modo que a área de cada retângulo seja igual a frequência considerada.

Se os pontos médios de cada classe de um histograma forem unidos através de segmentos de retas teremos
então um diagrama denominado de polígono de frequências.

1.3. Medidas de tendência central ou posição

As mais importantes medidas de tendência central são a média aritmética, média aritmética para dados
agrupados, mediana, moda e quartis.

Sendo a média uma medida tão sensível aos dados, é preciso ter cuidado com a sua utilização, pois pode dar
uma imagem distorcida dos dados.

1.3.1 Média aritmética simples


𝑥𝑖
É a soma dos valores da amostra dividido pelo tamanho da amostra. ẍ =∑
𝑛

Tomamos o rol organizado na ordem crescente:

17 – 19 – 21 – 23 – 23 – 24 – 25 – 26 – 28 – 29 – 29 – 30 – 30 – 33 – 33 – 35 – 36 – 36 – 36 – 37 – 39 – 40 –
42 – 43 – 49 – 50 – 50 – 59 – 59 – 79.

1080
ẍ =∑ = 36 celulares vendidos por mês
30

1.3.2 Média aritmética dados agrupados

A média aritmética de uma distribuição de frequências por pontos ou valores ou ainda por classes ou
𝑓𝑖 . 𝑥𝑖
intervalos é dada por: ẍ =∑
𝑛

Distribuição de frequências por pontos ou valores

Tabela 04 – Distribuição de frequências por pontos ou valores com cálculos para média aritmética

Número de irmãos (xi) Número de alunos (fi) Fi . xi


0 7 0
1 21 21
2 8 16
3 5 15
4 4 16
5 3 15
6 2 12
Total 50 95

95
ẍ=∑ = 1,90 irmãos
50

Ou seja, o número médio de irmãos dos alunos matriculados em EAD da Unichristus é de 1,90.

Distribuição de frequências por classes ou intervalos

Tabela 04 – Distribuição de frequências por classes ou intervalos com cálculos para média aritmética

Classes Ponto médio (xi) fi fi . xi


17 Ⱶ 30 23 11 253
30 Ⱶ 43 36 12 432
43 Ⱶ 56 49 4 196
56 Ⱶ 69 62 2 124
69 Ⱶ 82 75 1 75
30 1080
1080
Desse modo, a média será: ẍ = ∑ = 36 celulares vendidos por mês.
30

1.3.3 Mediana

É o valor situado na posição do centro do rol de dados. Se o tamanho da amostra for ímpar, a mediana será
a observação central [(n + 1)/2].

Se o número for par, a mediana será a média aritmética das duas observações centrais [p1 = n/2; p2 = n/2 +
1]

É o valor situado na posição do centro do rol de dados. A mediana de uma distribuição de valores ou pontos
é obtida da mesma forma que para dados não agrupados. Se o tamanho da amostra for ímpar, a mediana
será a observação central, isto é, me = (n + 1)/2. Caso n for par, a mediana será a média aritmética das duas
observações centrais, isto é, me = [x(n/2) + x(n/2)+1] / 2.

Para um rol de dados:

17 – 19 – 21 – 23 – 23 – 24 – 25 – 26 – 28 – 29 – 29 – 30 – 30 – 33 – 33 – 35 – 36 – 36 – 36 – 37 – 39 – 40 –
42 – 43 – 49 – 50 – 50 – 59 – 59 – 79.

me = [x(n/2) + x(n/2)+1] / 2 → me = [x(30/2) + x(30/2)+1] / 2 → me = (x15 + x16) / 2 → (33 + 35) / 2 → me =


34 celulares.

Distribuição de valores ou pontos

Tabela 05 – Distribuição de valores ou pontos com cálculos para mediana

Número de irmãos (xi) Número de alunos (fi) Fi


0 7 7
1 21 28
2 8 36
3 5 41
4 4 45
5 3 48
6 2 50
Total 50

me = [x50/2 + x(50/2)+1] / 2 = [x25 + x26] / 2 = (1 + 1) / 2 = 1, pois da oitava posição até a vigésima oitava
posição todos os valores são iguais a um, e a mediana é a média entre os valores que se encontra na vigésima
quinta e vigésima sexta posição.

Distribuição de frequências por classes ou intervalos

A mediana de uma distribuição de frequências por classes ou intervalos é dada pela seguinte expressão:
𝑛
( 2 )−𝐹𝑖−1
ɱe = li + hi [
𝑓𝑖
], onde

li = limite inferior da classe mediana, isto é, a classe que contém o ou os valores centrais;

hi = amplitude da classe mediana;

fi = frequência simples da classe mediana;

Fi-1 = frequência acumulada simples da classe anterior à classe mediana.

Considerando que a classe mediana, no exemplo, é a que contém os valores x15 e x16, isto é, a segunda
classe, vem:

Tabela 06 – Distribuição de frequências por classes ou intervalos com cálculos para mediana

Classes fi Fi
17 Ⱶ 30 11 11
30 Ⱶ 43 12 23
43 Ⱶ 56 4 27
56 Ⱶ 69 2 29
69 Ⱶ 82 1 30
30

𝑛
( 2 )−𝐹𝑖−1
ɱe = li + hi [
𝑓𝑖
], me = 30 + 13 [(15)−11
12
] 4
12
1
, me = 30 + 13 [ ], me = 30 + 13 [ ], me = 30 +
3

13
[
3
], me = 34 celulares
1.3.4 Moda

É o valor que apresenta a maior frequência. A moda de uma distribuição de valores ou pontos é obtida da
mesma forma que para dados não agrupados, ou seja, observando o valor ou os valores que mais se repetem.

Para um rol de dados

mo = 36, pois este valor com uma frequência de 03 é o que mais se repete.

Distribuição de frequências por classes ou intervalos

mo = 1, pois este valor com uma frequência de 21 é o que mais se repete.

Distribuição de frequências por classes ou intervalos

𝑓𝑖+1
ɱo = li + hi [
(𝑓𝑖−1)+(𝑓𝑖+1)
], onde
li = limite inferior da classe modal, isto é, a classe de maior frequência;

hi = amplitude da classe modal;

fi-1 = frequência simples da classe anterior à classe modal;

fi+1 = frequência simples da classe superior à classe modal.

Considerando que a classe de maior freqüência, a classe modal, é a segunda, vem:

𝑓3 4 4 52
ɱo = 30 + 13 [
(𝑓1)+(𝑓3)
], ɱo = 30 + 13 [
(11+4)
], ɱo = 30 + 13 [ ], ɱo = 30 + [ ], ɱo = 30 +
15 15

3,47 → ɱo = 33,47 → mo = 34 celulares

1.4. Medidas de variabilidade ou dispersão

1.4.1 Amplitude

Como já vimos, a amplitude de uma distribuição de frequências é definida como sendo a diferença entre os
valores extremos da distribuição, isto é: h = xmax - xmin, para a distribuição por pontos ou valores e h = ls - li,
para a distribuição por classes ou intervalos.

1.4.2 Variância

Variância é uma medida de dispersão usada para expressar o quanto um conjunto de dados se desvia da
média. Mas não muito utilizada em análises de dispersão, porém é a base para o cálculo do desvio padrão.

VARIÂNCIA POPULACIONAL

𝜮 (𝒙 − 𝝁)²
𝝈² =
𝑵

VARIÂNCIA AMOSTRAL

𝜮 (𝒙 − ẍ)²
𝒔² =
𝒏−𝟏

1.4.3 Desvio Padrão

O Desvio padrão é a raiz quadrada da variância. Indica o quanto um conjunto de dados é uniforme. Quanto
mais próximo de 0 for o desvio padrão, mais homogêneo são os dados, isto é, mais próximo da média será o
resultado.

DESVIO PADRÃO POPULACIONAL

𝜮 (𝒙 − 𝝁)²
𝝈= √
𝑵
DESVIO PADRÃO AMOSTRAL

𝜮 (𝒙 − ẍ)²
𝒔= √
𝒏−𝟏

Exemplo

Rol organizado na ordem crescente:

17 – 19 – 21 – 23 – 23 – 24 – 25 – 26 – 28 – 29 – 29 – 30 – 30 – 33 – 33 – 35 – 36 – 36 – 36 – 37 – 39 – 40 –
42 – 43 – 49 – 50 – 50 – 59 – 59 – 79.

A variância em nosso exemplo é: s² = 186,55

O desvio padrão do nosso exemplo é: s = 13,66

Em outras palavras, um desvio padrão grande significa que os valores amostrais estão bem distribuídos em
torno da média, enquanto um desvio padrão pequeno indica que eles estão condensados próximos da média.
Em poucas palavras, quanto menor o desvio padrão, mais homogênea é a amostra.

1.5. Separatrizes

As separatrizes são valores que dividem a distribuição em um certo número de partes iguais: a mediana
divide em 2 partes iguais, os quartis dividem em 4 partes iguais, sendo a mais utilizada nas análises
descritivas, os decis em 10 partes iguais e os centis em 100 partes iguais.

O objetivo das separatrizes é proporcionar uma melhor ideia da dispersão do conjunto, principalmente da
simetria ou assimetria da distribuição.

1.5.1 Quartis

Os quartis são as separatrizes que dividem o conjunto em 4 partes iguais.

O primeiro quartil ou quartil inferior (Qi) é o valor do conjunto que delimita os 25% menores valores: 25%
dos valores são menores do que Qi e 75% são maiores do que Qi. O segundo quartil ou quartil do meio é a
própria mediana (Md), que separa os 50% menores dos 50% maiores valores.

O terceiro quartil ou quartil superior (Qs) é o valor que delimita os 25% maiores valores: 75% dos valores são
menores do que Qs e 25% são maiores do que Qs.

2º Quartil (Q2)
Limite inferior 1º Quartil ou Mediana 3º Quartil Limite superior
(Q1) (Q3)

25 50 75 100
% % % %
Como são medidas baseadas na ordenação dos dados, primeiro é preciso calcular a posição dos quartis.

Posição do quartil inferior 𝑛+1


Q1 = 4
𝑛+1
Posição do quartil superior Q3 = 3 x
4

Exemplo:

Rol organizado na ordem crescente:

60 – 65 – 66 – 67 – 68 – 68 – 69 – 70 – 71 – 72 – 77

𝑄1 = 3 → 𝑄1 = 66

𝑄3 = 9 → 𝑄3 =71

Logo, 25% das observações estão abaixo de 66 e 75% estão acima de 66.

Bem como, 75% das observações estão abaixo de 71 e 25% estão acima de 71

1.6. Assimetria

Uma Distribuição é Simétrica quando seus valores de Média, Mediana e Moda coincidem. A comparação
entre o valor da Média e o valor da Moda, dá, portanto, uma indicação da inclinação da distribuição.

A assimetria pode ser avaliada através da seguinte relação devida a Karl Pearson:

a1 = 3(x - me) / s

Se a1 for igual a zero então a distribuição (ou conjunto) é dito simétrico. Se a1 > 0 então a assimetria é
positiva significando que o gráfico da distribuição tem uma cauda alongada à direita. Caso a1 seja negativo a
cauda do gráfico será alongada à esquerda.

Se uma distribuição de frequências é simétrica então as 3 medidas de posição coincidem, isto

é: x = me = mo.

Se a distribuição é positivamente assimétrica então x > me > m0

E se a distribuição é negativamente assimétrica então x < me < mo


1.6.1 Curtose

Dá-se o nome de curtose ao grau de achatamento da distribuição:


2. PROBABILIDADE

2.1 . ANÁLISE COMBINATÓRIA

2.1.1. CONJUNTOS
As idéias básicas da teoria dos conjuntos foram desenvolvidas pelo Matemático Alemão Georg
Cantor (1845-1918) em 1875 mais ou menos.
A palavra conjunto é indefinida. Para escrever um conjunto usam-se chaves. Os elementos de um
conjunto são escritos separados por vírgula e a ordem em que são escritos é irrelevante. Se o
conjunto é infinito usa-se três pontos para indicar o fato. O nome de um conjunto é escrito com
letra mai- úscula, enquanto os dos seus elementos com letra minúscula. Alguns conjuntos tem
representação es- pecial como, por exemplo, o conjunto dos números naturais: N .
O número de elementos de um conjunto é denominado de número cardinal ou simplesmente
cardinal do conjunto. Representa-se por n(A) e lê-se “ene de A”.
Em muitas situações existe a idéia declarada ou implícita de um universo de discurso. Este universo
inclui todas as coisas em discussão a um dado tempo. Com conjuntos, o universo do discurso é
denominado de conjunto universal ou conjunto universo. Este conjunto é normalmente
representa- do pela letra U. O conjunto universo pode variar de situação para situação.
A idéia de conjunto universal foi dada pelo logicista John Venn (1834-1923) que desenvolveu
diagramas de conjuntos conhecidos como Diagramas de Venn. Venn comparou o conjunto universo
ao nosso campo de visão. Ele mantém as coisas que focamos e ignora tudo o resto.

2.1.1.1. OPERAÇÕES COM CONJUNTOS


O complemento de um conjunto A, representado por A ou A’, é o conjunto de todos os elementos
de U que não são elementos de A, ou A’ = { x | x  U e x A }

A interseção dos conjuntos A e B, representada por AB, é o conjunto formado pelos elementos
comuns a A e a B, ou AB = { x | x  A e x  B }

Dois conjuntos A e B que não possuem elementos em comum, isto é, tais que AB =  são
denominados conjuntos disjuntos.

A união de dois conjuntos A e B, representada por AUB, é o conjunto de todos os elementos


pertencentes tanto a A quanto a B, ou AUB = { x | x  A ou x  B }

A diferença entre os conjuntos A e B, escrita A - B, é o conjunto de todos os elementos que


pertencem ao conjunto A e não ao B, ou A - B = { x | x  A e x  B }
Observação: Ao escrever um conjunto que contém vários elementos, a ordem em que os elementos
aparecem não é relevante. Por exemplo, { 5, 1 } = { 1, 5 }. No entanto, existem muitas situações na
Matemática onde a ordem de dois ou mais objetos é importante. Isto leva a idéia de par ordenado.
Quando escrever um par ordenado use parênteses ao invés de chaves que são reservadas para
escrever conjuntos.

No par ordenado (a, b), “a” é denominado de primeira componente e “b” é chamada de segunda
componente. Em geral (a, b)  (b, a).
Assim AxB = { (a, b) | a  A e b  B }.
Note-se que AxB não é igual a BxA, embora a ordem em que os pares são escritos dentro de cada
conjunto não seja importante, o que importa é a ordem dentro do par e não entre pares.
Se n(A) = a e n(B) = b então n(AxB) = ab.

2.1.1.2. APLICAÇÕES DOS DIAGRAMAS DE VENN


Os diagramas de Venn podem ser usados para ilustrar propriedades das operações entre conjuntos.
Por exemplo, verificar que a operação entre conjuntos A - B é igual a AB’

Outras propriedades que podem ser verificadas através dos diagramas são:
As leis de De Morgan (em homenagem ao lógico Britânico Augustus de Morgan (1805-1871)):
(AB)’ = A’UB’
(AUB)’ = A’B’
Propriedade comutativa:
B
AUB = BUA
AB = BA
Propriedade associativa:
(AUB)UC = AU(BUC)
(AB) C = A (BC)
Figura 1.1- Exemplo de um diagrama de Venn
Propriedade distributiva:
A (BUC) = (AB)U(AC)
AU(BC) = (AUB)  (AUC)
Propriedades da identidade:
AU = A e AU = A
2.1.2. FATORIAL

Um professor comprou 5 novos livros e quer colocá-los lado a lado em uma estante. Quantos
maneiras diferentes existem de colocar os 5 livros?
Para o primeiro espaço, existem 5 escolhas possíveis, uma para cada livro. Uma vez colocado o
primeiro livro, restam 4 escolhas para o segundo espaço e assim por diante. Então o número de
escolhas diferentes é: 5.4.3.2.1 = 120. Este tipo especial de multiplicação tem um símbolo próprio:
5!. De um modo geral se dispomos de um número n, então o produto acima é representado por n!
e é lido “ene fatorial”, isto é:

n! = n(n - 1)(n - 2) ... 3.2.1 e têm-se também que 0! = 1

A relação n! = n(n -1)! poderá ser útil em algumas situações.

2.1.2.1. PRINCÍPIO FUNDAMENTAL DA CONTAGEM (PRINCÍPIO MULTIPLICATIVO)


Suponha que se possa fazer “n” escolhas independentes com:

• m1 maneiras de fazer a escolha 1,

• m2 maneiras de fazer a escolha 2,

• ....................................................,

• mn maneiras de fazer a escolha n.

Então existem m1.m2.......mn maneiras diferentes de fazer a seqüência inteira de escolhas.

2.1.2.2. PERMUTAÇÕES (ARRANJOS)


Uma permutação consiste do número de possíveis maneiras de arranjar, ou ordenar, certos
conjuntos de objetos. Embora o princípio fundamental da contagem pode ser aplicado a questões
de arranjar, é possível desenvolver uma abordagem mais eficiente.
O número de permutações de “n” objetos distintos tomados em grupos de “r”, onde “r” é menor
que “n” é representado por P(n, r). Aplicando o princípio fundamental da contagem a agrupamentos
deste tipo, tem-se:
P(n, r) = n(n - 1)(n - 2) [n - (r - 1)].
Simplificando o último fator acima vem:

O número de permutações, ou arranjos, de “n” objetos distintos, tomados “r” a cada vez, onde r 
n, é dado por:
P(n, r) = n(n - 1)(n - 2) ... (n - r + 1).
Exemplo
Calcular cada permutação: P(4, 2) = 4.3 = 12
P(7, 3) = 7.6.5 = 210
P(5, 5) = 5.4.3.2.1 = 120 = 5!
O número de permutações pode ser expresso em função do fatorial da seguinte forma:
P(n, r) = n! / (n - r)!

2.1.2.2.1 P ERMUTAÇÕES ( ARRANJOS ) COM ITENS DUPLICAD OS

Permutações também podem ser realizadas com itens duplicados. Por exemplo, de quantas
maneiras diferentes pode-se arranjar a palavra zoo? (A idéia aqui é que o conjunto, das letras, da
palavra zoo, contém dois elementos “o” indistingüíveis, não que um único “o” é repetido. Desta
forma, se está lidando com itens duplicados e não com repetições. Uma vez que, dois “o” podem
ser arranjados em 2! diferentes maneiras, o número de arranjos diferentes (ou distinguíveis) é:
3! / 2! = 3 (zoo, ozo, ooz) Desta forma, pode-se definir:

Se uma coleção de “n” objetos contém n1 que são idênticos, outros, n2 que são idênticos entre
si, mas diferentes dos primeiros n1 e assim sucessivamente, até nk, então o número de arranjos
distinguíveis de todos os “n” objetos é dado por:
n! / (n1!n2!...nk!)

Exemplo

Quantos arranjos distintos podem ser feitos com as letras da palavra “estatística”?

Solução:

Neste caso tem-se um total de 11 letras, das quais n1 = 2 (o “s” ocorre duas vezes), n2 = 3 ( o “t”
ocorre 3 vezes), n3 = 2 ( o “a” ocorre duas vezes) e n4 = 2 ( a letra “i” ocorre duas vezes). Então,
existem:

11! / 2! 3! 2! 2! = 831 600 arranjos distintos de letras da palavra “estatística”.

2.1.2.2.2. P ERMUTAÇÕES ( ARRANJOS ) COM REPETIÇÃO

Considere-se “n” elementos tomados “r” a “r”, onde são permitidas as repetições, isto é, o mesmo
elemento pode ocorrer mais de uma vez. Então o número de permutações (arranjos), não
necessariamente distintos, é dado por: nr, isto é:
P(n, r) = nr
Exemplo

Uma urna contém bolas vermelhas, brancas e pretas. Uma bola é extraída e após anotada a sua cor
volta para a urna. Então uma segunda bola é extraída e anotada igualmente a cor. Quantas são as
possíveis seqüências de cores observadas?

Solução:

Como cada extração fornece uma cor entre { V, B, P } o número de seqüências possíveis é, pelo
princípio fundamental da contagem: 3.3 = 32 = 9.

2.1.3. COMBINAÇÕES.

Existem certos arranjos onde a ordem entre os elementos não é importante, por exemplo, para
calcular a probabilidade de acertar a sena, a quina, etc. não é necessário saber a ordem em que os
números foram sorteados, mas apenas a combinação de números. Permutações (arranjos) onde a
ordem não interessa são denominadas de combinações.
O número de combinações de “n” objetos tomados em grupos de “r” é representado por C(n,r)
| |
O número de combinações, ou subconjuntos, de “n” objetos tomados em grupos de “r”, onde r
 n é dado por:
C(n, r) = P(n, r) / r! = n! / r!(n - r)!

Exemplo

Uma forma comum de pôquer consiste em mãos (conjuntos) de cinco cartas cada, retiradas de um
baralho padrão de 52 cartas. Quantas mãos diferentes são possíveis?

Solução:

Neste caso a ordem não é importante, pois uma dada mão de cartas depende apenas das cartas que
ela contém e não da ordem específica que elas foram dadas. Neste caso, então, aplica-se o conceito
de combinação:

Assim C(52, 5) = 52! / 5!.47! = 2 598 960.


2.2. PROBABILIDADE

A ciência manteve-se até pouco tempo atrás, firmemente apegada à lei da “causa e efeito”. Quando
o efeito esperado não se concretizava, atribuía-se o fato ou a uma falha na experiência ou a uma
falha na identificação da causa. Não poderia haver quebra da cadeia lógica. Segundo Laplace (Pierre
Simon) uma vez conhecidas a vizinhança, a velocidade e a direção de cada átomo no universo,
poder-se-ia, a partir daí, predizer com certeza, o futuro até a eternidade.
Sabe-se hoje, através do princípio da incerteza , que não é bem assim. Que não existem meios que
permitam determinar os movimentos dos elétrons individuais se conhecido a sua velocidade,
conforme o estabelecido em 1927, pelo físico alemão W. Heinsenberg.

2.2.1. MODELOS

Conforme J. Neymann, toda a vez que se emprega Matemática com a finalidade de estudar algum
fenômeno deve-se começar por construir um modelo matemático. Este modelo pode ser:
determinístico ou então probabilístico.

2.2.1.1. MODELO DETERMÍNISTICO

Neste modelo as condições sob as quais o experimento é executado, determinam o resultado do


experimento. Tome-se, por exemplo, a lei de Ohm, V = I.R. Se R e I forem conhecidos, então V estará
precisamente determinado.

2.2.1.2. MODELO NÃO-DETERMINÍSTICO OU PROBABILÍSTICO

É um modelo em que de antemão não é possível explicitar ou definir um resultado particular. Este
modelo é especificado através de uma distribuição de probabilidade. É utilizado quando se tem um
grande número de variáveis influenciando o resultado e estas variáveis não podem ser controladas.
Tome-se por exemplo, o lançamento de um dado onde se tenta prever o número da face que irá
sair, a retirada de uma carta de um baralho, etc.

O modelo estocástico é caracterizado como um modelo probabilístico que depende ou varia com o
tempo.

2.2.2. EXPERIMENTO ALEATÓRIO (NÃO-DETERMINÍSTICO)

Não existe uma definição satisfatória de Experimento Aleatório. Por isto é necessário ilustrar o
conceito um grande número de vezes para que a idéia fique bem clara. Convém lembrar que os
exemplos dados são de fenômenos para os quais modelos probabilísticos são adequados e que por
simplicidade, são denominados de experimentos aleatórios, quando, de fato, o que deveria ser dito
é “modelo não-determinístico aplicado a um experimento”.

Ao descrever um experimento aleatório deve-se especificar não somente que operação ou


procedimento deva ser realizado, mas também o que é que deverá ser observado. Note-se a
diferença entre E2 e E3.

E1: Joga-se um dado e observa-se o número obtido na face superior.

E2: Joga-se uma moeda 4 vezes e o observa-se o número de caras obtido.

E3: Joga-se uma moeda 4 vezes e observa-se a seqüência de caras e coroas.


E4: Um lote de 10 peças contém 3 defeituosas. As peças são retiradas uma a uma (sem reposição)
até que a última defeituosa seja encontrada. Conta-se o número de peças retiradas.
E5: Uma lâmpada nova é ligada e observa-se o tempo gasto até queimar.
E6: Lança-se uma moeda até que ocorra uma cara e conta-se então o número de lançamentos
necessários.
E7: Lançam-se dois dados e anota-se o total de pontos obtidos.
E8: Lançam-se dois dados e anota-se o par obtido.

Características dos Experimentos Aleatórios


Observando-se os exemplos acima pode-se destacar algumas características comuns:

• Podem ser repetidos indefinidamente sob as mesmas condições.

• Não se pode adiantar um resultado particular, mas pode-se descrever todos os resultados
possíveis

• Se repetidos muitas vezes apresentarão uma regularidade em termos de frequência de


resultados.

2.2.3. O ESPAÇO AMOSTRAL

DEFINIÇÃO
É o conjunto de todos os resultados possíveis de um experimento aleatório. Anota-se por S, E ou .

Exemplo
Determinar o espaço amostra dos experimentos anteriores. Si refere-se ao experimento Ei.
S1 = { 1, 2, 3, 4, 5, 6 }
S2 = { 0, 1, 2, 3, 4 }
S3 = { cccc, ccck, cckc, ckcc, kccc, cckk, kkcc, ckck, kckc, kcck, ckkc, ckkk, kckk, kkck, kkkc, kkkk}
S4 = { 3, 4, 5, 6, 7, 8, 9 , 10 }
S5 = { t  / t  0}
S6 = { 1, 2, 3, 4, 5,... }
S7 = { 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12 }
S8 = { (1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6)
(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6)
(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6)
(4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6)
(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6)
(6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6) }

Ao descrever um espaço amostra de um experimento, deve-se ficar atento para o que se


estáobservando ou mensurando. Deve-se falar em “um” espaço amostral associado a um
experimento e não de “o” espaço amostral. Deve-se observar ainda que nem sempre os elementos
de um espaço amostral são números.

CLASSIFICAÇÃO DE UM ESPAÇO AMOSTRA

Um espaço amostral, conforme exemplos anteriores pode ser classificado em:

(a) Finito. São os espaços: S1, S2, S3, S4, S7 e S8

(b) Infinitos. (i) Enumeráveis (ou contáveis): S6

(ii) Não-enumeráveis (ou não contáveis): S5

2.2.4. EVENTOS

DEFINIÇÃO: Qualquer subconjunto se um espaço amostra S é denominado evento.

Assim tem-se que:

S é o evento certo;

{ a } é o evento elementar e

 é o evento impossível.

Convém observar que tecnicamente todo subconjunto de um espaço amostra é um evento apenas
quando ele for finito ou, então, infinito enumerável. Se o espaço amostra é infinito não enumerável
é possível construir subconjuntos que não são eventos. Se S é finito, isto é, #(S) = n então o número
de eventos possíveis é #P(A) = 2n.
2.2.4.1. COMBINAÇÃO DE EVENTOS
Pode-se realizar operações entre eventos da mesma forma que elas são realizadas entre con- juntos.
Antes de definir as operações é conveniente conceituar o que se entende por ocorrência de um
evento.

Seja E um experimento com um espaço amostra associado S. Seja A um evento de S. É dito que o
evento A ocorre se realizada a experiência, isto é, se executado E, o resultado for um elemento de A.

Sejam A e B dois eventos de um mesmo espaço amostra S. Diz-se que ocorre o evento:

1. A união B ou A soma B, anotado por AB, se e somente se A ocorre ou B ocorre.

AB

2. A produto B ou A interseção B, anotado por AB ou AB, se e somente A ocorre e B ocorre

AB

3. A menos B ou A diferença B, anota-se A - B, se e somente se A ocorre e B não ocorre.

A-B

4. O complementar de A, anotado por A, AC ou ainda A’ se e somente se A não ocorre.

A'

5. EVENTOS MUTUAMENTE EXCLUDENTES: Dois eventos A e B, são denominados mutuamente


exclusivos ou excludentes, se eles não puderem ocorrer juntos, isto é, se AB = .
2.2.3. CONCEITOS DE PROBABILIDADE
Existem três formas de se definir probabilidade. A definição clássica, a definição freqüencial e a
definição axiomática.

2.2.3.1. DEFINIÇÃO CLÁSSICA DE PROBABILIDADE

Seja E um experimento aleatório e S um espaço amostra associado formado por “n” resultados
igualmente prováveis. Seja A  S um evento com “m” elementos. A probabilidade de A, anotada
por P(A), lê-se pe de A, é definida como sendo:

P(A) = m / n

Isto é, a probabilidade do evento A é o quociente entre o número “m” de casos favoráveis e o


número “n” de casos possíveis.

Exemplo

Calcular a probabilidade de no lançamento de um dado equilibrado obter-se:

(c) Um resultado igual a 4.

(d) Um resultado ímpar.

Solução:

S = { 1, 2, 3, 4, 5, 6 } n = #(S) = 6

(a) A = { 4 } m = #(A) = 1 então P(A) = m / n = 1 / 6 = 16,67%

(b) B = { 1, 3, 5 } m = #(B) = 3 então P(B) = m / n = 3 / 6 = 50%

Crítica à definição clássica

i. A definição clássica é dúbia, já que a ideia de “igualmente provável” é a mesma de “com


probabilidade igual”, isto é, a definição é circular, porque está definindo essencialmente a
probabilidade com seus próprios termos.

ii. A definição não pode ser aplicada quando o espaço amostral é infinito.

2.2.3.2. A DEFINIÇÃO DE PROBABILIDADE COMO FREQÜÊNCIA RELATIVA

Na prática acontece que nem sempre é possível determinar a probabilidade de um evento. Neste
caso é necessário ter um método de aproximação desta probabilidade. Um dos métodos utilizados
é a experimentação que objetiva estimar o valor da probabilidade de um evento A com base em
valores reais. A probabilidade avaliada através deste processo é denominada de probabilidade
empírica.
2.2.3.2.1. Freqüência relativa de um evento

Seja E um experimento e A um evento de um espaço amostra associado ao experimento E. Suponha-


se que E seja repetido “n” vezes e seja “m” o número de vezes que A ocorre nas “n” repetições de
E. Então a freqüência relativa do evento A, anotada por frA, é o quociente:

frA = m / n = (número de vezes que A ocorre) / (número de vezes que E é repetido)

Exemplo
• Uma moeda foi lançada 200 vezes e forneceu 102 caras. Então a frequência relativa de
“caras” é: frA = 102 / 200 = 0,51 = 51%

• Um dado foi lançado 100 vezes e a face 6 apareceu 18 vezes. Então a frequência relativa
do evento A = { face 6 } é: frA = 18 / 100 = 0,18 = 18%

2.2.3.2.2. Propriedades da freqüência relativa

Seja E um experimento e A e B dois eventos de um espaço amostra associado S. Sejam fr A e frB as


freqüências relativas de A e B respectivamente. Então.

i. 0  frA  1, isto é, a frequência relativa do evento A é um número que varia entre 0 e 1.

ii. frA = 1 se e somente se, A ocorre em todas as “n” repetições de E.

iii. frA = 0, se e somente se, A nunca ocorre nas “n” repetições de E.

iv. frAUB = frA + frB se A e B forem eventos mutuamente excludentes.

Definição

Seja E um experimento e A um evento de um espaço amostra associado S. Suponhamos que E é


repetido “n” vezes e seja frA a freqüência relativa do evento. Então a probabilidade de A é definida
como sendo o limite de frA quando “n” tende ao infinito.

Deve-se notar que a freqüência relativa do evento A é uma aproximação da probabilidade de A. As


duas se igualam apenas no limite. Em geral, para um valor de n, razoavelmente grande a fr A é uma
boa aproximação de P(A).

Crítica à definição freqüencial

Esta definição, embora útil na prática, apresenta dificuldades matemáticas, pois o limite pode não
existir. Em virtude dos problemas apresentados pela definição clássica e pela definição freqüencial,
foi desenvolvida uma teoria moderna, na qual a probabilidade é um conceito indefinido, como o
ponto e a reta o são na geometria.
2.2.4. DEFINIÇÃO AXIOMÁTICA DE PROBABILIDADE

Seja E um experimento aleatório com um espaço amostra associado S. A cada evento A  S associa-
se um número real, representado por P(A) e denominado “probabilidade de A”, que satisfaz as
seguintes propriedades (axiomas):

(i) 0  P(A)  1;

(ii) P(S) = 1;

(iii) P(AUB) = P(A) + P(B) se A e B forem eventos mutuamente excludentes.

(iv) Se A1, A2, ..., An, ..., forem, dois a dois, eventos mutuamente excludentes, então:

2.2.5. PROBABILIDADE CONDICIONADA E INDEPENDÊNCIA

Suponha-se que se quer extrair duas peças ao acaso de um lote que contém 100 peças das quais 80
peças são boas e 20 defeituosas, de acordo com os critérios (a) com reposição e (b) sem reposição.
Define-se os seguintes eventos:

A = { A primeira peça é defeituosa } e B = { A segunda peça é defeituosa }.

Então, se a extração for com reposição P(A) = P(B) = 20 / 100 = 1 / 5 = 20%, porque existem 20 peças
defeituosas num total de 100.

Agora se a extração for sem reposição tem-se ainda que P(A) = 20 / 100 = 20%, mas o mesmo não é
verdadeiro para P(B). Neste caso, é necessário conhecer a composição do lote no momento da
extração da segunda peça, isto é, é preciso saber se a primeira peça retirada foi ou não defeituosa.
Neste caso é necessário saber se A ocorreu ou não. O que mostra a necessidade do conceito de
proba- bilidade condicionada.

2.2.5.1. DEFINIÇÃO

Sejam A e B dois eventos de um espaço amostra S, associado a um experimento E, onde P(A) > 0. A
probabilidade de B ocorrer condicionada a A ter ocorrido, será representada por P(B/A), e lida como:
“probabilidade de B dado A” ou “probabilidade de B condicionada a A”, e calculada por:

P(B/A) = P(AB) / P(A)

No exemplo acima, então P(B/A) = 19 / 99, pois se A ocorreu (isto é, se saiu peça defeituosa na
primeira retirada) existirão na urna apenas 99 peças das quais 19 defeituosas.
Sempre que se calcular P(B/A) está se calculando a probabilidade de ocorrência do evento B em
relação ao espaço amostra reduzido A, ao invés de fazê-lo em relação ao espaço amostral original
S.

Quando se calcula P(B) está se calculando a probabilidade de estar em B, sabendo-se que se está
em S, mas quando se calcula P(B/A) está calculando a probabilidade de B, sabendo-se que se está
em A agora e não mais em S, isto é, o espaço amostra fica reduzido de S para A.

É simples verificar as seguintes propriedades de P(B/A) para A fixado:

(i) 0  P(B/A)  1,

(ii) P(S/A) = 1,

(iii) P(B1B2/A) = P(B1 / A) + P(B2 / A) se B1 B2 = 

(iv) P(B1B2 ..../A) = P(B1/A) + P(B2/A) + ... se Bi Bj =  para i  j. Observe-se que estas propriedades
são idênticas aos axiomas de probabilidade.
Pode-se também comparar P(A/B) e P(A). Para tanto considere-se os quatro casos ilustrados nos
diagramas abaixo:

Tem-se:

(a) P(A/B) = 0, porque A não poderá ocorrer se B tiver ocorrido.

(b) P(A/B) = P(AB) / P(B) = [P(A) / P(B)]  P(A), já que P(A)  P(B), pois A  B.

(c) P(A/B) = P(AB) / P(B) = [P(B) / P(B)] = 1  P(A).

(d) Neste caso nada se pode afirmar sobre o relacionamento entre P(A/B) e P(A).

a) AB = Æ (b) A  B (c) B  A (d) Caso geral

B A
B
A B A B

2.2.6. TEOREMA DA MULTIPLICAÇÃO

Com o conceito de probabilidade condicionada é possível apresentar uma maneira de se calcular a


probabilidade da interseção de dois eventos A e B em função destes eventos. Esta expressão é
denominada de teorema da multiplicação. P(AB) = P(A).P(B/A) = P(A/B).P(B)

2.2.7. INDEPENDÊNCIA DE DOIS EVENTOS


Sejam A e B dois eventos de um espaço amostra S. A e B são ditos independentes se a probabilidade
de um deles ocorrer não afetar a probabilidade do outro ocorrer, isto é, se:

P(A/B) = P(A) ou
P(B/A) = P(B) ou ainda se
P(AB) = P(A) . P(B)

Qualquer uma das 3 relações acima pode ser usada como definição de independência.

Exemplo

Três componentes C1, C2, e C3, de um mecanismo são postos em série (em linha reta). Suponha que
esses componentes sejam dispostos em ordem aleatória. Seja R o evento { C2 está à direita de C1 },
e seja S o evento { C3 está à direita de C1 }. Os eventos R e S são independentes? Por quê?

Solução:

Para que R e S sejam independentes deve-se ter: P(RS) = P(R).P(S).


O espaço amostra para este caso é:

S = { C1C2C3, C1C3C2, C2C1C3, C2C3C1, C3C1C2, C3C2C1 }

As seqüências em que C2 está à direita de C1 são:

R = { C1C2C3, C1C3C2, C3C1C2 }. Logo: P(R) = 3/6 = 50%

As seqüências em que C3 está à direita de C1 são:

S = { C1C2C3, C1C3C2, C2C1C3 }. Logo P(S) = 3/6 = 50%


As seqüências em que C2 está à direita de C1 e C3 está também à direita de C1 são:
RS = { C1C2C3, C1C3C2 }. Logo P(RS ) = 2/6 = 1/3 = 33,33%  P(R).P(S) = 0.5.0,5 = 0,25 = 25%
Portanto os eventos R e S não são independentes.

2.2.8. TEOREMAS DA PROBABILIDADE TOTAL E DE BAYES

O conceito de probabilidade condicionada pode ser utilizado para calcular a probabilidade de um


evento simples A ao invés da probabilidade da interseção de dois eventos A e B. Para tanto é
necessário o conceito de partição de um espaço amostra.

Definição

Diz-se que os conjuntos A1, A2, ..., An eventos de um mesmo espaço amostra S, formam uma partição
deste espaço se:

(a) Ai  Aj = , para todo i  j.


(b) A1  A2 ...  An = S

(c) P(Ai) > 0, para todo i

Exemplo

Considere-se o espaço amostra obtido pelos números das faces no lançamento de um dado
equilibrado e sejam os eventos:

A1 = { 1, 2, 3 }, A2 = { 4, 5 } e A3 = { 6 }

Então, pode-se verifica facilmente que, os eventos acima formam um partição do espaço amostra S
= { 1, 2, 3, 4, 5, 6 }.

2.2.8.1. Teorema da probabilidade total

Considere-se um espaço amostra S e A1, A2, ..., An uma partição deste

espaço amostra. Seja B um evento de S. Então B, pode ser escrito como

(A figura ilustra a partição com n = 8):

B = (B  A1)  (B  A2)  ...  (B  An)

É claro que, alguns destes conjuntos B  Aj, poderão ser vazios, mas isto não representa nenhum
problema na decomposição de B. O importante é que todos os conjuntos B  A1, B  A2, ..., B  An
são dois a dois mutuamente excludentes. E por isto, pode-se aplicar a propriedade da adição de
eventos mutuamente excludentes e escrever.

P(B) = P[(B  A1)  (B  A2)  ...  (B  An)] = P(B  A1) + P(B  A2) + ... + P(B  An)

Mas cada um dos termos P(B  Aj) pode ser escrito na forma:

P(B  Aj) = P(Aj).P(B/Aj), pela definição de probabilidade condicionada, obtém-se então o


denominado teorema da probabilidade total:

P(B) = P(A1).P(B/A1) + P(A2).P(B/A2) + ... + P(An).P(B/An

Exemplo

Uma determinada peça é manufaturada por 3 fábricas: A, B e C. Sabe-se que A produz o dobro de
peças que B e que B e C produzem o mesmo número de peças. Sabe-se ainda que 2% das peças
produzidas por A e por B são defeituosas, enquanto que 4% das produzidas por C são defeituosas.
To- das as peças produzidas são misturadas e colocadas em um depósito. Se do depósito for retirada
uma peça ao acaso, qual a probabilidade de que ela seja defeituosa?

Solução:
Considerem-se os seguintes eventos:

D = { A peça é defeituosa }, A = { A peça provém da fábrica A }, B = { A peça provém da máquina B }


e C = { A peça provém da máquina C }.

Tem-se então que: P(A) = 50%, P(B) = P(C) = 25%, uma vez que só existem as 3 fábricas e que A
produz o dobro de B e esta por sua vez produz a mesma quantidade que C. Sabe-se também que
P(D/A) = P(D/B) = 2% e que P(D/C) = 4%.

Pela teorema da probabilidade total pode-se escrever que:

P(D) = P(A).P(D/A) + P(B).P(D/B) + P(C).P(D/C) = 0,5.0,02 + 0,25.0,02 + 0,25.0,04 = 2,50%, pois A, B e


C formam uma partição do espaço amostra S.

2.2.8.2. Teorema de Bayes

Suponha-se que no exemplo acima, uma peça é retirada do depósito e se verifica que é defeituosa.
Qual a probabilidade de que tenha sido produzida pela fábrica A? ou B? ou ainda C?

Neste caso, o que se quer calcular é a probabilidade condicionada P(A/D).

Pela notação já vista acima, e generalizando a questão o que se está interessado em obter é a
probabilidade de ocorrência de um dos Ai dado que B ocorreu, isto é, o que se quer é saber o valor
de P(Ai / B), onde os eventos A1, A2, ..., An formam uma partição de S e B é um evento qualquer de
S.

Aplicando a definição de probabilidade condicionada segue que:

P(Ai / B) = P(Ai  B) / P(B) = P(Ai).P(B / Ai) / P(B), onde P(B) é avaliado pelo teorema da probabilidade
total. Este resultado é conhecido como teorema de Bayes. Assim:

P(Ai / B) = P(Ai).P(B / Ai) / [P(A1).P(B/A1) + P(A2).P(B/A2) + ... + P(An).P(B/An)]

Exemplo

Considerando a pergunta acima vem então:

P(A / D), isto é a probabilidade de ter sido produzida pela máquina A dado que a peça é defeituosa
é: P(A / D) = P(A). P(D / A) / P(D) = 0,02.0,50 / (0,5.0,02 + 0,25.0,02 + 0,25.0,04) = 0,40 = 40%

2.9. DISTRIBUIÇÕES DE PROBABILIDADE

2.9.1. DISTRIBUIÇÕES ESPECIAIS DE PROBABILIDADE DISCRETAS


Existem algumas distribuições de probabilidade para variáveis discretas que pela sua freqüência de
uso vale a pena estudar mais detalhadamente. Estas distribuições apresentam expressões para o
cálculo das probabilidades, isto é, as probabilidades f(x) podem ser avaliadas através de um modelo
matemático conhecido. Uma destas distribuições é a Binomial.

2.9.1.1. A DISTRIBUIÇÃO BINOMIAL

Seja E um experimento aleatório e S um espaço amostra associado. Seja A  S um evento de S. Seja


“n” o número de vezes que o experimento E é repetido e seja “p” a probabilidade de A ocorrer em
cada uma das “n” repetições de E, de modo que, “p“ permaneça constante durante as “n” repetições
de E. Como existem apenas duas situações: A ocorre ou A não ocorre, pode-se determinar a
probabilidade de A não ocorrer como sendo q = 1 - p. Em certas situações a probabilidade “p” é
denominada de probabilidade de “sucesso” e a probabilidade “q” de probabilidade de fracasso.

Definição:

Seja X uma VAD definida por X = número de vezes que A ocorreu nas “n” repetições de E. A variável
aleatória X é denominada de variável aleatória Binomial. O conjunto de valores de X, isto é, X(S) é:
X(S) = { 0, 1, 2, 3, ..., n }

Teorema:

Se X é uma variável aleatória com um comportamento Binomial, então a probabilidade de X assumir


um dos valores do conjunto X(S) é calculada por:
f(x) = P(X = x) = f(x) = P(X = x) = (𝑛𝑥). 𝑝 𝑥 . 𝑞 𝑛−𝑥 , para x = 1, 2,... n.

Exemplo
Considerando X como sendo a VAD igual a “número de vezes que ocorre face cara em 5 lançamentos
de uma moeda não viciada”, determinar a probabilidade de ocorrer:
(a) Duas caras
(b) Quatro caras
(c) No máximo duas caras

Solução:

Neste caso, tem-se:

n = 5 = número de lançamentos.

X = número de caras nos 5 lançamentos → X(S) = { 0, 1, 2, 3, 4, 5 }

p = P(Cara em 1 lançamento ) = 0,50, pois a moeda é não viciada. Logo q = 1 - p = 0,50.

Então:
𝐟(𝐱) = 𝐏(𝐗 = 𝐱) = (𝟓𝒙). 𝟎, 𝟓𝒙 . 𝟎, 𝟓𝒏−𝒙 , para x = 1, 2, 3, 4, 5.

𝐚) 𝐏(𝐗 = 𝟐) = (𝟓𝟐). 𝟎, 𝟓𝟐 . 𝟎, 𝟓𝟑 = 𝟏𝟎 . 0,25 . 0,125 = 31,25%

𝐛) 𝐏(𝐗 = 𝟒) = (𝟓𝟒). 𝟎, 𝟓𝟒 . 𝟎, 𝟓𝟏 = 𝟓 . 0,0625 . 0,5 = 15,62%

𝐜) 𝐏(𝐗 ≤ 𝟐) = (𝟓𝟎). 𝟎, 𝟓𝟎 . 𝟎, 𝟓𝟓 + (𝟓𝟏). 𝟎, 𝟓𝟏 . 𝟎, 𝟓𝟒 + (𝟓𝟐). 𝟎, 𝟓𝟐 . 𝟎, 𝟓𝟑 = 𝟎, 𝟓𝟓 + 𝟓 . 𝟎, 𝟓𝟓 + 10 .


𝟎, 𝟓𝟓 = 50%

2.9.2. DISTRIBUIÇÕES ESPECIAIS DE PROBABILIDADE CONTÍNUAS

Assim como ocorre com as variáveis discretas, existem algumas distribuições especiais de
probabilidade contínuas que por sua frequência de uso vale a pena estudar mais detalhadamente.
Entre elas vale destacar a distribuição normal.

2.9.2.1. A DISTRIBUIÇÃO NORMAL

Um dos principais modelos de distribuição contínua é a curva normal ou de Gauss. Sua importância
para a Estatística (prática) reside no fato que muitas variáveis encontradas na natureza se
distribuem de acordo com o modelo normal. Uma variável aleatória contínua X tem uma
distribuição normal se sua função densidade de probabilidade for do tipo:

𝟏 𝟏 𝒙−𝝁
f(𝒙) = exp [− ( ) ²]
√𝟐𝝅𝝈² 𝟐 𝝈

A distribuição é normal quando tem a forma de "sino":

Para achar a área sob a curva normal devemos conhecer dois valores numéricos, a média e o desvio
padrão. A Figura a seguir mostra algumas áreas importantes:

Para cada valor de 𝝁 e/ou 𝝈 temos uma curva de distribuição de probabilidade. Porém, para se
calcular áreas específicas, faz-se uso de uma distribuição particular: a "distribuição normal
padronizada", também chamada de Standartizada ou reduzida, o qual é a distribuição normal com
𝝁 = 0 e 𝝈 = 1. Para obter tal distribuição, isto é, quando se tem uma variável X com distribuição
normal com média 𝝁 diferente de 0 (zero) e/ou desvio padrão 𝝈 diferente de 1 (um), devemos
reduzi-la a uma variável Z, efetuando o seguinte cálculo:

𝒙 −𝒖
Z= 𝝈

Por ser uma distribuição muito usada, existem tabelas a qual encontramos a resolução de suas
integrais. Assim, a tabela fornece áreas acima de valores não negativos que vão desde 0,00 até 4,09.

Exemplo:

Suponha que o peso médio de 800 porcos de uma certa fazenda é de 64kg, e o desvio padrão é de
15kg. Supondo que este peso seja distribuído de forma normal, quantos porcos pesarão entre 42kg
e 73kg.

Solução:
𝑥 −64
Para resolvermos este problema primeiramente devemos padronizá-lo, ou seja, Z = 15
42 −64
Então o valor padronizado de 42kg é de Z = ≈ - 1,47
15

e usando mesma fórmula o de 73kg é de aproximadamente 0,6.

Assim a probabilidade é de

P (-1,47 ≤ Z ≤ 0,6) → P (Z ≤ 0,6) – P(Z ≤ - 1,47) = 0,7257 – 0,0708 = 0,6549

Portanto, o número aproximado que se espera de porcos entre 42kg e 73kg é 800 . 0,6549 ≈ 524
3. INTERVALO DE CONFIANÇA
3.1 ESTIMAÇÃO
A inferência estatística tem por objetivo fazer generalizações sobre uma população com base
em valores amostrais. A inferência pode ser feita estimando os parâmetros:
(a) Por ponto
(b) Por intervalo.
A estimação por ponto é feita através de um único valor, enquanto que a estimação por intervalo
fornece um intervalo de valores em torno do valor da estimativa pontual.
Exemplo:
Uma amostra aleatória simples de 400 pessoas de uma cidade é extraída e 300 respondem que
acham a administração municipal boa ou ótima. Então o valor p = 300/400 = 75% é uma estimativa
por ponto do percentual de pessoas da cidade que acham a administração boa ou ótima. Esta
mesma estimativa poderia ser enunciada como de: 70% a 80% das pessoas da cidade acham a
administração boa ou ótima. Neste caso, teríamos uma estimativa por intervalo da proporção. Note-
se que o centro do intervalo é o valor “75%” da estimativa pontual.

3.1.1. PROPRIEDADES DOS ESTIMADORES


Seja X uma população com um parâmetro de interesse  e seja (X1, X2, ..., Xn) uma amostra aleatória

simples extraída desta população. Seja ̂ um estimador do parâmetro . Então:

• Se E( ̂ ) =  se dirá que ̂ é um estimador não tendencioso ou não viciado do parâmetro

populacional . Neste caso, a média do estimador ̂ é o parâmetro populacional , ou ainda,


pode-se dizer que o estimador varia em torno do parâmetro populacional.

• Se ̂ é um estimador não tendencioso de um parâmetro , se dirá que ̂ é consistente se à


medida que o tamanho da amostra aumenta a variabilidade do estimador diminui, isto é, as
observações vão ficando cada vez mais concentradas em torno do parâmetro na medida em
que a amostra vai ficando cada vez maior.

3.1.2. ESTIMAÇÃO POR INTERVALO


O estimador por ponto não permite ter uma idéia do erro cometido ao se fazer a estimativa do
parâmetro. Para que se possa associar uma confiança (probabilidade) a uma estimativa é necessário
construir um intervalo em torno da estimativa por ponto. Este intervalo é construído baseado na
distribuição amostral do estimador.
3.1.2.1. Da média populacional
(a) Desvio padrão populacional () conhecido
O intervalo de confiança para a média () de uma população é construído em torno da estimativa
pontua X. Para construir este intervalo fixa-se uma probabilidade “1 - “ de que o intervalo
construído contenha o parâmetro populacional. Desta forma, ““ será a probabilidade de que o
intervalo obtido não contenha o valor do parâmetro, isto é, ““ será a probabilidade de erro. Sabe-
se que a média da amostra tem distribuição normal de média  e desvio padrão  se a população
de onde n for extraída a amostra for normal (ou se a amostra for superior a 30 e retirada de qualquer
população ) de média  e de desvio padrão , pode-se então utilizar a curva normal para estabelecer
os limites para o intervalo de confiança.
Lembrando que o que se quer é um intervalo que contenha o parâmetro populacional  com
probabilidade “1 - “ tem-se então:

Exemplo:
Uma população tem um desvio padrão igual a 10 e média desconhecida. Uma amostra de
tamanho n = 100 é retirada e fornece uma média x = 50. Qual o intervalo de 95% de confiança
para a média desta população?
Solução:
Tem-se 1 -  = 95%, então  = 5% e  / 2 = 2,5%. O coeficiente de confiança que deve ser buscado
na normal padrão é valor z/2 de Z tal que:
P(Z > z/2) = 2,5%, ou então: (-z/2) = 2,5%.
Este valor vale 1,96. Então o intervalo de confiança de 95% para a média desta população será,
conforme a fórmula: [50 – 1,96; 50 + 1,96] = [48,04; 51,96], ou seja, pode-se afirmar com uma
certeza de 95% de que este intervalo conterá a média desta população.

(b) Desvio padrão populacional () desconhecido


Quando o desvio padrão da população () é desconhecido é necessário utilizar sua estimativa “s”.
Só que ao substituir-se o desvio padrão populacional pelo sua estimativa no quociente não se terá
mais uma normal padrão. De fato, conforme demonstrado pelo estatístico inglês W. S. Gosset,
conhecido por “Student” o comportamento do quociente segue uma distribuição simétrica em
torno de zero, porém com uma variabili dade maior do que a da normal padrão. A distribuição do
quociente acima é conhecida como distribuição “t” de Student.
Na realidade existem infinitas distribuições “t”, uma para cada tamanho de amostra. Estas
distribuições a exemplo da normal padrão encontram-se tabeladas.
A tabela para a distribuição “t” segue uma metodologia um pouco diferente daquela da normal
padrão. De fato, como existem muitas distribuições de Student não seria possível tabelá-las da
mesma forma que a da normal padrão. Assim cada linha de uma tabela representa uma distribuição
diferente e cada coluna representa um valor de confiança que poderá ser ““ ou “/2”, isto é, a
tabela poderá ser unilateral ou bilateral. A linha de cada tabela fornece a distribuição “t” com
parâmetro “n - 1” denomi- nado de graus de liberdade, isto é, o grau de liberdade =  = n - 1 = linha
da tabela. Neste caso, o intervalo de confiança com probabilidade “1 - “ para a média será:
P(- t/2 < t < t/2) = 1 - .
Exemplo:
Uma amostra de tamanho 25 foi retirada de uma população com o objetivo de estimar a sua média
e forneceu os valores x = 50 e s = 10. Qual o intervalo de 95% de confiança para a média desta
população?
Solução:
Tem-se 1 -  = 95%, então  = 5% e  / 2 = 2,5%. O coeficiente de confiança que deve ser buscado
na distribuição t com  = n - 1 = 25 - 1 = 24. Esta é a linha da tabela. A coluna poderá ser o valor  =
5% ou então o valor  / 2 = 2,5%, dependendo do tipo de tabela. Em qualquer caso o que se procura
é o valor “t” com grau de liberdade igual a 24, isto é, o valor t24 tal que: P(- t/2 < t24 < t/2) = 95%
Este valor vale 2,064. (Note-se que na a normal este mesmo valor valia 1,96). Então o intervalo de
confiança de 95% para a média desta população será:
[50 - 2,064.10/5; 50 + 2,064.10/5] = [50 - 4,13; 50 + 4,13] = [45,87; 54,13], ou seja, pode-se afirmar
com uma certeza de 95% de que este intervalo conterá a média desta população.
Convém notar que a última linha da tabela da distribuição “t” apresenta valores coincidentes com
aqueles que seriam obtidos se fosse utilizado a distribuição normal padrão. Isto ocorre porque a
distribuição “t” tende a distribuição normal à medida que o tamanho da amostra aumenta, isto é, a
distribuição normal é o limite da distribuição “t” quando o tamanho da amostra tende ao infinito.
Esta aproximação já será bastante boa para amostras de tamanho n > 30. Assim se a amostra for
superior a 30 pode-se utilizar a distribuição normal ao invés da distribuição “t”, isto é, pode-se ler
os valores na normal padrão, ou então na última linha da tabela “t”.
3.1.2.2 Da proporção populacional
Seja P = proporção amostral. Sabe-se que para n > 30 a distribuição amostral de P é
aproximadamente normal com média P =  e desvio padrão (erro padrão) . Pode-se então utilizar
a curva normal para estabelecer os limites para o intervalo de confiança.
Lembrando que o que se quer é um intervalo que contenha o parâmetro populacional  com
probabilidade “1 - “ então tem-se:
P(-z/2 < Z < z/2) = 1 - , onde z/2 é o valor da normal padrão com área à direita é igual a /2.
Mas Z = (P- P) / P então substituindo na expressão acima vem:
P(-z/2 < (P - P) / P < z/2 ) = 1 - . Trabalhando esta desigualdade, segue que:
P(P - z/2P < P <P + z/2P) = P(P - z/2P < <P + z/2P) = 1 - . Que é o intervalo procurado. Assim
o intervalo de confiança (probabilidade) de “1 - “ para a proporção “P” de uma população é dado
por:

z/2 é o valor da distribuição normal padrão cuja área à direita é igual a /2. É o valor de Z tal que:
P(Z > z/2) = /2, ou então: (-z/2) = /2.
Exemplo:
Numa pesquisa de mercado, 400 pessoas foram entrevistadas sobre sua preferência por
determinado produto. Destas 400 pessoas, 240 disseram preferir o produto. Determinar um
intervalo de confiança de 95% de probabilidade para o percentual de preferência dos consumidores
em geral para este produto.
Solução:
Tem-se 1 -  = 95%, então  = 5% e  / 2 = 2,5%. O coeficiente de confiança que deve ser buscado
na normal padrão é valor z /2 de Z tal que:
P(Z > z/2) = 2,5%, ou então: (-z/2) = 2,5%.
Este valor vale 1,96. A estimativa por ponto para a proporção populacional será: p = f/n =
240/400 = 0,60 = 60%.
Então o intervalo de confiança de 95% para a proporção populacional será:

[P- z/2 P(1− P)


; P + z/2 P(1− P) ] = [0,60 - 1,96 0,60(1− 0,60) ; 0,60 + 1,96 0,60(1− 0,60) ]
n n 400 400
= [60% - 4,80% ; 60% + 4,80%] = [55,20%; 64,80%], ou seja, pode-se afirmar com uma certeza de
95% de que este intervalo conterá a proporção populacional, isto é, a verdadeira percentagem dos
consumidores que preferem o produto pesquisado.

4. TESTE DE HIPÓTESES
Um dos principais assuntos da Estatística moderna é a inferência estatística. A inferência estatística
é dividida em dois grandes tópicos: a estimação de parâmetros e os testes de hipóteses.
No desenvolvimento dos métodos da estatística moderna, as primeiras técnicas de inferência que
apareceram foram as que faziam diversas hipóteses sobre a natureza da população da qual se
extraíram os dados. Como os valores relacionados com a população são denominados
“parâmetros”, tais técnicas estatísticas foram denominadas de paramétricas.

4.1 METODOLOGIA DO TESTE DE HIPÓTESES


Nas ciências do comportamento, efetua-se levantamentos a fim de determinar o grau de aceitação
de hipóteses baseadas em teorias do comportamento. Formulada uma determinada hipótese
particular é necessário coletar dados empíricos e com base nestes dados decide-se então sobre a
validade ou não da hipótese. A decisão sobre a hipótese pode levar a rejeição, revisão ou aceitação
da teoria que a originou.
Para se chegar a conclusão que uma determinada hipótese deverá ser aceita ou rejeitada, baseado
em um particular conjunto de dados, é necessário dispor de um processo objetivo que permita
decidir sobre a veracidade ou falsidade de tal hipótese.
A objetividade deste processo deve ser baseada na informação proporcionada pelos dados, e como
estes dados, em geral, envolvem apenas parte da população que se pretende atingir, no risco que
se está disposto a correr de que a decisão tomada não esteja correta.
A metodologia para a decisão sobre a veracidade ou falsidade de uma determinada hipótese
envolve algumas etapas.
1. Definir a hipótese de igualdade (H0).
2. Escolher a prova estatística (com o modelo estatístico associado) para tentar rejeitar H0.
3. Definir o nível de significância () e um tamanho de amostra (n).
4. Determinar (ou supor determinada) a distribuição amostral da prova estatística sob a
hipótese de nulidade.
5. Definir a região de rejeição.
6. Calcular o valor da prova estatística, utilizando os valores obtidos na(s) amostra(s). Se tal
valor estiver na região de rejeição, rejeitar, então a hipótese nula, senão a decisão será que
a hipótese nula não poderá ser rejeitada ao nível de significância determinado.

4.2 AS HIPÓTESES
Uma hipótese estatística é uma suposição ou afirmação que pode ou não ser verdadeira, relativa a
uma ou mais populações. A veracidade ou falsidade de uma hipótese estatística nunca é conhecida
com certeza, a menos que, se examine toda a população, o que é impraticável na maior parte das
situações.
Desta forma, toma-se uma amostra aleatória da população de interesse e com base nesta amostra
é estabelecido se a hipótese é provavelmente verdadeira ou provavelmente falsa. A decisão de que
a hipótese é provavelmente verdadeira ou falsa é tomada com base em distribuições de
probabilidade denominadas de “distribuições amostrais”. Em estatística trabalha-se com dois tipos
de hipótese.
A hipótese nula é a hipótese de igualdade. Esta hipótese é denominada de hipótese de nulidade e
é representada por H0 (lê-se h zero). A hipótese nula é normalmente formulada com o objetivo de
ser rejeitada. A rejeição da hipótese nula envolve a aceitação de outra hipótese denominada de
alternativa. Esta hipótese é a definição operacional da hipótese de pesquisa que se deseja
comprovar. A natureza do estudo vai definir como deve ser formulada a hipótese alternativa. Por
exemplo, se o teste é do tipo paramétrico, onde o parâmetro a ser testado é representado por ,
então a hipótese nula seria: H0 : = 0 e as hipóteses alternativas seriam:
H1 :  = 1 (Hipótese alternativa simples) ou
H1:   0;  > 0 ou  < 0. (Hipóteses alternativas compostas)
No primeiro caso, H1:   0, diz-se que o teste é bilateral (ou bicaudal), se H1:  > 0, diz-se que o
teste é unilateral (ou unicaudal) à direita e se H1:  < 0, então, diz-se que o teste é unilateral (ou
unicaudal) à esquerda.

4.3. A ESCOLHA DO TESTE ESTATÍSTICO


Existem inúmeros testes estatísticos tanto paramétricos quanto não paramétricos. Alguns itens
devem ser levados em conta na escolha da prova estatística para determinada situação. A maneira
como a amostra foi obtida, a natureza da população da qual se extraiu a amostra e o tipo de
mensuração ou escala empregado nas definições operacionais das variáveis envolvidas, isto é, o
conjunto de valores numéricos e ainda o tamanho da amostra disponível.
Uma vez determinados a natureza da população e o método de amostragem ficará estabelecido o
modelo estatístico. Associado a cada teste estatístico tem-se um modelo estatístico e condições de
mensuração, o teste é válido sob as condições especificadas no modelo e pelo nível da escala de
mensuração. Nem sempre é possível verificar se todas as condições do modelo foram satisfeitas e
neste caso tem-se que admitir que estas condições foram satisfeitas. Estas condições do modelo
estatístico são denominadas suposições ou hipóteses do teste. Qualquer decisão tomada através de
um teste estatístico somente terá validade se as condições do modelo forem válidas.
É óbvio que quanto mais fracas forem as suposições do modelo mais gerais serão as conclusões. No
entanto, as provas mais poderosas, isto é, as que apresentam maior probabilidade de rejeitar H 0
quando for falsa, são as que exigem as suposições mais fortes ou mais amplas.

4.3.1. TESTES ESTATÍSTICOS PARAMÉTRICOS


Em termos gerais, uma hipótese é uma conjectura sobre algum fenômeno ou conjunto de fatos. Em
estatística inferencial o termo hipótese tem um significado bastante especifico. É uma conjectura
sobre uma ou mais parâmetros populacionais. O teste de hipóteses paramétrico envolve fazer
inferências sobre a natureza da população com base nas observações de uma amostra extraída
desta população.
Em outras palavras, testar hipóteses, envolve determinar a magnitude da diferença entre um valor
observado de uma estatística, por exemplo a proporção p, e o suposto valor do parâmetro () e
então decidir se a magnitude da diferença justifica a rejeição da hipótese. O processo segue o
esquema da figura 01.

Questionamento Decisão a ser tomada

 = 455
População Não rejeitar a hipótese
Valor hipotético
do parâmetro. Qual é a magnitude da
Diferença
diferença entre o valor
pequena
Selecionada observado da estatística e
Aleatoriamente o valor hipotético do Diferença grande
parâmetro?
Amostra
Valor observado Rejeitar a hipótese
da estatística. x = 435
Figura 01 - A lógica dos testes de hipóteses

4.4. ETAPAS DO TESTE DE HIPÓTESES


1. Formular as hipóteses.
Estabelecer as hipóteses nula e alternativa. A construção de um teste de hipóteses pode ser
colocado de forma geral do seguinte modo. Toma-se uma amostra da variável (ou das variáveis) X
(no caso) de uma dada população, de onde se tem uma hipótese sobre um determinado parâmetro,
por exemplo: . Esta hipótese é a hipótese nula ou hipótese de igualdade: H0:  = 0
Tendo formulado a hipótese nula é conveniente determinar qual será a hipótese aceita caso a
hipótese nula seja rejeitada, isto é, convém explicitar a hipótese alternativa. A hipótese alternativa
vai depender de cada situação mas de forma geral tem-se:
H1:  = 2 (hipótese simples), ou então o que é mais comum, hipóteses compostas: H1:  > 0
(teste unilateral ou unicaudal à direita)
 < 0 (teste unilateral ou unicaudal à esquerda)
  0 (teste bilateral ou bicaudal)as hipóteses são do tipo composto.
2. Estabelecer a estatística (estimador) a ser utilizado.
Após fixar as hipóteses é necessário determinar se a diferença entre a estatística amostral e o
suposto valor do parâmetro da população é suficiente para rejeitar a hipótese. A estatística utilizada
deve ser definida e sua distribuição teórica determinada.
3. Fixar o nível de significância do teste.
Fixar a probabilidade de ser cometer erro do tipo I, isto é, estabelecer o nível de significância do
teste. Fixado o erro do tipo I, é possível determinar o valor crítico, que é um valor lido na distribuição
amostral da estatística considerada (tabela). Este valor vai separar a região de crítica (de rejeição)
da região de aceitação.
4. Calcular a estatística teste (a estimativa).
Através da amostra obtida calcular a estimativa que servirá para aceitar ou rejeitar a hipótese nula.
Dependendo do tipo de hipótese alternativa este valor servirá para aceitar ou rejeitar H 0. O
procedimento é:
Teste estatístico = (Estatística - Parâmetro) / Erro padrão da Estatística
5. Tomar a decisão.
Se o valor da estatística estiver na região crítica rejeitar Ho, caso contrário, aceitar H0.
6. Formular a conclusão .
Com base na aceitação ou rejeição da hipótese nula, enunciar qual a decisão a ser tomada na
situação do problema.
4.5. TIPOS DE TESTES PARAMÉTRICOS
Os testes paramétricos podem ser divididos em testes para: Uma amostra; Duas amostras
independentes; Duas amostras emparelhadas (dependentes); Várias amostras (Análise de
Variância). Para nossa disciplina estudaremos os testes para uma amostra.

4.5.1. TESTES PARA UMA AMOSTRA


4.5.1.1. TESTE PARA A MÉDIA DE UMA POPULAÇÃO
(a)  conhecido
O teste para a média de uma população pode ser executado com qualquer tamanho de amostra se
soubermos que a população de onde for extraída a amostra segue uma distribuição normal. Se a
distribuição da população não for conhecida então é necessário trabalhar com amostras grandes
(pelo menos 30 elementos) para poder garantir a normalidade da média da amostra através do
teorema central do limite.
As hipóteses são:
H0:  = 0 contra
H1:  = 1 ou então, o que é mais comum:
H1:  > 0
 < 0
  0
A estatística teste utilizada aqui é a média da amostra: X . Esta média para ser comparada com o
valor tabelado, determinado em função da probabilidade do erro do tipo I, (isto é, o nível de
significância do teste), precisa ser primeiramente padronizada. Isto é feito, baseado no seguinte
resultado:
Se X é uma variável aleatória normal com média  e desvio padrão , então a variável:

Tem uma distribuição normal com média “0” e desvio padrão “1”. A variável resultante Z se encontra
tabelada. Qualquer livro de Estatística traz esta tabela que fornece os valores desta variável, para z
variando de -3,9 até 3,9 em intervalos de 0,1 (aproximação decimal), entre -3,9 e -3,0 e entre 3,0 e
3,9, e em intervalos de 0,01 (aproximação centesimal) para os valores entre -3,0 e 3,0.
Supondo-se fixado um nível de significância de  = P(Erro do Tipo I), verifica-se na tabela qual o valor
de z (no teste unilateral) ou z/2 (teste bilateral). Rejeita-se H0 (hipótese nula) se o valor de z
calculado na expressão acima for:
(i) Maior do que z (no teste unilateral à direita);
(ii) Menor do -z (no teste unilateral à esquerda) e
(iii) Maior que z/2 ou menor que -z/2 (no teste bilateral).

Tabela 03 - Valores de z para alguns níveis de significância

Nível de significância = P(Erro do Tipo I)


10% 5% 1%
Teste bilateral 1,64 1,96 2,57
Teste unilateral 1,28 1,64 2,33

Exemplo
A associação dos proprietários de indústrias metalúrgicas está preocupada com o tempo perdido
em acidentes de trabalho, cuja média, nos últimos tempos, tem sido da ordem de 60 hora /homens
por ano com desvio padrão de 20 horas/homem. Tentou-se um programa de prevenção de
acidentes e, após o mesmo, tomou-se uma amostra de 9 indústrias e mediu-se o número de
horas/homem perdidas por acidente, que foi de 50 horas. Você diria, ao nível de 5%, que há
evidência de melhoria?
Solução
As hipóteses a serem testadas são:
H0:  = 60 hora/homens
H1:  < 60 hora/homens
A evidência amostral para sugerir que a média baixou é dada através da amostra de n = 9
(elementos) que forneceu x = 50 horas/homens. Vamos testar se esta diferença de 10 horas/homens
é ou não significativa ao nível de 5%. Para isto é necessário padronizar o resultado amostral.
Z = (50 – 60) / 20 /√9) = - 1,50
Para saber se este valor (-1,50) é pouco provável é necessário compará-lo com o valor crítico - z
(pois se trata de um teste unilateral à esquerda), que neste caso vale -1,64, já que o nível de
significância foi fixado em 5%. Vê-se portanto que o valor amostral não é inferior ao valor crítico,
não estando portanto na região de rejeição. Isto quer dizer que a diferença apresentada na amostra
não é suficientemente grande para provar que a campanha de prevenção deu resultado. Então a
conclusão é:
“Não é possível ao nível de 5% de significância afirmar que a campanha deu resultado, isto é, rejeitar
H0. ”
Convém lembrar que o fato de não rejeitar a hipótese nula, não autoriza a fazer afirmações a
respeito da veracidade dela. Ou seja, não se provou H0, pois no momento que se aceita a hipótese
nula, o risco envolvido é o do Tipo II, e este neste caso não está fixado (controlado). O teste de
hipóteses é feito para rejeitar a hipótese nula e sua força está na rejeição. Assim quando se rejeita
se prova algo, mas quando se aceita, nada se pode afirmar.

(b)  desconhecido
A distribuição t de Student

Quando o desvio padrão populacional () é desconhecido é necessário estimá-lo através do desvio
padrão da amostra (s). Mas ao substituir o desvio padrão da população na expressão não teremos
mais uma distribuição normal.
De fato, conforme demonstrado por W. S. Gosset (Student) a distribuição da variável:
t = (X -  X ) / s/√n

Não é mais normal padrão. Ao substituir por s na expressão teremos uma distribuição parecida
com a normal, isto é, simétrica em torno de zero, porém com uma variabilidade maior. Desta forma
a distribuição “t” é mais baixa no centro do que a normal padrão, mas mais alta nas caudas.
A distribuição t de Student encontra-se tabelada em função de n = tamanho da amostra ou então
em função de n - 1 denominado de graus de liberdade da distribuição. Neste caso cada linha de uma
tabela se refere a uma distribuição particular e cada coluna da tabela a um determinado nível de
significância. Conforme a tabela o nível de significância poderá ser unilateral ou bilateral. Em todo
caso é necessário sempre ler no cabeçalho ou no rodapé da tabela as explicações sobre como ela
está estruturada.
Desta forma a diferença entre o teste para a média de uma população com  conhecido e um com
 desconhecido é que é necessário trocar a distribuição normal padrão pela distribuição “t “ de
Student.
Exemplo
O tempo médio, por operário, para executar uma tarefa, tem sido 100 minutos. Introduziu-se uma
modificação para diminuir este tempo, e, após certo período, sorteou-se uma amostra de 16
operários, medindo-se o tempo de execução gasto por cada um. O tempo médio da amostra foi 85
minutos com desvio padrão de 12 minutos. Este resultado evidencia uma melhora no tempo gasto
para realizar a tarefa? Apresente as conclusões aos níveis de 5% e 1% de significância e diga quais
as suposições teóricas necessárias que devem ser feitas para resolver o problema.
Solução
A suposição teórica necessária é admitir que a distribuição da população de onde foi extraída a
amostra segue uma normal pois n < 30.
H0:  = 100
H1:  < 100
Considerando, então, um teste unilateral à esquerda e tendo  = 5% ( = 1%) tem-se que a região
de rejeição é constituída por RC = [-, -1,753].(RC = [-, -2,602])

O valor de teste é:
t = (X -  X ) / s/√n = (85 – 100) / (12/4) = -5

Como este valor pertence as duas regiões críticas, pode-se rejeitar a hipótese nula, aos níveis de 5%
e 1% de significância, isto é, neste caso, pode-se afirmar que a modificação diminuiu o tempo de
execução da tarefa.

4.5.1.2. TESTE PARA A PROPORÇÃO


O teste para a proporção populacional é normalmente baseado na seguinte suposição: tem-se uma
população e tem-se uma hipótese sobre a proporção  de elementos da população que possuem
uma determinada característica. Esta proporção é supostamente igual a um determinado valor 0.
Assim a hipótese nula é:
H0 :  = 0
O problema fornece informações sobre a alternativa, que pode ser uma das seguintes:
H1 :   0
H1 :  > 0
H1 :  < 0

A estatística teste a ser utilizada é a proporção amostral “P”, que para amostras grandes (n > 50)
tem uma distribuição aproximadamente normal com média:
P = , e desvio padrão

δP = √(1− ) /n

Exemplo
As condições de mortalidade de uma região são tais que a proporção de nascidos que sobrevivem
até 60 anos é de 0,60. Testar esta hipótese ao nível de 5% de significância se em 1000 nascimentos
amostrados aleatoriamente, verificou-se 530 sobreviventes até os 60 anos.
Solução
H1:  = 0,60
H0:   0,60
Considerando, então, um teste bilateral e tendo  = 5% tem-se que a região de aceitação é
constituída pelo intervalo RA = [-1,96, 196].

O valor de teste é:
Z = (p -  ) / δP = (0,53 – 0,60) / √0,60(1- 0,60) /1000 = -4,52

Como este valor não pertence a região de aceitação, pode-se rejeitar a hipótese nula, ao nível de
5% de significância, isto é, neste caso, pode-se afirmar que a taxa dos que sobrevivem até os 60
anos é menor do que 60%. Neste caso, também poderia ser realizado um teste unilateral à
esquerda. Este teste também rejeitaria a hipótese nula, pois para ele o valor crítico z = -1645.
5. CORRELAÇÃO E REGRESSÃO

5.1 CORRELAÇÃO
Ao se estudar uma variável o interesse eram as medidas de tendência central, dispersão, assimetria,
etc. Com duas ou mais variáveis além destas medidas individuais também é de interesse conhecer
se elas tem algum relacionamento entre si, isto é, se valores altos (baixos) de uma das variáveis
implicam em valores altos (ou baixos) da outra variável. Por exemplo, pode-se verificar se existe
associação entre a taxa de desemprego e a taxa de criminalidade em uma grande cidade, entre
verba investida em propaganda e retorno nas vendas, etc.
A associação entre duas variáveis poder ser de dois tipos: correlacional e experimental. Numa
relação experimental os valores de uma das variáveis são controlados pela atribuição ao acaso do
objeto sendo estudado e observando o que acontece com os valores da outra variável. Por exemplo,
pode-se atribuir dosagens casuais de uma certa droga e observar a resposta do organismo; pode-se
atribuir níveis de fertilizante ao acaso e observar as diferenças na produção de uma determinada
cultura.
No relacionamento correlacional, por outro lado, não se tem nenhum controle sobre as variáveis
sendo estudadas. Elas são observadas como ocorrem no ambiente natural, sem nenhuma
interferência, isto é, as duas variáveis são aleatórias. Assim a diferença entre as duas situações é
que na experimental nós atribuímos valores ao acaso de uma forma não tendenciosa e na outra a
atribuição é feita pela natureza.

Figura 1.1 - Vários tipos de relacionamento entre as variáveis X e Y

Freqüentemente é necessário estudar o relacionamento entre duas ou mais variáveis. Ao estudo do


relacionamento entre duas ou mais variáveis denominamos de correlação e regressão. Se o estudo
tratar apenas de duas variáveis tem-se a correlação e a regressão simples, se envolver mais do que
duas variáveis, tem-se a correlação e a regressão múltiplas. A regressão e a correlação tratam
apenas do relacionamento do tipo linear entre duas variáveis.
A análise de correlação fornece um número que resume o grau de relacionamento linear entre as
duas variáveis. Já a análise de regressão fornece uma equação que descreve o comportamento de
uma das variáveis em função do comportamento da outra variável.
Independente do tipo (correlacional ou experimental) a relação entre as variáveis pode ser resumida
através de uma equação indicando o padrão de associação entre as duas variáveis. As relações mais
comuns encontradas estão ilustradas na figura 1.1.
Quando não é possível perceber uma relação sistemática entre as variáveis é dito que as variáveis
são não correlacionadas, são independentes ou ainda que são ortogonais.

5.1.1. INDICADORES DE ASSOCIAÇÃO

Suponha-se que queiramos determinar se duas variáveis aleatórias estão de alguma forma
correlacionadas. Por exemplo, suponha-se que se queira determinar se o desempenho dos
empregados no trabalho está de alguma forma associado ao escore obtido num teste vocacional.
Tabela de contingência 2x2. Uma vez que a correlação entre duas variáveis aleatórias reflete o
quanto os altos escores de uma delas implicam em altos escores da outra e baixos escores de uma
implicam em baixos escores da outra e vice-versa, no caso de uma relação negativa, pode-se
começar a análise identificando, justamente quantos elementos de uma das variáveis são altos e
quantos são baixos. Para determinar se um escore ou valor é alto ou baixo, pode-se convencionar
que qualquer valor acima da mediana é alto e qualquer valor abaixo da mediana é baixo.
Classificando desta forma pode-se ter então, para o exemplo, 4 possíveis resultados:

✓ Tanto o desempenho no trabalho quanto no teste estão acima da mediana (+ +)


✓ O desempenho no trabalho está acima mas o do teste está abaixo da mediana (+ -)
✓ Tanto o desempenho no trabalho quanto o do teste estão abaixo da mediana (- -)
✓ O desempenho no trabalho está abaixo da mediana mas o teste não (- +)

Estas quatro possibilidades podem ser arranjadas em uma tabela de contingência 2x2, como a
mostrada abaixo:
Tabela 1.1 - Desempenho no trabalho e no teste
Escore no teste vocacional
Desempenho no trabalho
Abaixo da mediana (-) Acima da mediana (+)
Acima da mediana (+) (- , +) 10 empregados (+, +) 40 empregados (-, -)
Abaixo da mediana (-) 40 empregados (+, -) 10 empregados
Observe que se não existir relação entre as duas variáveis deve esperar número idêntico de
empregados em cada uma das células da tabela, isto é, se a pessoa o escore da pessoa no teste
vocacional está acima ou abaixo da mediana não tem nada a ver com o seu escore no desempenho
no trabalho estar acima ou abaixo da mediana.
O que pode ser visto na tabela acima é que parece existir uma forte correlação entre as duas
variáveis, pois ao invés de igual número em cada célula o que se tem é um número grande de ambas
as variáveis acima da mediana e um número grande de escores de ambas as variáveis abaixo da
mediana. Das 50 pessoas com escore acima da mediana no teste, 40 deles (80%) apresentaram
escore acima da mediana no desempenho do trabalho. Da mesma forma dos 50 que tiverem
classificações abaixo da mediana, 40 deles apresentaram escore abaixo da mediana no desempenho
do trabalho. Se não houvesse correlação seria de se esperar que dos 50 que tiveram escores acima
da mediana no teste 25 tivessem escores acima da mediana no desempenho do trabalho e 25
abaixo.
A tabela 1.2 mostra outras possíveis saídas para este tipo de esquema de classificação cruzada.
Novamente 100 elementos são classificados em 4 células de acordo com o critério anterior. A parte
(a) da tabela mostra uma associação positiva, a parte (b) uma negativa e a parte (c) que não deve
existir associação entre duas variáveis X e Y.

Tabela 1.2 - Indicativos da presença de associação entre duas variáveis X e Y.

(a) Relação positiva (b) Relação negativa (c) Sem relação


Valor de Y Valor de Y Valor de Y

Valor de X Abaixo da Acima da Valor de X Abaixo da Acima da Valor de X Abaixo da Acima da


mediana mediana mediana mediana mediana mediana

Acima da 15 35 Acima da 35 15 Acima da 25 25


mediana mediana mediana

35 15 15 35 25 25
Abaixo da Abaixo da Abaixo da
mediana mediana mediana

Diagramas de dispersão. As tabelas de contingência 2x2 fornecem somente a indicação grosseira


da relação entre duas variáveis, a não ser o fato de que os valores estão situados acima e abaixo da
mediana, qualquer outra informação é desperdiçada. Vamos considerar um exemplo, envolvendo
duas variáveis contínuas.
Um comerciante de temperos está curioso sobre a grande variação nas vendas de loja para loja e
acha que as vendas estão associadas com o espaço nas prateleiras dedicados a sua linha de produto
em cada ponto de venda. Dez lojas foram selecionadas ao acaso através do país e as duas seguintes
variáveis foram mensuradas: (1) total de espaço de frente (comprimento x altura em cm2) dedicados
a sua linha de produtos e (2) total das vendas dos produtos, em reais, no último mês. Os dados são
apresentados na tabela 1.3.

Tabela 1.3 – Vendas x espaço dedicado aos produtos (em cm2).

Local Espaço Vendas


1 340 71
2 230 65
3 405 83
4 325 74
5 280 67
6 195 56
7 265 57
8 300 78
9 350 84
10 310 65

Pela observação da tabela não é fácil perceber o tipo de relacionamento que possa existir entre as
duas variáveis. Para ter uma idéia melhor, as variáveis são colocadas no que é denominado de
diagrama de dispersão. Uma das variáveis (X) é representada no eixo horizontal e a outra variável
(Y) no eixo vertical, conforme figura 1.2.

Figura 1.2 - Diagrama de dispersão das variáveis apresentadas na tabela 1.3.

100

90

80

70

60

Uma olhada rápida no diagrama de dispersão mostra a existência de um relacionamento entre as


variáveis, com altos valores de uma das variáveis associados a altos valores da outra variável. Se não
houvesse relacionamento entre elas, os pontos estariam distribuídos ao acaso no gráfico sem
mostrarem alguma tendência.
5.1.2. O COEFICIENTE DE CORRELAÇÃO

Apesar do diagrama de dispersão nos fornecer uma idéia do tipo e extensão do relacionamento
entre duas variáveis X e Y, seria altamente desejável ter um número que medisse esta relação. Esta
medida existe e é denominada de coeficiente de correlação. Quando se está trabalhando com
amostras o coeficiente de correlação é indicado pela letra r que é, por sua vez, uma estimativa do
coeficiente de correlação populacional:  (rho).
O coeficiente de correlação pode variar de –1,00 a + 1,00, com um coeficiente de +1, indicando uma
correlação linear positiva perfeita. Neste caso, as duas variáveis serão exatamente iguais em termos
de escores padronizados z, isto é, um elemento apresentando um escore padronizado de 1,5 em
uma das variáveis vai apresentar o mesmo escore padronizado na outra variável. Um coeficiente de
correlação de –1, indica correlação linear perfeita negativa, com os escores padronizados
exatamente iguais em valores absolutos, diferindo apenas no sinal.
Uma correlação de +1 ou –1 é raramente observado. O mais comum é que o coeficiente fique
situado no intervalo entre estes dois valores. Um coeficiente de correlação “0”, significa que não
existe um relacionamento linear entre as duas variáveis.

5.1.2.1. HIPÓTESES BÁSICAS

A suposição básica sobre o coeficiente de correlação é que o relacionamento entre as duas variáveis
seja linear. Isto é, o coeficiente de correlação é adequado para avaliar somente o relacionamento
linear. As duas variáveis podem estar perfeitamente relacionadas, mas se não for de forma linear o
valor do coeficiente pode ser zero ou próximo de zero.
Uma segunda hipótese é que as variáveis envolvidas sejam aleatórias e que sejam medidas no
mínimo em escala de intervalo. Ele não se aplica a variáveis em escala nominal ou ordinal ou quando
uma das variáveis é manipulada experimentalmente, pois neste caso, a escolha dos valores
experimentais vai influenciar o valor de r obtido.
Uma terceira hipótese é que as duas variáveis tenham uma distribuição conjunta normal bivariada.
Isto é equivalente a dizer que para cada x dado a variável y é normalmente distribuída.
Suponha-se que existam apenas duas variáveis X e Y. Uma amostra da variável “X”, assumindo os
valores particulares X1, X2, ..., Xn e uma amostra da variável “Y” assumindo os valores particulares
Y1, Y2, ..., Yn são obtidas e suponha-se ainda que o objetivo é saber se existe algum tipo de
relacionamento linear entre estas duas variáveis. Isto poderá ser medido pelo coeficiente de
correlação que fornece o grau de relacionamento linear entre duas variáveis.
5.1.3. DEFINIÇÃO

Uma população que tenha duas variáveis não correlacionadas linearmente pode produzir uma
amostra com coeficiente de correlação diferente de zero. Para testar se a amostra foi ou não
retirada de uma população de coeficiente de correlação não nulo entre duas variáveis, precisamos
saber qual é a distribuição amostral da estatística r.
Na população o coeficiente de correlação é representado por  e na amostra por r. Assim dadas
duas amostras, uma da variável X e outra da variável Y, o coeficiente de correlação amostral poderá
ser calculado através da seguinte expressão:

nΣ Xi . Yi − (Σ Xi).(Σ Y i)
r=

i i

A distribuição amostral de r depende somente do valor de (coeficiente de correlação populacional)


e do tamanho da amostra.

Exemplo:
Quer-se testar se existe ou não correlação linear entre X = toneladas de adubo orgânico por ha e Y
= produção da cultura A por ha. Para tanto é realizado um experimento com duração de 5 anos que
mostrou os resultados da tabela 1.4. Verificar se existe relacionamento linear entre as duas
variáveis.
Tabela 1.4 - Valores das variáveis X e Y
Anos X Y
1989 2 48
1990 4 56
1991 5 64
1992 6 60
1993 8 72

Para saber se há ou não correlação linear entre estas duas variáveis na população de onde foi
retirada esta amostra é necessário realizar um teste de hipóteses, ou seja, é preciso testar:
H0:  = 0 (Não existe relacionamento linear na população)
H1:   0 (Existe relacionamento linear na população)
A tabela 1.5 mostra os cálculos necessários para se obter o coeficiente de correlação para esta
amostra das variáveis X e Y.
Tabela 1.5 - Valores das variáveis X e Y e cálculos para obter r

Anos X Y XY 2 2
X Y
1989 2 48 96 4 2304
1990 4 56 224 16 3136
1991 5 64 320 25 4096
1992 6 60 360 36 3600
1993 8 72 576 64 5184
Total 25 300 1576 145 18320

O valor de r será dado então por:

nΣ Xi . Yi − (Σ Xi).(Σ Y i)

i i

r = 5 x 1576 - 25 x 300

(5 x 145 - 252) x (5 x 18320 - 3002)

r = 0,95
Dado que há fortes evidências de que as duas variáveis possuem um relacionamento linear pode-
se então ajustar uma linha de regressão entre elas.

5.1.4 PROPRIEDADES DE R

As propriedades mais importantes do coeficiente de correlação são:


1. O intervalo de variação vai de -1 a +1.
2. O coeficiente de correlação é uma medida adimensional, isto é, ele é independente das
unidades de medida das variáveis X e Y.
3. Quanto mais próximo de +1 for “r”, maior o grau de relacionamento linear positivo
entre X e Y, ou seja, se X varia em uma direção Y variará na mesma direção.
4. Quanto mais próximo de -1 for “r”, maior o grau de relacionamento linear negativo
entre X e Y, isto é, se X varia em um sentido Y variará no sentido inverso.
5. Quanto mais próximo de zero estiver “r” menor será o relacionamento linear entre X e
Y. Um valor igual a zero, indicará ausência apenas de relacionamento linear.
5.2. REGRESSÃO

Uma vez constatado que existe correlação linear entre duas variáveis, pode-se tentar prever o
comportamento de uma delas em função da variação da outra.
Para tanto será suposto que existem apenas duas variáveis. A variável X (denominada variável
controlada, explicativa ou independente) com valores observados X1, X2, ..., Xn e a variável Y
(denominada variável dependente ou explicada) com valores Y1, Y2, ..., Yn. Os valores de Y são
aleatórios, pois eles dependem não apenas de X, mas também de outras variáveis que não estão
sendo representadas no modelo. Estas variáveis são consideradas no modelo através de um termo
aleatório denominado “erro”. A variável X pode ser aleatória ou então controlada.
Desta forma pode-se considerar que o modelo para o relacionamento linear entre as variáveis X e Y
seja representado por uma equação do tipo:
Y =  + X + U,

onde “U” é o termo erro, isto é, “U” representa as outras influências na variável Y além da exercida
pela variável “X”.
Esta equação permite que Y seja maior ou menor do que  + X, dependendo de “U” ser positivo
ou negativo. De forma ideal o termo “U” deve ser pequeno e independente de X, de modo que se
possa modificar X, sem modificar “U”, e determinar o que ocorrerá, em média, a Y, isto é:

E(Y/X) =  + X

Os dados {(Xi, Yi), i = 1, 2, ..., n} podem ser representados graficamente marcando-se cada par (Xi, Yi)
como um ponto de um plano. Os termos Ui são iguais a distância vertical entre os pontos observados
(Xi, Yi), e os pontos calculados (Xi,  + Xi).
Em resumo, o modelo de regressão proposto consiste nas seguintes hipóteses:

1. Y =  + X + U;
2. E(Y/X) =  + X;
3. V(Y/X) = 2;
4. Cov(Ui, Uj) = 0, para i  j;
5. A variável X permanece fixa em observações sucessivas;
6. Os erros U são normalmente distribuídos.
5.2.1. ESTIMATIVA DOS PARÂMETROS DE REGRESSÃO

Se fosse conhecido toda a população de valores (Xi, Yi) então seria possível determinar os valores
exatos dos parâmetros ,  e 2. Como, em geral, se trabalha com amostras se faz necessário, então,
estimar estes parâmetros com base nos valores da amostra.
Existem alguns métodos para ajustar uma linha entre as variáveis X e Y o mais utilizado é o
denominado método dos mínimos quadrados (MMQ). A reta obtida através deste método, não é
necessariamente, o “melhor” ajustamento possível, mas possui muitas propriedades estatísticas
que são desejáveis.
Sejam a e b estimadores de  e  e Ei = Yi - a - bXi o desvio observado em relação a reta ajustada,
isto é, Ei é um estimador do termo Ui. O método dos mínimos quadrados exige que os estimadores
a e b sejam escolhidos de tal forma que a soma dos quadrados dos desvios dos mesmos em relação
à reta de regressão ajustada seja mínima.
Para tornar mínima esta soma em relação a a e b, é necessário
diferenciar a expressão parcialmente em relação aos valores a
e b. Após algumas simplificações vai-se obter:
ΣYi = na + bΣXi (i)
ΣXiYi = aΣXi + bΣ(Xi)2 (ii)
que são denominadas de equações normais da regressão,
y = a + bx +  onde “n” é o número de pares de observações.
a = intercepto
b = coeficiente _ de _ inclinação

Obs.: Para simplificar a notação foram desconsiderados os índices nos somatórios.


A reta estimada de regressão será então:

com os valores de “a” e “b” obtidos através das seguintes expressões:

e a = Y − bX

2 2
i
i

Utiliza-se o valor Y , porque o valor de Y, obtido a partir da reta estimada de regressão, para um
dado valor de X, é uma estimativa do valor E(Y/X), isto é, do valor esperado de Y dado X.
Exemplo:
São fornecidos 5 pares de valores, na tabela abaixo, correspondentes as variáveis X e Y. A estimativa
da reta de regressão entre X e Y, é obtida utilizando as expressões de a e b acima e usando os
resultados obtidos na tabela 2.1.

Tabela 2.1 - Valores para estimar a linha de regressão


X Y X2 XY
1 3 1 3
2 3 4 6
4 7 16 28
5 6 25 30
8 12 64 96
20 31 110 163

X = 20 / 5 = 4;

Y = 31/5 = 6,2
b = (5.163 - 20.31) / (5.110 - 400) = 1,30 a = Y - b X = 6,20 - 1,30.4 = 1
Então a linha estimada será: Y = 1.3X + 1
Esta reta é o “melhor” ajustamento para estes dados e seria diferente para cada amostra das
variáveis X e Y, retiradas desta mesma população. Esta reta pode ser considerada uma estimativa
da verdadeira linha de regressão onde 1,3 seria uma estimativa do valor  (parâmetro angular) e 1
uma estimativa do valor  (parâmetro linear), que são os verdadeiros coeficientes de regressão.
6. Prática de Pesquisa Quantitativa
Define uma pesquisa no âmbito empresarial como a identificação, coleta, análise e disseminação de
informações de forma sistemática e objetiva e seu uso para assessorar a gerência na tomada de decisões
relacionadas a solução de problema e a identificação de oportunidade de mercado.
Observe que a definição apresentada evidencia que a pesquisa tem um papel fundamental, pois auxilia no
processo de tomada de decisão. Sendo assim, é essencial que os gestores disponham de informações, ou
seja, de fatos e estatísticas, e não apenas dados.
Pois bem, vejamos em quais ocasiões são utilizados os dois tipos de pesquisa que mais costumam ser
realizados. O primeiro seria a pesquisa para identificação de problema existentes e futuros e, com isso,
auxiliar os gestores a fornecer informações sobre o macroambiente e diagnosticar problemas relacionados a
ele. Por exemplo, uma empresa com potencial de mercado em declínio poderá enfrentar problemas para
atingir suas metas. As tendências econômicas, sociais ou culturais, como mudanças no comportamento do
consumidor, poderão sinalizar problemas ou oportunidades para o negócio. O segundo seria a pesquisa para
solução de problemas. No caso de haver a necessidade de resolver problemas específicos, o gestor deve
recorrer à pesquisa para solução de problemas. Muitas empresas utilizam essa pesquisa para a resolução de
problemas específicos de marketing relacionados à segmentação, ao produto, ao preço, à promoção e à
distribuição.
Vejamos alguns exemplos do uso da pesquisa na resolução de determinadas questões.
No ambiente de mercado - Quais são as tendências econômicas para os próximos meses/anos? O
comportamento dos nossos clientes está mudando?
Com relação ao perfil do público-alvo - Pertencem a que faixa etária? Onde moram? Exercem quais
profissões? Quais seus hobbies? Têm filhos?
Avaliando os 4Ps do marketing - Onde devemos distribuir nossos produtos? Que produtos devemos
disponibilizar no mercado? Qual é a embalagem mais adequada para eles? Que preço devemos cobrar pelo
produto? Como nossos clientes responderão às mudanças de preços dos nossos produtos? Que políticas de
preços adotaremos? Quanto devemos investir em promoção? Que tipos de mídias devemos utilizar?
Autores como Malhotra, Kotler e outros, descrevem o processo da pesquisa, de forma geral, nas seguintes
etapas: definição do problema de pesquisa, planejamento da pesquisa, coleta de dados, análise dos dados e
apresentação dos resultados.
A seguir, esclareceremos cada uma das etapas do processo de pesquisa de mercado.
1. Formular o problema de pesquisa - Toda pesquisa de mercado se inicia com a formulação do
problema. Nesta etapa, deve-se entender profundamente o problema enfrentado pela empresa por meio de
entrevistas, análises de dados secundários e, se preciso, realizando uma pesquisa qualitativa. Em seguida,
formular o objetivo, a questão-problema e as hipóteses de pesquisa de mercado.
2. Planejar a pesquisa - Após formular o problema, deve-se planejar a pesquisa, ou seja, definir os
procedimentos necessários para a obtenção das informações necessárias. Isso inclui: definir o tipo de
pesquisa e as fontes de dados que serão utilizados; os métodos de coletas de dados; o processo de medição
e escalonamento; a elaboração do questionário; o processo de amostragem e o tamanho da amostra.
3. Coletar os dados - Após planejar a pesquisa, iniciará o processo de coleta de dados. Para isso, são
necessárias a seleção, o treinamento, a supervisão e a avaliação da equipe de campo a fim de minimizar os
erros na coleta de dados.
4. Preparar e analisar os dados - Nessa etapa, todos os questionários ou formulários são inspecionados,
editados e, quando necessário, corrigidos. Os resultados são colocados em planilhas de Excel ou softwares
de pesquisas, permitindo ao gestor a análise dos dados por meio de técnicas estatísticas.
5. Apresentar os resultados - Todo projeto de pesquisa deverá ser entregue em um relatório escrito
que descreva o problema e o planejamento de pesquisa, a coleta de dados e os procedimentos de análises
adotados, apresentando os resultados e as principais constatações.
Então, e na prática como funciona?
Este caso exemplifica a importância da pesquisa na construção de uma marca, uma vez que descreve as
etapas percorridas pela empresa e recorre ao planejamento de marketing como ferramenta para gerar ideias
e empreendê-lo em estratégias de posicionamento.
A Danone, buscando uma oportunidade de fortalecer seu portfólio no Brasil por meio da marca Activia (que
já existia em outros países), precisava entender o comportamento dos consumidores em relação ao tema do
Intestino preguiçoso. Para isso, necessitava de respostas para questões como: Aproximadamente quantas
pessoas no Brasil sofrem de intestino preguiçoso? Qual o nível de conscientização dessas pessoas sobre o
assunto? Quais públicos apresentam os maiores índices de intestino preguiçoso?
Para os consumidores, o intestino preguiçoso é visto como um “problema” ou é considerado “hereditário”
e, por isso, constitui uma reação natural do organismo? As respostas a essas perguntas dariam o suporte
necessário ao gerente de marketing na tomada de decisão.
Estudando hábitos e atitudes, a Danone identificou que uma em cada três mulheres no Brasil apresentava
sintomas de Intestino preguiçoso. Com base em uma pesquisa exploratória realizada para apontar o maior
número de causas do problema, as atitudes para solucioná-lo e, principalmente, o nível de conscientização
sobre intestino preguiçoso, foi possível mapear vários aspectos que seriam trabalhados pela marca, focando
nas causas do intestino preguiçoso, assim como nos sintomas apresentados por quem padece desse
problema. Os resultados permitiram à Danone o desenvolvimento de um briefing de comunicação para o
lançamento do Activia como o primeiro iogurte funcional do mercado brasileiro.

6.1 Problema de pesquisa


A pesquisa geralmente é motivada por um problema ou uma oportunidade. Por exemplo, uma queda nas
vendas de carros pode ser um problema de pesquisa para a indústria automobilística; o aumento da procura
de alimentos saudáveis pode ser uma oportunidade ou um problema para a indústria de alimentos; o
aumento de pessoas da terceira idade interessadas em atividades de lazer pode ser uma oportunidade para
empresas de turismo ou de entretenimento.
É fundamental você perceber que a formulação precisa e adequada do problema é a mais importante de
todas as etapas do processo de pesquisa, pois todo esforço, tempo e recursos investidos dessa etapa em
diante serão desperdiçados se o problema não for elaborado corretamente. Além disso, é preciso entender
que os problemas de pesquisas, na maioria das vezes, não aparecem de maneira ordenada, com as
necessidades de informações, os limites e as motivações claramente definidos pelos tomadores de decisões.
Sendo assim, com frequência o gestor se depara com problemas mal definidos, pouco compreensíveis e com
alternativas insuficientes para que possam ser analisados.
No entanto, como formular o problema de pesquisa especificamente?
Antes de formular um problema de pesquisa, é imprescindível que o gestor:
1. Discuta o problema com a alta gestão da empresa, a fim de entender as capacidades e as limitações
da pesquisa. Além disso, precisa compreender a natureza da decisão enfrentada e os resultados esperados
com a pesquisa. Finalmente, é preciso realizar uma auditoria do problema, ou seja, fazer um exame completo
deste para compreender sua origem e natureza.
2. Analise os dados secundários, não se devem coletar dados primários antes de fazer uma análise
completa dos dados secundários disponíveis, pois eles podem ajudar na formulação do problema.
3. Fazer a pesquisa qualitativa, todas as tarefas descritas anteriormente podem ser insuficientes para
a formulação do problema; portanto, às vezes, é preciso recorrer a pesquisas qualitativas para compreender
o problema e seus fatores implícitos.
Todas essas tarefas ajudam a entender a empresa, bem como o segmento em que atua, e, principalmente,
compreender os fatores que afetam a definição do problema da pesquisa de mercado. Esses fatores, que
envolvem o contexto ambiental do problema, compreendem informações passadas e previsões relativas ao
segmento e à empresa, comportamento dos compradores, ambiente legal, ambiente econômico e
qualificações mercadológicas e tecnológicas da empresa.
Você percebeu, que para entender profundamente o problema enfrentado pela empresa, deve antes
conversar com os responsáveis pelas decisões, analisar os dados secundários e, se preciso, realizar uma
pesquisa qualitativa. Assim, somente depois de realizar essas ações o gestor deverá formular o objetivo, a
questão problema e as hipóteses de pesquisa.
Existem diferentes abordagens para essa questão. Adotaremos o referencial teórico de Aaker, que descreve
objetivo de pesquisa como uma declaração, com a terminologia mais precisa possível, de quais informações
são necessárias. O objetivo de pesquisa é composto por três elementos: questão de pesquisa,
desenvolvimento de hipóteses e escopo da pesquisa, conceituados a seguir.
A questão de pesquisa pergunta qual informação específica é necessária para atingir seus propósitos. Se a
pergunta for respondida pela pesquisa, seus resultados terão validade no auxílio à tomada de decisões.
As Hipóteses são, basicamente, respostas alternativas à questão de pesquisa. Segundo Malhotra, a hipótese
é uma afirmação ou proposição não comprovada a respeito de um fator ou fenômeno que é de Interesse
para o pesquisador.
E o escopo é o limite da pesquisa. Por exemplo, o interesse é apenas pelos consumidores atuais ou por todos
os consumidores potenciais?
E na prática como funciona?
A Chanel esperava melhorar sua participação nas vendas das lojas de departamentos, expandindo sua
propaganda além das revistas de alta moda. Para Isso, pretendia anunciar em revistas que, em outro período,
haviam sido consideradas vulgares demais para marcas de prestígios.
Sendo assim, a questão de pesquisa foi: a Chanel tem uma imagem aristocrática? E as hipóteses sugeridas
foram: a Chanel é percebida como uma marca dispendiosa? Os usuários da Chanel têm renda acima da
média? Os usuários da Chanel associam o perfume dessa marca a status?
Perceba que, para testar a primeira hipótese, precisaria operacionalizar e medir o preço presumido associado
ao perfume. Já a segunda hipótese exigiria que os entrevistados fossem classificados como usuários ou não
usuários e disponibilizassem informações sobre sua renda. Finalmente, para a terceira hipótese, seria
necessário operacionalizar outra variável ou um conjunto de variáveis que medissem o status associado a
Chanel.
Os resultados da pesquisa forneceram apoio para a validação das hipóteses 1 e 3, porém não para a hipótese
2. Ou seja, a Chanel tinha uma imagem aristocrática, mas seu apelo não se limitava ao segmento superior. A
dilatação do mercado-alvo pela propaganda em revistas antes consideradas vulgares levou ao aumento das
vendas da Chanel em lojas de departamento.

6.2 Tipos de Dados


Veremos aqui o quanto é importante saber que tipo de dados se utilizará em uma pesquisa. Se vai ser o uso
de dados primários ou secundários.
Chamamos de dados primários ou diretos, os dados brutos, ou seja, dados que nunca foram coletados,
tabulados e analisados. As fontes para coleta dos dados primários são os consumidores, telespectadores,
intermediários, leitores e outros.
Por outro lado, temos os dados secundários que já foram coletados, tabulados e analisados, ou seja, já
transformados em informação, e que estão disponíveis para consulta nas fontes que seriam, por exemplo, o
Instituto Brasileiro de Geografia e Estatística, (IBGE), a Fundação Getúlio Vargas {FGV), os relatórios de outras
pesquisas, jornais, revistas, livros e outros.
Mattar, um dos autores de livros sobre pesquisa, diz que a utilização de dados secundários apresenta as
seguintes vantagens:
• economia de tempo, dinheiro e esforço;
• Apoio para melhor definição do problema de pesquisa;
• determinação de um modelo de pesquisa mais adequado para o projeto;
• recomendação de métodos de pesquisas de dados já testados e aprovados;
• possibilidade de comparar ou complementar os dados primários que serão coletados no futuro;
• ajuda na interpretação dos dados primários;
• indicação de outros tipos de dados que podem ser coletados a fim de obter as informações
desejadas.
Atenção! Reforço que antes de iniciar uma coleta de dados primários devemos analisar os dados secundários
disponíveis. Pois, conforme Mattar, irá ajudar e muito sua pesquisa.
Mas, apesar das diversas vantagens mencionadas, o uso de dados secundários pode também apresentar
desvantagens. Entre elas, podemos destacar:
• a dificuldade de encontrar dados secundários que se adaptem às necessidades específicas da
pesquisa, visto que a coleta foi realizada com objetivos diferentes;
• os intervalos de classe encontrados nos dados secundários podem não se ajustar ao interesse da
pesquisa;
• a dificuldade em verificar a confiabilidade dos dados coletados.
Já conceituamos os dados primários e secundários, apresentamos as vantagens e desvantagens do uso de
dados secundários.
E agora veja o quadro que compara os tipos de dados e suas principais diferenças.

6.3 Tipos de pesquisas


Na elaboração do planejamento da pesquisa precisa-se escolher o tipo de pesquisa que será utilizada. Sobre
esse assunto, você encontrará várias classificações por diferentes autores. Aqui, vamos utilizar a definição
de Malhotra, que classifica a pesquisa em exploratória ou conclusiva.
A pesquisa exploratória é utilizada quando a empresa não entende o problema que está enfrentando. Por
exemplo: a Faculdade Alfa percebe que o índice de evasão de seus cursos é muito elevado, e o gerente de
marketing não entende os motivos disso. A fim de compreender melhor esse problema, a empresa pode
fazer uma pesquisa exploratória para que o gerente aumente seu entendimento com a situação, e
desenvolva possíveis hipóteses sobre o problema. Mesmo nas situações em que se conhece o assunto, a
pesquisa exploratória pode ajudar, pois um problema pode ter várias explicações.
Por outro lado, se a empresa compreende claramente o problema que está enfrentando, é recomendável
que realize uma pesquisa conclusiva, uma vez que esta auxilia a estipular, avaliar e escolher o melhor plano
de ação para o problema; além disso, pode-se realizar tal pesquisa para validar os dados obtidos em uma
pesquisa exploratória.
A pesquisa conclusiva pode ser classificada como descritiva ou causal.
A pesquisa conclusiva descritiva, como o próprio nome diz, é utilizada para descrever algo, geralmente as
características ou a função de mercado. Pode-se utilizar esse tipo de pesquisa quando as perguntas são
relacionadas à descrição de um fenômeno de mercado, como a frequência de compra, a identificação e a
elaboração de relacionamentos.
Ela pode ser utilizada para atender a diversos objetivos, como por exemplo:
Descrever fenômenos ou características de uma população-alvo. Por exemplo: pode definir o perfil dos
clientes que frequentam a sorveteria Bom Sabor, localizada em um bairro da periferia.
Estimar a proporção da população e relação às características descritas. Por exemplo: a proporção de pessoas
que frequenta sorveterias em bairros da periferia e em bairros centrais.
Definir as percepções de características do produto. Por exemplo: verificar a opinião dos clientes da
sorveteria em relação às dimensões que influenciam a escolha desse tipo de empresa.
Fazer previsões especificas. Por exemplo: quanto a sorveteria venderá de sorvetes sabor jabuticaba nos
primeiros meses do seu lançamento.
A outra classificação da pesquisa conclusiva é a pesquisa causal
Em algumas situações, antes de realizar pequenas mudanças, como aumento ou redução do preço, escolha
do nome de um produto, escolha ou alteração de uma embalagem e elaboração de uma nova promoção do
produto, é imprescindível que o gestor descubra as relações de causa e efeito entre as variáveis.
Nessas situações, pode optar pela pesquisa conclusiva causal, que busca obter evidências da relação de causa
e efeito. Geralmente, as decisões na empresa são fundamentadas em relações causais presumidas. Essas
proposições nem sempre se justificam; sendo assim, por meio de pesquisas formais, pode verificar sua
validade. Por exemplo: presumir que o aumento do preço de um determinado produto provoca a queda nas
vendas nem sempre é verdadeiro. Para entender essa situação, indica-se utilizar esse tipo de pesquisa. pois
ela ajudará a verificar as variáveis que são a causa e as que são o efeito de um fenômeno.
Todavia, é importante saber que a noção científica de causalidade é complexa. Mesmo que sejamos bem
cuidadosos no planejamento e na execução da pesquisa, não poderemos afirmar, de forma categórica, que
uma variável é a causa de outra variável. Pois existem inúmeros fatores que estão relacionados com as
variáveis estudadas.
Vejamos uma síntese das diferenças entre esses tipos de pesquisa.
6.4 Natureza da Pesquisa – Qualitativa e Quantitativa
Já conceituamos os tipos de pesquisa e suas diferenças. E agora vamos falar um pouco sobre as pesquisas
classificadas como qualitativas ou quantitativas.
Então, a pesquisa qualitativa possibilita.
• o entendimento mais claro da situação;
• a determinação do problema e o desenvolvimento da abordagem de pesquisa.
• E a confirmação dos dados obtidos nas pesquisas conclusivas.
E a pesquisa quantitativa, por sua vez, objetiva, como o próprio nome diz, quantificar os dados.
Os resultados obtidos são considerados conclusivos e então utilizados na indicação de ações para a solução
do problema.
Para entender melhor essa distinção, observe o quadro no qual apresentamos uma comparação entre as
pesquisas qualitativa e quantitativa.
É importante reforçar que a pesquisa qualitativa é utilizada para desenvolver uma compreensão inicial do
problema, enquanto a pesquisa quantitativa é conclusiva, e, por isso, pode utilizar os resultados obtidos para
recomendar uma solução para determinado problema.
Dependendo do objetivo do estudo, a pesquisa qualitativa pode ter uma abordagem direta ou indireta.
Pois bem, na abordagem direta, geralmente esclarece o objetivo da pesquisa aos participantes. Mesmo
naquelas situações em que o objetivo não é revelado, com frequência as pessoas conseguem percebê-lo por
meio da análise das perguntas formuladas. As questões permitem que os respondentes expressem
livremente percepções, crenças, valores, experiências, comportamento e intenções. Portanto, há muita
flexibilidade no que diz respeito à maneira de perguntar e ao grau de questionamento.
Já, na abordagem indireta, o objetivo da pesquisa não é revelado ao participante. Cria-se situações que
encorajam as pessoas a expor suas crenças, sentimentos, personalidade, necessidades emocionais e conflitos
interiores, sem que elas estejam conscientes do que realmente estão expondo.
Vale ainda ressaltar que há uma variedade de pesquisas qualitativas. Vejamos os tipos de pesquisa qualitativa
mais utilizadas.
Grupo focal - As entrevistas de grupos de foco estão entre as técnicas qualitativas mais utilizadas em
pesquisas de mercado. Em um grupo focal, reúne-se um pequeno grupo de respondentes para discutir um
tópico de interesse da empresa.
Entrevistas de profundidade - As entrevistas de profundidade servem para explorar o conhecimento e a
experiência daqueles que dispõem de informações relevantes sobre o problema. Por exemplo, uma indústria
de automóvel pode entrevistar, sempre individualmente, engenheiros e projetistas para entender melhor
seus concorrentes.
Técnicas projetivas - Observe que, na entrevista em profundidade e no grupo focal se deixa claro o propósito
da pesquisa ou o entrevistado, de alguma forma, toma conhecimento. No entanto, se quer acobertar o
propósito da pesquisa, recomenda-se a utilização das técnicas projetivas. Essas técnicas buscam criar
circunstâncias que encorajam os respondentes a exporem crenças, sentimentos, estrutura de personalidade,
necessidades emocionais e conflitos.
Já a pesquisa quantitativa é um conceito de investigação científica que pressupõe um modo sistematizado
de abordar e esclarecer um fenômeno. Caracteriza-se pela coleta de dados numéricos voltados ao teste de
hipóteses e descrição de padrões e relações causais entre variáveis. Assim, a pesquisa quantitativa se embasa
nos conceitos de medição e mensuração, as quais representam processos empíricos que se utilizam de
instrumentos válidos para efetuar uma verificação rigorosa e objetiva.
Ao contrário da pesquisa qualitativa, as investigações de caráter quantitativo pressupõem o distanciamento
do pesquisador com o objeto de pesquisa. Isso porque deve-se reduzir ao máximo a influência do
pesquisador sobre os sujeitos e contexto de pesquisa. Dessa forma, o pesquisador é considerado apenas um
observador do fenômeno, devendo interagir o mínimo possível com o seu objeto de pesquisa. Independente
da abordagem utilizada, seja um survey ou um experimento, deve-se utilizar o preceito do distanciamento
do objeto como princípio básico.
Na pesquisa quantitativa, o pesquisador pode desenvolver suas análises a partir da coleta de dados de duas
categorias distintas, quais sejam: i. dados primários; ii. dados secundários. Ao passo que os dados primários
são aqueles coletados diretamente pelo pesquisador, geralmente por meio de questionários ou observação
não participante, dados secundários são aqueles realizados previamente e cujo objetivo inicial possuía outros
fins, tais como o Censo do IBGE e os relatórios contábeis empresariais.
Especificamente em relação às pesquisas que se propõem ao levantamento de dados primários, é comum a
utilização de escalas de intervalo no formato Likert (ex.: responda de 1 a 5 de acordo com o grau de
concordância com a questão a seguir) para a diminuição da interferência do pesquisador. Nesse caso, é
importante ressaltar que a mensuração deve sempre focar em uma característica bem definida do objeto,
não deixando margem para dúvidas ou duplas percepções. Do mesmo modo, a característica deve ser
claramente diferençável de outras características do objeto. Apesar da objetividade, é importante que os
sujeitos de pesquisa possuam visões diferentes sobre o mesmo fenômeno; do contrário, a variável utilizada
não terá valor estatístico.
Por exemplo, na análise da qualidade percebida dos clientes de um restaurante, teríamos:
i. Os sujeitos de pesquisa são os clientes, mas mensuramos apenas a sua percepção de qualidade;
ii. A qualidade é algo bem definido e distinto de outras avaliações dos clientes, como sua lealdade,
confiança ou satisfação geral com o restaurante;
iii. Cada cliente possui uma percepção de qualidade diferente, ou seja, a variável qualidade de fato
apresenta uma variação. Caso possuíssem uma percepção única da qualidade do restaurante, ela
não se caracterizaria como uma variável – lembre-se que a variação é o princípio básico para a
identificação de uma variável.
Cumpre ressaltar que ambas as naturezas de pesquisa podem ser conjugadas em uma estratégia de pesquisa
única. À combinação de técnicas de pesquisa qualitativas e quantitativas em um mesmo processo
investigativo dá-se o nome de métodos mistos. Esse tipo de abordagem é mais utilizado em estudos que se
destinam a investigar um determinado fenômeno em profundidade e por diferentes lentes de pesquisa. Por
essa razão, o seu uso é comum em dissertações de mestrado e teses de doutorado em Administração.

6.5 Instrumento de Pesquisa - Questionário


Veremos aqui o passo a passo quanto aos aspectos de estruturação de um questionário de pesquisa e sua
importância.
Imagine como seria difícil analisar os resultados de uma pesquisa com abrangência nacional conduzida por
quarenta diferentes entrevistadores, se as questões não tivessem sido executadas de forma padronizada,
isto é, caso os entrevistadores fizessem questões usando palavras e ordem diferentes.
Pois bem, o questionário garante a padronização e comparação dos dados de todos os entrevistadores,
aumenta a velocidade e exatidão dos registros e facilita o processamento dos dados.
Resumindo, um questionário e um conjunto de questões formalizadas para a obtenção de informações dos
entrevistados.
Nenhum princípio científico garante questionários ótimos ou ideais. A sua elaboração é mais arte do que
ciência. A criatividade, habilidade e experiência do pesquisador tem um papel importante na elaboração
final.
Entretanto, existem diretrizes para auxiliar os pesquisadores na elaboração dos questionários e ajudá-los a
evitar erros relevantes. Apresentaremos estas diretrizes em oito etapas:
(1) especificar as informações necessárias. É manter o foco do questionário nas primeiras etapas do projeto
de pesquisa, principalmente os componentes específicos do problema, as questões da pesquisa e as
hipóteses.
(2) especificar o tipo de método de entrevista. Se vai ser por telefone, por e-mail ou entrevista pessoal (frente
a frente).
(3) determinar o conteúdo das questões. Aqui o pesquisador vai determinar o conteúdo de cada questão.
Mas deve sempre perguntar: Essa questão é necessária? Como usarei esses dados? Questões que podem ser
interessantes de saber, mas que não abordam diretamente o problema da pesquisa, devem ser eliminadas.
Porém, há exceções para essa regra. Por exemplo, em estudos de marca, o pesquisador pode incluir questões
sobre a gama completa de marcas concorrentes de modo que os entrevistados não saibam quem está
patrocinando o estudo.
(4) elaborar as questões de modo a superar a incapacidade ou relutância para responder. Os entrevistados
podem nem sempre ser capazes de responder as questões feitas a eles. Muitas vezes, os entrevistados
respondem as questões sobre as quais estão desinformados. Então, tomemos cuidado com a elaboração das
questões. Para evitar problemas, faça o seguinte: utilize palavras comuns, evite palavras ambíguas, evite
questões que conduzam a uma resposta e utilizar afirmações positivas e negativas.
(5) decidir sobre a estrutura das questões. Uma questão pode ser não estruturada ou estruturada. As
questões não estruturadas são questões abertas que os entrevistados respondem com suas próprias
palavras. Exemplo: Qual é o seu passatempo favorito? As questões estruturadas especificam o conjunto de
respostas e seus formatos. Uma questão estruturada pode ser de múltipla escolha, de apenas duas escolhas
(questão dicotômica) ou de escala (por exemplo, de 1 até 5)
(6) organizar as questões de modo adequado. As questões devem ser organizadas em ordem lógica, e por
tópicos. Ao mudar de tópicos, deve-se usar breves frases ou sentenças de transição para ajudar os
entrevistados a alterar sua linha de pensamento.
(7) escolher o aspecto visual. As características físicas de um questionário, como formato, espaçamento e
posicionamento, podem ter um efeito significante nos resultados. Dividir o questionário em seções, com
áreas de tópicos separadas para cada uma, é uma boa prática.
E por fim, (8) realizar o pré-teste do questionário. 0 pré-teste consiste em testar o questionário em uma
amostra pequena de entrevistados, geralmente de 15 a 30, para identificar e eliminar possíveis problemas.
Mesmo o melhor questionário pode ser aperfeiçoado com o pré-teste. Como regra geral, o questionário não
pode ser usado no estudo de campo sem um pré-teste. Com base no feedback dos pré-testes, o questionário
deve ser editado, com a correção dos problemas identificados. Depois de cada revisão significativa do
questionário, outro pré-teste deve ser conduzido utilizando-se uma amostra diferente de entrevistados. 0
pré-teste deve continuar até que não sejam necessárias mais mudanças.
Os formulários de observação são elaborados para registrar a reação do entrevistado aos novos produtos,
anúncios, embalagens ou algum outro estímulo de marketing, por exemplo.
Uma vez que não haja questionamento dos entrevistados, o pesquisador não precisa se preocupar com o
impacto psicológico das questões e como elas são feitas. Suponha que o McDonald's queira observar a reação
dos consumidores de sanduiches que estão sendo preparados para um possível lançamento nacional. Então,
um formulário de observação será feito para registrar a reação do consumidor. Incluindo todas as
informações relevantes para o McDonald's.
As mesmas considerações de modelo físico do layout e de reprodução se aplicam aos questionários e aos
formulários de observação. Um formulário bem desenvolvido guia o observador a registrar adequadamente
os detalhes da observação, em vez de simplesmente resumi-los. Por último, assim como os questionários, os
formulários também requerem um pré-teste apropriado.

6.6 Amostragem
0 assunto faz parte do processo de modelo de pesquisa. A essa altura do processo, você já identificou as
necessidades de informação do estudo, bem como a natureza do modelo de pesquisa, se é exploratória,
descritiva ou causal. Além do mais, especificou e estruturou o questionário. Então, a próxima etapa é
desenvolver procedimentos de amostragem adequados.
0 processo do modelo de amostragem inclui quatro etapas. Cada etapa está intimamente relacionada a todos
os aspectos do projeto de pesquisa, da definição do problema a apresentação dos resultados. Portanto, as
escolhas do modelo de amostra devem ser integradas com todas as outras decisões do projeto de pesquisa.
Agora vamos conhecer as quatro etapas!
A primeira é a definição da população-alvo. 0 modelo de amostragem inicia-se por meio da especificação da
população-alvo, que é a coleção de elementos ou objetos que possuem as informações que se está buscando.
Por exemplo, suponha que a empresa X desejasse avaliar a resposta do consumidor para uma nova linha de
batons para ser lançada no Brasil e quisesse extrair a amostra de mulheres acima de 18 anos. Nesse estudo,
o elemento da amostra seria uma mulher acima de 18 anos residente no Brasil, independente de classe social
ou outros parâmetros. Já a população seria todas as mulheres acima de 18 anos residentes no Brasil.
A segunda é a seleção da técnica de amostragem. Selecionar uma técnica de amostragem envolve escolher
uma amostragem não probabilística ou uma probabilística. A amostragem não probabilística conta com o
julgamento pessoal do entrevistador, e não com a probabilidade, na escolha de elementos da amostra. 0
pesquisador pode selecionar a amostra arbitrariamente, com base na conveniência, ou tomar uma decisão
consciente sobre quais elementos incluir na amostra. Exemplos incluem entrevistas com pessoas nas ruas,
nas lojas de varejo e nos shoppings. Embora produza boas estimativas sobre a característica populacional,
essas técnicas são limitadas: não é possível avaliar de maneira objetiva a precisão dos resultados da amostra.
Na amostragem probabilística, os elementos são selecionados por acaso, ou seja, de forma aleatória. A
probabilidade de selecionar cada amostra possível de uma população pode ser pre-especificada. Embora
toda amostra possível não precise ter a mesma probabilidade de seleção, é possível especificar a
probabilidade de selecionar uma amostra particular de certo tamanho. Os intervalos de confiança podem ser
calculados em torno das estimativas da amostra, e é significativo projetar estatisticamente os resultados da
amostra para a população; ou seja, fazer inferências sobre a população-alvo.
A terceira é o tamanho da amostra. 0 tamanho da amostra corresponde ao número de elementos a serem
incluídos no estudo. Como regra geral, quanto mais importante a informação, mais precisa ela deve ser, e
isso implica obter amostras maiores. A necessidade de maior precisão deve ser comparada ao aumento no
custo que vem com a coleta de informações.
A natureza da pesquisa também possui um impacto no tamanho da amostra. No caso das pesquisas
quantitativas, por exemplo uma pesquisa conclusiva, como um levantamento descritivo, exige amostras
grandes. A medida que o número de variáveis em um estudo aumenta, o tamanho da amostra deve crescer
consequentemente.
0 tipo de análise utilizado também influencia as exigências do tamanho da amostra. Uma análise sofisticada
dos dados utilizando técnicas avançadas, requer amostras maiores.
Por fim, a última etapa, que é a execução do processo de amostragem. Refere-se a implementação de vários
detalhes do modelo de amostra. A população é definida, a estrutura de amostragem é compilada, e as
unidades de amostragem são extraídas utilizando-se a técnica de amostragem apropriada necessária para
atingir o tamanho exigido da amostra.
As técnicas de amostragem podem ser amplamente classificadas como não probabilísticas e probabilísticas.
As técnicas de amostragem não probabilística mais utilizadas incluem a amostragem por conveniência, por
julgamento, por cota e a bola de neve. E as técnicas de amostragem probabilística são as amostragens
aleatórias simples, sistemáticas, estratificadas e por agrupamentos.
Vejamos cada uma delas!
A amostragem por conveniência, como o nome indica, envolve a obtenção de uma amostra de elementos
baseada na conveniência do pesquisador. Exemplos: uso de alunos, membros de organizações sociais;
abordagens em shoppings conduzidas sem qualificar os entrevistados; lojas de departamento que utilizam
lista de clientes; entrevistas com transeuntes e navegadores da Internet.
A amostragem por conveniência tem a vantagem de ser barata e rápida.
Apesar dessas vantagens, essa forma de amostragem possui serias limitações, e uma das principais é o fato
de a amostra resultante não ser representativa para qualquer tipo definível de população-alvo.
A amostragem por julgamento é uma forma de amostragem por conveniência na qual os elementos
populacionais são selecionados com base no julgamento do pesquisador. Esse profissional escolhe os
elementos da amostra acreditando que eles representem a população de interesse. Exemplos comuns
incluem: testes de mercado selecionados para determinar o potencial de um novo produto e lojas de
departamento selecionadas para testarem um novo sistema de exibição do produto.
A amostragem por julgamento é interessante, pois não é cara e se mostra conveniente e rápida. No entanto,
é subjetiva, dependendo, em grande parte, da habilidade e da criatividade do pesquisador. Portanto, não
podem ser feitas generalizações para uma população.
A amostragem por cota introduz dois estágios no processo de amostragem por julgamento. 0 primeiro
estágio consiste no desenvolvimento de categorias de controle, ou cotas, de elementos populacionais. Por
exemplo, mulheres asiáticas com idade entre 18 e 35 anos podem ser consideradas a categoria de controle
relevante para um estudo que envolve compras de cosméticos. 0 pesquisador, em seguida, estimaria a
proporção da população-alvo que se encaixa nessa categoria com base em experiencias passadas ou fontes
de informações secundárias. A amostragem seria então feita para garantir que a proporção das mulheres
asiáticas de 18 a 35 anos da população-alvo fosse refletida na amostra. As cotas são usadas para garantir que
a composição da amostra seja a mesma que a composição da população com relação as características de
interesse.
Assim que as cotas são atribuídas, ocorre o segundo estágio do processo de amostragem. Os elementos são
selecionados utilizando-se o processo por conveniência ou julgamento.
Diversos problemas possíveis estão associados com essa técnica de amostragem. As características
relevantes podem passar despercebidas no processo de estabelecimento de cotas, resultando em uma
amostra que não reflete a população em características de controle relevantes.
Na amostragem bola de neve, um grupo inicial de entrevistados é selecionado, geralmente de maneira
aleatória. Após serem entrevistados, esses participantes devem indicar outras pessoas pertencentes a
população-alvo de interesse. Esse processo contínuo resulta em um efeito bola de neve, já que uma
referência é obtida de outra.
Embora essa técnica de amostragem tenha início com uma amostra probabilística, o resultado é uma amostra
não probabilística. Isso acontece porque esses entrevistados tendem a ter características demográficas e
psicográficas que são mais semelhantes às da pessoa que os indicou do que poderia ocorrer ao acaso.
Na pesquisa industrial, a amostragem bola de neve é usada para identificar pares de
compradores/vendedores. Sua principal vantagem é o aumento substancial da chance de localizar a
característica desejada na população. Essa técnica também resulta em uma variação e custos relativamente-
baixos.
Vejamos agora as técnicas de amostragem probabilísticas.
As técnicas de amostragem probabilística consistem em aleatória simples, sistemática, estratificada e
agrupamentos. Essas técnicas variam em termos de eficiência da amostragem, que é um conceito que reflete
na relação direta e oposta entre o custo e a precisão da amostragem. Dessa maneira, os custos aumentam
com a melhoria da precisão.
Na amostragem aleatória simples (AAS), cada elemento da população possui uma probabilidade de seleção
conhecida e igual. Além disso, cada amostra possível de determinado tamanho (n) possui uma probabilidade
conhecida e igual de ser a amostra realmente selecionada. A implicação em um procedimento de
amostragem aleatória é que cada elemento é selecionado independentemente do outro.
A AAS possui muitos benefícios, e facilmente compreendida e produz dados que representam a população-
alvo. A maioria das abordagens de inferências estatísticas supõe que a amostragem aleatória foi utilizada.
Entretanto, a AAS sofre de pelo menos quatro limitações significativas: construir uma estrutura de
amostragem para a AAS é difícil; a AAS pode ser cara e demorada, pois a estrutura de amostragem pode ser
amplamente espalhada por uma área geográfica extensa; a AAS geralmente resulta em uma precisão menor,
produzindo amostras com grande erro padrão; e as amostras geradas por essa técnica pode não representar
a população-alvo, principalmente se o tamanho da amostra for pequeno. Embora as amostras extraídas
representem bem a população em geral, determinada amostra aleatória simples pode representar a
população-alvo de maneira extremamente equivocada.
Na amostragem sistemática, a amostra é escolhida selecionando-se um ponto de partida aleatório e, em
seguida, escolhendo cada i elemento em sucessão da estrutura de amostragem. A frequência com a qual os
elementos são extraídos, i, é denominada intervalo de amostragem. Ela é determinada dividindo-se o
tamanho da população N pelo tamanho da amostra n e arredondando para o número inteiro mais próximo.
Por exemplo, suponha que existam 100 mil elementos na população e uma amostra de 1.000 é desejada.
Nesse caso, o intervalo de amostragem, i, é 100. Um número aleatório entre 1 e 100 e selecionado. Se, por
exemplo, esse número for 23, a amostra consiste nos elementos 23, 123, 223, 323, 423, 523 e assim por
diante.
A amostragem estratificada envolve um processo de amostragem em duas etapas, produzindo uma amostra
probabilística. Primeiro, a população é dividida em subgrupos chamados estratos. Todo elemento da
população deve ser distribuído para somente um estrato e nenhum elemento deve ser omitido. Em seguida,
os elementos de cada estrato são então escolhidos de forma aleatória. De forma ideal, a AAS deve ser usada
para escolher os elementos de cada estrato. No entanto, na prática, a amostragem sistemática e outros
procedimentos de amostragem probabilística podem ser empregados.
Um dos principais objetivos da amostragem estratificada e aumentar a precisão sem elevar o custo. Assim, a
população é dividida usando-se variáveis de estratificação e os estratos são formados com base em quatro
critérios: homogeneidade, heterogeneidade, afinidade e custos.
As variáveis comumente usadas para estratificação incluem características demográficas, tipos de cliente,
tamanho da empresa ou tipo de indústria. A amostragem estratificada melhora a precisão da AAS. Portanto,
é uma técnica popular de amostragem
Na amostragem por agrupamento, primeiro a população-alvo é dividida em subpopulações mutuamente
exclusivas e agrupamentos. Depois, uma amostra aleatória de agrupamentos é escolhida com base em uma
técnica de amostragem probabilística, como a AAS. Para cada agrupamento escolhido, todos os elementos
são incluídos na amostra ou uma amostra dos elementos é extraída probabilisticamente.
Uma forma comum de amostragem por agrupamento é a amostragem por área, que se fundamenta nos
agrupamentos baseados nas áreas geográficas, como bairros ou quarteirão. Por exemplo, se um quarteirão
foi usado como agrupamento, então todos os domicílios dentro do quarteirão selecionado estarão aptos
para ser escolhido na amostra.
A amostragem por agrupamento tem duas grandes vantagens: a viabilidade e o baixo custo. Uma vez que as
estruturas de amostragem estão frequentemente disponíveis em termos de agrupamentos. Porém, a
amostragem por agrupamento produz amostras imprecisas nas quais agrupamentos distintos e
heterogêneos são difíceis de formar. Por exemplo, domicílios em um quarteirão tendem a ser semelhantes
em vez de diferentes. Pode ser difícil computar e interpretar as estatísticas baseadas em agrupamentos.
Pois bem, para facilitar mais o entendimento sobre amostragem, temos uma tabela com o resumo dos
pontos fortes e fracos das técnicas básicas de amostragem.

6.7 Preparação e análise dos dados


Após o pesquisador ter definido o problema da pesquisa, desenvolvido uma abordagem apropriada,
elaborado um projeto de pesquisa adequado, e conduzido o trabalho de campo, ele pode prosseguir para a
preparação e análise dos dados, a quinta etapa do processo de pesquisa.
Antes que os dados brutos contidos nos questionários possam estar sujeitos a análise estatística, eles devem
ser convertidos de uma maneira adequada. 0 cuidado exercido na fase de preparação dos dados pode
melhorar consideravelmente a qualidade das descobertas, resultando em melhores decisões gerenciais. Em
contrapartida, a falta de atenção nessa fase pode comprometer gravemente os resultados estatísticos,
levando a descobertas enviesadas e interpretações incorretas.
Como primeira etapa da preparação dos dados, verifica-se os questionários aceitáveis. Isso é seguido pela
edição, codificação e transcrição dos dados.
A preparação dos dados deve começar assim que o primeiro lote de questionários for recebido, enquanto
ainda está ocorrendo o trabalho de campo. Assim, se for detectado qualquer problema, o trabalho de campo
pode ser modificado para incorporar uma ação corretiva.
Um questionário devolvido do campo pode ser inaceitável por vários motivos. Por exemplo, partes dos
questionários podem estar incompletas, uma ou mais páginas podem estar faltando, problemas na execução
das exigências de amostragem e assim por diante. Assim, devem ser identificados os erros e ações corretivas
devem ser providenciadas.
Pois bem, feita a preparação dos dados, vamos realizar as análises.
A análise básica dos dados proporciona um conhecimento valioso e guia o restante da análise, assim como a
interpretação dos resultados. Uma distribuição de frequência deve ser obtida para cada variável nos dados.
Essa análise produz uma tabela de contagem das frequências, das porcentagens e das porcentagens
cumulativas para todos os valores associados com aquela variável. Ela indica os valores fora dos dois
intervalos validos, faltantes ou extremos.
A média, a moda e a mediana de uma distribuição de frequência são medidas da tendência central. A
variabilidade da distribuição é descrita pela amplitude, pela variância e pelo desvio-padrão.
Outra análise importante é o teste de hipóteses. 0 procedimento geral para o teste de hipóteses envolve oito
etapas: elaborar as hipóteses nulas e alternativas, selecionar um teste estatístico apropriado, escolher o nível
de significância, determinar o tamanho da amostra e os dados da coleta, determinar a probabilidade
associada com a estatística do teste calculada, comparar a probabilidade associada da estatística do teste
com o nível de significância especificado, tomar a decisão estatística para rejeitar ou não rejeitar a hipótese
nula. E, por fim, chegar a uma conclusão. Expressar a decisão estatística em termos do problema de pesquisa.
Embora as respostas para as questões relacionadas a uma única variável sejam interessantes, elas
normalmente geram questões adicionais sobre como relacionar essa variável a outras. As tabulações
cruzadas são tabelas que refletem a distribuição de frequência conjunta de duas ou mais variáveis. Na
tabulação cruzada, a regra é calcular as porcentagens na direção da variável independente, por meio da
variável dependente. Já a estatística do qui-quadrado fornece um teste de significância estatística da
associação observada em uma tabulação cruzada. 0 coeficiente pi, o coeficiente de contingência e o V de
Cramer determinam a medida da força da associação entre as variáveis.
Outra análise interessante é a de regressão, que é amplamente utilizada para explicar a variação em uma
variável dependente em termos de um conjunto de variáveis independentes. Por exemplo, as variáveis
dependentes poderiam ser a participação de mercado, as vendas ou a preferência por marca; e as variáveis
independentes poderiam ser as de gerenciamento de marketing, como propaganda, preço, distribuição,
qualidade do produto, e de estilo de vida.
No entanto, antes de falarmos sobre regressão, é importante conhecermos o conceito da correlação ou do
coeficiente de correlação. Neste sentido, o coeficiente de correlação r, mede a associação linear entre duas
variáveis métricas (escala intervalar ou de razão). E o seu quadrado, r2, mede a proporção de variação em
uma variável explicada por outra.
A regressão bivariada obtém uma equação matemática entre uma variável métrica única de critério e uma
variável métrica única de predição. A equação é obtida na forma de uma linha reta, usando-se o
procedimento dos mínimos quadrados. Quando a regressão é feita em dados padronizados, a intercepção
assume um valor de zero e os coeficientes de regressão são chamados de pesos beta. A força da associação
é medida pelo coeficiente de determinação (r2) obtido. Os diagramas de dispersão são uteis para examinar
a adequação das suposições básicas e do modelo de regressão ajustado.
Por outro lado, a regressão múltipla envolve uma variável única dependente e duas ou mais variáveis
independentes. 0 coeficiente de regressão parcial, b representa a mudança esperada em Y quando X é
alterada em uma unidade. A força da associação é medida pelo coeficiente de determinação múltipla, R2. E
a significância da equação de regressão geral pode ser testada pelo teste F geral. Os coeficientes individuais
de regressão parcial podem ser testados para significância com o teste t.
Apesar do leque de técnicas estatísticas que se pode utilizar em uma pesquisa, você conheceu as principais
técnicas de análise de dados.

6.8 Apresentação relatório de pesquisa


A preparação e apresentação do relatório constituem o último estágio do projeto de pesquisa. Ele segue a
definição de problema, desenvolvimento de abordagem, formulação de modelo de pesquisa, trabalho de
campo e análise e preparação de dados. Neste tema descrevemos a importância dessa etapa final, e como
se dá o processo de preparação e apresentação de relatório.
Todo o projeto de pesquisa deve ser resumido em um único relatório escrito ou em vários relatórios
endereçados a diferentes grupos. Por exemplo, um relatório preparado para a alta administração deve
enfatizar os aspectos estratégicos do projeto de pesquisa em vez de se ater a detalhes operacionais. Já para
os gerentes deve acontecer o contrário. Geralmente, uma apresentação oral complementa esses relatórios.
Após a apresentação, deve ser dada aos ouvintes a oportunidade de refletir.
Os formatos de relatório podem variar de acordo com o pesquisador ou com a empresa de pesquisa que
conduz o projeto, com o cliente para quem o projeto está sendo conduzido, além da natureza do projeto em
si. Portanto, o que se apresenta tem a intenção de servir como uma diretriz a partir da qual o pesquisador
poderá desenvolver o formato para o projeto de pesquisa do qual dispõe.
Grande parte dos relatórios de pesquisa inclui basicamente os elementos a seguir: Página de rosto, Carta de
apresentação, Sumario Executivo, Definição do problema, Projeto de pesquisa, Analise de dados, Resultados
e Conclusões e recomendações.
Embora a pesquisa seja científica, ela também envolve criatividade, intuição e experiência. Por isso, todo
projeto de pesquisa fornece uma oportunidade para aprender, e o pesquisador deve avaliar criticamente
todo o projeto para obter novas ideias e conhecimentos. A pergunta-chave é: 'Esse projeto poderia ter sido
conduzido de maneira mais eficiente ou eficaz?' Essa questão, naturalmente, gera diversas outras questões
especificas.
0 problema poderia ter sido definido de maneira diferente para realçar o valor do projeto ao cliente ou
reduzir os custos? Uma abordagem diferente teria rendido melhores resultados? Esse projeto de pesquisa
foi o melhor? E o método de coleta de dados? 0 plano de amostragem foi o mais apropriado? As fontes de
um possível erro de modelo foram previstas corretamente e mantidas sob controle pelo menos em um
sentido qualitativo? Se não, que mudanças poderiam ter sido feitas? A estratégia de análise de dados foi
eficaz em descobrir informações úteis para a tomada de decisão? As conclusões e recomendações foram
apropriadas e uteis para o cliente? 0 relatório foi adequadamente escrito e apresentado? 0 projeto foi
concluído dentro do prazo e o orçamento alocado? Se não, o que estava errado? Os conhecimentos
adquiridos a partir de tal avaliação beneficiarão o investigador e os projetos subsequentes.
Várias questões éticas surgem durante a preparação e a apresentação do relatório. Essas questões incluem
os dados ignorados pertinentes ao redigir conclusões ou recomendações, a não divulgação de informações
relevantes (como baixas taxas de resposta), o mau uso deliberado de estatísticas, a falsificação de dados, a
alteração dos resultados da investigação e a má interpretação dos resultados com o objetivo de apoiar um
ponto de vista pessoal ou empresarial.
Essas questões devem ser direcionadas de uma maneira satisfatória, e os pesquisadores devem preparar
relatórios que documentem de forma exata e completem os detalhes dos procedimentos e das descobertas.
Assim como os pesquisadores, os clientes também possuem alguma responsabilidade por revelar de forma
completa e exata os resultados da pesquisa e são obrigados a empregar essas descobertas honradamente.
Por exemplo, um cliente que distorce os resultados da pesquisa para fazer uma reivindicação mais positiva
na propaganda pode afetar negativamente o público. As questões éticas também surgem quando as
empresas clientes, tais como empresas de tabaco, usam os resultados de pesquisa de marketing para
formular questionáveis programas de marketing.
Várias questões éticas são pertinentes, particularmente aquelas relacionadas a interpretação e a
documentação do processo de pesquisa, assim como as descobertas para o cliente e as maneiras
subsequentes que os clientes usam esses resultados.
Referências

LARSON, Ron; FARBER, Betsy. Estatística aplicada. 6. ed. São Paulo: Pearson, 2016.

BUSSAB, Wilton de O.; MORETTIN, Pedro. A. Estatística básica. São Paulo: Saraiva, 2017

Você também pode gostar