Escolar Documentos
Profissional Documentos
Cultura Documentos
UNIVERSIDADE ZAMBEZE
De uma forma genérica, a palavra estatística provem do latim (status) que significa Estado. A sua
aplicação teve início antes de Cristo (a.C.), e começou a ter uma abrangência significativa no começo do
século XIX. As primeiras necessidades da estatística estavam ligadas ao Estado para formulação de
políticas públicas, fornecimento de informações demográficas e informações económicas para a
administração pública. Atualmente a estatística é largamente aplicada nas ciências naturais e sociais para
acumulação e análise de dados de uma forma geral para tomada de diversas decisões do quotidiano.
1.2. Definição
Na literatura, muitos autores definem a estatística de diversas formas. De uma forma genérica, a
estatística é uma ciência usada para descrever os procedimentos de coletar, organizar, analisar e
apresentar os resultados. A estatística é subdividida em duas áreas principais que são: 1. Estatística
Descritiva ou Dedutiva, 2. Estatística Inferencial ou Indutiva. A estatística descritiva é o ramo que lida com
a organização dos dados, resumos e apresentação. Enquanto que a inferência estatística compreende a
possibilidade de generalizar os resultados obtidos de certos dados para um contexto maior.
1.3.1. Dado
É a unidade mínima da informação que é colhida e processada para produzir uma informação. Exemplo:
idades dos alunos numa turma, as notas da primeira prova duma turma, ...
O dado é classificado em quantitativo e qualitativo. Dados quantitativos são aqueles que identificam
quantidade, caraterísticas suscetíveis a medição, por exemplo; idade dos alunos, altura dos alunos, peso
dos alunos, ... Dados qualitativos são aqueles que indicam uma qualidade, classificação, caraterística ou
categoria não suscetíveis a medição. Exemplo: sexo dos alunos, cor dos olhos dos alunos, estado civil dos
alunos, ...
Material de PME/2021 Docente: Joaquim Francisco Mazunga, MSC Page 1
Universidade Zambeze – Faculdade de Engenharia Ambiental de Recursos Naturais
1.3.2. Informação
É o resultado do processamento dos dados. Exemplo: percentagens das idades dos alunos duma turma, a
média das notas dos alunos...
1.3.3. População
Em estatística população (N) é o conjunto de indivíduos, objetos ou resultados experimentais acerca dos
quais pretende-se estudar algumas caraterísticas em comum. Exemplo: quantidade dos alunos de uma
turma, plantas de uma espécie plantadas numa área, todos habitantes de um país, ...
1.3.4. Censo
É atividade de inspecionar, coletar ou observar todos os elementos de uma população real, finita, com
objetivo de conhecer as suas caraterísticas.
1.3.5. Amostra
A amostra (n) é um termo usado para designar uma parte dos indivíduos da população. Exemplo:
melhores alunos de uma turma, algumas espigas de milho retirados num hectare, população de um
município num determinado país, ...
1.3.6. Variável
2. ESTATÍSTICA DESCRITIVA
2.1. Introdução
A estatística descritiva é o ramo que lida com a organização dos dados, resumos e apresentação da
informação desejada. O trabalho inicial na estatística é a coleta de dados que pode ser realizada numa
Material de PME/2021 Docente: Joaquim Francisco Mazunga, MSC Page 2
Universidade Zambeze – Faculdade de Engenharia Ambiental de Recursos Naturais
população ou amostra. Os dados coletados encontram se na sua forma bruta, de forma muito
desorganizada sem qualquer ordem ou padrão. Os dados coletados precisam de ser organizados e
apresentados numa forma sistemática e sequenciada por meio de tabelas e gráficos, que permitem dar
uma clareza para determinar os métodos estatísticos apropriados para serem aplicados num
determinado estudo.
São aqueles que são obtidos diretamente da recolha para uma determinada pesquisa, que ainda não
sofreram nenhum processo de análise. Podem ser apresentados em tabelas de frequências ou gráficos.
Para começar a trabalhar com os dados, primeiro devem ser organizadas de forma crescente ou
decrescente. Usualmente usa-se o sentido crescente dos dados.
2.1.2. Frequência
A frequência é a medida que quantifica a ocorrência dos valores de uma variável num determinado
conjunto de dados. Os tipos de frequências de ocorrência de categorias ou valores de uma variável
podem ser absolutas, relativas, percentual e acumuladas.
A distribuição de frequência de uma variável observada em populações finitas e amostras pode ser
apresentada de duas maneiras que são tabular ou gráfica. Para melhor percepção, abaixo vem um
exemplo de aplicação.
Frequência relativa (Fr) é o quociente entre ocorrência de cada atividade pelo total das atividades.
Frequência acumulada absoluta (Fac. Abs) é o somatório de cada observação da frequência absoluta.
Na recolha de dados para uma determinada pesquisa seja censo ou amostra, dependendo dos objetivos
de cada pesquisador, os tamanhos da população ou da amostra variam. Eles podem possuir tamanhos
pequenos ou grandes. Quando o tamanho da população ou amostra de um estudo é pequeno, não há
necessidade de agrupar os dados. Pode ser feito como os dados da tabela 2.1. Em estatística geralmente
considera-se uma amostra maior quando o número das observações é igual ou superior a trinta unidades.
Quando o número das observações é superior a trinta unidades, já pode ser considerado tamanho da
população ou amostra grande. Sendo grande, para apresentá-los numa tabela de frequências
(dependendo de cada pesquisador) podem ser agrupados de modo a condensar a informação. O
agrupamento de dados tem uma vantagem de diminuir constrangimentos para o manuseio de muitos
dados. A desvantagem de agrupar os dados reflete nos resultados a serem obtidos através dos
estimadores. Os resultados a serem obtidos que provem de dados agrupados, não são reais, mas são
muito aproximados aos resultados obtidos com os dados não agrupados.
Para o agrupamento de dados, depois de organizados, o critério mais utilizado é da escolha do número de
classes (k) entre 5 e 20 em função do conhecimento do investigador sobre os dados de sua pesquisa.
Existem muitos autores que abordam os critérios de agrupamento de dados de formas diferentes que
não serão apresentados todos. O objetivo do autor que produziu este material, é ilustrar o critério mais
clássico para o leitor ter uma base para resolver exercícios propostos.
Utilizando o critério empírico para determinar o número de classes (k) em função do tamanho da
população ou amostra na distribuição de frequências toma-se em consideração o seguinte:
i) Tamanho da amostra até 100, o número de classes obtém-se através da expressão arredondado
por excesso:
ii) Quando o tamanho da amostra é superior que 100, usa-se a expressão abaixo, também
arredondado:
A amplitude da classe (A) calcula-se pela diferença entre o valor máximo (max) das observações pelo
valor mínimo (min) utilizando a expressão abaixo:
A amplitude da classe (c) é o valor que quantifica a separação entre o limite inferior da classe e o limite
superior da classe. Depois de obtido o valor, é constante para todas classes a serem utilizadas. O valor da
amplitude da classe é obtido utilizando a seguinte expressão:
A razão para eu o denominador da divisão seja K-1 ao invés de k, é explicada por uma correção que é feita
no limite inferior da primeira classe. Esta correção é justificada pela suposição de que a amostra de
tamanho n tem grande chance de não conter o valor mínimo da população. Ou por outra, a medida que o
tamanho da amostra aumenta, tem uma maior chance de obter elementos menores que o valor mínimo
que foi encontrado para amostra de um tamanho menor.
O limite inferior da classe é o valor inicial que consta na primeira classe. Este valor é obtido usando a
expressão:
Depois de obtido o valor do limite inferior da primeira classe, segue o valor que limita a classe que se
obtém utilizando a expressão abaixo:
Exercício de aplicação 1.
Para melhor compreensão da matéria sobre coleta de dados, organização dos dados, organização dos
dados não agrupados em tabelas de frequência ou em gráficos e etapas de agrupamento de dados. Para o
efeito, o autor considerou dados referentes a falências múltiplas de órgãos coletados em Lisboa no ano
1993.
Quadro 2.1. Tempo de hemodiálise (HD) antes do transplante renal dos doentes em meses.
51 35 7 17 60 50 36 64
24 60 35 24 12 55 54 70
55 42 79 18 44 96 28 19
75 34 28 19 36 36 36 54
24 60 16 32 3 60 42 10
27 65 26 52 22 26 32 21
22 48 67 37 76 69 5 30
23 144 97 49 24 19 38 55
48 84 59 103 18 43 21 30
18 50 26 18 10 22 18 72
96 28 39 136 36 58 10 108
24 36 47 84 37 10 15 30
26 93 135 16 52 21 32 30
3 18 23 28 36 48 58 76
5 18 24 30 36 48 59 79
7 18 24 30 36 49 60 84
10 18 24 30 36 50 60 84
10 19 24 30 37 50 60 93
10 19 24 32 37 51 60 96
10 19 26 32 38 52 64 96
12 21 26 32 39 52 65 97
15 21 26 34 42 54 67 103
16 21 26 35 42 54 69 108
16 22 27 35 43 55 70 135
17 22 28 36 44 55 72 136
18 22 28 36 47 55 75 144
Com os dados não agrupados, temos na tabela 2.3. a variável (meses de espera) e a frequência absoluta,
que é o número de vezes que os meses observados se repetiram. Foram 104 doentes que transplantados.
Considerando os dados do quadro 2.2. vamos agrupa-los usando as etapas do ponto 2.2.4.
Fazendo os cálculos utilizando as expressões apresentados nos passos para agrupar dados, eremos K igual
a 10,085 que pode ser arredondado por excesso. Desta feita, prevê-se que o número de classes será 10.
Calculada a amplitude total das observações é igual a 141 meses. E a amplitude das classes, utilizado a
devida expressão matemática, será de 15 meses. O limite inferior a considerar será 0 (zero), a partir do
resultado 0,4 arredondado.
Classes (meses) Fa X
]0,15] 9 7,5
]15,30] 35 22,5
]30,45] 20 37,5
]45,60] 20 52,5
]60,75] 7 67,5
]75,90] 4 82,5
]90,105] 5 97,5
]105,120] 1 112,5
]120,135] 1 127,5
]135,150] 2 142,5
Total 104
Na tabela de frequência 3.3. temos a variável número de meses designado pela letra X, e são valores de
quantidade de meses observados. Enquanto que na tabela 3.4. já não pode acontecer porque a
quantidade de meses já se apresenta condensada, isto é, os seus valores estão agrupados. Para a
obtenção dos valores de X (marca da classe), é feita a adição entre o valor do limite inferior da classe e do
limite superior divididos por dois. Este valor de X será aplicado para o cálculo das medidas de tendência
central, assimetria e de dispersão que serão abordados nos pontos seguintes.
2.1.5.1. Média
A média ou (média aritmética) é uma medida de posição mais comum que é muito utilizada. Ela indica o
centro de gravidade do conjunto de dados e, obtém-se pela soma das observações dividida pelo número
delas (sua quantidade).
Média amostral
Média populacional
Média amostral
Média populacional
2.1.5.2. Mediana
A mediana é definida em um conjunto de dados ordenados como o valor central. Por outra, ela divide o
conjunto de dados em dois subconjuntos com o mesmo número de elementos, ficando abaixo dela 50%
das observações e acima 50% das observações. A mediana é obtida através das fórmulas abaixo:
Para os dados agrupados em intervalos de classes da mesma amplitude, a mediana é calculada através da
fórmula abaixo:
Onde:
2.1.5.3. Moda
É o valor que ocorre com maior frequência num conjunto de dados, (o valor que se repete mais). Ela ode
não existir, também podem ocorrer muitas modas dentro do mesmo conjunto de dados.
Para os dados não agrupados é fácil identificar num conjunto de dados organizados em ordem crescente
ou decrescente.
Material de PME/2021 Docente: Joaquim Francisco Mazunga, MSC Page 10
Universidade Zambeze – Faculdade de Engenharia Ambiental de Recursos Naturais
Onde:
Os quantís tem como objetivo fornecer indicadores do local onde a maioria dos dados se
concentram, indicam o ponto de corte para uma certa posição. Eles podem ser percentís, decís e
quartís. Os percentís dividem o conjunto de dados e 100 partes iguais, os decís dividem o
conjunto em 10 partes iguais. Os mais usados são os quartís, que dividem o conjunto de dados
em quatro partes iguais (25%, 50%, 75% e 100%).
Geralmente nos quartís calcula-se o primeiro quartil e o terceiro quartil excetuando o segundo
quartil e o quarto quartil. O segundo quartil é coincidente com o valor da mediana e o quarto é a
última posição do conjunto dos dados.
Quando os dados não estão agrupados considera-se o número total das observações dividido por
quatro. O valor obtido, é a posição onde se encontram os quartís.
Por exemplo, tomando em consideração os dados do quadro 3.2., sabendo que o número das
observações são 104 meses, teremos:
Para os dados agrupados, primeiro calcula-se a posição da classe o primeiro quartil pelo
quociente do número total das observações e quatro (seja par ou ímpar), em segundo, identifica-
se a classe que contém o primeiro quartil, em terceiro, calcula-se o valor através da fórmula:
Onde:
Para o cálculo do terceiro quartil que deixa 75% dos elementos do conjunto, calcula-se a posição
pelo produto de três vezes o tamanho da amostra dividido por quatro (seja par ou ímpar),
segundo, também identifica-se a classe que contém o terceiro quartil, terceiro, aplica se a
fórmula:
Onde:
A amplitude é uma medida de posição que se obtém pela diferença de um conjunto de dados entre o
valor maior observado pelo valor menor.
Para falar da variância e desvio padrão, é indispensável o conhecimento do desvio médio, que é a média
dos valores absolutos dos desvios dado pela expressão abaixo:
Dados agrupados;
O desvio padrão é raiz quadrada da variância de um conjunto de dados. Calcula-se pela fórmula:
Uma pequena dispersão absoluta dos dados pode ser consideráveis quando comparada a ordem de
grandeza dos valores da variável. Para perceber o tamanho real da dispersão dos dados, define-se o
coeficiente de variação. O coeficiente de variação é uma medida adimensional geralmente expressa em
percentagem, indicando a percentagem que o desvio padrão apresenta em relação à média. Calcula-se
pela expressão abaixo:
Exercícios ...
3. PROBABILIDADES
3.1. Introdução
Algumas escrituras relatam que a teoria de probabilidades é uma invenção que surgiu através de jogos de
azar no Mónacon na França. Foi aprimorado pela necessidade de tentar prever alguma tentativa para que
o apostador poderia ganhar um prémio. Teve início no séc XVI pelo Matemático Italiano Niccollo Fontana.
No séc XVII surgiram seus seguidores Matemáticos Blaise Pascal e Pierre Fermat. Tornou-se um
importante ramo da matemática adequado ao estudo dos fenómenos aleatórios regidos pela lei do acaso,
e é uma ferramenta fundamental para o estudo da Estatística.
Exemplo de experimento: no lançamento de uma moeda duas vezes, espera -se como resultados
possíveis (espaço amostral), Ω = {CC, CK, KC, KK}, considerando K – saída de coroa e C – saída de cara. O
espaço amostral é designado por uma letra maiúscula qualquer.
Exemplo de evento: saída de pelo menos uma cara Ω = {CC, CK, KC}.
A teoria de conjuntos é um ramo da matemática é muito importante para o estudo de probabilidades dos
eventos. Os eventos são subconjuntos do espaço amostral. Considere o exemplo a seguir:
É um conjunto de quatro elementos. Seja um evento A, definido como culturas relacionadas a grãos. Esse
evento corresponde a um subconjunto de S representado por:
A = {soja, milho}
Considerando outro evento B, definido como a cultura ser uma gramínea. Teremos um subconjunto
formado por cana e milho. B = {cana, milho}.
Havendo mais um evento C constituído pela cultura de inhame, corresponde a um evento impossível,
denominada conjunto vazio. Denota-se:
3.3.1. Reunião
Algumas operações entre conjuntos podem ser definidas. A reunião dos elementos de dois ou mais
conjuntos é denominada união ou reunião.
3.3.2. Interseção
Outra operação é a interseção entre conjuntos. É definida como um conjunto com elementos que
pertencem em simultâneo aos conjuntos em estudo. Representa-se:
Dois eventos (conjuntos) tem interseção mula, que são mutuamente exclusivos. Se D={cana, algodão} e A
= {soja, milho}, então o conjunto A interseção com D é igual ao conjunto vazio, ou seja, A e D são
mutuamente exclusivos.
3.3.4. Complementaridade
A maior ou menor possibilidade de ocorrência dos diversos eventos é medida por um número chamado
probabilidade. Historicamente a probabilidade foi objeto de muita discussão, tendo sido definido como
sendo um limite da frequência relativa de ocorrências de um evento quando o número de provas tendia
ao infinito. Esta definição é a chamada frequência, que padecia de uma limitação.
Surgiu a segunda definição, a chamada clássica, que define a probabilidade como o quociente do número
de casos favoráveis ao evento pelo número de casos possíveis, desde que todos sejam igualmente
prováveis. Esta definição é considerada até hoje como uma regra prática para a atribuição das
probabilidades aplicáveis.
Partindo destes três axiomas, surgem outras propriedades que podem ser deduzidas como teoremas:
Onde:
Os conceitos de análise combinatória são necessários no estudo da teoria de probabilidades. Estas regras
são consequências do princípio fundamental de contagem.
3.5.1. Permutação
3.5.2. Arranjo
Da mesma forma que na permutação, o termo arranjo de n elementos tomados X a X, denota o número
de arranjos possíveis.
3.5.3. Combinação
Em muitos casos o fato de se saber que certo evento ocorreu, faz com que se modifique a probabilidade
que se atribui a outro evento. Denota-se por P(E\F), a probabilidade do evento E sabendo que F ocorreu,
ou probabilidade de E condicionada a F. A ocorrência da relação denota-se:
Analogamente;
Das regras acima, resulta da regra do produto que se refere ao cálculo da probabilidade do evento
interseção,
Note que a ordem de condicionamento pode ser invertida. Para três eventos pode ser escrito:
Seja E1, E2, ..., En; uma partição e F um evento qualquer de S, teremos:
Esse resultado pode ser demonstrado considerando-se o evento F subdividido em suas interseções com
eventos E, e aplica-se as propriedades anteriores.
A ideia contida no teorema de Bayes deu origem a uma nova maneira de se pensar na Estatística gerando
a chamada Estatística Bayesiana.
4. DISTRIBUIÇÕES DE PROBABILIDADES
O conceito de variável aleatória que vamos definir nos permite associar aos resultados de um
experimento aleatório de números reais para que, utilizando o conceito de função, possa-se calcular mais
facilmente as probabilidades das ocorrências de vários eventos desse experimento.
A principal medida de posição nas v.a. é a média, também chamada de valor esperado ou esperança. Para
v.a.d. é dado por:
Exemplo v.a.d.: são lançadas três vezes uma moeda, espera-se obter:
N° de
caras Probabilidade
0 1/8
1 3/8
2 3/8
3 1/8
Total 8/8=1
Exemplo v.a.c.: dada uma variável contínua X pela função densidade de probabilidade f(x)=3x2, onde X
varia de o a 1.
As medidas de dispersão mais abordadas são a variância e o desvio padrão. A variância de uma v.a. X de
população infinita, é uma medida que quantifica a dispersão dos valores em torno da média. É o principal
parâmetro de dispersão e mede a variabilidade dos valores em relação a sua média.
Exemplo: um jogo consiste em lançar uma moeda. Se sair cara ganha-se 10 meticais e se sair coroa perde-
se 5 meticais. Qual é o lucro médio do jogo e qual é a sua variância?
Ou
Com objetivo de manter a mesma unidade da variável aleatória original, e necessário definir desvio
padrão como sendo a raiz quadrada da variância. O desvio padrão da variável X é a raiz quadrada positiva
da variância de X dada por:
São variáveis que somente assumem valores inteiros, ou seja, sem funções. Geralmente os valores são
obtidos por contagens.
Seja X uma variável aleatória. Se o número de valores possíveis de X for finito ou infinito enumerável,
denomina-se X de varável aleatória discreta (v.a.d.).
A probabilidade de que a v.a. X assuma um valor qualquer Xi, é distribuída por meio da função de
probabilidade de X que é representada por P(X = x) ou simplesmente P(x).
O conjunto dos pares formados pelos valores assumidos pela v.a. e suas respetivas probabilidades de
ocorrência formam a distribuição de probabilidade da v.a. em estudo. A distribuição de probabilidade
pode ser expressa por meio de uma tabela ou gráfico.
É muito comum encontrar aplicações com variáveis que seguem diferentes tipos de distribuição discreta.
As mais comuns, que iremos abordar são; Uniforme Discreta, Bernoulli, Binomial, Hipergeométrica e
Poisson.
Uma variável discreta X, com os valores X1,X2,...,Xk, segue distribuição uniforme discreta se todos valores
forem equiprováveis e se sua função de probabilidade puder ser representada da seguinte forma:
Não há restrição quanto aos prováveis valores da variável, que podem ser qualquer número real, desde
que o número de valores diferentes seja finito.
Uma variável aleatória discreta X segue distribuição de Bernoulli se sua probabilidade p ser o único
parâmetro da distribuição que em geral, representa a probabilidade de sucesso 1, e o seu complemento
1-p que mostra a probabilidade de fracasso 0. Assim, um experimento ou ensaio de Bernoulli é
caraterizado pelo fato de a variável discreta assumir resultados dicotômicos (0 ou 1).
Valor esperado:
A variância:
Considere uma variável discreta X que representa o número total de sucessos obtidos em N ou n
experimentos independentes de Bernoulli. Então N ou n e p são os parâmetros da distribuição, em que N
representa o número total de ensaios e p a probabilidade de sucesso 1, que deve ser a mesma em cada
ensaio independente de Bernoulli.
Valor esperado:
A variância:
Considere um conjunto com N objetos, dos quais r são do tipo I e N-r são do tipo II. Uma amostra é
escolhida ao acaso sem reposição com tamanho n onde (n<N) e define-se X como número de objetos com
caraterística I na amostra. Nesse caso diz se que a variável X segue uma distribuição Hipergeométrica com
r,N e n. Em que N é a população, n é amostra, r é o valor observado na população, k é o valor observado
na amostra.
Valor esperado:
A variância:
Seja X uma variável que segue uma distribuição de Poisson com parâmetro λ. A sua função de
probabilidade é dado por:
Valor esperado:
A variância:
Uma variável aleatória X é classificada contínua se X puder assumir todo e qualquer valor em algum
intervalo [a,b]. Em geral, é obtida em aparelhos de medição. Exemplo, altura de um indivíduo (cm ou m);
tempo de anestesia em humanos (hora e frações); produção de leite de vacas (litros e frações).
Qualquer função f(.) com domínio real e contradomínio [0, ꚙ[ é uma função densidade de probabilidade
se somente se:
A probabilidade da variável aleatória assumir valores no intervalo [a,b] é dada pela integral da função
densidade no intervalo de interesse, ou seja:
Em muitos experimentos, diversas distribuições contínuas são associadas a estes tipos de variáveis como
Uniforme, Exponencial e Normal. Entre estas, a mais utilizada em resultados de inferências estatísticas é a
distribuição Normal.
A variável aleatória X segue o modelo Uniforme Contínuo com parâmetros a e b se sua função densidade
de probabilidade é dada por:
Valor esperado:
A variância:
Suponha-se que X segue distribuição Exponencial com parâmetros λ, λ>0 se e somente se sua função
densidade de probabilidade for dada por:
Valor esperado:
A variância:
A distribuição Normal, também conhecida como curva de Gauss, é a mais importante das distribuições
contínuas de probabilidades. Inicialmente utilizada para representar a distribuição dos erros
experimentais nas observações astronómicas, depois passou a ser aplicada em inúmeras variáveis como o
comportamento coletivo dos movimentos das moléculas dos gases, experimentos agrícolas.
Uma variável aleatória X tem distribuição normal com média e variância, µ e σ2, a função densidade é
dada por:
Indica-se resumidamente que a variável aleatória X tem distribuição normal com média e variância
conhecidas por:
...imagem da curva
Seja X uma variável aleatória bidimensional, ou seja, para determinado experimento, cada resultado é
proveniente da avaliação simultânea de dois caracteres. Por exemplo, ao se estudar o número de vagens
e o número de grãos por vagem de feijão, X é uma variável aleatória bidimensional discreta (v.a.b.d.).
Se X é uma v.a.b.d., então cada par de valores (Xi,Yi) será associada a sua probabilidade de ocorrência
representada por P(xi,yi)=P(X=xi, Y=yi). Assim a v.a.b.d. terá a função de probabilidade se somente se
atender as seguintes condições:
Para o caso contínuo em que (x,y) será função densidade contínua (v.a.b.c.), f(x,y), será função densidade
de probabilidade conjunta se e somente se atender as condições seguintes:
Exemplo.....
Seja X,Y uma variável aleatória bidimensional com determinada distribuição conjunta de probabilidades.
É possível obter a distribuição X sem considerar ou ao longo de Y e vice-versa. Estas distribuições
marginais de X e de Y, respetivamente. As distribuições marginais são obtidas considerando:
i) (X,Y) v.a.b.d.
exemplo....
Material de PME/2021 Docente: Joaquim Francisco Mazunga, MSC Page 26
Universidade Zambeze – Faculdade de Engenharia Ambiental de Recursos Naturais
Se (X, Y) é uma variável aleatória bidimensional discreta, então X e Y serão independentes se e somente
se, para todo par de valores (Xi,Yj), tem:
Isto, se a probabilidade conjunta do par (Xi,Yj) for igual ao produto de suas marginais.
Se (X,Y) é uma variável aleatória bidimensional continua, então X e Y serão independentes se e somente
se:
Para todo x e y, ou seja, se a função densidade de probabilidade (f.d.p.) conjunta de (X, Y) for igual ao
produto de suas funções marginais.
Se X e Y são v.a. independentes, então cov(X,Y)=0, mas se cov(X,Y)=0, não implica dizer que X e Y são v.a.
independentes.
Exemplo: seja X e Y variáveis aleatórias discretas bidimensionais cuja distribuição de probabilidade é dada
a seguir:
Y
-1 0 1
X
-1 1/5 0 1/5
0 0 1/5 0
1 1/5 0 1/5
Resolução:
5. AMOSTRAGEM
5.1. Amostragem
Todas estatísticas iniciam quando temos dados disponíveis. Estes dados provem de uma determinada
população identificada pelo investigador para um estudo, em que na impossibilidade de recolher dados
de toda a população, por vários motivos, recorre-se a uma parte desta população chamada amostra. Mas
as conclusões que serão obtidas através da amostra, são apenas um meio para chegar à população. A
amostra não é relevante enquanto amostra, mas sim, como a base a partir da qual se podem fazer
extrapolações a toda população.
A amostragem classifica-se em aleatória e não aleatórias. A seleção dos elementos da amostra depende
da técnica de amostragem escolhida (aleatória, não aleatória ou a combinação de ambas), resultado da
ponderação de vários fatores de modo que a amostra seja representativa.
Uma amostra é representativa quando as características em estudo dos elementos da amostra são
as mesmas que toda a população ou universo apresenta. Amostra representativa é aquela que
reflete os aspectos típicos da população. É uma espécie de maquete, que capta, para o estudo
concreto, às características mais relevantes da população.
Chama-se população alvo, aos elementos componentes da população que possuem em comum as
características em estudo.
As técnicas de amostragem agrupam-se em duas categorias que são aleatórias e não aleatórias.
Dentro de cada uma delas há uma diversidade de procedimentos amostrais, sendo ainda possível
combinar processos aleatórios com os não aleatórios.
Uma amostra é considerada aleatória ou probabilística, se for recolhida por um processo tal que
assegura que todo e qualquer elemento ou grupo de elementos da população tem probabilidade
calculável e diferente de zero, de ser escolhido para integrar a amostra.
Os principais tipos de amostra probabilístico são: simples, sistemática, estratificada, por clusters e
multi-etapas.
Uma amostra aleatória simples de n elementos retirada de uma população N elementos, é tal que
qualquer dos elementos da amostra tem a mesma probabilidade de ser selecionada 1/NCn . Em
muitos casos a seleção é feita recorrendo a uma tabela de números aleatórios.
A obtenção de uma amostra aleatória simples pode ser feita mediante os passos seguintes:
ii. Escolher n elementos mediante o uso de um procedimento aleatório como seja o método
de lotaria, consulta de tabelas de números aleatórios, ou a geração de números aleatórios
informaticamente. Qualquer que seja o procedimento a utilizar desde que assegure que os
números escolhidos são diferentes e não superiores a N;
i. Calcular o intervalo da amostra k obtido pelo quociente N/n. Quando se trabalha com
populações (base de sondagem) em que os elementos são claramente individualizados
(caso das populações humanas) é vulgar recomendar-se que aquele quociente seja
arredondado ao inteiro mais próximo por defeito;
iii. Partindo desse número, adicionar sucessivamente o valor k, ficando assim selecionados os
elementos j, j+k, j+2k, j+3k, ... , j+(n-1)k, perfazendo o número n.
As opções ao nível de construção de base de sondagem têm impacto na precisão dos estimadores.
Tomando novamente o caso da média amostral, a sua variabilidade é;
O objetivo de estratificar uma população é reduzir a variabilidade dos estimadores e assim obter
estimativas mais precisas. Tendo presente que a variância total de uma população é constante e
pode ser decomposta em:
ii. Organizar as bases de sondagem, pois se cada estrato é tratado como uma população
independente nas outras serão necessárias tantas bases de sondagem quantos os estratos
definidos;
iii. Selecionar os elementos dentro de cada estrato mediante um processo aleatório simples ou
sistemático. Nesta fase a opção por uma estratificação proporcional ou não proporcional
ajuda a determinar quantos elementos de cada estrato devem incluir na amostra.
Na amostragem por múltiplas etapas usa-se uma combinação de procedimentos dos vários tipos
anteriores em diferentes fases. Por exemplo, para uma amostra de famílias que vivem na cidade de
Chimoio, numa primeira etapa escolhem-se aleatoriamente os bairros que compõe a cidade, na
segunda etapa escolhem-se aleatoriamente os quarteirões dentro destes bairros escolhidos, na
terceira etapa escolhe-se aleatoriamente a rua ou prédio e, na última etapa, também aleatoriamente
identifica-se a casa onde vai se inquirir um representante da família.
Este tipo de amostragem que confere a categoria de não aleatória a uma amostra é a ausência de
um mecanismo que determinar rigorosamente quem é escolhido, recorrendo-se para o efeito ao
julgamento humano, existem várias formas de o fazer, como as mais usuais são: intencional,
quotas, bola de neve, por conveniência.
Nesta amostragem o investigador usa como base o seu conhecimento para identificar elementos
representativos ou típicos da população. Uma vez conhecidos os critérios que interessam ao
estudo, os indivíduos são escolhidos em função desses critérios.
Esta amostragem é uma variante da amostragem intencional que apresenta semelhanças com a
amostra probabilística estratificada, da qual difere por não se usarem procedimentos aleatórios de
seleção dos indivíduos. Usa-se o critério de incluir um certo número (quota) de indivíduos de cada
um dos subgrupos considerados na população.
É uma variante de amostra intencional normalmente usada para populações pequenas ou com
caraterísticas especificas que interessam para o estudo, mas que não é possível listar para fazer
uma amostra aleatória. A amostra é constituída gradualmente a partir de um núcleo inicial de
indivíduos aos quais se vão juntar outros indicados pelos anteriores que possuem as mesmas
caraterísticas de interesse.
Um bom estudo, depende geralmente do uso de um bom instrumento de recolha dos dados, isto é,
se o instrumento de recolha dos dados não for bem planificado, ou elaborado, a consistência do
trabalho será pobre.
Um bom inquérito tem que possuir poucas perguntas e concisas de modo a não deixar o inquirido
cansado ou desanimado. Tem que evitar perguntas embaraçosas como a idade, o salário que
aufere, o nível acadêmico, etc. Nas questões, deve haver uma questão chave do estudo. Também o
tipo de perguntas mais recomendadas são as fechadas, porque facilitam na análise dos dados e
consequentemente bons resultados. E as perguntas abertas são muito difíceis de analisar porque
contém respostas muito diferentes, fazendo com que haja dificuldades de agrupar e analisar.
O projeto não deve ser executado antes da reflexão preliminar, documentação e estudo do domínio
do objeto da inquirição. Uma vez os objetivos estabelecidos, torna-se necessário definir as
nomenclaturas, conceitos e metodologias a utilizar que devem ser compatíveis com os padrões
internacionais.
A escolha da população (no sentido estatístico) que será interrogada deve se fazer a delimitação
do universo a que o estudo diz respeito, o que passa por explicar unidades a inquirir.
Um bom questionário não deverá em princípio, levar mais de uma hora a se preencher. É preciso
insistir que esta etapa necessita de ser feita com profissionalismo, pois muitos estudos fracassam
devido a questionários mal redigidos.
Torna-se indispensável controlar o trabalho dos inquiridores, esta fase deve ser bem delimitada
quanto ao tempo que deve durar o trabalho de inquirição. Nesta fase, é recomendado que os
inquiridores sejam capacitados antes de irem ao campo.
Nesta fase faz se a análise dos dados utilizando pacotes estatísticos, sua interpretação e as
possíveis recomendações. Com o desenvolvimento da indústria electrónica e dos
microcomputadores, em particular, provocaram uma autêntica evolução nas metodologias
estatísticas estando em via de alterar profundamente o conteúdo e a programação das etapas
anteriores. Grande parte do trabalho para ser automatizado fazendo com que se junte a etapa de
trabalho do campo e validação dos dados.
Ao planear qualquer sondagem, uma questão que merece sempre grande atenção é a decisão
quanto ao número de indivíduos n que a amostra deve conter. Não se pode planear e implementar
uma sondagem sem conhecer a dimensão da amostra. É uma decisão nem sempre fácil, pois, na
essência há que contrabalancear dois efeitos opostos: a precisão que a partida aumenta com a
dimensão da amostra, e o custo diretamente relacionado com a dimensão da amostra. As amostras
podem variar de dimensão por várias razões. O cálculo da dimensão da amostra pode ser feito
matematicamente desde que os elementos sejam escolhidos por um procedimento aleatório. Não
existe uma fórmula matemática fixa para a determinação do tamanho da amostra.
A opção por uma dimensão de amostra depende da ponderação de diversos fatores. Para o seu
cálculo matemático são; variáveis chaves à variabilidade da população no que respeita a
característica em estudo, a precisão e confiança requerida para os resultados e, a distribuição
amostral do estimador utilizado na estimação do parâmetro. Importa ainda ponderar o n assim
encontrado com fatores como o custo ou o efeito nos erros não relacionados com a amostragem.
Para estimar um parâmetro é necessário dispor de um estimador, que com base na informação de
uma amostra concreta fornece uma estimativa para o parâmetro. Contudo, de uma população de N
elementos é possível retirar NCn diferentes amostras de dimensão n, sendo que cada amostra
conduzirá a diferentes valores para o estimador. Se esse processo de retirar amostras da mesma
dimensão da população, fosse repetido inúmeras vezes, obter-se-ia um padrão de resultados que
em conjunto dariam origem à sua distribuição amostral.
5.4.5. Custo
A precisão dos resultados cresce com o aumento da dimensão da amostra, mas existem outros
fatores que colocam restrições ao aumento ilimitado da amostra, restrições essas que se prendem
com os custos a suportar em todo o processo amostral. O tempo que se dispões para a realização
do estudo e outros fatores como sejam o pessoal disponível para efetuar o trabalho, ditam aumento
de custos.
• Encontrar uma equação que relacione n com a precisão e confiança desejada para os
resultados;
• Avaliar o n encontrado.
6. ESTIMAÇÃO
Quando se observa uma população, devido a diversas dificuldades, examina-se uma amostra. Se
essa amostra for representativa, os resultados obtidos serão generalizados para toda a população.
O pesquisador pode levantar as hipóteses e depois testa-las sendo depois rejeitada ou não
rejeitada. Geralmente um experimento tem por finalidade a determinação da estimativa por um
parâmetro de uma função. Toda conclusão tirada por meio de uma amostragem, quando
generalizada para a população, vem acompanhada de um grau de incerteza.
Existem dois principais tipos de estimação que são; estimação por ponto e estimação por
intervalos.
Na estimação por ponto, a partir das observações, calcula-se uma estimativa usando o estimador.
A distribuição por amostragem dos estimadores, torna-se possível o estudo das qualidades do
estimador.
i) Consistência;
ii) Ausência de vício;
iii) Eficiência;
iv) Suficiência.
6.1.1.2. Estimação por intervalo
Geralmente a estimação por pontos de um parâmetro, não possui uma medida do possível erro
cometido na estimação. Uma maneira de expressar a precisão da estimação é estabelecer limites
que com certa probabilidade inclua o verdadeiro valor do parâmetro do verdadeiro valor do
parâmetro da população. Esses limites, são chamados limites de confiança, que determinam um
intervalo de confiança que deverá estar o verdadeiro valor do parâmetro.
A estimação por intervalo consiste na fixação de dois valores tais que (1-α) seja a probabilidade
de que o intervalo por ele determinado contenha o verdadeiro valor do parâmetro.
Considerando uma população normal com média desconhecida que desejamos estimar, e com
variância populacional conhecida, X: ~N(?; var), para a construção do intervalo de confiança
segue os procedimentos abaixo:
Considera-se uma amostra grande quando n > 30. Precisa-se construir intervalos de confiança para
parâmetros de populações não normais com distribuições binomiais, de Poisson, de frequências
relativas, distribuições aproximadamente normais ou de populações normais com variâncias
desconhecidas.
6.2.3. Intervalo de confiança para a média de uma população normal com variância
desconhecida
Quando quer-se estimar a média de uma população normal com variância desconhecida,
considera-se dois procedimentos:
7. TESTES DE HIPÓTESES
Neste capítulo o objetivo é...
Suponhamos que uma certa distribuição dependa de um parâmetro θ e que não se conheça θ, ou
haja razões para acreditar que o θ variou, seja pelo tempo ou pela introdução de novas técnicas na
produção, a inferência estatística fornece um processo de analise denominado teste de hipótese. O
teste de hipóteses permite decidir por um valor do parâmetro pela sua modificação com um grau
de risco conhecido.
i) Testes bilaterais
iv) Testes aplicados a valores do parâmetro obtido após a decisão tomada em um dos três
testes anteriores
• Se o valor observado (Vcalc) pertencer a região de não ejeição, a decisão é de não rejeitar
H0;
• Se Vcalc pertencer a região crítica, a decisão é de rejeitar H0.
H0 Verdadeira Falsa
Decisão
Não rejeitar Não há erro Erro do tipo II
Rejeitar Erro do tipo I Não há erro
Material de PME/2021 Docente: Joaquim Francisco Mazunga, MSC Page 42
Universidade Zambeze – Faculdade de Engenharia Ambiental de Recursos Naturais
Pode-se cometer erro do tipo I quando rejeitamos H0, e o erro do tipo II quando não
rejeitamos H0.
8. CORRELAÇÃO E REGRESSÃO
O objetivo deste capítulo é...
A distinção que se faz entre regressão e correlação linear simples, é que a regressão visa
estabelecer uma relação funcional entre duas variáveis e, a correlação mede a intensidade da
relação entre duas variáveis, sem estabelecer uma variável dependente e outra independente. Na
regressão, pode-se estabelecer uma relação funcional entre uma variável aleatória Y (dependente)
e outra variável independente que pode ser aleatória tanto como fixa.
Para a obtenção da equação matemática, devem ser calculados os parâmetros e através das
derivadas parciais da variável dependente Yi e função destes ( e ).
Para o ajuste, primeiro, precisa-se da variação total, também chamada de Soma de Quadrados
Total (SQTotal), que mede a variação dos dados observados em torno da média da variável
dependente.
Por meio dessa da expressão acima pode-se realizar testes que permitem verificar se os resultados
práticos obtidos em um experimento aleatório seguem uma determinada distribuição.
No teste só há uma região de rejeição à direita, quando mais próximo for Oi de ei, mais próximo
de zero (à esquerda da X2), mais perfeita é a aderência testada. Ou por outra, rejeita-se H0 a um
nível de significância α caso o valor da estatística de teste seja superior a Xcalc, isto é, rejeita-se H0
se X2calc > X2tab, caso contrário, não se rejeita H0.
Exemplo:
Considere um dado lançado 120 vezes obtendo-se os resultados na tabela abaixo. Teste as
hipóteses de que o dado seja perfeito ao nível de 5%.
faces Oi
1 23
2 15
3 14
4 21
5 22
6 25
X2calc=125-120
Não se rejeita a H0. Isto quer dizer que o dado não é viciado.
Exemplo:
Valores observados ou Oi
Votos
A favor Contra Indecisos Total
Partido
Democratas 85 78 37 200
Republicanos 118 61 25 204
Total 203 139 62 404
Valores ajustados
Votos
A favor Contra Indecisos Total
Partido
Democratas 100 69 31 200
Republicanos 103 70 31 204
Total 203 139 62 404
r=2
c=3
ɸ = (2-1)(3-1) = 2
α = 5%
Xα2 = 5,9915
Logo: rejeita-se H0, isto quer dizer que ao nível de 5% de significância, pode se afirmar que os
políticos não votaram independentemente da orientação de seus partidos.
Bibliografia
LUIZ GONZAGA MORETTIN, (2010), Estatistica Básica (Probabilidade e Inferencia), São Paulo.
WILTON O. BUSSAB, Análise de Variância e Regressão (Métodos Quantitativos). São Paulo, 2ª ed.
Atual, 1988.
REINALDO CHARNET et al, Análise de Modelos de Regressão Linear (com aplicações). São Paulo, 2ª
ed., Unicamp, 2008.
COSTA NETO & CYMBALISTA, Probabilidades, São Paulo, 2ª ed., Editora Blucher, 2006.