Você está na página 1de 91

Estatística Aplicada à Engenharia Elétrica

1 Estatística

Definição 1.1 Estatística é uma ciência que se dedica à coleta, organização, análise,
interpretação e apresentação de informações que possam ser colocadas sob forma nu-
mérica (ou não) e que servirão de base para inferências. Ela é composta de um conjunto
de técnicas para se obter conhecimento preciso, a partir de informações incompletas.

A Estatística compreende duas funções:

• Estatística Descritiva

• Estatística Indutiva ou Inferencial

2 Estatística Descritiva

É usada para resumir aspectos importantes de conjuntos de dados, através de tabelas,


gráficos e números. Como também, para analisar e interpretar os dados.

3 Estatística Indutiva ou Inferencial

Estuda as características de uma população, com base em dados obtidos de amostras.

1
4 População e Amostra

População Estatística é a totalidade dos elementos de características comuns, perten-


centes a um universo sobre o qual se deseja estabelecer conclusões ou exercer ações.
Ela pode ser finita ou infinita.

Amostra é um subconjunto de elementos extraídos da população.

A técnica de seleção desses elementos denomina-se Amostragem.

5 Amostragem

As regras de amostragem podem ser classificadas em duas categorias gerais: Probabi-


lísticas e Não probabilísticas.

5.1 Amostragens Probabilísticas

São amostragens em que a seleção é aleatória de tal forma que cada elemento da
população tem uma probabilidade conhecida de fazer parte da amostra. Assim, se N
define o tamanho da população e se todos os elementos da população possuem igual
probabilidade, teremos que 1/N é a probabilidade de cada elemento participar da
amostra.

5.2 Amostragens Não Probabilísticas ou Intencionais

São amostragens em que há uma escolha deliberada dos elementos da amostra.

Obs.: Para se fazerem inferências estatísticas (tirar conclusões sobre a população, a

2
partir de observações da amostra) há necessidade de que o processo seja probabilístico,
pois somente neste caso poderemos avaliar a probabilidade de erro.

5.3 Alguns Tipos de Amostragens Probabilísticas

5.3.1 Amostragem Aleatória Simples (AAS)

Neste tipo de amostragem, cada subconjunto (amostra) de elementos, de mesmo ta-


manho, da população tem a mesma probabilidade de ser escolhido que qualquer outro
subconjunto de elementos. O procedimento para seu uso é:

i. Devemos numerar todos os elementos da população. Se, por exemplo, nossa popu-
lação tem 5000 elementos, devemos numerá-los de 0000 a 4999 ou, como acontece
geralmente, usamos um número que já identifica o elemento.

ii. Devemos efetuar sucessivos sorteios com reposição até completar o tamanho da
amostra (n).

Exemplo 5.1 Com o objetivo de estudar algumas características dos funcionários de


uma certa empresa, vamos extrair uma amostra aleatória simples de tamanho cinco.
A listagem dos funcionários da empresa é apresentada a seguir:

3
(01) Aristóteles (02) Anastácia (03) Arnaldo (04) Bartolomeu
(05) Bernadino (06) Cardoso (07) Carlito (08) Cláudio
(09) Ermílio (10) Ercílio (11) Ernestino (12) Endevaldo
(13) Francisco (14) Felício (15) Fabrício (16) Geraldo
(17) Gabriel (18) Getúlio (19) Hiraldo (20) João da Silva
(21) Joana (22) Joaquim (23) Joaquina (24) José da Silva
(25) José de Souza (26) Josefa (27) Josefina (28) Maria José
(29) Maria Cristina (30) Mauro (31) Paula (32) Paulo César

a) Números aleatórios extraídos da tabela:

b) Amostra da população de funcionários:

5.3.2 Amostragem Sistemática (AS)

Trata-se de uma variação da amostragem aleatória simples, muito conveniente quando


a população está naturalmente ordenada, por exemplo, como fichas em um fichário,
listas telefônicas, etc.

Procedimento:

Seja N o tamanho da população e n o tamanho da amostra. Então, calcula-se o


intervalo de seleção N/n ou o inteiro mais próximo, a. Sorteia-se, utilizando a tabela
dos números aleatórios, um número x entre 1 e a formando-se a amostra dos elementos
correspondentes aos números: x; x + a; x + 2a; x + 3a; . . . ; x + (n − 1)a.

Exemplo 5.2 Seja N = 500 e n = 50. Então, 500/50 = 10, a = 10. Sorteia-se um
número entre 1 e 10. Seja 3 (x = 3) o número sorteado. Logo, os elementos numerados
por 3; 13; 23; 33; . . . serão componentes da amostra.

4
5.3.3 Amostragem Estratificada (AE)

No caso de população heterogênea, na qual podemos distinguir subpopulações mais ou


menos homogêneas, denominadas estratos, podemos usar amostragem estratificada.

Estratificar uma população é dividi-la em L subpopulações denominadas estratos,


tais que:

n1 + n2 + n3 + ... + nL = n,

em que os estratos são mutuamente exclusivos.

Após a determinação dos estratos, seleciona-se uma amostra aleatória de cada


subpopulação.

Se as diversas subamostras tiverem tamanhos proporcionais ao respectivo número


de elementos no estrato, teremos a estratificação proporcional.

Exemplo 5.3 Com o objetivo de levantar o estilo de liderança preferido pela comuni-
dade de uma escola, vamos realizar um levantamento por amostragem. A população é
composta por 10 professores, 10 servidores e 30 alunos, que identificaremos da seguinte
maneira:

Professores: P1 P2 P3 P4 P5 P6 P7 P8 P9 P10
Servidores: S1 S2 S3 S4 S5 S6 S7 S8 S9 S10
Alunos: A1 A2 A3 A4 A5 A6 A7 A8 A9 A10
A11 A12 A13 A14 A15 A16 A17 A18 A19 A20
A21 A22 A23 A24 A25 A26 A27 A28 A29 A30

Seja n = 10 e suponha que a preferência quanto ao estilo de liderança seja relativa-

5
mente homogêneo dentro de cada categoria. Assim, vamos realizar uma amostragem
estratificada, proporcional por categoria, para obter a amostra global.

ESTRATO Proporção na População Tamanho do Subgrupo na Amostra


Professores 10/50 = 0,20 (20%) nP = (0,20)10 = 2
Servidores 10/50 = 0,20 (20%) nS = (0,20)10 = 2
Alunos 30/50 = 0,60 (60%) nA = (0,60)10 = 6

Utilizando a tabela de números aleatórios para selecionar os elementos da amostra de


cada estrato, temos:

Estrato 1:

Estrato 2:

Estrato 3:

Portanto, a amostra global será:

5.3.4 Amostragem por Conglomerados (AC)

Chamamos de conglomerado a um grupamento de elementos da população. Por exem-


plo, numa população de domicílios de uma cidade, os quarteirões formam conglome-
rados de domicílios.

Este tipo de amostragem consiste, num primeiro estágio, em selecionar conglo-


merados de elementos. Num segundo estágio, ou se observam todos os elementos dos
conglomerados selecionados no primeiro estágio (amostragem de conglomerados em um
estágio), ou, como é mais comum, faz-se nova seleção, tomando amostras de elementos
dos conglomerados extraídos no primeiro estágio (amostragem de conglomerados em
dois estágios). Todas as seleções devem ser aleatórias.

6
Obs.: Em algumas pesquisas em grande escala, a amostragem pode ser feita em mais
estágios. Por exemplo, para selecionar uma amostra de domicílios do RN, podemos,
no primeiro estágio, selecionar municípios; no segundo estágio, selecionar quarteirões
e, finalmente, no terceiro estágio, selecionar domicílios.

Chamamos de fração de amostragem à relação n/N , ou seja, à proporção da popu-


lação que será efetivamente observada. Se a fração de amostragem for constante para
todos os conglomerados selecionados, então cada elemento da população tem a mesma
probabilidade de pertencer à amostra.

Exemplo 5.4 Considere o problema de selecionar uma amostra de domicílios de uma


cidade. Podemos tomar as ruas como conglomerados, de tal forma que A1 representa
o primeiro domicílio da rua A, A2 o segundo, e assim por diante.

Ruas Domicílios
A A1 A2 A3 A4 A5 A6
B B1 B2 B3 B4 B5 B6 B7 B8 B9 B10
B11 B12 B13 B14
C C1 C2 C3 C4 C5 C6 C7 C8
D D1 D2 D3 D4
E E1 E2 E3 E4 E5 E6 E7 E8

Vamos selecionar uma amostra de conglomerados, selecionando três ruas (primeiro


estágio) e, nas ruas selecionadas, uma fração de amostragem de 50% de domicílios
(segundo estágio). Então:

1o ESTÁGIO: Seja 1 = A, 2 = B, 3 = C, 4 = D e 5 = E. Utilizando a tabela de


números aleatórios, as ruas selecionadas podem ser:

7
2o ESTÁGIO: Para satisfazer a fração de amostragem de 50% em cada conglomerado,
selecionamos:

Para rua : Usando a tabela de números aleatórios, os domicílios selecionados


podem ser:

Para rua : Os domicílios podem ser:

Para rua : Os domicílios podem ser:

Portanto, a amostra selecionada é composta de:

6 Tipos de Variáveis

6.1 Variável Discreta

Assume valores inteiros. É resultante da contagem do número de itens com deter-


minada característica. Ex.: número de pacientes, sexo, grau de instrução, origem,
etc.

6.2 Variável Contínua

Pode assumir qualquer valor num intervalo. Ex.: tempo de permanência, peso, com-
primento, Q.I., etc. Resulta de medições numa escala.

8
7 O Método Científico

Método é um conjunto de meios dispostos convenientemente para se chegar a um fim


que se deseja.

Dos métodos científicos, destacam-se o método experimental e o estatístico.

7.1 O Método Experimental

O método experimental consiste em manter constantes todas as causas (fatores), menos


uma, e variar esta causa de modo que o pesquisador possa descobrir seus efeitos, caso
existam.

Este método é o preferido no estudo da Química, da Física etc.

7.2 O Método Estatístico

O método estatístico surge diante da impossibilidade de manter as causas constantes.


Assim, admite-se todas as causas presentes, variando-as e registrando essas variações
para determinar, no resultado final, que influências cabem a cada uma delas. As
principais fases do método estatístico são:

9
• Definição do problema, objetivos (geral e específico);

• Planejamento;

• Coleta de dados;

• Crítica dos dados;

• Apresentação dos dados;

• Análise e interpretação de dados.

1. Definição do problema:

Saber exatamente o que se pretende pesquisar é o mesmo que definir corretamente


o problema. Portanto, a primeira fase consiste em uma definição ou formulação
correta do problema a ser estudado;

2. Planejamento:

Nele se determina o procedimento necessário para resolver o problema, como le-


vantar informações sobre o assunto objeto do estudo.

Nesta fase é importante a escolha das perguntas, que, na medida do possível, devem
ser fechadas. No caso de um experimento, deve-se atentar para os objetivos que
se pretende alcançar.

O levantamento de dados pode ser de dois tipos:

• censitário (quando envolve toda a população);

• por amostragem (quando é utilizada uma fração da população).

10
Outros elementos do planejamento de uma pesquisa são: cronograma das ati-
vidades, custos envolvidos, exame das informações disponíveis, delineamento da
amostra, etc.

3. Coleta de dados:

Consiste na busca ou compilação dos dados. Quanto ao tempo, ela pode ser
classificada em:

• Contínua: quando realizada permanentemente. Ex.: inflação;

• Periódica: quando é feita em intervalos de tempo. Ex.: censo;

• Ocasional: quando efetuada sem época preestabelecida. Ex.: pesquisa de


mercado, pesquisa eleitoral.

4. Crítica dos dados:

Objetiva a eliminação de erros capazes de provocar futuros enganos. Faz-se uma


revisão crítica dos dados, suprimindo os valores estranhos ao levantamento.

5. Apresentação dos dados:

A organização dos dados denomina-se série estatística. Sua apresentação pode


ocorrer por meio de tabelas ou gráficos.

6. Análise e interpretação dos dados:

Esta fase consiste em tirar conclusões que auxiliem o pesquisador a resolver seu
problema, descrevendo o fenômeno através do cálculo de medidas estatísticas, es-
pecialmente as de posição e as de dispersão.

11
7.3 O Julgamento Estatístico

Como já foi dito, o campo da estatística lida com a coleta, a apresentação, a análise e o
uso dos dados para tomar decisões, resolver problemas e planejar produtos e processos.
Devido a muitos aspectos da prática de engenharia envolverem o trabalho com dados,
obviamente algum conhecimento de estatística é importante para qualquer engenheiro.
Especificamente, técnicas estatísticas podem ser uma ajuda poderosa no planejamento
de novos produtos e sistemas, melhorando os projetos existentes e planejando, desen-
volvendo e melhorando os processos de produção.

Métodos estatísticos são usados para nos ajudar a entender a variabilidade. Por
variabilidade, queremos dizer sucessivas observações de um sistema ou fenômeno não
produzem exatamente o mesmo resultado. Todos nós encontramos variabilidade em
nosso dia-a-dia e o julgamento estatístico pode nos dar uma maneira útil para incor-
porar essa variabilidade em nossos processos de tomada de decisão.

Exemplo 7.1 Suponha que um engenheiro esteja projetando um conector de náilon


para ser usado em uma aplicação automotiva. O engenheiro está considerando esta-
belecer como especificação do projeto uma espessura de parede de 3/32 polegada, mas
está, de algum modo, inseguro acerca do efeito dessa decisão na força de remoção do
conector. Se a força de remoção for muito baixa, o conector pode falhar quando ele
for instalado no motor. Oito unidades do protótipo são produzidas e suas forças de
remoção são medidas, resultando nos seguintes dados (em libras-pé): 12,6; 12,9; 13,4;
12,3; 13,6; 13,5; 12,6; 13,1. Como antecipamos nem todos os protótipos têm a mesma
força de remoção. Construir um gráfico de pontos para os dados.

O gráfico de pontos nos permite ver facilmente duas características dos dados; a
localização ou o meio, e o espalhamento ou a variabilidade.

12
12.4 12.6 12.8 13.0 13.2 13.4 13.6

Figura 1: Diagrama de pontos para as observações da força de remoção

Podemos também descrever numericamente as características dos dados. Por exem-


plo, podemos caracterizar a localização ou tendência central nos dados através da média
aritmética.

8 Distribuição de Freqüências

É uma série estatística em que os dados são agrupados em classes ou categorias, com
suas respectivas freqüências absolutas e percentuais, com o objetivo de facilitar ao
analista o seu estudo. As distribuições de freqüências podem ser divididas em dois
tipos.

8.1 Distribuição de Freqüência Simples

Este tipo de distribuição de freqüência é construida para variáveis discretas. Neste


caso, a variável assume valores em pontos da reta real, ou seja, podem-se enumerar
todos os possíveis valores. Geralmente os valores são inteiros.

Exemplo 8.1 Exemplos de variáveis discretas:

13
a) Número de alunos da classe X;

b) Quantidade de livros da biblioteca por área de conhecimento;

c) Número de peças defeituosas num lote recebido.

Exemplo 8.2 Distribuição de freqüências para X: Número de erros por página ob-
servados em um livro de matemática

No de erros (xi ) No de páginas (fi )


0 35
1 20
2 13
3 6
4 4
5 2
Total 80

Em que

xi : identifica as categorias em que o fato se subdivide;

fi : corresponde a freqüência absoluta, isto é, o número de vezes que cada uma das
categorias ocorre.

8.2 Distribuição de Freqüências em Classes

Este tipo de distribuição de freqüência é construida para variáveis contínuas. Neste


caso a variável assume valores em intervalos da reta real, não sendo possível enumerar
todos os valores. Geralmente esta variável provém de medições.

14
Exemplo 8.3 Exemplos de variáveis contínuas:

a) Peso de alunos de uma classe;

b) Tempo de duração de um transistor;

c) Notas de aproveitamento dos alunos.

Para a construção de uma distribuição de freqüências em classes são necessários


os seguintes componentes: dados brutos, rol, amplitude total, número de classes e
amplitude (ou intervalo) de cada classe.

8.2.1 Dados Brutos

São os dados apresentados desordenadamente, da forma como foram coletados.

Exemplo 8.4 Número de minutos que 50 assinantes da Internet gastaram durante


sua conexão mais recente.

50 40 41 17 11 7 22 44 28 21 19 23 37 51 54 42 88 41 78 56
72 56 17 7 69 30 80 56 29 33 46 31 39 20 18 29 34 59 73 77
36 39 30 62 54 67 39 31 53 44

8.2.2 Rol

São os dados apresentados em ordem crescente ou decrescente.

Exemplo 8.5 Rol para o número de minutos que 50 assinantes da Internet gastaram
durante sua conexão mais recente.

15
7 7 11 17 17 18 19 20 21 22 23 28 29 29 30 30 31 31 33 34
36 37 39 39 39 40 41 41 42 44 44 46 50 51 53 54 54 56 56 56
59 62 67 69 72 73 77 78 80 88

8.2.3 Amplitude Total - r

Se as n observações em uma amostra forem denotadas por x1 , x2 , . . . , xn , então a


amplitude total da amostra é a diferença entre o maior valor do rol (max(xi )) e o
menor (min(xi )), ou seja:

r = max(xi ) − min(xi )

Exemplo 8.6 Amplitude total para o número de minutos que 50 assinantes da Inter-
net gastaram durante sua conexão mais recente.

r = 88 − 7 = 81 minutos.

8.2.4 Número de Classes - c

Corresponde à quantidade de classes, nas quais serão agrupados os elementos do rol.


A fórmula oficial para determinar c é a fórmula de Sturges, dada a seguir:

c = 1 + 3, 33 × log(n),

em que n corresponde ao número de elementos do rol.

Exemplo 8.7 Para determinar o número de classes para os dados dos assinantes da

16
Internet, tem-se:

c = 1 + 3, 33 × log50 = 6, 657570114 ∼
= 7 classes.

8.2.5 Amplitude ou Intervalo de cada Classe - i

Geralmente utilizam-se intervalos iguais, que são obtidos através da fórmula:

i = r ÷ c.

Exemplo 8.8 Determinar o tamanho dos intervalos de classe para os dados dos assi-
nantes da Internet:

i = 81 ÷ 7 = 11, 57 ∼
= 12 minutos.

8.2.6 Outros Elementos da Tabela

Além dos itens principais acima especificados, destacam-se os seguintes elementos que
complementam uma distribuição de freqüências em classes:

li : limite inferior de cada classe;

ls : limite superior de cada classe;

xi : ponto médio de cada classe, xi = li + (i ÷ 2);

o
fi : freqüência absoluta, ou seja, n de ocorrências (elementos) de cada classe;

f %: freqüência percentual;

17
F ↓: freqüência absoluta acumulada “abaixo de”;

F ↑: freqüência absoluta acumulada “acima de”;

F % ↓: freqüência percentual acumulada “abaixo de”;

F % ↑: freqüência percentual acumulada “acima de”.

Exemplo 8.9 Distribuição de freqüências em classes para os dados dos assinantes da


Internet:

Tempo No de assinantes (fi ) f % F ↓ F % ↓ F ↑ F % ↑ xi


7 ` 19 6 12 6 12 50 100 13
19 ` 31 10 20 16 32 44 88 25
31 ` 43 13 26 29 58 34 68 37
43 ` 55 8 16 37 74 21 42 49
55 ` 67 5 10 42 84 13 26 61
67 ` 79 6 12 48 96 8 16 73
79 ` 91 2 4 50 100 2 4 85
Total 50 100 – – – – –

8.3 Gráficos Representativos das Distribuições de Freqüências

A distribuição de freqüências em classes pode ser representada pelos gráficos abaixo:

8.3.1 Histograma

Exemplo 8.10 Construa um histograma para os dados do Exemplo 8.9.

18
8.3.2 Polígono de Freqüências

Exemplo 8.11 Construa um polígono de freqüências para os dados do Exemplo 8.9.

9 Medidas de Tendência Central

São medidas que tendem para o centro da distribuição dos dados e têm a capacidade
de representá-la como um todo. As principais são:

• Média Aritmética

• Mediana

• Moda

• Algumas Separatrizes

9.1 Média Aritmética

Podemos também descrever numericamente as características dos dados. Por exemplo,


podemos caracterizar a localização ou tendência central nos dados através da média
aritmética. Quase sempre analisaremos amostras de dados, desta forma, nos referire-
mos à média aritmética como sendo a média da amostra.

a) Para observações de um conjunto de dados

Se as n observações em uma amostra forem denotadas por x1 , x2 , ..., xn , então, a

19
média da amostra será:

n
x1 + x2 + · · · + xn 1X
x= = xi
n n i=1

Exemplo 9.1 A média da amostra da força de remoção para as oito observações


coletadas nos protótipos dos conectores (Exemplo 7.1) será:

A média da amostra é o valor médio de todas as observações do conjunto de dados.


Geralmente, esses dados são uma amostra de observações que foi selecionada a partir
de alguma população grande de observações. Aqui, a população deve consistir em
todos os conectores que serão vendidos aos consumidores. Podemos pensar também
em calcular o valor médio de todas as observações em uma população. Essa média
é chamada de média populacional, sendo denotada pela letra grega µ (mi).

Quando houver um número finito de observações (isto é, N ) na população, então a


média populacional será:

N
1 X
µ= xi
N i=1

Embora a média da amostra seja útil, ela não transmite toda a informação acerca
de uma amostra de dados. A variabilidade ou dispersão nos dados pode ser descrita
pela variância ou o desvio-padrão da amostra.

b) Para dados resumidos em uma distribuição de freqüência simples

A fórmula será dada pela soma do produto de cada elemento pela sua freqüência

20
absoluta, dividida pela soma das freqüências absolutas, ou seja:

Pn
x i fi
x = Pi=1
n
i=1 fi

Exemplo 9.2 Calcular o número médio de erros por página para os dados do Exem-
plo 8.2.

Exemplo 9.3 A tabela abaixo apresenta o número de acidentes ocorridos com 70


motoristas de uma empresa:

No de acidentes No de motoristas
0 20
1 10
2 16
3 9
4 6
5 5
6 3
7 1
Total 70

Calcular o no médio de acidentes por motorista.

c) Para dados agrupados numa distribuição de freqüências em classes

A fórmula será a mesma do item anterior, sendo o xi representado pelo ponto médio
de cada classe.

Exemplo 9.4 Calcular o tempo médio gasto pelos assinantes da Internet usando
os dados do Exemplo 8.9.

21
fi xi xi fi
6 13 78
10 25 250
13 37 481
8 49 392
5 61 305
6 73 438
2 85 170
50 - 2114

Pn
x i fi 2114
x = Pi=1
n = = 42,3 minutos
i=1 fi 50

9.2 Mediana

Valor que divide a distribuição dos dados em duas partes iguais, em relação à quanti-
dade de elementos.

A mediana é uma medida de localização do centro da distribuição dos dados, de-


finida do seguinte modo: ordenados os elementos da amostra, a mediana é o valor
(pertencente ou não à amostra) que a divide ao meio, isto é, 50% dos elementos da
amostra são menores ou iguais à mediana e os outros 50% são maiores ou iguais à
mediana. Para a sua determinação utiliza-se a seguinte regra, depois de ordenada a
amostra de n elementos:

a) Se n é ímpar, a mediana é o elemento central;

22
b) Se n é par, a mediana é a semi-soma dos dois elementos centrais.

Se os dados estão agrupados em uma distribuição de freqüências em classes, pode-se


calcular a mediana de duas maneiras:

1. pela fórmula, levando-se em conta a classe que contém a mediana; e

2. através do histograma.

1o caso: Determina-se a posição da mediana, através de “F ↓” e utiliza-se a seguinte


fórmula:

PM e − F ↓−
 
M e = liM e + iM e ,
fM e

em que:

PM e = posição da mediana = ( ni=1 fi )/2;


P

liM e = limite inferior da classe que contém a mediana;

F ↓− = freqüência absoluta acumulada “abaixo de” da classe anterior à classe que


contém a mediana;

fM e = freqüência absoluta da classe que contém a mediana;

iM e = intervalo da classe que contém a mediana.

Exemplo 9.5 Determinar o tempo mediano que os 50 assinantes da Internet gastaram


durante sua conexão mais recente.

Pn
i=1 fi 50
PM e = = = 25 ⇒ a mediana está na 3a classe.
2 2
23
Logo,

 
25 − 16
M e = 31 + 12 = 39,3 minutos.
13

2o caso: Constrói-se o histograma e determina-se a mediana por regra de três.

Exemplo 9.6 Determinar o tempo mediano para o histograma do Exemplo 8.10.

9.3 Moda

Valor que ocorre com maior freqüência.

a) Moda para observações de um conjunto de dados:

Exemplo 9.7 3 5 6 6 6 7 8 8 9

Exemplo 9.8 2 5 5 5 6 7 9 9 9 10 10

Exemplo 9.9 4 4 4 5 6 7 7 7 8 9 9 9

Exemplo 9.10 2 3 5 7 9 11 12 14 16

Obs.: quando os dados estão resumidos em uma distribuição de freqüências simples


(para variáveis discretas), a moda corresponderá ao elemento que tenha apresentado
maior freqüência.

b) Moda para dados agrupados em classes:

24
Quando os dados estão agrupados em uma distribuição de freqüência em classes,
pode-se determinar a moda através de quatro processos. Porém, aqui estudaremos
a determinação apenas da Moda de Pearson. Este tipo de moda é utilizada para
a análise da assimetria/concentração, sendo calculada em função da média e da
mediana, a moda de Pearson é dada por:

M op = 3M e − 2x.

Exemplo 9.11 Determinar a moda para o tempo que 50 assinantes da Internet


gastaram durante sua conexão mais recente.

M op = 3(39,3) − 2(42,3) = 33,3 minutos.

9.4 Noções de Assimetria

a) Uma Distribuição é dita simétrica quando x = M e = M op, o que representa uma


maior concentração nos valores centrais da distribuição;

b) Uma distribuição é assimétrica à esquerda quando x < M e < M op, o que representa
uma maior concentração nos valores maiores;

c) Uma distribuição é assimétrica à direita quando M op < M e < x, o que representa


uma maior concentração nos valores menores.

9.5 Separatrizes

São valores que dividem a distribuição em partes iguais. São elas:

25
1. Mediana (M e): divide em duas partes iguais;

2. Quartis (Q1 , Q2 e Q3 ): dividem em quatro partes iguais;

3. Decis (D1 , D2 , . . . , D9 ): dividem em dez partes iguais;

4. Percentis (P1 , P2 , . . . , P99 ): dividem em cem partes iguais.

As separatrizes são utilizadas para se conhecer, com precisão, a distribuição dos


dados como um todo. Elas são calculadas, como a mediana, de duas maneiras: pelo
método algébrico e pelo Histograma. No primeiro caso depende da posição de cada
separatriz, calculada da seguinte forma:

1. Posição da mediana:

Pn
i=1 fi
PM e =
2

Fórmula para calcular a mediana:

PM e − F ↓−
 
M e = liM e + iM e
fM e

2. Posição dos quartis:

Pn
x i=1 fi
PQx = , x = 1, 2, 3
4

Fórmula para calcular os quartis:

PQx − F ↓−
 
Qx = liQx + iQx
fQx

26
3. Posição dos decis:

Pn
x i=1 fi
PDx = , x = 1, 2, . . . , 9
10

Fórmula para calcular os decis:

PDx − F ↓−
 
Dx = liDx + iDx
fDx

4. Posição dos percentis:

Pn
x i=1 fi
PP x = , x = 1, 2, . . . , 99
100

Fórmula para calcular os percentis:

PP x − F ↓−
 
P x = liP x + iP x
fP x

Exemplo 9.12 Para o Exemplo 8.9, calcule Q1 , Q3 , D4 , D9 , P10 e P90 .

10 Medidas de Dispersão

Medir a dispersão ou variabilidade das observações é verificar se tais observações se


concentram mais para um lado ou outro da curva (Histograma alisado) ou se dispõem
simetricamente em torno de um valor central (geralmente a média). Algumas das
medidas de dispersão são:

• Variância - s2 (amostral) e σ 2 (populacional) e desvio padrão - s (amostral) e σ


(populacional)

27
• Amplitude - r

• Coeficiente de variação - cv

10.1 Variância e Desvio-padrão

Se x1 , x2 , . . . , xn for uma amostra de n observações, então a variância da amostra


será:

Pn
2 − x)2
i=1 (xi
s =
n−1

O desvio-padrão da amostra, s, é a raiz quadrada positiva da variância da amostra,


isto é:
s
Pn
− x)2
i=1 (xi
s=
n−1

Exemplo 10.1 Calcule a variância e o desvio-padrão para os dados da força de remo-


ção (Exemplo 7.1).

Cálculo de s2 : Uma fórmula computacional mais eficiente para a variância da amostra


é dada por:
Pn 2
Pn 2 ( xi )
i=1 xi − i=1

s2 = n
.
n−1

Análoga à variância da amostra s2 , existe uma medida de variabilidade na po-


pulação chamada de variância da população. Usaremos a letra grega σ 2 (sigma ao
quadrado) para denotar a variância da população. A raiz quadrada positiva de σ 2 , ou

28
σ, denotará o desvio-padrão da população. Quando a população for finita e consistir
em N valores, podemos definir a variância da população como:

PN
2 i=1 (xi − µ)2
σ = .
N

Numa distribuição de freqüências, as fórmulas para o cálculo da variância e desvio-


padrão amostrais são respectivamente:

Pn
2 i=1 (xi − x)2 fi
s = Pn
( i=1 fi ) − 1

e
sP
n
i=1 (xi − x)2 fi
s= .
( ni=1 fi ) − 1
P

Obs.: O desvio-padrão é uma medida de variabilidade absoluta, expressa na mesma


unidade dos valores originais. Quanto maior, mais dispersos estão os elementos em
torno da média.

10.2 Amplitude

Além da variância e do desvio-padrão da amostra, a amplitude da amostra, ou a


diferença entre a maior e a menor observação, é uma medida útil de variabilidade. A
amplitude da amostra é definida como segue:

Definição 10.1 Se as n observações em uma amostra forem denotadas por x1 , x2 ,


. . . , xn , então a amplitude da amostra será:

29
r = max (xi ) − min (xi )

Exemplo 10.2 Para os dados da força de remoção (Exemplo 7.1), a amplitude da


amostra será:

r = 13,6 − 12,3 = 1,3

10.3 Coeficiente de Variação

Quando as medidas são expressas em unidades diferentes, como peso/altura, capaci-


dade/comprimento, etc., não se pode compará-las através do desvio-padrão, por ser
este uma medida absoluta de variabilidade. Usa-se então o coeficiente de variação
(cv), que é uma medida relativa, que expressa o desvio-padrão como uma percentagem
da média aritmética (Pearson). Em alguns casos pode-se adotar como uma percen-
tagem da mediana (Thorndike). Quanto mais próximo de zero, mais homogênea é a
distribuição dos dados. Quanto mais distante, mais dispersa. Comparando-se duas
distribuições, a de menor cv é a mais homogênea. O cv é dado por:

s
cv = 100
x

Exemplo 10.3 Calcular o coeficiente de variação para o tempo gasto na Internet


(Exemplo 8.9).

30
11 Sumário e Apresentação de Dados

Sumários e apresentações de dados bem constituídos são essenciais ao bom julgamento


estatístico, porque permitem ao analista focar as características importantes dos dados
ou ter discernimento acerca do tipo de modelo que deveria ser usado na solução do
problema.

11.1 Diagrama de Ramo-e-folhas

O diagrama de pontos é uma apresentação útil de dados, no caso de amostras peque-


nas, até cerca de 20 observações. No entanto, quando o número de observações for
moderadamente alto, outras apresentações gráficas podem ser mais úteis.

Um diagrama de ramo-e-folhas é uma boa maneira de obter uma apresentação


visual informativa de um conjunto de dados x1 , x2 , . . . , xn , em que cada número
xi consiste em, no mínimo, dois dígitos. Para construir o diagrama de ramo-e-folhas,
dividimos cada número xi em duas partes: um ramo, consistindo de um ou mais dígitos
iniciais, e uma folha, consistindo nos dígitos restantes. Em geral, devemos escolher,
relativamente, poucos ramos em comparação ao número de observações. É geralmente
melhor escolher entre 5 e 20 ramos. Uma vez que um conjunto de ramos tenha sido
escolhido, eles são listados ao longo da margem esquerda do diagrama. Ao lado de cada
ramo, todas as folhas correspondentes aos valores observados são listadas na ordem
em que elas foram encontradas no conjunto de dados.

Exemplo 11.1 Para ilustrar a construção de um diagrama de ramo e folhas, considere


os dados da tabela abaixo, sobre a resistência à compressão de uma liga.

31
Tabela 1: Resistência à compressão de 80 corpos de prova da liga de alumínio-lítio
105 221 183 186 121 181 180 143
97 154 153 174 120 168 167 141
245 228 174 199 181 158 176 110
163 131 154 115 160 208 158 133
207 180 190 193 194 133 156 123
134 178 76 167 184 135 229 146
218 157 101 171 165 172 158 169
199 151 142 163 145 171 148 158
160 175 149 87 160 237 150 135
196 201 200 176 150 170 118 149

Como valores dos ramos, selecionaremos os números 7, 8, 9, . . . , 24. O diagrama


resultante de ramo e folhas é apresentado abaixo:

Ramo Folha Freq.


7 6 1
8 7 1
9 7 1
10 51 2
11 580 3
12 103 3
13 4135 3 5 6
14 2958 3 1 6 9 8
15 4713 4 0 8 8 6 8 0 8 12
16 3073 0 5 0 8 79 10
17 8544 1 6 2 1 06 10
18 0361 4 1 0 7
19 9609 3 4 6
20 7108 4
21 8 1
22 189 3
23 7 1
24 5 1

32
11.2 Box Plot

O diagrama de ramo e folhas e o histograma fornecem impressões visuais gerais acerca


de um conjunto de dados, enquanto quantidades numéricas, tais como x ou s, fornecem
informação sobre somente uma característica dos dados. O box plot é uma apresen-
tação gráfica que descreve simultaneamente várias características importantes de um
conjunto de dados, tais como centro, dispersão, desvio da simetria e identificação das
observações que estão surpreendentemente longe do seio dos dados (essas observações
são chamadas “outliers”).

Exemplo 11.2 Exemplos de box plot:

33
 

Na construção do box plot utilizamos Q1 , M e, Q3 , o intervalo interquartil (dj =


Q3 −Q1 ) e os pontos mínimo e máximo que são respectivamente Q1 −3/2dj e Q3 +3/2dj.
Os pontos discrepantes são representados por um asterisco ou travessão.

Exemplo 11.3 Construir um box plot para os dados da distribuição dos tempos que
50 assinantes da Internet gastaram durante sua conexão mais recente (Exemplo 8.9).

34
12 Introdução à Probabilidade

12.1 Experimento Aleatório

Experimento aleatório é aquele que poderá ser repetido sob as mesmas condições in-
definidamente. Tal experimento apresenta variações de resultados, não sendo possível
afirmar qual será sua determinação antes que o mesmo tenha sido realizado. É possí-
vel, porém, descrever todos os possíveis resultados, as probabilidades. O lançamento
de um dado constitui um experimento aleatório, pois este experimento poderá ser re-
petido quantas vezes desejarmos. Antes do lançamento, não poderemos dizer qual será
o resultado, mas somos capazes de relatar os possíveis resultados: sair o número 1, 2,
3, 4, 5 ou 6. Da mesma maneira, os experimentos abaixo são aleatórios:

Exemplo 12.1 E1 = Retirar uma carta de um baralho com 52 cartas e observar seu
naipe.

Exemplo 12.2 E2 = Retirar com ou sem reposição uma bola de uma urna que contém
5 bolas brancas e 6 pretas e observar sua cor.

Exemplo 12.3 E3 = Jogar uma moeda 10 vezes e observar o número de caras.

Exemplo 12.4 E4 = Medição da corrente em um fio de cobre.

12.2 Espaço Amostral

Chamaremos de espaço amostral (e indicaremos por S) o conjunto de todos os possíveis


resultados de um experimento aleatório.

35
Exemplo 12.5 S1 = {copas, ouros, espadas, paus}

Exemplo 12.6 S2 = {branca, preta}

Exemplo 12.7 S3 = {0, 1, 2, 3, ..., 10}

Exemplo 12.8 S4 = {i ∈ R | i > 0}

12.3 Evento

Denominaremos evento qualquer conjunto de resultados de um experimento. Sendo


evento um subconjunto de S, indicaremos os eventos por letras maiúsculas: A, B, C,
....

Exemplo 12.9 Seja o experimento:

E = lançar um dado.

S = {1, 2, 3, 4, 5, 6}

Seja o evento A = {sair um número par}. Assim, A = {2, 4, 6}.

12.3.1 Eventos Mutuamente Exclusivos

Dois eventos A e B são denominados mutuamente exclusivos, se eles não puderem


ocorrer simultaneamente, isto é, A ∩ B = ∅.

Exemplo 12.10 Seja E = jogar um dado e observar o resultado.

S = {1, 2, 3, 4, 5, 6}

36
Sejam os eventos:

A = {ocorrer no par} e B = {ocorrer no ímpar}.

Então, A = {2, 4, 6}, B = {1, 3, 5} e A ∩ B = ∅.

Logo, A e B são mutuamente exclusivos, pois a ocorrência de um número par e ímpar


não pode ser verificada como decorrência da mesma experiência.

12.4 Probabilidade

Dado um espaço S, probabilidade de um evento A (P (A)) é uma função definida em


S que associa a cada evento um número real, satisfazendo os seguintes axiomas:

I) 0 6 P (A) 6 1

II) P (S) = 1

III) Se A e B forem eventos mutuamente exclusivos (A ∩ B = ∅), então P (A ∪ B) =


P (A) + P (B).

12.4.1 Principais Teoremas

1. Se ∅ é um evento impossível, então P (∅) = 0;

2. Se A é o complemento do evento A, então P (A) = 1 − P (A);

3. Se A ⊂ B, então P (A) 6 P (B);

4. Teorema da soma: Se A e B são dois eventos quaisquer, então:

P (A ∪ B) = P (A) + P (B) − P (A ∩ B);

37
5. Sejam A1 , A2 , . . . , An eventos de S, então

n
! n n n
[ X X X
P Ai = P (Ai ) − P (Ai ∩ Aj ) + P (Ai ∩ Aj ∩ Ak ) + · · · +
i=1 i=1 i6=j i6=j6=k

(−1)(n−1) P (A1 ∩ A2 ∩ · · · ∩ An ).

12.4.2 Probabilidades Finitas dos Espaços Amostrais Finitos

Seja S um espaço amostral finito S = {a1 , a2 , . . . , an }. Considere-se o evento formado


por um resultado simples A = {ai }.

A cada evento simples {ai } associa-se um número pi denominado probabilidade de


{ai } satisfazendo as seguintes condições:

a) pi > 0, i = 1, 2, . . . , n;

b) p1 + p2 + p3 + · · · + pn = 1.

A probabilidade P (A) de cada evento composto (mais de um elemento) é então definida


pela soma das probabilidades dos pontos de A.

Exemplo 12.11 Três cavalos, A, B e C, estão em uma corrida; A tem duas vezes mais
probabilidade de ganhar que B, e B tem duas vezes mais probabilidade de ganhar que
C. Quais são as probabilidades de vitória de cada um, isto é, P (A), P (B) e P (C)?

Qual seria a probabilidade de B ou C ganhar?

38
12.4.3 Espaços Amostrais Finitos Equiprováveis

Quando nós associamos a cada ponto amostral a mesma probabilidade, o espaço amos-
tral chama-se equiprovável ou uniforme. Em particular, se S contém n pontos, então,
a probabilidade de cada ponto será 1/n.

Por outro lado, se um evento A contém r pontos, então P (A) = r(1/n) = r/n.

Este método de avaliar P (A) é freqüentemente enunciado da seguinte maneira:

no de vezes em que o evento A pode ocorrer


P (A) = o .
n de vezes que o espaço amostral S ocorre

Exemplo 12.12 Seja E = lançar um dado e sejam:

A = {sair o número 3},

B = {sair um número par} e

C = {sair um número ímpar}.

Calcular P (A), P (B), P (C), P (A ∪ B), P (A ∩ C), P (A ∪ C) e P (A).

Exemplo 12.13 Escolha aleatoriamente uma carta de um baralho com 52 cartas.


Sejam A = {a carta é de ouros} e B = {a carta é uma figura}. Calcular P (A) e P (B).

Exemplo 12.14 Num lote de 12 peças, 4 são defeituosas. Duas peças são retiradas
aleatoriamente. Calcule:

a) A probabilidade de ambas serem defeituosas;

b) A probabilidade de ambas não serem defeituosas;

c) A probabilidade de que ao menos uma seja defeituosa.

39
12.4.4 Probabilidade Condicional

Se A e B são eventos de um espaço amostral S, com P (B) > 0, então a probabilidade


condicional do evento A, tendo ocorrido o evento B, é indicada por P (A | B) e definida
pela relação:

P (A ∩ B)
P (A | B) = .
P (B)

Exemplo 12.15 Um número é sorteado ao acaso entre os inteiros 1, 2, . . . , 15. Se o


número sorteado for par, qual a probabilidade de que seja o número 6?

Exemplo 12.16 De um baralho comum de 52 cartas retirou-se uma carta, verificando-


se que é vermelha. Qual a probabilidade de essa carta ser uma figura?

12.4.5 Teorema do Produto

A probabilidade da ocorrência simultânea de dois eventos, A e B, do mesmo espaço


amostral, é igual ao produto da probabilidade de um deles pela probabilidade condi-
cional do outro, dado o primeiro. Assim:

P (A ∩ B)
P (A | B) = ⇒ P (A ∩ B) = P (B)P (A | B)
P (B)

ou

P (A ∩ B)
P (B | A) = ⇒ P (A ∩ B) = P (A)P (B | A).
P (A)

Exemplo 12.17 Em um lote de 12 peças, 4 são defeituosas, 2 peças são retiradas uma
após a outra sem reposição. Qual a probabilidade de que ambas sejam boas?

40
12.4.6 Teorema da Probabilidade Total

Sejam A1 , A2 , . . . , An uma partição do espaço amostral S e B um evento qualquer


deste espaço. Então:

n
X
P (B) = P (B | Ai )P (Ai ).
i=1

B = (B ∩ A1 ) ∪ (B ∩ A2 ) ∪ · · · ∪ (B ∩ An )

P (B) = P (B ∩ A1 ) + P (B ∩ A2 ) + · · · + P (B ∩ An )

= P (B | A1 )P (A1 ) + P (B | A2 )P (A2 ) + · · · + P (B | An )P (An )


Xn
= P (B | Ai )P (Ai ).
i=1

Exemplo 12.18 Determinado veículo pode ter problemas mecânicos ou elétricos. Se


ele tiver problemas mecânicos, não para, mas se tiver problema elétrico tem de parar
imediatamente. A probabilidade desse veículo ter problemas mecânicos é de 0,2. Já
a probabilidade do mesmo veículo ter problemas elétricos é de 0,15 se não houve
problema mecânico precedente, e de 0,25 se houve problema mecânico precedente.
Qual a probabilidade de o veículo parar em determinado dia?

41
12.4.7 Independência Estatística

Um evento A é considerado independente de um outro evento B se a probabilidade de


A é igual à probabilidade condicional de A dado B, isto é, se

P (A) = P (A | B)

É evidente que, se A é independente de B, B é independente de A, assim:

P (B) = P (B | A)

Considerando o teorema do produto, poderemos afirmar que se A e B são indepen-


dentes, então:

P (A ∩ B) = P (A)P (B)

Exemplo 12.19 Em uma caixa temos 10 peças, das quais 4 são defeituosas. São
retiradas duas peças, uma após a outra, com reposição. Calcular a probabilidade de
ambas serem boas.

Exemplo 12.20 A probabilidade de fechamento de cada relé do circuito apresentado


abaixo é dada por p. Se todos os relés funcionarem independentemente, qual será a
probabilidade de que haja corrente entre os terminais L e R?

42
1 2

L R

3 4

12.4.8 Teorema de Bayes

Sejam A1 , A2 , . . . , An , n eventos mutuamente exclusivos tais que A1 ∪A2 ∪· · ·∪An = S.


Sejam P (Ai ) as probabilidades conhecidas de todos os eventos Ai e B um evento
qualquer de S tal que conhecemos todas as probabilidades condicionais P (B | Ai ).
Então para cada i teremos:

P (Ai )P (B | Ai )
P (Ai | B) = .
P (A1 )P (B | A1 ) + P (A2 )P (B | A2 ) + · · · + P (An )P (B | An )

O resultado acima é bastante importante, pois, como vimos, relaciona probabilidades


a priori, P (Ai ), com probabilidades a posteriori, P (Ai | B), que é probabilidade de Ai
depois que ocorrer B.

Exemplo 12.21 Suponhamos a seguinte configuração:

Urnas
Cores U1 U2 U3
Preta 3 4 2
Branca 1 3 3
Vermelha 5 2 3

43
Escolheu-se uma urna ao acaso e dela extraiu-se uma bola ao acaso, verificando-se que
a bola é branca. Qual a probabilidade de a bola ter vindo da urna 2?

Exemplo 12.22 Considere o problema no Exemplo 12.18 para determinar:

a) Se o veículo parou em certo dia, qual a probabilidade de que tenha havido defeito
mecânico?

b) Qual é a probabilidade de que tenha havido defeito mecânico em determinado dia


se o veículo não parou nesse dia?

13 Variáveis Aleatórias

Sejam E um experimento e S o espaço associado ao experimento. Uma função X, que


associe a cada elemento s ∈ S um número real X(s) é denominada variável aleatória.

S R

X
s X(s)

Exemplo 13.1 Sejam E = lançamento de duas moedas e a variável aleatória X: no de


caras obtidas nas duas moedas. Então:

S = {(c, c), (c, k), (k, c), (k, k)}.

X = 0 → corresponde ao evento (k, k) com probabilidade 1/4;

44
X = 1 → corresponde ao evento (k, c), (c, k) com probabilidade 1/2; e

X = 2 → corresponde ao evento (c, c) com probabilidade 1/4.

13.1 Tipos de Variáveis Aleatórias

A palavra aleatória indica que X é determinado por uma probabilidade. Existem dois
tipos de variáveis aleatórias: as discretas e as contínuas.

13.1.1 Variável Aleatória Discreta

Uma variável aleatória X será discreta se houver um número finito ou contável de


resultados possíveis que possam ser enumerados.

13.1.2 Função de Probabilidades

A probabilidade de que a variável aleatória X assuma o valor x, é a função de proba-


bilidade de X que representaremos por P (X = x) ou simplesmente P (x). A função
P (X = x) determina a distribuição de probabilidades da variável aleatória.

Exemplo 13.2 Sejam E = lançamento de duas moedas e X: no de caras obtidas.


Construa a função de probabilidades de X.

X 0 1 2
P (x) 1/4 1/2 1/4

Exemplo 13.3 Sejam E = lançamento de um dado e X: pontos que aparecem na


face de cima do dado. Construa a função de probabilidades de X.

45
Exemplo 13.4 Considere o lançamento de três moedas. Se ocorre o evento CCC,
dizemos que temos uma seqüência, ao passo que se ocorre o evento CKC temos três
seqüências. Defina a variável aleatória X: no de caras obtidas e Y : no de seqüências,
isso para cada resultado possível. Assim, X(CKK) = 1 e Y (CKK) = 2. Obtenha as
distribuições de probabilidade de X e Y

13.1.3 Variável Aleatória Contínua

Uma variável aleatória X será contínua se houver um número incontável de resultados


possíveis, representados por um intervalo sobre o eixo real.

13.1.4 Função Densidade de Probabilidade

Seja X uma variável aleatória contínua. A função densidade de probabilidade f (x) é


uma função que satisfaz as seguintes condições:

a) f (x) > 0 para todo x ∈ Rx ;


R
b) Rx f (x)dx = 1.

Além disso, definimos, para qualquer a < b em Rx :

Z b
P (a < X < b) = f (x)dx,
a

em que Rx é o contradomínio de X.

Observações Importantes:

46
1. A definição acima também nos mostra que a probabilidade de qualquer valor
especificado de X, por exemplo x0 , teremos P (X = x0 ) = 0, pois

Z x0
P (X = x0 ) = f (x)dx = 0.
x0

Sendo assim as probabilidades abaixo serão todas iguais, se X for variável aleatória
contínua:

P (a 6 X 6 b) = P (a 6 X < b) = P (a < X 6 b) = P (a < X < b);

2. Note-se que f (x), densidade de probabilidade, não é probabilidade. Somente


quando a função for integrada entre dois limites, ela produzirá uma probabili-
dade, que será a área sob a curva da função entre x = a e x = b, a < b.

Exemplo 13.5 Seja X uma variável aleatória contínua. Com a seguinte função den-
sidade de probabilidade:

 2x, 0 < x < 1
f (x) =
 0, caso contrário.

Verificar se f (x) é uma função densidade de probabilidade (fdp).

13.1.5 Função de Distribuição Acumulada

Definição 13.1 Seja X uma variável aleatória, discreta ou contínua. Define-se a


função F como a função de distribuição acumulada (fd) da variável aleatória X como:

F (x) = P (X 6 x).

47
Teorema:

a) Se X for uma variável aleatória discreta

X
F (x) = P (xj ),
j

em que o somatório é estendido a todos os índices j que satisfaçam à condição


xj 6 x;

b) Se X for uma variável aleatória contínua com fdp f ,

Z x
F (x) = f (s)ds.
−∞

Exemplo 13.6 Suponha que a variável aleatória X assuma os três valores 0, 1 e 2,


com probabilidades 1/3, 1/6 e 1/2, respectivamente. Então,

0, se x < 0,






 1,

se 0 6 x < 1,
3
F (x) =
1
2, se 1 6 x < 2,






 1,

se x > 2.

Observe que é muito importante indicar a inclusão ou a exclusão dos limites, na des-
crição dos diversos intervalos.

Exemplo 13.7 Suponha que X seja uma variável contínua com fdp:

 2x, 0 < x < 1
f (x) =
 0, caso contrário.

48
Portanto, a F é dada por:



 0, se x < 0
R
x
F (x) = 0 2sds, se 0 6 x < 1,



 1, se x > 1,

isto é



 0, se x < 0

F (x) = x2 , se 0 6 x < 1,



 1, se x > 1.

Os gráficos para as fd são, em cada caso, bastante típicos, no seguinte sentido:

a) Se X for uma variável aleatória discreta, com um número finito de valores possíveis,
o gráfico da fd será constituído por seguimentos de reta horizontais (nesse caso, a
fd se denomina função em degraus). A função F é contínua, exceto nos valores
possíveis de X: x1 , . . . , xn , . . . . No valor xj o gráfico apresenta um “salto” de
magnitude p(xj ) = P (X = xj );

b) Se X for uma variável aleatória contínua, F será uma função contínua para todo x;

c) A fd F é definida para todos os valores de x, o que é um motivo importante para


considerá-la.

49
Exemplo 13.8 Construa o gráfico da fd:

0, se x < 0,






 1,

se 0 6 x < 1,
3
F (x) =
1
2, se 1 6 x < 2,






 1,

se x > 2.

Exemplo 13.9 Construa o gráfico da fd:





 0, se x < 0

F (x) = x2 , se 0 6 x < 1,



 1, se x > 1.

Existem duas outras importantes propriedades da fd, que serão resumidas no teo-
rema seguinte:

Teorema:

1. A função F é não-decrescente. Isto é, se x1 6 x2 , teremos F (x1 ) 6 F (x2 );

2. limx→−∞ F (x) = 0 e limx→∞ F (x) = 1 (Freqüentemente, escrevemos isto como


F (−∞) = 0 e F (∞) = 1).

50
13.2 Características

13.2.1 Esperança Matemática (ou Valor Esperado ou Média)

Definimos esperança matemática de uma variável aleatória discreta X, a soma de todos


os produtos possíveis da variável aleatória pela respectiva probabilidade:

n
X
E(X) = xi P (xi ).
i=1

Exemplo 13.10 Sejam E = lançamento de um dado e X: pontos obtidos. Calcule a


esperança de X.

X 1 2 3 4 5 6
P (x) 1/6 1/6 1/6 1/6 1/6 1/6

           
1 1 1 1 1 1
E(X) = 1 +2 +3 +4 +5 +6 = 3,5.
6 6 6 6 6 6

Exemplo 13.11 Para as distribuições de X e Y do Exemplo 13.4, calcule E(X) e


E(Y ).

Exemplo 13.12 Considere duas extrações, sem reposição, de uma urna contendo duas
bolas brancas e três bolas vermelhas. Defina a variável aleatória X: no de bolas
vermelhas obtidas nas duas extrações. Pede-se:

a) Construa a distribuição de probabilidade de X;

b) Determine a função de distribuição acumulada de X;

c) Construa o gráfico da F (x);

51
d) Calcule a esperança de X.

No caso de uma variável aleatória contínua X, definimos:

Z ∞
E(X) = xf (x)dx
−∞

Exemplo 13.13 Seja X uma variável aleatória contínua, com a seguinte função den-
sidade:

 3x2 , 0 6 x < 1
f (x) =
 0, caso contrário.

Calcular E(X).

Exemplo 13.14 Dada a função:



 2e−2x , x > 0
f (x) =
 0, caso contrário.

Pede-se:

a) Mostre que f (x) é uma fdp;

b) Calcule a probabilidade de X > 10;

c) Determine a função de distribuição acumulada de X;

d) Calcule a esperança de X.

52
13.2.2 Propriedades da Esperança

1. A esperança de uma constante é a própria constante:

E(K) = K, em que K é uma constante;

2. Multiplicando uma variável aleatória X por uma constante, sua esperança fica
multiplicada por essa constante:

E(KX) = KE(X);

3. A esperança da soma ou diferença de duas variáveis aleatórias é a soma ou diferença


das esperanças:

E(X ± Y ) = E(X) ± E(Y );

4. Somando ou subtraindo um constante a uma variável aleatória, a sua esperança


fica somada ou subtraída da mesma constante:

E(X ± K) = E(X) ± K;

5. A esperança de uma variável aleatória centrada é zero:

E(X − µx ) = µx − µx = 0;

6. A esperança do produto de duas variáveis aleatórias independentes é o produto

53
das esperanças:

E(XY ) = E(X)E(Y ).

13.2.3 Variância

Define-se variância de uma variável aleatória discreta como sendo:

n
X
2 2 2
xi 2 P (xi ) .
 
V ar(X) = E X − [E (X)] , em que E X =
i=1

Exemplo 13.15 Sejam E = lançamento de um dado e X : pontos obtidos. Calcular


a variância de X.
X 1 2 3 4 5 6
P (x) 1/6 1/6 1/6 1/6 1/6 1/6

E(X) = 3,5

           
1 1 1 1 1 1
E(X 2 ) = 12 + 22 + 32 + 42 + 52 + 62 = 15,17
6 6 6 6 6 6

=⇒ V ar(X) = 15,17 − (3,5)2 = 2,92.

Exemplo 13.16 Para as distribuições de probabilidade do Exemplo 13.4, calcule


V ar(X) e V ar(Y ).

Exemplo 13.17 Uma livraria mantém extensos registros das vendas diárias dos livros.
Com os dados coletados foi construída a seguinte distribuição de probabilidade da
variável aleatória X: no de livros vendidos por semana:

54
X 0 1 2 3 4 5
P (x) 0,05 0,15 0,42 0,20 0,08 0,10

Pede-se:

a) Calcule o no esperado de livros vendidos por semana;

b) Calcule a variância de X;

c) Calcule a probabilidade de se vender mais que 2 livros por semana;

d) Calcule a probabilidade de se vender no máximo 1 livro por semana;

e) O lucro da livraria é obtido através da relação: Y = 3X 2 + X − 2. Qual o lucro


esperado da livraria?

No caso de uma variável aleatória contínua, a variância é definida como sendo:

Z ∞
2 2 2
x2 f (x) dx.
 
V ar(X) = E X − [E (X)] , em que E X =
−∞

Exemplo 13.18 Seja X uma variável aleatória contínua, com a seguinte função den-
sidade:

 3x2 , 0 6 x < 1
f (x) =
 0, caso contrário.

Calcular V ar(X).

Exemplo 13.19 Para o Exemplo 13.14, calcule V ar(X).

55
13.2.4 Propriedades da Variância

1. A variância de uma constante é zero:

V ar(K) = 0, em que K é uma constante;

2. Multiplicando-se uma variável aleatória por uma constante, sua variância fica mul-
tiplicada pelo quadrado da constante:

V ar(KX) = K 2 V ar(X);

3. Somando-se ou subtraindo-se uma constante à uma variável aleatória, sua variância


não se altera:

V ar(X ± K) = V ar(X);

4. A variância da soma ou diferença de duas variáveis aleatórias independentes, é a


soma das respectivas variâncias:

V ar(X ± Y ) = V ar(X) + V ar(Y ).

Exemplo 13.20 Um lojista mantém extensos registros das vendas diárias de um certo
aparelho. A tabela abaixo dá a distribuição de probabilidades da variável aleatória X:
no de aparelhos vendidos em uma semana. Se é de R$ 500,00 o lucro por unidade
vendida, qual o lucro esperado em uma semana? Qual é o desvio-padrão do lucro?

X 0 1 2 3 4 5
P (x) 0,1 0,1 0,2 0,3 0,2 0,1

56
13.3 Variáveis Aleatórias Bidimensionais

Sejam E um experimento e S um espaço amostral associado a E. Sejam X = X(s)


e Y = Y (s), duas funções, cada uma associando um número real a cada resultado
s ∈ S; denominaremos (X, Y ) uma variável aleatória bidimensional.

R
S
X
X(s)

s
Y

Y(s)

Tal como foi dito sobre a variável aleatória unidimensional, (X, Y ) poderá ser
discreta ou contínua, valendo as mesmas considerações feitas anteriormente.

13.3.1 Distribuição Conjunta de Duas Variáveis Aleatórias

Consideremos o caso de (X, Y ) discreta. A função de probabilidade: a cada possí-


vel (xi , yj ) associaremos um número p(xi , yj ) representado por P (X = xi , Y = yj )
satisfazendo as condições:

1. p(xi , yj ) > 0;
P∞ P∞
2. j=1 i=1 p(xi , yj ) = 1.

57
Exemplo 13.21 Sejam E = jogar dois dados e X, Y : pontos dos respectivos dados.
Construa a distribuição conjunta de X e Y .

Exemplo 13.22 Os carros de determinada marca podem apresentar dois tipos de


defeitos até a primeira revisão: defeitos graves (que comprometem o funcionamento)
e defeitos menores (tais como defeitos de acabamento, lâmpadas, etc.). Suponha que
costumam ocorrer até 2 defeitos graves e até 3 menores. Sejam X a variável aleatória
que representa o número de defeitos graves e Y a variável aleatória representando o
número de defeitos menores de um carro sorteado ao acaso. A tabela abaixo mostra
como se distribuem as probabilidades conjuntas p(xi , yj ) para os diferentes valores de
X e Y.

y
x 0 1 2 3
0 0,20 0,20 0,14 0,06
1 0,15 0,08 0,04 0,03
2 0,05 0,02 0,02 0,01

a) Calcular a probabilidade de ocorrerem mais defeitos graves do que defeitos menores;

b) Calcular a probabilidade de ocorrer um número igual de defeitos dos dois tipos.

13.3.2 Distribuição de Probabilidade Marginal

Dada uma distribuição conjunta de duas variáveis aleatórias (X, Y ) podemos deter-
minar as distribuições de X sem considerar Y , ou de considerar Y sem considerar X.
São as chamadas distribuições marginais.

58
Seja (X, Y ) discreta, então:

 P (X = xi ) = P (X = xi , −∞ < Y < ∞)
Distribuição marginal de X :
 P (X = x ) = P P (x , y )
i j i j


 P (Y = yj ) = P (−∞ < X < ∞, Y = yj )
Distribuição marginal de Y :
 P (Y = y ) = P P (x , y )
j i i j

Se a distribuição de (X, Y ) é dada por uma tabela, as probabilidades marginais


serão dadas pela soma das linhas ou colunas (marginais de X) e colunas ou linhas
(marginais de Y ).

Exemplo 13.23 Sejam E = jogar dois dados e X, Y : pontos dos respectivos dados.
Determine as distribuições marginais de X e Y .

13.3.3 Covariância e Coeficiente de Correlação

Se X e Y são variáveis aleatórias, temos interesses práticos para definirmos:

1. Covariância:

Cov(X, Y ) = E(XY ) − E(X)E(Y ),

P P
em que E(XY ) = i j xi yj P (xi , yj ) para (X, Y ) discreta.

Exemplo 13.24 Seja (X, Y ) uma variável aleatória bidimensional discreta com a
seguinte distribuição conjunta:

59
y
x -3 2 4
1 0,1 0,2 0,2
3 0,3 0,1 0,1

Calcular Cov(X, Y ).

2. Coeficiente de correlação:

Cov(X, Y )
ρ(X, Y ) = p p ,
V ar(X) V ar(Y )

em que −1 6 ρ(X, Y ) 6 1.

Exemplo 13.25 Use os dados do Exemplo 13.24 para calcular o coeficiente de


correlação (ρ(X, Y )) entre X e Y .

13.3.4 Variáveis Aleatórias Independentes

Seja (X, Y ) uma variável aleatória discreta bidimensional. Diremos que X e Y são va-
riáveis aleatórias independentes se, e somente se, p(xi , yj ) = p(xi )p(yj ) para quaisquer
i e j.

Exemplo 13.26 Dada a distribuição de probabilidade conjunta de (X, Y ), pela tabela


abaixo, verificar se X e Y são variáveis aleatórias independentes:

60
x
y 0 1 2 p(y)
0 0,10 0,20 0,20 0,50
1 0,04 0,08 0,08 0,20
2 0,06 0,12 0,12 0,30
p(x) 0,20 0,40 0,40 1,00

Exemplo 13.27 Considere a tabela abaixo:

Casal Rendimento do homem (X) Rendimento da mulher (Y )


1 10 5
2 10 10
3 5 5
4 10 5
5 15 5
6 10 10
7 5 10
8 15 10
9 10 10
10 5 10

Pede-se:

a) Construa a distribuição de probabilidade conjunta de X e Y ;

b) Determine as distribuições marginais de X e Y ;

c) X e Y são variáveis aleatórias independentes? Justifique.

61
d) Calcule as médias e variâncias de X e Y e a covariância entre elas;

e) Calcule a correlação entre X e Y .

14 Distribuições de Probabilidades

14.1 Distribuições de Probabilidades Discretas

14.1.1 Distribuição de Bernoulli

Suponhamos a realização de um experimento E, cujo resultado pode ser um sucesso


(se acontecer o evento que nos interessa) ou um fracasso (o evento não se realiza).

Definimos a variável aleatória discreta tal que:

X −→ x1 = 1 (sucesso) ou x2 = 0 (fracasso)
P (x) −→ P (x1 ) = p P (x2 ) = 1 − p = q.

Diremos que esta variável, assim definida, tem uma distribuição de Bernoulli. Suas
principais características são:

• Média ou esperança: µ = E(X) = p;

• Variância: σ 2 = V ar(X) = pq;


• Desvio-padrão: σ = pq.

Exemplo 14.1 No lançamento de uma moeda, a variável aleatória X anota o número


de caras obtidas. Determine a média, a variância e o desvio-padrão da X.

X: no de caras obtidas (sucesso).

62
Então, p = 1/2 ⇒ µ = p = 1/2,

σ 2 = pq = 1/2.1/2 = 1/4 e
√ p
σ= pq = 1/4 = 1/2.

Exemplo 14.2 No lançamento de um dado, a variável aleatória X anota o número de


faces 3 obtidas neste lançamento. Determine a média, a variância e o desvio-padrão
de X.

14.1.2 Distribuição Binomial

Quando podemos identificar um experimento E, unitário, que admite somente dois


resultados:

 S − Sucesso
 F − Fracasso,

com probabilidade P (S) = p e P (F ) = 1 − p = q (como anteriormente, sucesso


corresponde a 1 e fracasso a 0).

E se o experimento E for repetido n vezes independentemente (em cada repetição


a probabilidade de sucesso se mantém igual a p e a de fracasso igual a q), de tal forma
que:

• Para X = 0, teremos uma seqüência de n zeros: 000 . . . 0. Logo:

P (X = 0) = qqq . . . q = q n

• Para X = 1, teremos seqüências do tipo: 1000 . . . 0; 0100 . . . 0; 0010 . . . 0; teremos

63
n seqüências e cada uma com um único sucesso e n − 1 fracassos:

P (X = 1) = npq n−1

..
.

• Para X = x, teremos x sucessos e n − x fracassos, correspondendo às seqüências


com x algarismos 1 e n − x zeros. Cada seqüência terá probabilidade px q n−x e
como há nx seqüências distintas, temos:


 
n x n−x
P (X = x) = p q .
x

Então, diremos que a variável aleatória X admite distribuição binomial de probabili-


dades. Neste caso, as principais características de X são:

• Média ou esperança: µ = E(X) = np;

• Variância: σ 2 = V ar(X) = npq;


• Desvio-padrão: σ = npq.

Exemplo 14.3 Um exame do tipo teste é constituído de 20 questões, cada uma delas
com cinco respostas alternativas, das quais apenas uma é correta. Se um estudante
responde as questões aleatoriamente, qual é a probabilidade que consiga acertar exa-
tamente 10 questões?

Exemplo 14.4 Uma empresa produz 10% de peças defeituosas. As peças são emba-
ladas em caixas que contém 12 peças. Calcule a probabilidade de um cliente comprar
uma caixa contendo:

64
a) Nenhuma peça defeituosa;

b) Uma peça defeituosa;

c) Pelo menos uma peça defeituosa.

Exemplo 14.5 A proporção de itens que atendem as especificações entre os que são
fabricados por determinado processo industrial é igual a p, onde 0 < p < 1. É
selecionada uma amostra aleatória contendo 5 desses itens. Se X é o número de itens
entre eles que atendem as especificações, então dizemos que o resultado do experimento
pode ser considerado:

• Péssimo, se X 6 1;

• Ruim, se X 6 2;

• Bom, se X > 3;

• Ótimo, se X > 4.

Se a probabilidade condicional de que o resultado do experimento seja péssimo,


dado que ele é ruim é igual a 21/181:

a) Qual é o valor de p?

b) Calcule a probabilidade condicional de que o resultado do experimento seja ótimo,


dado que ele é bom.

14.1.3 Distribuição Hipergeométrica

Suponha que tenhamos um lote de N peças, r das quais sejam defeituosas e (N − r)


das quais sejam não defeituosas. Suponha-se que escolhamos, ao acaso, n peças desse

65
lote (n 6 N ), sem reposição. Seja X o número de peças defeituosas encontradas.
Desde que X = k se, e somente se, obtivermos exatamente k peças defeituosas (dentre
as r defeituosas do lote) e exatamente (n − k) não defeituosas (dentre as (N − r) não
defeituosas do lote), teremos:

r N −r
 
k n−k
P (X = k) = N
 , k = 0, 1, . . . .
n

Então, diremos que a variável aleatória X admite distribuição hipergeométrica de


probabilidades. Suas principais características são:

• Média ou esperança: µ = E(X) = n Nr ;

• Variância: σ 2 = V ar(X) = n Nr (NN−r)(N −n)


(N −1) ;
q
• Desvio-padrão: σ = n Nr (NN−r)(N −n)
(N −1) .

Exemplo 14.6 Pequenos motores elétricos são expedidos em lotes de 50 unidades.


Antes que uma remessa seja aprovada, um inspetor escolhe 5 desses motores e os ins-
peciona. Se nenhum dos motores inspecionados for defeituoso, o lote é aprovado. Se
um ou mais forem verificados defeituosos, todos os motores da remessa são inspeci-
onados. Suponha que existam, de fato, três motores defeituosos no lote. Qual é a
probabilidade de que a inspeção cem porcento seja necessária?

Exemplo 14.7 Um jogo de loteria consiste em selecionar seis dezenas do conjunto de


cem dezenas de 00 a 99, com uma bola para cada dezena e sem reposição. Num volante
(cartão de aposta) o jogador pode escolher de 6 a 12 dezenas. Qual é a probabilidade
de acertar-se a quina (5 dezenas) marcando-se 10 dezenas no volante?

66
14.1.4 Distribuição de Poisson

Uma variável aleatória X admite distribuição de Poisson se:

1. X = 0, 1, 2, . . . ;

2. P (X = k) = e−λ λk /k!;

3. µ = E(X) = λ;

4. σ 2 = V ar(X) = λ.

Uma aplicação imediata deste modelo ocorre quando uma variável aleatória X
admite distribuição binomial com o número n de repetições do experimento muito
grande (n > 30) e com a probabilidade p de sucesso muito pequena (p < 0,05).

Nesta situação, o calculo numérico da expressão:

 
n k n−k
p q
k

se torna praticamente inviável. Nas condições citadas acima, o valor de:

n k n−k e−λ λk
 
p q ≈ ,
k k!

em que λ = np, isto é, selecionamos como aproximação para a binomial uma distri-
buição de Poisson com a mesma média da distribuição binomial.

Exemplo 14.8 Uma máquina produz nove peças defeituosas a cada 1.000 peças pro-
duzidas. Calcule a probabilidade de que em um lote que contém:

a) 200 peças, sejam encontradas oito peças defeituosas;

67
b) 500 peças, não haja nenhuma peça defeituosa.

Exemplo 14.9 Supondo que o número de carros que chegam a uma fila do guichê
de um pedágio tem distribuição de Poisson a uma taxa de três por minuto, calcule a
probabilidade de que cheguem cinco carros nos próximos dois minutos.

14.2 Distribuições Contínuas

14.2.1 Distribuição Uniforme

Se uma variável aleatória X assume valores no intervalo [a, b] com função densidade
de probabilidade dada por:

1
f (x) = ,
b−a

diremos que X admite distribuição uniforme de probabilidades.

Descrição do modelo:

1. X ∈ [a, b];

1
2. f (x) = b−a ;

b+a
3. µ = E(X) = 2 ;

(b−a)2
4. σ 2 = V ar(X) = 12 .

Exemplo 14.10 Um entreposto comercializa diariamente entre 100 e 200 toneladas de


cereal, com distribuição uniforme de probabilidades. Sabe-se que o ponto de equilíbrio
para esta operação corresponde a uma venda de 130 toneladas por dia. Calcule:

68
a) O valor médio das vendas diárias;

b) A variância e o desvio-padrão da distribuição;

c) A probabilidade de o comerciante realizar prejuízo em determinado dia.

Exemplo 14.11 Ônibus chegam a um determinado ponto de parada em intervalos de


tempo de quinze minutos a partir das 7 horas da manhã, isto é, os ônibus chegam
ao ponto às 7h00, 7h15, 7h30, 7h45, e assim por diante. Se o instante de chegada de
um passageiro ao ponto é uniformemente distribuído entre 7h00 e 7h30, determine a
probabilidade:

a) De que ele espere menos de 5 minutos até a chegada de um ônibus;

b) De que ele espere mais de 10 minutos até a chegada de um ônibus.

14.2.2 Distribuição Exponencial

Uma variável aleatória X tem distribuição exponencial com parâmetro λ se sua den-
sidade de probabilidade é da forma:

 λe−λx , x > 0
f (x) =
 0, caso contrário,

em que λ é uma constante positiva.

A distribuição exponencial é freqüentemente usada em estudos de confiabilidade


como sendo o modelo para o tempo até a falha de um equipamento, muito utilizado
para componentes eletrônicos.

Quando X tem uma distribuição exponencial suas principais características são:

69
• Média ou esperança: µ = E(X) = λ1 ;

1
• Variância: σ 2 = V ar(X) = λ2 ;

• Desvio-padrão: σ = λ1 .

Exemplo 14.12 Seja X uma variável aleatória exponencial de parâmetro 2. Calcule:

a) P (X < 1,5);

b) P (X > 0,4).

Exemplo 14.13 (Propriedade de falta de memória) Seja X o tempo entre detecções


de uma partícula rara em um contador Geiger e considere que X seja exponencialmente
distribuído com média 1,4 minutos. Pede-se:

a) A probabilidade de detectarmos uma partícula dentro de 30 segundos a partir do


começo da contagem;

b) Suponha que ligamos o contador Geiger e esperamos 3 minutos sem detectar par-
tículas. Qual a probabilidade de uma partícula ser detectada nos próximos 30
segundos?

14.2.3 Distribuição Normal

Suponha que uma variável aleatória X, com média µ e desvio-padrão σ, apresenta as


seguintes características:

1. Valores da variável aleatória X mais próximos da média µ ocorrem com maior


freqüência;

70
2. Valores da variável aleatória X simétricos em relação à média ocorrem com mesma
freqüência;

3. A região definida pelo gráfico da função e pelo eixo x tem área unitária.

Uma curva que apresenta estas características é a Curva de Gauss. A função


densidade de probabilidade de X neste caso é dada por:
(  2 )
1 1 x−µ
f (x) = √ exp − , −∞ < x < ∞.
2πσ 2 σ

Figura 2: Curva da distribuição Normal


Uma variável aleatória X cuja função densidade de probabilidade é a curva de
Gauss tem distribuição normal de probabilidades. Suas principais características são:

• Média ou esperança: µ;

• Variância: σ 2 ;

• Desvio-padrão: σ.

Cálculo das probabilidades:

A probabilidade de P [a < X < b] é a área da região sob a curva definida pelo


intervalo ]a, b[.

71
a b

A determinação desta área usando-se o cálculo integral é um pouco complicada.


Para superar esta dificuldade, é geralmente utilizada uma transformação na variável
aleatória X que tem uma distribuição normal com média µ e variância σ 2 em uma
variável aleatória Z que tem distribuição normal padrão, ou seja, com média µ = 0 e
variância σ 2 = 1.

Uma tabela contendo os valores positivos de Z e a área compreendida sob a curva


entre 0 e z foi construída.

0 z

Esta distribuição normal padrão foi escolhida pelo fato de apresentar os parâmetros
mais simples.

Qualquer variável X que tem distribuição normal com quaisquer média e variân-
cia pode ser transformada, para efeito do cálculo de áreas, na variável Z que tem

72
distribuição normal padrão, através da mudança de variável:

X −µ
Z= .
σ

Conhecendo-se a área especificada na tabela, qualquer outro tipo de área poderá ser
calculada usando-se a simetria da curva.

Uso da tabela

Distribuição normal padrão

Exemplo 14.14 Calcule a probabilidade de a variável Z que tem distribuição normal


padrão assumir valores entre 0 e 1.

0 1

Note que a área entre zero e um valor positivo é exatamente a área fornecida pela
tabela. Portanto,

P (0 < Z < 1) = 0,3413.

Exemplo 14.15 Calcule a probabilidade de a variável Z que tem distribuição normal


padrão assumir valores maiores que 1.

Exemplo 14.16 Calcule a probabilidade de a variável Z que tem distribuição normal


padrão assumir valores menores que −1.

73
Exemplo 14.17 Seja uma variável aleatória X que tem distribuição normal com mé-
dia 20 e desvio-padrão 3. Calcule P (20 < X < 23).

Exemplo 14.18 As alturas dos alunos de uma determinada escola são normalmente
distribuídas com média 1,60m e desvio-padrão 0,30m. Encontre a probabilidade de
um aluno medir:

a) entre 1,50 e 1,80m;

b) mais de 1,75m;

c) menos de 1,48m.

Exemplo 14.19 O salário semanal dos operários industriais são distribuídos normal-
mente em torno de uma média de $180,00 com desvio-padrão de $25,00. Pede-se:

a) Encontre a probabilidade de um operário ter salário semanal situado entre $150,00


e $178,00;

b) Encontre a probabilidade de um operário ter salário semanal menor que $150,00.

Exemplo 14.20 Suponha que as notas de uma prova sejam normalmente distribuídas
com média 73 e desvio-padrão 15. 15% dos alunos mais adiantados recebem a nota
A e 12% dos mais atrasados recebem nota F . Encontre o mínimo para receber A e o
mínimo para passar, ou seja, não receber F .

Exemplo 14.21 O tempo necessário em uma oficina para o conserto da transmissão


de um tipo de carro segue uma distribuição normal, com média 45 min. e desvio
padrão de 8 min.

74
a) O mecânico comunicou a um cliente que o carro estará pronto em 50 min. Qual a
probabilidade de que o mecânico esteja enganado?

b) Qual deve ser a previsão de tempo de trabalho para que haja 90% de probabilidade
de que o concerto da transmissão seja efetuada dentro do tempo previsto?

15 Introdução à Teoria da Confiabilidade

15.1 Introdução

Suponha-se que estamos considerando um componente (ou todo um complexo de com-


ponentes instalados em um sistema), o qual é submetido a alguma espécie de “esforço”.
Isto pode constituir uma viga sob uma carga, um fusível intercalado em um circuito,
uma asa de avião sob a ação de forças, ou um dispositivo eletrônico posto em serviço.
Suponha-se que, para qualquer desses componentes (ou sistema), um estado que deno-
taremos como “falha” possa ser definido. Desta forma, a viga de aço pode romper-se
ou quebrar, o fusível pode queimar, a asa pode empenar, ou o dispositivo eletrônico
pode deixar de funcionar.

Se esse componente for posto sob condições de esforço, em algum instante espe-
cificado, digamos t = 0, e observado até que falhe (isto é, até que pare de funcionar
adequadamente sob o esforço aplicado), a duração até falhar ou duração de vida, T ,
pode ser considerada como uma variável aleatória contínua com alguma fdp f . Existe
grande quantidade de provas empíricas para indicar que o valor de T não pode ser pre-
visto a partir de um modelo determinístico. Isto é, componentes “idênticos” sujeitos a
“idênticos” esforços falharão em diferentes e imprevisíveis instantes. Alguns falharão
logo no início de sua vida e outros em épocas mais tardias. Naturalmente, “o estilo de

75
falhar” variará com o tipo de peça que se esteja considerando. Por exemplo, um fusível
falhará bastante subitamente, no sentido de que em dado momento estará funcionando
perfeitamente e no próximo momento já não funcionará mais. Por outro lado, uma
viga de aço sob uma carga pesada tornar-se-á provavelmente mais fraca durante um
longo período de tempo. De qualquer modo, o emprego de um modelo probabilístico,
com T considerada uma variável aleatória, parece constituir-se no único tratamento
realista do assunto.

Definição 15.1 A confiabilidade de um componente (ou sistema) na época t, R(t), é


definida como R(t) = P (T > t), em que T é a duração da vida do componente. R é
denominada função de confiabilidade.

A definição, dada aqui, simplesmente afirma que a confiabilidade de um componente


é igual à probabilidade de que o componente não venha a falhar durante o intervalo [0, t]
(ou, de modo equivalente, confiabilidade é igual à probabilidade de que o componente
esteja em funcionamento na época t). Se para uma determinada peça, R(t1 ) = 0,90,
isso significa que aproximadamente 90% de tais peças, utilizadas sob dadas condições,
estarão ainda em funcionamento na época t1 .

Em termos da fdp de T , digamos f , teremos:

Z ∞
R(t) = f (s)ds.
t

Em termos da fd de T , digamos F , teremos:

R(t) = 1 − P (T 6 t) = 1 − F (t).

76
Além da função de confiabilidade R, outra função desempenha importante papel
na descrição das características de falhas de uma peça.

Definição 15.2 A taxa de falhas (instantânea) Z (algumas vezes denominada função


de risco) associada à variável aleatória T é dada por:

f (t) f (t)
Z(t) = = ,
1 − F (t) R(t)

definida para F (t) < 1.

Afim de interpretar Z(t), considere-se a probabilidade condicionada:

P (t 6 T 6 t + ∆t | T > t),

isto é, a probabilidade de que a peça venha a falhar durante as próximas ∆t unidades de


tempo, desde que a peça esteja funcionando adequadamente no instante t. Aplicando-
se a definição de probabilidade condicionada, poderemos escrever a expressão acima
assim:

P (t < T 6 t + ∆t)
P (t 6 T 6 t + ∆t | T > t) =
P (T > t)
Z t+∆t
= f (x)dx/P (T > t)
t
= ∆tf (ε)/R(t),

em que t 6 ε 6 t + ∆t.

A última expressão é (para ∆t pequeno e supondo-se que f seja contínua em t+ )


aproximadamente igual a ∆tZ(t). Portanto, explicando não formalmente, ∆tZ(t)

77
representa a proporção de peças que falharão entre t e t + ∆t, dentre aquelas peças
que estavam ainda funcionando na época t.

Teorema 1: Se T , a duração até falhar, for uma variável aleatória contínua, com fdp
f e se F (0) = 0, onde F é a fd de T , então, f poderá ser expressa em termos da taxa
de falhas Z, da seguinte maneira:

Rt
f (t) = Z(t)e− 0
Z(s)ds
.

Demonstração: Visto que R(t) = 1 − F (t), teremos R0 (t) = −F 0 (t) = −f (t). Daí,

f (t) −R0 (t)


Z(t) = = .
R(t) R(t)

Integremos ambos os membros de 0 a t:

t t
t
R0 (s)
Z Z

Z(s)ds = − ds = − ln R(s) = − ln R(t) + ln R(0) = − ln R(t),
0 0 R(s) 0

desde que ln R(0) = 0, o que vale se, e somente se, R(0) = 1. (Esta última condição
será satisfeita se F (0) = 0. Isto apenas diz que a probabilidade de falha inicial é igual
a zero; adotaremos esta hipótese no restante da exposição). Conseqüentemente,

Rt
R(t) = e− 0
Z(s)ds
.

Portanto,

0d Rt
− 0 Z(s)ds
f (t) = F (t) = [1 − R(t)] = Z(t)e .
dt

Por conseguinte, mostramos que a taxa de falhas Z determina univocamente a fdp f .

78
Existe uma interessante relação entre a função de confiabilidade e a duração média
até falhar, E(T ).

Teorema 2: Se E(T ) for finita, então:

Z ∞
E(T ) = R(t)dt.
0

Demonstração: Considere

Z ∞ Z ∞ Z ∞ 
R(t)dt = f (s)ds dt.
0 0 t

R∞
Vamos integrar por partes, fazendo t f (s)ds = u e dt = dv. Daí, v = t e du =
−f (t)dt. Portanto,

Z ∞ Z ∞  ∞ Z ∞

R(t)dt = t f (s)ds + tf (t)dt.
0 t 0 0

A segunda integral, no segundo membro, representa E(T ). Portanto a demonstração


R∞
estará completa se pudermos mostrar que t t f (s)ds se anula em t = 0 e quando
t → ∞.
R∞
Considere g(t) = t t f (s)ds. Portanto,

Z ∞  ∞ h i

t f (s)ds = lim g(t) − g(0) = lim g(t),

t t→∞ t→∞
0

R∞
pois g(0) = 0 0 f (s)ds = 0.

79
Agora, note que para todo t > 0,

Z ∞ Z ∞
0 6 g(t) = tf (s)ds 6 sf (s)ds .
t |t {z }
(*)

Como

Z ∞ Z t Z ∞
E(T ) = sf (s)ds = sf (s)ds + sf (s)ds,
0 0 t

então

Z ∞ Z t
sf (s)ds = E(T ) − sf (s)ds.
t 0

Substituindo o resultado acima em (*), temos:

Z ∞ Z t
0 6 g(t) = tf (s)ds 6 E(T ) − sf (s)ds.
t 0

Aplicando o limite quando t → ∞, temos:

Z t
0 6 lim g(t) 6 E(T ) − lim sf (s)ds = E(T ) − E(T ) = 0.
t→∞ | {z } t→∞ 0
<∞

Os conceitos de confiabilidade e de taxa de falhas estão entre as mais importantes


ferramentas necessárias para um estudo profundo dos “modelos de falhas”. Estudare-
mos principalmente as seguintes questões:

a) Que “leis de falhas” subjacentes será razoável admitir? (isto é, que forma a fdp de
T deve ter?);

80
b) Suponha-se que temos dois componentes, C1 e C2 , com leis de falhas conhecidas.
Suponha que esses componentes estejam associados em série:

C1 C2

ou em paralelo:

C1

C2

para constituir um sistema. Qual será a lei de falhas (ou confiabilidade) do sistema?

A questão de qual será uma “razoável” lei de falhas nos leva de volta a um problema:
qual é um modelo matemático razoável para a descrição de algum fenômeno observá-
vel? De um ponto de vista estritamente matemático, poderemos admitir qualquer fdp
para T e, depois, simplesmente estudar as conseqüências dessa hipótese. Contudo, se
estivermos interessados em ter um modelo que represente (tão acuradamente quanto
possível) os dados de falhas realmente disponíveis, nossa escolha do modelo terá que
levar isso em consideração.

81
15.2 A Lei de Falha Normal

Existem muitos tipos de componentes cujo comportamento das falhas pode ser repre-
sentado pela distribuição normal. Isto é, se T for a duração da vida de uma peça, sua
fdp será dada por:
(  2 )
1 1 t−µ
f (t) = √ exp − .
2πσ 2 σ

[Novamente salientamos que a duração até falhar, T , deve ser maior que (ou igual
a) zero. Conseqüentemente, a fim de que o modelo acima possa ser aplicado devemos
insistir que P (T < 0) seja essencialmente zero.] Como a forma da fdp normal indica,
a lei de falhas normal significa que a maioria das peças falha em torno da duração
até falhar média, E(T ) = µ e o número de falhas decresce (simetricamente) quando
|T − µ| cresce. A lei de falhas normal indica que cerca de 95,44% das falhas ocorrem
para aqueles valores de t que satisfaçam a {t | |t − µ| < 2σ}.

A função de confiabilidade da lei de falhas normal pode ser expressa em termos da


função de distribuição acumulada normal, Φ, da seguinte maneira:

R(t) = P (T > t) = 1 − P (T 6 t)
Z t (  2 )
1 1 x−µ
= 1− √ exp − dx
2πσ −∞ 2 σ
 
t−µ
= 1−Φ .
σ

Exemplo 15.1 Suponha-se que a duração da vida de um componente seja distribuída


normalmente, com desvio-padrão igual a 10 (horas). Se o componente tiver uma

82
confiabilidade de 0,99 para um período de operação de 100 horas, qual será sua duração
de vida esperada?

15.3 A Lei de Falhas Exponencial

Uma das mais importantes leis de falhas é aquela cuja duração até falhar é descrita
pela distribuição exponencial. Poderemos caracterizá-la de muitas maneiras, mas,
provavelmente, a maneira mais simples é supor que a taxa de falhas seja constante.
Isto é, Z(t) = α. Uma conseqüência imediata desta hipótese é que a fdp associada à
duração até falhar T , seja dada por:

f (t) = αe−αt , t > 0.

A recíproca disto é, também, imediata: se f tiver a forma acima, R(t) = 1 − F (t) =


e−αt e, portanto, Z(t) = f (t)/R(t) = α. Deste modo, concluímos o seguinte resultado
importante:

Teorema 3: Seja T , a duração até falhar, uma variável aleatória contínua, que tome
todos os valores não-negativos. Então, T terá uma distribuição exponencial se, e
somente se, tiver uma taxa de falhas constante.

Para muitos tipos de componentes, a hipótese que conduz à lei de falhas exponen-
cial é, não somente sugestiva intuitivamente, mas de fato é confirmada pela evidência
empírica. Por exemplo, é bastante razoável admitir-se que um fusível ou um rolamento
de rubis sejam “tão bons quanto novos”, enquanto estiverem ainda funcionando. Isto
é, se o fusível não tiver fundido, estará praticamente em estado de novo; nem o rola-
mento se alterará muito devido a desgaste. Em casos tais como estes, a lei de falhas

83
exponencial representa um modelo adequado com o qual se estudem as características
de falhas da peça.

Contudo, uma palavra de advertência deve ser incluída aqui. Há muitas situações
encontradas nos estudos de falhas, para as quais as hipóteses básicas que levam à
distribuição exponencial não serão satisfeitas. Por exemplo, se um pedaço de aço for
submetido a esforço continuado, haverá obviamente alguma deterioração, e por isso,
um outro modelo, que não o exponencial deve ser examinado. Vamos apresentar, de
forma resumida, as propriedades da distribuição exponencial. Se T , a duração até
falhar, for distribuída exponencialmente (com parâmetro α), teremos:

E(T ) = 1/α; V ar(T ) = 1/α2 ;


F (t) = 1 − P (T 6 t) = 1 − e−αt ; R(t) = e−αt .

Exemplo 15.2 Se for dado o parâmetro α e R(t) for especificada, podemos achar t, o
número de horas, por exemplo, de operação. Deste modo, se α = 0,01 e R(t) for igual
a 0,90, teremos:

0,90 = e−0,01t .

Daí, t = −100 ln(0,90) = 10,54 horas. Logo, se cada um de 100 desses componentes
estiver operando durante 10,54 horas, aproximadamente 90 não falharão durante aquele
período.

15.4 Confiabilidade de Sistemas

Nesta seção nos dedicaremos à segunda questão proposta na seção anterior: Como
poderemos avaliar a confiabilidade de um sistema, se conhecemos a confiabilidade de

84
seus componentes?

Suponha-se que dois componentes estejam montados em série:

C1 C2

Isso significa que, a fim de que o sistema funcione, ambos os componentes deverão fun-
cionar. Se, além disso, admitirmos que os componentes funcionem independentemente,
poderemos obter a confiabilidade do sistema, R(t), em termos das confiabilidades dos
componentes, R1 (t) e R2 (t), da seguinte maneira:

R(t) = P (T > t) (onde T é a duração até falhar do sistema)

= P (T1 > t e T2 > t) (onde T1 e T2 são as durações até falhar dos

componentes C1 e C2 , respectivamente)

= P (T1 > t)P (T2 > t)

= R1 (t)R2 (t).

Assim, achamos que R(t) 6 min[R1 (t), R2 (t)]. Quer dizer, para um sistema formado
de dois componentes independentes, em série, a confiabilidade do sistema é menor do
que a confiabilidade de qualquer de suas partes.

A explicação acima pode obviamente ser generalizada para n componentes, e ob-


teremos o seguinte teorema.

Teorema 3: Se n componentes, que funcionem independentemente, forem montados


em série, e se o i-ésimo componente tiver confiabilidade Ri (t), então, a confiabilidade

85
do sistema completo, R(t), será dada por:

R(t) = R1 (t)R2 (t) . . . Rn (t).

Em particular, se T1 e T2 tiverem leis de falhas exponenciais com parâmetrosα1 e


α2 , R(t) se torna:

R(t) = e−α1 t e−α2 t = e−(α1 +α2 )t .

Em conseqüência, a fdp da duração até falhar do sistema, digamos T , será dada por:

f (t) = −R0 (t) = (α1 + α2 )e−(α1 +α2 )t .

Teorema 4: Se dois componentes, que funcionem independentemente e tenham leis


de falhas exponenciais com parâmetros α1 e α2 , forem montados em série, a lei de
falhas do sistema resultante será também exponencial com parâmetro igual a α1 + α2 .
(Este teorema pode, evidentemente, ser generalizado para n componentes em série.)

Exemplo 15.3 Considere um circuito eletrônico constituído de 4 transistores de silí-


cio, 10 díodos de silício, 20 resistores sintéticos e 10 capacitores cerâmicos, operando
em série contínua. Suponha que sob certas condições de trabalho, (isto é, corrente
e temperatura prescritas), cada uma dessas peças tenha a seguinte taxa de falhas
constante:

díodos de silício: 0,000002


transistores de silício: 0,00001
resistores sintéticos: 0,000001
capacitores cerâmicos: 0,000002

86
Em virtude da taxa de falhas constante admitida, a distribuição exponencial representa
a lei de falhas para cada uma dos componentes acima. Devido a conexão em série, a
duração até falhar para o circuito completo será também distribuída exponencialmente
com parâmetro (taxa de falhas) igual a:

10(0,000002) + 4(0,00001) + 20(0,000001) + 10(0,000002) = 0,0001.

Portanto, a confiabilidade do circuito será dada por:

R(t) = e−0,0001t .

Assim, para um período de 10 horas de operação, a probabilidade de que o circuito


não falhe será dada por:

R(10) = e−0,0001(10) = 0,999.

A duração até falhar esperada do circuito é igual a:

1/0,0001 = 10.000 horas.

Exemplo 15.4 Suponha que as probabilidades de falhas, ao longo de determinado


período, para os três componentes em série ilustrados abaixo sejam F1 (t) = 5%,
F2 (t) = 10% e F3 (t) = 20%. Qual será a confiabilidade deste sistema neste período?

87
1 2 3

Outro sistema importante é o sistema em paralelo, no qual os componentes são


ligados de tal maneira que o sistema deixa de funcionar somente se todos os compo-
nentes falharem. Se apenas dois componentes estiverem incluídos, o sistema pode ser
esquematizado como está na figura abaixo:

C1

C2

Novamente, admitindo que os componentes trabalhem independentemente um do


outro, a confiabilidade do sistema, R(t), pode ser expressa em termos das confiabili-
dades dos componentes R1 (t) e R2 (t), da maneira seguinte:

R(t) = P (T > t) = 1 − P (T 6 t)

= 1 − P (T1 6 t e T2 6 t)

= 1 − P (T1 6 t)P (T2 6 t)

= 1 − {[1 − P (T1 > t)][1 − P (T2 > t)]}

= 1 − [1 − R1 (t)][1 − R2 (t)]

= R1 (t) + R2 (t) − R1 (t)R2 (t).

88
A última forma indica que R(t) > máximo[R1 (t), R2 (t)]. Isto é, um sistema composto
de dois componentes em paralelo, que funcionem independentemente, será de maior
confiança que qualquer dos componentes.

Todas as idéias expostas acima para dois componentes podem ser generalizadas no
seguinte teorema:

Teorema 5: Se n componentes, que funcionem independentemente, estiverem ope-


rando em paralelo, e se o i-ésimo componente tiver confiabilidade Ri (t), então a con-
fiabilidade do sistema, R(t), será dada por:

R(t) = 1 − [1 − R1 (t)][1 − R2 (t)] . . . [1 − Rn (t)].

Freqüentemente acontece que todos os componentes têm igual confiabilidade, diga-


mos Ri (t) = r(t) para todo i. Neste caso, a expressão acima ficará:

R(t) = 1 − [1 − r(t)]n .

Vamos considerar, em particular, dois componentes em paralelo, cada um com duração


até falhar exponencialmente distribuída. Então,

R(t) = R1 (t) + R2 (t) − R1 (t)R2 (t) = e−α1 t + e−α2 t − e−(α1 +α2 )t

Portanto, a fdp da duração até falhar do sistema em paralelo, T , será dada por:

f (t) = −R0 (t) = α1 e−α1 t + α2 e−α2 t − (α1 + α2 )e−(α1 +α2 )t .

Conseqüentemente, T não será exponencialmente distribuída. O valor esperado de T

89
é igual a:

1 1 1
E(T ) = + − .
α1 α2 α1 + α2

Enquanto a operação em série é, freqüentemente obrigatória (isto é, alguns componen-


tes devem funcionar a fim de que o sistema funcione), empregamos muitas vezes uma
operação em paralelo de modo a aumentar a confiabilidade do sistema. O exemplo
seguinte ilustra o assunto.

Exemplo 15.5 Suponhamos que dispomos de três componentes. Admita que todos
tenham a mesma taxa de falhas constante α = 0,01. (Isto é, a duração até falhar de
cada componente é exponencialmente distribuída com parâmetro α = 0,01.) Portanto,
a confiabilidade de cada componente é R(t) = e−0,01t , e, por isso, a confiabilidade para
um período de operação de 10 horas é igual a e−0,1 = 0,905 ou cerca de 90%. Quanto
de melhoria poderíamos obter (em termos de aumento de confiabilidade) pela operação
de três desses componentes em paralelo?

A confiabilidade de três componentes operando em paralelo por 10 horas seria:

90
Exemplo 15.6 As bombas A, B e C são bombas de carga de uma planta. Para
operar corretamente, a unidade necessita que pelo menos duas destas bombas estejam
operando. A probabilidade de falha de cada uma é de 10%, ao longo de uma campa-
nha. Suponha que essas bombas estão montadas segundo o sistema abaixo. Qual a
confiabilidade do sistema de alimentação desta planta ao longo da campanha?

91

Você também pode gostar