Você está na página 1de 33

Conceitos de Probabilidade

e Funções de Probabilidade

Aula 3
Mario Thadeu Leme de Barros
Os diversos conceitos de Probabilidade

• Clássico
• Frequencialista
• Subjetivo

Vamos conceituar probabilidade e para isso precisamos


de algumas definições básicas
Definições Básicas
Espaço Amostral: o espaço amostral de um experimento é um conjunto de
possíveis resultados deste experimento, de forma que somente um resultado
ocorre quando é feito o experimento; o espaço amostral é conhecido como o
Universo e os resultados do experimentos como pontos do espaço amostral
exemplo: tiro uma carta do baralho (52 cartas)
espaço amostral 1: retiro qualquer carta = 52 resultados;
espaço amostral 2: carta preta ou vermelha: 52 resultados;
espaço amostral 3: cartas de mesmo nipe 2, 3, 4..10, J, Q, K, A : 13 resultados
espaço amostral 4: figura : 12 resultados
qualquer resultado ou um conjunto deles num espaço amostral é conhecido como
um evento (incluindo o evento impossível ou nulo e o conjunto de todos os
resultados)
Considere um espaço amostral com n pontos:

Probabilidades são números associados aos eventos com as


seguintes regras (dois axiomas):
1. Para cada resultado associa-se uma probabilidade não
negativa de forma que a soma das n probabilidades é igual a 1
2. Se A é um evento do espaço amostral: P(A) é a
probabilidade de A então:
P(A)= é a soma das probabilidades dos resultados do evento A
espaço de probabilidades = espaço amostral com as
probabilidades associadas
Caso especial:
espaço amostral com n pontos e a probabilidade de cada
ponto é:
1
P(de cada ponto) =
n
Ou seja cada resultado é igualmente provável, desse
modo definir probabilidade de um evento como:

número de ocorrências do evento


P (evento) =
número total das possíveis ocorrências

Comentário: a relação deste conceito e o conceito


frequencialista !
Definição Clássica
Se um experimento aleatório pode resultar em N
resultados “mutuamente exclusivos” e “igualmente
prováveis” e se Na desses resultados possuem um
atributo A então a probabilidade do evento A é dada por:

Na
P ( A) =
N
Outros Conceitos
Importantes:
• probabilidade a priori
• probabilidade posteriori
• subjetiva
Postulados
P ( A) ≥ 0
P (Ω) = 1
A1.....An são mutuamente excludentes
∞ ∞
P(U A i ) = ∑ P ( Ai )
i=1 i =1
Importante:

P(evento impossível ) = 0 (o conceito inverso não vale! )


P(certo) = 1

A é o evento complement ar de A
neste caso :
P ( A) = 1 − P ( A)

Vamos ver agora algumas regras para determinar o


número possível de resultados de um certo experimento
(isto não é trivial na maioria dos casos...........)
Determinação do Número de Eventos Possíveis

Permutação (alinhamento):
n objetos podem ser permutados em n! maneiras
Arranjo
n!
An ,r = (importa a ordem)
(n − r )!

Combinação: O Coeficiente Binomial

n n!
Cn,r = r  = (não importa a ordem)
  r ! (n − r )!
Fórmulas para determinar o número de eventos
possíveis, dependendo do experimento
proposto

- ordenada com reposição nr


- ordenada sem reposição (n) r = n!/ (n − r )! - para r=n
- permutação de n = n!
 n
- sem ordem sem reposição  r  = n!/ (n − r )!r !
 
 n+ r −1
- sem ordem com reposição  r  = (n + r − 1)!/ (n − 1)!r !
 

dica: aproximação do fatorial: n! = 2π . e −n . n n+1/ 2 (fórmula de Stirling)


E/OU

P ( A ou B ) = P ( A) + P (B ) − P ( A e B )

P ( A ∪ B ) = P ( A ) + P (B ) − P ( A ∩ B )

Eventos Mutuamente Exclusivos (disjuntos)

P ( A ∩ B ) = 0 (conjunto vazio)

Probabilidade Condicional
P(A ∩ B)
P(B/A) =
P(A)
Eventos Independen tes
se : P(A ∩ B) = P(A).P(B)
ou
P(B/A) = P(B)
ou seja, ocorre A e ele não afeta B
Atenção:
diferenciar os conceitos de independência e
de eventos mutuamente exclusivos!!!
Eventos Independentes não são Mutuamente
Exclusivos se P(A e B) ≠ 0
Eventos Mutuamente Exclusivos
P(A e B) = 0
Teorema de Bayes

n Probabilidade a Priori
Ω = UBj
j =1

P ( A / Bk ).P (Bk )
P (Bk / A) = n

∑ (P ( A / B ).P (B )
j =1
j j

Probabilidade Posteriori
Teorema das Probabilidades
Totais

P ( A) = ∑ (P ( A / B j ).P (B j )
j =1
Alguns exercícios para praticar:
1.Um comitê de tamanho sete é escolhido entre seis homens,
sete mulheres e oito crianças. Qual a probabilidade do Comitê
conter:
a) dois homens, quatro mulheres e uma criança
b) dois homens
2. Uma urna contém 40 bolas brancas, 50 vermelhas e 60
pretas. Retire 20 bolas sem reposição. Qual a probabilidade de:
a) 10 brancas, 4 vermelhas e 6 pretas
b) 10 brancas
VAMOS AGORA REVER A
FORMULAÇÃO BÁSICA DA TEORIA
DE PROBABILIDADES OU SEJA
AS SUAS PRINCIPAIS FUNÇÕES
Formulação Básica
funções discretas
px ( x = x0 ) - função massa de probabilidade
Px ( x ≤ x0 ) - função acumulada discreta de probabilidade
x0
Px ( x ≤ x0 ) = ∑ p( x = x )
i = −∞
i

p( x0 ≤ x ≤ x1 ) = P ( x = x1 ) − P ( x = x0 ) = P ( x ≤ x1 ) − P ( x ≤ x0 )

funções contínuas
fx ( x ) - função densidade de probabilidade
Fx ( x0 ) - função acumulada de probabilidade
x0

Fx ( x0 ) = ∫ fx ( x ).dx = Fx ( x ≤ x0 )
−∞
x1

fx ( x0 ≤ x ≤ x1 ) = ∫ fx ( x ).dx = Fx ( x1 ) − Fx ( x0 )
x0
+∞

∫ f ( x ).dx = 1
−∞
x
x
Fx ( x ) = ∫ f ( x ).dx
−∞
x

dFx ( x )
fx ( x ) =
dx
+∞
condição de existência ∫ f (x) = 1
−∞
x
Distribuições Mistas
quando parte da variável aleatória é
discreta e parte e contínua: chuva diária,
nível de um reservatório (mínimo e
máximo)
Probabilidade Conjunta

Fxy ( X ,Y )
Fxy ( −∞, y ) = 0 e Fxy ( x,−∞ ) = 0
Fxy (∞, ∞ ) = 1
Fxy ( x, ∞ ) = P ( X ≤ x ) = Fx ( x ) Distribuição Marginal de x
Fxy (∞, y ) = P (Y ≤ y ) = Fy ( y ) Distribuição Marginal de y

Fxy ( x, ∞ ) = ∑∑ P ( x , y
x i ≤ x j =1
i j )= ∑ P( x )
xi ≤ x
i

Probabilidade Condicional
fxy ( x, y )
f (Y / X = x ) =
fx ( x )
Variáveis Independentes

F xy (x , y ) = F x (x ).F y (y )
Transformação de Variáveis

Conheço Fx (x ) e quero determinar G y (y ) sabendo que :

y = ϕ (x )
fx ( x ).dx = g y ( y ).dy
ou
∂x
g y ( y ) = fx ( x ).
∂y

se y = ϕ ( x )
∂x
g y ( y ) = fx [ϕ −1
( y )].
∂y
vamos determinar a distribuição da variável :
−1
y = F x (x ) ou seja x = F x (y ) aplicando a fórmula anterior :

−1 dx
g y (y ) = f x (F x (y )).
dy
mas
dF x (x )
y = F x (x ) derivando dy = .dx = f x (x ).dx
dx
ou seja
dy
= f x (x ) substituindo na expressão acima
dx
dy dx
g y (y ) = . =1
dx dy

Conceito básico da geração de dados com determinada


distribuição!
Caso de duas variáveis:

Problema
Tem - se F xy (x , y ) e quer - se determinar

G zw (z ,w ) sabendo que Z = ϕ1 (x , y ) e W = ϕ 2 (x , y )

Demonstra-se que:

∫∫B f (x , y )dxdy = ∫∫ f [ψ (z ,w ),ψ


,
1 2 (z ,w )]. J xy .dz .dw
zw
B

onde

B região de x , y

B ,região de z ,w
g zw (z ,w ) = f [ψ 1 (z ,w ),ψ 2 (z ,w )]. J xy
zw

x = ψ 1 (z ,w )
y = ψ 2 (z ,w )
∂x ∂y ∂x ∂y
Jacobiano J xy = . − .
zw ∂ z ∂w ∂w ∂ z
Momentos

E [x ] = ∫ x .f x (x ).dx
−∞

E [ϕ (x )] = ∫ ϕ (x ).f x (x ).dx
−∞

ϕ (x ) = x k então E [x k ] = momento natural de ordem k

E [(x − µ )k ] = momento centrado de ordem k


E [( x − µ )2 ] = var(x)
A raiz quadrada positiva da variância é o desvio
padrão
E [( x − µ x ).(y − µ y )] = cov( x , y )
momento natural de ordem k = µ ´
k

momento central de ordem k = µK


var iância = σ 2
Coeficiente de Correlação

cov( x, y )
ρ xy =
σ xσ y

Se igual a um, existe uma relação pefeitamente linear


entre x e y (idem para -1);

− 1 ≤ ρ xy ≤ +1
Se duas variáveis forem independentes, a cov(x,y) é igual a
zero. A recíproca não é verdadeira!
Função Geratriz de Momentos

+∞
M x (t ) = E [e tx ] = ∫ e tx f x (x ).dx
−∞

Esta expressão pode ser desenvolvida em série para se


obter:

µ 2, µ ,
M x (t ) = 1 + µ1,t + t 2 + ... + n t n ....
2! n!

µn, − momento natural de ordem n


Função Geratriz de Momentos Fatoriais

G x ( t ) = E [t x ]
a derivada de ordem k dessa função :
Gxk (t ) = E [ x ( x − 1)...( x − k + 1)t x −k )]
para t = 1 E [ν k ] = momento fatorial

Para amostras discretas, demonstra-se que:



Gx (t ) = ∑ p( x ).t
x i =0
i
xi

A expressão de G pode ser desenvolvida, chegando-se a:


G k (0 ) k
Gx (t ) = G(0) + ∑ t
k! Função Geratriz de
ou seja
G k (0 )
Probabilidades
p(k ) =
k!
Outros coeficientes importantes:

σ
Coeficiente de Variação S = x100(%)
µ
µ3
Assimetria
γ = 3
σ
µ4
Curtose C= 4
σ

Mediana Percentil de 50%


• a partir dos momentos define-se a Distribuição de
Probabilidades
•os momentos permitem resumir a informação (sumário)
•na maioria dos casos dois ou três momentos já bastam para
conhecer a distribuição: média, desvio-padrão (variância),
mediana (50%), moda (valor mais provável), quartil (25%),
assimetria, curtose....
•Teorema de Tchebycheff:

1
P ( µ − kσ ≤ x ≤ µ + kσ ) ≥ 1 − 2
k
Supondo, por exemplo, k=2, 3/4 da massa de x cai dentro
de duas vezes o seu desvio-padrão.

Você também pode gostar