Você está na página 1de 17

Sumário

*Distribuição de probabilidade para uma variável aleatória

*Função de distribuição de X (ou distribuição cumulativa)

Propriedades da Função de distribuição

*Relação entre a distribuição de probabilidade e a função de distribuição

*Densidade(de probabilidade) de X

*Distribuição conjunta e marginal (vetores aleatórios)

*Esperança matemática

Independência de variáveis aleatórias

Variância

Covariância

*Modelos probabilísticos

OBS: Nesse resumo tem anotações de aula, minhas interpretações,


exemplos da internet e etc, portanto, não garanto que esteja tudo 100% correto.
Os ‘*’ são os tópicos que EU considerei mais importantes.
*Distribuição de probabilidade para uma variável aleatória
São todos os valores que essa variável pode assumir, obedecendo às
seguintes condições:

para todo ​(Todas as probabilidades individuais devem ser maior ou igual que
0)

(A soma de todas elas deve dar 1)

Exemplo 1: Suponha uma variável aleatória X que meça o número de


Caras(C) de uma moeda(honesta) que é lançada duas vezes. X então pode assumir
os valores ​{0,1,2} já que em dois lançamentos pode não cair nenhuma cara, pode
cair uma cara ou pode cair duas caras. A distribuição nesse caso fica: P(X=0) = ¼ ,
P(X=1) = ½ , P(X=2) = ¼ , pois os resultados são {[C,C], [K,C], [C,K], [K,K]} (K é
Coroa). Caso não fosse honesta suponha p e faça da mesma forma.
OBS: A distribuição pode ser dividida em casos, como neste exemplo, ou
pode ser uma equação onde xi é variável como no exemplo a seguir.
Exemplo 2: ​Lancemos um dado até aparecer “3” X marca o número de
lançamentos, a distribuição então: P (X = n) = (5/6)n−1 · (1/6) , n ε N (⅚ é a chance de
não sair 3, isso elevado a n-1 pois o n-ésimo lançamento é 3 com certeza, então
todos os outros n-1 não são 3 e o último é 3).
*Função de distribuição de X (ou distribuição cumulativa)
É uma função que pega qualquer valor Real e devolve a probabilidade da sua
variável assumir um número ​menor ou igual a esse. sendo assim FX vai de R →
[0,1]
Exemplo 3(imagens abaixo): Suponha o mesmo experimento do exemplo 1,
sua função de distribuição pode ser descrita como: Fx(x) = P(X ≤ x) , x ε [0,1,2]
então podemos dividir em 4 casos: menor que 0,entre 0 e 1, entre 1 e 2, maior que
2. Dividimos dessa forma pois as fronteiras são importantes em casos
discretos(casos discretos são quando temos número separados, diferente das
contínuas que temos intervalos). Agora vamos de fato descrever a Fx,
Quando nossa variável irá assumir um valor menor que 0(sem incluir)?
Nunca. P (X ≤ x) = 0 , para todo x < 0.
Quando nossa variável irá assumir um valor entre 0 e 1(sem incluir 1, ​é uma
convenção o da esquerda sempre fechado e o da direita aberto, ​[0,1)​)? Nesse
caso, já podemos pegar o 0. P (X ≤ x) = 1/4 , para qualquer x no intervalo ​[0,1)​.
Quando nossa variável irá assumir um valor entre 1 e 2(​[1,2)​)? Bom, já
podemos pegar o 1 mas não o 2. P (X ≤ x) = P (X = 0) + P (X = 1) = 1/4 + 1/2 = 3/4 ,
para todo x em ​[1,2)​. Nossa função é ​cumulativa ​como diz o nome, já que podemos
pegar qualquer número ​abaixo ​de 2, a função vai poder assumir ​0 ou 1.​
Por fim, maior que 2? qualquer número maior que 2 já é maior que o número
máximo que nossa X assume, assim é fácil ver que acumulando todas as
probabilidades tem que dar 1,
P (X ≤ x) = P (X = 2) + P (X = 1) + P (X = 0) = 1/4 + 1/2 + 1/4 = 1 , para todo x > 2
Exemplo 4: ​Como na distribuição, dependendo do problema ele pode ser
expresso com uma fórmula ao invés de dividir em casos. Suponha o experimento do
exemplo 2(o dado). X é o número de lançamento até sair “3”, vamos supor que
levou um número qualquer “n” para sair “3” então, Fx(n) = P(X ≤ n). Tome como base
o exemplo anterior onde sempre pegamos o valor x aberto e x-1 fechado (​[x-1,x)​),
façamos o mesmo aqui(n e x são números quaisquer), quando nossa variável irá
assumir um valor entre n-1 e n? P (X ≤ n) = P (X = n − 1) + P (X = n − 2) + ... + P (X = 0)
para facilitar as contas e começar a contar em n, ao invés de supormos o
caso “n”, vamos supor o caso “n+1” daí fica assim:
P (X ≤ n + 1) = P (X = n) + P (X = n − 1) + ... + P (X = 0) , agora vemos que isso é um
n
somatório(como a maioria das coisas em probabilidade), ∑ P (X = i) , P(X=i) já
i=1
n
vimos anteriormente, substituindo, ∑ (5/6)i−1 · (1/6) , aqui já está 80% pronto mas
i=1

utilizando de parafernalha matemática de séries e etc, chegamos a


n n−1
1−(5/6)n
(1/6) · ∑ (5/6)i−1 ⇒ (1/6) · ∑ (5/6)i ⇒ (1/6) · 1−(5/6) ,tira 1/6 para fora pois é
i=1 i=0

constante, muda o intervalo do somatório já que é equivalente, e daí vira uma série
a1−(a/b)n
convergente que tem formula pra resolver, a1−(a/b) , ​a1 é o primeiro termo, a/b é a

fração dentro do parênteses, a é sempre menor que b.


Obs​: Apesar do Prof.Rosales estar interessado mais nos primeiros 80%, ele
comentou sobre essa fórmula diversas vezes na aula, talvez seja bom decorar pelo
1−(a/b)n
menos a forma trivial 1−(a/b) .
Para quem aprende com imagens:
Propriedades da Função de distribuição
1) 0 ≤ F x(x) ≤ 1 , para qualquer x, se a sua F em qualquer momento passa de 1
ou fica menor que 0 está errado :)
2) F x(x) é não decrescente, então se a sua conforme acumula mais pontos ela
decresce está errado de novo :) . (tem um gráfico de exemplo acima)
3) lim F x(x) = 1 , se você pega x muito grande, obviamente a chance de sua
x→+∞

variável aleatória ser menor que isso é 100%, o contrário vale também,
lim F x(x) = 0 .
x→−∞

4) P (X = xi) = F x(xi) − lim F x(y) , você não vai precisar calcular esses limites,
y→xi−

se você olhar no gráfico abaixo você vai ver que isso está dizendo por
exemplo xi = 1, P(X=1) = Fx(1) - Fx( 1− ) isso é 3/4 - 1/4 = 1/2 . Isso está
dizendo, pegue o valor no ponto e subtraia do ponto de baixo, é um jeito de
calcular a probabilidade a partir da função de distribuição, fica mais fácil
tendo o gráfico também.
5) P (a < X ≤ b) = F x(b) − F x(a)
P (a ≤ X < b) = F x(b− ) − F x(a− )
P (a < X < b) = F x(b− ) − F x(a)
P (a ≤ X ≤ b) = F x(b) − F x(a− )
Use as imagens acima para entender como funciona, suponha a = 1 e b = 2.
( b− e a− são os limite tendendo pela esquerda, estou com preguiça de ficar
fazendo todos os limites) (parece complicado mas não é, não precisa decorar
nada, usa o exemplo e imagens anteriores para ver quais valores tem que
pegar, tem que prestar atenção nas fronteiras, quando é < e quando é ≤ ).
*Relação entre a distribuição de probabilidade e a função de
distribuição
Elas estão relacionadas e a partir de uma você pode encontrar a outra. No
exemplo 3 montamos a função de distribuição sabendo quanto valia a
probabilidade em cada ponto, ou seja, sabíamos a distribuição, agora vamos
fazer o inverso.

Exemplo 6: Nos é dada essa função e pedido


a distribuição para esse problema. Já sabemos que esse é o problema da
moeda, mas poderíamos não fazer ideia sobre o que essa função se tratava.
Olhando para essa função podemos identificar que x pode assumir ​[0,1,2]​,
basta olhar para os “=”. Agora que sabemos disso vamos encontrar a
distribuição, ou seja, quanto ela vale em cada um desses pontos, P(X=0)=?
vamos usar a propriedade 4, P(X=0) = Fx(0) - Fx( 0− ), olhando pra função
vemos que no ponto 0 a segunda linha é a que vale e no ponto 0 tendendo
pela esquerda é a primeira linha que vale, então P(X=0) = 1/4 - 0 = 1/4.
Repetindo esse processo, P(X=1) = Fx(1) - Fx( 1− ) ⇒ ¾ - ¼ = ½, P(X=2) =
Fx(2) - Fx( 2− ) ⇒ 1 - 3/4 = ¼. Pronto! essa então é a distribuição.
*Densidade(de probabilidade) de X
É como se fosse a ​distribuição para as contínuas​. Não faz muito sentido falar
de pontos para as contínua pois elas não têm valor em pontos. Sua definição formal:

então a f(x) em qualquer intervalo deve ser maior que 0


e no intervalo de infinitos obviamente deve ser 1. A probabilidade em qualquer

intervalo é dada por


Exemplo 7: Vamos já começar com um menos trivial que eu to sem tempo.
Os exercícios mais comuns são os que ele vai te dar uma densidade com alguma
incógnita e depois perguntar quanto vale em alguns intervalos. Suponha a

densidade: , quanto vale c?


Vamos recorrer a definição
1 1
∫ c[x2 + x] dx = c · ∫ x2 + x dx = c · [(x3 /3) + (x2 /2)] de 0 a 1 = c · [1/3 + 1/2] = 5c/6 . Como
0 0

nossa densidade está definida toda entre 0 e 1 a probabilidade de X estar nesse


intervalo é 1 então 5c/6 = 1, então c = 6/5.
Exemplo 8: ​Seja X uma variável aleatória contínua com a seguinte

densidade Determine a função de


distribuição para essa variável. ​Sol: Como nas discretas vamos primeiro ver em
quais pontos ela está definida, no caso de contínuas não são pontos mas sim
intervalos. para x ≤ 0 ela vale 0 e para x ≥ 1 vale 0 também (isso porque ela está
definida entre 0 e 1). Para x entre 0 e 1 ela vale 2x. Se prestarmos atenção,
veremos que a função de distribuição determina quanto sua X vale em intervalos
que combina com a definição de como encontramos a P em contínuas, em outras

palavras, então podemos simplesmente integrar nos


intervalos onde ela é diferente de 0. Sendo assim,

tem mais exemplos no site [4].


Obs: Igual nas discretas podemos encontrar a ​densidade a partir da ​função
de distribuição e vice-versa. Da densidade para a função basta integrar, logo, da
função para a densidade basta derivar. Note que se derivar a função de distribuição
do exemplo anterior voltamos a densidade ( x2 ′ = 2x ).
*Distribuição conjunta e marginal (vetores aleatórios)
Agora teremos mais de uma variável aleatória ao mesmo tempo. Vamos
lançar uma moeda duas vezes, suponha X uma variável aleatória que marque
quantas caras saíram e Y quantas coroas. A definição de distribuição continua só
que agora vamos analisar duas variáveis ao mesmo tempo, então, X pode ser
[0,1,2] e Y pode ser [0,1,2], temos que determinar P (X = x, Y = y ) para todo x,y tal
que x+y=2(lançamos a moeda duas vezes). Temos a distribuição conjunta:

x/y y=0 y=1 y=2

x=0 P (X = 0, Y = 0) = 0 P (X = 0, Y = 1) = 0 P (X = 0, Y = 2) = 1/4 P (X = 0) =1/4

x=1 P (X = 1, Y = 0) = 0 P (X = 1, Y = 1) = 1/ P (X = 1, Y = 2) = 0 P (X = 1) =1/2

x=2 P (X = 2, Y = 0) = 1/4 P (X = 2, Y = 1) = 0 P (X = 2, Y = 2) = 0 P (X = 2) =1/4

No caso de poucos pontos, fazer a tabela ajuda bastante, no caso de muitos


pontos, é melhor achar uma fórmula para resolver o problema.
Vamos agora jogar dois dados que só tem os números 1, 2 e 3, X vai marcar
o resultado do primeiro dado e Y do segundo. Agora nosso espaço amostral tem 9
pontos e a tabela iria ficar muito grande, porém supondo lançamentos simétricos a
chance de qualquer resultado é 1/9 então a distribuição conjunta fica:
P (X = x, Y = y ) = 1/9 para todo x, y ε {1, 2, 3}
A distribuição marginal é bem simples quando se tem a conjunta,

P (X = 0) = ∑ P (X = 0, Y = y ) , é como somar as linhas na tabela acima, repita isso


y

para todo possível x. Tudo isso vale para as contínuas mas vai aparecer integrais
em intervalos e chama densidade conjunta.
*Esperança matemática

Pela definição: E [X] = ∑ xi · P (X = xi) , para variáveis discretas.


i
+∞
E [X] = ∫ x · f (x) dx , para variáveis contínuas. Dado os valores que a variável
−∞

aleatória pode assumir e sua distribuição de probabilidade, a esperança variável nos


dá um número médio que essa variável irá assumir. Por exemplo, suponha uma v.a
X que possa assumir [1,2,3] com distribuição P(X=1)=¼, P(X=2)=¼, P(X=3)=½,
aplicando a esperança:
E [X] = 1 · P (X = 1) + 2 · P (X = 2) + 3 · P (X = 3) = 1 · 1/4 + 2 · 1/4 + 3 · 1/2 = 2.25 ,
Perceba que se a probabilidade de sair 1, 2 ou 3 fosse ⅓ pra cada a E[X] daria 2,
porém como nesse caso a probabilidade de sair 3 é maior que as outras, ​esperamos
que a média se desloque para mais perto do 3, que foi o que aconteceu.
Propriedades
Independência de variáveis aleatórias
Suponha X, Y v.as definidas no mesmo espaço, X e Y vão ser independentes
se P(X=x,Y=y) = P(X=x) · P(Y=y) para todo x e y possíveis. É difícil ter que ficar
verificando um por um caso tenha muitos, por isso tem uma propriedade,

E [X · Y ] = E [X] · E [Y ] , onde E [X · Y ] = ∑ ∑ x · y · P (X = x, Y = y )
y x
Variância
Medida de dispersão que mostra o quão distante cada valor do conjunto está
da média, ou seja, quanto maior mais disperso(em relação a média).
Especificamente nas v.as, caracteriza uma variabilidade. V (X) = E [x2 ] − E [X]2 , onde

E [x2 ] = ∑ xi2 · P (X = xi) . Desvio padrão: √V


i

Propriedades
V (a · X ) = a2 · V (X)
V (X + Y ) = V (X) + V (Y ) + C ov(X, Y )
Covariância
Seja X,Y v.as: Cov(X,Y) será a medida da variabilidade conjunta, ou seja,
covariância positiva demonstra um comportamento semelhante das v.as, os
menores valores de X correspondem aos menores valores de Y, idem para os
maiores, caso Cov seja negativa o oposto acontece. Por definição:
C ov(X, Y ) = E [(X − E [X]) · (Y − E [Y ])] , se essa esperança existir,
C ov(X, Y ) = E [X · Y ] − E [X] · E [Y ] .
Obs​: Se a Cov(X,Y) = 0 , indica que as v.as são não-correlacionadas, mas
não necessariamente independentes, porém se independentes são
obrigatoriamente não-correlacionadas.
Propriedade​: A variância de de um somatório é o somatório das variâncias +
n n
2 · (Cov aos pares). V (∑ X i) = ∑ V (Xi) + 2 · ∑ C ov(Xi, X j)
i i i<j
*Modelos probabilísticos
Modelo Bernoulli(p): Utilizado para representar ​um fenômeno aleatório com
dois possíveis resultados “0” ou “1”. P (ξ = 1) = p , P (ξ = 0) = 1 − p
Ex: urna com bolas pretas e brancas, P(preta)=p.
Modelo Binomial(n,p): Utilizado quando são considerados n modelos
n
n−k
Bernoulli(p) independentes e a v.a X. X = ∑ ξ i , P (X = k ) = ( nk ) · pk · (1 − p) ,
i=1

E [X] = n · p , V (X) = n · p · q , q = 1-p


Ex: Extraímos com reposição n bolas da urna. X = número de bolas pretas.
Modelo Geométrico(p): ​Tipicamente utilizamos para modelar tempo de vida,
tempo de espera, etc. ​Seja ξ i , i=1, 2, 3… uma sequencia de v.as Bernoulli(p),
independentes. X = número de v.as Bernoulli(p) até a primeira vez em que o valor
da sequência é “1”. P (X = k ) = (1 − p)k−1 · p, k = 1, 2, 3...
Ex: Retiramos bolas da urna até aparecer a primeira preta e contamos o
número de bolas extraídas.
Modelo Poisson: ​Sejam ξ 1, ξ 2, ξ 3... Bernoullis independentes. Seja
n
X n = ∑ ξ i = numero de "1"s nas n primeiras v.as Bernoullis , tal que Xn é Binomial(n,pn)
i=1

e−λ ·λk
com pn = nλ . P (X = k ) = k! ​A probabilidade de “sucesso” em n tentativas

decresce linearmente com n. Este modelo é utilizado para estudar o número de


“sucessos” em um número muito grande de tentativas.
Referências
[1]​http://www.portalaction.com.br/probabilidades/22-variavel-aleatoria-discreta
[2]​http://www.portalaction.com.br/probabilidades/21-funcao-de-distribuicao-ac
umulada
[3]​https://pt.wikipedia.org/wiki/Distribui%C3%A7%C3%A3o_de_probabilidade
[4]​http://www.portalaction.com.br/probabilidades/23-variavel-aleatoria-continu
a

Você também pode gostar