Escolar Documentos
Profissional Documentos
Cultura Documentos
*Densidade(de probabilidade) de X
*Esperança matemática
Variância
Covariância
*Modelos probabilísticos
para todo (Todas as probabilidades individuais devem ser maior ou igual que
0)
constante, muda o intervalo do somatório já que é equivalente, e daí vira uma série
a1−(a/b)n
convergente que tem formula pra resolver, a1−(a/b) , a1 é o primeiro termo, a/b é a
variável aleatória ser menor que isso é 100%, o contrário vale também,
lim F x(x) = 0 .
x→−∞
4) P (X = xi) = F x(xi) − lim F x(y) , você não vai precisar calcular esses limites,
y→xi−
se você olhar no gráfico abaixo você vai ver que isso está dizendo por
exemplo xi = 1, P(X=1) = Fx(1) - Fx( 1− ) isso é 3/4 - 1/4 = 1/2 . Isso está
dizendo, pegue o valor no ponto e subtraia do ponto de baixo, é um jeito de
calcular a probabilidade a partir da função de distribuição, fica mais fácil
tendo o gráfico também.
5) P (a < X ≤ b) = F x(b) − F x(a)
P (a ≤ X < b) = F x(b− ) − F x(a− )
P (a < X < b) = F x(b− ) − F x(a)
P (a ≤ X ≤ b) = F x(b) − F x(a− )
Use as imagens acima para entender como funciona, suponha a = 1 e b = 2.
( b− e a− são os limite tendendo pela esquerda, estou com preguiça de ficar
fazendo todos os limites) (parece complicado mas não é, não precisa decorar
nada, usa o exemplo e imagens anteriores para ver quais valores tem que
pegar, tem que prestar atenção nas fronteiras, quando é < e quando é ≤ ).
*Relação entre a distribuição de probabilidade e a função de
distribuição
Elas estão relacionadas e a partir de uma você pode encontrar a outra. No
exemplo 3 montamos a função de distribuição sabendo quanto valia a
probabilidade em cada ponto, ou seja, sabíamos a distribuição, agora vamos
fazer o inverso.
x=1 P (X = 1, Y = 0) = 0 P (X = 1, Y = 1) = 1/ P (X = 1, Y = 2) = 0 P (X = 1) =1/2
para todo possível x. Tudo isso vale para as contínuas mas vai aparecer integrais
em intervalos e chama densidade conjunta.
*Esperança matemática
E [X · Y ] = E [X] · E [Y ] , onde E [X · Y ] = ∑ ∑ x · y · P (X = x, Y = y )
y x
Variância
Medida de dispersão que mostra o quão distante cada valor do conjunto está
da média, ou seja, quanto maior mais disperso(em relação a média).
Especificamente nas v.as, caracteriza uma variabilidade. V (X) = E [x2 ] − E [X]2 , onde
Propriedades
V (a · X ) = a2 · V (X)
V (X + Y ) = V (X) + V (Y ) + C ov(X, Y )
Covariância
Seja X,Y v.as: Cov(X,Y) será a medida da variabilidade conjunta, ou seja,
covariância positiva demonstra um comportamento semelhante das v.as, os
menores valores de X correspondem aos menores valores de Y, idem para os
maiores, caso Cov seja negativa o oposto acontece. Por definição:
C ov(X, Y ) = E [(X − E [X]) · (Y − E [Y ])] , se essa esperança existir,
C ov(X, Y ) = E [X · Y ] − E [X] · E [Y ] .
Obs: Se a Cov(X,Y) = 0 , indica que as v.as são não-correlacionadas, mas
não necessariamente independentes, porém se independentes são
obrigatoriamente não-correlacionadas.
Propriedade: A variância de de um somatório é o somatório das variâncias +
n n
2 · (Cov aos pares). V (∑ X i) = ∑ V (Xi) + 2 · ∑ C ov(Xi, X j)
i i i<j
*Modelos probabilísticos
Modelo Bernoulli(p): Utilizado para representar um fenômeno aleatório com
dois possíveis resultados “0” ou “1”. P (ξ = 1) = p , P (ξ = 0) = 1 − p
Ex: urna com bolas pretas e brancas, P(preta)=p.
Modelo Binomial(n,p): Utilizado quando são considerados n modelos
n
n−k
Bernoulli(p) independentes e a v.a X. X = ∑ ξ i , P (X = k ) = ( nk ) · pk · (1 − p) ,
i=1
e−λ ·λk
com pn = nλ . P (X = k ) = k! A probabilidade de “sucesso” em n tentativas