Você está na página 1de 20

Formulas de estatística

Probabilidade condicional
A probabilidade da intersecção possui um valor mínimo e um valor máximo

Os eventos A e B são tais que P(A) = 0,4 e P(B) = 0,9

A probabilidade máxima da intersecção é obtida quando o evento A estiver contido no evento


B. Nesse caso, a intersecção é o evento A. Portanto, P(𝐴 ∩ 𝐵)MÁXIMA = 0,4 = 40%

A probabilidade mínima é obtida pela relação P(A U B) = P(A) + P(B) - P(𝐴 ∩ 𝐵) Quando a
intersecção é mínima, a união é máxima. A união máxima é 100%. Assim,

100% = 40% + 90% - P(𝐴 ∩ 𝐵)MINIMA

P(𝐴 ∩ 𝐵)MINIMA = 130% - 100% P(𝐴 ∩ 𝐵)MINIMA = 30%

Assim 30% ≤ P(𝐴 ∩ 𝐵) ≤ 40%

Prob condicional
A e B. Se A e B são independentes, então a ocorrência de A não altera a probabilidade de B, ou
seja: P(B|A) = P(B)

F ( x )= p ( X=x i ) função probabilidade


m
E ( X )=μ ( x ) =∑ x i pi Esperança ou Valor Esperado
i=1

para dados agrupados, substituímos xi pelo ponto médio

σ 2=E ( x 2 )−E ( x ) variância


2

distribuição uniforme discreta = p ( X =xi ) = p ( xi )=1/n


n
1
E ( x )= × ∑ x ⅈ a Esperança de uma variável aleatória discreta uniforme
n i=1

Bernoulli
Esperança de uma Distribuição de Bernoulli= E ( x )= p = E ( x )=0∗q+ 1∗p

P[X = 0, Y = 0] = equivale à interseção: P[X = 0 ∩ Y = 0]. Sendo as variáveis independentes

= P[X = 0] x[ Y = 0]  se multiplica a probe de cada um

Variância de uma Distribuição de Bernoulli = v ( x )= p x q

Para saber se uma distribuição segue uma

binomial
n
( k)
k n −k
fórmula da probabilidade binomial = p ( x=k ) = ∗p q

n é a quantidade de experimentos

p é a probabilidade de sucesso em cada experimento

q e a probabilidade de fracasso em cada experimento

k representa a quantidade de sucessos para a qual estamos querendo calcular a probabilidade

( nk): é o coeficiente binomial de n sobre k, calculado da seguinte forma= k ! ( n−k


n!
)!

média (Esperança) de uma variável aleatória binomial = E ( x )=n∗p

variância de uma variável aleatória binomial = E ( x )=n∗p∗q

Para saber se uma distribuição segue uma distribuição qualquer é só aplicar as propriedades,
da soma, subtração, multiplição entre elas ou de uma constante

Distribuição de Poisson
ⅇ−np ( np )k
P ( x=k ) =
k!
E ( x )=Var ( x )=np=λ

λ = é o parâmetro da distribuição de Poisson, porque a distribuição depende apenas desse


valor para estar completamente definida

O coeficiente de variação é a razão entre o desvio padrão e a média

Distribuição Geométrica
k−1
p ( x=k ) =q p

q
E ( x )=
p
q
V ( x )= 2
p
VARIÁVEIS ALEATÓRIAS CONTÍNUAS

Para calcular a probabilidade de um intervalo, precisaremos da integral definida nesse


intervalo

Para variáveis contínuas, não importa se definimos um intervalo com sinal de < ou de ≤. Como
a probabilidade de ser igual a um valor específico é zero, ou seja, P(X = a) = 0 e P(X = b) = 0,
então: P(a < X < b) = P(a ≤ X ≤ b) = P(a ≤ X < b) = P(a < X ≤ b)

Se x é uma variável aleatória contínua, então fx(x) pode ser da forma = qualquer função

Para sabermos se tá certo essa afirmação para as funções que a questão der, basta aplicar
duas condições, se uma delas der errado, essa função não é valida s condições (i) f(x) ≥ 0, no
intervalo em questão que a questão der e (ii) integral definida da função tem que ser igual a 1

Função de Distribuição Acumulada

k
F ( k )= p ( x ≤ k ) =∫ F ( x ) ⅆx
x1

Mediana
Moda

A moda corresponde ao valor de x para o qual essa derivada seja nula

todas as propriedades de esperança valem para variáveis contínuas

]
Coeficiente de variação = desvio padrão( raiz da variância )/ média ou valor esperado

. MOMENTOS DE UMA VARIÁVEL ALEATÓRIA


Para k = 2 (segundo momento central), temos: a formula acima ao quadrado
Distribuição Normal

As distribuições normais são simétricas

P(X > mi(média )) = P(X < mi(média )) = 50%

P(X > mi(média )+k) = P(X < mi(média )-k)

P(|Z| < z) = P(−z < Z < z) = P(−z < Z < 0) + P(0 < Z < z)

P(|Z| > z) = P(Z < −z ∪ Z > z) = P(Z < −z) + P(Z > z)

P(0 < Z < z) = 0,5 − P(Z > z)

P(0 < Z < z) = -0,5 + P(Z < z)

P(−z < Z < 0) = P(0 < Z < z)

P(Z < −z) = P(Z > z)

EX. P(Y^2 < 4) = P(|Y| < 2) = 0,4

P(|Y| > 2) = 1 - P(|Y| < 2) = 1- 04 = 0,6

P(|Y| > 2) = P(Y < −2 ∪ Y > 2) = P(Y < −2) + P(Y > 2) = 0.6

P(Y < −2) = P(Y > 2) = 2* P(Y > 2)= 0,6 = 0.3

Transformação entre Distribuições Normais


para uma distribuição normal padrão, temos E(z) = 0

para uma distribuição normal padrão, temos V(z) = 1

em comparação com a normal, a curva t-Student é mais baixa na região central e mais larga
nos extremos. Ou seja, a distribuição t-Student apresenta maior variabilidade.
a distribuição t-Student se aproxima da curva normal à medida que o grau de liberdade cresce
(outra consequência do Teorema Central do Limite).

LEI DOS GRANDES NÚMEROS

A média aritmética dos valores observados tende à esperança da variável aleatória, com o
aumento do número de observações.

As Leis dos Grandes Números não tratam da distribuição da média amostral, mas sim da sua
convergência à média populacional.

conforme o tamanho da amostra n aumenta, a média amostral X se aproxima da esperança


populacional E(x).

Lei Fraca enuncia uma convergência em probabilidade e a Lei Forte enuncia uma convergência
quase certa, se houver convergência quase certa, haverá a convergência em probabilidade,
mas o contrário não é verdadeiro.

Você também pode gostar