Você está na página 1de 4

ESTATÍSTICA DESCRITIVA

Número de classes Número de grupos no qual será divida a amostra

Tamanho da amostra Número total de entradas

Entrada mínima Dado mínimo da amostra

Entrada máxima Dado máximo da amostra

Amplitude Diferença entre a entrada máxima e a entrada mínima

Largura da classe Razão entre a amplitude e o número de classes

Limites inferiores Menor número que aparece em cada classe

Limites superiores Maior número que aparece em cada classe

Frequência Número de entrada de dados em uma classe

Ponto médio Média entre os limites superior e inferior de cada classe


Razão entre a frequência de determinada classe e o total de
Frequência relativa
frequência (fração, decimal, porcentagem)
Frequência acumulada Soma da frequência para aquela classe e todas as anteriores

𝑥 𝑥 (𝑥. 𝑤) (𝑥. 𝑓)
𝜇= 𝑥= 𝑥= 𝑥=
𝑁 𝑛 𝑤 𝑛

Médias: populacional amostral ponderada (pesos) distribuição de frequência

Mediana Valor que está no meio dos dados

Moda Entrada que aparece com mais frequência

Valor discrepante Entrada que está muito afastada das outras entradas

Desvio Diferença entre a entrada e a média (x - μ) ou (x - x ̅)

(𝒙 − 𝝁)² (𝒙 − 𝑥 )² (𝒙 − 𝑥 )² 𝒇
𝜗² = 𝑆² = 𝑆² =
𝑵 𝒏−𝟏 𝒏−𝟏

Variâncias: populacional amostral distribuição de frequência

Desvio padrão É a raiz quadrada da variância

Fractis Números que dividem um conjunto ordenado em partes iguais

Os três quartis dividem um conjunto em 4 partes iguais (Q1 = 1/4; Q2 = 1/2 (mediana); Q3 = 3/4)

Amplitude interquartil (AIQ) Diferença entre o terceiro e o primeiro quartil

Percentis Dividem o conjunto em 100 partes

Para encontrar o percentil, ordene os dados e calcule o índice i = (P/100) x n. Se i não for inteiro,
arredondamos para o maior inteiro. Se i inteiro, fazemos a média dos valores nas posições i e i +1.
PROBABILIDADE
Espaço amostral S Conjunto de todos os resultados possíveis de um experimento

Complemento A' Subconjunto de todos os elementos de S que não estão em A

Interseção (A ꓵ B) Evento que contém todos os resultados comuns a A E B

Mutualmente exclusivos Ou disjuntos se A ꓵ B = Ø (vazio)

União (A ꓴ B) Evento que contém todos os resultados de A OU B

Princípio da contagem Número de maneiras que dois ou mais eventos podem ocorrer é m.n

Permutação Organização ordenada de objetos ( n! - fatorial)

Número de permutações de n objetos retirados r por vez é: 𝑛𝑃𝑟 = 𝑛! 𝑛 − 𝑟 !

Permutações distinguíveis de n objetos onde nk é do tipo K é: 𝑛!


𝑛1 ! 𝑛2 ! … 𝑛𝑘 !
Combinação de n objetos retirados r por vez é: 𝑛𝐶𝑟 = 𝑛! 𝑟! 𝑛 − 𝑟 !

Probabilidade clássica 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑛𝑜 𝑒𝑣𝑒𝑛𝑡𝑜 𝐸


𝑃 𝐸 = 𝑛ú𝑚𝑒𝑟𝑜 𝑡𝑜𝑎𝑙 𝑑𝑒 𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜𝑠 𝑛𝑜 𝑒𝑠𝑝𝑎ç𝑜 𝑎𝑚𝑜𝑠𝑡𝑟𝑎𝑙 𝑆
(teórica)
𝑓𝑟𝑒𝑞𝑢ê𝑛𝑐𝑖𝑎 𝑑𝑜 𝑒𝑣𝑒𝑛𝑡𝑜
Probabilidade empírica 𝑃 𝐸 = 𝑓𝑟𝑒𝑞𝑢ê𝑛𝑐𝑖𝑎 𝑡𝑜𝑡𝑎𝑙

Se A' é o complemento do
P(A') = 1-P(A) ou P(A) + P(A') = 1
evento A, então

Regras aditivas (2 eventos) P(AꓴB) = P(A) + P(B) - P(AꓵB)

Se AꓵB = Ø, então P(AꓵB) = P(A) + P(B

Regras aditivas (3 eventos) P(AꓵBꓵC)=P(A)+P(B)+P(C)-P(AꓵB)-P(AꓵC)- P(BꓵC)+P(AꓵBꓵC)

Probabilidade condicional Probabilidade de B ocorrer dado que A já tenha ocorrido P (B|A)

Eventos independentes P (B|A) = P (B) e P (A|B) = P (A)

𝑃 (𝐵𝑟 ∩ 𝐴) 𝑃 𝐵𝑟 × 𝑃 (𝐴 |𝐵𝑟 )
Regra de Bayes 𝑃 𝐵𝑟 𝐴 = 𝑘 = 𝑘
𝑖=1 𝑃 (𝐵𝑖 ∩ 𝐴) 𝑖=1 𝑃 𝐵𝑖 × 𝑃 (𝐴|𝐵𝑖 )

Regra da multiplicação P (AꓵB) = P (A) P (B|A)

Regra da multiplicação 𝑃 𝐴1 ∩ 𝐴2 ∩ ⋯ ∩ 𝐴𝑘 = 𝑃 𝐴1 𝑃 𝐴2 𝐴1 … 𝑃(𝐴𝑘 |𝐴1 ∩ 𝐴2 ∩ ⋯ ∩ 𝐴𝑘−1 )


𝑘 𝑘
Teorema da probabilidade total 𝑃 𝐴 = 𝑃 𝐵𝑖 ∩ 𝐴 = 𝑃 𝐵𝑖 𝑃 𝐴 𝐵𝑖 )
𝑖=1 𝑖=1

Variáveis aleatórias Valor numérico associado a cada resultado de um experimento

Variável aleatória discreta Número finito ou enumerável de possíveis resultados a serem listados

Variável aleatória contínua Número não enumerável representados por um intervalo na reta
DISTRIBUIÇÃO DE PROBABILIDADE DISCRETA
Distribuição de probabilidade (x, f (x)) onde f (x) = P (X = x) e f (x) ≥ 0 e ∑ f (x) = 1

Distribuição acumulada (cdf) f (x) = P (X ≤ x) = ∑ f (t)

Dist de probabilidade conjunta f (x,y) = P (X = x, Y = y) e f (x,y) ≥ 0 e ∑∑ f (x,y) = 1

Distribuições marginais g (x) = fx (x,y) = ∑ f (x,y) e h (y) = fy (x,y) = ∑ f (x,y)


𝑓 (𝑥, 𝑦)
Distruibuição condicional 𝑓 𝑦𝑥 = 𝑓𝑥 (𝑥, 𝑦) , fx (x,y) > 0

Estatisticamente independente f (x,y) = g (x) x h (y)

Média ou valor esperado de X μx = E [X] = ∑ x f(x)

Valor esperado de g (x) μg (x) = E [g(x)]  = ∑ g(x) f (x)

Valor esperado de g (x,y) μg (x,y) = E [g(x,y)]  = ∑ ∑ g(x,y) f (x,y)

Variância de X 𝜗²𝑥 = 𝐸 𝑋 2 − (𝐸 𝑋 )²

Variância de g (x) 𝜗²𝑔(𝑥) = 𝐸 (𝑔 𝑥 − 𝜇𝑔 𝑥 )2 = ( 𝑔 𝑥 − 𝜇𝑔(𝑥) )² 𝑓(𝑥)


𝑥

Coeficiente de correlação 𝜌𝑋𝑌= 𝜗𝑥𝑦 𝜗𝑥 𝜗𝑦

𝜗𝑋𝑌 = 𝐸 𝑋𝑌 − 𝜇𝑥 𝜇𝑦
Covariância de X e Y g (x,y) = XY
E [XY] = E [g(x,y)]
Representa o número de resultados que ocorrem em um certo intervalo de tempo ou
Poisson região específica denotado por t
X ~ Poisson (λt) 𝑝 𝑥; 𝜆𝑡 = 𝑒 −𝜆𝑡 (𝜆𝑡)𝑥 𝑥! , 𝑥 = 0,1,2, …

Média e Variância de Poisson 𝜇 = 𝜗² = 𝜆𝑡


Exemplo: durante um experimento de laboratório, o número médio de partículas que passam por um
contador em um milésimo de segundo é 4. Qual é a probabilidade de que 6 partículas passem pelo
contador em um dado milésimo de segundo.
Seja X uma v.a binomial com distribuição de probabilidade b (x; n,p).
Binomial e Poisson
Quando n é muito grande, p é muito pequeno e np -> λt permanece
b(x;n,p) -> p(x;λt) constante
Exemplo: sabe-se que a probabilidade de um acidente ocorrer em uma certa instalação industrial em um
certo dia é 0,005. Qual é a probabilidade de que em um período de 400 dias, haja um acidente?
Probabilidade de que qualquer variável aleatória X assuma um valor a K desvios padrão
Teorema de Chebyshev da média
𝑃 𝜇 − 𝐾𝜗 < 𝑋 < 𝜇 + 𝐾𝜗 ≥ 1 − 1 𝐾²
DISTRIBUIÇÃO DE PROBABILIDADE DISCRETA
Uniforme V.A assume os valores X1, ..., XK com igual probabilidade

X ~ uniforme (K) f (x; K) = 1/K , x = X1, ..., XK


𝑘 𝑘
Média uniforme
𝜇= 1 𝐾 𝑥𝑖 𝜗² = 1 𝐾 (𝑥𝑖 − 𝜇)²
Variância uniforme 𝑖=1 𝑖=1

Exemplo: Quando lançamos um dado, cada elementos do espaço amostral é S = {1, 2, 3, 4, 5, 6} e ocorre
com probabilidade 1/6

Experimentos aleatórios cuja V.A assume o valor 1 com probabilidadde


Bernoulli
de sucesso p e 0 com probabilidade de fracasso 1-p.

X ~ Bernoulli (p) 𝑓 𝑥, 𝑝 = 𝑝 𝑥 (1 − 𝑝)1−𝑥 , 𝑥 = 0 𝑒 1

Média e Variância de Bernoulli                            μ = p 𝜗² = 1 − 𝑝 × 𝑝


Exemplo: suponha que o risco de morte em uma cirurgia seja 25%. Se X é uma v.a indicadora de óbito,
obtenha a distribuição...
Binomial Probabilidade de sucesso p em n testes

𝑛 𝑥
X ~ Binomial (p, n) 𝑏 𝑥; 𝑝, 𝑛 = 𝑝 (1 − 𝑝)𝑛−𝑥 , 𝑥 = 0, … , 𝑛
𝑥

Média e Variância Binomial                         μ = np 𝜗² = 1 − 𝑝 × 𝑛𝑝

Exemplo: A probabilidade de que certo tipo de componente sobreviva a um teste de impacto é 3/4.
Encontre a probabilidade de que 2 dos próximos 4 componentes testados resistam ao impacto.
Número de sucessos em uma amostra de tamanho n é selecionada de N itens do quais K
Hipergeométrica são chamados sucessos e N-K de falhas
𝐾 𝑁−𝐾 𝑁
X ~ hipergeométrica (N, n, K) ℎ 𝑥; 𝑁, 𝑛, 𝐾 =
𝑥 𝑛−𝑥
÷
𝑛

Média e Variância 𝑛𝐾 𝑁−𝑛 𝐾 𝐾


𝜇= 𝜗² = ×𝑛 × × 1−
Hipergeométrica 𝑁 𝑁−1 𝑁 𝑁

Exemplo: Lotes de 40 comp cada são chamados inaceitáveis se contiverem 3 ou mais itens defeituosos. O
procedimento é selecionar 5 comp e rejeitar o lote se 1 item defeituoso for encontrado. Qual a
probabilidade de rejeitar o lote se há 3 defeituosos no lote?
Tentativas independentes repetidas podem resultar em um sucesso com probabilidade p
Geométrica e falha 1-p. (número de tentativas até o primeiro sucesso ocorrer
X ~ Geométrica (p) 𝑔 𝑥; 𝑝 = 𝑝 × (1 − 𝑝)𝑥−1 , 𝑥 = 1,2 …

Média e Variância Geométrica 𝜇= 1 𝑝 𝜗² = 1 − 𝑝 𝑝²

Exemplo: numa central telefônica, a probabilidade de conseguir uma conexão em horário de pico é
p=0,05. Qual é a probabilidadde de que sejam necessárias 5 tentaivas para se conseguir completar uma
chamada em horário de pico?

Você também pode gostar