Escolar Documentos
Profissional Documentos
Cultura Documentos
Formulário
Revisto em Setembro de 2006
1/14
Teoria da probabilidade
Propriedades acontecimentos
P (A) + P (A) = 1
complementares
P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B ) Reunião
Probabilidade P (A ∩ B )
condicional P (A B ) =
P (B )
P (A ∩ B ) = P (A B ) ⋅ P (B )
Acontecimentos P (A B ) = P (A) P (B A) = P (B )
independentes
P (A ∩ B ) = P (A B ) ⋅ P (B ) = P (A) ⋅ P (B )
Teorema de P (B Ai ) ⋅ P (Ai )
Bayes P (Ai B ) =
P (B A1 ) ⋅ P (A1 ) + " + P (B AN ) ⋅ P (AN )
Variáveis aleatórias
Distribuições de probabilidade
Distribuições função de
discretas 0 ≤ P (y ) ≤ 1
probabilidade
∑ P (y ) = 1
y
F (a ) = P (Y ≤ a ) = ∑ P (y ) função distribuição
y ≤a
Distribuições b
função densidade de
contínuas
P (a ≤ X ≤ b ) = ∫ a
f (x ) ⋅ dx
probabilidade
+∞
∫−∞
f (x ) ⋅ dx = 1
x
F (x ) = P (X ≤ x ) = ∫ −∞
f (u ) ⋅ du função distribuição
dF (x )
= f (x )
dx
+∞
μX = E (X ) = ∫ −∞
x ⋅ f (x ) ⋅ dx variáveis contínuas
2/14
Mediana ⎛1⎞
F −1 ⎜⎜ ⎟⎟ = η
⎝2⎠
+∞ 2
σX2 = Var (X ) = ∫ −∞
(x − μX ) ⋅ f (x ) ⋅ dx variáveis contínuas
Coeficiente de μ3
τ=
assimetria σ3
Coeficiente de μ4
κ= −3
kurtose σ4
Transformações W = a +b ⋅Z Transformação
lineares
E (W ) = E (a + b ⋅ Z ) = a + b ⋅ E (Z ) valor esperado
Var (W ) = Var (a + b ⋅ Z ) = b 2 ⋅Var (Z ) variância
Transformações W = φ (Z ) Transformação
não lineares
E (W ) = E [φ (Z )] ≈ φ [E (Z )] valor esperado
2
⎡dφ ⎤
Var (W ) = Var [φ (Z )] ≈ ⎢ ⎥ ⋅Var (Z ) variância
⎢⎣dZ ⎥⎦ Z =μZ
3/14
Distribuições conjuntas de probabilidade
2 distribuições P (y1, y2 ) : ∑ ∑ P (y1, y2 ) = 1 função conjunta de
discretas y1 y2 probabilidade
F (a ) = P (Y ≤ a ) = ∑ P (y ) função distribuição
y ≤a
dF (x )
= f (x )
dx
Covariância γY1 ,Y2 = ∑ ∑ (y1 − μY1 ) ⋅ (y2 − μY2 ) ⋅ P (y1, y2 ) 2 variáveis discretas
y1 y2
γX1 ,X2 = ∫∫ (x ℜ
1 − μX1 ) ⋅ (x 2 − μX2 ) ⋅ f (x 1, x 2 ) ⋅ dx 1 ⋅ dx 2 2 variáveis contínuas
γX ,Y = ∑ (y − μY ) ⋅ ∫ (x − μX ) ⋅ f (x , y ) ⋅ dx 1 variável discreta,
y
ℜ
1 variável contínua
4/14
Var (V ) = Var (a + b ⋅W + c ⋅ Z )
variância
= b 2 ⋅Var (W ) + c 2 ⋅Var (Z ) + 2 ⋅ b ⋅ c ⋅ Cov (Z ,W )
Transformações V = φ (W , Z ) Transformação
não lineares
E (V ) = E [φ (W , Z )] ≈ φ [E (W ), E (Z )] valor esperado
2 2
⎡ ∂φ ⎤ ⎡ ∂φ ⎤
Var (V ) ≈ ⎢ ⎥ ⋅ σW2 + ⎢ ⎥ ⋅ σ2 +
⎢⎣ ∂W ⎥⎦ Z =μ W
W = μ ⎢⎣ ∂Z ⎥⎦WZ ==μμW Z
Z Z
2 2 variância
⎡ ∂φ ⎤ ⎡ ∂φ ⎤
+2 ⋅ ⎢ ⎥ ⋅⎢ ⎥ ⋅ γWZ
⎣⎢ ∂W ⎦⎥ Z =μZW ⎢⎣ ∂Z ⎦⎥WZ ==μμZW
W = μ
Distribuições discretas
Distribuição função de
Binomial P (y ) = C yn ⋅ p y ⋅ q n −y
probabilidade
B(n,p)
μ =n⋅p média
σ2 = n ⋅ p ⋅ q variância
Distribuição P (y ) = C yy +r −1 ⋅ p r ⋅ q y função de
Binomial probabilidade
Negativa r ⋅q
BN(r,p) μ= média
p
r ⋅q
σ2 = variância
p2
Distribuição P (y ) = p ⋅ q y função de
Geométrica probabilidade
G(p) q
(caso particular da μ= média
distribuição Binomial p
Negativa em que r=1) q
σ2 = variância
p2
5/14
M −n
σ2 = n ⋅ p ⋅ q ⋅ variância
M −1
Distribuição de e −λ ⋅ λ y função de
Poisson P (y ) =
y! probabilidade
Poisson(λ)
μ=λ média
σ2 = λ variância
Distribuições contínuas
Distribuição ⎧
⎪1 (b − a ) a ≤ x ≤ b
Uniforme f (x ) = ⎪
⎨
função densidade de
⎪
⎪0 outros x probabilidade
U(a,b) ⎩
⎧
⎪0 x <a
⎪
⎪
⎪ função distribuição de
F (x ) = ⎪
⎨(x − a ) (b − a ) a ≤ x ≤ b
⎪
⎪ probabilidade
⎪
⎪1 x >b
⎪
⎩
μ = (a + b ) 2 média
2
(b − a )
σ2 = variância
12
Distribuição ⎧0
⎪ x <0
⎪
⎪
Exponencial f (x ) = ⎪ função densidade de
⎨ 1 − βx
Negativa ⎪
⎪ ⋅e outros x probabilidade
EN(β) ⎪
⎪
⎩ β
⎪⎧⎪0 x <0
F (x ) = ⎪⎨ x
função distribuição de
⎪⎪1 − e − β outros x probabilidade
⎪⎩
μ=β média
σ2 = β 2 variância
Distribuição 1
1 ⎛ x −μ ⎞⎟2
− ⎜⎜ ⎟ função densidade de
2 ⎝ σ ⎠⎟
Normal f (x ) = e
2πσ 2 probabilidade
N(μ,σ2)
f (x ) não é integrável analiticamente função distribuição de
probabilidade
μ=μ média
σ2 = σ2 Variância
6/14
Distribuição X −μ
Normal Z = sendo X uma variável N(μ,σ2) definição
σ
Padronizada
2
N(0,1) 1 −
z
função densidade de
f (z ) = ⋅e 2
2⋅π probabilidade
Distribuição
Lognormal V = ln X sendo V uma variável N(μV,σV2) definição
LN(μV,σV2)
1 2
1 −
2⋅σV2
⋅(ln x −μV )
função densidade de
f (x ) = ⋅e
x ⋅ 2⋅π⋅σ 2
V
probabilidade
Distribuição do GL
Distribuição t de Z 2
X= sendo Z e V variáveis N(0,1)e χGL definição
Student V GL
tGL
f (x ) =
(
Γ (GL + 1) 2
⎛
⋅ ⎜⎜1 +
x 2 ⎞⎟
⎟
) −(GL +1) 2
função densidade de
GL ⋅ π ⋅ Γ GL 2 ⎜⎝ GL ⎠⎟ ( ) probabilidade
7/14
σ 2 = GL (GL − 2) variância
Distribuição F 2
χGL GL1
FGL1,GL2 X= 2
1
definição
χGL2
GL2
(GL1 2)−1
( ) ⋅ (GL )
GL1 2
Γ (GL1 + GL2 ) 2 1 GL2 ⋅x função densidade de
f (x ) =
( ) (
Γ GL1 2 ⋅ Γ GL2 2) (GL2 + GL1 ⋅ x )
(GL1 +GL2 ) 2 probabilidade
Estatística descritiva
Média 1 N
x = ⋅ ∑ xi dados não agrupados
N i =1
K
x = ∑ fk ⋅ x k dados discretos
k =1 agrupados
K
x = ∑ fk ⋅ M k dados contínuos
k =1 agrupados
(
Med = x N 2 + x N 2+1 2 ) n.º par de valores
0.5 − fa − 0.5 − fa −
Med = LI + ⋅ Δ = LI + ⋅Δ dados agrupados
fa + − fa − f
Moda d1
Mod = LI + ⋅Δ dados agrupados
d1 + d2
Erro absoluto 1 N
médio EAM = ⋅ ∑ xi − x dados não agrupados
N i =1
K
EAM = ∑ fk ⋅ x k − x dados discretos
k =1 agrupados
K
EAM = ∑ fk ⋅ M k − x dados contínuos
k =1 agrupados
8/14
Erro quadrático 1 N 1 N
⋅ ∑ (x i − x ) = ⋅ ∑ x i2 − x 2
2
médio EQM = dados não agrupados
N i =1 N i =1
K K
EQM = ∑ fk ⋅ (x k − x ) = ∑ fk ⋅x k2 − x 2
2 dados discretos
k =1 k =1 agrupados
K K
EQM ≈ ∑ fk ⋅ (M k − x ) = ∑ fk ⋅ M k2 − x 2
2 dados contínuos
k =1 k =1 agrupados
K
Δ2 correcção de
EQM ≈ ∑ fk ⋅ (M k − x ) −
2
k =1 12 Sheppard
Momentos na 1 N
origem de ordem m ′=
i
N
∑x
n =1
i
n dados não agrupados
1, 2, ...
K
mi′ = ∑ fk x ki dados discretos
i =1 agrupados
K
mi′ ≈ ∑ fk M ki dados contínuos
i =1 agrupados
m1′ = x notas
Momentos 1 N
∑ (x
i
centrados de mi = n −x) dados não agrupados
N n =1
ordem 1, 2, ...
K
mi = ∑ fk (x k − x )
i dados discretos
k =1 agrupados
K
mi = ∑ fk (M k − x )
i dados contínuos
k =1 agrupados
m1 = 0 m2 = EQM
Para o cálculo de momentos centrados a partir de momentos na Notas
origem, podem utilizar-se as expressões apresentadas para os
momentos populacionais
Estimadores N
k = s2 = ⋅ EQM 2.ª ordem
não enviesados 2 N −1
dos momentos
centrados N2
k3 = m3 3.ª ordem
(N − 1)(N − 2)
N (N 2 − 2N + 3) 3N (2N − 3)
k4 = m4 − m22 4.ª ordem
(N − 1)(N − 2)(N − 3) (N − 1)(N − 2)(N − 3)
Coeficiente de m3
CA = 32 enviesado
assimetria m2
9/14
k3 enviesado (menos
CA′ = 32
k2 que o anterior)
Coeficiente de m4
CK = −3 Enviesado
kurtose m22
(achatamento)
k4 enviesado (menos
CK ′ = −3
k22 que o anterior)
N −1 não enviesado para
CK ′′ = ((N + 1)CK + 6)
(N − 2)(N − 3) populações normais
Recta de y = a′ + b ⋅ x
regressão N
∑ (x i − x ) ⋅ (yi − y )
b= i =1
N Declive
∑ (x
2
i − x)
i =1
a′ = y −b ⋅ x ordenada na origem
Covariância 1 N
Coeficiente de cXY
correlação rXY =
sX ⋅ sY
amostral
Distribuições amostrais
Média amostral 1 N
X= ⋅ ∑ Xi
N i =1
μX = μX Média
σX2 variância (amostras
σX2 =
N aleatórias simples)
σ2 M − N variância (populações
2
σ = X ⋅
X finitas, amostragem
N M −1 sem reposição)
Média amostral
de uma X → N (μX , σX2 ) distribuição de X
distribuição
Normal ⎛ σ2 ⎞
X → N ⎜⎜μX , X ⎟⎟⎟ Distribuição de X
⎜⎝ N⎠
10/14
Estimação pontual
Propriedades
dos estimadores EnviesamentoΘˆ = E (Θ
ˆ ) − θ = μˆ − θ
Θ não-enviesamento
EficiênciaΘˆ = E (Θ ( )
ˆ − θ ) = σ 2ˆ + (Enviesamento ˆ )2
2
Θ Θ eficiência
EficiênciaΘˆ
Eficiência relativaΘˆ ˆ
Θ
= 1
eficiência relativa
1 2
EficiênciaΘˆ
2
lim Θ
N →∞
(
ˆ −θ < δ =1 ) ∀δ > 0 consistência
Estimação pela
máxima Max : L (θ1, θ2 , " θR ) maximizar L
verosimilhança
N
L = ∏ P (Yi = yi θ1, θ2 , " θR ) distribuições
i =1 discretas
N
L = ∏ f (x i θ1, θ2 , " θR ) distribuições
i =1 contínuas
11/14
Valido sob as condições da aproximação da distribuição binomial
à distribuição normal: n ≥ 20 e n ⋅ p ≥ 7 . Fora destas
condições deve recorrer-se ao cálculo exacto através da
distribuição binomial.
Na amostragem sem reposição, se a dimensão da população, N, Notas
não for muito maior do que a dimensão da amostra, n, deve-se
ter em consideração o factor (N − n ) (N − 1) no cálculo do
erro padrão
Diferença entre Amostras independentes de populações Normais com variâncias conhecidas e diferentes
valores ou amostras independentes de grande dimensão com variâncias diferentes
esperados
(x A − x B ) − (μA − μB )
μA−μB → N (0,1)
σA2 σ2 distribuição
+ B
nA nB
σA2 σB2
( )
(x A − x B ) ± z α 2 ⋅ +
nA nB
intervalo de confiança
1 1
( )
(x A − x B ) ± z α 2 ⋅ σ ⋅ +
nA nB
intervalo de confiança
12/14
sA2 s2
(x A − x B ) ± tGL α 2 ⋅ ( ) + B
nA nB
intervalo de confiança
(s )
2
2
A nA + sB2 nB
GL =
(s ) + (s )
2 2
2
nA 2
nB notas
A B
nA − 1 nB − 1
Amostras independentes de populações Normais com variâncias desconhecidas e iguais
(x A − x B ) − (μA − μB )
→ tGL
1 1 distribuição
s⋅ +
nA nB
1 1
(x A − x B ) ± tGL α 2 ⋅ s ⋅( ) +
nA nB
intervalo de confiança
⎡ 2 2 ⎤
⎢ s A sB sA2 sB2 ⎥
⎢ , ⎥ intervalo de confiança
⎣⎢ 1 2
( )
⎢ FGL ,GL α 2 FGL ,GL 1 − α 2 ⎥
1 2 ⎥⎦ ( )
GL1 = nA − 1 GL2 = nB − 1 Notas
Proporção A utilizar no cálculo de intervalos de confiança quando não for possível ou desejável a
binomial aproximação à distribuição Normal
p α n
α
pi : P (Y ≥ Yˆ) = ⇔ ∑C
n −y
n
y ⋅ pi y ⋅ (1 − pi ) = limite inferior
2 y =Yˆ 2
Yˆ
α α
ps : P (Y ≤ Yˆ) = ⇔ ∑C
n −y
n
y ⋅ ps y ⋅ (1 − ps ) = limite superior
2 y =0 2
13/14
As soluções destas equações encontram-se tabeladas para
Notas
valores de n até 29
Outras expressões
Cálculo Pn = n ! Permutações
combinatório
n!
Akn = Arranjos
(n − k ) !
C kn = ( ) = (n −nk!)!⋅ k !
n
k
Combinações
Média MG = N x 1 ⋅ x 2 ⋅ " ⋅ x N
geométrica
Média harmónica N
MH = N
1
∑x
i =1 i
Notas
♦ Durante o cálculo deve, sempre que possível, trabalhar as expressões analiticamente e
efectuar os cálculos todos no final.
♦ Sempre que possível, deve trabalhar com 5 algarismos significativos e nunca com menos de
3 algarismos significativos, de modo a não introduzir desvios significativos nos resultados. O
ideal é guardar resultados intermédios na memória da máquina de calcular e trabalhar com a
precisão que aquela permitir.
14/14