Você está na página 1de 14

Estatística

Formulário
Revisto em Setembro de 2006

1/14
Teoria da probabilidade
Propriedades acontecimentos
P (A) + P (A) = 1
complementares

P (φ) = 0 conjunto vazio

P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B ) Reunião

Probabilidade P (A ∩ B )
condicional P (A B ) =
P (B )

P (A ∩ B ) = P (A B ) ⋅ P (B )

Acontecimentos P (A B ) = P (A) P (B A) = P (B )
independentes
P (A ∩ B ) = P (A B ) ⋅ P (B ) = P (A) ⋅ P (B )

Teorema de P (B Ai ) ⋅ P (Ai )
Bayes P (Ai B ) =
P (B A1 ) ⋅ P (A1 ) + " + P (B AN ) ⋅ P (AN )

Variáveis aleatórias
Distribuições de probabilidade
Distribuições função de
discretas 0 ≤ P (y ) ≤ 1
probabilidade

∑ P (y ) = 1
y

F (a ) = P (Y ≤ a ) = ∑ P (y ) função distribuição
y ≤a

Distribuições b
função densidade de
contínuas
P (a ≤ X ≤ b ) = ∫ a
f (x ) ⋅ dx
probabilidade
+∞

∫−∞
f (x ) ⋅ dx = 1
x
F (x ) = P (X ≤ x ) = ∫ −∞
f (u ) ⋅ du função distribuição

dF (x )
= f (x )
dx

Média μY = E (Y ) = ∑ y ⋅ P (y ) variáveis discretas


populacional y

+∞
μX = E (X ) = ∫ −∞
x ⋅ f (x ) ⋅ dx variáveis contínuas

2/14
Mediana ⎛1⎞
F −1 ⎜⎜ ⎟⎟ = η
⎝2⎠

Variância σY2 = Var (Y ) = ∑ (y − μY ) ⋅ P (y )


2
variáveis discretas
populacional y

+∞ 2
σX2 = Var (X ) = ∫ −∞
(x − μX ) ⋅ f (x ) ⋅ dx variáveis contínuas

Outros μi′ = ∑ y i ⋅ P (Y ) momentos na origem


parâmetros y (variáveis discretas)
+∞
momentos na origem
μi′ = ∫−∞
x i ⋅ f (x ) ⋅ dx
(variáveis contínuas)
μi = ∑ (y − μY ) ⋅ P (y )
i
momentos centrados
y (variáveis discretas)
+∞ i momentos centrados
μi = ∫−∞
(x − μX ) ⋅ f (x ) ⋅ dx
(variáveis contínuas)
2
μ2 = μ2′ − (μ1′)
3
momentos centrados
μ3 = μ3′ − 3 ⋅ μ2′ ⋅ μ1′ + 2 ⋅ (μ1′) a partir de momentos
2 4
na origem
μ4 = μ4′ − 4 ⋅ μ3′ ⋅ μ1′ + 6 ⋅ μ2′ ⋅ (μ1′ ) − 3 ⋅ (μ1′ )

Coeficiente de μ3
τ=
assimetria σ3

Coeficiente de μ4
κ= −3
kurtose σ4

Transformações W = a +b ⋅Z Transformação
lineares
E (W ) = E (a + b ⋅ Z ) = a + b ⋅ E (Z ) valor esperado
Var (W ) = Var (a + b ⋅ Z ) = b 2 ⋅Var (Z ) variância

Transformações W = φ (Z ) Transformação
não lineares
E (W ) = E [φ (Z )] ≈ φ [E (Z )] valor esperado
2
⎡dφ ⎤
Var (W ) = Var [φ (Z )] ≈ ⎢ ⎥ ⋅Var (Z ) variância
⎢⎣dZ ⎥⎦ Z =μZ

3/14
Distribuições conjuntas de probabilidade
2 distribuições P (y1, y2 ) : ∑ ∑ P (y1, y2 ) = 1 função conjunta de
discretas y1 y2 probabilidade

PY1 (y1 ) = ∑ P (y1, y2 )


y2 funções de
probabilidade
PY2 (y2 ) = ∑ P (y1, y2 ) marginais
y1

F (a ) = P (Y ≤ a ) = ∑ P (y ) função distribuição
y ≤a

2 distribuições função conjunta de


contínuas f (x 1, x 2 ) : ∫∫ 2 f (x 1, x 2 ) ⋅ dx 1 ⋅ dx 2 = 1 densidade de

probabilidade
fX1 (x 1 ) = ∫ ℜ
f (x 1, x 2 ) ⋅ dx 2 Funções densidade
de probabilidade
fX2 (x 2 ) = ∫ ℜ
f (x 1, x 2 ) ⋅ dx 1 marginais

dF (x )
= f (x )
dx

1 distribuição f (x , y ) : ∑ ⎡⎢ ∫ f (x , y ) ⋅ dx ⎤⎥ = 1 função conjunta de


discreta, 1 y ⎣
ℜ ⎦ probabilidade
distribuição
contínua função densidade de
fX (x ) = ∑ f (x , y ) probabilidade
y
marginal
função de
PY (y ) = ∫ ℜ
f (x , y ) ⋅ dx probabilidade
marginal
dF (x )
= f (x )
dx

Covariância γY1 ,Y2 = ∑ ∑ (y1 − μY1 ) ⋅ (y2 − μY2 ) ⋅ P (y1, y2 ) 2 variáveis discretas
y1 y2

γX1 ,X2 = ∫∫ (x ℜ
1 − μX1 ) ⋅ (x 2 − μX2 ) ⋅ f (x 1, x 2 ) ⋅ dx 1 ⋅ dx 2 2 variáveis contínuas

γX ,Y = ∑ (y − μY ) ⋅ ∫ (x − μX ) ⋅ f (x , y ) ⋅ dx 1 variável discreta,
y

1 variável contínua

Coeficiente de γWZ para quaisquer


ρWZ =
correlação σW ⋅ σZ variáveis
Transformações V = a + b ⋅W + c ⋅ Z Transformação
lineares
E (V ) = E (a + b ⋅W + c ⋅ Z ) = a + b ⋅ E (W ) + c ⋅ E (Z ) valor esperado

4/14
Var (V ) = Var (a + b ⋅W + c ⋅ Z )
variância
= b 2 ⋅Var (W ) + c 2 ⋅Var (Z ) + 2 ⋅ b ⋅ c ⋅ Cov (Z ,W )

Soma de N S = X1 + X 2 + " + X N Transformação


variáveis
E (S ) = E (X1 ) + E (X 2 ) + " + E (X N ) valor esperado
N −1 N
Var (S ) = Var (X1 ) + " + Var (X N ) + 2 ⋅ ∑ ∑ Cov (X , X )
i =1 j =i +1
i j variância

Transformações V = φ (W , Z ) Transformação
não lineares
E (V ) = E [φ (W , Z )] ≈ φ [E (W ), E (Z )] valor esperado
2 2
⎡ ∂φ ⎤ ⎡ ∂φ ⎤
Var (V ) ≈ ⎢ ⎥ ⋅ σW2 + ⎢ ⎥ ⋅ σ2 +
⎢⎣ ∂W ⎥⎦ Z =μ W
W = μ ⎢⎣ ∂Z ⎥⎦WZ ==μμW Z
Z Z

2 2 variância
⎡ ∂φ ⎤ ⎡ ∂φ ⎤
+2 ⋅ ⎢ ⎥ ⋅⎢ ⎥ ⋅ γWZ
⎣⎢ ∂W ⎦⎥ Z =μZW ⎢⎣ ∂Z ⎦⎥WZ ==μμZW
W = μ

Distribuições discretas
Distribuição função de
Binomial P (y ) = C yn ⋅ p y ⋅ q n −y
probabilidade
B(n,p)
μ =n⋅p média
σ2 = n ⋅ p ⋅ q variância

Distribuição P (y ) = C yy +r −1 ⋅ p r ⋅ q y função de
Binomial probabilidade
Negativa r ⋅q
BN(r,p) μ= média
p
r ⋅q
σ2 = variância
p2

Distribuição P (y ) = p ⋅ q y função de
Geométrica probabilidade
G(p) q
(caso particular da μ= média
distribuição Binomial p
Negativa em que r=1) q
σ2 = variância
p2

Distribuição C yM ⋅p ⋅ C nM−⋅yq função de


Hipergeométrica P (y ) =
C nM probabilidade
H(M.p,M.q,n)
μ =n⋅p média

5/14
M −n
σ2 = n ⋅ p ⋅ q ⋅ variância
M −1

Distribuição de e −λ ⋅ λ y função de
Poisson P (y ) =
y! probabilidade
Poisson(λ)
μ=λ média
σ2 = λ variância

Distribuições contínuas
Distribuição ⎧
⎪1 (b − a ) a ≤ x ≤ b
Uniforme f (x ) = ⎪

função densidade de

⎪0 outros x probabilidade
U(a,b) ⎩

⎪0 x <a


⎪ função distribuição de
F (x ) = ⎪
⎨(x − a ) (b − a ) a ≤ x ≤ b

⎪ probabilidade

⎪1 x >b


μ = (a + b ) 2 média
2
(b − a )
σ2 = variância
12

Distribuição ⎧0
⎪ x <0


Exponencial f (x ) = ⎪ função densidade de
⎨ 1 − βx
Negativa ⎪
⎪ ⋅e outros x probabilidade
EN(β) ⎪

⎩ β

⎪⎧⎪0 x <0
F (x ) = ⎪⎨ x
função distribuição de
⎪⎪1 − e − β outros x probabilidade
⎪⎩
μ=β média
σ2 = β 2 variância

Distribuição 1
1 ⎛ x −μ ⎞⎟2
− ⎜⎜ ⎟ função densidade de
2 ⎝ σ ⎠⎟
Normal f (x ) = e
2πσ 2 probabilidade
N(μ,σ2)
f (x ) não é integrável analiticamente função distribuição de
probabilidade
μ=μ média
σ2 = σ2 Variância

6/14
Distribuição X −μ
Normal Z = sendo X uma variável N(μ,σ2) definição
σ
Padronizada
2
N(0,1) 1 −
z
função densidade de
f (z ) = ⋅e 2
2⋅π probabilidade

f (x ) não é integrável analiticamente função distribuição de


probabilidade
μ=0 média
σ2 = 1 variância

Distribuição
Lognormal V = ln X sendo V uma variável N(μV,σV2) definição
LN(μV,σV2)
1 2
1 −
2⋅σV2
⋅(ln x −μV )
função densidade de
f (x ) = ⋅e
x ⋅ 2⋅π⋅σ 2
V
probabilidade

f (x ) não é integrável analiticamente função distribuição de


probabilidade
μV +σV2 2
μ =e média
2⋅(μV +σV2 )
σ2 = e − e 2⋅μV +σV
2
variância
η = e μV mediana
(μV −σV2 ) moda
ζ =e

Distribuição do GL

Qui-Quadrado X = ∑ Z i2 sendo Zi variáveis N(0,1) definição


i =1
2
χGL
1 −x 2
f (x ) = ⋅e ⋅ x (GL / 2)−1 função densidade de
2
GL 2
(
⋅ Γ GL 2 ) probabilidade

f (x ) não é integrável analiticamente função distribuição de


probabilidade
μ = GL média
σ 2 = 2 ⋅ GL variância

Distribuição t de Z 2
X= sendo Z e V variáveis N(0,1)e χGL definição
Student V GL
tGL

f (x ) =
(
Γ (GL + 1) 2

⋅ ⎜⎜1 +
x 2 ⎞⎟

) −(GL +1) 2
função densidade de
GL ⋅ π ⋅ Γ GL 2 ⎜⎝ GL ⎠⎟ ( ) probabilidade

f (x ) não é integrável analiticamente função distribuição de


probabilidade
μ=0 média

7/14
σ 2 = GL (GL − 2) variância

Distribuição F 2
χGL GL1
FGL1,GL2 X= 2
1
definição
χGL2
GL2

(GL1 2)−1
( ) ⋅ (GL )
GL1 2
Γ (GL1 + GL2 ) 2 1 GL2 ⋅x função densidade de
f (x ) =
( ) (
Γ GL1 2 ⋅ Γ GL2 2) (GL2 + GL1 ⋅ x )
(GL1 +GL2 ) 2 probabilidade

f (x ) não é integrável analiticamente função distribuição de


probabilidade
GL2
μ= média
GL2 − 1

2 ⋅ GL2 ⋅ (GL1 + GL2 − 2)


σ2 = 2 variância
GL1 ⋅ (GL2 − 2) ⋅ (GL2 − 4)
1
FGL1 ,GL2 (1 − α) = propriedade
FGL2 ,GL1 (α)

Estatística descritiva
Média 1 N
x = ⋅ ∑ xi dados não agrupados
N i =1
K
x = ∑ fk ⋅ x k dados discretos
k =1 agrupados
K
x = ∑ fk ⋅ M k dados contínuos
k =1 agrupados

Mediana Med = x (N +1) 2 n.º ímpar de valores

(
Med = x N 2 + x N 2+1 2 ) n.º par de valores

0.5 − fa − 0.5 − fa −
Med = LI + ⋅ Δ = LI + ⋅Δ dados agrupados
fa + − fa − f

Moda d1
Mod = LI + ⋅Δ dados agrupados
d1 + d2

Erro absoluto 1 N
médio EAM = ⋅ ∑ xi − x dados não agrupados
N i =1
K
EAM = ∑ fk ⋅ x k − x dados discretos
k =1 agrupados
K
EAM = ∑ fk ⋅ M k − x dados contínuos
k =1 agrupados

8/14
Erro quadrático 1 N 1 N
⋅ ∑ (x i − x ) = ⋅ ∑ x i2 − x 2
2
médio EQM = dados não agrupados
N i =1 N i =1
K K
EQM = ∑ fk ⋅ (x k − x ) = ∑ fk ⋅x k2 − x 2
2 dados discretos
k =1 k =1 agrupados
K K
EQM ≈ ∑ fk ⋅ (M k − x ) = ∑ fk ⋅ M k2 − x 2
2 dados contínuos
k =1 k =1 agrupados
K
Δ2 correcção de
EQM ≈ ∑ fk ⋅ (M k − x ) −
2

k =1 12 Sheppard

Variância N Estimador não


s2 = ⋅ EQM
amostral N −1 enviesado de

Momentos na 1 N

origem de ordem m ′=
i
N
∑x
n =1
i
n dados não agrupados
1, 2, ...
K
mi′ = ∑ fk x ki dados discretos
i =1 agrupados
K
mi′ ≈ ∑ fk M ki dados contínuos
i =1 agrupados
m1′ = x notas

Momentos 1 N

∑ (x
i
centrados de mi = n −x) dados não agrupados
N n =1
ordem 1, 2, ...
K
mi = ∑ fk (x k − x )
i dados discretos
k =1 agrupados
K
mi = ∑ fk (M k − x )
i dados contínuos
k =1 agrupados
m1 = 0 m2 = EQM
Para o cálculo de momentos centrados a partir de momentos na Notas
origem, podem utilizar-se as expressões apresentadas para os
momentos populacionais

Estimadores N
k = s2 = ⋅ EQM 2.ª ordem
não enviesados 2 N −1
dos momentos
centrados N2
k3 = m3 3.ª ordem
(N − 1)(N − 2)

N (N 2 − 2N + 3) 3N (2N − 3)
k4 = m4 − m22 4.ª ordem
(N − 1)(N − 2)(N − 3) (N − 1)(N − 2)(N − 3)

Coeficiente de m3
CA = 32 enviesado
assimetria m2

9/14
k3 enviesado (menos
CA′ = 32
k2 que o anterior)

N (N − 1) não enviesado para


CA′′ = CA populações normais
N −2

Coeficiente de m4
CK = −3 Enviesado
kurtose m22
(achatamento)
k4 enviesado (menos
CK ′ = −3
k22 que o anterior)
N −1 não enviesado para
CK ′′ = ((N + 1)CK + 6)
(N − 2)(N − 3) populações normais

Recta de y = a′ + b ⋅ x
regressão N

∑ (x i − x ) ⋅ (yi − y )
b= i =1
N Declive
∑ (x
2
i − x)
i =1

a′ = y −b ⋅ x ordenada na origem

Covariância 1 N

amostral cXY = ⋅ ∑ (x i − x ) ⋅ (yi − y )


N − 1 i =1

Coeficiente de cXY
correlação rXY =
sX ⋅ sY
amostral

Distribuições amostrais
Média amostral 1 N
X= ⋅ ∑ Xi
N i =1
μX = μX Média
σX2 variância (amostras
σX2 =
N aleatórias simples)

σ2 M − N variância (populações
2
σ = X ⋅
X finitas, amostragem
N M −1 sem reposição)

Média amostral
de uma X → N (μX , σX2 ) distribuição de X
distribuição
Normal ⎛ σ2 ⎞
X → N ⎜⎜μX , X ⎟⎟⎟ Distribuição de X
⎜⎝ N⎠

10/14
Estimação pontual
Propriedades
dos estimadores EnviesamentoΘˆ = E (Θ
ˆ ) − θ = μˆ − θ
Θ não-enviesamento

EficiênciaΘˆ = E (Θ ( )
ˆ − θ ) = σ 2ˆ + (Enviesamento ˆ )2
2
Θ Θ eficiência

EficiênciaΘˆ
Eficiência relativaΘˆ ˆ
Θ
= 1
eficiência relativa
1 2
EficiênciaΘˆ
2

lim Θ
N →∞
(
ˆ −θ < δ =1 ) ∀δ > 0 consistência

Estimação pela
máxima Max : L (θ1, θ2 , " θR ) maximizar L
verosimilhança
N
L = ∏ P (Yi = yi θ1, θ2 , " θR ) distribuições
i =1 discretas
N
L = ∏ f (x i θ1, θ2 , " θR ) distribuições
i =1 contínuas

Intervalos de confiança/Testes de hipóteses


Valor esperado Populações Normais com variância conhecida ou amostras de grande dimensão
μ x −μ
→ N (0,1) distribuição
σ n
σ
x ±z α 2 ⋅ ( ) n
intervalo de confiança

Se a amostra for grande, σ ≈ s (embora desconhecido) notas


Populações Normais com variância desconhecida
x −μ
→ tn −1 Distribuição
s n
s
x ± tn −1 α 2 ⋅( ) n
intervalo de confiança

Se a amostra for pequena, a aproximação σ ≈ s não é válida Notas

Proporção Amostras de grande dimensão


binomial pˆ − p
p → N (0,1)
p ⋅q Distribuição
n
pˆ ⋅ qˆ
( )
pˆ ± z α 2 ⋅
n
intervalo de confiança

11/14
Valido sob as condições da aproximação da distribuição binomial
à distribuição normal: n ≥ 20 e n ⋅ p ≥ 7 . Fora destas
condições deve recorrer-se ao cálculo exacto através da
distribuição binomial.
Na amostragem sem reposição, se a dimensão da população, N, Notas
não for muito maior do que a dimensão da amostra, n, deve-se
ter em consideração o factor (N − n ) (N − 1) no cálculo do
erro padrão

Variância Populações Normais


σ2 (n − 1) ⋅ s 2
2
→ χn2−1 Distribuição
σ
⎡ ⎤
⎢ (n − 1) ⋅ s 2 (n − 1) ⋅ s 2 ⎥
⎢ 2 , ⎥ intervalo de confiança
( ) (
⎢ χn −1 α 2 χn2−1 1 − α 2
⎢⎣ ) ⎥
⎥⎦

Diferença entre Amostras independentes de populações Normais com variâncias conhecidas e diferentes
valores ou amostras independentes de grande dimensão com variâncias diferentes
esperados
(x A − x B ) − (μA − μB )
μA−μB → N (0,1)
σA2 σ2 distribuição
+ B
nA nB

σA2 σB2
( )
(x A − x B ) ± z α 2 ⋅ +
nA nB
intervalo de confiança

Se a amostra for grande, σ ≈ s (embora desconhecido) notas


Amostras independentes de populações Normais com variâncias conhecidas e iguais ou
amostras independentes de grande dimensão com variâncias iguais
(x A − x B ) − (μA − μB )
→ N (0,1)
1 1 distribuição
σ⋅ +
nA nB

1 1
( )
(x A − x B ) ± z α 2 ⋅ σ ⋅ +
nA nB
intervalo de confiança

Se a amostra for grande


2 2 (nA − 1) ⋅ sA2 + (nB − 1) ⋅ sB2 notas
σ ≈s =
nA + nB − 2
Amostras independentes de populações Normais com variâncias desconhecidas e
diferentes
(x A − x B ) − (μA − μB )
→ tGL
sA2 s2 distribuição
+ B
nA nB

12/14
sA2 s2
(x A − x B ) ± tGL α 2 ⋅ ( ) + B
nA nB
intervalo de confiança

(s )
2
2
A nA + sB2 nB
GL =
(s ) + (s )
2 2
2
nA 2
nB notas
A B

nA − 1 nB − 1
Amostras independentes de populações Normais com variâncias desconhecidas e iguais
(x A − x B ) − (μA − μB )
→ tGL
1 1 distribuição
s⋅ +
nA nB

1 1
(x A − x B ) ± tGL α 2 ⋅ s ⋅( ) +
nA nB
intervalo de confiança

2 (nA − 1) ⋅ sA2 + (nB − 1) ⋅ sB2


s = GL = nA + nB − 2 notas
nA + nB − 2

Diferença de Amostras independentes de grande dimensão


proporções
binomiais (pˆA − pˆB ) − (pA − pB )
→ N (0,1)
pA ⋅ qA pB ⋅ qB Distribuição
pA-pB +
nA nB

pˆA ⋅ qˆA pˆB ⋅ qˆB


(pˆA − pˆB ) ± z (α 2) ⋅ + intervalo de confiança
nA nB

Ver notas para a proporção binomial Notas

Razão de Populações Normais


variâncias
sA2 σA2
σ2A/σ2B → FGL1 ,GL2 Distribuição
sB2 σB2

⎡ 2 2 ⎤
⎢ s A sB sA2 sB2 ⎥
⎢ , ⎥ intervalo de confiança
⎣⎢ 1 2
( )
⎢ FGL ,GL α 2 FGL ,GL 1 − α 2 ⎥
1 2 ⎥⎦ ( )
GL1 = nA − 1 GL2 = nB − 1 Notas

Proporção A utilizar no cálculo de intervalos de confiança quando não for possível ou desejável a
binomial aproximação à distribuição Normal
p α n
α
pi : P (Y ≥ Yˆ) = ⇔ ∑C
n −y
n
y ⋅ pi y ⋅ (1 − pi ) = limite inferior
2 y =Yˆ 2

α α
ps : P (Y ≤ Yˆ) = ⇔ ∑C
n −y
n
y ⋅ ps y ⋅ (1 − ps ) = limite superior
2 y =0 2

13/14
As soluções destas equações encontram-se tabeladas para
Notas
valores de n até 29

Outras expressões
Cálculo Pn = n ! Permutações
combinatório
n!
Akn = Arranjos
(n − k ) !

C kn = ( ) = (n −nk!)!⋅ k !
n

k
Combinações

Média MG = N x 1 ⋅ x 2 ⋅ " ⋅ x N
geométrica

Média harmónica N
MH = N
1
∑x
i =1 i

Notas
♦ Durante o cálculo deve, sempre que possível, trabalhar as expressões analiticamente e
efectuar os cálculos todos no final.
♦ Sempre que possível, deve trabalhar com 5 algarismos significativos e nunca com menos de
3 algarismos significativos, de modo a não introduzir desvios significativos nos resultados. O
ideal é guardar resultados intermédios na memória da máquina de calcular e trabalhar com a
precisão que aquela permitir.

14/14

Você também pode gostar