Você está na página 1de 4

INSTITUTO SUPERIOR POLITÉCNICO DE VISEU

ESCOLA SUPERIOR DE TECNOLOGIA


Departamento de Matemática
PROBABILIDADES E ESTATÍSTICA

FORMULÁRIO

PROBABILIDADES
P( A ∩ B)
Probabilidade condicional ou condicionada de A dado B: P(A | B) = , se P(B)>0
P(B)

VARIÁVEIS ALEATÓRIAS
Média, valor esperado ou esperança matemática:
− E( X) ≡ µ X = ∑ x i f X ( x i ) , e E(φ(X ) ) ≡ µ φ ( X ) = ∑ φ( x i )f X ( x i ) , se X é discreta com função de
i i

probabilidade fX e tomando valores em {x1, x2, ...};


+∞ +∞

− E(X) ≡ µ X = ∫ x f X (x ) dx , e E(φ(X) ) ≡ µ φ ( X ) = ∫ φ( x ) f X ( x ) dx , se X é (absolutamente) contínua


−∞ −∞

com função densidade de probabilidade fX.

Variância:
( )
− Var (X) ≡ σ X = ∑ ( x i − µ X ) 2 f X ( x i ) = E (X − µ X ) , se X é discreta com função de probabilidade fX
2 2

e tomando valores em {x1, x2, ...};

( )
+∞

− Var (X) ≡ σ X = ∫ ( x − µ X ) 2 f X ( x ) dx = E (X − µ X ) , se X é (absolutamente) contínua com função


2 2

−∞

densidade de probabilidade fX.


Var( X) = E( X 2 ) − [E (X)]
2

Desvio padrão: σ X = Var (X)

DISTRIBUIÇÕES DE PROBABILIDADE

Se X tem distribuição de Bernoulli de parâmetro p:


⎧p x (1 − p)1− x se x = 0 ∨ x = 1
f X (x) = ⎨ , E(X) = p e Var(X) = p(1-p)
⎩0 caso contrário

Se X tem distribuição de Binomial de parâmetros n e p:


⎧⎛ n ⎞ x
⎪⎜ ⎟p (1 − p) n − x se x = 0,1, 2,L
f X ( x ) = ⎨⎜⎝ x ⎟⎠ , E(X) = np e Var(X) = np(1-p)
⎪0
⎩ caso contrário

Se X tem distribuição de Poisson de parâmetro µ:


⎧ e −µ µ x
⎪ se x = 0, 1, 2, L ,
f X ( x ) = ⎨ x! E(X) = µ e Var(X) = µ
⎪⎩0 caso contrário
ESTIMADORES
n

∑X
1
Média Amostral: X= i
n i =1

1 ⎛ n 2 ⎞
∑ (X i − X ) =
n


1
⎜ X i − nX 2 ⎟
2
Variância Amostral: S 2 =
n −1 i =1 n − 1 ⎜⎝ i =1 ⎟

ANÁLISE DE VARIÂNCIA

k
k - nº de amostras; nj - nº de observações na amostra j; N= ∑n
j=1
j - nº total de observações

TABELA ANOVA
Fonte de Soma de Quadrados Graus de Variância (Soma Média de Razão F
Variação Liberdade Quadrados)

∑ n (x )
k
2 SS
S 2b = MS A = A S 2 MS A
Entre SSA = −x k-1 F = b2 =
j=1
j j
k −1 S MS E
grupos p

Dentro dos nj N-k SS E


∑∑ (x )
k
grupos SSE = −xj
2 S 2p = MS E =
ij N−k
j=1 i =1

Total nj N-1
∑∑ (x )
k
2
SST = ij −x
j=1 i =1

k nj k

∑∑ ∑n x
1 1
x = x ij = j j
N j=1 i =1 N j=1

Testes de Comparação Múltipla


Teste HSD de Tuckey
A hipótese H0: µi =µj é rejeitada se
MS E ⎛ 1 ⎞
x i − x j ≥ ST (1−α ) . ⎜ + 1 ⎟
2 ⎜ ni n j ⎟
⎝ ⎠
(
onde S T (1−α ) é tal que P W ≤ S T (1−α ) = 1 − α com W ~ S T (k , N -k))
Teste de Scheffé
A hipótese nula H0: µi =µj é rejeitada se
⎛ 1 1 ⎞
x i − x j ≥ (k - 1)F(1-α ) . MS E ⎜ + ⎟
⎜ ni n j ⎟
⎝ ⎠
onde, F(1− α ) é o quantil de probabilidade (1-α) da distribuição FNk −−1k , isto é, P FNk −−1k ≤ F(1−α ) = 1 − α ( )
2
Teste para comparação de k variâncias - Teste de Bartlett:

1⎡ ⎤
( ) ∑ (n ( ) ~
k
B= ⎢( N − k ) ln S p −
2
j − 1) ln S 2j ⎥ χ 2k −1
C ⎣⎢ j=1 ⎦⎥
Sob H 0

1 ⎡ k 1 1 ⎤
nj k

∑ ∑ (n ∑
1 1
S 2j = (X ij − X j ) 2 , S 2p = − 1) S 2j e C = 1+ ⎢ − ⎥
n j − 1 i =1 N−k 3( k − 1) ⎢⎣ j=1 n j − 1 N − k ⎥⎦
j
j=1

Estatística de teste de Mann-Whitney


n
T= ∑ R (X ) ,
i =1
i onde R (X i ) é o score da observação X i

Estatística de teste de Kruskal-Wallis

Caso de não haver empates:


k
R i2

12
T= − 3( N + 1)
N( N + 1) i =1 n i

Caso de haver empates:


1 ⎡ k R i2 N( N + 1) 2 ⎤ 1 ⎡ k N( N + 1) 2 ⎤
∑∑ ( ) ∑ R (X )
ni ni
T= 2 ⎢
S ⎣ i =1 n i

4
∑ ⎥ , onde S 2
= ⎢
N − 1 ⎢⎣ i =1
R X ij
2

4
⎥ e Ri =
⎥⎦
ij
⎦ j=1 j=1

Estatística de teste de ajustamento do Qui-quadrado

m
(O i − e i )2
Q= ∑
i =1 ei

Estatística de teste Kolmogorov-Smirnov

D n = sup Fn ( x ) − F0 ( x )
− ∞ < x < +∞

Estatística para os testes de homogeneidade e independência do Qui-quadrado

r s (O − ê ij )
2

χ = ∑∑
2 ij

i =1 j=1 ê ij

3
Medidas de Associação
χ2 q −1
Coeficiente de Contingência de Pearson: C = ; 0≤C≤ onde q = min{r,s}
χ +n
2
q
χ2
Coeficiente de Tshuprow: T =
n (r − 1)(s − 1)
χ2
Coeficiente V de Cramer: V = onde q = min{r,s}
n (q − 1)

ANÁLISE DE REGRESSÃO E CORRELAÇÃO

b = [b 0 b1 L b k ] = X T X
T
( ) −1
XT y
n n n

∑ (y − y) ∑ (y − ŷ i ) ∑ (ŷ − y)
SSR
SST = SSE = SSR = r2 =
2 2 2
i i i
i =1 i =1 i =1 SST

Testes sobre os coeficientes de regressão:

βˆ i − β i0
Sβˆ
~t
Sob H 0
n − k −1
i

com Sβˆ = S c ii onde cii é o elemento diagonal da linha i +1 da matriz X T X


i
( ) −1
e S2 =
SSE
n − k −1

Teste F:

SSR k n − k − 1 R2
F=
SSR k
SSE ( n − k − 1)
=
S 2
=
k
×
1− R 2
~F
Sob H 0
k
n − k −1

Caso da Regressão Simples:


n n n


i =1
x i yi − n x y b0 ∑i =1
y i + b1 ∑y xi =1
i i − ny 2
b1 = n
b 0 = y − b1 x r2 = n

∑x
i =1
i
2
−n x 2
∑y i =1
i
2
− ny 2
n

∑x
i =1
i
2

1
= S2 Sβˆ = S2
2 2
Sβˆ n n

∑x ∑x
0 1
− n 2x 2 − nx 2
2 2
n i i
i =1 i =1

Você também pode gostar