Você está na página 1de 5

Instituto Superior de Economia e Gestão/UTL

Estatística II – Licenciatura Gestão

FORMULÁRIO DE ESTATÍSTICA II

VALOR ESPERADO, MOMENTOS E PARÂMETROS


Var ( X ) = E ( X − µ ) 2 = E ( X 2 ) − µ 2 ;

Cov( X , Y )
Cov( X , Y ) = E{( X − µ X )(Y − µ Y )} = E ( XY ) − E ( X ) E (Y ) ; ρ X ,Y =
σ XσY

E(aX + bY ) = aE ( X ) + bE (Y ) e Var (aX + bY ) = a 2 Var ( X ) + b 2 Var (Y ) + 2 a b Cov( X , Y ) com a, b constantes

DISTRIBUIÇÕES TEÓRICAS
• UNIFORME (DISCRETA)
1 n +1 n 2 −1
Caso f ( x) = , x = 1,2,..., n ; E( X ) = ; Var( X ) =
n 2 12
1 m m(m + 2)
Caso f ( x) = , x = 0,1,2,..., m ; E ( X ) = ; Var ( X ) = ;
m +1 2 12

• BINOMIAL X ~ B(n;θ ) , (0 < θ < 1)


n
f ( x | θ ) =   θ x (1 − θ ) n − x , x = 0, 1, 2, ..., n
 x
n
E ( X ) = nθ ; Var ( X ) = nθ (1 − θ ) ; ℑ(θ ) = , n conhecido
θ (1 − θ )
Propriedades:
• X ~ B( n; θ ) ⇔ ( n − X ) ~ B ( n;1 − θ )
• X 1 ~ B ( n1 ; θ , ), X 2 ~ B ( n 2 ; θ ) , X 1 e X 2 independentes ⇒ X 1 + X 2 ~ B( n1 + n 2 , θ )

• BERNOULLI X ~ B (1; θ )

• POISSON X ~ Po(λ ) , (λ > 0)


e −λ λ x
f (x | λ) = , x = 0,1,2,... ; E ( X ) = λ ; Var ( X ) = λ ; ℑ(λ ) = 1 / λ ;
x!
Propriedades:
• X 1 ~ Po(λ1 ), X 2 ~ Po(λ 2 ), X 1 e X 2 independentes ⇒ X 1 + X 2 ~ Po(λ1 + λ 2 )
a
• Se X ~ B(n;θ ) , com n grande θ pequeno então X ~ Po(nθ )

• UNIFORME (CONTÍNUA) X ~ U (α , β ) , (α < β )


1 α +β (β − α ) 2
f (x | α , β ) = α <x<β ; E( X ) = ; Var( X ) = ;
β −α 2 12

• NORMAL X ~ N ( µ , σ 2 ) , (−∞ < µ < +∞, 0 < σ < +∞)


1  1 
f (x | µ,σ 2 ) = exp− (x − µ) 2  , −∞ < x < +∞
2πσ 2  2σ 2

E ( X ) = µ ; Var ( X ) = σ 2 ; ℑ( µ ) = 1 / σ 2 , σ 2 conhecido ; ℑ(σ 2 ) = 1 /(2 σ 4 ) , µ conhecido
Propriedades:
X −µ
• Normal estandardizada Z = ~ N (0,1) ; φ ( z ) = φ (− z ) e Φ ( z ) = 1 − Φ (− z )
σ
 σ2 
• X i ~ N ( µ , σ 2 ) ( i = 1, 2, ..., k) independentes ⇒ Y = ∑i =1 X i ~ N kµ , kσ 2
k
( ) e X=
1 k
∑ i  µ , k
k i =1
X ~ N 

 
• X i ~ N ( µ i , σ i2 ) ( i = 1, 2, ..., k) independentes ⇒ ∑i =1 α i X i ~ N µ Y , σ Y2
k
( ) com µ Y = ∑i =1 α i µ i e σ Y2 = ∑i =1 α i2σ i2
k k

1
• EXPONENCIAL X ~ Ex(λ ) , (λ > 0) ; X ~ Ex(λ ) ⇔ X ~ G (1, λ )
1 1
f ( x | λ ) = λe − λx , x > 0 E( X ) = ; Var ( X ) = ; ℑ(λ ) = 1 / λ 2
λ λ2
Propriedades:
∑ X i ~ G (k , λ ) e min X i ~ Ex (kλ )
k
• X i ~ Ex(λ ) ( i = 1, 2, ..., k) independentes ⇒ i =1 i

• GAMA X ~ G (α , λ ) , (λ > 0, α > 0)


λα e − λx x α −1 α α
f (x | α , λ) = , x > 0 ; E( X ) = ; Var( X ) = ; ℑ(λ ) = α / λ 2 , λ 2 conhecido
Γ(α ) λ λ 2
Propriedades:
• X i ~ G (α i ; λ ), ( i = 1, 2, ..., k) independentes ⇒ ∑i =1 X i ~ G
k
(∑ k
i =1
αi;λ )
λ
• X ~ G (α , λ ) então Y = cX ~ G (α , ) onde c constante positiva
c

• QUI-QUADRADO X ~ χ 2 (n) , (n inteiro positivo).


X ~ χ 2 (n) ⇔ X ~ G ( n / 2;1/ 2 ) ; E ( X ) = n ; Var( X ) = 2n
Propriedades:
X i ~ χ (2n ) ( i = 1, 2, ..., k) independentes ⇒ ∑i =1 X i ~ χ (2n ) com n = ∑i =1 ni
k k

i

• X ~ G (n; λ ) ⇔ 2λX ~ χ 2 (2n)


X i ~ N (0,1), (i = 1,2,..., n) independentes ⇒ ∑i =1 X i2 ~ χ 2 (n)
n

• t-“STUDENT”
U
T= ~ t (n) com U ~ N (0,1) e V ~ χ 2 (n) independentes
V n
n
E (T ) = 0 ; Var(T ) = (n > 2) ; Sendo T ~ t (n) ⇒ lim FT (t | n) = Φ (t )
n−2 n →∞

• F-SNEDCOR
U /m
F= ~ F (m, n) com U ~ χ 2 (m) , V ~ χ 2 (n) (independentes)
V n
1
Propriedades: . X ~ F (m, n) ⇒ ~ F (n, m) . T ~ t ( n ) ⇒ T 2 ~ F (1, n)
X

TEOREMA DO LIMITE CENTRAL E COROLÁRIOS


∑ i =1 X i − nµ =
n
X −µ a
TLC: Sendo X i iid com E ( X i ) = µ e Var( X i ) = σ 2
⇒ ~ N (0,1)
nσ σ n


n
X i − nθ a
Corolário: Sendo X i ~ B (1; θ ) , iid ⇒ i =1
~ N (0,1)
nθ (1 − θ )
 b + 1 − nθ   
 − Φ a − 2 − nθ  , com a e b inteiros
1
Correcção de continuidade: P(a ≤ X ≤ b) ≈ Φ 2
 nθ (1 − θ )   nθ (1 − θ ) 
   
X −λ a
Corolário: Sendo X ~ Po(λ ) , quando λ → +∞ ⇒ ~ N (0,1)
λ
 b + 12 − λ   a − 12 − λ 
Correcção de continuidade: P (a ≤ X ≤ b) ≈ Φ  − Φ  , com a e b inteiros
 λ  
 λ 

AMOSTRAGEM. DISTRIBUIÇÕES POR AMOSTRAGEM


∑ ∑ ∑
n n n
Xi (X i − X )2 X i2
X = i =1
; S 2
= i =1
= i =1
−X2 ; (n − 1) S '2 = n S 2
n n n
σ2 n −1 2
E( X ) = µ ; Var( X ) = ; E(S 2 ) = σ ; E(S ′ 2 ) = σ 2
n n
2
DISTRIBUIÇÃO DO MÍNIMO E DO MÁXIMO
G1 ( x) = 1 − [1 − F ( x)] ; G n ( x) = [F ( x)]
n n

• POPULAÇÕES NORMAIS
X −µ X −µ
Média ~ N (0,1) ~ t (n − 1)
σ n S′ n
( X 1 − X 2 ) − ( µ1 − µ 2 ) ( X 1 − X 2 ) − (µ1 − µ 2 ) a
~ N (0,1) Z= ~ t (ν )
σ 12 σ 22 S1'2 S 2'2
+ +
Diferença de médias m n m n
onde ν é o maior inteiro contido em r,
X 1 − X 2 − ( µ1 − µ 2 )  s1′ 2 s 2′ 2 
2

 + 
1 1  m n 
+  
m n r=
T= ~ t (m + n − 2) 2 2
1  s1′   ′2 
2
(m − 1) S 1′ + (n − 1) S 2′
2 2
 + 1  s2 
m − 1  m 
 n − 1  n 

m+n−2
nS 2 (n − 1) S ′ 2
Variância = ~ χ 2 (n − 1)
σ2 σ2
S1′ 2 σ 22
Relação de variâncias ~ F (m − 1, n − 1)
S 2′ 2 σ 12

• GRANDES AMOSTRAS
Caso geral
X −µ a X −µ a

Média ~ N (0,1) ~ N (0,1)


σ n S′/ n
( X 1 − X 2 ) − ( µ1 − µ 2 ) a ( X 1 − X 2 ) − ( µ1 − µ 2 ) a

Diferença de médias ~ N (0,1) ~ N (0,1)


σ 12 σ 22 S1'2 S 2'2
+ +
m n m n

População de Bernoulli
Proporção X −θ a X −θ a
~ N (0,1) ~ N (0,1)
θ (1 − θ ) X (1 − X )
n n
Diferença de proporções X 1 − X 2 − (θ 1 − θ 2 ) a X 1 − X 2 − (θ 1 − θ 2 ) a
~ N (0,1) ~ N (0,1)
θ 1 (1 − θ 1 ) θ 2 (1 − θ 2 ) X 1 (1 − X 1 ) X 2 (1 − X 2 )
+ +
m n m n

Igualdade de proporções X 1 − X 2 − (θ 1 − θ 2 ) a m X1 + n X 2
~ N (0,1) onde θˆ =
 1 1 ˆ m+n
 +  θ (1 − θˆ)
m n

3
• ESTATÍSTICA-TESTE DO χ 2
m ( N − fe ) 2 a
Teste de Ajustamento: Q = ∑
j j
~ χ 2 (m − 1)
j =1 fe j
Com estimação de k parâmetros para obter as estimativas pˆ o j : χ (2m − k −1)
r s ( N ij − feij ) 2 a
Teste de Independência: Q = ∑ ∑ ~ χ ((2 r −1)( s −1))
i =1 j =1 feij
r s ( N ij − feij ) 2 a
Teste de Homogeneidade: Q = ∑ ∑ ~ χ ((2 r −1) s )
i =1 j =1 feij

• MODELO REGRESSÃO LINEAR y t = β 1 + β 2 xt 2 + ... + β k xtk + u t , t = 1,2,..., n.

EMQ (estimadores dos mínimos quadrados)


Caso geral Caso particular:
y t = β 1 + β 2 xt + u t
b = ( X T X ) −1 X T Y s 2 ∑ x t2
b1 = y − b2 x ; Vˆar (b1 | X ) =
n∑ x t2 − (∑ x t )
2

uˆ t = y t − yˆ t
n ∑ xt y t − ∑ xt ∑ y t
b2 = ;
∑ uˆ n∑ xt2 − (∑ xt )
2 2
t
s =
2

(n − k )
ns 2
Vaˆr (b2 | X ) =
n∑ x t2 − (∑ x t )
2

Coˆv(b | X ) = s 2 ( X T X ) −1
s2 =
∑ uˆ 2
t

(n − 2)

Propriedades:

(∑ ( y − y t )( yˆ t − yˆ t ) )
2

∑t 1 xtj uˆt ∑ ∑t 1 y =∑t 1 yˆ +∑t 1 uˆ


n n n n n t
= 0 ( j = 1,2,..., k ) ; yˆ uˆ = 0 ; 2 2 2
; r =
2 t

∑t ( yt − yt ) 2 ∑t ( yˆ t − yˆ t ) 2
= t =1 t t = t = t = t yyˆ

No modelo com termo independente:


y t = β 1 + β 2 xt 2 + ... + β k xtk + u t , t = 1,2,..., n
VT = ∑t =1 ( y t − y ) 2 ; VE = ∑t =1 ( yˆ t − y ) 2 ; VR = ∑t =1 uˆ t2
n n n
VT = VE + VR ;
VE VR VR /(n − k ) n −1
R2 = = 1− ; R 2 = 1− = 1 − (1 − R 2 ) .
VT VT VT /(n − 1) n−k

Inferência estatística do MRL, com y t | X ~ N ( xt • β , σ 2 ) :

∑ uˆ t2
n
(n − k ) s 2
• q = t =1 = ~ χ 2 (n − k )
σ2 σ2

• tj =
bj − β j
~ t (n − k ) ou Fj =
(b j −βj )
2

~ F (1, n − k )
sb j
s b2j

Testes de restrições lineares sobre os coeficientes de regressão

Caso geral (m restrições lineares): F =


(VR − VR1 / m
0 )
~ F (m, n − k )
VR1 /( n − k )
VR0 = Variação residual do modelo com as m restrições lineares;
VR1 = Variação residual do modelo sem restrições

4
Casos particulares
δˆ − δ
• Uma única restrição (m=1): t δˆ = ~ t (n − k ) em que s δˆ é o erro padrão de δˆ = cb .
s δˆ

R 2 /(k − 1) VE /(k − 1)
• Nulidade conjunta: F = = ~ F (k − 1, n − k )
(1 − R ) /(n − k ) VR /(n − k )
2

• Nulidade de um subconjunto (m)

F=
(VR − VR1 / m
0 )
~ F (m, n − k ) ou F =
R 2 − R02 / m (
~ F (m, n − k )
)
VR1 /(n − k ) (1 − R 2 ) /( n − k )
VR1 = Variação residual do modelo sem restrições;
VR0 = Variação residual do modelo com restrições
R0 = Coeficiente de determinação do modelo com restrições

COMPLEMENTOS AO MODELO DE REGRESSÃO LINEAR

Permanência de estrutura: FChow =


(VR0 − VR1 ) / k ~ F ( k , n − 2k )
VR1 /( n − 2k )
n1 : Nº de observações do modelo original;
(n − n1 ) : Nº de observações adicionais;
VR0 =Variação residual do modelo com n observações
VR1 =Soma das variações residuais dos modelos com n1 e (n-n1) observações

Previsão
θˆ − θ θˆ − θ
1. Previsão em Média: θ = β 1 + β 2 c 2 + ... + β k c k ; θˆ = b1 + b2 c 2 + ... + bk c k ; tθˆ = = ~ t (n − k )
s c( X T X ) −1 c T sθˆ

2. Previsão pontual: y 0 = β 1 + β 2 c 2 + ... + β k c k + u 0 ; yˆ 0 = b1 + b2 c 2 + ... + bk c k ;

y 0 − yˆ 0 d
td = = ~ t (n − k ) com s d = s 2 + sθ2ˆ
s 1 + c( X X ) c
T −1 T sd

Heteroscedasticidade:
Cov(b | X ) = ( X T X ) −1 X T ΣX ( X T X ) −1 = ( X T X ) −1 ∑t =1 σ t2 x tT• xt • ( X T X ) −1
n

Coˆv(b | X ) = ( X T X ) −1 ∑t =1 uˆ t2 xtT• xt • ( X T X ) −1 , uˆ t2 = ( y t − xt • b) 2 .
n

a
Estatística-teste de White: W = nR 2 ~ χ 2 ( p − 1)

R 2 e p - Coeficiente de determinação e nº de regressores da regressão auxiliar, respectivamente.


bj − β j a
Inferência sobre β j : t j = *
~ N (0,1) com s b*j =erro-padrão heterocedástico-consistente
s bj

Autocorrelação:
a
Estatística-teste de Breusch-Godfrey: nR 2 ~ χ 2 (q ) ,

R 2 e q - Coeficiente de determinação da regressão auxiliar e ordem máxima de desfasamento, respectivamente.

Você também pode gostar