Você está na página 1de 2

Indicadores para dados univariados Regressão linear simples

x1 , x2 , · · · , xn ybi = b0 + b1 xi ybi − y = b1 (xi − x)


o
f.d. empírica F ∗ (x) = n de nxi ≤ x yi = b0 + b1 xi + ei

amostra ordenada  b = cov(x, y) = r sy ,



x(1) ≤ x(2) ≤ · · · ≤ x(n) sx 6= 0
1
s2x sx

 x( n+1
 n ímpar
2 )
b0 = y − b1 x

mediana x̃ =
 1 x( n ) + x( n +1)
 
n par
 Pn Pn Pn
2 2 2
2 i=1 (yi − y) = i=1 (yi − yˆi ) + i=1 (ŷi − y)
2 2

⇔ SQT = SQE + SQR


Quantil de ordem θ (0 < θ < 1)
 SQR cov 2 (x, y)
 1 x 
se nθ inteiro R2 = = = r2
∗ (nθ) + x(nθ+1) SQT s2x s2y
Qθ = 2
 x([nθ]+1) se nθ não inteiro
Estimação e Inferência
[nθ] designa a parte inteira de nθ
Erro quadrático
 hmédio de
2 Θ, estimador de um parâmetro θ
b
barreira inferior
i
BI = Q1 − 1.5(Q3 − Q1 ) EQM [Θ]
b = E Θ b − θ + V ar[Θ] b
barreira superior BS = Q3 + 1.5(Q3 − Q1 )
Q1 = Q∗0.25 ; Q2 = Q∗0.5 ; Q3 = Q∗0.75 (X1 , X2 , ..., Xn ) amostra aleatória retirada de uma popu-

Pn lação N (µ, σ)
2 Pn 2
Pn 2
i=1 (xi − x) n i=1 xi − ( i=1 xi )
s2x =
Pn
= Xi X −µ
n−1 n(n − 1) X = i=1 e √ _ N (0, 1)
n σ/ n
se x0i = a + bxi então x0 = a + bx, s2x0 = b2 s2x Pn 2
Xi − X (n − 1)S 2
S 2 = i=1 e _ χ2(n−1)
n−1 σ2
X −µ
Dados agrupados em c classes √ _ t(n−1)
S/ n
ni , fi , x0i frequência absoluta, frequência relativa e
ponto médio da classe i, respectivamente X1 _ N (µ1 , σ1 ) e X2 _ N (µ2 , σ2 )
n x0
Pc
e tendo duas amostras aleatórias independentes, uma de
Pc
x ' i=1n i i = i=1 fi x0i
cada população, com dimensões n1 e n2 , respectivamente.
Pc Pc
ni (x0i − x)2 ni x02
i
s2x ' i=1 = i=1 − x2
n n
 q 2 
σ σ2
X1 − X2 _ N µ1 − µ2 , n11 + n22
Seja k a primeira classe tal que Fk ≥ θ
 θ − Fk−1 σ22 S12
_ F(n1 −1,n2 −1)
Q∗θ ' xmin
k + xmax
k − xmin
k σ12 S22
fk

Indicadores para dados bivariados Testes de hipóteses

(x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ) H0 hipótese nula


Pn
(xi − x) (yi − y) H1 hipótese alternativa
cov(x, y) = i=1
Pn n − 1 Pn Pn P(erro de 1a espécie)=P(Rejeitar H0 | H0 verdadeira)= α
n i=1 xi yi − i=1 xi i=1 yi P(erro de 2a espécie)=P(Não rejeitar H0 | H0 falsa) =β
=
n(n − 1)
cov(x, y) regra de decisão:
r = rx,y = se sx 6= 0, sy 6= 0
sx sy
 rejeitar H0 se p-value ≤α
se x0i = a + bxi e yi0 = c + dyi b, d 6= 0
O Teste de Shapiro Wilk
cov(x0 , y 0 ) = bd cov(x, y)
( H0 : X tem distribuição normal
rx,y se bd > 0
rx0 ,y0 = H1: X não tem distribuição normal
−rx,y se bd < 0
Probabilidade de acontecimentos Cov[a + bX, c + dY ] = bd Cov[X, Y ] a, b, c, d ∈ IR
Cov[X, Y ]
P (A − B) = P (A ∩ B) = P (A) − P (A ∩ B) ρ = ρX,Y = σX , σY 6= 0
σX σY
P (A|B) = 1 − P (A|B) se P (B) 6= 0 ρa+bX,c+dY = ρX,Y se bd > 0 a, b, c, d ∈ IR
P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B)
−P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C) Distribuição binomial

X _ B(n, p) ⇔ n − X _ B(n, q) com q = 1 − p


Variáveis aleatórias
Aproximações das distribuições
X v.a. contínua com função densidade fX (x) e
Y = ϕ(X), estritamente monótona e derivável, então X _ H(N, n, k) e N
n > 10 ⇒ X ∼ B (n, p) com p = k
N

dx
fY (y) = fX (x) com x = ϕ−1 (y) X _ B(n, p), n ≥ 20 e p ≤ 0.05 ⇒ X ∼ P (λ) com λ = np
dy X _ B(n, p), np > 5 e nq > 5 ⇒ X ∼ N (µ, σ)

Parâmetros (de funções) de uma v.a. X com µ = np, σ = npq

 X X _ P(λ) e λ > 12 ⇒ X ∼ N (µ, σ) com µ = λ, σ = λ
 ϕ(xi )pi , se X discreta
E[ϕ(X)] = i
 R +∞
ϕ(x)f (x)dx, se X contínua Teorema Limite Central
−∞

σ 2 = V ar[X] = E[(X − µ)2 ] = E[X 2 ] − µ2 (µ = E[X]) Sejam X1 , . . . , Xn , v.a.'s independentes e identicamente


V ar[a + bX] = b2 V ar[X] distribuídas com valor médio µ e variância σ 2 (nita).
n n
Xi e X n = n1 Xi tem-se, c/ n grande
P P
Sn =
Função geradora de momentos i=1 i=1
Sn − nµ Xn − µ
MX (t) = E[etX ] √ ∼ N (0, 1) e √ ∼ N (0, 1)
σ n σ/ n
Ma+bX (t) = eat MX (bt)
Se X e Y v.a.'s independentes MX+Y (t) = MX (t)MY (t) Construção de modelos (distribuições)
n
Se MX (t) está denida numa vizinhança de zero n v.a.'s Zi _ N (0, 1) independentes ⇒ Zi2 _ χ2(n)
P
i=1
d(r) MX (t) Z
= E[X r ], r = 1, 2, ... Z _ N (0, 1) e Y _ χ2(n) independentes ⇒ p _ t(n)
dtr |t=0 Y /n
Par aleatório (X, Y ) discreto com função massa de X/m
X _ χ2(m) e Y _ χ2(n) independentes ⇒ _ F(m,n)
Y /n
probabilidade conjunta P [X = xi , Y = yj ] = pij 1
X _ F(m,n) ) ⇒ _ F(n,m)
marginais X
P P
pi· = j pij p·j = i pij
pij
condicional P [X = xi |Y = yj ] =
p·j Expressões úteis

Par aleatório (X, Y ) contínuo com função densidade Combinações de n elementos k a k , n, k ∈ IN0
conjunta f (x, y)  
n n!
n
R +∞ R +∞ Ck = = k≤n
fX (x) = −∞ f (x, y)dy fY (y) = f (x, y)dx k k!(n − k)!
−∞ R +∞ n −x
f (x, y) 0
x e dx = n!, n ∈ IN0
fX|Y =y (x) = 2 3

fY (y) xn
ex = 1 + x + x2! + x3! + · · · =
P
n!
n=0
Parâmetros de funções de um par aleatório (X, Y ). n a(1 − rn+1 ) ∞ a
k
ark = , se |r| < 1
P P
ar =
 PP k=0 1−r k=0 1−r

 g(xi , yj )pij (X, Y ) discreto
E[g(X, Y )] = i j
Algumas regras de primitivas
(X, Y ) contínuo
RR
 g(x, y)f (x, y)dxdy
Uma primitiva de xe−x é

R2 −e−x (x + 1)
σX,Y = Cov[X, Y ] = E[(X − µX )(Y − µY )] 0
P (f g) = F g − P (F g ) F = Pf
0 α f α+1
= E[XY ] − E[X]E[Y ] (µX = E[X], µY = E[Y ]) P (f f ) = α+1 +C α ∈ IR \ {−1}
 0
V ar[X ± Y ] = V ar[X] + V ar[Y ] ± 2 Cov[X, Y ]
0 f f
P (f e ) = e + C P ff = log|f | + C

Você também pode gostar