Escolar Documentos
Profissional Documentos
Cultura Documentos
P(B|A)P(A)
P(A|B) =
P(B)
Os alicerces da IB são (slide seguinte):
em que: H : Ω → Θ.
π(θ|x) = cf (x|θ)π(θ)
Z
c = f (x|θ)π(θ)dθ
Θ
f (x|θ)π(θ)
π(θ|x) = R
Θ
f (x|θ)π(θ)dθ
Então,
Pn Pn n
Y
xi
fX (x; θ) = θ i=1 (1 − θ)n− i=1 xi
11{0,1} (xi )
i=1
π(θ|x) ∝ f (x|θ)π(θ)
Pn Pn
xi
= θ i=1 (1 − θ)n− i=1 xi α−1
θ (1 − θ)β−1 11(0,1) (θ)
α+ ni=1 xi −1
P Pn
xi −1
= θ (1 − θ)β+n− i=1 (1)
α+ ni=1 Xi
P
Por exemplo, θbEAP = E(θ|X ) = . Suponha que observemos
α+β+n
x1 = x2 = x3 = 0 e α = β = 1. Assim, terı́amos θeMV = 0 e
θeEAP = 1/5. Qual estimador é melhor?
No exemplo vimos que priori(beta(α, β)) → posteriori(beta(α∗ , β ∗ )).
Ou seja, a priori e a posterior pertecem à mesma famı́lia.
Nesse caso, dizemos que o modelo Bernoulli (verossimilhança) é
conjugado ao modelo beta.
Isto ocorre, nesse caso, porque
Pn Pn
xi
L(θ) ∝ θ i=1 (1 − θ)n− i=1 xi
, θ = (θ1 , ..., θk )′ ,
em que Ω = t ∈ Rk+1 , w (t) < ∞ n o
k
t = (t1 , ..., tk+1 )′ e w (t) = exp
R P
j=1 c j (θ)t j + t k+1 d(θ) dθ.
k
1 X
π(θ|t) ≈ π(θ) = exp cj (θ)tj + tk+1 d(θ)
w (t)
j=1
x2 θ2
1 θx
f (x|θ) = √ exp − 2 exp +
2πσ 2 2σ σ2 2/σ 2
= h(x) exp c1 (θ)t1 (x) + d(θ)
2
em que c1 (θ) = σθ2 , t1 (x) = x, d(θ) = − 2σ θ
2.
θ 2 t2
1 θt1
π(θ|t1 , t2 ) = exp −
w (t1 , t2 ) σ2 2σ 2
t2 t2
−t2 t1
= exp − 2 θ2 − 2 + 1 + 12
2σ t2 t2 2σ t2
( 2 )
2
−t t1
∝ exp − 2 θ −
2σ t2
Prof. Caio Azevedo
Introdução à Inferência Bayesiana
Cont.
Assim,
t1 σ 2
θ|t1 , t2 ∼ N ,
t2 t2
Ou seja, nesse caso a famı́lia conjugada é N(η, σ 2 ).
Obs: a) O Teorema anterior também vale sob aa, ou seja, ou seja
Xk n
X
fX (x|θ) = h(x) exp ci (θ) tj (xi ) + nd(θ)
j=1 i=1
Então se,
n
1 X
π(θ|t) = exp cj (θ)tj + tk+1 d(θ)
w (t)
j=1
Pn Pn
t1 + i=1 Xi t1 + i=1 xi
E(θ|X ) = (estimador); E(θ|X ) = (estimativa)
t2 + n t2 + n
A priori de θ é N(η, τ 2 ), em que:
t1 2 σ2 σ2 ησ 2
η= ;τ = ou t2 = 2 ou t1 = 2
t2 t2 τ τ
Dessa forma:
nσ 2
Pn
τ2 + (σ 2 /τ 2 )η
i=1 xi nx
E(θ|X ) = σ2 σ2
= + σ2
+n τ2 τ2 + n τ2+n
= αη + βx, α + β = 1
Prof. Caio Azevedo
Introdução à Inferência Bayesiana
Cont.
Exemplo: Sejam X1 , ..., Xn aa de X |σ 2 ∼ N(θ, σ 2 ), θ conhecido.
Assim:
( n
)
1 1 X
fX (x|σ 2 ) = exp − 2 (xi − θ)2
(2πσ 2 )n/2 2σ
i=1
2
Pn 2
Sejam ψ = σ e s = i=1 (xi − θ) . Assim
s
f (x|ψ) ∝ exp − ψ −n/2
2ψ
Vamos considerar que a priori de ψ é dada por:
s0
π(ψ) ∝ ψ −k/2 exp −
2ψ
em que k e s0 são conhecidos.
Prof. Caio Azevedo
Introdução à Inferência Bayesiana
Cont.
s0 s0 dψ
Então se λ = ψ →ψ= λ. Logo dλ = − λs02 .
Portanto,
s −k/2 s0
0
π(λ) ∝ e −λ/2
λ λ2
∝ λk/2−2 e −λ/2 = λ(k−4)/2 e −λ/2
β α α−1 −βx
Seja agora, X ∼ gama(α, 1/β), fX (x) = Γ(α) x e .
Se α = k/2 e β = 1/2, então
1
fx (x) = x k/2−1 e −x/2 , X ∼ χ2k
2k Γ(k/2)
dλ
π(λ) = fλ (λ) ∝ ψ −(ν/2−1) e −s0 /ψ
dψ
Ou seja
Z ∞
π(ψ) = cψ −(ν/2−1) e −s0 /ψ , c = ψ −(ν/2−1) e −s0 /ψ dψ
0
s+s0
Dessa forma: ψ|X = x ∼ χ2n+ν
Logo,
Pn
s0 + s s0 + i=1 (xi − θ)2
E(ψ|X ) = =
n+ν−2 n+ν−2
s0 n
= + e2
σ
n+ν−2 n+ν−2
1
Pn
e2 =
em que σ n i=1 (xi − θ)2
Exercı́cio: No exemplo anterior, usando o teorema visto, obtenha a
distribuição a priori de σ 2 que seja conjugada com respeito à
N(θ, σ 2 )
L(d, θ) = L(d(x), θ)
(D, Θ) → R+
X
L(d(X ), θ)f (x|θ), se X for discreto
R(d, θ) = EX |θ [L(d, θ)] = ZX
L(d(X ), θ)f (x|θ)dx, se X for contı́nuo
X
n
n−1 2 1 X 2
Sbb = S = Xi − X
n+1 n+1
i=1
n−1 2
d1 (X ) = S (R(θ, d1 )),
n+1
d2 (X ) = S 2 (R(θ, d2 )),
d3 (X ) = b2 (R(θ, d3 ))
σ
Z
r (π, d) = R(d, θ)π(θ)dθ
Θ
Note que
Z
r (π, d) = R(θ, d)π(θ)dθ
ZΘ Z
= L(θ, d(x))f (x|θ)dx π(θ)dθ
Θ X
Z Z
f (x|θ)π(θ)
= L(θ, d(x)) f (x)dx dθ
Θ X f (x)
Z Z
= L(θ, d(X ))π(θ|x)dθ f (x)dx
X
| Θ {z }
RB (π,d)
Z
= RB (π, d)f (x)dx
X
Z
Em geral, RB (π, d) = L(θ, d(x))π(θ|x)dθ = Eθ|x (L(θ, d(x))) é
Θ
chamado de risco integrado ou à posteriori de Bayes.
O estimador Bayesiano (d π ) que minimiza RB (δ, p) é chamado de
estimador de Bayes. Ou seja,
π(θ|x) ∝ f (θ|x)π(θ)
= e −nθ θnx θa−1 e −bθ
Pn
xi +a−1 −(n+b)θ
= θ i=1 e 11(0,∞) (θ)
Pn
Assim, θ|X = x ∼ gama( i=1 xi + a, 1/(n + b)). Logo,
nX a
E(θ|X ) = +
b+n b+n
" P 2 #
n
π i=1 Xi + a
R(θ, d ) = E −θ
b+n
Pn Pn 2
i=1 Xi + a i=1 Xi + a
= V + E −θ
b+n b+n
2
nθ + a2 − 2ab + b 2 − θ2
nθ a − bθ
= 2
+ =
(n + b) b+n (n + b)2
1 2
a + b 2 θ2 + (n − 2ab)θ
= 2
(n + b)
Cont.:
2
b2 θ2
π π 1 a (1 − 2ab)θ
R(θ, d ) = EQMθ (d ) = + +
(n + b)2 /n n n n
2
b2 θ2
1 a (1 − 2ab)θ
= + +
√ 2 n n n
√b + n
n
Z
π
r (π, d ) = R(θ, d π )π(θ)dθ = Eθ (R(θ, d π ))
Θ
1
a2 + b 2 E(θ2 ) + (n − 2ab)E(θ)
=
(b + n)2
a2
1 a a
= a2 + b 2 + + (n − 2ab)
(b + n)2 b2 b2 b
a n a
= 1+ =
(b + n)2 b b(b + n)
d π = G (T (X ))
R(θ, d π ) ≤ r (π, d π ), ∀θ ∈ Θ.
nX + a
dπ =
n+a+b
" 2 #
π nX + a
R(d , θ) = EX |θ −θ
n+a+b
2
nX + a nX + a
= VX |θ + E −θ
n+a+b n+a+b
1 2
Aθ − Bθ + a2
= 2
(n + a + b)
P(θ ∈ C |x) ≥ 1 − α
em que
( P
π(θ|x), se θ for discreto
P(θ ∈ C |x) = R θ∈C
C
π(θ|x)dθ, se θ for contı́nuo
P(H1 |x)
Podemos, assim, rejeitar H0 se P(H0 |x)
≥ c, c ∈ (0, ∞), em que c
deve ser escolhido de forma conveniente.
Em termos dos conceitos de testes de hipóteses frequentistas a RC é
da forma