Escolar Documentos
Profissional Documentos
Cultura Documentos
I O que é gradiente?
A cada ponto (x, y , z), o gradiente mostra em qual direção a função muda
mais depressa.
Gradient Descent (para o mínimo)
onde:
I X é o vetor de variáveis a serem otimizadas;
I α(k ) é o passo de procura (pode ser constante α = α(k ) )
I k é o contador
I Algoritmo:
1. Dê valores iniciais X (0) e escolha α(k ) . Faça k = 0
2. Obtenha X (k +1) = X (k ) − α(k ) ∇S(X (k ) )
3. Retorne a (2) até que |X (k −1) − X (k ) | <
1 T 2
S(x + h) = S(x) + ∇S(x)T h + h D S(x)h + o(h3 )
2
onde:
I ∇S(x) é o gradiente
I D 2 S(x) é matriz hessiana (matriz de derivadas de 2a ordem)
I Mantendo apenas os dois primeiros termos da série temos:
x (k +1) = x (k ) + α(k ) d (k )
onde d (k ) = −[D 2 S(x (k ) )]−1 ∇S(x (k ) )
I No caso α(k ) = 1, e x escalar, temos:
f 0 (x (k ) )
x (k +1) = x (k ) −
f 00 (x (k ) )
I As iterações são feitas até f 0 (x (k ) ) ou |x (k +1) − x (k ) | for muito pequeno.
Exemplo
Daí, temos
n
d`(β1 , β2 ) X
u1 (β1 , β2 ) = = [yi − exp(β1 + β2 xi )]
dβ1
i=1
n
d`(β1 , β2 ) X
u2 (β1 , β2 ) = = [(yi − exp(β1 + β2 xi ))xi ].
dβ2
i=1
d`(β1 ,β2 )
Qual a solução dos sistemas dβi
= 0, i = 1, 2? Ou seja, quais os
estimadores βb1 e βb2 ?
Podemos calcular a matriz de segundas derivadas:
n
X exp(β1 + β2 xi ) exp(β1 + β2 xi )xi
H(β) = − 2 .
exp(β1 + β2 xi )xi exp(β1 + β2 xi )xi
i=1
Exemplo 8.r
Algoritmo Esperança-Maximização (EM)
I Dados completos:
I Dados incompletos:
Z
L(β, τ |y1 , (x2 , y2 ), . . . , (xn , yn )) = f ((x1 , y1 ), (x2 , y2 ), . . . , (xn , yn )|β, τ )dx1 .
Exemplo: modelo de mistura
Suponha que a variável aleatória X tem distribuição dada por uma mistura tal
que
fX (x|θ) = θf1 (x) + (1 − θ)f2 (x),
em que f1 e f2 são funções de densidade de probabilidades conhecidas.
Precisamos calcular
E(`c (β, τ |x, y )|β0 , τ0 ),
na distribuição de X1 |τ0 , β0 , isto é, em (X1 |τ0 , β0 ) ∼ Poi(τ01 ).
Passo E: Calculamos o valor esperado
Pn
i=1 yi
β̂(m+1) = Pn
x
i=2 i + τ1(m)
xi + yi
τ̂i(m+1) = , i = 2, . . . , n
β̂(m+1) + 1
τ1(m) + y1
τ̂1(m+1) = .
β̂(m+1) + 1
Exemplo 36c.r
Exemplo: Modelo de ligação genética (Rao, 1973)
x1 + x2 = y1 = 125
x3 = y2 = 18
x4 = y3 = 20
x5 = y4 = 34
I A posteriori aumentada tem uma forma funcional bem mais simples:
θ0 /4 θ0
p= =
1/2 + θ0 /4 2 + θ0
θ0
então E(x2 |θ0 , y ) = y1 ( 2+θ ).
0
Logo,
125θ0
Q(θ|θ0 ) = + 34 log(θ) + 35log(1 − θ)
θ0 + 2
Passo M:
∂Q(θ|θ0 )
|θ=θ̂ = 0
∂θ
Logo,
Algoritmo:
1. Inicialize θ(0)
2. Passo E: Substitua θ(i) em Q(θ|θ(i) )
3. Passo M: Maximize Q(θ|θ(i) ) com respeito a θ, e obtenha θ(i+1)
E(x2 |θ(i) , y ) + x5
θ(i+1) =
E(x2 |θ(i) , y ) + x3 + x4 + x5
Exemplo 2: Regressão com dados censurados
O modelo sugerido é:
ti = β 0 + β 1 v i + i , i ∼ N(0, σ 2 )
onde ti = log10 (tempo), e vi = 1000/(temperatura + 273, 2)
Algoritmo EM
m
Y 1 1
L(θ|v , t, c, z) = √ exp − 2 (ti − β0 − β1 vi )2
2πσ 2σ
i=1
N
Y 1 1 2
× √ exp − 2 (zi − β0 − β1 vi )
2πσ 2σ
i=m+1
m N
X (ti − β0 − β1 vi )2 X h
+ E(zi2 |β0 , β1 , σ0 , zi > ci )
σ4
i=1 i=m+1
N
−2(β0 + β1 vi )E(zi |β0 , β1 , σ0 , zi > ci ) + (β0 + β1 vi )2 /σ 4 − 2 = 0
σ
1/2
(i) (i) (i)
" ! !#
Xm
(tj − µj )2 2
N
X c j − µj cj − µj
σi+1 = + σi 1+ H /N
N σi σi
j=1 j=m+1
Algoritmo:
(i−1) (i−1)
3. Estime E(zj |β0 , β1 , σ (i) , zj > cj ), j = m + 1, · · · , N
(i) (i)
4. Estime β0 e β1 substituindo E(zj |·), j = m + 1, · · · , N
5. Volte ao passo 2.
I Dada uma temperatura T > 0, definimos uma nova função objetivo dada
por
f (x)
g(x) ∝ exp .
T
I O valor que maximiza g(x) também maximiza f (x).
g(x ? )
α = mín 1, .
g(x (i−1) )
I A função g é utilizada com o objetivo de diminuir vales e picos, tornando
possível passar de uma moda local para uma outra moda. Esta função
depende de T , que diz quanto a função deve ser suavizada.
Figura: Exemplo da função g(x) para diferentes temperaturas.
I Definição de T ;
I Escolha de ∆; e
0.15
0.10
f(x)
0.05
0.00
6 8 10 12 14 16 18 20 22
x
Exemplo 34.r
Exemplo: senos e cosenos
3
f(x)
2
1
0
Exemplo 35.r
Exemplo: duas dimensões
Exemplo 36.r
Note que para ∆ = 0, 001 os resultados obtidos são muito ruins, para
∆ = 0, 02 são bastante bons e para ∆ = 1 são excelentes.