Escolar Documentos
Profissional Documentos
Cultura Documentos
Considere x [ x1 , x2 , x3 ,..., x n ] .
Dada uma função vetorial f : R n R m com m n , queremos minimizar f ( x) , ou
equivalente, para encontrar x mínimo local para F ( x ) ,
*
onde
1 m 1 1
2
F ( x) ( f i ( x))2 f ( x) f ( x)T f ( x) .
2 i 1 2 2
2
F ( x h) F ( x) F ´( x)h O ( h )
F ( x) F´( x)h , para valores pequenos de h .
F ´( x h) F ´( x) F ´´( x)h .
Hhn F´( x)
2 f 2 f 2 f
( x) ( x) ( x)
x 1
2
x1x2 x1xn
2 f 2 f 2 f
( x) ( x ) ( x )
onde H F ´´( x ) H ( x) x2 x1 x22 x2 xn é conhecida como
2 f 2 f 2 f
( x) ( x) ( x)
xn x1 xn x2 xn 2
a matriz Hessiana.
Calculado a direção do passo hn a próxima iteração do método de Newton é
dada por:
x x hn .
f ( x h) l ( h ) f ( x ) J ( x ) h ,
f1 f1 f1
x
x2 xn
1
f2 f2 f2
( J ( x)) x1 x2 xn
fm fm
fm
x x2 xn m x n
1
1
Substituindo-se f ( x h) l ( h ) f ( x ) J ( x ) h em F ( x) f ( x)T f ( x)
2
obtemos:
1
F ( x h) L(h) l (h)T l (h)
2
1 1
f T f hT J T f hT J T Jh
2 2
1
F ( x) hT J T f hT J T Jh
2
onde f f ( x) e J J ( x) .
L´(h) J T f J T Jh e L´´(h) J T J .
Portanto, a direção do passo calculada por meio do método de Gauss-Newton é
dada pela seguinte equação:
( J T J )hgn J T f .
x x hgn .
( J T J I )hlm g , onde g J T f e 0 .
1 1
hlm g F´( x) , que é um pequeno passo na direção máxima de
descida (ver apêndice B).
3. Se é muito pequeno temos que hlm hgn , o que é bom nos estágios finais da
iteração quando x está próximo de x* , pois, quando isso ocorre, o método de
Levenberg-Marquardt consegue convergência quadrática.
0 max i {aii(0) } ,
F ( x) F ( x hlm )
,
L(0) L(hlm )
1 T T
L(0) L(hlm ) hlm
T T
J f hlm J Jhlm
2
1
hlmT (2 g ( J T J I I )hlm )
2
1
hlmT ( hlm g ) .
2
Pode-se garantir que como hlmT hlm e hlmT g são positivos, então L(0) L(hlm )
também é positivo.
Se o valor de for grande, isso indica que L(hlm ) é uma boa aproximação para
F ( x hlm ) e pode-se diminuir o valor de de modo que o próximo passo do
Levenberg-Marquardt esteja próximo do passo de Gauss-Newton. Se for pequeno
isso significa que L(hlm ) é uma aproximação ruim e precisamos aumentar para
buscar a direção máxima de descida e reduzir o tamanho do passo.
se 0 ,
2.
caso contrário,
e 2 .
onde é inicializado com valor igual a 2.
Os critérios de convergência ou critérios de parada mais usuais são:
Método de Levenberg-Marquardt
k 0; 2; x x0 ;
A J ( x) J ( x); g J ( x)T f ( x);
T
found ( g ) 1 ; .max{aii };
while (not found) and (k < kmax)
{
k=k+1; Solve ( A I )hlm g ;
if hlm 2 ( x 2 )
found = true
else
{
xnew x hlm
( F ( x) F ( xnew )) ( L(0) L(hlm ))
if 0
{
x = xnew
A J ( x)T J ( x); g J ( x)T f ( x);
found ( g ) 1 ;
max{ 13 ,1 (2 1)3}; 2;
}
else
; 2 ;
}
}
Os cálculos da matriz Jacobiana, necessária para se encontrar uma aproximação
da matriz Hessiana, e do gradiente foram feitos pelo método de diferenças finitas, que
pode ser descrito da seguinte forma:
f i f i ( x hei ) fi ( x)
,
xj h
1 0
0 1
onde h é o tamanho do passo e, e1 , e2 , sucessivamente.
0 0
0 n x 1 0 n x 1
n
M
max i mij , isto é, escolhe-se a linha que possui a maior soma dos
j 1
onde
pf – ponteiro para uma função f.
pfj – ponteiro para a função que fornece a jacobiana. Se pfj = NULL, então a jacobiana é
calculada usando diferenças finitas.
tam_x – dimensão de x.
t – usa-se t = 10^(-6) se x0 é uma boa aproximação para x*, caso contrário usa-se t =
10^(-3) ou t = 1.
Apêndices
F ( x h) F ( x) hT F ´( x) O( h )
2
F ( x) F ( x h) 1 T
lim h F´( x) F´( x) cos .
0 h h
C. Métodos de descida
k 0; x x0 ;
while (not found) and (K < Kmax)
{
hd search _ direction( x)
if (hd não existe )
found = true
else
{
step _ length( x, hd )
x x hd ; k k 1;
}
}
Referências Bibliográficas
[1] ZHANG, Zhengyou. A Flexible New Technique for Camera Calibration [online].
MicrosoftResearch, December 2, 1998. Last updated on Aug. 10, 2002. Available from
World Wide Web: <http://research.microsoft.com/~zhang/calib/>.
[2] K. Madsen, H.B. Nielsen, O. Tingleff. Methods for non-linear least squares
problems [online]. Technical University of Denmark, April 2004, 2nd Edition. Available
from World Wide Web: <http://www2.imm.dtu.dk>.
[4] Sérgio Luciano Ávila, Charles Borges de Lima e Walter Pereira Carpes Junior.
Otimização Conceitos Básicos, Ferramentas e Aplicações. GRUCAD Departamento
de Engenharia Elétrica – UFSC. Available from World Wide Web:
<http://www.grucad.ufsc.br/avila/>.
[6] Iaci Malta, Sinésio Pesco, Hélio Lopes. Cálculo a uma variável: Derivada e Integral
volume 2. Primeira Edição. Editora PUC-rio. ISBN 85-15-02442-4.
[7] Humberto José Bortolossi. Cálculo diferencial a várias variáveis: uma introdução à
teoria de otimização. Primeira Edição. Editora PUC-rio. ISBN 85-15-02442-X.
[9] Hugo Iver V. Gonçalves, Rodrigo C.M. Coimbra, Marcelo Ladeira e Hércules
Antônio do Prado. Ferramenta de Regressão Não-linear Múltipla com Redes Neurais
Artificiais [online]. Available from World Wide Web: < http://www.sbc.org.br/>.
[10] Marcos Craizer, Geovan Tavares. Cálculo Integral a Várias Variáveis. Primeira
Edição. Editora PUC-rio. ISBN 85-15-02441-1.