Escolar Documentos
Profissional Documentos
Cultura Documentos
K. Bousson
Outubro de 2023
A maioria dos problemas em engenharia, principalmente em controlo, em
estimação de estados e em design, podem ser colocados sob a forma de
problemas de otimização. No que se segue, começaremos por definir o que
é um problema de otimização, e a seguir apresentaremos os métodos de
otimização baseados no conceito de gradiente que lidam essencialmente
com as funções deriváveis.
n
No presente capítulo, assumimos o espaço ( n 1, n finito) equipado
com uma norma . .
1. Definições
x D, f ( x* ) f ( x) (2)
1
Embora uma função possa ter vários minimizadores globais, tem apenas
um mínimo global, isto é, se houver vários minimizadores globais
x1* , x 2* , ..., x *p , então: f ( x1* ) f ( x 2* ) ... f ( x *p ).
2
Consideremos no que segue apenas funções diferenciáveis (que são de
facto também funções contínuas). Portanto, as funções que serão
consideradas a seguir satisfaçam o teorema de Weierstrass.
n
Nas seguintes seções, assumiremos que D , isto é, lidaremos com a
otimização sem restrição.
2. Método do gradiente
3
escolhido arbitrariamente), e que definem o vector x k 1 a partir de x k pela
fórmula:
xk 1 xk k dk (5)
4
1. Pode escolher-se k igual ao valor de 0 que minimize a função
definida para qualquer por:
( ) f xk dk (6)
f xk dk f ( xk ) (7)
5
para a solução pode ser demasiado lenta. Por isso, para eliminar passos
inaceitavelmente pequenos, Wolfe introduziu uma segunda condição,
chamada de condição de curvatura que é:
d kT f ( xk dk ) T
2 k d f ( xk ) (com 0 1 2 1)
f ( xk dk ) f ( xk ) 1 d kT f ( xk )
d kT f ( xk dk ) T
2 k d f ( xk )
f ( xk dk ) f ( xk ) 1 d kT f ( xk )
d kT f ( xk dk ) 2 d kT f ( xk )
com 0 1 2 1.
6
Portanto, o algoritmo de cálculo do passo de busca com as condições fortes
de Wolfe é o seguinte:
7
1. Escolher um ponto (vector) inicial x0 , e 0 ;
2. Calcular d 0 f ( x 0 ), e iniciar k 0 ;
3. Repetir até d k :
3.1. xk 1 xk k d k ; com k calculado pelo método de Armijo.
T
f ( xk 1 ) f ( xk ) f ( xk 1 )
3.2. k 2
;
f ( xk )
3.3. d k 1 f ( xk 1 ) k dk ;
3.4. k k 1 .
4. Retornar o valor f min f ( x k ) como valor mínimo da função f, e vector
x min x k como minimizador correspondente.
8
for utilizável), enquanto uma das limitações é que a convergência é local
(além do método não ser utilizável quando a matriz Hessiana não for
positivamente definida). O método BFGS (Broyden-Fletcher-Goldfarb-
Shanno) apresentado na secção abaixo garante a definição positiva de uma
aproximação da matriz Hessiana sem que seja necessário calcular
individualmente as derivadas parciais que compõem esta matriz.
9
Teorema de Taylor. Suponha que f possua derivadas parciais contínuas em
n n
e seja v . Então tem-se:
f ( x v) f ( x) ( f ( x v ))T v, 0 1.
1 T
f ( x v) f ( x ) ( f ( x ))T v v ( 2
f (x v ))T v, 0 1
2
10
Quando a função f é convexa tem apenas um minimizador local que é
portanto um minimizador global também. Uma vez que a matriz Hessiana
de uma função convexa e diferenciável é sempre positivamente definida,
tem-se o seguinte teorema:
11