Escolar Documentos
Profissional Documentos
Cultura Documentos
min 𝑧 = 𝑓(𝑥)
s. a. : 𝑥 ∈ ℝ𝑛
2
PROBLEMAS IRRESTRITOS EM VÁRIAS VARIÁVEIS
3
CONDIÇÕES DE OTIMALIDADE
4
CONDIÇÕES DE OTIMALIDADE
𝜕2 𝑓 𝜕2 𝑓
2 ⋯ 𝜕𝑥1 𝜕𝑥𝑛
𝜕𝑥1
𝛻2𝑓 = ⋮ ⋱ ⋮
𝜕2 𝑓 𝜕𝑓
𝜕𝑥𝑛 𝜕𝑥1
⋯ 2
𝜕𝑥𝑛
5
CONDIÇÕES DE OTIMALIDADE
𝑝
𝑥 𝑝 = σ𝑛𝑖=1 𝑥𝑖 𝑝 , 1≤𝑝<∞
𝑥 ∞ = max 𝑥𝑖
𝑖=1,…,𝑛
6
CONDIÇÕES DE OTIMALIDADE
𝑓 𝑥 ∗ + 𝑑 − 𝑓 𝑥 ∗ ≈ 𝛻𝑓(𝑥 ∗ )𝑇 𝑑 (2)
7
CONDIÇÕES DE OTIMALIDADE
Assuma agora que 𝛻𝑓 𝑥 ∗ ≠ 0. Então ao menos uma das derivadas parciais é não nula.
𝜕𝑓(𝑥 ∗ )
Basta então escolher 𝑑 apropriadamente, tal que 𝑑𝑗 < 0. Ou seja:
𝜕𝑥𝑗
𝜕𝑓(𝑥 ∗ )
▪ se > 0, toma-se 𝑑𝑗 < 0.
𝜕𝑥𝑗
𝜕𝑓(𝑥 ∗ )
▪ se < 0, toma-se 𝑑𝑗 > 0.
𝜕𝑥𝑗
Vê-se que a escolha de 𝑑 conforme indicado acima faz com que 𝛻𝑓 𝑥 ∗ 𝑑 ≤ 0. De volta à
expressão (1), este resultado implicaria em:
Note que a desigualdade (3) contradiz a hipótese inicial de que 𝑥 ∗ é um mínimo local.
8
CONDIÇÕES DE OTIMALIDADE
9
CONDIÇÕES DE OTIMALIDADE
(a) (b)
10
CONDIÇÕES DE OTIMALIDADE
Note que o paraboloide ilustrado na Figura 1 tem um único ótimo local que, portanto, é
seu ótimo global. Se as funções a serem minimizadas (maximizadas) forem convexas
(côncavas), seu único mínimo (máximo) local será também seu mínimo (máximo) global.
11
CONDIÇÕES DE OTIMALIDADE
(a) (b)
12
CONDIÇÕES DE OTIMALIDADE
15
CONDIÇÕES DE OTIMALIDADE
(a) (b)
Figura 4 – Gráfico de 𝑓 𝑥, 𝑦 = 𝑥. 𝑦.
16
CONDIÇÕES DE OTIMALIDADE
17
CONDIÇÕES DE OTIMALIDADE
18
CONDIÇÕES DE OTIMALIDADE
Definição 4 (ponto de sela) Um ponto estacionário, que não é mínimo ou máximo local, é
denominado ponto de sela ou ponto minimax.
Ao longo de uma dada direção, um ponto de sela define um mínimo, enquanto em uma
direção ortogonal, define um máximo. No caso de 𝑓 𝑥, 𝑦 = 𝑥. 𝑦, ilustrada na Figura 4, o
ponto (0,0)𝑇 é um mínimo ao longo da direção 𝑦 = 𝑥 (ou seja, da reta que divide o 1º e o
3º quadrantes), e um máximo ao longo da direção 𝑦 = −𝑥 (reta que divide o 2º e 4º
quadrantes). Contudo,(0,0)𝑇 não é máximo ou mínimo em ℝ2 .
Por fim, um ponto de sela estrito no plano corresponde à interseção de duas curvas de
nível de mesmo valor. Estas curvas definem os pontos onde a superfície muda de
comportamento, isto é, onde a concavidade da função que estava para cima fica para
baixo, e vice-versa. Volte à Figura 6 para verificar que, ao percorrer o plano 𝑥𝑦 no
xxxxxx 19
CONDIÇÕES DE OTIMALIDADE
Também é possível que um ponto de sela não seja estrito. Neste caso, haverá uma
vizinhança em seu entorno na qual a 𝑓 tem valor constante, caracterizando então um
“platô”.
Por fim, uma vez que a condição imposta no Teorema 1 é necessária, mas não
suficiente, é possível que ela seja atendida por um ponto de inflexão ou de sela. Para
que um ponto estacionário possa ser caracterizado como mínimo ou máximo local, a
concavidade da superfície no entorno desse ponto deve ser analisada. O Teorema 2
expressa uma condição suficiente para otimalidade local de um ponto 𝑥 ∗ ∈ ℝ𝑛 . Antes de
apresentá-lo, serão feitas algumas definições adicionais para facilitar a compreensão.
20
CONDIÇÕES DE OTIMALIDADE
Definição 5 (Matriz positiva definida) Uma matriz real simétrica 𝐴𝑛×𝑛 é dita positiva
definida se 𝑥 𝑇 𝐴𝑥 > 0 para todo 𝑥 ∈ ℝ𝑛 .
Definição 6 (Matriz positiva semidefinida) Uma matriz real simétrica 𝐴𝑛×𝑛 é dita positiva
definida se 𝑥 𝑇 𝐴𝑥 ≥ 0 para todo 𝑥 ∈ ℝ𝑛 .
Definição 7 (Matriz indefinida) Uma matriz real simétrica 𝐴𝑛×𝑛 é dita indefinida se 𝑥 𝑇 𝐴𝑥 >
0 e 𝑦 𝑇 𝐴𝑦 < 0 para algum 𝑥 ∈ ℝ𝑛 e algum 𝑦 ∈ ℝ𝑛 , tal que 𝑥 ≠ 𝑦.
21
CONDIÇÕES DE OTIMALIDADE
(i) 𝛻𝑓 𝑥 ∗ = 𝟎; e
22
CONDIÇÕES DE OTIMALIDADE
𝑓 𝑥 ∗ + 𝑑 − 𝑓 𝑥 ∗ = 𝑑𝑇 𝛻 2 𝑓 𝑥 ∗ + 𝑡𝑑 𝑑 (3)
De forma análoga, pode-se provar que um ponto estacionário será máximo local se 𝛻 2 𝑓
for negativa definida. Ou seja, se 𝑑𝑇 𝛻 2 𝑓 𝑥 ∗ + 𝑡𝑑 𝑑 < 0.
𝑓 𝑥1 , 𝑥2 , 𝑥3 = 𝑥1 + 2𝑥3 + 𝑥2 𝑥3 − 𝑥1 2 − 𝑥2 2 − 𝑥3 2 .
Resolução:
𝜕𝑓 𝜕𝑓 𝜕𝑓
= 1 − 2𝑥1 , = 𝑥3 − 2𝑥2 e = 2 + 𝑥2 − 2𝑥3 .
𝜕𝑥1 𝜕𝑥2 𝜕𝑥3
24
CONDIÇÕES DE OTIMALIDADE
−2𝑥1 = −1
൞ −2𝑥2 + 𝑥3 = 0
𝑥2 − 2𝑥3 = −2
𝑇
cuja solução é 𝑥 ∗ = 1 2 4
, ,
2 3 3
. Agora é preciso verificar se esse é um ponto extremo. Para
isso, primeiro calcule a hessiana de 𝑓 em 𝑥 ∗ :
26
CONDIÇÕES DE OTIMALIDADE
De volta ao Exemplo 1, pode-se afirmar que 𝛻 2 𝑓 𝑥 ∗ não é positiva definida, pois seu
primeiro menor principal líder é igual a −2 (note que ∆1 corresponde ao elemento do
canto superior esquerdo da matriz).
∆1 = det(2) = 2,
27
CONDIÇÕES DE OTIMALIDADE
2 0
∆2 = det = 4,
0 2
2 0 0
∆3 = det 0 2 −1 = 6.
0 −1 2
28
CONDIÇÕES DE OTIMALIDADE
29
CONDIÇÕES DE OTIMALIDADE
−2 0 0
−2 0
∆1 = det −2 = −2, ∆2 = det = 4 e ∆3 = det 0 −2 1 = −6.
0 −2
0 1 −2
30
CONDIÇÕES DE OTIMALIDADE
Note que os sinais dos menores principais atendem à condição do Corolário-2, uma vez
que o primeiro e terceiro menores são negativos, e o segundo menor é positivo.
Portanto, está demonstrado que 𝛻 2 𝑓 𝑥 ∗ é negativa definida e que, portanto, 𝑥 ∗ é um
máximo local de 𝑓. ■
Em geral, se 𝛻 2 𝑓 𝑥 ∗ é indefinida, então 𝑥 ∗ deve ser um ponto de sela. Nos casos não
conclusivos, a condição de suficiência expressa no Teorema-2 requer a consideração de
termos de ordem superior na expansão da série de Taylor.
31
O MÉTODO DE DESCIDA
O método de descida, proposto por Cauchy em 1847 e por vezes chamado método do
gradiente. É um procedimento iterativo para resolver de forma aproximada problemas de
otimização de funções diferenciáveis em várias variáveis reais.
Dada uma função real 𝑓 definida em ℝ𝑛 e um ponto inicial 𝑥0 em seu domínio, o método
produz um novo ponto 𝑥1 , tal que 𝑓 𝑥1 < 𝑓 𝑥0 . Essa nova solução pode ser expressa
em termos da solução inicial como 𝑥1 = 𝑥0 + 𝛼0 𝑑0 , onde 𝑑0 é uma direção em ℝ𝑛 e 𝛼0 é
um escalar não negativo. Caso 𝛻𝑓 𝑥1 = 0, então, um ponto estacionário terá sido
encontrado. Do contrário, uma nova iteração é realizada. Estes passos são repetidos até
que, em uma dada iteração 𝑘, obtenha-se um ponto 𝑥𝑘 = 𝑥𝑘−1 + 𝛼𝑘−1 𝑑𝑘−1 para o qual
𝛻𝑓 𝑥𝑘 = 0.
32
O MÉTODO DE DESCIDA
Para que 𝑓 decresça o mais rápido o possível, a direção de descida em cada iteração
deve ser −𝛻𝑓/ 𝛻𝑓 . Isto é, a direção de descida na iteração 𝑘 é dada por:
𝛻𝑓(𝑥𝑘 )
𝑑𝑘 = −
𝛻𝑓(𝑥𝑘 )
33
O MÉTODO DE DESCIDA
34
O MÉTODO DE DESCIDA
PASSO 1 (Inicialização)
𝑘 ← 0;
Defina uma solução inicial 𝑥0 ;
35
O MÉTODO DE DESCIDA
No exemplo que segue, busca-se a maximizar uma função em duas variáveis com o
método que você acabou de aprender. Há duas possibilidades, portanto. Convertê-lo em
um problema de minimização pela troca de sinal da 𝑓 e assim aplicar o Método de
Descida, ou tomar a direção de crescimento de 𝑓 em cada iteração. Por isso, em um
problema de maximização o método é dito de subida.
Exemplo 3 – Resolva o problema abaixo pelo Método de Descida tomando como ponto
inicial 𝑥1 , 𝑥2 = 1,1 , e uma precisão 𝜀 = 0.1.
2 2
max 𝑓 𝑥1 , 𝑥2 = 4𝑥1 + 6𝑥2 − 2𝑥1 − 2𝑥1 𝑥2 − 2𝑥2
𝜕𝑓(𝑥) 𝜕𝑓 𝑥
= 4 − 4𝑥1 − 2𝑥2 , = 6 − 2𝑥1 − 4𝑥2 ,
𝜕𝑥1 𝜕𝑥1
36
O MÉTODO DE DESCIDA
Logo:
Iteração-1:
𝑓 𝑥 1 = 𝑓 1 − 2𝛼0 , 1 = 𝑔 𝛼0 = −2 1 − 2𝛼0 2
+ 2(1 − 2𝛼0 ) + 4
𝑑𝑔 𝛼0
= 0 ⇔ 8 1 − 2𝛼0 − 4 = 0 ⇔ 𝛼0 = 1/4
𝑑𝛼0
⇒ 𝑥 1 = 1/2,1 ⇒ 𝑓 𝑥 1 = 9ൗ2
37
O MÉTODO DE DESCIDA
Iteração-2:
3
𝑓 𝑥 2 = 𝑓 1ൗ2 , 1 + 𝛼1 = 𝑔 𝛼1 = −2 1 + 𝛼1 2
+ 5(1 + 𝛼1 ) +
2
𝑑𝑔(𝛼1 )
= 0 ⇔ −4(1 + 𝛼1 ) + 5 = 0 ⇔ 𝛼1 = 1/4
𝑑𝛼1
38
O MÉTODO DE DESCIDA
Iteração-3:
1 − 𝛼2 5
𝑥 3 = 𝑥 2 + 𝛼2 𝑑 2 = 1ൗ2 , 5ൗ4 + 𝛼2 − 1ൗ2 , 0 = , ൗ4
2
1 − 𝛼2 5 1 3 35
𝑓 𝑥3 = 𝑓 , ൗ4 = 𝑔 𝛼2 = − 1 − 𝛼2 2
+ (1 − 𝛼2 ) +
2 2 4 8
𝑑𝑔(𝛼2 ) 3
= 0 ⇔ 1 − 𝛼2 − = 0 ⇔ 𝛼2 = 1/4
𝑑𝛼2 4
149
⇒ 𝑥 3 = 3ൗ8 , 5ൗ4 ⇒ 𝑓 𝑥 3 = ≈ 4,65625
32
39
O MÉTODO DE DESCIDA
Iteração-4:
5 + 𝛼3
𝑥 4 = 𝑥 3 + 𝛼3 𝑑3 = 3ൗ8 , 5ൗ4 + 𝛼3 0, 1ൗ4 = 3ൗ8 ,
4
5 + 𝛼3 1 21 39
𝑓 𝑥 4 = 𝑓 3ൗ8 , = 𝑔 𝛼3 = − 5 + 𝛼3 2
+ (5 + 𝛼3 ) +
4 8 16 32
𝑑𝑔(𝛼3 ) 1 21
= 0 ⇔ − (5 + 𝛼3 ) + = 0 ⇔ 𝛼 = 1/4
𝑑𝛼3 4 16
597
⇒ 𝑥 = 3/8, 21Τ16 ⇒ 𝑓 𝑥 4 =
4
≈ 4,66406
128
40
O MÉTODO DE DESCIDA
Iteração-5:
3 − 𝛼4 21
𝑥 5 = 𝑥 4 + 𝛼4 𝑑 4 = 3ൗ8 , 21ൗ16 + 𝛼4 − 1ൗ8 , 0 = ,
8 16
3 − 𝛼4 21 1 11 567
𝑓 𝑥5 = 𝑓 , = 𝑔 𝛼4 = − 3 − 𝛼4 2
+ (3 − 𝛼4 ) +
8 16 32 64 128
𝑑𝑔(𝛼4 ) 1 11
=0⇔ 3−𝛼 − = 0 ⇔ 𝛼 = 1/4
𝑑𝛼4 16 64
2.389
⇒ 𝑥 5 = 11ൗ32 , 21ൗ16 ⇒ 𝑓 𝑥 5 = ≈ 4,66602
512
41
O MÉTODO DE DESCIDA
Iteração-6:
42
O MÉTODO DE DESCIDA
Exemplo 4 – Resolva o problema abaixo pelo Método de Descida tomando como ponto
inicial 𝑥1 , 𝑥2 = 0,3 , e uma precisão 𝜀 = 0.1.
Observe que a solução exata deste problema leva ao mínimo local 𝑥 ∗ = 2,1 .
43
O MÉTODO DE DESCIDA
44
O MÉTODO DE NEWTON
O método de Newton para solução de problemas em ℝ𝑛 pode ser visto como uma
extensão natural do procedimento apresentado na aula 7 para a resolução de problemas
em uma variável. Ou seja, em cada iteração 𝑘 do método, constrói-se uma aproximação
quadrática da função objetivo 𝑓(𝐱), tal que 𝐱 ∈ ℝ𝑛 . Mais precisamente, 𝑓 é aproximada
pela série de Taylor em torno da solução de teste atual, 𝐱 𝑘 , até o termo de segunda
ordem. Obtém-se assim uma função convexa (côncava), cujo ponto de mínimo é:
𝐱 𝑘+1 = 𝐱 𝑘 − 𝛻 2 𝑓 𝐱 𝑘 −1
𝛻𝑓 𝐱 𝑘 .
A solução 𝐱 𝑘+1 , que minimiza a função quadrática, é então usada como nova solução de
teste e mais uma iteração é realizada. O método para quando 𝐱 𝑘+1 − 𝐱 𝑘 < 𝜀. Ou seja,
quando a norma da diferença entre as soluções de duas iterações sucessivas for menor
que o erro 𝜀 > 0.
45
O MÉTODO DE NEWTON
46
BIBLIOGRAFIA
◼ Press W.H., Teukolsky S.A., Vetterling W.T., Flannery B.P. Numerical recipes in C:
the art of scientific computing. Cambridge University Press, 1997.
47