Você está na página 1de 80

Otimização sem restrições:


Suponha que a função
f  x  :  n
  de classe C k  2 tenha um extremo, máximo ou mínimo
 *
ou ponto de sela, em x  x . Vamos transformar o problema de n dimensões em um problema
 *   
de uma dimensão através da parametrização: x  x  th onde t   e  0 . Nesse caso a
h

 
 
g  t   f x *  th

função de uma variável tem extremo em t  0 para  h . A condição de

primeira ordem para ser ponto de máximo, mínimo ou sela é que


g   0   0 . Derivando g  t 
obtemos:

d
dt
g t 
f d *
x1 dt

x1  th1 
f d *
x2 dt
x2  th2    
f d *
xn dt

xn  thn  
d f f f
g  t   h1  h2    hn
dt x1 x2 xn

Logo, para ser um ponto extremo é preciso que:

f f f
h1  h2    hn 0
x1 x2 xn

Agora, essa igualdade deve ser verdadeira para qualquer h. Escolhendo
f f

h   0 0  0 hi 0  0
 hj
x j
 hi
xi
0 
xi

f x*  0 
então j implica que

xi

f x*  0  
. Fazendo i  1, 2, , n percebe-se que para  i . Em termos vetoriais isso pode
ser escrito da forma:

 
 
f x *  0
.

Condições de Segunda Ordem:

Se o ponto extremo for de máximo então   , e se for de mínimo então   . Em


g  0  0 g  0  0
outras palavras a condição de segunda ordem é dada pelo sinal da segunda derivada:
sign  g   0    1 sign  g   0    1
é ponto de máximo, e é ponto de mínimo. Calculando
a segunda derivada temos:

d2 d f d f 2 f
g  
t   i
h   i
h   i j
h h
dt 2 dt i xi i dt xi i j x j xi

Ou seja:

d2 2 f
g  t     hi hj
dt 2 i j x j xi

2 f
H ij 
x j xi
A matriz Hessiana é definida como: . Trata-se de uma matriz simétrica pois

2 f 2 f
H ij    H ji
x j xi xi x j
. Podemos escrever essa derivada na forma de uma

d2  
2
g  t   hH h
multiplicação de matrizes como dt . Algumas pessoas usam a notação
H   2 f , mas não gostamos dessa notação na física porque é mesma do Laplaciano
2
 2     
i xi2 que é um operador escalar e não tensorial como o Hessiano.

 H11 H12  H1n  h1 


H H 22  H 2n  
  hi H ij h j   h1 h2  hn   21  h2 
i j        
  
 H n1 H n 2  H nn  hn 

d2  
2
g  t   hH h  0
Nesse caso a condição para o ponto extremo ser de máximo é que dt , o que
significa que a matriz Hessiana deve ser definida negativa. Já para ser de mínimo a condição é

d2  
2
g  t   hH h  0
que dt , o que significa que a matriz Hessiana deve ser definida positiva. Se
a matriz Hessiana não for nem definida positiva, nem definida negativa, então o ponto é de sela.
Análise da definição de matrizes simétricas é apresentada no apêndice xxx. O fato de que a
definição da matriz Hessiana define a concavidade da curva é apresentado no apêndice xxx
sobre série de Taylor de funções multivariadas.

Teorema da função envelope:



Suponha que desejamos achar o extremo de uma função de x que depende de um parâmetro 
, ou seja o problema é:

extremo  f  x ,   

sem restrições.

As condições de primeira ordem são:

f
 fi  x * ,    0

xi *
onde x é o ponto extremo. Vamos definir uma função de  dada por

     f  x *    ,   
. Note que se o problema for de máximo então, para um x fixo,
  
f  x,        x  x*   
, só tocando a curva quando . Se for de mínimo então
 
f  x,        f  x , 
. Por isso a função é uma função envelope para a função .
d
Pergunta é: quanto vale d ?

Incluir figuras da função envelope!!

f  x * ,   dxi* f

d
 
d i xi d 

f  x * ,  

0
Entretanto xi nos extremos, logo chegamos ao resultado do teorema da função
envelope:

d  f

d  .

Otimização com restrição de igualdade:


 
Suponha agora a seguinte problema: otimizar
f  x  sujeito à restrição
g  x   c , ou
 
g  x   c  0 . Agora nem todo x é permitido, só os que satisfazem à restrição g  x   c .
Existe um raciocínio intuitivo simples que nos permite resolver esse problema. O gradiente de
uma função é perpendicular às curvas de nível da mesma. Por um lado sabemos que df  0
porque na curva de nível f é constante. Por outro lado, das regras do cálculo sabemos que:

f f f  f f f 
df  dx1  dx2    dxn   , , ,    dx1 , dx2 , , dxn 
x1 x2 xn  x1 x2 xn 
  
O que significa que  f  d   0 , que nos leva à conclusão de que  f  d  , com d  sendo um

deslocamento infinitesimal na curva de nível. A restrição
g  x   c é uma curva de nível da
função g . Além disso, como é a própria restrição só deslocamentos sobre a mesma são
possíveis. Figura xxx mostra em vermelho a restrição e os gradientes da função g . No mesmo
gráfico desenhamos em preto diferentes curvas de nível da função f e seus respectivos
gradientes nos mesmos 3 pontos da restrição. Note que no ponto de encontro mais à esquerda
existe uma componente do gradiente da f ao longo da curva de restrição para à direita. Isso
significa um deslocamento para à direita ao longo da curva de restrição aumentará o valor da
função f . Já no ponto mais à direita a componente do gradiente de f ao longo da curva está na
direção esquerda, assim um deslocamento na curva de restrição nessa direção aumenta o valor de
f . Apenas no ponto em que a restrição tangencia uma curva de nível, com ambos os gradientes

paralelos, é impossível aumentar o valor de f através de deslocamentos na restrição.


Esse argumento nos indica, então, que no ponto extremo com restrição os dois gradientes, da
restrição e da função f devem ser paralelos. Matematicamente isso é escrito como f  g ,
 f  g  0
ou ainda como . A constante  é chamada multiplicador de Lagrange.

Assim percebe-se que podemos definir uma função Lagrangeana dada por:
  
L   , x   f  x     g  x   c 

Que se comporta como o problema da otimização sem restrições, ou seja:



L   , x   0

Assim as condições de primeira ordem para um extremo da função f sujeito à restrição g  c


 
L   , x   0 i  1,2,, n
são que
xi . Essa equação deve ser resolvida em conjunto com a

 f    g  c    0
restrição g  c . Entretanto, notamos que  implica em  g  c  0 ,
ou seja, a própria restrição. Dessa forma, usando a função Lagrangeana o nosso problema é
resolver o conjunto de equações simultâneas:

 
L   , x   0 i  1,2,, n
xi

 
L  , x   0

Uma demonstração mais rigorosa desse resultado incluindo as condições de segunda ordem é
apresentado no apêndice Otimização com Restrições: demonstração rigorosa. Exemplos também
são apresentados no apêndice Exemplos de Otimização com Restrição.

Teorema da função envelope com restrições:



Suponha que desejamos achar o extremo de uma função de x que depende de um parâmetro  ,
ou seja o problema é:

extremo  f  x ,   
 
g  x ,   c  0
com a restrição .

Cujas soluções são dadas por:

L
xi
 L i  x* , ,   0
 
e 


L x * ,  ,  0 

     f  x *    ,  
Novamente definimos a função envelope por e
f  x * ,   dxi* f f  x * ,  
 
d
  0
d i xi d  . Só que agora xi . Mas a restrição continua valendo, ou
g  x * ,   xi* g

dg
  0
seja,
 

g x* ,  0
, logo: d i xi   . Subtraindo esse zero na derivada de
 temos:

f  x * ,   dxi* f  x * ,   g  x * ,   dxi* g  x * ,  
   
d
     
d i xi d  i xi d 
 f g  dxi*  f g 
     
i  xi xi  d    
 f g 
  0
 xi xi 
Agora sim no extremo, logo:

d   f g  L
  
d     

d  L

d  .

Esse teorema nos permite extrair uma interpretação do significado do multiplicador de Lagrange

 . Note que devido ao fato de que a restrição é nula, g  x ,    c  0 , a função objetivo que se
L  f    g  c  . Se derivamos em relação

deseja otimizar 
f x, 
tem o mesmo valor de
d  L
    c
. Ou seja,   é o preço por unidade c da
c  c
ao parâmetro c vemos que dc
  c  0
restrição que se paga em não melhorar o objetivo por conta da restrição. Se poderíamos

aumentar a função objetivo diminuindo o valor da restrição c , já se  


 c 0
poderíamos

aumentar a função objetivo aumentando o valor da restrição c , e se  


 c 0
o máximo com
restrição coincide com o máximo sem restrição e não há qualquer penalidade devido à restrição.
Dualidade nos métodos de otimização.

Suponha o problema de otimização, sem especificar à priori se é de máximo ou de mínimo:

 
f  x g  x   go
Otimizar sujeito à restrição .

Condições de primeira ordem:

Achamos o Lagrangeano
  
L1   , x   f  x     g  x   go 

e procuramos a solução das equações:

L1 f g f g f g
   0 
x j x j x j x j x j x j x j
então logo .

L1 
  g  x   go 
então  
 g x  go
.

* * f ot  f  x* 
Resolvendo esse conjunto de equações encontramos x ,  e , no qual, obviamente,
g  x *   go

.

Condições de segunda ordem:

O Hessiano orlado é dado pelas derivadas segundas do Lagrangeano

 2L1 2 f 2 g  2L1 g
  gi  L1  0
2
   f ij   gij 
xi x j xi x j xi x j
, xi  xi e 
2

com as quais construímos a matriz:


 0  g1  g2   gn 
 
  g1 f11   g11 f12   g12  f1n   g1n 
H    g 2 f12   g12 f 22   g 22  f2n   g2n 
 
      
 g f1n   g1n f 2n   g 2n f nn   g nn 
 n 
.

Denotando um subdeterminante por:

 0  g1  g2   gk 
 g f1n   g1k  
 1  f11   g11   f12   g12   
 k  det   g 2  f12   g12   f 22   g22    f2n   g2k  
 
      
 g  f1k   g1k   f 2k   g2k    f kk   g kk  
 k

Se a solução for um ponto de máximo então:

 2  0 ,  3  0 ,  4  0 , ou seja, sign   k    1 .


k

Já o ponto for de mínimo então todos os subdeterminantes são negativos e:

sign   k   1 k .

Problema DUAL.

Vamos inverter as funções objetivo e restrição e trocar o problema para:

 
g  x f  x   f max
Otimizar sujeito à restrição .

Agora o Lagrangeano é dado por:


  
L 2   , x   g  x     f  x   f max 

e encontramos a solução através das equações:


L 2 g f g f g f
   0 
x j x j x j x j x j x j x j
então logo .

g 1 f 1
 
x j  x j  para voltar
Comparando com a situação anterior vemos que basta fazer

f  x   f max
absolutamente às mesmas equações anteriores. A restrição será, obviamente, .

L 2 
  f  x   f max


1
*  *  * f  f  x* 
Isso mostra que o mesmo ponto x , com  , max , no qual sabemos que
g  x   go
*
, é solução das equações de Lagrange. O problema dual, portanto, fornece a mesma
solução do problema original. Resta saber se mantém maximização/minimização ou se troca,
maximização se torna minimização e vice-versa. Para isso precisamos das condições de segunda
ordem.

Vejamos como fica o Hessiano orlado agora.

 2L 2 2 g 2 f
   gij   f ij
xi x j xi x j xi x j

1

Usando o fato de que  re-escrevemos essa derivada segunda como:

 2L 2 1 1
 gij  fij    f ij   gij 
xi x j  

 2L 2 1  2L1

xi x j  xi x j

As orlas são obtidas através de:

 2L 2 f
   fi
xi  xi .
g f 1
 fi  gi   gi
Por outro lado xi xi logo  então:

 2L 2
  gi
xi 

 2L 2  2L1

xi  xi 

 2L 2
0
Claro que 
2
.

O Hessiano orlado, então, muda para:

 0  g1  g 2   g n 
 
1 1 1
  g1   f   g11    f   g12     f1n   g1n  
  11  12  
 1 1 1 
H    g 2   f12   g12    f 22   g 22     f2n   g2n  
    
      
 
  g 1 1 1
   f1n   g1n    f2n   g2n     f nn   g nn  

n
    .

No qual o sub-determinante de ordem k é dado por:

 0  g1  g 2   g k 
 1 1 1 
  g1   f   g11    f   g12     f1n   g1k  
  11  12  
 1 1 1 
 k  det   g 2   f12   g12    f 22   g 22     f 2n   g2k  
    
      
 
1 1 1
  g k   f1k   g1k    f 2k   g 2k     f kk   g kk  
    

Sabemos que multiplicar uma linha ou uma coluna por uma constante multiplica o determinante
pela mesma constante, assim podemos pegar a primeira linha e colocar  em evidência, e para
1

cada uma das demais linhas colocar  em evidência. Nesse caso temos que:
 0  g1  g2   gk 
 2g
k  1  f11   g11   f12   g12    f1n   g1k  
     1  det   2 g 2  f12   g12   f 22   g 22   f 2n   g2k  
  
 
k
 
      
  2g  f1k   g1k   f 2k   g 2k    f kk   g kk  
 k

Agora colocamos  na primeira coluna para obter:


2

 0  g1  g2   gk 
 g
k  1  f11   g11   f12   g12    f1n   g1k  
 1
 k        2  det   g 2  f12   g12   f 22   g22    f 2n   g2k  
   
      
 g  f1k   g1k   f 2 k   g2 k    f kk   gkk  
 k

Ou seja:

 0  g1  g2   gk 
 g f1n   g1k  
 1  f11   g11   f12   g12   
   1 det   g 2
k 1

 f12   g12   f 22   g22    f 2n   g2k  


k
 k 3  
      
 g  f1k   g1k   f 2k   g2k    f kk   g kk  
 k

Assim mostramos que:

 1 
k 1

 k 
 k 3 k

Aqui temos dois casos:

1. Multiplicador de Lagrange positivo   0


1
Nesse caso o termo 
k 3
não muda o sinal e

sign   k    1 sign   k 


k 1

.
sign   k    1
k

Se o solução do problema 1 foi de máximo então e se foi de mínimo então


sign   k   1 .

O problema dual então será:

sign   k    1  1  1 k


k 1 k

de mínimo quando o original é máximo.

sign   k    1  1   1


k 1 k

, de máximo quando o original é mínimo.

2. Multiplicador de Lagrange negativo   0

 k 3   1
k 3 k 3
 
Nesse caso e portanto:

 1 sign   1 4 sign 


k 1

sign   k    k    k
 1
k 3
,

sign   k   sign   k 

Isso mostra que se o multiplicador de Lagrange é negativo o problema dual tem a mesma
característica do que o problema original, ou seja, problema dual de maximização também é de
maximização e de minimização também é de minimização.

Significado do sinal do multiplicador.

f  x g  x
Quando o multiplicador é positivo os gradientes de ambas as funções, e apontam na
f  x g  x
mesma direção, ou seja, não são apenas paralelos. Isso significa que e
crescem/decrescem na mesma direção. Já se o multiplicador é negativo os gradientes apontam
em direções opostas. Se uma das funções cresce em determinada direção a outra decresce. Figura
xxx mostra intuitivamente o efeito do sinal de  no problema dual.
Otimização com restrição de desigualdade:
 
Suponha agora a seguinte problema: otimizar
f  x  sujeito à restrição
g  x   c e compará-lo
 
como problema otimizar
f  x  sujeito à restrição
g  x   c . Vamos usar a mesma figura

g  x  b
Conside a figura xxx. A região vermelha é a região , significando que o gradiente da
restrição aponta para fora dessa região. Se o gradiente da função f também aponta na mesma
g  x  b
direção quer dizer que o máximo da função estará na fronteira e a restrição colou. Por
outro lado se o gradiente de f está na direção contrária o máximo estará dentro da região
g  x  b
e a restrição não tem qualquer efeito, ou seja, não colou. Nesse caso se procura o
g  x  b
máximo sem restrição. No caso da restrição de igualdade, , o ponto extremo tem que

estar obrigatoriamente na fronteira, mas não no caso da restrição de desigualdade,  


g x b
.
Note então que no problema de achar máximo a restrição só cola se f  g se f e g
estiverem na mesma direção, isto é,   0 . Vale notar que no problema de achar mínimo isso se
inverte. Se se f e g estiverem na mesma direção podemos diminuir a função entrando na
região de desigualdade. No caso de minimização então a restrição cola se   0 .
Comparando então com o problema de maximização com restrição de igualdade temos que se
  0 a restrição colou e deve-se resolver o sistema de equações:

f g
  0 i   1, 2,, n
xi xi
 0

g  x  c

Por outro lado se a restrição não colou temos um problema de maximização sem restrição e só
f
 0 i   1,2,, n
temos que resolver as equações x i . Podemos escrever essas duas
possibilidades em um conjunto de equações apenas da forma:

f g
  0 i   1, 2,, n
xi xi

  g  x   c   0
0

  g  x   c   0
Note que agora a condição leva a apenas duas opções:

  0  g  x   c   0
1. então e a restrição colou, logo:

f g
  0 i   1, 2,, n
xi xi

 g  x   c   0
0
f
  0 i   1,2,, n
 g  x   c   0   0 x i
2. e levando ao sistema .

Com esse exemplo podemos extrair as regras:


 

f  x

g  x  c L  f  x     g  x   c 
1. Maximizar s.r. então e devemos resolver
L
0 
as equações:
xi ,
 
 g  x   c   0 e   0 .
 

f  x

g  x  c L  f  x     g  x   c 
2. Maximizar s.r. então e devemos resolver
L
0 
as equações:
 x i ,
 
 g  x   c   0 e   0 .
 

f  x

g  x  c L  f  x     g  x   c 
3. Minimizar s.r. então e devemos resolver
L
0 
 x i
  g  x   c   0   0
as equações: , e .
 

f  x

g  x  c L  f  x     g  x   c 
4. Minimizar s.r. então e devemos resolver
L
0 
xi
  g  x   c   0   0
as equações: , e .
 
g  x  c  g  x   c
Note que restrições do tipo podem ser transformadas em , logo o problema
 
g  x  c g  x  c
pode sempre ser tratado com a restrição do tipo para maximização e para

minimização bastando redefinir   e c . Dessa forma o Lagrangeano sempre será do tipo
g x
  
L  f  x     g  x   c    g  x   c   0   0
, sempre exigindo que e . Essa regra
ecvita ter que trocar o sinal de  no Lagrangeano.

Otimização com restrições mistas:


   
f  x h1  x   c1 ; h2  x   c2 ; ; hm  x   cm
1. Maximizar s.r. e
  
g1  x   b1 ; g 2  x   b2 ; ; g k  x   bk
então construímos o Lagrangeano dado por:

L  f  x   1  g1  b1     k  g k  bk   1  h1  c1     m  hm  cm 

Devemos resolver as equações:

L
 0 i
x
1. i

L
 j 0
 j  g j  x   b j   0 j  j
2. ou
3. h  c 

 j  0 j
4.

g j  x  bj j
5.
   
f  x h1  x   c1 ; h2  x   c2 ; ; hm  x   cm
2. Minimizar s.r. e
  
g1  x   b1 ; g 2  x   b2 ; ; g k  x   bk
então construímos o Lagrangeano dado por:

L  f  x   1  g1  b1     k  g k  bk   1  h1  c1     m  hm  cm 

Devemos resolver as equações:

L
 0 i
x
1. i

L
 j 0
 j  g j  x   b j   0 j  j
2. ou

3. h  c 

 j  0 j
4.

g j  x  bj j
5.

As condições de segunda ordem mudam se a restrição cola, usam-se então as regras do Hessiano
orlado, ou não cola, usam-se as regras do Hessiano sem orlas.

Problema de Kuhn-Tucker:

Kuhn-Tucker querem soluções para variáveis que se podem ser positivas, com um problema do
tipo:
   
f  x g1  x   b1 ; g 2  x   b2 ; ; g m  x   bm
Maximizar s.r. e x1  0; x2  0;; xn  0 .

Usando a técnica anterior o Lagrangeano seria dado por:


 
L  f  x     j  g j  x   b j    i xi
j i

As equações conjuntas a serem resolvidas seriam:

L f g j
  j   i  0 i
xi xi j xi
1.

L
 j 0
 j  g j  x   b j   0 j  j
2. ou

 j x j  0 j
3.

 j  0 j
4.

 j  0 j
5.

x  0 i   1, 2, , n
O Lagrangeano de Kuhn-Tucker não inclui as desigualdades i , não

considear os multiplicadores de Lagrange  , sendo escrito apenas como:
 
L KT  f  x     j  g j  x   b j 
j

L  L KT   i xi
Note que i . As equações de Kuhn-Tucker são:

L L KT L KT
0   i  0    i
xi xi xi

L KT L
0 xi KT  0
Como  i  0 então
xi . Se a restrição xi  0 cola escrevemos
xi

L KT L
 0 i KT  0
i ;
i ; i  0 e xi  0 .

Equações de Kuhn-Tucker:
L KT
0
1.
xi

L
xi KT  0
2.
xi
L KT
0
3.
 i

L
i KT  0
4.
i

5. i  0
6. xi  0

Incluir exemplos de fixação!!


Cálculo das Variações:

Cálculo das Variações começa com o problema da curva brachistocrona levantado por Johann
Bernoulli, chamando a atenção de seu irmão Jakob Bernoulli. Leonhard Euler trabalhou sobre o
problema e seu livro Elementa Calculi Variationum gerou o termo Cálculo das Variações.
Lagrange foi outro nome importante nesse campo e Legendre se preocupou com as condições de
segunda ordem para discriminar máximos e mínimos.

Todo o cálculo das variações está baseado na regra de Leibnitz para derivada de integrais
demonstrada no apêndice Regra de Leibnitz. Essa regra afirma que:
h x  h x 
d f  x, t  dh dg
 f  x , t  dt   dt  f  x , h  x    f  x, g  x  
dx g  x  g x
x dx dx

Funcional:

y  t
Um funcional associa um número à cada função de um domínio de funções. O domínio
pode restringir os tipos de funções, apenas as diferenciáveis, por exemplo, ou funções que
possuem determinados valores em determinados pontos, etc. A expressão abaixo representa um
funcional:
t2

J   f  t , y , y  dt y  t  
d
y  t
t1
onde dt

y  t y  t 
Sabendo f e dada uma trajetória , sabemos calcular , substituir em f e calcular o
valor J obtido após a integração. A questão típica do Cálculo das Variações é se existe uma
y*  t 
trajetória especial que torna o valor de J o maior possível, ou o menor possível, ou um
extremo?

Vamos começar com t1 e t2 fixos e restringir o domínio das funções àquelas trajetórias que

passam nos pontos


 t1 , y1  e
 t2 , y 2  com
y  t
diferenciáveis. Nesse caso podemos parametrizar
J tornando-a função univariada de um parâmetro  da seguinte forma:

y  t   y*  t      t 

y*  t    t y  t y*  t 
Onde é a trajetório ótima e um desvio da trajetória ótima. Como e são
  t
diferenciáveis, então também é diferenciável. Além disso as restrições dos pontos inicial e
final da trajetória implica que:
y  t1   y *  t1   y 1    t1   0
y  t2   y *  t2   y 2    t2   0

Assim podemos construir a função univariada da variável  :


t2

J      f  t , y *   , y *    dt
t1

d
J  0
d
Que sabemos possuir um extremo em   0 , ou seja,  0
como condição de
d2
J  0
d 2  0
primeira ordem. Além disso as condições de segunda ordem são se o extremo
d2
J  0
d 2  0
for de máximo e se o extremo for de mínimo.

Com os limites , t1 , t2 fixos a derivada da integral facilita, desprezando os termos das derivadas
dos limites de integração. Nesse caso:
t
d 
f  t , y *   , y *    dt
2

J   
d t1


t
d 2
 f f 
J           dt
d t1 
y y 

t2 t2 t
f f 2
d f f
t y 
 dt 
y
   
 t t dt y
dt u
Agora, 1 1 1
após fazer a integral por partes com dv   dt e y .

d
J  0
  t1     t2   0 d  0
O termo uv é nulo porque . Então implica em:
t2
 f d f 
  y  dt y   t  dt  0
t1

Em princípio o fato de que uma integral é nula não significa que o integrando seja nulo.
  t
Entretanto no nosso caso a integral deve ser nula para qualquer função arbitrária
significando que a única forma da integral ser nula sempre é que:
f d f
 0
y dt y

Essa é a famosa equação de Euler-Lagrange.

A equação de Euler-Lagrange representa a condição de primeira ordem para que o funcional seja
um extremo. Se é de máximo ou de mínimo será discutido no apêndice Condições de Segunda
Ordem do Cálculo Variacional. O problema de otimização do funcional liberando as condições
de pontos fixos no início e ou fim da trajetória é discutido no apêndice Condições de
Transversalidade.

Generalizações:
t2

J   f  t; q1 , q2 , , qn ; q 1, q 2 ,, q n  dt
1. Mais de uma variável dependente t1
. Neste caso
temos uma equação de Euler-Lagrange para cada variável:

f d f
  0 k   1, 2,, n 
qk dt q k

2. Mais de uma variável independente da forma:


t2
q
J   f  t1 , t2 , , tn ; q  t1 , t2 ,, tn  ; q1 , q2 ,, qn  dt com q j 
t1
t j

Neste caso a equação de Euler-Lagrange deve ser estendida para cada t:

f  f  f  f
    0
qk t1 q1 t2 q 2 tn q n

3. Otimização com restrições do tipo 1. Achar o extremo de:


t2 t2

J   f  t , q, q  dt  g  t, q, q  dt  C
t1
sujeito à restrição t1
.

Agora usamos a parametrização para criar duas funções de  :


t2

J      f  t , q, q  dt
t1
t2

I      g  t , q, q  dt  C
t1

E usamos a técnica dos multiplicadores de Lagrange para encontrar o extreme. Nesse caso:

L  J       I     C 

L J I
   0 L  I     C  0
As soluções são dadas pelas equações    e  . Agora:
t t
J 2  f d f  I 2  g d g 
  
 t1  y dt y 
 dt  0    dt  0
 t1  y dt y 
e

portanto:

L t2  f g  d  f g  
         dt  0
 t1  y y  dt  y y  

de onde extraímos que:

 d 
 f  g   f  g  0
y dt y

Assim percebemos que basta criar o Lagrangeano     com  sendo


L  f t , q, q   g t , q, q
o multiplicador de Lagrange, nest caso, independente do tempo, e resolver a nova equação de
Euler-Lagrange:

L d L
 0
y dt y

4. Otimização com restrições do tipo 2. Achar o extremo de:


t2

J   f  t , q, q  dt
g  t , q, q   0
t1
sujeito à restrição
t2

  t   g  t , q, q  dt  0
g  t , q, q   0
Agora como podemos mudar para o tipo 1 fazendo t1
, e o
multiplicador de Lagrange agora pode ser função do tempo. Novamente caímos na equação de
Euler-Lagrange na forma:

L d L
 0
L  f  t , q, q     t  g  t , q, q  e y dt y .

Teoria do Controle Ótimo:

A teoria do Controle Ótimo é uma matemática do século XX e não mais a matemática do século
XIX. O matemático russo L. S. Pontryagin publicou Princípio de Máximo com o qual ganhou o
prêmio Lenin em 1962, mesmo ano em que seu trabalho foi traduzido para o inglês. O
matemático americano Magnus R. Hestenes da Rand Corporation produziu um report Interno da
Rand chamado “A general Problem in the Calculus of Variations with Applications to Paths of
Least Time”. Mais tarde ele publicou um paper estendendo os resultados de Pontryagin com o
título “On variational theory and Optimal Control Theory”, Journal of SIAM, series A, vol.3
p23-48 (1965), e o livro “Calculus of Variations and Optimal Control Theory”, Wiley&Sons, NY
(1966).
L.S. Pontryagin Magnus Hestenes

A teoria do Controle Ótimo está focada em encontrar a melhor trajetória para uma variável de
u t y t
controle , sobre comando do controlador, que leva a variável a uma trajetória
u t
maximizadora/minimizadora de uma determinada função objetivo. A variável de controle
y t
precisa, obviamente, interferir na trajetória de , chamada de variável de estado.

O problema matemático é achar o extremo de:


T
J   f  t , y , u  dt
y  g  t , y , u 
0 sujeito à restrição

Exemplo: Suponha que exista um estoque S de petróleo e que a taxa de extração, sobre
E  t
comando do operador do sistema, seja , definindo a relação entre estoque e taxa de extração
dada por:

dS
 E  t 
dt
Com extração nula não há consumo e a reserva de petróleo não gera qualquer bem estar. Por
outro lado, a extração vai exaurindo a reserva e diminuindo o consumo no futuro. O futuro vale
menos do que o presente e a função bem estar acumulada pode ser calculada com uma taxa de
desconto da forma:
T
U acum   U  E  e   t dt
0

O problema de otimização, portanto, pode ser colocado na forma: Maximizar


T
U acum   U  E  e   t dt
0

dS
 E  t  S  0   So f  t, S , E   U  E  e t
Sujeito às restrições dt e . Nesse caso e a restrição
S   E  t  E  t S  t
. A variável de controle é e a de estado .

O problema mais geral do controle ótimo é colocado da seguinte forma: otimizar


T
J   f  t , y , u  dt
y  g  t , y , u  y  0 yT
0 sujeito à restrição dados e condições sobre T e .

A variável de controle pode ser descontinua por partes, mas com descontinuidades finitas.
Exemplo típico é o ligar e desligar da maioria dos controles de temperatura. Já a variável de
estado deve ser contínua, notando que u atua na derivada de y , mas não diferenciável porque a
derivada pode ser descontínua. A teoria é mais geral do que o cálculo das variações, portanto,
pois é capaz de lidar com funções não diferenciáveis. Além disso é capaz de manusear restrições
sobre a variável de controle e admite soluções de canto. Por exemplo, suponha o caso on-off em
u   0,1
que , só pode assumir valores 0 (desligado) ou 1 (ligado). A trajetória ótima para u
pode ser do tipo:

 1 t  [0, t1 )

u  t   0 t  [t1 , t2 )
*

1 t  [t , T ]
 2

Vamos resolver esse problema com um multiplicador de Lagrange e denominamos:

u  t
variável de controle
y  t
variável de estado

  t
variável de co-estado [costate variable]

Nosso problema é:

Otimizar:
T
V  y , u    f  t , y , u  dt
0

sujeito às restrições:

y  g  t , y , u 

y  0   yo

T , y  T  
livres.

y  g  t , y , u  g  t , y , u   y  0 t
A restrição pode ser re-expressa como logo:
T

   t   g  t, y, u   y  dt  0
0
t

Logo podemos somá-la na função objetivo:


T
V  y , u     f  t , y , u     t  g  t , y , u     t  y  dt
0

Definindo um Hamiltoniano da forma:

H  t , y , u,    f  t , y , u     t  g  t , y , u 

T T T
    t  y dt    y 0   y dt    T  y  T     0  y  0    y dt
T

e integrando por partes 0 0 0 re-


escrevemos o problema como:
T
V  y, u     H  t , y, u,     y  dt    T  y  T     0  y  0 
0

A parametrização é feita da seguinte forma:


u  t   u*  t    p  t 

y  t   y*  t    q  t 

T  T *  T

y  T   y *   y

  t
variável de co-estado [costate variable]

A função objetivo univariada é dada por:

T * T

V     H  t , y *   q, u *   p     y *   q   dt    T *  T  y  T *  T     0  y  0 


 
0

d
V  0
d  0
Vamos impor :
T*
d  d d
d
V      H   y  dt   H   y  d  T
*

 T    y   y 
d
 T *  T 
0

T*
 H H 
  y q  u  
p   q  dt   H   y *  T   y   y T
0 

T*
 H  H 
  y    q  t   p  t   dt  H  T *  T    T *  yT
u
0   usando y T  y

q t p  t
Como e são arbitrárias cada um de seus multiplicadores no integrando devem ser
nulos independentemente, assim:

H  H H
   0     0
y y e u

Existe ainda uma equação escondida nesse sistema:

H  H
  f   g   g  y y 
  ou seja  .
Condições de transversalidade:

 y   T*  0
Se é livre, arbitrário, então,

 T  0 H T*  0
Se , tempo limite especificado, então

H T*  0
Se T é livre então

T
V  y , u    f  t , y , u  dt
Assim, o problema de achar o extremo de 0 sujeito às restrições
y  g  t , y , u  y  0   yo
e , nos leva às seguintes equações de movimento:

Defina o Hamiltoniano H  f   g e resolva o conjunto de equações:

H H
 y   H  0
T  0
 ; y ; u e .

H
 y
Ou seja, sempre se escolhe u que maximiza H em todo momento, e resolve-se  ;
H
 
y .

Além disso ainda existe a seguinte propriedade importante na trajetória ótima:

dH H H H H  H H H H H
  y  u    
dt t y u  t y   y

dH H

dt t

dH
0
Isso significa que se o Hamiltoniano não depende explicitamente do tempo então dt e
H  cte é uma constante, ou seja, existe uma lei de conservação.
Cálculo das Variações como um caso particular da Teoria do Controle Ótimo:

No cálculo das variações o problema de Lagrange era:


t2

 J   L  t, q, q  dt  0
t1

Dando origem à equação de Euler-Lagrange:

L d L
 0
y dt y

Vamos re-expressar esse problema no formalismo Hamiltoniano:


t2

V  q, u    L  t , q, u  dt
Achar o extremo de t1
sujeito à restrição q  u .

Neste caso H  L   u logo:

H L L
0   0    
u u u

H  L d L L d L
          0
q q por outro lado dt u portanto q dt u lembrando
que u  q recuperamos a equação de Euler-Lagrange:

L d L
 0
q dt q

Exercícios de fixação da operacionalidade da teoria do controle ótimo estão apresentados no


apêndice. Exemplos de fixação da Teoria do Controle Ótimo.
Apêndice: Série de Taylor

A Série de Taylor de uma função de classe C , i.e., infinitamente diferenciável, pode ser
f  x
explicada da seguinte forma simples e intuitiva. Desejamos aproximar a função em torno

f (x )= ∑ a n ( x−x o )n
de x  xo por uma série de potências na forma n=0 . O índice n define a
f  x   ao
ordem da aproximação, com para aproximação de ordem zero, ou seja, uma reta
f  x   ao  a1  x  xo 
horizontal, , ou seja uma reta com coeficiente angular a1 , para
f  x   ao  a1  x  xo   a2  x  xo 
2

aproximação de ordem 1, para a aproximação de ordem 2, e


assim por diante. É intuitivo que a melhor aproximação seja aquela em que, no ponto x  xo tanto
a função quanto sua aproximação sejam idênticas. Nesse caso:

∑ a n( x−x o )n|x =x =a o
o ao  f  xo 
n=0 , logo .

Para determinar os outros coeficientes an também vamos exigir que os valores das derivadas da
função e da aproximação sejam idênticos em x  xo , como mostra o gráfico da figura 4, abaixo,
para uma aproximação de ordem 2.

Série de Taylor
f(x)
ordem 0
ordem 1
ordem 2
f(x)

Figura 4. Série de Taylor.


n
f ( n) ( x o ) ( n) d f
an = f (x )= n
Podemos demonstrar que os coeficientes n! , onde dx , através
dos seguintes passos:

dk n n−k n!
k
( x − x 0 ) =n(n−1). ..(n−k +1 )(x −x o ) = ( x−x o )n−k k <n
1. dx (n−k )!
k
d
k
( x − x 0 )n =0 k >n
2. dx
n
d
n
( x − x 0 )n =n!
3. dx
n
d ∞ k

n!
n∑ k
a ( x−x o ) = ∑ ak (x −x o )k−n
4. dx k =0 k=n ( n−k )!

dn ∞
n∑ k
a (x −x o )k|x= x = n! an
5. dx k=0 o

( n) dn ∞ n
f (x 0 )
f ( x o )= n ∑ ak (x −x o )k|x= x an =
6. Impondo que dx k=0 o
chegamos a: n! .

Dessa forma, a Série de Taylor, é dada por:


f '( x0 )( x  x0 )1 f ''( x0 )( x  x0 ) 2 f ( n ) ( x0 )( x  x0 ) n
f ( x )  f ( x0 )     
1! 2! n!
Que pode ser escrita na forma condensada como:

f ( x)  

f
n
 xo 
 x  xo 
n

n 0 n!

Um caso particular da série de Taylor é a série de Taylor-McLaurin, para a qual xo  0 :

f '(0 ) f ''(0 ) 2 f '' ' (0) 3 f ( n)(0 ) n


f (x ) = f (0 ) + x+ x+ x +… + x +⋯
1! 2! 3! n!
Que pode ser escrita na forma condensada como:

f ( x)  

f
n
 0 xn
n 0 n!
Em princípio essa é uma série infinita. Entretanto, uma série infinita só será útil se for possível
mostrar que ela converge, ou seja, que pode ser truncada em determinado número de termos e
que o erro cometido com essa truncagem tende a zero à medida que o número de termos
incluídos cresce. O erro cometido com essa truncagem chama-se Resto. Uma série de Taylor
truncada em n só pode ser utilizada para função diferenciável, pelo menos, n vezes. Mas isso
relaxa a condição de que a função deve ser infinitamente diferenciável.

Casos Particulares:


xk
ex  
Função exponencial: k 0 k!
k
d x x
e =e
f  x  ex dx k
A expansão da exponencial é imediata se notarmos que e que,
( k)
portanto, f (0)=1 . Nesse caso:
∞ k 2 3 k
x x x x x
e = ∑ =1+ x + + + .. .+ +. . .
k =0 k ! 2! 3 ! k! .

n
n! n
n
(a  x) n   a n  k x k     a n k x k
k 0 k !( n  k )! k 0  k 
Binômio de Newton Generalizado:
n
n! n
n
 a  b  a nk b k     a nk bk
n

k 0 k ! n  k  ! k 0  k 
Lembrando da fórmula do binômio de Newton .
f  x   (a  x ) n
Considere a expansão em série de Taylor-McLaurin da função , com n inteiro
n!
f ( k ) (0)  a nk se n  k
 , e f (0)  0 se k  n e
(k )
positivo. Nesse caso, sabemos que ( n k )!
a série de Taylor-McLaurin se torna um polinômio de grau n naturalmente truncada em k  n .
n
n! n
n
(a  x) n   a n  k x k     a n k x k
k 0 k !( n  k )! k 0  k 
Então, vale a igualdade: , que é o próprio binômio
n n!
0  1
de Newton. Os coeficientes dos primeiro e último termos valem 1 pois   0!( n  0)! e
, uma vez que . 1 A série de Taylor não agregou muito valor ao caso das
funções de potência em que a expansão binomial de Newton já era muito conhecida.
Entretanto ela pode ser usada para generalizar o binômio de Newton para valores de n
negativos ou não inteiros, em que a série se torna infinita. Aí sim, ela agrega grande valor. Se n
n!
n(n−1)(n−2).. .(n−k +1 )=
é negativo não escrevemos (n−k )! pela dificuldade dos
fatoriais de números negativos. Nesse caso é melhor colocar
 1 em evidência em cada termo e
usar:
k
(−1) (|n|+k −1)!
n(n−1)(n−2).. .(n−k +1 )=
(|n|−1 )!
Caso particular do binômio de Newton para n  1 :
k
(−1) (1+k −1)!
(−1 )(−2)(−3).. .(−1−k +1 )= =(−1)k k !
(1−1)!
f  x   1 x
1

Esse resultado pode ser usado para a expansão de . Nesse caso:


k
(−1 ) k ! k ∞

f (x )=(1+x ) = ∑ −1
x = ∑ (−1)k x k =1−x + x 2 −x3 +. ..
k =0 k! k =0

f  x   1 x
1

Já para obtemos:
k
(−1) k ! ∞ ∞
f (x )=(1−x ) = ∑ −1
(−x ) = ∑ x k =1+ x + x 2 +x 3 +. ..
k

k=0 k! k =0 .

n1
Caso particular do binômio de Newton para 2:

  12  !
Nesse caso teríamos que calcular

k!  1  k !
2 

1 1!  1 e n  n  1 !  n! . Fazendo n  1 temos que 1 1  1 !  1! que leva a 0!  1 . Fatoriais


A propriedade dos fatoriais é que
1
0   1 !  0!  1 ! 
de números inteiros negativos divergem pois fazendo n  0 temos que ou 0.
  12  !    12    12  1   12  2    12  k  1   12  k  ! 
  12  k  !   12  k  !
 1  1  1  1  k  1  3  5   2 k  1   1 k
  1    1  2   k  1   1       2k  1 !!
k
 k
 2  2  2  2   2  2  2   2  2
1
n !!  n  n  2   n  4    
Onde  2  . Nesse caso:

1  (1) k  2k  1 !!
f ( x)  1 x  (1  x) 2   k
xk
k 0 2 k!
Agora notamos que:

 2k  !!   2  0   2  2   2k  4   2k  2   2k   2k  1  2    k  2   k  1  k   2k k !
E escrevemos a série como:
 ( 1) k  2k  1 !!
f ( x)   1  x   xk
k 0  2k  !! .


( 1) k 1 x k
Ln(1  x )  
Logaritmo: k 1 k

f  0   ln  1  0 '
f ( x )=(1+x)
−1
Para o caso do logaritmo, , e , as derivadas podem ser
( k −1)
d
f ( k ) (x )= k−1
(1+ x )−1=(−1)k −1 (k−1)! (1+x )−k
facilmente calculadas usando: dx ,

para obter f (k) (0)=(−1)k−1(k−1)! . Desse resultado mostra-se que:


k −1 k−1 k

(−1) (k −1)! k ∞ (−1) x x2 x3 x4
Ln(1+ x )= ∑ x =∑ =x− + − +. . .
k =1 k! k =1 k 2 3 4
e:
k −1

(−1 ) (k−1 )! k

xk x2 x3 x 4
Ln(1−x )= ∑ (−x ) =− ∑ =−[ x + + + +.. . ]
k=1 k! k =1 k 2 3 4 .
Apêndice: Cálculo do Resto da série de Taylor
Para calcular o Resto da Série de Taylor, precisaremos do Teorema do Valor Médio de
f  x  a, b  e
Cauchy. Partimos do teorema de Rolle: se é contínua e diferenciável em
f  a  f  b
então existe um número  entre a e b em que a primeira derivada dessa função é
igual a zero. Pode existir mais de um  no intervalo, mas o teorema garante que existe pelo
menos um.
Teorema do Valor Médio de Cauchy (TVM)
f  x g  x f  a  f  b
Tomemos duas funções diferenciáveis e tal que e
g  a  g  b F  x  f  x   g  x
. Com elas construímos uma nova função e determinamos 
F  x F  a  F  b
que obriga a à satisfazer as condições do Teorema de Rolle, ou seja, que , ou
f (b) − f (a)
λ =−
f  a   g  a   f  b   g  b  g(b) − g(a)
seja, . Resolvendo para  obtemos . Isso
f (b)  f (a )
F ( x )  f ( x)  g ( x)
significa então que g (b )  g ( a ) , satisfaz as condições do Teorema de Rolle.
F    0
Nesse caso, existe um número   ( a, b) , i.e., a    b , em que . Por outro lado
f (b) − f (a)
F '( x) = f ' ( x) − g'( x)
g(b) − g(a) , logo    (a, b) / F '( )  0 , ou seja:
f (b )  f ( a )
F '( )  f '( )  g '( )  0
g (b )  g ( a ) .
O teorema do Valor Médio de Cauchy afirma que:
f ( ) f (b)  f (a )
   ( a, b) / 
g ( ) g (b)  g (a ) .

f (b) − f ( a)
g  x   x g  x   1
f ' (ζ ) =
No caso particular em que , o TVM ele se reduz a b−a
.
Resto da Série de Taylor
0 1 ( n) n
f (x )(b − x) f ' ( x)(b − x) f ( x)(b − x)
F( x) = f (b ) − [ + + …+ ]
Seja 0! 1! n! o erro
n+1
(b − x)
G( x) =
cometido na truncagem da série de Taylor até ordem n e seja (n + 1)! . Como
F  x G  x
e satisfazem as condições do TVM de Cauchy então:
F' (ζ ) F(b )−F (a )
∃ ζ ∈(a , b )/ ' =
G (ζ ) G(b )−G( a) .
F  x
Por outro lado, derivando diretamente a função , obtemos:

f ' ( x)(b − x)0 f '( x)(b − x )0 f ''( x)(b − x)1 f ''( x)(b − x)1
F '( x) = − [ − + − +
0! 0! 1! 1!
f '''( x)(b − x)2 f '''( x)(b − x)2 f ( n+1) (x )(b − x)n
− +… + ]
2! 2! n!
Como os termos intermediários se cancelam [soma telescópica]:
( n+1 ) n
f ( x)(b − x)
F '( x) = −
n! .

(n + 1)(b − x)n (b − x)n


G' ( x) = − =−
G  x ( n + 1)! n!
Derivando diretamente obtemos . Usando esses
resultados no TVM de Cauchy:
f ( n1) ( )(b   ) n

F '( ) n!
  f ( n1) ( )
G '( ) (b   ) n

n!
F (b)  F (a ) F (a )
  f ( n1) ( )
F  b  G  b  0 G (b)  G (a ) G (a )
Percebendo que , então . Logo,
(n+1)
f (ζ )
F( a) = f ( n+1)(ζ )G (a)= (b−a )n F  a
n! . Fazendo x  a na obtemos:

f '(a )(b − a )1 f ( n)(a )(b − a )n f ( n+1)( ζ )(b − a)n+1


f (b) − [ f (a) + +…+ ]=
1! n! (n + 1)! ,

de onde tiramos que existe a    b tal que:


f '( a)(b  a)1 f ( n ) (a )(b  a ) n  f ( n1) ( )(b  a ) n1 
f (b)  f ( a )    
1! n!  (n 1)! .

f ( n1) ( )( x  xo ) n1
Rn 
O erro em truncar com n termos, também chamado de resto, é dado por (n 1)!

e tende a zero quando n tende a infinito para valores de x suficientemente próximos de xo .


Apêndice. Série de Taylor de Funções Multivariadas:

Vamos começar com uma função bivariada


f  x, y  : 2   e queremos a expansão em

série de Taylor de 
f x  h, y  k  . Tomando y constante sabemos expandir:

hn n hn k m
f  x  h, y  k     x f  x, y  k      my  nx f  x, y 
n n! n n! m m!

 hnk m m n 
f  x  h, y  k       y  x f  x, y  
 n m n !m ! 

Claro que se tivéssemos começado com y constante teríamos obtido:

 hnk m n m 
f  x  h, y  k       x  y f  x, y  
 n m n !m ! 
Como não pode haver diferença entre as duas formas se percebe que
 my  nx f  x, y    nx  my f  x, y 
. Agora vamos re-expressar a série da forma:

 h n nx k  y 
m m
f  x  h, y  k      f  x, y   Tˆ f  x, y 
 n m n! m!  onde

 h n n k m m 
x
Tˆ    
y

 n m n! m!  é o operador série de Taylor.

Agora queremos a série em ordem crescente em  , de tal forma que n  m   , então

 1  ! n n  n  n 
f  x  h, y  k      h  x k  y  f  x, y 
  !n  0 n!m! 
Por outro lado, lembrando que que as derivadas são operadores lineares, sabemos que o operador

  ! n  n n  n
 h x  k  y    h k  x y
n 0 n ! m !

Logo a série de Taylor pode ser expressa como:


 
 

x 
f  x  h, y  k      f  x, y 
 ! 
 
O processo pode ser rapidamente generalizado para dimensões maiores do tipo

f  x  : n   onde queremos a expansão em série de Taylor de .

 
f x x 
    x1m1 m1  x2m2 m2  x1mn mn  

f x   x   
 m1 m1 !
1 
m2 m2 !
2  
mn mn !
1  f  x 

Agora fazemos m1  m2    mn   e multiplicamos e dividimos por ! para obter:

 
1   ! mn 

 



f x x          x11    x2 2    xn n   f  x 
m1 m2

 !  m1  0 m2  0 mn  0 m1 !m2 !mn ! 
 m1 m2  mn  
 

Por binômio de Newton sabemos que:

 
    ! mn 
       x11    x2 2    xn n      x11   x2 2     xn n  n
m1 m2

 m1  0 m2  0 mn  0 m1 !m2 !mn ! 
 m1  m2  mn   

Ou seja:

 
   ! mn 
 
  n
       x 
1 1  m1
  x 
2 2  m2
   x 
n n     x 
 m1  0 m2  0 m n  0 m1 ! m 2 !
 mn ! 
 m1  m2  mn   
A série de Taylor em n variáveis é dada portanto por:

 
 
n
x 
 

f x   x    f  x, y 

n n! 
 
Até ordem 2 podemos escrever a série de Taylor multivariada como:


 
    
   1  2 
f x  h  f  x  h  f  x  h  f  x
2!
Ou ainda como:

 
   n  1 n n 
f x  h  f  x    hi  i f  x     hi  ij f  x  h j
i 1 2! i 1 j 1

 2 
H ij   ij f  x   f  x
xi x j
A matriz é chamada de Matriz Hessiana.
Apêndice. Convexidade de uma curva:

x   x1 , x2  f  x  R  x R  x
Função côncava: uma função é côncava se para onde é a reta
 x , f  x1    x , f  x2  
secante que une os pontos  1 à  2 . Esse é o caso da figura 2(a). Função
x   x1 , x2  f  x  R x R  x
convexa: uma função é convexa se para onde .Esse é o caso da
figura 2 (b).

Figura 2. (a) Função côncava. (b) Função convexa.

x   x1 , x2     0,1
Vamos construir um através de um parâmetro da forma
x      x2   1    x1 x  0   x1 x  1  x2
. Se   0 então e se   1 então . Além disso
x      x2   1    x1   x2   1    x2  x2 x      x2   1    x1   x1   1    x1  x1
e , logo
x1  x     x2  x ,x 
pertence ao intervalo 1 2 . A equação da reta secante que passa pelos pontos
R  x   f  x1  f  x2   f  x1 

 x1 , f  x1    x2 , f  x2   x  x x2  x1
e é dada por 1 , ou seja,
x  x1
R  x   f  x1    f  x2   f  x1  
x2  x1  ou, em termos de ,
 x   1    x1  x1 x x
R     f  x1   2  f  x2   f  x1    f  x1    2 1  f  x2   f  x1  
x2  x1 x2  x1 , que nos
R      f  x2    1    f  x1 
leva, finalmente, a: .

Daí afirmamos que:


f  x   1    x1    f  x2    1    f  x1     0,1
então a função   é
f x
1. Se  2 para
estritamente côncava
f  x   1    x1    f  x2    1    f  x1     0,1
então a função   é
f x
2. Se  2 para
estritamente convexa.

Generalização da convexidade para funções de    :


n


Seja

X  ( x ,
1 2x ,  , x )
n um vetor em  e
n  f X : n  
uma função escalar que associa um
número real a um vetor. Então:
   
1. Se
   
f  X 2   1    X 1    f X 2   1    f X 1
para
   0,1
então a função  
f x

é estritamente côncava.
   
2. Se
   
f  X 2   1    X 1    f X 2   1    f X 1
para
   0,1
então a função

f  x
é
estritamente convexa
Apêndice Otimização com Restrições: demonstração rigorosa.

g *
xn
 
x 0
Se então existe uma função inversa local implícita tal que
xn    x1, x2 ,, xn 1  que pode ser utilizada para eliminar a variável xn e caímos em
funções de n  1 variáveis dadas por:

G  x1, x2 ,, xn 1   g  x1, x2 ,, xn 1,  x1, x2 ,, xn 1  

F  x1, x2 ,, xn 1   f  x1, x2 ,, xn 1,  x1, x2 ,, xn 1  

Note que a F já inclui a restrição, automaticamente satisfeita quando fizemos


xn    x1, x2 ,, xn 1  . Então as condições de ponto extremo da F são as usuais:

n 1 n 1 2F
 hi h j  0 max
i 1 j 1 xi x j

n 1 n 1  2 F

F  0 i   1,2,, n  1  hi h j  0 min
xi x
i 1 j 1 i  x j
e

 g 
 
  xi 

G g g  xi  g 
  0  
Agora
xi xi xn xi pois G  c , o que significa que  xn  . Por outro

 f   f 
   
f  xn  g  xn   
 0
F f f  xi  g  xi  g 
  0    
lado
 xi  xi xn xi , então  xn  . Como  xn  é uma
*
constante, calculada no ponto x temos que:
f g 
 0  f   g   0 i  1,2,, n  1
xi xi ou ainda que
x i .

 f 
 
 f g f  xn  g f f
 f  g       0
xn xn xn xn  g  xn xn xn
 
Por outro lado  xn 
automaticamente. Portanto podemos estender a condição para

 f    g  c    0 i  1,2,, n
xi  .
 
L   , x   f    g  x   c 
Definindo a função Lagrangeana dada por: vemos que as
 
L   , x   0 i  1,2,, n
condições de primeira ordem para um extremo são que
xi . Essa
equação deve ser resolvida em conjunto com a restrição, mas notamos que

 f    g  c    0
  implica em  g  c  0 ,
ou seja, a própria restrição. Usando a
função Lagrangeana o nosso problema é resolver o conjunto de equações simultâneas:

 
L   , x   0 i  1,2,, n
xi

 
L  , x   0


f
 fj
x j
A condição de segunda ordem é um pouco mais complicada. Vamos usar a notação
para simplificar. Nesse caso temos:

F j  f j  f n j
G j  g j  g n j

G j  g j  g n j  0 F j  F j  G j Fij  Fij  Gij


Sabemos que , logo e . Por outro lado:
 
Fij  fij  f nji   fin  f nni   j  f nij
 Gij    gij  g nji     gin  gnni   j   gnij

Subtraindo as duas equações obtemos:

 
Fij   Gij  fij   gij   fin   gin   j  f nj   g nj i   
  f nn   g nn  i j   f n   g n  ij

Agora:

fn
fn   gn  fn  gn  0
gn

Então:

n 1 n 1 n 1 n 1 n 1 n 1
  
  Fij  Gij hi h j    fij   gij hi h j    fin   gin  hi   j h j 
i 1 j 1 i 1 j 1
 i 1 j 1
n 1 n 1 n 1 n 1

j 1
 
  f nj   g nj h j  i hi   f nn   g nn    i hi j h j
i 1 i 1 j 1

n 1 gi 1 n 1
hn   i hi i   hn    gi hi
i 1
gn g n i 1
Definindo um e usando o fato de que temos que ,
n 1 n
 gi hi g n hn  0
ou seja, i 1
 gi hi  0
, i.e., i 1

nos garante que h está na curva
g
 
x h c
.
 
Nesse caso temos que:

n 1 n 1 n 1 n 1 n 1
   Fij  Gij  hi h j     fij   gij  hi h j    fin   gin  hi hn 
i 1 j 1 i 1 j 1 i 1
n 1
 
  f nj   g nj h j hn   f nn   g nn  hn hn
j 1

Assim concluímos que:

n 1 n 1 n 1 n 1 n n
 
  Fij hi h j    Fij  Gij hi h j    fij   gij hi h j
i 1 j 1 i 1 j 1 i 1 j 1
 
Hessiano orlado:

 0 f1  fn 
 f1 H11  H1n 
H  
     
 
 fn H1n  H nn 
O Hessiano orlado é definido como: . Note as duas orlas nas
primeira linha e primeira coluna da matriz Hessiana. A condições de segunda ordem dos pontos
de máximo e mínimo serão dadas pela definição do Hessiano orlado discutido no apêndice
Definição de matrizes simétricas com restrição. Note que o Hessiano orlado poderia sair
diretamente do Lagrangeano se incluirmos  como uma variável pois:
 
 2L   , x  g  x   2L   , x
 0
xi  xi e  2
Apêndice. Definição de matrizes simétricas:

 m11 m12  m1n 


m m22  m2 n 
M n n   21 
     
   
Dizemos que a matriz  mn1 mn 2  mnn 
é definida positiva se h Mh  0
     
para qualquer h  0 . A matriz será definida negativa se h Mh  0 para qualquer  0 .
h

Teorema 1:

Se M é simétrica e definida positiva ou negativa então todos os elementos da diagonal ou são


 
positivos ou são negativos. Prova: como a propriedade é válida para qualquer h  0 basta
  
escolher
h   0 0  0 hk 0  0  o que significa que
h Mh  M kk hk2 . Logo se
   
hMh  0 então M kk  0 e se hMh  0 então M kk  0 para qualquer k   1, n  .

Teorema 2: se M é definida positiva ou negativa então todas as submatrizes

 m11 m12
 m1k 
m  m2 k 
m22
M k   12 
    
 
 m1k m2 k
 mkk 
serão definidas positivas ou negativas.
 
Prova: como a propriedade é válida para qualquer h  0 basta escolher
    
h   h1 h2  hk 0 0  0  o que significa que hMh  hk M k hk .

Teorema 3.

a. Se M é definida positiva então det M k  0 , ou ainda,


sign  det M k   1 para
k   1, n  .
qualquer
k 1
b. Se M é definida negativa então
sign  det M k    1 , ou seja, o sinal do

determinante vai alternando na forma


      .
A melhor forma de prova esse teorema é diagonalizar as submatrizes, mas é instrutivo analisar o
caso de uma matriz 2  2 e outra 3  3 com a técnica de completar quadrado.

Matriz 2  2 :

m m12   h 
q   h k   11  
 m12 m22   k 

 m h  m12 k 
q   h k   11   m11h 2  2m12hk  m22k 2
 m21h  m22 k 

 m 
q  m11  h 2  2 12 hk   m22k 2
 m11 

 m12  m12  2  m12  2 


2 2
2 2
q  m11  h  2 hk    k   k   m22 k
 m11  m11   m11  

 m  m 
2  2
m12
2 2 2
q  m11  h  2 12
hk   12
 k   m22 k  k2
 m11  m11   m11

2
 m12   m11m22  m12
2 
2
q  m11  h  k  k
 m11   m11 

 det M 2  2 m
q   det M 1  h*2  k h*  h  12 k
 det M1  onde m11 .

det M 2
0
Se q  0 e como h
*2 2
 0 e k  0 é preciso que det M 1  0 e det M 1 o que implica
det M 2
0
em det M 1  0 e det M 2  0 . Por outro se q  0 é preciso que det M 1  0 e det M 1

o que implica em det M 1  0 e det M 2  0 .


Matriz 3  3 :

 m11 m12 m13   h 


qh k l   m12 m22 m23   k 
  
m
 13 m23 m33   l 

 m11h  m12 k  m13l 


qh k l   m12 h  m22 k  m23l 
 
m hm k m l
 13 23 33 

q  m11h 2  2m12 hk  2m13hl  m22 k 2  2m23kl  m33l 2

q  m11h 2  2  m12 k  m13l  h  m22k 2  2m23kl  m33l 2

 1 1 
q  m11  h 2  2  m12k  m13l  h  2  m12k  m13l  2  
 m11 m11 
1
  m12 k  m13l  2  m22k 2  2m23kl  m33l 2
m11

2
 m k  m13l  1
q  m11  h  12 2
  m22 k   m12k  m13l  2  2m23kl  m33l 2
 m11  m11

2
 m k  m13l 
q  m11  h  12  
 m11 

1
m11
 2
m11m22  m12 
k2  2
1
m11
 m11m23  m12 m13  kl 
1
m11
2
m11m33  m13l2 
2
 m k  m13l 
q  m11  h  12  
 m11 


m 11m22
2 
 m12  
 k 2  2  m11m23  m12 m13  kl   m11m23  m12 m13  l 2  
2

m11 

m11m22  m122
 m 11m22  m12
2 2 
  
m 11m22
2
 m12  m m m m  2
 11 23 12 13
l2 
1
 2
m11m33  m13 l2 
m11
m m m  11 22
2 2
12
m11

 
2
2 
 m11m23  m12 m13  l 
2
 m12 k  m13l  m11m22  m12
q  m11  h     k  
 m 11  m 11 

2
m11m22  m12 
  

1

 m m  m2 m m  m2   m m  m m  2  l 2  
m m m m
11  2 
11 22
11 22
12 
12 11 33 13 11 23 12 13

 
2
2 
 m11m23  m12m13  l 
2
 m12 k  m13l  m11m22  m12
q  m11  h     k  
 m 11  m11 

2
m11m22  m12 
  
1  m112 2
m22 m33  m11m22 m13 2
 m11m12 2 2 
m33  m12 m13 2
  2 2 l
 2
m11 m11m22  m12  2 2
  m11m23  2m11m12m13m23  m12 m13 

 
2
2 
m11m23  m12 m13  l 
2
 m12 k  m13l  m11m22  m12
k    
q  m11  h   
 m 11  m11 

m m
11 22  m 2
12

  

m 11m22 m33
2
 2m12m13m23  m11m23 2
 m22 m13 2
 m12 m33 l 2

 2
m11m22  m12 
 det M 2  *2  det M 3  2
q   det M1  h*2  k  l
 det M1   det M 2 

det M 2 det M 3
0 0
Então se q  0 exigimos que det M 1  0 , det M 1 e det M 2 o que implica em
det M 1  0 , det M 2  0 e det M 3  0 . Mas se q  0 é preciso que det M 1  0 ,
det M 2 det M 3
0 0
o que implica em det M 1  0 , det M 2  0 e det M 3  0 .
det M 1 e det M 2

No entanto a melhor forma de provar o caso geral é usar a técnica de diagonalização de matrizes.

Já sabemos que se a matriz M é definida positiva ou negativa então as sub-matrizes M k


possuem a mesma definição. Sabemos que uma transformação de similaridade do tipo
 
M   S M S preserva o determinante e queremos descobrir o sinal de
1
q  h  M h
k k k . Seja Sk a


matriz que diagonaliza M k , simétrica, ou seja Sk M k Sk  Dk , então podemos fazer
     
q  hk Sk Sk M k Sk Sk hk , ou seja, q  hk Sk Dk Sk hk . Agora definimos hk*  Sk hk logo
   
hk*  hk Sk logo q  hk* Dk hk* .

 1 0  0
0   0
Dk   2 
    k
  q   i hi*2
 k 
Mas 0 0 então i 1 . Logo se q  0 então i  0 i , mas

se se q  0 então i  0 i . Se i  0 i então det Dk  0 , mas se i  0 i então

sign  det Dk    1 . Como a transformação de similaridade preserva os determinantes


k

então, a condição q  0 implica em


sign  det M k   1 k e a condição q  0 implica em

sign  det M k    1


2
k .
Apêndice: Definição de matrizes simétricas com restrição.

Suponha agora que os vetores possíveis devem obedecer a uma restrição do tipo: f1h  f 2k  0
. Nesse caso as duas variáveis h e k não são mais independentes, mas devem obedecer a
f2
h k
relação
f1 .

f 22 2 f
q  A11h  2 A12hk  A22k  A11 2 k  2 A12 2 k 2  A22k 2
2 2
f1 f1
Assim

2
k
q   f 22 A11  2 f1 f 2 A12  f12 A22  2
f1

E o sinal de q será definido pelo sinal de



sign  q   sign f 22 A11  2 f1 f 2 A12  f12 A22 .
0 f1 f2 
det  f1 A11 A12     f 22 A11  2 f1 f 2 A12  f12 A22 
f A12 A22 
Agora percebemos que  2 logo em
lugar de encontrar os sinais de dois subdeterminantes encontramos o sinal de apenas um mas
com uma orla.

Generalizando:

 H11 H12  H1n 


H H 22  H 2n 
H   12
     
 
Sem restrição com uma matriz Hessiana n  n da forma  H1n H 2n  H nn 
então

H H12 
det H 2  det  11
det H1  det  H11  ,  H12 H 22 
a matriz é definida positiva se ,
 H11 H12  H1k   H11 H12  H1n 
H H 22  H 2 k  H H 22  H 2 n 
det H k  det  12 det H n  det  12
           
   
 H1k H 2k  H kk 
até  H1n H 2n  H nn 
forem

todos positivos. A matriz será definida negativa se det H 2 k 1  0 e det H 2k  0 .

0 f1  fn 
f H11  H1n 
H  1

     
 
Com restrição:  fn H1n  H nn 
será definido positivo se os determinantes
det H  0 det H  0
3 , 4 , ..., det H  0
n 1
Apêndice. Definição de Matrizes e concavidade das curvas:

A definição da matriz Hessiana também define a concavidade da função. Se
f  x  é
estritamente côncava ou convexa então:
   
f  1    x   x   1    f  x    f  x  concava
   
f  1    x   x   1    f  x    f  x  convexa 
 
x e x .
para

     h 0
Então também vale para x  x  h com h  0 mas com . Nesse caso
      
 1    x   x   1    x   x   h  x   h então:

 x  h 
   
f  x   h    1    f  x    f concava

  h
    
f  x   h    1    f  x    f x convexa

Agora, por série de Taylor até segunda ordem sabemos que:

 
 
 n  1 n n 
f x  h  f  x    hi  i f  x     hi  ij f  x  h j
i 1 2! i 1 j 1

Que pode ser escrita como:

     1 
 
f x  h  f  x   h f  x   hHh
2
 
Fazendo h   h temos que:

   2  


 
f x   h  f  x    h f  x  
2
hHh

Logo:

   2        1  
f  x    h f  x   hHh   1    f  x     f  
x  h   f    hHh  concava
x
2  2 
   2        1  
f  x    h f  x   hHh   1    f  x     f  
x  h f    hHh  convexa
x
2  2 
   2       
f  x    h f  x   hHh  f  x    h f  x  hHh concava
2 2
   2       
f  x    h f  x   hHh  f  x    h f  x   hHh convexa
2 2

2     
hHh  hHh concava
2 2
2     
hHh  hHh convexa
2 2

 1   
hHh  0 concava
2
 1   
hHh  0 convexa
2

Como
   0,1 então   1     0 e a concavidade é definida por:
 
hHh  0 concava
 
hHh  0 convexa

ou seja, se o Hessiano for definido negativo a função é côncava e se for definido positivo a
função é convexa. É intuitivo que funções côncavas possuam máximos enquanto funções
convexas possuam mínimo.
Apêndice. Exemplos de Otimização com Restrição:

1. Maximizar y  x1 x2 s.r. x1  4 x2  16 .

L   , x   x1x2    x1  4 x2  16


L  x2    0  1
x1


L  x1  4  0  2
x2


L    x1  4 x2  16   0  3


x1
  x2 
Das equações (1) e (2) temos que 4 logo x1  4 x2 . Jogando essa relação na
restrição [equação (3)] temos
 4 x2  4 x2  16   0  x2  2  x1  8    2

A matriz Hessiana orlada

  2L  2L  2L 
 
 
2
x1 x1 
 2   0 1 4 
L  2L  2L  
H 
   1 0 1  x1 e x2
 x1 x12 x1x2  
 2   4 1 0 
 L  2L  2L 
 x  x1x2 x22 
 1 .

Entre os sub-determinantes D0 , D1 e D2 só o D2 interessa pois uma restrição começa no


1+1+1=3, e troca-se o sinal em relação ao determinante sem restrição. determinante

 0 1 4 
D2  det  1 0 1   4  4  8  0
 4 1 0 
  .
Como D2  0 com uma restrição o D2 sem restrição seria negativo, matriz definida negativa.
Assim ponto é de máximo.

Esse problema também é fácil de resolver por substituição. Da restrição temos que
x1  4  4  x2  y  4 x2  4  x2 
. Substituindo na função objetivo , logo
dy
 4  4  x2   4 x2  16  8 x2  0
dx2 e x2  2 e x1  4  4  2   8 . A segunda derivada
d2y
 8  0
dx22 , logo o ponto é de máximo.

f  x, y, z   xz  yz
s.r. y  z  1 e xz  3 .
2 2
2. Maximizar

 
L   , x   xz  yz  1 y 2  z 2  1  2  xz  3


L  z  2 z   1  2  z  0  1
x


L  z  21 y  0  2
y


L  y  x  21z  2 x  0  3
z


1

L   y2  z2  1  0   4


L    xz  3  0  5
2

Da equações (1) ou 2  1 ou z  0 . Mas z  0 entra em contradição com xz  3  0  3 .

Logo, obrigatoriamente, 2  1 .

z  21 y  0
y  21z  0

Extraindo z e substituindo

y  412 y  1  412 y  0  com duas opções y  0 ou
1
 1  4   0 . Novamente se y  0 então z  0 em contradição com xz  3 . Logo 
1
2
1
2

4 e
1 1
1  1  
2 e 2.

1 2
1   y z0  yz
Para 2 2

1 2
1   y z0  y  z
Para 2 2
2 2
Em qualquer um dos dois casos y   z a restrição y  z  1  2 z 2  1 , logo
1 1 3
z y x   3 2
2, 2 e z . Assim temos 4 pontos extremos:

 1 1 1 
 x, y, z, 1 , 2    3 2, , , ,1 
 2 2 2 
 1 1 1 
 x, y, z, 1 , 2    3 2,  ,  , ,1
 2 2 2 
 1 1 1 
 x, y, z, 1 , 2    3 2,  , ,  ,1
 2 2 2 
 1 1 1 
 x, y, z, 1 , 2    3 2, , ,  ,1
 2 2 2 

Agora vamos ao Hessiano Orlado:


  2L  2L  2L  2L  2L 
 
 1
2
12 x1 y1 z1 
 2 
 L  2L  2L  2L  2L 
 0 0 0 2 y 2 z 
 12 22 x2 y2 z2  
 2   0 0 z 0  x 
L  2L  2L  2L 2
L   0
H    z 0 0  1  2  
 x x2 x 2 xy xz   
 1
  2 y 0 0 21 1 
 L2
 2L  2L  2L  2L   2 z  x
    1  2  1 21 
 y1 y2 xy y 2 yz 
  2L  2L  2L  2L  2L 

 z z2 xz yz z 2 
 1
.

Como 2  1 então

 0 0 0 2 y 2 z 
 0 0  z 0  x 
 
H   0 z 0 0 0 
 
 2 y 0 0 2 1 1 
 2 z  x 0 1 21 

São 3 variáveis e 2 restrições então só o sub-determinante total D4 interessa. Podemos usar a


coluna ou a linha 3 cheia de zeros para diminuir a ordem do determinante:

 0 0 0 2 y 2 z 
 0   0 0 2 y 2 z 
0  z 0  x  0
 
 z 0 0 
det  0 z 0 0 0   z det
   2 y 0 21 1 
  2 y 0 0  2 1 1   
 2 z  x 0   2 z  x 1 21 
 1 21 

Agora usamos a linha 2 para diminuir mais uma ordem:


 0 2 y 2 z 
D4  z   z  det  2 y 21 1 
 2 z 1 21 

 
D4   z 2 4 zy  4 zy  8 z 21  8 y 21  8 z 2  zy  z 2  y 2 1 
    como y2  z 2  1
então:

D4  8 z 2  zy  1 

1 1 1 1
1   z  y  zy  z 2   1  zy    1 2
Para 2 2 2 2 portanto D4  8 z  0
logo se trata de ponto de máximo.

1 1 1 1
1    zy    1  zy     1 2
Para 2 2 2 2 portanto D4  8 z  0 logo se trata
de ponto de mínimo

 1 1   1 1 
 x, y , z    3 2, ,   x , y , z    3 2,  , 
Assim os pontos  2 2 e  2 2  são pontos de

 1 1   1 1 
 x, y , z    3 2,  ,   x, y, z    3 2, , 
máximo enquanto os pontos  2 2 e  2 2  são
pontos de mínimo. Voltando à função objetivo vemos que
 1 1  1 1 1 1 7 7
f  3 2,  , 3 2   3 
 2 2 2 2 2 2 2 logo 2 é o valor máximo. Já
 1 1  1 1 1 1 5 5
f  3 2,  ,  3 2   3 
 2 2 2 2 2 2 2 logo 2 é o valor mínimo.
Apêndice. Regra de Leibnitz:
h x 

F  x   f  x, t  dt d
F  x
g x
Seja . Queremos calcular dx .
h  x x  h x 

F  x    f  x  x, t  dt   f  x, t  dt
g  x x  g x

g x h x  h  x x  h x 

F  x    f  x  x, t  dt   f  x  x, t  dt   f  x  x, t  dt   f  x, t  dt


g  x x  g x h x  g x

h x  h  x x  g  x x 

F  x     f  x  x, t   f  x , t   dt   f  x  x, t  dt   f  x  x , t  dt
g x h x  g x

h x  h  x x  g  x x 
F  x   f  x  x, t   f  x, t   1 1
    dt   f  x  x, t  dt   f  x  x , t  dt
x g x 
x  x h x 
x g x 


P  x, t  P  x, t   f  x, t  P  x , t    f  x, t  dt
Agora, seja tal que x , ou seja, , então:

1
  x x 
P  x  x,   x  x    P  x  x ,   x  
 f  x  x , t  dt  
x  x x
P  x   x ,   x   x    P  x  x ,   x     x  x     x 
  
  x  x     x  x
P d d


 x,   x   
dx
 f  x,   x  
dx

Então:

h  x x 
1 dh
 f  x  x, t  dt  f  x  x , h  x  
x h x 
dx

g  x x 
1 dg
 f  x  x , t  dt  f  x  x , g  x  
x g x
dx
Logo:
h x 
dF  x  f  x, t  dh dg
  dt  f  x, h  x    f  x, g  x  
dx g x
x dx dx

Ou seja, a regra de Leibnitz de derivar integrais é:


h x  h x 
d f  x, t  dh dg
 f  x, t  dt   dt  f  x , h  x    f  x, g  x  
dx g  x  g x
x dx dx

Casos particulares?

1. Os limites não dependem de x . Nesse caso:

d
b b
f  x, t 
 f  x, t  dt   dt
dx a a
x

2. O integrando não depende de x . Nesse caso:


h x 
d dh dg
 f  t  dt  f  h  x    f  g  x 
dx g  x  dx dx
Apêndice. Condições de Segunda Ordem do Cálculo Variacional:

t
dJ 2
  f y   f y   dt f f
d  t1
fy  f y 
Já sabemos que onde y e y . Aplicando a segunda derivada
temos:
t
d 2J 2
   f yy  2  f yy   f yy   f yy   2  dt
d 2
t1

Que pode ser escrito na forma matricial:

d 2J 2
t
 f yy  f yy   
 
d  2 t1
   f dt
f yy   

 yy

Assim:

d 2J  f yy  f yy 
 f f yy 
0
d 2 se a matriz  yy for definida positiva e o extremo é de mínimo.

d 2J  f yy  f yy 
 f f yy 
0
d 2 se a matriz  yy for definida negativa e o extremo é de máximo.

Logo, usando as regras dos determinantes das matrizes definidas positivas e negativas, temos que
f yy f yy    f yy   0
2

o extremo será de máximo ou mínimo se . Se essa condição não for satisfeita o


f yy   0 f yy   0
ponto é de sela. Será mínimo se e máximo se . Estas são as condições de
Legendre.
Apêndice. Condições de Transversalidade:
T
J   f  t , y , y  dt
Suponha agora o problema de encontrar o extremo de 0 sem a exigência de que
T e ou y  T  sejam fixos. Para simplificar vamos manter o ponto inicial fixo em  t1 , y1    0, yo 
y*  t  *
. A nova parametrização, considerando a trajetória ótima, T o tempo final ótimo e
y *f  y *  T * 
o y final ótimo, será:

y  t   y*  t      t 

T  T *  t    T

y f  y *f   y

Agora o funcional é dado por:

T *  T

J    f  t , y *   , y *    dt
0

E devemos derivar também o limite de integração usando a regra de Leibnitz, da forma:

T *  T
d  f f 
J     y   y   dt  f  T  T  T
*

d 0  

Logo
T*
d  f f 
J         dt  f  T *  T
d  0 0 
y y 

A integral por partes agora também deve ser feita com cuidado porque o termo uv não é mais
nulo:

T* T* T* T*
f f d f f d f
  dt      dt   T *    T *     dt
0
y y 0 0
dt y y 0
dt y

Substituindo no resultado anterior temos:


T*
d  f d f  f
J       dt   T *    T *   f  T *  T
d  0 0 
y dt y  y

 y  y f  y *f  y  T *  T   y *  T * 
Agora

y  T *  T   y *  T *  T     T *  T 


y  T *  T   y *  T *   y *  T *  T   y *  T *     T *  T 
y   y *T    T *  T 

Logo

  T *  T   y  y *T   0   T   y  y T . Substituindo na equação


* *
e no limite
acima temos:

T* *
d  f d f  f  f 
J       dt   T *  y   f  y  T
d  0 0 
y dt y  y  y 

O extremo será dado pela condição:

T* *
 f d f  f *  f 
0  y   dt y   dt  y  T  y   f  y y  T  0

  t
Novamente a função é arbitrária significando que a integral e os outros dois termos devem
ser nulos independentemente. Para a integral ser nula continua valendo a equação de Euler-
Lagrange:

f d f
 0
y dt y

Mas a ela devemos acrescentar as condições de transversalidade:


*
f *  f 
y
 T  y   f  y  T  0
y 

Exemplos de fixação:

Considere o problema de encontrar a distância à origem em um plano x, y . A trajetória agora é


y  x
e manteremos a notação fazendo x  t . Nesse caso d   dt  dy  1  y dt
2 2
2
e
T
   1  y 2 dt
f  t , y, y   1  y 2 fy  0
0 . A função objetivo . Nesse caso e

y
1  y 2  y
1  y 2 1  y 2  y 2 1
1 2 y y f yy    
f y  
   1  y   1  y 
2 3 3
2 2
2 1  y 2
1  y 2 1  y 2 2 2

. Note que o que


f yy   0
significa que sempre, e o problema é de mínimo.

d d
fy  f y  0 f y  0 f y  c
Equação de Euler-Lagrange dt nos leva a dt ou seja , logo
y c2 c
c y  c  1  y
2 2 2
  y 
2
 y  a
1  y 2
1  c2
. Assim 1  c2 . Se y  a então
y  at  b . Como y  0   0 , então b  0 e a reta y  at que passa na origem é uma solução.
Retas gerando distâncias mínimas são esperadas. Falta determinar o coeficiente angular da reta.

y2 y
a y t  2 t
y  T   y2
Caso 1. T  t2  fixo e , então y2  at2 , logo t2 e a reta t2 é a

trajetória de menor distância entre a origem e o ponto  t 2 , y2  .

y
f y 
Caso 2. T  t2  fixo mas   , então vamos impor que y  
y T  livre f T 0 1  y 2
. Mas
a
f y  t
logo a  0 e a reta horizontal  
y t 0
, y  a logo 1  a2 é a trajetória de menor

distância entre a origem e o ponto  t2 , 0  .

y T   yf f  T   yf
 y  T   0
Caso 3. T  livre mas , então vamos impor que . Mas
a
f y  t
f  1  y  1  a
2 2
, y  a e 1  a2 logo
a 1 1
f  T   yf
 y  T   1  a 2  a  0
1  a2 1  a 2 a  0 . Entretanto, para que 1  a2 é preciso
yy
T 0
que a   e a reta horizontal  
y t 0 a
e . A trajetória é a reta vertical entre a

origem e o ponto
 0, y  . f

  T   T  
Caso 4. O ponto final deve cair na reta . Nesse caso impomos a condição
f  T   yf
 y  T   0
, com    temos que a condição dada por
 f  y   f y
,. Mas
 
a 1 1
1 a2   a    a y t
1  a 2 , logo 1  a  a   a   a  1 e  . Nesse caso 
2 2

  T   T  
é a reta perpendicular à que passa pela origem. O ponto de encontro das retas é
1  2 1 
 T  T   T   T 
dado por  ou seja  , ou seja, 1  2 .

Exercício: Considere o problema da trajetória de menor distância da origem até o círculo


 y  yo    T  To   R 2
2 2

. Mostre que a trajetória é a reta que passa pela origem e pelo centro

do círculo  To , yo  . Determine T e   .
y T
Apêndice. Exemplos de fixação da Teoria do Controle Ótimo:

Exemplos de fixação:
T
V     1  u 2  2 dt
1

s.r. y  u e  
y 0 A
1. Maximizar 0 .

H    1 u2 
1
2
 u
Nesse caso ,

H 1 u
   1  u 2  2  2u     0
1

u 2 logo 1 u2 , então:
u2 2 
 2  u 2   2   2u 2  u2   u
1 u 2
1 2 1 2

H
   0
logo   o constante. Como  
y  T 0
então   0 , logo u  0 . Neste caso
y  0 e y  A .

2. Vamos apresentar um problema em que a variável de controle pode ser descontínua.


2
V    2 y  3u  dt
y 0  4 y  2   livre u  t    0, 2
Maximizar 0 s.r. y  y  u ;   ; e .

H  2 y  3u    y  u 
Nesse caso .

H   0 se   3
  3  
Maximizar H em relação à u : u   0 se   3 . Temos que escolher u que
maximiza H , o qual é uma função linear de u . Assim se   3 o u que maximiza H será
u  2 , o maior valor permitido para o u . Já se   3 o u que maximiza H será u  0 , o
menor valor permitido. Dessa forma podemos escrever:

2 se   3
u*  t   
0 se   3
H

Notando que o fato de que H é uma função linear de u implica que u sempre, para
H
0
qualquer u , e a condição u sempre, não pode valer nesse caso para determinar u . O

critério claro é que escolhendo u que maximiza H o tempo todo teremos  Hdt máximo.

Encontrando  :

H
    2  
y logo     2 uma equação diferencial de primeira ordem. Usando a

solução   o e  1 , temos que o e  o e  1  2 , ou seja, 1  2 e 


t t t
  1 o e t  0
, ou

seja,   1 . Dessa forma   o e  2 .


t

  2  0
logo o e  2  0 e
2
Por outro lado as condições de transversalidade impõem que
o  2e 2 , portanto,   2  e  1 . Para t  0   0   2  e  1  12.778  3 e, claro,   2   0 .
2 t 2

5
  t*   3  
*
e 2 t 
*
2 e 2 t  1  3
O tempo limite em que é definido por , ou seja, 2 . Aplicando o
logaritmo de ambos os lados, 2  t  ln 5  ln 2 , ou seja, t  2  ln 5  ln 2  1.084 . Com isso
* *

temos:

 2 0  t  1.084
u*  t   
0 1.084  t  2

y t
Falta encontrar :

H
y   yu
 , logo y  y  u . Como u é constante por partes, podemos tomar a solução
y  ae pt  b e y  pae pt , logo, pae pt  ae pt  b  u de onde tiramos b  u e  p  1 ae  0 ,
pt

com p  1 . Temos duas regiões t  t e t  t .


* *

yI  t   a1et  2 0  t  t *

yII  t   a2 et t*  t  2
yI  0   4
Usando a condição inicial tiramos que a1  2  4 logo a1  6 . A outra condição é que
y t yI  t *   yII  t * 
* *

, logo 6e  2  a2 e de onde extraímos que


t t
é contínua, então


a2  2 3  e  t
*

 . Finalmente temos:
 2  3et  1 0  t  t *

y  t  
*


 t*
2 3  e e t  t  2
t *

T
V     t 2  u 2  dt
s.r. y  u ;  
y 0  4 y  T   5 T  livre
3. Maximizar 0 ; e .

Nesse caso y  0 e  
 T  0 H   t  u  u
e
2 2
.
 
H 
 2u    0 u
u logo 2

H o
 0    0    o  u
y 2

H   o
y  u  o y  o  y tc
. Com a condição inicial  
 y 0 4
2 logo 2 2 temos c  4
o
y t4
2 .

2  1
y T   5  T  2 o  u o 
A outra condição é que então o ou T , logo 2 T . Só falta encontrar

 1  21 1
H  T    T 2  2   0 T 2
 0
T . Para isso usamos H  T   0 , então  T  TT logo T2 e
T 4  1 . As raízes de T 4  1 são T   1, 1, i, i , sendo a única real e positiva T  1 . Assim
determinamos todas as variáveis e trajetórias:

1
y  t4
2 ; u  1;   2 e T 1.
Apêndice. Formalismos Hamiltoniano e Lagrangeano da Mecânica Clássica:

Vamos usar os dois formalismos, do Cálculo das Variações e da Teoria do Controle Ótimo
sumarizados na tabela abaixo.

Cálculo das Variações Teoria do Controle Ótimo


t2

J   f  t , q, q  dt
Problema: Otimizar t1
sujeito
à restrição 
h t , q, q   0
.
Usa a Lagrangeana para transformar o t2

problema em: V   L  t , q, u  dt
L  f  t , q, q    g  t , q, q  Problema: Otimizar t1
sujeito
t2 y  g  t , q, u 
às restrições .
J   L  t , q, q ,   dt
t1

Trajetória ótima segue equação de Euler- Usa a Hamiltoniana H  L   u e as


L d L trajetórias ótimas seguem equações de
 0 Hamilton-Jacobi:
Lagrange: y dt y H
H   H  0 dH  H
 y
 ; y ; u ; dt t

Mecânica Clássica no Cálculo das Variações. Trocam-se as leis de Newton pelo princípio da
t2

A   L  t , q, q ,   dt
Ação Mínima em que a trajetória é aquela que minimiza t1
. Agora basta
mostrar que que usando:

1 2 V
L  T V com T  mx e F 
2 x
Recuperamos as leis de Newton.

L V L T
 F   mx
x x e x x , portanto a equação de Euler-Lagrange
L d L
 0
x dt x nos leva a:

d
F mx  0  F  mx
dt
L T
  mx  p
Vale notar que x x é o momento.
t

 
2

A   L t , x , x dt
Generalizando o Cálculo das Variações para n coordenadas t1
temos que
L d L
 0
resolver n equações de Euler-Lagrange do tipo xi dt x i . Se temos um sistema com
n partículas com 3 graus de liberdade (x,y,z) para cada partícula teremos 3n coordenadas no
xi i   1, 2,3, , 3n
total que vamos denotar por .

A grande vantagem do formalismo Lagrangeano na Mecânica Clássica é a possibilidade de


mudar as variáveis para satisfazer restrições específicas. Então vamos mudar das coordenadas

cartesianas x para um conjunto de coordenadas dado pelas transformações:

qi  qi  x1 , x2 , , x3n ; t  xi  xi  q1 , q2 , , q3 n ; t 
e sua transformação inversa .

T
pi  mx i 
Nas coordenadas cartesianas sabemos que o momento é dado por x i então, por

T
p 
analogia, vamos definir um momento generalizado através de q  . Suponha uma
transformação de coordenadas em que não há uma dependência explícita do tempo, então:

xi
dW  Fi dxi  Fi dq j  Q j dq j
q j

xi
Q j  Fi
q j
A força generalizada é definida por . Se as forças são conservativas então existe uma
função potencial V tal que dW  dV e V só depende de q mas não de q e t , então:

V
dW   dq j  Q j dq j
q j
logo:

V
Qj  
q j
Novamente obtemos um Lagrangeano L  T  V e as equações de Euler-Lagrange em termos
T L V
pk   Qk  
das coordenadas generalizadas qk , q k q k e qk :

d  L  L
  0
dt  q k  qk

Formalismo Hamiltoniano:

Primeiro vamos analisar o caso univariado na k  esima coordenada. No formalismo


t2

J   L  t , qk , q k  dt
Lagrangeano achar o extremo de t1
nos leva às equações de Euler-Lagrange
d  L  L L d L
  0  pk  p k  p k
dt  q k  qk q dt q
, ou seja, k ou seja k . No formalismo Hamiltoniano
t2

J   L  t , qk , uk  dt
sujeito à restrição uk  qk sobre a qual fazemos

queremos o extremos de t1

a transformação de Legendre: H  L  uk que nos leva às equações de Hamilton:

H H L L
0     0 
uk q k q k , logo q k . O significado do mulitplicador de Lagrange

nesse caso é que   pk é o momento generalizado. Além disso:

H H
    p k
qk q
portanto k

H H
 q k  q k
 logo pk

H H
  p k  q k
As equações de Hamilton-Jacobi são: qk e pk .

O Hamiltoniano é obtido do Lagrangeano através da transformação de Legendre:


H  L  pk q k . Usando os mesmos passos clássicos que levaram do Lagrangeano para o

Hamiltoniao pode-se mostrar que H  T  V .

Você também pode gostar