Você está na página 1de 74

Otimizao sem restries:

Suponha que a funo f ( x ) :

de classe C

k >2

tenha um extremo, mximo ou mnimo

r*

ou ponto de sela, em x = x . Vamos transformar o problema de n dimenses em um problema

r*

de uma dimenso atravs da parametrizao: x = x + th onde t

(r

e h 0 . Nesse caso a

*
funo de uma varivel g ( t ) = f x + th tem extremo em t = 0 para h . A condio de

primeira ordem para ser ponto de mximo, mnimo ou sela que g ( 0 ) = 0 . Derivando g ( t )
obtemos:

d
f d *
f d *
f d *
g (t ) =
x1 + th1 +
x2 + th2 + L +
xn + thn
dt
x1 dt
x2 dt
xn dt

d
f
f
f
g ( t ) = h1
+ h2
+ L + hn
dt
x1
x2
xn
Logo, para ser um ponto extremo preciso que:

h1

f
f
f
+ h2
+ L + hn
=0
x1
x2
xn

Agora, essa igualdade deve


r
h = ( 0 0 L 0 hi 0 L 0 )

ser

verdadeira

ento

hj
j

para

qualquer

f
f
= hi
=0
x j
xi

r
h .

Escolhendo

implica

que

r
r

f x * = 0 . Fazendo i = 1, 2,L, n percebe-se que


f x * = 0 para i . Em termos
xi
xi

( )

( )

vetoriais isso pode ser escrito da forma:

r
r
f x * = 0 .

( )

Condies de Segunda Ordem:


Se o ponto extremo for de mximo ento g ( 0 ) < 0 , e se for de mnimo ento g ( 0 ) > 0 . Em
outras palavras a condio de segunda ordem dada pelo sinal da segunda derivada:

sign g ( 0 ) = 1 ponto de mximo, e sign g ( 0 ) = +1 ponto de mnimo. Calculando


a segunda derivada temos:

f
2 f
d2
d
d f
= hi
= hi h j
g ( t ) = hi
dt i xi i dt xi i
x j xi
dt 2
j
Ou seja:

d2
2 f
g ( t ) = hi
hj
x j xi
dt 2
i j
2 f
. Trata-se de uma matriz simtrica pois
A matriz Hessiana definida como: H ij =
x j xi
2 f
2 f
=
= H ji . Podemos escrever essa derivada na forma de uma
H ij =
x j xi xi x j
r r
d2
H h . Algumas pessoas usam a notao
multiplicao de matrizes como
g
t
=
h
(
)
dt 2

H = 2 f , mas no gostamos dessa notao na fsica porque mesma do Laplaciano


2
= = 2 que um operador escalar e no tensorial como o Hessiano.
i xi
2

hi H ij h j = ( h1 h2
i

H11 H12
H
H 22
L hn ) 21
M
M

H n1 H n 2

L H1n h1

L H 2n
h2
O
M M

L H nn hn

r r
d2
Nesse caso a condio para o ponto extremo ser de mximo que 2 g ( t ) = hH h < 0 , o que
dt
significa que a matriz Hessiana deve ser definida negativa. J para ser de mnimo a condio
que

r r
d2
g
t
h
=
( ) H h > 0 , o que significa que a matriz Hessiana deve ser definida positiva. Se
dt 2

a matriz Hessiana no for nem definida positiva, nem definida negativa, ento o ponto de sela.
Anlise da definio de matrizes simtricas apresentada no apndice xxx. O fato de que a

definio da matriz Hessiana define a concavidade da curva apresentado no apndice xxx


sobre srie de Taylor de funes multivariadas.

Teorema da funo envelope:


r
Suponha que desejamos achar o extremo de uma funo de x que depende de um parmetro
, ou seja o problema :

r
extremo { f ( x , )} sem restries.

As condies de primeira ordem so:

r
f
r
= f i ( x * , ) = 0 onde x * o ponto extremo. Vamos definir uma funo de dada por
xi
r
r
( ) = f x * ( ) , . Note que se o problema for de mximo ento, para um x
r
r r
fixo, f [ x , ] ( ) , s tocando a curva ( ) quando x = x * ( ) . Se for de mnimo ento
r
r
f [ x , ] ( ) . Por isso a funo ( ) uma funo envelope para a funo f [ x , ] .
Pergunta : quanto vale

d
?
d

Incluir figuras da funo envelope!!


r
f ( x * , ) dxi* f
d
=
+
d
xi
d
i
Entretanto

r
f ( x * , )
xi

= 0 nos extremos, logo chegamos ao resultado do teorema da funo

envelope:
d f
=
.
d

Otimizao com restrio de igualdade:

Suponha agora a seguinte problema: otimizar f ( x ) sujeito restrio g ( x ) = c , ou

r
r
r
g ( x ) c = 0 . Agora nem todo x permitido, s os que satisfazem restrio g ( x ) = c .

Existe um raciocnio intuitivo simples que nos permite resolver esse problema. O gradiente de
uma funo perpendicular s curvas de nvel da mesma. Por um lado sabemos que df = 0
porque na curva de nvel f constante. Por outro lado, das regras do clculo sabemos que:
df =

f f
f
f
f
f
dx1 +
dx2 + L +
dxn =
,
,L ,
x1
x2
xn
xn
x1 x2

( dx1 , dx2 ,L , dxn )

r
r
r
O que significa que f d l = 0 , que nos leva concluso de que f d l , com d l sendo um

deslocamento infinitesimal na curva de nvel. A restrio g ( x ) = c uma curva de nvel da


funo g . Alm disso, como a prpria restrio s deslocamentos sobre a mesma so
possveis. Figura xxx mostraem vermelho a restrio e os gradientes da funo g . No mesmo
grfico desenhamos em preto diferentes curvas de nvel da funo f e seus respectivos
gradientes nos mesmos 3 pontos da restrio. Note que no ponto de encontro mais esquerda
existe uma componente do gradiente da f ao longo da curva de restrio para direita. Isso
significa um deslocamento para direita ao longo da curva de restrio aumentar o valor da
funo f . J no ponto mais direita a componente do gradiente de f ao longo da curva est na
direo esquerda, assim um deslocamento na curva de restrio nessa direo aumenta o valor de
f . Apenas no ponto em que a restrio tangencia uma curva de nvel, com ambos os gradientes
paralelos, impossvel aumentar o valor de f atravs de deslocamentos na restrio.

Esse argumento nos indica, ento, que no ponto extremo com restrio os dois gradientes, da
restrio e da funo f devem ser paralelos. Matematicamente isso escrito como f = g ,
ou ainda como ( f g ) = 0 . A constante chamada multiplicador de Lagrange.
Assim percebe-se que podemos definir uma funo Lagrangeana dada por:

r
r
r
L ( , x ) = f ( x ) g ( x ) c
Que se comporta como o problema da otimizao sem restries, ou seja:

r
L ( , x ) = 0
Assim as condies de primeira ordem para um extremo da funo f sujeito restrio

g = c so que

L ( , x ) = 0 i = 1, 2,L, n . Essa equao deve ser resolvida em conjunto


xi

com a restrio g = c . Entretanto, notamos que

f ( g c ) = 0 implica em

( g c ) = 0 , ou seja, a prpria restrio. Dessa forma, usando a funo Lagrangeana o nosso


problema resolver o conjunto de equaes simultneas:


r
L ( , x ) = 0 i = 1, 2,L, n
xi
r

L ( , x ) = 0

Uma demonstrao mais rigorosa desse resultado incluindo as condies de segunda ordem
apresentado no apndice Otimizao com Restries: demonstrao rigorosa. Exemplos tambm
so apresentados no apndice Exemplos de Otimizao com Restrio.

Teorema da funo envelope com restries:


r
Suponha que desejamos achar o extremo de uma funo de x que depende de um parmetro ,
ou seja o problema :

r
r
extremo { f ( x , )} com a restrio g ( x , ) c = 0 .

Cujas solues so dadas por:

r
L
r
= L i ( x* , , ) = 0 e
L x * , , = 0
xi

r
( ) = f x * ( ) ,
e
envelope
por
r
r
f ( x * , ) dxi* f
f ( x * , )
d
=
+
. S que agora
0 . Mas a restrio continua valendo, ou
d
xi
d
xi
i
r
g ( x * , ) xi* g
dg
r*
=
+
= 0 . Subtraindo esse zero na derivada de
seja, g ( x , ) = 0 , logo:
d
xi

i

Novamente

definimos

funo

temos:
r
r
r
r
f ( x * , ) dxi* f ( x * , )
g ( x * , ) dxi*
g ( x * , )
d
=
+

=
d
d
d
xi

xi

i
i
f
g dxi* f
g
=

xi d

i xi
f
g
Agora sim

= 0 no extremo, logo:
xi
xi

d f
g L
=

=
d

d L
=
.
d

Esse teorema nos permite extrair uma interpretao do significado do multiplicador de Lagrange
r
. Note que devido ao fato de que a restrio nula, g ( x , ) c = 0 , a funo objetivo que se
r
deseja otimizar f ( x , ) tem o mesmo valor de L = f ( g c ) . Se derivamos em relao
d L
=
= ( c ) . Ou seja, ( c ) o preo por unidade c da
dc
c
restrio que se paga em no melhorar o objetivo por conta da restrio. Se ( c ) < 0 poderamos

ao parmetro c

vemos que

aumentar a funo objetivo diminuindo o valor da restrio c , j se ( c ) > 0 poderamos


aumentar a funo objetivo aumentando o valor da restrio c , e se ( c ) = 0 o mximo com
restrio coincide com o mximo sem restrio e no h qualquer penalidade devido restrio.

Dualidade nos mtodos de otimizao.


Suponha o problema de otimizao, sem especificar priori se de mximo ou de mnimo:

r
r
Otimizar f ( x ) sujeito restrio g ( x ) = g o .

Condies de primeira ordem:


Achamos o Lagrangeano

r
r
r
L1 ( , x ) = f ( x ) g ( x ) go
e procuramos a soluo das equaes:
L1 f
g
f
g
f
g
ento
=

= 0 logo
=
.
x j x j
x j
x j
x j
x j
x j

L1
r
r
= g ( x ) + go ento g ( x ) = g o .

r
r
Resolvendo esse conjunto de equaes encontramos x * , * e fot = f ( x * ) , no qual, obviamente,
r
g ( x * ) = go .

Condies de segunda ordem:

O Hessiano orlado dado pelas derivadas segundas do Lagrangeano


2L1
2 f
2 g
2L1
g
2L1
=

= f ij gij ,
=
= gi e
=0
xi x j xi x j
xi x j
xi
xi
2

com as quais construmos a matriz:

g1
H% = g 2

M
g
n

g1
f11 g11
f12 g12

g2

f12 g12 L
f 22 g 22 L

M
f1n g1n

f2n g2n L

f1n g1n
f2n g2n .

f nn g nn
gn

Denotando um subdeterminante por:


0
g
1
k = det g 2

M
g
k

g1

g2

( f11 g11 ) ( f12 g12 )


( f12 g12 ) ( f 22 g 22 )
M
( f1k g1k )

L
L
L

M
O
( f 2 k g2 k ) L

( f1n g1k )
( f2n g2k )

( f kk g kk )
gk

Se a soluo for um ponto de mximo ento:


k

2 > 0 , 3 < 0 , 4 > 0 , ou seja, sign [ k ] = ( 1) .

J o ponto for de mnimo ento todos os subdeterminantes so negativos e:


sign [ k ] = 1 k .

Problema DUAL.

Vamos inverter as funes objetivo e restrio e trocar o problema para:

r
r
Otimizar g ( x ) sujeito restrio f ( x ) = f max .

Agora o Lagrangeano dado por:


r
r
r
L 2 ( , x ) = g ( x ) f ( x ) f max

e encontramos a soluo atravs das equaes:

L 2 g
f
g
f
g
f
ento
=

= 0 logo
=
.
x j x j
x j
x j
x j
x j
x j

1
g 1 f
=
vemos que basta fazer =
para voltar
x j x j

r
absolutamente s mesmas equaes anteriores. A restrio ser, obviamente, f ( x ) = f max .

Comparando com a situao anterior

r
L 2
= f ( x ) + f max

r
1
r
Isso mostra que o mesmo ponto x * , com * = * , f max = f ( x * ) , no qual sabemos que

r
g ( x * ) = go , soluo das equaes de Lagrange. O problema dual, portanto, fornece a mesma
soluo do problema original. Resta saber se mantm maximizao/minimizao ou se troca,
maximizao se torna minimizao e vice-versa. Para isso precisamos das condies de segunda
ordem.

Vejamos como fica o Hessiano orlado agora.

2L 2
2 g
2 f
=

= gij f ij
xi x j xi x j
xi x j

Usando o fato de que =

re-escrevemos essa derivada segunda como:


2L 2
1
1
= gij f ij = ( f ij gij )

xi x j
2L 2
1 2L1
=
xi x j
xi x j

As orlas so obtidas atravs de:


2L 2
f
=
= fi .
xi
xi

Por outro lado

g
f
1
=
logo f i = gi = gi ento:
xi
xi

2L 2
= gi
xi
2L 2
2L 1
=
xi
xi

Claro que

2L 2
= 0.
2

O Hessiano orlado, ento, muda para:


0

g1

H% = g 2

g1

( f11 g11 )

( f12 g12 )

g 2
1

( f12 g12 )

( f 22 g 22 )

( f1n g1n )

( f2n g2n )

1
( f1n g1n )

1
( f2n g2n ) .

1
( f nn g nn )

g n

No qual o sub-determinante de ordem k dado por:


0

g1

% k = det g 2

g k

g1

g 2

( f11 g11 )

( f12 g12 )

( f12 g12 )

( f 22 g 22 )

( f1k g1k )

( f2k g2k )

O
L

1
( f1n g1k )

1
( f2n g2k )

1
( f kk g kk )

g k

Sabemos que multiplicar uma linha ou uma coluna por uma constante multiplica o determinante
pela mesma constante, assim podemos pegar a primeira linha e colocar em evidncia, e para
1
cada uma das demais linhas colocar em evidncia. Nesse caso temos que:

0
2g
1
k

% = 1 det 2 g
2
k

M
2g
k

g1

g2

( f11 g11 ) ( f12 g12 )


( f12 g12 ) ( f 22 g22 )
M
( f1k g1k )

L
L
L

M
O
( f 2 k g2 k ) L

( f1n g1k )
( f2n g2k )

( f kk g kk )
gk

Agora colocamos 2 na primeira coluna para obter:


0
g
k
1
% = 1 ( 2 ) det g
2
k

M
g
k

g1

g2

( f11 g11 ) ( f12 g12 )


( f12 g12 ) ( f 22 g22 )

L
L

M
( f1k g1k )

M
O
( f 2 k g2 k ) L

g1

g2

( f1n g1k )
( f2n g2k )

( f kk g kk )
gk

Ou seja:
0
g
k +1
1
% = ( 1) det g
2
k
k 3

M
g
k

( f11 g11 ) ( f12 g12 )


( f12 g12 ) ( f 22 g22 )
M
( f1k g1k )

k +1

( 1)
% k =
k
k 3

Aqui temos dois casos:

1. Multiplicador de Lagrange positivo > 0

k 3

L
L

M
O
( f 2 k g2 k ) L

Assim mostramos que:

Nesse caso o termo

no muda o sinal e
k +1
sign % k = ( 1) sign [ k ] .

( f1n g1k )
( f2n g2k )

( f kk g kk )
gk

Se o soluo do problema 1 foi de mximo ento sign [ k ] = ( 1) e se foi de mnimo ento

sign [ k ] = 1 .
O problema dual ento ser:
k +1
k
sign % k = ( 1) ( 1) = 1 k de mnimo quando o original mximo.
k +1
k
sign % k = ( 1) ( 1) = ( 1) , de mximo quando o original mnimo.

2. Multiplicador de Lagrange negativo < 0

Nesse caso = e k 3 = ( 1)

k 3

k 3

portanto:
k +1

( 1) sign = 1 4 sign ,
sign % k =
[ k] ( )
[ k]
k 3
( 1)
sign % k = sign [ k ]
Isso mostra que se o multiplicador de Lagrange negativo o problema dual tem a mesma
caracterstica do que o problema original, ou seja, problema dual de maximizao tambm de
maximizao e de minimizao tambm de minimizao.

Significado do sinal do multiplicador.

Quando o multiplicador positivo os gradientes de ambas as funes, f ( x ) e g ( x ) apontam na


mesma direo, ou seja, no so apenas paralelos. Isso significa que f ( x ) e g ( x )
crescem/decrescem na mesma direo. J se o multiplicador negativo os gradientes apontam
em direes opostas. Se uma das funes cresce em determinada direo a outra decresce. Figura
xxx mostra intuitivamente o efeito do sinal de no problema dual.

Otimizao com restrio de desigualdade:

Suponha agora a seguinte problema: otimizar f ( x ) sujeito restrio g ( x ) c e compar-lo

como problema otimizar f ( x ) sujeito restrio g ( x ) = c . Vamos usar a mesma figura

Conside a figura xxx. A regio vermelha a regio g ( x ) b , significando que o gradiente da


restrio aponta para fora dessa regio. Se o gradiente da funo f tambm aponta na mesma
direo quer dizer que o mximo da funo estar na fronteira g ( x ) = b e a restrio colou. Por
outro lado se o gradiente de f est na direo contrria o mximo estar dentro da regio
g ( x ) < b e a restrio no tem qualquer efeito, ou seja, no colou. Nesse caso se procura o

mximo sem restrio. No caso da restrio de igualdade, g ( x ) = b , o ponto extremo tem que
estar obrigatoriamente na fronteira, mas no no caso da restrio de desigualdade, g ( x ) b .
Note ento que no problema de achar mximo a restrio s cola se f = g se f e g
estiverem na mesma direo, isto , > 0 . Vale notar que no problema de achar mnimo isso se
inverte. Se se f e g estiverem na mesma direo podemos diminuir a funo entrando na
regio de desigualdade. No caso de minimizao ento a restrio cola se > 0 .

Comparando ento com o problema de maximizao com restrio de igualdade temos que se
> 0 a restrio colou e deve-se resolver o sistema de equaes:

f
g

= 0 i {1, 2,L , n}
xi
xi

>0

r
g (x) = c

Por outro lado se a restrio no colou temos um problema de maximizao sem restrio e s
temos que resolver as equaes

f
= 0 i {1, 2,L , n} . Podemos escrever essas duas
xi

possibilidades em um conjunto de equaes apenas da forma:

f
g

= 0 i {1, 2,L , n}
xi
xi
r
g ( x ) c = 0
0
r
Note que agora a condio g ( x ) c = 0 leva a apenas duas opes:
r

1. 0 ento g ( x ) c = 0 e a restrio colou, logo:

f
g

= 0 i {1, 2,L , n}
xi
xi
r
g ( x ) c = 0
0
r

2. g ( x ) c 0 e = 0 levando ao sistema

f
= 0 i {1, 2,L , n} .
xi

Com esse exemplo podemos extrair as regras:

r
r
r
r
1. Maximizar f ( x ) s.r. g ( x ) c ento L = f ( x ) g ( x ) c e devemos resolver
as equaes:

L
r
= 0 , g ( x ) c = 0 e 0 .
xi

r
r
r
r
2. Maximizar f ( x ) s.r. g ( x ) c ento L = f ( x ) + g ( x ) c e devemos resolver
as equaes:

L
r
= 0 , g ( x ) c = 0 e 0 .
xi

r
r
r
r
3. Minimizar f ( x ) s.r. g ( x ) c ento L = f ( x ) g ( x ) c e devemos resolver
as equaes:

L
r
= 0 , g ( x ) c = 0 e 0 .
xi

r
r
r
r
4. Minimizar f ( x ) s.r. g ( x ) c ento L = f ( x ) + g ( x ) c e devemos resolver
as equaes:

L
r
= 0 , g ( x ) c = 0 e 0 .
xi

r
r
Note que restries do tipo g ( x ) c podem ser transformadas em g ( x ) c , logo o problema
r
r
pode sempre ser tratado com a restrio do tipo g ( x ) c para maximizao e g ( x ) c para
r
minimizao bastando redefinir g ( x ) e c . Dessa forma o Lagrangeano sempre ser do tipo

r
r
r
L = f ( x ) g ( x ) c , sempre exigindo que g ( x ) c = 0 e 0 . Essa regra
ecvita ter que trocar o sinal de no Lagrangeano.

Otimizao com restries mistas:


r
r
r
r
f (x)
s.r.
h1 ( x ) = c1 ; h2 ( x ) = c2 ;L ; hm ( x ) = cm
1. Maximizar
r
r
r
g1 ( x ) b1 ; g 2 ( x ) b2 ;L; g k ( x ) bk ento construmos o Lagrangeano dado por:

r
L = f ( x ) 1 [ g1 b1 ] L k [ g k bk ] 1 [ h1 c1 ] L m [ hm cm ]
Devemos resolver as equaes:
1.

L
= 0 i
xi

2.

j g j ( x ) b j = 0 j ou j

3. hl = cl

L
=0
j

4.

j 0 j
r

5. g j ( x ) b j

r
r
r
r
f (x)
s.r.
h1 ( x ) = c1 ; h2 ( x ) = c2 ;L ; hm ( x ) = cm
2. Minimizar
r
r
r
g1 ( x ) b1 ; g 2 ( x ) b2 ;L; g k ( x ) bk ento construmos o Lagrangeano dado por:

r
L = f ( x ) 1 [ g1 b1 ] L k [ g k bk ] 1 [ h1 c1 ] L m [ hm cm ]
Devemos resolver as equaes:
1.

L
= 0 i
xi

2.

j g j ( x ) b j = 0 j ou j

3. hl = cl
4.

L
=0
j

j 0 j
r

5. g j ( x ) b j

As condies de segunda ordem mudam se a restrio cola, usam-se ento as regras do Hessiano
orlado, ou no cola, usam-se as regras do Hessiano sem orlas.

Problema de Kuhn-Tucker:

Kuhn-Tucker querem solues para variveis que se podem ser positivas, com um problema do
tipo:
r
r
r
r
Maximizar f ( x ) s.r. g1 ( x ) b1 ; g 2 ( x ) b2 ;L; g m ( x ) bm e x1 0; x2 0;L; xn 0 .

Usando a tcnica anterior oLagrangeano seria dado por:

r
r
L = f ( x ) j g j ( x ) b j + i xi
j

As equaes conjuntas a serem resolvidas seriam:

1.

g j
L f
=
j
+ i = 0 i
xi xi j
xi

2.

j g j ( x ) b j = 0 j ou j

3. j x j = 0
4.

L
=0
j

j 0 j

5. j 0

O Lagrangeano de Kuhn-Tucker no inclui as desigualdades xi 0 i {1, 2,L , n} , no


r
considear os multiplicadores de Lagrange , sendo escrito apenas como:

r
r
L KT = f ( x ) j g j ( x ) b j
j

Note que L = L KT + i xi . As equaes de Kuhn-Tucker so:


i

L
L KT
L KT
=0
+ i = 0
= i
xi
xi
xi
Como i 0 ento

L KT
L
0 . Se a restrio xi = 0 cola escrevemos xi KT = 0
xi
xi

L KT
L
0 ; i KT = 0 ; i 0 e xi 0 .
i
i
Equaes de Kuhn-Tucker:
1.

L KT
0
xi

2. xi

L KT
=0
xi

3.

L KT
0
i

4.

L KT
=0
i

5. i 0
6. xi 0
Incluir exemplos de fixao!!

Clculo das Variaes:

Clculo das Variaes comea com o problema da curva brachistocrona levantado por Johann
Bernoulli, chamando a ateno de seu irmo Jakob Bernoulli. Leonhard Euler trabalhou sobre o
problema e seu livro Elementa Calculi Variationum gerou o termo Clculo das Variaes.
Lagrange foi outro nome importante nesse campo e Legendre se preocupou com as condies de
segunda ordem para discriminar mximos e mnimos.
Todo o clculo das variaes est baseado na regra de Leibnitz para derivada de integrais
demonstrada no apndice Regra de Leibnitz. Essa regra afirma que:
h( x )

h( x )

f ( x , t )
d
dh
dg
f ( x, t ) dt =
dt + f ( x, h ( x ) ) f ( x , g ( x ) )

x
dx g ( x )
dx
dx
g(x)

Funcional:

Um funcional associa um nmero cada funo y ( t ) de um domnio de funes. O domnio


pode restringir os tipos de funes, apenas as diferenciveis, por exemplo, ou funes que
possuem determinados valores em determinados pontos, etc. A expresso abaixo representa um
funcional:
t2

J = f ( t , y , y& ) dt onde y& ( t ) =


t1

d
y (t )
dt

Sabendo f e dada uma trajetria y ( t ) , sabemos calcular y& ( t ) , substituir em f e calcular o


valor J obtido aps a integrao.A questo tpica do Clculo das Variaes se existe uma
trajetria especial y * ( t ) que torna o valor de J o maior possvel, ou o menor possvel, ou um
extremo?
Vamos comear com t1 e t2 fixos e restringir o domnio das funes quelas trajetrias que
passam nos pontos ( t1 , y1 ) e ( t2 , y2 ) com y ( t ) diferenciveis. Nesse caso podemos parametrizar

J tornando-a funo univariada de um parmetro da seguinte forma:


y ( t ) = y* ( t ) + ( t )

Onde y * ( t ) a trajetrio tima e ( t ) um desvio da trajetria tima. Como y ( t ) e y * ( t ) so


diferenciveis, ento ( t ) tambm diferencivel. Alm disso as restries dos pontos inicial e
final da trajetria implica que:

y ( t1 ) = y * ( t1 ) = y1

( t1 ) = 0

y ( t2 ) = y * ( t 2 ) = y 2

( t2 ) = 0

Assim podemos construir a funo univariada da varivel :


t2

J ( ) = f ( t , y * + , y& * + & ) dt
t1

Que sabemos possuir um extremo em = 0 , ou seja,

d
J ( ) = 0 como condio de
d
=0

primeira ordem. Alm disso as condies de segunda ordem so

d2
J ( ) < 0 se o extremo
d 2
=0

d2
for de mximo e
J ( ) > 0 se o extremo for de mnimo.
d 2
=0

Com os limites , t1 , t2 fixos a derivada da integral facilita, desprezando os termos das derivadas
dos limites de integrao. Nesse caso:
t

2
d

J ( ) =
f ( t , y * + , y& * + & ) dt

t1

2
f
d
f
J ( ) = + & dt
d
y
y&
t1

t2

t2

2
f
f
d f
f
dt aps fazer a integral por partes com dv = &dt e u =
.O
Agora, &dt =
y&
y&
y& t1 t1 dt y&
t1

termo uv nulo porque ( t1 ) = ( t2 ) = 0 . Ento


t2

d
J ( ) = 0 implica em:
d
=0

d f

y dt y& ( t ) dt = 0
t1

Em princpio o fato de que uma integral nula no significa que o integrando seja nulo.
Entretanto no nosso caso a integral deve ser nula para qualquer funo arbitrria
( t ) significando que a nica forma da integral ser nula sempre que:

f d f

=0
y dt y&
Essa a famosa equao de Euler-Lagrange.
A equao de Euler-Lagrange representa a condio de primeira ordem para que o funcional seja
um extremo. Se de mximo ou de mnimo ser discutido no apndice Condies de Segunda
Ordem do Clculo Variacional. O problema de otimizao do funcional liberando as condies
de pontos fixos no incio e ou fim da trajetria discutido no apndice Condies de
Transversalidade.
Generalizaes:
t2

1. Mais de uma varivel dependente J = f ( t; q1 , q2 ,L, qn ; q&1 , q&2 ,L , q&n ) dt . Neste caso
t1

temos uma equao de Euler-Lagrange para cada varivel:


d f
f

= 0 k (1, 2,L , n )
qk dt q&k

2. Mais de uma varivel independente da forma:


t2

J = f ( t1 , t2 ,L, tn ; q ( t1 , t2 ,L, tn ) ; q1 , q2 ,L, qn ) dt com q j =


t1

Neste caso a equao de Euler-Lagrange deve ser estendida para cada t:


f
f
f
f

L
=0
qk t1 q&1 t2 q&2
tn q&n

3. Otimizao com restries do tipo 1. Achar o extremo de:


t2

J =

t2

f ( t , q, q& ) dt sujeito restrio

t1

g ( t, q, q& ) dt = C .
t1

Agora usamos a parametrizao para criar duas funes de


t2

J ( ) = f ( t , q, q& ) dt
t1

q
t j

t2

I ( ) = g ( t , q, q& ) dt = C
t1

E usamos a tcnica dos multiplicadores de Lagrange para encontrar o extreme. Nesse caso:

L = J ( ) I ( ) C
As solues so dadas pelas equaes
t

L
L J
I
= I ( ) C = 0 . Agora:
=

=0 e

J 2 f d f
I 2 g d g
e
=

dt
=
0
=

dt = 0
t1 y dt y&
t1 y dt y&
portanto:

L t 2 f
g d f
g
=

dt = 0

t1 y
y dt y&
y&
de onde extramos que:

d
( f g)
( f g) = 0
y
dt y&
Assim percebemos que basta criar o Lagrangeano L = f ( t , q, q& ) g ( t , q, q& ) com sendo
o multiplicador de Lagrange, nest caso, independente do tempo, e resolver a nova equao de
Euler-Lagrange:

L d L

=0
y dt y&

4. Otimizao com restries do tipo 2. Achar o extremo de:


t2

J = f ( t , q, q& ) dt sujeito restrio g ( t , q, q& ) = 0


t1

t2

Agora como g ( t , q, q& ) = 0 podemos mudar para o tipo 1 fazendo ( t ) g ( t , q, q& ) dt = 0 , e o


t1

multiplicador de Lagrange agora pode ser funo do tempo. Novamente camos na equao de
Euler-Lagrange na forma:

L = f ( t , q, q& ) ( t ) g ( t , q, q& ) e

L d L

= 0.
y dt y&

Teoria do Controle timo:

A teoria do Controle timo uma matemtica do sculo XX e no mais a matemtica do sculo


XIX. O matemtico russo L. S. Pontryagin publicou Princpio de Mximo com o qual ganhou o
prmio Lenin em 1962, mesmo ano em que seu trabalho foi traduzido para o ingls. O
matemtico americano Magnus R. Hestenes da Rand Corporation produziu um report Interno da
Rand chamado A general Problem in the Calculus of Variations with Applications to Paths of
Least Time.Mais tarde ele publicou um paper estendendo os resultados de Pontryagin com o
ttulo On variational theory and Optimal Control Theory, Journal of SIAM, series A, vol.3
p23-48 (1965), e o livro Calculus of Variations and Optimal Control Theory, Wiley&Sons, NY
(1966).

L.S. Pontryagin

Magnus Hestenes

A teoria do Controle timo est focada em encontrar a melhor trajetria para uma varivel de
controle u ( t ) , sobre comando do controlador, que leva a varivel y ( t ) a uma trajetria
maximizadora/minimizadora de uma determinada funo objetivo. A varivel de controle u ( t )
precisa, obviamente, interferir na trajetria de y ( t ) , chamada de varivel de estado.
O problema matemtico achar o extremo de:
T

J = f ( t , y , u ) dt sujeito restrio y& = g ( t , y , u )


0

Exemplo: Suponha que exista um estoque S de petrleo e que a taxa de extrao, sobre
comando do operador do sistema, seja E ( t ) , definindo a relao entre estoque e taxa de extrao
dada por:
dS
= E (t )
dt

Com extrao nula no h consumo e a reserva de petrleo no gera qualquer bem estar. Por
outro lado, a extrao vai exaurindo a reserva e diminuindo o consumo no futuro. O futuro vale

menos do que o presente e a funo bem estar acumulada pode ser calculada com uma taxa de
desconto da forma:
T

U acum = U ( E ) e t dt
0

O problema de otimizao, portanto, pode ser colocado na forma: Maximizar


T

U acum = U ( E ) e t dt
0

Sujeito s restries

dS
= E ( t ) e S ( 0 ) = So . Nesse caso f ( t , S , E ) = U ( E ) e t e a restrio
dt

S& = E ( t ) . A varivel de controle E ( t ) e a de estado S ( t ) .

O problema mais geral do controle timo colocado da seguinte forma: otimizar


T

J = f ( t , y , u ) dt sujeito restrio y& = g ( t , y , u ) dados y ( 0 ) e condies sobre T e y ( T ) .


0

A varivel de controle pode ser descontinua por partes, mas com descontinuidades finitas.
Exemplo tpico o ligar e desligar da maioria dos controles de temperatura. J a varivel de
estado deve ser contnua, notando que u atua na derivada de y , mas no diferencivel porque a
derivada pode ser descontnua. A teoria mais geral do que o clculo das variaes, portanto,
pois capaz de lidar com funes no diferenciveis. Alm disso capaz de manusear restries
sobre a varivel de controle e admite solues de canto. Por exemplo, suponha o caso on-off em
que u {0,1} , s pode assumir valores 0 (desligado) ou 1 (ligado). A trajetria tima para u
pode ser do tipo:
1 t [0, t1 )

u ( t ) = 0 t [t1 , t2 )
1 t [ t , T ]

2
*

Vamos resolver esse problema com um multiplicador de Lagrange e denominamos:


u ( t ) varivel de controle
y ( t ) varivel de estado

( t ) varivel de co-estado [costate variable]


Nosso problema :
Otimizar:
T

V ( y , u ) = f ( t , y , u ) dt
0

sujeito s restries:
y& = g ( t , y , u )
y ( 0 ) = yo
T , y (T ) livres.

A restrio y& = g ( t , y , u ) pode ser re-expressa como g ( t , y, u ) y& = 0 t logo:


T

( t ) g ( t, y, u ) y& dt = 0

Logo podemos som-la na funo objetivo:


T

V ( y , u ) = f ( t , y , u ) + ( t ) g ( t , y , u ) ( t ) y& dt
0

Definindo um Hamiltoniano da forma:


H ( t , y , u, ) = f ( t , y , u ) + ( t ) g ( t , y , u )
T

e integrando por partes ( t ) y& dt = y 0 + y& dt = ( T ) y ( T ) + ( 0 ) y ( 0 ) + y& dt reT

escrevemos o problema como:


T

V ( y , u ) = H ( t , y , u, ) + & y dt (T ) y ( T ) + ( 0 ) y ( 0 )
0

A parametrizao feita da seguinte forma:


u ( t ) = u* ( t ) + p ( t )

y ( t ) = y* ( t ) + q ( t )

T = T * + T
y ( T ) = y * + y

( t ) varivel de co-estado [costate variable]


A funo objetivo univariada dada por:
T * +T

V ( ) =

H ( t , y * + q, u* + p ) + & ( y * + q ) dt (T * + T ) y (T * + T ) + ( 0 ) y ( 0 )

Vamos impor

d
V ( ) = 0 :
d
=0

d
V ( ) =
d

T*

H + & y dt + H + & y d (T
0

T*

y q + u
0

T*

y
0

d
+ T ) & y + y&
T * + T )
(
d

p + &q dt + H + & y * T & y + y& T

H
+ & q ( t ) +
p ( t ) dt + H (T * ) T (T * ) yT usando y& T = y
u

Como q ( t ) e p ( t ) so arbitrrias cada um de seus multiplicadores no integrando devem ser


nulos independentemente, assim:
H &
H H
+ = 0 & =
e
=0
y
y
u
Existe ainda uma equao escondida nesse sistema:
H

H
=
( f + g ) = g = y& ou seja y& = .

Condies de transversalidade:

Se y livre, arbitrrio, ento, ( T * ) = 0

Se T = 0 , tempo limite especificado, ento H (T * ) 0


Se T livre ento H (T * ) = 0

Assim, o problema de achar o extremo de V ( y , u ) = f ( t , y , u ) dt sujeito s restries


0

y& = g ( t , y , u ) e y ( 0 ) = yo , nos leva s seguintes equaes de movimento:

Defina o Hamiltoniano H = f + g e resolva o conjunto de equaes:


H
H
H
= & ;
= y& ;
= 0 e (T ) = 0 .

y
u
Ou seja, sempre se escolhe u que maximiza H em todo momento, e resolve-se

H
= y& ;

H
= & .
y

Alm disso ainda existe a seguinte propriedade importante na trajetria tima:


dH H H
H
H & H H H H H
=
+
y& +
u& +
=
+

dt
t
y
u

t
y y
dH H
=
dt
t

Isso significa que se o Hamiltoniano no depende explicitamente do tempo ento

H = cte uma constante, ou seja, existe uma lei de conservao.

Clculo das Variaes como um caso particular da Teoria do Controle timo:

No clculo das variaes o problema de Lagrange era:

dH
=0 e
dt

t2

J = L ( t , q, q& ) dt = 0
t1

Dando origem equao de Euler-Lagrange:

L d L

=0
y dt y&

Vamos re-expressar esse problema no formalismo Hamiltoniano:


t2

Achar o extremo de V ( q, u ) = L ( t , q, u ) dt sujeito restrio q& = u .


t1

Neste caso H = L + u logo:


H
=0
u

L
L
+ =0 =
u
u

H &
L
L d L
d L
=
= & por outro lado & =
portanto

= 0 lembrando
q
q
dt u
q dt u
que u = q& recuperamos a equao de Euler-Lagrange:

L d L

=0
q dt q&
Exerccios de fixao da operacionalidade da teoria do controle timo esto apresentados no
apndice. Exemplos de fixao da Teoria do Controle timo.

Apndice: Srie de Taylor

A Srie de Taylor de uma funo de classe C , i.e., infinitamente diferencivel, pode ser
explicada da seguinte forma simples e intuitiva. Desejamos aproximar a funo f ( x ) em torno
de x = xo por uma srie de potncias na forma f ( x ) =

an ( x xo ) n . O ndice

n define a

n =0

ordem da aproximao, com f ( x ) = ao para aproximao de ordem zero, ou seja, uma reta
horizontal, f ( x ) = ao + a1 ( x xo ) , ou seja uma reta com coeficiente angular a1 , para
2

aproximao de ordem 1, f ( x ) = ao + a1 ( x xo ) + a2 ( x xo ) para a aproximao de ordem 2, e


assim por diante. intuitivo que a melhor aproximao seja aquela em que, no ponto x = xo tanto
a funo quanto sua aproximao sejam idnticas. Nesse caso:

an ( x xo ) n | x = x o = ao , logo

n =0

ao = f ( xo ) .

Para determinar os outros coeficientes an tambm vamos exigir que os valores das derivadas da
funo e da aproximao sejam idnticos em x = xo , como mostra o grfico da figura 4, abaixo,
para uma aproximao de ordem 2.

Srie de Taylor

f(x)

f(x)
ordem 0
ordem 1
ordem 2

x
Figura 4. Srie de Taylor.

f ( n ) ( xo )
dn f
(n)
( x) = n , atravs dos
, onde f
Podemos demonstrar que os coeficientes an =
n!
dx

seguintes passos:
1.

2.

dk
dx k

dk
dx

3.

dn
dx

4.

5.

dn
dx n
dn
dx n

( x x0 ) n = n( n 1)...( n k + 1)( x xo ) n k =

n!
( x xo ) n k
( n k )!

k<n

( x x0 ) n = 0 k > n
( x x0 ) n = n!

k =0

k =n

k
a k ( x xo ) = a k

n!
( x xo ) k n
(n k )!

k
ak ( x xo ) | x = xo = n!an

k =0

6. Impondo que f

( n)

( xo ) =

dn
dx n

a k ( x xo ) | x = x o

k =0

f n ( x0 )
.
chegamos a: a n =
n!

Dessa forma, a Srie de Taylor, dada por:


f '( x0 )( x x0 )1 f ''( x0 )( x x0 )2
f ( n ) ( x0 )( x x0 ) n
+
+K +
+L
f ( x) = f ( x0 ) +
1!
2!
n!
Que pode ser escrita na forma condensada como:

f ( x) =

f(

n)

( xo )

n!

n =0

( x xo )

Um caso particular da srie de Taylor a srie de Taylor-McLaurin, para a qual xo = 0 :

f ' (0)
f ' ' (0) 2 f (0) 3
f ( n ) ( 0) n
x +L
f ( x) = f (0) +
x+
x +
x + K+
1!
2!
3!
n!
Que pode ser escrita na forma condensada como:

f ( x) =
n =0

f(

n)

(0)

n!

xn

Em princpio essa uma srie infinita. Entretanto, uma srie infinita s ser til se for possvel
mostrar que ela converge, ou seja, que pode ser truncada em determinado nmero de termos e

que o erro cometido com essa truncagem tende a zero medida que o nmero de termos
includos cresce. O erro cometido com essa truncagem chama-se Resto. Uma srie de Taylor
truncada em n s pode ser utilizada para funo diferencivel, pelo menos, n vezes. Mas isso
relaxa a condio de que a funo deve ser infinitamente diferencivel.
Casos Particulares:

Funo exponencial: e x =
k =0

xk
k!

A expanso da exponencial f ( x ) = e imediata se notarmos que


x

(k )

dk
dx

e x = e x e que, portanto,

(0) = 1 . Nesse caso:


x 2 x3
xk
xk
e =
=1+ x +
+
+ ... +
+ ... .
k!
2! 3!
k = 0 k!
x

n
n
n!
a n k x k = a n k x k
k =0 k !( n k )!
k =0 k
n

Binmio de Newton Generalizado: (a + x) n =

n
n
n!
a nk b k == a nk b k .
k =0 k !( n k )!
k =0 k
n

Lembrando da frmula do binmio de Newton ( a + b ) =


n

Considere a expanso em srie de Taylor-McLaurin da funo f ( x ) = (a + x) n , com n inteiro


n!
a nk se n > k , e f ( k ) (0) = 0 se k > n e
(n k )!
a srie de Taylor-McLaurin se torna um polinmio de grau n naturalmente truncada em k = n .
n
n
n
n!
Ento, vale a igualdade: (a + x) n =
a nk x k = a nk x k , que o prprio binmio
k =0 k !( n k )!
k =0 k
n
n!
de Newton. Os coeficientes dos primeiro e ltimo termos valem 1 pois =
=1 e
0 0!(n 0)!
n
n!
= 1 , uma vez que 0! = 1 . 1 A srie de Taylor no agregou muito valor ao caso
=
n n !(n n)!
das funes de potncia em que a expanso binomial de Newton j era muito conhecida.
positivo. Nesse caso, sabemos que f ( k ) (0) =

n ( n 1)! = n! . Fazendo n = 1 temos que 1(1 1)! = 1! que leva a 0! = 1 . Fatoriais


1
.
de nmeros inteiros negativos divergem pois fazendo n = 0 temos que 0 ( 1)! = 0! ou ( 1)! =
0

A propriedade dos fatoriais que 1! = 1 e

Entretanto ela pode ser usada para generalizar o binmio de Newton para valores de n
negativos ou no inteiros, em que a srie se torna infinita. A sim, ela agrega grande valor. Se n
negativo no escrevemos n(n 1)(n 2)...(n k + 1) =

n!
pela dificuldade dos
(n k )!

fatoriais de nmeros negativos. Nesse caso melhor colocar ( 1) em evidncia em cada termo e
usar:

n( n 1)(n 2)...(n k + 1) =

( 1) k (| n | + k 1)!
(| n | 1)!

Caso particular do binmio de Newton para n = 1 :

( 1) k (1 + k 1)!
( 1)( 2)( 3)...( 1 k + 1) =
= (1) k k!
(1 1)!
1

Esse resultado pode ser usado para a expanso de f ( x ) = (1 + x ) . Nesse caso:

f ( x) = (1 + x)
J para f ( x ) = (1 x )

( 1) k k! k
x = (1) k x k = 1 x + x 2 x 3 + ...
=
k!
k =0
k =0

obtemos:

( 1) k k!
( x) k = x k = 1 + x + x 2 + x 3 + ... .
k!
k =0
k =0

f ( x ) = (1 x ) 1 =

Caso particular do binmio de Newton para n = 1 2 :

1 )!
(
2
Nesse caso teramos que calcular
k !( 1 k )!
2
( 12 )! = ( 12 )( 12 1)( 12 2)L( 12 k + 1)( 12 k )! =
( 1 2 k )!
( 1 2 k )!
k 1 3 5 2k 1 ( 1)
1 1 1
1

= ( 1) + 1 + 2 L + k 1 = ( 1) L
= k
2
2 2 2
2

2 2 2 2
k

1
2

Onde n !! = n ( n 2 )( n 4 )L . Nesse caso:

( 2k 1)!!

f ( x) =

(1 + x ) = (1 + x)

(1)k ( 2k 1)!!

k =0

2 k!

xk

Agora notamos que:

( 2k )!! = ( 2 + 0 )( 2 + 2 )L ( 2k 4 )( 2k 2 )( 2k ) = 2k (1)( 2 )L ( k 2 )( k 1)( k ) = 2k k !


E escrevemos a srie como:

f ( x) =

(1)k ( 2k 1)!!

k =0

( 2k )!!

(1 + x ) =

xk .

( 1) k 1 x k
Logaritmo: Ln (1 + x ) =
k
k =1

Para o caso do logaritmo, f ( 0 ) = ln (1) = 0 , e f ( x ) = (1 + x )


facilmente calculadas usando: f
obter f

(k )

(0) = (1)

k 1

(k )

( x) =

d ( k 1)
dx

k 1

, as derivadas podem ser

(1 + x) 1 = (1) k 1 (k 1)!(1 + x) k , para

(k 1)! . Desse resultado mostra-se que:

x 2 x3 x 4
( 1) k 1 ( k 1)! k ( 1) k 1 x k
x =
=x
+

+ ...
Ln(1 + x ) =
k
2
3
4
k!
k =1
k =1

e:
xk
x 2 x3 x 4
( 1) k 1 ( k 1)!
k
( x) =
= [ x +
+
+
+ ...] .
Ln(1 x) =
2
3
4
k!
k =1
k =1 k

Apndice: Clculo do Resto da srie de Taylor

Para calcular o Resto da Srie de Taylor, precisaremos do Teorema do Valor Mdio de


Cauchy. Partimos do teorema de Rolle: se f ( x ) contnua e diferencivel em ( a, b ) e

f ( a ) = f ( b ) ento existe um nmero entre a e b em que a primeira derivada dessa funo


igual a zero. Pode existir mais de um no intervalo, mas o teorema garante que existe pelo
menos um.
Teorema do Valor Mdio de Cauchy (TVM)

Tomemos duas funes diferenciveis

f ( x ) e g ( x ) tal que

f ( a) f (b) e

g ( a ) g ( b ) . Com elas construmos uma nova funo F ( x ) = f ( x ) + g ( x ) e determinamos

que obriga a F ( x ) satisfazer as condies do Teorema de Rolle, ou seja, que F ( a ) = F ( b ) ,


ou seja, f ( a ) + g ( a ) = f ( b ) + g ( b ) . Resolvendo para obtemos
significa ento que F ( x) = f ( x)

f (b ) f ( a )
. Isso
g (b ) g ( a )

f (b) f (a )
g ( x ) , satisfaz as condies do Teorema de Rolle.
g (b) g (a )

Nesse caso, existe um nmero ( a, b ) , i.e., a b , em que F ( ) = 0 . Por outro lado


F ' ( x) = f ' ( x)

f (b) f (a )
g ' ( x ) , logo ( a, b) / F '( ) = 0 , ou seja:
g (b) g (a )
F '( ) = f '( )

f (b) f (a )
g '( ) = 0 .
g (b) g (a )

O teorema do Valor Mdio de Cauchy afirma que:

(a, b) /

f ( ) f (b) f (a)
=
.
g( ) g (b) g (a)

No caso particular em que g ( x ) = x , g ( x ) = 1 o TVM ele se reduz a f ' ( ) =

f (b ) f ( a )
.
ba

Resto da Srie de Taylor

f ( x)(b x) 0 f ' ( x)(b x)1


f ( n) ( x)(b x) n
Seja F ( x) = f (b) [
] o erro
+
+K+
0!
1!
n!
(b x) n +1
cometido na truncagem da srie de Taylor at ordem n e seja G ( x) =
. Como
(n + 1)!
F ( x ) e G ( x ) satisfazem as condies do TVM de Cauchy ento:

( a, b) /

F ( ) F (b) F (a)
=
.
G( ) G(b) G(a)

Por outro lado, derivando diretamente a funo F ( x ) , obtemos:

F ' ( x) = [

f ' ( x)(b x) 0 f ' ( x)(b x) 0 f ' ' ( x)(b x)1 f ' ' ( x )(b x)1

+
0!
0!
1!
1!

f ' ' ' ( x)(b x ) 2 f ' ' ' ( x)(b x) 2


f ( n +1) ( x)(b x) n
]

+K+
2!
2!
n!
Como os termos intermedirios se cancelam [soma telescpica]:

F ' ( x) =

( n +1)

( x)(b x) n
.
n!

(n + 1)(b x) n
(b x ) n
. Usando esses
=
Derivando diretamente G ( x ) obtemos G ' ( x ) =
n!
(n + 1)!
resultados no TVM de Cauchy:
F '( )
=
G '( )

Percebendo

que

F (b) = G ( b) = 0

F (a) = f ( n +1) ( )G (a) =

f ( n+1) ( )(b ) n
n!
= f ( n+1) ( )
n
(b )

n!

ento

F (b ) F ( a ) F ( a )
=
= f ( n+1) ( )
G (b ) G ( a ) G ( a )

Logo,

f ( n +1) ( )
(b a ) n . Fazendo x = a na F ( a ) obtemos:
n!

f ' (a )(b a )1
f ( n) (a )(b a ) n
f ( n +1) ( )(b a ) n +1
f (b) [ f (a ) +
+ K+
]=
,
n!
1!
(n +1)!
de onde tiramos que existe a b tal que:

f '(a)(b a)1
f ( n ) (a)(b a )n f ( n+1) ( )(b a) n+1
f (b) = f (a) +
+ K+
+
.
n!
1!
(n +1)!

f ( n+1) ( )( x xo ) n+1
(n +1)!
e tende a zero quando n tende a infinito para valores de x suficientemente prximos de xo .

O erro em truncar com n termos, tambm chamado de resto, dado por Rn =

Apndice. Srie de Taylor de Funes Multivariadas:

Vamos comear com uma funo bivariada f ( x, y ) :

e queremos a expanso em

srie de Taylor de f ( x + h, y + k ) . Tomando y constante sabemos expandir:

f ( x + h, y + k ) =
n

hn n
hn k m
x f ( x, y + k ) = my nx f ( x, y )
n!
n n! m m!

hnk m m n
f ( x + h, y + k ) =
y x f ( x, y )
n m n !m !

Claro que se tivssemos comeado com y constante teramos obtido:

hnk m n m
f ( x + h, y + k ) =
x y f ( x, y )
n m n !m !

Como

no

pode

haver

diferena

entre

as

duas

formas

se

percebe

que

my nx f ( x, y ) = nx my f ( x, y ) . Agora vamos re-expressar a srie da forma:


m m

h n nx k y
f ( x + h, y + k ) =
f ( x, y ) = T f ( x, y ) onde
n
!
m
!
n m

n n k m m

h
x
y
T =
o operador srie de Taylor.
n
!
m
!
n m

Agora queremos a srie em ordem crescente em l , de tal forma que n + m = l , ento

1 l l! n n l n l n
f ( x + h, y + k ) =
h x k y f ( x, y )
!
n
!
m
!
l
l n=0

Por outro lado, lembrando que que as derivadas so operadores lineares, sabemos que o operador
l
l
l! n l n n l n
h x + k y =
h k x y
n = 0 n !m !

Logo a srie de Taylor pode ser expressa como:

uurx
f ( x + h, y + k ) =
l
l!

f ( x, y )

O processo pode ser rapidamente generalizado para dimenses maiores do tipo

r
f (x):

r uur

onde queremos a expanso em srie de Taylor de f x + x .

x1mn mn r
r uur x1m1 m1 x2m2 m2
1
2 L
1 f ( x )
f x + x =
!
!
!
m
m
m
m
m
m
2
n
2
n
1 1

Agora fazemos m1 + m2 + L + mn = l e multiplicamos e dividimos por l ! para obter:

l
l
l
uur
!
l

r
1
r
f x +x = L
( x11 )m1 ( x2 2 )m2 L( xn n )mn f ( x )
mn = 0 m1 !m2 !Lmn !
l l! m1 = 0 m2 = 0

m1 + m2 +L+ mn = l

Por binmio de Newton sabemos que:

l
l
l!
l
mn
m1
m2
( x11 ) ( x2 2 ) L( xn n ) = ( x11 + x2 2 + L + xn n )n
L
m1 = 0 m2 = 0 mn = 0 m1 !m2 !Lmn !

m1 + m2 +L+ mn = l

Ou seja:

l
l
uur
l!
l
mn
m1
m2
L

L
x
x
x
x

( 1 1) ( 2 2 )
( n n)

!
!
!
L
m
m
m
0
0
0
=
=
=
m
m
m
n
1
2
n
1 2

m1 + m2 +L+ mn = l

A srie de Taylor em n variveis dada portanto por:

uurx
uur
r
f x + x =
n
n!

f ( x, y )

At ordem 2 podemos escrever a srie de Taylor multivariada como:

r
1 r
r r
r
r
f x + h = f ( x) + h f ( x) +
h
2!

r
f ( x)

Ou ainda como:
n
1 n n
r r
r
r
r
f x + h = f ( x ) + hi i f ( x ) + hi ij f ( x ) h j
2! i =1 j =1
i =1

A matriz H ij = ij f ( x ) =

2
r
f ( x ) chamada de Matriz Hessiana.
xi x j

Apndice. Convexidade de uma curva:

Funo cncava: uma funo cncava se para x ( x1, x2 )

f ( x ) > R ( x ) onde R ( x ) a reta

secante que une os pontos x1 , f ( x1 ) x2 , f ( x2 ) . Esse o caso da figura 2(a). Funo


convexa: uma funo convexa se para x ( x1, x2 )

f ( x ) < R ( x ) onde R ( x ) .Esse o caso da

figura 2 (b).

Figura 2. (a) Funo cncava.


Vamos

construir

um

x ( x1 , x2 )

(b) Funo convexa.


atravs

de

um

parmetro

( 0,1)

da

forma

x ( ) = x2 + (1 ) x1 . Se = 0 ento x ( 0 ) = x1 e se = 1 ento x (1) = x2 . Alm disso


x ( ) = x2 + (1 ) x1 x2 + (1 ) x2 = x2 e x ( ) = x2 + (1 ) x1 x1 + (1 ) x1 = x1 , logo
x1 < x ( ) < x2 pertence ao intervalo ( x1, x2 ) . A equao da reta secante que passa pelos pontos
x1 , f ( x1 )

R ( x ) = f ( x1 ) +

R ( ) = f ( x1 ) +

x2 , f ( x2 )

dada

x x1
f ( x2 ) f ( x1 )
x2 x1

x2 + (1 ) x1 x1
x2 x1

por

R ( x ) f ( x1 ) f ( x2 ) f ( x1 )
=
x x1
x2 x1

ou,

termos

de

ou

seja,

x x
f ( x2 ) f ( x1 ) = f ( x1 ) + 2 1 f ( x2 ) f ( x1 ) , que nos
x2 x1

leva, finalmente, a: R ( ) = f ( x2 ) + (1 ) f ( x1 ) .
Da afirmamos que:

em

1. Se f x2 + (1 ) x1 > f ( x2 ) + (1 ) f ( x1 ) para ( 0,1) ento a funo f ( x )


estritamente cncava
2. Se f x2 + (1 ) x1 < f ( x2 ) + (1 ) f ( x1 ) para ( 0,1) ento a funo f ( x )
estritamente convexa.
Generalizao da convexidade para funes de n :
r
r
Seja X = ( x1, x2 ,L, xn ) um vetor em n e f X : n

( )

uma funo escalar que associa um

nmero real a um vetor. Ento:


r
r
r
r
r
1. Se f X 2 + (1 ) X 1 > f X 2 + (1 ) f X 1 para ( 0,1) ento a funo f ( x )
estritamente cncava.
r
r
r
r
r
2. Se f X 2 + (1 ) X 1 < f X 2 + (1 ) f X 1 para ( 0,1) ento a funo f ( x )
estritamente convexa

( )

( )

( )

( )

Apndice Otimizao com Restries: demonstrao rigorosa.

Se

g r*
x 0
xn

( )

ento

existe

uma

funo

inversa

local

implcita

tal

que

xn = ( x1, x2 ,L, xn 1 ) que pode ser utilizada para eliminar a varivel xn e camos em
funes de n 1 variveis dadas por:

G ( x1, x2 ,L, xn 1 ) = g x1, x2 ,L, xn 1, ( x1, x2 ,L, xn 1 )


e

F ( x1, x2 ,L, xn 1 ) = f x1, x2 ,L, xn 1, ( x1, x2 ,L, xn 1 )


Note que a F

j inclui a restrio, automaticamente satisfeita quando fizemos

xn = ( x1, x2 ,L, xn 1 ) . Ento as condies de ponto extremo da F so as usuais:

2F
hi h j < 0 max

i =1 j =1 xi x j

n 1 n 1

F = 0 i [1,2,L, n 1] e
xi

2F
hi h j > 0 min

x
x
i =1 j =1 i
j

n 1 n 1

xi

G g g

Agora
=
+
= 0 pois G = c , o que significa que
=
. Por outro
xi
xi xi xn xi
g

xn
f
f

xn
f xn g
F f
f

=
+
= 0 , ento

= 0 . Como
= uma
lado
xi xi xn xi
xi g xi
g

xn
xn
r*
constante, calculada no ponto x temos que:

f
g

= 0 ou ainda que
[ f g ] = 0 i = 1, 2,L, n 1 .
xi
xi
xi

Por

outro

lado

automaticamente.

f
g
f xn g
f
f
=

=0
[ f g] = =
xn
xn
xn xn g xn xn xn

xn
Portanto

podemos

estender

condio

para

f ( g c ) = 0 i = 1,2,L, n .
xi
r

Definindo a funo Lagrangeana dada por: L ( , x ) = f g ( x ) c vemos que as


condies de primeira ordem para um extremo so que
equao

deve

ser

resolvida

em

f ( g c ) = 0 implica em

conjunto

com

( g c) = 0 ,

r
L ( , x ) = 0 i = 1, 2,L, n . Essa
xi
a

restrio,

mas

notamos

que

ou seja, a prpria restrio. Usando a

funo Lagrangeana o nosso problema resolver o conjunto de equaes simultneas:

L ( , x ) = 0 i = 1, 2,L, n
xi
r

L ( , x ) = 0

A condio de segunda ordem um pouco mais complicada. Vamos usar a notao

f
= fj
x j

para simplificar. Nesse caso temos:

F j = f j + f n j
G j = g j + g n j
Sabemos que G j = g j + g n j = 0 , logo F j = F j G j e Fij = Fij Gij . Por outro lado:

Fij = fij + f nj i + ( fin + f nni ) j + f nij

Gij = ( gij + g nji ) + ( gin + g nni ) j + g nij


Subtraindo as duas equaes obtemos:

Fij Gij = f ij gij + ( fin gin ) j + f nj g nj i +


+ ( f nn g nn ) i j + ( f n gn ) ij
Agora:

fn gn = fn

fn
gn = 0
gn

Ento:
n 1 n 1

n 1 n 1

n 1

n 1

i =1 j =1

i =1 j =1

i =1

j =1

( Fij Gij ) hi h j = ( fij gij ) hi h j + ( fin gin ) hi j h j +


n 1

n 1

n 1 n 1

i =1

i =1 j =1

+ f nj g nj h j i hi + ( f nn g nn ) i hi j h j
j =1

Definindo um hn =

n 1

i hi e usando o fato de que i =

i =1

gi
1 n 1
temos que hn =
gi hi ,
gn
g n i =1

r
r r
ou seja, gi hi +g n hn = 0 , i.e., gi hi = 0 nos garante que h est na curva g x + h = c .
n 1

i =1

i =1

Nesse caso temos que:


n 1 n 1

n 1 n 1

n 1

Fij Gij hi h j = fij gij hi h j + ( fin gin ) hi hn +

i =1 j =1
n 1

i =1 j =1

i =1

+ f nj g nj h j hn + ( f nn g nn ) hn hn
j =1

Assim conclumos que:


n 1 n 1

n 1 n 1

i =1 j =1

i =1 j =1

Fij hi h j = Fij Gij hi h j = fij gij hi h j


i =1 j =1

Hessiano orlado:

O Hessiano orlado definido como: H% =

0
f1
M

fn

f1 L f n
H11 L H1n
. Note as duas orlas nas
M O
M

H1n L H nn

primeira linha e primeira coluna da matriz Hessiana. A condies de segunda ordem dos pontos
de mximo e mnimo sero dadas pela definio do Hessiano orlado discutido no apndice
Definio de matrizes simtricas com restrio. Note que o Hessiano orlado poderia sair
diretamente do Lagrangeano se incluirmos como uma varivel pois:

r
r
r
2L ( , x )
g ( x ) 2L ( , x )
=
=0
e
xi
xi
2

Apndice. Definio de matrizes simtricas:

m11 m12
m
m22
= 21
M
M

mn1 mn 2

L m1n
r r
L m2 n
definida positiva se hMh > 0
Dizemos que a matriz M n n
O M

L mnn
r r
r r
r r
para qualquer h 0 . A matriz ser definida negativa se hMh < 0 para qualquer h 0 .

Teorema 1:

Se M simtrica e definida positiva ou negativa ento todos os elementos da diagonal ou so

positivos ou so negativos. Prova: como a propriedade vlida para qualquer h 0 basta

r r
2
h
0 L 0 ) o que significa que Mh = M kk hk . Logo se
r r
> 0 e se hMh < 0 ento M kk < 0 para qualquer k [1, n ] .

r
escolher h = ( 0 0 L 0 hk

r r
hMh > 0 ento M kk

Teorema 2: se M definida positiva ou negativa ento todas as submatrizes

m11 m12
m
m22
M k = 12
M
M

m1k m2k

L m1k
L m2k
sero definidas positivas ou negativas.
O M

L mkk
r r
Prova: como a propriedade vlida para qualquer h 0 basta
r r r
r
r
h = ( h1 h2 L hk 0 0 L 0 ) o que significa que hMh = hk M k hk .

escolher

Teorema 3.
a. Se M definida positiva ento det M k > 0 , ou ainda, sign [det M k ] = 1

para

qualquer k [1, n ] .
b. Se M definida negativa ento sign [det M k ] = ( 1)
determinante vai alternando na forma (

k +1

+ + L) .

, ou seja, o sinal do

A melhor forma de prova esse teorema diagonalizar as submatrizes, mas instrutivo analisar o
caso de uma matriz 2 2 e outra 3 3 com a tcnica de completar quadrado.
Matriz 2 2 :

m12 h
m
q = ( h k ) 11

m12 m22 k
m h + m12 k
= m11h 2 + 2m12 hk + m22 k 2
q = ( h k ) 11

m21h + m22 k

m
q = m11 h 2 + 2 12 hk + m22 k 2
m11

2
2

m12 2 m12 2
m12
2
2
q = m11 h + 2
hk +
k
k + m22 k
m11

m11
m11

2
2

m12 2
m12
m12
2
2
q = m11 h + 2
hk +
k2
k + m22 k
m11
m11

m11
2

m12 m11m22 m12


2
q = m11 h +
k +
k
m11
m11

q = ( det M 1 ) h*2 +
Se q > 0 e como h

*2

( det M 2 ) 2 onde h* = h + m12 k .


k
m11
( det M 1 )

> 0 e k 2 > 0 preciso que det M1 > 0 e

det M 2
> 0 o que implica
det M1

em det M1 > 0 e det M 2 > 0 . Por outro se q < 0 preciso que det M1 < 0 e
o que implica em det M1 < 0 e det M 2 > 0 .

det M 2
<0
det M1

Matriz 3 3 :

q = (h k

m11
l ) m12

m
13

q = (h k

m11h + m12 k + m13l


l ) m12 h + m22 k + m23l

m h+m k +m l
23
33
13

m12
m22
m23

m13 h
m23 k

m33 l

q = m11h2 + 2m12hk + 2m13hl + m22k 2 + 2m23kl + m33l 2


q = m11h 2 + 2 [m12 k + m13l ] h + m22 k 2 + 2 m23kl + m33l 2

1
1
q = m11 h 2 + 2
( m12 k + m13l ) h + 2 ( m12 k + m13l )2 +
m11
m11

( m12 k + m13l )2 + m22 k 2 + 2m23kl + m33l 2


m11
2

m k + m13l
1
2
+

q = m11 h + 12
m
k
( m12 k + m13l )2 + 2m23kl + m33l 2
22

m11
m11

m k + m13l
q = m11 h + 12
+
m11

1
1
1
2
2
m11m22 m12
k2 + 2
m11m33 m13
l2
+
( m11m23 m12 m13 ) kl +
m11
m11
m11

m k + m13l
q = m11 h + 12
+
m11

2
2
m12

m
m
m
m
m
m
m
m
(
)
(
)
12 13
12 13
k 2 + 2 11 23
kl + 11 23
l2 +
2
2

2
m11
m11m22 m12

m
m
m
11
22
12

(m
+

11m22

(m

11m22

2
m12

m11

) (m m m m )
(m m m )
11 23

11 22

12 13
2 2
12

l2 +

1
2
m11m33 m13
l2
m11

2
m11m22 m12
m11m23 m12 m13 ) l

(
m12 k + m13l
k +
+
q = m11 h +
+
2
m
m

m
m
m

11
11

11 22
12

1
m m m 2 m m m 2 ( m m m m )2 l 2
+
11 22
12
11 33
13
11 23
12 13

m m m m2
2

11

11 22

12

(
)

)(

2
m11m22 m12
m11m23 m12 m13 ) l

(
m12 k + m13l
k +
+
q = m11 h +
+
2
m
m

m
m
m

11
11

11 22
12

2
m11 m11m22 m12

2
2
2
2 2
m11
m22 m33 m11m22 m13
m33 + m12
m13 2
m11m12
2 2
l
2 2
m11m23 + 2m11m12 m13m23 m12 m13

2
m11m22 m12

( m11m23 m12 m13 ) l


m12 k + m13l

+
q = m11 h +
k+
+
2
m11
m11

m11m22 m12

m
(
+

11m22 m33

2
2
2
m33
+ 2m12 m13m23 m11m23
m22 m13
m12

2
m11m22 m12

)l

q = ( det M 1 ) h*2 +

( det M 2 ) *2 ( det M 3 ) 2
k +
l
( det M 1 )
( det M 2 )

Ento se q > 0 exigimos que det M1 > 0 ,

det M 3
det M 2
>0 e
> 0 o que implica em
det M1
det M 2

det M1 > 0 , det M 2 > 0 e det M 3 > 0 . Mas se q < 0 preciso que det M1 < 0 ,
det M 3
det M 2
<0 e
< 0 o que implica em det M1 < 0 , det M 2 > 0 e det M 3 < 0 .
det M1
det M 2

No entanto a melhor forma de provar o caso geral usar a tcnica de diagonalizao de matrizes.
J sabemos que se a matriz M definida positiva ou negativa ento as sub-matrizes M k
possuem a mesma definio. Sabemos que uma transformao de similaridade do tipo

M = S 1M S preserva o determinante e queremos descobrir o sinal de q = hk M k hk . Seja Sk a


matriz que diagonaliza M k , simtrica, ou seja Sk M k Sk = Dk , ento podemos fazer

r
r
r
r
r
r
q = hk Sk Sk M k Sk Sk hk , ou seja, q = hk Sk Dk Sk hk . Agora definimos hk* = Sk hk logo
r
r
r
r
hk* = hk Sk logo q = hk* Dk hk* .

1 0
0
2
Mas Dk =
M
M

0 0
se se q < 0 ento i

L
L
O
L

<0

0
k
0
ento q = i hi*2 . Logo se q > 0 ento i > 0 i , mas
M
i =1

k
i . Se i > 0 i ento det Dk > 0 , mas se i < 0 i ento

sign [det Dk ] = ( 1) . Como a transformao de similaridade preserva os determinantes


ento, a condio q > 0 implica em sign [det M k ] = +1 k e a condio q < 0 implica em

sign [det M k ] = ( 1)

k .

Apndice: Definio de matrizes simtricas com restrio.

Suponha agora que os vetores possveis devem obedecer a uma restrio do tipo:

f1h + f 2k = 0 . Nesse caso as duas variveis h e k no so mais independentes, mas devem


f
obedecer a relao h = 2 k .
f1

f 22 2
f 2
2
Assim q = A11h + 2 A12hk + A22k = A11 2 k 2 A12 2 k + A22k
f1
f1
2

k
q = f 22 A11 2 f1 f 2 A12 + f12 A22 2
f
1

E o sinal de q ser definido pelo sinal de sign ( q ) = sign f 22 A11 2 f1 f 2 A12 + f12 A22 .

Agora percebemos que det f1

f
2

f1
A11
A12

f2
A12 = f 22 A11 2 f1 f 2 A12 + f12 A22 logo em
A22

lugar de encontrar os sinais de dois subdeterminantes encontramos o sinal de apenas um mas


com uma orla.

Generalizando:

H11
H
12
Sem restrio com uma matriz Hessiana n n da forma H =
M

H1n
a matriz definida positiva se det H1 = det ( H11 )

H12 L H1n
H 22 L H 2 n
ento
M
O
M

H 2 n L H nn
H11 H12
, det H 2 = det
,
H
H
12
22

H11
H
det H k = det 12
M

H1k

H12 L H1k
H11 H12 L H1n
H
H 22 L H 2 k
H 22 L H 2n
12

at det H n = det
forem
M
M
O
M
M
O
M

H 2k L H kk
H1n H 2n L H nn
todos positivos. A matriz ser definida negativa se det H 2k +1 < 0 e det H 2 k > 0 .

f1 L f n
0
f H

1
11 L H1n

%
Com restrio: H =
ser definido positivo se os determinantes
M
M O
M

f n H1n L H nn
det H% 3 < 0 , det H% 4 < 0 , ..., det H% n +1 < 0

Apndice. Definio de Matrizes e concavidade das curvas:

A definio da matriz Hessiana tambm define a concavidade da funo. Se f ( x )


estritamente cncava ou convexa ento:

r
r
r
r
f (1 ) x + x > (1 ) f ( x ) + f ( x ) concava
r r
para

x
e x .
r
r
r
r
f (1 ) x + x < (1 ) f ( x ) + f ( x ) convexa

Ento tambm vale para x = x + h com h 0 mas com

(1 ) x + x = (1 ) x + x + h = x + h

r
h 0 . Nesse caso

ento:

r
r
r
f x + h > (1 ) f ( x ) + f
r
r
r
f x + h < (1 ) f ( x ) + f

(
(

r r
x+h
r r
x+h

)
)

concava
convexa

Agora, por srie de Taylor at segunda ordem sabemos que:


n
r r
r
r
1 n n
r
f x + h = f ( x ) + hi i f ( x ) + hi ij f ( x ) h j
2! i =1 j =1
i =1

Que pode ser escrita como:

r
r r
r
r 1r r
f x + h = f ( x ) + h f ( x ) + hHh
2

Fazendo h h temos que:

r
r
r
r
r 2 r r
f x + h = f ( x ) + h f ( x ) +
hHh
2

Logo:

r
r
r 2 r r
r
r 1 r r
r r
f ( x ) + h f ( x ) +
hHh > (1 ) f ( x ) + f ( x ) + h f ( x ) + hHh concava
2
2

r
r
r 2 r r
r
r 1 r r
r r
f ( x ) + h f ( x ) +
hHh < (1 ) f ( x ) + f ( x ) + h f ( x ) + hHh convexa
2
2

r
r
r
r 2 r r
r
r r r
f ( x ) + h f ( x ) +
hHh > f ( x ) + h f ( x ) + hHh concava
2
2
2
r
r
r
r r r
r
r r r
f ( x ) + h f ( x ) +
hHh < f ( x ) + h f ( x ) + hHh convexa
2
2

2 r r
2

hHh >

2 r r
2

hHh <

r r
2

hHh

r r
2

hHh

concava
convexa

(1 ) r r

hHh < 0 concava


2
(1 ) r r
hHh > 0 convexa
2
Como

( 0,1) ento (1 ) > 0 e a concavidade definida por:


r r
hHh < 0 concava
r r
hHh > 0 convexa

ou seja, se o Hessiano for definido negativo a funo cncava e se for definido positivo a
funo convexa. intuitivo que funes cncavas possuam mximos enquanto funes
convexas possuam mnimo.

Apndice. Exemplos de Otimizao com Restrio:

1. Maximizar y = x1 x2 s.r. x1 + 4 x2 = 16 .

r
L ( , x ) = x1 x2 [ x1 + 4 x2 16 ]

L = x2 = 0
x1

L = x1 4 = 0
x2

(1)
( 2)

L = ( x1 + 4 x2 16 ) = 0

Das equaes (1) e (2) temos que


restrio

= x2 =

[equao

( 4 x2 + 4 x2 16 ) = 0

( 3)

x1
logo x1 = 4 x2 . Jogando essa relao na
4
(3)]

temos

x2 = 2 x1 = 8 = 2

A matriz Hessiana orlada

2L

2

2
L
%
H =
x1
2
L
x
1

2L
x1
2L
x12
2L
x1x2

2L

x1
0 1 4
2L
= 1 0 1 x1 e x2 .
x1x2

4 1 0
2
L
x22

Entre os sub-determinantes D0 , D1 e D2 s o D2 interessa pois uma restrio comea no


1+1+1=3, e troca-se o sinal em relao ao determinante sem restrio. determinante

0 1 4
D2 = det 1 0 1 = 4 + 4 = 8 > 0 .
4 1 0

Como D2 > 0 com uma restrio o D2 sem restrio seria negativo, matriz definida negativa.
Assim ponto de mximo.
Esse problema tambm fcil de resolver por substituio. Da restrio temos que
x1 = 4 ( 4 x2 ) .
Substituindo
na
funo
objetivo
y = 4 x2 ( 4 x2 ) ,
logo
dy
= 4 ( 4 x2 ) 4 x2 = 16 8 x2 = 0
dx2

e x2 = 2 e

x1 = 4 ( 4 2 ) = 8 . A segunda derivada

d2y
= 8 < 0 , logo o ponto de mximo.
dx22

2. Maximizar f ( x, y, z ) = xz + yz s.r. y 2 + z 2 = 1 e xz = 3 .

r
L ( , x ) = xz + yz 1 y 2 + z 2 1 2 ( xz 3 )

L = z 2 z = (1 2 ) z = 0
x

L = z 21 y = 0
y

( 2)

L = y + x 21z 2 x = 0
z

L = y2 + z2 1 = 0
1

L = ( xz 3) = 0
2

(1)

( 3)
( 4)

( 5)

Da equaes (1) ou 2 = 1 ou z = 0 . Mas z = 0 entra em contradio com xz = 3 0 = 3 .


Logo, obrigatoriamente, 2 = 1 .

z 21 y = 0
y 21z = 0

Extraindo z e substituindo y 412 y = 1 412 y = 0 com duas opes y = 0 ou

(1 4 ) = 0 . Novamente se y = 0 ento z = 0 em contradio com xz = 3 . Logo

2
1

2
1

1+ =

1
e
4

1
1

e 1 = .
2
2
+

Para 1 =

Para 1 =

1
2
1
2

2
z=0
2

y+

y=z

2
z=0
2

y = z
2

Em qualquer um dos dois casos y = z a restrio y + z = 1


z=

1
1
3
, y=
e x = = 3 2 . Assim temos 4 pontos extremos:
z
2
2
1 1 1
,
, ,1
2 2 2

1
1 1

( x, y, z, 1 , 2 ) = 3 2, , , ,1
2
2 2

1 1
1

( x, y, z, 1 , 2 ) = 3 2, , , ,1
2 2 2

( x, y, z, 1 , 2 ) = 3

( x, y, z, 1 , 2 ) = 3

Agora vamos ao Hessiano Orlado:

2,

2,

1
1
1
,
, ,1
2
2 2

2 z 2 = 1 , logo

2L

2
1
2
L
12
2
L
H% =
x
1

2
L

y1
2L

z1

2L
12

2L
x1

2L
y1

2L
22

2L
x2

2L
y2

L
x2

L
x 2

L
xy

L
y2

L
xy

L
y 2

2L
z2

2L
xz

2L
yz

2L

z1

2L
0
0
z2
0
0
2
L 0
z
=

xz
2 y 0
2L 2 z x

yz
2L
z 2

2 y

z
0

0
0

21

(1 2 )

2 z

x
(1 2 )

1
21

.
Como 2 = 1 ento

0 0 2 y 2 z
0
0
0 z
0
x

H% = 0
0
0
z 0

2
0
0

1
y
1

2 z x 0
1
21

So 3 variveis e 2 restries ento s o sub-determinante total D4 interessa. Podemos usar a


coluna ou a linha 3 cheia de zeros para diminuir a ordem do determinante:

0 0 2 y 2 z
0
0 2 y 2 z
0
0

0
z
0
x

0 z

0
0

det 0 z 0
0
0 = z det
2 y 0 21
1

y
2
0
0
2
1

2 z x
21
1

2 z x 0

1
21

Agora usamos a linha 2 para diminuir mais uma ordem:

2 y 2 z
0
D4 = z ( z ) det 2 y 21
1
2 z
1
21

D4 = z 2 4 zy + 4 zy + 8 z 21 + 8 y 21 = 8 z 2 zy + z 2 + y 2 1

como

y2 + z2 = 1

ento:

D4 = 8 z 2 [ zy + 1 ]
1
1
z = y zy = z 2 =
2
2
logo se trata de ponto de mximo.

Para 1 =

1
1
zy =
2
2
de ponto de mnimo

1 1
+ =1
2 2

portanto D4 = 8 z < 0

1 1
2
1 + zy = = 1 portanto D4 = 8 z > 0 logo se trata
2 2

Para 1 =

Assim os pontos

1 + zy =

( x, y , z ) = 3

2,

1 1
,
e
2 2

( x, y, z ) = 3

2,

1
1
,
so pontos de
2
2

1 1
1
1

,
,
mximo enquanto os pontos ( x, y, z ) = 3 2,
e ( x, y, z ) = 3 2,
so
2 2
2
2

pontos
de
mnimo.
Voltando

funo
objetivo
vemos
que
1
1
1
1 1
1 7

,
+
= 3+ =
f 3 2,
=3 2
2 2
2
2
2
2 2

logo

7
2

valor

1
1
1
1 1
1 5
5

= 3 = logo o valor mnimo.


f 3 2, m
=3 2
2 2
2
2
2
2
2 2

mximo.

Apndice. Regra de Leibnitz:


h( x )

Seja F ( x ) =

f ( x, t ) dt . Queremos calcular
g(x)

d
F ( x) .
dx

h ( x +x )

F ( x ) =

h( x )

h ( x +x )

f ( x + x, t ) dt +
g( x)

f ( x + x , t ) dt

g ( x +x )

f ( x + x , t ) dt

h( x )

h( x )

F ( x )
f ( x + x , t ) f ( x , t )
1
dt +
=

x
x
x

g( x)

Agora, seja P ( x, t ) tal que

h( x )

f ( x + x , t ) dt

g( x)

1
f ( x + x , t ) dt
x

g ( x +x )

f ( x + x, t ) dt

g(x)

P ( x, t ) = f ( x, t ) , ou seja, P ( x, t ) = f ( x, t ) dt , ento:
x

( x +x )

h ( x +x )

f ( x, t ) dt
g( x)

h ( x +x )

f ( x + x, t ) f ( x, t ) dt +

g( x)

1
x

h( x )

h( x )

h( x )

F ( x ) =

f ( x, t ) dt
g( x)

f ( x + x, t ) dt +

g ( x +x )

f ( x + x, t ) dt

g ( x +x )
g( x)

F ( x ) =

h( x )

f ( x + x, t ) dt =

P ( x + x, ( x + x ) ) P ( x + x, ( x ) )

(x)

P ( x + x, ( x + x ) ) P ( x + x, ( x ) ) ( x + x ) ( x )

=
x
( x + x ) ( x )

P
d
d
= f ( x, ( x ) )
x, ( x ) )
(

dx
dx

Ento:

1
x

h ( x +x )

h( x )

f ( x + x, t ) dt = f ( x + x , h ( x ) )

dh
dx

1
x

g ( x +x )

f ( x + x, t ) dt = f ( x + x, g ( x ) )

g( x)

dg
dx

Logo:
h( x )

dF ( x )
f ( x , t )
dh
dg
dt + f ( x , h ( x ) ) f ( x, g ( x ) )
=
x
dx
dx
dx
g( x)

Ou seja, a regra de Leibnitz de derivar integrais :


h( x )

h( x )

f ( x , t )
d
dh
dg
f ( x, t ) dt =
dt + f ( x, h ( x ) ) f ( x , g ( x ) )

dx g ( x )
x
dx
dx
g( x)

Casos particulares?
1.

Os limites no dependem de x . Nesse caso:


b
b
f ( x, t )
d
,
=
f
x
t
dt
(
)
a x dt
dx a

2.

O integrando no depende de x . Nesse caso:


h( x )

d
dh
dg
f ( t ) dt = f ( h ( x ) ) f ( g ( x ) )

dx g ( x )
dx
dx

Apndice. Condies de Segunda Ordem do Clculo Variacional:


t

J sabemos que

f
f
dJ 2
= ( f y + f y& & ) dt onde f y =
e f y& = . Aplicando a segunda derivada
d t1
y
y&

temos:
t

d 2J 2
= ( f yy 2 + f yy& & + f yy& & + f yy& & & 2 ) dt
d 2 t1
Que pode ser escrito na forma matricial:
t
f
d 2J 2
=
(& ) f yy& &
2

d
yy&
t1

f yy& &
dt
f yy

Assim:
f yy& &
d 2J
se
a
matriz
>
0
f
d 2
yy&

f yy&
for definida positiva e o extremo de mnimo.
f yy

f yy& &
d 2J
< 0 se a matriz
2
d
f yy&

f yy&
for definida negativa e o extremo de mximo.
f yy

Logo, usando as regras dos determinantes das matrizes definidas positivas e negativas, temos que
2

o extremo ser de mximo ou mnimo se f yy f yy& & ( f yy& ) > 0 . Se essa condio no for satisfeita o
ponto de sela. Ser mnimo se f yy& & > 0 e mximo se f yy& & < 0 . Estas so as condies de
Legendre.

Apndice. Condies de Transversalidade:


T

Suponha agora o problema de encontrar o extremo de J = f ( t , y , y& ) dt sem a exigncia de que


0

T e ou y ( T ) sejam fixos. Para simplificar vamos manter o ponto inicial fixo em

( t1 , y1 ) = ( 0, yo ) . A nova parametrizao,considerando

y * ( t ) a trajetria tima, T * o tempo final

timo e y *f = y * (T * ) o y final timo, ser:


y ( t ) = y* ( t ) + ( t )
T = T * ( t ) + T
y f = y *f + y

Agora o funcional dado por:


T * + T

J ( ) =

f ( t , y * + , y& * + & ) dt

E devemos derivar tambm o limite de integrao usando a regra de Leibnitz, da forma:


d
J ( ) =
d

T * + T

f
f
*
y + y& & dt + f ( T + T ) T

Logo
T*

f
d
f
J ( ) = + & dt + f (T * ) T
y
y&
d
0
=0

A integral por partes agora tambm deve ser feita com cuidado porque o termo uv no mais
nulo:
T*

T*

T*

T*

f
f
d f
f
d f
&dt =
dt =
T * ) (T * )
dt
(
y&
y& 0
y&
dt y&
dt y&
0
0

Substituindo no resultado anterior temos:

T*

f
d
d f
f
J ( ) =
& dt + (T * ) (T * ) + f (T * ) T
d
dt y&
y
y&
0
=0

Agora y = y f y *f = y ( T * + T ) y * ( T * )
y (T * + T ) = y * (T * + T ) + (T * + T )
y (T * + T ) y * (T * ) = y * ( T * + T ) y * (T * ) + (T * + T )

y = y& *T + ( T * + T )
Logo

(T * + T ) = y y& *T e no limite 0 (T * ) = y y& *T . Substituindo na equao


acima temos:
d
J ( ) =
d
=0

T*

d f
f
f *

f
0 y dt y& & dt + y& (T ) y + f y& y& T

O extremo ser dado pela condio:


*

T*

f
f *

f
d f
0 y dt y& & dt + y& (T ) y + f y& y& T = 0

Novamente a funo ( t ) arbitrria significando que a integral e os outros dois termos devem
ser nulos independentemente. Para a integral ser nula continua valendo a equao de EulerLagrange:
f d f

=0
y dt y&
Mas a ela devemos acrescentar as condies de transversalidade:
*

f *
f
T ) y + f y& T = 0
(
y&
y&

Exemplos de fixao:

Considere o problema de encontrar a distncia origem em um plano x, y . A trajetria agora


y ( x ) e manteremos a notao fazendo x = t . Nesse caso d l = dt 2 + dy 2 = 1 + y& 2 dt

l = 1 + y& 2 dt

funo

objetivo

f ( t , y, y& ) = 1 + y& 2

Nesse

fy = 0

caso

f y& =

1 2 y&
y&
=
. Note que f yy& & =
2 1 + y& 2
1 + y& 2

y&

1 + y& 2 y&

1 + y&

1 + y& 2
2

1 + y& 2 y& 2

(1 + y& )
2

(1 + y& )
2

o que
2

significa que f yy&& > 0 sempre, e o problema de mnimo.


Equao de Euler-Lagrange f y
y&
1 + y&

d
d
f y& = 0 nos leva a
f y& = 0 ou seja f y& = c , logo
dt
dt

= c . Assim y& 2 = c 2 (1 + y& 2 )

y& 2 =

c2
1 c2

y& =

c
1 c2

= a . Se y& = a ento

y = at + b . Como y ( 0 ) = 0 , ento b = 0 e a reta y = at que passa na origem uma soluo.


Retas gerando distncias mnimas so esperadas. Falta determinar o coeficiente angular da reta.
Caso 1. T = t2 = fixo

e y ( T ) = y2 , ento y2 = at2 , logo a =

y2
y
e a reta y ( t ) = 2 t a
t2
t2

trajetria de menor distncia entre a origem e o ponto ( t2 , y2 ) .


Caso 2. T = t2 = fixo mas y ( T ) = livre , ento vamos impor que f y& ( T ) = 0 . Mas f y& =
, y& = a logo f y& =

a
1 + a2

y&
1 + y& 2

t logo a = 0 e a reta horizontal y ( t ) = 0 a trajetria de menor

distncia entre a origem e o ponto ( t2 , 0 ) .


Caso 3. T = livre
Mas

mas y (T ) = y f

f = 1 + y& 2 = 1 + a 2

, ento vamos impor que


e

& y& (T ) = 0 .
f (T ) yf
a

t
logo
1 + a2
1
a
1
& y& (T ) = 1 + a 2 a
=
= 0 preciso
f (T ) yf
a = 0 . Entretanto, para que
2
2
1+ a
1+ a
1 + a2

y& = a

f y& =

que a e a reta horizontal y ( t ) = 0 e T =

yy
a

0 . A trajetria a reta vertical entre a

origem e o ponto ( 0, y f ) .
Caso 4. O ponto final deve cair na reta (T ) = T + . Nesse caso impomos a condio
& y& (T ) = 0 , com & =
f (T ) yf
a

Mas 1 + a 2 = ( a )
y=

1 + a2

temos que a condio dada por

, logo 1 + a 2 = a 2 a a = 1 e a =

f = y& & f y& ,.

. Nesse caso

t a reta perpendicular (T ) = T + que passa pela origem. O ponto de encontro

das retas dado por

T = T + ou seja

2 +1
.
T = , ou seja, T =
1+ 2

Exerccio: Considere o problema da trajetria de menor distncia da origem at o crculo


2

( y yo ) + (T To ) = R 2 . Mostre que a trajetria a reta que passa pela origem e pelo centro
do crculo (To , yo ) . Determine T e y (T ) .

Apndice. Exemplos de fixao da Teoria do Controle timo:

Exemplos de fixao:
T

1. Maximizar V = (1 + u 2 ) 2 dt s.r. y& = u e y ( 0 ) = A .


0

Nesse caso H = (1 + u 2 ) 2 + u ,
1
H
1
= (1 + u 2 ) 2 ( 2u ) + = 0 logo
u
2

ento:

u2
= 2
1+ u2

u 2 = 2 + 2u 2

u
1+ u2

=,

u2 =

2
1 2

u=

1 2

H
= 0 logo = o constante. Como (T ) = 0 ento = 0 , logo u = 0 . Neste caso
y
y& = 0 e y = A .

& =

2. Vamos apresentar um problema em que a varivel de controle pode ser descontnua.


2

Maximizar V = ( 2 y 3u ) dt s.r. y& = y + u ; y ( 0 ) = 4 ; y ( 2 ) = livre e u ( t ) [ 0, 2] .


0

Nesse caso H = 2 y 3u + ( y + u ) .
Maximizar H em relao u :

> 0 se > 3
H
. Temos que escolher u que
= 3 =
u
< 0 se < 3

maximiza H , o qual uma funo linear de u . Assim se > 3 o u que maximiza H ser
u = 2 , o maior valor permitido para o u . J se < 3 o u que maximiza H ser u = 0 , o menor
valor permitido. Dessa forma podemos escrever:
2 se > 3
u* ( t ) =
0 se < 3

Notando que o fato de que H uma funo linear de u implica que


qualquer u , e a condio

H
= sempre, para
u

H
= 0 sempre, no pode valer nesse caso para determinar u . O
u

critrio claro que escolhendo u que maximiza H o tempo todo teremos

Hdt

mximo.

Encontrando :

& =

H
= 2 logo & + = 2 uma equao diferencial de primeira ordem. Usando a
y

soluo = o e t + 1 , temos que o e t + o e t + 1 = 2 , ou seja, 1 = 2 e ( + 1) o e t = 0 , ou


seja, = 1 . Dessa forma = o et 2 .
Por outro lado as condies de transversalidade impem que ( 2 ) = 0 logo o e2 2 = 0 e

o = 2e2 , portanto, = 2 ( e 2t 1) . Para t = 0 ( 0 ) = 2 ( e 2 1) 12.778 > 3 e, claro, ( 2 ) = 0 . O

tempo limite em que ( t * ) = 3 definido por 2 e 2t 1 = 3 , ou seja, e 2t =


*

5
. Aplicando o
2

logaritmo de ambos os lados, 2 t * = ln 5 ln 2 , ou seja, t * = 2 ln 5 + ln 2 1.084 . Com isso


temos:
2 0 t < 1.084
u* ( t ) =
0 1.084 t 2
Falta encontrar y ( t ) :
H
= y + u , logo y& y = u . Como u constante por partes, podemos tomar a soluo

y = ae pt + b e y& = pae pt , logo, pae pt ae pt b = u de onde tiramos b = u e ( p 1) ae pt = 0 ,


y& =

com p = 1 . Temos duas regies t < t * e t t * .


yI ( t ) = a1et 2 0 t < t *
yII ( t ) = a2 et

t* t 2

Usando a condio inicial yI ( 0 ) = 4 tiramos que a1 2 = 4 logo a1 = 6 . A outra condio que


*

y ( t ) contnua, ento yI ( t * ) = yII ( t * ) , logo 6et 2 = a2 et de onde extramos que

a2 = 2 3 e t . Finalmente temos:
2 ( 3et 1) 0 t < t *

y (t ) =
t*
*
t
2 3 e e t t 2
*

3. Maximizar V = ( t 2 + u 2 ) dt s.r. y& = u ; y ( 0 ) = 4 ; y (T ) = 5 e T = livre .


0

Nesse caso y = 0 e (T ) 0 e H = ( t 2 + u 2 ) + u .
H

= 2u + = 0 logo u =
u
2

H
= 0 & = 0 = o
y
y& =

H
= u = o logo y& = o
2
2

c=4 y=

o
2

u=

y=

o
2

o
2
t + c . Com a condio inicial y ( 0 ) = 4 temos

t+4.

1
2
, logo u = o = . S falta encontrar
T
2 T
1
1 21

T . Para isso usamos H (T ) = 0 , ento H (T ) = T 2 + 2 +


= 0 logo T 2 + 2 = 0 e
T
T TT

A outra condio que y (T ) = 5 ento oT = 2 ou o =

T 4 = 1 . As razes de T 4 = 1 so T {1, 1, i, i} , sendo a nica real e positiva T = 1 . Assim


determinamos todas as variveis e trajetrias:
1
y = t + 4 ; u = 1 ; = 2 e T = 1.
2

Apndice. Formalismos Hamiltoniano e Lagrangeano da Mecnica Clssica:

Vamos usar os dois formalismos, do Clculo das Variaes e da Teoria do Controle timo
sumarizados na tabela abaixo.
Clculo das Variaes

Teoria do Controle timo


t2

Problema: Otimizar J = f ( t , q, q& ) dt sujeito


t1

restrio h ( t , q, q& ) = 0 .
t2
Usa a Lagrangeana para transformar o
Problema: Otimizar V = L ( t , q, u ) dt sujeito
problema em:

L = f ( t , q, q& ) g ( t , q, q& )

t1

s restries y& = g ( t , q, u ) .

t2

J = L ( t , q, q& , ) dt
t1

Trajetria tima segue equao de Euler- Usa a Hamiltoniana H = L + u e as


trajetrias timas seguem equaes de
L d L
Lagrange:

=0
Hamilton-Jacobi:
y dt y&
H
H
H
dH H
= & ;
= y& ;
=0;
=

y
u
dt
t
Mecnica Clssica no Clculo das Variaes. Trocam-se as leis de Newton pelo princpio da
t2

Ao Mnima em que a trajetria aquela que minimiza A = L ( t , q, q& , ) dt . Agora basta


t1

mostrar que que usando:

L = T V

com T =

1 2
mx&
2

F =

V
x

Recuperamos as leis de Newton.

L
V
L T
=
=F e
=
= mx& , portanto a equao de Euler-Lagrange
x
x
x&
x&
L
d L

= 0 nos leva a:
x dt x&
F

d
mx& = 0
dt

F = mx&&

Vale notar que

L T
=
= mx& = p o momento.
x&
x&
t2

Generalizando o Clculo das Variaes para n

r r
coordenadas A = L t , x , x& dt temos que

t1

resolver n equaes de Euler-Lagrange do tipo

L
d L

= 0 . Se temos um sistema com


xi dt x&i

n partculas com 3 graus de liberdade (x,y,z) para cada partcula teremos 3n coordenadas no

total que vamos denotar por xi

i {1, 2, 3,L , 3n} .

A grande vantagem do formalismo Lagrangeano na Mecnica Clssica a possibilidade de


mudar as variveis para satisfazer restries especficas. Ento vamos mudar das coordenadas
r
cartesianas x para um conjunto de coordenadas dado pelas transformaes:
qi = qi ( x1 , x2 ,L , x3n ; t ) e sua transformao inversa xi = xi ( q1 , q2 ,L , q3n ; t ) .

Nas coordenadas cartesianas sabemos que o momento dado por pi = mx&i =


analogia, vamos definir um momento generalizado atravs de pl =

T
ento, por
x&i

T
. Suponha uma
q&l

transformao de coordenadas em que no h uma dependncia explcita do tempo, ento:


dW = Fi dxi = Fi

xi
dq j = Q j dq j
q j

A fora generalizada definida por Q j = Fi

xi
. Se as foras so conservativas ento existe uma
q j

funo potencial V tal que dW = dV e V s depende de q mas no de q& e t , ento:


dW =

V
dq j = Q j dq j logo:
q j
Qj =

V
q j

Novamente obtemos um Lagrangeano L = T V e as equaes de Euler-Lagrange em termos


das coordenadas generalizadas qk , pk =

T
L
V
e Qk =
:
=
q& k q& k
q k

d L

dt q& k

L
=0

q
k

Formalismo Hamiltoniano:

Primeiro vamos analisar o caso univariado na k esima coordenada. No formalismo


t2

Lagrangeano achar o extremo de J = L ( t , qk , q&k ) dt nos leva s equaes de Euler-Lagrange


t1

d
L
L
d L L
= pk = p& k ou seja
= p& k . No formalismo Hamiltoniano
= 0 , ou seja,

qk dt
qk
dt q& k qk
t2

queremos o extremos de J = L ( t , qk , uk ) dt sujeito restrio uk = q&k sobre a qual fazemos a


t1

transformao de Legendre: H = L + uk que nos leva s equaes de Hamilton:


H
=0
uk

H
L
L
. O significado do mulitplicador de Lagrange
=
+ = 0 , logo =
q&k
q&k
q& k

nesse caso que = pk o momento generalizado. Alm disso:


H
H
= & portanto
= p& k
qk
qk

e
H
H
= q&k logo
= q&k

pk

As equaes de Hamilton-Jacobi so:

H
H
= p& k e
= q&k .
qk
pk

O Hamiltoniano obtido do Lagrangeano atravs da transformao de Legendre:


H = L + pk q&k . Usando os mesmos passos clssicos que levaram do Lagrangeano para o
Hamiltoniao pode-se mostrar que H = T + V .

Você também pode gostar