Escolar Documentos
Profissional Documentos
Cultura Documentos
Otimizacao 3
Otimizacao 3
Suponha que a função
f x : n
de classe C k 2 tenha um extremo, máximo ou mínimo
*
ou ponto de sela, em x x . Vamos transformar o problema de n dimensões em um problema
*
de uma dimensão através da parametrização: x x th onde t e 0 . Nesse caso a
h
g t f x * th
função de uma variável tem extremo em t 0 para h . A condição de
d
dt
g t
f d *
x1 dt
x1 th1
f d *
x2 dt
x2 th2
f d *
xn dt
xn thn
d f f f
g t h1 h2 hn
dt x1 x2 xn
f f f
h1 h2 hn 0
x1 x2 xn
Agora, essa igualdade deve ser verdadeira para qualquer h. Escolhendo
f f
h 0 0 0 hi 0 0
hj
x j
hi
xi
0
xi
f x* 0
então j implica que
xi
f x* 0
. Fazendo i 1, 2, , n percebe-se que para i . Em termos vetoriais isso pode
ser escrito da forma:
f x * 0
.
d2 d f d f 2 f
g
t i
h i
h i j
h h
dt 2 dt i xi i dt xi i j x j xi
Ou seja:
d2 2 f
g t hi hj
dt 2 i j x j xi
2 f
H ij
x j xi
A matriz Hessiana é definida como: . Trata-se de uma matriz simétrica pois
2 f 2 f
H ij H ji
x j xi xi x j
. Podemos escrever essa derivada na forma de uma
d2
2
g t hH h
multiplicação de matrizes como dt . Algumas pessoas usam a notação
H 2 f , mas não gostamos dessa notação na física porque é mesma do Laplaciano
2
2
i xi2 que é um operador escalar e não tensorial como o Hessiano.
d2
2
g t hH h 0
Nesse caso a condição para o ponto extremo ser de máximo é que dt , o que
significa que a matriz Hessiana deve ser definida negativa. Já para ser de mínimo a condição é
d2
2
g t hH h 0
que dt , o que significa que a matriz Hessiana deve ser definida positiva. Se
a matriz Hessiana não for nem definida positiva, nem definida negativa, então o ponto é de sela.
Análise da definição de matrizes simétricas é apresentada no apêndice xxx. O fato de que a
definição da matriz Hessiana define a concavidade da curva é apresentado no apêndice xxx
sobre série de Taylor de funções multivariadas.
extremo f x ,
sem restrições.
f
fi x * , 0
xi *
onde x é o ponto extremo. Vamos definir uma função de dada por
f x * ,
. Note que se o problema for de máximo então, para um x fixo,
f x, x x*
, só tocando a curva quando . Se for de mínimo então
f x, f x ,
. Por isso a função é uma função envelope para a função .
d
Pergunta é: quanto vale d ?
f x * , dxi* f
d
d i xi d
f x * ,
0
Entretanto xi nos extremos, logo chegamos ao resultado do teorema da função
envelope:
d f
d .
f f f f f f
df dx1 dx2 dxn , , , dx1 , dx2 , , dxn
x1 x2 xn x1 x2 xn
O que significa que f d 0 , que nos leva à conclusão de que f d , com d sendo um
deslocamento infinitesimal na curva de nível. A restrição
g x c é uma curva de nível da
função g . Além disso, como é a própria restrição só deslocamentos sobre a mesma são
possíveis. Figura xxx mostra em vermelho a restrição e os gradientes da função g . No mesmo
gráfico desenhamos em preto diferentes curvas de nível da função f e seus respectivos
gradientes nos mesmos 3 pontos da restrição. Note que no ponto de encontro mais à esquerda
existe uma componente do gradiente da f ao longo da curva de restrição para à direita. Isso
significa um deslocamento para à direita ao longo da curva de restrição aumentará o valor da
função f . Já no ponto mais à direita a componente do gradiente de f ao longo da curva está na
direção esquerda, assim um deslocamento na curva de restrição nessa direção aumenta o valor de
f . Apenas no ponto em que a restrição tangencia uma curva de nível, com ambos os gradientes
Assim percebe-se que podemos definir uma função Lagrangeana dada por:
L , x f x g x c
L , x 0 i 1,2,, n
xi
L , x 0
Uma demonstração mais rigorosa desse resultado incluindo as condições de segunda ordem é
apresentado no apêndice Otimização com Restrições: demonstração rigorosa. Exemplos também
são apresentados no apêndice Exemplos de Otimização com Restrição.
extremo f x ,
g x , c 0
com a restrição .
L
xi
L i x* , , 0
e
L x * , , 0
f x * ,
Novamente definimos a função envelope por e
f x * , dxi* f f x * ,
d
0
d i xi d . Só que agora xi . Mas a restrição continua valendo, ou
g x * , xi* g
dg
0
seja,
g x* , 0
, logo: d i xi . Subtraindo esse zero na derivada de
temos:
f x * , dxi* f x * , g x * , dxi* g x * ,
d
d i xi d i xi d
f g dxi* f g
i xi xi d
f g
0
xi xi
Agora sim no extremo, logo:
d f g L
d
d L
d .
Esse teorema nos permite extrair uma interpretação do significado do multiplicador de Lagrange
. Note que devido ao fato de que a restrição é nula, g x , c 0 , a função objetivo que se
L f g c . Se derivamos em relação
deseja otimizar
f x,
tem o mesmo valor de
d L
c
. Ou seja, é o preço por unidade c da
c c
ao parâmetro c vemos que dc
c 0
restrição que se paga em não melhorar o objetivo por conta da restrição. Se poderíamos
f x g x go
Otimizar sujeito à restrição .
Achamos o Lagrangeano
L1 , x f x g x go
L1 f g f g f g
0
x j x j x j x j x j x j x j
então logo .
L1
g x go
então
g x go
.
* * f ot f x*
Resolvendo esse conjunto de equações encontramos x , e , no qual, obviamente,
g x * go
.
2L1 2 f 2 g 2L1 g
gi L1 0
2
f ij gij
xi x j xi x j xi x j
, xi xi e
2
0 g1 g2 gk
g f1n g1k
1 f11 g11 f12 g12
k det g 2 f12 g12 f 22 g22 f2n g2k
g f1k g1k f 2k g2k f kk g kk
k
sign k 1 k .
Problema DUAL.
g x f x f max
Otimizar sujeito à restrição .
g 1 f 1
x j x j para voltar
Comparando com a situação anterior vemos que basta fazer
f x f max
absolutamente às mesmas equações anteriores. A restrição será, obviamente, .
L 2
f x f max
1
* * * f f x*
Isso mostra que o mesmo ponto x , com , max , no qual sabemos que
g x go
*
, é solução das equações de Lagrange. O problema dual, portanto, fornece a mesma
solução do problema original. Resta saber se mantém maximização/minimização ou se troca,
maximização se torna minimização e vice-versa. Para isso precisamos das condições de segunda
ordem.
2L 2 2 g 2 f
gij f ij
xi x j xi x j xi x j
1
Usando o fato de que re-escrevemos essa derivada segunda como:
2L 2 1 1
gij fij f ij gij
xi x j
2L 2 1 2L1
xi x j xi x j
2L 2 f
fi
xi xi .
g f 1
fi gi gi
Por outro lado xi xi logo então:
2L 2
gi
xi
2L 2 2L1
xi xi
2L 2
0
Claro que
2
.
0 g1 g 2 g n
1 1 1
g1 f g11 f g12 f1n g1n
11 12
1 1 1
H g 2 f12 g12 f 22 g 22 f2n g2n
g 1 1 1
f1n g1n f2n g2n f nn g nn
n
.
0 g1 g 2 g k
1 1 1
g1 f g11 f g12 f1n g1k
11 12
1 1 1
k det g 2 f12 g12 f 22 g 22 f 2n g2k
1 1 1
g k f1k g1k f 2k g 2k f kk g kk
Sabemos que multiplicar uma linha ou uma coluna por uma constante multiplica o determinante
pela mesma constante, assim podemos pegar a primeira linha e colocar em evidência, e para
1
cada uma das demais linhas colocar em evidência. Nesse caso temos que:
0 g1 g2 gk
2g
k 1 f11 g11 f12 g12 f1n g1k
1 det 2 g 2 f12 g12 f 22 g 22 f 2n g2k
k
2g f1k g1k f 2k g 2k f kk g kk
k
0 g1 g2 gk
g
k 1 f11 g11 f12 g12 f1n g1k
1
k 2 det g 2 f12 g12 f 22 g22 f 2n g2k
g f1k g1k f 2 k g2 k f kk gkk
k
Ou seja:
0 g1 g2 gk
g f1n g1k
1 f11 g11 f12 g12
1 det g 2
k 1
1
k 1
k
k 3 k
.
sign k 1
k
k 3 1
k 3 k 3
Nesse caso e portanto:
sign k k k
1
k 3
,
sign k sign k
Isso mostra que se o multiplicador de Lagrange é negativo o problema dual tem a mesma
característica do que o problema original, ou seja, problema dual de maximização também é de
maximização e de minimização também é de minimização.
f x g x
Quando o multiplicador é positivo os gradientes de ambas as funções, e apontam na
f x g x
mesma direção, ou seja, não são apenas paralelos. Isso significa que e
crescem/decrescem na mesma direção. Já se o multiplicador é negativo os gradientes apontam
em direções opostas. Se uma das funções cresce em determinada direção a outra decresce. Figura
xxx mostra intuitivamente o efeito do sinal de no problema dual.
Otimização com restrição de desigualdade:
Suponha agora a seguinte problema: otimizar
f x sujeito à restrição
g x c e compará-lo
como problema otimizar
f x sujeito à restrição
g x c . Vamos usar a mesma figura
g x b
Conside a figura xxx. A região vermelha é a região , significando que o gradiente da
restrição aponta para fora dessa região. Se o gradiente da função f também aponta na mesma
g x b
direção quer dizer que o máximo da função estará na fronteira e a restrição colou. Por
outro lado se o gradiente de f está na direção contrária o máximo estará dentro da região
g x b
e a restrição não tem qualquer efeito, ou seja, não colou. Nesse caso se procura o
g x b
máximo sem restrição. No caso da restrição de igualdade, , o ponto extremo tem que
f g
0 i 1, 2,, n
xi xi
0
g x c
Por outro lado se a restrição não colou temos um problema de maximização sem restrição e só
f
0 i 1,2,, n
temos que resolver as equações x i . Podemos escrever essas duas
possibilidades em um conjunto de equações apenas da forma:
f g
0 i 1, 2,, n
xi xi
g x c 0
0
g x c 0
Note que agora a condição leva a apenas duas opções:
0 g x c 0
1. então e a restrição colou, logo:
f g
0 i 1, 2,, n
xi xi
g x c 0
0
f
0 i 1,2,, n
g x c 0 0 x i
2. e levando ao sistema .
L
0 i
x
1. i
L
j 0
j g j x b j 0 j j
2. ou
3. h c
j 0 j
4.
g j x bj j
5.
f x h1 x c1 ; h2 x c2 ; ; hm x cm
2. Minimizar s.r. e
g1 x b1 ; g 2 x b2 ; ; g k x bk
então construímos o Lagrangeano dado por:
L f x 1 g1 b1 k g k bk 1 h1 c1 m hm cm
L
0 i
x
1. i
L
j 0
j g j x b j 0 j j
2. ou
3. h c
j 0 j
4.
g j x bj j
5.
As condições de segunda ordem mudam se a restrição cola, usam-se então as regras do Hessiano
orlado, ou não cola, usam-se as regras do Hessiano sem orlas.
Problema de Kuhn-Tucker:
Kuhn-Tucker querem soluções para variáveis que se podem ser positivas, com um problema do
tipo:
f x g1 x b1 ; g 2 x b2 ; ; g m x bm
Maximizar s.r. e x1 0; x2 0;; xn 0 .
L f g j
j i 0 i
xi xi j xi
1.
L
j 0
j g j x b j 0 j j
2. ou
j x j 0 j
3.
j 0 j
4.
j 0 j
5.
x 0 i 1, 2, , n
O Lagrangeano de Kuhn-Tucker não inclui as desigualdades i , não
considear os multiplicadores de Lagrange , sendo escrito apenas como:
L KT f x j g j x b j
j
L L KT i xi
Note que i . As equações de Kuhn-Tucker são:
L L KT L KT
0 i 0 i
xi xi xi
L KT L
0 xi KT 0
Como i 0 então
xi . Se a restrição xi 0 cola escrevemos
xi
L KT L
0 i KT 0
i ;
i ; i 0 e xi 0 .
Equações de Kuhn-Tucker:
L KT
0
1.
xi
L
xi KT 0
2.
xi
L KT
0
3.
i
L
i KT 0
4.
i
5. i 0
6. xi 0
Cálculo das Variações começa com o problema da curva brachistocrona levantado por Johann
Bernoulli, chamando a atenção de seu irmão Jakob Bernoulli. Leonhard Euler trabalhou sobre o
problema e seu livro Elementa Calculi Variationum gerou o termo Cálculo das Variações.
Lagrange foi outro nome importante nesse campo e Legendre se preocupou com as condições de
segunda ordem para discriminar máximos e mínimos.
Todo o cálculo das variações está baseado na regra de Leibnitz para derivada de integrais
demonstrada no apêndice Regra de Leibnitz. Essa regra afirma que:
h x h x
d f x, t dh dg
f x , t dt dt f x , h x f x, g x
dx g x g x
x dx dx
Funcional:
y t
Um funcional associa um número à cada função de um domínio de funções. O domínio
pode restringir os tipos de funções, apenas as diferenciáveis, por exemplo, ou funções que
possuem determinados valores em determinados pontos, etc. A expressão abaixo representa um
funcional:
t2
J f t , y , y dt y t
d
y t
t1
onde dt
y t y t
Sabendo f e dada uma trajetória , sabemos calcular , substituir em f e calcular o
valor J obtido após a integração. A questão típica do Cálculo das Variações é se existe uma
y* t
trajetória especial que torna o valor de J o maior possível, ou o menor possível, ou um
extremo?
Vamos começar com t1 e t2 fixos e restringir o domínio das funções àquelas trajetórias que
y t y* t t
y* t t y t y* t
Onde é a trajetório ótima e um desvio da trajetória ótima. Como e são
t
diferenciáveis, então também é diferenciável. Além disso as restrições dos pontos inicial e
final da trajetória implica que:
y t1 y * t1 y 1 t1 0
y t2 y * t2 y 2 t2 0
J f t , y * , y * dt
t1
d
J 0
d
Que sabemos possuir um extremo em 0 , ou seja, 0
como condição de
d2
J 0
d 2 0
primeira ordem. Além disso as condições de segunda ordem são se o extremo
d2
J 0
d 2 0
for de máximo e se o extremo for de mínimo.
Com os limites , t1 , t2 fixos a derivada da integral facilita, desprezando os termos das derivadas
dos limites de integração. Nesse caso:
t
d
f t , y * , y * dt
2
J
d t1
t
d 2
f f
J dt
d t1
y y
t2 t2 t
f f 2
d f f
t y
dt
y
t t dt y
dt u
Agora, 1 1 1
após fazer a integral por partes com dv dt e y .
d
J 0
t1 t2 0 d 0
O termo uv é nulo porque . Então implica em:
t2
f d f
y dt y t dt 0
t1
Em princípio o fato de que uma integral é nula não significa que o integrando seja nulo.
t
Entretanto no nosso caso a integral deve ser nula para qualquer função arbitrária
significando que a única forma da integral ser nula sempre é que:
f d f
0
y dt y
A equação de Euler-Lagrange representa a condição de primeira ordem para que o funcional seja
um extremo. Se é de máximo ou de mínimo será discutido no apêndice Condições de Segunda
Ordem do Cálculo Variacional. O problema de otimização do funcional liberando as condições
de pontos fixos no início e ou fim da trajetória é discutido no apêndice Condições de
Transversalidade.
Generalizações:
t2
J f t; q1 , q2 , , qn ; q 1, q 2 ,, q n dt
1. Mais de uma variável dependente t1
. Neste caso
temos uma equação de Euler-Lagrange para cada variável:
f d f
0 k 1, 2,, n
qk dt q k
f f f f
0
qk t1 q1 t2 q 2 tn q n
J f t , q, q dt g t, q, q dt C
t1
sujeito à restrição t1
.
J f t , q, q dt
t1
t2
I g t , q, q dt C
t1
E usamos a técnica dos multiplicadores de Lagrange para encontrar o extreme. Nesse caso:
L J I C
L J I
0 L I C 0
As soluções são dadas pelas equações e . Agora:
t t
J 2 f d f I 2 g d g
t1 y dt y
dt 0 dt 0
t1 y dt y
e
portanto:
L t2 f g d f g
dt 0
t1 y y dt y y
d
f g f g 0
y dt y
L d L
0
y dt y
J f t , q, q dt
g t , q, q 0
t1
sujeito à restrição
t2
t g t , q, q dt 0
g t , q, q 0
Agora como podemos mudar para o tipo 1 fazendo t1
, e o
multiplicador de Lagrange agora pode ser função do tempo. Novamente caímos na equação de
Euler-Lagrange na forma:
L d L
0
L f t , q, q t g t , q, q e y dt y .
A teoria do Controle Ótimo é uma matemática do século XX e não mais a matemática do século
XIX. O matemático russo L. S. Pontryagin publicou Princípio de Máximo com o qual ganhou o
prêmio Lenin em 1962, mesmo ano em que seu trabalho foi traduzido para o inglês. O
matemático americano Magnus R. Hestenes da Rand Corporation produziu um report Interno da
Rand chamado “A general Problem in the Calculus of Variations with Applications to Paths of
Least Time”. Mais tarde ele publicou um paper estendendo os resultados de Pontryagin com o
título “On variational theory and Optimal Control Theory”, Journal of SIAM, series A, vol.3
p23-48 (1965), e o livro “Calculus of Variations and Optimal Control Theory”, Wiley&Sons, NY
(1966).
L.S. Pontryagin Magnus Hestenes
A teoria do Controle Ótimo está focada em encontrar a melhor trajetória para uma variável de
u t y t
controle , sobre comando do controlador, que leva a variável a uma trajetória
u t
maximizadora/minimizadora de uma determinada função objetivo. A variável de controle
y t
precisa, obviamente, interferir na trajetória de , chamada de variável de estado.
Exemplo: Suponha que exista um estoque S de petróleo e que a taxa de extração, sobre
E t
comando do operador do sistema, seja , definindo a relação entre estoque e taxa de extração
dada por:
dS
E t
dt
Com extração nula não há consumo e a reserva de petróleo não gera qualquer bem estar. Por
outro lado, a extração vai exaurindo a reserva e diminuindo o consumo no futuro. O futuro vale
menos do que o presente e a função bem estar acumulada pode ser calculada com uma taxa de
desconto da forma:
T
U acum U E e t dt
0
dS
E t S 0 So f t, S , E U E e t
Sujeito às restrições dt e . Nesse caso e a restrição
S E t E t S t
. A variável de controle é e a de estado .
A variável de controle pode ser descontinua por partes, mas com descontinuidades finitas.
Exemplo típico é o ligar e desligar da maioria dos controles de temperatura. Já a variável de
estado deve ser contínua, notando que u atua na derivada de y , mas não diferenciável porque a
derivada pode ser descontínua. A teoria é mais geral do que o cálculo das variações, portanto,
pois é capaz de lidar com funções não diferenciáveis. Além disso é capaz de manusear restrições
sobre a variável de controle e admite soluções de canto. Por exemplo, suponha o caso on-off em
u 0,1
que , só pode assumir valores 0 (desligado) ou 1 (ligado). A trajetória ótima para u
pode ser do tipo:
1 t [0, t1 )
u t 0 t [t1 , t2 )
*
1 t [t , T ]
2
u t
variável de controle
y t
variável de estado
t
variável de co-estado [costate variable]
Nosso problema é:
Otimizar:
T
V y , u f t , y , u dt
0
sujeito às restrições:
y g t , y , u
y 0 yo
T , y T
livres.
y g t , y , u g t , y , u y 0 t
A restrição pode ser re-expressa como logo:
T
t g t, y, u y dt 0
0
t
H t , y , u, f t , y , u t g t , y , u
T T T
t y dt y 0 y dt T y T 0 y 0 y dt
T
y t y* t q t
T T * T
y T y * y
t
variável de co-estado [costate variable]
T * T
d
V 0
d 0
Vamos impor :
T*
d d d
d
V H y dt H y d T
*
T y y
d
T * T
0
T*
H H
y q u
p q dt H y * T y y T
0
T*
H H
y q t p t dt H T * T T * yT
u
0 usando y T y
q t p t
Como e são arbitrárias cada um de seus multiplicadores no integrando devem ser
nulos independentemente, assim:
H H H
0 0
y y e u
H H
f g g y y
ou seja .
Condições de transversalidade:
y T* 0
Se é livre, arbitrário, então,
T 0 H T* 0
Se , tempo limite especificado, então
H T* 0
Se T é livre então
T
V y , u f t , y , u dt
Assim, o problema de achar o extremo de 0 sujeito às restrições
y g t , y , u y 0 yo
e , nos leva às seguintes equações de movimento:
H H
y H 0
T 0
; y ; u e .
H
y
Ou seja, sempre se escolhe u que maximiza H em todo momento, e resolve-se ;
H
y .
dH H H H H H H H H H
y u
dt t y u t y y
dH H
dt t
dH
0
Isso significa que se o Hamiltoniano não depende explicitamente do tempo então dt e
H cte é uma constante, ou seja, existe uma lei de conservação.
Cálculo das Variações como um caso particular da Teoria do Controle Ótimo:
J L t, q, q dt 0
t1
L d L
0
y dt y
V q, u L t , q, u dt
Achar o extremo de t1
sujeito à restrição q u .
H L L
0 0
u u u
H L d L L d L
0
q q por outro lado dt u portanto q dt u lembrando
que u q recuperamos a equação de Euler-Lagrange:
L d L
0
q dt q
Para determinar os outros coeficientes an também vamos exigir que os valores das derivadas da
função e da aproximação sejam idênticos em x xo , como mostra o gráfico da figura 4, abaixo,
para uma aproximação de ordem 2.
Série de Taylor
f(x)
ordem 0
ordem 1
ordem 2
f(x)
dk n n−k n!
k
( x − x 0 ) =n(n−1). ..(n−k +1 )(x −x o ) = ( x−x o )n−k k <n
1. dx (n−k )!
k
d
k
( x − x 0 )n =0 k >n
2. dx
n
d
n
( x − x 0 )n =n!
3. dx
n
d ∞ k
∞
n!
n∑ k
a ( x−x o ) = ∑ ak (x −x o )k−n
4. dx k =0 k=n ( n−k )!
dn ∞
n∑ k
a (x −x o )k|x= x = n! an
5. dx k=0 o
( n) dn ∞ n
f (x 0 )
f ( x o )= n ∑ ak (x −x o )k|x= x an =
6. Impondo que dx k=0 o
chegamos a: n! .
f ( x)
f
n
xo
x xo
n
n 0 n!
f ( x)
f
n
0 xn
n 0 n!
Em princípio essa é uma série infinita. Entretanto, uma série infinita só será útil se for possível
mostrar que ela converge, ou seja, que pode ser truncada em determinado número de termos e
que o erro cometido com essa truncagem tende a zero à medida que o número de termos
incluídos cresce. O erro cometido com essa truncagem chama-se Resto. Uma série de Taylor
truncada em n só pode ser utilizada para função diferenciável, pelo menos, n vezes. Mas isso
relaxa a condição de que a função deve ser infinitamente diferenciável.
Casos Particulares:
xk
ex
Função exponencial: k 0 k!
k
d x x
e =e
f x ex dx k
A expansão da exponencial é imediata se notarmos que e que,
( k)
portanto, f (0)=1 . Nesse caso:
∞ k 2 3 k
x x x x x
e = ∑ =1+ x + + + .. .+ +. . .
k =0 k ! 2! 3 ! k! .
n
n! n
n
(a x) n a n k x k a n k x k
k 0 k !( n k )! k 0 k
Binômio de Newton Generalizado:
n
n! n
n
a b a nk b k a nk bk
n
k 0 k ! n k ! k 0 k
Lembrando da fórmula do binômio de Newton .
f x (a x ) n
Considere a expansão em série de Taylor-McLaurin da função , com n inteiro
n!
f ( k ) (0) a nk se n k
, e f (0) 0 se k n e
(k )
positivo. Nesse caso, sabemos que ( n k )!
a série de Taylor-McLaurin se torna um polinômio de grau n naturalmente truncada em k n .
n
n! n
n
(a x) n a n k x k a n k x k
k 0 k !( n k )! k 0 k
Então, vale a igualdade: , que é o próprio binômio
n n!
0 1
de Newton. Os coeficientes dos primeiro e último termos valem 1 pois 0!( n 0)! e
, uma vez que . 1 A série de Taylor não agregou muito valor ao caso das
funções de potência em que a expansão binomial de Newton já era muito conhecida.
Entretanto ela pode ser usada para generalizar o binômio de Newton para valores de n
negativos ou não inteiros, em que a série se torna infinita. Aí sim, ela agrega grande valor. Se n
n!
n(n−1)(n−2).. .(n−k +1 )=
é negativo não escrevemos (n−k )! pela dificuldade dos
fatoriais de números negativos. Nesse caso é melhor colocar
1 em evidência em cada termo e
usar:
k
(−1) (|n|+k −1)!
n(n−1)(n−2).. .(n−k +1 )=
(|n|−1 )!
Caso particular do binômio de Newton para n 1 :
k
(−1) (1+k −1)!
(−1 )(−2)(−3).. .(−1−k +1 )= =(−1)k k !
(1−1)!
f x 1 x
1
f x 1 x
1
Já para obtemos:
k
(−1) k ! ∞ ∞
f (x )=(1−x ) = ∑ −1
(−x ) = ∑ x k =1+ x + x 2 +x 3 +. ..
k
k=0 k! k =0 .
n1
Caso particular do binômio de Newton para 2:
12 !
Nesse caso teríamos que calcular
k! 1 k !
2
1 (1) k 2k 1 !!
f ( x) 1 x (1 x) 2 k
xk
k 0 2 k!
Agora notamos que:
2k !! 2 0 2 2 2k 4 2k 2 2k 2k 1 2 k 2 k 1 k 2k k !
E escrevemos a série como:
( 1) k 2k 1 !!
f ( x) 1 x xk
k 0 2k !! .
( 1) k 1 x k
Ln(1 x )
Logaritmo: k 1 k
f 0 ln 1 0 '
f ( x )=(1+x)
−1
Para o caso do logaritmo, , e , as derivadas podem ser
( k −1)
d
f ( k ) (x )= k−1
(1+ x )−1=(−1)k −1 (k−1)! (1+x )−k
facilmente calculadas usando: dx ,
f (b) − f ( a)
g x x g x 1
f ' (ζ ) =
No caso particular em que , o TVM ele se reduz a b−a
.
Resto da Série de Taylor
0 1 ( n) n
f (x )(b − x) f ' ( x)(b − x) f ( x)(b − x)
F( x) = f (b ) − [ + + …+ ]
Seja 0! 1! n! o erro
n+1
(b − x)
G( x) =
cometido na truncagem da série de Taylor até ordem n e seja (n + 1)! . Como
F x G x
e satisfazem as condições do TVM de Cauchy então:
F' (ζ ) F(b )−F (a )
∃ ζ ∈(a , b )/ ' =
G (ζ ) G(b )−G( a) .
F x
Por outro lado, derivando diretamente a função , obtemos:
f ' ( x)(b − x)0 f '( x)(b − x )0 f ''( x)(b − x)1 f ''( x)(b − x)1
F '( x) = − [ − + − +
0! 0! 1! 1!
f '''( x)(b − x)2 f '''( x)(b − x)2 f ( n+1) (x )(b − x)n
− +… + ]
2! 2! n!
Como os termos intermediários se cancelam [soma telescópica]:
( n+1 ) n
f ( x)(b − x)
F '( x) = −
n! .
f ( n1) ( )( x xo ) n1
Rn
O erro em truncar com n termos, também chamado de resto, é dado por (n 1)!
série de Taylor de
f x h, y k . Tomando y constante sabemos expandir:
hn n hn k m
f x h, y k x f x, y k my nx f x, y
n n! n n! m m!
hnk m m n
f x h, y k y x f x, y
n m n !m !
hnk m n m
f x h, y k x y f x, y
n m n !m !
Como não pode haver diferença entre as duas formas se percebe que
my nx f x, y nx my f x, y
. Agora vamos re-expressar a série da forma:
h n nx k y
m m
f x h, y k f x, y Tˆ f x, y
n m n! m! onde
h n n k m m
x
Tˆ
y
n m n! m! é o operador série de Taylor.
1 ! n n n n
f x h, y k h x k y f x, y
!n 0 n!m!
Por outro lado, lembrando que que as derivadas são operadores lineares, sabemos que o operador
! n n n n
h x k y h k x y
n 0 n ! m !
1 ! mn
f x x x11 x2 2 xn n f x
m1 m2
! m1 0 m2 0 mn 0 m1 !m2 !mn !
m1 m2 mn
! mn
x11 x2 2 xn n x11 x2 2 xn n n
m1 m2
m1 0 m2 0 mn 0 m1 !m2 !mn !
m1 m2 mn
Ou seja:
! mn
n
x
1 1 m1
x
2 2 m2
x
n n x
m1 0 m2 0 m n 0 m1 ! m 2 !
mn !
m1 m2 mn
A série de Taylor em n variáveis é dada portanto por:
n
x
f x x f x, y
n n!
Até ordem 2 podemos escrever a série de Taylor multivariada como:
1 2
f x h f x h f x h f x
2!
Ou ainda como:
n 1 n n
f x h f x hi i f x hi ij f x h j
i 1 2! i 1 j 1
2
H ij ij f x f x
xi x j
A matriz é chamada de Matriz Hessiana.
Apêndice. Convexidade de uma curva:
x x1 , x2 f x R x R x
Função côncava: uma função é côncava se para onde é a reta
x , f x1 x , f x2
secante que une os pontos 1 à 2 . Esse é o caso da figura 2(a). Função
x x1 , x2 f x R x R x
convexa: uma função é convexa se para onde .Esse é o caso da
figura 2 (b).
x x1 , x2 0,1
Vamos construir um através de um parâmetro da forma
x x2 1 x1 x 0 x1 x 1 x2
. Se 0 então e se 1 então . Além disso
x x2 1 x1 x2 1 x2 x2 x x2 1 x1 x1 1 x1 x1
e , logo
x1 x x2 x ,x
pertence ao intervalo 1 2 . A equação da reta secante que passa pelos pontos
R x f x1 f x2 f x1
x1 , f x1 x2 , f x2 x x x2 x1
e é dada por 1 , ou seja,
x x1
R x f x1 f x2 f x1
x2 x1 ou, em termos de ,
x 1 x1 x1 x x
R f x1 2 f x2 f x1 f x1 2 1 f x2 f x1
x2 x1 x2 x1 , que nos
R f x2 1 f x1
leva, finalmente, a: .
Seja
X ( x ,
1 2x , , x )
n um vetor em e
n f X : n
uma função escalar que associa um
número real a um vetor. Então:
1. Se
f X 2 1 X 1 f X 2 1 f X 1
para
0,1
então a função
f x
é estritamente côncava.
2. Se
f X 2 1 X 1 f X 2 1 f X 1
para
0,1
então a função
f x
é
estritamente convexa
Apêndice Otimização com Restrições: demonstração rigorosa.
g *
xn
x 0
Se então existe uma função inversa local implícita tal que
xn x1, x2 ,, xn 1 que pode ser utilizada para eliminar a variável xn e caímos em
funções de n 1 variáveis dadas por:
n 1 n 1 2F
hi h j 0 max
i 1 j 1 xi x j
n 1 n 1 2 F
F 0 i 1,2,, n 1 hi h j 0 min
xi x
i 1 j 1 i x j
e
g
xi
G g g xi g
0
Agora
xi xi xn xi pois G c , o que significa que xn . Por outro
f f
f xn g xn
0
F f f xi g xi g
0
lado
xi xi xn xi , então xn . Como xn é uma
*
constante, calculada no ponto x temos que:
f g
0 f g 0 i 1,2,, n 1
xi xi ou ainda que
x i .
f
f g f xn g f f
f g 0
xn xn xn xn g xn xn xn
Por outro lado xn
automaticamente. Portanto podemos estender a condição para
f g c 0 i 1,2,, n
xi .
L , x f g x c
Definindo a função Lagrangeana dada por: vemos que as
L , x 0 i 1,2,, n
condições de primeira ordem para um extremo são que
xi . Essa
equação deve ser resolvida em conjunto com a restrição, mas notamos que
f g c 0
implica em g c 0 ,
ou seja, a própria restrição. Usando a
função Lagrangeana o nosso problema é resolver o conjunto de equações simultâneas:
L , x 0 i 1,2,, n
xi
L , x 0
f
fj
x j
A condição de segunda ordem é um pouco mais complicada. Vamos usar a notação
para simplificar. Nesse caso temos:
F j f j f n j
G j g j g n j
Fij Gij fij gij fin gin j f nj g nj i
f nn g nn i j f n g n ij
Agora:
fn
fn gn fn gn 0
gn
Então:
n 1 n 1 n 1 n 1 n 1 n 1
Fij Gij hi h j fij gij hi h j fin gin hi j h j
i 1 j 1 i 1 j 1
i 1 j 1
n 1 n 1 n 1 n 1
j 1
f nj g nj h j i hi f nn g nn i hi j h j
i 1 i 1 j 1
n 1 gi 1 n 1
hn i hi i hn gi hi
i 1
gn g n i 1
Definindo um e usando o fato de que temos que ,
n 1 n
gi hi g n hn 0
ou seja, i 1
gi hi 0
, i.e., i 1
nos garante que h está na curva
g
x h c
.
Nesse caso temos que:
n 1 n 1 n 1 n 1 n 1
Fij Gij hi h j fij gij hi h j fin gin hi hn
i 1 j 1 i 1 j 1 i 1
n 1
f nj g nj h j hn f nn g nn hn hn
j 1
n 1 n 1 n 1 n 1 n n
Fij hi h j Fij Gij hi h j fij gij hi h j
i 1 j 1 i 1 j 1 i 1 j 1
Hessiano orlado:
0 f1 fn
f1 H11 H1n
H
fn H1n H nn
O Hessiano orlado é definido como: . Note as duas orlas nas
primeira linha e primeira coluna da matriz Hessiana. A condições de segunda ordem dos pontos
de máximo e mínimo serão dadas pela definição do Hessiano orlado discutido no apêndice
Definição de matrizes simétricas com restrição. Note que o Hessiano orlado poderia sair
diretamente do Lagrangeano se incluirmos como uma variável pois:
2L , x g x 2L , x
0
xi xi e 2
Apêndice. Definição de matrizes simétricas:
Teorema 1:
m11 m12
m1k
m m2 k
m22
M k 12
m1k m2 k
mkk
serão definidas positivas ou negativas.
Prova: como a propriedade é válida para qualquer h 0 basta escolher
h h1 h2 hk 0 0 0 o que significa que hMh hk M k hk .
Teorema 3.
Matriz 2 2 :
m m12 h
q h k 11
m12 m22 k
m h m12 k
q h k 11 m11h 2 2m12hk m22k 2
m21h m22 k
m
q m11 h 2 2 12 hk m22k 2
m11
m m
2 2
m12
2 2 2
q m11 h 2 12
hk 12
k m22 k k2
m11 m11 m11
2
m12 m11m22 m12
2
2
q m11 h k k
m11 m11
det M 2 2 m
q det M 1 h*2 k h* h 12 k
det M1 onde m11 .
det M 2
0
Se q 0 e como h
*2 2
0 e k 0 é preciso que det M 1 0 e det M 1 o que implica
det M 2
0
em det M 1 0 e det M 2 0 . Por outro se q 0 é preciso que det M 1 0 e det M 1
1 1
q m11 h 2 2 m12k m13l h 2 m12k m13l 2
m11 m11
1
m12 k m13l 2 m22k 2 2m23kl m33l 2
m11
2
m k m13l 1
q m11 h 12 2
m22 k m12k m13l 2 2m23kl m33l 2
m11 m11
2
m k m13l
q m11 h 12
m11
1
m11
2
m11m22 m12
k2 2
1
m11
m11m23 m12 m13 kl
1
m11
2
m11m33 m13l2
2
m k m13l
q m11 h 12
m11
m 11m22
2
m12
k 2 2 m11m23 m12 m13 kl m11m23 m12 m13 l 2
2
m11
m11m22 m122
m 11m22 m12
2 2
m 11m22
2
m12 m m m m 2
11 23 12 13
l2
1
2
m11m33 m13 l2
m11
m m m 11 22
2 2
12
m11
2
2
m11m23 m12 m13 l
2
m12 k m13l m11m22 m12
q m11 h k
m 11 m 11
2
m11m22 m12
1
m m m2 m m m2 m m m m 2 l 2
m m m m
11 2
11 22
11 22
12
12 11 33 13 11 23 12 13
2
2
m11m23 m12m13 l
2
m12 k m13l m11m22 m12
q m11 h k
m 11 m11
2
m11m22 m12
1 m112 2
m22 m33 m11m22 m13 2
m11m12 2 2
m33 m12 m13 2
2 2 l
2
m11 m11m22 m12 2 2
m11m23 2m11m12m13m23 m12 m13
2
2
m11m23 m12 m13 l
2
m12 k m13l m11m22 m12
k
q m11 h
m 11 m11
m m
11 22 m 2
12
m 11m22 m33
2
2m12m13m23 m11m23 2
m22 m13 2
m12 m33 l 2
2
m11m22 m12
det M 2 *2 det M 3 2
q det M1 h*2 k l
det M1 det M 2
det M 2 det M 3
0 0
Então se q 0 exigimos que det M 1 0 , det M 1 e det M 2 o que implica em
det M 1 0 , det M 2 0 e det M 3 0 . Mas se q 0 é preciso que det M 1 0 ,
det M 2 det M 3
0 0
o que implica em det M 1 0 , det M 2 0 e det M 3 0 .
det M 1 e det M 2
No entanto a melhor forma de provar o caso geral é usar a técnica de diagonalização de matrizes.
matriz que diagonaliza M k , simétrica, ou seja Sk M k Sk Dk , então podemos fazer
q hk Sk Sk M k Sk Sk hk , ou seja, q hk Sk Dk Sk hk . Agora definimos hk* Sk hk logo
hk* hk Sk logo q hk* Dk hk* .
1 0 0
0 0
Dk 2
k
q i hi*2
k
Mas 0 0 então i 1 . Logo se q 0 então i 0 i , mas
Suponha agora que os vetores possíveis devem obedecer a uma restrição do tipo: f1h f 2k 0
. Nesse caso as duas variáveis h e k não são mais independentes, mas devem obedecer a
f2
h k
relação
f1 .
f 22 2 f
q A11h 2 A12hk A22k A11 2 k 2 A12 2 k 2 A22k 2
2 2
f1 f1
Assim
2
k
q f 22 A11 2 f1 f 2 A12 f12 A22 2
f1
Generalizando:
H H12
det H 2 det 11
det H1 det H11 , H12 H 22
a matriz é definida positiva se ,
H11 H12 H1k H11 H12 H1n
H H 22 H 2 k H H 22 H 2 n
det H k det 12 det H n det 12
H1k H 2k H kk
até H1n H 2n H nn
forem
0 f1 fn
f H11 H1n
H 1
Com restrição: fn H1n H nn
será definido positivo se os determinantes
det H 0 det H 0
3 , 4 , ..., det H 0
n 1
Apêndice. Definição de Matrizes e concavidade das curvas:
A definição da matriz Hessiana também define a concavidade da função. Se
f x é
estritamente côncava ou convexa então:
f 1 x x 1 f x f x concava
f 1 x x 1 f x f x convexa
x e x .
para
h 0
Então também vale para x x h com h 0 mas com . Nesse caso
1 x x 1 x x h x h então:
x h
f x h 1 f x f concava
h
f x h 1 f x f x convexa
n 1 n n
f x h f x hi i f x hi ij f x h j
i 1 2! i 1 j 1
1
f x h f x h f x hHh
2
Fazendo h h temos que:
2
f x h f x h f x
2
hHh
Logo:
2 1
f x h f x hHh 1 f x f
x h f hHh concava
x
2 2
2 1
f x h f x hHh 1 f x f
x h f hHh convexa
x
2 2
2
f x h f x hHh f x h f x hHh concava
2 2
2
f x h f x hHh f x h f x hHh convexa
2 2
2
hHh hHh concava
2 2
2
hHh hHh convexa
2 2
1
hHh 0 concava
2
1
hHh 0 convexa
2
Como
0,1 então 1 0 e a concavidade é definida por:
hHh 0 concava
hHh 0 convexa
ou seja, se o Hessiano for definido negativo a função é côncava e se for definido positivo a
função é convexa. É intuitivo que funções côncavas possuam máximos enquanto funções
convexas possuam mínimo.
Apêndice. Exemplos de Otimização com Restrição:
1. Maximizar y x1 x2 s.r. x1 4 x2 16 .
L , x x1x2 x1 4 x2 16
L x2 0 1
x1
L x1 4 0 2
x2
L x1 4 x2 16 0 3
x1
x2
Das equações (1) e (2) temos que 4 logo x1 4 x2 . Jogando essa relação na
restrição [equação (3)] temos
4 x2 4 x2 16 0 x2 2 x1 8 2
2L 2L 2L
2
x1 x1
2 0 1 4
L 2L 2L
H
1 0 1 x1 e x2
x1 x12 x1x2
2 4 1 0
L 2L 2L
x x1x2 x22
1 .
0 1 4
D2 det 1 0 1 4 4 8 0
4 1 0
.
Como D2 0 com uma restrição o D2 sem restrição seria negativo, matriz definida negativa.
Assim ponto é de máximo.
Esse problema também é fácil de resolver por substituição. Da restrição temos que
x1 4 4 x2 y 4 x2 4 x2
. Substituindo na função objetivo , logo
dy
4 4 x2 4 x2 16 8 x2 0
dx2 e x2 2 e x1 4 4 2 8 . A segunda derivada
d2y
8 0
dx22 , logo o ponto é de máximo.
f x, y, z xz yz
s.r. y z 1 e xz 3 .
2 2
2. Maximizar
L , x xz yz 1 y 2 z 2 1 2 xz 3
L z 2 z 1 2 z 0 1
x
L z 21 y 0 2
y
L y x 21z 2 x 0 3
z
1
L y2 z2 1 0 4
L xz 3 0 5
2
Logo, obrigatoriamente, 2 1 .
z 21 y 0
y 21z 0
Extraindo z e substituindo
y 412 y 1 412 y 0 com duas opções y 0 ou
1
1 4 0 . Novamente se y 0 então z 0 em contradição com xz 3 . Logo
1
2
1
2
4 e
1 1
1 1
2 e 2.
1 2
1 y z0 yz
Para 2 2
1 2
1 y z0 y z
Para 2 2
2 2
Em qualquer um dos dois casos y z a restrição y z 1 2 z 2 1 , logo
1 1 3
z y x 3 2
2, 2 e z . Assim temos 4 pontos extremos:
1 1 1
x, y, z, 1 , 2 3 2, , , ,1
2 2 2
1 1 1
x, y, z, 1 , 2 3 2, , , ,1
2 2 2
1 1 1
x, y, z, 1 , 2 3 2, , , ,1
2 2 2
1 1 1
x, y, z, 1 , 2 3 2, , , ,1
2 2 2
Como 2 1 então
0 0 0 2 y 2 z
0 0 z 0 x
H 0 z 0 0 0
2 y 0 0 2 1 1
2 z x 0 1 21
0 0 0 2 y 2 z
0 0 0 2 y 2 z
0 z 0 x 0
z 0 0
det 0 z 0 0 0 z det
2 y 0 21 1
2 y 0 0 2 1 1
2 z x 0 2 z x 1 21
1 21
D4 z 2 4 zy 4 zy 8 z 21 8 y 21 8 z 2 zy z 2 y 2 1
como y2 z 2 1
então:
D4 8 z 2 zy 1
1 1 1 1
1 z y zy z 2 1 zy 1 2
Para 2 2 2 2 portanto D4 8 z 0
logo se trata de ponto de máximo.
1 1 1 1
1 zy 1 zy 1 2
Para 2 2 2 2 portanto D4 8 z 0 logo se trata
de ponto de mínimo
1 1 1 1
x, y , z 3 2, , x , y , z 3 2, ,
Assim os pontos 2 2 e 2 2 são pontos de
1 1 1 1
x, y , z 3 2, , x, y, z 3 2, ,
máximo enquanto os pontos 2 2 e 2 2 são
pontos de mínimo. Voltando à função objetivo vemos que
1 1 1 1 1 1 7 7
f 3 2, , 3 2 3
2 2 2 2 2 2 2 logo 2 é o valor máximo. Já
1 1 1 1 1 1 5 5
f 3 2, , 3 2 3
2 2 2 2 2 2 2 logo 2 é o valor mínimo.
Apêndice. Regra de Leibnitz:
h x
F x f x, t dt d
F x
g x
Seja . Queremos calcular dx .
h x x h x
F x f x x, t dt f x, t dt
g x x g x
g x h x h x x h x
h x h x x g x x
F x f x x, t f x , t dt f x x, t dt f x x , t dt
g x h x g x
h x h x x g x x
F x f x x, t f x, t 1 1
dt f x x, t dt f x x , t dt
x g x
x x h x
x g x
P x, t P x, t f x, t P x , t f x, t dt
Agora, seja tal que x , ou seja, , então:
1
x x
P x x, x x P x x , x
f x x , t dt
x x x
P x x , x x P x x , x x x x
x x x x
P d d
x, x
dx
f x, x
dx
Então:
h x x
1 dh
f x x, t dt f x x , h x
x h x
dx
g x x
1 dg
f x x , t dt f x x , g x
x g x
dx
Logo:
h x
dF x f x, t dh dg
dt f x, h x f x, g x
dx g x
x dx dx
Casos particulares?
d
b b
f x, t
f x, t dt dt
dx a a
x
t
dJ 2
f y f y dt f f
d t1
fy f y
Já sabemos que onde y e y . Aplicando a segunda derivada
temos:
t
d 2J 2
f yy 2 f yy f yy f yy 2 dt
d 2
t1
d 2J 2
t
f yy f yy
d 2 t1
f dt
f yy
yy
Assim:
d 2J f yy f yy
f f yy
0
d 2 se a matriz yy for definida positiva e o extremo é de mínimo.
d 2J f yy f yy
f f yy
0
d 2 se a matriz yy for definida negativa e o extremo é de máximo.
Logo, usando as regras dos determinantes das matrizes definidas positivas e negativas, temos que
f yy f yy f yy 0
2
y t y* t t
T T * t T
y f y *f y
T * T
J f t , y * , y * dt
0
T * T
d f f
J y y dt f T T T
*
d 0
Logo
T*
d f f
J dt f T * T
d 0 0
y y
A integral por partes agora também deve ser feita com cuidado porque o termo uv não é mais
nulo:
T* T* T* T*
f f d f f d f
dt dt T * T * dt
0
y y 0 0
dt y y 0
dt y
y y f y *f y T * T y * T *
Agora
Logo
T* *
d f d f f f
J dt T * y f y T
d 0 0
y dt y y y
T* *
f d f f * f
0 y dt y dt y T y f y y T 0
t
Novamente a função é arbitrária significando que a integral e os outros dois termos devem
ser nulos independentemente. Para a integral ser nula continua valendo a equação de Euler-
Lagrange:
f d f
0
y dt y
y
1 y 2 y
1 y 2 1 y 2 y 2 1
1 2 y y f yy
f y
1 y 1 y
2 3 3
2 2
2 1 y 2
1 y 2 1 y 2 2 2
d d
fy f y 0 f y 0 f y c
Equação de Euler-Lagrange dt nos leva a dt ou seja , logo
y c2 c
c y c 1 y
2 2 2
y
2
y a
1 y 2
1 c2
. Assim 1 c2 . Se y a então
y at b . Como y 0 0 , então b 0 e a reta y at que passa na origem é uma solução.
Retas gerando distâncias mínimas são esperadas. Falta determinar o coeficiente angular da reta.
y2 y
a y t 2 t
y T y2
Caso 1. T t2 fixo e , então y2 at2 , logo t2 e a reta t2 é a
y
f y
Caso 2. T t2 fixo mas , então vamos impor que y
y T livre f T 0 1 y 2
. Mas
a
f y t
logo a 0 e a reta horizontal
y t 0
, y a logo 1 a2 é a trajetória de menor
y T yf f T yf
y T 0
Caso 3. T livre mas , então vamos impor que . Mas
a
f y t
f 1 y 1 a
2 2
, y a e 1 a2 logo
a 1 1
f T yf
y T 1 a 2 a 0
1 a2 1 a 2 a 0 . Entretanto, para que 1 a2 é preciso
yy
T 0
que a e a reta horizontal
y t 0 a
e . A trajetória é a reta vertical entre a
origem e o ponto
0, y . f
T T
Caso 4. O ponto final deve cair na reta . Nesse caso impomos a condição
f T yf
y T 0
, com temos que a condição dada por
f y f y
,. Mas
a 1 1
1 a2 a a y t
1 a 2 , logo 1 a a a a 1 e . Nesse caso
2 2
T T
é a reta perpendicular à que passa pela origem. O ponto de encontro das retas é
1 2 1
T T T T
dado por ou seja , ou seja, 1 2 .
. Mostre que a trajetória é a reta que passa pela origem e pelo centro
do círculo To , yo . Determine T e .
y T
Apêndice. Exemplos de fixação da Teoria do Controle Ótimo:
Exemplos de fixação:
T
V 1 u 2 2 dt
1
s.r. y u e
y 0 A
1. Maximizar 0 .
H 1 u2
1
2
u
Nesse caso ,
H 1 u
1 u 2 2 2u 0
1
u 2 logo 1 u2 , então:
u2 2
2 u 2 2 2u 2 u2 u
1 u 2
1 2 1 2
H
0
logo o constante. Como
y T 0
então 0 , logo u 0 . Neste caso
y 0 e y A .
H 2 y 3u y u
Nesse caso .
H 0 se 3
3
Maximizar H em relação à u : u 0 se 3 . Temos que escolher u que
maximiza H , o qual é uma função linear de u . Assim se 3 o u que maximiza H será
u 2 , o maior valor permitido para o u . Já se 3 o u que maximiza H será u 0 , o
menor valor permitido. Dessa forma podemos escrever:
2 se 3
u* t
0 se 3
H
Notando que o fato de que H é uma função linear de u implica que u sempre, para
H
0
qualquer u , e a condição u sempre, não pode valer nesse caso para determinar u . O
critério claro é que escolhendo u que maximiza H o tempo todo teremos Hdt máximo.
Encontrando :
H
2
y logo 2 uma equação diferencial de primeira ordem. Usando a
2 0
logo o e 2 0 e
2
Por outro lado as condições de transversalidade impõem que
o 2e 2 , portanto, 2 e 1 . Para t 0 0 2 e 1 12.778 3 e, claro, 2 0 .
2 t 2
5
t* 3
*
e 2 t
*
2 e 2 t 1 3
O tempo limite em que é definido por , ou seja, 2 . Aplicando o
logaritmo de ambos os lados, 2 t ln 5 ln 2 , ou seja, t 2 ln 5 ln 2 1.084 . Com isso
* *
temos:
2 0 t 1.084
u* t
0 1.084 t 2
y t
Falta encontrar :
H
y yu
, logo y y u . Como u é constante por partes, podemos tomar a solução
y ae pt b e y pae pt , logo, pae pt ae pt b u de onde tiramos b u e p 1 ae 0 ,
pt
yI t a1et 2 0 t t *
yII t a2 et t* t 2
yI 0 4
Usando a condição inicial tiramos que a1 2 4 logo a1 6 . A outra condição é que
y t yI t * yII t *
* *
a2 2 3 e t
*
. Finalmente temos:
2 3et 1 0 t t *
y t
*
t*
2 3 e e t t 2
t *
T
V t 2 u 2 dt
s.r. y u ;
y 0 4 y T 5 T livre
3. Maximizar 0 ; e .
Nesse caso y 0 e
T 0 H t u u
e
2 2
.
H
2u 0 u
u logo 2
H o
0 0 o u
y 2
H o
y u o y o y tc
. Com a condição inicial
y 0 4
2 logo 2 2 temos c 4
o
y t4
2 .
2 1
y T 5 T 2 o u o
A outra condição é que então o ou T , logo 2 T . Só falta encontrar
1 21 1
H T T 2 2 0 T 2
0
T . Para isso usamos H T 0 , então T TT logo T2 e
T 4 1 . As raízes de T 4 1 são T 1, 1, i, i , sendo a única real e positiva T 1 . Assim
determinamos todas as variáveis e trajetórias:
1
y t4
2 ; u 1; 2 e T 1.
Apêndice. Formalismos Hamiltoniano e Lagrangeano da Mecânica Clássica:
Vamos usar os dois formalismos, do Cálculo das Variações e da Teoria do Controle Ótimo
sumarizados na tabela abaixo.
J f t , q, q dt
Problema: Otimizar t1
sujeito
à restrição
h t , q, q 0
.
Usa a Lagrangeana para transformar o t2
problema em: V L t , q, u dt
L f t , q, q g t , q, q Problema: Otimizar t1
sujeito
t2 y g t , q, u
às restrições .
J L t , q, q , dt
t1
Mecânica Clássica no Cálculo das Variações. Trocam-se as leis de Newton pelo princípio da
t2
A L t , q, q , dt
Ação Mínima em que a trajetória é aquela que minimiza t1
. Agora basta
mostrar que que usando:
1 2 V
L T V com T mx e F
2 x
Recuperamos as leis de Newton.
L V L T
F mx
x x e x x , portanto a equação de Euler-Lagrange
L d L
0
x dt x nos leva a:
d
F mx 0 F mx
dt
L T
mx p
Vale notar que x x é o momento.
t
2
A L t , x , x dt
Generalizando o Cálculo das Variações para n coordenadas t1
temos que
L d L
0
resolver n equações de Euler-Lagrange do tipo xi dt x i . Se temos um sistema com
n partículas com 3 graus de liberdade (x,y,z) para cada partícula teremos 3n coordenadas no
xi i 1, 2,3, , 3n
total que vamos denotar por .
qi qi x1 , x2 , , x3n ; t xi xi q1 , q2 , , q3 n ; t
e sua transformação inversa .
T
pi mx i
Nas coordenadas cartesianas sabemos que o momento é dado por x i então, por
T
p
analogia, vamos definir um momento generalizado através de q . Suponha uma
transformação de coordenadas em que não há uma dependência explícita do tempo, então:
xi
dW Fi dxi Fi dq j Q j dq j
q j
xi
Q j Fi
q j
A força generalizada é definida por . Se as forças são conservativas então existe uma
função potencial V tal que dW dV e V só depende de q mas não de q e t , então:
V
dW dq j Q j dq j
q j
logo:
V
Qj
q j
Novamente obtemos um Lagrangeano L T V e as equações de Euler-Lagrange em termos
T L V
pk Qk
das coordenadas generalizadas qk , q k q k e qk :
d L L
0
dt q k qk
Formalismo Hamiltoniano:
J L t , qk , q k dt
Lagrangeano achar o extremo de t1
nos leva às equações de Euler-Lagrange
d L L L d L
0 pk p k p k
dt q k qk q dt q
, ou seja, k ou seja k . No formalismo Hamiltoniano
t2
J L t , qk , uk dt
sujeito à restrição uk qk sobre a qual fazemos
queremos o extremos de t1
H H L L
0 0
uk q k q k , logo q k . O significado do mulitplicador de Lagrange
H H
p k
qk q
portanto k
H H
q k q k
logo pk
H H
p k q k
As equações de Hamilton-Jacobi são: qk e pk .