Você está na página 1de 115

1 C alculo Variacional e Controle Otimo

A. Leit ao Departamento de Matem atica Universidade Federal de Santa Catarina 88010-970 Florian opolis SC, Brasil email: aleitao@mtm.ufsc.br

Notas de Minicurso: 23o CBM

Conte udo
1 Introdu c ao ao C alculo de Varia co es 1.1 Problemas Variacionais e Convexidade . 1.2 Lemas de du BoisReymond e Lagrange 1.3 Equa c ao de EulerLagrange . . . . . . . 1.4 Tr es Problemas Variacionais Cl assicos . 1.5 Extremais Diferenci aveis por Partes . . 1.6 Problemas Vetoriais . . . . . . . . . . . 1.7 Exerc cios . . . . . . . . . . . . . . . . . 3 3 9 10 14 17 24 25 27 27 28 38 41 45 46 49 49 54 57 59 79 81 81 83 90 93 95 i

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

2 Problemas Variacionais e Controle Otimo 2.1 Problemas de Controle Otimo: Apresenta c ao 2.2 Problemas Variacionais com Restri c ao . . . . 2.3 Extremais Singulares e Trajet orias Otimas . . 2.4 Convexidade I: condi c oes sucientes . . . . . 2.5 Convexidade II: condi c oes necess arias . . . . 2.6 Exerc cios . . . . . . . . . . . . . . . . . . . . 3 Princ pio do M aximo de Pontryagin 3.1 Problemas com Horizonte Finito . . 3.2 Problemas com Horizonte Innito . . 3.3 Problemas Impulsivos . . . . . . . . 3.4 Aplica c oes do Princ pio do M aximo . 3.5 Exerc cios . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

4 Demonstra c ao do Princ pio do M aximo 4.1 Otimiza c ao Innita . . . . . . . . . . . . 4.2 Um Problema Auxiliar . . . . . . . . . . 4.3 Condi c oes Necess arias de Otimalidade . 4.4 Exerc cios . . . . . . . . . . . . . . . . . Ap endice

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

A Otimiza c ao Innita A.1 Um Problema Abstrato de Otimiza c ao . . . . . . . . . . . . . . . . . . . . . A.2 Lineariza c ao do Problema de Otimiza c ao . . . . . . . . . . . . . . . . . . . A.3 Condi c oes Necess arias para o Problema Abstrato . . . . . . . . . . . . . . . Bibliograa Indice

95 95 96 102 105 110

ii

Lista de Figuras
1.1 1.2 1.3 2.1 2.2 2.3 3.1 3.2 3.3 3.4 3.5 Candidato a geod esica na esfera . . . . . . . . . . . . . . . . . . . . . . . . . Cicl oide: solu c ao do problema da Braquist ocrona . . . . . . . . . . . . . . 1 [a, b] . . . . . . . . . . . . . . . . . . . . . . . . . . Suaviza c ao de fun c oes C Condi c ao de contorno transversal e fun c oes admiss veis . . . . . . . . . . . Extremal Singular: Caso I . . . . . . . . . . . . . . . . . . . . . . . . . . . . Extremal Singular: Caso II . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 17 20 30 40 41 53 61 61 62 64 65 74 76 77 78 97

Algoritmo do m etodo de shooting para resolver um sistema Hamiltoniano. Trajet orias otimas para os controles u 1 e u 1 . . . . . . . . . . . . Trajet orias correspondentes a controles constantes . . . . . . . . . . . . . . Trajet orias otimas correspondentes aos controles u 1 e u 1 . . . . . Condi c oes iniciais (h, v ) que s ao levadas pelo controle u 1 ` a condi c ao nal (0, 0, m(T )) com m(T ) M . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Trajet oria otima para o problema da alunissagem . . . . . . . . . . . . . . . 3.7 Curvas 1 e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Curva 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9 Cen ario para o problema da pescaria otima . . . . . . . . . . . . . . . . . . 3.10 Regi oes principais do plano de fase . . . . . . . . . . . . . . . . . . . . . . . A.1 Cones tangenciais C (x) e T (C, x). . . . . . . . . . . . . . . . . . . . . . . .

Cap tulo 1

Introdu c ao ao C alculo de Varia c oes


Este cap tulo e dedicado ao estudo de uma fam lia particular de problemas de otimiza c ao, denominados na literatura moderna por prolemas variacionais. A an alise formal de tais problemas leva o nome de c alculo variacional. Tais problemas de otimiza c ao se caracterizam por estarem denidos em espa cos (de fun c oes) de dimen c ao innita e pelo fato da fun c ao objetivo ser descrita por um operador integral. De especial interesse e o estudo de condi c oes necess arias e/ou sucientes para caracteriza c ao das solu c oes (pontos de m aximo/m nimo) destes problemas otimiza c ao. Simplicadamente, tais condi c oes s ao obtidas a partir da exten c ao aos problemas variacionais de resultados da an alise em v arias vari aveis, que permitem caracterizar os candidatos a solu c ao dos problemas de otimiza c ao em espa cos de dimen c ao nita. Neste cap tulo estudamos prolemas variacionais sem restri c oes (somente com condi c oes de contorno). Os problemas variacionais sujeitos a restri c oes s ao analisados no Cap tulo 2, onde o teorema de multiplicadores de Lagrange desempenha papel fundamental. No Par agrafo 1.1 s ao introduzidos os problemas variacionais e apresentados os conceitos de extremos locais e de varia co es de G ateaux. Sob hip oteses adicionais de convexidade, e obtido um resultado preliminar sobre condi c oes sucientes para otimalidade. No Par argrafo 1.2 e apresentado um resultado auxiliar (lema de du BoisRaymond), essencial para obten c ao das condi c oes necess arias. No Par agrafo 1.3 analisamos condi c oes necess arias para otimalidade, que s ao apresentadas na forma da equa ca o de EulerLagrange e de sua primeira integral. No Par agrafo 1.5 considerados problemas com trajet orias cont nuas por partes, enquanto que no Par agrafo 1.6 s ao estudados problemas vetoriais.

1.1

Problemas Variacionais e Convexidade


b

Um problema cl assico do c alculo de varia c oes e a minimiza c ao de funcionais do tipo I (y ) :=


a

L(t, y (t), y (t)) dt,

(1.1)

onde o intervalo [a, b] e xo e a aplica c ao L : [a, b] IR IR IR e conhecida. A minimiza c ao do funcional denido em (1.1) e realizada entre as fun c oes y : [a, b] IR continuamente 3

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

diferenci aveis em [a, b].1 O problema de minimizar o funcional em (1.1) e, via de regra, sujeito a diferentes tipos de restri c ao como: Impor condi c oes a y nas extremidades do intervalo, i.e. y (a) = ya e/ou y (b) = yb ; Exigir que g(t, y (t), y (t)) 0 para t [a, b], onde g : [a, b] IR IR IR; Exigir que
b a g (t, y (t), y (t)) dt

O primeiro tipo de restri c ao e denominado condi c ao de contorno e pode ser exigido em ambos ou em apenas um dos extremos do intervalo [a, b]. O segundo tipo de restri c ao e denominada restri c ao Lagrangeana, devido a sua semelhan ca com as restri c oes presentes nos problemas da mec anica Lagrangeana. O terceiro tipo e denominda restri c ao isoperim etrica (ou integral), uma vez que os primeiros problemas de interesse relacionados ` a esta restri c ao apresentavam a exig encia dos candidatos y terem todos o mesmo comprimento (fato relacionado com a escolha g(t, y, y ) = |y |). O intervalo [a, b] n ao precisa ser necessariamente xo. Este e o caso quando uma das condi c oes de contorno e descrita pela curva de n vel de uma fun c ao : IR2 IR. Temos assim uma restri c ao do tipo: que e denominada condi c ao (de contorno) transversal. Note que a fun c ao objetivo e T em da forma I (y, T ) := a L(t, y (t), y (t))dt e T > a, o extremo direito do intervalo, tamb precisa ser determinado. As restri c oes acima podem aparecer de forma combinada, de modo que um mesmo problema pode estar sujeito a restri c oes de diferentes tipos, ou a v arias restri c oes do mesmo tipo. Analisamos neste cap tulo somente os problemas variacionais com condi c oes de contorno. Problemas sujeitos a restri c oes lagrangeanas e isoperim etricas, assim como problemas com condi c oes de contorno transversais s ao discutidos no Par agrafo 2.2. Considere a seguinte fam lia de problemas variacionais b L(t, y (t), y (t)) dt Minimzar I ( y ) := a (1.2) sujeito a y Yad := {y C 1 [a, b] | y (a) = ya , y (b) = yb }. (T, y (T )) = 0, com T > a,

= c, onde g : [a, b] IR IR IR e c IR;

O conjunto Yad e denominado conjunto das fun co es admiss veis (ou vi aveis). Da an alise real, sabemos que e preciso distinguir entre m nimos locais e globais do funcional I :

Deni c ao 1.1.1 y Yad e denominado m nimo global de I : Yad IR quando a desigualdade I (y ) I ( y ),


1

Adotamos no texto a seguinte nota c ao:

C [a, b] := {y : [a, b] IR | y cont nua}, C 1 [a, b] := {y : [a, b] IR | y diferenci avel em [a, b], y C [a, b]}.

1.1. PROBLEMAS VARIACIONAIS E CONVEXIDADE e satisfeita para todo y Yad .

5 2 2 2

Denimos na seq u encia os m nimos locais de I . A import ancia destes m nimos vem do fato de que condi c oes apenas necess arias, em geral, os englobam juntamente com os m nimos globais. Antes de apresentar a deni c ao, relembramos alguns fatos importantes 1 sobre a topologia dos espa cos C [a, b] e C [a, b]. Observa c ao 1.1.2 O espa co vetorial C [a, b] e completo (Banach) com a norma do supremo (ou de Tschebysche) f := sup |f (t)|, f C [a, b].
t[a,b]

Logo, d(f, g) := f g dene uma dist ancia (m etrica) em C [a, b]. De forma an aloga e 1 poss vel construir uma m etrica para C [a, b] com a dist ancia f g 1, := f g + f g , f, g C 1 [a, b]. 2 2 2 Deni c ao 1.1.3 y Yad e denominado minimo local fraco de I quando > 0 tq y Yad com > 0 tq y Yad com yy yy
1,

< temos I (y ) I ( y ). < temos I (y ) I ( y ). 2 2 2

y Yad e denominado minimo local forte de I quando

De especial interesse para os problemas variacionais s ao os m nimos locais fracos. Note que uma vizinhan ca forte de y Yad possui mais elementos do que a vizinhan ca fraca correspondente. Portanto, a exig encia de y ser m nimo local forte e mais restritiva. A seguir, e apresentada uma deni c ao que estende o conceito de derivada direcional de aplica c oes f : IRn IR e e de import ancia fundamental para a caracteriza c ao de solu c oes do problema variacional (1.2). Deni c ao 1.1.4 Seja Y um espa co vetorial e I : Y IR. Dados y, v Y denimos a varia c ao de G ateaux de I em y na dire c ao v atrav es de I (y ; v ) := lim quando o limite existe.
0

I (y + v ) I (y ) , 2 2 2

Note que, caso a derivada total em rela c ao ` a vari avel da fun c ao real IR I (y +v ) IR esteja bem denida em = 0, podemos escrever I (y ; v ) = d I (y + v ) d .
=0

Da Deni c ao 1.1.4 segue ainda a linearidade da varia c ao de G ateaux em rela c ao ao funcional I , i.e., xados y, v Y temos (I1 + I2 )(y ; v ) = I1 (y ; v ) + I2 (y ; v ), , IR. (1.3)

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

(Pressuposto, obviamente, que as varia c oes envolvidas existam.) Outra propriedade interessante se verica em rela c ao ` a dire ca o de deriva c ao: I (y ; v ) = I (y ; v ), IR. (Novamente supondo a exist encia da varia c ao.) Exemplo 1.1.5 Seja Y = IRn e f C 1 (Y ; IR). Dados y, v Y temos f (y ; v ) = lim f (y + v ) f (y ) = f (y ), v , 0 2 2 2 (1.4)

que e a derivada parcial de f em y na dire c ao do vetor v .


b

Exemplo 1.1.6 Seja Y = C 1 [a, b] e I : Y y a L(t, y (t), y (t)) dt IR, onde L e uma aplica c ao C 1 ([a, b] IR2 ; IR). Dados y, v Y temos I (y ; v ) = =
a b

d I (y + v ) d
b

=0

d L(t, y + v, y + v ) d

dt
=0

=
a

Ly (t, y (t), y (t))v (t) + Ly (t, y (t), y (t))v (t) dt. 2 2 2

Os primeiros resultados sobre condi c oes sucientes de otimalidade para o problema (1.2) surgem quando fazemos hip oteses de convexidade sobre a fun c ao objetivo. Isto justica a introdu c ao do seguinte conceito. Deni c ao 1.1.7 Dado um espa co vetorial Y e um funcional I : D Y IR, dizemos que I e convexo em D quando para todo par de elementos y, v Y temos I (y + (1 )v ) I (y ) + (1 )I (v ), [0, 1]. I e denominado estritamente convexo em D, quando a desigualdade na express ao acima for estrita. 2 2 2 Caso a varia c ao de G ateuax I (y ; v ) do funcional I esteja denida para todos elementos y, y + v D, e poss vel fornecer uma deni c ao equivalente de convexidade: Lema 1.1.8 Seja Y um espa co vetorial e I : D Y IR tal que para todo par de elementos y , v de Y satisfazendo y, y + v D, a varia ca o de G ateaux I (y ; v ) existe. S ao equivalentes as arma co es: a) I e convexo em D; b) Para todo par de elementos y, v Y com y, y + v D, temos I (y + v ) I (y ) I (y ; v ).

1.1. PROBLEMAS VARIACIONAIS E CONVEXIDADE

Temos ainda que I e estritamente convexo em D, quando a igualdade na desigualdade do tem b) ocorre se e somente se v = 0. bastante demonstrarmos a equival Demonstra c ao: E encia entre a) e b). (a) = (b) Note que para 0 < < 1 podemos escrever y + v na forma da combina c ao linear convexa y + v = (1 )y + (y + v ), com = [0, 1]. Da deni c ao de convexidade segue que I (y + v ) (1 )I (y ) + I (y + v ), de onde obtemos 1 I (y + v ) I (y ) I (y + v ) I (y ). Tomando agora o limite quando 0, obtemos a desigualdade em b). (b) = (a) Dados y, v Y e [0, 1], dena w := y + (1 )v . Da hip otese b) segue I (w; h1 ) I (v ) I (w), I (w; h2 ) I (y ) I (w),

para h1 = (v y ), h2 = (1 )(y v ). De (1.4) segue agora que 1 1 I (v ) I (w) I (w; (v y )) I (w) I (y ) , (1 ) de onde obtemos I (y ) + (1 )I (v ) I (w) e o teorema ca provado. Apresentamos a seguir uma condi c ao suciente de otimalidade para um problema abstrato em que a fun c ao objetivo e convexa. Lema 1.1.9 Dado um espa co vetorial Y e um funcional convexo I : D Y IR, ent ao cada y que satisfaz I ( y ; v ) = 0, y + v D, minimiza I em D. Se I e estritamente convexo, ent ao y eu nico. Demonstra c ao: Dado y D dena v := y y Y . Logo I (y ) I ( y ) = I ( y + v ) I ( y ) I ( y ; v ) = 0. A unicidade de y e conseq u encia imediata da deni c ao de convexidade estrita. Estamos agora em condi c oes de formular um resultado que fornece condi c oes sucientes de otimalidade para o problema (1.2). Teorema 1.1.10 Seja Y = C 1 [a, b], Yad = {y Y ; y (a) = ya , y (b) = yb }, I : Yad y b 2 1 a L(t, y, y )dt IR, onde L C ([a, b] IR ; IR) satisfaz L(t, y + v, z + w) L(t, y, z ) Ly (t, y, z )v + Lz (t, y, z )w, (1.5)

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

a) I e convexo em Yad ;

para todo (t, y, z ), (t, y + z, z + w) [a, b] IR2 . S ao verdadeiras as arma co es:

b) Se L e tal que a igualdade em (1.5) ocorre sse vw = 0, ent ao I e estritamente convexo em Yad ; c) Cada y Yad que satisfaz a equa ca o diferencial d , y ) = Ly (t, y , y ), t [a, b] Ly (t, y dt e um m nimo global de I em Yad . d) Se a hip otese do tem (b) e vericada, o elemento y Yad que satisfaz a equa ca o diferencial do tem c) eou nico m nimo global de I em Yad . Demonstra c ao: Dados y, y + v Yad , a desigualdade (1.5) implica em L(t, y + v, y + v ) L(t, y, y ) Ly (t, y, y )v + Ly (t, y, y )v . Integrando obtemos
b a b a

(1.6)

(1.7)

[L(t, y + v, y + v ) L(t, y, y )] dt

[Ly (t, y, y )v + Ly (t, y, y )v ] dt,

i.e. I (y + v ) I (y ) I (y ; v ), provando o tem (a). Se a hip otese em (b) e verdadeira, ent ao dados y, y + v Yad a igualdade em (1.7) ocorre sse v (t)v (t) 0 em [a, b]. Note que v (t)v (t) = 1/2(v 2 (t)) , logo v (t)v (t) 0 sse v 2 (t) e constante. Note ainda que v 2 (a) = 0.2 Portanto I (y + v ) I (y ) = L(y ; v ) sse v 0 e o tem (b) ca provado. Os tens (c) e (d) s ao os mais importantes do teorema. Suponha que y Yad e solu c ao da equa c ao diferencial (1.6). Logo, para v Y com y + v Yad temos
b

I ( y ; v) =
a b

[Ly (t, y, y )v + Ly (t, y, y )v ] dt d Ly (t, y, y )v dt dt

=
a

= [Ly (t, y (t), y (t))v (t)]b a = 0. Como I e convexo (veja o tem (a)), o tem (c) segue do Lema 1.1.9. Se a hip otese do tem (b) e vericada, ent ao I e estritamente convexo e a unicidade de y segue da segunda parte do Lema 1.1.9. A equa c ao diferencial (1.6) e denominada equa c ao de EulerLagrange e desempenha um papel mpar no c alculo variacional. O Teorema 1.1.10, al em de fornecer condi c oes sucientes para garantir a convexidade do funcional I , caracteriza (no caso I convexo) a equa c ao de EulerLagrange como condi c ao suciente de otimalidade para o problema 1.2. Voltaremos a analisar esta equa c ao diferencial de segunda ordem no Par agrafo 1.3, onde s ao investigadas condi c oes necess arias para otimalidade.
2

De fato, como y e y + v pertencem a Yad , ent ao v (a) = v (b) = 0.

1.2. LEMAS DE DU BOISREYMOND E LAGRANGE

1.2

Lemas de du BoisReymond e Lagrange

Neste par agrafo estudamos um lema, cuja formaliza c ao impulsionou fortemente o desenvolvimento do c alculo variacional. Trata-se do lema de du BoisReymond, que foi objeto de investiga c ao por matem aticos como Euler e Lagrange, tendo sido apresentado por P. du BoisReymond no ano de 1879. Foi entretanto K. Weierstra, que em seus semin arios (1875 1882) apresentou pela primeira vez uma demonstra c ao clara e completa. A demonstra c ao deste lema utiliza um resultado auxiliar que enunciamos a seguir. Lema 1.2.1 Seja h C [a, b] tal que
b a 1 [a, b] := {w C 1 [a, b] | w(a) = w(b) = 0}. Ent para todo v C0 ao a fun ca o h e constante no intervalo [a, b].

h(t) v (t) dt = 0,

Demonstra c ao: Dado c IR, dena a fun c ao v (t) := a (h(s) c)ds, t [a, b]. Por b 1 constru c ao v C [a, b] e v (a) = 0. A escolha particular c := 1/(b a) a h(s)ds gera uma uma fun c ao v que satisfaz
b

(h(t) c )2 dt =

b a

(h(t) c ) v (t) dt =

b a

h(t) v (t) dt [ cv ]b a = 0,

provando assim que h(t) = c , para t [a, b]. Lema 1.2.2 (du BoisReymond) Seja f C [a, b] tal que para todo v C 1 [a, b] com v (a) = v (b) = 0 tenhamos
b

f (t) v (t) dt = 0.
a

Ent ao f 0 em [a, b].

Demonstra c ao: Denindo g(t) := que


b

t a f (s)ds,

segue da hip otese (integrando por partes)

1 g(s)v (t) dt = 0, v C0 [a, b].

O Lema 1.2.1 implica que g(t) = c, t [a, b]. O lema de du Bois-Reymond segue agora da identidade g = f . As fun c oes v utilizadas nos Lemas 1.2.1 e 1.2.2 s ao denominadas fun co es teste, devido 1 e tamb em denominado espa co de ao papel por elas desempenhado. O espa co C0 [a, b] fun co es teste. Discutimos a seguir uma generaliza c ao do lema de du BoisReymond, formulada por Lagrange.

10

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

k [a, b] := {v C k [a, b] | Lema 1.2.3 (Lagrange) Seja f C [a, b] tal que para todo v C0 v (j ) (a) = v (j ) (b) = 0, j = 0, 1, . . . , k} tenhamos b

f (t) v (t) dt = 0.
a

Ent ao f 0 em [a, b].

Demonstra c ao: Suponha que f (t0 ) > 0 para algum t0 (a, b). Como f e cont nua, existe [c, d] (a, b) tal que t0 (c, d) e 1 f (t) f (t0 ) > 0, t (c, d). 2

Denindo a fun c ao v (t) := [(t c)(d t)]k+1 , t [c, d] 0 , t [a, b]/[c, d]


b

k [a, b]. Por constru c ao temos que a f v dt = observamos que v e n ao negativa e v C0 d otese. Logo f (t) 0, t (a, b). A continuidade de f c f v dt > 0, o que contradiz a hip implica que f (t) 0 em [a, b]. Analogamente, provamos que f (t) 0 em [a, b].

1.3

Equa c ao de EulerLagrange

Suponha que L : [a, b] IR2 IR e duas vezes continuamente diferenci avel e que o funcional 1 I possui um m nimo local fraco y Yad := {y C [a, b] | y (a) = ya , y (b) = yb } satisfazendo 1 [a, b] e > 0 sucientemente pequeno, denimos a fam lia de y C 2 [a, b]. Dados C0 0 fun c oes admiss veis y (; ) := y () + (), (0 , 0 ). Por constru c ao temos y (; ) y 1, = || m nimo local fraco de I em Yad , temos
1, .

Note ainda que, pelo fato de y ser

J () := I (y (; )) I ( y ) = J (0), (0 , 0 ). Portanto, = 0 e m nimo local da fun c ao real J , denida pela composi c ao de I com a fam lia y (; ). Da an alise real, sabemos que uma condi c ao necess aria para que isto aconte ca (supondo J diferenci avel) e que d J () = 0. d =0 Da Deni c ao 1.1.4, segue que I ( y ; ) = d I ( y + ) d =
=0

d J () d

= 0
=0

(1.8)

DE EULERLAGRANGE 1.3. EQUAC AO

11

e uma condi c ao necess aria para que y seja m nimo local de I em Yad . Uma vez que L e, em particular, continuamente diferenci avel, temos (veja Exemplo 1.1.6)
b

I ( y ; ) =
a

(t), y (t)) (t) ] dt. [ Ly (t, y (t), y (t)) (t) + Ly (t, y

(1.9)

Note que a fun c ao (t), y (t)) IR : [a, b] t Ly (t, y e continuamente diferenci avel em [a, b], devido as hip oteses feitas em L e y . Como satisfaz as condi c oes de contorno (a) = (b) = 0, obtemos integrando (1.9) por partes
b

I ( y ; ) =
a

Ly (t, y (t), y (t))

d (t) (t) dt. dt

(1.10)

1 [a, b]. Logo, segue do lema de du BoisReymond Note que (1.10) e v alida para todo C0 (Lema 1.2.2) que

Ly (t, y (t), y (t))

d (t), y (t)) = 0, t [a, b]. Ly (t, y dt

(1.11)

Em (1.11) podemos reconhecer a equa c ao de EulerLagrange, obtida no Par agrafo 1.1 (veja equa c ao (1.6)). Esta equa c ao diferencial de segunda ordem nos fornece uma condi c ao necess aria para determina c ao de m nimos locais de um funcional. Como foi visto no Teorema 1.1.10, esta condi c ao e tamb em suciente para otimalidade, caso o funcional I seja convexo. Podemos resumir a discuss ao acima no seguinte teorema: Teorema 1.3.1 Seja L : [a, b] IR IR IR duas vezes continuamente diferenci avel e y C 2 [a, b] um m nimo local fraco do problema (1.2). Ent ao y e solu ca o do problema de valor de contorno d L (t, y, y ) = 0, t (a, b) Ly (t, y, y ) dt y y (a) = ya , y (b) = yb . Demonstra c ao: Veja acima. Observa c ao 1.3.2 (problemas com fronteira livre) Suponha que apenas uma condic ao de contorno seja fornecida no problema (1.2), por exemplo y (b) = yb . Construindo a fam lia de fun c oes admiss veis y (; ) := y () + (), C 1 [a, b], (b) = 0, obtemos atrav es de um desenvolvimento an alogo ao anterior, a condi c ao necess aria 0 = I ( y ; ) (a), y (a)) (a) = Ly (a, y
b a

(1.12)

Ly (t, y , y )

d , y ) (t) dt, Ly (t, y dt

(1.13)

12

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

1 [a, b], para todo C 1 [a, b] com (b) = 0. Note que (1.13) vale em particular para C0 de onde segue (novamente argumentando com o Lema 1.2.2) a equa c ao de EulerLagrange. Tomando agora em (1.13) C 1 [a, b] com (b) = 0 e (a) = 0, obtemos a condi c ao extra

(a), y (a)) = 0. Ly (a, y

(1.14)

Sendo assim, para problemas com fronteira livre obtemos, al em da equa c ao de Euler Lagrange, uma condi c ao de contorno para y no extremo do intervalo [a, b] onde o problema n ao possui nenhuma restri c ao. Tal condi c ao surge naturalmente da formula c ao variacional do problema de otimiza c ao, sendo por isso denominada condi c ao de contorno natural. Resumindo, para que y seja solu c ao do problema b L(t, y (t), y (t)) dt Minimzar I (y ) := e necess ario que y seja solu c ao do problema de valor de contorno Ly (t, y, y ) d Ly (t, y, y ) = 0 dt y (b) = yb , Ly (a, y (a), y (a)) = 0. Observe que, como no Teorema 1.3.1, a condi c ao necess aria e expressa na forma (impl cita) de uma equa c ao diferencial de segunda ordem (equa c ao de EulerLagrange) com duas condi c oes de contorno. 2 2 2 As hip oteses y C 2 [a, b] e L C 2 ([a, b] IR2 ; IR) s ao por demasiado restritivas e devem ser enfraquecidas. Com isso em mente, analisamos uma aplica c ao do lema de du BoisReymond semelhante a utilizada na obten c ao da equa c ao (1.10) (veja Exerc cio 1.2). Teorema 1.3.3 Seja L : [a, b] IR IR IR continuamente diferenci avel e y C 1 [a, b] um m nimo local fraco do o problema (1.2). Ent ao a aplica ca o (t), y (t)) IR [a, b] t Ly (t, y e continuamente diferenci avel e y e solu ca o do problema de valor de contorno (1.12). Demonstra c ao: Repetindo a argumenta c ao feita na demonstra c ao do Teorema 1.3.1, ob1 temos para C0 [a, b]
a b

sujeito a y {y C 1 [a, b] | y (b) = yb }

(t), y (t)) (t)] dt = 0. [Ly (t, y (t), y (t)) (t) + Ly (t, y

(1.15)

Integrando por partes e observando que (a) = (b) = 0, segue que


b a t

(t), y (t)) (t) dt = 0. Ly (s, y (s), y (s)) ds + Ly (t, y

DE EULERLAGRANGE 1.3. EQUAC AO O Lema 1.2.1 implica na exist encia de uma constante c, que sasfaz
t

13

Como a aplica c ao

(t), y (t)) = c, t [a, b]. Ly (s, y (s), y (s)) ds + Ly (t, y


t

(1.16)

[a, b] t

Ly (s, y (s), y (s)) ds IR

e continuamente diferenci avel, segue de (1.16) que a aplica c ao (t), y (t)) IR [a, b] t Ly (t, y tamb em e continuamente diferenci avel (apesar de exigirmos nas hip oteses do teorema apenas y C 1 [a, b]). Podemos ent ao derivar a express ao (1.16) em rela c ao a t, obtendo assim a equa c ao de EulerLagrange. N ao e poss vel deduzir a equa c ao de EulerLagrange integrando (1.15) por partes, como (t), y (t)) e na demonstra c ao do Teorema 1.3.1, pois para diferenciar a aplica c ao t Ly (t, y preciso usar a regra de cadeia e a fun c ao y , envolvida na composi c ao, n ao e sucientemente regular. Entretanto e poss vel provar a diferenciabilidade de y em todo t0 [a, b] com (t0 ), y (t0 )) = 0, caso L seja uma fun c ao C 3 . Ly y (t0 , y As considera c oes feitas na Observa c ao 1.3.2, sobre as condi c oes de contorno naturais, continuam v alidas no caso L C 1 , y C 1 , como o leitor pode facilmente vericar. Deni c ao 1.3.4 As solu c oes da equa c ao diferencial de EulerLagrange (desconsiderando as condi c oes de contorno) s ao denominadas fun co es estacion arias ou extremais, independente do fato de serem ou n ao solu c oes do problema variacional. 2 2 2 Observa c ao 1.3.5 Suponha que L e uma aplica c ao continuamente diferenci avel e que y Yad e uma fun c ao estacion aria. Integrando a equa c ao de EulerLagrange obtemos Ly (t, y, y ) =
a t

Ly (s, y (s), y (s)) ds + const.

(1.17)

Fazendo a hip otese extra y C 2 [a, b], segue da equa c ao de EulerLagrange d d L(t, y, y ) = Lt (t, y, y ) + Ly (t, y, y )y + Ly (t, y, y )y = Lt (t, y, y ) + [Ly (t, y, y )y ], dt dt que pode ser reescrito como Lt (t, y, y ) = d [L(t, y, y ) y Ly (t, y, y )]. dt

Integrando esta express ao, obtemos a equa c ao L(t, y, y ) y Ly (t, y, y ) =


t a

Lt (s, y (s), y (s)) ds + const.

(1.18)

14

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

que e conhecida como primeira integral da equa c ao de EulerLagrange. Note a semelhan ca com a equa c ao (1.17), assim como o fato da exig encia y C 2 [a, b] n ao aparecer explicitamente na equa c ao. A equa c ao (1.18) pode ainda ser deduzida no caso geral em que o extremal y e uma 1 fun c ao apenas C [a, b]. Uma demonstra c ao simples, por em trabalhosa, pode ser encontrada em [Tr, Cap tulo 6]. A demonstra c ao e levada a cabo acoplando-se a abordagem variacional com mudan cas de coordenadas convenientes. 2 2 2

1.4

Tr es Problemas Variacionais Cl assicos

Os exemplos a seguir ilustram como a equa c ao de EulerLagrange e utilizada para determinar a solu c ao de alguns problemas cl assicos do c alculo variacional. S ao esses: determina c ao de geod esicas no plano; determina c ao de geod esicas na esfera; a Braquist ocrona. Exemplo 1.4.1 Analisamos o problema de encontrar, dados dois pontos (t0 , y0 ) e (t1 , y1 ) no plano, a curva de menor comprimento que os une. Representamos as curvas admiss veis com parametriza c oes do tipo y : [t0 , t1 ] t y (t) IR ; y (t0 ) = y0 , y (t1 ) = y1 . Supondo as curvas admiss veis continuamente diferenci aveis, obtemos o seu comprimento pela express ao
t1

J (y ) :=
t0

1 + y (t) dt.

Logo, o problema variacional pode ser formulado como: t1 L(t, y (t), y (t)) dt Minimizar J (y ) = com L(t, y, y ) = (1 + (y )2 )1/2 . Da equa c ao de EulerLagrange concluimos que um extremal satisfaz d y d 0 = Ly . Ly = 0 dt dt (1 + (y )2 )1/2 Portanto, y = const. (1 + (y )2 )1/2 O que implica em y ser constante, ou seja, em y ser linear. 2 2 2 sujeito a y {C 1 [t0 , t1 ] | y (t0 ) = y0 , y (t1 ) = y1 }
t0

Exemplo 1.4.2 Consideramos agora o problema de, xados dois pontos P e Q na superf cie da esfera de raio r , encontrar a curva de menor comprimento que os une. Estando a esfera centrada na or gem, parametrizamo-a localmente pelas coordenadas: r (cos t cos y, sin t cos y, sin y ) com t (0, 2 ), y ( , ). 2 2

PROBLEMAS VARIACIONAIS CLASSICOS 1.4. TRES

15

(t,y(t)) Q
t t=b

P
t=a

Meridianos
Figura 1.1: Curva admiss vel unindo os pontos P e Q. por simplicidade s ao consideradas apenas curvas que cortam cada meridiano em apenas um ponto. Tais curvas podem ser parametrizadas usando a latitude t como par ametro. A longitude y de um ponto da curva e dada por uma fun c ao y (t) da vari avel independente t (veja Figura 1.1). Uma curva e ent ao representada por [a, b] t r (cos t cos y (t), sin t cos y (t), sin y (t)) IR3 . Suponha que os pontos a serem unidos sejam parametrizados por: (a, ya ), (b, yb ). Quando y e continuamente diferenci avel, o comprimento da curva correspondente e dado por
b

I (y ) =
a

cos2 y (t) + y (t)2 dt.

Logo, L(t, y, y ) = r (cos2 y (t) + y (t)2 )1/2 . Da primeira integral da equa c ao de Euler (1.18) obtemos a identidade cos2 y = A cos2 y + (y )2 , com A constante. Obviamente A (1, 0) e ainda A2 (y )2 = cos4 y A2 cos2 y. Usando separa c ao de vari aveis, conclu mos que (cos4 y Logo A dy = dt. A2 cos2 y )1/2

com B constante. Fazendo a mudan ca de vari aveis u = tan y , obtemos nalmente 1 A2 y (t) = arctan( sin((t a) + B )), A

A dy = (t a) + B, cos y (cos2 y A2 )1/2

16

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

onde as constantes A e B s ao determinadas apartir dos dados a, b, ya , yb . Note que o equador y = 0 (A = 1) e um extremal. Contudo, se b a > , uma das partes do equador n ao e o caminho mais curto. Tal fato nos leva a concluir que pequenas partes desta curva determinam o caminho mais curto, enquanto que longas partes n ao o 3 fazem. 2 2 2 Exemplo 1.4.3 (Braquist ocrona) Discutimos neste exemplo um problema que inuenciou fortemente o desenvolvimento inicial do c alculo de varia c oes. Em 1696 Johann Bernoulli prop os o seguinte problema: Sejam P0 e P1 dois pontos dados sobre um plano vertical. Deve ser encontrada uma curva unindo esses dois pontos do sorte que um ponto de massam partindo de P0 que a percorra sob a inu encia somente de seu pr oprio peso, alcance P1 no menor tempo poss vel. Considere ainda a velocidade inicial v0 dada. Tal problema foi formulado originalmente por Galileo em 1638, que acreditava ser a solu c ao do problema um arco de circunfer encia. Outros matem aticos da epoca como Leibniz, Jakob Bernoulli e Newton (que resolveu o problema anonimamente, usando um pseud onimo) se interessaram pelo problema, que possui a peculiaridade de ter sido proposto por Johann Bernoulli na forma de desao.4 Inuenciado por Leibnitz, J. Bernoulli deu ao problema o nome de Braquist ocrona (do grego brachystos m nimo, chronos tempo) e usando o princ pio de refra c ao de Fermat (veja, e.g, [Wei, Cap tulo 5]) obteve a seguinte formula c ao variacional para o problema:5 1/2 x1 1 + (y )2 dx Minimizar J ( y ) := 2gy + c x0 sujeito a y {C 1 [x0 , x1 ] | y (x0 ) = y0 , y (x1 ) = y1 } onde g e a constante gravitacional e c = cg,v0 ,y0 e a energia total do corpo (cin etica + potencial) no instante inicial. Note que o integrando e aut onomo, i.e. L = L(y, y ). Logo, segue da primeira integral da equa c ao de Euler (1.18) que const. = L(y, y ) y Ly (y, y ) =
2 1/2 (1 + (y )2 )1/2 (1 + (y ) ) y y. (2gy + c)1/2 (2gy + c)1/2

Ap os alguma manipula c ao alg ebrica, obtemos a equa c ao diferencial (2gy + c) (1 + (y )2 ) = const. (1.19)

3 O tratamento de problemas como o surgido neste exemplo foi motivo de investiga c ao por Karl Jakobi, que atrav es da teoria de campos de extremais conseguiu esclarecer quando uma fun c ao estacion aria deixa de ser solu c ao do problema variacional. Maiores detalhes podem ser encontrados, e.g. em [Tr, Cap tulo 9]. 4 Para mais detalhes hist oricos consulte [Gol]. 5 Para detalhes veja, e.g., [Gol], [Tr].

1.5. EXTREMAIS DIFERENCIAVEIS POR PARTES

17

P0

P1 y
Figura 1.2: Cicl oide: solu c ao do problema da Braquist ocrona Fazendo a hip otese simplicadora c = 0 (que corresponde ao caso particular v0 = y0 = 0), obtemos no lugar de (1.19) a equa c ao diferencial y (1 + (y )2 ) = A. (1.20)

Para resolver esta equa c ao diferencial, supomos o extremal y da forma y (x) = A sin2 ( 1 2 (x)). Substituindo esta express ao em (1.20), obtemos y = (A y )/y ; de onde segue
A sin( 2 ) cos( 2 ) Portanto, dx = A sin2 ( 2 )d , ou ainda

cos( d 2) = . dx sin( 2 )

x = B +

1 A ( sin ). 2

Sendo assim, obtemos para o extremal y a seguinte pramatriza c ao: : [0 , 1 ] (b + a( + sin ), a(1 + cos )) IR2 , onde os par ametros a, b s ao determinados pelas condi c oes de contorno (0 ) = (x0 , y0 ), (1 ) = (x1 , y1 ). Tal curva e denominada cicl oide (veja Figura 1.2). 2 2 2

1.5

Extremais Diferenci aveis por Partes

No Par agrafo 1.3, consideramos como admiss veis apenas as fun c oes continuamente diferenci aveis. Essa hip otese e bastante restritiva e faz com que determinados problemas variacionais n ao possuam solu c ao (veja, e.g., Exemplo 1.5.1). Neste par agrafo exigimos menos regularidade dos candidatos ` a solu c ao do problema variacional e novamente buscamos condi c oes necess arias para otimalidade.

18

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

Exemplo 1.5.1 Considere um problema variacional escalar com integrando L(t, y (t), y (t)) := (1 (y )2 )2 . Obviamente temos L(t, y, y ) = 0 quando |y | = 1 e L(t, y, y ) > 0 caso contr ario. Portanto, as fun c oes com derivada igual a 1 por partes s ao as candidatas naturais ` a solu c ao do problema variacional b Minimzar I (y ) := (1 [y (t)]2 )2 dt Entretanto, apenas para poucos pares de condi c oes de contorno {y0 , y1 }, existe uma solu c ao C 1 [0, 1] para o problema variacional. Em muito maior n umero s ao as condi c oes de contorno para as quais os extremais s ao fun c oes apenas cont nuas, do tipo zig-zag. 2 2 2 O Exemplo 1.5.1 ilustra a necessidade de denirmos classes de fun c oes, que s ao cont nuas a menos de um n unero nito de pontos. Deni c ao 1.5.2 Uma fun c ao y : [a, b] IR e denominada cont nua por partes, nota [a, b], quando existe uma parti se y C c ao a = t0 < < tn+1 = b tal que para todo i = 0, . . . , n a restri c ao y |(ti ,ti+1 ) possui uma exten c ao cont nua ao intervalo [a, b]. Uma fun c ao cont nua y : [a, b] IR e denominada cont nuamente diferenci avel por 1 [a, b], quando existe uma parti partes, nota-se y C c ao a = t0 < < tn+1 = b tal que para todo i = 0, . . . , n a restri c ao y |(ti ,ti+1 ) possui uma exten c ao continuamente diferenci avel ao intervalo [a, b]. 2 2 2 [a, b] e C 1 [a, b] s Observa c ao 1.5.3 Os conjuntos C ao espa cos vetoriais (normalis aveis) so1 1 [a, b]. Entretanto, de bre IR. Como C [a, b] C [a, b], ent ao dene uma norma em C especial interesse para este espa co e a norma denida por ||f ||1, := max |f (t)| + max |f (t)|.
t[a,b] t[a,b]

sujeito a y Yad := {y C 1 [0, 1] | y (0) = y0 , y (1) = y1 }.

importante ressaltar que o espa E co vetorial normado assim obtido n ao e completo (Banach), pois o n umero de pontos de discontinuidade em uma sequ encia de fun c oes pode se tornar ilimitado. 2 2 2 No lema a seguir e apresentada uma vers ao do teorema fundamental do c alculo para 1 [a, b]. Este resultado ser fun c oes em C a utilisado no nal deste par agrafo, para obter as desejadas condi c oes necess arias de otimalidade. 1 [a, b]. Ent Lema 1.5.4 Seja y C ao vale a identidade
t

y (t) = y (a) +
a

y (s) ds, t [a, b].

1.5. EXTREMAIS DIFERENCIAVEIS POR PARTES

19

Demonstra c ao: Note que y e cont nua a menos de um n umero nito de pontos, portanto existe a integral (de Riemann)
t a

y (s) ds, t [a, b].

Sejam t1 , . . . , tn os pontos de discontinuidade de y . Para t [tk , tk+1 ] temos


k 1

y (t) y (a) = y (t) y (tk ) +


t

=
tk

y (s) ds +

l=0 k 1 tl+1 l=0 tl

[y (tl+1 ) y (tl )] y (s) ds =


a t

y (s) ds

e o lema ca provado. 1 [a, b]. S Corol ario 1.5.5 Seja y C ao verdadeiras as arma co es: a) Se b) Se
b 2 ao a y (s) ds = 0 ent y (t) = 0 em todos os

pontos t onde y e diferenci avel, ent ao y e constante.

y 0;

Demonstra c ao: Sejam t1 , . . . , tn os pontos de discontinuidade de y , t0 = a e tn+1 = b. Da identidade


b n

0 =
a

y (s)2 ds =
k =0

tk+1

y (s)2 ds,

tk

temos que y |[tk ,tk+1 ] = 0, 0 k n. Provando assim o tem (a). O tem (b) segue imediatamente do Lema 1.5.4. O lema a seguir discute um modo de encontrar uma aproxima c ao suave para uma fun c ao 1 por outra C 1 . diferenci avel por partes, isto e, como aproximar uma fun c ao apenas C importante observar que, no processo descrito, a derivada da aproxima E c ao e mantida limitada pela derivada da fun c ao original. 1 [a, b] e t1 , . . . , tn os pontos de discontinuidade de y Lema 1.5.6 Seja y C . Ent ao e poss vel encontrar constantes A IR e 0 > 0, tais que para todo (0, 0 ) existe y C 1 [a, b] satisfazendo a) y |R = y , onde R = [a, b] \
t[a,b] t[a,b] n l=0 [tl

b) max |y (t)| 4 max |y (t)|; c) max |y (t) y (t)| A.


t[a,b]

, tl + ];

. Escolha Demonstra c ao: Basta provar o resultado para parti c oes com apenas um ponto t 0 > 0 tal que [t 0 , t + 0 ] (a, b). Seja (0, 0 ).

20

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

A1

g(t)
A2

y (t)

+ t

Figura 1.3: Constru c ao da fun c ao g no Teorema 1.5.6 A id eia por tr as da suavisa ca o consiste em substituir a derivada y por uma poligonal , t + ] e n cont nua em [t ao alterar y fora deste intervalo. Dada uma constante h IR dena a fun c ao | > y (t) , |t t 1 1 ) y ) + (t t + ) h , t [t , t ] g(t) := (t t (t 1 1 (t t ) h + (t t) y (t + ) , t [t, t + ] Apartir da , dena a fun c ao y C 1 [a, b]
t

y (t) := y (a) +
a

g(s) ds, t [a, b].

, t + ], satisfazendo assim (a). Este Escolhemos agora h de modo que y = y em [a, b] \ [t e o caso quando a condi c ao
+ t t + t

g(s) ds =

y (s) ds =: A

e satisfeita. Na Figura 1.3, observamos que isto equivale a exigir que as areas A1 e A2 sejam y (t ) + y (t + )]. Escolhemos portanto iguais. Note que A = h + 2 [ h =
t[a,b]

1 A + )]. [ y (t ) + y (t 2

Denindo agora M := max |y (t)| obtemos |A | 2M |y (t)| = |g(t)| e |h| 3M.

Da deni c ao de g, segue que para todo t [a, b] )| + |h|, |h| + |y + )| } max{ |y (t)|, |y (t (t M + |h| 4M,

1.5. EXTREMAIS DIFERENCIAVEIS POR PARTES provando assim (b). Para determinar A em (c) basta observar que
t

21

|y (t) y (t)|

|y (s) y (s)| ds

+ t t

(|y (s)| + |y (s)|) ds 10M .

Fica assim provado o teorema. Estamos agora em condi c oes de obter condi c oes necess arias de otimalidade para proad . Antes por blemas variacionais formulados em Y em, analisamos uma importante correspond encia existente entre as solu c oes do problema (1.2) e do problema b L(t, y (t), y (t)) dt Minimzar I ( y ) := a (1.21) sujeito a ad := {y C 1 [a, b] | y (a) = ya , y (b) = yb }. yY

A m de simplicar a nota c ao, denominamos os problemas (1.2) e (1.21) por problemas (P ) e (P ) respectivamente. Observe que o conceito de m nimo local fraco na Deni c ao 1.1.3 e ), bastando para isso substituir o espa naturalmente extendido ao problema (P co Yad por ad naquela deni Y c ao. Teorema 1.5.7 Seja L : [a, b] IR IR IR uma aplica ca o cont nua. Se y Yad e m nimo local fraco do problema (P ), ent ao y tamb em e m nimo local fraco do problema (P ). Demonstra c ao: Se y e m nimo local fraco de (P ) ent ao existe > 0 tal que I ( y ) I (v ), v S := {v Yad | v y
1,

< }.

ad com y Tome y Y y 1, < /5. Dado > 0 sucientemente pequeno, o Lema 1.5.6 garante a exist encia de v, C 1 [a, b] tal que v, v

v,

4 v

1 [a, b] e a constante A depende apenas de y onde v := y y C ey . Denindo a fun c ao y := y + v, Yad , temos y y


1,

v,

1,

v, + v

v,

A + 4 y y 4 A + . 5 Logo, y S se escolhermos < /5A. Temos assim I ( y ) I (y ) |I (y ) I ( y )|


+ t

v, v

+ 4 v

1,

I ( y ) |I ( y + v, ) I ( y + v )|
t

I ( y)

|L(t, y + v, , ( y + v, ) ) |L(t, y + v, ( y + v ) )| dt.

22

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

Tomando o limite 0, a integral do lado direito converge a zero e obtemos a desigualdade I ( y ) I ( y ). 1 de Resumindo, o Teorema 1.5.7 garante que toda solu c ao C 1 e tamb em uma solu c ao C um problema variacional. Este resultado permanece v alido para problemas com condi c oes de contorno naturais (veja Observa c ao 1.3.2). E ainda poss vel provar um resultado an alogo para m nimos globais. A rec proca do Teorema 1.5.7 n ao e verdadeira, conforme ilustra o exemplo a seguir.

Exemplo 1.5.8 Considere a fun c ao L(t, y, y ) := y 2 (1 y )2 denida em [a, b] = [1, 1], e as condi c oes de contorno ya = 0, yb = 1. Observe que a fun c ao y (t) := 0 t ,t 0 ,t 0

ad , pois I ( e um m nimo global de I em Y y ) = 0. Vericamos a seguir que n ao existe outro m nimo global. Suponha que y Yad e um outro m nimo. Como y (1) = 1, o escalar denido por := inf { [1, 1] | y (t) > 0, < t 1}

necessariamente satisfaz [1, 1]. Da identidade I (y ) = I ( y ) = 0, obtemos y (t) = 1 para t (, 1], i.e. y (t) = t, t [, 1]. Como y e cont nua, segue da deni c ao de que = 0. Logo y (t) = t, t [0, 1]. Note agora que y (1) = y (0) = 0. Note ainda que para todo t (1, 0) com y (t) = 0, temos necessariamente y (t) = 1. Logo, podemos concluir que y (t) = 0, t [1, 0]. Conseq uentemente, o problema variacional n ao possui solu c ao em Yad e a u nica solu c ao em ad Y e a fun c ao y . 2 2 2 O pr oximo teorema fornece as procuradas condi c oes necess arias de otimalidade para o problema variacional (P ). ad Teorema 1.5.9 Seja L : [a, b] IR IR continuamente diferenci avel. Se y Y e um ), ent m nimo local fraco do problema (P ao a) existe uma constante c IR tal que (t), y (t)) = Ly (t, y
a t

Ly (s, y (s), y (s)) ds + c, t [a, b];

(1.22)

b) y satisfaz a condi ca o de WeierstrassErdmann (t+), y (t+)), t (a, b); (t), y (t)) = Ly (t, y Ly (t, y (1.23)

c) y satisfaz a equa ca o de EulerLagrange nos pontos t (a, b) de continuidade de y .

1.5. EXTREMAIS DIFERENCIAVEIS POR PARTES

23

1 [a, b] com (a) = (b) = 0. Como y Demonstra c ao: Dado 0 > 0 escolha C e m nimo local temos I ( y ; ) = 0. Da hip otese de difenciabilidade de L, segue que 0 = I ( y ; ) = d I ( y + ) | , i.e. =0 d
b a

(s), y (s)) (s) ] ds = 0. [ Ly (s, y (s), y (s)) (s) + Ly (s, y

Integrando por partes obtemos


b a s

(s), y (s)) (s) ds = 0. Ly (r, y (r ), y (r )) dr + Ly (s, y

(1.24)

Escolhemos agora a constante c (usando o teorema do valor m edio) de forma que a fun c ao 1 v C [a, b] denida por
t s

v (t) :=
a

(s), y (s)) c ds Ly (r, y (r ), y (r )) dr + Ly (s, y v (a) = v (b) = 0.

satisfa ca a condi c ao Tomando agora f (s) := equa c ao (1.24)


b a s a

(s), y (s)), s [a, b], segue da Ly (r, y (r ), y (r )) dr + Ly (s, y


b a b

v (s)2 ds =
a

[f (s) c]2 ds =
b a

f (s) [f (s) c] ds c

[f (s) c] ds

= 0 c

f (s) ds + c2 (b a) = 0.

O Corol ario 1.5.5 nos permite concluir que v 0 em [a, b], o que implica em
t

(t), y (t)) c = 0, t [a, b]. Ly (s, y (s), y (s)) ds + Ly (t, y

Fica assim provado o tem a). Para provar b), basta observar que (1.22) implica na conti(t), y (t)) em [a, b]. nuidade da aplica c ao t Ly (t, y Provamos agora c). Se y e cont nua no ponto t (a, b), segue de (1.22) que a aplica c ao (s), y (s)) s Ly (s, y e continuamente diferenci avel em uma vizinhan ca de t. Logo, a Equa c ao de EulerLagrange e obtida simplesmente derivando-se (1.22), como na demonstra c ao do Teorema 1.3.3. ) satisfaz Resumindo, o Teorema 1.5.9 garante que um m nimo local fraco do problema (P a equa c ao de EulerLagrange nos pontos de continuidade de sua derivada. Mais ainda, as u nicas discontinuidades poss veis em um m nimo local fraco, s ao aquelas que preservam a continuidade da aplica c ao (t), y (t)). t Ly (t, y

24

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

Esta condi c ao (veja tamb em (1.23)) e denominada condi c ao de WeierstraErdmann. ) satisfaz a primeira E poss vel ainda provar que um m nimo local fraco do problema (P integral de equa c ao de EulerLagrange e que a aplica c ao (t), y (t)) t L(t, y (t), y (t)) y (t) Ly (t, y e cont nua (veja Exerc cios 1.3 e 1.4). Esta u ltima condi c ao e conhecida como segunda condi c ao de WeierstraErdmann.

1.6

Problemas Vetoriais

onde L C 1 ([a, b] IR2n ; IR) e ya , yb IRn s ao dados. Nos problemas vetoriais as fun c oes 1 [a, b]. admiss veis s ao aplica c oes vetoriais: y (t) = (y1 (t), . . . , yn (t)), com yj C O resultado a seguir generaliza para o problema (1.25) as condi c oes necess arias obtidas para o problema variacional escalar (1.21).

Extendemos neste par agrafo, para problemas variacionais vetoriais, as condi c oes necess arias de otimalidade obtidas para os problemas escalares. Considere para tanto o problema variacional b L(t, y (t), y (t)) dt Minimzar I ( y ) := a (1.25) sujeito a ad := {y C 1 ([a, b]; IRn ) | y (a) = ya , y (b) = yb }, yY

ad Teorema 1.6.1 Seja L : [a, b] IR2n IR continuamente diferenci avel. Se y Y e m nimo local fraco do problema (1.25), ent ao y satisfaz a equa ca o vetorial de EulerLagrange d , y ) = Ly (t, y , y ) Ly (t, y dt nos pontos t [a, b] de continuidade de y . Tamb em e satisfeita a primeira integral da 6 equa ca o de Euler , y ) L(t, y , y ) y (t), Ly (t, y
t

=
a

Lt (s, y (s), y (s)) ds + const., t [a, b].

Al em disso, nos pontos t [a, b] de discontinuidade de y s ao satisfeitas as condi co es de WeierstraErdmann , Ly ](t+). (t+), y (t+)) e [L y , Ly ](t) = [L y (t), y (t)) = Ly (t+, y Ly (t, y (Note que a primeira condi ca o de WeierstraErdmann e vetorial, enquanto que a segunda e dada por uma equa ca o escalar.) deixada como exerc Demonstra c ao: E cio por ser an aloga a demonstra c ao do Teorema 1.5.9 (basta deduzir as equa c oes vetoriais componente a componente).
Note que a primeira integral e uma equa c ao e escalar, enquanto que a equa c ao de EulerLagrange e vetorial.
6

1.7. EXERC ICIOS

25

Nos problemas vetoriais considerados neste par agrafo a fun c ao objetivo e escalar. Em muitos problemas de controle otimo (e em seus correspondentes variacionais) e conveniente ad IRk . Uma alternativa neste caso considerar fun c oes objetivo vetoriais, i.e. I : Y e utilizar o conceito de Pareto otimalidade para eleger uma estrat egia otima (veja, e.g., [Lei, Cap tulo 17]).

1.7

Exerc cios

1.1 Calcule a primeira integral da Equa c ao de EulerLagrange quando L = L(t). Mostre que as fun c oes lineares s ao estacion arias. 1.2 Prove que se g, h C [a, b] s ao tais que
b a 1 [a, b], ent para todo v C0 ao h C 1 [a, b] e h = g. (Sugest ao: Veja demonstra c ao do Teorema 1.3.3.)

[g(t)v (t) + h(t)v (t)] dt = 0,

ad C 2 [a, b] do 1.3 Seja L uma aplica c ao C 1 . Mostre que todo m nimo local fraco y Y problema (P ) satisfaz a primeira integral da Equa c ao de EulerLagrange y, y ) = const. L( y, y ) y Ly ( ad um m ). Mostre 1.4 Seja L uma aplica c ao C 1 e y Y nimo local fraco do problema (P que a segunda condi c ao de WeierstrassErdmann Ly Ly (t ) = Ly Ly (t+ ), t (a, b)

e satisfeita. (Sugest ao: Use o fato de y satisfazer a primeira integral da equa c ao de EulerLagrange.)

26

AO CALCULO CAP ITULO 1. INTRODUC AO DE VARIAC OES

Cap tulo 2

Problemas Variacionais e Controle Otimo


Neste cap tulo apresentamos um paralelo entre problemas do c alculo de varia c oes e problemas de controle otimo. O objetivo principal e comparar as condi c oes de otimalidade para ambas as fam lias de problemas. Iniciamos o cap tulo apresentando os problemas de controle otimo. A seguir, estudamos condi c oes necess arias de otimalidade para problemas variacionais restritos e aplicamo-as a problemas de controle otimo correspondentes. Os dois u ltimos par agrafos s ao dedicados a an alise de condi c oes de otimalidade para problemas de controle. O Par agrafo 2.1 e dedicado a formula c ao matem atica dos problemas de controle otimo. Na seq u encia, s ao estudados no Par agrafo 2.2 problemas variacionais com condi c oes de contorno transversais, restri c oes isoperim etricas e restri c oes lagrangeanas (veja Par agrafo 1.1). As condi c oes de otimalidade obtidas para estes problemas s ao aplicadas na an alise de problemas de controle otimo correspondentes. No Par agrafo 2.3 analisamos problemas de controle otimo sujeitos a um tipo de restri c ao muito utilisada em aplica c oes modeladas por equa c oes escalares. O desenvolvimento e baseado na an alise dos problemas variacionais correspondentes. O interesse em tais problemas de controle est a no fato das solu c oes serem do tipo bang-bang. Nos dois u ltimos Par agrafos, 2.4 e 2.5, estudamos, sob hip oteses adicionais de convexidade, a suci encia e necessidade para otimalidade de um conjunto especial de condi c oes (princ pio do m aximo).

2.1

Problemas de Controle Otimo: Apresenta c ao

Em um problema de controle, uma vari avel de estado z = z (t) IRn dependente do tempo evolui de acordo com uma dada din amica z (t) = f (t, z (t), u(t)), t > t0 (2.1)

apartir de um estado (condi c ao) inicial z (t0 ) = z0 . Aqui f : IR IRn IRm IRn corresponde ao modelo estudado, z0 IRn e o estado inicial do sistema e u : IR IRm e um par ametro 27

28

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

livre inuenciando a din amica, denominado controle do sistema. Em muitos problemas e tamb em fornecida uma condi c ao de contorno nal z (t1 ) = z1 , ou ainda uma condi c ao de contorno transversal. A equa c ao (2.1) e denominada equa c ao de estado. Nos problemas de controle otimo considerados neste cap tulo, a tarefa que se imp oe ea de minimizar funcionais do tipo
t1

J (u, z ) :=
t0

L(t, z (t), u(t)) dt,

com L : IR IRn IRm IR, onde z e u est ao relacionados pela din amica z = f (t, z, u), t (t0 , t1 ) e ainda z (0) = z0 , z (t1 ) = z1 , u Uad . O conjunto Uad e denominado conjunto de controles admiss veis, sendo usualmente m m 1 escolhido como subconjunto de C ([t0 , t1 ]; IR ), C ([t0 , t1 ]; IR ) ou L ([t0 , t1 ]; IRm ). Note que diferentes escolhas de Uad implicam em diferentes graus de regularidade de z e tamb em determinam o conceito que deve ser utilizado para denir a solu c ao do problema de valor inicial em (2.1). Podemos formular o problema de controle otimo descrito acima na forma resumida t1 L(t, z (t), u(t)) dt Minimzar J ( u, z ) := A analogia entre os problemas de controle otimo e os problema do c alculo de varia c oes se torna evidente quando observamos que, no caso particular f (t, z, u) = u, o problema acima exatamente esta semelhan toma a forma do problema variacional (1.2). E ca que nos permite comparar as condi c oes de otimalidade para ambas as classes de problemas. Assim como os problemas variacionais, os problemas de controle otimo podem ser formulados com condi c oes de contorno transversais, restri c oes lagrangeanas ou restri c oes isoperim etricas. No pr oximos dois par agrafos tratamos problemas variacionais restritos e problemas de controle que podem ser analisados usando as condi c oes obtidas para tais problemas variacionais. No problema acima os tempos inicial e nal s ao dados (tempo xo), por em o tempo nal pode ser uma das inc ognitas no problema de controle otimo (tempo livre). De interesse s ao ainda os problemas formulados no intervalo [t0 , ) (horizonte innito), assim como problemas em que s ao admitidas discontinuidades na vari avel de estado z (problemas impulsivos). Tais problemas de controle s ao abordados no cap tulo seguinte, juntamente com uma formula c ao bastante geral do problema acima. sujeito a u Uad , z = f (t, z, u), t (t0 , t1 ), z (0) = z0 , z (t1 ) = z1 .
t0

2.2

Problemas Variacionais com Restri c ao

Com a inten c ao de contruir um paralelo entre as condi c oes de otimalidade do c alculo variacional e do controle otimo, analizamos neste par agrafo problemas variacionais em que s ao impostas restri c oes as trajet orias admiss veis.

2.2. PROBLEMAS VARIACIONAIS COM RESTRIC AO

29

O interesse no estudo dos problemas (2.2), (2.6) e (2.10) para a teoria de controle otimo se deve ao fato de que diversas fam lias de problemas possuem equa c ao de din amica da forma: z (t) = u(t); ou ainda z (t) = f1 (t, z ) + f2 (t, z )u(t), com f2 (t, z ) = 0. Neste caso e poss vel reescrever os problemas de controle otimo como problemas variacionais e assim utilizar as condi c oes necess arias apresentadas neste par agrafo. Antes de iniciarmos a an alise dos problemas variacionais restritos, apresentamos uma vers ao do teorema de multiplicadores de Lagrange em espa cos vetoriais gen ericos. Para tanto, consideramos que tanto a fun c ao objetivo quanto a restri c ao s ao descritas por aplica c oes G ateaux diferenci aveis. Teorema 2.2.1 (Lagrange) Seja Y um espa co vetorial normado e I , G aplica co es de Y em IR. Suponha que as varia co es de G ateaux I (y, v ), G(y, v ) est ao bem denidas para y, v Y e ainda que para cada y, v Y tenhamos I (yn , v ) I (y, v ), G(yn , v ) G(y, v ) sempre que yn y em Y .1 Se y e um m nimo local de I sujeito a restri ca o G(y ) = 0, ent ao ou G( y , ) , em Y ou existe um multiplicador IR, tal que I ( y , v ) = G( y , v ), v Y. Demonstra c ao: Veja, e.g., [Tr, Cap tulo 5]. Na realidade o teorema acima continua v alido se exigimos continuidade fraca de I e G apenas em y . Uma conseq u encia imediata do teorema de Lagrange e que os conjuntos de n vel {y Y ; I (y ) = I ( y )} e {y Y ; G(y ) = 0} possuem o mesmo hiperplano tangente em y .

Condi c oes de Contorno Transversais


Come camos por estudar os problemas variacionais com condi c oes de contorno transversais. Considere o problema T L(t, y (t), y (t)) dt Minimzar I ( y, T ) := a (2.2) sujeito a T > a; (T, y (T )) = 0; y {y C 1 [a, T ] | y (a) = ya };

onde L C 1 ([a, b] IR2 ; IR), ya IR e C 1 ([a, b] IR; IR) com = (a constante b IR e tomada grande o bastante, de forma a n ao interferir na formula c ao do problema). Note que nem o tempo nal nem a condi c ao de contorno nal s ao especicados. A condi c ao nal para as fun c oes admiss veis e fornecida pela curva de n vel zero da fun c ao (veja Figura 2.1). ) com y ] Suponha que ( y, T C 1 [a, T e um m nimo local fraco para o problema (2.2). 1 Logo, para fun c oes teste C0 [a, T ], temos d ) I ( y + , T d
1

= 0.
=0

Tal propriedade e denominada continuidade fraca da varia c ao de G ateaux.

30

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO y ya y1 (t) (t, y ) = 0

y2 (t) a
T1 T2

Figura 2.1: Condi c ao de contorno transversal e fun c oes admiss veis Argumentando agora como no Par agrafo 1.3, concluimos que y satisfaz a equa c ao de Euler ). Temos assim as condi Lagrange em (a, T c oes necess arias y (a) = ya , d ). , y ) = Ly (t, y , y ), t (a, T Ly (t, y dt

Falta ainda obter, como na Observa c ao 1.3.2, uma condi ca o de contorno natural que relaci, o tempo nal, com a fun one T c ao , que descreve a condi c ao nal. Essa condi c ao natural e obtida como conseq u encia do teorema de multiplicadores de Lagrange (veja Teorema 2.2.1). Dena Yad := {y C 1 [a, b] | y (a) = ya }. Note que os candidatos a solu c ao do problema 1 variacional (2.2) s ao pares da forma (y, T ) Yad IR C [a, b] IR =: Y . Note ainda que Y e um espa co vetorial normado com a norma do produto cartesiano (y, T ) := y 1, + |T |. A fun c ao objetivo I est a bem denida como uma aplica c ao de Y em IR e a varia c ao de I ) na dire em ( y, T c ao (, ) Y e dada por2 ; , ) = L(T , y I ( y, T , y ) +
a T

, y ) (t)] dt. [Ly (t, y , y ) (t) + Ly (t, y

), podemos usar a equa Como y e estacion aria em (a, T c ao de EulerLagrange para reescrever o integrando da express ao acima. Obtemos assim ; , ) = L(T , y I ( y, T , y ) +
a T

d , y ) (t) dt Ly (t, y dt
T a

, y , y ) (t) = L(T , y ) + Ly (t, y

Observe que a condi c ao nal transversal pode ser reescrita como G(y, T ) = 0, onde G : Y ) na dire (y, T ) (T, y (T )) IR. Calculando a varia c ao de G ateaux de G em ( y, T c ao 3 (, ) Y obtemos ; , ) = t (T , y , y ) + (T )]. G( y, T ) + y (T ) [ y (T
; , ) = (d/d) I ( + )|=0 . Lembre que I ( y, T y + , T ; , ) = (d/d) (T + , ( + ))|=0 . Para simplicar a nota Note que G( y, T y + )(T c ao escrevemos (T , y ) ao inv es de (T , y (T )).
2 3

2.2. PROBLEMAS VARIACIONAIS COM RESTRIC AO

31

) O teorema de multiplicadores de Lagrange garante que se ( y, T e um m nimo local de I sujeito a restri c ao G(y, T ) = 0, ent ao ou G( y , T ; , ) 0, ou existe um multiplicador ; , ) 0. Como o primeiro caso implica em (T , y )) = , IR tal que (I + G)( y, T (T podemos descart a-lo devido as hip oteses do problema (2.2). 1 ] e = 0, temos Tomando fun c oes teste C0 [a, T ; , ) = L(T , y , y , y )] . 0 = (I + G)( y, T , y ) + [t (T ) + y (T ) y (T ) = 0, obtemos Enquanto que escolhendo (, ) com = (a) = 0 e (T , y ) + y (T , y ) = 0, , y ) (T ) (T Ly (T , y , y , y ) / y (T ). Substituindo em (2.3) temos i.e. = Ly (T , y , y , y )], , y , y , y ) [t (T ) + y (T ) y (T L(T , y ) y (T ) = Ly (T (2.4) (2.3)

que e a condi c ao natural procurada. A condi c ao (2.4) e denominada condi c ao de transversalidade. Podemos resumir a discuss ao acima na forma do seguinte teorema: ) Teorema 2.2.2 Seja L C 1 ([a, b] IR2 ; IR), C 1 ([a, b] IR; IR) com = . Se ( y, T e um m nimo local fraco de I em Yad IR restrito a (T, y (T )) = 0, ent ao ( y, T ) e solu ca o do problema de valor de contorno Ly (t, y, y ) d Ly (t, y, y ) = 0, t (a, T ) dt y (a) = ya , L(T, y, y ) y (T, y ) = Ly (T, y, y ) [t (T, y ) + y (T, y ) y (T )]. Demonstra c ao: Veja acima. Observa c ao 2.2.3 Tomando (T, y ) = t b no Teorema 2.2.2, xamos o tempo nal T = b e deixamos livre a condi c ao de contorno nal. Podemos assim representar os problemas com fronteira livre vistos no Par agrafo 1.3. Neste caso a condi c ao de transversalidade se escreve como Ly (b, y (b), y (b)) = 0, que e exatamente a condi c ao de contorno natural obtida na Observa c ao 1.3.2. Tomando (T, y ) = y yb no Teorema 2.2.2, deixamos o tempo nal livre e xamos a condi c ao de contorno nal y (T ) = yb . Obtemos assim os denominados de problemas com horizonte livre. Neste caso a condi c ao de transversalidade toma a forma L(T, y (T ), y (T )) = y (T ) Ly (T, y (T ), y (T )). 2 2 2 Exemplo 2.2.4 (Controle Otimo a uma Curva Alvo) Consideramos um problema de controle otimo sujeito a uma condi c ao de contorno transversal. Suponha que a condi c ao n inicial z (t0 ) = z0 IR e fornecida e que, no tempo nal t = t1 , o estado nal tenha que

32

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

pertencer a uma dada curva C , a qual e descrita por C := {z Rn | (z ) = 0}. Temos assim o seguinte problema de controle: Minimizar J (z, u) :=
t1

L(t, z (t), u(t))dt


t0

com f : [t0 , t1 ] IRn IRm IRn , L : [t0 , t1 ] IRn IRm IR, : IRn IR. No caso particular m = n, f (t, z, u) = u, temos o seguinte prolema variacional correspondente: Minimizar I (y ) :=
t1 t0

([t0 , t1 ]; IRm ), sujeito a u Uad := C z = f (t, z, u), t (t0 , t1 ), z (0) = z0 , (z (1)) = 0,

L(t, z (t), z (t))dt

Condi c oes necess arias de otimalidade para o problema acima s ao dadas pela vers ao do Teorema 2.2.2 para problemas vetoriais (veja Par agrafo 1.6), na forma da equa c ao vetorial de EulerLagrange e da condi c ao de transversalidade
L(t1 , y, y ) y (t1 , y ), y y (t1 , y ) = Ly (t1 , y, y ) t (t1 , y ) +

sujeito a 1 ([t0 , t1 ]; IRn ) | y (t0 ) = z0 }, (y (t1 )) = 0. y Yad := {y C

(Verique!). Como = (y ), esta condi c ao se reduz a L(t1 , y, y ) (y ) = (y ), y Ly (t1 , y, y ) = c Ly (t1 , y, y ). Usando a equa c ao de EulerLagrange obtemos L(t1 , y, y ) (y ) = c Ly (t1 , y, y ). Denindo o multiplicador de Lagrange (Princ pio do M aximo) (t) := Ly (t, y, y ) temos (t1 ) = c (y (t1 )). (2.5)

Portanto, a condi c ao de transversalidade se traduz no fato do multiplicador de Lagrange ser perpendicular a curva C no tempo nal t1 . O problema de controle otimo acima se inclui na classe de problemas abordada no Par agrafo 3.1. Compare a equa c ao (2.5) com a condi c ao de contorno no tem ii) do Teorema 3.1.2 (tome p = 1, L1 0). No caso escalar m = n = 1, o problema variacional se reduz a um problema com horizonte livre e a condi c ao de transversalidade e dada na Observa c ao 2.2.3. 2 2 2

2.2. PROBLEMAS VARIACIONAIS COM RESTRIC AO

33

Restri c oes Lagrangeanas


Obtemos agora condi c oes necess arias para problemas variacionais com restri c oes lagrangeanas. Considere o problema b Minimzar I (y ) := L(t, y (t), y (t)) dt a sujeito a (2.6) y Yad := {y C 1 ([a, b]; IRn ) | y (a) = ya , y (b) = yb } ; G(t, y (t)) = 0, t [a, b] ;

onde L : [a, b] IR2n IR, G : [a, b] IRn IR e ya , yb IRn s ao dados. Note que no caso escacalar n = 1, o problema de minimiza c ao perde o sentido, pois na maioria dos casos a restri c ao G(t, y (t)) = 0 determina y completamente. Teorema 2.2.5 Sejam L C 2 ([a, b] IR2n ; R), G C 2 ([a, b] IRn ; R) com Gy (t, y ) = . Se y Yad e um m nimo local fraco de I em Yad sujeito a restri ca o lagrangeana G(t, y (t)) = 0, t [a, b], ent ao existe uma fun ca o (multiplicador) C [a, b] tal que d [L + G]y = [L + G]y , t (a, b). dt

Demonstra c ao: Seja (a, b). Como Gy (, y ( )) = , ent ao para pelo menos um ndice 1 j n temos Gyj (, y ( )) = 0. Por conveni encia representamos y IRn por (yj , Y ), onde yj e a j - esima componente de y e Y IRn1 e o vetor contendo as demais componentes.4 O teorema da fun c ao impl cita (ver [Ru2] ou [Wa1]) garante a exist encia de uma fun c ao ( )) tal que G(t, y ) = 0 sse g C 2 (IR IRn1 , IR) denida em uma vizinhan ca de (, Y yj = g(t, Y ). Sendo assim, podemos reescrever (localmente) a restri c ao do problema (2.6) como: [c, d] (a, b) com (c, d) e yj (t) = g(t, Y (t)), t [c, d]. (t), t (c, d)}, podemos Denindo o conjunto V := {Y C 1 ([a, b]; IRn1 ) | Y (t) = Y construir para cada Y V a fun c ao yj (t) := g(t, Y (t)) , t (c, d) y j (t) , t (c, d)

obtendo assim y (t) := (yj (t), Y (t)) Yad que obviamente satisfaz G(t, y (t)) = 0, t [a, b]. Denimos agora o funcional I : C 1 ([a, b]; IRn1 ) IR Y (t) I (g(, Y ), Y ) Por constru c ao temos
b

I (Y ) =
a
4

L(t, yj , Y, yj , Y ) dt,

(t)). Em particular temos y (t) = ( y j (t ), Y

34

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

(t) = (d/dt) g ((t), Y (t)) = g (t, Y ) + g (t, Y )Y . Denindo onde yj (t) = g((t), Y (t)) e yj t Y , Y ) podemos escrever L(t, Y, Y ) := L(t, yj , Y, yj b

I (Y ) =
a

L(t, Y, Y ) dt =
c

L(t, Y, Y ) dt + const.

para todo Y V . Como y e m nimo local do problema (2.6), ent ao Y e m nimo local de I satisfaz em V (por que?). Portanto Y d LY = LY , t (c, d). dt
gY + LY Por constru c ao temos LY = Lyj Substituindo em (2.7) temos

(2.7)

[gt + gY Y ]Y . LY = Lyj gY + LY + Lyj

d [gt + gY Y ]Y , t (c, d). [L gY + LY ] = Lyj gY + LY + Lyj dt yj Usando agora a identidade [gt + gY Y ]Y = (d/dt) gY obtemos de (2.8)

(2.8)

d d + Ly LY LY = Ly j j gY , t (c, d). dt dt ( )), temos que Gy (t, g(t, Y ), Y )gY + Como G(t, g(t, Y ), Y ) 0 em uma vizinhan ca de (, Y j GY (t, g(t, Y ), Y ) = 0. Logo, para qualquer fun c ao C [c, d] temos d d = [L + G]Y [L + G] LY LY GY Y dt dt d = LY LY + Gyj gY dt d + Ly = Ly j j + Gyj gY . dt
Ly ]/Gy C [c, d] (lembre que Gy = 0 em [c, d]) nos fornece A escolha (t) = [(d/dt) Lyj j j j a equa c ao d (2.9) [L + G]Y [L + G] Y = 0, t (c, d). dt Provamos assim que para essa escolha de multiplicador, a equa c ao de EulerLagrange e satisfeita em uma vizinhan ca de t = . Como (a, b) e arbitr ario, concluimos que o teorema e v alido localmente no intervalo (a, b). Note que e poss vel cobrir o intervalo compacto [a, b] com uma fam lia nita de sub intervalos, tais que em cada um deles Gyj = 0 para algum j . A escolha do multiplicador em cada subintervalo depende apenas deste fato, o que justica a conclus ao de que e poss vel escolher C [a, b] de modo que (2.9) seja satisfeita em todo intervalo (a, b).

poss Observa c ao 2.2.6 E vel formular o problema (2.6) com G = G(t, y, y ) e, ainda assim, obter um resultado an alogo ao apresentado no Teorema 2.2.5. A verica c ao deste resultado mais geral pode ser encontrada por exemplo em [Tr, Cap tulo 11]. 2 2 2 No Exemplo 2.2.9 e estudado um problema de controle otimo com restri c oes lagrangeana e isoperim etrica.

2.2. PROBLEMAS VARIACIONAIS COM RESTRIC AO

35

Restri c oes Isoperim etricas


Tratamos a seguir dos problemas variacionais com restri c oes isoperim etricas (ou integrais). Considere o problema b L(t, y (t), y (t)) dt Minimzar I ( y ) := a sujeito a (2.10) 1 [a, b] | y (a) = y , y (b) = y } ; y Y := { y C a ad b b F (y ) := G(t, y (t), y (t)) dt = c ;
a

onde L, G C 1 ([a, b] IR2 ; IR) e ya , yb , c IR s ao dados. Como conseq u encia imediata do Teorema 2.2.1 (Lagrange), obtemos o seguinte resultado: Teorema 2.2.7 Sejam L, G C 1 ([a, b] IR2 ; IR), F denida como em (2.10) e c IR tais que F (y ; ) 0 no conjunto de n vel c do funcional F , denido por Fc := {y C 1 [a, b] | F (y ) = c}. Se y e um m nimo local fraco do problema (2.10), ent ao existe um multiplicador IR tal que y e solu ca o do problema de valor de contorno (L + G)y (t, y, y ) d (L + G)y (t, y, y ) = 0, t (a, b) dt y (a) = ya , y (b) = yb . deixada como exerc Demonstra c ao: E cio para o leitor. Exemplo 2.2.8 Considere o problema de controle otimo 1 Minimizar J ( u, z ) = u(t)2 dt 0 [0, 1], sujeito a u C z = u, z (0) = z0 , z (1) = z1 , F (u, z ) =

tu(t) dt = c.
0

Do Teorema 2.2.7, temos que se y e solu c ao, ent ao existe IR com d 2y (t) + t dt = 0.

O problema variacional correspondente e 1 y (t)2 dt Minimizar I ( y ) = 0 sujeito a 1 [0, 1] | y (0) = z0 , y (1) = z1 } y Yad = {y C

1 0

ty (t) dt = c.

36

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

Logo, 2y (t) + t = const. Temos ent ao 1 y (t) = t2 + at + b. 4 Usando as condi c oes de contorno obtemos a e b em fun c ao de (al em e claro de z0 e z1 , 1 que s ao dados). Para determinar o valor de , basta substituir y = a() 2 t na restri c ao isoperim etrica. Em muitas aplica c oes as restri c oes isoperim etrica e/ou lagrangeana s ao dadas na forma de uma desigualdade. No exemplo a seguir estudamos tal situa c ao. Exemplo 2.2.9 (Lan camento de um Foguete) Um foguete deve ser lan cado apartir do solo na vertical e deve, apartir da escolha de uma estrat egia de consumo de combust vel, alcan car a maior altitude poss vel. O modelo para o problema e representado por t m(t) v (t) h(t) : : : : tempo; massa do foguete; velocidade do foguete; altura do foguete.

Uma equa c ao de balan co de for cas (Taxa de varia c ao do impulso = Soma das for cas agindo sobre o corpo) nos fornece a din amica m v + m = m G(h) D(v, h), onde > 0 e a velocidade com que o combust vel, depois de queimado, e expelido, G ea for ca gravitacional (depende da altura), D e a resist encia do ar (depende da velocidade e da altura). A m de simplicar o modelo supomos G(h) = g (constante) e desprezamos a resist encia do ar (D(v, h) 0). Logo, m v = g m m . (2.11)

Suponha que podemos controlar o empuxo do foguete (dado por m ). Note que, se denotamos por Mf > 0 a massa do foguete sem combust vel, temos que m(t) Mf > 0. Portanto, escolhemos como vari avel de controle u := m /m, obtendo o sistema h = v (t) , h(0) = 0 v = u(t) g , v (0) = 0 Supomos ainda o controle limitado, i.e., 0 u(t) umax . O problema exige que, dada uma quantidade xa de combust vel Mc , a estrat egia de controle deve ser tal que o foguete alcance a maior altitude poss vel. Logo, temos as condi c oes de contorno m(0) = Mf + Mc e m(T ) = Mf . Note que a u ltima condi ca o de contorno pode ser escrita na forma da restri c ao isoperim etrica
T

u(t) dt = log[(Mf + Mc )/Mf ] =: K.


0

2.2. PROBLEMAS VARIACIONAIS COM RESTRIC AO A fun c ao objetivo e dada por


T T

37

J (u, z ) = h(T ) =
0

v (t) dt =
0

(T t)v (t) dt =

T 0

(T t)u(t) dt gT 2 /2.

Denindo as vari aveis de estado z1 = h, z2 = v , podemos escrever o problema de controle otimo na forma: T (t T )u(t) dt Minimizar J ( u, z ) = z ( T ) = 1 0 [0, T ], sujeito a u C
= z , z = u g, z (0) = z (0) = 0, z1 1 2 2 2 T u(t) dt = K, 0 u(t) umax F (u, z ) = 0

A restri c ao isoperim etrica juntamente com as condi c oes de contorno z2 (0) = z2 (T ) = 0 nos permitem determinar o tempo nal: T = K/g. Observe que neste problema de controle temos, al em da restri c ao isoperim etrica, uma restri c ao lagrangeana (na forma de desigualdade) para a vari avel de controle. Note ainda que tanto a fun c ao objetivo quanto as restri c oes dependem somente da vari avel de controle. Podemos escrever a restri c ao 0 u umax na forma de uma u nica restri c ao quadr atica: u(u umax ) 0. A Fun c ao hamiltoniana se escreve ent ao H (t, u) = (t T )u + u + (t)(u2 umax u), com IR e C [0, T ]. Se conseguirmos encontrar multiplicadores , e controle u tais que 0= d H (t, u ) = (t T + ) + (t)(2 u umax ), du (t) u(t)( u umax ) = 0, com (t) > 0. e ainda 0 u (t)dt = K , ent ao u e solu c ao (e e u nica, pois a hamiltoniana e estritamente convexa para > 0). Tal fato se justica por estarmos trabalhando com uma restri c ao lagrangeana na forma de desigualdade (a segunda condi c ao acima signica que o multiplicador e positivo quando a restri c ao lagrangeana se torna ativa). Uma an alise de sinais nos permite concluir que (t) = 0 somente para t = := T . Para t = temos (t) > 0, o que implica em u (t) = 0 ou umax . A m de satisfazer a restri c ao isoperim etrica, escolhemos = T K/umax < T . Temos assim o controle otimo u (t) := umax , t [0, ) 0 , t (, T ] 2 2 2
T

do tipo bang-bang (i.e., assume apenas valores extremos).

38

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

2.3

Extremais Singulares e Trajet orias Otimas

Note que no problema (2.12) s ao feitas restri c oes sobre a derivada das fun c oes admiss veis. Importante na an alise a seguir e o fato de L(t, z, z ) ser uma fun c ao am na vari avel z . Observe ainda que o problema (2.12) pode ser interpretado como decorrente do seguinte problema de controle otimo t1 Minimizar I (z ) := [L1 (t, z (t)) + L2 (t, z (t))u(t)] dt t0 sujeito a z = g(t, z ) + f (t, z )u(t), t [t0 , t1 ] ; z (t ) = z , z (t ) = z , u(t) := [u , u ].
0 0 0 1 m M

Neste par agrafo utilizamos o formalismo do c alculo variacional para obter, atrav es da an alise de condi c oes necess arias, a solu c ao para uma importante fam lia de problemas de controle otimo, a saber: problemas em que as vari aveis de controle s ao limitadas por fun c oes que dependem do tempo e da vari avel de estado. Sob hip oteses adequadas e poss vel encontrar uma rela c ao entre as solu c oes da equa c ao de EulerLagrange (extremais) e as trajet orias otimas do problema de controle correspondente. Come camos por analisar o seguinte problema variacional t1 Minimizar I (z ) := [G(t, z (t)) + H (t, z (t))z (t)] dt t0 sujeito a (2.12) (t) B (t, z (t)), t [t , t ] ; A ( t, z ( t )) z 0 1 z (t ) = z , z (t ) = z .
0 0 1 1

De fato, explicitando u em fun c ao de z e z na equa c ao diferencial (supondo f (t, z ) = 0) e substituindo no funcional I obtemos um problema como (2.12) onde G(t, z ) = L1 (t, z ) L2 (t, z )
u(t)

g(t, z ) ; f (t, z )

H (t, z ) = L2 (t, z )
u(t)

1 ; f (t, z )

A(t, z ) = min {g(t, z ) + f (t, z )u} ;

B (t, z ) = max {g(t, z ) + f (t, z )u}.

Suponha agora as aplica c oes G, H , A, B : [t0 , t1 ] IR IR continuamente diferenci aveis e dena o conjunto das trajet orias admiss veis 1 [t0 , t1 ] | A(t, z (t)) z (t) B (t, z (t)), t [t0 , t1 ]; z (t0 ) = z0 , z (t1 ) = z1 }. Zad := {z C Esquecendo por um momento as restri c oes sobre a derivada das fun c oes admiss veis, o problema (2.12) pode ser escrito como um problema usual do c alculo das varia c oes: t1 Minimizar I (z ) := [G(t, z (t)) + H (t, z (t))z (t)] dt t0 1 [t0 , t1 ], z (t0 ) = z0 , z (t1 ) = z1 . sujeito a z C

2.3. EXTREMAIS SINGULARES E TRAJETORIAS OTIMAS A equa c ao de EulerLagrange associada a esse problema e G H (t, z (t)) (t, z (t)) = 0, t (t0 , t1 ). z t Fazemos agora as seguintes hip oteses:

39

(2.13)

h1) Existe um extremal singular z para o problema variacional, isto e uma fun c ao 1 z C [t0 , t1 ] que e solu c ao da equa c ao diferencial (2.13) e satisfaz simultaneamente a restri c ao A(t, z (t)) z (t) B (t, z (t)), t (t0 , t1 ).5 h2) O extremal singular z divide a faixa S := [t0 , t1 ] IR em duas semi-faixas: E+ := {(t, z ) [t0 , t1 ] IR | z > z (t)}, nas quais se verica: H G (t, z ) (t, z ) > 0, (t, z ) E+ , z t G H (t, z ) (t, z ) < 0, (t, z ) E . z t E := {(t, z ) [t0 , t1 ] IR | z < z (t)},

Como o funcional I e linear no argumento z , e de se esperar que, nos pontos em que uma solu c ao n ao coincide com o estremal singular, ela est a na fronteira da admissibilidade, i.e. z (t) = A(t, z (t)) ou z (t) = B (t, z (t)). A m de formular mais presisamente esta id eia denimos a fun c ao de identica c ao : S IR A(t, z ) , (t, z ) E+ (t, z ) := z (t) , z = z (t) (2.14) B (t, z ) , (t, z ) E Estamos agora em condi c oes de formular um resultado que nos permite identicar as solu c oes do problema variacional (2.12) e do problema de controle otimo correspondente.

Teorema 2.3.1 Suponha que G, H , A e B s ao fun co es continuamente diferenci aveis e que as condi co es (h1) e (h2) s ao satisfeitas. Seja a fun ca o de identica ca o denida em (2.14). Se existir uma trajet oria admiss vel z Zad que intercepta o extremal singular z em um ponto de (t0 , t1 ), ent ao a fun ca o z denida por z = (t, z (t)), t [t0 , t1 ] z (t0 ) = z0 , z (t1 ) = z1 e uma trajet oria o tima de (2.12). Demonstra c ao: Suponha z (0) < z0 (o caso z0 < z (0) e an alogo). Seja z uma trajet oria admiss vel qualquer que intercepta z no ponto (t0 , t1 ). Considere agora o problema de valor inicial z = A(t, z (t)), z (t0 ) = z0 .
5

Note que z n ao pertence necessariamente a Zad .

40

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO


6
z0

D z

z (t0 ) z1 t0 1

z
t1

Figura 2.2: Trajet oria admiss vel interceptando o extremal singular Tal problema possui uma solu c ao local, que denominamos z . Como z (t0 ) A(t0 , z (t0 )) = z (t0 ), ent ao z (t) z (t) para t [t0 , t0 + ]. Por hip otese z ( ) = z ( ) ent ao existe 1 (t0 , ] tal que z (1 ) = z (1 ) (veja Figura 2.2). Note ainda que da desigualdade z (t0 ) < z0 = z (t0 ) temos z (t) > z (t), t (t0 , 1 ). Dena agora a fun c ao z por (t) , t [t0 , 1 ) z z (t) , t [1 , ] z (t) := z (t) , t (, t1 ] (t, z (t)), t [1 , ] ;

que e admiss vel por constru c ao. Seja D E+ a regi ao cuja fornteira D e a curva de Jordan formada pelos segmentos (t, z (t)), t [t0 , 1 ] ;

(t, z (t)), t [t0 , 1 ] ;


t0

orientada no sentido anti-hor ario. Como z (t) = z (t), t , temos I (z ) I ( z) = =


D t0

[G(t, z (t)) + H (t, z (t))z (t)] dt [G(t, z ) dt + H (t, z ) dz ] H G (t, z ) dz dt z t

[G(t, z (t)) + H (t, z (t)) z (t)] dt

=
D

(para obter a u ltima igualdade utilizamos a f ormula de Green). Como a hip otese (h2) H ]( t, z ) > 0, para ( t, z ) E , temos ent a o implica que [ G + z t I (z ) I ( z ) > 0,

2.4. CONVEXIDADE I: CONDIC OES SUFICIENTES


6
z0 z1

41

z D z z
-

z (t0 )

t0

t1

Figura 2.3: Trajet oria admiss vel que n ao intercepta o extremal singular quando 1 < . (Caso contr ario obtemos apenas I (z )I ( z ) 0.) Repetindo a argumenta c ao na extremidade t1 do intervalo obtemos I (z ) I ( z ). Para comlpetar a demonstra c ao basta provar para toda trajet oria admiss vel z que n ao intercepta z temos I (z ) I ( z ). Como supomos z (0) < z0 , uma condi c ao necess aria para que exista uma trajet oria admiss vel nessas condi c oes e z (t1 ) < z1 . Temos ent ao
t1

I (z ) I ( z) = =

t0

[G(t, z ) + H (t, z )z ] dt

t1 t0

[G(t, z ) + H (t, z )(z ) ] dt

H G (t, z ) dz dt > 0, z t

onde D e a regi ao situada entre as curvas z e z , conforme a Figura 2.3 Observa c ao 2.3.2 Caso uma das condi c oes de contorno n ao seja fornecida, por exemplo z (t1 ) = z1 , obtemos em seu lugar a condi c ao de contorno natural (veja Observa c ao 1.3.2) Ly (t1 , z (t1 ), z (t1 )) = H (t1 , z (t1 )) = 0. Neste caso, mesmo que a condi c ao H (t1 , z (t1 )) = 0 dena z (t1 ) de forma u nica, e ainda poss vel aplicar o Teorema 2.3.1. 2 2 2 Observa c ao 2.3.3 O Teorema 2.3.1 garante que a trajet oria otima para o problema e da forma bangsingularbang. No caso particular em que o extremal satisfa ca z (t0 ) = z0 ou z (t1 ) = z1 , as trajet orias otimas s ao do tipo singularbang e bangsingular respectivamente. 2 2 2

2.4

Convexidade I: condi c oes sucientes

Continuamos neste par agrafo a analogia iniciada no Par agrafo 2.2 entre os problemas do c alculo variacional e os problemas de controle otimo. Nosso objetivo e mostrar que, sob certas hip oteses de convexidade, a equa c ao de EulerLagrange e uma condi c ao suciente de otimalidade para problemas que n ao possuem restri c oes nas vari aveis de controle.

42

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

onde os tempos inicial e nal t0 , t1 s ao xos, L : [t0 , t1 ] IRn IRm IR, f : [t0 , t1 ] IRn m n n IR IR , z0 , z1 IR s ao dados. O conjunto das trajet orias admiss veis e dado por 1 ([t0 , t1 ]; IRn ) | z (t0 ) = z0 , z (t1 ) = z1 }. Zad := {z C

O leitor atento nota a semelhan ca entre o resultado principal deste par agrafo (Teorema 2.4.1) e o Teorema de condi c oes sucientes 1.1.10. Come camos por considererar o problema de controle otimo t1 L(t, z (t), u(t)) dt Minimizar I ( z, u ) := t0 1 ([t0 , t1 ]; IRn ) ; u C ([t0 , t1 ]; IRm ) ; sujeito a z C (2.15) z (t) = f (t, z, u), t (t0 , t1 ) ; z (t0 ) = z0 , z (t1 ) = z1 ;

Nossa experi encia com problemas variacionais sujeitos a restri c oes lagrangeanas (veja Par agrafo 2.2) sugere que a solu c ao de (2.16) est a relacionada com a minimiza c ao do funcional extendido
t1

Como n ao s ao feitas restri c oes as vari aveis de controle em (2.15), o conjunto dos controles ([t0 , t1 ]; IRm ). admiss veis e simplesmente Uad := C Os candidatos a solu c ao do problema de otimiza c ao restrita (2.15) s ao os processos admiss veis (z, u) Zad Uad . Podemos ent ao considerar o problema (2.15) como um problema variacional com restri c oes lagrangeanas Minimizar I (z, u) sujeito a (z, u) Zad Uad (2.16) G(t, z, u) = f (t, z, u) z = , t (t0 , t1 ) ;

I (z, u, ) :=
t0

L(t, z (t), u(t)) dt,

1 ([t0 , t1 ]; IRn ) onde L(t, z, u) = L(t, z, u) + (t)G(t, z, u) e C e um multiplicador. Denimos agora a fun c ao auxiliar H : [t0 , t1 ] IRn IRm IRn IR (t, z, u, ) , f (t, z, u) + L(t, z, u), denominada fun c ao de Hamilton. Por constru c ao temos L(t, z, u) = H (t, z, u, ) (t)z . A equa c ao de EulerLagrange para o problema variacional irrestrito em I possui uma componente relativa a z e outra a u.6 Temos assim d [L + G]z = [L + G]z dt
6

d [L + G]u = [L + G]u . dt

A componente da equa c ao de EulerLagrange relativa ao multiplicador e simplesmente a restri c ao G(t, z, u) do problema (2.16), como o leitor pode facilmente vericar.

2.4. CONVEXIDADE I: CONDIC OES SUFICIENTES Utilizando a deni c ao de H , podemos reescrever as equa c oes acima na forma (t) = Hz (t, z, u, ) e = Hu (t, z, u, ).

43

Note ainda que a equa c ao de evolu c ao do problema (2.15), z = f (t, z, u), (que corresponde a restri c ao lagrangeana do problema (2.16)) pode ser reescrita como z = H (t, z, u, ). Observe que as condi c oes de WeierstraErdmann, que dizem respeito a continuidade das aplica c oes Lz (t, z, u) = (t) e Lu (t, z, u) = ,

s ao trivialmente satisfeitas devido as hip oteses de regularidade do multiplicador . A pergunta que investigamos neste par agrafo e a seguinte: As condi c oes z (t) = H (t, z, u, ), (t) = Hz (t, z, u, ) e Hu (t, z, u, ) =

s ao sucientes para caracterizar um m nimo local (ou global) do problema (2.15)? A resposta e sim, desde que fa camos hip otesees adequadas sobre a convexidade da fun c ao de Hamilton. No Par agrafo 2.5 investigamos a necessidade destas mesmas condi c oes. O desenvolvimento conduzido neste par agrafo utilisa apenas argumentos elementares de an alise real, devido ao fato de supormos convexidade parcial da fun c ao de Hamilton, em rela c ao as vari aveis z e u. No cap tulo seguinte analisamos o papel das condi c oes acima em problemas de controle gen ericos. Teorema 2.4.1 Seja L C 1 ([t0 , t1 ] IRn IRm ; IR), f C 1 ([t0 , t1 ] IRn IRm ; IRn ). Suponha que a fun ca o de Hamilton H satisfaz H (t, z + v, u + w, ) H (t, z, u, ) Hz (t, z, u, ) v + Hu (t, z, u, ) w, v IRn , w IRm (2.17) em [t0 , t1 ] IRn IRm IRn . S ao verdadeiras as arma co es: ) C 1 ([t0 , t1 ]; IRn ) C ([t0 , t1 ]; IRm ) C 1 ([t0 , t1 ]; IRn ) a) Se ( z, u , e solu ca o de z (t) = H (t, z, u, ), (t) = Hz (t, z, u, ), Hu (t, z, u, ) = , t (t0 , t1 ), z (t0 ) = z0 , z (t1 ) = z1 , (2.18)

ent ao ( z, u ) e m nimo global de I em Zad Uad sujeito a restri ca o lagrangeana G(t, z, u) = f (t, z, u) z = , t [t0 , t1 ].

Demonstra c ao: Da hip otese (2.18) segue imediatamente que ( z, u ) Zad Uad e ainda que G(t, z , u ) em [t0 , t1 ]. Seja (z, u) Zad Uad um processo admiss vel satisfazendo a

b) Caso a igualdade em (2.17) ocorra sse |v ||w| = 0, ent ao o processo ( z, u ) no tem (b) e ou nico m nimo global de I em Zad Uad .

44

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

restri c ao G(t, z, u) . Temos ent ao ) I ( ) I (z, u) I ( z, u ) = I (z, u, z, u ,


t1

=
t0 t1

) H (t, z ) (t)(z (t) z [H (t, z, u, , u , (t))] dt )(z z )(u u (z z [Hz (t, z , u , ) + Hu (t, z , u , ) ) ] dt (2.19) (z z (z z [ ) ) ] dt

t0 t1 t0

1 (z z = [ )]t t0 = 0,

provando o tem (a). Para provar o tem (b), basta observar que se (z, u) = ( z, u ) e outro processo admiss vel satisfazendo a restri c ao G(t, z, u) , ent ao (2.19) e obtida com desigualdade estrita, provando assim que I (z, u) I ( z, u ) > 0. Observa c ao 2.4.2 Caso a condi c ao de contorno z (t1 ) = z1 n ao seja fornecida, o conjunto 1 das trajet orias admiss veis correspondente e Zad := {z C ([t0 , t1 ]; IRn ) | z (t0 ) = z0 } e o Teorema 2.4.1 continua v alido se substituimos a condi c ao de contorno z (t1 ) = z1 em (2.18) pela condi c ao natural (t1 ) = . Analogamente, se a condi c ao de contorno nal para o problema (2.15) for da forma (z (t1 )) = , onde a aplica c ao : IRn IRp satisfaz = , o conjunto das trajet orias n 1 admiss veis correspondente e Zad := {z C ([t0 , t1 ]; IR )| z (t0 ) = z0 , (z (t1 )) = }. Neste caso o Teorema 2.4.1 continua v alido se substituimos a condi c ao z (t1 ) = z1 em (2.18) pela condi c ao natural de transversalidade (t1 ) = z (z (t1 )) para IRp e pela exig encia que (z ) : IRn IR seja uma fun c ao convexa. De fato, Se (z, u) Zad Uad satisfaz G(t, z, u) , denimos I (z, u, , ) := I (z, u, ) + (z (t1 )) e obtemos ) I ( ) I (z, u) I ( z, u ) = I (z, u, , z, u , , (z z [ )]t1 + (z (t1 )) ( z (t1 ))
t0

1 (z z [ )]t z (t1 )) [z (t1 ) z (t1 )] t0 + z ( (t1 ) + z ( = [ z (t1 ))] [z (t1 ) z (t1 )] = 0.

Para obter a u ltima das desigualdade acima usamos a convexidade de (z ). Note que IRp e o multiplicador associado com a restri c ao (z (t1 )) = . 2 2 2 Das hip oteses do Teorema 2.4.1 conclu mos que, xados os valores de t, z , , a fun c ao H (t, z, , ) : IRm IR e convexa, no sentido da Deni c ao 1.1.8. De fato, tomando v = em (2.17) temos H (t, z, u + w, ) H (t, z, u, ) Hu (t, z, u, ) w, u, w IRm . (t)) = , t (t0 , t1 ) em (2.18) Logo, uma conseq u encia da condi c ao Hu (t, z (t), u (t), e que u (t) e um m nimo local de H (t, z (t), , (t)) para cada t (t0 , t1 ), fato que pode ser escrito

2.5. CONVEXIDADE II: CONDIC OES NECESSARIAS na forma (t)) = min {H (t, z (t))}, t (t0 , t1 ). H (t, z (t), u (t), (t), u, m
uI R

45

(2.20)

A condi c ao expressa em (2.20), que e conseq u encia do pacote de condi c oes sucientes (2.18), e extremamente importante na teoria de controle otimo. No Par agrafo 2.5, ainda utilizando a hip otese de convexidade parcial da fun c ao de Hamilton, provamos que esta condi c ao e tamb em necess aria para otimalidade de solu c oes do problema 2.15. A verica c ao da necessidade dessa condi c ao no caso geral e tecnicamente mais complicada e e discutida no Cap tulo 3. A condi c ao (2.20) e denominada condi c ao de m aximo ou de otimalidade, apesar de ser aqui apresentada na forma de m nimo. Isto, entretanto, se deve t ao somente a natureza do problema de controle otimo a ser estudado, cujo objetivo pode ser tanto maximizar quanto minimizar o funcional I .

2.5

Convexidade II: condi c oes necess arias

Vericamos neste par agrafo que as condi c oes propostas em (2.18) e em especial a condi c ao de m aximo (2.20) s ao, sob hip oteses adequadas, necess arias para otimalidade de solu c oes do problema de controle otimo (2.15). Como nos problemas variacionais restritos, as condi c oes necess arias s ao obtidas utilizando um teorema de multiplicadores. Suponha que, xados (t, z, ) IR IRn IRn , a aplica c ao H (t, z, , ) : IRm IR e convexa (utilizamos a nota c ao do Par agrafo 2.4). Seja ( z, u ) Yad Uad um processo otimo para o problema (2.15). O teorema de multiplicadores de Lagrange garante a exist encia de C ) 1 ([t0 , t1 ]; IRn ) tal que ( z, u , e m nimo local do funcional I . 0 C 1 , sabemos que a 1 C Dada uma tripla qualquer de fun c oes teste (1 , 2 , 3 ) C 0 0 varia c ao ; 1 , 2 , 3 ) = I ( z, u , =
t0 t1 t0 t1

z ) + 2 (Lu + f u ) + 3 (f z [1 (Lz + f )] dt 1 z + ) + 2 (Lu + f u ) + 3 (f z [1 (Lz + f )] dt

1 [t0 , t1 ] qualquer, obtemos sempre se anula. Sendo assim, escolhendo 1 = 2 e 3 C 0 a equa c ao de estado z (t) = f (t, z , u ), t (t0 , t1 ). 0 [t0 , t1 ] qualquer e 2 , obtemos a equa Tomando 1 C c ao adjunta = Lz (t, z z (t, z , u ) f , u ), t (t0 , t1 ). 0 [t0 , t1 ] qualquer, obtemos a equa Tomando agora 2 C c ao de otimalidade u (t, z ), t (t0 , t1 ). = Lu (t, z , u ) + f , u ) = Hu (t, z , u ,

46

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

Como z satisfaz por constru c ao as condi c oes de contorno do problema (2.15), conclu mos que ( z, u , lbd) satisfazem (2.18). A condi c ao de m aximo (2.20) e portanto satisfeita para o controle otimo u . Podemos resumir a argumenta c ao acima na forma do seguinte teorema: Teorema 2.5.1 (Princ pio do M aximo) Sejam L e f aplica co es continuamente diferenn ci aveis, t0 < t1 xos, z0 , z1 IR dados. Suponha ainda que a fun ca o de Hamilton H e convexa na vari avel u. Se ( z, u ) e um m nimo local fraco de I em Yad Uad , sujeito a C 1 ([t0 , t1 ]; IRn ) restri ca o G(t, z, u) := f (t, z, y ) z , ent ao existe um multiplicador tal que z (t) = H (t, z, u, ), (t) = Hz (t, z, u, ), t (t0 , t1 ), z (t0 ) = z0 , z (t1 ) = z1 , e ainda, o controle o timo u satisfaz a condi ca o de m aximo
uI R

(t)) = min {H (t, z (t))}, t (t0 , t1 ). H (t, z (t), u (t), (t), u, m Demonstra c ao: Veja acima.

2.6

Exerc cios

2.1 Verique os detalhes da demonstra c ao do Teorema 2.2.7. 2.2 Considere o problema Minimizar I (z, u) := s.a. z = u, t (0, 1); z (0) = z (1) = 0.
1

(u(t) + 1)dt
0

[0, 1] que satisfaz Mostre que cada controle u C 2.3 Encontre a solu c ao do problema

1 0 u(t)dt

= 0, e otimo para o problema.

1 [z (t) 2t + 1]2 dt Minimizar I ( z, u ) := 0 s.a. z = u, t (0, 1); z (0) = z (1) = 0; z (t) 0.

2.6. EXERC ICIOS 2.4 Considere o problema escalar Minimizar

47

1 0

[3z (t)2 + u(t)2 ]dt

a) Obtenha o problema variacional correspondente. c) Determine o controle otimo.

s.a. z = z + u, t (0, 1), z (0) = 1.

b) Encontre a equa c ao de EulerLagrange e as condi c oes de contorno correspondentes.

48

CAP ITULO 2. PROBLEMAS VARIACIONAIS E CONTROLE OTIMO

Cap tulo 3

Princ pio do M aximo de Pontryagin


Neste cap tulo e analisado um conjunto de condi c oes necess arias de otimalidade para problemas de controle otimo. Tal resultado e conhecido na literatura como princ pio do 1 m aximo e pode ser interpretado como um teorema de multiplicadores de Lagrange em espa cos de dimen c ao innita. No Par agrafo 2.5, sob hip oteses adicionais de convexidade, obtivemos uma vers ao simplicada do princ pio do m aximo utilizando argumentos elementares de an alise. Como foi visto, a condi c ao de m aximo (2.20) pode ser obtida diretamente a partir da equa c ao de Euler Lagrange. No caso geral (sem a hip otese de convexidade da Hamiltoniana) a demonstra c ao da necessidade da condi c ao de m aximo e mais complexa e necessita de resultados provenientes da teoria de otimiza c ao em espa cos de dimen c ao innita. consulte o Ap endice A). A autoria do princ pio do m aximo e controversa. A maioria dos autores credita o resultado ao grupo liderado pelo matem atico russo L.S. Pontryagin (1956). Entretanto, tal condi c ao pode ser encontrada em um texto anterior, por em pouco divulgado, de M.R. Hestenes (1950). Para maiores detalhes consulte [He1], [PBG], assim como as refer encias em [He2]. No Par agrafo 3.1 apresentamos o princ pio do m aximo para problemas de controle otimo com horizonte nito. Algumas variantes do teorema, correspondentes a diferentes tipos de condi c oes de contorno, s ao analisadas. No Par agrafo 3.2 consideramos o princ pio do m aximo para problemas com horizonte innito. No Par agrafo 3.3 s ao discutidas condi c oes necess arias para problemas impulsivos (que admitem trajet orias discont nuas). No Par agrafo 3.4 s ao discutidas diversas aplica c oes, onde o princ pio do m aximo e utilizado na identica c ao de processos otimos.

3.1

Problemas com Horizonte Finito

Come camos por apresentar uma formula c ao bastante geral para os problemas de controle otimo com horizonte nito. Considere o problema de controle
1

Tamb em conhecido como princ pio do m nimo, ou princ pio de Pontryagin.

49

50

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN Minimizar J (z, u) := L1 (t1 , z (t1 )) + sujeito a
t0 t1

L(t, z (t), u(t)) dt


t0

P (t0 , z0 )

onde

t1 t0 ; u L1 ([t0 , t1 ]; IRm ), u(t) q.s. em [t0 , t1 ] ; t f (s, z (s), u(s)) ds, t [t0 , t1 ] ; (t1 , z (t1 )) = z (t) = z0 + f : [t0 , ) IRn IRm IRn , : [t0 , ) IRn IRp L : [t0 , ) IRn IRm IR, L1 : [t0 , ) IRn IR,

e IRm . O tempo inicial t0 e a condi c ao inicial z0 s ao fornecidos, enquanto que o tempo nal t1 e/ou a condi c ao nal podem ser ou n ao conhecidos. Por analogia ao c alculo variacional, tal problema e denominado problema de Bolza. Caso a fun c ao objetivo seja da forma
t1

J (z, u) :=
t0

L(t, z (t), u(t)) dt,

o problema e denominado problema de Lagrange. Uma terceira variante s ao os problemas de Mayer, em que a fun ca o objetivo e da forma J (z, u) := L1 (t1 , z (t1 )). A denomina c ao aqui empregada corresponde a utilizada no cl assico c alculo de varia c oes. As tr es formula c oes acima s ao equivalentes, no sentido de que um mesmo problema de controle otimo pode sempre ser colocado em qualquer uma das formas acima. Note que o fato da din amica do sistema ser descrita por uma equa c ao integral, ao inv es de diferencial, nos permite considerar trajet orias admiss veis menos regulares. O conjunto das estrat egias de controle admiss veis e
m Uad := L1 loc ([0, ); IR ),

de forma que as trajet orias correspondentes s ao fun c oes absolutamente cont nuas em [t0 , t1 ]. Deni c ao 3.1.1 Sejam f , L as fun c oes denidas acima. A aplica c ao H : [t0 , ) IRn IRn IRm IR,

(t, z, , u)

, f (t, z, u) + L(t, z, u).

e denominada fun c ao de Hamilton (note que a or gem da constante precisa ainda ser esclarecida). 2 2 2 Os problemas P (t0 , z0 ) podem ser divididos em dois tipos: problemas com tempo nal xo (t1 = T conhecido) ou com tempo nal desconhecido. A demonstrac c ao do princ pio do m aximo para os problemas do primeiro tipo e ligeiramente mais simples e pode ser encontrada e.g. em [Tr, Teorema 11.8] (somente caso aut onomo). Uma demonstra c ao t bastante compreens vel para problemas de tempo otimo (i.e., do tipo J (z, u) = t01 dt) aut onomos com din amica linear pode ainda ser encontrada em [Ho, Cap tulo 9].

3.1. PROBLEMAS COM HORIZONTE FINITO

51

No teorema a seguir apresentamos o princ pio do m aximo. Por ser longa e t ecnica, a demonstra c ao e deixada para o Cap tulo 4. A argumenta c ao utilizada na demontra c ao segue a linha das notas de aula de M. Brokate (veja [Br]). Uma compara c ao com a demonstra c ao proposta por W. Fleming e R. Rishel (veja [FlRi, Cap tulo 2]) e inevit avel: os autores tamb em utilizam um problema (auxiliar) abstrato de otimiza c ao para obter as condi c oes necess arias para otimalidade. Como refer encias auxiliares o leitor pode consultar as refer encias cl assicas [PBG], [He1], [Ber], [Bo] ou ainda os textos modernos [FlRi], [Know], [LiYo], [MaSt], [Tr], [Za]. Teorema 3.1.2 Suponha que L, f s ao aplica co es C 2 e que L1 , s ao C 1 . Se (z , u , t 1) ao e uma solu ca o do problema P (t0 , z0 ) com z (t1 , z (t1 )) = e (L1 )z (t1 , z (t1 )) = , ent n p ] IR e constantes 0 , IR que satisfazem: existe uma fun ca o : [t0 , t 1 i) Equa ca o de estado
t t0

z (t) = z0 + ii) Equa ca o adjunta (t) = 1 + 1

f (s, z (s), u (s)) ds, t [t0 , t 1] ;

H (s, z (s), (s), u (s)) ds, t [t0 , t 1 ], z t := L1 (t , z (t 1 )) z (t1 , z (t1 )) ; z 1

t 1

iii) Equa ca o de evolu ca o da fun ca o de Hamilton H (t, z (t), (t), u (t)) = H1 iv) Condi ca o de otimalidade H1 := L1 (t t 1 , z (t1 )) +
t 1 t

H (s, z (s), (s), u (s)) ds, t [t0 , t 1 ], t

t (t1 , z (t1 )), ;

H (t, z (t), (t), u (t)) = min H (t, z (t), (t), u), q.s. em [t0 , t 1] ;
u

Demonstra c ao: Veja Cap tulo 4.

v) Condi ca o de n ao acoplamento + || = 0.

A demonstra c ao do Teorema 3.1.2 se constitui na aplica c ao de um teorema de multiplicadores a um problema auxiliar, obtido de P (t0 , z0 ) por uma mudan ca de vari aveis denominada transforma c ao no tempo e cuja solubilidade est a relacionada ` a de P (t0 , z0 ). As constantes e surgem na demonstra c ao como componentes de um vetor normal a um hiperplano, que separa conjuntos de n vel associados a fun c ao objetivo J e a condi c ao nal (t, z (t)) = .

52

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN

Observa c ao 3.1.3 A denomina c ao princ pio do m aximo e motivada pelo tem iv) do Teorema 3.1.2, que, entretanto, se refere ` a determina c ao de um m nimo. Este fato se deve ` a escolha do sinal do multiplicador de Lagrange 0. Tal escolha e arbitr aria e a formula c ao do teorema com 0 altera o min da condi c ao iv) para um max. Sem d uvida, as condi c oes mais interessantes do Teorema 3.1.2 s ao z = H (t, z, , u), z (t0 ) = z0 , (t1 , z (t1 )) = 0, = Hz (t, z, , u), (t1 ) = L1 (t1 , z (t1 )) (t1 , z (t1 )) ; z z H (t, z, , u) = min H (t, z (t), (t), w), q.s. em [t0 , t1 ].
w

Note que o par (z, ) e solu c ao de um sistema Hamiltoniano para a fun c ao H . Os problemas em que o multiplicador escalar assume o valor zero s ao denominados anormais. Neste caso o controle otimo fornecido pela condi c ao de m aximo n ao depende da fun c ao objetivo, mas somente das restri c oes do problema de otimiza c ao. 2 2 2 Observa c ao 3.1.4 Analogamente aos problemas variacionais, os problemas de controle timo tamb o em podem ser formulados com diferentes tipos de condi c oes de contorno. A cada um destes tipos corresponde uma variante do Teorema 3.1.2, que se diferencia deste apenas pelas condi c oes de contorno para a vari avel adjunta e para a fun c ao de Hamilton. Enunciamos a seguir algumas variantes do problema P (t0 , z0 ) que surgem com maior frequ encia em aplica c oes. Apresentamos ainda as condi c oes de contorno correspondentes (condi c oes naturais de contorno). Considere o problema P (t0 , z0 ) com t1 xo (t1 > t0 ) e L1 (problema de Lagrange). Se a condi c ao nal e xada (z (t1 ) = z1 ) n ao h a nenhuma condi c ao para (t1 ) (corresponde a escolha (t, z ) := (t t1 , z z1 ) IR2 ).

Se a condi c ao nal e da forma: z (t1 ) z1 (no caso escalar) a vari avel adjunta satisfaz: (t1 ) 0 e a igualdade ocorre quando z (t1 ) > z1 . Considere agora o problema P (t0 , z0 ) com t1 livre e L1 . Neste caso as condi c oes para (t1 ) discutidas acima n ao se alteram e, al em disso, H (t1 , z (t1 ), (t1 ), u(t1 )) = 0.

Se a condi c ao nal e livre (z (t1 ) qualquer) a vari avel adjunta satisfaz (t1 ) = (corresponde a escolha (t, z ) := t t1 IR).

Esta equa c ao extra corresponde a vari avel adicional do problema: o tempo nal desconhecido t1 (t0 , ). 2 2 2 O princ pio do m aximo pode, em alguns casos, ser utilizado para efetivamente determinar uma solu c ao do problema P (t0 , z0 ). Para tanto, aplica-se a seguinte estrat egia: Inicialmente a condi c ao de m aximo e usada para explicitar o controle o timo u em fun c ao das vari aveis z e . Obtemos assim u() = U (, z (), ()).

3.1. PROBLEMAS COM HORIZONTE FINITO 1. Estime 0 := (t0 ) e ; 2. Resolva o problema de valor inicial z = + H (t, z, , 1, U (t, z, )), z (t0 ) = z0 , = H (t, z, , 1, U (t, z, )), (t0 ) = 0 ; z

53

3. Aprimore a estimativa (e.g. atrav es do m etodo de Newton) com o objetivo de satisfazer as equa c~ oes (t1 , z (t1 )) = 0, 4. Retorne ao passo 2. Figura 3.1: Algoritmo do m etodo de shooting para resolver um sistema Hamiltoniano. O passo seguinte consiste em substituir esta express ao no sistema Hamiltoniano (veja Observa c ao 3.1.3), eliminando deste a vari avel u. Obtemos assim z = H H (t, z, , U ), z (t0 ) = z0 , (t1 , z (t1 )) = 0 ; L1 (t1 , z (t1 )) (t1 , z (t1 )) ; = Hz (t, z, , U ), (t1 ) = z z H = (t, z, , U ), t L1 H (t1 , z (t1 ), (t1 ), U (t1 )) = (t1 , z (t1 )) + (t1 , z (t1 )), t t (3.1) (3.2) (3.3) (t1 ) = L1 (t1 , z (t1 )) (t1 , z (t1 )) ; z z

Resolvendo este sistema, obtemos um candidato a solu c ao do problema P (t0 , z0 ). Nem sempre e vi avel aplicar tal abordagem, pois em certos problemas n ao e poss vel obter a representa c ao U (, z, ) para o controle otimo (e.g., o extremal singular no Par agrafo 2.3). O sistema resultante de (3.1), (3.2), (3.3) pela substitui c ao u() = U (, z, ) pode ser resolvido por um m etodo do tipo shooting, conforme o esquema na Figura 3.1 (neste esquema aplicamos o Teorema 3.1.2 com = 1). Observa c ao 3.1.5 O problema de valor de contorno (3.1), (3.2), (3.3) possui, tomando o controle u xo, 2n + 1 vari aveis (z, , H ) e p + 1 par ametros (, ). Temos assim 2n + p + 2 graus de liberdade, os quais est ao sujeitos a 2n + p + 1 equa c oes. Aparentemente temos um grau de liberdade a mais. Note por em que a condi c ao de n ao acoplamento v) garante que e n ao s ao ambos nulos. Logo, e sempre poss vel simplicar o sistema (3.1), (3.2), (3.3) em rela c ao a ou a uma das componentes de . Sendo assim, o Teorema 3.1.2 pode ser formulado alternativamente como:
n p . . . existem : [t0 , t 1 ] IR , = 0 ou = 1, IR que satisfazem i), . . . , v).

54

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN 2 2 2

simples vericar que a equa Observa c ao 3.1.6 E c ao de EulerLagrange do c alculo variacional pode ser obtida a partir do princ pio do m aximo. De fato, o problema variacional de minimiza c ao (1.2) pode ser interpretado como b L(t, z (t), u(t)) dt Minimzar J (z, u) := a sujeito a z = u(t). Logo, a condi c ao de m aximo iv) do Teorema 3.1.2 implica em 0 = e, portanto, = L (t, z , u ). u (3.4) L H (t, z , , u ) = [ , u + L(t, z , u )] = + (t, z , u ) u u u

De (3.4) e (3.5) temos

O sistema Hamiltoniano para as vari aveis de estado e adjunta se escreve dz = + H = u dt d = H = L (t, z , u ) dt z z L d (t, z , u ) = z dt L (t, z , u ) u = 0,

(3.5)

ou

L d (t, z , (z ) ) z dt

L (t, z , (z ) ) z

que e a equa c ao de Euler-Lagrange.

2 2 2

3.2

Problemas com Horizonte Innito

Analisamos neste par agrafo condi c oes necess arias para problemas de controle otimo com horizonte innito. Os problemas de controle desta natureza tem ganho import ancia nas u ltimas d ecadas devido aos modelos de problemas oriundos das ci encias econ omicas e biol ogicas que os utilizam. Os primeiros trabalhos a tratar de problemas de controle com horizonte innito s ao devidos aos economistas. Uma refer encia cl assica e o artigo escrito em 1928 por F. Ramsey (veja [Ra]), que discute modelos para problemas do tipo consumo investimento (veja Aplica c ao 3.4.3). A primeira exten c ao do princ pio do m aximo para problemas com horizonte innito foi apresentada por H. Halkin em 1964 (veja [Ha]); todavia, a caracteriza c ao

3.2. PROBLEMAS COM HORIZONTE INFINITO

55

de otimalidade proposta neste trabalho e deveras restritiva. Um detalhado resumo do desenvolvimento da teoria pode ser encontrado em [CaHa]. Uma abordagem mais recente e encontrada em [BaCa]; entretanto, somente problemas aut onomos s ao considerados. Na abordagem aqui apresentada, seguimos os passos descritos em [Leit], que trata problemas com horizonte innito n ao aut onomos e utiliza um conceito de otimalidade (diferente dos encontrados em [Ha] e [CaHa]) que extende de forma natural o conceito usado em problemas com horizonte nito. In umeros modelos econ omicos (de horizonte nito e innito) s ao tratados, sob a otica do controle otimo e programa c ao din amica, em [SeSy]. Entre outros, s ao analisados problemas de explora c ao de recursos naturais. O leitor interessado em aplica c oes desta natureza deve consultar ainda [SeZh]. Aplica c oes a modelos biol ogicos podem ser encontradas em [Cl]. Um interessante problema relacionado com a explora c ao otima de recursos naturais renov aveis (pescaria otima) e analisado em [CCM] e [BaLe] (veja Aplica c ao 3.4.4). Antes de discutirmos os problemas com horizonte innito, analisamos um problema auxiliar com horizonte nito. Trata-se de um caso particular do problema abordado no Par agrafo 3.1, a saber, problemas de controle otimo com tempo nal xo. As condi c oes necess arias para este problema auxiliar s ao utilizadas na demonstra c ao do princ pio do m aximo para os problemas com horizonte innito. Suponha que no problema P (t0 , z0 ), o tempo nal t1 = T e o estado nal z1 = zT s ao dados. Temos assim o seguinte problema de controle otimo: T L(t, z (t), u(t)) dt Minimizar J ( z, u ) := 0 sujeito a PT (z0 ) t z (t) = z0 + f (s, z (s), u(s)) ds, t [0, T ], z (T ) = zT ; 0 u L1 ([0, T ]; IRm ), u(t) q.s. em [0, T ] ; Argumentando como na Observa c ao 3.1.4, obtemos o seguinte conjunto de condi c oes necess arias para otimalidade de uma solu c ao do problema PT (z0 ): Corol ario 3.2.1 Suponha que L, f s ao aplica co es C 2 . Se (z , u ) e uma solu ca o do problema PT (z0 ), ent ao existe uma fun ca o : [0, T ] IRn e = 1 ou = 0 que satisfazem

i) Sistema Hamiltoniano (z ) (t) = H (t, z , , u ), q.s. em [0, T ], (t) = Hz (t, z , , u ), q.s. em [0, T ], z (t0 ) = z0 , z (T ) = zT ; ii) Condi ca o de otimalidade
u

H (t, z (t), (t), u (t)) = min H (t, z (t), (t), u), q.s. em [0, T ] ; iii) Condi ca o de n ao acoplamento +

= 0.

Demonstra c ao: Segue imediatamente do Teorema 3.1.2 e da Observa c ao 3.1.4.

56

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN

onde as fun c oes L : Rn IRn IR, f : Rn IRn IRn , o conjunto IRm e a constante > 0 s ao dados. O resultado a seguir fornece condi c oes necess arias para otimalidade de uma solu c ao de P (z0 ). Teorema 3.2.2 Suponha que L, f s ao aplica co es C 2 . Se (z , u ) e uma solu ca o de P (z0 ), n ent ao existe uma aplica ca o : [0, ) IR e constantes = 0 ou = 1, 0 IRn que satisfazem: i) Equa ca o de estado z (t) = z0 +
0 t

Analisamos agora os problemas com horizonte innito. Considere o seguinte problema de controle otimo: Minimizar J (z, u) := et L(z (t), u(t)) dt 0 sujeito a P (z0 ) t f (z (s), u(s)) ds, t [0, ) ; z ( t ) = z + 0 0 m u L1 loc ([0, ); IR ), u(t) q.s. em [0, ) ;

f (s, z (s), u (s)) ds, t [0, ) ;

ii) Equa ca o adjunta


t

(t) = 0 +
0

H (s, z (s), (s), u (s)) ds, t [0, ) ; z

iii) Condi ca o de otimalidade H (t, z (t), (t), u (t)) = min H (t, z (t), (t), u), q.s. em [0, ).
u

onde Tk . Como conseq u encia do princ pio de otimalidade de Bellman (veja [Leit]), temos que (z , u )|[0,Tk ] e uma solu c ao de PTk (z0 ). Juntando os fatos, podemos garantir a exist encia de k 0, k : [0, Tk ] IRn tal que

Demonstra c ao: Seja (z , u ) um processo otimo para P (z0 ). Dado T > 0, as fun c oes n m n m t e L : [0, T ] IR IR e f : [0, T ] IR IR satisfazem as condi c oes do Corol ario 3.2.1. Logo, obtemos deste corol ario condi c oes necess arias para otimalidade de cada um dos problemas Tk Minimizar J (z, u) := et L(t, z (t), u(t)) dt 0 sujeito a PTk (z0 ) t f (s, z (s), u(s)) ds, t [0, Tk ], z (Tk ) = zk := z (Tk ) ; z ( t ) = z + 0 0 u L1 ([0, Tk ]; IRm ), u(t) q.s. em [0, Tk ] ;

3.3. PROBLEMAS IMPULSIVOS k

57

+ k > 0 ;

(z , k ) e solu c ao do sistema Hamiltoniano2 dz (t) = dk (t) = Hx (t, z (t), k (t), u (t)) dt, t [0, Tk ] z (0) = z0 , z (Tk ) = zk ; H (t, z (t), k (t), u (t)) dt, t [0, Tk ]

H (t, z (t), k (t), u (t)) = max{H (t, z (t), k (t), u)}, q.s. in [0, Tk ].
u

Considere agora a sequ encia {k (0), k }kIN . Normalizando os multiplicadores de Lagrange, podemos supor que |k (0)| + k = 1, k IN. Tomando subsequ encias (se necess ario) n podemos garantir a exist encia de 0 IR e 0 satisfazendo |0 | + = 1, lim k (0) = 0 , lim k = .
k k

(3.6)

Seja agora T > 0 xo. Logo Tk > T , para k > k0 e como o sistema Hamiltoniano desfruta da propriedade de dep endencia cont nua das condi c oes iniciais, podemos garantir que existe n : [0, T ] IR , tal que k converge uniformemente para em [0, T ]. Essa converg encia implica nas desejadas condi c oes de otimalidade para o problema P (x0 ), uma vez que T > 0 e arbitr ario. Duas diferen cas b asicas devem ser observadas na formula c ao do Teorema 3.2.2 em rela c ao ao Teorema 3.1.2: i) Falta uma condi c ao de contorno nal para a vari avel adjunta (eventualmente uma condi c ao de decaimento do tipo lim (t) = ); ii) Falta a condi c ao de n ao acoplamento (neste caso + |0 | = 0).
t

Observa c ao 3.2.3 Uma an alise dos problemas (com horizonte innito) com din amica linear e custo quadr atico pode ser feita, alternativamente, utilizando-se programa c ao din amica. Atrav es de um processo de limite, e poss vel obter a fun c ao valor resolvendo-se a equa c ao alg ebrica de Riccati (veja [So, Cap tulo 7]). Uma vez conhecida a fun c ao valor, a vari avel V (t, x)) e o controle otimo e obtido atrav es da adjunta3 pode ser calculada ((t) = x condi c ao de otimalidade. 2 2 2

3.3

Problemas Impulsivos

Apresentamos neste par agrafo uma variante do princ pio do m aximo para problemas com controle impulsivos. Neste tipo de problema, s ao permitidos saltos (discontinuidades) nas trajet orias admiss veis. Considere o problema impulsivo de controle otimo
2 3

Note que H (t, z, k , u) = k , F (t, z, u) + k L(t, z, u). A vari avel adjunta corresponde ` a derivada parcial da fun c ao valor em rela c ao a vari avel de estado.

58

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN et f0 (t, z (t), u(t)) dt + Minimizar J ( z, u, ) := 0 sujeito a dz (t) = f (t, z (t), u(t))dt + g(t)(dt), t [0, ) ; z (0) = z ; u(t) q.s. em [0, ) ; 0 ;
0

et g0 (t)(dt)
[0,)

P I (x0 )

onde as fun c oes f0 : [0, ) IRn IRm IR, f : [0, ) IRn IRm IRn , g0 , g : [0, ) IR, o conjunto IRn e a taxa de desconto > 0 s ao dados. Os controles admiss veis s ao pares do tipo (u, ). A componente convencional do controle, u, e uma fun c ao mensur avel satisfazendo a restri c ao u(t) q.s. com respeito a medida de Lebesgue. A componente impulsiva do controle, , corresponde a uma medida de Borel n ao negativa. Consideramos o problema impulsivo P I (x0 ) sob as seguintes hip oteses: H1) Existe K1 > 0 tal que para todo t [0, ), u |f0 (t, x, u) f0 (t, y, u)| + |f (t, x, u) f (t, y, u)| K1 |x y |, x, y IRn ; H2) f (, x, ), f0 (, x, ) s ao L B mensur aveis, g() e g0 () s ao Lmensur aveis; H3) Existe K2 > 0 tal que para todo t [0, T ] e u |f (t, x, u)| + |f0 (t, x, u)| K3 (1 + |x|), x IRn ; H4) As fun c oes f (t, , u), f0 (t, , u) s ao continuamente diferenci aveis para todo t [0, ), u . A aplica c ao (t, x, u) (f0,x (t, x, u), fx (t, x, u)) H5) e fechado.

e cont nua em [0, ) IRn ;

O teorema a seguir deriva do resultado discutido em [BLS1]. Este, por sua vez, e a generaliza c ao para horizonte innito do resultado obtido por R. Rishel para horizonte nito em 1965 (veja [Ri, Teorema 4]). A verica c ao do teorema a seguir segue essencialmente a linha de demonstra c ao do Teorema 3.2.2, utilizando como argumentos principais: princ pio de otimalidade de Bellman (para problemas impulsivos); depend encia cont nua de condi c oes iniciais para solu c oes do sistema Hamiltoniano. importante ressaltar que em [BLS1] s E ao considerados problemas P I (x0 ) com g0 = g0 (t, x) e g = g(t, x), enquanto que em [Ri] s ao tratados problemas impulsivos com horizonte nito e g0 = g0 (t), g = g(t). e um processo o timo para P I (z0 ). Ent ao existem Teorema 3.3.1 Suponha que (z, u, ) + ([0, ); IRn ) tais que constantes = 1 ou = 0, 0 IRn e uma fun ca o BVloc i) O par (z, ) e solu ca o do sistema Hamiltoniano dz (t) = f (t, z (t), u(t))dt + (dt) d(t) = fz (t, z (t), u(t))(t)dt et f0,z (t, z (t), u(t))dt z (0) = z0 , (0) = 0 ;

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO vericada a condi ii) E ca o de otimalidade f (t, z (t), u(t)), (t) + et f0 (t, z (t), u(t)) = max{ f (t, z (t), u), (t) + et f0 (t, z (t), u)} q.s. ;
u

59

vericada a condi iii) E ca o de salto g(t), (t) + et g0 (t) 0, q.s. Demonstra c ao: Veja [BLS1, Teorema 6]. Uma an alise detalhada dos problemas impulsivos P I (x0 ), assim como a demonstra c ao do Teorema 3.3.1, requer boa dose de conhecimentos sobre teoria de medida de Lebesgue e an alise convexa, que est ao al em do escopo deste manuscrito. Entretanto, os argumentos principais utilizados na demonstra c ao do princ pio do m aximo se assemelham aos utilizados na demonstra c ao do resultado an alogo para problemas com controles regulares (mensur aveis). Nosso interesse pelos problemas impulsivos (com horizonte innito) e justicado pela import ancia das aplica c oes destes a modelos econ omicos e biol ogicos, em que as trajet orias otimas s ao sabidamente discont nuas. Um exemplo da utiliza c ao do Teorema 3.3.1 na detec c ao de trajet orias otimas e apresentado na Aplica c ao 3.4.4 (veja ainda [BaLe]). Maiores detalhes sobre condi c oes necess arias para problemas impulsivos com horizonte nito podem ser encontrados em [Mu], [ViPe], [SiVi]. Para problemas impulsivos com horizonte innito citamos ainda [BLS1], [BLS2].

g(t), (t) + et g0 (t) = 0, q.s.

3.4

Aplica c oes do Princ pio do M aximo

Neste par agrafo analisamos, sob a otica do princ pio do m aximo, alguns problemas de controle otimo. Na Aplica c ao 3.4.1 s ao discutidos os problemas de tempo m nimo at e a or gem. O modelo aqui discutido e simples, por em possui diversas variantes relacionadas com aplica c oes tecnol ogicas (piloto autom atico, acoplamento de sat elites, . . . ). Utilizamos na Aplica c ao 3.4.2 o princ pio do m aximo para vericar que uma estrat egia do tipo bang-bang eau nica estrat egia otima admiss vel para o problema da alunissagem. Na Aplica c ao 3.4.3, consideramos um modelo econ omico cl assico, formulado por F. Ramsey em 1928 (veja [Ra]). Utilizando a equa c ao de EulerLagrange, obtemos a pol tica otima para um problema do tipo consumo investimento com horizonte innito. Um problema de explora c ao otima de recursos naturais renov aveis e considerado na Aplica c ao 3.4.4. A abordagem aqui apresentada segue a linha de [BaLe]. O modelo utilizado foi proposto em [CCM] e analisado por diversos autores. S ao levados em conta controles do tipo impulsivos e processos denidos em horizonte innito de tempo. Em [BMS] podem ser encontradas diversas aplica c oes do princ pio do m aximo a problemas aeroespaciais, dentre as quais citamos: Desenho otimo de uma miss ao a Netuno; Ascenss ao otima de um ve culo espacial hipers onico; Alcance m aximo de v oo para uma

60

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN

asa delta atravessando uma t ermica. Em [Ho] s ao discutidas (entre outras) as seguintes aplica c oes: Oscilador harm onico com custo de combust vel; Controle de epidemias; Pescaria otima; Contra c ao do ventr culo esquerdo do cora c ao; Compra e venda de a c oes. Aplica c ao 3.4.1 (Tempo m nimo) Suponha que no tempo t = 0 um carro se encontra na posi c ao a IR com velocidade b IR. Nosso objetivo e encontrar uma estrat egia u (acelera c ao e frenagem) que permita lev a-lo at e a or gem no menor tempo poss vel. E 4 exigido ainda que, ao chegar ao destino, o carro tenha velocidade nula. Temos assim o seguinte problema de controle otimo T Minimizar 0 1 dt sujeito a onde T 0, u L1 [0, T ] e u(t) := [1, 1] q.s. em [0, T ]. As condi c oes necess arias fornecidas pelo princ pio do m aximo s ao z2 , z (0) = a , z (T ) = ; u b 1 = 0 , ( T ) = ( 2 ) ; 1 z = min {z2 1 + u2 + }, q.s. em [0, T ] ;
a 0 1 z = 0 0 0 z + 1 u, z (0) = (b ) ; (T, z (T )) := z (T ) =

H (t, z, , u) = z2 1 + u2 + ; z2 1 + U (z, )2 + = + |1 | + |2 | = 0. Da condi c ao de otimalidade obtemos U (z, ) =

u[1,1]

sign 2 , 2 = 0 ? , 2 = 0

(3.7)

Calculando agora (t) para t [0, T ] temos: 1 (t) = 1 , 2 (t) = (T t)1 + 2 , t [0, T ]. (3.8)

Portanto, 2 e linear e muda de sinal no m aximo uma vez em [0, T ]. Sendo assim, basta estudar os seguintes casos: 1o Caso: u n ao muda de sinal em [0, T ]. Se u 1 temos z2 (t) = b + t, z1 (t) = a + bt +
4

t2 , t [0, T ]. 2

Tal problema e apresentado por alguns autores como problema da acoplagem. Para uma descri c ao do problema veja [Tr, Cap tulo 11].

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO z2 b a


u1

61

u1

z1

Figura 3.2: Trajet orias otimas para os controles u 1 e u 1 Como z (T ) = , tais estrat egias s ao admiss veis apenas para condi c oes iniciais do tipo (a, b) = (T 2 /2, T ), com T > 0. Se u 1 temos z2 (t) = b t, z1 (t) = a + bt t2 , t [0, T ]. 2

2o Caso: u muda de sinal em (0, T ). No caso anterior vimos que se u 1, ent ao z2 (t)2 = 2z1 (t) + const; enquanto que u 1 2 implica em z2 (t) = 2z1 (t)+const. Portanto, as trajet orias correspondentes a tais controles s ao necessariamente paralelas a um dos arcos de par abola mostrados na Figura 3.3. De onde conclu mos que a trajet oria otima e necessariamente composta por dois arcos: cada um pertencente a uma das fam lias na Figura 3.3 (lembre que u muda de sinal uma u nica vez no intervalo [0, T ]). Note que a parte nal da trajet oria otima e necessariamente como na Figura 3.2 (caso contr ario a trajet oria n ao seria admiss vel). Para determinar a parte inicial da trajet oria, z2 z2

Como z (T ) = , tais estrat egias s ao admiss veis apenas para condi c oes iniciais do tipo 2 (a, b) = (T /2, T ), com T > 0. A curva C na Figura 3.2 e composta pelas condi c oes iniciais (a, b), para as quais as estrat egias u 1 ou u 1 s ao otimas. As respectivas trajet orias correspondem a parte da curva C limitada por (a, b) e pela or gem.

z1

z1

Figura 3.3: Trajet orias correspondentes a controles constantes

62

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN z2 b E


u1

a
u1

z1

P Figura 3.4: Trajet orias otimas correspondentes aos controles u 1 e u 1 observe que, dada uma condi c ao inicial (a, b) IR2 , existe uma u nica curva pertencente as fam lias mostradas na Figura 3.3, que intercepta tanto o ponto (a, b) quanto a curva C (o caso a > 0, b > 0 e mostrado na Figura 3.4). O princ pio do m aximo nos permite concluir que existe uma u nica trajet oria associada a controles do tipo u (t) = 1, t < 1, t > ou u (t) = 1, t < 1, t >

que e admiss vel para a condi c ao inicial (a, b). Tal trajet oria e composta por dois arcos: um da curva E limitado por (a, b) e pelo ponto P e outro da curva C limitado por P e pela or gem. Para calcular (instante em que trocamos o controle de 1 para 1) n ao e necess ario calcular as constantes 1 , 2 na equa ca o (3.8). No caso a > 0, b > 0, basta descobrir para qual > 0 a curva (z1 (t), z2 (t)) = (a + bt t2 /2, b t) satisfaz a condi c ao z2 ( ) < 0, z2 ( )2 = 2z1 ( ). Um c alculo simples mostra que e dado por uma das raizes b b2 /2 a. 2 2 2

Aplica c ao 3.4.2 (Alunissagem) Considere o problema de controlar a descida de uma espa conave na Lua, utilizando para isso a menor quantidade poss vel de combust vel. Em um modelo simplicado temos5 t h(t) v (t) m(t) u(t) : : : : : tempo; altura da espa conave; velocidade da espa conave; massa da espa conave + combust vel; empuxo dos motores da espa conave.

Seja M a massa da espa conave sem combust vel, F a quantidade inicial de combust vel, h0 a altura inicial, v0 a velocidade inicial, umax o empuxo m aximo dos motores da nave (0 u(t) umax , t 0), g a constante gravitacional da Lua (considerada constante) e k
5

Este modelo e tamb em discutido em [FlRi], [Ho] e [Know].

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO

63

a constante de proporcionalidade entre o empuxo e a taxa de queima do combust vel. As vari aveis de estado (h, v, m) satisfazem a seguinte din amica: h = v (t) v = g + u(t)/m(t) m = ku(t)

Denindo z (t) = (h(t), v (t), m(t)) temos o sistema n ao linear z2 z = g + u/z3 =: f (t, z, u) ku z (0) = (h0 , v0 , M + F ) , z (T ) = (0, 0, ?) .

(3.9)

A condi c ao nal segue da hip otese que um pouso suave ocorre quando h(T ) = v (T ) = 0, sendo para m somente relevante que m(T ) M . Como o custo a ser minimizado corresponde ao gasto de combust vel, temos que maximizar
T

m(T ) = M + F k

u(t) dt.
0

O problema de controle otimo pode ser escrito como: Minimizar J (T, z, u) = sujeito a
T

u(t) dt
0

A fun c ao de Hamilton e

u {L1 [0, T ] | u(t) := [0, umax ] q.s. em [0, T ]}, z = f (z, u), z (0) = (h0 v0 M + F ) IR3 , (T, z (T )) = (z1 (T ) z2 (T )) = IR2

H (t, z, , u) = , u + L(t, z, u) = 1 z2 + 2 (g + u/z3 ) 3 ku + u. Minimizando a fun c ao de Hamilton em rela c ao a u obtemos , + 2 /z3 k3 > 0 0 U (z, ) = ? , + 2 /z3 k3 = 0 umax , + 2 /z3 k3 < 0

(3.10)

Tomamos por simplicidade umax = 1. A m de tornar o problema sicamente coerente supomos ainda 1 = empuxo m aximo > for ca gravitacional = (M + F )g,

64

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN z1 = h

z2 = v
= T F/k

Figura 3.5: Condi c oes iniciais (h, v ) que s ao levadas pelo controle u 1 ` a condi c ao nal (0, 0, m(T )) com m(T ) M . razo isto e 1/(M + F ) > g. E avel considerar que existe uma estrat egia otima do tipo bangbang, i.e. da forma u (t) = 0 , t [0, ) 1 , t [, T ] (3.11)

Calculamos inicialmente a trajet oria associada a estrat egia u . Como u 1 em [, T ], usamos o sistema (3.9) e as condi c oes de contorno z1 (T ) = z2 (T ) = 0 e z3 ( ) = M + T a m de determinar z no instante t = . Obtemos assim M +F k (T ) M +F 2 z1 ( ) = 1 Tk 2 g (T ) M +F k 2 ln k (T ) 1 z2 ( ) = g(T ) + k ln M +F M +F z3 ( ) = M + F

Explicitando z1 (= h) em fun c ao de z2 (= v ) obtemos: h(t) = h0

Tra cando o gr aco de z1 ( ) por z2 ( ) obtemos a curva da Figura 3.5, que e formada pelos estados da forma z ( ) = (h( ) v ( ) M + F ) que s ao levados pelo controle u (t) = 1, t [, T ] no estado nal z (T ) = (0 0 m(T )) com m(T ) M . Note que o comprimento dessa curva e limitado, pois como u 1 temos m = k e o combust vel se esgotar a ap os F/k unidades de tempo. Temos assim a limita c ao T F/k (al em obviamente de T 0). Como inicialmente u 0, a nave se encontra em queda livre durante o intervalo de tempo [0, ]. A trajet oria correspondente e 1 2 gt + v0 t + h0 z (t) = 2 1 z2 (t) = gt + v0 t [0, ]. z3 (t) = M + F 1 2 2 [v (t) v0 ], t [0, ]. 2g

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO

65

A curva (v (t), h(t)) e uma par abola no plano de fase v h. Unindo os dois trechos da trajet oria correspondente a u obtemos a curva mostrada na Figura 3.6. Segundo essa trajet oria a nave cai em queda livre at e que o estado (v, h) alcance a curva da Figura 3.5. Nesse momento os motores s ao acionados na pot encia m axima at e o estado nal admiss vel ser atingido ( (T, z (T )) = ). Observe que se a intersec c ao das duas curvas na Figura 3.6 ocorre num ponto (v ( ), h( )) com < T F/k, a quantidade de combustivel n ao e suciente para realizar um pouso suave. Enquanto que se a condi c ao inicial (v0 , h0 ) se encontra abaixo da curva na Figura 3.5, mesmo empregando empuxo m aximo u(t) = 1, t [0, T ], o solo lunar e atingido com v (T ) < 0. Atrav es do princ pio do m aximo vericamos agora que a estrat egia de controle denida em (3.11) e um candidato a controle otimo. Suponha (0) = (l1 l2 l3 ) . Substituindo na equa c ao adjunta 1 = 0 2 = 1 2 3 = 2 u/z3 temos: 1 (t) = l1 , t [0, T ] ; 2 (t) = l2 l1 t, t [0, T ] ; 3 (t) = l3 , t [0, ]. Como z3 (t) = M + F k(t ), t [, T ], podemos calcular 3 no intervalo nal de tempo, obtendo t l2 l1 s ds, t [, T ]. 3 (t) = l3 + 2 [k ( s) + M + F ]

Dena agora r (t) := + 2 (t)/z3 (t) k3 (t), t [0, T ]. De (3.10) sabemos que a escolha do controle u no tempo t depende de sign(r (t)). Portanto, como a estrat egia de controle u salta de 0 para 1 em t = temos obrigatoriamente r ( ) = + 2 ( ) k3 ( ) = 0. z3 ( )

Escolhendo = 1 (que satisfaz condi c ao de transversalidade) reescrevemos a equa c ao acima como l2 l1 k l3 = 0. 1 + M +F


(v0 ,h0 ) u =0

z1 = h

u =1

z2 = v

Figura 3.6: Trajet oria correspondente ` a estrat egia bang-bang u .

66

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN

A escolha de u em (3.11) implica em r (t) > 0, t [0, ). Portanto l1 > 0 necessariamente. O princ pio do m aximo nos fornece ainda uma condi c ao inicial para a equa c ao adjunta: 1 1 0 0 1 = 2 , (T ) = (T, z (T )) = 0 1 0 2 z 0

de onde conclu mos que 3 (T ) = 0. Obtemos assim para l1 , l2 , l3 o sistema sub-determinado de equa c oes lineares 1 1 + (M + F ) (l2 l1 ) k l3 = 0 T l2 l1 s ds = 0 l3 + [ k ( s) + M + F ]2 Considerando 2 como par ametro o sistema se reescreve como (M + F )1 l1 + k l3 = 1 + l2 (M + F )1 P l1 l3 = Q l2 onde P = s[k( s) + M + F ]2 ds e Q = positivas. Resolvendo o novo sistema obtemos: l1 l3 =
T T

[k( s) + M + F ]2 ds s ao constantes (3.12)

[1 + ((M + F )1 + kQ)l2 ] / [ (M + F )1 + kP ] P [1 + ((M + F )1 + kQ)l2 ] / [ (M + F )1 + kP ] Ql2 r (t) = 1 + (l2 l1 t)/z3 (t) k3 (t)

Note que para t [, T ) temos < 1 + l2 /M k l3 + (P /(M + F ))l1 . (3.13)

Substituindo em (3.13) as express oes encontradas em (3.12) para l1 e l3 , obtemos uma restri c ao linear para escolha de l2 . Outra restri c ao (tamb em linear) para l2 e dada por l1 > 0 e (3.12). Como o problema assim colocado possui solu c ao n ao u nica, e poss vel encontrar condi c ao inicial (l1 l2 l3 ) de forma que a fun c ao r satisfa ca r (t) > 0, t [0, ) r (t) < 0, t (, T ] provando que u satisfaz as condi c oes do princ pio do m aximo. Vericamos agora que u e o u nico candidato fornecido pelo princ pio de Pontryagin. A fun c ao r (t) obtida de (3.10) determina quando ocorrem saltos na estrat egia de controle. l e temos Note ainda que como 1 l1 ent ao 1 2
2 r (t) = ( k 2 z3 2 z3 )z3 3 2 2 = k2 uz3 2 /z3 2 (ku)z3

= l1 /z3 (t), t [0, T ].

Analisamos separadamente as situa c oes poss veis:

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO

67

l1 = 0: Como z3 (t) = m(t) > 0 ent ao r e mon otona. Se l1 > 0 obtemos um controle do tipo u . Se l1 < 0 obtemos uma estrat egia oposta, i.e. inicialmente u = 1 e depois u = 0. Com essa estrat egia n ao e poss vel obter um pouso suave. De fato, ou (v0 , h0 ) se situa abaixo ou acima do graco na Figura 3.5 No primeiro caso j a vimos que v (T ) < 0. No segundo caso, como u e da forma u(t) = obtemos do sistema adjunto
T

1 , t [0, ) 0 , t [, T ]

v (T ) v ( ) =

v (t) dt =

g dt = g(T ).

Logo uma condi c ao necess aria para v (T ) = 0 e que T = v ( )/g + . Novamente do sistema adjunto obtemos
T

h( ) = h(T ) h( ) =

h (t) dt =

v (t) dt =

g(T t) dt =

g (T )2 , 2

isto e h( ) = v 2 ( )/2g < 0. Portanto a transi c ao de 1 para 0 na estrat egia de controle ocorre abaixo da superf cie da Lua, e o pouso obviamente n ao e suave. l1 = 0: Neste caso r = 0 e r e constante. Se r = 0 os poss veis candidatos s ao u 0 e u 1. O primeiro controle obviamente n ao permite pouso suave. J a o segundo ser a otimo somente se (v0 , h0 ) pertence ` a curva na Figura 3.5, quando a estrat agia se torna id entica a u . Por m, se r = 0 temos 1 + l2 1 + k 3 (t) = 0, t [0, T ], z3 (t)

1 isto e, as fun c oes {1, z3 , 3 } s ao linearmente dependentes. Mas isto e uma contradi c ao pois t t

z3 (t) = M + F k

u(s) ds,
0

3 (t) = l2
T

u(s)z3 (s)2 ds.

Portanto o u nico controle admiss vel que satisfaz as condi c oes do princ pio do m aximo e u denido em (3.11). 2 2 2 Aplica c ao 3.4.3 (Consumo Investimento) Tratamos a seguir um problema cl assico da economia, que foi um dos primeiros a ser tratado sob a otica do c alculo variacional. Consideramos o seguinte problema macroecon omico: Como equacionar a rela c ao entre consumo e investimento, a m de otimizar o desenvolvimento econ omico? Suponha que a economia de uma na c ao e representada pelas vari aveis

68 K (t) C (t) Y (t) K (t) : : : :

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN Capital; Consumo; Produ c ao (produto interno); Investimento (varia c ao do Capital);

ao longo do intervalo de tempo t [0, ). Considere ainda o seguinte modelo simplicado: ii) C = Y K (parte da produ c ao e consumida e o restante e reinvestido); iii) K (0) = K0 (o capital inicial e conhecido); iv) U = U (C ) e a utilidade do capital, onde U > 0, U < 0; v) > 0 e o fator de desconto. A tarefa a ser realizada e a de encontrar uma pol tica otima de investimento para o problema: et U (C (t))dt Maximizar 0 sujeito a K = g(K ) C, K (0) = K .
0

i) Y = g(K ), onde g > 0 e g 0;

Este problema foi originalmente formulado e resolvido por Ramsey em 1928 (veja [Ra]). A hip otese C = g(K ) K nos permite analizar este problema utilizando c alculo variacional (veja Par agrafo 2.2). Note que a equa c ao de EulerLagrange e dada por K g (K )K + U (g(K ) K ) ( g (K )) = 0. U (g(K ) K )

onde b > 0, q (0, 1). Neste caso particular a equa c ao de EulerLagrange se simplica para uma equa c ao que sabemos resolver, a saber: qK + ( b qb)bK + b(b )K = 0. Calculando as raizes do polin omio caracter stico, temos 1 = b, 2 = a := q 1 (b ). Portanto, as solu c oes que satisfazem a condi c ao inicial K (0) = K0 s ao da forma: K (t) = (K0 A)eat + Aebt , t 0, onde A e um par ametro livre. Suponha agora que b > a, i.e. > (1 q )b. Neste caso as hip oteses do modelo: C (t) = g(K (t)) K (t) > 0, t 0 e
t

No caso geral esta equa c ao n ao pode ser resolvida analiticamente. Fazemos aqui a hip otese simplicadora: 1 1q r , g(r ) = br, U (r ) = 1q

lim K (t) 0

s ao satisfeitas respectivamente para A 0 e A < K0 . Para determinar o par ametro A [0, K0 ) e necess aria uma condi c ao de contorno para a equa c ao da din amica por exemplo

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO

69

K (0) ou K (). Como tal condi ca o n ao e explicitamente fornecida, e preciso analizar a equa c ao de HamiltonJacobiBellman, que para este problema aut onomo se escreve como V (x) + min
u

1 V , g(x) u + u1q x 1q

= 0, x IRn

f (note que = b qa). E acil vericar que V (x) := (1 q )/(b a)q x1q , x 0 e solu c ao da equa c ao acima. Note ainda que se A = 0 a condi c ao lim inf et V (K (t)) = 0
t

e satisfeita, pois a(1 q ) < 0 por hip otese. Portanto V (x) e a trajet oria K (t) = K0 eat satisfazem as condi c oes do teorema , de onde conclu mos que uma estrat egia otima de consumo e dada por C (t) = (b a)K0 eat , t 0. 2 2 2 Aplica c ao 3.4.4 (Pescaria otima) Consideramos a seguir um modelo bio-econ omico para pescaria comercial controlada por monop olio. O modelo em quest ao e representado pelas seguintes quantidades: t x(t) h(t) E (t) K (t) I (t) : : : : : : tempo; popula c ao de peixes (biomassa); taxa de captura; esfor co de pesca; capital investido na atividade pesqueira; taxa de investimento.

O modelo e baseado nas seguintes hip oteses: h(t) = qE (t)x(t); q e um coeciente de captura; x (t) = F (x(t)) qE (t)x(t), t 0, x(0) = x0 ; F e a fun c ao de crescimento natural; K (t) = K (t) + I (t), t 0, K (0) = K0 ; 0 e a taxa de deprecia c ao do capital; Restri c oes: 0 x(t), K (t), E (t); E (t) K (t); N ao-maleabilidade: 0 I (t) , t 0; Exist encia de dois pontos de equil brio biol ogico: F (0) = F ( x) = 0, x > 0; Propriedades da fun c ao F : F C 2 [0, ), F (x) > 0, 0 < x < x , F (x) < 0, 0 x x ; Fun c ao objetivo (uxo descontado de dinheiro): 0 et {ph(t) cE (t) rI (t)} dt; >0 e a taxa instant anea de desconto; p 0 e o pre co de mercado do peixe; c 0 e o custo de opera c ao por unidade de esfor co de pesca; r 0 e o pre co do capital. Um exemplo concreto para a fun c ao de crescimento natural satisfazendo as hip oteses acima c ao das guras e dado pela fun c ao log stica: F (x) := ax(1 x ) (a > 0, k > 0). Para constru k na seq u encia do texto foi utilizada esta fun c ao.

70

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN

Este problema foi formulado em [CCM], onde foi considerado atrav es de uma abordagem variacional. Entretanto a an alise apresentada n ao e rigorosa nos detalhes. Em [Mu] o modelo acima e utilizado para ilustrar os problemas considerados no artigo, entretando os resultados l a obtidos n ao se aplicam a este problema (prova de exist encia). Em [ViPe] tamb em pode ser encontrada uma refer encia a este problema. Finalmente em [Cl] o problema Q(x0 , K0 ) e apresentado como uma aplica c ao do princ pio do m aximo, mas o tratamento novamente n ao e rigoroso. Para uma melhor descri c ao do modelo bio-econ omico o leitor deve consultar [An] ou [SeSy]. um fato conhecido (veja e.g [Mu]) que problemas de controle podem n E ao possuir solu c ao caso a vari avel de controle n ao seja limitada e tanto a fun c ao objetivo quanto a din amica sejam lineares no controle. Este e exatamente o caso acima em rela c ao ao controle I . A m de evitar problemas de n ao-exist encia, temos que substituir o controle convencional I por um controle impulsivo. Uma conseq u encia imediata desta escolha e que a trajet oria da vari avel de estado correspondente ao capital se torna descont nua. Sendo assim, consideramos I como uma medida de Borel e K como uma fun c ao de varia c ao limitada. O problema Q(x0 , K0 ) se reescreve da seguinte forma: t Minimzar J (x0 , K0 ; , u) := e r (dt) + et {c pqx(t)}u(t)K (t) dt 0 0 P (x0 , K0 ) , sujeito a ( u, ) U C ad x = F (x) u(t)Kx, x(0) = x0 , dK = Kdt + (dt), K (0) = K0 , onde Uad := {v L [0, ) | 0 v (t) 1 q.s. em [0, )}, C := { | medida de Borel n ao-negativa em [0, )}.

O problema de controle otimo Denimos E = u K , com u [0, 1] e obtemos assim uma segunda vari avel de controle: u. Podemos supor sem perda de generalidade q = 1. Assim sendo, escrevemos o problema de controle otimo da seguinte forma: Minimizar J (x , K ; I, u) := et {rI (t) + cu(t)K (t) pu(t)K (t)x(t)}dt 0 0 0 sujeito a Q(x0 , K0 ) x = F (x) u(t)K (t)x, t 0, x(0) = x0 , K = K + I (t), t 0, K (0) = K0 , x(t) 0, K (t) 0, 0 u(t) 1, I (t) 0, t [0, ).

Observe que as restri c oes x(t) 0, K (t) 0 em [0, ) s ao satisfeitas (devido as hip oteses acima), caso x0 0, K0 0. O problema de valor inicial dK = Kdt + (dt), K (0) = K0 (3.14)

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO

71

tem que ser considerado como uma equa c ao diferencial com medida. Uma fun c ao K : [0, t1 ) IR (t1 (0, ]) e solu c ao de (3.14) quando
t

K (t) = K0

K (s)ds +
0 [0,t]

(ds), 0 t < t1 .

(3.15)

Isto imlica que K e cont nua pela direita em (0, t1 ) e K (0) = K0,+ ({t0 }), onde K0,+ representa limt0 K (t). Observa c ao 3.4.5 O conceito de solu c oes denido acima caracteriza as denominadas soluco es de Young (veja [Ri]). Podemos aqui usar este conceito pois os coecientes g, g0 n ao dependem das vari aveis de estado x, K . Se fosse este o caso, ter amos que utilizar o conceito de solu c oes robustas (veja e.g. [SiVi], [BLS1]). 2 2 2 A seguir denimos as constantes := + , r := r, c := c + r e as fun c oes g(x) := F (x) + x1 F (x), (x) := (px c)( F (x)) cF (x) , x (x) := (px c )( F (x)) c F (x) x

em (0, x ). Fazemos ainda as seguintes hip oteses (nota c ao: K := F (x )/x , K := F ( x)/x ) (V 1) F C 2 [0, ) C 3 (0, x ); 0xx ; (V 2) > 0, r > 0, c > 0, > 0; (V 3) c px < 0; (V 4) Existem x , x (0, x ) com (x) < 0, 0 < x < x , ( x) = 0, (x) > 0, x <x<x , (x) < 0, 0 < x < x , (x ) = 0, (x) > 0, x < x < x ; (V 5) (x) > 0, x (0, x ), (V 6) g (x) > 0, x (0, x ). As abordagens em [CCM] e [BaLe] Em [CCM] a equa c ao de HamiltonJacobiBellman e considerada em (0, x ) (0, ) e e obtido um candidato a controle otimo para cada condi c ao inicial nesta faixa. Isto resulta na deni c ao de uma fun c ao S : (0, x ) (0, ) IR, tal que para todos (x, K ) (0, x ) (0, ), u [0, 1] e I 0, tem-se S (x, K ) + F (x)Sx (x, K ) KSK (x, K ) I (SK (x, K ) + r ) + uK {qxSx (x, K ) pqx + c}. (3.16)
(x) > 0, x ( x, x );

F (0) = F ( x) = 0;

F (x) > 0, 0 < x < x ;

F (x) < 0,

72

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN

ent E ao armado que S e a fun c ao valor para o problema.6 Implicitamente, s ao utilizados na argumenta c ao somente controles cujos estados correspondentes satisfazem
t

lim et S (x(t), K (t)) = 0.

A an alise apresentada em [CCM] pode ser seguida parcialmente, mas em algumas passagens as hip oteses n ao s ao sucientes e a argumenta c ao n ao est a completa. Como S n ao e diferenci avel em toda a faixa, os autores argumentam que cada problema P (x0 , K0 ) pode ser aproximado por uma problema Q(x0 , K0 ) correspondente. Para tanto e necess ario um argumento de densidade rigoroso, que n ao e fornecido e t ao pouco pode ser encontrado na literatura especializada. Portanto, a verica c ao da otimalidade das estrat egias discutidas em [CCM] tem que ser considerada como um problema em aberto. Esta e a justicativa apresentada em [BaLe] para uma nova an alise do problema, a qual descrevemos a seguir. As demonstra c oes dos resultados discutidos a seguir s ao, em sua maioria, longas (apesar de utilizarem essencialmente resultados de an alise no IRn e da teoria de equa c oes diferenciais ordin arias). Devido a este fato, limitamo-nos a enunciar e interpretar os resultados principais, que ilustram a aplica c ao do princ pio do m aximo para este problema impulsivo com horizonte innito. O objetivo principal da discuss ao aqui apresentada e obter, para cada condi c ao inicial no plano de fase, a trajet oria e o controle otimo correspondente (veja Teorema 3.4.12). O leitor interessado encontra mais detalhes em [BaLe]. Condi co es necess arias A seguir utilizamos o princ pio do m aximo para obter condi c oes necess arias de primeira ordem para o problema P (x0 , K0 ). Al em disso s ao denidas, apartir dos multiplicadores de Lagrange, duas fun c oes auxiliares (switches) que desempenham um papel chave na an alise das trajet orias otimas. Come camos denindo a fun c ao de Hamilton H por H (t, x , K, w, 1 , 2 , ) := 1 (F ( x) w K x ) 2 K et (c px )wK. Seja (u, ) um controle otimo para P (x0 , K0 ) e (x, K ) os estados correspondentes. O Teorema 3.3.1 garante a exist encia de constantes 1,0 , 2,0 , IR e fun c oes adjuntas 1 , 2 : [0, ) IR satisfazendo o sistema Hamiltoniano, a condi c ao de salto e a condi c ao de otimalidade (com rela c ao a H ). Dena agora H (t, x , K, w, , ) := (x + (px c))Kw, onde 1 (t) := 1 (t)et , 2 (t) := 2 (t)et , 1,0 := 1 (0), 2,0 := 2 (0). Denimos ainda as fun c oes auxiliares z , : [0, ) IR por
6

z := 1 x + (px c), := 2 , z0 := 1,0 , 0 := 2,0 ,


Lembre que a fun c ao valor V e denida por: V (x0 , K0 ) := inf {J (x0 , K0 ; I, u) | (I, u) admiss vel}, (x0 , K0 ) (0, x ) (0, ).

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO

73

As fun c oes z e s ao denominadas switches, devido ao seu papel na obten c ao dos controles otimos. Note que z dene juntamente com a condi c ao de m aximo o valor de u(t). A saber, u(t) = 0 se z (t) < 0 e u(t) = 1 se z (t) > 0. Se z (t) se anula, o valor de u(t) tem que ser determinado de outra forma. A fun c ao dene um switch para os saltos de K , uma vez que a condi c ao ({t}) > 0 para algum t [0, ) implica em (t) = r . Desta forma podemos reescrever as condi c oes necess arias do princ pio do m aximo como: 2 2 2 z0 + 0 + = 0, 0, x dK z = = F (x) u(t)Kx , Kdt + (dt) zg(x) (x) , zu(t) x(0) K (0) z (0) (0) = = x0 , K0 z0 , 0

(t) r 0 para todo t [0, ), z (t)K (t)u(t) max z (t)K (t)w q.s. em [0, ).
w [0,1]

(t) r 0 q.s. em [0, ),

Inicialmente excluimos o caso irregular = 0 (de modo que possamos escolher = 1). Isto e conseq u encia do Lema 3.4.6 [BaLe, Teorema 6] Seja (x, K, u, ) um processo o timo e , z , as vari aveis adjuntas correspondentes. Ent ao = 0. An alise das condi co es necess arias O problema central da an alise das condi c oes necess arias consiste em descobrir condi c oes iniciais 0 = (0), z0 = z (0) que estejam de acordo com a condi c ao (R) (t) r , for all t [0, ). de simples verica E c ao o fato de que a igualdade ( ) = r para algum > 0 implica em igualmente claro que K0,+ = K0 somente ocorre quando (0) = r . ( ) = 0 e ( ) 0. E A seguir apresentamos um lema que discute propriedades de trajet orias otimas seus correspondentes controles e vari aveis adjuntas. Tal resultado e utilizado na seq u encia para obter a solu c ao do problema de controle otimo (para demonstra c ao veja [BaLe, Par agrafo 3]). Lema 3.4.7 Seja (x, K, u, ) um processo o timo com vari aveis adjuntas z , . S ao verdadeiras as arma co es: a) Para cada > 0 existe t > com (t) = r ; b) N ao existe > 0 com x( ) > x e F (x( )) K ( )x( ); c) Para x0 = x , K0 > K as condi co es iniciais 0 = r , z0 r n ao podem ser assumidas;

e) Para x0 = x , K0 K , temos necessariamente os valores iniciais 0 = r , z0 = r , (0) = 0, z (0) = 0. Al em disso temos K0,+ = K .

d) Se x0 = x , K0 = K , ent ao = K dt e ainda x(t) = x , K (t) = K , (t) = r , z (t) = r , u(t) = 1, para t 0;

74

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN


K

1 ~ K K
*

K=

F(x) x

~ x

111111 000000 000000 111111 000000 111111 * 000000 111111 000000 111111 000000 111111 000000 111111 x* x

Figura 3.7: Curvas 1 e

f ) Se x0 > x e K0 < F (x0 )/x0 , temos necessariamente: 0 = r , z0 > r , K0,+ > K0 . O Lemma 3.4.7 possui algumas conseq u encias interessantes: Do tem b) conclu mos que uma trajet oria otima n ao pode entrar na regi ao hachurada da Figura 3.7. O tem f ) garante ainda que caso a condi c ao inicial (x0 , K0 ) perten ca a regi ao hachurada da Figura 3.7, ent ao K0,+ e tal que (x0 , K0,+ ) est a acima desta regi ao, i.e. uma trajet oria otima com tal condi c ao inicial salta no tempo t = 0 para algum estado fora desta regi ao. A seguir denimos algumas curvas no plano de fase. Seja (x, K ) a solu c ao do sistema x K = F (x) + Kx , K x(0) K (0) = x . K

] t (x(t), K (t)) [x , x Denotamos por 1 a curva denida por [0, t ] [K , ). A curva [0, K ] K (x , K ) [0, ) [0, K ] e denotada por (veja Figura 3.7). Ainda uma conseq u encia do Lemma 3.4.7: Caso a condi c ao inicial (x0 , K0 ) perten ca a curva , segue dos tens d) e e) que devemos saltar no instante t = 0 para o estado (x , K ) e l a permanecer (pescando com u = 1) at e o m dos tempos. No pr oximo resultado usamos as curvas denidas acima para denir uma regi ao de saltos no plano de fase. Lema 3.4.8 Seja (x, K, u, ) um processo o timo com vari aveis adjuntas z , . Se x0 > x e a condi ca o inicial (x0 , K0 ) est a abaixo da curva 1 , ent ao as condi co es iniciais satisfazem: 7 0 = r , z0 > r , K0,+ h1 (x0 ). Note que o Lemma 3.4.8 engloba o resultado do Lemma 3.4.7 f ). A seguir vericamos que se uma trajet oria otima encontra a curva (i.e. (x( ), K ( )) para algum > 0), certas condi c oes precisam ser satisfeitas pelas vari aveis adjuntas.
7

Demonstra c ao: Veja [BaLe, Lema 14].

Nota c ao: [x , x ] x (x, h1 (x)) e uma parameteriza c ao de 1 .

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO

75

Lema 3.4.9 Seja (x, K, u, ) um processo o timo com vari aveis adjuntas z , . Suponha que x( ) = x , K ( ) (0, K ) para algum > 0. Temos ent ao ( ) = r , ( ) = 0, z ( ) = r , z ( ) = 0. Demonstra c ao: Veja [BaLe, Lema 15]. O Lemma 3.4.9 garante que caso um processo otimo encontre a curva , ele o faz com ( ) = r . Combinando este resultado com os tens d) e e) do Lemma 3.4.7, obtemos o comportamento de uma trajet oria otima ap os esta escontrar a curva . O pr oximo e natural passo e analisar o comportamento das trajet orias otimas que encontram a curva (antes do encontro obviamente). Para tanto e necess ario acompanhar a din amica da evolu c ao das vari aveis de estado para atr as no tempo. Lema 3.4.10 Para cada K1 [0, K ], seja (x, z ) a solu ca o do problema de valor inicial x(0) F (x)+K1 et x x x ao, para cada K1 (0, K ) existe := K1 > 0 z = (z r )g (x)+ (x) , z (0) = r . Ent com x( ) = x . Al em disso, existe K1 (0, K ) satisfazendo: b) Se K1 (K1 , K ), ent ao z (t) > 0 para todo t [0, ]; x( ) = x e K := K1 e > F ( x)/x = K. Demonstra c ao: Veja [BaLe, Lema 16]. Argumentando com o Lema 3.4.10 e o teorema da fun c ao impl cita, construimos uma curva 0 tal que as solu c oes (x, K, z ) do sistema F (x) + Kx x(0) x x z = (z r )g(x) + (x) , z (0) = r , K K K1 K (0) onde K1 [0, K ], satisfazem uma das seguintes alternativas: (i) Se K1 (K1 , K ], ent ao z (t) > 0, para todo t 0 (veja curva 1 na Figura 3.8);

a) Se K1 (0, K1 ), ent ao z possui um u nico zero (0, ), onde z ( ) < 0 e x( ) (0, x );

c) Se K1 = K1 , ent ao existe um u nico em (0, ) com z ( ) = z ( ) = 0; al em disso

(ii) Se K1 = K1 , ent ao z (t) > 0 exceto em um u nico instante de tempo, quando (x, K ) = ( x, K ) (veja curva 2 na Figura 3.8); (iii) Se K1 [0, K1 ), ent ao z (t) > 0 antes da trajet oria interceptar 0 e z (t) < 0 ap os a intercep c ao (veja curva 3 na Figura 3.8). Fica assim claro comportamento das trajet orias otimas antes do encontro com , em uma vizinhan ca de 0 . A m de analisar as demais condi c oes iniciais, precisamos denir ainda algumas curvas no plano de fase. Seja (x, K ) a solu c ao do problema de valor inicial x x ] t (x(t), K (t)) = F (x)+Kx , x(0) = . Denotamos por 3 a curva [0, t
K K K (0)

[ x, x ] [K, ) (veja Figura 3.9). Seja agora (x, K ) a solu c ao do problema de valor inicial
x K x

x(0) x)Kx c ao encontra a curva em (x , K1 ) para algum = . Esta solu = F ( , K K (0) K > 0 (veja Lema 3.4.10). A curva denida por esta trajet oria e denominada 2 (veja

76

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN


K ~ ~ K 3 2

K* ~ K1

* ~ x x*

K = F(x) x _ x x

Figura 3.8: Curva 0

Figura 3.9). Por m denimos a curva 4 , a qual e parametrizada pela solu c ao (x, K ) de
x(0) F (x) = . = K , K (0) K Analisamos novamente a regi ao x > x , mais especicamente a parte acima da curva 1 . O objetivo e determinar uma curva s , acima de 1 , sobre a qual devem saltar as trajet orias com condi c ao inicial contida na regi ao de salto. Argumentando como na demonstra c ao do Lema 3.4.10 obtemos o seguinte resultado: x K x

Lema 3.4.11 Existe K2 (0, K1 ) e a > 0, tais que a solu ca o (x(; K1 ), z (; K1 ), (; K1 )) do sistema
x z

F (x)+K1 et x (z r )g (x)+ (x) (r )+z r

x(0) z (0) (0)

x r r

(K2 , K ). Al em disso, para cada K1 (K2 , K ) existem escalares (K1 ), (K1 ), (K1 ) satisfazendo a) 0 < (K1 ) < (K1 ) < (K1 ) < a; b) x(t; K1 ) x , t (0, (K1 )), x(a; K1 ) x ; d) (t; K1 ) < r , t (0, (K1 )), e)
K1 K

existe em [0, a] para cada K1

x((K1 ); K1 ) = x , z ( (K1 ); K1 ) = r ,

x(t; K1 ) > x , t ((K1 ), a], z (t; K1 ) > r , t ( (K1 ), a];

c) 0 < z (t; K1 ) < r , t (0, (K1 )), lim (K1 ) = 0.

( (K1 ); K1 ) = r ,

( (K1 ); K1 ) > 0;

Demonstra c ao: Veja [BaLe, Lema 19]. Argumentando com o Lema 3.4.11 e o teorema da fun c ao impl cita, e poss vel construir uma curva s no plano (x, K ), tal que as solu c oes (x, z, ) do sitema no Lemma 3.4.11 satisfazem: (i) A trajet oria (x(; K1 ), z (; K1 )) intercepta a curva s com = r , > 0 e z > r , para K1 (K2 , K ); (ii) A curva s come ca em (x , K ) e alcan ca a reta vertical x = x ; (iii) A curva s ca estritamente acima de 1 .

3.4. APLICAC OES DO PRINC IPIO DO MAXIMO


K ~ 4 ~ ~ K 3 S 1

77

K* ~ K1

0 ~ x

2 * x*

K = F(x) x _ x x

Figura 3.9: Cen ario para o problema da pescaria otima

A curva s conecta o ponto x ao ponto x e deve ser usada como curva de salto na regi ao [x , x ] [0, ). Esta curva de salto nos permite encontrar, dado (x0 , K0 ) com x0 (x , x ) e K0 < hs (x0 ), o valor inicial otimo K0,+ := hs (K0 ).8 Observe que na vizinhan ca das curvas 1 , , e s o comportamento dos extremais j a foi determinado. Note ainda que a constru c ao das curvas s e 3 possibilita distinguir dois casos distintos: s e 3 possuem um ponto em comum; s e 3 n ao se interceptam. Foram construidas em [0, x ] [0, ) as curvas , , s , 0 assim como as trajet orias 1 , 2 , 3 , 4 . Nosso pr oximo passo e obter, para cada condi c ao inicial (x0 , K0 ) (0, x )(0, ), a trajet oria otima correspondente. Trajet orias otimas A seguir determinamos um cen ario de todas as trajet orias o timas no plano de fase. Tamb em s ao determinados os controles otimos correspondentes, baseado em informa c oes fornecidas pelos switches z e . Come camos denindo as regi oes determinadas em [0, x ] [0, ) por , , s , 0 , 1 , 2 , 3 e 4 (na Figura 3.10 s ao esbo cadas as cinco regi oes principais para o caso da fun c ao log stica): Dom nio (R1): fronteiras , s , {(x, K ) [0, x ] [0, ) | x = x };

Dom nio (R2): fronteiras 0 , , s , 3 e eventualmente {(x, k) [0, x ] [0, ) | x = x }; Dom nio (R3): fronteiras {(x, K ) [0, x ] [0, ) | x = 0}, 0 , 4 ; Dom nio (R4): fronteiras {(x, K ) [0, x ] [0, ) | x = 0}, 4 , ; Dom nio (R5): fronteiras , 3 , {(x, K ) [0, x ] [0, ) | x = x }. O pr oximo teorema fornece uma completa descri c ao das trajet orias otimas (e correspondentes controles e switches) para todas as poss veis condi c oes iniciais no plano de fase. Teorema 3.4.12 Seja (x, K, u, ) um processo o timo com vari aveis adjuntas z , . S ao verdadeiras as arma co es:
8

Nota c ao: x (x, hs (x)) e uma parametriza c ao local de s .

78

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN


K

~ ~ K

~ K1

1111 0000 0001111111111 111 0000000000 0000 1111 000 111 0000000000 R 1111111111 R 0000 1111 000 111 0000000000 1111111111 0000 1111 000 111 0000000000 1111111111 000000 111111 0000 1111 000 111 0000000000 1111111111 000000 111111 R 0000 1111 000000 111111 0000 1111 000000 0000R 111111 1111 000000 111111 R 0000 1111 000000 111111 0000 1111 000000 111111 0000 1111 000000 111111 0000 1111 000000 111111
4 5 3 2 1 ~ x x* _ x

Figura 3.10: Regi oes principais do plano de fase

a) Se (x0 , K0 ) pertence a (R1), ent ao z0 > r , 0 = r , (x0 , K0,+ ) s e > 0 com (x( ), K ( )) e u 1, 0 em (0, );

b) Se (x0 , K0 ) pertence a (R2), ent ao z0 > 0, 0 < r e > 0 com (x( ), K ( )) e u 1, 0 em (0, );

c) Se (x0 , K0 ) pertence a (R3), ent ao z0 < 0, 0 < r e > 0 com (x( ), K ( )) 0 e u 0, 0 em (0, );

d) Se (x0 , K0 ) pertence a (R4), ent ao z0 < 0, 0 < r e > 0 com (x( ), K ( )) e u 0, 0 em (0, ); e) Se (x0 , K0 ) pertence a (R5), ent ao z0 > 0, 0 < r e > 0 com (x( ), K ( )) e u 1, 0 em (0, ). Demonstra c ao: Veja [BaLe, Lema 27].

Se a condi c ao inicial (x0 , K0 ) pertence a uma das curvas 3 , 4 , , 0 , , o processo otimo e obtido argumentando-se como no Teorema 3.4.12 (veja [BaLe, Lemas 28 e 29]). A interpreta c ao do Teorema 3.4.12 e simples. Por exemplo, se (x0 , K0 ) pertence a (R1), escolhemos K0,+ tal que (x0 , K0,+ ) s ; prosseguimos pescando com u 1 e sem investir ( 0) at e a trajet oria (x, K ) encontrar a curva ; saltamos uma segunda (e u ltima) vez para alcan car o estado (x , K ) e permanecemos neste estado (pescando com u 1 e investindo K dt) at e o m dos tempos. Para certas condi c oes iniciais e necess ario decretar uma morat oria ao longo de determinados trechos da trajet oria. Por exemplo, se (x0 , K0 ) pertence a (R3), n ao se pesca nem investe (u 0, 0) at e que a trajet oria alcance a curva 0 ; a partir deste instante pesca-se com u 1 (ainda sem investir) at e que a trajet oria alcance a curva ; saltamos ent ao para alcan car o estado (x , K ) e permanecemos neste estado (pescando com u 1 e investindo K dt) at e o m dos tempos. Nos dois exemplos anteriores a estrat egia otima correspondente a pesca (controle u) e do tipo bang-bang. Entretanto, este n ao e sempre o caso. Uma interessante situa c ao ocorre quando (x0 , K0 ) pertence a (R4). Neste caso e decretada inicialmente morat oria (u 0,

3.5. EXERC ICIOS

79

0) at e que a trajet oria alcance a curva ; a partir da pesca-se com u(t) = K (t)1 F ( x) x 1

e n ao se investe ( 0) at e que a trajet oria alcance o estado ( x, K ); pesca-se ent ao com u 1 (ainda sem investir) at e alcan car a curva (este trecho da trajet oria corresponde ` a curva 2 ); agimos agora como nos exemplos anteriores.

3.5

Exerc cios
1 0

3.1 Considere o problema de Bolza 1 Minimizar 2

u(t)2 dt + z1 (1)2 + z2 (1)2

a) Obtenha condi c oes necess arias para o problema acima. b) Encontre o processo otimo.

sujeito a = z , z = u, z (0) = z (0) = 0. u L1 [0, 1], z1 1 2 2 2

3.2 (Um problema de Investimento) Suponha que um determinado produto e fabricado com a taxa z (t). No tempo t > 0 uma fra c ao u(t) da produ c ao e reinvestida para aumentar a produ c ao, sendo o restante vendido para gera c ao de lucro. O objetivo e determinar uma pol tica de investimento otima, de forma a maximizar o lucro total no horizonte xo de tempo [0, T ]. Temos assim o problema T (1 u(t))z (t)dt Maximizar a) Reescreva o problema como um problema variacional com restri c oes lagrangeanas: y (t) 0, y (t) y (t). b) Obtenha condi c oes necess arias para o novo problema. c) Encontre a taxa otima de produ c ao y . 3.3 (Problema do Caf e) Uma x cara cheia de caf e a temperatura de 100o C deve ser esfriada a temperatura de 0o C por adi c ao de uma quantidade xa de creme de leite. Uma equa c ao aproximada para evolu c ao da temperatura z da mistura e dada por z = z 25u uz/4. As condi c oes de contorno s ao z (0) = 100, z (T ) = 0. a) Obtenha condi c oes necess arias para o problema de tempo otimo sujeito as restri c oes T 0 u(t) 1, t [0, T ], 0 u(t)dt = 1, impostas ao uxo externo de l quido u. sujeito a [0, T ] z = uz, z (0) = z0 > 0, z (t) 0, u C
0

b) Use o fato z < 0 para obter um problema equivalente com intervalo de tempo xo. O

80

CAP ITULO 3. PRINC IPIO DO MAXIMO DE PONTRYAGIN

que se pode armar sobre a unicidade da solu c ao obtida no tem a). (Dica: A nova vari avel livre e s = z .)

Cap tulo 4

Demonstra c ao do Princ pio do M aximo


Apresentamos neste cap tulo uma demonstra c ao do princ pio de Pontryagin para problemas com horizonte nito e tempo nal desconhecido. O desenvolvimento apresentado aqui se baseia nas notas de aula de M. Brokate (veja [Br]) e se dividide em tr es partes principais: No Par agrafo 4.1 obtemos um conjunto de condi c oes necess arias para otimalidade de solu c oes de um problema abstrato de otimiza c ao em espa cos de dimen c ao innita (os detalhes s ao discutidos no Ap endice A); No Par agrafo 4.2 aplicamos os resultados do tem anterior a um problema auxiliar, construido apartir do problema de controle otimo atrav es de uma reparametriza c ao da vari avel de tempo; No Par agrafo 4.3 invertemos esta parametriza c ao, a m de reinterpretar as condi c oes necess arias obtidas para o problema auxiliar e obter as desejadas condi c oes necess arias para o problema de controle o timo. Citamos [FlRi], [LiYo] e [Tr] como literatura alternativa, onde podem ser encontradas outras demonstra c oes (recentes) do princ pio do m aximo para problemas com horizonte nito e tempo nal desconhecido.

4.1

Otimiza c ao Innita

Este par agrafo e dedicado ` a an alise de condi c oes necess arias para otimalidade. Os problemas de otimiza c ao estudados s ao formulados em espa cos de dimen c ao innita e envolvem fun c oes continuamente diferenci aveis. Detalhes sobre o desenvolvimento apresentado neste par agrafo s ao discutidos no Ap endice A. Considere o seguinte problema abstrato de otimiza c ao: (P ) Minimizar J(x) sujeito a x C, F (x) K, 81

82

DO PRINC CAP ITULO 4. DEMONSTRAC AO IPIO DO MAXIMO

onde X , Y s ao espa cos de Banach; O X aberto; C X , K Y s ao fechados e convexos; J : O IR, F : O Y s ao continuamente diferenci aveis. Na teoria de controle otimo, a condi c ao x C est a associada a uma limita c ao no controle (e.g. u(t) q.s.) e a restri c ao F (x) K representa a equa c ao diferencial (ou integral), assim como outras equa c oes envolvendo a vari avel de estado (e.g. (t1 , z (t1 )) = ). A forma desejadada do teorema de multiplicadores que procuramos e a seguinte: Conjectura: [Lagrange generalizado] Se x e um m nimo local do problema (P ), ent ao existem IR, X , Y tais que i) dJ (x ) dF (x ) = ; ii) 0, + + = 0; onde e satisfazem eventualmente outras restri co es com rela ca o aos conjuntos C e K (de prefer encia com = 0). Para obter o resultado desejado e necess ario aproximar localmente o conjunto dos pontos admiss veis Xad := C F 1 (K ) O para o problema (P ) por conjuntos convexos apropriados e, posteriormente, aplicar um teorema de separa ca o para conjuntos convexos em espa cos de Banach. Antes de apresentarmos os resultados principais deste par agrafo, esclarecemos a nota c ao utilizada no texto subseq uente. Dado X um espa co de Banach, C X , x C , y Xad , denotamos por C (x) o cone tangencial em x por C (somente para C convexo); (veja Deni c ao A.2.1)

L(Xad , y ) o cone linearizado em y para o problema (P ) (veja Deni c ao A.2.9) A seguir enunciamos os teoremas de multiplicadores usados na demonstra c ao do princ pio do m aximo. Demonstra c oes completas destes resultados s ao fornecidas no Par agrafo A.3. Teorema 4.1.1 Seja x um m nimo local de (P ). Se x e um ponto regular para (P ), ent ao existem C (x ) , K (F (x )) tais que dJ (x ) dF (x ) = . (4.1)

C o cone dual a C em X . (veja Deni c ao A.3.1)

T (C, x) o cone tangencial a C por x; (veja Deni c ao A.2.2)

A equa c ao (4.1) e denominada condi c ao de KuhnTucker (veja Deni c ao A.2.5 para o conceito de ponto regular). Teorema 4.1.2 Seja x um m nimo local de (P ). Se x e um ponto fracamente regular para (P ), ent ao existem 0, C (x ) , K (F (x )) tais que dJ (x ) dF (x ) = , onde | | + + = 0. (4.2)

4.2. UM PROBLEMA AUXILIAR

83

A equa c ao (4.2) e denominada condi c ao de FritzJohn (veja Deni c ao A.2.5 para o conceito de ponto fracamente regular). Observa c ao 4.1.3 Para problemas de otimiza c ao da forma especial Minimizar J (x) s.a. x IRn g (x) 0, i = 1, , m i hj (x) = 0, j = 1, , l

e poss vel obter uma condi c ao suciente (condi c ao de Slater) para que uma solu c ao x seja sempre regular (veja [We]). Neste caso obtemos um teorema de multiplicadores com > 0 (compare com a conjectura discutida na p agina 82). 2 2 2

4.2

Um Problema Auxiliar

A m de simplicar a nota c ao, consideramos o problema P (t0 , z0 ) veja Par agrafo 3.1 com tempo inicial t0 = 0 e tempo nal t1 = T . Temos assim o seguinte problema de controle otimo T L(t, z (t), u(t)) dt Minimizar J ( z, u ) := L ( T, z ( T )) + 1 0 sujeito a P (0, z0 ) T 0 ; u L1 ([0, T ]; IRm ), u(t) q.s. em [0, T ] ; t z (t) = z0 + f (s, z (s), u(s)) ds, t [0, T ] ; (T, z (T )) =
0

onde as fun c oes L, f , L1 , e H s ao denidas como no Par agrafo 3.1. Seja agora (z , u , T ) uma solu c ao qualquer para o problema P (0, z0 ). Neste par agrafo, obtemos atrav es de uma mudan ca de vari aveis denominada transforma ca o no tempo um problema auxiliar. Tal problema nos permite investigar o problema P (0, z0 ) sob a otica do princ pio do m aximo. Come camos por denir o conjunto V+ := {v L (0, 1) | v ( ) 0 q.s.}. Dada agora uma fun c ao v V+ , denimos a aplica c ao t C [0, 1] e o escalar T 0 da seguinte forma:

t( ) :=
0

v (s) ds, [0, 1],

T := t(1).

(4.3)

Observe que para cada trajet oria z C ([0, T ]; IRn ), e poss vel associar a fun c ao x n C ([0, 1]; IR ) denida pela correspond encia x( ) := z (t( )), [0, 1]. (4.4)

84

DO PRINC CAP ITULO 4. DEMONSTRAC AO IPIO DO MAXIMO

m (t) q.s., para Seja ainda v V+ . Note que, uma vez xada w L loc ([0, ); IR ) com w m cada controle u L ([0, T ]; IR ) corresponde o controle w L ([0, 1]; IR m ) da forma

w( ) :=

u(t( )), se {s [0, 1] | v (s) > 0} w (t( )), se {s [0, 1] | v (s) = 0}

(4.5)

(a escolha da fun c ao w e esclarecida no Par agrafo 4.3). Formulamos a seguir um problema de otimiza c ao auxiliar nas vari aveis t, x, v . 1 v ( ) L(t( ), x( ), w ( )) d Minimizar I ( t, x, v ) := L ( t (1) , x (1)) + 1 0 sujeito a x C ([0, 1]; IRn ), t C ([0, 1]; IR), v V+ , (t(1), x(1)) = , P A(w ) v (s) f (t(s), x(s), w (s)) ds, [0, 1], x ( ) = z + 0 0 t( ) = v (s) ds, [0, 1],
0

onde w e dado (a escolha do par ametrow , fun c ao correspondente ao controle otimo u , e esclarecida no decorrer do texto). Vericamos inicialmente que toda solu c ao (z , u , T ) do problema P (0, z0 ) induz uma solu c ao (t , x , v ) do problema P A(w ). Lema 4.2.1 Seja (z , u , T ) uma solu ca o de P (0, z0 ). Sejam ainda w L e fun co es t , x , v satisfazendo (4.3), (4.4) e (4.5). Ent ao (t , x , v ) e m nimo local de P A(w ). Demonstra c ao: Vericamos inicialmente que t , x , v satisfazem as restri c oes de P A(w ).

L ([0, 1]; IRm )

x ( ) = z (t( )) = z0 +
0

t ( )

f (s, z (s), u (s)) ds

= z0 +
0

f (t (r ), z (t (r )), u (t (r ))) v (r ) dr v (r ) f (t (r ), x (r ), w (r )) dr ;

= z0 +
0

(t (1), x (1)) = (T , z (T )) = ; Note anda que I (t , x , v ) = J (z , u , T ). De fato,


1

I (t , x , v ) = L1 (t (1), x (1)) + = L1 (T , z (T )) + = J (z , u , T ).
0 T 0

v ( ) L(t ( ), x ( ), w ( )) d L(s, z (s), u (s)) ds

4.2. UM PROBLEMA AUXILIAR Denimos a vizinhan ca O de (t , x ) da seguinte forma: O := {(t, x) C ([0, 1]; IRn ) C ([0, 1]; IR) | t t

85

< 1, x x

< 1}.

Seja agora (t, x) O satisfazendo as restri c oes de P A(w ). Denimos as fun c oes z n m L ([0, t(1)]; IR ) e u L ([0, t(1)]; IR ) por z (s) := x( (s)), u(s) := w ( (s)), onde (s) := inf { [0, 1] | t( ) = s}.1 Temos assim z (t( )) = x( ), [0, 1], u(t( )) = w ( ), com v ( ) > 0. Com uma simples mudan ca de vari avel nas integrais que surgem em (4.3) (4.5) vericamos que (z, u, t(1)) satisfaz as restri c oes do problema P (0, z0 ). Logo, a trajet oria z e cont nua, de onde conclu mos que J (z, u, t(1)) = I (t, x, v ). A otimalidade de (z , u , T ) implica agora em I (t, x, v ) = J (z, u, t(1)) J (z , u , T ) = I (t , x , v ), cando assim provado o teorema. (Usamos tacitamente na demonstra c ao o fato de que, caso seja ilimitado, ent ao L e f satisfazem sup{ |L(t, x, w ())| ; t [0, t + 1], x IRn } m(), para alguma fun c ao m L1 [0, 1].) sup{ |f (t, x, w ())| ; t [0, t + 1], x IRn } m(),

Antes de prosseguirmos com a an alise dos extremais do problema P A(w ), e necess ario esclarecer a seguinte quest ao: A equa c ao integral para x em P A(w ) dene um operador continuamente diferenci avel. Este resultado e vericado no lema a seguir, que trata a forma geral do operador em quest ao. Lema 4.2.2 Seja g : [0, 1] IRl IRl mensur avel no primeiro argumento e duas vezes continuamente diferenci avel no segundo. Seja ainda x C ([0, 1]; IRl ). Suponha que existe n 1 m L [0, 1] tal que para todo [0, 1] e y IR com |y | ||x || + 1 tenhamos max{ |g(, y )|, |Dx g(, y )|, |Dxx g(, y )| } m( ). Seja O uma vizinhan ca aberta de x . A aplica ca o G : O L ([0, 1]; IRl ) C ([0, 1]; IRl ) denida por

(Gx)( ) :=
0
1

g(s, x(s)) ds

(4.6)

O conjunto { [0, 1] | t( ) = s} e um intervalo fechado para todo s [0, 1].

86

DO PRINC CAP ITULO 4. DEMONSTRAC AO IPIO DO MAXIMO

e continuamente diferenci avel em O e sua derivada (de Fr echet) em x O e dada por

(DG(x)(h))( ) =
0

Dx g(s, x(s))h(s) ds, [0, 1].

(4.7)

Demonstra c ao: As hip oteses do lema garantem que o operador G em (4.6) est a bem denido em uma vizinhan ca O L ([0, 1]; IR l ) de x . Temos ainda que o operador no lado direito de (4.7) L ([0, 1]; IR l ) h
0

Dx g(s, x(s))h(s) ds C ([0, 1]; IRl )

e linear e cont nuo se x O. Portanto, para provar o lema basta vericar (4.7) em um u nico ponto x O, por exemplo em x = x . Seja h L ([0, 1]; IRl ) com h < 1. Ent ao, para todo [0, 1] temos

|G( x + h)( ) G( x)( ) Portanto, lim

0 1 0 1 0

Dx g(s, x (s))h(s) ds| |g(s, x (s) + h(s)) g(s, x (s)) Dx g(s, x (s))h(s)| ds |h(s)|2 sup{|Dxx g(s, )| ; | x (s)| |h(s)|} ds
2

m 1.

G( x + h) G( x)
0

Dx g(s, x (s))h(s) ds

= 0,

provando assim que (DG( x)(h))( ) =

Dx g(s, x (s))h(s) ds.

Uma vez esclarecida esta quest ao sobre a equa c ao integral para x em P A(w ), podemos enm aplicar o teorema de multiplicadores 4.1.1 ao problema P A(w ). Lema 4.2.3 Seja (t , x , v ) um m nimo local do problema auxiliar P A(w ) e T = t (1). Suponha que para t [0, T + 1] e x IRn com |x| x + 1 tenhamos |L(t, x, w ())|, |Dt L(t, x, w ())|, |Dx L(t, x, w ())| |Dtt L(t, x, w ())|, |Dtx L(t, x, w ())|, |Dxx L(t, x, w ())| |f (t, x, w ())|, |Dt f (t, x, w ())|, |Dx f (t, x, w ())| |Dtt f (t, x, w ())|, |Dtx f (t, x, w ())|, |Dxx f (t, x, w ())| m(), m(), m(), m(), (4.8)

com m L1 [0, 1]. Ent ao existem 0, IRp e fun co es absolutamente cont nuas n q : [0, 1] IR , r : [0, 1] IR, tais que (, , r, q ) = , dr ( ) = v ( ) [D f (t ( ), x ( ), w ( )) q ( ) + D L(t ( ), x ( ), w ( ))] , d t t (4.9) dq ( ) = v ( ) [Dx f (t ( ), x ( ), w ( )) q ( ) + Dx L(t ( ), x ( ), w ( ))] , d

4.2. UM PROBLEMA AUXILIAR para todo [0, 1], r (1) = Dt L1 (t (1), x (1)) Dt (t (1), x (1)) , q (1) = Dx L1 (t (1), x (1)) Dx (t (1), x (1)) , e ainda
1 0

87

(4.10)

r ( ) + f (t ( ), x ( ), w ( )) q ( ) + L(t ( ), x ( ), w ( )) (v ( ) v ( )) d 0, (4.11)

Demonstra c ao: A m de escrever o problema P A(w ) na forma do problema abstrato de otimiza c ao (P ) introduzido no Par agrafo 4.1, denimos X := C ([0, 1]; IR) C ([0, 1]; IRn ) L [0, 1], J := I, Y C := {(t, x, v ) X | v (t) 0 q.s.},

para todo v V+ .

:= C ([0, 1]; IR) C ([0, 1]; IRn ) IRp , K := {(, )} Y, < 1, x x

O := {(t, x, v ) X | t t A aplica c ao F : O Y e denida por

< 1}.

A hip otese sobre garnte que a aplica c ao (t, x) (t(1), x(1)) e continuamente diferenci avel, enquanto que o Lema 4.2.2 garante que F e continuamente (Fr echet-) diferenci avel com derivada2 v (s) ds t() 0 . DF (t , x , v )(t, x, v ) = (v (s)[Dt f (s)t(s) + Dx f (s)x(s)] + v (s)f (s)) ds x() 0 Dt (t (1), x (1))t(1) + Dx (t (1), x (1)) x(1)

v (s) ds t() 0 F (t, x, v ) := x() z0 v (s)f (t(s), x(s), w (s)) ds 0 (t(1), x(1))

A aplica c ao J : O IR tamb em e continuamente diferenci avel (pelo mesmo argumento) e 3 sua derivada e dada por
1

DJ (t , x , v )(t, x, v ) =
0
2 3

(v (s)[Dt L(s)t(s) + Dx L(s) x(s)] + v (s)L(s)) ds

+ Dt L1 (1)t(1) + Dx L1 (1) x(1)


Para simlpicar a nota c ao escrevemos f (s) no lugar de f (t (s), x (s), w (s)). Novamente adotamos uma nota c ao simplicada: L(s) := L(t (s), x (s), w (s)) e L1 (1) := L1 (1, x (1)).

88

DO PRINC CAP ITULO 4. DEMONSTRAC AO IPIO DO MAXIMO

(1) Provamos inicialmente o lema no caso em que DF (t , x , v ) : X Y n ao e sobrejetiva. E suciente provar que (, q, r ) = 0 com r ( ) + f ( ) q ( ) = 0 q.s. e que a equa c ao adjunta (4.9) vale com = 0. Considere o problema de valor inicial dy = A( )y + b( )v, y (0) = 0, y1 = Cy (1) d onde y = t , A( ) = x 0 0 v Dt f v Dx f , b( ) = 1 , C = (Dt , Dx ). f (4.13) (4.12)

Note que o fato de todo y1 IRp poder ser alcan cado como valor nal em (4.13) por uma escolha adequada de v L [0, 1] implica na sobrejetividade de DF (t , x , v ). De fato, seja (, ) a matriz de transi c ao de (4.13), i.e. as colunas de (, ) geram solu c oes linearmente dy , x independentes de = A( )y . Seja ( y, y 1 ) Y qualquer ( y = (t, x )). Logo, existe y = (t ) d tal que

y ( )

A(s) y (s) ds = y ( ), [0, 1].

(Aplica c ao do teorema de ponto xo de Banach para operadores integrais de Volterra; veja [Kre, Par agrafo 5.4].) Escolha v de modo que (4.13) possua solu c ao y = (t, x) com y1 (= Cy (1)) = y 1 C y (1). E + t, x f acil ver que ( y + y, v ) = (t + x, v ) X satisfaz , x DF (t , x , v )( y + y, v ) = (t , y 1 ) = ( y, y 1 ), cando assim vericada a sobrejetividade de DF (t , x , v ). Como supomos que DF (t , x , v ) n ao e sobrejetiva, necessariamente existe (ao menos p um) IR \{ } ortogonal ao subespa co {y1 IRp | y1 e ating vel por algum v L [0, 1]}. Note que = Cy (1) =
0 1

C (1, )b( )v ( ) d , v L [0, 1].

Logo, = 0 q.s. em [0,1]. Dena q = (r, q ) C ([0, 1]; IRn+1 ) por q ( ) := (1, ) C . Temos ent ao C (1, )b( ) dq ( ) = A( ) q ( ), [0, 1] d q (1) = C (provando (4.9) com = 0) (provando (4.10))

e ainda 0 = b( ) q ( ) = r ( ) + f ( ) q ( ), q.s. em [0, 1], provando assim (4.12) e, por conseguinte, (4.11).

4.2. UM PROBLEMA AUXILIAR

89

(2) Consideramos agora o caso em que DF (t , x , v ) : X Y e sobrejetiva. Neste caso (t , x , v ) e um ponto fracamente regular para P A(w ). De fato, como int(C ) = temos que o cone tangencial C (t , x , v ) tamb em possui interior n ao vazio. O teorema da aplica ca o aberta (Teorema A.2.6 e Observa c ao A.2.8) garante que int{DF (t , x , v ) C (t , x , v )} = . O Teorema 4.1.2 (veja tamb em Observa c ao 4.1.3) garante a exist encia de 0, C (t , x , v ) e y Y com + + y = 0 satisfazendo para todo (t, x, v ) X . Note que (t, x, 0) 0 para todo par t, x. De fato, isto segue da identidade (t, x, 0) = (t + t , x + x , v ) (t , x , v ) e do fato (t + t , x + x , v ) C (t , x , v ) . Logo, como e linear em todos os argumentos, segue que (t, x, 0) = 0 para todo par t, x. Desta forma, podemos concluir que (t, x, v ) = (v ) e da deni c ao do cone tangencial C (t , x , v ) temos Escrevendo agora y = ( , , ) Y , obtemos para todo par t, x (v ) =
0 1

(t, x, v ) = DJ (t , x , v )(t, x, v ) y (DF (t , x , v )(t, x, v )),

(4.14)

(v v ) 0, v V+ .

(4.15)

[v (s)(Dt L(s)t(s) + Dx L(s) x(s)) + v (s)L(s)] ds

+ [Dt L1 (1)t(1) + Dx L1 (1) x(1)] t() x()


0

v (s) ds
0

v (s)[Dt f (s)t(s) + Dx f (s)x(s)] + v (s)f (s) ds (4.16)

com (, , , ) = .4 Dena r e q como solu c ao do problema de valor nal (retrocedendo no tempo) denido em (4.9), (4.10). Temos que provar que (, , r, q ) satisfazem (4.11) e (, , r, q ) = . t Escolha x = y como solu c ao do problema de valor inicial (4.13). Substituindo em (4.16), os termos ( ) e ( ) desaparecem. Para o primeiro termo em obtemos
1

(Dt (1)t(1) + Dx (1) x(1)),

v (s)Dx L(s) x(s) ds =


1

=
0 1

=
0 1

dq (s) v (s)Dx f (s) q (s)) x(s) ds d 1 dx 1 q (s) (s) ds q (s) x(s) 0 (v (s)Dx f (s) q (s)) x(s) ds d 0 q (s) [v (s)Dt f (s)t(s) + v (s)Dx f (s)x(s) + v (s)f (s)] ds
1 0

=
0

q (1) x(1)
1

v (s)q (s) Dx f (s)x(s) ds

=
0
4

q (s) [v (s)Dt f (s)t(s) + v (s)f (s)] ds q (1) x(1)

Nota c ao simplicada: (1) = (t (1), x (1)).

90 e ainda
1

DO PRINC CAP ITULO 4. DEMONSTRAC AO IPIO DO MAXIMO

v (s)Dt L(s)t(s) ds =
0 1

r (s) v (s)q (s) Dt f (s) t(s) ds d


1

=
0

r (s)v (s) ds r (1)t(1)

v (s)q (s) Dt f (s)t(s) ds.

Substituindo as duas u ltimas express oes em (4.16) e observando que r (1)t(1) q (1) x(1) obtemos (v ) =
0 1 1

[Dt L1 (1) Dt (1) ] t(1) , [Dx L1 (1) Dx (1)] x(1)


1 0 1

v (s)L(s) ds +
0 1 0

v (s)q (s) f (s) ds +

q (s) v (s)Dt f (s)t(s) ds

q (1) x(1) +

v (s)r (s) ds

q (s) v (s)Dt f (s)t(s) ds r (1)t(1)

+ [Dt L1 (1)t(1) + Dx L1 (1) x(1)] (Dt (1)t(1) + Dx (1) x(1))


1

=
0

v (s)[r (s) + f (s) q (s) + L(s)] ds.

De (4.15) segue agora


1 0

[r (s) + f (s) q (s) + L(s)] (v (s) v (s))ds = (v v ) 0, v V+ ,

provando (4.11). Se (, , r, q ) = , ter amos = 0 e, como conseq uencia de (4.14), y = 0 (supomos DF (t , x , v ) sobrejetora). Isto entretanto contradiz a desigualdade + + y = 0, garantida pelo Teorema 4.1.2. Fica assim provado o lema.

4.3

Condi c oes Necess arias de Otimalidade

A demonstra c ao do princ pio do m aximo (ver Teorema 3.1.2) e constitu da basicamente da transforma c ao das equa c oes e inequa c oes do Lema 4.2.3 ao intervalo [0, T ]. A condi c ao de otimalidade (veja tem iv) do Teorema 3.1.2) e, em particular, obtida atrav es da escolha adequada de w e v . A demonstra c ao est a dividida em seis passos principais: (1) Obten c ao da equa c ao adjunta. Usando a nota c ao do Lema 4.2.3 denimos (s) := inf { | t( ) = s}, (s) := r ( (s)), (s) := q ( (s)), para s [0, T ]. Logo (t( )) = r ( ), (t( )) = q ( ). De (4.9) segue que d dt ( ) = v ( )[Dx f ( ) q ( ) Dx L( )]. dt d

4.3. CONDIC OES NECESSARIAS DE OTIMALIDADE Como


dt d ( )

91

= v ( ), obtemos a equa c ao adjunta5 d (t) = Dx f [t] (t) Dx L[t] = Dx H [t] dt

com a condi c ao de contorno (T ) = q (1) = Dx L1 [T ] Dx [T ]. Analogamente, obtemos para o problema de valor inicial d (t) = Dt H [t], dt (T ) = Dt L1 [T ] Dt [T ] . (2) A escolha de v V+ . Denimos a seguir v : [0, 1] IR, de modo que { [0, 1] | v ( ) = 0} seja uma uni ao enumer avel de intervalos disjuntos Bk e que {t (Bk ) | k IN} seja um subconjunto denso de [0, T ]. Tome {tk }kIN um subconjunto denso de [0, T ], k > 0 com k := tk i , + 2T t <t
i k

k =
k =1

1 2

e dena Bk .

Bk := [k , k + k ],

B :=
k I N

Denimos agora a fun c ao v da seguinte forma: v ( ) := Note que t (1) = temos


1 0 v ( )d

0 , B 2T , sen ao.

1 . Note ainda que para todo Bk , = T , pois ([0, 1] \ B ) = 2

t ( ) =
0

v ( ) d = 2T [0, k ] \

Bi
ti <tk

= 2T k

i
ti <tk

= tk .

Portanto {t (Bk ) | k IN} e denso em [0, T ], completando assim a constru c ao. (3) Provamos que (t) + H (t, z (t), (t), u (t)) = 0, q.s. em [0, T ]. Suponha por contradi c ao que (t) + f (t, z (t), u (t)) (t) + L(t, z (t), u (t)) > 0 em algum subconjunto com medida positiva de [0, T ]. Como t e absolutamente cont nua, a mudan ca de vari aveis t = t ( ) nos permite conluir que r ( ) + f (t ( ), x ( ), w ( )) q ( ) + L(t ( ), x ( ), w ( )) > 0
Nota c ao: f [t] = f (t, z (t), u (t)), L[t] = L(t, z (t), u (t)), L1 [t] = L1 (t, z (t)), [t] = (t, z (t)). Analogamente, escrevemos para a fun c ao hamiltoniana (veja Deni c ao 3.1.1) H [t] = H (t, z (t), (t), u (t)) = (t), f (t, z (t), u (t)) + L(t, z (t), u (t)).
5

92

DO PRINC CAP ITULO 4. DEMONSTRAC AO IPIO DO MAXIMO

em um subconjunto A de { [0, 1] | v ( ) > 0} com (A) > 0. Denindo agora v ( ) := obtemos


0 1

v ( ), A 0 , A

[r ( ) + f ( ) q ( ) + L( )] (v ( ) v ( )) d < 0,

contradizendo (4.11). (4) Obten c ao da equa c ao de evolu c ao da fun c ao de Hamilton. Note que de (1) e (3) segue H (t, z (t), (t), u (t)) = (t) =
T t

Dt H [s] ds Dt L1 [T ] + Dt [T ] . + 1, |u| < j

(5) Escolha de w no subconjunto { [0, 1] | v ( ) = 0}. Sejam cj IR para j IN, tais que para todo |t| T + 1, |x| x tenhamos

|L(t, x, u)|, |f (t, x, u)|, |Dx L(t, x, u)|, |Dx f (t, x, u)|, |Dt L(t, x, u)|, |Dt f (t, x, u)| cj , |Dxx L(t, x, u)|, |Dxx f (t, x, u)|, |Dxt L(t, x, u)|, |Dxt f (t, x, u)| cj , Escreva agora Bk = j IN Bk,j , k IN, onde (Bk,j ) c0 /(2k cj ) para alguma constante c0 . (Este passo e desnecess ario quando e limitado.) Para cada j IN seja {uj } um subconjunto denso de {u IRm | j 1 |u| < j }. i I N i Escreva Bk,j = iIN Bk,j,i, onde Bk,j,i s ao intervalos disjuntos. Dena agora w ( ) := uj i , se Bk,j,i . Note que a condi c ao (4.8) do Lema 4.2.3 e satisfeita para essa escolha de w . De fato, para todo |t| T + 1, |x| x + 1 temos
1 0

|Dtt L(t, x, u)|, |Dtt f (t, x, u)|, |Dtx L(t, x, u)|, |Dtx f (t, x, u)| cj .

|L(t, x, w ( ))| d

=
[0,1]\B

|L(t, x, u (t ( )))| d +
S Bk,j,i

|L(t, x, u (t ( )))| d

M + M + M +

|L(t, x, uj i )| d

(Bk,j )cj
k,j

k,j

c0 cj . 2k cj

Provando assim que L, f e suas derivadas pariciais de ordem 2 s ao majoradas por uma 1 fun c ao L .

4.4. EXERC ICIOS (6) Obten c ao da condi c ao de otimalidade. Tome v V+ com v = v q.s. fora de Bk,j,i . De (4.11) segue que
Bk,j,i j [r ( ) + f (tk , z (tk ), uj i ) q ( ) + L(tk , z (tk ), ui )]v ( ) d 0.

93

Como t ( ) = tk para Bk,j,i, temos r ( ) = (tk ), q ( ) = (tk ) em Bk,j,i. Logo,


j (tk ) + f (tk , z (tk ), uj i ) (tk ) + L(tk , z (tk ), ui ) 0,

isto e

Como {tk }kIN e denso em [0, T ], obtemos da continuidade de e H


(t) + H (t, z (t), uj i , (t)) 0, t [0, T ].

(tk ) + H (tk , z (tk ), uj i , (tk )) 0.

A densidade de {uj i }i,j em nos permite concluir, por argumento semelhante, que (t) + H (t, z (t), u, (t)) 0, u , t [0, T ]. Esta desigualdade, juntamente com (3), implica na condi ca o de otimalidade H (t, z (t), u, (t)) H (t, z (t), u (t), (t)), q.s. em [0, T ], para todo u .

4.4

Exerc cios

4.1 Considere o problema de otimiza c ao (P) do Par agrafo 4.1. Mostre que x O e ponto regular para (P) se e somente se Y = dF (x)C (x) K (F (x)). 4.2 De exemplo de um problema de otimiza c ao (P) que possua um ponto fracamente regular que n ao seja regular. 4.3 (Teorema da aplica c ao aberta) Sejam X, Y espa cos de Banach. Mostre que se T B (X, Y ) e sobrejetora, ent ao existe r > 0 tal que Br T (B1 ).

94

DO PRINC CAP ITULO 4. DEMONSTRAC AO IPIO DO MAXIMO

Ap endice A

Otimiza c ao Innita
Neste ap endice discutimos os detalhes do desenvolvimento apresentado no Par agrafo 4.1. As deni c oes pertinentes s ao fornecidas assim como as demonstra c oes completas dos resultados daquele par agrafo.

A.1

Um Problema Abstrato de Otimiza c ao

A t tulo de motiva c ao, suponha que J : IRn IR e uma aplica c ao diferenci avel. Se x IRn e tal que J (x), J ( x) = min n
xI R

onde J : U IR, G = (g1 , . . . , gm ) : U IRm , H = (h1 , . . . , hl ) : U IRl s ao aplica c oes diferenci aveis no aberto U IRn . Representamos as restri c oes de forma simplicada por G(x) , H (x) = . As condi c oes necess arias para uma solu c ao x deste problema s ao fornecidas pelo teorema dos multiplicadores de Lagrange. Teorema A.1.1 Sejam J, G, H fun co es satisfazendo as condi co es acima. Se a fun ca o J sujeita a `s restri co es G(x) , H (x) = possui um extremo local (max/min) em x , ent ao existem IR, = (1 , . . . , m ) IRm , = (1 , . . . , l ) IRl tais que: i) J (x ) +
m i=1

ent ao o gradiente de J se anula em x , i.e. J ( x) = . A rec proca e verdadeira se J for convexo. Considere agora o problema de otimiza c ao com restri c oes diferenci aveis: Minimizar J (x) sujeto a g (x) 0, 1 i m, i hi (x) = 0, 1 i l

i gi (x ) +

m j =1

j hj (x ) = ;

ii) i 0, i gi (x ) = 0, 1 i m; 95

96 iii) 0, | | + || + || = 0.

INFINITA APENDICE A. OTIMIZAC AO

Neste par agrafo desenvolvemos um resultado an alogo em espa cos de Banach. Tal resultado e usado na demonstra c ao do princ pio do m aximo, apresentada no Par agrafo 4.2. Antes de formular o problema abstrato de otimiza c ao em espa cos de Banach necessitamos de alguns conceitos. Sejam X , Y espa cos normados, M X , z X , usamos a nota c ao: Br (z ) := {x | ||x z || r }; Br := Br ( ), r > 0; int(M ) := {x X | r > 0 com Br (x) M }; cl(M ) := X \int(X \M ); B (X, Y ) := {T | T : X Y linear, cont nua }; X := B (X, IR). Note que B (X, Y ) e tamb em um espa co normado que e completo quando Y for completo. O espa co X e o dual topol ogico de X . O u ltimo conceito que necessitamos diz respeito ` a regularidade de aplica c oes entre espa cos de Banach. Deni c ao A.1.2 Sejam X, Y Espa cos de Banach e O X aberto. Uma aplica c ao F : O Y e dita (Frechet-) diferenci avel em x O, quando existe T B (X, Y ) satisfazendo
h

lim

F (x + h) F (x) T h h

= 0.

dF (x) := T e denominada derivada de F em x (unicamente determinada). F e dita continuamente (Frechet-) diferenci avel em O, quando for diferenci avel em todo x O e a aplica c ao dF : O B (X, Y ) e cont nua. 2 2 2 Formulamos novamente o problema abstrato de otimiza c ao introduzido no Par agrafo 4.1: (P ) Minimizar J(x) sujeito a x C, F (x) K

onde X , Y s ao espa cos de Banach; O X aberto; C X , K Y s ao fechados e convexos; J : O IR, F : O Y s ao continuamente diferenci aveis. A seguir obtemos o teorema de multiplicadores desejado (veja conjectura na p agina 82) 1 aproximando localmente o conjunto dos pontos admiss veis Xad := C F (K ) O para (P ) por conjuntos convexos apropriados e utilizando um teorema de separa c ao para conjuntos convexos em espa cos de Banach.

A.2

Lineariza c ao do Problema de Otimiza c ao

Deni c ao A.2.1 Seja X um espa co de Banach, C X convexo, x C . O conjunto C (x) := {a(c x) | a 0, c C } e denominado cone tangencial em x por C (veja Figura A.1). 2 2 2

DO PROBLEMA DE OTIMIZAC A.2. LINEARIZAC AO AO x C C x

97

(C x) C (x)

(C x) T (C, x)

Figura A.1: Cones tangenciais C (x) e T (C, x). Deni c ao A.2.2 Seja X um espa co de Banach, M X , x M . O conjunto T (M, x) := {h X | t0 > 0 e r : [0, t0 ] X tal que x + th + r (t) M para t [0, t0 ], lim r (t)/t = 0}
t0

e denominado cone tangencial a M por x (veja Figura A.1).

2 2 2

Lema A.2.3 Seja X um espa co de Banach, C X fechado e convexo, x C . S ao verdadeiras as arma co es: i) C x, (C x)1 , C (x) s ao convexos; ii) C x, (C x)1 s ao fechados; iii) C (x) T (C, x); onde (M )1 := M B1 , para todo subconjunto M de um espa co normado Z . Demonstra c ao: Segue imediatamente das Deni c oes A.2.1 e A.2.2. Teorema A.2.4 Se x Xad = C F 1 (K ) O e um m nimo local de (P ), ent ao para todo h T (Xad , x ) temos dJ ( x) h 0.

Demonstra c ao: Sejam t0 IR e r : [0, t0 ] X escolhidos como na Deni c ao A.2.2 para o cone tangencial T (Xad , x ). Logo, para todo t (0, t0 ] temos 0 t1 (J ( x + th + r (t)) J ( x)) t1 (J ( x + th) J ( x)) + t1 (J ( x + th + r (t)) J ( x + th)) r (t) ,

t1 (J ( x + th) J ( x)) + t1 dJ (t )
t0

onde a exist encia de t X e garantida pelo teorema do valor m edio. O teorema segue agora tomando o limite t 0, uma vez que lim r (t)t1 = 0 e lim t = x .
t0

98

INFINITA APENDICE A. OTIMIZAC AO

Deni c ao A.2.5 Seja x O. Dizemos que x e um ponto regular para (P ) quando int[dF (x)(C x) (K F (x))]. Caso int[dF (X )(C x) (K F (x))] = , x e dito ponto fracamente regular para (P ). 2 2 2 O resultado a seguir representa um passo fundamental para a demonstra c ao do desejado teorema de condi c oes necess arias. O leitor atento observa que este resultado pode ser interpretado como uma generaliza c ao do teorema da aplica c ao aberta. Para detalhes veja [ZoKu]. Teorema A.2.6 Sejam X , Y espa cos de Banach, T B (X, Y ) e C X , K Y fechados e convexos. Para x C , y K s ao equivalentes as arma co es: a) Y = T (C (x)) K (y ); b) Existe r > 0, tal que Br T ((C x)1 ) (K y )1 . Demonstra c ao: (a) (b) (1) Provamos que C (x) = nIN n(C x)1 . A inclus ao C (x) nIN n(C x)1 segue diretamente da deni c ao de C (x). Seja agora z = a(c x) C (x). Escolha b (0, 1) tal que b(c x) B1 . Como B1 e C x s ao conjuntos convexos, temos que r (c x) (C x)1 para todo r [0, b]. Logo z = a(c x) = na n (c x) n(C x)1 para n sucientemente grande. Como z C (x) e arbitr ario, temos C (x) nIN n(C x)1 . (2) Analogamente prova-se que K (y ) = nIN n(K y )1 . (3) Dena As := s[T ((C x)1 ) (K y )1 ], s IR. Armamos que Y = nIN An . De fato, basta observar que Y = T (C (x)) K (y ) = T =
m,nI N

nI N

n(C x)1
nI N

mI N

m(K y )1

[nT ((C x)1 ) m(K y )1 ] =

n[T ((C x)1 ) (K y )1 ].

(Na u ltima igualdade usamos a inclus ao m(K y )1 n(K y )1 , para m n, a qual se deve a (K y )1 e a convexidade de (K y )1 .) (4) Do teorema de Baire segue que existe pelo menos um m IN com int(cl(Am )) = . (Teorema de Baire: Se um espa co m etrico completo e escrito como uni ao enumer avel de subconjuntos, ent ao pelo menos um destes cont em um aberto; veja [Kre] ou [Ru1].) (5) Provamos que int(cl(A1 )). De fato, (4) implica que a int(cl(Am )) e de (3) temos que k IN com a cl(Ak ). Logo, pela deni c ao de As , temos que mk1 a cl(Am ). Como a int(cl(Am )), ent ao > 0 com B (a) int(cl(Am )). Mas mk1 a cl(Am ) e cl(Am ) e convexo, ent ao > 0 tal que B cl(Am ). Portanto, Bm1 cl(A1 ). (6) Seja r > 0 com B2r cl(A1 ). Provamos que Br A1 , obtendo assim (b). Note que r Br cl(A1/2 ) {y Y | dist( y , A1/2 ) } = A21 + B21 r . 2

DO PROBLEMA DE OTIMIZAC A.2. LINEARIZAC AO AO Reduzindo o di ametro dos conjuntos pelo fator 2i temos B2i r A2(i+1) + B2(i+1) r , i IN.

99

Dado y Br denimos as sequ encias {xi }iIN X e {yi }iIN , {ri }iIN Y indutivamente i=1: i>1: y = T (21 x1 ) 21 y1 + r1 com x1 (C x)1 , y1 (K y )1 , r1 21 r ; ri = T (2(i+1) xi+1 ) 2(i+1) yi+1 + r1+1 com xi+1 (C x)1 , yi+1 (K y )1 , ri+1 2(i+1) r.
n n

Denindo agora un :=
i=1

2i xi e vn :=
i=1

2i yi , temos (A.1)

y = T un vn + rn , n IN. Note que lim rn = e ainda que un e de Cauchy em X pois xi 1, i IN e


n+m

un + m u n

2i xi
i=n+1

2n .

Como X e Banach, existe u X com lim un = u e como T e cont nua ent ao T u = lim T un . Logo (A.1) garante que vn converge para algum v Y e temos y = T u v . Vericamos por m que u (C x)1 e v (k y )1 . n i n , n IN. Logo u c ao linear convexa dos Note que un = n e combina i=1 2 xi + 2 elementos x1 , x2 , , xn , de (C x)1 . Como (C x)1 e convexo, temos u (C x)1 . A inclus ao v (k y )1 e demonstrada de forma an aloga. (b) (a) Obviamente T (C (x)) K (y ). Se y Y, y = ent ao r y 1 y Br . Logo r y
1

y = T (a(c x)) b(k y ),

para a, b 0, c C e k K apropriados. Isto prova que y = T (r 1 y a(c x)) (r 1 y b(k y )) T (C (x)) K (y ).

Corol ario A.2.7 Seja x admiss vel para (P ), i.e. x Xad = C F 1 (K ) O. S ao equivalentes as armativas: a) x e um ponto regular para (P ); b) Y = dF (x)C (x) K (F (x)).

100

INFINITA APENDICE A. OTIMIZAC AO

Demonstra c ao: (b) (a): Segue da aplica c ao do Teorema A.2.6 a T = dF (x), y = F (x). (a) (b): Seja y Y . Como x e regular, existem > 0 e > 0 tais que y B dF (x)(C x) (K F (x)). Portanto, y dF (x)1 (C x) 1 (K F (x)) dF (x)C (x) (K (F (x)) e o teorema ca provado. Observa c ao A.2.8 Para C = X , K = { } obtemos como corol ario do Teorema A.2.6 o conhecido teorema da aplica c ao aberta da an alise funcional: Se T B (X, Y ) e sobrejetiva, ent ao existe r > 0 com Br T (B1 ). (Veja [Kre, Par agrafo 4.12].) Deni c ao A.2.9 Seja x Xad = C F 1 (K ) O. O conjunto L(Xad , x) := {h X | h C (x), dF (x)h K (F (x))}. e denominado cone linearizado em x para (P). 2 2 2 O teorema a seguir nos permite acoplar a desigualdade dJ (x0 )h 0, h T (Xad , x ), obtida no Teorema A.2.4 com a derivada de F . Este e exatamente o fato que fornece as condi c oes necess arias para o problema abstrato de otimiza c ao (veja Teoremas A.3.3 e A.3.4). Teorema A.2.10 Se x e um ponto regular para (P ) ent ao L(Xad , x) T (Xad , x). Demonstra c ao:1 Seja h C (x) com h = a(c x), dF (x)h = b(k F (x)), onde a, b 0, c C e k K . Temos que provar que t0 > 0 e r : [0, t0 ] X satisfazendo para todo t [0, t0 ]: x + th + r (t) C, F (x + th + r (t)) K e ainda que lim r (t)/t = 0.
t0

2 2 2

Como x e ponto regular, ent ao x + 2th C e F (x) + 2t dF (x)h K para t sucientemente pequeno. Como C e K s ao ambos convexos, basta provar que t0 > 0 e r : [0, t0 ] X satisfazendo x + 2r (t) C, F (x) + 2z (t) K, t [0, t0 ] e lim r (t)/t = 0,
t0

(A.2)

com z : [0, t0 ] Y denida por z (t) := F (x + th + r (t)) F (x) t dF (x)h. Para cada t [0, t0 ], construimos os vetores r (t) X e z (t) Y tomando limites de
1

Conforme [Al].

DO PROBLEMA DE OTIMIZAC A.2. LINEARIZAC AO AO

101

sequ encias que s ao construidas por uma variante do m etodo de Newton. Vamos ` a constru c ao: Se h = 0 tome simplesmente r (t) . Seja ent ao h X \ { } com h = a(c x), dF (x)h = b(k F (x)), onde a, b 0, c C e k K . O Teorema A.2.6 e o Corol ario A.2.7 garantem a exist encia de s > 0 tal que Bs dF (x)(C x)1 (K F (x))1 . (A.3)

Escolha [0, 1 4 ] com B4 O e dF ( ) dF (x) s/2, para todo B4 . Dena agora t0 := 2 h 1 e tome t [0, t0 ] qualquer. Nos passos a seguir denimos os valores de r (t) e z (t) e provamos que satisfazem (A.2). s x x para todo (1) Provamos inicialmente que F ( x) F ( x) dF (x)( xx ) 2 x , x B4 . De fato, denindo g( ) := F ( x + (1 ) x) dF (x)( xx ) para [0, 1] temos g(1) g(0) sup
[0,1]

g ( )

= sup{ (dF ( ) dF (x))( xx ) | entre x ex } s x x . 2 (2) Denimos indutivamente sete sequ encias que nos permitir ao construir r (t) e z (t). Para que a constru c ao fa ca sentido denimos r1 = z1 = x1 = y1 = . Para k IN {0} tome rk := rk1 + xk1 , zk := zk1 + yk1 , dk := zk F (x + th + rk ) + F (x) + t dF (x)h, se dk = , uk = vk = , uk , vk : se dk = , uk (C x)1 , vk (K F (x))1 com dF (x)uk vk = s dk 1 dk , xk := s1 dk uk , yk := s1 dk vk . (3) Provamos usando argumento indutivo que as sequ encias em (2) est ao bem denidas e que para todo k IN vale rk 2s1 d0 (C x)1 , zk 2s1 d0 (K F (x))1 , dk 2k d0 2k s. Para k = 0 temos r0 = z0 = 0 e x + th + r0 x t h 2. Logo, de (1) segue s d0 = F (x + th) F (x) dF (x)th t h s. 2 Note ainda que u0 e v0 est ao bem denidos por (A.3). Para k 1 temos
k 1 i=0 k 1 i=0 k 1 i=0

rk =

xi =

s1 di ui = 2s1 d0

di ui , 2 d0

102

INFINITA APENDICE A. OTIMIZAC AO

1 1 com ui (C x)1 . Note que 0 di (2 d0 )1 1, 0 i k 1 e k i=0 di (2 d0 ) 1. Logo s(2 d0 )1 rk e combina c ao linear convexa de u0 , , uk1 , (C x)1 , i.e. rk 2s1 d0 (C x)1 . A estimativa para zk e obtida de forma an aloga. Como d0 s, temos

x + th + rk x e

t h + rk

4,

x + th + rk1 x

dk = F (x + th + rk ) F (x) t dF (x)h zk

= F (x + th + rk ) F (x) t dF (x)h zk1 yk1 = F (x + th + rk ) F (x + th + rk1 ) dF (x)xk1 .

= F (x + th + rk ) F (x) t dF (x)h zk1 + dk1 dF (x)xk1

De (1) obtemos agora 1 1 s xk 1 dk1 uk1 dk1 2k d0 , 2 2 2 completando assim a prova por indu ca o. (4) Sobre a converg encia das sequ encias rk e zk : {rk }kIN e de Cauchy pois k =0 xk 2 < . Denindo r (t) := lim rk , temos que dk
k k

z (t) 2s1 d0 (K F (x))1 , pois (K F (x))1 e fechado. Como t [0, t0 ] e arbitr ario, r e z est ao bem denidas no intervalo [0, t0 ]. (5) Verica c ao de (A.2). 1 1 Em (3) vimos que s1 d0 1 4 . Logo r (t) 2 (C x)1 e z (t) 2 (K y )1 , i.e. x + 2r (t) C, Para completar note que 0 t1 r (t) t1 2s1 d0 F (x) + 2z (t) K, t [0, t0 ].

r (t) 2s1 d0 (C x)1 , pois (C x)1 e fechado. {zk }kIN e de Cauchy pois k=0 yk 2 < . Denindo z (t) := lim zk , temos que

provando assim que lim r (t)t1 = .


t0

2s1 t1 F (x + th) F (x) t dF (x)(h) ,

A.3

Condi c oes Necess arias para o Problema Abstrato

Neste par agrafo provamos uma vers ao do teorema de multiplicadores de lagrange, que nos permite obter condi c oes necess arias para a otimalidade do problema (P ). Deni c ao A.3.1 Seja X um espa co de Banach e M X . O conjunto M := { X | , m 0 m M }

e denominado cone dual a M em X .2


2

2 2 2

A aplica c ao de um funcional X ao elemento x X e aqui denotada por , x .

A.3. CONDIC OES NECESSARIAS PARA O PROBLEMA ABSTRATO

103

Observa c ao A.3.2 Um subconjunto M de um espa co vetorial e denominado cone, quando x M implica em ax X para todo a (0, ). E f acil ver que o conjunto M na Deni c ao A.3.1 satisfaz essa propriedade. Outra propriedade de f acil verica c ao do cone dual e que (M x) = M (x) para x M X . 2 2 2 Teorema A.3.3 Seja x um m nimo local de (P ). Se x e um ponto regular para (P ), ent ao existem C (x ) , K (F (x )) satisfazendo a condi ca o de KuhnTucker: dJ (x ) dF (x ) = . (A.4)

Demonstra c ao: Dos Teoremas A.2.4 e A.2.10 temos dJ (x )h 0, para todo h L(Xad , x ), isto e dJ (x )h 0, h C (x ) com dF (x )h K (F (x )). Fazemos agora uma constru c ao que nos permite utilizar um teorema de separa c ao para conjuntos convexos para provar o teorema. (1) Denimos o conjunto A Y IR por A := { (y dF (x )x, dJ (x )x + a) | x C (x ), y K (F (x )), a 0 }. A e obviamente convexo e ainda (, 0) A (tome x = , y = , a = 0). Note ainda que (, 0) / int(A) pois (, b) / A para b < 0. (2) Provamos que int(A) = . Como x e um ponto regular para (P ), o Corol ario A.2.7 e o Teorema A.2.6 garantem que r > 0 tal que Br dF (x )(C x )1 + (K F (x ))1 . Dena := sup{dJ (x )x | x (C x )1 }. Basta provarmos que Br {b IR | b } A. Sejam y Br e b , ent ao existem x (C x )1 C (x ), y (K F (x ))1 K (F (x )) com y = y dF (x )x. Tomando a := b dJ (x )x, temos a b 0 e b = dJ (x )x + a. Logo ( y , b) A. (3) Provamos que , y dF (x )x + (dJ (x )x + a) 0, x C (x ), y K (F (x )), a 0. De (1) e (2) podemos aplicar um teorema de separa c ao a (, 0) A (veja [We]) que, neste caso particular, nos garante a exist encia de (Y IR) , = satisfazendo , z , (, 0) , z A.

Podemos decompor em = (, ) Y IR, onde + | | = 0. Temos ent ao para z = ( y , b) A 0 , ( y , b) = , y + b.

104

INFINITA APENDICE A. OTIMIZAC AO

A desigualdade desejada segue agora da deni c ao de A. (4) Provamos que > 0. Tomando x = y = em (3) obtemos a 0 para todo a 0; logo 0. Se = 0, ent ao , dF (x )x y 0, x C (x ), y K (F (x )). , y 0, y Y. De onde conclu mos que = , o que contradiz o fato de + | | = 0. (5) Constru c ao de C (x ) , K (F (x )) . Podemos supor sem perda de generalidade que = 1. Tomando x = , a = 0 em (3) temos , y 0, y K (F (x )), 0, x C (x ), Entretanto, do Corol ario A.2.7 temos dF (x )C (x ) K (F (x )) = Y , o que implica em

provando que K (F (x )) . Tomando agora y = , a = 0 em (3) obtemos dJ (x )x , dF (x )x provando que dJ (x ) dF (x ) C (x ) . A equa c ao (A.4) segue agora tomando := dJ (x ) dF (x ) e := , completando assim a demonstra c ao. Teorema A.3.4 Seja x um m nimo local de (P ). Se x e um ponto fracamente regular para (P ), ent ao existem 0, C (x ) , K (F (x )) satisfazendo a condi ca o de FritzJohn: dJ (x ) dF (x ) = , (A.5)

onde | | + + = 0. Demonstra c ao: Se x for ponto regular para (P ), basta aplicar o Teorema A.3.3 e obtemos (A.5) com = 1. Suponha agora que x e ponto fracamente regular para (P ), mas n ao e regular. Denindo o conjunto A := dF (x )(C x ) (K F (x )), temos que int(A) = , A e convexo, / int(A). Portanto, o mesmo teorema de separa c ao usado na demonstra c ao do Teorema A.3.3 (veja [We]) nos garante a exist encia de Y , = satisfazendo , a Da deni c ao de A segue , dF (x )x y 0, x (C x ), y (K F (x )). 0 a A.

Tomando x = , temos (K F (x )) . Tomando y = , segue que dF (x ) (C x ) . Dena agora := dF (x ). Note que a Observa c ao A.3.2 garante que C (x ) = (C x ) , (K F (x )) = K (F (x )) . Logo, C (x ) , K (F (x )) e a equa c ao (A.5) segue com = 0.

Bibliograa
[Al] [An] Alt, W., Stabilit at mengenwertiger Abbildungen mit Anwendungen auf nichtlineare Optimierungsprobleme, Bayreuther Mathematische Schriften, 3, 1979 Anand, D.K., Introduction to Control Systems. 2nd ed., Pergamon Press, Oxford, 1984

[AtFa] Athans, M. e Falb, P.L., Optimal Control, McGraw-Hill Book Company, New York, 1966 [BaCa] Bardi, M. e Capuzzo-Dolcetta, I., Optimal control and viscosity solutions of HamiltonJacobiBellman equations, Birkh auser, Boston, 1997 [BaNe] Balakrishnan, A.V. e Neustadt, L.W., eds., Computing Methods in Optimization Problems, Proceedings of a conference held at University of California, Los Angeles, January 1964, Academic Press, London, 1964 [Bar] Barnett, S., Matrices in Control Theory with Applications to Linear Programming, Van Nostrand Reinhold Company, London, 1971

o, A., Optimal exploitation of renewable resource stocks: [BaLe] Baumeister, J. e Leita Necessary conditions, Optimal Control Applications and Methods, to appear o, A. e Silva, G.N., Optimal control problems with inni[BLS1] Baumeister, J., Leita te horizon whose control laws contain measures I: Maximum principle, Proceedings of the 3rd International Conference on Nonlinear Dynamics, Campos do Jord ao, Brazil, July 2000, to appear o, A. e Silva, G.N., Optimal control problems with in[BLS2] Baumeister, J., Leita nite horizon whose control laws contain measures II: Dynamic programming, to appear [Be] Bellman, R.E., Introduction to the Mathematical Theory of Control Process, Vol I: Linear equations and quadratic criteria, Academic Press, New York, 1967

[BeDr] Bellman, R.E. e Dreyfus, S.E., Applied Dynamic Programming, Princeton University Press, Princeton, 1962 [Ber] Berkovitz, L.D., Optimal Control Theory, SpringerVerlag, New York, 1974 105

106 [Bo] [Br]

BIBLIOGRAFIA Boltyanski, W.G., Mathematische Methoden der optimalen Steuerung, Carl Hanser Verlag, M unchen, 1972 Brokate, M., Kontrolltheorie, Vorlesungskript, Universit at Hamburg, 1984

[BMS] Bulirsch, R., Miele, A., Stoer, J. e Well, K.H., eds., Optimal control: Calculus of Variations, Optimal Control Theory and Numerical Methods, International Series of Numerical Mathematics, 111, Birkh auser, Basel, 1993 [CaHa] Carlson, D.A. e Haurie, A.B., Innite Horizon Optimal Control: Theory and Applications, SpringerVerlag, Heidelberg, 1987 [Cl] Clark, C.W., Mathematical Bioeconomics: The Optimal Management of Renewable Resources. 2nd ed., John Wiley and Sons, New York, 1990

[CCM] Clark, C.W., Clarke, F.H. e Munro, G.R. The optimal exploitation of renewable resource stocks: Problems of irreversible investment, Econometrica, 47 (1979), 25 47 [CrLi] Crandall, M.G. e Lions, P.L., Viscosity solutions of HamiltonJakobi Equations, Trans. of the American Mathematical Society, 277 (1983), 1 42 [FlRi] [FlSo] [F o1] [F o2] [F o3] [Gan] [Gol] [Gr] [Ha] Fleming, W.H. e Rishel, R.W., Deterministic and Stochastic Optimal Control, SpringerVerlag, Berlin, 1975 Fleming, W.H. e Soner, H.M., Controlled Markov Processes and Viscosity Solutions, SpringerVerlag, New York, 1993 llinger, O., Nichtlineare Regelungen I: Grundlagen und harmonische Balance, Fo OldenbourgVerlag, M unchen, 1969 llinger, O., Nichtlineare Regelungen II: Anwendung der Zustandsebene, Fo OldenbourgVerlag, M unchen, 1970 llinger, O., Nichtlineare Regelungen III: Ljapunow-Theorie und PopowFo Kriterium, OldenbourgVerlag, M unchen, 1970 Gantmacher, F.R, Applications of the Theory of Matrices, Intersciences Publishers, New York, 1959 Goldenstine, H., A History of the Calculus of Variations, from 17th through the 19th Century, SpringerVerlag, New York, 1980 Groetsch, C.W., Generalized Inverses of Linear Operators, Dekkeric, New York, 1977 Halkin, H., Necessary conditions for optimal control problems with innite horizons, Econometrica 42 (1974), 267 272

BIBLIOGRAFIA [He1] [He2]

107

Hestenes, M.R., Calculus of Variations and Optimal Control Theory, John Wiley and Sons, London, 1966 Hestenes, M.R., Variational theory and optimal control theory, in Balakrishnan, A.V. e Neustadt, L.W., eds., Computing Methods in Optimization Problems, 122, Proceedings of a conference held at University of California, Los Angeles, January 1964, Academic Press, London, 1964 Heuser, H., Funktionalanalysis. 3. Au., B.G. Teubner, Stuttgart, 1992

[Heu]

[HeLa] Hermes, H.R. e LaSalle, J.P., Functional Analysis and Time-Optimal Control, Academic Press, New York, 1969 [Ho] [Is] [Je] Hocking, L.M., Optimal Control: An Introduction to the Theory with Applications, Clarendon Press, Oxford, 1991 Isidori, A., Nonlinear Control Systems: An Introduction. 2nd ed., Springer Verlag, Berlin, 1989 Jetschke, G., Mathematik der Selbstorganisation: Qualitative Theorie nichtlinearer dynamischer Systeme und gleichgewichtsferner Strukturen in Physik, Chemie und Biologie, ViewegVerlag, Braunschweig, 1989 Knobloch, H.W., Isidori, A. e Flockerzi, D., Topics in Control Theory, DMV Seminar, 22, Birkh auser, Basel, 1993

[KIF]

[KnKw] Knobloch, H.W. e Kwakernaak, H., Lineare Kontrolltheorie, Springer Verlag, Berlin, 1985 [Know] Knowles, G., An Introduction to Applied Optimal Control, Academic Press, San Francisco, 1981 [Kra] [Kre] Krabs, W., Einf uhrung in die Kontrolltheorie, Wissenschaftliche Buchgesellschaft, Darmstadt, 1978 Kreyzig, R., Introductory Functional Analysis with Applications, John Wiley and Sons, New York, 1978

[LeMa] Lee, E.B. e Markus, L., Foundations of Optimal Control Theory, John Wiley and Sons, London, 1967 [Leig] [Leit] Leigh, J.R., Functional Analysis and Linear Control Theory, Academic Press, London, 1980 o, A., On optimal control problems with innite horizon, Proceedings of the Leita 3rd International Conference on Nonlinear Dynamics, Campos do Jord ao, Brazil, July 2000, to appear

108 [Lei] [Li]

BIBLIOGRAFIA Leitmann, G., The Calculus of Variations and Optimal Control: An Introduction, Plenum Press, London, 1981 Lions, J.L., Optimal Control of Systems Governed by Partial Dierential Equations, SpringerVerlag, Heidelberg, 1971

[LiYo] Li, X. e Yong, J., Optimal control theory for innite dimensional systems, Birkh auser, Basel, 1994 [MaSt] Macki, J. e Strauss, A., Introduction to Optimal Control Theory, Springer Verlag, Heidelberg, 1981 [Mo] [Mu] Morgan, F., Geometric Measure Theory: A Beginners guide, Academic Press, Boston, 1988 Murray, J.M., Existence theorems for optimal control and calculus of variations problems where the state can jump, SIAM J. Control and Optimization, 24 (1986), 412 438 Piehler, J., Einf uhrung in die dynamische Optimierung, B.G. Teubner, Leipzig, 1966

[Pi]

[PBG] Pontryagin, L.S., Boltyanskij, V.G., Gamkrelidze, R.V. e Mishchenko, E.F., The Mathematical Theory of Optimal Processes, Interscience Publishers, New York, 1962 (edi c ao original em russo, 1961) [Ra] [Ri] [Ru1] [Ru2] [Sc] Ramsey, F.P., A mathematical theory of saving, Economic Journal, 38 (1928), 543 549 Rishel, R.W., An extended Pontryagin principle for control systems whose control laws contain measures, SIAM J. Control, 3 (1965), 191 205 Rudin, W., Functional Analysis, McGrawHill, New York, 1973 Rudin, W., Real and Complex Analysis, McGrawHill, New York, 1966 Scheck, F., Mechanics: From Newtons Laws to Deterministic Chaos. 3rd ed., SpringerVerlag, Berlin, 1999

[SeSy] Seierstad, A. e Sydster, K., Optimal Control Theory with Economic Applications, North-Holland, Amsterdam, 1987 [SeZh] Sethi, S.P. e Thompson, G.L., Optimal Control Theory: Applications to Management Science, Martinus Nijho Publishing, Boston, 1981 [SHB] Schmidt, W.H., Heier, K., Bittner, L. e Bulirsch, R., eds., Variational Calculus, Optimal Control and Applications, Proceedings of the 12th International Conference in Honour of L. Bittner and R. Kloetzler, Trassenheide, Germany, September, 1996, International Series of Numerical Mathematics, 124, Birkh auser, Basel, 1998

BIBLIOGRAFIA [SFG]

109

Skowronski, J.M., Flashner, H. e Guttalu, R.S., eds., Mechanics and control, Proceedings of the 3rd Workshop on Control Mechanics, in Honor of the 65th Birthday of George Leitmann, January, 1990, Lecture Notes in Control and Information Sciences, 151, SpringerVerlag, Berlin, 1991 Silva, G.N. e Vinter, R.B., Necessary conditions for optimal impulsive control problems, SIAM J. Control Optimization, 35 (1997), 1829 1846 Sontag, E.D., Mathematical Control Theory: Deterministic Finite Dimensional Systems. 2nd ed., SpringerVerlag, New York, 1998 Sotomayor, J., Li co es de Equa co es Diferenciais Ordin arias, Projeto Euclides, 11, Instituto de Matem atica Pura e Aplicada, Rio de Janeiro, 1979 Sniedovich, M., Dynamic Programming, Marcel Dekker, New York, 1992 Troutman, J.L., Variational Calculus and Optimal Control: Optimization with Elementary Convexity. 2nd ed., SpringerVerlag, New York, 1996

[SiVi] [So] [Sot] [Sn] [Tr]

[ViPe] Vinter, R.B. e Pereira, F.M.F.L., A maximum principle for optimal processes with discontinuous trajectories, SIAM J. Control and Optimization, 26 (1988), 205 229 [Wa1] [Wa2] [Wei] [We] [Za] Walter, W., Analysis II. 2. Au., SpringerVerlag, Berlin, 1991 Walter, W., Gew ohnliche Dierentialgleichungen. 6. Au., SpringerVerlag, Berlin, 1996 Weinstock, R., Calculus of Variations, Dover, New York, 1974 Werner, J., Optimization: Theory and Applications, ViewegVerlag, Wiesbaden, 1984 Zabczyk, J., Mathematical Control Theory: An Introduction, Birkh auser, Boston, 1992

[ZoKu] Zowe, J. e Kurcyusz, S., Regularity and stability for the mathematical programming problem in Banach spaces, Appl. Math. Optimization, 5 (1979), 49 62

Indice
Bernoulli, Jakob, 16 Bernoulli, Johann, 16 c alculo variacional condi c ao (de contorno) natural, 12 condi c ao necess aria, 11, 22 condi c ao suciente, 8, 11 problemas de fronteira livre, 11, 31 problemas de horizonte livre, 31 cicl oide, 17 condi c ao de contorno, 4 de contorno natural, 12, 30, 31, 41, 44, 52 de contorno transversal, 4, 29 de FritzJohn, 83, 104 de KuhnTucker, 82, 103 de m nimo, 45, 52 de n ao acoplamento, 51, 57 de otimalidade, 45, 51, 56 de salto, 59 de Slater, 83 de transversalidade, 31, 44 de WeierstraErdmann, 24 cone, 103 dual, 82, 102 linearizado, 100 tangencial a um conjunto por um ponto, 82, 97 em um ponto por um conjunto, 82, 96 conjunto de n vel, 35 controle otimo condi c ao de m nimo, 51, 56, 59 condi c ao de salto, 59 110 condi c ao necess aria, 51, 56, 59 admiss vel, 42 BangSingularBang, 41 Bang-Bang, 37 impulsivo, 58 derivada de Frechet, 96 du BoisReymond, Paul, 9 equa c ao adjunta, 51, 56 de estado, 51, 56 de EulerLagrange, 8, 11, 23, 54 primeira integral, 14 espa co C [a, b], 4, 5 C 1 [a, b], 4, 5 1 [a, b], 9 C0 [a, b], 18 C 1 [a, b], 18 C de fun c oes teste, 9 Euler, Leonhard, 9 exemplo alunissagem, 62 Braquist ocrona, 16 consumo investimento, 67 controle otimo a uma curva alvo, 31 geod esicas na esfera, 14 geod esicas no plano, 14 lan camento de um foguete, 36 pescaria otima, 69 tempo m nimo, 60 extremal, 13 singular, 39 fun c ao

INDICE admiss vel, 4 de Hamilton, 42, 50 de identica c ao, 39 estacion aria, 13 teste, 9 funcional convexo, 6 estritamente convexo, 6 Galilee, Galileo, 16 grau de liberdade, 53 Lagrange, Joseph Louis, 9 Leibniz, Gottfried Wilhelm, 16 lema du BoisReymond, 9 Lagrange, 9 m nimo global, 4 local forte, 5 fraco, 5, 21 Newton, Isaac, 16 Pareto otimalidade, 25 ponto fracamente regular, 98 ponto regular, 98 princ pio do m aximo controle impulsivo, 58 hamiltoniana convexa, 46 horizonte nito, 51 horizonte innito, 56 problema de Bolza, 50 problema de Lagrange, 50 problema de Mayer, 50 problema variacional, 3 problemas anormais, 52 processo admiss vel, 42 restri c ao isoperim etrica, 4, 35 lagrangeana, 4, 33 sistema Hamiltoniano, 55, 58

111

teorema da aplica c ao aberta, 100 fundamental do c alculo, 18 multiplicadores de Lagrange, 29, 95 trajet oria admiss vel, 42 transforma c ao no tempo, 83 varia c ao de G ateaux, 5 Weierstra, Karl, 9