Você está na página 1de 26

1

1 Introdução
Considere o seguinte problema de controle ótimo com restrições mistas:

M inimizar l(x(0), x(1))










 s.a ẋ(t) = f (t, x(t), u(t), v(t)) p.q.t. t ∈ T


p.q.t. t ∈ T

 b(t, x(t), u(t), v(t)) = 0
(P)





g(t, x(t), u(t), v(t)) ≤ 0 p.q.t. t ∈ T


v(t) ∈ V (t) p.q.t. t ∈ T







(x(0), x(1)) ∈ C,

onde T = [0, 1], A = T × IRn × IRku × IRkv , são dadas as funções

• l : IRn × IRn → IR;

• f : A → IRn ;

• b : A → IRmb ;

• g : A → IRmg ;

com V (t) ⊂ IRkv para todo t ∈ T e C ⊂ IRn × IRn . Seja m := mb + mg e k := ku + kv


e assuma que k ≥ m. Usualmente, mb ≥ 1 e mg ≥ 1. Mas admitiremos mb = 0
(signicando que não há restrições de igualdade) e mg (signicando que não há restrições
de desigualdade).

Denition 1.1. Uma terna (x, u, v) é chamada processo se x é uma trajetória cor-
respondente aos controles u e v . O processo (x, u, v), compreendendo de uma função
x ∈ W 1,1 (T ; IRn ) (espaço das funções absolutamente contínuas de T em IRn ) e funções
mensuráveis u : T → IRku e v : T → IRkv , é dito admissível para (P ) se satisfaz as
restrições do problema (P ).

Denition 1.2. Um processo admissível (x, u, v) é um minimizador forte para (P )


se existe  > 0 tal que (x, u, v) minimiza a função custo l sobre todos os processos
admissíveis (x, u, v) de (P ) satisfazendo

|x(t) − x(t)| ≤ , ∀ t ∈ T
2

Denition 1.3. Um processo admissível (x, u, v) é um minimizador fraco para (P )


se existe  > 0 tal que (x, u, v) minimiza a função custo l sobre todos os processos
admissíveis (x, u, v) de (P ) satisfazendo

|x(t) − x(t)| ≤ , ∀ t ∈ T

|u(t) − u(t)| ≤ , p.q.t. t ∈ T

|v(t) − v(t)| ≤ , p.q.t. t ∈ T

Denition 1.4. O conjunto de índices das restrições ativas é dado por

Ia (t){i ∈ {1, ..., mg } | gi (t, x(t), u(t), v(t))(t) = 0}

e qa (t) denotará a cardinalidade de Ia (t). Também,

∇u g Ia (t) (t, x(t), u(t), v(t)) ∈ IRqa (t)×ku

denotará a matriz obtida de ∇u g(t, x(t), u(t), v(t)) removendo-se as linhas cujos índices
/ Ia (t).(Se qa (t) = 0, acontece por vacuidade).
i∈

Este trabalho foca-se nas condições necessárias de otimalidade para o problema


(P), com a função custo e a restrição dinâmica (f?) possivelmente não suaves e com
restrições mistas suave. O aspecto distinto de (P) são as restrições mistas de igualdade
e desigualdade e o fato de que a variável de controle compreende duas componentes: u
(irrestrita) e v (pointwise constrained?). Esta decomposição da variável de controle
é comum na literatura ([2,13],[1,12,14]). Manteremos tal divisão pois problemas de
controle ótimo com restrições mistas são relevantes para problemas de controle ótimo
envolvendo equações diferenciais e algébricas ([9,10]).
Embora sabemos que o princício do máximo não é, em geral, vá-
lido para (P)???, formas fraca e forte do princípio do máximo foram conseguidas
quando algumas hipóteses de regularidade foram impostas sobre as restrições mistas
([2,13,16,17,20,24]). O desenvolvimento de condições de otimalidade para problemas
com restrições mistas sem regularidade continua a ser uma área inexplorada ([13]).
Para problemas com dados suaves, incluindo continuidade com respeito a t,
hipóteses de regularidade comumente envolvem condição de posto completo

detM (t)M (t)T =


/ 0, ∀t ∈ T (1)
3

para uma certa matriz M , o mais geral sendo


 
∇u b(t, x(t), u(t), v(t))
F (t) :=  . (2)
 
∇u g Ia (t) (t, x(t), u(t), v(t))

Exceções podem ser encontradas em ([2,13]) onde versões fortes do P.M. para problemas
suaves com dados mensuráveis com relação a t são validadas sob hipóteses que podem
ser vistas em analogia a qualicação de restrição Mangasarian-Fromovitz (MFCQ) (será
denida depois), também conhecida como condição de independência linear positiva
(PLICQ).
Formas fortes do P.M. não suave para (P), que se aplicam a minimizadores
fortes, são dados em ([10,11]). Nos supracitados trabalhos, hipóteses de regularidade
sobre as restrições mistas envolve convexidade. P.M. não suave fraco para (P), que se
aplica a minimizadores fracos, são dadas em ([7,21]), onde hipóteses de convexidade
são substituidas por diferenciabilidade com respeito a (x, u, v) das função que denem
as restrições mistas. Por causa dos dados de (P) em ([7,21]) serem assumidos apenas
como mensuráveis em relação a t, a condição de posto completo (1) é substituída pela
condição de posto completo uniforme da forma

detM (t)M (t)T ≥ K, p.q.t. t ∈ T (3)

pra algum K > 0, aplicada a matriz


 
∇u b(t, x(t), u(t), v(t)) 0
Υ(t) :=  (4)
 

∇u g Ia (t) (t, x(t), u(t), v(t)) diag{ −gi (t, x(t), u(t), v(t))}
p

Uma versão não suave dada em ([7]) sob a condição de posto completo uniforme imposta
a Υ (ou seja, M = Υ em (3)) é estendida em ([5]) para cobrir problemas nos quais (3) é
imposta sobre F . Notavelmente, a condição (3) em Υ implica (3) em F , mas a inversa
pode não ocorrer ([7]). Note que a condição (1) em Υ é de fato equivalente a (1) em F .
Neste trabalho, estabelecemos a validade de um P.M. não suave fraco para (P)
sob hipóteses de regularidade nas restrições mistas que podem ser vistas em analogia
com a qualicação de restrições Mangasarian-Fromovitz da programação Matemática.
As condições consideradas são uma adaptação de [15,cond. (23)]. Hipóteses de regu-
laridade de natureza similar são impostas em [4,13], onde versões fortes do P.M. são
4

conseguidas para problemas suaves. Tb, eles foram usados em [22] para conseguir condi-
ções de otimalidade de 1a e 2a ordem para problemas envolvendo restrições mais gerais.
Todavia, em contraste a [4,13,22] nós tratamos problemas com custo e dinâmica possi-
velmente não suave. Mais ainda, como se ilustra por meio de um exemplo, as condições
tipo Mangasarian-Fromovitz que são impostas em (P) são, em geral, qualicação de
restrições menos restritivas do que a condição posto completo uniforme (3) imposta
sobre F (ambos os conjuntos de condições coincidem quando mg = 0).
A novidade deste trabalho diz respeito tanto a natureza das hipóteses de re-
gularidade, como das técnicas analíticas usadas para conseguir condições necessárias
para (P) com possíveis dados não suave. Embora impondo algum grau de suavidade
sobre as restrições mistas, a demonstração do nosso principal resultado (Teorema 3.1)
baseia-se fortemente em técnicas desenvolvidas pela análise não suave. A idéia chave
por trás da demonstração está baseada nas técnicas introduzidas em [3] para problemas
com restrições de estado puras (ver tb [25]). Um passo crucial na demonstração é a
denição de uma sequência de problemas de otimização, levando a uma sequência de
problemas de controle ótimo com restrições mistas para que condições necessárias de
otimalidade sob a condição de posto completo uniforme (3), previamente obtida em [5],
sejam aplicadas.
Similarmente a [5,7], as condições necessárias para (P) validadas nesse trabalho
envolve ∂x,u,v H , subdiferencial da função

H(t, x, p, q, r, u, v) = p.f (t, x, u, v) + q.b(t, x, u, v) + rg(t, x, u, v)

nas variáveis de estado e controle. As condições necessárias que lidamos nesse traba-
lho foram primeiro dadas em [8] para problemas de controle ótimo "standard"(ou seja,
quando as restrições mistas denidas por g e b são ausentes) e foram depois estendi-
das para cobrir problemas mais gerais tais como problemas com restrição de estado
pura [6]. Em [8], tais condições são chamadas de inclusão de Euler-Lagrange. Esta
designação foi abandonada para evitar confusão com o mesmo nome usado em con-
trole ótimo não suave para condições envolvendo normais generalizados ao gráco de
uma aplicação velocidade admissível. Como para problemas de controle ótimo naõ su-
ave gerais nossas condições envolvem a Hamiltoniana não-maximizada (Tb conhecida de
pseudo-Hamiltoniana ou Hamiltoniana de Pontryagin) que foram cunhadas as condições
5

tipo-UHI inclusão Hamiltoniana não-maximizada.


Condições tipo-UHI são diferentes do princípio do máximo não suave fraco
convencional que envolve ∂x H ×∂u H ×∂vH , o produto das subdiferenciais parciais de H
nas variáveis de controle e de estado. Como mostrado e [5,6], as principais características
das condições tipo-UHI estão retidas na presença de restrições de estado puras e mistas.
A saber, estas condições são condições sucientes de otimalidade no caso normal linear
convexo, onde o princípio do máximo não suave não são. Mais ainda, para problema de
controle ótimo padrão e para problemas com restrições de estado puras, condições tipo-
UHI podem eliminar processos que satisfazem o princípio do máximo não suave forte
e ainda não ser localmente ótimo [6,8], uma característica que é retida para condições
tipo-UHI para (P).

2 Preliminares
Notações:
• r ∈ IRp , r ≥ 0 → ri ≥ 0, ∀ i = 1, ..., p;

• |.|: Norma Euclidiana;

• B : bola unitária fechada com centro na origem;

• (x, u, v): minimizador local de (P);

• φ(t): o valor da função φ em (t, x(t), u(t), v(t));

• Ω (t) := (x(t) + B) × (u(t) + B) × [(v(t) + B) ∩ V (t)];

• W 1,1 (T ; IRp ): Espaço da funções absolutamente contínuas;

• L1 (T ; IRp ): Espaço de funções integráveis de T em IRp ;

• L∞ (T ; IRp ): Espaço de funções essencialmente limitadas de T em IRp ;

• Para δ ∈ L∞ (T ; IRmg ), δ Ia (t) (t) ∈ IRqa (t) denota o vetor obtido de δ(t), removendo-
se todas as componentes δi (t) tais que i ∈
/ Ia (t).

Como consideraremos (P) com dados possivelmente não suaves, faremos uso
da construção padrão da Análise Não-Suave.
6

Denition 2.1. Seja A ⊂ IRk um conjunto fechado e x ∈ A. Dizemos que p ∈ IRk


é um limite normal a A em x se existem pi → p, xi → x em A e uma sequência de
números positivos {Mi } tal que, para cada i ∈ IN ,

pi (y − xi ) ≤ Mi |y − xi |2 , ∀ y ∈ A.

O cone normal limite para A em x, NA (x), é o conjunto de todos os limites normais


para A em x (ver Vinter, def. 4.2.1 e 4.2.3).

Denition 2.2. Dada uma função s.c.i. f : IRk → IR ∪ {∞} e um ponto x ∈ IRk tal
que f (x) < ∞, o subdiferencial limite de f em x (também chamado de subdiferencial de
Mordukhovich) é o conjunto

∂f (x) := {ζ | (−1, ζ) ∈ Nepi(f ) (f (x), x)}

onde epi(f ) := {(η, x) | η ≥ f (x)} denota o conjunto epígrafo. (ver Vinter, def.
4.3.1 - Note que o par na denição está invertido).
Remark 2.1. Quando f é Lipschitz contínua próximo a x, o envoltório convexo da
subdiferencial limite, co ∂f (x), coincide com a subdiferencial de Clarke (ver Vinter,
prop. 4.7.6).
Dois resultados serão importantes nesse trabalho:
1o ) Teorema da Função Implícita Uniforme [9, Corolário 4.2].

Proposição 2.1. Considere um conjunto A ⊂ IRk , um número α > 0, uma família de


funções
{ψa | IRm × IRn → IRn }a∈A .

e um ponto (u0 , v0 ) ∈ IRm × IRn tal que ψa (u0 , v0 ) = 0, ∀a ∈ A. Assuma que

(i) ψa é continuamente diferenciável em (u0 , v0 ) + αB , ∀a ∈ A;

(ii) Existe uma função monótona crescente θ : (0, ∞) → (0, ∞) com θ(s) → 0+ quando
s → 0+ tal que ∀a ∈ A e (u, v) =
/ (u0 , v 0 ) ∈ (u0 , v0 ) + αB tem-se

|∇ψa (u, v) − ∇ψa (u0 , v 0 )| ≤ θ(|(u, v) − (u0 , v 0 )|)

;
7

(iii) ∇v ψa (u0 , v0 ) é não singular (??Essa matriz é quadrada??) para cada a ∈ A


e existe c > 0 tal que, ∀a ∈ A,

|[∇v ψa (u0 , v0 )]−1 | ≤ C.

Então existe δ ≥ 0 e uma família de funções diferenciáveis

{φa | u0 + δB → v0 + αB}a∈A

que são contínuas Lipschitz com constante Lipschitz comum K tais que , ∀a ∈ A,

(a) v0 = φa (u0 );

(b) ψa (u, φa (u)) = 0, ∀u ∈ u0 + δB ;

(c) ∇u φ(u0 ) = −[∇u φa (u0 , v0 )]−1 ∇u ψa (u0 , v0 );

Os números δ e K dependem de θ, C e α somente. Além disso, se A é um


conjunto de Borel e a → ψa (u, v) é uma função mensurável a Borel, para cada (u, v) ∈
(u0 , v0 )+αB , então a → φa (u) é uma função mensurável a Borel para cada u ∈ u0 +δB .
2o ) [5, teorema 3.1] corresponde às condições tipo-UHI para (P) sob a hipótese
de posto completo. Imporemos as seguintes hipóteses sobre (P) que fazem referência a
um parâmetro  > 0 e a um processo (x, u, v). A notação (b, g)(.) signica (b(.), g(.)).

(H1) A função t → f (t, x, u, v) é mensurável a Lebesgue para cada (x, u, v) e existe


uma função integrável kf tal que, p.q.t. t ∈ T ,

|f (t, x, u, v) − f (t, x0 , u0 , v 0 )| ≤ kf (t)|(x, u, v) − (x0 , u0 , v 0 )|

para todos (x, u, v), (x0 , u0 , v 0 ) ∈ Ω (t).

(H2) Graf (V ) é um conjunto mensurável a Borel e V (t) := (v(t)+B)∩V (t) é fechado


p.q.t. t ∈ T .

(H3) C é fechado e l é localmente Lipschitz numa vizinhança de (x(0), x(1)).

(H4) (b, g)(., x, u, v) é mensurável para cada (x, u, v) e t → g(t, x(t), u(t), v(t)) é L∞ (T ; IRmg ).
8

(H5) (b, g)(t, ., ., .) é continuamente diferenciável em (x(t), u(t), v(t)) + B p.q.t. t ∈ T


e existe uma função integrável Lb,g tal que p.q.t. t ∈ T ,

|(b, g)(t, x, u, v) − (b, g)(t, x0 , u0 , v 0 )| ≤ Lb,g (t)|(x, u, v) − (x0 , u0 , v 0 )|

para todos (x, u, v), (x0 , u0 , v 0 ) ∈ Ω (t).

(H6) Existe Kb,g > 0 e uma função crescente θ̃ : (0, ∞) → (0, ∞) com θ̃(s) → 0+
quando s → 0+ tal que, p.q.t. t ∈ T ,

|∇x (b, g)(t)| + |∇u (b, g)(t)| + |∇v (b, g)(t)| ≤ Kb,g

|∇x,u,v (b, g)(t, x, u, v) − ∇x,u,v (b, g)(t, x0 , u0 , v 0 )| ≤ θ̃(|(x, u, v) − (x0 , u0 , v 0 )|)

/ (x0 , u0 , v 0 ) pertencente a Ω (t).


∀ (x, u, v) =

(H ∗ ) Existe K > 0 tal que det F (t)F (t)T ≥ K p.q.t. t ∈ T , onde F foi denida em
(2).

Theorem 2.1. Seja (x, u, v) um minimizador fraco para (P). Seja

H(t, x, p, q, r, u, v) := pf (t, x, u, v) + qb(t, x, u, v) + rg(t, x, u, v).

Se, para algum  > 0, (H1)−(H6) e (H ∗ ) são satisfeitas, então existe p ∈ W 1,1 (T ; IRn ),
q ∈ L1 (T ; IRmb ), r ∈ L1 (T ; IRmg ), ζ ∈ L1 (T ; IRkv ) e λ ≥ 0 tais que

(i) / 0;
k p k∞ +λ =

(ii) (−ṗ(t), 0, ζ(t)) ∈ co ∂x,u,v H(t, x(t), p(t), q(t), r(t), u(t), v(t)) p.q.t. t ∈ T ;

(iii) ζ(t) ∈ co NV (t) (v(t)) p.q.t. t ∈ T ;

(iv) r(t).g(t, x(t), u(t), v(t)) = 0 e r(t) ≤ 0 p.q.t. t ∈ T ;

(v) (p(0), −p(1)) ∈ NC (x(0), x(1)) + λ∂l(x(0), x(1)).

Além disso, para alguma função integrável Km , temos que

|(q(t), r(t))| ≤ Km (t)|p(t)|

p.q.t. t ∈ T .
9

Enunciaremos a condição de Mangasarian-Fromovitz uniforme (H7) que, junto


com (H1) − (H6), fazem referência a algum processo (x, u, v) e um parâmetro  > 0.

(H7) Existem constantes K1 , K2 > 0 e funções h ∈ L∞ (T ; IRku ) e a ∈ L∞ (T ; IRmg )


com |h(t)| = 1 p.q.t. t ∈ T tal que p.q.t. t ∈ T ,

(i) ai (t) > K2 para i ∈ Ia (t),

(ii) ∇u g Ia (t) (t).h(t) = aIa (t) (t),

(iii) ∇u b(t).h(t) = 0,

(iv) det∇u b(t)∇u b(t)T ≥ K1 .

Primeiramente vamos escrever as condições tipo-UHI para (P ) sem restrições


de igualdade, ou seja, vamos nos concentrar no problema

M inimizar l(x(0), x(1))







s.a ẋ(t) = f (t, x(t), u(t), v(t)) p.q.t. t ∈ T





(Q)

g(t, x(t), u(t), v(t)) ≤ 0 p.q.t. t ∈ T


(u(t), v(t)) ∈ IRku × V (t)




 p.q.t. t ∈ T


(x(0), x(1)) ∈ C

Note que, neste caso, as hipóteses (H7) − (iii) e (iv) são ignoradas.

Theorem 2.2. Seja (x, u, v) um minimizador fraco para (Q) com mg ≥ 1. Seja

H(t, x, p, r, u, v) := pf (t, x, u, v) + qb(t, x, u, v) + rg(t, x, u, v).

Se, para algum  > 0, (H1) − (H7) são satisfeitas, então existe p ∈ W 1,1 (T ; IRn ),
r ∈ L1 (T ; IRmg ), ζ ∈ L1 (T ; IRkv ) e λ ≥ 0 tais que

(i) / 0;
k p k∞ +λ =

(ii) (−ṗ(t), 0, ζ(t)) ∈ co ∂x,u,v H(t, x(t), p(t), r(t), u(t), v(t)) p.q.t. t ∈ T ;

(iii) ζ(t) ∈ co NV (t) (v(t)) p.q.t. t ∈ T ;

(iv) r(t).g(t, x(t), u(t), v(t)) = 0 e r(t) ≤ 0 p.q.t. t ∈ T ;

(v) (p(0), −p(1)) ∈ NC (x(0), x(1)) + λ∂l(x(0), x(1)).


10

Além disso, para alguma função integrável R, temos que

|r(t)| ≤ R(t)|p(t)|

p.q.t. t ∈ T .

Demonstração: A técnica da demonstração consiste em denir uma sequên-


cia de problemas de otimização (Rk ) e, aplicando o princípio variacional de Ekeland
para tal sequência, obter uma sequência de problemas de controle ótimo com restrições
mistas, satisfazendo a condição de posto completo, a qual o Teorema 1.2.1 se aplica.
Tomando limites, conseguimos condições necessárias para (Q) satisfazendo (ii) − (v)
do teorema 1.2.2. Finalmente, apelando para (H7), provamos que a condição de não
trivialidade (i) do teorema 1.2.2 também se verica. Procederemos em seis passos.
PASSO 1: Introdução de novos conjuntos e funções
Achamos conveniente introduzir funções auxiliares α, z, w : T → IRmg tais que α(t) =
z(t) = w(t) = 0, p.q.t. t ∈ T . Também, conjuntos

U (t) := u(t) + B, V (t) := V (t) ∩ (v(t) + B), A (t) := α(t) + B

e considere as funções

Fz (w, α) := w − α, Fw (α) := α2 , G(t, x, z, u, v, α) := g(t, x, u, v) + z + α

que tomam valores em IRmg . Suas componentes são dadas por

Fzi (w, α) := wi − αi , Fwi (α) := αi2 , Gi (t, x, z, u, v, α) := gi (t, x, u, v) + zi + αi

com i = 1, ..., mg . Sob as hipóteses, Fz , Fw e G são mensuráveis com respeito a t e


continuas lipshitz com respeito ao restante das variáveis próximo do ponto

(x(t), z(t), w(t), u(t), v(t), α(t)).

Também, pode ser facilmente provado que existem funções integráveis Cf , CFz , CFw
e CG tais que

|f (t, x, u, v)| ≤ Cf (t), |Fz (w, α)| ≤ CFz (t), |Fw (α)| ≤ CFw (t), |G(t, x, z, u, v, α)| ≤ CG (t)

para todo (x, z, w, u, v, α) ∈ (x(t), z(t), w(t), u(t), v(t), α(t)) + B p.q.t. t ∈ T .
11

PASSO 2: Denição de uma sequência de problemas de otimização e


vericação de que o princípio variacional de Ekeland se aplica a tal sequência
Dena W como o conjunto de todas as funções mensuráveis (u, v, α) e todos os vetores
(a, b) ∈ IRn × IRn tais que p.q.t. t ∈ T ,

(u(t), v(t), α(t)) ∈ U (t) × V (t) × A (t), (a, b) ∈ C,

e para os quais existem funções absolutamente contínuas x, y, z e w tais que




 ẋ(t) = f (t, x(t), u(t), v(t)), ẏ(t) = 0, ż(t) = Fz (w(t), α(t)), ẇ(t) = Fw (α(t)) q.t.p.


 G(t, x(t), z(t), u(t), v(t), α(t)) ≤ 0 q.t.p.


.




(x(t), y(t), z(t), w(t)) ∈ (x(t), x(1), z(t), w(t)) + B q.t.p.


(x(0), y(0), z(0), w(0)) = (a, b, 0, 0)

Aqui, z e y são duas variáveis de estado adicionais e α uma variável de controle


adicional. Seja {k }k∈IN uma sequência de escalares positivos tal que k → 0 quando
k → ∞ e dena

Ψk (x, y, x0 , y 0 , z, w) := max{l(x, y) − l(x(0), x(1)) + 2k , 2k |w|, |w − z|, |x0 − y 0 |}.

Para simplicar a notação, seja E = (a, b) ∈ IR2n . Seja |E − E 0 | = |a − a0 | + |b − b0 | e


Z 1 Z 1 Z 1
ν((u, v, α), (u0 , v 0 , α0 )) := |u(t)u0 (t)|dt + |v(t) − v 0 (t)|dt + |α(t) − α0 (t)|dt.
0 0 0

Dena δW : W × W → R por

δW ((u, v, α, E), (u0 , v 0 , alpha0 , E 0 )) = ν((u, v, α), (u0 , v 0 , α0 )) + |E − E 0 |.

Considere a sequência de problemas de otimização

(Rk ) M inimizar Jk (u, v, α, E) s.a (u, v, α, E) ∈ W,

onde
Jk (u, v, α, E) = Ψk (x(0), y(0), x(1), y(1), z(1), w(1)).

Seja E = (x(0), x(1)). Como (u, v, α, E) ∈ W , W é não vazio. Além disso, como pode-se
vericar, δW dene uma métrica em W , o conjunto W é um espaço métrico completo
com relação a esta métrica, e a função de (u, v, α, E) 7→ Jk (u, v, α, E) é contínua em
(W, δW ). Agora, para todo k ∈ IN , temos

Jk (u, v, α, E) = Ψk (x(0), x(1), x(1), x(1), z(1), w(1)) = 2k .


12

Como, para todo k ∈ IN , Jk (u, v, α, E) ≥ 0, (u, v, α, E) é um "2k − minimizador"para


(Rk ). Pelo princípio variacional de Ekeland (Vinter pag. 112) existe uma sequência
(uk , vk , αk , Ek ) ∈ W tal que, para cada k ∈ N ,

δW ((uk , vk , αk , Ek ), (u, v, α, E)) ≤ k (5)

e (uk , vk , αk , Ek ) minimiza a função custo perturbada

Jk (u, v, α, E) + k δW ((uk , vk , αk , Ek ), (u, v, α, E))

para todo (u, v, α, E) ∈ W .


PASSO 3: Dedução de uma sequência de problemas de controle
ótimo padrões, reescrevendo as conclusões do Teorema de Ekeland nos ter-
mos da teoria de controle.
Seja (xk , yk , zk , wk ) a trajetória correspondente a (uk , vk , αk , Ek ). Para casa
k ∈ IN , o processo
(xk , yk , zk , wk , ω1 , ω2 , ω3 , uk , vk , αk )

com (ω1 , ω2 , ω3 ) ≡ (0, 0, 0), resolve o problema de controle (Ck ) de minimizar

Φk (γ0 , γ1 ) := Ψk (x(0), y(0), x(1), y(1), z(1), w(1))+


3
X
k |x(0) − xk (0)| + k |y(0) − yk (0)| + k ωi (1)
i=1

onde γ(t) = (x(t), y(t), z(t), w(t), ω1 (t), ω2 (t), ω3 (t)), sujeito a

ẋ(t) = f (t, x(t), u(t), v(t)), ẏ(t) = 0, ż(t) = Fz (w(t), α(t)), ẇ(t) = Fw (α(t)),








 ω̇1 (t) = |u(t) − uk (t)|, ω̇2 (t) = |v(t) − vk (t)|, ω̇3 (t) = |α(t) − αk (t)|,


 G(t, x(t), z(t), u(t), v(t), α(t)) ≤ 0,





(x(t), y(t), z(t), w(t)) ∈ (x(t), x(1), z(t), w(t)) + B,


(u(t), v(t), α(t)) ∈ U (t) × V (t) × A (t),







(x(0), y(0), z(0), w(0)) ∈ C × {(0, 0)}, (ω1 (0), ω2 (0), ω3 (0)) = (0, 0, 0),
sendo todas as relações, exceto as duas últimas, entendidas no sentido p.q.t. t ∈
T. Como k → 0, podemos tomar uma subsequência, se necessário, que
satisfaça k < ∞. Por (5) deduzimos que (uk , vk , αk ) → (u, v, α) forte-
X

mente em L1 e Ek → (x(0), x(1)). Tomando uma subsequência temos que


(uk (t), vk (t), αk (t)) → (u(t), v(t), α(t)) p.q.t. t ∈ T . Deduzimos dos fatos acima
13

que (xk , yk , zk , wk ) → (x, x(1), z, w) uniformemente. Descartando os termos iniciais


da sequência, se necessário, temos


(xk (t), yk (t), zk (t), wk (t)) ∈ (x(t), x(1), z(t), w(t)) + B, ∀k. (6)
2

Então, Sk := (xk , yk , zk , wk , 0, 0, 0, uk , vk , αk ) é um minimizador fraco de (C̃k ),


uma variante de Ck obtido pela substituição da restrição de estado

(x(t), y(t), z(t), w(t)) ∈ (x(t), x(1), z(t), w(t)) + B, ∀k :




Minimizar





 Φk (γ0 , γ1 ) := Ψk (x(0), y(0), x(1), y(1), z(1), w(1))+k |x(0) − xk (0)| + k |y(0) − yk (0)|


 X 3
+ k ωi (1)





i=1

sujeito a







(C̃k ) ẋ(t) = f (t, x(t), u(t), v(t)), ẏ(t) = 0, ż(t) = Fz (w(t), α(t)), ẇ(t) = Fw (α(t)),



ω̇1 (t) = |u(t) − uk (t)|, ω̇2 (t) = |v(t) − vk (t)|, ω̇3 (t) = |α(t) − αk (t)|,







G(t, x(t), z(t), u(t), v(t), α(t)) ≤ 0,










 (u(t), v(t), α(t)) ∈ U (t) × V (t) × A (t),



(x(0), y(0), z(0), w(0)) ∈ C × {(0, 0)}, (ω1 (0), ω2 (0), ω3 (0)) = (0, 0, 0),

onde γ(t) = (x(t), y(t), z(t), w(t), ω1 (t), ω2 (t), ω3 (t)).


PASSO 4: Dedução das condições necessárias para (C̃k ).
Seja < := {(ρ1 , ρ2 , ρ3 , ρ4 ) ∈ IR4 | ρi ≥ 0, ρ1 + ... + ρ4 = 1}, e dena

H̃(t, x, z, w, p, qz , qw , r, u, v, α) := p.f (t, x, u, v)+qz .Fz (w, α)+qw .Fw (α)+r.G(t, x, z, u, v, α).

Lemma 2.1. Existem escalares λk , ρ1k , ρ2k , ρ3k e ρ4k , vetores e2k , e3k ∈ IRmg , and
e4k ∈ IRn , funções integráveis ζk : T → IRkv and rk : T → IRmg e funções absolutamente
contínuas pk , qzk e qwk tais que

(a) λk ρ1k + k pk k∞ + k qzk kinf ty + k qwk k∞ +3λk k = 1,

(b) λk ≥ 0, |eik | = 1 para i = 2, 3, 4 e ρk = (ρ1k , ρ2k , ρ3k , ρ4k ) ∈ <,

(c) pk (1) = −λk ρ4k e4k , qwk (1) = −qzk (1) + λk ρ2k 2k e2k , qzk (1) = −λk ρ3k e3k ,

(d) (pk (0), −pk (1)) ∈ NC (xk (0), yk (0)) + λk ρ1k ∂l(xk (0), yk (0)) + λk k (B × B),
14

(e) ζk (t) ∈ Co NV (t) (vk (t)) p.q.t. t ∈ T ,

(f)
(−ṗk (t), −q̇zk (t), −q̇wk (t), 0, ζk (t), 0) ∈

Co ∂ H̃(t, xk (t), zk (t), wk (t), pk (t), qzk (t), qwk (t), rk (t), uk (t), vk (t), αk (t))

+λk k ((0, 0, 0) × B × B × B) p.q.t. t ∈ T,

onde ∂ H̃ refere-se a subdiferencial de H̃ nas variáveis (x, z, w, u, v, α),

(g) rk (t).G(t, xk (t), zk (t), uk (t), vk (t), αk (t)) = 0 e rk (t) ≤ 0 p.q.t. t ∈ T .

Demonstração: Sem perda de generalidade assuma que |wk (1)| < 1 para
todo k ∈ IN (Isto pode ser feito por causa de (6)?). Dena

h(t, x, y, z, w, ω1 , ω2 , ω3 , p, s, qz , qw , r, Π, u, v, α) := p.f (t, x, u, v) + s.0+

qz .Fz (w, α) + qw .Fw (α) + r.G(t, x, z, u, v, α) + π1 |u − uk (t)| + π2 |v − vk (t)| + π3 |α − αk (t)|,

onde Π = (π1 , π2 , π3 ). Para simplicar a notação, seja Pk := (pk , sk , qzk , qwk ). É fácil
ver que

G(t, xk (t), zk (t), uk (t), vk (t), αk (t)) = I, p.q.t. t ∈ T,
∂α
onde I é a matriz identidade. Assim, o problema C̃k satisfaz as hipóteses do teorema
1.2.1. Observando que uk e αk tomam valores no interior de conjuntos de contro-
les apropriados, a aplicação do teorema 1.2.1 fornece funções absolutamente contínuas
Pk (t), Πk (t), um escalar λk ≥ 0, e funções integráveis rk , ζk tais que
3
(A) k πik k∞ > 0,
X
λk + k pk k∞ + k sk k∞ + k qzk k∞ + k qwk k∞ +
i=1

(B) (−Ṗk (t), −Π̇k (t), 0, ζk (t), 0) ∈ Co ∂hk (t) p.q.t. t ∈ T ,

(C) ζk (t) ∈ Co NV (t) (vk (t)) p.q.t. t ∈ T ,

(D) (Pk (0), Πk (0), −Pk (1), −Πk (1)) ∈ (NC (xk (0), yk (0))×IRmg ×IRmg )×IR3 ×{(0, 0, 0, 0)}×
{(0, 0, 0)} + λk ∂Ψk (γk (0), γk (1)),

(E) rk (t).G(t, xk (t), zk (t), uk (t), vk (t), αk (t)) = 0 e rk (t) ≤ 0 p.q.t. t ∈ T ,


15

onde ∂hk (t) denota a subdiferencial de h com respeito a

(x, y, z, w, ω1 , ω2 , ω3 , u, v, α)

avaliado em Sk . Como h não depende de y, ω1 , ω2 e ω3 , deduzimos de (B) que

−Ṗk (t) = (−ṗk (t), 0, −q̇zk (t), −q̇wk (t)) e − Π̇k (t) = (0, 0, 0) (7)

Agora, voltemos a Ψk . Note que,por (H3), Ψk (x, y, x0 , y 0 , z, w) é Lipshitz na vizinhança


de (x(0), x(1), x(1), x(1), z(1), w(1)).
Armação 1: Para k sucientemente grande,

Ψk (xk (0), yk , xk (1), yk , zk (1), wk (1)) > 0. (8)

Por denição, esta relação é não negativa. Suponha que seja igual a zero. Então

yk (1) = xk (1), l(xk (0), yk (0)) < l(x(0), x(1)) (9)

(xk (0), xk (1)) ∈ C, zk (1) = 0 , wk (1) = 0. (10)

Como ẇk (t) = Fwk (α(t)) = α(t)2 ≥ 0 p.q.t. t ∈ T e wk (0) = wk (1) = 0 temos que
wk (t) = 0 e αk (t) = 0 p.q.t. t ∈ t. Assim, żk (t) = 0 p.q.t. t ∈ T que, junto com
zk (0) = 0, implica que zk (t) = 0 p.q.t. t ∈ T . Segue então que

Gi (t, xk (t), zk (t), uk (t), vk (t), αk (t)) = gi (t, xk (t), uk (t), vk (t)) ≤ 0 q.t.p. (11)

para todo i ∈ {1, ..., mg }. Assim, se Ψk (xk (0), yk , xk (1), yk , zk (1), wk (1)) = 0, deduzi-
mos de (9) − (11) que (xk , uk , vk ) é um processo admissível para (Q), que contadiz a
otimalidade de (x, u, v). Isto prova a armação 1.
Vinter, Teorema 5.5.2 (Regra do Máximo): Sejam funções localmente
contínuas Lipschitz fi : IRn → IR, i = 1, ..., m, e um ponto x ∈ IRn . Dena f (x) =
m
maxi fi (x) e Λ := {λ = (λ1 , ..., λm ) ∈ IRm | λi ≥ 0, λi = 1}. Então
X

i=1
m
X
∂f (x) ⊂ {∂( λi fi )(x) | λ ∈ Λ, e λi = 0 se fi (x) < f (x)}.
i=1

Observação: Este teorema nos diz que dado ξ ∈ ∂f (x), existe uma "combinação
convexa"{λi } de fis "ativas"tais que
m
X
ξ ∈ ∂( λi fi )(x)
i=1
16

isto implica (usando a Regra da Soma e a propriedade de homogeneidade positiva da


subdiferencial) que
X
ξ∈ λi ∂fi (x)
i

outra, um pouco mais fraca, versão da regra do Máximo.


Agora, vamos provar que o cálculo subdiferencial limite (Regra do Máximo;
ver Vinter, Teorema 5.2.2) e (8) fornecem a seguinte estimativa para o subdiferencial
de Ψk com respeito a (x, y, x0 , y 0 , z, w):

∂Ψk (xk (0), yk (0), xk (1), yk (1), zk (1), wk (1)) ⊂ {ρ1 (θ1 , θ2 , 0, 0, 0, 0)+ (12)

ρ2 (0, 0, 0, 0, 0, 2k e2 ) + ρ3 (0, 0, 0, 0, e3 , −e3 ) + ρ4 (0, 0, e4 , −e4 , 0, 0) |

(θ1 , θ2 ) ∈ ∂l(xk (0), yk (0)), |e2 | = |e3 | = |e4 | = 1, ρ ∈ R, ρi = 0 se ψ ik < Ψk }

onde e2 , e3 ∈ IRmg , e4 ∈ IRn ,

Ψk = max{ψ1k , ψ2k , ψ3k , ψ4k },

ψ1k = l(x, y) − l(x(0), x(1)) + 2k , ψ2k = 2k |w|, ψ3k = |w − z|, ψ4k = |x0 − y 0 |,

and Ψk e ψ ik denotam, respectivamente, as funções Ψk e ψik avaliadas em


(xk (0), yk (0), xk (1), yk (1), zk (1), wk (1)).
Suponha que xk (1) 6= yk (1). Então a inclusão (12) acontece com e4 ∈ IRn e
|e4 | = 1. Analogamente, se wk (1) 6= zk (1), então (12) acontece com e3 ∈ IRmg e
|e3 | = 1. Finalmente, se wk (1) 6= 0, então (12) também acontece com e2 ∈ IRmg
e |e2 | = 1. Por outro lado, se ψik = 0 para algum i ∈ {2, 3, 4}, de (8) temos que
ρik = 0. Assim, (12) acontece.
De (D), (7), and (12) deduzimos a existência de vetores

ρk = (ρ1k , ρ2k , ρ3k , ρ4k ), e2k , e3k ∈ IRmg , e4k ∈ IRn

tais que ρk ∈ R, ρik = 0 de ψ ik < Ψk ,

|e2k | = |e3k | = |e4k | = 1, (13)

Πk (t) ≡ λk k (1, 1, 1). (14)


17

Também, sk é constante e

qzk (1) = −λk ρ3k e3k , (15)

qwk (1) = −qzk (1) + λk ρ2k 2k e2k (16)

pk (1) = −sk = −λk ρ4k e4k , (17)

|pk (1)| = λk ρ4k , (18)

(pk (0), sk ) ∈ NC (xk (0), yk (0)) + λk ρ1k ∂l(xk (0), yk (0)) + λk k (B × B). (19)

As equações (13), (17), e (18) fornecem |sk | = |pk (1)|. Como ρk ∈ R temos que
|sk | = λk (1 − ρ1k − ρ2k − ρ3k ) e que, junto com (15), implica que λk = |sk | + |qzk (1)| +
λk ρ1k + λk ρ2k . Segue de (A) e das considerações acima que

λk ρ1k + λk ρ2k + k pk k∞ +2|pk (1)|+ k qzk k∞ +|qzk (1)|+ k qwk k∞ +3λk k > 0. (20)

Armação 2: (20) implica que

λk ρ1k + k pk k∞ +2|pk (1)|+ k qzk k∞ +|qzk (1)|+ k qwk k∞ +3λk k > 0. (21)

Por contradição, suponha que (20) acontece e que

λk ρ1k + k pk k∞ +2|pk (1)|+ k qzk k∞ +|qzk (1)|+ k qwk k∞ +3λk k = 0. (22)

Então λk ρ2k 6= 0, ou seja., λk 6= 0 e ρ2k 6= 0. Segue de (22) que ρ1k = ρ3k = ρ4k = 0
e, consequentemente, ρ2k = 1. Por (22) temos também que qzk (1) = 0 e qwk (t) ≡ 0.
Todavia, como λk ρ2k 6= 0, segue de (16) que qwk (1) 6= 0, que é uma contradição. Assim,
(21) acontece, e que garante que

λk ρ1k + k pk k∞ + k qzk k∞ + k qwk k∞ +3λk k > 0.

As equações (15) − (1.18) fornecem (c). Por outro lado, a hipóteses de que ?k ≥ 0,
?k ∈ R, e (13) correspondem a (b). A inclusão (1.19), junto com (1.17), implicam em
(d), e (C) e (E) são, respectivamente, (e) e (g). Para provar (f), note que

h(t, x, y, z, w, ω1 , ω2 , ω3 , p, s, qz , qw , rk , Π, u, v, α)
18

= H̃(t, x, z, w, p, qz , qw , rk , u, v, α) + π1 |u − uk | + π2 |v − vk | + π3 |α − αk |.

Estimando a subdiferencial Co ∂hk com a ajuda da regra da soma e (14), temos que

Co ∂hk ⊂ {(%1 , 0, %2 , %3 , 0, 0, 0, %4 , %5 , %6 ) | (%1 , %2 , %3 , %4 , %5 , %6 )

∈ Co ∂x,z,w,u,v,α H̃(t, xk , zk , wk , pk , qzk , qwk , rk , uk , vk , αk )}

+λk k ({(0, 0, 0, 0, 0, 0, 0)} × B × B × B),

e também (f) acontece em virtude da inclusão acima, (B), e (7). Finalmente, po uma
simples escala de argumentos, podemos normalizar a soma das normas dos multiplica-
dores sem afetar as outras inclusões do lema, implicando que (a) também acontece. Isto
completa a demonstração do lema.

Passo 5: Dedução das condições necessárias para (P) considerando


k → 0 e tomando os limites.
As sequências {e2k}, {e3k}, {e4k}, and {ρk } são uniformemente limitadas
pelo lema 1.2.1(b). Do lema 1.2.1(a), as sequências {λk }, {k pk k∞ }, {k qzk k∞ },
e {k qwk k∞ } são também uniformemente limitadas. Podemos portanto organizar,
tomando uma subsequência se necessário, que

e2k → e2 , e3k → e3 , e4k → e4 , λk → λ̂, e ρk → ρ = (ρ1 , ρ2 , ρ3 , ρ4 ),

onde |e2| = |e3| = |e4| = 1, λ̂ ≥ 0, e rho ∈ R. Agora, apelando para o teorema da


seleção mensurável e levando em conta as propriedades de diferenciabilidade da g , Fz
e Fw , deduzimos, em vista do Lema 1.2.1(f), a existência de uma função integrável Kr
tal que |rk (t)| ≤ Kr (t) p.q.t. t ∈ T . Também deduzimos que as sequências {ṗk }, {q̇zk },
e {q̇wk } são uniformemente integráveis limitadas e existe uma função integrável Kζ tal
que |ζk (t)| ≤ Kζ (t) p.q.t. t ∈ T .
Agora, achamos conveniente introduzir a seguinte versão reduzida r̃k de rk ,
dado por r̃k (t) = (1 + Kr(t))−1 rk (t). Note que a sequência {k r̃k k∞ } é uniformemente
Z t
limitada e {t → ζk ds} é equicontínua e uniformemente limitada. Após a extração
0
de subsequências temos que, para funções absolutamente contínuas p, qz , qw e funções
integráveis ζ e r̃ ∈ L∞ ,
Z t Z t
pk → p, qzk → qz , qwk → qw , ζk ds → ζds unif ormemente
0 0
19

ṗk → ṗ, q̇zk → q̇z , q̇wk → q̇w , ζk → ζ fracamente em L1 , e r̃k → r̃ fracamente* em L∞ .


Levando em conta o Lema 1.2.1(g), deduzimos que, para algum conjunto mensurável
B ⊂ T,
Z Z Z
0= r̃k (t).Gk (t)dt = r̃k (t).Gk (t) − G(t)dt + r̃k (t).G(t)dt
B B B
Z
e r̃k (t)dt ≤ 0, onde
B

Gk (t) = G(t, xk (t), zk (t), uk (t), vk (t), αk (t)), G(t) = G(t, x(t), z(t), u(t), v(t), α(t))

. Tomando limites, concluimos que r̃(t) ≤ 0 e r̃(t).G(t) = 0 p.q.t. t ∈ T . Também, uma


simples modicação da demonstração de [3, Theorem 3.1.7] e um apelo às propriedades
de semicontinuidade superior de cones normais limites e subdiferenciais, nos permite
passar o limite nas relações (a) − (f ) do Lema 1.2.1 Então resulta

(A') λ+ k p k∞ + k qz k∞ + k qw k∞ > 0,

(B') (−ṗ(t), −q̇z (t), −q̇w (t), 0, ζ(t), 0)


∈ Co ∂ H̃(t, x(t), z(t), w(t), p(t), qz (t), qw (t), r(t), u(t), v(t), α(t)) q.t.p.,

(C') ζ(t) ∈ Co NV (t) (v(t)) q.t.p.,

(D') (p(0), −p(1)) ∈ NC (x(0), x(1)) + λ∂l(x(0), x(1)),

(E') |qw (1)| = |qz (1)|, r(t) ≤ 0, e r(t).G(t, x(t), z(t), u(t), v(t), α(t)) = 0 q.t.p., onde
r(t) = (1 + Kr (t))r̃(t).

PASSO 6: Reescrever as relações (A')-(E') na forma requerida.


Relembramos que

H̃(t, x, z, w, p, qz , qw , r, u, v, α) = p.f (t, x, u, v)+qz .(w−α)+qw .α2 +r.(g(t, x, u, v)+z+α).

Estamos agora prontos para conseguir uma estimativa para Co ∂ H̃ . Temos

Co ∂ H̃(t, x, z, w, p, qz , qw , r, u, v, α) ⊂ {(θ1 + r∇x g, r, qz , θ2 + r∇u g,

θ3 + r∇v g, −qz + 2qw α + r) | (θ1 , θ2 , θ3 ) ∈ Co ∂x,u,v p.f }.


20

Como α(t) = 0 e w(t) = 0 p.q.t. t ∈ T , apelando para um teorema apropriado de


seleção, deduzimos a existência de funções mensuráveis θ1 , θ2 , θ3 , e ζ satisfazendo

(θ1 (t), θ2 (t), θ3 (t)) ∈ Co ∂x,u,v p(t).f (t, x(t), u(t), v(t)) p.q.t. t ∈ T, (23)

ζ(t) ∈ NV (t) (v(t)) p.q.t. t ∈ T.

Concluimos então que

(−ṗ(t), −q̇z (t), −q̇w (t), 0, ζ(t), 0) = (θ1 (t) + r(t)∇x g(t), r(t), qz (t), (24)

θ2 (t) + r(t)∇u g(t), θ3 (t) + r(t)∇v g(t), r(t)?qz (t)).

De (24) e (E'), deduzimos que, p.q.t. t ∈ T ,

qz (t) = r(t), q̇z (t) = −r(t), q̇w (t) = −qz (t) (25)

e |qw (1)| = |qz (1)|. seja

H(t, x, p, r, u, v) := p.f (t, x, u, v) + r.g(t, x, u, v).

Disso e de (19) temos

(−ṗ(t), 0, ζ(t)) = (θ1 (t) + r(t)∇x g(t), θ2 (t) + r(t)∇u g(t), θ3 (t) + r(t)∇v g(t)) (26)

para algum (θ1 (t), θ2 (t), θ3 (t)) ∈ Co ∂x,u,v p.f (t, x(t), u(t), v(t)) p.q.t. t ∈ T . Segue que

(−ṗ(t), 0, ζ(t)) ∈ Co ∂x,u,v H(t, x(t), p(t), r(t), u(t), v(t)) p.q.t. t ∈ T. (27)

Levando em conta(E'), temos que

r(t).g(t, x(t), u(t), v(t)) = 0 e r(t) ≤ 0p.q.t.t ∈ T. (28)

Deduzimos que (27), (C'), (28), e (D') são, respectivamente, (ii), (iii), (iv), and (v) of
the teorema. Resta provar (i). Armação 3:

λ + |p(t)| > 0, ∀ t ∈ T. (29)

Primeiro, observe que se qz ≡ 0 e qw ≡ 0, então (29) acontece. Por contradição, assuma


que λ = 0 e p(τ ) = 0 para algum τ ∈ T . Existem dois casos a considerar:
Caso 1. Suponha que r(t) = 0 q.t.p. . Então por (25) temos que qz ≡ 0, qw ≡ 0.
21

Deduzimos de (26) e (H1) a existência de K1 integrável com K1 (t) ≥ 0 q.t.p. tal que
|ṗ(t)| ≤ K1 (t)|p(t)| q.t.p. . A desigualdade de Gronwall (ver [25]) e o fato de que
p(τ ) = 0 para algum τ ∈ T implicam que p ≡ 0. Mas isso, junto com o fato de que
λ = 0 e qz ≡ 0, qw ≡ 0, e p ≡ 0, contradiz (A').
Caso 2. Suponha agora que r(t) 6= 0 num subconjunto de T de medida de Lebesgue
diferente de zero. Deduzimos de (26) que 0 = θ2 (t) + r(t).∇u g(t) p.q.t. t ∈ T , onde
theta2 (t) foi denido em (23). Tomando o produto interno do lado esquerdo da equação
anterior e o vetor h (denido em (H7)) obtemos, de (H7) and (iv) do Teorema, que
θ2 (t).h(t) = −r(t).a(t) p.q.t. t ∈ T . Por hipótese, existe K2 integrável com K2 (t) ≥ 0
q.t.p. tal que

|r(t)| ≤ K2 (t)|p(t)| p.q.t.t ∈ T. (30)

Deduzimos de (26), (30), e (H1) a existência de K3 integrável com K3 (t) ≥ 0 q.t.p. tal
que |ṗ(t)| ≤ K3 (t)|p(t)| p.q.t. t ∈ T . Usando novamente a desigualdade de Gronwall e o
fato de que p(τ ) = 0 para algum τ ∈ T temos que p ≡ 0. Mas então, por (1.30), temos
que r(t) = 0 q.t.p., que é uma contradição. Provamos que λ + |p(t)| > 0 para todo
t ∈ T , uma condição que garante que λ+ k p k∞ > 0. A demonstração esta completa.♣

3 Princípio Variacional de Ekeland


Se x0 é um minimizador aproximado de uma função f , então existe um ponto x próximo
a x0 que é um minimizador para um nova função f , obtida de f adicionando-se uma
pequena perturbação. Diremos que x0 é um -minimizador for f se

f (x0 ) ≤ inf f (x) + .


x∈X

Nestas circunstâncias, existe algum x ∈ dom(f ) que satisfaz


1
d(x, x0 ) ≤  2

que é um minimizador para a função perturbada


1
f (x) = f (x) +  2 d(x, x)

ou seja,
f (x) = inf f (x)
x∈X
22

Esta é uma versão do Princípio Variacional de Ekeland. Ela nos diz que podemos
perturbar f de tal forma para grarantir que um minimizador x para o problema per-
turbado exista. Além disso, podemos conseguir que tanto a distância do minimizador
x da função f a x0 e também o termo de perturbação sejam pequenos, se  é pequeno.
A idéia principal esta expressa na gura abaixo.

Figura 1: Princípio Variacional de Ekeland .

Theorem 3.1. Sejam (X, d(., .)) espaço métrico completo, f : X → IR ∪ {+∞} função
semicontinua inferior, x0 ∈ dom(f ) e números α > 0 e λ > 0. Assuma que

f (x0 ) ≤ inf f (x) + αλ.


x∈X

Então existe x ∈ X tal que

(i) f (x) ≤ f (x0 ),

(ii) d(x0 , x) ≤ λ,

(iii) f (x) ≤ f (x) + αd(x, x), ∀x ∈ X .

4 Qualicação de Restrições em Programação Não-Linear


Consideremos o seguinte problema:

minimizar f (x) (31)

sujeito a h(x) = 0
23

g(x) ≤ 0

onde f : IRn → IR, g : IRn → IRp e h : IRn → IRm são funções continuamente
diferenciáveis. O conjunto

Ω = {x ∈ IRn | g(x) ≤ 0, h(x) = 0} (32)

é chamado conjunto viável.

Denition 4.1. Um subconjunto não vazio C ⊂ IRn é um cone quando, para todo t ≥ 0
e d ∈ C tem-se td ∈ C .

Denition 4.2. Dado um conjunto S ⊂ IRn , denimos o polar de S por

P (S) = {p ∈ IRn | pT x ≤ 0, ∀x ∈ S}

Lemma 4.1. Dado S ⊂ IRn , P (S) é cone, convexo e fechado.


Lemma 4.2. Dado S ⊂ IRn , temos S ⊂ P (P (S)).
Lemma 4.3. (Farkas geométrico) Considere C ⊂ IRn um cone convexo, fechado e
não vazio. Então P (P (C)) = C .

Lemma 4.4. Dados os vetores v1 , v2 , ..., vm ∈ IRn − {0}, o conjunto


m
X
C={ yi vi | yi ≥ 0, i = 1, ..., m}
i=1

é um cone convexo e fechado.

Lemma 4.5. (Farkas algébrico) Considere A ∈ IRm×n e c ∈ IRn . Então exatamente


um dos dois sistemas abaixo tem solução.

Ax ≤ 0 e cT x > 0 (33)

AT y = c e y ≥ 0. (34)

Denition 4.3. (Restrição Ativa) Seja x ∈ Ω. Uma restrição de desigualdade gi é


dita ativa em x, se gi (x) = 0. Caso gi (x) < 0, dizemos que gi é inativa em x. Vamos
denotar por A(x) o conjunto de índices das restrições de desigualdade ativas em um
ponto viável x, isto é,
A(x) = {i | gi (x) = 0}
24

Denition 4.4. (Cone Viável Linearizado) Dado x ∈ Ω, denimos o cone viável


linearizado de Ω em torno de x por

D(x) = {d ∈ IRn | ∇gi (x)T d ≤ 0, ∀i ∈ A(x) e ∇hj (x)T d = 0, ∀j = 1, ..., m}

Denition 4.5. (Conjunto Gerado Pelos Gradientes das Restrições) Dado x ∈


Ω, o conjunto
X m
X
G(x) = { µi ∇gi (x) + λj ∇hj (x) | µi ≥ 0, ∀i ∈ A(x)}
i∈A(x) j=1

é chamado conjunto gerado pelos gradientes das restrições.

Lemma 4.6. Dado x ∈ Ω, temos que D(x) = P (G(x)).

Lemma 4.7. O conjunto G(x) é um cone convexo fechado.

Denition 4.6. (Cone Tangente) Uma direção d ∈ IRn é dita tangente a Ω ⊂ IRn a
partir de x ∈ Ω quando é nula ou existe uma sequência de pontos viáveis {xk } ⊂ Ω tal
que xk → x e
xk − x d
→ .
k xk − x k kdk
O conjunto das direções tangentes é um cone chamado cone tangente.

Este cone é fechado mas pode não ser convexo.

Lemma 4.8. Dado x ∈ Ω, temos T (x) ⊂ D(x).

Lemma 4.9. Se x∗ ∈ Ω é um minimizador local do Problema (31), então

∇f (x∗ )T d ≥ 0,

para todo d ∈ T (x∗ ).

Theorem 4.1. (KKT) Seja x∗ ∈ Ω um minimizador local do Problema (31) e suponha


que P (T (x∗ )) = P (D(x∗ )). Então, existem µ∗ ∈ IRp e λ∗ ∈ IRm tais que
p m
∇f (x∗ ) + µ∗i ∇gi (x∗ ) + λ∗j ∇hj (x∗ ) = 0,
X X

i=1 j=1

µ∗i ≥ 0, i = 1, ..., p

µ∗i gi (x∗ ) = 0, i = 1, ..., 2.


25

OBSERVAÇÃO: A hipótese sobre os cones T (x∗ ) e D(x∗ ) feita no Teorema


acima é chamada de condição de qualicação. Ela foi introduzida por Monique Guignard
para dimensão innita e reformulada para o caso nito por Gould and Tolle. Esta
condição é a mais fraca possível para se provar as condições KKT. Entretanto, pode ser
muito difícil obter os cones T (x∗ ) e D(x∗ ) e vericar se a condição P (T (x∗ )) = P (D(x∗ ))
é satisfeita. Veremos outras condições de qualicação, tais como Slater, Mangasarian-
Fromovitz, independência linear dos gradientes, que implicam na que usamos acima e
são mais fáceis de serem vericadas.

Denition 4.7. (Constraint Qualication) Dizemos que as restrições g(x) ≤ 0 e


h(x) = 0 cumprem uma condição de qualicação em x∗ ∈ Ω quando, dada qualquer
função diferenciável f, que tenha mínimo em x∗ , relativamente a Ω, sejam satisfeitas as
condições de otimalidade de KKT.

Theorem 4.2. Se x∗ é um minimizador local do Problema

minimizar f (x)

sujeito a Mx = c

Ax ≤ b

onde A ∈ IRp×n , M ∈ IRm×n , b ∈ IRp e c ∈ IRm , então x∗ satisfaz as condições K.K.T..

Condição de Slater Considere o conjunto Ω, denido em (32). Dizemos que


a condição de qualicação de Slater é satisfeita se cada componente gi é convexa, h é
linear e existe x̃ ∈ Ω tal que

g(x̃) < 0 e h(x̃) = 0,

esta última refere-se a pontos interiores a Ω.

Theorem 4.3. Se vale a condição de Slater, então T (x) = D(x), para todo x ∈ Ω.
Denition 4.8. (LICQ) Dizemos que a condição de qualicação de independência
linear (LICQ) é satisfeita em x quando o conjunto dos gradientes das restrições de
desigualdade ativas e das restrições de igualdade são linearmente independentes, isto é,

{∇gi (x)}i∈A(x) ∪ {∇hj (x)}j∈{1,2,...,m}


26

são L.I. .

OBS: Apesar desta simplicidade, (LICQ) tem a desvantagem de ser uma


hipotese muito forte para garantir KKT. Existem muitos problemas em que temos
KKT sem que (LICQ) seja satisfeita.

Denition 4.9. (MFCQ) A condição de qualicação de Mangasarian-Fromovitz (MFCQ)


é satisfeita em x quando os gradientes das restrições de igualdade são linearmente in-
dependentes e existir um vetor d ∈ IRn tal que

∇gi (x)T d < 0 e ∇hj (x)T d = 0

para todos i ∈ A(x) e j = 1, ..., m.


OBS: Enquanto que na condição de Slater exigimos um ponto no interior
relativo do conjunto viável, aqui pedimos que o conjunto viável linearizado, D(x), tenha
interior relativo não vazio.

Theorem 4.4. Se x ∈ Ω satisfaz (LICQ), então x satisfaz (MFCQ).

Theorem 4.5. Se x satisfaz (MFCQ), então T (x) = D(x).

(LICQ)

(M F CQ)

Slater ⇒ Guinard

Você também pode gostar