Você está na página 1de 149

departamento de ingeniera matemtica

facultad de ciencas fsicas y matemticas


UNIVERSIDAD DE CHILE
Anlisis Convexo y Dualidad
f(x) + f

(x

) = x

, x x

f(x)
Doctorado en Ciencias de la Ingeniera,
mencin Modelacin Matemtica
Felipe lvarez
con la colaboracin de
Juan Escobar, Cristopher Hermosilla y Juan Peypouquet
Marzo 2012
2
Se concede permiso para imprimir o almacenar una nica copia de este documento. Salvo por las excep-
ciones ms abajo sealadas, este permiso no autoriza fotocopiar o reproducir copias para otro uso que no
sea el personal, o distribuir o dar acceso a versiones electrnicas de este documento sin permiso previo por
escrito del Director del Departamento de Ingeniera Matemtica (DIM) de la Facultad de Ciencias Fsicas y
Matemticas (FCFM) de la Universidad de Chile.
Las excepciones al permiso por escrito del prrafo anterior son: (1) Las copias electrnicas disponibles
bajo el dominio uchile.cl, (2) Las copias distribuidas por el cuerpo docente de la FCFM en el ejercicio de las
funciones que le son propias.
Cualquier reproduccin parcial de este documento debe hacer referencia a su fuente de origen.
Prefacio
El objetivo de estos apuntes es proporcionar los fundamentos clsicos del Anlisis Convexo y
de la Teora de la Dualidad en espacios de dimensin nita e innita, junto con abordar algunas
aplicaciones y desarrollos en Optimizacin Matemtica y el Clculo de Variaciones. El material aqu
presentado se basa esencialmente en las notas escritas para el curso Anlisis Convexo y Dualidad
(MA674) del programa de Doctorado en Ciencias de la Ingeniera, mencin Modelacin Matemtica,
de la Universidad de Chile.
En cada ocasin en que he dictado dicho curso, estas notas se han ampliado y mejorado con
el aporte de los alumnos y profesores auxiliares. Mis agradecimientos a Juan Escobar, Cristopher
Hermosilla y Juan Peypouquet, quienes mientras eran estudiantes del Departamento de Ingeniera
Matemtica, aceptaron mi invitacin para participar activamente en la confeccin de este apunte
y sin cuya valiosa colaboracin estas notas no tendran su forma actual. Juan Escobar transcribi
en LaTeX la primera versin del manuscrito, sugiriendo varias ideas y contribuyendo con material
adicional, particularmente en la seccin que se reere al principio variacional de Ekeland y al cap-
tulo sobre el esquema primal/dual de penalizacin en programacin convexa. Posteriormente, Juan
Peypouquet realiz una revisin muy profunda y exhaustiva del apunte, corrigi errores, mejor sus-
tancialmente la presentacin e incorpor material referente al anlisis de recesin. Recientemente,
Cristopher Hermosilla incorpor varias guras para ilustrar los conceptos principales, inspiradas en
los bosquejos del manuscrito original, y agreg nuevos ejercicios y soluciones a algunos de los pro-
blemas propuestos en los primeros captulos; adems, revis todo el material completando algunos
comentarios, referencias y el ndice alfabtico.
Cabe sealar que los problemas que tienen un asterisco son aquellos cuya solucin es discutida
en los anexos.
Todo posible error que el lector pueda encontrar en este apunte es de mi exclusiva responsabili-
dad. Los comentarios y observaciones son bienvenidos en la siguiente direccin de email:
falvarez@dim.uchile.cl
Finalmente, quisiera agradecer el nanciamiento parcial proporcionado por el Departamento de
Ingeniera Matemtica y el Instituto en Sistemas Complejos de Ingeniera de la Facultad de Ciencias
Fsicas y Matemticas de la Universidad de Chile.
Felipe lvarez
Santiago, 18 de marzo de 2012
3
4
ndice general
1. Introduccin al Anlisis Variacional 7
1.1. Funciones a valores en R = R , +. . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Semicontinuidad inferior y minimizacin . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1. Semicontinuidad Inferior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.2. Inf-compacidad y existencia de minimizadores . . . . . . . . . . . . . . . . . . 13
1.2.3. Funciones de recesin e inf-compacidad. . . . . . . . . . . . . . . . . . . . . . 15
1.2.4. Principio variacional de Ekeland en espacios mtricos . . . . . . . . . . . . . . 18
1.3. Espacios vectoriales topolgicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1. Separacin de convexos: el Teorema de Hahn-Banach . . . . . . . . . . . . . . 21
1.3.2. Topologa dbil y funciones inferiormente semicontinuas. . . . . . . . . . . . . 23
1.4. Minimizacin convexa en espacios de Banach . . . . . . . . . . . . . . . . . . . . . . 25
1.5. Relajacin topolgica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.1. La regularizada semicontinua inferior . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.2. La -convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2. Fundamentos de Anlisis Convexo 37
2.1. Funciones convexas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2. Espacios en dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.3. La conjugada de Fenchel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.4. El subdiferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3. Dualidad en Optimizacin Convexa 65
3.1. Problemas Perturbados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.2. Dualidad Lagrangeana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.3. Teoremas de Dualidad de Fenchel-Rockafellar y de Attouch-Brezis . . . . . . . . . . . 74
3.4. Teoremas de Fritz John y Kuhn-Tucker . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4. Aplicaciones al Clculo de Variaciones 93
4.1. Problema de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.2. Problema de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.3. Problema de la torsin elasto-plstica . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5
6 NDICE GENERAL
5. Penalizacin en Optimizacin Convexa 99
5.1. Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.2. Algunos Resultados de Convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.3. Medias Asintticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.4. Convergencia Primal del Mtodo de Penalizacin . . . . . . . . . . . . . . . . . . . . 106
5.5. Convergencia Dual del Mtodo de Penalizacin . . . . . . . . . . . . . . . . . . . . . 109
5.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
A. Resolucin de algunos problemas 117
A.1. Introduccin al Anlisis Variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
A.2. Fundamentos de Anlisis Convexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
A.3. Dualidad en Optimizacin Convexa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Captulo 1
Introduccin al Anlisis Variacional
1.1. Funciones a valores en R = R , +.
En el anlisis de problemas de minimizacin y maximizacin es conveniente considerar funciones
que toman valores en la recta real extendida R = R , + = [, +] en lugar de slo
R =], +[. Por ejemplo, en un espacio topolgico X, consideremos un problema de minimizacin
del tipo
(1.1) nff
0
(x) [ x C
donde f
0
: X R es la funcin objetivo a minimizar y C X es un conjunto de restricciones.
Con la topologa apropiada, R es un intervalo compacto. En particular, todo subconjunto A R
admite un nmo nf A (y un supremo sup A). Luego, tomando A = f
0
(x) [ x C tenemos que
nff
0
(x) [ x C est bien denido en R, y denotamos
nf
C
f
0
:=nff
0
(x) [ x C.
Para un conjunto A ms general, si nf A A escribimos mn A en lugar de nf A para enfatizar que
el nmo se alcanza en el conjunto (anlogo para max A).
En este contexto resulta muy til introducir la funcin indicatriz del conjunto C,
C
: X R,
denida por

C
(x) =
_
0 x C,
+ x / C.
Con la convencin
+ (+) = (+) + = +, R,
es posible denir la funcin f
0
+
C
mediante (f
0
+
C
)(x) := f
0
(x) +
C
(x), y es directo vericar
que
nf
C
f
0
=nf
X
(f
0
+
C
)
y ms an, si C ,= entonces
nf
C
f
0
f
0
(x) [ x C nf
X
(f
0
+
C
) f
0
(x) +
C
(x) [ x X.
7
8 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
De esta forma, el problema de minimizacin (1.1) puede formularse de manera equivalente como
nff(x) [ x X,
donde f : X R+ est denida por f = f
0
+
C
. Esto permite considerar las restricciones de
manera implcita en la denicin de f y dar as un tratamiento unicado a este tipo de problemas.
Similarmente, la consideracin de problemas de maximizacin con restricciones conduce de ma-
nera natural a funciones a valores en R ; los problemas de tipo minimax, a funciones a
valores en R.
Dados un escalar R y dos funciones f, g : X R, queremos dar un sentido a la expresin
f + g, para lo cual necesitamos una aritmtica en R que extienda la usual de R. Consideraremos
las siguientes convenciones:
1. (+) + = + (+) = +, R +.
2. () + = + () = , R .
3. (+) = +, si > 0, (+) = , si < 0 (anlogo para ).
Menos obvias son las expresiones del tipo 0 () y () +(); utilizaremos, salvo que se diga
explcitamente otra cosa, las siguientes convenciones:
4. 0 (+) = 0 = 0 () = 0 y la simtrica para que sea conmutativa.
5. + + () = () + (+) = +, que se llama inf-adicin pues est orientada a la
minimizacin: violar las restricciones tiene prioridad por sobre un eventual valor de la
funcin objetivo.
Observacin 1.1.1. Estas extensiones para la suma y producto no son continuas. Lmites que
involucran expresiones de la forma 0 () o () + () pueden estar indeterminados en el
sentido que si
n
y
n
entonces no necesariamente se tiene que
n

n
cuando
= 0 (), ni tampoco que
n
+
n
+ cuando + = () + ().
Las convenciones anteriores permiten denir
(f +g)(x) := f(x) +g(x) y (fg)(x) := f(x)g(x), x X,
para todo R y f, g : X R.
Por otra parte, dado que la minimizacin es una operacin unilateral, es natural que se requieran
conceptos unilaterales para su anlisis:
Denicin 1.1.1. Dada f : X R, su epgrafo es el subconjunto de X R dado por
epi f := (x, ) X R [ f(x) ,
mientras que el conjunto de nivel inferior (o subnivel) de parmetro R es el subconjunto de X
dado por

(f) := x X [ f(x) .
El dominio efectivo de f es
domf := x X [ f(x) < +.
1.1. FUNCIONES A VALORES EN R = R , +. 9
Adems, denimos
arg mn f :=
_
x X [ f(x) =nf
X
f si nf
X
f < +,
si nf
X
f = +.
epi f
+ +

(f)] , ]

(f)
dom f
X
R
Figura 1.1: Ejemplo de Denicin 1.1.1
Notemos que
nf
X
f = nf
domf
f,
con la convencin
nf

f =nf = +.
La condicin arg mn f = si f + se interpreta diciendo que en ese caso la minimizacin
no tiene soluciones optimales pues ni siquiera hay puntos factibles que satisfagan las restricciones
implcitas de f (un punto x X se dice factible si f(x) < +, i.e., si x domf).
Notemos tambin que se tienen las siguientes propiedades:
(a) arg mn f =

>nf
X
f

(f) (con la convencin


= para f +).
(b)

(f) = epi f (X ).
Ejercicio 1.1.1. Demuestre estas propiedades.
10 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Finalmente, otra ventaja de considerar funciones a valores en R es que es una clase estable
bajo operaciones del tipo supremo e nmo sobre familias arbitrarias; ms precisamente, tenemos
la siguiente:
Proposicin 1.1.1. Sea (f
i
)
iI
una familia arbitraria no vaca (I ,= ) de funciones f
i
: X R.
Entonces las funciones sup
iI
f
i
e nf
iI
f
i
denidas respectivamente por
_
sup
iI
f
i
_
(x) := supf
i
(x) [ i I
e
_
nf
iI
f
i
_
(x) :=nff
i
(x) [ i I
estn bien denidas como funciones a valores en R. Ms an,
epi(sup
iI
f
i
) =

iI
epi f
i
y
epi(nf
iI
f
i
)
_
iI
epi f
i
,
con igualdad en la ltima inclusin si [I[ < +.
Demostracin:
epi(sup f
i
) = (x, ) X R [ sup f
i
(x)
= (x, ) X R [ f
i
(x) , i I
=

iI
epi(f).
Del mismo modo,
_
iI
epi(f
i
) = (x, ) X R [ i I, f
i
(x)
(x, ) X R [ nf f
i
(x)
= epi(nf f
i
),
y se tiene que la inclusin es en realidad una igualdad si [I[ < +, pues en este caso el nmo
siempre se alcanza para algn i I. Para ver que la igualdad no se tiene en un caso innito basta
considerar f
i
(x) = e
xi
, con i N, y ver que (0, 0) epi(nf f
i
) epi f
i
i N.
Nos interesaremos en una subclase de funciones para las cuales el problema de minimizacin
asociado es no trivial, de acuerdo a la siguiente denicin.
Denicin 1.1.2. Una funcin f : X R se dice propia si:
(i) x X, f(x) > ,
(ii) domf ,= . Es decir, x
0
X tal que f(x
0
) < +.
Observacin 1.1.2. Notemos que para una funcin propia eventualmente su nmo es . Si f
tiene nmo mayor estricto que , es decir nf
X
f > , diremos que f est acotada inferior-
mente.
1.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIN 11
1.2. Semicontinuidad inferior y minimizacin
Hasta ahora no hemos supuesto ningn tipo de estructura sobre el conjunto subyacente X. En
lo que sigue, supondremos que (X, ) es un espacio topolgico.
1.2.1. Semicontinuidad Inferior
Dado x X, denotemos por A
x
() la familia de todas las vecindades de x para .
Denicin 1.2.1. Una funcin f : X R + se dice -semicontinua inferior (-s.c.i.) en x
si
< f(x), N

A
x
() : y N

, f(y) > .
Si lo anterior es vlido para todo x X, decimos simplemente que f es -s.c.i. sobre X.
Proposicin 1.2.1. Dada f : X R +, las siguientes armaciones son equivalentes:
(i) f es -s.c.i. sobre X.
(ii) epi(f) es cerrado en X R para la topologa
R
, donde
R
es la topologa usual de R.
(iii) R,

(f) es cerrado en (X, ).


(iv) R, x X [ f(x) > .
(v) x X, f(x) lminf
yx
f(y) := sup
NA
X
()
nf
yN
f(y)
Demostracin: (i) (ii) Tomemos (x, ) / epi(f), lo que equivale a < f(x). Sea R
tal que < < f(x). De (i), existe N

A
x
() tal que y N

, f(y) > , de modo que


(y, ) / epi(f). Se sigue que (N

] , [) epi(f) = . Como N

] , [ A
(x,)
(
R
),
concluimos que epi(f)
C
es abierto.
epi f
f(x)

x
N

] , ]
N

X
R
12 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
(ii) (iii) Como

(f) = epi(f) (X ), deducimos que

(f) es cerrado
en X R, y de aqu que

(f) es cerrado en X.
(iii) (iv) Trivial.
(iv) (v) Sea x X. Dado < f(x) tenemos que N = y X [ f(y) > A
x
() por ser
un abierto que contiene a x. De este modo nf
yN
f(y), y en particular sup
NAx()
nf
yN
f(y).
Como lo anterior es vlido para todo < f(x), se sigue (v).
(v) (i) Sea < f(x). Por (v), < sup
NA
X
()
nf
yN
f(y) y en consecuencia , existe N A
x
() :
< nf
yN
f(y).
epi f
f(x)

x
X
R
Figura 1.2: Ejemplo de funcin no s.c.i
Ejercicio 1.2.1. Pruebe que cuando (X, ) es metrizable, f es s.c.i. si y slo si
x X x
n
x, f(x) lminf
n+
f(x
n
) := sup
nN
nf
kn
f(x
k
).
La clase de funciones s.c.i. satisface varias propiedades de estabilidad, como lo establece el
siguiente resultado.
Proposicin 1.2.2. Sea f
i

iI
una familia arbitraria no vaca de funciones -s.c.i., f
i
: X
R +. Entonces sup
iI
f
i
es -s.c.i. Si adems I es nito, mn
iI
f
i
y

iI
f
i
son ambas -s.c.i.
Demostracin: Propuesto.
1.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIN 13
1.2.2. Inf-compacidad y existencia de minimizadores
Junto con la s.c.i., el segundo ingrediente bsico en los problemas de minimizacin es la propiedad
de inf-compacidad en el sentido de la siguiente denicin.
Denicin 1.2.2. Una funcin f : X R + se dice -inf-compacta si para todo R, el
conjunto

(f) = x X [ f(x) es relativamente compacto en X para la topologa .


Observacin 1.2.1. Para una funcin f que es -s.c.i., lo anterior equivale a requerir que

(f)
sea compacto.
Denicin 1.2.3. Sea (V, ||) un espacio vectorial normado. Una funcin f : V R + se
dice coerciva si lm
|x|
f(x) = +.
Observacin 1.2.2. Sea (V, ||) un espacio vectorial normado y f : V R + una funcin.
Entonces son equivalentes (i) f es coerciva y (ii) R,

(f) es acotada. En particular, si


dimV < + entonces f es inf-compacta ssi f es coerciva. Recordemos el Teorema de Riesz:
todo subconjunto acotado en un espacio vectorial normado (V, ||) es relativamente compacto ssi
dimV < +. En el caso de la dimensin innita, las topologas que estn asociadas a la coercividad
son las dbiles. Esto lo discutiremos ms adelante.
Teorema 1.2.1 (Weierstrass-Hilbert-Tonelli). Sea f : X R + una funcin -s.c.i. y -
inf-compacta. Entonces, nf
X
f > y existe un punto x

X que minimiza f sobre X, i.e.,


f(x

) = mn
xX
f(x).
Demostracin: Veremos dos demostraciones distintas de este teorema.
La primera demostracin es conocida como Mtodo Directo y fue iniciada por Hilbert y luego
desarrollada por Tonelli. Para simplicar, supongamos que es metrizable. Consideramos
primero una sucesin (x
n
)
nN
minimizante para f, i.e., lm
n+
f(x
n
) = nf
X
f. Tal sucesin
existe. En efecto, si nf
X
f > entonces consideramos para n 1, x
n
X tal que
nf
X
f f(x
n
) nf
X
f +
1
n
.
Si nf
X
f = entonces sea x
n
X tal que f(x
n
) n (a posteriori veremos que este caso
no se tiene). Si nf
X
f = + entonces f + y basta tomar cualquier x

X. En caso
contrario, tenemos que
f(x
n
) maxnf
X
f +
1
n
, n maxnf
X
f + 1, 1 =:
0
R.
Notemos que
0
>nf
X
f y que x
n

0
(f) para todo n 1. Como

0
(f) es compacto, por
el Teorema de Bolzano-Weiertrass podemos extraer una subsucesin (x
n
k
) que converge (en
la topologa ) a algn punto x

X. En particular, lm
k
f(x
n
k
) =nf
X
f y, de la -s.c.i. de
la funcin objetivo f,
f(x

) lm
k
f(x
k
) =nf
X
f.
Luego, nf
X
f > y f(x

) =nf
X
f.
14 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Queremos demostrar que arg mn f ,= . Sabemos que
arg mn f =

>nf
X
f

(f) =

0
>>nf
X
f

(f)
para cualquier
0
R tal que
0
>nf
X
f (notemos que sin prdida de generalidad suponemos
nf
X
f < +), esto ltimo pues

(f)

(f), si . Como f es -s.c.i.,

(f) es cerrado
y adems es compacto por la inf-compacidad de f. En particular,

(f)
nf
X
f<<
0
es una
familia de subconjuntos cerrados y no vacos (por qu?) del compacto

0
(f). Ms aun,
esta familia satisface la propiedad de intersecciones nitas. En efecto, dados
1
, ...,
n
, con
= mn
1
, ...,
n
>nf
X
f se tiene que
n

i=1

i
(f) =

(f) ,= .
Por compacidad,

nf
X
f<<
0

(f) ,= ,
lo que concluye la demostracin.
Observacin 1.2.3. El Teorema 1.2.1, de Weierstrass-Hilbert-Tonelli se conoce tambin co-
mo Teorema de Minimizacin de Weierstrass y sigue siendo vlido si en lugar de la -inf-
compacidad suponemos que
0
> nf
X
f :

0
(f) es compacto. Por ejemplo, denamos
f : R R por f(x) =
x
2
1+x
2
. Es fcil ver que

(f) es compacto ssi < 1 y


1
(f) = R de
modo que no es inf-compacta pero s tiene un minimizador (x* =0).
y = 1
f(x) = < 1

(f)
X
R
Notemos que en la demostracin va el Mtodo Directo hemos supuesto que es metrizable
para extraer una subsucesin convergente. En espacios topolgicos ms general, la compacidad
no implica la existencia de subsucesiones convergentes. Sin embargo, si utilizamos la nocin
de sucesin generalizada o red, podemos proceder (cuidadosamente) de manera similar.
Un caso importante de mencionar es cuando la topologa utilizada es la topologa dbil inducida
por un espacio de Banach reexivo. En dimensin innita, sabemos esta topologa no es
metrizable, sin embargo, an podemos extraer una subsucesin convergente. Basta considerar
M = M
0
con M
0
el espacio vectorial generado por la sucesin (x
n
)
n
. Es fcil ver que M
tambin es un espacio de Banach reexivo y con lo cual B
M
, la bola unitaria en M, es
compacta para la topologa dbil. Ms an, como M es separable y reexivo, M

es separable
y reexivo, por lo que, B
M
es metrizable; ver [Bre83];
1.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIN 15
Ejercicio 1.2.2. Sea f : X R+ una funcin -s.c.i. y K X un compacto para . Muestre
que existe x

K tal que f(x

) = mn
K
f. Ind.: Considere g := f +
K
.
1.2.3. Funciones de recesin e inf-compacidad.
En esta seccin presentaremos brevemente las funciones de recesin, muy tiles en anlisis con-
vexo. Terminaremos con un resultado que permite caracterizar la inf-compacidad en espacios de
dimensin nita y una aplicacin a problemas de optimizacin. En lo que sigue, X es un e.v.n.
Denicin 1.2.4. Sea C X un conjunto no vaco. El cono de recesin, denotado por C

, es el
conjunto
C

=
_
d X

t
k
, x
k
C tales que lm
x
k
t
k
= d
_
.
y = e
x
R
R
C

Figura 1.3: Cono de recesin para el conjunto C = epi f con f(x) = e


x
.
El cono de recesin contiene las direcciones hacia las cuales se dirigen las sucesiones en C que
tienden a + en norma. Notemos que el conjunto C

tiene las siguientes propiedades elementales,


que el lector debe vericar:
1. C

es un cono cerrado.
2.
_
C
_

= C

.
3. Cuando el conjunto C es convexo, tambin lo es C

. Adems, cualquiera que sea el x C


C

= d X [ d +C C
= d X [ x +td C para todo t > 0.
16 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Ejemplo 1.2.1. Conos de recesin de algunos conjuntos relevantes:
1. Si C es un cono, entonces C

= C.
2. Si C es un hiperplano cerrado, entonces C

es el subespacio vectorial paralelo a C.


3. Suponga que C es un poliedro convexo denido mediante C = x R
n
[ Ax b , donde A
es una matriz de tamao mn y b R
m
. Entonces C

= d R
n
[ Ad 0 .
Ejercicio 1.2.3. Consideremos subconjuntos (C
i
)
iI
de X. Pruebe que
1.
_

iI
C
i
_


iI
(C
i
)

si la interseccin es no-vaca. La inclusin es una igualdad si los


conjuntos son convexos.
2.
_

iI
C
i
_


iI
(C
i
)

, con igualdad si I es nito.


Denicin 1.2.5. Sea f : X R + una funcin propia. La funcin de recesin, denotada
por f

, se dene por
f

(d) =nf
_
lminf
k
f(t
k
d
k
)
t
k

t
k
+, d
k
d
_
Ejemplo 1.2.2. Si C es un conjunto no vaco, entonces (
C
)

=
C
Ejercicio 1.2.4. Sean f, g : X R + dos funciones propias con domf domg ,= . Sea
h = f +g.
1. Si f y g son s.c.i., entonces h tambin lo es.
2. Sea d X tal que f

(d) y g

(d) no son, respectivamente, + y . Pruebe que


h

(d) f

(d) +g

(d).
Proposicin 1.2.3. Si f es propia, entonces epi(f

) = (epi f)

.
Demostracin: Probaremos primero que (epi f)

epi(f

). Para ello, tomemos (d, ) (epif)

.
De acuerdo con la denicin de cono asinttico, existen t
k
y (d
k
,
k
) epi f tales que
t
1
k
(d
k
,
k
) (d, ). Como f(d
k
)
k
, tenemos que
t
1
k
f(t
1
k
d
k
t
k
) t
1
k

k
.
Pasando al lmite tenemos que f

(d) , de donde (d, ) epi(f

).
Recprocamente, sea (d, ) epi(f

). Por denicin, existen sucesiones t


k
y d
k
d tales
que
f

(d) = lm
k
t
1
k
f(t
k
d
k
).
Como (d, ) epi(f

), de acuerdo con la denicin de lmite observamos que para cada > 0,


tomando k sucientemente grande tenemos que f(t
k
d
k
) ( )t
k
. Por lo tanto, el punto
z
k
= t
k
(d
k
, +) epi(f

).
Como t
1
k
z
k
= (d
k
, +) (d, +), concluimos que (d, +) (epi f)

. Finalmente, dado que


(epi f)

es cerrado y es arbitrario, vemos que (d, ) (epi f)

.
1.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIN 17
Ejercicio 1.2.5. Sea (f
i
)
iI
una coleccin de funciones propias de X en R +. Pruebe que
_
sup
iI
f
i
_

sup
iI
(f
i
)

y
_
nf
iI
f
i
_

nf
iI
(f
i
)

.
Demuestre tambin que si I es nito, la segunda desigualdad es una igualdad.
Lema 1.2.1. Si f : X R + es propia, entonces para todo >nf f,
[

(f)]

d X [ f

(d) 0 .
Demostracin: Sea d [

(f) ]

. Entonces existen sucesiones x


k

(f) y t
k
tales que
lm
k
t
1
k
x
k
= d. Escribamos d
k
= t
1
k
x
k
d. Como x
k

(f), tenemos que


t
1
k
f(t
k
d
k
) = t
1
k
f(x
k
) t
1
k
0.
Por lo tanto, f

(d) 0.
Corolario 1.2.1. Consideremos un conjunto (f
i
)
iI
de funciones propias de X en R+ y un
subconjunto no-vaco S de X. Sea C = s S [ f
i
(x) 0 i I . Entonces
C

d S

[ (f
i
)

(d) 0 i I .
Demostracin: Denimos C
i
= x | f
i
(x) 0, de manera que C = S
_

iI
C
i
_
. Del Ejercicio
1.2.3 tenemos que C

iI
(C
i
)

_
. El resultado se obtiene al aplicar el lema anterior.
Teorema 1.2.2. Supongamos que f : R
n
R + es s.c.i. y propia. Si f

(d) > 0 para todo


d ,= 0, entonces f es inf-compacta.
Demostracin: Supongamos que f

(d) > 0 para todo d ,= 0. Del Lema 1.2.1 tenemos que para cada
>nf f,
0 [

(f) ]

d R
n
[ f

(d) 0 = 0.
Como el cono de recesin se reduce al 0, concluimos que

(f) es acotado.
Corolario 1.2.2. Supongamos que para cada i = 0, 1, . . . , m, la funcin f
i
: R
n
R + es
s.c.i. y propia. Sea C = x R
n
[ f
i
(x) 0 i . Suponga que domf
0
C ,= y considere el
problema de optimizacin con restricciones
(T) nf f
0
(x) [ x C .
Escribiendo f = f
0
+
C
, el problema anterior es equivalente a
(T) nf f(x) [ x R
n
.
Suponga que (f
0
)

(d) > para todo d ,= 0. Si las funciones f


i
, i 1 no tienen ninguna direccin
de recesin comn; es decir, si
(f
i
)

(d) 0 i d = 0,
entonces el conjunto de soluciones de (T) es no-vaco y compacto.
18 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Demostracin: De acuerdo con el Ejercicio 1.2.4 y el Ejemplo 1.2.2,
f

(d) (f
0
)

(d) +
C
(d),
lo que implica que f

(d) (f
0
)

(d) para todo d C

. Aplicando el Ejercicio 1.2.1 y usando


la hiptesis sobre las direcciones de recesin concluimos que f

(d) > 0 para todo d ,= 0. Del


teorema anterior deducimos inmediatamente que la funcin objetivo f es inf-compacta. El resultado
se obtiene entonces al aplicar el Teorema 1.2.1 de Weierstrass-Hilbert-Tonelli.
En el Problema 2.1 del prximo captulo presentaremos otros resultados aplicados al caso convexo.
En [AuT03] se puede encontrar una exposicin ms completa y detallada sobre el anlisis de recesin.
1.2.4. Principio variacional de Ekeland en espacios mtricos
En los teoremas de existencia de solucin de un problema de minimizacin, la compacidad de los
conjuntos de nivel juega un rol clave. Los siguientes resultados muestran que basta la completitud
del espacio sobre el cual se minimiza para obtener la existencia de una solucin aproximada en
un sentido apropiado. En [BoZ05] es posible encontrar una amplia gama de aplicaciones de este
principio a distintas teoras matemticas.
Teorema 1.2.3. Sean (X, d) un espacio mtrico completo y f : X R+ una funcin propia,
s.c.i. y acotada inferiormente. Consideremos x
0
domf y > 0. Entonces existe x X tal que
(i) f( x) +d(x
0
, x) f(x
0
),
(ii) x ,= x, f( x) < f(x) +d(x, x).
Demostracin: Sin prdida de generalidad suponemos que = 1 y que f : X R
+
+ .
Consideremos F : X 2
X
denida por
F(x) = y X [ f(y) +d(x, y) f(x),
que toma valores cerrados y satisface las siguientes dos condiciones:
y F(y),
Si y F(x), entonces F(y) F(x). Nos referiremos a esta propiedad como monotona.
Denamos ahora v : domf R por
v(y) := nf
zF(y)
f(z).
Dado y F(x), se tiene que d(x, y) f(x) v(x), lo cual implica que
diam(F(x)) 2(f(x) v(x)).
Denamos la sucesin (x
n
)
nN
recursivamente a partir de x
0
por
x
n+1
F(x
n
), f(x
n+1
) v(x
n
) + 2
n
.
1.2. SEMICONTINUIDAD INFERIOR Y MINIMIZACIN 19
Luego, de la monotona de F, v(x
n
) v(x
n+1
). Por otro lado, como v(y) f(y), se tiene que
v(x
n+1
) f(x
n+1
) v(x
n
) + 2
n
v(x
n+1
) + 2
n
y por lo tanto
0 f(x
n+1
) v(x
n+1
) 2
n
.
En consecuencia, diam(F(x
n
)) 0 y como F(x
n
) es una sucesin decreciente de cerrados en un
espacio completo, se sigue que existe x E tal que

nN
F(x
n
) = x.
Como x F(x
0
), se tiene (i). Ms aun, x F(x
n
) n de donde se sigue que F( x) F(x
n
) y en
consecuencia
F( x) = x.
Dado x ,= x, se tiene que x / F( x) de donde concluimos (ii)
Denicin 1.2.6. Dada una funcin propia f : X R y > 0, denimos el conjunto de sus
-mnimos por
arg mn f =
_
x X [ f(x) nf f + si nf f > ,
x X [ f(x)
1

si no.
Proposicin 1.2.4 (Principio variacional de Ekeland). Bajo las hiptesis del Teorema 1.2.3, con-
sideremos , > 0 y sea x
0
arg mn f. Entonces existe x X tal que
(i) f( x) f(x
0
),
(ii) d(x
0
, x) ,
(iii) f( x) < f(x) +

d(x, x), para todo x X x


Demostracin: Basta aplicar el Teorema 1.2.3, cambiando la mtrica d por
1

d.
Observacin 1.2.4. La nocin de mnimo de una funcin est fuertemente ligada a la existencia
de un hiperplano soportante de pendiente nula. Pero, cuando una funcin inferiormente acotada no
alcanza un mnimo, lo anterior pierde sentido. Sin embargo, el PVE permite reemplazar el concepto
de hiperplano soportante por el de cono soportante asociado a un mnimo. La gura 1.4 evidencia
esta armacin. Para ver otras interpretaciones geomtricas del PVE se recomienda ver los primeros
captulos de [BoZ05].
Antes de terminar esta seccin recordemos una denicin bsica del clculo diferencial.
Denicin 1.2.7 (G ateaux Diferenciabilidad). Sean X, Y espacios de Banach y f : U Y una
funcin denida sobre un abierto U X. Diremos que f es G ateaux diferenciable en x U si
lm
t0
f(x +td) f(x)
t
= Ad, d X,
donde A : X Y es una funcin lineal continua. Diremos que f es G ateaux diferenciable si tal
funcin existe para todo x U. Esta funcin A se conoce como la derivada de G ateaux de f y
usualmente es denotada por Df(x).
20 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL

x
0 x
R
R
Figura 1.4: Principio Variacional de Ekeland
Corolario 1.2.3. Supongamos que X es un espacio de Banach. Sea f : X R una funcin s.c.i,
inferiormente acotada y G ateaux diferenciable en X. Consideremos > 0 y sea x arg mn f.
Entonces, existe un punto x

X tal que
(i) f(x

) f(x),
(ii) |x x

| 1,
(iii) |Df(x

)| .
Consecuentemente, existe una sucesin minimizante x
n
en X que satisface
f(x
n
) nf f, y Df(x
n
) 0.
Demostracin: En vista del Teorema 1.2.4 con = 1, slo es necesario probar la armacin (iii).
Sea d X con |d| = 1, como f es G ateaux diferenciable, tenemos que
tDf(x

)d +o(t) = f(x

+td) f(x

), para todo t sucientemente pequeo.


Por la parte (iii) del Teorema 1.2.4, tenemos que
f(x

+td) f(x

) t,
por lo tanto
Df(x

)d , d X, |d| = 1,
lo que implica que
|Df(x

)| = sup
|d|=1
Df(x

)d .
1.3. ESPACIOS VECTORIALES TOPOLGICOS 21
Finalmente, para cada n N tomemos y
n

1
n
arg mn f. Luego por lo recientemente probado
sabemos que existe x
n
que satisface
f(x
n
) f(y
n
) nf f +
1
n
y |Df(x
n
)|
1
n
.
1.3. Espacios vectoriales topolgicos
Recordemos que un espacio vectorial real V dotado de una topologa se dice espacio vectorial
topolgico (e.v.t.) si las operaciones suma
V V V
(v, w) v +w
y ponderacin por escalar
R V V
(, v) v
son continuas para las topologas producto sobre V V y
R
V sobre RV respectivamente.
Se tiene que las vecindades de cualquier punto se obtienen a partir de las vecindades del origen por
traslacin. Se dice adems que el e.v.t. es localmente convexo (l.c.) si el origen admite una base de
vecindades convexas.
El ejemplo ms simple de e.v.t.l.c. es el de un espacio vectorial normado (V, | |), pues basta
tomar la base de vecindades constituida por las bolas con centro en el origen.
Dado un e.v.t. (V, ) denotaremos por (V, )

, o simplemente por V

, el espacio vectorial de
todas los funcionales lineales (funciones lineales de V a valores en R) que son -continuas sobre
V . El espacio V

se conoce como espacio dual


1
de (V, ). Si v

entonces para todo v V


escribiremos
v, v

:= v

(v),
lo que dene una forma bilineal , : V V

R conocida como producto de dualidad entre V y


V

. Esta ltima notacin apunta a enfatizar los roles en cierto sentido simtricos jugados por V y
V

. En efecto, dado v V , el funcional de evaluacin v, : V

R es una forma lineal sobre V

.
1.3.1. Separacin de convexos: el Teorema de Hahn-Banach
Denicin 1.3.1. Un hiperplano (o hiperplano afn) es un subconjunto H V de la forma v
V [ f(v) = donde f : V R es un funcional lineal no nulo y R.
Notacin: Escribiremos [ = ] = v V [ f(v) = , [ ] = v V [ f(v) y se extiende
la notacin de manera obvia para <, y >.
Observacin 1.3.1. Es posible probar que [ = ] es -cerrado si, y slo si, (V, )

, en cuyo
caso los semiespacios [ ] y [ ] (respectivamente [ < ] y [ > ]) sern cerrados (resp.
abiertos) en (V, ).
1
Al espacio V

tambin se le llama dual topolgico para diferenciarlo del dual algebraico; este ltimo contiene a
todas las formas lineales sobre V independiente de cualquier nocin topolgica.
22 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Denicin 1.3.2. Un conjunto C V se dice convexo si para todos x, y C y para todo [0, 1]
se tiene que
x + (1 )y C.
Una funcin f : V R + se dice convexa si para todos x, y V y para todo [0, 1],
f(x + (1 )y) f(x) + (1 )f(y).
Proposicin 1.3.1. f : V R + es convexa ssi epi f es convexo en V R.
Demostracin: Se deja como ejercicio.
X
R
x
y
Figura 1.5: Ejemplo de funcin convexa
Teorema 1.3.1 (Hahn-Banach). Sean (V, ) un e.v.t. y A, B V dos subconjuntos convexos, no
vacos y disjuntos (i.e. A B = ).
(i) Si A es abierto entonces existe un hiperplano cerrado que separa A y B, esto es, existen
(V, )

y R tales que A [ ] y B [ ].
(ii) Si (V, ) es un e.v.t localmente convexo (lo que abreviaremos por e.v.t.l.c.) tendremos lo si-
guiente: Si A es cerrado y B es compacto, entonces existe un hiperplano cerrado que separa
estrictamente A y B, esto es, existen (V, )

, R y > 0 tales que A [


] y B [ +].
Observacin 1.3.2. Si (V, ) es un e.v.t.l.c. separado (de Hausdor) entonces el Teorema de
Hahn-Banach permite asegurar que existen formas lineales continuas no nulas. Ms aun, bajo esta
condicin, dado cualquier par de puntos v
1
,= v
2
en V , por la parte (ii) del teorema, siempre es
posible encontrar v

(V, )

tal que v

(v
1
) ,= v

(v
2
).
Una consecuencia muy importante del Teorema de Hahn-Banach es la siguiente.
1.3. ESPACIOS VECTORIALES TOPOLGICOS 23
A
B
H
AA
B
H
Figura 1.6: Teorema de Hanh-Banach
Corolario 1.3.1. Si (V, ) es un e.v.t.l.c. y C V es un convexo, no vaco y -cerrado, entonces
C =

S [ C S y S es semiespacio cerrado.
Demostracin: Dado u / C, sean A := C y B := u. Por el Teorema de Hahn-Banach, existe S
semiespacio cerrado tal que C S y u / S.
1.3.2. Topologa dbil y funciones inferiormente semicontinuas.
Notemos que en principio V

est desprovisto de estructura topolgica. Sin embargo, es natural


dotar V

de la topologa de la convergencia puntual sobre V , que resulta ser la topologa menos na


(i.e. la ms pequea) que hace que todos los funcionales de evaluacin v, , v V , sean continuos.
Esta topologa se denota por (V

, V ) y se llama topologa dbil de V

asociada a la dualidad entre


V y V

. Es fcil ver que (V

, (V

, V )) resulta ser e.v.t.l.c. separado.


Un resultado til para el estudio de la dualidad de e.v.t.l.c. es el siguiente teorema.
Teorema 1.3.2 (Banach). Sean (V, ) un e.v.t.l.c. separado y V

su espacio dual. Si : V

R
es una forma lineal (V

, V )-continua, entonces existe un nico v V tal que v

, (v

) =
v, v

. Ms aun, V y (V

, (V

, V ))

son isomorfos como espacios vectoriales (va la evaluacin


v v, ).
Demostracin: Dado v V , la aplicacin V

v, v

= v

(v) es lineal y, por denicin,


(V

, V )-continua. En este sentido, V se identica con un subespacio vectorial de (V

, (V

, V ))

.
Recprocamente, si : V

R es lineal y (V

, V )-continuo, entonces queremos probar que existe


v V tal que = v, (la unicidad de v se sigue de la Observacin 1.3.2). Sea
U = v

[ (v

) < 1
24 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
que, por continuidad, resulta ser vecindad del origen. Por lo tanto, > 0 y un nmero nito de
puntos v
1
, ..., v
n
V tales que
v

[ v
i
, v

, i = 1, ..., n U.
En particular,
(1.2)
n

i=1
Kerv
i
, Ker .
Denamos la funcin lineal F : V

R
n
mediante
F(v

) = (v
i
, v

)
n
i=1
y sea L: F(V

) R con
L(y
1
, ..., y
n
) = (v

)
para cualquier v

tal que F(v

) = (y
1
, ..., y
n
). La funcin L est bien denida gracias a (1.2)
y resulta ser una aplicacin lineal sobre el subespacio vectorial F(V

) de R
n
, y en consecuencia se
puede extender a R
n
y representar como
L(y) =
n

i=1

i
y
i
.
En particular,
v

, (v

) =
n

i=1

i
v
i
, v

=
_
n

i=1

i
v
i
, v

_
,
de modo tal que basta tomar v =

n
i=1

i
v
i
para concluir.
Similarmente, es posible dotar a V de la topologa dbil (V, V

) denida como la topologa


menos na que hace que todos las formas lineales , v

, v

, sean continuas. Por denicin,


(V, V

) est contenida en la topologa inicial , y adems se tiene que (V, (V, V

))

es isomorfo a
V

. El espacio (V, (V, V

)) resulta ser e.v.t.l.c. y es separado cuando (V, ) es un e.v.t.l.c. separado


en virtud del Teorema de Hahn-Banach (ver la Observacin 1.3.2).
Otra consecuencia del Teorema de Hahn-Banach, es la siguiente:
Corolario 1.3.2. Sea (V, ) un e.v.t.l.c. y sea V

su espacio dual. Entonces


(i) Si C V es convexo entonces
C es cerrado ssi C es (V, V

) cerrado.
(ii) Si f : V R + es convexa entonces
f es s.c.i. ssi f es (V, V

) s.c.i.
Demostracin: (i) Como (V, V

) la suciencia es inmediata. Para la necesidad basta ob-


servar que todo semiespacio -cerrado es (V, V

)-cerrado y aplicar el corolario 1.3.1 para


concluir que C es (V, V

)-cerrado.
(ii) Basta observar que f es convexa si, y slo si, epi(f) es convexo en V R, y que f es -s.c.i
si, y slo si, epi(f) es cerrado para
R
en V R.
1.4. MINIMIZACIN CONVEXA EN ESPACIOS DE BANACH 25
1.4. Minimizacin convexa en espacios de Banach
Sea (V, ||) un espacio vectorial normado y denotemos por V

su dual topolgico. El estudio de


funciones coercivas conduce naturalmente a considerar las propiedades topolgicas de los subcon-
juntos acotados de V .
Comencemos recordando el siguiente resultado de Anlisis Funcional.
Teorema 1.4.1. Supongamos que (V, ||) es un espacio de Banach reexivo. Entonces los sub-
conjuntos acotados son relativamente compactos para la topologa dbil (V, V

). As, de cualquier
sucesin acotada es posible extraer una subsucesin dbilmente convergente.
Demostracin: [Bre83].
Como corolario del Teorema de Minimizacin de Weierstrass obtenemos el siguiente resultado.
Corolario 1.4.1. Sean (V, ||) un espacio de Banach reexivo y f : V R + una funcin
coerciva y (V, V

)-s.c.i. Entonces existe u V tal que v V, f(u) f(v).


Teorema 1.4.2. Sea (V, ||) un espacio de Banach reexivo y f : X R + una funcin
convexa, s.c.i. y coerciva. Entonces existe u V tal que v V, f(u) f(v).
Demostracin: Como f es coerciva, sus conjuntos de nivel inferior son acotados en V y en conse-
cuencia relativamente compactos para la topoliga dbil. Luego f es (V, V

)-inf-compacta y como
adems es s.c.i. para la topologa fuerte, lo es para (V, V

) en virtud del corolario 1.3.2. El resultado


se obtiene al aplicar el Teorema de Weierstrass.
Ejercicio 1.4.1. Pruebe el teorema anterior sin usar el Teorema de Weierstrass. Para ello, aplique
el mtodo directo con = (V, V

).
En el siguiente ejemplo veremos que la reexividad es esencial para la validez del teorema
anterior.
Ejemplo 1.4.1 (Un problema de minimizacin convexa sin solucin ptima). Consideremos (V, ||) =
(C([0, 1]; R), ||

), donde
|v|

= sup [v(t)[ [ t [0, 1] .


Sea
C :=
_
v V

_
1/2
0
v(t)dt
_
1
1/2
v(t)dt = 1
_
.
Es fcil ver que C es no-vaco, cerrado y convexo (ms aun, C es un hiperplano cerrado). Consi-
deremos la funcin indicatriz
C
. Como

(
C
) =
_
< 0
C 0
y C es cerrado, entonces
C
es s.c.i. (con respecto a
||
). Como epi(
C
) = C [0, +[, que es
convexo, entonces
C
es convexa. Consideremos el problema de minimizacin:
d(0, C) =nf|v|

[ v C =nf|v|

+
C
(v) [ v X.
26 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Evidentemente, la funcin f(v) = |v|

+
C
(v) es convexa, ||-s.c.i. y coerciva. Observemos que si
v C, entonces
1 =
1
2
_
0
v(t)dt
1
_
1
2
v(t)dt
1
_
0
[v(t)[dt |v|

.
As, d(0, C) 1. Por otra parte, dados n 1,
n
<
1
2
,
n
> 1 denimos v
n
: [0, 1] R por
v
n
(x) =
_

n
x [0,
n
]
n
n
1
2
x +
1
2
n
1
2
n
x ]
n
, 1
n
[

n
x [1
n
, 1]
y tomando
n
=
1
2

1
n
,
n
= 1 +
1
n
se tiene que v
n
C y |v
n
|

=
n+1
n
con lo que concluimos que
d(0, C) = 1.

n
1
1

n
1
R
R
1
2
Figura 1.7: Familia de funciones v
n
Supongamos que existe u C tal que |u|

= 1. Como

_
1/2
0
u(t)dt


1
2
y

_
1
1/2
u(t)dt


1
2
,
necesariamente

_
1/2
0
u(t)dt

_
1
1/2
u(t)dt

=
1
2
. Pero entonces

_
1/2
0
(1 u(t))dt

= 0 y como
1 u(t) 0 deducimos que u 1 sobre
_
0,
1
2

. Similarmente, u 1 sobre
_
1
2
, 1

lo que contradice
la continuidad de u. Luego, no existe un minimizador para d(0, C). En particular, se deduce que
(C([0, 1]; R), ||

) no es reexivo.
Observacin 1.4.1. Se puede asegurar la unicidad del minimizador en el Teorema 1.4.2 cuando se
tiene que nf
V
f < + si suponemos adems que f es estrictamente convexa, es decir,
u, v dom(f), u ,= v, ]0, 1[, f(u + (1 )v) < f(u) + (1 )f(v).
Ejercicio 1.4.2. Demuestre la observacin anterior.
1.5. RELAJACIN TOPOLGICA 27
1.5. Relajacin topolgica
1.5.1. La regularizada semicontinua inferior
La efectividad del enfoque topolgico presentado radica en la posibilidad de escoger la topologa
de modo de satisfacer las propiedades de inf-compacidad y semicontinuidad inferior. Sin embargo,
la dicultad reside en que ambas propiedades son antagonistas en el siguiente sentido: dada f : X
R + y dos topologas
2

1
sobre X se tiene que
1. Si f es
1
-inf-compacta entonces f es
2
-inf-compacta.
2. Si f es
2
-s.c.i. entonces f es
1
-s.c.i.
La eleccin de la topologa resulta de un balance entre ambas propiedades. Usualmente la inf-
compacidad tiene prioridad: se trata de encontrar la topologa ms na posible que asegura la
inf-compacidad de f, lo que permite por una parte aumentar las posibilidades de que f sea s.c.i.
y por otra describir el comportamiento asinttico de las sucesiones minimizantes. Sin embargo, en
algunas aplicaciones importantes la semicontinuidad inferior simplemente no se tiene y el problema
de minimizacin asociado no tiene solucin, pese a que s se tiene la inf-compacidad. En tales casos,
es interesante entender el comportamiento de las sucesiones minimizantes. Por ejemplo responder a
la pregunta Qu se puede decir de los puntos de acumulacin?
En lo que sigue, supondremos que (X, ) es un espacio topolgico.
Denicin 1.5.1. La -regularizada s.c.i. o -clausura inferior de f : X R+ es la funcin
denida por
cl

(f) = f

:= supg : X R + [ g es -s.c.i, g f.
Proposicin 1.5.1. Si f : X R +, entonces
(i) epi(cl

(f)) = cl(epi(f)). En particular, cl

(f) es -s.c.i.
(ii) cl

(f)(x) = lminf
yx
f(y).
(iii) f es -s.c.i. ssi f cl

(f) ssi f = cl

(f).
Demostracin: (i) Notemos que A X R es un epigrafo si, y slo si,
1. Para todos (x, ) A y > se tiene (x, ) A; y
2. Para todo x X, el conjunto [ (x, ) A es cerrado en R.
As, es fcil vericar que A = cl(epi(f)) es un epgrafo, es decir, existe g : X R +
tal que cl(epi(f)) = epi(g). Como epi(g) es cerrado, g es -s.c.i. Ms aun, dado que epi(f)
epi(g), tenemos que g f. As, g es un minorante -s.c.i de f y en consecuencia g cl

(f).
Sea ahora h: X R + otra minorante s.c.i. de f de modo que epi(f) epi(h), luego
epi(g) = cl(epi(g)) epi(h), y as g h. Por lo tanto g = cl

(f).
28 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
(ii) Como cl

(f) es -s.c.i.,
cl

(f)(x) lminf
yx
cl

(f)(y) lminf
yx
f(y).
Por otra parte, denamos h(x) := lminf
yx
f(y) = sup
V Ax
nf
yV
f(y), que es una minorante de f y
es -s.c.i., de modo que h cl

(f).
(iii) Evidentemente, cl

(f) f y si f es -s.c.i., entonces f(x) lminf


yx
f(y) = cl

f(x).
Proposicin 1.5.2. Si f : X R +, entonces
cl

(f)(x) = mnlminf
d
f(x
d
) [ D conjunto dirigido, (x
d
)
dD
una red, x
d
x.
Si adems (X, ) es metrizable, entonces
cl

(f)(x) = mnlminf
n
f(x
n
) [ (x
n
)
nN
es una sucesin, x
n
x.
Demostracin: Para simplicar, slo haremos la demostracin en el caso metrizable. Tenemos que
lminf
yx
f(y) = sup
>0
nf
yB (x,)
f(y).
Sea x
n
x, de modo que
> 0, n
0
() N, n n
0
, x
n
B

(x, ).
En consecuencia, f(x
n
) nf
yB (x,)
f(y) y ms aun nf
nn
0
f(x
n
) nf
yB (x,)
f(y). Luego
lminf
n
f(x
n
) = sup
kN
nf
nk
f(x
n
) nf
yB (x,)
f(y).
Por lo tanto, de la arbitrariedad de y x
n
x
lminf
yx
f(y) nflminf
n
f(x
n
) [ x
n
x.
Por otra parte, para cada n 1 existe x
n
B

(x,
1
n
) tal que
_

_
nf
yB (x,
1
n
)
f(y) f(x
n
)
1
n
si nf
B (x,
1
n
)
f >
n f(x
n
) si nf
B (x,
1
n
)
f = .
En ambos casos
lminf
yx
f(y) lm
n
nf
yB (x,
1
n
)
f(y) lmsup
n
f(x
n
) lminf
n
f(x
n
)
lo que prueba el resultado.
1.5. RELAJACIN TOPOLGICA 29
Proposicin 1.5.3. Sea f : X R +. Entonces nf
X
f = nf
X
cl

(f) y ms generalmente
nf
U
f =nf
U
cl

(f) para todo U . Adems arg mn f arg mn cl

(f).
Demostracin: Como f cl

(f), slo debemos probar que nf


U
f nf
U
cl

(f). Dado que x U,


como U , se tiene que U A
x
() y as cl

(f)(x) nf
U
f. De la arbitrariedad de x se deduce
que nf
U
cl

(f)(x) nf
U
f. Finalmente, si x arg mn f entonces
cl

(f)(x) f(x) =nf


X
f =nf
X
cl

(f)
lo que implica que x arg mn cl

(f).
Teorema 1.5.1. Sean f : X R+ y (x
n
)
nN
una sucesin minimizante para f. Supongamos
que existen x X y una subsucesin (x
n
k
)
kN
tales que x
n
k
x. Entonces x minimiza cl

(f) en
X.
Demostracin: Como lm
n
f(x
n
) =nf
X
f, deducimos que
cl

(f)( x) lm
k
f(x
n
k
) =nf
X
f =nf
X
cl

(f).
Denicin 1.5.2. Decimos que el problema mncl

(f)(x) [ x X es el problema relajado del


problema de minimizacin original nff(x) [ x X.
Ejercicio 1.5.1. Sea F : (X, ) R + y G: (X, ) R una funcin continua. Muestre que
(F +G)

= F

+G.
Ejemplo 1.5.1. Dado p ]1, +[, consideremos el siguiente problema de minimizacin:
(T) nf
vV
_
1
p
_

[v(x)[
p
dx
_

g(x)v(x)dx

v = 0 sobre
_
,
donde R
N
es un abierto acotado y g es una funcin con propiedades a precisar. La existencia
de soluciones depender de la eleccin del espacio V . Una primera idea es considerar V = C
1
c
(),
el espacio de las funciones continuas a soporte compacto en , pero esta ser insuciente si nos
interesa considerar g irregular.
Sea F : L
p
() R + denida por
F(v) =
_
1
p
_

[v[
p
dx si v C
1
c
(),
+ si no.
Nos interesa calcular F = F
L
p
(ms adelante veremos el porqu). Primero observemos que v
dom(F) si, y slo si, existe v
n
v en L
p
() tal que lminf
n+
F(v
n
) < +. Sin prdida de generalidad
podemos suponer que lm
n+
F(v
n
) existe y es nito, y que sup
n
F(v
n
) < +, lo que equivale a
sup
n
|v
n
|
p,
< +. Luego sup|v
n
|
1,p,
< +, donde |v
n
|
1,p,
= |v
n
|
p,
+|v
n
|
p,
. Es decir
(v
n
)
nN
C
1
c
() est uniformemente acotada en W
1,p
(). Como ste es un espacio de Banach
30 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
reexivo, deducimos que existe w W
1,p
() y una subsucesin (v
n
k
)
kN
tal que v
n
k
w dbilmente
en W
1,p
(). En particular, v
n
k
w en L
p
() y en consecuencia w = v. As, v
n
k
v dbilmente
en W
1,p
() y (v
n
k
)
kN
C
1
c
() W
1,p
0
() y este ltimo es subespacio cerrado de W
1,p
(), luego
es dbilmente cerrado. En conclusin v W
1,p
0
(). As, dom(F) W
1,p
0
().
Recprocamente, si v W
1,p
0
() = C
1
c
()
||
1,p
entonces existe una sucesin (v
n
)
nN
C
1
c
() tal
que v
n
v en W
1,p
0
() y en particular |v|
p,
= lm
n
|v
n
|
p,
. Por lo tanto, dom(F) = W
1,p
0
()
y, ms aun, si v W
1,p
0
() entonces F(v)
1
p
|v|
p
p
. Por otra parte, si v W
1,p
0
() y v
n
v
en L
p
() y, razonando sin prdida de generalidad, podemos suponer que v
n
v dbilmente en
W
1,p
() y en particular v
n
v dbilmente en L
p
()
N
. Pero : L
p
()
N
R denida por
(f) =
1
p
_

[f(x)[
p
dx es convexa continua, y, por lo tanto, es dbilmente s.c.i. Luego
1
p
|v|
p
p
lminf
n
1
p
|v
n
|
p
p
.
De la arbitrariedad de las sucesiones se obtiene que
1
p
|v|
p
p
F. En conclusin
F(v) =
_
1
p
|v|
p
p
si v W
1,p
0
(),
+ si no.
Supongamos que g L
q
() con
1
p
+
1
q
= 1 y denimos G: L
p
() R mediante
G(v) :=
_

g(x)v(x)dx.
Luego, si denimos J(v) := F(v) +G(v), del Ejercicio 1.5.1
J(v) =
_
1
p
_

[v(x)[
p
dx
_

g(x)v(x)dx si v W
1,p
0
(),
+ si no.
Podemos formular el problema original como
(T) nf
vL
p
()
J(v) J(0) = 0 < +.
Sea (v
n
)
n
L
p
() una sucesin minimizante para (T), es decir, lm
n
J(v
n
) = nf
L
p J. Razonando
como antes podemos suponer sin prdida de generalidad que sup
n
J(v
n
) < + de modo que
(v
n
)
nN
C
1
c
() W
1,p
0
() y sup
n
|v
n
|
p
< +. Por la desigualdad de Poincar, deducimos
que (v
n
)
nN
est acotada en W
1,p
0
() y por el Teorema de la Inyeccin Compacta de Rellich-
Kondrachov, se tiene que existen v W
1,p
0
() y (v
n
k
)
kN
tales que v
n
k
v en L
p
(). Aplicando
el Teorema 1.5.1, deducimos que v arg mn J, es decir, v es una solucin del problema relajado
(T) nf
vL
p
()
J(v).
1.5. RELAJACIN TOPOLGICA 31
1.5.2. La -convergencia
A continuacin introduciremos la -convergencia o epi-convergencia y mostraremos sus princi-
pales propiedades. Por ejemplo, un resultado de estabilidad para problemas de minimizacin.
Sea (X, d) un espacio mtrico y consideremos una familia F
n

nN
de funciones denidas de X en
R. Para u X, denimos
((d) lminf
n+
F
n
)(u) :=nflminf
n+
F
n
(u
n
) : u
n
u,
y
((d) lmsup
n+
F
n
)(u) :=nflmsup
n+
F
n
(u
n
) : u
n
u.
Claramente, se tiene que (d)lminf F
n
(d)lmsup F
n
y si coinciden diremos que la sucesin
F
n

nN
es - convergente o epi-convergente a F en u X. En ese caso escribimos F(u) =
((d) lm
n
F
n
)(u). Notemos que dado u X, la denicin es equivalente a:
1. Para cada sucesin u
n
u, se tiene que
F(u) lminf
n+
F
n
(u
n
) ,
2. Existe una sucesin u
n
u tal que
F(u) = lmF
n
(u
n
).
Ejercicio 1.5.2. Muestre que el -lmite de una sucesin constante es la clausura inferior. Ms
precisamente, (d) lmF = cl
d
(F).
Ms generalmente, es posible demostrar que si F = (d) lmF
n
entonces F es s.c.i. y que bajo
ciertas condiciones sobre d, la -convergencia dene una topologa metrizable sobre el espacio de
las funciones inferiormente semicontinuas. En general, la convergencia no implica ni es implicada
por la convergencia puntual, ms aun, es posible encontrar ejemplos de sucesiones -convergentes
en X cuyo lmite puntual existe en X pero que no coincide con el -lmite.
Ejercicio 1.5.3. Sea F
n
una sucesin decreciente de funciones de X en R. Muestre que el -lmite
existe y
(d) lm
n+
F
n
= cl
d
( nf
nN
F
n
).
La principal propiedad de la -convergencia se establece en el siguiente teorema y precisa su
naturaleza variacional.
Teorema 1.5.2. Sean F
n

n
, F y G funciones de X en R tales que
F = lm
n+
F
n
.
y tal que G es continua. Entonces
lmsup
n+
(nfF
n
+G) nfF +G.
Ms aun, si existe una subsucesin u
n
k
arg mnF
n
k
+ G convergente a u X, entonces u
arg mnF +G y nfF
n
k
+G nfF +G.
32 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Demostracin: El lector debe vericar que (F
n
+ G)
nN
es -convergente a F + G. Luego, basta
considerar el caso G 0. Supongamos que nf F > y para > 0 consideremos u

un -mnimo
de F:
F(u

) nf F +.
Tomando u
n
u

tal que lm
n+
F
n
(u
n
) = F(u

), se tiene que
lmsup
n+
(nf F
n
) lm
n+
F
n
(u
n
) nf F +,
y, de la arbitrariedad de > 0, concluimos que lmsup
n+
(nf F
n
) nf F. Si nf F = el
argumento es similar.
Sea u
k
= u
n
k
la subsucesin convergente a u tal que u
k
arg mn(F
n
k
). De la -convergencia, se
tiene que
F(u) lminf
k+
F
k
(u
k
),
de donde se sigue que
F(u) lminf
k+
nf F
k
lo que implica, junto con la primera parte del teorema, que u arg mn F y que lm
k+
nf F
n
k
=
nf F.
1.6. PROBLEMAS 33
1.6. Problemas
Problema 1.1. Sea (X, ) un espacio topolgico y dado x X considere la funcin f(x) =
supg(N) [ N A
x
(), donde g es una funcin a valores en R + denida sobre y A
x
()
denota el conjunto de -vecindades de x. Muestre que f es s.c.i.
Problema 1.2. Sean V un espacio de Banach y U : V R una funcin Gteaux-diferenciable.
Diremos que U satisface la condicin (WC) sobre un subespacio V si para cualquier sucesin
(x
n
)
nN
con las siguientes propiedades:
([U(x
n
)[)
nN
es acotada,
U
t
(x
n
) ,= 0 para todo n, y
U
t
(x
n
) 0 en V

,
existe x X tal que U
t
( x) = 0 y
lminf
n+
U(x
n
) U( x) lmsup
n+
U(x
n
).
(a) Suponga que V es reexivo y que U es convexa, s.c.i, y U(x) + cuando |x| +.
Muestre que U satisface la condicin (WC) sobre V .
(b) Suponga ahora que U es s.c.i. y acotada inferiormente. Suponga tambin que la restriccin de
U
t
a rectas es continua y que U satisface la condicin (WC) sobre V . Pruebe que U alcanza
su mnimo sobre V .
Problema 1.3 (). Sea X un e.v.t. Dado A X denimos la envoltura convexa de A como
co(A) =

C [ C es un convexo, A C
y la envoltura convexa cerrada de A como coA = cl(coA).
(a) Pruebe que
co(A) =
_
n

i=1

i
v
i

n N, v
i
A,
i
0,
n

i=1

i
= 1
_
(b) (Teorema de Carathodory) Demuestre que si X es de dimensin nita igual a n, entonces
co(A) =
_
n+1

i=1

i
v
i

v
i
A,
i
0,
n+1

i=1

i
= 1
_
.
(c) Pruebe que si C X es un convexo, entonces C tambin lo es. Deduzca que
co(A) =

C [ C es un convexo cerrado, A C.
(d) Pruebe que si A es abierto, entonces co(A) tambin lo es. Muestre que si C X es convexo,
entonces int(C) tambin lo es.
34 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
(e) Muestre que si A
1
, . . . , A
n
X son convexos y compactos, entonces co(A
1
A
n
) es
compacto.
(f) Sea (V, ||) un e.v.n. y supongamos que A es totalmente acotado. Pruebe que co(A) es total-
mente acotado. Deduzca que si (V, ||) es de Banach y K V es compacto, entonces para
todo A K, coA es compacto.
Problema 1.4 (). (Un teorema de Min-Max). Sean X y Y dos e.v.t., considere A X y B Y
dos convexos, compactos no vacos. Sea : A B R una funcin que cumple las siguientes
propiedades:
(i) Para cada y B, el mapeo x (x, y) es continuo sobre A.
(ii) Si
i
0 para i = 1, ..., n tal que

n
i=1

i
= 1, entonces
(ii.a)
_
n

i=1

i
x
i
, y
_
=
n

i=1

i
(x
i
, y) para todo x
i
A,
(ii.b)
_
x,
n

i=1

i
y
i
_
=
n

i=1

i
(x, y
i
) para todo y
i
B
El objetivo del problema es mostrar que
sup
xA
nf
yB
(x, y) = nf
yB
sup
xA
(x, y).
Para ello proceda como sigue:
(a) Muestre que
sup
xA
nf
yB
(x, y) nf
yB
sup
xA
(x, y).
(b) Denotemos por c = nf
yB
sup
xA
(x, y). Muestre que para probar la otra desigualdad es suciente
con probar que si
A
y
= x A : (x, y) c
entonces I B nito se tiene que

yI
A
y
,= .
(c) Suponga que existen y
1
, ..., y
n
B, tales que
n

i=1
A
y
i
= . Considere el mapeo f : A R
n
denido por f(x) = ((x, y
1
) c, ...., (x, y
n
) c). Muestre que existe R
n
0 y R
tal que
, u < , v u f(A), v R
n
+
.
Concluya el resultado pedido.
1.6. PROBLEMAS 35
Problema 1.5 (). Para un conjunto K R
n
cualquiera denimos el cono polar de K como el
siguiente conjunto,
K

= y R
n
: x, y 0, x K.
y la funcin soporte de K como,

K
(x) := sup
yK
x, y.
Sea C R
n
no vaco y denotemos por C

el cono polar de C

. Pruebe las siguientes relaciones:


(a) dom
C
C

.
(b) Si int(C

) ,= , entonces int(C

) dom
C
.
(c) Si C es convexo, entonces (dom
C
)

= C

.
Problema 1.6 (). (Algunos teorema de Punto Fijo). Sea (X, d) un espacio mtrico.
(a) (Generalizacin del teorema de punto jo de Banach) Consideremos una funcin : X X.
Diremos que es una contraccin direccional si es continua y existe k (0, 1) tal que para
cualquier x ,= (x) existe z [x, (x)] x y se tiene
d((x), (z)) kd(x, z).
Muestre que si es una contraccin direccional entonces tiene un punto jo.
(b) (Caristi) Sea F : X 2
X
una multiaplicacin. Denamos el grafo de F como
Gr(F) = (x, y) X X : y F(x).
Supongamos que Gr(F) es cerrado y que existe una funcin f : X R + acotada
inferiormente y s.c.i. tal que
f(y) +d(y, x) f(x) (x, y) Gr(F).
Muestre que F posee al menos un punto jo, es decir, existe x X tal que x F( x).
Problema 1.7 (Convergencia Variacional de Puntos Sillas). Diremos que una sucesin F
n
: R
n

R
m
R, n N hipo/epi-converge a una funcion F : R
n
R
m
R si para cualquier (x, y)
R
n
R
m
se satisface
1. Para cualquier x
n
x existe y
n
y tal que lmsup
n+
F
n
(x
n
, y
n
) F(x, y),
2. Para cualquier y
n
y existe x
n
x tal que lminf
n+
F
n
(x
n
, y
n
) F(x, y).
Suponga que (F
n
) hipo/epi-converge a F y que existe una secuencia de puntos ( x
n
, y
n
) tales que
para cualquier (x, y) R
n
R
m
se tiene que
F
n
(x, y
n
) F
n
( x
n
, y
n
) F
n
( x
n
, y).
Muestre que si ( x
n
, y
n
) ( x, y), entonces
F(x, y) F( x, y) F( x, y).
36 CAPTULO 1. INTRODUCCIN AL ANLISIS VARIACIONAL
Captulo 2
Fundamentos de Anlisis Convexo
2.1. Funciones convexas.
Sea V un espacio vectorial real. Recordemos que una funcin f : V R se dice convexa si epi f
es un subconjunto convexo de V R. De manera equivalente, f es convexa si, y slo si, n 2,
v
1
, ..., v
n
V ,
1
, ...,
n
R
+
0 tales que
n

i=1

i
= 1, se tiene
f
_
n

i=1

i
v
i
_

i=1

i
f(v
i
).
Proposicin 2.1.1. Sea f : V R una funcin convexa.
(i) Si 0 entonces f es convexa.
(ii) Si g : V R es convexa entonces f +g es convexa.
(iii) Si A: W V es lineal afn entonces f A es convexa.
(iv) Si : R R es convexa no-decreciente entonces f es convexa.
(v) Si (f
i
)
iI
es una familia no vaca de funciones convexas de V en R, entonces f = sup
iI
f
i
es
convexa.
(vi) Supongamos que W es un espacio vectorial y g : V W R es convexa. Entonces la funcin
h: V R denida por h(v) = nf
wW
g(v, w) es convexa.
(vii) Si g : R
m
R es convexa y F : V R
m
es de la forma F(x) = (f
1
(x), ..., f
m
(x)) con
f
i
: V R convexas, entonces gF es convexa siempre que g = g(y
1
, ..., y
m
) sea no-decreciente
en y
i
para i = 1, ..., m.
Demostracin: Se deja como ejercicio para el lector.
Observemos que (i) y (ii) dicen que el conjunto de las funciones convexas en V es un cono convexo
(pero no un espacio vectorial pues la diferencia de dos funciones convexas no es necesariamente
convexa). Ejemplos de funciones convexas son las normas y las seminormas en V .
37
38 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Otra denicin a retener es la de concavidad: Decimos que f : V R es (estrictamente) cncava
si f es (estrictamente) convexa.
En espacio generales, una funcin convexa, incluso si es lineal, no es necesariamente continua.
Sin embargo, el siguiente resultado establece una propiedad interesante acerca de la continuidad y
lipschitzianidad de las funciones convexas.
Teorema 2.1.1. Sean (V, ||) un e.v.n. y f : V R + una funcin convexa. Entonces son
equivalentes:
(i) f est acotada superiormente en una vecindad de x
0
dom(f).
(ii) f es localmente Lipschitz en x
0
dom(f).
(iii) f es continua en algn x
0
dom(f).
(iv) f es localmente Lipschitz en int(dom(f)) ,= .
(v) f es continua en int(dom(f)) ,= .
(vi) int(epi(f)) ,= .
Demostracin: Probaremos que (i) (ii) (iii) (i) y luego que (i) (iv) (v) (vi) (i).
(i) (ii) Sin prdida de generalidad podemos suponer que x
0
= 0 (de lo contrario basta
considerar

f(x) = f(x+x
0
)). Sean > 0 y M R tales que para cada x con |x| se tiene
que f(x) M. Dados x
1
, x
2
con |x
i
|

2
i = 1, 2 y x
1
,= x
2
de modo que := |x
1
x
2
| > 0,
denimos y = x
1
+

2
(x
1
x
2
). En consecuencia, |y x
1
| =

2
, de donde concluimos que
|y| y f(y) M. Adems, x
1
=
2
2+
y +

2+
x
2
y de la convexidad de f deducimos
f(x
1
)
2
2 +
f(y) +

2 +
f(x
2
).
Luego
f(x
1
) f(x
2
)
2
2 +
[f(y) f(x
2
)]
2
2 +
[M f(x
2
)]
Pero 0 =
1
2
x
2
+
1
2
(x
2
) de modo que f(0)
1
2
f(x
2
) +
1
2
f(x
2
) y se tiene que f(x
2
)
f(x
2
) 2f(0) M 2f(0). As,
f(x
1
) f(x
2
)
4
2 +
[M f(0)]
4

M

|x
1
x
2
|,
para algn

M > 0.
Intercambiando los roles de x
1
y x
2
se deduce que [f(x
1
) f(x
2
)[
4

M

|x
1
x
2
|.
(ii) (iii) y (iii) (i) son inmediatos.
(i) (iv). Sea x int(dom(f)). Consideremos > 0 y denamos y

= x + ( x x
0
) de
modo que x =
1
1+
y

+

1+
x
0
. Si > 0 es sucientemente pequeo, y

dom(f). Sea U una


vecindad abierta de x
0
donde f es acotada superiormente por M y denamos
U

:=
1
1 +
y

+

1 +
U
2.1. FUNCIONES CONVEXAS. 39
que resulta ser una vecindad abierta de x. Luego, si z U

se tiene que x U : z =
1
1+
y +

1+
x y por la convexidad de f
f(z)
1
1 +
f(y) +

1 +
f(x)
1
1 +
f(y) +

1 +
M := M

,
de modo que f est localmente acotada por M

en x.
y

x
0
x
U
U

domf
(iv) (v) Tambin es inmediato.
(v) (vi) Sean x int(dom(f)) y > f(x). Veremos que (x, ) int(epi(f)). En efecto,
dado R tal que f(x) < < , existe una vecindad abierta U de x tal que y U, f(y) < .
Luego (x, ) U], +[ epi(f).
(vi) (i) Dados U abierto no vaco y a < b tales que U]a, b[ epi(f) entonces x
U, (x,
a+b
2
) epi(f) lo que equivale a decir que x U, f(x)
a+b
2
< +.
Este resultado puede adaptarse al caso f : V R pero hay que exigir que f(x
0
) R.
Corolario 2.1.1. Si f : R
n
R + es convexa y propia entonces f es localmente Lipschitz
en int(dom(f)). En particular, si f : R
n
R es convexa entonces es continua.
Demostracin: Sea x
0
int(dom(f)) de modo que > 0 : B(x
0
, ) dom(f). Sean e
1
, ..., e
n
los
vectores de la base cannica de R
n
y x
i
:= x
0
+ e
i
para i = 1, ..., n. El conjunto
S =
_
n

i=0

i
x
i

i=0

i
= 1,
i
> 0, i 0, 1, ..., n
_
es una vecindad abierta de x
0
, y por convexidad
f
_
n

i=0

i
x
i
_
maxf(x
i
) [ i = 0, 1, ..., n < +.
Por lo tanto f est acotada superiormente en S.
40 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
R
R
S
x
0
x
2
x
1

Notemos que la convexidad es esencialmente una propiedad unidimensional pues depende del
comportamiento en un segmento de recta. Por ejemplo, un conjunto es convexo si, y slo si, su
interseccin con cualquier recta lo es. As, muchas de las propiedades de funciones convexas en R
n
pueden obtenerse de un anlisis del caso n = 1.
Lema 2.1.1. Sea I un intevalo. Una funcin f : I R es convexa si, y slo si, para todo x
0

y x
1
en I se tiene que
f(y) f(x
0
)
y x
0

f(x
1
) f(x
0
)
x
1
x
0

f(x
1
) f(y)
x
1
y
.
Luego, dado x I, se tiene que

x
(y) :=
f(y) f(x)
y x
es no-decreciente como funcin de y Ix. Similarmente la convexidad estricta est caracterizada
por desigualdades estrictas.
Demostracin: Basta observar que y =
x
1
y
x
1
x
0
x
0
+
yx
0
x
1
x
0
x
1
.
X
R
epi f
x
0
y x
1
2.1. FUNCIONES CONVEXAS. 41
Teorema 2.1.2. Si f : I R R es diferenciable en el intervalo abierto I entonces cada una de
las siguientes condiciones son necesarias y sucientes para que f sea convexa en I:
(i) f
t
es no-decreciente en I.
(ii) f(y) f(x) +f
t
(x)(y x), x, y I.
(iii) En caso de que f sea de clase C
2
, f
tt
(x) 0, x I.
Similarmente, cada una de las siguientes condiciones son necesarias y sucientes para que f sea
estrictamente convexa en I:
(i) f
t
es estrictamente creciente en I.
(ii) f(y) > f(x) +f
t
(x)(y x), x, y I con x ,= y.
Una condicin suciente pero no necesaria para la convexidad estricta es:
(iii) f
tt
(x) > 0, x I (asumiendo que f C
2
).
Demostracin: (convexidad) (i) Directo del lema anterior.
(i) (ii) Denamos g
x
(y) := f(x) f(y) + f
t
(x)(y x). Notemos que g
x
(x) = 0 y que
g
t
x
(y) = f
t
(y)+f
t
(x) de modo que g
t
x
(y) 0 si y I], x] y g
t
x
(y) = si y I [x, +].
En consecuencia, g
x
tiene un mximo golbal en y = x y el valor es 0.
(ii) (convexidad) Sea l
x
(y) = f(x) + f
t
(x)(y x) una funcin lineal afn. Tenemos que
x I, f(y) l
x
(y) y f(x) = l
x
(x). As, f(y) = sup
yI
l
x
(y) y en consecuencia f es convexa.
(ii
t
) (convexidad estricta) Dados x
0
< x
1
sea x

= x
0
+(x
1
x
0
). Para la funcin afn
l

(y) = f(x

) + f(x

(y x

) tenemos que f(x


0
) > l

(x
0
) y f(x
1
) > l

(x
1
) perof(x

) =
l (x

= l

(x
1
) + (1 )l

(x
0
) luego f(x

) < (1 )f(x
0
) +f(x
1
).
Queda como ejercicio estudiar las otras implicancias.
Ejemplo 2.1.1. Algunas funciones convexas relevantes:
f(x) = ax
2
+bx +c en R cuando a 0; es estrictamente cuando a > 0.
f(x) = e
ax
en R; es estrictamente cuando a ,= 0.
f(x) = x

en ]0, +[ cuando 1; es estrictamente convexa cuando > 1.


f(x) = x

en ]0, +[ cuando 0 1; es estrictamente convexa cuando 0 < < 1.


f(x) = ln x en ]0, +[ es estrictamente convexa.
Notemos que f(x) = x
4
satisface que f
tt
(0) = 0 pero es estrictamente convexa, lo que muestra que
(iii
t
) no es necesario.
42 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Corolario 2.1.2. Sea U R
n
un conjunto convexo y abierto. Si f : U R es diferenciable,
entonces cada una de las siguientes condiciones son necesarias y sucientes para que f sea convexa
en U:
(i) x, y U, f(x) f(y), x y 0.
(ii) x, y U, f(y) f(x) +f(x), y x.
(iii)
2
f(x) es semi-denida positiva x U (asumiendo que f C
2
).
Para la convexidad estricta es necesario y suciente tener (i) o (ii) con desigualdad estricta si x ,= y.
Una condicin suciente pero no necesaria es que
2
f(x) sea denida positiva.
Demostracin: Propuesto. Considerar g(t) = f(y +tz) con y U y z R
n
.
Ejercicio 2.1.1. Pruebe que las siguientes funciones son convexas:
f(x) =
1
2
x, Ax +b, x +c, con A R
nn
matriz simtrica y semi-denida positiva. Pruebe
que es estrictamente convexa si A es denida positiva.
f(x) = ln
_
n

i=1
e
x
i
_
. Muestre adems que esta funcin no es estrictamente convexa.
2.2. Espacios en dualidad
Diremos que dos e.v.t.l.c. (X, ), (Y, ) son espacios en dualidad si existe un producto de dualidad
entre X y Y , esto es, una funcin bilineal , : X Y R tal que:
1.1 x X 0, y Y : x, y , = 0.
1.2 y Y 0, x X : x, y , = 0.
2.1 y Y, , y (X, )

y (X, )

, !y Y : = , y.
2.2 x X, x, (Y, )

y (Y, )

, !x X : = x, .
Decimos que 1.1 y 1.2 son propiedades que hacen a , separar puntos. Las topologas y se
dirn compatibles con la dualidad (X, Y, , ) y necesariamente son separadas: dados x
1
,= x
2
en X
se tiene, por 1.1, que existen R y y Y tales que x
1
, y > > x
2
, y. En virtud de (2.1), se
tiene que x
1
x [ x, y > y x
2
x [ x, y < . Anlogamente se prueba que la
topologa es separada.
Ejemplo 2.2.1 (Espacios en Dualidad). Los siguientes son algunos ejemplos de espacios en duali-
dad:
X = Y espacios de Hilbert cuya topologa esta inducida por el producto hilbertiano , que
a su vez resulta ser el producto de dualidad.
(X, ||) un e.v.n., Y = (X,
||
)

= X

, , : X X

R denido por x, x

= x

(x).
2.3. LA CONJUGADA DE FENCHEL 43
1.1 Se tiene por Hahn-Banach.
1.2 Se tiene pues x

,= 0.
2.1 Se tiene por denicin.
2.2 Depende de la topologa en X

:
Si =
||
entonces 2.2 equivale a que X sea un Banach reexivo.
Si = (X

, X) es la topologa dbil entonces 2.2 se cumple gracias al Teo. 1.3.2.


Ms generalmente, si X e Y son e.v. y , : X Y R una funcin bilineal que separa
puntos, entonces (X, (X, Y )) y (Y, (Y, X) son espacios en dualidad, donde (X, Y ) es la
topologa ms pequea que hace todos los , y continuos.
En las aplicaciones, prcticamente la nica situacin til es el caso de (X, X

, , ) con X
espacio de Banach y , asociado a las evaluaciones, caso en el que, a modo de resumen, tenemos
que:
1. (X,
||
) es compatible con la dualidad , .
2. (X, (X, X

)) es compatible con la dualidad , .


3. (X

, (X

, X) es compatible con la dualidad , .


4. (X

,
||
) es compatible con la dualidad , si, y slo si, X es reexivo.
Este caso no es el nico considerado en este captulo porque deseamos enfatizar que el anlisis
slo depende de las topologas (dbiles) involucradas.
2.3. La conjugada de Fenchel
Sean (X, ) y (Y, ) dos e.v.t.l.c. en dualidad , y f : X R una funcin. Vimos que en el
caso en que la dimensin es nita y la funcin es diferenciable la convexidad puede caracterizarse
va minorantes lineales anes asociados al gradiente de la funcin. En el caso general, decimos que
dado y Y y R la funcin lineal l

(x) = x, y es una minorante de f si


x X, x, y f(x),
o equivalentemente
sup
xX
x, y f(x).
Denicin 2.3.1 (Fenchel, 1949). La conjugada de Fenchel de f : X R es la funcion f

: Y R
denida por
f

(y) = sup
xX
x, y f(x).
Observacin 2.3.1. 1. La denicin equivale a
f

(y) = sup
xdom(f)
x, y f(x)
incluso si dom(f) = .
44 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
X
R
epi f

, y
, y
Figura 2.1: Ejemplo de minorante afn
2. Si x
0
X tal que f(x
0
) = entonces f

+.
3. f

es convexa y s.c.i. para cualquier topologa sobre Y compatible con la dualidad , .


4. Se cumple la desigualdad de Young-Fenchel:
x X, y Y, f(x) +f

(y) x, y.
Interpretaciones
Geomtrica. Dado y Y , f

(y) es el menor valor que se debe restar a , y para que , y


sea una minorante lineal afn de f.
Minimizacin. Notemos que f

(0) = nf
X
f y que, ms generalmente, f

(y) =nf
xX
f(x)
x, y es el valor ptimo de un problema perturbado linealmente por , y.
Econmica. Si X es un espacio de bienes , Y es un espacio de precios y f es una funcin de
costos de produccin, entonces x, y f(x) es el benecio de producir x cuando los precios
estn dados por y y por lo tanto f

(y) es el mximo benecio asociado al precio y.


Proposicin 2.3.1. 1. Si f g entonces f

.
2. Si (f
i
)
iI
es una familia de funciones de X en R entonces
_
nf
iI
f
i
_

= sup
iI
f

i
, y
_
sup
iI
f
i
_

nf
iI
f

i
.
3. Dado > 0, (f)

(y) = f

(
y

).
2.3. LA CONJUGADA DE FENCHEL 45
4. Dado R, (f +)

= f

.
5. Dado x
0
X, si denimos f
x
0
(x) = f(x x
0
) entonces f

x
0
(y) = f

(y) +x
0
, y.
6. Si A: X X es lineal continua y biyectiva, entonces (f A)

= f

A
1
.
7. Dado y
0
Y , si denimos f
y
0
(x) = f(x) +x, y
0
entonces f

y
0
(y) = f

(y y
0
)-
Demostracin: Propuesto.
Ejemplo 2.3.1. Sea f(x) = exp(x) denida sobre R. Se tiene que
f

(0) = 0.
Si y > 0 entonces f

(y) t(y) exp(t) cuando t y, por lo tanto, f

(y) = +.
Si y < 0 entonces f

(y) se obtiene maximizando una funcin cncava diferenciable. Luego


f

(y) = y ln y y.
As,
f

(y) =
_
y ln y y si y 0,
+ si y < 0.
sta se conoce como la funcin de entropa de Boltzmann-Shannon.
Ejemplo 2.3.2. Si : R R es una funcin convexa y (V, ||) es una e.v.n. en dualidad con V

entonces la conjugada de f : V R denida por f(v) = (|v|) est dada por


f

(v

) =

(|v

).
En efecto, dado v

se tiene que
f

(v

) =sup
vV
v, v

(|v|)
=sup
t0
sup
|v|=t
_
t
v
t
, v

(t)
_
=sup
t0
t|v

(t)
=sup
tR
t|v

(t)
=

(|v

)
donde la ltima igualdad se sigue del hecho que es par. Un caso de particular importancia es
cuando consideramos p ]1, +[ y (x) =
1
p
[x[
p
. Se tiene que

(y) =
1
q
[y[
q
con
1
p
+
1
q
= 1 por lo que
deducimos que si f(v) =
1
p
|v|
p
entonces f

(v

) =
1
q
|v

|
q

. En particular, si (V, ||) = (L


p
(), ||
p
)
entonces (V

, ||

) = (L
q
(), ||
q
). En consecuencia si
F(f) =
1
p
|f|
p
p
entonces
F

(g) =
1
q
|g|
q
q
.
46 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Ejercicio 2.3.1. Muestre que si X = Y son espacios de Hilbert y f(x) =
1
2
|x|
2
= x, x, entonces
f(y) = f

(y). Pruebe tambin que


1
2
|x|
2
es la nica funcin con esta propiedad.
Ejemplo 2.3.3 (Funcin Soporte). Sea K un subconjunto de X y

K
(x) =
_
0 si x K,
+ si x / K
su funcin indicatriz. La funcin soporte de K est denida por

K
(y) :=

K
(y) = sup
xK
x, y.
Los siguientes casos son de inters
1. Si K = x
0
entonces
x
0

(y) = x
0
, y.
2. Si (X, ||) es un e.v.n. y K = x X [ |x| 1 entonces
K
(y) = |y|

.
3. Si K es un cono entonces
K
(y) =
K
0(y) donde
K
0
= y Y [ x K, x, y 0
es el cono polar de K. Si K es un cono convexo cerrado entonces (K
0
)
0
= K y adems
K = x X [ y Y, x, y
K
(y).
K
K

R
R
Figura 2.2: Cono polar en R
2
4. Si K es un subespacio vectorial entonces
K
(y) =
K
(y), donde
K

= y Y [ x K, x, y = 0
es el subespacio ortogonal a K. Si adems K es cerrado, (K

= K.
2.3. LA CONJUGADA DE FENCHEL 47
Proposicin 2.3.2. Si K X es un conjunto entonces
K
es convexa, s.c.i. y positivamente
homognea. Recprocamente, cualquier funcin con estas caractersticas es la funcin soporte del
conjunto
K = x X [ y Y, x, y (y)
Demostracin: Propuesto.
Volvamos al caso general de una dualidad (X, Y, , ).
Denicin 2.3.2. A continuacin deniremos dos espacios muy importantes en anlisis convexo.
(X) = f : X R [ f es supremo de lineales anes continuas

0
(X) = (X) , donde +, .
Teorema 2.3.1. f
0
(X) si, y slo si, f es convexa, s.c.i. y propia.
Demostracin: Ya hemos demostrado la necesidad. Veamos la suciencia: sea f convexa, s.c.i. y
propia, de modo que su epgrafo es convexo, cerrado y no vaco. Consideremos (x, r) / epi(f). De
acuerdo con el Teorema de Hahn-Banach, podemos escoger (y, s) Y R (0, 0) y R tales
que
(z, ) epi(f), x, y +sr < z, y +s.
X
R
epi f
r
x
(x, r)
H
Notemos que s 0 pues de lo contrario, tomando x
0
dom(f) y > f(x
0
) sucientemente
grande, contradeciramos la desigualdad. Basta, entonces, distinguir dos casos:
1. x dom(f). Tomando = f(x) obtenemos que
x, y +sr < x, y +sf(x)
y, en consecuencia, s(f(x) r) > 0 lo que implica que s > 0 y que el hiperplano separador no
es vertical. En particular tenemos que z dom(f) se cumple que
x,
y
s
+r <

s
z,
y
s
+f(z)
y deniendo (z) := z,
y
s
+

s
se tiene que f y f(x) (x) > r.
48 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
2. x / dom(f). Si s > 0 podemos razonar como en 1. El problema es que ahora no podemos
asegurar que s ,= 0. Estudiemos este caso: Si s = 0 , el hiperplano es vertical y se tiene que
(z, ) epi(f), x, y < z, y.
Razonando como antes (pues dom(f) ,= ) se tiene que existe (X, )

tal que
z X, f(z) (z).
As, k 1, z X se tiene que
f(z) (z) (z) +k( z, y)
y
(x) +k( x, y) +
cuando k +.
Hemos demostrado que x X, r < f(x), (X, )

: f , f(x) (x) > r, lo que implica


que f (X) y f > y f ,= + pues es propia.
Notemos que dado f : X R se tiene que f

(X).
Denicin 2.3.3. Dada f : X R denimos la biconjugada f

: X R mediante
f

(x) = sup
yY
x, y f

(y).
Notemos que f

(X) y se tiene que f

f por la Desigualdad de Young-Fenchel.


Proposicin 2.3.3. Dada f : X R se tiene que
f

(x) = supg(x) [ g (X), g f


de modo que f

es la mayor funcin en (X) que minora a f, por lo que habitualmente de llama


-regularizada de f. En particular,
f (X) ssi f = f

.
Demostracin: El conjunto (X) es estable bajo supremos, luego
h = supg(x) [ g (X), g f (X)
y, por lo discutido anteriormente, f

h. Sea g (X) con g f, luego g

y en consecuencia
g

. De la arbitrariedad de g (X), basta probar que g

= g. Como g (X) existe una


familia
i

iI
de funciones lineales anes continuas tales que
g = sup
i
.
De la dualidad, podemos encontrar (y
i
, r
i
) Y R tales que
i
(x) = x, y
i
r
i
de modo que

i
(y) =
_
r
i
si y
i
= y,
+ si no.
Como g
i
se tiene que i I, x X, g

(x)

i
(x) = x, y
i
r
i
=
i
(x). Luego, g


sup
iI

i
= g lo que implica que g

= g.
2.4. EL SUBDIFERENCIAL 49
Observacin 2.3.2. 1. Si

f denota la regularizada s.c.i. de f : X R, entonces
f



f f.
Si f es convexa entonces

f tambin lo es (pues epi(

f) = epi(f) y la adherencia de un convexo
es convexa) pero no necesariamente se tiene que f

=

f. En general, las nicas funciones
f : X R convexas y s.c.i. que alcanzan el valor son de la forma
f(x) =
_
x C,
+ x / C,
con C un convexo cerrado. Si C ,= X se tiene que f =

f f

y

f ,= f

pese a que
f es convexa y s.c.i. A modo de resumen, si f es una funcin convexa, entonces

f = f

si, y
slo si, o bien f admite una minorante lineal afn continua, o su regularizada s.c.i. es . Hay
veces en las cuales

f es convexa pese a que f no lo es (este es el caso en algunos problemas
de clculo de variaciones).
2. Como

X
+ =
Y
y

X
=
Y
, hemos probado que la transformacin

:
0
(X)

0
(Y ) es uno a uno. De hecho, su inversa es

:
0
(Y )
0
(X). La operacin

se conoce
como transformada de Legendre-Fenchel.
2.4. El subdiferencial
En anlisis, la herramienta fundamental para obtener condiciones necesarias de optimalidad
es la clebre Regla de Fermat, que en el caso diferenciable, dice que la derivada se anula en un
punto de mnimo o de mximo local. Esto signica que la recta tangente al grafo de la funcin
diferenciable f : R R que pasa por (x
0
, f(x
0
)) tiene pendiente 0 si x
0
es un punto extremo (mnimo
o mximo local). Generalizada apropiadamente, esta regla es vlida en diversos contextos, que van
desde programacin matemtica, clculo de variaciones (Ecuacin de Euler-Lagrange) hasta control
ptimo. Daremos una versin de esta regla en el caso convexo sin hiptesis de diferenciabilidad (en
muchas aplicaciones, la funcin objetivo no es diferenciable).
x
0
x
1
x
2
(x
0
, f(x
0
))
(x
1
, f(x
1
))
(x
2
, f(x
2
))
R
R
Por otra parte, el clculo diferencial es una herramiente muy exible en anlisis, que necesita de
la nocin de derivada (ms generalmente, de gradiente). Cuando la diferenciabilidad en el sentido
50 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
clsico falla, es natural preguntarse si es posible extender la nocin de derivada de modo de recupe-
rar al menos algunas de sus propiedades. Un ejemplo de esta situacin es la teora de distribuciones,
donde la propiedad que se pretende preservar es la regla de integracin por partes.
Todo lo anterior nos motiva a estudiar una nocin de diferenciacin en el caso convexo orientada a
la resolucin de problemas de minimizacin.
Consideremos espacios (X, ) y (Y, ) compatibles con la dualidad , y una funcin f
0
(X)
de modo que
f(x
0
) = f

(x
0
) = sup
yY
x, y f

(y).
Supongamos que el supremo se alcanza en y
0
Y y que es nito, es decir
f(x
0
) = x
0
, y
0
f

(y
0
) R.
Por otra parte, sabemos que x X,
f(x) x, y
0
f

(y
0
) = x x
0
, y
0
f

(x
0
),
lo que equivale a decir que la funcin lineal afn continua (x) := x x
0
, y
0
f

(x
0
) es una
minorante de f que coincide con f en x
0
. En general, no basta que f(x
0
) R para que esto ocurra.
En efecto, basta considerar
f(x) =
_

x si x 0,
+ si no
que est en
0
(R), es nita en 0 y no admite minorantes anes que pasen por (0,0).
(0, 0)
R
R
epi f
L
Figura 2.3: Epgrafo de la funcin f(x) =

x.
Denicin 2.4.1. Sean f : X R una funcin convexa
1
y x
0
X. Diremos que y Y es un
subgradiente de f en x
0
si
x X, f(x
0
) +x x
0
, y f(x).
El conjunto de subgradientes se denota f(x
0
) y se llama subdiferencial de f en x
0
. Si f(x
0
) ,=
decimos que f es subdiferenciable en x
0
.
1
La denicin tiene sentido para funciones ms generales y algunas propiedades se mantienen. Sin embargo, en
este curso consideraremos slo funciones convexas.
2.4. EL SUBDIFERENCIAL 51
Ejemplo 2.4.1. Si f(x) = [x[, x R, entonces f(0) = [1, 1].
0
R
R
epi f
L
Figura 2.4: Epgrafo de la funcin f(x) = [x[.
Ejemplo 2.4.2. Algunos casos patolgicos:
1. Si f(x
0
) = entonces f(x
0
) = Y .
2. Si f(x
0
) = + entonces
f(x
0
) =
_
si dom(f) ,= ,
Y si f +.
Proposicin 2.4.1. Sean f : X R + propia y x dom(f). Las siguientes armaciones
son equivlentes:
(i) y f(x).
(ii) f(x) +f

(y) x, y.
(iii) f(x) +f

(y) = x, y.
Mas aun, si f
0
(X) entonces se cumple la frmula de reciprocidad de Legendre:
y f(x) si, y slo si, x f

(y).
Demostracin: (i) (ii) Dado z X se tiene que f(x) +z x, y f(z) lo que equivale a
f(x) +z, y f(z) x, y de donde concluimos que f(x) +f

(y) y, x.
(ii) (iii) Evidente de la Desigualdad de Young-Fenchel.
(iii) (i) Lo hicimos cuando supusimos que el supremo del clculo de f

se alcanzaba en y.
Finalmente, la condicin x f

(y) equivale a f

(y) + f

(x) = x, y. Como f
0
(X) se
tiene que f(x) = f

(x) lo que concluye la demostracin.


52 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Sean R
n
un abierto convexo no vaco y f : R una funcin convexa tal que f :
U R
n
es un homeomorsmo. Supongamos que existe un par (x, y) tal que y U y x f

(y).
De la caracterizacin anterior, x maximiza la funcin cncava diferenciable z z, y f(z) y,
en consecuencia, y f(x) = 0 de donde concluimos que x = (f)
1
(y) y deniendo la
transformada de Legendre por
g(y) := (f)
1
(y), y f((f)
1
(y)),
se tiene que
f

(y) = g(y).
Bajo hiptesis apropiadas de diferenciabilidad, es posible vericar sin la hiptesis de convexidad
que y = f(x) equivale a x = g(y). Si adems suponemos convexidad, hemos probado que la
transformada de Legendre coincide con la conjugada de Fenchel.
Proposicin 2.4.2. Si f : X R + es propia entonces f(x) es un convexo cerrado de Y
(eventualmente vaco).
Demostracin: Tenemos que
f(x) = y Y [ f(x) +f

(y) x, y =
f(x)
(f

x, ).
Aqu denota el conjunto de subnivel inferior. Como f

x, es convexa y (Y, X)-s.c.i. se sigue


el resultado.
En lo que sigue, (X, ||) es un espacio de Banach en dualidad con X

y denotaremos indistin-
tamente x

(x), x

, x o x, x

.
Teorema 2.4.1. Sean f : X R convexa y x
0
X tales que f(x
0
) R y f es continua en x
0
.
Entonces f(x
0
) ,= y es compacto para la topologa dbil-* (X

, X).
Demostracin: Como f es convexa y continua en x
0
, epi(f) es un convexo de interior no vaco.
En particular, (x
0
, f(x
0
)) no pertenece al convexo int(epi(f)) y, por el Teorema de Hahn-Banach,
podemos separar (no estrictamente) tal punto de tal convexo mediante un hiperplano cerrado. Es
fcil ver que la "pendiente"de este hiperplano resulta ser un subgradiente de f en x
0
. En particular
f no puede tomar el valor y como dom(f) ,= se tiene que adems f es propia.
Como f(x
0
) es convexo cerrado en X

, para la compacidad basta vericar que es acotado para


||

. Por ser f localmente Lipschitz en x


0
, existen > 0 y L > 0 tales que
|x x
0
| < [f(x) f(x
0
)[ L|x x
0
|.
Luego, si x

f(x
0
) tenemos que para todo x X con |x x
0
| < se tiene que
f(x
0
) +x

, x x
0
f(x) f(x
0
) +L|x x
0
|
de donde concluimos que x B(x
0
, ), x

, xx
0
L|xx
0
| y que, por lo tanto, |x

L.
2.4. EL SUBDIFERENCIAL 53
Teorema 2.4.2 (Regla de Fermat I). Sea f : X R + una funcin convexa y propia.
Consideremos
(T) nf
X
f.
Entonces, x
0
es una solucin de (T) (es decir, x
0
arg mn
X
f) si, y slo si, 0 f(x
0
). Si adems
f
0
(X), entonces
arg mn
X
f = f

(0)
el cual es un convexo cerrado y acotado si f

es nita y continua en 0.
Demostracin: La condicin f(x
0
) +f

(0) = 0 equivale a nf
X
f = f

(0) = f(x
0
).
Proposicin 2.4.3. Sea f : X R+ convexa y propia. Sean x
0
dom(f) y d X. Entonces
la derivada direccional en x
0
segn d est denida en R mediante
f
t
(x
0
; d) = lm
t0+
f(x
0
+td) f(x
0
)
t
=nf
t>0
f(x
0
+td) f(x
0
)
t
.
Demostracin: Sea q(t) =
f(x
0
+td)f(x
0
)
t
. Consideremos 0 < t s y veamos que q(t) q(s).
Notemos que
x
0
+td =
t
s
(x
0
+sd) +
_
1
t
s
_
x
0
,
de modo que por convexidad
f(x
0
+td)
t
s
f(x
0
+sd) +
_
1
t
s
_
f(x
0
)
y se tiene que
f(x
0
+td) f(x
0
)
t

f(x
0
+sd) f(x
0
)
s
.
Proposicin 2.4.4. Bajo las condiciones de la proposicin anterior, f
t
(x
0
; ) es una funcin subli-
neal y se tiene que
f(x
0
) = x

[ d X, x

, d f
t
(x
0
; d) = [f
t
(x
0
; )](0).
Demostracin: Veriquemos la sublinealidad:
(i) f
t
(x
0
; 0) = 0.
(ii) Sea > 0, luego
f
t
(x
0
; d) = lm
t0+
f(x
0
+td) f(x
0
)
t
= lm
t0+
f(x
0
+ (t)d) f(x
0
)
t
= f
t
(x
0
; d).
54 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
(iii) Dados d
1
, d
2
X veriquemos que f
t
(x
0
; d
1
+ d
2
) f
t
(x
0
; d
1
) + f
t
(x
0
; d
2
). Para ello, basta
probar la convexidad de f
t
(x
0
; ) pues f
t
(x
0
; d
1
+d
2
) = 2f
t
(x
0
;
1
2
d
1
+
1
2
d
2
). Sea ]0, 1[, luego
f
t
(x
0
; d
1
+ (1 )d
2
) = lm
t0+
f(x
0
+td
1
+t(1 )d
2
) f(x
0
)
t
nf
t>0

t
(f(x
0
+td
1
) f(x
0
)) +
1
t
(f(x
0
+td
2
) f(x
0
))
= f
t
(x
0
; d
1
) + (1 )f
t
(x
0
; d
2
).
Finalmente,
x

f(x
0
) f(x
0
) +x

, y x
0
f(y), y X
f(x
0
) +x

, td f(x
0
+td), d X, t > 0
x

, d f
t
(x
0
; d), d X.
Proposicin 2.4.5. Sean (X, ||) un e.v.n. y f
0
(X). Tomemos x
0
X y supongamos que f
es nita y continua en x
0
. Entonces
f
t
(x
0
; d) = sup
x

f(x
0
)
x

, d =
f(x
0
)
(d).
Demostracin: Ya vimos que f
t
(x
0
; d) sup
x

f(x
0
)
x

, d. Para probar la igualdad observemos


que f
t
(x
0
; ) es convexa y continua. En efecto, tenemos que f(x
0
) ,= y en consecuencia f
t
(x
0
; d)
R, d X. Luego basta probar que f
t
(x
0
; ) es continua en 0, lo que resulta de
f
t
(x
0
; d) f(x
0
+d) f(x
0
) M
para algn M > 0 y para todo d en alguna bola centrada en 0. De lo anterior, f
t
(x
0
; ) = [f
t
(x
0
; )]

.
Adems
[f
t
(x
0
; )]

(x

) = sup
dX
x

, d f
t
(x
0
; d)
=
_
0 si x

f(x
0
),
+ si no
=
f(x
0
)
(x

)
Finalmente,
f
t
(x
0
; d) = sup
x

, d [f
t
(x
0
; )]

(x

) =

f(x
0
)
(d) =
f(x
0
)
(d).
Corolario 2.4.1. Sean (X, ||) un e.v.n. y f
0
(X). Si x
0
dom(f) es tal que f es continua en
x
0
y f(x
0
) = x

0
entonces f es Gteaux-diferenciable en x
0
y f(x
0
) = x

0
.
2.4. EL SUBDIFERENCIAL 55
Demostracin: Se tiene que
f
t
(x
0
; d) = sup
x

f(x
0
)
x

, d = x

0
, d
es una funcin lineal y continua.
Corolario 2.4.2. Si f
0
(R
n
) y x
0
dom(f) es tal que f es continua en x
0
y f(x
0
) = x

,
entonces f es Frchet-diferenciable en x
0
.
Demostracin: Basta probar que
lmsup
yx
0
f(y) f(x
0
) x

, y x
0

|y x
0
|
0.
Sea L R este lmite superior y tomemos y
k
x
0
, tal que
lm
k
f(y
k
) f(x
0
) x

, y
k
x
0

|y
k
x
0
|
= L.
Por compacidad podemos suponer que d
k
:=
y
k
x
0
|y
k
x
0
|
d con |d| = 1. Como f es localmente
Lipschitz en torno a x
0
, tenemos que
f(x
0
+|y
k
x
0
|d
k
) f(x
0
+|y
k
x
0
|d)
|y
k
x
0
|
0
y en consecuencia
L = lm
k
f(x
0
+|y
k
x
0
|d) f(x
0
) x

, y
k
x
0

|y
k
x
0
|
= f
t
(x
0
; d) x

, d = 0.
Observacin 2.4.1. Notemos que si f
0
(X) es Gteaux-diferenciable en x
0
dom(f), entonces
f
t
(x
0
; d) = f(x
0
), d. As,
f(x
0
) = x

[ x

, d f(x
0
), d, d X = f(x
0
).
Proposicin 2.4.6. Sea U X un abierto convexo y f : U R una funcin Gteaux-diferenciable
(en U). Son equivalentes:
(i) f es convexa sobre U.
(ii) x, y U, f(y) f(x) +f(x), y x.
(iii) x, y U, f(x) f(y), x y 0.
Demostracin: Propuesto.
56 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Observacin 2.4.2. Notemos que, en general, si f : X R+ es propia, entonces f : X
2
X
tiene la siguiente propiedad: si x, y, x

, y

son tales que x

f(x) e y

f(y), entonces
x

, x y 0.
Las funciones del tipo A: X 2
Y
suelen llamarse multiaplicaciones y muchas veces son denotadas
por A: X Y . Cuando una multiaplicacin tiene la propiedad anterior, decimos que es montona.
Ms an, si denimos el grafo de una multiaplicacin como el siguiente conjunto
Gr(A) := (x, x

) X Y : x

A(x),
entonces diremos que la multiaplicacin montona es maximal si su grafo no est estrictamente
contenido en el grafo de otra multiaplicacin montona.
Luego, es natural preguntarse si el subdiferencial de una funcin en la clase
0
(X) es un operador
maximal montono. La respuesta es armativa al menos en el caso que X es un espacio de Banach y
su demostracin est estrechamente relacionada con el Principio Variacional de Ekeland. Existe una
demostracin ms sencilla en el caso que X es un espacio de Hilbert que basa en el Teorema de Minty
y en la regularizada de Moreau-Yosida; ver [BaCo11, Captulo 21] y ejercicio (2.7), respectivamente.
Otra pregunta interesante que surge de lo anterior es saber si todo operador maximal montono
corresponde al subdiferencial de una funcin en la clase
0
(X). La respuesta en este caso es negativa,
sin embargo existe una subclase de operadores maximales montonos que responden armativamente
a esta pregunta; ver ejercicio (2.12).
Para terminar la seccin estudiaremos algunas propiedades elementales del clculo subdiferencial.
Ejercicio 2.4.1. Sean f : X R y > 0. Entonces x X, (f)(x) = f(x).
Sean f
1
, f
2
: X R. Entonces x X, f
1
(x) +f
2
(x) (f
1
+f
2
)(x).
Proposicin 2.4.7 (Teorema de Moreau-Rockafellar). Si f
1
, f
2

0
(X) y f
1
es continua en algn
x
0
dom(f
1
) dom(f
2
), entonces
x X, f
1
(x) +f
2
(x) = (f
1
+f
2
)(x).
Demostracin: En virtud del ejercicio anterior, probaremos slo la contencin (). Sean x, x

tales
que x

(f
1
+f
2
)(x). Tenemos que
y X, f
1
(y) +f
2
(y) x

, y x +f
1
(x) +f
2
(x).
Introduzcamos los siguientes conjuntos convexos
C
1
:= (y, ) X R [ f
1
(y) x

, y x ,
C
2
:= (y, ) X R [ f
2
(x) f
2
(y) .
Adems, (y, ) C
1
C
2
equivale a f
1
(y) +f
2
(y) = x

, y x +f
1
(x) +f
2
(x). Pero C
1
= epi(g) con
g = f
1
x

,
0
(X) continua en x
0
. Luego, int(C
1
) = (y, ) XR [ g(y) < , = y adems
int(C
1
) C
2
= . Podemos separar int(C
1
) de C
2
mediante un hiperplano cerrado que adems es
no vertical (vericar), y en consecuencia es el grafo de una funcin lineal afn (y) = x

2
, y +
para x

2
X

y R. Podemos escribir la separacin como


y X, f
2
(x) f
2
(y) x

2
, y + f
1
(y) x

, y x f(x).
2.4. EL SUBDIFERENCIAL 57
Tomando y = x deducimos que = x

2
, x y en consecuencia
y X : f
1
(x) +x

2
+x

, y x f
1
(y)
lo que implica que x

2
+x

f
1
(x) y anlogamente
y X : f
2
(x) +x

2
, y x f
2
(y)
y concluimos que x

2
f
2
(x). Deniendo x

1
= x

2
se tiene que x

1
f
1
(x) y x

1
+x

2
= x

lo
que concluye la demostracin.
Consideremos una funcin f
0
(X) y un convexo cerrado no-vaco C. Supongamos que existe
x
0
int(C) tal que f es nita en x
0
. Consideremos el problema de optimizacin
(T) nf
xC
f(x),
que equivale a
nf
xX
f(x) +
C
(x).
De la Regla de Fermat se sigue que x

es solucin de (T) si y slo si 0 (f +


C
)(x

) lo que, de
acuerdo con el Teorema de Moreau-Rockafellar, equivale a
0 f(x

) +
C
(x

).
y deniendo el Cono Normal a C en x X por N
C
(x) :=
C
(x) podemos reescribir la condicin
de optimalidad como
0 f(x

) +N
C
(x

).
Adems, dado x C, se tiene que
N
C
(x) = y Y [ u X,
C
(x) +u x, y
C
(u)
= y Y [ u C, u x, y 0.
Luego, x

C es solucin de (T) si, y slo si, existe f(x

) tal que
u C, u x

, 0,
y hemos establecido el siguiente:
Teorema 2.4.3 (Regla de Fermat II). Sea f
0
(X) y C un convexo cerrado no vaco y supon-
gamos que existe x
0
int(C) tal que f es nita en x
0
. Entonces, x

C es solucin de
nf
C
f
si, y slo si, 0 f(x

) +N
C
(x

) lo que equivale a que exista p f(x

) tal que
(c) u C, u x

, p 0.
Observacin 2.4.3. La condicin de optimalidad anterior es llamada Desigualdad Variacional de
C y f. Sin embargo, el concepto de desigualdad variacional es un poco ms general y aparece en
diversos contextos.
58 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Ejercicio 2.4.2. Obtenga la condicin de optimalidad para el problema
nf
xX
f(x) +
C
(x)
cuando se satisfacen las hiptesis de la proposiscin anterior y f es diferenciable.
Proposicin 2.4.8. Sean X, Y dos espacios de Banach en dualidad con X

, Y

respectivamente.
Si A: X Y es una funcin lineal continua y f
0
(Y ) entonces f A
0
(X) y si f es continua
en algn y
0
dom(f) entonces
(f A)(x) = A

f(Ax),
donde A

denota el adjunto de A.
Demostracin: Sea y

f(Ax). Por denicin,


y Y, f(Ax) +y

, y Ax f(y)
y, en particular,
x X, f(Ax) +y

, A(z x) f(Az).
Esto equivale a
z X, (f A)(x) +A

, z x (f A)(z)
y se tiene que A

(f A)(x). As, A

f(Ax) (f A)(x).
Recprocamente, sea x

(f A)(x), luego
z X, f(Ax) +x

, z x f(Az).
Denimos
S := (Az, f(Ax) +x

, z x Y R [ z X
que resulta ser un hiperplano cerrado de Y R. Notemos que (y, ) S epi(f) si, y slo si,
z X : Az = y, f(Ax) +x

, z x = f(Az) = .
Como f es convexa y continua en y
0
Y , tenemos que int(epi(f)) ,= y obviamente Sint(epi(f)) =
. En consecuencia, podemos separar S de int(epi(f)) mediante un hiperplano cerrado que resulta
ser no vertical y, por lo tanto, el grafo de una funcin lineal afn (y) = y

, y + con y

Y y
R. La separacin implica que
z X, f(Ax) +x

, z x y

, Az + f(Az)
de donde = f(Ax) y

, Ax y as (y) = y

, y Ax +f(Ax). Por lo tanto


y Y, f(Ax) +y

, y Ax f(y)
y
z X, x

, z x A

, z x
condiciones que implican que y

f(Ax) y x

= A

f(Ax). Luego (f A)(x)


A

f(Ax).
2.5. PROBLEMAS 59
2.5. Problemas
Problema 2.1. En lo que sigue, X es un e.v.n. y todas las funciones estn en
0
(X). Siguiendo la
Denicin 1.2.5, denotamos por f

la funcin de recesin de f.
(a) Para todo d X y cualquier x dom(f), se tiene que
f

(d) = lm
t
f(x +td) f(x)
t
= sup
t>0
f(x +td) f(x)
t
.
(b) Pruebe que
_
sup
iI
f
i
_

= sup
iI
(f
i
)

.
(c) Consideremos un subconjunto convexo, cerrado y no-vaco S de X. Denimos C = s
S [ f
i
(x) 0 i I . Demuestre que C

= d S

[ (f
i
)

(d) 0 i I .
(d) Para todo >nf f, se tiene que [

(f) ]

= d X [ f

(d) 0 .
(e) Si f es inf-compacta, entonces f

(d) > 0 para todo d ,= 0 (compare con el Teorema 1.2.2).


Problema 2.2 (). Sea X un e.v.n. en dualidad con X

, y f
0
(X). Pruebe que las siguientes
armaciones son equivalentes.
(a) f es coerciva;
(b) lminf
|x|+
f(x)
|x|
> 0.
(c) 0 int(dom(f

));
La equivalencia entre (a) y (c) se conoce como Teorema de Moreau. Muestre adems que si f es
coerciva, entonces

xX
f(x) es una vecindad del origen.
Problema 2.3. Sea (H, , ) un espacio de Hilbert en dualidad con H

(que identicamos con H).


(a) Sea f(x) =
1
2
|x|
2
. Verique que f

(x

) =
1
2
|x

|
2
de modo que f = f

. Ms an, demuestre
que f es la nica funcin en
0
(H) con esta propiedad.
(b) Sean f
0
(H) y S H un s.e.v. cerrado. Muestre que si existe x
0
S tal que f(x
0
) < +,
entonces f +
S

0
(H) y se tiene
(f +
S
)

= (f P
S
)

P
S
,
donde P
S
: H H es la proyeccin ortogonal sobre S.
(c) Supongamos que f(x) =
1
2
Ax, x, con A: H H un operador lineal continuo autoadjunto y
semi-denido positivo. Pruebe que
(f +
S
)

(x

) =
_
1
2
x

, x si x

ImA+S

, con (P
S
A P
S
)(x) = x

,
+ si no.
60 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Problema 2.4 (). Sea o
n
el conjunto de matrices simtricas de orden n. Dotamos a o
n
de el
producto escalar A, B = tr(AB). Considere la funcin f : o
n
R
n
dada por
f(A) :=
1
n
|A|
2

1
n
2
tr(A)
2
.
(a) Pruebe que f es convexa sobre o
n
.
(b) Muestre que domf

= S o
n
: tr(S) = 0 y calcule f

.
Problema 2.5. Sea (X, Y, , ) una dualidad entre e.v.t.l.c. Dadas dos funciones convexas f, g : X
R, se dene la inf-convolucin de f y g mediante
(f2g)(x) :=nff(x
1
) +g(x
2
) [ x
1
+x
2
= x.
(a) Pruebe que f2g es convexa, con dom(f2g) = dom(f) + dom(g).
(b) Sea y Y , muestre que (f2g)

(y) = f

(y) +g

(y).
(c) Pruebe que si x
1
dom(f) y x
2
dom(g) son tales que (f2g)( x
1
+ x
2
) = f( x
1
) + g( x
2
),
entonces (f2g)( x
1
+ x
2
) = f( x
1
) g( x
2
).
(d) (Efecto Regularizante) Suponga que x
i
son los considerados en la parte anterior. Asumiendo
que f2g es subdiferenciable en x = x
1
+ x
2
, muestre que f2g es Gteaux-diferenciable en x
si g lo es en x
2
con
(f2g)( x) = g( x
2
).
Muestre que si adems (X, ||) es un e.v.n. y g es Frchet-diferenciable en x
2
, entonces f2g
es Frchet-diferenciable en x.
Problema 2.6 (). Sea f : R
n
R convexa. Diremos que f es fuertemente convexa si y slo si
para todo x, y R
n
, (0,1)
1
2
(1 )|x y|
2
+f(x + (1 )y) f(x) + (1 )f(y)
(a) Pruebe que las siguientes son equivalentes:
(a.1) f es fuertemente convexa
(a.2) f(x) +x

, y x +

2
|y x|
2
f(y), para todo x

f(x), y R
n
(a.3) |x y|
2
x

, x y , para todo x

f(x), y

f(y).
(b) Pruebe que f es fuertemente convexa si y slo si domf

= R
n
, que f

es diferenciable y
que f

es Lipschitz de constante
1

.
Indicacin: para la demostrar () muestre que
f(y) f(x) + sup
y

R
n
_
y x, y


1
2
|x

|
2
_
2.5. PROBLEMAS 61
Problema 2.7 (Regularizada de Moreau-Yosida). Sea H un espacio de Hilbert y f : H R+
una funcin convexa, s.c.i. y propia. La Regularizada Moreau-Yoshida de parmetro > 0 es la
funcin f

: H R denida mediante
f

(z) = nf
xH
_
f(x) +
1
2
|z x|
2
_
.
(a) Pruebe que f

es convexa, nita, y que el nmo es alcanzado en un nico punto.


(b) Deduzca que para todo z H existe un nico x H tal que z x +f(x).
(c) Pruebe que f

es Gteaux-diferenciable con f

=
1

(I J

).
La propiedad (b) permite denir la aplicacin J

= (I +f)
1
: H H.
(d) Pruebe que f es montono: x

f(x), y

f(y) = y

, y x 0.
(e) Deduzca que J

es una contraccin: |J

(z
1
) J

(z
2
)| |z
1
z
2
|.
(f) A partir de la desigualdad f(J

(z)) +
1
2
|J

(z) z|
2
f(z), pruebe que para 0 se tiene
(f.1) |J

(z)| se mantiene acotado,


(f.2) |J

(z) z| tiende a cero,


(f.3) f

(z) converge montonamente a f(z).


J

se llama resolvente y
1

(I J

) es la regularizada Yoshida de f. Usando (c) y (e) se sigue


que f

es Frchet-diferenciable con gradiente Lipschitziano.


Problema 2.8 (). Sea X un e.v.n. y f
0
(X). Decimos que f es
1. Esencialmente suave si int(domf) ,= y f(x) es un sngleton para todo x domf.
2. Esencialmente convexa estricta si f es estric. convexa en cada subconjunto convexo de domf.
(a) Pruebe que f(x) es un sngleton en su dominio ssi f

es estrictamente convexa en segmentos


de ran f. Concluya que f es esencialmente suave ssi f

es esencialmente convexa estricta.


(b) Sean f, g
0
(X) con int(domf

) int(domg

) ,= . Muestre que si f es esencialmente suave


entonces lo mismo ocurre para la inf-convolucin f2g.
(c) Pruebe que si f es esencialmente suave, entonces int(domf) ,= y |f(x
n
)| + para
toda sucesin x
n

n
int(domf) que converge a un punto x en la frontera de domf.
Problema 2.9 (). (Funcin distancia).
Considere que X es un espacio de Hilbert y considere C X un convexo, cerrado y no vaco.
(a) Muestre que dist
C
(x) = max
|x

|1
x

, x sup
yC
x

, y, x X.
(b) Caracterize los elementos de dist
C
(x), x X.
62 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Problema 2.10. (Valor propio maximal). Considere (o
n
, , ) como en el problema 2.4. Considere

max
: o
n
R la aplicacin valor propio mximo.
(a) Demuestre que la funcin
max
es una funcin convexa.
Indicacin: Pruebe que
max
(A) = sup
|v|=1
v

Av.
(b) Demuestre que la conjugada de
max
est dada por

max
(A

) =
_
0 si A

o
n
+
y tr(A

) = 1
+ en caso contrario.
(c) Demuestre que el subdiferencial de
max
est dado por

max
(A) = covv

: |v|
2
= 1, Av =
max
(A)v
(d) Demuestre que
(d.1)
max
(0) = S o
n
+
: tr(S) = 1.
(d.2) La derivada direccional de
max
en A o
n
en la direccin D o
n
viene dada por

t
max
(A; D) =
max
(V

DV ),
con V tal que sus columnas forman una base ortonormal del espacio propio asociado a

max
(A).
Problema 2.11 (Subgradiente aproximado). Sea f
0
(X) con (X, | |) espacio de Banach. Para
0 denimos el -subdiferencial de f en u X como el conjunto

f(u) formado por los funcionales


u

que satisfacen
f(u) +u

, v u f(v) para todo v X.


(a) Pruebe que

f(u) es convexo, cerrado y no-vaco.


(b) Sea u

f(u). Pruebe que existe v X y v

f(v) tal que |vu|



y |v

|

.
(c) Deduzca que dom(f) es denso en dom(f). Este resultado es conocido como el Teorema de
Brondsted-Rockafellar
Suponga que m =nf
uX
f(u) > y sea > 0.
(d) Pruebe que u es un -mnimo (i.e. f(u) m+) si, y slo si, 0

f(u).
(e) Deduzca la existencia de una sucesin v
k
X y v

k
f(v
k
) tal que f(v
k
) m y |v

k
|

0.
(f) Se dice que f satisface la condicin de Palais-Smale si toda sucesin v
k
que satisface d(0, f(v
k
))
0 con f(v
k
) acotada, es relativamente compacta para la topologa dbil. Deduzca que si f es
acotada inferiormente y satisface la condicin de Palais-Smale, entonces el mnimo de f es
alcanzado.
2.5. PROBLEMAS 63
Problema 2.12 (). (Operadores maximales montonos y funciones convexas).
Sea X un espacio de Banach en dualidad con X

(a) (Teorema de integracin de Rockafellar). Diremos que un operador T : X X es cclicamente


montono si para todo n A, (x
i
, x

i
)
n
i=0
Gr(T), se tiene:
n

i=0
x
i+1
x
i
, x

i
0 con x
n+1
= x
0
.
En particular, tomando n = 1 se tiene que T es montono.
Sea X un espacio de Banach, si T : X X

es maximal y cclicamente montono, con


domT ,= , sea x

0
T(x
0
), pruebe que f
0
(X) tal que f(x
0
) = 0 y T = f.
Indicacin: considere
f(x) := sup
_
n

i=0
x

i
, x
i+1
x
i
: x
n+1
= x, x

i
T(x
i
) i = 0, ..., n
_
.
(b) Sea T : X X un operador maximal montono. Muestre que N
domT
(x) = (T(x))

, para
todo x domT. En particular, muestre que si f
0
(X) entonces:
(b.1) N
domf
(x) = (f(x))

, para todo x domf.


(b.2) int(domf) ,= y x domf int(domf) entonces f(x) es no acotado.
Problema 2.13. Sea X un espacio de Banach y sea f una funcin localmente Lipschitz en x X.
Denimos la Derivada Direccional Generalizada de f en x en la direccin v mediante
f
0
(x; v) = lm sup
yx,t0+
f(y +tv) f(y)
t
.
(a) Muestre que v f
0
(x; v) es nita, positivamente homognea, y subaditiva en X. Pruebe
adems que
[f
0
(x; v)[ K|v|.
(b) Muestre que f
0
(x; v) es s.c.s como funcin de (x, v) y que, como funcin slo de v, es Lipschitz-
continua de constante K.
(c) Denimos el conjunto de Subgradientes Generalizados mediante

f(x) = y X

[ f
0
(x; v) y, v, v X.
Muestre que

f(x) es no-vaco y convexo. Pruebe que |y|

K, y

f(x).
(d) Pruebe que si f es adems Gteaux-diferenciable, entonces f(x)

f(x). Muestre que

f(x)
puede contener otros puntos adems de f(x).
(e) Pruebe que si f es convexa, entonces

f(x) coincide con el subdiferencial estudiado a lo largo
del captulo (que se conoce usualmente como el subdiferencial de Anlisis Convexo.)
64 CAPTULO 2. FUNDAMENTOS DE ANLISIS CONVEXO
Problema 2.14 (). (Frmula de Lax-Oleinik). Sean f,
0
(R
n
) con () nita y diferenciable
en todo R
n
, tal que
lm
|y|
(y)
|y|
= .
Consideremos la ecuacin de Hamilton-Jacobi
u
t
(t, x) +

(
x
u(t, x)) = 0 x R
n
, t > 0,
u(0, x) = f(x) x R
n
.
Consideremos (t, x, y) = f(x y) +t
_
y
t
_
+
(,0]
(t), se desea probar que
u(t, x) =
_

_
nf
yR
n
(t, x, y) si t > 0
f(x) si t = 0
+ si t < 0
es una solucin de la ecuacin anterior. Para ello se propone el siguiente esquema:
(a) Pruebe que es convexa. Deduzca que u es convexa y continua en [0, ] R
n
.
(b) Pruebe que el ptimo en la denicin de u(t, x) es alcanzado en un nico punto y = y(t, x), y
que se tiene
(t

, x

) u(t, x) (t

, x

, 0) (t, x, y).
(c) Calcule

en trminos de f

.
(d) Deduzca que (t

, x

) u(t, x) si, y slo si, se tienen las condiciones siguientes:


(i) t

(x

) = 0;
(ii) x

f(x y); y
(iii) x

= ( y/t).
(e) Concluya que u(, ) es diferenciable en todo punto (t, x) (0, ) R
n
y satisface
u
t
(t, x) +

(
x
u(t, x)) = 0.
Finalmente, considere la ecuacin
u
t
(t, x) +
1
2
|
x
u(t, x)|
2
= 0 x R
n
, t > 0,
u(0, x) = f(x) x R
n
.
(f) Encuentre la frmula explcita para la solucin entregada por la frmula de Lax-Oleinik de la
ecuacin.
Captulo 3
Dualidad en Optimizacin Convexa
3.1. Problemas Perturbados
Consideremos el problema de minimizacin convexa
(T) :=nf
X
f
donde f
0
(X). Diremos que (T) es el Problema Primal y que una funcin
0
(X Y ), con
X, Y espacios de Banach en dualidad con X

, Y

respectivamente, es una funcin de perturbacin


para (T) si (x, 0) = f(x), x X. A le asociamos la funcin marginal o funcin valor denida
por
v(y) = nf
xX
(x, y).
Notemos que v(0) = .
Ejemplo 3.1.1 (Programacin Lineal I). Sea
(T) mnc
T
x [ Ax b,
con c R
n
, b R
m
y A M
nn
(R). Tomando X = R
n
y
f(x) = c
T
x +
R
m

(Ax b) =
_
c
T
x si Ax b,
+ si no
se tiene que f
0
(X). Introducimos la funcin de perturbacin : R
n
R
m
R +
dada por
(x, y) = c
T
x +
R
m

(Ax b +y).
65
66 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Es fcil ver que
0
(R
n
R
m
). Observemos que

: R
n
R
m
R+ se calcula mediante

(x

, y

) =sup
_
(x

c)
T
x +y
T
y [ x R
n
, Ax +b y 0
_
=
_
+ si i 1, ..., m tal que y

i
< 0,
sup
xR
n(x

c)
T
x +y
T
(b Ax) si y

0
=
_
+ si i 1, ..., m tal que y

i
< 0,
sup
xR
n(x

c A
T
y

)
T
x +y
T
b si y

0
=
_
b
T
y

si x

= c +A
T
y

, y

0,
+ si no.
En particular, el problema de optimizacin
(T) := nf
y

R
m

(0, y

) = mn
A
T
y

+c=0, y

0
b
T
y

,
corresponde al Dual clsico de (T) en la teora de programacin lineal.
Volvamos al caso general. Por analoga, llamamos Problema Dual de (T) relativo a la perturba-
cin : X Y R + al problema de minimizacin
(T) := nf
y

(0, y

)
el cual tiene asociado de manera natural la funcin de perturbacin


0
(X

) y la corres-
pondiente funcin valor
w(x

) := nf
y

(x

, y

).
Observemos que si repetimos el procedimiento anterior obtenemos el Problema Bidual
(TT) nf
xX

(x

, 0)
el cual coincide con el primal (T) si suponemos que
0
(X Y ) pues en este caso

= .
Ejercicio 3.1.1. Muestre que v : Y R y w: X

R son funciones convexas.


Observacin 3.1.1. Para lo anterior, basta que sea convexa. Por otra parte, si
0
(X Y )
no necesariamente se tiene que v
0
(Y ).
Ejercicio 3.1.2. Considere el programa convexo
(T) nf
xR
n
f(x) [ g
i
(x) 0, i = 1, . . . , p
donde f y (g
i
)
i
son funciones convexas de R
n
en R. Calcule el problema dual de (T) perturbando
el objetivo primal de manera anloga al ejemplo de Programacin Lineal I.
Lema 3.1.1. Para cada y

se tiene que v

(y

) =

(0, y

). Anlogamente, dado x X, se
tiene que w

(x) = (x, 0).


3.1. PROBLEMAS PERTURBADOS 67
Demostracin: Basta vericar la frmula para v

. Dado y

tenemos que
v

(y

) = sup
yY
y, y

v(y)
= sup
yY
y, y

nf
xX
(x, y)
= sup
xX,yY
x, 0 +y, y

(x, y)
=

(0, y

).
Corolario 3.1.1. Se tiene que v

(0) = =nf(T) y en particular nf(T) +nf(T) 0.


Demostracin: Observemos primero que
v

(0) = sup
y

(y

) = nf
y

(y

) = nf
y

(0, y

) = .
Como v v

se sigue que + = v(0) v

(0) 0.
Proposicin 3.1.1. Una condicin necesaria y suciente para que
nf(T) +nf(T) = 0
es que v sea s.c.i. y nita en 0. En ese caso decimos que no hay salto de dualidad.
Demostracin: Veamos la suciencia. Sea v la regularizada s.c.i. de v. Tenemos que v

v v
con v convexa y s.c.i. Adems, v(0) = v(0) R de modo que v es propia, es decir v
0
(Y ) y en
consecuencia v = v

y en particular = v

(0) = v(0) = R.
Mostremos ahora la necesidad. Como + = 0 necesariamente y son nitos y en consecuencia
v(0) R. Adems, v

v v con v

s.c.i. y tenemos que v(0) = v

(0) v(0) v(0) de modo


que v es s.c.i. en 0.
Observacin 3.1.2. 1. Como + = v(0) + w(0) = 0 entonces + = 0 si, y slo si, w es
s.c.i. y nita en 0 .
2. Recordemos que, de acuerdo con la Observacin 2.3.2, si f : Y R es convexa, entonces
f = f

f = o f admite una minorante lineal afn continua.


En particular, si f : Y R + es convexa y acotada inferiormente, entonces f = f

.
Si v(0) = entonces v

(0) = v(0) = , luego + = + = + y el salto de


dualidad es innito.
3. La equivalencia anterior slo requiere que v sea convexa, lo cual es cierto si es convexa
(aunque no est en
0
(X Y )). Sin embargo, esta condicin por s sola no basta para la
equivalencia cuando v se reemplaza por w (ver parte 1.).
68 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Proposicin 3.1.2. Se tiene que S(T) = v

(0). En particular, una condicin necesaria y su-


ciente para que
nf(T) +nf(T) = 0, S(T) ,=
es
v(0) R, v(0) ,= .
Demostracin: Notemos que
y

S(T) z

(0, y

(0, z

)
z

, v

(y) 0, z

(z

)
v

(y

) = v

(0)
y

(0).
Probemos ahora la equivalencia. Para la necesidad, notemos que v(0) R y v s.c.i. en 0 implica que
v(0) = v

(0). Tenemos que es una minorante lineal-afn continua de v si y slo si lo es de v

y,
ms aun, si (0) = v(0), entonces (0) = v

(0) de modo que siempre se tiene que v(0) = v

(0).
Si adems v(0) = v

(0), se deduce que v(0) = v

(0) = S(T) ,= .
Mostremos la suciencia. Si v(0) ,= y v(0) R, entonces existe minorante lineal-afn
continua de v tal que (0) = v(0). Pero v

v de modo que v

(0) = v(0) y en consecuencia


v(0) = v

(0) = S(T). As, S(T) ,= y adems v(0) = v(0) = v

(0) de modo que v es s.c.i. y


por lo tanto nf(T) +nf(T) = 0.
Corolario 3.1.2. Si v(0) R y v(0) ,= entonces S(T) = v(0) ,= y nf(T) +nf(T) = 0.
Del mismo modo, si w(0) R y w(0) ,= entonces S(T) = w(0) ,= y no hay salto de dualidad.
Interpretacin: Si y

S(T) entonces v(y) v(0) + y

, y, que es una informacin de primer


orden sobre la funcin marginal primal. Si S(T) = y

entonces v(0) = y

. En particular, si v es
continua y nita en 0, entonces v(0) ,= . Un caso patolgico se tiene cuando v(0) = . En tal
caso, v(0) = Y

, pero = w(0) = + de modo que el dual es infactible.


Teorema 3.1.1 (Teorema de Dualidad). Supongamos que
0
(X Y ) y que existe x
0
X tal
que (x
0
, ) es nita y continua en 0 (i.e. (x
0
, ) es acotada superiormente en una vecindad de 0).
Entonces, o bien v(0) = y el dual es infactible, o bien v(0) R, + = 0 y S(T) = v(0) ,= ,
con v continua en 0. En particular, si (x
0
, ) es continua en 0 respecto a || con (Y, ||) un espacio
de Banach, entonces S(T) ,= es acotado.
Demostracin: Obviamente v() (x
0
, ) implica que v es acotada en una vecindad de 0. Si adems
v(0) R, entonces v es continua en 0 y luego v(0) ,= .
Observacin 3.1.3. Si X es e.v.t.l.c. se cumple la propiedad "f : X R convexa y continua en
x
0
X si, y slo si, f es acotada superiormente de manera uniforme en una vecindad de x
0
."
Comentario: Notemos que y

v(0) es equivalente a 0 v

(y

) y esta condicin es la que


da la Regla de Fermat para el problema nf
Y
v

, que no es otra cosa que el problema dual. As,


al asegurar que v es continua en 0 con respecto a || en Y tenemos que el problema dual admite
solucin y adems S(T) = v(0) ,= es acotado.
3.1. PROBLEMAS PERTURBADOS 69
Proposicin 3.1.3 (Condicin de Extremalidad). Si (T) y (T) admiten soluciones y no hay salto
de dualidad, entonces x S(T), y

S(T) se tiene que


( x, 0) +

(0, y

) = 0
o, de manera equivalente, (0, y

) ( x, 0). Recprocamente, si ( x, y

) X Y

es un par que
satisface esta relacin, entonces x S(T), y

S(T) y se tiene que nf(T) +nf(T) = 0.


Demostracin: Tenemos que
( x, 0) =nf(T) = nf(T) =

(0, y

),
lo que prueba la condicin de extremalidad. Recprocamente,
nf(T) ( x, 0) =

(0, y

) nf(T),
lo que implica que no hay salto de dualidad y x S(T), y y

S(T).
Corolario 3.1.3. Supongamos que (X, ||) es un espacio de Banach reexivo, que
0
(X Y )
y x
0
X son tales que (x
0
, ) es nita y continua en 0, y que
lm
|x|+
(x, 0) = +.
Entonces, S(T) es no-vaco y acotado, S(T) es no-vaco (y acotado si (Y, ||) es de Banach) ,
nf(T) = nf(T) = 0 y las soluciones de (T) y (T) satisfacen las condiciones de extremalidad.
Ejemplo 3.1.2 (Programacin Lineal II). Tenamos que
(T) mn
xR
n
c
T
x [ Ax b,
y tomando
(x, ) = c
T
x +
R
m

(Ax + b)
0
(R
n
R
m
)
obtuvimos que
(T) mn
R
m
b
T
[ A
T
+c = 0, 0.
Evidentemente nf(T) nf(T). Supongamos que existe x
0
R
n
que satisface la Condicin de
Slater:
Ax
0
< b.
Entonces, para > 0 sucientemente pequeo, se tiene que si || , entonces (x
0
, ) = c
T
x
de modo que (x
0
, ) es nita y continua en una vecindad de 0. As, v es nita y continua en una
vecindad de 0 y, en consecuencia, S(T) = v(0) es no-vaco y compacto. En ese caso =nf(T) =
nf(T) = mn(T) R y el mnimo se alcanza; en efecto, se tiene que x R
n
[ Ax b , = y
S(T) = x R
n
[ Ax b x R
n
[ c
T
x = y si S(T) = entonces existira
t
< tal que
[Ax b] [c
T
x
t
] ,= lo que es una contradiccin.
Recapitulando, si (T) o (T) tiene valor ptimo nito, entonces el otro tambin y las soluciones
x S(T),

S(T) satisfacen
c
T
x +b
T
= 0, A x b, A

+c = 0,

0.
Notemos que S(T) es acotado si, y slo si,
d R
n
, [c
T
d = 0, Ad 0 d = 0].
70 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
3.2. Dualidad Lagrangeana
Consideremos el siguiente problema de programacin matemtica
(T) :=nff(x) [ g
i
(x) 0, i = 1, ..., p, h
j
(x) = 0, j = 1, ..., q
donde f, g
i
, h
j
: X R. Sea
C = x X [ g
i
(x) 0, i = 1, ..., p, h
j
(x) = 0, j = 1, ..., q,
de modo que (T) equivale a
(T) nf[f +
C
].
En lo que sigue suponemos que R.
Lema 3.2.1. Para cada x X se tiene que

C
(x) = sup
R
p
+
, R
q
, g(x) +, h(x)
donde g(x) = (g
i
(x))
p
i=1
, h(x) = (h
j
(x))
q
j=1
y R
q
+
= R
q
[
i
0, i = 1, ..., q.
Demostracin: Obviamente,
sup

i
0

i
g
i
(x) =
_
0 si g
i
(x) 0,
+ si g
i
(x) > 0,
y
sup

j
0

j
h
j
(x) =
_
0 si h
j
(x) = 0,
+ si h
j
(x) ,= 0,
de modo que

C
(x) = sup
R
p
+
, R
q
_
_
_
p

i=1

i
g
i
(x) +
q

j=1

j
h
j
(x)
_
_
_
.
La Funcin Lagrangeana o Lagrangeano de (T) es la funcin L: X R
p
R
q
R denida
mediante
L(x, , ) =
_
f(x) +, g(x) +, h(x) si R
p
+
,
si no.
Tenemos que el problema (T) es equivalente a
(T) nf
xX
sup
(,)R
p
R
q
)
L(x, , ).
Denimos el problema dual al intercambiar nf con sup en la formulacin Primal
(T) := sup
(,)R
p
R
q
)
nf
xX
L(x, , ).
3.2. DUALIDAD LAGRANGEANA 71
En general, ,= . Sin embargo, como L(x,

, ) sup
(,)R
p
R
q
)
L(x, , ), se tiene que
L(x,

, ) nf
xX
sup
(,)R
p
R
q
)
L(x, , ) = ,
de donde . Si eventualmente = , y el problema dual (T) tiene una solucin (

, ) entonces
necesariamente
nf
xX
L(x,

, ) = =
y como dado x X tenemos que
sup
(,)R
p
R
q
L(x, , ) L(x,

, ) = nf
xX
sup
(,)R
p
R
q
L(x, , ),
y deducimos que si x S(T) entonces x es solucin de
(

T) = nf
xX
L(x,

, ),
problema que es interesante pues es un problema de minimizacin sin restricciones. Un par (

, )
R
p
+
R
q
con estas propiedades se llama Multiplicador de Lagrange de (T).
Proposicin 3.2.1. Las siguientes son equivalentes.
(i) x es una solucin de (T) y (

, ) es un multiplicador de Lagrange de (T) con = .


(ii) ( x,

, ) es un punto silla del Lagrangeano de (T), es decir,


x X, (, ) R
p
R
q
, L( x, , ) L( x,

, ) L(x,

, ).
Ambas armaciones implican la condicin de complementariedad

i
g
i
( x) = 0, i = 1, ..., p.
Demostracin: (i) (ii) Tenemos que x es solucin de (T) de modo que
x X, L( x,

, ) L(x,

, ).
Por otra parte,
L( x, , ) sup
,
L( x, , ) = f( x) +
C
( x) = = L( x,

, ).
(ii) (i) Tenemos que
sup
,
L( x, , ) = L( x,

, ) = nf
xX
L(x, , ) ,
de modo que = . Evidentemente, f( x)+
C
( x) = sup
,
L( x, , ) = , de modo que x S(T),
y adems
= sup
,
nf
xX
L(x, , ) sup
,
L( x, , ) = L( x,

, ) ,
72 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
lo que implica que (, ) S(T). Ms aun, como necesariamente x C, tenemos que
f( x) = L( x,

, ) = f( x) +, g( x) +, h( x) = f( x) +, g( x),
de modo que , g( x) = 0. Como g( x) 0 y 0 concluimos que
i
g
i
( x) = 0, i = 1, . . . , p.
Observacin 3.2.1. La existencia del multiplicador de Lagrange no siempre se tiene, incluso para
datos f, (g
i
)
i
, (h
j
)
j
muy regulares. Volveremos a este problema ms adelante.
Pero, cul es la relacin con la dualidad va perturbaciones? Sea Y

:= R
p
R
q
y denotemos
y

= (, ). Tenemos
(T) = nf
xX
sup
y

L(x, y

)
y
(T) = sup
y

nf
xX
L(x, y

).
Denamos : X Y R + mediante
(x, y) := sup
y

, y +L(x, y

) = (L(x, ))

(y).
Entonces, (T) es equivalente a
(T) = nf
xX
(x, 0).
Por otra parte, si y

L(x, y

) es convexa, s.c.i. y propia, entonces


L(x, y

) = sup
yY
y

, y (x, y).
Luego,
nf
xX
L(x, y

) = sup
xX
sup
yY
y

, y (x, y) =

(0, y

),
lo que conduce a que (T) es equivalente a
(T) = sup
y

(0, y

) = nf
y

(0, y

) = .
Por otra parte, dada una funcin de perturbacin : X Y R + se dene la funcin
Lagrangeana L: X Y

R mediante
L(x, y

) := sup
yY
y

, y (x, y) = [(x, )]

(y

).
Lema 3.2.2. x X, y

L(x, y

) es cncava, s.c.s. de Y

en R.
Si es convexa, entonces y

, x L(x, y

) es convexa de X en R, pero no necesaria-


mente es s.c.i., incluso cuando
0
(X Y ).
3.2. DUALIDAD LAGRANGEANA 73
Demostracin: Por denicin
L(x, ) = [(x, )]

() (Y

).
Por otra parte,
L(x, y

) = nf
yY
(x, y) y

, y = nf
yY
(x, y, y

)
con convexa, luego L(, y

) es convexa.
Anlogamente,

(x

, y

) = sup
(x,y)XY
x

, x +y

, y (x, y)
= sup
xX
x

, x + sup
yY
y

, y (x.y)
= sup
xX
x

, x L(x, y

),
de donde

(0, y

) = nf
xX
L(x, y

).
As el problema dual se puede escribir en trminos de L como
(T) = nf
y

(0, y

) = sup
y

nf
xX
L(x, y

).
Similarmente, si
0
(XY ), entonces (x, )
0
(Y ) y en consecuencia [(x, )]

(y) = (x, y),


de donde
(x, y) = sup
y

, y +L(x, y

),
en particular (x, 0) = sup
y

Y
L(x, y

) y tenemos que
(T) = nf
xX
(x, 0) = nf
xX
sup
y

L(x, y

).
Proposicin 3.2.2. Si
0
(X Y ) entonces las siguientes son equivalentes
(i) x es solucin de (T), y

es solucin de (T) y + = 0.
(ii) ( x, y

) X Y

es un punto silla de L ( con L( x, y

) R), es decir,
x X, y

, L( x, y

) L( x, y

) L(x, y

).
Demostracin: Propuesto.
74 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
3.3. Teoremas de Dualidad de Fenchel-Rockafellar y de Attouch-
Brezis
Comenzaremos esta seccin con algunos resultados preliminares.
Proposicin 3.3.1. Sea X un e.v.n. y C X un convexo de interior no-vaco. Entonces
int(C) = int(C).
Demostracin: Obviamente, int(C) int(C). Como int(C) ,= , deducimos que int(C) ,= . Sean
x int(C) y x
0
int(C). Dado > 0, denimos x
1
= x+( xx
0
) y si es sucientemente pequeo,
entonces x
1
C.
x
0
x
x
1
C
Como x ]x
0
, x
1
[, basta probar que ]x
0
, x
1
[ int(C) para deducir que x int(C) y de aqu que
int(C) = int(C). Como x
0
int(C), podemos tomar r > 0 tal que B(x
0
, r) C. Sean ]0, 1[ y
x

:= x
0
+ (1 )x
1
.
1. Reexin de B(x
0
, r) a travs de x

.
Tenemos que
x
1
=
1
1
x



1
x
0

1
1
x



1
B(x
0
, r) = B
_
x
1
,

1
r
_
y como x
1
C, deducimos que
x
2
C
_
1
1
x



1
B(x
0
, r)
_
.
2. Envoltura convexa.
Como B(x
0
, r) C y x
2
C con C convexo, en particular se tiene que
B(x
0
, r) + (1 )x
2
C.
Pero x
2
=
1
1
x


1
y para algn y B(x
0
, r) lo que implica que x

= y +(1 )x
2
C
y concluye la demostracin.
3.3. TEOREMAS DE DUALIDAD DE FENCHEL-ROCKAFELLAR Y DE ATTOUCH-BREZIS75
x
0
x

x
1
C
y
x
2
Observacin 3.3.1. La hiptesis int(C) ,= es esencial. Por ejemplo, si C es un hiperplano denso,
entonces int(C) = pero C = X de modo que int(C) = X.
Ejercicio 3.3.1. Si X es un e.v.n. y C X es un convexo con int(C) ,= , entonces
C = int(C).
El inters del siguiente resultado es que no requiere saber a priori que int(C) ,= .
Lema 3.3.1 (Lema de Robinson). Sean (X, ||) un espacio de Banach, Y un e.v.n. y C X Y
un convexo cerrado. Denotemos por C
X
y C
Y
sus proyecciones sobre X e Y respectivamente. Si C
X
es acotado, entonces int(C
Y
) = int(C
Y
).
Demostracin: La inclusion int(C
Y
) int(C
Y
) es evidente. Sean y int(C
Y
) y > 0 tales que
B(y, ) C
Y
. Basta demostrar que existe x X tal que (x, y) C, pues en este caso y C
Y
y se
concluye que int(C
Y
) int C
Y
. Para demostrar que tal x X existe, construiremos una sucesin
(x
n
, y
n
) C con y
n
y y (x
n
)
n
de Cauchy. Tomemos (x
0
, y
0
) C (si C = la propiedad es trivial)
y consideremos el siguiente algoritmo:
Mientras y
n
,= y
1. Defnase
n
:=

2|yny|
y w = y +
n
(y y
n
) B(y, ) C
Y
.
2. Sea (u, v) C tal que |w v|
1
2
|y y
n
|.
3. Defnase (x
n+1
, y
n+1
) :=
n
1+n
(x
n
, y
n
) +
1
1+n
(u, v) C.
Fin. Si el algoritmo se detiene en el paso N, tomamos x = x
N
. Supongamos que el algoritmo no se
76 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
detiene, en cuyo caso tenemos que ((x
n
, y
n
))
n
C tal que
|y
n+1
y| =
_
_
_
_

n
1 +
n
y
n
+
1
1 +
n
v y
_
_
_
_
=
1
1 +
n
|
n
(y
n
y) y +v|
=
1
1 +
n
|w v|

1
2
|y y
n
|,
lo que implica que |y
n+1
y|
1
2
|y
n
y| y en consecuencia y
n
y. Por otra parte
|x
n+1
x
n
| =
_
_
_
_

n
1 +
n
x
n
+
1
1 +
n
u x
n
_
_
_
_
=
1
1 +
n
|u x
n
|

diam(C
X
)

n
=
2 diam(C
X
)

|y
n
y|
lo que implica que (x
n
) es de Cauchy y, por ser X un espacio de Banach y C un cerrado, existe
x C tal que x
n
x y (x, y) C.
Lema 3.3.2. Si X es un espacio de Banach y C X es un convexo cerrado y aborbente, entonces
0 int(C).
Demostracin: Como C es absorbente, tenemos que X =

kN
kC con
kC = kx [ x C
cerrado. Del Lema de Baire, deducimos que existe k
0
N tal que int(k
0
C) ,= lo que implica que
int(C) ,= . Ms aun, podemos suponer que C = C (si no, podemos tomar el convexo absorbente
C (C)), en cuyo caso debe tenerse que 0 int(C).
Teorema 3.3.1 (Attouch-Brezis). Sean X, Y dos espacios de Banach y
0
(XY ). Sea v(y) =
nf
xX
(x, y) y supongamos que v(0) R y que el convexo
dom(v) =
_
xX
dom((x, ))
es absorbente en Y . Entonces, v es continua en 0 . En particular,
v(0) = mn
y

(0, y

),
es decir, el dual tiene solucin.
3.3. TEOREMAS DE DUALIDAD DE FENCHEL-ROCKAFELLAR Y DE ATTOUCH-BREZIS77
Demostracin: Sea k > v(0) y denamos
U = y Y [ v(y) k.
Basta probar que 0 int(U). Sea x
0
X tal que (x
0
, 0) < k y denamos
C = (x, y) X Y [ (x, y) k, |x| 1 +|x
0
|,
que es un convexo cerrado cuya proyeccin sobre X, C
X
, es acotada y C
Y
U. Basta probar
que C
Y
es una vecindad del origen, pero, gracias al Lema de Robinson, int(C
Y
) = int(C
Y
), por
lo que basta probar que 0 int(C
Y
). Veamos que C
Y
es absorbente en el Banach Y . Sea y Y .
Por hiptesis, existen > 0 y x X tales que (x, y) < +. Dado t ]0, 1[, tenemos que
((1 t)x
0
+tx, ty) (1 t)(x
0
, 0) +t(x, y) y si t es sucientemente pequeo,
((1 t)x
0
+tx, ty) k, |(1 t)x
0
+tx| 1 +|x
0
|.
Luego, existe t > 0 tal que ((1 t)x
0
+tx
0
, ty) C y se sigue que C
Y
es absorbente. Por lo tanto,
C
Y
es absorbente y 0 int(C
Y
).
Corolario 3.3.1 (Teorema de Dualidad de Fenchel-Rockafellar). Sean X, Y espacios de Banach,
f
0
(X), g
0
(Y ) y A: X Y lineal continua. Consideremos los problemas de minimizacin
(T) nf
xX
f(x) +g(Ax)
y
(T) nf
y

(A

) +g

(y

).
Supongamos que se tiene que nf(T) R y la hiptesis de Calicacin Primal:
0 int(dom(g) Adom(f)),
entonces S(T) ,= .
Similarmente, si se tiene que nf(T) R y la hiptesis de Calicacin Dual:
0 int(dom(f

) A

dom(g

)),
entonces S(T) ,= .
En cualquier caso, nf(T) = nf(T). Adems, son equivalentes
(i) x S(T),

y

S(T).
(ii) Las Relaciones de Extremalidad:
f( x) +f

(A

) = x, A

, g(A x) +g

(

y

) = A x,

y

.
(iii) La Inclusin de Euler-Lagrange:
A

f( x),

y

g(A x).
78 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Demostracin: Sea (x, y) = f(x) +g(Ax +y). Tenemos que

(x

, y

) = sup
(x,y)XY
x

, x +y

, y f(x) g(Ax +y)


= sup
(x,z)XY
x

, x +y

, z Ax f(x) g(z)
= f

(x

) +g

(y

).
As, (T) equivale a nf (, 0) y (T) equivale a nf

(0, ). Tenemos que y dom((x, )) si, y slo


si, f(x) < + y Ax +y dom(g), de modo que
_
xX
dom((x, )) = dom(g) Adom(f)
y podemos aplicar el Teorema de Attouch-Brezis. En este caso, la condicin de Extremalidad se
escribe
( x, 0) +

(0,

y

) = 0,
que es equivalente a
f( x) +f

(A

) + x, A

A x,

y

+g(A x) +g

(y

) = 0,
lo que a su vez es equivalente a
f( x) +f

(A

) = x, A

, g(A x) +g

(y

) = A x,

y

.
que son las relaciones de Extremalidad. Claramente estas relaciones son equivalentes a la inclusin
de Euler-Lagrange.
3.4. Teoremas de Fritz John y Kuhn-Tucker
Sea X un espacio de Banach y consideremos f, g
i
: X R, i = 1, . . . , p convexas y propias, h
j
,
j = 1, . . . , q lineales anes y continuas. El programa convexo asociado a f, (g
i
)
i
, (h
j
)
j
es el problema
de optimizacin
(T) mn
xX
f(x) [ g
i
(x) 0, i = 1, . . . , p, h
j
(x) = 0, j = 1, . . . , q,
que tiene asociada la funcin lagrangeana L: X R
p
R
q
R dada por
L(x, , ) =
_
f(x) +

p
i=1

i
g
i
(x) +

q
j=1

j
h
j
(x) si 0,
si no,
de modo que
(T) v(T) := nf
xX
sup
(,)R
p
R
q
L(x, , ).
Suponemos que v(T) es nito. El dual asociado a L es
(T) sup
(,)R
p
R
q
nf
xX
L(x, , ),
cuyas soluciones se llaman multiplicadores de Lagrange, de tenerse nf(T) = sup(T).
3.4. TEOREMAS DE FRITZ JOHN Y KUHN-TUCKER 79
Teorema 3.4.1 (Fritz-John Dbil). Denamos D := dom(f)(

p
i=1
dom(g)) y H :=

q
j=1
ker(h
j
).
Si v(T) R, f y g
i
, i = 1, . . . , p tienen un punto de continuidad en comn y adems 0 int(DH),
entonces existen reales no-negativos

0
, . . . ,

p
, no todos nulos y reales
1
, . . . ,
q
R tales que
x D,

0
v(T)

0
f(x) +
p

i=1

i
g
i
(x) +
q

j=1

j
h
j
(x).
Observacin 3.4.1. En este teorema (

, ) no es necesariamente un multiplicador de Lagrange.


Pero si, por ejemplo, D = X, f, g
i
son nitas en todas partes y

0
= 1, entonces se tendr que
x X, v(T) L(x,

, )
lo que es equivalente a
v(T) nf
xX
L(x,

, ) v(T)
e implica que v(T) = v(T) y as (

, ) S(T) ser un multiplicador de Lagrange de (T).


Para la demostracin del Teorema, necesitaremos algunas variantes del Teorema de Hahn-
Banach.
Teorema 3.4.2. Sea C X un convexo de interior no-vaco. Si 0 / C, entonces existe x

0
tal que
x X, x

, x 0.
Demostracin: Podemos separar int(C) de 0 mediante un hiperplano cerrado, de modo que existe
x

0 tal que int(C) [x

, 0]. Luego
C = int(C) [x

, 0].
Teorema 3.4.3 (Teorema de Separacin). Sean A, B X dos convexos no-vacos. Si int(AB) ,=
y AB = , entonces A y B pueden separarse mediante un hiperplano. Si 0 / (AB) y AB = ,
entonces pueden separarse estrictamente mediante un hiperplano.
Demostracin: Basta observar que A y B pueden separarse (resp. estrictamente) mediante un hi-
perplano ssi AB puede separse (resp. estrictamente) de 0 mediante un hiperplano.
Teorema 3.4.4. Sea F : X R convexa y propia con int(epi(F)) ,= . Sea H X un subespacio
vetorial de X y L: H R una funcin lineal tal que
x X, F(x) L(x).
Si 0 int(dom(F) H) entonces existe x

0
X

tal que
x H, L(x) = x

0
, x;
x X, x

0
, x F(x).
80 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Demostracin: Sean los convexos A := (x, ) X R [ F(x) < y B := (x, ) X R [ x
H, = L(x). Se tiene que int(A) = int(epi(F)) ,= y A B = . Como int(A) int(A B),
deducimos que A y B pueden separarse mediante un hiperplano cerrado, es decir, existe (x

, s)
X

R tal que
y H, (x, ) A, x

, y +sL(y) x

, x +s.
Como H es un s.e.v. se tiene que y H, x

, y + sL(y) = 0 y haciendo deducimos que


s 0. Si s = 0, tendramos en particular que y H, x dom(F), x

, x y 0 y como
0 int(dom(F) H) se sigue qiue x

= 0 y luego que (x

, s) = (0, 0), contradiccin. As, s > 0.


Deniendo x

0
=
x

s
obtenemos que y H, L(y) = x

0
, y y (x, ) A, x

0
, x. Para
x dom(F), haciendo F(x) se deduce el resultado.
Observacin 3.4.2. Cuando F(x) = |x| o bien F es un funcional de Minkowski continuo en X
(de modo que dom(F) = X), este teorema se conoce como el Teorema de Hahn-Banach analtico.
Para demostrar el Teorena de Fritz-John necesitaremos el siguiente teorema general sobre fun-
ciones convexas.
Teorema 3.4.5. Sean f
i
: X R, i = 1, . . . , m funciones convexas tales que para cada x X,
max
1im
f
i
(x) 0. Entonces existen reales no-negativos
1
, . . . ,
m
y no todos nulos tales que
x

m
i=1
dom(f
i
),
1
f
1
(x) + +
m
f
m
(x) 0.
Si adems existe x X tal que max
1im
f
i
( x) = 0, entonces
1
, . . . ,
m
satisfacen
i
f
i
( x) = 0, i =
1, . . . m.
Demostracin: Supongamos que

m
i=1
dom(f
i
) ,= (el caso

m
i=1
dom(f
i
) = es trivial) y denamos
el conjunto
A := y = (y
1
, . . . , y
m
) R
m
[ x X, f
1
(x) < y
1
, . . . , f
m
(x) < y
m
.
Es fcil ver que A es un convexo de interior no-vaco. Como 0 / A, podemos separa A y 0 mediante
un hiperplano, es decir, existe = (
1
, . . . ,
m
) R
m
0 tal que
y A,
T
y =
m

i=1

i
y
i
0.
Para cada i 1, . . . , m podemos hacer y
i
+ y luego
i
0, i. Ms aun, para todo x

m
i=1
dom(f
i
) con f
i
(x) > , i = 1, . . . , m y > 0 tenemos
(f
1
(x) +, . . . , f
m
(x) +) A.
De la arbitrariedad de > 0, se deduce la desigualdad. Si eventualmente existe x
0


m
i=1
dom(f
i
)
con f
i
0
(x) = infty para algn i
0
, entonces podemos hacer y
i
0
y necesariamente
i
0
= 0.
En este caso f
i
0
(x)+ puede reemplazarse por cualquier real y se deduce la desigualdad. Finalmente,
si max
1im
f
i
( x) = 0, entonces f
i
( x) 0, i = 1, . . . , m y
i
f
i
( x) = 0.
Demostracin: [del Teorema de Fritz-John sin h
j
.] Tenemos que para todo x X, max
1ip
f(x)
v(T), g
i
(x) 0. Del teorema anterior se deduce la parte l del resultado. Ms aun, si x S(T),
entonces max
1ip
f( x) v(T), g
i
( x) = 0 de modo que

0
(f( x) v(T)) = 0 y

i
g
i
( x) = 0, i =
1, . . . , m.
3.4. TEOREMAS DE FRITZ JOHN Y KUHN-TUCKER 81
Proposicin 3.4.1. Sean x

1
, . . . , x

q
X

. Supongamos que x

satisface:
(x X, j = 1, . . . , q, x

j
, x = 0) x

, x = 0
o, de manera equivalente,
q

j=1
kerx

j
, ker x

, .
Entonces existen
1
, . . . ,
q
R tal que x

=
1
x

1
+ +
q
x

q
.
Demostracin: Sea V

:= x

1
, . . . , x

q
. Tenemos que V

es convexo y dbilmente cerrado para la


topologa dbil-*. Si x

/ V

, entonces por Hahn-Banach existe x X tal que


x

, x

, x > x

, x
lo que implica que x

, x > 0 y x

, x = 0, x

, contradiccin.
Demostracin: [del Teorema de Fritz-John.] Tenemos que h
j
(x) = x

j
, x
j
con x

j
X

j
R. Como v(T) R, necesariamente
H = x X [ x

j
, x
j
= 0, j = 1, . . . , q.
Sea x H, entonces
H = x X [ x

j
, x x = 0, j = 1, . . . , q.
Sin prdida de generalidad, podemos suponer que x = 0, de modo que H es un subespacio cerrado
de X y h
j
(x) = x

j
, x. Adems, para x H se satisface que
F(x) := max
1ip
f(x) v(T), g
i
(x) 0.
Por otra parte, existe un punto de continuidad comn a f y g
i
, i = 1, . . . , p, luego F es continua en
dicho punto y el interior de epi(F) es no-vaco. Como
dom(F) = D = dom(f)
_
p

i=1
dom(g
i
)
_
y hemos supuesto que 0 int(D H), deducimos que existe x

tal que
x H, x

, x = 0 x

=
q

j=1

j
x

j
, para algunos
j
R
y
x X, F(x) x

, x 0 x X, max
1ip
f(x) v(T) x

, x, g
i
(x) x

, x 0.
Del Teorema 3.4.5, deducimos que existen

0
, . . . ,

p
0 no todos nulos tales que
x D,

0
(f(x) v(T)) +

1
g
1
(x) + +

p
g
p
(x) (

0
+. . .

p
) x

, x 0.
Deniendo
j
:= (

0
+. . .

p
)
j
, se deduce el resultado.
82 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Una propiedad deseable en la prctica, es que

0
sea estrictamente positivo. En los siguientes
teoremas, veremos que una condicin clsica en Optimizacin Convexa nos permite asegurar esta
propiedad.
Teorema 3.4.6 (Kuhn-Tucker Dbil). Bajo las hiptesis del Teorema de Fritz John dbil, supon-
gamos que se tiene la siguiente condicin de calicacin de restricciones, llamada Condicin de
Slater
(o) x
0
dom(f): g
i
(x
0
) < 0, i = 1, . . . , p, h
j
(x
0
) = 0, j = 1, . . . , q.
Entonces existe un par (

, ) R
p
+
R
q
(0, 0) tal que
x D, v(T) L(x,

, ).
Demostracin: Si

0
= 0, basta tomar x = x
0
en la desigualdad de Fritz-John dbil para deducir
que

p
i=1

i
g
i
(x
0
) 0 con

i
0 y g
i
(x
0
) < 0. Luego

i
= 0, i = 1, . . . , p lo que contradice

0
, . . . ,

p
no son todos nulos.
En general, las condiciones en trminos de subdiferenciales son tiles en muchas aplicaciones.
Terminamos esta seccin estudiando algunos resultados que, en esencia, son casos particulares de la
Regla de Fermat y caracterizan el cono normal en trminos de los subdiferenciales de las funciones
(g
i
).
La siguiente proposicin caracteriza el subdiferencial del mximo puntual de funciones convexas.
Proposicin 3.4.2. Sean f
1
, . . . f
m
: X R funciones convexas y denamos
F(x) := max
1ip
f
i
(x).
Entonces,
x X, F(x) =
_

F
(x)

_
m

i=1

i
fi +
D
_
(x),
donde D = dom(F) =

m
i=1
dom(f
i
) y

F
(x) = = (
1
, . . . ,
m
) R
m
+
[ i = 1, . . . , m
i
(F(x) f
i
(x)) = 0.
Demostracin: Sea x

F
(x)
(

m
i=1

i
f
i
(x) +
D
) (x). Entonces existen

1
, . . . ,

m
0,

m
i=1

i
= 1 con

i
(F(x) f
i
(x)) = 0, i = 1, . . . , m tales que
y D,
m

i=1

i
f
i
(x) +x

, y x
m

i=1

i
f
i
(y) F(y),
lo que implica que
F(x) +x

, y x F(y)
y luego x

F(x). Recprocamente, sea x

F(x) de modo que


y X, F(x) +x

, y x F(y).
3.4. TEOREMAS DE FRITZ JOHN Y KUHN-TUCKER 83
Denamos G(y) := F(y) F(x) x

, y x y g
i
(y) := f
i
(y) F(x) x

, y x. Tenemos que
existen

1
, . . . ,

m
0 no todos nulos, tales que
y D,
m

i=1

i
g
i
(y) 0, y

i
g
i
(x) = 0, i = 1, . . . , m.
Como

m
i=1

i
> 0, podemos suponer que

m
i=1

i
= 1. Tenemos que

= (

1
, . . . ,

m
)
F
(x) y
que y D,
m

i=1

i
f
i
(y)
m

i=1

i
f
i
(x) +x

, y x.
De aqu, x

F
(x)

_
m
i=1

i
f
i
+
D
_
(x).
Observacin 3.4.3. Si x es un punto de continuidad comn para f
1
, . . . , f
m
, entonces
F(x) = co
_
_
_
iI
F
(x)
f
i
(x)
_
_
donde I
F
(x) := i [ f
i
(x) = F(x).
Ejercicio 3.4.1. Pruebe la observacin anterior.
Diremos que el programa convexo original (T) es propio, s.c.i. y nito si tanto f como g
i
son
convexas, propias y s.c.i. y, adems, v(T) R.
Teorema 3.4.7 (Fritz-John Fuerte). Sea (T) un programa convexo, propio , s.c.i. y nito tal que
se satisfacen las hiptesis del Teorema de Fritz John dbil. Entonces una condicin necesaria y
suciente para que x S(T) es que existan

0
, . . . ,

p
0,

p
i=1

i
= 1 y reales
1
, . . . ,
q
tales
que
0
_

0
f +
p

i=1

i
g
i
+
D
_
( x) +
q

i=1

j
h
j
( x)
y

i
g
i
( x) = 0, i = 1, . . . , p.
Demostracin: Sea F(x) = max
1ip
f(x)v(T), g
i
(x). El programa convexo (T) puede escribirse
de manera equivalente como
(T) nfF +
H
.
Tenemos que x S(T) si, y slo si, 0 (F +
H
)( x). Si x
0
D es punto de continuidad de F tal
que x
0
H, tenemos que (F +
H
)( x) = F( x) +
H
( x). Ms generalmente, se prueba que la
condicin 0 int(D H) permite tener la misma igualdad.
La proposicin anterior nos permite concluir que
F( x) =
_

F
( x)
_
(f v(T)) +
p

i=1

i
g
i
+
D
_
( x).
84 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Si h
j
(x) = x

j
, x x, entonces
h
( x) = x

j
de donde se sigue que

H
( x) =
_
R
q
_
_
q

j=1

j
h
j
( x)
_
_
de donde se obtiene el resultado
Teorema 3.4.8 (Kuhn-Tucker Fuerte). Supongamos que se satisfacen las hiptesis de Fritz-John
Fuerte y que adems se cumple la condicion de calicacin de Slater o, entonces una condicin
necesaria y suciente para que x S(T) es que existan

1
, . . . ,

p
0 y reales
1
, . . . ,
q
R tales
que
0
_
f +
p

i=1

i
g
i
+
D
_
( x) +
q

i=1

j
h
j
( x)
y

i
g
i
( x) = 0, i = 1, . . . , p. En particular, si x es un punto de continuidad comn a f y g
i
, i =
1, . . . , p, entonces x S(T) si, y slo si,
0 f( x) +
p

i=1

i
g
i
( x) +
q

i=1

j
h
j
( x))
y

i
g
i
( x) = 0, i = 1, . . . , p.
Demostracin: Basta observar que bajo o podemos obtener que

0
> 0 y, luego, podemos normali-
zar.
3.5. PROBLEMAS 85
3.5. Problemas
Problema 3.1 (). (Regularizacin de problemas min-max). Considere el problema min-max
(P) mn
xR
n
maxf
1
(x), . . . , f
m
(x)
con f
i
: R
n
R convexa y S(P) no vaco y acotado. Para r > 0 considere el problema regularizado
(P
r
) mn
xR
n
M
r
(f
1
(x), . . . , f
m
(x)).
donde M
r
(y) = rM(y/r) con
M(y
1
, . . . , y
m
) = nf
vR
_
v +
m

i=1
(y
i
v)
_
y : R [0, ) es una funcin estrict. convexa, creciente, diferenciable y tal que

(1) = +.
(a) Muestre que M es convexa y diferenciable. Adems, muestre que el nmo en la denicin de
M es alcanzado en un nico punto.
(b) Pruebe que r

(1) M
r
(y) max y
i
r m

(1/m).
(c) Deduzca que M
r
(f
1
(x), . . . , f
m
(x)) converge a maxf
1
(x), . . . , f
m
(x).
(d) Muestre que (P
r
) admite al menos una solucin x
r
la cual permanece acotada cuando r 0.
Concluir que v(P
r
) v(P) y que todo punto de acumulacin de x
r
es solucin de (P).
(e) Explicite el dual (D
r
) de (P
r
) asociado a la funcin de perturbacin
(x, y) = M
r
(f
1
(x) +y
1
, . . . , f
m
(x) +y
m
).
(f) Pruebe que v(P
r
) +v(D
r
) = 0 y que (D
r
) admite una nica solucin.
Problema 3.2 (Aproximacin de mxima entropa). Sea u L
1
L
1
([0, 1], R) una funcin des-
conocida tal que u(x) 0 c.t.p. en [0, 1]. Deseamos estimar u en base a sus (n + 1) primeros
momentos
_
1
0
x
i
u(x)dx = m
i
> 0, i = 0, 1, . . . , n. Para ello consideramos el problema
(P) mn
uL
1
__
1
0
E(u(x))dx :
_
1
0
x
i
u(x)dx = m
i
, i = 0, . . . , n
_
donde E : R R es (menos) la entropa de Boltzmann-Shannon denida por E(u) = uln u
para u 0 y E(u) = para u < 0. El problema (P) equivale a
mn
uL
1
(u) : Au = m
con : L
1
R + y A : L
1
R
n+1
denidas por
(u) =
_
_
_
_
1
0
E(u(x))dx si E u L
1
+ si no,
(Au)
i
=
_
1
0
x
i
u(x)dx, i = 0, 1, . . . , n.
86 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
(a) Pruebe que
0
(L
1
). Indicacin: utilizar el Lema de Fatou.
(b) Explicite el dual que se obtiene al perturbar la restriccin de (P) mediante Au = my. Para
ello pruebe que A

: R
n+1
L

est dado por


(A

)(x) =
0
+
1
x + +
n
x
n
mientras que para todo u

se tiene

(u

) =
_
1
0
exp(u

(x) 1)dx.
(c) Usando el teorema de dualidad pruebe que (P) tiene una nica solucin.
(d) Pruebe que si es una solucin dual entonces la solucin de (P) es u(x) = exp(1

n
i=1

i
x
i
).
Problema 3.3 (). Sea X un espacio de Banach en dualidad con X

, su dual topolgico.
(a) Calcule | |

y pruebe que para x X 0 se tiene que


| |(x) = x

: |x

| = 1, x

, x = |x|.
En lo que sigue, sea K un espacio topolgico Hausdor y compacto. Denotemos por c(K) el conjunto
de funciones continuas de K en R con la norma de la convergencia uniforme |f|

= max
tK
[f(t)[.
Recordemos que el dual de c(K) es isomtricamente isomorfo al conjunto /(K) de medidas de
Borel regulares : B(K) R con la norma || = [[(K) < donde
[[(A) =
+
(A) +

(A) A B(K).
El producto de dualidad entre c(K) y /(K) es , f =
_
K
f d.
(b) Una medida se dice concentrada en A B(K) si [[(K A) = 0. Para f C(K) 0
denotamos K
+
f
= t K : f(t) = |f|

y K

f
= t K : f(t) = |f|

. Pruebe que
||

(f) = / : || = 1,
+
y

estn concentradas en K
+
f
y K

f
, respectivamente.
(c) Sean f,
1
, . . . ,
n
c(K), supongamos que f no es generado por las funciones
i
y conside-
remos el problema de mejor aproximacin en el sentido de Tchebychef
(P) mn
xR
n
|f

n
i=1
x
i

i
|

.
Calcule el dual de (P) asociado a la perturbacin (x, y) = |f +y

n
i=1
x
i

i
|

.
(d) Pruebe que v(P) +v(D) = 0 y que S(D) ,= .
(e) Suponiendo que
1
, . . . ,
n
son l.i. demuestre que el operador A : /(K) R
n
denido por
A() =
__
K

1
d, . . . ,
_
K

n
d
_
es sobreyectivo. Deduzca que en tal caso (P) admite soluciones.
3.5. PROBLEMAS 87
(f) Explicite las relaciones de extremalidad que caracterizan las soluciones ptimas primal y dual.
Problema 3.4 (Algunos resultados en dualidad Lagrangeana.). A lo largo de esta pregunta, X e
Y sern dos espacios vectoriales normados en dualidad con X

e Y

, respectivamente. Pruebe que:


(a) Para un esquema de dualidad de perturbaciones con
0
(XY ), considere el Lagrangeano
L(x, y

) := [(x, )]

(y

).
Entonces las siguientes aseveraciones son equivalentes:
(i) x es solucin del primal e y

solucin del dual, y adems + = 0.


(ii) x es solucin del primal e y

multiplicador de Lagrange asociado a x, y adems + = 0.


(iii) ( x, y

) es un punto silla del Lagrangeano L, con L( x, y

) R.
(b) Teorema de Min-Max de Von Neuman. Considere ahora dos compactos no vacos K X e
M Y

y una funcin Lagrangeana dada por L : X Y

R que satisface lo siguiente:


(i) Para todo y, la funcin L(, y) es convexa y semi-continua inferior.
(ii) Para todo x, la funcin L(x, ) es concava y semi-continua superior.
Entonces

L
:= mn
xK
max
yM
L(x, y) = max
yM
mn
xK
L(x, y) =:
L
.
Problema 3.5 (). (Dualidad en problemas de aproximacin cuadrtica en espacios de Hilbert).
Sean X e Y dos espacios de Hilbert reales, con producto interno denotado indistintamente por
, . Dado un conjunto convexo y no vaco C X y un operador lineal, continuo y sobreyectivo
A : X Y , considere el problema de minimizacin
(P) mn
xC
1
2
|Ax|
2
(a) Pruebe que si C + ker A es cerrado entonces el conjunto de soluciones ptimas S(P) necesa-
riamente es no vaco.
(b) Pruebe que x C es solucin ptima de (P) si, y slo si, z := A

A x satisface la inecuacin
variacional:
x x, z 0, x C.
(c) Suponga que el conjunto C tiene la siguiente forma,
C = x X [ a
i
, x b
i
, i = 1, . . . , m.
Verique que el conjunto de soluciones de (P) es no vaco.
(d) Asuma que existe x
0
X tal que a
i
, x
0
< b
i
, i = 1, . . . , m. Pruebe que x S(P) si, y slo
si,
R
m
+
tal que A

A x =
m

i=1

i
a
i
y adems
i
(a
i
, x b
i
) = 0, i = 1, . . . m.
88 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Problema 3.6 (Dualidad de Toland-Singer). En lo que sigue, denotamos por

+ la inf-adicin en
R (en particular,

+() = +) y por

la inf-sustraccin denida por

:=

+(). La
sup-adicin +
.
y la sup-sustraccin
.
se denen de manera anloga. Dadas dos funciones f, g : X
R +, donde (X, Y, , ) es una dualidad entre e.v.t.l.c., se dene h := f

g.
(a) Pruebe que se satisface la siguiente relacin para las conjugadas de Legendre-Fenchel:
(3.1) y Y, h

(y) sup
zdomg

(y +z) g

(z)
(b) Suponga que g
0
(X). Pruebe que entonces se tiene igualdad en (3.1), y deduzca la frmula
de dualidad de Toland-Singer:
nf
X
f

g =nf
Y
g

.
(c) Suponga ahora que (X, ||) es un e.v.n. en dualidad con Y = X

. Dados dos convexos cerrados


C, D X, se denen el exceso de Hausdor de C sobre D y la distancia de Hausdor entre
C y D, respectivamente por,
e(C, D) := sup
xC
d(x, D) [0, +]
h(C, D) := maxe(C, D), e(D, C) [0, +]
con d(x, D) =nf
yD
|y x|. Usando (b), pruebe que
e(C, D) = sup
|x

|1

C
(x

)
.

D
(x

).
Indicacin: sea g(x) = d(x, D), pruebe que g

=
D
+
B
.
Si adems C y D son acotados, muestre que se tiene la frmula de H ormander:
h(C, D) = sup
x

[
C
(x

)
D
(x

)[.
Problema 3.7 (). (Un caso particular de la dualidad de Ekeland-Lasry). Sea (H, , ) un espacio
de Hilbert y f
0
(H). Sea A : H H un operador lineal, continuo y autoadjunto. Se denen las
funciones , : H R + mediante
(x) =
1
2
x, Ax +f(x) y (x) =
1
2
x, Ax +f

(Ax).
Note que y no son necesariamente convexas.
(a) Pruebe que si x H es un punto crtico para , es decir, 0 ( x), entonces todo y ker A+ x
es un punto crtico para , es decir, 0 ( y).
(b) Demuestre que si entonces para todo punto crtico y de existe x ker A + y que es punto
crtico de , y ms an ( x) + ( y) = 0.
3.5. PROBLEMAS 89
Problema 3.8 (). Sea X un e.v.n. y X

su dual. Dado un s.e.v. M X denotamos M

el
conjunto de los x

tales que x

, x = 0 para todo x M. Un funcional x

se dice
alineado con un vector x X si x

, x = |x||x

.
(a) Dado z

muestre que
(3.2) nf
x

|x

= sup
xM,|x|1
z

, x
y que el mnimo alcanzado en algn x

0
M

. Pruebe adems que x


0
M alcanza el supremo
ssi z

0
est alineado con x
0
.
(b) Sea D = x

: x

, x
i
= a
i
, i = 1 . . . , n con x
1
, . . . , x
n
X y a
1
, . . . , a
n
R dados.
Suponiendo que D es no vaco, pruebe que
(3.3) mn
x

D
|x

= max
yR
n

n
i=1
a
i
y
i
: |

n
i=1
y
i
x
i
| 1
y que el x

ptimo est alineado con



n
i=1
y
i
x
i
donde y alcanza el mximo.
(c) Se desea calcular el ujo de combustible u(t) para un cohete en ascenso vertical hasta alcanzar
una altura h en tiempo T minimizando el consumo
_
T
0
[u(t)[dt. La altura x(t) satisface x(t) =
u(t) g con x(0) = x(0) = 0, de modo que integrando por partes el problema se plantea como
mn
u

_
T
0
[u(t)[dt :
_
T
0
(T t)u(t)dt = h +
1
2
gT
2

Si bien el problema se formula naturalmente en L


1
([0, T]), este espacio no es reexivo ni
tampoco un dual de modo que no podemos garantizar la existencia de mnimos. Relajamos
el problema identicando los controles u() con derivadas de funciones de variacin acotada
v : [0, T] R continuas por la derecha con v(a) = 0. Este espacio NBV ([0, T]) se identica
con el dual de C([0, T]) mediante el pareo de dualidad x, v =
_
b
a
x(t) dv(t), e incluye a L
1
a travs de la identicacin dv(t) = u(t)dt. La norma dual viene dada por la variacion total
|v|

=
_
T
0
[dv(t)[, de modo que el problema relajado resulta ser
= mn
vNBV

_
T
0
[dv(t)[ :
_
T
0
(T t)dv(t) = h +
1
2
gT
2
.
Usando la parte (b) pruebe que este ltimo mnimo es alcanzado y que
= max
yR
y(h +
1
2
gT
2
) : |(T t)y|

1| =
1
T
(h +
1
2
gT
2
)
(d) Probar que v NBV ([0, T]) est alineada con x C([0, T]) ssi v solo vara en el conjunto
de puntos t [0, T] tal que [x(t)[ = |x|

, con v(t) no-decreciente si x(t) > 0 y no-creciente si


x(t) < 0. Deducir que si es nito, entonces un funcional alineado v es constante por pedazos
con un nmero nito de discontinuidades de salto.
(e) Deduzca que el control ptimo v de la parte (c) solo puede variar en t = 0 de modo que v es
una funcin escaln y u = dv es un control impulsivo en t = 0. Determine el horizonte T que
minimiza y encuentre el control ptimo v correspondiente.
90 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Problema 3.9. Consideremos el problema de optimizacin
(P) nf f(x) ; x C := x X : f
i
(x) 0 i = 1, ..., m
donde f, f
i
: X R+ son convexas y propias, que satisfacen int(C)domf ,= . Sea
L : X R
m
R + + el lagrangeano usual asociado a (P). Consideremos el siguiente
conjunto
(P) =
_
R
m
+
: nf
xX
L(x, ) = nf
xX
(f +
C
)(x) R
_
.
(a) Demuestre que si x es mnimo de f en C, entonces

(P) tal que x es mnimo de L(,

).
(b) Denamos el conjunto
B = (x, y) X R
m
: f
i
(x) y
i
, i = 1, ..., m ,
y las funciones
F(x, y) = f(x) +
B
(x, y) y g(y) = nf
xX
F(x, y).
Demuestre que la funcin g es convexa y que se tiene que g(0) = (P).
Indicacin: Para la inclusin , pruebe que g
t
(0; d) 0, d R
m
, de donde se concluye la
positividad de las componentes de un elemento en g(0).
Problema 3.10. (Karush-Kuhn-Tucker en el caso diferenciable no convexo)
(a) Consideremos una funcin f : R
n
R una funcin diferenciable y acotada inferiormente.
Pruebe que para cada > 0 existe x

R
n
tal que |f(x

)| .
Indicacin: considere x

un mnimo global de la funcin f+|| y suponga que |f(x

)| > ,
pruebe entonces que en ese caso f
t
(x

; d

) < |d

| con d

:= f(x

) y que esto contradice


la optimalidad de x

.
(b) Demuestre el Teorema de la Alternativa de Gordan: dados a
0
, a
1
, ..., a
m
R
n
, uno y slo uno
de los siguientes sistemas (S1) y (S2) admite una solucin.
(S1)

m
i=0

i
a
i
= 0,

m
i=0

i
= 1, 0
0
,
1
, ...,
m
.
(S2) a
i
, d < 0 para todo i = 0, 1, ..., m, d R
n
.
Indicacin: pruebe que si la funcin f(x) = log
_
m
i=0
expa
i
, x
_
es acotada inferiormente
entonces (S1) tiene una solucin.
(c) Sean g
0
, g
1
, ..., g
m
: C R
n
R funciones continuas en C y diferenciables en x int(C). Se
denen
g(x) := m ax
0im
g
i
(x) y J := i [ g
i
( x) = g( x).
Pruebe que d R
n
:
(c.1) lminf
t0
+
1
t
[g( x +td) g( x)] g
i
( x), d, i J.
3.5. PROBLEMAS 91
(c.2) lmsup
t0
+
1
t
[g( x +td) g( x)] max
iJ
g
i
( x), d.
Indicacin: razone por contradiccin probando que si lo anterior no fuese cierto entonces
existiran > 0 y j J tales que para una sucesin t
k
0
+
se tendra que
1
t
k
(g( x +t
k
d) g( x)) max
iJ
g
i
( x), d +.
(c.3) g
t
( x; d) = max
iJ
g
i
( x), d.
(d) Considere el siguiente problema de minimizacin con restricciones:
(P) mnf(x) [ g
i
(x) 0 para i = 1, 2, ..., m, x C,
donde f, g
1
, ..., g
m
: C R
n
R son funciones continuas. Suponga que (P) tiene un minimi-
zador local x int(C) y que f, g
i
(i I( x) := i [ g
i
( x) = 0) son diferenciables en x. Pruebe
que:
(d.1) (condiciones de Fritz-John) existen
0
,
i
R
+
(i I( x)), no todos nulos, que satisfacen
(3.4)
0
f( x) +

iI( x)

i
g
i
( x) = 0.
Indicacin: verique que g
t
( x; d) 0 para una funcin g escogida apropiadamente y luego
aplique el Teorema de la Alternativa de Gordan.
(d.2) (condiciones de Karush-Kuhn-Tucker) si adems se satisface la condicin de calicacin
de Mangasarian-Fromovitz :
(MF) d R
n
: i I( x), g
i
( x), d < 0,
entonces es posible tomar
0
= 1 en (3.4).
92 CAPTULO 3. DUALIDAD EN OPTIMIZACIN CONVEXA
Captulo 4
Aplicaciones al Clculo de Variaciones
En esta seccin revisaremos algunos ejemplos del Clculo de Variaciones y del Anlisis Variacio-
nal. Las tcnicas usadas son aplicaciones de la Dualidad Convexa, revisada en la seccin anterior,
a los espacios de Sobolev. Es recomendable tener frescos algunos resultados de Teora de las Distri-
buciones y de espacios de Sobolev. Se recomienda revisar [Bre83].
4.1. Problema de Dirichlet
Sea R
N
un abierto acotado y consideremos los espacios X := H
1
0
(), Y = L
2
()
N
y
sus respectivos duales topolgicos X

= H
1
(), Y

= L
2
()
N
(identicacin). Nos interesa el
problema
(T) nf
uH
1
0
()
_
1
2
_

[u(x)[
2
dx
_

f(x)u(x)dx
_
,
donde denota el gradiente dbil y f L
2
(). Sean F : H
1
0
() R denida por F(u) =

f(x)u(x)dx y G: L
2
()
N
R con G(p) =
1
2
|p|
2
L
2
()
N
=
1
2
_

N
i=1
p
2
i
(x)dx, de modo que
podemos escribir (T) de manera equivalente por
nf
uX
F(u) +G(Au)
donde A: H
1
0
() L
2
()
N
est denida por Au = u que resulta ser lineal y continua. Es fcil
ver que
F

(u

) =
_
0 si u

= f,
+ si no.
y que G

(p

) =
1
2
|p

|
2
L
2
()
N
. Podemos carecterizar A

: L
2
()
N
H
1
() por
u H
1
0
(), A

, u
H
1
(),H
1
0
()
= p

, Au
L
2
()
N
,L
2
()
N = div p

, u
H
1
(),H
1
0
()
.
As A

= div p

(en el sentido de las distribuciones). Luego, el problema dual de (T) es


(T) nf
_
1
2
|p

|
2
L
2
()
N

L
2
()
N
, div p

= f
_
.
93
94 CAPTULO 4. APLICACIONES AL CLCULO DE VARIACIONES
La calicacin primal es 0 int(dom(G) Adom(F)) que es equivalente a 0 int(L
2
()
N
) =
L
2
()
N
. Luego se satisface la calicacin primal y como nf(T) 0 y F(v) + G(Av) es coerciva
(el lector debe vericar esto) se tiene que S(T) ,= y, ms aun, (T) tiene solucin nica. Sea u
solucin de (T) y p

la solucin de (T). Las ecuaciones de Euler-Lagrange son


div( p

) F( u) = f
p

G( u) = u,
y equivalen a
div( p

) = f
p

= u.
Luego u es solucin (dbil) de
u = f en ,
u = 0 sobre .
4.2. Problema de Stokes
Sean R abierto acotado y f L
2
()
3
. El problema de Stokes consiste en encontrar un
campo de velocidades u = (u
1
, u
2
, u
3
) H
1
()
3
y una funcin de presin p L
2
() tales que
(S)
_
_
_
u +p = f en ,
div(u) = 0 en ,
u = 0 sobre ,
donde u = (u
1
, u
2
, u
3
). Este problema corresponde a un modelo simplicado de un uido
homogneo e incompresible con R
3
la regin que contiene al uido, que supondremos de frontera
regular.
Veamos la formulacin variacional del problema. Dada = (
1
,
2
,
3
) D()
3
(donde D()
denota el conjunto de funciones de clase C

sobre , a valores reales y con soporte compacto).


Notemos que si (u, p) son soluciones clsicas, entonces
3

i=1
_

u
i

_

p div() =
_

fv
y denimos una solucion dbil de (S) como un par (u, p) H
1
() L
2
() tal que
() v H
1
0
()
3
,
3

i=1
_

u
i
v
i

_

p div(v) =
_

fv.
Consideremos el espacio V = v H
1
0
()
3
[ div(v) = 0 dotado del producto interno ((u, v)) :=

3
i=1
_

u
i
v
i
y la norma || inducida por tal producto interno. Es fcil ver que (V, ||) es un
espacio de Hilbert. Adems, u V es solucin de
(T) nf
vV
1
2
|v|
2

fv
4.2. PROBLEMA DE STOKES 95
si, y slo si,
v V, ((u, v)) =
_

fv
que corresponde a () cuando hacemos div(v) = 0.
Pero, cmo recuperamos la presin? Construiremos un problema dual asociado a (T) que nos
permitir obtener la presin p que perdimos en el camino. Sean X = H
1
0
()
3
, Y = L
2
() = Y

y
X

= H
1
(). Denamos las funciones
F : X R
v
1
2
|v|
2

fv,
G : Y R
y
0
(y),
A : X R
v div v.
As podemos escribir el problema primal como
(T) nf
vX
F(v) +G(Av).
El dual en el sentido de Fenchel-Rockafellar es
(T) nf
p

(A

) +G

(p

)
donde G

(p

) = 0 y
F

(A

) = sup
vX
_
p

, div(v)
L
2
()

1
2
|v|
2
+
_

fv
_
= nf
vX

1
2
|v|
2

fv +
_

div(v).
Este ltimo problema es coercivo (verifquelo) y estrictamente convexo, luego para cada p

existe una nica solucin v


p
X que est caracterizada por:
h = (h
1
, h
2
, h
3
) X, ((v
p
, h)) f, h
L
2
()
+p

, div(h)
L
2
()
= 0.
En particular, para cada i = 1, 2, 3 y w H
1
0
() se tiene que
_

(v
p
)
i
w
_

f
i
v +
_

w
x
i
= 0,
de donde deducimos que
v
p
p

= f en
(en el sentido de las distribuciones). Es directo vericar que
F

(A

) =
1
2
3

i=1
|v
p
|
2
L
2
()
=
1
2
|v
p
|
2
H
1
0
()
3
,
de modo que podemos reescribir el dual como
(T) nf
p

L
2
()
_
1
2
|v
p
|
2
H
1
0
()
3

v
p
H
1
0
()
3
es solucin de v
p
p

= f en
_
.
96 CAPTULO 4. APLICACIONES AL CLCULO DE VARIACIONES
Sea u X la solucin de (T) y supongamos que (T) admite solucin p

(la cual no es nica,


por qu?). Tenemos que la relacin de extremalidad es
F( u) +F

(A

) = u, A

= 0,
lo que implica que
F

(A

) v, A

F(v)
y en consecuencia u = v( p

). Luego,
div( u) = 0 en ,
u +( p

) = f en ,
u = 0 ,
lo que equivale a que ( u, p

) sea solucin dbil del problema de Stokes.


Para nalizar, probemos la existencia de una solucin de (T). Veamos la condicin de calicacin
dual:
0 int(dom(F

) +A

L
2
()).
Pero F

(A

) =
1
2
|v
p
|
2
y se verica que A

int(dom(F

)) para todo p

L
2
(), de
modo que deducimos que nf(T) = mn(T) R. Sea p

n
una sucecin minimizante para (T). En
particular tenemos que existe C 0 tal que para todo n N se satisface que |v
p

n
|
H
1
0
()
C, lo
que implica que (v
p

n
)
n
est acotada en H
1
0
()
3
y por lo tanto (p

n
)
n
est acotada en H
1
() y de
aqu concluimos que (p

n
)
n
est acotada en L
2
()/R. Pasando a una subsucesin si fuese necesario,
tenemos que (p

n
)
n
converge dbilmente hacia p

L
2
()/R que resulta ser solucin de (T).
4.3. Problema de la torsin elasto-plstica
Dado f L
2
(), consideremos el siguiente problema:
(T) nf
vC
_
1
2
_

[v[
2
dx
_

fvdx
_
donde C := v H
1
0
() [ [v[ 1, en c.t.p, que es un convexo cerrado y no-vaco . Como el
problema es coercivo, se deduce que S(T) ,= . Es fcil ver que u S(T) si, y slo si, u es solucin
de la siguiente desigualdad variacional:
(V I)
_
u C,
v C, ((u, v u)) (f, v u) 0,
donde ((, )) denota el producto interno en H
1
0
(), es decir, ((u, v)) =
_

uv. Notemos que de


aqu se deduce la unicidad de la solucin de (T). Sea u tal solucin y recordemos el Teorema de
Brezis-Stampacchia:
Teorema 4.3.1. Si f L
p
() con 1 < p < + y es regular (de clase C
2
), entonces u W
2,p
().
Si f L
+
, entonces u W
2,
(), [1, +[. De las inyecciones de Sobolev, u C
1
().
4.3. PROBLEMA DE LA TORSIN ELASTO-PLSTICA 97
Tomemos X = H
1
0
(), X

= H
1
(), Y = L
2
()
N
= Y

. Denamos las funciones A: X Y ,


Av = v y F : X R, G: Y R dadas por
F(v) =
1
2
_

[v[
2
dx
_

fvdx y G(p) =
S
(p),
con S = p L
2
()
N
[ [p(x)[ 1, en c.t.p.. Luego, (T) equivale a
nf
vX
F(v) +G(Av).
Es fcil ver que
F

(v

) =
1
2
|v

+f|
2
H
1
, G

(p

) =
_

[p

[
de donde formulamos el problema dual por
(T) nf
p

L
2
()
N
_
1
2
|div p

+f|
H
1
()
+
_

[p

[
_
.
La calicacin dual equivale a 0 int(H
1
() +A

dom(G

)) por lo que S(T) ,= (ya lo sabamos)


y mn(T) = nf(T).
Si p

S(T), las relaciones de extremalidad conducen a


1. F( u) +F

(A

) = div p

, u lo que equivale a u div p

= f (en H
1
()).
2. G(A u) +G

( p

) = p

, A u lo que equivale a [ u[ 1 c.t.p. y


_

[ p

[ =
_

u. Esto implica
que [ p

(x)[ = p

(x)[ u(x)[ en c.t.p..


De esta relacin deducimos que en c.t.p. se tiene que
p

(x) =
_
0 si [ u(x)[ < 1,
(x) u(x) si [ u[ = 1,
donde (x) = [ p

(x)[. En consecuencia,
() u div((x) u) = f en H
1
().
Recprocamente, si existe L
2
() tal que (x)([ u(x)[ 1) = 0 y que verique (), entonces
deniendo p

(x) := (x) u(x) se verican las condiciones de extremalidad y en consecuencia p


S(T). El problema es que (T) no admite necesariamente una solucin. (Notar que (T) es coercivo
en L
1
()
N
pero este espacio no es reexivo).
98 CAPTULO 4. APLICACIONES AL CLCULO DE VARIACIONES
4.4. Problemas
Problema 4.1 (Problema de visco-plasticidad). Consideremos el problema de visco-plasticidad
denido por
(P) mn
uH
1
0
()
_

2
_

[u(x)[
2
d(x) +
_

[u(x)[d(x)
_

f(x)u(x)d(x)
_
,
donde es un abierto acotado de R
N
, , > 0 y f L
2
(). Este problema se puede escribir en
el formato de la dualidad de Fenchel-Rockafellar mn
uH
1
0
()
(u) + (Au) tomando : H
1
0
()
R, : L
2
()
N
R y A : H
1
0
() L
2
()
N
denidos mediante (u) =
_

fud, (p) =

2
_

|p|
2
d +
_

|p| d, y Au = u.
(a) Pruebe que el dual correspondiente est dado por
(D) mn
p

L
2
()
N
_
1
2
_

[[p

(x)[ ]
2
+
d(x)

div(p

) = f
_
.
(b) Pruebe que v(P) +v(D) = 0, que (P) admite una nica solucin y que (D) admite soluciones.
(c) Pruebe que u S(P) y p

S(D) si, y slo si, div( p

) = f (en el sentido de distribuciones)


y adems se tiene que u(x) =
1

[[ p

(x)[ ]
+
p

(x)/[ p

(x)[ c.t.p. en .
Problema 4.2. Sea R
N
un abierto acotado de frontera regular. Consideremos f L
2
() y
: R R una funcin continua no-decreciente tal que [(u)[ a +b[u[ para todo u R con a y b
constantes positivas. Para cada condicin inicial u
0
L
2
() consideremos la ecuacin de evolucin
_
u
t
= u (u) +f
u(0) = u
0
(a) Pruebe que esta ecuacin admite una nica solucin u L

(0, ; L
2
()) tal que u(t) H
1
0
()
para t > 0.
(b) Pruebe que cuando t , la trayectoria t u(t) converge dbilmente en L
2
() hacia la
nica solucin de
(P) mn
uH
1
0
()
_
1
2
_

[u(x)[
2
dx +
_

g(u(x))dx
_

f(x)u(x)dx
_
,
donde g(u) =
_
u
0
()d.
Captulo 5
Penalizacin en Optimizacin Convexa
5.1. Preliminares.
Dado un conjunto nito I consideremos un programa convexo de la forma
(T) v = mnf
0
(x) [ f
i
(x) 0, i I,
y un problema sin restricciones
(T
r
) v
r
= mn
_
f
0
(x) +r

iI

_
f
i
(x)
r
_

x R
n
_
denido para cada r > 0. La idea es que (T
r
) penaliza la violacin de las restricciones de (T)
mediante la funcin (ms adelante mostraremos hiptesis adecuadas que formalizan esta idea). El
objetivo de este captulo es analizar cun bien (T
r
) aproxima a (T). Ms especcamente, estudiamos
la convergencia de los valores de los problemas aproximados (T
r
) al valor del problema (T) (esto
es, estudiamos la convergencia de v
r
a v) y, adems, nos preguntamos por la convergencia de las
soluciones generadas a partir de (T
r
). Terminamos el captulo con el estudio de problemas duales
generados a partir de este esquema.
Presentaremos ahora una clase de funciones que ser especialmente importante en nuestro an-
lisis.
Denicin 5.1.1. Diremos que una funcin f : R
n
R pertenece a la clase Q si es convexa y
satisface la siguiente propiedad:
()
Si f es constante en el segmento de recta [x, y],
entonces es constante en toda la recta que pasa por x e y.
Ejercicio 5.1.1. Suponga que f Q y que el convexo C R
n
es tal que f es constante en C.
Muestre que f es constante en a(C).
Ejemplo 5.1.1. Algunas funciones relevantes:
Las funciones lineales, las cuadrticas, y las reales-analticas tienen la propiedad (*).
Si f Q, A es lineal, y : R R es estrictamente convexa y creciente, entonces f A Q.
99
100 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
Si f es estrictamente convexa, entonces f Q.
Si f, g Q, entonces no necesariamente maxf, g, f +g Q.
A lo largo del captulo supondremos que
(a) f
0
, f
i
: R
n
R son funciones convexas, I es un conjunto nito;
(b) El conjunto de soluciones S(T) es no-vaco y acotado;
(c) f
0
, f
i
Q;
(d) : (, ) R, con [0, +], es una funcin estrictamente convexa diferenciable tal que

t
(u) > 0, con
t
(u) 0 cuando u , y
t
(u) + cuando u ;
(e) Si = 0 supondremos la condicin de Slater: x tal que f
i
( x) < 0 i I.
Diremos que es una funcin de penalizacin si satisface (d) y la extendemos a todo R mediante
(u) =
_
lm
u
(u) si u = ;
+ si u > .
En este contexto, el conjunto de hiptesis (a) . . . (e) lo denotaremos (H
0
).
Ejemplo 5.1.2 (Funciones de Penalizacin). Penalizacin Logartmica
(u) =
_
ln(u) si u < 0,
+ si no.
Penalizacin Inversa
(u) =
_

1
u
si u < 0,
+ si no.
Penalizacin Exponencial
(u) = e
u
.
Penalizacin Logartmica Desplazada
(u) =
_
ln(1 u) si u < 1,
+ si no.
Penalizacin Hiperblica
(u) =
_
1
1u
si u < 1,
+ si no.
Penalizacin Raz
(u) =
_
(u)
1/2
si u 0,
+ si no.
5.2. ALGUNOS RESULTADOS DE CONVERGENCIA 101
5.2. Algunos Resultados de Convergencia
Lema 5.2.1. Sea C R
n
un convexo no-vaco tal que f
0
, f
i
son constantes en C. Entonces C tiene
un solo elemento.
Demostracin: Supongamos que existen x, y C, con x ,= y. Las funciones f
i
, i I 0, son
constantes en [x, y] y luego son tambin constantes en a(x, y). Sea d = y x. Para t R se sigue
que f
i
(x +td) = f
i
(x). Luego
1
f

i
(d) = 0 y d es direccin de constancia para f
i
, i I 0.
Consideremos ahora x

S(T). Luego f
0
(x

+ td) = f
0
(x

) = v y f
i
(x

+ td) = f
i
(x

) 0
t > 0. Se sigue que S(T) es no acotado, lo cual es una contradiccin.
Proposicin 5.2.1. Para cada r > 0 existe un nico mnimo x(r) S(T
r
). Adems v
r
v y
dist(x(r), S(T)) 0 cuando r 0
+
.
Demostracin: Fijemos r > 0 y sea f
r
(x) = f
0
(x) + r

iI
(
f
i
(x)
r
). Probaremos que f
r
es inf-
compacta o, de manera equivalente, que f

r
(d) > 0 para todo d ,= 0.
No es difcil mostrar que
f

r
(d) =
_
+ si para algn i, f

i
(d) > 0,
f

0
(d) si no.
Si d ,= 0 es tal que f

r
(d) 0, entonces d satisface que f

i
(d) 0 para todo i I 0.
Tomando x

S(T) se sigue que x

+td S(T) para todo t > 0 contradiciendo as el acotamiento


de S(T). En consecuencia, S(T
r
) es convexo, no-vaco y acotado.
Veamos ahora que S(T
r
) tiene un solo elemento. Si no, existen x, y S(T
r
), con x ,= y. Luego
[x, y] S(T
r
). Se tiene que f
i
(x) = f
i
(y) i I. De lo contrario, tomando z = (x +y)/2,
f
r
(z)
1
2
_
f
0
(x) +f
0
(y)
_
+r

iI

_
(f
i
(x) +f
i
(y))/2
r
_
<
1
2
_
f
0
(x) +f
0
(y)
_
+r

iI
1
2

_
f
i
(x)
r
+
f
i
(y)
r
_
= v
r
donde la segunda desigualad es estricta ya que estamos suponiendo que existe i I tal que f
i
(x) ,=
f
i
(y). Pero lo anterior no puede ser ya que v
r
es el nmo de (T
r
). Se sigue que f
i
(x) = f
i
(y) i I
y luego f
0
(x) = f
0
(y).
De este modo las funciones f
i
son constantes en S(T
r
) para i I 0 y, en virtud del lema
anterior, S(T
r
) = x(r).
Estudiemos la convergencia. Consideremos x

S(T) y x

= (1)x

+ x, con x = x

si > 0,
y x un punto de Slater si = 0. Ya que v
r
f
r
(x

), se tiene que
lmsup
r0
+
v
r
lmsup
r0
+
f
r
(x

) f
0
(x

) (1 )f
0
(x

) +f
0
( x).
Como v = f
0
(x

), se sigue que lmsup


r0
+ v
r
v.
1
Para simplicar la notacin, en este captulo denotaremos la funcin de recesin mediante el smbolo como
superndice, a diferencia de lo que hicimos en la Denicin 1.2.5.
102 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
Veamos ahora que x(r) es acotada. De lo contrario, existe r
k
0
+
tal que |x(r
k
)| + y
x(r
k
)
|x(r
k
)|
d ,= 0. Se tiene que f
r
k
(x(r
k
)) f
r
k
(x

) y luego
f
0
(x(r
k
)) +r
k

iI
(
f
i
(x(r
k
))
r
k
)
|x(r
k
)|

f
r
k
(x

)
|x(r
k
)|
.
Esto equivale a
f
0
(x(r
k
))
|x(r
k
)|
+

iI
(
f
i
(x(r
k
))
|x(r
k
)|
|x(r
k
)|
r
k
)
|x(r
k
)|
r
k

f
r
k
(x

)
|x(r
k
)|
,
de donde se sigue que f

0
(d) +

iI

(f

i
(d)) 0. En consecuencia, f

i
(d) 0 i I 0
contradiciendo de este modo el acotamiento de S(T).
Consideremos x
0
= lm
k
x(r
k
) un punto de acumulacin de (x(r))
r>0
. Se tiene que f
r
k
(x(r
k
)) =
v
r
k
y, tomando lmite, deducimos que f
0
(x
0
) +

iI

(f
i
(x
0
)) v. Se sigue que f
i
(x
0
) 0 i I
y f
0
(x
0
) v lo que equivale a x
0
S(T).
Finalmente mostremos que v
r
v. Tomemos r
k
tal que v
r
k
lminf
r0
+ v
r
. Sin prdida de
generalidad, podemos suponer que x(r
k
) x
0
. Del argumento anterior
v
r
k
f
0
(x
0
) +

iI

(f
i
(x
0
)) = v,
y luego lminf
r0
+ v
r
= v.
Hemos probado que v
r
v y que cualquier punto de acumulacin de la sucesin x(r) es solucin
del problema (T). Sin embargo, es de especial inters analizar la convergencia de x(r) (obviamente,
esto no es trivial slo si S(T) tiene ms de un elemento).
Ejemplo 5.2.1. Esquema de Penalizacin de Tikhonov. Sea el programa convexo
(T) v = mn(x) [ x R
n
,
donde
0
(R
n
), y consideremos x() la nica solucin del problema
v

= mn
_
(x) +

2
|x|
2
[ x R
n
_
,
con > 0. Supongamos que S(T) ,= y consideremos x S(T). Es fcil ver que
(x()) +

2
|x()|
2
( x) +

2
| x|
2
(x()) +

2
| x|
2
.
Luego |x()| | x| y x() es una sucesin acotada y converge (va subsucesin) a x

. Del mismo
modo (x()) ( x) +

2
| x|
2
. Tomando lmite cuando 0
+
, deducimos que (x

) ( x) = v.
As dist(x(), S(T)) 0. Ms aun, ya que |x

| | x| x S(T), se sigue que x() converge al


elemento de norma mnima de S(T):
x() Proy
S(1)
(0), 0
+
.
5.3. MEDIAS ASINTTICAS 103
Volvamos al anlisis de la convergencia de las soluciones primales en nuestro esquema de penali-
zacin. Sea x

= lm
k+
x(r
k
) un punto de acumulacin de x(r). Luego x

S(T). Sea x S(T)


y x
k
= x(r
k
) x

+ x x cuando k +. Se tiene que f


0
es constante en [x

, x] y luego es
tambin constante en a([x

, x]). Se sigue que d = x x

es direccin de constancia para f


0
y en
consecuencia f
0
( x
k
) = f
0
(x(r
k
) + d) = f
0
(x(r
k
)). De la desigualdad f
r
k
(x(r
k
)) f
r
k
( x
k
) se sigue
que

iI

_
f
i
(x(r
k
))
r
k
_

iI

_
f
i
( x
k
)
r
k
_
.
Del mismo modo podemos denir I
0
= i I [ f
i
es constante en S(T) y deducir que para i I
0
la direccin d es de constancia para f
i
. De este modo se tiene que

i / I
0

_
f
i
(x(r
k
))
r
k
_

i / I
0

_
f
i
( x
k
)
r
k
_
.
Motivados por el Ejemplo 5.2.1, quisiramos ahora, mediante un proceso lmite, obtener informacin
del tipo (x
0
) (x

), donde es algn criterio que tendremos que denir. En la prxima seccin


presentaremos las herramientas que nos permitirn abordar esta pregunta ms adelante.
5.3. Medias Asintticas
En lo que resta del captulo, suponemos que es tal que para y ] , 0[
k
la funcin
A

(y) = lm
r0
+
r
1
_
1
k
k

i=1

_
y
i
r
_
_
est bien denida.
Ejemplo 5.3.1. Para (y) = ln(y), A

(y) =
_

k
i=1
(y
i
)

1/k
es la media geomtrica.
Para (y) =
1
y
, A

(y) =
1
1
k

k
i=1
1
y
i
es la media armnica.
Para (y) = e
y
, A

(y) = max
j=1,...,k
y
j
.
Ejercicio 5.3.1. Pruebe las armaciones del ejemplo anterior.
Observacin 5.3.1. Si z M(z) =
1
_
1
k

k
i=1
(z
i
)
_
es convexa, entonces A

y en
particular, A

est bien denida.


Proposicin 5.3.1. La funcin A

: ] , 0[
k
R es simtrica, positivamente homognea, no-
decreciente por componentes, convexa y satisface
1
k
k

i=1
y
i
A

(y) max
i=1,...,k
y
i
.
104 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
Demostracin: Todas las propiedades son fciles de demostrar salvo la convexidad. Veamos primero
que A

es cuasi-cnvexa (tiene conjuntos de nivel convexos). Para esto basta probar que la funcin
A
r
(y) = r
1
_
1
k
k

i=1

_
y
i
r
_
_
es cuasi-convexa (pues la cuasi-convexidad se preserva bajo lmite). Es directo ver que dados y
] , 0[
k
y R se tiene que
y [ A
r
(y) =
_
y

1
k
k

i=1

_
y
i
r
_

r
_
_
de donde la propiedad se sigue en virtud de la convexidad de la funcin de penalizacin . Finalmente,
la convexidad de A

se sigue del lema de ms abajo.


Lema 5.3.1 (Crouzeix). Sea : P R una funcin positivamente homognea y cuasi-convexa, con
P un cono convexo. Si (y) < 0 y P (o bien (y) > 0 y P), entonces es convexa.
Extendamos continuamente ahora la funcin A

a todo ] , 0]
k
y notemos que tal extensin
es nica y la denotamos tambin A

. En efecto, tal extensin est dada por la frmula


A

(y) = lm
0
+
A

(y 1),
donde 1 es un vector que contiene 1 en todas sus componentes. Es directo ver que A

es simtrica,
positivamente homognea, convexa, continua, no-decreciente por componentes, y satisface
1
k
k

i=1
y
i
A

(y) max
j=1,...,k
y
j
.
Ejercicio 5.3.2. Muestre que efectivamente A

es continua en ] , 0]
k
.
La siguiente propiedad muestra que es posible denir clases de equivalencias para funciones de
penalizacin que comparten funcin de media asinttica.
Proposicin 5.3.2. Sean
1
,
2
: R R + convexas, estrictamente crecientes y nitas en
] , 0]. Si se tienen las siguientes condiciones
(a) nf
1
=nf
2
;
(b) lm
u

1
2
(
1
(u))
u
= > 0;
entonces A

1
y A

2
coinciden (o ninguna de las dos existe).
Demostracin: Para cada > 1, existe r() > 0 tal que

<

1
2
(
1
(y
i
/r))
y
i
/r
< r ]0, r()[.
5.3. MEDIAS ASINTTICAS 105
Suponiendo que A

2
(y) existe, de lo anterior se sigue que
A

2
(y) = A

2
(y)
lminf
r0
+

r
lmsup
r0
+

r
A

2
(

y)
=

2
(y),
con
r
= r
1
2
(
1
k

k
i=1

1
(
y
i
r
)).
Por otro lado, se tiene que
1
k

k
i=1

1
(
y
i
r
) nf
1
= cuando r 0
+
. Adems, de (b) se sigue
que

1
2
(x)

1
1
(x)

cuando x . De estas dos observaciones deducimos que
r
1
2
(
1
k

k
i=1

1
(
y
i
r
))
r
1
1
(
1
k

k
i=1

1
(
y
i
r
))

cuando r 0
+
. En consecuencia,
lminf
r0
+

r
= lminf
r0
+
r
1
1
_
1
k
k

i=1

1
_
y
i
r
_
_
y
lmsup
r0
+

r
= lmsup
r0
+
r
1
1
_
1
k
k

i=1

1
_
y
i
r
_
_
.
De esto se deduce que
A

2
(y) lminf
r0
+
r
1
1
_
1
k
k

i=1

1
_
y
i
r
_
_
lmsup
r0
+
r
1
1
_
1
k
k

i=1

1
_
y
i
r
_
_

2
(y).
Tomando 1 se concluye que A

1
(y) existe y coincide con A

2
(y).
Finalmente, para probar la recproca basta notar que
lm
u

1
1
(
2
(u))
u
= lm
v
v

1
2
(
1
(v))
=
1

e intercambiar los roles de A

2
(y) y A

1
(y)
106 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
Corolario 5.3.1. Sea como en la proposicin anterior. Entonces
(i) Si lm
u
u(u) < 0, entonces
A

(y) =
_
1
k
k

i=1
1
y
i
_
1
.
(ii) Si lm
u
ue
(u)
< 0, entonces
A

(y) =
_

k
i=1
(y
i
)
_
1/k
.
(iii) Si lm
u
ln((u))
u
< 0, entonces
A

(y) = max
i=1,...,k
y
i
.
Ejercicio 5.3.3. Pruebe que si es adems de clase C
2
en R

, con lm
u

(u)

(u)
> 0, entonces
A

(y) = max
i=1,...,k
y
i
.
5.4. Convergencia Primal del Mtodo de Penalizacin
Adicionalmente en el resto del anlisis consideramos la hiptesis
(H
1
) u, v [, 0]
k
, max
i=1,...,k
u
i
,= max
i=1,...,k
v
j
nf
w[u,v]
A

(w) < maxA

(u), A

(v).
Denicin 5.4.1. Para cada convexo cerrado no-vaco C S(T) denimos
I
C
= i I [ f
i
no es constante en C.
Cuando I
C
,= denimos
C
: a(C) R + mediante

C
(x) =
_
A

((f
i
(x) [ i I
C
)) si x C,
+ si no.
Del mismo modo denimos v
C
=nf
C
y S
C
= arg mn
C
.
Lema 5.4.1. Consideremos C S(T) convexo cerrado no-vaco tal que S
C
,= . Entonces
(i) x C tal que f
i
( x) < 0 i I
C
.
(ii) x, y C, i / I
C
se tiene que f

i
(x y) = 0.
(iii) I
C
= si, y slo si, C tiene un solo elemento.
5.4. CONVERGENCIA PRIMAL DEL MTODO DE PENALIZACIN 107
(iv) Si v
j
v, r
j
0
+
, v ] , 0]
k
, entonces
A

(v) lminf
k+
r
k

1
_
1
k
k

i=1
(
v
j
i
r
k
)
_
.
Si v ] , 0[
k
, entonces el lmite existe y
A

(v) = lm
k+
r
k

1
_
1
k
k

i=1
(
v
j
i
r
k
)
_
.
(v) Si I
C
,= , entonces S
C
C y i I
C
< 0 tales que f
i
(x) = x S
C
.
Demostracin: (i) Dado x C, f
i
(x) 0 i I
C
. Como para cada i I
C
, f
i
no es constante en
C, existe x
i
C tal que f
i
(x) < 0 y f
j
(x
i
) 0 j I
C
i. Tomando x =
1
[I
C
[

iI
C
x
i
C se
tiene que f
i
( x) < 0 i I
C
.
(ii) Para i / I
C
y x, y C se tiene que f
i
es constante en [x, y]. Luego f
i
es tambin constante
en a(x, y) de donde se sigue que f

i
(x y) = 0.
(iii) Supongamos que I
C
= y que C no es un sngleton. Luego existen x, y C, x ,= y. De (ii)
se sigue que x y es direccin de constancia para f
i
, i I 0, y luego S(T) es no acotado, lo
cual es una contradiccin. La otra implicancia es evidente.
(iv) Sean > 0 y j sucientemente grande de modo tal que v 1 v
j
. Se tiene que
r
j

1
_
1
k
k

i=1

_
v
i

r
j
_
_
r
j

1
_
1
k
k

i=1

_
v
j
i
r
j
__
de donde deducimos que
A

(v 1) lminf
j+
r
j

1
_
1
k
k

i=1

_
v
j
i
r
j
__
.
La primera parte de la propiedad se sigue entonces de la arbitariedad de > 0.
De la misma forma se tiene que v +1 < 0 y v
j
< v +1, para y j adecuadamente escogidos.
Luego, si v < 0,
lmsup
j+
r
j

1
_
1
k
k

i=1

_
v
j
i
r
j
__
A

(v +1)
de donde se sigue la igualdad deseada.
(v) Para probar que S
C
,= C basta mostrar la existencia de i I
C
I
S
C
, es decir, basta ver que
para algn i I
C
, f
i
es constante sobre S
C
.
Se tiene que max
iI
C
f
i
es constante en S
C
. De lo contrario existiran x, y S
C
tales que
max
iI
C
f
i
(x) ,= max
iI
C
f
i
(y). Tomando z = y +(1)x se tiene que f(z) f(y) +(1)f(x)
de modo que
A

(
C
(z)) = A

((f
i
(z) [ i I
C
)) A

((f
i
(y) [ i I
C
) + (1 )(f
i
(x) [ i I
C
)).
108 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
Notemos que el argumento de A

en el trmino de la izquierda pertenece a [f(y), f(x)]. Por otro


lado, en virtud de (H
1
), se tiene que
nf
w[u,v]
A

(u) < max


C
(x),
C
(y) =nf
C
,
lo que entra en contradiccin con lo anterior.
Denamos como el valor de max
iI
C
f
i
sobre S
C
. Probemos que existe i I
C
tal que f
i
(x) =
x S
C
. Supongamos que no. Luego para cada i I
C
existe x
i
S
C
tal que f
i
(x) <
y f
j
(x
i
) j I
C
i. Tomando x =
1
[I
C
[

iI
C
x
i
se tiene que f
i
( x) < i I
C
y en
consecuencia max
iI
C
f
i
( x) < .
Corolario 5.4.1. Sea la sucesin S
0
= S(T) y S
k+1
= arg mn
S
k. Entonces S
0
S
1
S
2
. . . .
Adems, deniendo I
k
= I
S
k, se tiene que I
0
I
1
I
2
. . . . En particular, existe

k tal que
I
S

k
= y por lo tanto S

k
= x

.
A continuacin mostramos el principal resultado concerniente a la convergencia primal del m-
todo de penalizacin.
Teorema 5.4.1. Supongamos (H
0
), (H
1
). Entonces (T
r
) admite una nica solucin x(r) y se tiene
que v
r
v y x(r) x

cuando r 0
+
.
Demostracin: Sea x = lm
j+
x(r
j
) un punto de acumulacin de x(r). Luego x S
0
. Probemos
inductivamente que x S
k+1
con lo cual obtendremos que x = x

.
Supongamos que x S
k
. Luego x

j
= x
j
x + x

. Notemos que x, x

S
k
de modo que
[ x, x

] S
k
. Adems, para i / I
k
, f
i
es constante en S
k
y, en consecuencia, es tambin constante en
a( x, x

). De esto se sigue que xx

es direccin de constancia para f


i
con i / I
k
. En consecuencia,
f
i
(x(r
j
)) = f
i
(x

j
) i / I
k
. Por otro lado, de la optimalidad de x(r
j
), f
r
j
(x(r
j
)) f
r
j
(x

j
). As
1
r
j

1
_
_
1
[I
k
[

iI
k

_
f
i
(x(r
j
))
r
j
_
_
_

1
r
j

1
_
_
1
[I
k
[

iI
k

_
f
i
(x

j
)
r
j
_
_
_
.
Consideramos separadamente dos casos. Primero, si f
i
(x

) < 0 i I
k
. De la desigualdad
anterior y del Lema 5.4.1 deducimos que

S
k( x) lminf
j+
1
r
j

1
_
_
1
[I
k
[

iI
k

_
f
i
(x(r
j
))
r
j
_
_
_
lm
j
1
r
j

1
_
_
1
[I
k
[

iI
k

_
f
i
(x

j
)
r
j
_
_
_

S
k(x

)
=nf
S
k.
De este modo x S
k+1
.
5.5. CONVERGENCIA DUAL DEL MTODO DE PENALIZACIN 109
Consideremos ahora el caso en que f
i
(x

) 0 para algn i I
k
. Podemos reemplazar x

por
(1 )x

+ x, donde x S
k
es tal que f
i
( x) < 0, i S
k
(vase el lema anterior parte (i)).
Reproduciendo el anlisis previo,

S
k( x) (1 )
S
k(x

) +
S
k( x).
Tomando 0
+
, se concluye que x S
k+1
.
Ejercicio 5.4.1. Pruebe que si A

es estrictamente convexa, entonces S


1
= x

.
5.5. Convergencia Dual del Mtodo de Penalizacin
Consideremos la funcin : R
n
R
m
R + denida mediante
(x, y) =
_
f
0
(x) si f
i
(x) +y
i
0 i I,
+ si no,
la cual es una funcin de perturbacin para (T). Es fcil probar (vase Ejemplo 3.1.1 y Ejercicio
3.1.2) que en este caso el dual esta dado por
(T) mn
0
p(),
con p() =nf
xR
n f
0
(x) +

iI

i
f
i
(x). Denimos adems

r
(x, y) = f
0
(x) +r

iI

_
f
i
(x) +y
i
r
_
que resulta ser una funcin de perturbacin para (T
r
). No es difcil mostrar que

r
(0, ) = p() +r

iI

(
i
)
y, en consecuencia, el dual generado a partir de esta perturbacin es
(T
r
) mn
R
m
p() +r

iI

(
i
).
El problema (T
r
) puede tambin entenderse como un mtodo de barrera para el problema (T) ya que

() = para < 0. Notemos adems que

(0) puede ser nito o innito. Ms especcamente,

(0) es nito si, y slo si, es acotada inferiormente. Aun en este caso,

actua como una barrera


pues
t
() = (
t
)
1
() cuando 0
+
.
Ejercicio 5.5.1. Pruebe que de la convexidad estricta de se sigue la diferenciabilidad de

en
]0, +[. Muestre adems que de la diferenciabilidad de en ] , [ se sigue la convexidad estricta
de

en ]0, +[.
De todo lo anterior se deduce el siguiente resultado.
110 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
Proposicin 5.5.1. (T
r
) admite a lo ms una solucin. Si (r) es tal solucin, entonces
i
(r) >
0 i I.
Ejercicio 5.5.2. Pruebe que
r
(x, ) es nita y continua en 0 para algn x R
n
. Deduzca la
existencia de solucin para (T
r
)
Proposicin 5.5.2. (T
r
) admite una nica solucin (r). Adems, (r) > 0 y

i
(r) =
t
_
f
i
(x(r))
r
_
,
donde x(r) es la nica solucin de (T
r
).
Demostracin: Basta probar la frmula, que se obtiene de la relacin S(T
r
) = [
i
=
r
y
i
(x(r), 0).
Estudiemos ahora la convergencia de los problemas duales. Para ello haremos uso del siguiente
resultado.
Teorema 5.5.1. Sean f, g
0
(R
n
) tales que
1. arg mn f dom(g) ,= ;
2. al menos una de ellas tiene conjuntos de nivel acotados;
3. g es estrictamente convexa en su dominio;
4. g

(d) 0 d R
n
.
Supongamos que z(r) es solucin de
mn
zR
n
f(z) +rg(z).
Entonces z(r) permanece acotada y converge a z

= arg mng(z) [ z arg mn f.


Demostracin: Es directo vericar que (f +rg)

(d) > 0 y luego f +rg es una funcin inf-compacta.


En consecuencia, z(r) existe.
Adems, se tiene que el problema
mng(z) [ z arg mn f
admite una nica solucin z

.
Probemos que z(r) es acotada. De lo contrario, existira r
k
0
+
tal que |z(r
k
)| +. Sin
prdida de generalidad supongamos que d
k
:=
z(r
k
)
|z(r
k
)|
d ,= 0. Notemos que f(z(r
k
))+r
k
g(z(r
k
))
f(z

) +r
k
g(z

) f(z(r
k
)) +r
k
g(z

). Luego g(z(r
k
)) g(z

) y en consecuencia g

(d) 0. Adems
f(z(r
k
))
z(r
k
)
+r
k
g(z(r
k
))
z(r
k
)

f(z

) +r
k
g(z

)
|z(r
k
)|
,
lo cual, pasando al lmite, entra en contradiccin con 2. De este modo z(r) es acotada.
5.5. CONVERGENCIA DUAL DEL MTODO DE PENALIZACIN 111
Veamos que todos los puntos de acumulacin de z(r) coinciden con z

(que es la nica solucin


del problema de ms arriba). Sea z = lm
k+
z(r
k
) para algn r
k
0
+
. De la desigualdad
f(z(r
k
)) +r
k
g(z(r
k
)) f(z

) +r
k
g(z

) deducimos que
lminf
k+
f(z(r
k
)) +r
k
g(z(r
k
)) f(z

)
Adems, es fcil ver que g(z(r
k
)) est acotada y luego r
k
g(z(r
k
)) 0. En consecuencia, f( z) f(z

)
y z arg mn f. Como adems se tiene que
g( z) lminf
k+
g(z(r
k
)) g(z

),
deducimos nalmente que z arg mng(z) [ z arg mn f.
A continuacin presentamos el principal resultado de esta seccin.
Teorema 5.5.2. Bajo (H
0
), (H
1
), supongamos que

(0) es nito y S(T) ,= . Entonves (T


r
)
admite una nica solucin (r) que converge a

S(T) cuando r 0
+
, siendo

la nica
solucin de
mn
S(T)

iI

(
i
).
Demostracin: Veriquemos las hiptesis del teorema anterior con f() = p() +
R
m
+
() y g() =

iI

(
i
).
La primera condicin es satisfecha pues arg mn f dom(g) = S(T) [

(
i
) < = S(T) ,=
.
Para ver la segunda hiptesis distiguimos dos casos. Primero, si = 0, entonces existe un punto
de Slater para (T) y luego S(T) ,= es acotado. En consecuencia, p() +
R
m
+
() tiene conjuntos de
nivel acotados. Por otro lado, si > 0, entonces

() y (y),
con y > 0, (y) < +. Luego () si . Adems,

() = si < 0. En consecuencia,
g() tiene conjuntos de nivel acotados.
Por otro lado, como

es estrictamente convexa, g() es estrictamente convexa en ]0, [


m
.
Finalmente veriquemos la cuarta condicin del teorema anterior. Ya que g

(d) =

iI
(

(d
i
),
basta probar que (

(1) 0. Pero esto ltimo es evidente pues


(

(1) = lm
t+

(t)
t
,
y
(

(1) = lm
t+

(0 t)

(0)
t
= +.
Cuando

(0) = + falla la primera condicin del teorema salvo que (T) admita solucin

> 0. Pero esto raramente ocurre. De hecho es usual que exista i I tal que
i
= 0 para todo
S(T). En el caso de la programacin lineal
(T) mn
a
i
xb
i
,iI
c
T
x
112 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
con dual
(T) mn
c+A
T
=0,0
b
T

y esquema de penalizacin
(T
r
) mn c
T
x +r

iI

_
a
i
x b
i
r
_
,
(T
r
) mn
c+A
T
=0
b
T
+r

iI

(
i
)
se tiene el siguiente resultado que presentamos sin demostracin (vase la seccin de problemas).
Teorema 5.5.3. Bajo (H
0
), (H
1
), supongamos que

(0) = y S(T) ,= . Entonces (T


r
) admite
una nica solucin (r) que converge a

S(T) cuando r 0
+
, siendo

la nica solucin de
mn
S(T)

iI
0

(
i
),
donde I
0
= i I [ S(D),
i
> 0.
5.6. PROBLEMAS 113
5.6. Problemas
Problema 5.1. Sea I nito y para i I sean f
i
: R
n
R funciones convexas. Considere el siguiente
problema de minimizacin
(T) nf
xR
n
max
iI
f
i
(x).
(a) Pruebe que x

S(T) si, y slo si, (

, x

) R R
n
, con

= max
iI
f
i
(x

), es solucin
de
nf
(,x)RR
n
[ i I, f
i
(x) .
(b) Denamos : R
n+1
R
m
R + mediante
(, x, y) = +
m

i=1

],0]
(f
i
(x) +y
i
).
Verique que es una funcin de perturbacin para (T) y que el problema dual correspon-
diente est dado por
(T) nf
R
n
p(),
donde
p() =
_
nf
xR
n

iI

i
f
i
(x) si
m
,
+ si no,
donde, recordamos,
m
= R
m
+
[

iI

i
= 1.
(c) Suponga que nf(T) R. Pruebe que S(T) ,= y que no hay salto de dualidad. Pruebe que
x

S(T) y

S(T) si, y slo si,


m
y

i
(f
i
(x

) max
iI
f
i
(x

)) = 0.
(d) Dado r > 0, considere la funcin de penalizacin exponencial
r
: R
n+1
R
m
R denida
por

r
(, x, y) = +r

iI
exp
_
f
i
(x) +y
i

r
_
y denamos
r
(x, y) = mn
R

r
(, x, y) r. Verique que
r

0
(R
n
R
m
) y que ms aun

r
(x, y) = r ln
_

iI
exp
_
f
i
(x) +y
i
r
_
_
.
Sea F
r
(x) :=
r
(x, 0) para r > 0 y F
0
(x) := F(x) := max
iI
f
i
(x). Pruebe que para r > 0
se tiene que
F(x) < F
r
(x) F(x) +r ln(m), x R
n
.
Considere la familia parametrizada de problemas
(T
r
) nf
xR
n
F
r
(x)
y en lo que sigue suponga que S(T) = arg mn F es no-vaco y compacto.
114 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
(e) Pruebe que r > 0, mn(T) nf(T
r
) mn(T) + r ln(m) y que, ms an, el conjunto
S(T
r
) = arg mn F
r
es no-vaco y compacto.
(f) Sea > mn(T). Pruebe que si 0 < r <
1
ln(m)
( mn(T)), entonces

mn(1)+r ln(m)
(F
r
)

(F).
Deduzca que toda seleccin r x(r) S(T
r
) permanece acotada cuando r 0
+
y demuestre
que todo punto de acumulacin de x(r) pertenece a S(T).
En lo que resta suponga que f
i
Q, para todo i I.
(g) Pruebe que el problema (T
r
) admite solucin nica. Para ello demuestre que para todo i I,
f
i
es constante sobre S(T
r
).
(h) Verique que el problema dual asociado a la perturbacin
r
de (T
r
) es
(T
r
) nf
R
m
_
p() +r

iI

i
ln(
i
)
_
con la convencin 0 ln(0) = 0 y ln() = + para < 0. Pruebe que nf(T
r
) +nf(T
r
) = 0
y que (D
r
) admite solucin nica (r).
Para simplicar, supongamos adems que f
i
C
1
(R).
(i) Pruebe que

i
(r) =
exp(f
i
(x(r))/r)

iI
exp(f
i
(x(r))/r)
.
Muestre que, cuando r 0
+
, mn(T
r
) mn(T) y todo punto de acumulacin de (r)
pertenece a S(T). (Es posible demostrar que (x(r), (r)) en realidad convergen a (x

)
S(T) S(T).)
Problema 5.2. Sea f Q
0
(R
n
) (ver Denicin 5.1.1). Suponemos que existe x
0
dom(f) con
|x
0
|

1, y consideramos el problema de optimizacin


(P

) mn
xR
n
f(x) : |x|

1
junto con el esquema de aproximacin (sin restricciones)
(P
p
) mn
xR
n
_
f(x) +
1
p
|x|
p
p
_
donde |x|
p
= ([x
1
[
p
+ +[x
n
[
p
)
1/p
.
(a) Pruebe que para cada p > 1 el problema (P
p
) admite una solucin nica x(p), y que la
trayectoria p x(p) permanece acotada cuando p .
5.6. PROBLEMAS 115
(b) Sea u

un punto de acumulacin de x(p). Pruebe que u

es solucin de (P

) y adems es
solucin de
(P
1

) mn
xS(P)
|x|

.
(c) Sea
1
el valor ptimo de (P
1

). Pruebe que existe un ndice i


1
tal que [x
i
1
[ =
1
para todo
x S(P
1

). Deduzca que, o bien x


i
0
=
1
para todo x S(P
1

), o x
i
0
=
1
para todo
x S(P
1

). Denotemos por I
1
el conjunto de tales ndices i
1
y
1
(x) = (x
i
: i , I
1
). Pruebe
que todo punto de acumulacin u

es solucin de
(P
2

) mn
xS(P
1

)
|
1
(x)|

.
(d) Inspirndose en la parte (c) probar que x(p) converge cuando p hacia un punto
x

S(P

) caracterizado como la solucin de una jerarqua de problemas de optimizacin


encajonados.
Consideremos ahora un sistema lineal sobre-determinado Ay = b donde b R
m
y A M
mn
con rg(A) = n m. Sin prdida de generalidad suponemos |b|

1. Este sistema no admite


necesariamente una solucin por lo cual consideramos el problema
(Q

) mn
yR
n
|Ay b|

el cual aproximamos mediante el esquema


(Q
p
) mn
yR
n
|Ay b|
p
.
Mostrar que este ltimo admite una nica solucin y(p) la cual converge hacia una solucin y


S(Q

). Indicacin: Considere el conjunto L = Ay b : y R


n
y la funcin
f(x) :=
_
0 si x L
+ si no.
Problema 5.3. Sean f
0
, . . . , f
m
: R
n
R convexas y consideremos el esquema de aproximacin
(P

) mn
xR
n
f

(x) := f
0
(x) +f
1
(x) + +
m
f
m
(x)
denido para > 0, junto con la jerarqua de problemas de optimizacin
(P
0
) mnf
0
(x) : x R
n

(P
1
) mnf
1
(x) : x S
0

.
.
.
(P
m
) mnf
m
(x) : x S
m1

donde S
i
denota el conjunto de soluciones ptimas del problema (P
i
). Suponemos S
m
,= y f
i
convexas de clase C
2
tales que max
i
d
T

2
f
i
(x)d |d|
2
para una cierta constante > 0 y todos
x, d R
n
.
116 CAPTULO 5. PENALIZACIN EN OPTIMIZACIN CONVEXA
(a) Muestre que f

() es fuertemente convexa y (P

) admite una solucin nica x().


(b) Pruebe que x() permanece acotada cuando 0. Indicacin: razone por contradiccin
suponiendo que existe
k
0 con |x(
k
)| y d
k
:= x(
k
)/|x(
k
)| d. Muestre que
f

0
(d) 0 y f

1
(d) 0. Luego, utilice la desigualdad f

(x()) f

(x() |x()|d) para


probar recursivamente que f

i
(d) 0 para i = 2, . . . , m. Concluya.
(c) Muestre que todo punto de acumulacin de x() pertenece a S
0
y a S
1
.
(d) Muestre que S
m
contiene un nico elemento, que denotamos x

.
(e) Suponiendo que f
0
, . . . , f
m
Q pruebe que lm
0
x() = x

.
Problema 5.4. El objetivo de este problema es demostrar el Teorema 5.5.3 en el caso = 0.
(a) Muestre que (r) est acotada. Para ello argumente por contradiccin deduciendo la existencia
de R
m
tal que
0, A
T
= 0, b
T
0.
(b) Pruebe que todo punto de acumulacin de (r) pertenece a S(T).
(c) Concluya.
Apndice A
Resolucin de algunos problemas
A.1. Introduccin al Anlisis Variacional
Problema 1.3
(a) Consideremos el conjunto
B =
_
n

i=1

i
v
i

n N, v
i
A,
i
0,
n

i=1

i
= 1
_
.
Es fcil ver que B es un conjunto convexo y que A B, luego co(A) B. Sea ahora C un
convexo cualquiera que contiene a A y sea x B. Luego, como A C y C es convexo entonces
x C, esto es directo pues sabemos que x =

i
x
i
con x
i
A,
i
0 y

i
= 1. Luego
B C para cualquier convexo que contiene a A y por lo tanto B co(A).
(b) Sea x co(A), luego, sin prdida de generalidad x =

k
i=1

i
x
i
con x
i
A,
i
> 0 y

k
i=1

i
= 1. Supongamos que k > n + 1, dado que la dimensin del espacio es n, cualquier
familiar de l > n vectores ser linealmente dependiente, en particular podemos considerar
l = k 1 y los siguiente k 1 vectores:
x
2
x
1
, ..., x
k
x
1
.
Por lo tanto, existen
2
, ...,
k
R no todos nulos tales que

k
i=2

i
(x
i
x
1
) = 0. Denamos

1
=

k
i=2

i
, con esto tenemos que

k
i=1

i
x
i
= 0 y

k
i=1

i
= 0. En particular, para todo
R se tiene que x =

k
i=i
(
i

i
)x
i
. Ahora, dado que los
i
suman cero pero no son
todo nulos, al menos uno de ellos debe ser positivo. Escojamos de la siguiente manera:
= mn
_

i
:
i
> 0
_
.
Denotaremos por I el ndice donde se alcanza el mnimo. Luego es directo que
i

i
0
para todo i y en particular,
I

I
= 0. Finalmente, x =

k1
i=i
(
i

i
)x
i
con
i

i
0,
es decir, x se puede escribir como combinacin convexa de k 1 trminos. Luego, repitiendo
el mismo argumento k (n + 1) veces obtenemos el resultado pedido.
117
118 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
(c) Sean x, y C y [0, 1], por lo tanto existen x
n
, y
n
C tales que x
n
x e y
n
y.
Ms an, como C es convexo x
n
+ (1 )y
n
C y x
n
+ (1 )y
n
x + (1 )y. Sigue
que x + (1 )y C, de donde se deduce que C es convexo.
Consideremos el siguiente conjunto,
B =

C [ C es un convexo cerrado, A C.
Como co(A) es convexo, cerrado y contiene a A, sigue que B co(A). Por otra parte
co(A) =

C [ C es un convexo, A C

C [ C es un convexo, A C

C [ C es un convexo cerrado, A C.
Por lo tanto co(A) B, de donde se concluye lo pedido.
(d) Sea x co(A), luego existen x
i
A,
i
> 0 y

k
i=1

i
= 1, tales que x =

k
i=1

i
x
i
. Como A
es abierto, entonces existen vecindades U
i
A
x
i
tales que U
i
A. Sea U =
1
U
1
+... +
k
U
k
.
Finalmente, como co(A) es convexo y U
i
A entonces U co(A), adems es claro que U es
una vecindad de x, por lo tanto co(A) es abierto.
Por otra parte, supongamos que C es convexo. Tomemos x, y int(C) y [0, 1], luego existen
vecindades U A
x
y V A
y
tales que U, V C. Luego sigue que W = U + (1 )V C,
por convexidad. Como W es una vecindad de x + (1 )y se concluye el resultado.
(e) Consideremos = s R
n
:

s
i
= 1, s
i
0 y A = A
1
... A
2
. Luego tenemos que
A es compacto. Consideremos la funcin f : A X denida por
f(s, a) =
n

i=1
s
i
a
i
.
Como X es un e.v.t. tenemos que f es continua y por lo tanto f( A) es compacto. Por
otra parte, es fcil ver que A
i
f(A) para todo i = 1...n, luego A
1
A
n
f(A).
Adems, no es difcil ver que f(A) es convexo, por lo tanto, tomando envoltura convexa
en la ltima inclusin obtenemos que
co(A
1
A
n
) f(A).
Finalmente, por denicin se tiene que f(A) co(A
1
A
n
). Luego co(A
1
A
n
)
es compacto.
(f) Supongamos que A es totalmente acotado, luego para > 0 existen x
1
, ..., x
n
tales que
A B(x
1
, ) ... B(x
n
, ) = x
1
, ..., x
n
+B(0, ) co(x
1
, ..., x
n
) +B(0, ),
como B(0, ) es convexo se tiene que
co(A) co(x
1
, ..., x
n
) +B(0, ).
A.1. INTRODUCCIN AL ANLISIS VARIACIONAL 119
Notemos que, por la parte anterior, co(x
1
, ..., x
n
) es compacto, luego es totalmente acotado,
y por lo tanto existen y
1
, ...., y
m
co(x
1
, ..., x
n
) co(A) tales que
co(x
1
, ..., x
n
) y
1
, ..., y
m
+B(0, ).
Finalmente, obtenemos
co(A) y
1
, ..., y
m
+B(0, 2),
de donde se tiene que co(A) es totalmente acotado.
Supongamos que V es un espacio de Banach, luego ser totalmente acotado es equivalente a
ser pre-compacto. Por lo tanto si A K, con K compacto, entonces A es totalmente acotado
y por lo tanto co(A) tambin lo es. Finalmente, como co(A) es totalmente acotado, entonces
co(A) es compacto pues co(A) es pre-compacto.
Problema 1.4
(a) Directo.
(b) Notemos que por la propiedad (i), c < +. Supongamos que c > , si no, por la parte
anterior la igualdad es directa. Sea A
y
A como en el enunciado, por (i) se tiene que A
y
es
cerrado, luego por la compacidad de A si la familia A
y
satisface la P.I.F. (propiedad de la
interseccin nita) entonces

yB
A
y
,= . Luego existira x A
y
para todo y B, es decir,
c ( x, y), para todo y B. Entonces, tomando nmo sobre los y B obtendramos el
resultado buscado, pues
c = nf
yB
sup
xA
(x, y) nf
yB
( x, y) sup
xA
nf
yB
(x, y).
(c) Sea f como en el enunciado. Notemos que f(A) es no vaco, veamos que f(A) es convexo y
compacto, y que adems f(A) R
n
+
= , con esto la existencia de y La compacidad de
f(A) viene de la compacidad de A y de la continuidad de (, y). Para probar la convexidad,
denamos (x) = ((x, y
1
), ..., (x, y
n
)) y consideremos x
1
, x
2
A y [0, 1], luego
f(x
1
) + (1 )f(x
2
) = (x
1
) + (1 )(x
2
) 1c,
pero por (ii.a), se tiene que (x
1
) + (1 )(x
2
) = (x
1
+ (1 )x
2
). Luego por la
convexidad de A se tiene que f(x
1
) + (1 )f(x
2
) f(A). Por otra parte, no existe x A
tal que f(x) 0, pues si no
n

i=1
A
y
i
,= . Entonces, por Hanh-Banach, existe R
n
0 y
R tal que
() , u < , v u f(A), v R
n
+
Luego evaluando () en v = 0 tenemos que 0, por lo que podemos suponer que = 0,
adems, evaluando () en v = e
i
, los vectores cannicos de R
n
, tenemos que
i
0. Por lo
tanto, sin perdida de generalidad podemos suponer que

i
= 1. Ahora sea u f(A), luego
existe x A tal que u = f(x), entonces
, u = , (x) , 1c =
n

i=1

i
(x, y
i
) c =
_
x,
n

i=1

i
y
i
_
c,
120 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
donde la ltima igualdad es cierta por (ii.b). Denamos y =

i
y
i
, luego tenemos que , u =
(x, y) c y por () se tiene que (x, y) < c. Finalmente, tomando supremo en x A
obtenemos que
c = nf
yB
sup
xA
(x, y) sup
xA
(x, y) < c.
Lo que es una contradiccin, por lo tanto la familia A
y
tiene la P.I.F.
Problema 1.5
(a) Sea y / C

, luego existe d C

0 tal que d, y > 0. Por denicin del cono de recesin,


existen t
k
R
+
y x
k
C tales
1
t
k
x
k
d y t
k
+,
luego
x
k
, y = t
k

1
t
k
x
k
, y +.
Por lo tanto y / dom
C
.
(b) Sea y / dom
C
. Luego existe x
k
C tal que x
k
, y +. Sea d
k
=
x
k
|x
k
|
, sin perdida de
generalidad podemos suponer que d
k
d ,= 0, ms an, por denicin, d C

adems para
k sucientemente grande se tiene que
1
|x
k
|
x
k
, y 0. Por lo tanto, para todo > 0 tenemos
que
d, y +d |d|
2
> 0,
de donde se concluye que y +d / C

, es decir, y / int(C

).
(c) Notemos que si A B entonces B

. Adems, es fcil vericar que C

. Luego
por la parte (a) se tiene que
dom
C
C

= C

(dom
C
)

.
Para la otra inclusn consideremos d (dom
C
)

, t > 0 y x C. Como td (dom


C
)

,
tenemos que para cualquier y dom
C
se tiene
x +td, y x, y
C
(y).
Por otra parte, si y / dom
C
el lado derecho es innito, por lo que la desigualdad sigue siendo
cierta. Luego, x + td C para todo t > 0, en efecto, como C es convexo, por el Teorema de
Hanh-Banach existe z R
n
0 y R tales que
x +td, z > y, z y C,
tomando supremo sobre los y C obtenemos una contradiccin. Finalmente, usando las
propiedades elementales del cono de recesin concluimos el resultado pedido.
A.1. INTRODUCCIN AL ANLISIS VARIACIONAL 121
Problema 1.6
(a) Consideremos la funcin f(x) := d(x, (x)). Es fcil ver que f es continua e inferiormente
acotada por 0. Luego por el PVE con (0, 1 k) y = 1 existe x X tal que
f( x) f(x) +d( x, x) x X.
Supongamos que ( x) ,= x, luego como es una contraccin direccional, existe z ,= x con
z [ x, ( x)], esto implica que
d( x, z) +d(z, ( x)) = d( x, ( x)) = f( x),
luego,
d( x, z) = f( x) d(z, ( x))
f(z) +d( x, z) d(z, ( x))
= d(z, (z)) +d( x, z) d(z, ( x))
d(z, ( x)) +d(( x), (z)) +d( x, z) d(z, ( x))
kd( x, z) +d( x, z)
= (k +)d( x, z),
lo que es una contradiccin, por lo tanto ( x) = x.
(b) Consideremos el espacio XX dotado de la mtrica ((x
1
, y
1
)(x
2
, y
2
)) = d(x
1
, x
2
)+d(y
1
, y
2
).
Es claro que (X X, ) es un espacio mtrico completo. Tomemos (0,
1
2
) y consideremos
la funcin g : X X R + dada por
g(x, y) = f(x) (1 )d(x, y) +
Gr(F)
(x, y) (x, y) X X.
Ahora, como f es s.c.i. y Gr(F) es cerrado tenemos que g es s.c.i., ms an, g es inferiormente
acotada por nf f, en efecto, sean (x, y) Gr(F)
g(x, y) = f(x) (1 )d(x, y) +
Gr(F)
(x, y)
= f(x) (1 )d(x, y)
f(y) +d(x, y)
nf f.
Adems es claro que g es propia pues f lo es, luego por PVE existe ( x, y) Gr(F) tal que
g( x, y) g(x, y) +((x, y), ( x, y)) (x, y) X X.
Sean (x, y) X X, luego re-escribiendo la desigualdad anterior tenemos
f( x) (1 )d( x, y) f(x) (1 )d(x, y) +[d( x, x) +d( y, y)].
Sea z F( y) y tomemos (x, y) = ( y, z), luego obtenemos
f( x) (1 )d( x, y) f( y) (1 )d( y, z) +[d( x, y) +d( y, z)],
sigue que
f( x) +d( x, y) f( y) (1 2)d( y, z),
usando la condicin de crecimiento de f, se obtiene que (1 2)d( y, z) 0, por lo que
necesariamente z = y. Luego y es un punto jo de F.
122 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
A.2. Fundamentos de Anlisis Convexo
Problema 2.2
Probaremos: (a) (b) y (b) (c)
(a) (b) Supongamos que f es coerciva y que la armacin no es cierta. Recordemos que
lminf
|x|+
f(x)
|x|
= lm
r+
nf
|x|r
f(x)
|x|
= sup
r>0
nf
|x|r
f(x)
|x|
entonces para cualquier r 0 se tiene que nf
_
f(x)
|x|
: |x| r
_
0. Luego podemos tomar
una sucesin x
k
X tal que
|x
k
|
k
+ y
f(x
k
)
|x
k
|

1
k
. Sea x domf y consideremos
y
k
= x +
k
|x
k
|
(x
k
x) domf para k sucientemente grande tal que
k
|x
k
|
< 1. Sigue que
|y
k
x| k
k
|x
k
|
|x| +.
En particular, y
k
no es acotada, pero por convexidad se tiene que
f(y
k
) (1
k
|x
k
|
)
. .
1
f(x) +
k
|x
k
|
f(x
k
)
. .
1
f(x) + 1 =: < +,
es decir, y
k

(f), lo que es una contradiccin, pues f es coerciva.


(a) (b) Supongamos que lminf
|x|+
f(x)
|x|
> 0. Sea r, > 0 tales que si |x| > r entonces f(x) |x|.
Tomemos R, luego es claro que si x

(f) entonces |x| maxr,


, lo que implica
que f es coerciva.
(b) (c) Notemos que si L = lminf
|x|+
f(x)
|x|
> 0 entonces para cualquier (0, L) existe r
0
> 0 tal que
nf
_
f(x)
|x|
: |x| r
0
_
L > 0. Adems, como f es inferiormente acotada en B(0, r
0
) se
tiene que, podemos escoger > 0 tal que nff(x) : |x| r
0
(L)r
0
. Luego (b) es
equivalente a decir que existen , > 0 tales que para todo x X se tiene f(x) |x| .
Por otra parte, si suponemos (b) entonces
f

(x

) = sup
xX
x

, x f(x) sup
xX
x

, x |x| + =
B(0,)
(x

) +.
Luego, f

es uniformemente acotada en una vecindad del origen, entonces 0 int(domf

).
Notemos que como f


0
(X

) tambin se tiene la continuidad en el origen.


Recprocamente, si 0 int(domf

) entonces f

es continua en el origen y por lo tanto


uniformemente acotada en una vecindad de ste. Por lo tanto, existe , > 0 tales que
f

(x

)
B(0,)
(x

) +. Esto implica que


f(x) = f

(x) = sup
x

, x f

(x

) sup
|x

|
x

, x = |x| .
Por lo tanto las tres armaciones son equivalentes.
A.2. FUNDAMENTOS DE ANLISIS CONVEXO 123
Ahora bien, supongamos que f es coerciva, luego por el Teorema de Moreau se tiene que 0
int(domf

) y por lo tanto existe una vecindad V del origen donde f

es continua. Sea x

0
V y
denamos f
0
(x) = f(x) x

0
, x. Por las reglas de caculo de la conjugada de Fenchel se tiene que
f

0
(x

) = f

(x

+ x

0
). Adems, como f

es continua en x

0
se tiene que f

0
es continua en el origen
y por lo tanto 0 int(domf

). Nuevamente, por el Teorema de Moreau, se tiene que f


0
coerciva y
por lo tanto el problema mnf
0
(x) : x X tiene solucin, lo que implica que existe x
0
X tal
que
nf
xX
f(x) x

0
, x = f(x
0
) x

0
, x
0
,
pero f

(x

0
) =nf
xX
f(x) x

0
, x. Luego
f

(x

0
) +f(x
0
) = x

0
, x
0
,
de donde se tiene que x

0
f(x
0
)

xX
f(x). Finalmente, V

xX
f(x)
Problema 2.4
(a) Sea B =
1
n
tr(A)I
n
, notemos que |B|
2
=
1
n
2
tr(A)
2
|I
n
|
2
=
1
n
tr(A)
2
, pues |I
n
|
2
= n. Adems,
notemos f se puede escribir de una manera ms simple:
f(A) =
1
n
_
|A|
2

1
n
tr(A)
2
_
=
1
n
_
|A|
2

2
n
tr(A)
2
+
1
n
tr(A)
2
_
=
1
n
_
|A|
2
2
_
A,
1
n
tr(A)I
n
_
+
1
n
tr(A)
2
_
=
1
n
_
|A|
2
2 A, B +|B|
2

=
1
n
|AB|
2
.
Consideremos la aplicacin A A
1
n
tr(A)I
n
, es sencillo ver que esta aplicacin es lineal.
Ms an, como la funcin U
1
n
|U|
2
es convexa (y diferenciable), se tiene que f tambin es
convexa (y diferenciable).
(b) Sea S o
n
y consideremos la funcin
S
(A) := S, A f(A), luego es cncava y diferen-
ciable, luego alcanza un mximo en A o
n
si y slo la
S
(A) = 0. Calculando obtenemos
que
()
S
(A) = S
2
n
(A
1
n
tr(A)I
n
) = 0
Supongamos que
S
alcanza su mximo en A, luego A satisface la ecuacin () y tomando traza
en esta ecuacin se obtiene que tr(S) = 0. Supongamos ahora que tr(S) ,= 0 y consideremos
A
k
= k tr(S)I
n
, entonces se tiene que
S
(A
k
) = k tr(S)
2
+, si k +, sigue que
f

(S) = +. Por lo tanto, domf

es como en el enunciado.
Finalmente, es fcil ver que si S o
n
y tr(S) = 0, en particular, A =
n
2
S resuelve la ecuacin
() y por lo tanto
f

(S) =
n
2
tr(S
2
) f(
n
2
S) =
n
4
tr(S
2
)
124 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Problema 2.6
(a) Probaremos: (1) (2) y (2) (3)
(1) (2) Supongamos que f es fuertemente convexa. Sea x, y R
n
y (0, 1). Luego re-
escribiendo la desigualdad de la denicin obtenemos
1
2
(1 )|x y|
2
+f(x + (1 )(y x)) f(x) (1 )(f(y) f(x)),
dividiendo por (1 ) y haciendo 1 obtenemos que
() f(x) +
1
2
|x y|
2
+f
t
(x; y x) f(y).
Por otra parte, como f es continua, se tiene que para todo x, d R
n
x

, d f
t
(x; d) x

f(x).
Tomando d = y x y reemplazando en (), obtenemos el resultado.
(1) (2) Supongamos que para todo x

f(x), y R
n
() f(x) +x

, y x +

2
|y x|
2
f(y).
Sean u, v R
n
y (0, 1). Tomando en (), x = u +(1 )v, y = v, obtenemos que
(A.1) f(u + (1 )v) +x

, v u +

2
2
|v u|
2
f(v).
Haciendo lo mismo pero con y = u obtenemos
(A.2) f(u + (1 )v) (1 ) x

, v u +
(1 )
2
2
|v u|
2
f(u).
Finalmente, notando que (1)
2
+(1)
2
= (1) y calculando (1)(A.1)+(A.2)
obtenemos que f es fuertemente convexa.
(2) (3) Sean x, y R
n
, luego sabemos que
f(x) +x

, y x +

2
|y x|
2
f(y), x

f(x).
Intercambiando x por y obtenemos
f(y) +y

, x y +

2
|y x|
2
f(x), y

f(y).
El resultado viene de sumar estas dos expresiones.
A.2. FUNDAMENTOS DE ANLISIS CONVEXO 125
(2) (3) Sean x, y R
n
y (0, 1). Consideremos la funcin () = f(x + (y x)), es claro
que es convexa y nita, por lo tanto es subdiferenciable y su derivada direccional est
bien denida, ms an,

t
(; 1) =nf
t>0
_
f(x + ( +t)(y x)) f(x +(y x))
t
_
=nf
t>0
_
f(x +(y x) +t(y x)) f(x +(y x))
t
_
= f
t
(x +(y x); y x)
z

, y x, z

f(x +(y x)) = (1 )f(x) +f(y)


x

, y x +y

, y x, x

f(x), y

f(y)
x

, y x +|x y|
2
, x

f(x).
Finalmente, tenemos que
f(x) f(y) = (1) (0)

_
1
0

t
(; 1)d

_
1
0
[x

, y x +|x y|
2
]d, x

f(x)
= x

, y x +

2
|x y|
2
, x

f(x).
(b) Supongamos que f es fuertemente convexa, luego como f es nita se tiene que f es continua
y por lo tanto domf = R
n
. Sea x R
n
y tomemos x

f(x). Reemplacemos en (a.2) con


y = x +td, t > 0 y d R
n
0, luego
f(x +td) f(x) +tx

, d +

2
t
2
|d|.
Esto implica que f

(d) = +, para todo d R


n
0. En particular, f es coercitiva y por
el Teorema de Moreau (ejercicio 2.2) se tiene que int(domf

) ,= . Ahora bien, notemos que


126 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
f

=
domf
, en efecto, como f = f

se tiene que
f
t

(d) = sup
t>0
_
f(x +td) f(x)
t
_
x R
n
= sup
xR
n
sup
t>0
_
f(x +td) f(x)
t
_
= sup
xR
n
sup
t>0
_
f

(x +td) f(x)
t
_
= sup
xR
n
sup
t>0
sup
x

domf

_
x +td, x

(x

) f(x)
t
_
= sup
x

domf

sup
t>0
sup
xR
n
_
d, x

+
x, x

(x

) f(x)
t
_
= sup
x

domf

sup
t>0
_
d, x

+
sup
xR
nx, x

f(x) f

(x

)
t
_
= sup
x

domf

d, x

Luego
domf
(d) = +, para todo d R
n
0. Sigue que domf

debe ser denso en R


n
.
Notemos que en un e.v.n. un convexo cualquiera K de interior no vaco satisface que int(K) =
int(K), por lo tanto domf

= R
n
.
Sea x R
n
luego existe x

f(x), y por la frmula de reciprocidad se tiene que x f

(x

).
Luego para ver la diferenciabilidad de f

basta ver que f

(x

) es un singletn, lo que es directo


de (a.3). Finalmente, usando (a.3) una vez ms se obtiene que f

es
1

Lipschitz.
Por otra parte, asumamos que domf

= R
n
, que f

es diferenciable y que f

es Lipschitz
de constante
1

y consideremos la funcin diferenciable (t) := f

(u +t(v u)), luego

t
(t) = f

(u +t(v u)), v u,
pero como f

es Lipschitz de constante
1

se tiene que

t
(t)
t
(0) = f

(u +t(v u)) f

(u), v u

[t[

|v u|
2
,
por lo tanto
f

(v) f

(u) = (1) (0)


=
_
1
0

t
(t)dt

_
1
0
[
t
(0) +
t

|v u|
2
]dt
= f

(u), v u +
1
2
|v u|
2
.
A.2. FUNDAMENTOS DE ANLISIS CONVEXO 127
Notemos que la desigualdad anterior es vlida para cualquier u, v domf

= R
n
, y por lo
tanto, jando y int(domf) podemos tomar u f(y) y se tiene que f

(u) = y, u f(y),
sigue que
f(x) = sup
vR
n
x, v f

(v)
sup
vR
n
x, v f

(u) f

(u), v u
1
2
|v u|
2

= sup
vR
n
x, v y, u +f(y) f

(u), v u
1
2
|v u|
2

= f(y) + sup
vR
n
x f

(u), v +f

(u) y, u
1
2
|v u|
2
,
pero como u f(y) se tiene que y f

(u) y dado que f

es diferenciable se tiene que


f

(u) = f

(u) y por lo tanto f

(u) y, u = 0. Esto ltimo implica que


f(x) = f(y) + sup
vR
n
x y, v
1
2
|v u|
2
.
Es fcil ver que en v = u +(x y) se alcanza el supremo de la ltima desigualdad, luego se
tiene que
f(x) f(y) +u, x y +

2
|x y|
2
, u f(y).
Problema 2.8
(a) Asumamos que f es un sngleton en su dominio y que existe un convexo de ran f donde f

no es estrictamente convexa. Luego, existen x

,= y

, [x

, y

] ran f y (0, 1) tales que


f(z

) = f

(x

) + (1 )f

(y

),
con z

= x

+ (1 )y

. Como z

[x

, y

] ran f se tiene que existe z X tal que


z

f(z), es decir, f

(z

) +f(z) = z

, z, pero
0 = f

(z

) +f(z) z

, z = [f

(x

) +f(z) x

, z
. .
0
] + (1 )[f

(y

) +f(z) y

, z
. .
0
],
sto permite deducir, dado que (0, 1), que f

(x

)+f(z) = x

, z y f

(y

)+f(z) = y

, z,
es decir x

, y

f(z), lo que es imposible. Por lo tanto, f

es estrictamente convexa en
subconjuntos convexo de ran f.
Por otra parte, asumamos que f

es estrictamente convexa en subconjuntos convexo de ran f.


Sean x

1
, x

2
f(x) para algn x domf. Luego, por la igualdad de Fenchel sabemos que
f

(x

i
) +f(x) = x

i
, x, i = 1, 2. Sea [0, 1], luego
f(x) +f

(x

1
) + (1 )f

(x

2
) = x

1
+ (1 )x

2
, x
f(x) +f

(x

1
+ (1 )x

2
)
f(x) +f

(x

1
) + (1 )f

(x

2
).
128 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Por lo tanto, todas las desigualdades anteriores son en realidad igualdades, sigue que
f

(x

1
+ (1 )x

2
) = f

(x

1
) + (1 )f

(x

2
), [0, 1]
y dado que f

es estrictamente convexa, necesariamente x

1
= x

2
.
La conclusin es directa, basta notar que f no es esencialmente por vacuidad ya que int(domf)
domf y que ran f = domf

.
(b) Dado que f es esencialmente suave, por la parte anterior f

es esencialmente convexa estricta.


Adems, dado que int(domf

) int(domg

) ,= es fcil ver que f2g


0
(X), luego por
ejercicio 2.5 se tiene que
f2g = (f

+g

,
Adems, por el Teorema de Moreau-Rockafellar tenemos que
(f

+g

)(x

) = f

(x

) +g

(x

) x

.
Esto ltimo implica que
dom(f

+g

) domf

.
luego como f

es esencialmente convexa estricta, f

+ g

tambin lo es. Finalmente, por la


parte (a) se tiene que (f

+g

es esencialmente suave, de donde se concluye.


(c) Notemos que dado que f es esencialmente suave, f(x) es un sngleton para todo x domf,
y dado que int(domf) domf se tiene que f es diferenciable en int(domf). Sea x
n

int(domf) tal que x
n
x domf y supongamos que f(x
n
) es acotada. Luego, por
el Teorema de Banach-Alaoglu, podemos suponer (pasando a una subsucesin) que existe
x

tal que f(x


n
)

x

. Por otra parte, por denicin tenemos que


f(x
n
) +f(x
n
), y x
n
f(y) y X.
Finalmente, haciendo n en esta ltima desigualdad y, usando la s.c.i de f y un argumento
de convergencia dbil-fuerte, tenemos que
f(x) +x

, y x f(y) y X,
es decir, x

f(x), pero dado que int(domf) ,= y x domf int(domf) se tiene que


f(x) es no acotado (ver problema 2.12), lo que contradice el hecho que f(x) sea un sngleton.
Problema 2.9
(a) Notemos que dist
C
(x) = (| |2
C
)(x) y como la funcin distancia es continua (de hecho
Lipschitz), tenemos que
dist
C
(x) = dist

C
(x) = (| |2
C
)

(x) = (| |

C
)

(x).
No es difcil ver que | |

(x

) =
B
(x

) con B

la bola unitaria en X

y que

C
(x

) =
C
(x

).
Luego,
dist
C
(x) = sup
x

x, x

B
(x

)
C
(x

) = sup
x

x, x

C
(x

) = sup
x

nf
yC
xy, x

.
A.2. FUNDAMENTOS DE ANLISIS CONVEXO 129
Notemos que el supremo es alcanzado, pues si consideramos (x

) = nf
yC
x y, x

, es
fcil ver que es s.c.i. para la topologa fuerte, luego como es tambin convexa se tiene
que es s.c.i. para la topologa dbil y como B

es compacto dbil (pues estamos en un


Hilbert), se concluye que el supremo es en realidad un mximo.
(b) Sea x / C luego sabemos que existe x C tal que dist
C
(x) = |x x|, tal elemento es
la proyeccin de x sobre X y usualmente es denotado por Proy
C
(x). En este caso, como C
es cerrado se tiene que x ,= Proy
C
(x). Ahora, como la inf-convolucin que dene la funcin
distancia es exacta se tiene que (ver problema 2.5),
dist
C
(x) = | |(x Proy
C
(x))
C
(Proy
C
(x)).
Como x ,= Proy
C
(x) se tiene que | | es diferenciable en x Proy
C
(x) pues X es un espacio
de Hilbert, y adems, su gradiente viene dado por
| |(x Proy
C
(x)) =
x Proy
C
(x)
|x Proy
C
(x)|
.
Calculemos ahora
C
(Proy
C
(x), por denicin se tiene que
x


C
(Proy
C
(x)) y Proy
C
(x), x

+
C
(Proy
C
(x))
C
(y), y X
y Proy
C
(x), x

0, y C.
x

N
C
(Proy
C
(x)).
Luego, si x / C entonces
dist
C
(x) =
_
x x
|x x|
_
,
donde x es la unica solucin de la desigualdad variacional
y x, x x 0, y C.
Por otro lado, si x C, de todas formas tenemos que la inf-convolucin que dene la funcin
distancia es exacta, pero ahora dist
C
(x) = |0| +
C
(x) = 0 y por lo tanto
dist
C
(x) = | |(0)
C
(x).
Calculemos | |(0). Notemos que como | | es nita y continua en 0 se tiene que este
subdiferencial en no vaco. Sigue que
x

| |(0) y 0, x

+|0| |y|, y X
y, x

+ |y|, y X
|x

| 1
x

.
Por lo tanto, en este caso se tiene que
dist
C
(x) = N
C
(x) B

.
130 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Problema 2.12
(a) Consideremos f como en la indicacin. Primero notemos que f es supremo de funciones lineales
anes, luego f es convexa y s.c.i., y adems f > .
Veamos que domT domf. Sea ( x, x

) Gr(T), tomemos k N, (x
i
, x

i
)
k
i=1
Gr(T),
jemos n = k + 1 y (x
n
, x

n
) = ( x, x

). Dado que T es ciclcamente montono, sigue que


k1

i=0
x
i+1
x
i
, x

i
+ x x
k
, x

k
x x
0
, x

,
tomando supremo se obtiene que f(x) x x
0
, x

por lo tanto x domf. En particular,


f(x
0
) 0. Adems, tomando n = 1 y (x
1
, x

1
) = (x
0
, x

0
) se tiene que f(x
0
) 0.
Mostremos ahora que si ( x, x

) Gr(T) entonces x

f( x). Sea x X y tomemos <


f( x) +x x, x

. Luego, existe k N y (x
i
, x

i
)
k
i=0
Gr(T) tales que
x x, x

< x x
k
, x

k
+
k1

i=0
x
i+1
x
i
, x

i
.
Tomemos n = k + 1 y (x
n
, x

n
) = ( x, x

), sigue que
< x x
n
, x

n
+
n1

i=0
x
i+1
x
i
, x

i
f(x).
Haciendo f( x)+x x, x

se concluye Gr(T) Gr(f). Finalmente, dado que f


0
(X)
se tiene que f es un operador maximal montono, luego como T tambin lo es se concluye
que f = T.
(b) Sea x domT, y sea z

N
domT
(x), luego z

, y x 0, para todo y domT. Tomemos


x

T(x) y t 0, sigue que y domT, y

T(y)
() (x

+tz

) y

, x y = x

, x y +tz

, x y 0.
Como T es maximal montono, necesariamente x

+ tz

T(x), y como esto es cierto para


todo t 0, concluimos que z

T(x)

.
Recprocamente, sea z

(T(x))

, y domT, y

T(y) y t 0. Podemos reescribir


nuevamente () y haciendo t se obtiene que z

, xy 0 y por lo tanto z

N
domT
(x).
(a) Basta notar que por la observacin 2.4.2 tenemos que f es un operador maximal mo-
ntono. Adems por el Teorema de Brondsted-Rockafellar se tiene que domf = domf,
luego N
domf
(x) = N
domf
(x) para todo x domf. El resultado se obtiene al aplicar
lo anteriormente demostrado.
(b) Sea x domf int(domf), luego por el Teorema de Hanh-Banach, existe z

X 0
tal que
z

, x z

, y, y domf.
Por lo tanto, se tiene que z

N
domf
(x) y por (a) se tiene que (f(x))

,= y por lo
tanto f(x)) es no acotado.
A.2. FUNDAMENTOS DE ANLISIS CONVEXO 131
Problema 2.14
(a) Es claro que la funcin (t, x, y) f(xy) es convexa, pues f lo es. Luego, para ver la convexi-
dad de basta ver la convexidad de la funcin h(t, x, y) = t
_
y
t
_
. Sean (t
1
, x
1
, y
1
), (t
2
, x
2
, y
2
)
(0, ) R
n
R
n
y [0, 1], sigue que
h((t
1
, x
1
, y
1
) + (1 )(t
2
, x
2
, y
2
)) = (t
1
+ (1 )t
2
)
_
y
1
+ (1 )y
2
t
1
+ (1 )t
2
_
= (t
1
+ (1 )t
2
)
_
t
1
t
1
+ (1 )t
2
1
t
1
y
1
+
(1 )t
2
t
1
+ (1 )t
2
1
t
2
y
2
_
t
1

_
1
t
1
y
1
_
+ (1 )t
2

_
1
t
2
y
2
_
= h(t
1
, x
1
, y
1
) + (1 )h(t
2
, x
2
, y
2
).
Luego es convexa y como u es una funcin marginal de se concluye que u es convexa en si
t > 0. Notemos que por la condicin de creciemiento de , para x R
n
jo se tiene que u(, x)
es continua en [0, ], por lo que se puede concluir la convexidad de u para todo t R. Por
otra parte, como es nita y f es propia se tiene que u tambin en nita, lo que tiene como
consecuencia la continuidad de u en todo [0, ] R
n
.
(b) Es claro que para (t, x) [0, ]R
n
dado, la funcin (t, x, ) es s.c.i., veamos que esta funcin
tambin es coerciva. Como f
0
(R
n
), existen x

R
n
y R tal que f() x

, + ,
entonces
(t, x, y) x

, x y + +t
_
y
t
_
|x

|(|x| +|y|) + +t
_
y
t
_
.
Ahora por la condicin de crecimiento de tenemos que para todo M > 0 existe R > 0 tal
que (u) M|y| para todo |y| > R. Tomando M = 2|x

| se tiene que
(t, x, y) |x

|(|y| |x|) +, |y| > R.


Luego, haciendo |y| se tiene que es coerciva y por lo tanto en nmo en la denicin
es un mnimo y se alcanza en algn punto y = y(t, x).
Para probar la equivalencia entre los subdiferenciales basta escribir la dencin en cada caso
y usar el hecho que u(t, x) = (t, x, y) (t, x, y), para todo y R
n
.
(c) Sean (t

, x

, y

) (0, ) R
n
R
n
, por denicin tenemos que

(t

, x

, y

) = sup t

t +x

, x +y

, y (t, x, y) : t R, x, y R
n

= sup
_
t

t +x

, x +y

, y f(x y) t
_
y
t
_
: t > 0, x, y R
n
_
= sup
_
t

t +x

+y

, y t
_
y
t
_
+ sup
xR
n
x

, x y f(x y) : t > 0, y R
n
_
= sup
t>0
_
t

t +t sup
yR
n
__
x

+y

,
y
t
_

_
y
t
__
_
+f

(x

)
= sup
t>0
t(t

(x

+y

)) +f

(x

).
132 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Por lo tanto

(t

, x

, y

) =
_
f

(x

) si t

(x

+y

) 0
+ si t

(x

+y

) > 0.
(d) Para (t, x) (0, ) R
n
notaremos por y = y(t, x) al punto obtenido en (b). Fijemos t > 0,
luego u(t, x) = f2t(

t
)(x) es una inf-convolucin exacta y se tiene que
u(t, )(x) = f(x x)
_
t
_

t
__
( y).
Ms todava, como es diferenciable se tiene que
_
t
_

t
__
( y) = (
y
t
). Luego para
(t

, x

) u(t, x) es directo que x

= (
y
t
) y x

f(x y).
Adems, se tiene que
(t

, x

) u(t, x) (t

, x

, 0) (t, x, y)
t

t +x

, x = (t, x, y) +

(t

, x

, 0)
t
_
t


_
y
t
__
= f(x y) +f

(x

) x

, x
con t

(x

) 0.
Pero como x

f(x y), se tiene f(x y) +f

(x

) x

, x = x

, y, por lo que
(t

, x

) u(t, x) t
_
t


_
y
t
_
+x

,
y
t

_
= 0 con t

(x

) 0.
Finalmente, como x

(
y
t
) se tiene que

(x

) = x

,
y
t

_
y
t
_
. De donde obtenemos que
t

(x

) = 0.
(e) Sea (t

, x

) u(t, x), por lo anterior sabemos que x

est nicamente determinado y como


t

(x

) = 0, t

tambin es nico. Luego, para cada (t, x) (0, ) R


n
, u(t, x) es
un sngleton. Por lo tanto, u debido a la continuidad de u se tiene que u es diferenciable y
t

=
u
t
(t, x) y x

=
x
u(t, x), de donde se obtiene la ecuacin.
(f) Es fcil ver que (z) =
1
2
|z|
2
, luego la solucion entregada por la frmula de Lax-Oleinik es
u(t, x) = nf
yR
n
_
f(x y) +
1
2t
|y|
2
_
= nf
yR
n
_
f(y) +
1
2t
|x y|
2
_
= f
t
(x),
donde f
t
(x) es la Regularizada de Moreau-Yosida (ver problema 2.7).
A.3. Dualidad en Optimizacin Convexa
Problema 3.1
(a) Consideremos, para v = (v
1
, ..., v
m
) R
m
, una funcin del estilo f(v) =
1
m

m
i=1
v
i
+
C
(v),
con C algn convexo cerrado no vaco. Luego, es claro que f
0
(R
m
), y esto sigue siendo
cierto si en particular tomamos C = v R
m
: v
1
= v
2
= ... = v
m
.
A.3. DUALIDAD EN OPTIMIZACIN CONVEXA 133
Consideremos ahora g(v) =

m
i=1
(v
i
), con como en el enunciado. No es difcil vericar que
g
0
(R
m
) y que adems g es estricamente convexa y diferenciable.
Calculemos f2g
(f2g)(y
1
, ..., y
m
) =nf
_
1
m
m

i=1
v
i
+
C
(v) +
m

i=1
(y
i
v
i
) : (v
1
, ..., v
m
) R
m
_
=nf
_
1
m
m

i=1
v
i
+
m

i=1
(y
i
v
i
) : (v
1
, ..., v
m
) R
m
C
_
=nf
_
v +
m

i=1
(y
i
v) : v R
_
= M(y
1
, ..., y
m
)
Luego, usando las propiedades de la inf-convolucin (problema 2.5) se tiene que M es convexa.
Por otro lado, para y
1
, ..., y
m
R consideremos la funcin (v) = v +

m
i=1
(y
i
v), luego
como es positiva se tiene que (v) v. Sigue que (v) + si v . Notemos tambin
que, por la misma razn anterior se tiene que (v) v +(y
1
v). Consideremos v < 0, luego
(v)
v
1 +
(y
1
v) (y
1
)
v
,
y haciendo v se tiene que
lm
v
(v)
v
1 +

(1) = ,
en particular, (v) > 0 para v < 0 sucientemente grande. Ahora bien, como
(v)
v
< (v)
para v < 0 sucientemente grande se tiene que es coerciva y por lo tanto tiene mnimo. La
unicidad viene de la estricta convexidad de . Finalmente, la diferenciabilidad de M viene de
las propiedades de la inf-convolucin (problema 2.5).
(b) Notemos que
M
r
(y) v +r
m

i=1

_
1
r
(y
i
v)
_
v R.
Sea y
i
0
= max y
i
, luego como es creciente se tiene que

_
1
r
(y
i
v)
_

_
1
r
(y
i
0
v)
_
, i = 1, ..., m.
Sigue que v R
M
r
(y) v +rm
_
1
r
(y
i
0
v)
_
r
_
m
_
1
r
(y
i
0
v)
_

1
r
(y
i
0
v)
_
+y
i
0
.
134 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Luego, tomando nmo sobre v R se tiene que
M
r
(y) rm

_
1
m
_
+y
i
0
.
Por otra parte, se tiene que
M
r
(y) = mn
vR
_

_
v +r
_
1
r
(y
i
0
v)
_
+r
m

i=1, i,=i
0

_
1
r
(y
i
0
v)
_
. .
0
_

_
mn
vR
_
v +r
_
1
r
(y
i
0
v)
__
= r mn
vR
_

_
1
r
(y
i
0
v)
_

1
r
(y
i
0
v)
_
+y
i
0
= r

(1) +y
i
0
.
(c) Sea L = max[

(1)[, m[(1/m)[ > 0. Notemos por L bien podra no ser un real, (si 1 /
dom

o 1/m / dom

). Sin embargo, debido a la caractersticas de , esta constante L es


nita. Especcamente, esto viene del hecho que [0, ) = dom

. En efecto, primero notemos


que 0 dom

, pues recordemos que

(0) = nf(x) : x R, y dado que es nita y


positiva se tiene que el nmo es nito. Por otra parte, como

(d) =
dom
(d) (ver solucin
de problema 2.6) y por hiptesis

(1) = +, se tiene que supy : y dom

= +.
Luego como

es una funcin convexa, su dominio tambin lo es, por lo tanto se concluye


que [0, ) dom

, y en particular, 1, 1/m dom

y L [0, ). Ms an, dado que es


creciente, ran [0, +), y como dom

ran

, la armacin anterior es cierta.


Sigue que, por la parte anterior, para todo y R
m
se tiene que
[M
r
(y) max y
i
[ rL.
Luego, jemos x R
n
y tomemos y = (f
1
(x), ..., f
m
(x)) entonces se tiene que
[M
r
(f
1
(x), ..., f
m
(x)) maxf
1
(x), ..., f
m
(x)[ rL,
de donde se concluye que M
r
(f
1
(x), ..., f
m
(x)) maxf
1
(x), ..., f
m
(x), si r 0.
(d) Sea h(x) = maxf
1
(x), ..., f
m
(x), luego, por la parte (b) tenemos que
h(x) r

(1) M
r
(f
1
(x), ..., f
m
(x)).
Por otra parte, como cada f
k
es convexa y nita (en particular continua por estar en R
n
) se
tiene que h es convexa y s.c.i., ms an como S(P) es no vaco y acotado, se tiene que todo los
conjuntos de nivel de h tambin son acotados, y por lo tanto h es coerciva. En consecuencia,
la funcin x M
r
(f
1
(x), ..., f
m
(x)) tambin lo es y por lo tanto existe al menos un punto,
que denotaremos por x
r
, que minimiza a esta funcin, es decir,
M
r
(f
1
(x
r
), ..., f
m
(x
r
)) M
r
(f
1
(x), ..., f
m
(x)) x R
n
.
A.3. DUALIDAD EN OPTIMIZACIN CONVEXA 135
Nuevamente, por la parte (b) se tiene que, para todo r > 0
M
r
(f
1
(x), ..., f
m
(x)) h(x) rm

(1/m) x R
n
,
h(x
r
) r

(1) M
r
(f
1
(x
r
), ..., f
m
(x
r
)).
Con todas estas desigualdades obtenemos que h(x
r
) h(x) +r[

(1) m

(1/m)]. Tomando
nmo sobre x R
n
y r > 0 sucientemente pequeo se tiene que
h(x
r
) nf
xR
n
h(x) + 1 =: R,
es decir, x
r

(h) para todo r > 0 y dado que h es coerciva se concluye que x


r
permanece
acotada cuando r 0.
Por otro lado, notemos que
nf
xR
n
h(x) h(x
r
) h(x) +r[

(1) m

(1/m)]x R
n
,
luego es fcil ver que v(P
r
) v(P) cuando r 0. Ms a, si x es un punto de acumulacin
de x
r
se tiene que existe una sucesin r
k
0 tal que x
r
k
x. Usando la s.c.i de h obtenemos
h( x) lm
k
h(x
r
k
) = lm
k
v(P
r
k
) = v(P) h( x).
(e) Recordemos que, dada la funcin deperturbacin propuesta en el enunciado, el problema dual
a (P
r
) es de la forma
(D
r
). mn
y

R
m

(0, y

)
Calculemos

(0, y

). Consideremos, para x R
n
, f(x) = (f
1
(x), ..., f
m
(x)), luego por deni-
cin se tiene

(0, y

) = sup
xR
n
sup
yR
m
y

, y (x, y)
= sup
xR
n
sup
yR
m
_
y

, y rM
_
1
r
(f(x) +y)
__
= sup
xR
n
sup
yR
m
_
y

, y nf
vR
_
v +r
m

i=1

_
f
i
(x) +y
i
v
r
_
__
= r sup
xR
n
sup
yR
m
sup
vR
_
m

i=1
_
y

i
y
i
r

v
rm

_
f
i
(x) +y
i
v
r
__
_
= r sup
xR
n
sup
vR
_
m

i=1
_
sup
yR
_
y

i
y
r

_
f
i
(x) +y v
r
__
_

v
r
_
= r sup
xR
n
sup
vR
_
m

i=1
_

(y

i
) y

i
f
i
(x) v
r
_

v
r
_
= r
m

i=1

(y

i
) + sup
xR
n
sup
vR
_
m

i=1
[y

i
(v f
i
(x))] v
_
.
136 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Es decir,

(0, y

) = r
m

i=1

(y

i
) + sup
vR
__
m

i=1
y

i
1
_
v
_
nf
xR
n
y

, f(x).
Por lo tanto,

(0, y

) = r
m

i=1

(y

i
) nf
xR
n
y

, f(x), con
m

i=1
y

i
= 1.
Por lo tanto, dado que dom

= [0, +) se tiene que el problema dual es


(D
r
) mn
y

R
m
_
r
m

i=1

(y

i
) nf
xR
n
y

, f(x) :
m

i=1
y

i
= 1, y

i
0
_
.
(f) Notemos que por (b) se tiene que, para cualquier x
0
R
n
,
(x
0
, y) maxf
i
(x
0
) +y
i
rm

(1/m) h(x
0
) +|y|

rm

(1/m),
en particular, (x
0
, ) es nita y acotada superiormente en una vecindad del origen, luego por
el teorema de dualidad se que v(P
r
) + v(D
r
) = 0 y S(D
r
) ,= . La unicidad viene del hecho
que al ser diferenciable, se tiene que

es estrictamente convexa (problema 2.8), luego el


problema dual alcanza su mnimo en un nico punto.
Problema 3.3
(a) Por denicin se tiene que
| |

(x

) = sup
xX
x

, x |x|
[x

, x 1], x X, |x| 1, > 0.


Luego, tomando supremos sobre x X tales que |x| 1 se obtiene que
| |

(x

) [|x

| 1], > 0.
luego haciendo + se obtiene que | |


B
. Por otra parte, como
x

, x |x| |x|[|x

| 1],
se obtiene que | |


B
, de donde se concluye que esta desigualdad es una igualdad.
Sea x X 0 y consideremos B = x

: |x

| = 1, x

, x = |x|, Notemos que por


el Teorema de Hanh-Banach, este conjunto es no vaco. Sea x

| |(x), luego por denicin


se tiene que
() x

, y x |y| |x| y X,
en particular, evaluando en y = 0 e y = 2x se obtiene que
|x| x

, x |x|.
Ms an, se tiene que x

, x = 1, con x =
x
|x|
. Luego sigue que |x

| = 1, y por lo tanto
x

B. Conversamente, sea x

B, luego para y X cualquiera se tiene que


x

, y x |x

||y| x

, x |y| |x|.
A.3. DUALIDAD EN OPTIMIZACIN CONVEXA 137
(b) En virtud de la parte (a), basta probar que B es igual a
C = / : || = 1,
+
y

estn concentradas en K
+
f
y K

f
, respectivamente.
Sea C, sigue que
_
K
fd =
_
K
fd
+

_
K
fd

=
_
K
+
f
fd
+

_
K

f
fd

= |f|

[
+
(K
+
f
) +

(K

f
)],
pero como
+
(K
+
f
) +

(K

f
) =
+
(K) +

(K) = || = 1, se tiene que , f = |f|

y
por lo tanto B.
Recprocamente, supongamos que B, luego
_
K
fd = |f|

,
pero
_
K
fd =
_
K
fd
+

_
K
fd

|f|

[
+
(K) +

(K)] = |f|

,
lo que implica que
_
K
fd
+
|f|

+
(K) =
_
K
fd

+|f|

(K).
Notemos que el lado izquierdo de esta ltima igualdad es siempre no positivo mientras que
el lado derecho es siempre no negativo. Sigue que ambos trminos son iguales a cero y por lo
tanto _
K
fd
+
= |f|

+
(K) y
_
K
fd

|f|

(K).
Supongamos que existe A B(K) tal que A K
+
f
= y
+
(A) > 0. Sigue que
_
K
fd
+
=
_
K\K
+
f
fd
+
_
K
+
f
fd
+
< |f|

[
+
(K K
+
f
) +(K
+
f
),
ya que
+
(K K
+
f
)
+
(A). La desigualdad anterior es una contradiccin con la denicin
de B, por lo tanto no existe tal B. El mismo argumento es valido para

y K

f
, por lo que
la igualdad queda establecida.
(c) Notemos que : R
n
c(K) R + y por lo tanto

: R
n
/(K) R +.
Recordemos que el problema dual a (P) est dado por
(D) mn
/

(0, )
Calculemos

(0, ). Por denicin se tiene que

(0, ) = sup
xR
n
sup
y((K)
, y |f +y

n
i=1
x
i

i
|

= sup
xR
n
sup
y((K)
, f +y

n
i=1
x
i

i
|f +y

n
i=1
x
i

i
|

, f

n
i=1
x
i

= sup
xR
n

n
i=1
x
i
,
i
+| |

() , f
= sup
xR
n

n
i=1
x
i
,
i
+
B
() , f.
138 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Luego es claro que
sup
xR
n
_
n

i=1
x
i
,
i

_
R si y slo si ,
i
= 0, para todo i = 1, ..., n.
Por lo tanto el problema dual se puede plantear como
(D) mn, f : B

, ,
i
= 0, i = 1, ..., n
(d) Notemos que nf(P) [0, |f|

] y adems, no es difcil ver que y (0, y) es nita y


continua en y = 0 (de hecho en todo c(K)). Luego por el Teorema de Dualidad se concluye
que v(P) +v(D) = 0 y S(D) ,= , pues el problema primal es factible.
(e) Supongamos que existe x R
n
ran(A), notemos que como A es lineal continua, se tiene que
ran(A) es convexo y cerrado. Luego, por el Teorema de Hanh-Banach, existe x R
n
0 y
> 0 tal que
x, x <
_
,
n

i=1
x
i

i
_
, /(K).
No es difcil ver que dado que /(K) es un espacio vectorial,

n
i=1
x
i

i
= 0 y como
1
, ...,
n
son l.i. se tiene que x = 0, lo que es una contradiccin, por lo tanto A es sobreyectivo.
Por otra parte, notemos que el problema dual puede escribirse como
(D). mn
/(K)
, f : [| 1, A() = 0
Notemos que A

: R
n
c(K) el operador adjunto est dado por A

(x) =

n
i=1
x
i

i
y
adems, como A es sobreyectivo, existe una constante L > 0 tal que |A

(x)|

L|x|, por
lo tanto, dado que el problema primal se puede escribir
(P) mn
xR
n
|f A

(x)|

.
se tiene que la funcin objetivo es coerciva y por lo tanto alcanza su mnimo, pues es claramente
continua.
(f) Sea f(x) = |f A

(x)|

y g() = , f +
B
() +
ker(A)
(). Luego las condiciones de
extremalidad son 0 f(x) y 0 g(). Notemos que f = h A

, con h : c(K) R dada


por h() = |f |

. La funcin h es convexa y continua, por lo que


f(x) = Ah(A

(x)) = A| |

(f A

(x)),
es decir, x S(D) si y slo si existe una medida /(K) tal que || = 1 y
+
y

estn concentradas en K
+
fA

(x)
y K

fA

(x)
, respectivamente. Luego, es claro que si A es
sobreyectiva, existe tal medida.
Por otra parte, g() = f + N
B

ker(A)
(), luego S(D) si y slo f N
B

ker(A)
(), lo
que es equivalente a
, f 0, B

ker(A).
A.3. DUALIDAD EN OPTIMIZACIN CONVEXA 139
Problema 3.5
(a) Notemos que el problema (P) es equivalente al problema
(

P) mn
yB
1
2
|y|
2
,
donde B = A(C + ker A). Luego , si B es convexo y cerrado el problema (

P) tiene solucin
y por lo tanto S(P) es no vaco. La convexidad de B es directa de la convexidad de A y de
la linealidad de A, por lo que resta ver que B es cerrado. Sea y
n
B tal que y
n
y Y ,
queremos ver que y B. Por denicin, para todo n N, existe x
n
C + ker A tal que
y
n
= Ax
n
. Por otra parte, como A es sobreyectiva, existe x X tal que y = Ax. Ahora bien,
por el Teorema de la aplicacin abierta se tiene que existe una constante L > 0 tal que
|x
n
x| L|y
n
y|,
es decir, x
n
x cuando n + y como C + ker A es cerrado se concluye que existe al
menos una solucin de (P).
(b) Notemos que el problema (P) se puede re-escribir como un problema irrestricto de la siguiente
manera
(P) mn
xX
f(x) +g(Ax),
donde f : X R +, g : Y R estn dadas por f(x) =
C
(x) y g(y) =
1
2
|y|
2
.
Recordemos que,

C
(x) =
C
(x) y que g

(y) = g(y), luego el dual de Fenchel-Rockafellar de


(P) es
(D) mn
yY
f

(A

y) +g

(y),
ms an, como domg = Y e nf(P) R, por las condiciones de calicacin se tiene que
existe y S(D). Ahora bien, por el Teorema de Dualidad de Fenchel-Rockafellar, se tiene que
x S(P) si y slo si
A

y f( x) y y g(A x).
Recordemos tambien que f(x) = N
C
(x) y que g(y) = y. Luego sigue que y = A x y que
x x, A

y 0, x C.
Luego, jando z = A

A x y usando que A

es inyectivo (pues A es sobreyectivo) y que por lo


tanto admite una inversa por la izquierda, se obtiene el resultado.
(c) En virtud de la parte (a), basta vericar que C+ker A es cerrado. Sea x
n
C+ker A tal que
x
n
x X. Luego, existen dos sucesiones u
n
C y v
n
ker A tales que x
n
= u
n
+v
n
.
Ahora bien, como A es sobreyectivo se tiene que existe L > 0 tal que |x v
n
| L|Ax|,
por lo que la sucesin v
n
permanece acotada, y como x
n
es convergente, la sucesin u
n

tambin permanece acotada. Luego, como X es reexivo, existen u, v X tales que u


n
u
y v
n
v. Ms an, por denicin de C se tiene que u C. Por otro lado, como Av
n
= 0, se
tiene que
y, Av
n
= 0 para todo y Y,
140 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
pero por denicin del operado adjunto se tiene que
A

y, v
n
= 0 para todo y Y,
luego, pasando al lmite y volviendo a usar la denicin del operado adjunto se obtiene que
y, Av = 0 para todo y Y,
es decir, Av Y

= 0, por lo que v ker A. Concluimos que x C + ker A, ya que en


particular, x
n
x y este lmite cuando existe es nico.
(d) Directo del Teorema Kuhn-Tucker Fuerte.
Problema 3.7
(a) Primero veamos que si x es un punto crtico de entonces tambin es un punto crtico de .
Notemos que la funcin x x, Ax es continua, luego por el Teorema de Moreau-Rockafellar
se tiene que para todo x H
(x) = Ax +f(x) y (x) = Ax +(f A)(x).
Luego, sea x un punto crtico de , luego 0 A x+f( x), es decir, A x f( x). Ahora bien,
por la Frmula de Reciprocidad de Legendre se tiene que x f

(A x).
Por otra parte, sea

A : X Y operador lineal continuo entre dos espacio de Banach en
dualidad con X

e Y

, respectivamente. Sea g
0
(Y ), notemos que en ausencia de hiptesis
de calicacin sobre g slo es posible asegurar

g(Ax) (g

A)(x).
Sigue que Af

(A x) (f

A)( x) y por lo tanto A x (f

A)( x), es decir,


0 A x +(f

A)( x) = ( x).
Ahora bien, como (x) = (x + u), con u ker A, luego cualquier y ker A + x es un
punto crtico de .
(b) Notemos que como 0 int(domf

ImA), en particular se tiene que f

es continua en Ax
0
para algn x
0
H, y por lo tanto Af

(Ax) = (f

A)(x).
Ms an, sea y un punto crtico de , es decir, A y (f

A)( y) = Af

(A y). Luego,
existe x f

(Ax) tal que A y = A x. En particular, z = x y ker A y x ker A + y.


Aparte, ya que x f

(A x), por la frmula de reciprocidad se tiene que A x f( x), es


decir, x es un punto crtico de .
Por otro lado, por lo anterior se tiene que A y f( x), o equivalentemente
f( x) +f

(A y) = x, A y.
A.3. DUALIDAD EN OPTIMIZACIN CONVEXA 141
Por lo tanto,
( x) =
1
2
x, A x +f( x)
=
1
2
z + y, A(z + y) + x, A y f

(A y)
=
1
2
z + y, A y +z + y, A y f

(A y)
=
1
2
A(z + y), y f

(A y)
=
1
2
A y, y f

(A y)
= ( y).
Problema 3.8
(a) Denotemos por B la bola unitaria cerrada de X. Sea f(x) = z

, x +
B
(x) y g(x) =
M
.
No es difcil ver que f

(x

) = |x

+ z

y que g

(x

) =
M
(x

). Consideremos el par
primal-dual de Fenchel Rockafellar
(P) mn
xX
f(x) +g(x),
(D) mn
x

(x

) +g

(x

).
Es fcil ver que (D) coincide exactamente con el lado derecho de (3.2), y que adems, (P)
coincide con el negativo del lado izquierdo de esta misma ecuacin. Adems es claro que
v(P) [0, |z

|], y como domf = B se tiene que por el Teorema de Dualidad de Fenchel-


Rockafellar, el problema (D) tiene solucin, y adems v(P) +v(D) = 0, que es exactamente la
ecuacin (3.2). Adems como S(D) ,= , en particular, el inmo se alcanza en algn x

0
M

.
Nuevamente, por el Teorema de Dualidad de Fenchel-Rockafellar, se tiene que
(A.3) x
0
S(P) y x

0
S(D)
es equivalente a
(A.4) x

0
f(x
0
) y x

0
g(x
0
).
Como f(x
0
) = z

+N
B
(x
0
) y g(x
0
) = N
M
(x
0
) = M

, esto ltimo por ser M un s.e.v. de


X. Sigue que (A.3) es equivalente a
(A.5) z

0
, x x
0
0 x B y x

0
M

.
Pero,
z

0
, x x
0
0 x B z

0
, x z

0
, x
0
x B
|z

0
| z

0
, x
0
|z

0
||x
0
|.
Como |x
0
| 1, se tiene que x
0
M alcanza el supremo del lado izquierdo de (3.2), es decir,
x
0
S(P) si y slo si z

0
, x
0
= |z

0
||x
0
|.
142 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
(b) Sea z

D, que por hiptesis es no vaco. y consideremos M = x


1
, ..., x
n
, el e.v. gene-
rado por los vectores x
1
, ..., x
n
. Reescriendo la ecuacin (3.2) en trminos de este M y z

particulares, vemos que el lado izquierdo de (3.3) no depende de la eleccin de z

y adems
coincide con (3.2). Por otra parte, no cuesta mucho convencerse que M

= Dz

y que por
lo tanto
nf
x

D
|x

= nf
x

+M

|x

,
pero
nf
x

+M

|x

= nf
x

|x

por lo tanto se concluye que


nf
x

D
|x

= nf
x

|x

.
Luego, las ecuaciones (3.3) y (3.2) coinciden. La alineacin de los vectores es consecuencia de
la parte anterior.
(c) Tomemos X = C([0, T]) y por lo tanto X

= NBV ([0, T]), con las respectivas normas del


enunciado. Consideremos n = 1, x
1
(t) = T t C([0, T]) y a
1
= h +
1
2
g
2
T. Luego es claro
que en este caso es igual al lado derecho de (3.3). Por lo tanto, la primera igual pedida es
directa de la parte (b). Para ver la segunda igualdad basta ver que como a
1
> 0, y

R que
maximiza la funcin debe ser positivo y como |x
1
(t)|

= T, se concluye que y

=
1
T
.
(d) Sean v NBV ([0, T]) y x C([0, T]), en particular v(0) = 0 y
_
T
0
[dv(t)[ < . Recordemos
que
_
T
0
[dv(t)[ = sup
_
n

i=0
[v(t
i+1
) v(t
i
)[ : 0 = t
0
< t
1
< ... < t
n
< t
n+1
= T
_
.
Denamos

+
= t [0, T] : x(t) = |x|

= t [0, T] : x(t) = |x|

.
Notemos que como x es continua, ambos conjunto son cerrados y por lo tanto se pueden
escribir como unin disjunta (a lo ms numerable) de intervalos cerrados contenido en [0, T].
Luego
_

+
[dv(t)[ y
_

[dv(t)[ estn bien denidas. Adems, es claro que =


+

. sigue
que
_
T
0
x(t)dv(t) =
_

+
|x|

dv(t)
_

|x|

dv(t) +
_

c
x(t)dv(t)
= |x|

__

+
dv(t)
_

dv(t)
_
+
_

c
x(t)dv(t)
Supongamos que v solo vara en , con v(t) no-decreciente si x(t) > 0 y no-creciente si x(t) < 0,
luego
_

+
dv(t) =
_

+
[dv(t)[ y
_

dv(t) =
_

[dv(t)[, y por lo tanto


_
T
0
x(t)dv(t) = |x|

__

+
dv(t)
_

dv(t)
_
= |x|

[dv(t)[ = |x|

_
T
0
[dv(t)[,
A.3. DUALIDAD EN OPTIMIZACIN CONVEXA 143
por lo que v est alineado con x C([0, T]).
Conversamente, supongamos que
_
T
0
x(t)dv(t) = |x|

_
T
0
[dv(t)[.
Supongamos tambin que la variacin de v es no nula en , como x es continua, existe un
intervalo cerrado de interior no vaco [a, b]
c
tal que
_
b
a
[dv(t)[ > 0 y [x(t)[ x
0
< |x|

para todo t [a, b], por lo tanto


_
T
0
x(t)dv(t) =
_
a
0
x(t)dv(t) +
_
b
a
x(t)dv(t) +
_
T
0
x(t)dv(t)
|x|

_
a
0
[dv(t)[ +x
0
_
b
a
[dv(t)[ +|x|

_
T
b
[dv(t)[
< |x|

_
T
0
[dv(t)[,
lo que es una contradiccin, por lo tanto, v vara solamente en .
Supongamos que v no es no decreciente en el conjunto A
+
= t [0, T] : x(t) > 0. Sea

+
, en particular, A
+
, por continuidad de x, existe > 0 tal que el intervalo
I = [max0, , mn +, T] A
+
y supongamos que v es estrictamente decreciente en
I, luego
_

+
I
dv(t) =
_

+
I
[dv(t)[ < 0, en particular,
_
T
0
x(t)dv(t) =
_

+
I
x(t)dv(t) +
_
(
+
I
c
)

x(t)dv(t)
= |x|

+
I
dv(t) +
_
(
+
I
c
)

x(t)dv(t)
|x|

+
I
[dv(t)[ +
_
(
+
I
c
)

[dv(t)[
_
< |x|

_
T
0
[dv(t)[,
lo que es una contradiccin, por lo tanto, v es no decreciente en A
+
. El mismo argumento es
aplicable para A

= t [0, T] : x(t) < 0. Luego la equivalencia queda establecida.


Por otro lado, supongamos que = 0 s
1
< s
2
< ... < s
n
T es nito, luego v es contante
en los intervalos que denen los punto de , y por lo tanto v es a lo ms discontinua en , de
donde se obtiene que v solo tiene un nmero nito de discontinuidad de salto.
(e) Notemos que en este caso x
1
(t) = |x
1
|

slo en t = 0, luego, por la parte (c) y (d), = 0,


de modo que v es constante en (0, T]. Adems, como x
1
(t) > 0 en [0, T), por lo que v es no
decreciente en [0, T). As obtenemos que u = dv es un control impulsivo que solo vara en
t = 0, de modo que puede ser representada por v(t) =
_
_
T
0
[dv(s)[
_

(0,T]
(t), pues v(0) = 0,
donde
A
(t) = 1 si t A y
A
(t) = 0 si t / A.
144 APNDICE A. RESOLUCIN DE ALGUNOS PROBLEMAS
Por otra parte, es fcil ver que la funcin T
1
T
(h +
1
2
gT
2
) es convexa y que su derivada se
anula en T =
_
2h
g
. Ahora bien, como v es solucin ptima del problema se tiene que
_
T
0
[dv(t)[ =
1
T
(h +
1
2
gT
2
) =
_
2gh.
Finalmente, el control ptimo es de la forma.
v(t) =
_
0 si t = 0

2gh si t (0, T].


ndice alfabtico
-convergencia, 31
-regularizada, 48
arg mn, 9
-arg mn, 19
biconjugada, 48
clase
0
(X), 47
clausura inferior, 27
condicin
de calicacin
de Mangasarian-Fromovitz, 91
dual, 77
primal, 77
de extremalidad, 69
de Fritz-John, 91
de Karush-Kuhn-Tucker, 91
de Palais-Smale, 62
de Slater, 69
conjugada de Fenchel, 43
conjunto
convexo, 22
de nivel, 8
cono
convexo, 37
de recesin, 15
normal, 57
polar, 35, 46
convergencia variacional, 35
derivada direccional generalizada, 63
desigualdad
de Young-Fenchel, 44
variacional, 57
distancia de Hausdor, 88
dominio efectivo, 8
dualidad
de Ekeland-Lasry, 88
de Toland-Singer, 88
espacios, 42
producto, 21, 42
salto, 67
envoltura convexa, 33
epgrafo, 8, 10
epi-convergencia, 31
espacio
dual, 21
vectorial topolgico, 21
localmente convexo, 21
esquema de Penalizacin de Tikhonov, 102
exceso de Hausdor, 88
frmula
de reciprocidad de Legendre, 51
de H ormander, 88
de Lax-Oleinik, 64
funcin
acotada inferiormente, 10
cncava, 38
coerciva, 13
contraccin direccional, 35
convexa, 22, 37
esencialmente estricta, 61
esencialmente suave, 61
estrictamente, 26
fuertemente, 60
cuasi-convexa, 104
de entropa de Boltzmann-Shannon, 45
de penalizacin, 100
de perturbacin, 65
de recesin, 16, 59, 101
G ateaux diferenciable, 19
indicatriz, 7
inf-compacta, 13
145
146 NDICE ALFABTICO
lagrangeana, 70
marginal, 65
minorante, 43
objetivo, 7
propia, 10
semicontinua inferior, 11
soporte, 35, 46
subdiferenciable, 50
valor, 65
funcional
de evaluacin, 21
lineal, 21
grafo, 35
hiperplano, 21
hipo/epi-convergencia, 35
inf-adicin, 8
inf-convolucin, 60
lagrangeano, 70
lema
de Cruzeix, 104
de Robinson, 75
mtodo directo, 13, 25
media asinttica, 103
monotona, 18
multiaplicacin, 35, 56
cclicamente montona, 63
grafo, 56
maximal montona, 56
montona, 56
multiplicador de Lagrange, 71
penalizacin
exponencial, 100
hiperblica, 100
logartmica, 100
desplazada, 100
raz, 100
principio variacional de Ekeland, 19
problema
bidual, 66
de Dirichlet, 93
de la torsin elasto-plstica, 96
de Stokes, 94
de visco-plasticidad, 98
dual, 66
primal, 65
relajado, 29
programa
convexo, 66, 99
lineal, 65, 69
punto
factible, 9
jo, 35
regla de Fermat, 49, 53, 57
regularizada
de Moreau-Yoshida, 61
de Yoshida, 61
regularizada s.c.i., 27
resolvente, 61
restricciones, 7
semiespacio, 21
subdiferencial, 50
subespacio ortogonal, 46
subgradiente, 50
aproximado, 62
generalizado, 63
teorema
de Attouch-Brezis, 76
de Banach, 23
de Brezis-Stampacchia, 96
de Brondsted-Rockafellar, 62
de Carathodory, 33
de dualidad, 68
de Fenchel-Rockafellar, 77
de Fritz-John
dbil, 79
fuerte, 83
de Hahn-Banach, 22
analtico, 80
de integracin de Rockafellar, 63
de Karush-Kuhn-Tucker, 90
de Kuhn-Tucker
dbil, 82
fuerte, 84
de la alternativa de Gordan, 90
NDICE ALFABTICO 147
de min-max, 34
de Von Neuman, 87
de Moreau, 59
de Moreau-Rockafellar, 56
de Riesz, 13
de separacin, 79
de Weierstrass-Hilbert-Tonelli, 13
del Punto Fijo de Caristi, 35
topologa
compatible con la dualidad, 42
dbil, 23
transformada de Legendre, 52
148 NDICE ALFABTICO
Bibliografa
[Aub98] J.P. Aubin, Optima and Equilibria, Springer, 1998.
[AuT03] A. Auslander, M. Teboulle, Asymptotic Cones and Functions in Optimization and Varia-
tional Inequalities, Springer, 2003.
[Att84] H. Attouch, Variational Convergence for Functions and Operators, Applicable Mathematics
Series, Pitman, London, 1984.
[BaCo11] H.H. Bauschke, P.L. Combettes Convex Analysis and Monotone Operator Theory in Hil-
bert Spaces, CMS Books in Mathematics, Springer, New York, 2011.
[Bre83] H. Brezis, Analyse fonctionnelle, Masson Editeur, Pars, 1983.
[BoL00] J. M. Borwein, A. S. Lewis, Convex Analysis and Nonlinear Optimization. Theory and
Examples, CMS Books in Mathematics, Springer-Verlag, New York, 2000.
[BoZ05] J. M. Borwein, Q. J. Zhu, Techniques of Variational Analysis., CMS Books in Mathematics,
Springer-Verlag, New York, 2005.
[Cal83] F. H. Clarke, Optimization and Nonsmooth Analysis, Wiley, New York, 1983.
[EkT74] I. Ekeland, R. Temam, Analyse Convexe et Problmes Variationnels, Dunod, Paris, 1974.
[HiL93] J.-B. Hiriart-Urruty, C. Lemarchal, Convex Analysis and Minimization Algorithms,
Springer-Verlag, Berlin, 1993.
[Roc70] R.T. Rockafellar, Convex Analysis, Princeton University Press, Princeton, New Jersey,
1970.
[Roc74] R.T. Rockafellar, Conjugate Duality and Optimization, Conference Board of Mathematical
Sciences Series 16, SIAM Publications, Philadelphia, 1974.
[RoW98] R.T. Rockafellar, R. J-B. Wets, Variational Analysis, Grundlehren der matematischen
Wissenschaften 317, Springer-Verlag, Berlin, 1998.
149

Você também pode gostar