Você está na página 1de 228

Apuntes de Ampliacin de Matemticas.

Segundo curso de GITI


Jose S. Cnovas Pea

Silvestre Paredes Hernndez

28 de abril de 2014

ndice General
Advertencia.
No son los apuntes de la asignatura. Son una gua que no tiene porqu corresponderse al cien
por cien con lo explicado en clase.

Se ha utilizado el smbolo = para denotar un paso en alguna demostracin que, siendo cierto,
no est bien justificado. Normalmente cuando se trata de permuta de lmites, como una integral
con un sumatorio. Para un estudio de las pruebas rigurosas al cien por cien nos remitimos a la
bibliografa al final de estas notas.

ndice General

ii

ndice general
1. Transformada de Laplace
1.1. Introduccin . . . . . . . . . . . . . . . . . . . . . .
1.2. Funciones continuas a trozos. Funcin de Heaviside
1.3. Definicin de Transformada de Laplace . . . . . . .
1.3.1. Definicin y primeros ejemplos . . . . . . . .
1.3.2. Dominio de definicin de la Transformada de
1.4. Propiedades de la Transformada de Laplace . . . .
1.4.1. Linealidad . . . . . . . . . . . . . . . . . . .
1.4.2. Transformada de la derivada . . . . . . . . .
1.4.3. Transformada de la integral . . . . . . . . .
1.4.4. Transformada de la convolucin . . . . . . .
1.4.5. Primer Teorema de Traslacin . . . . . . . .
1.4.6. Segundo Teorema de Traslacin . . . . . . .
1.5. Propiedades de la funcin Transformada de Laplace
1.5.1. Derivabilidad de la Transformada de Laplace
1.5.2. Teoremas del valor inicial . . . . . . . . . .
1.5.3. Teorema del valor final . . . . . . . . . . . .
1.6. Transformada de Laplace inversa . . . . . . . . . .
1.6.1. Inyectividad de la Transformada de Laplace
1.6.2. Transformada de Laplace inversa . . . . . .
1.6.3. Frmula de inversin compleja . . . . . . . .
1.7. Aplicaciones: una primera aproximacin . . . . . .
1.8. Uso de la convolucin . . . . . . . . . . . . . . . . .
1.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . .

. . . . .
. . . . .
. . . . .
. . . . .
Laplace
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

2. Estabilidad de ecuaciones diferenciales


2.1. Ecuaciones y sistemas lineales: generalidades . . . . . . . . .
2.1.1. Sistemas de ecuaciones diferenciales lineales . . . . .
2.1.2. Teora general para ecuaciones lineales de orden . .
2.2. Resolucin desistemas lineales de coeficientes constantes . . .
2.2.1. Resolucin del sistema homogneo . . . . . . . . . . .
2.2.2. Resolucin de sistemas. La exponencial de una matriz
2.2.3. El mtodo de variacin de constantes . . . . . . . . .
2.3. Resolviendo sistemas mediante la transformada de Laplace .
2.4. Problemas con funciones discontinuas . . . . . . . . . . . . .
iii

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1
1
3
4
4
6
7
7
9
10
10
11
12
13
13
14
15
15
15
16
17
19
19
20

.
.
.
.
.
.
.
.
.

25
25
27
32
35
35
37
43
44
46

ndice General
2.5. Sistemas autnomos, puntos crticos y nocin de estabilidad . . . . . . . . . .
2.6. Estabilidad de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1. Por qu un sistema estable es til en ingeniera? . . . . . . . . . . . .
2.7. Funciones de transferencia. Estabilidad y control de sistemas lineales . . . . .
2.7.1. Respuesta a una seal sinusuidal . . . . . . . . . . . . . . . . . . . . .
2.8. Estabilidad local de sistemas autnomos . . . . . . . . . . . . . . . . . . . . .
2.8.1. Mtodo de linealizacin de Lyapunov. Teorema de HartmanGrobman
2.8.2. El mtodo directo de Lyapunov . . . . . . . . . . . . . . . . . . . . . .
2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

47
49
52
53
55
56
56
58
60

3. Ecuaciones en derivadas parciales


3.1. Introduccin a las EDP . . . . . . . . . . . . . . . . . .
3.2. Ecuaciones lineales de orden 2 . . . . . . . . . . . . . .
3.3. Ecuacin del calor. Mtodo de separacin de variables.
3.4. Series de Fourier . . . . . . . . . . . . . . . . . . . . .
3.4.1. Funciones pares e impares . . . . . . . . . . . .
3.4.2. Aplicacin a ecuaciones diferenciales . . . . . .
3.4.3. Aplicacin a la ecuacin del calor . . . . . . . .
3.5. Ecuacin de ondas . . . . . . . . . . . . . . . . . . . .
3.6. Ecuacin de Laplace . . . . . . . . . . . . . . . . . . .
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

63
63
64
68
70
72
74
74
76
78
79

4. Transformada de Fourier
4.1. Definicin y primeros ejemplos . . . . . . . . . . .
4.2. Propiedades bsicas . . . . . . . . . . . . . . . . .
4.2.1. Linealidad . . . . . . . . . . . . . . . . . .
4.2.2. Transformada de la derivada . . . . . . . .
4.2.3. Cambios de escala . . . . . . . . . . . . .
4.2.4. Derivada de la transformada . . . . . . . .
4.2.5. Convolucin . . . . . . . . . . . . . . . . .
4.3. Transformada de Fourier inversa . . . . . . . . . .
4.4. Relacin con la transformada de Laplace . . . . .
4.4.1. Aplicacin a los sistemas estables . . . . .
4.5. Aplicacin a las ecuaciones en derivadas parciales
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

85
85
86
87
87
88
88
89
90
90
91
91
93

5. Fundamentos de Optimizacin: Optimizacin no lineal


5.1. Conceptos bsicos . . . . . . . . . . . . . . . . . . . . . .
5.2. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Conjuntos Convexos . . . . . . . . . . . . . . . . . . . .
5.4. Funciones convexas . . . . . . . . . . . . . . . . . . . . .
5.5. Optimizacin de funciones convexas . . . . . . . . . . . .
5.6. Introduccin a la optimizacin no lineal . . . . . . . . . .
5.7. Condiciones de Karush-Kuhn-Tucker . . . . . . . . . . .
5.8. Condiciones necesarias . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

95
95
99
104
107
112
115
117
125

iv

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

ndice General
5.9. Condiciones suficientes . . . . . . . . .
5.10. Interpretacin de los multiplicadores de
5.11. Dualidad . . . . . . . . . . . . . . . . .
5.12. Temporal . . . . . . . . . . . . . . . .
5.13. Ejercicios . . . . . . . . . . . . . . . .

. . . .
KKT
. . . .
. . . .
. . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

6. Optimizacin dinmica: mtodos variacionales


6.1. Introduccin y ejemplos . . . . . . . . . . . . . . . .
6.1.1. Problemas Geodsicos . . . . . . . . . . . . .
6.1.2. Problemas temporales . . . . . . . . . . . . .
6.1.3. Problemas Isoperimtricos . . . . . . . . . . .
6.1.4. Problemas de reas de superficies . . . . . . .
6.1.5. Problemas con frontera libre . . . . . . . . . .
6.1.6. Resumen . . . . . . . . . . . . . . . . . . . . .
6.2. Lemas de Lagrange y du Bois-Reymond . . . . . . . .
6.3. Ecuaciones de Euler-Lagrange . . . . . . . . . . . . .
6.3.1. Optimizacin dinmica sin restricciones . . . .
6.4. Condiciones Transversales . . . . . . . . . . . . . . .
6.4.1. Casos especiales de la primera ecuacin . . . .
6.4.2. La Segunda Ecuacin . . . . . . . . . . . . . .
6.5. Condiciones de segundo orden . . . . . . . . . . . . .
6.6. Condiciones suficientes con convexidad . . . . . . . .
6.7. Optimizacin dinmica con restricciones . . . . . . .
6.7.1. Restricciones de igualdad . . . . . . . . . . . .
6.7.2. Restricciones Integrales . . . . . . . . . . . . .
6.8. Formulacin Variacional . . . . . . . . . . . . . . . .
6.9. Extensin de los mtodos variacionales . . . . . . . .
6.9.1. Funciones Vectoriales . . . . . . . . . . . . . .
6.9.2. Funcionales con derivadas de orden superior .
6.9.3. Funcionales vectoriales con derivadas de orden
6.9.4. Funcionales derivadas parciales . . . . . . . .
6.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
superior
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

138
145
146
150
155

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

165
165
166
169
173
175
176
177
179
182
182
186
190
195
196
199
201
201
202
207
208
208
211
213
213
216

Captulo 1
Transformada de Laplace
Sumario. Funciones continuas a trozos. Defincin de Transformada de Laplace.
Propiedades Bsicas. Transformada de Fourier inversa: propiedades bsicas. Frmula
de inversin compleja. Aplicaciones a la resolucin de ecuaciones diferenciales lineales
con coeficientes constantes.

1.1.

Introduccin

Vamos a desarrollar un tema sobre la Transformada de Laplace y su aplicacin a la resolucin de


ecuaciones y sistemas de ecuaciones diferenciales lineales con coeficientes constantes. Estas ecuaciones
surgen de manera natural en el contexto de los circuitos elctricos.
Consideremos por ejemplo el tpico circuito LRC de la figura

donde la inductancia , la resistencia y la capacidad de condensador se consideran constantes.


Se tiene entonces que la carga () que circula por el circuito est dada por la ecuacin
00 () + 0 () + () = ()
y dado que la intensidad () es la derivada de la carga, sta puede calcularse por la ecuacin
Z
0
() + () +
() = ()
0

Transformada de Laplace
o equivalentemente con la ecuacin diferencial
00 () + 0 () + () = 0 ()
en el caso en que () sea una funcin derivable.
De forma similar, si tenemos un circuito con varias ramas y ms elementos, como por ejemplo

podemos deducir a partir de las leyes de Kircho que las intensidades que circulan por los hilos
elctricos del circuito vienen dadas por

0 = 1 2 3
0 () = 10 1 + 1 1 + 20 2

0 = 20 2 + 300 + 3 2
Si suponemos los elementos del circuito constantes, salvo a lo mejor el voltaje (), que supondremos
una funcin derivable, tenemos un sistema de ecuaciones diferenciales lineales con coeficientes constantes.

La Transformada de Laplace es una herramienta que permite transformar los problemas anteriores
en problemas algebraicos y, una vez resuelto este problema algebraico ms fcil a priori de resolver,
calcular a partir de la solucin del problema algebraico la solucin del problema de ecuaciones diferenciales.
Esta es la forma en que los ingenieros abordan el estudio de estos problemas, como pone de
manifiesto las referencias [12], [19] o [10]. Adems este mtodo es explicado en algunos libros de
ecuaciones diferenciales como [5], [6], [11] o [?].
Sin embargo, para entender en su justa dimensin la Transformada de Laplace hay que dominar
contenidos bsicos de variable compleja que nuestros alumnos ya han estudiado con anterioridad.
2

Transformada de Laplace
As, vamos a presentar la Transformada de Laplace en un primer lugar usando los conocimientos que
el alumno tiene de funciones de variable compleja y una vez explicada sta, procederemos a indicar
algunas aplicaciones a las ecuaciones y sistemas citadas anteriormente. Nuestros alumnos tambin
deben conocer y dominar contenidos relativos a integrales impropias que fueron explicados en la
asignatura de primer curso fundamentos matemticos de la ingeniera.
A modo de introduccin histrica, diremos que la expresin
() =

()

fu acuada en primer lugar por PierreSimon Laplace en 1782. Su utilizacin dentro de la tcnica se
debe en su forma rigurosa a Thomas Bromwich, el cual formaliz utilizando las funciones de variable
compleja y la Transformada de Laplace un clculo operacional inventado por Oliver Heaviside para
la resolucin de circuitos elctricos.

1.2.

Funciones continuas a trozos. Funcin de Heaviside

Previamente a introducir la Transformada de Laplace, hemos de concretar qu tipo de funciones


vamos a considerar para nuestros problemas. Las funciones que van a ser de importancia dentro de
la ingeniera son aquellas llamadas continuas a trozos, que a continuacin definimos.
Dados los nmeros reales , se dice que la funcin : [ ] C es continua a trozos si existe
una particin de [ ], = 0 1 = , de manera que es continua en ( +1 ), 0 ,
y existen y son finitos los lmites laterales de en cada uno de los puntos , 0 .
Una funcin : [0 +) C se dice que es continua a trozos si para cada intervalo compacto
[ ] [0 +) se verifica que : [ ] C es continua a trozos.
Uno de los primeros ejemplos de funcin continua a trozos es
: [0 +) C
donde es un nmero real mayor o igual que cero. Esta funcin est definida por

0 si
() =
1 si
y se conoce en ingeniera con el nombre de funcin de Heaviside.
Fsicamente, la funcin de Heaviside realiza la funcin de interruptor, de manera que si :
[0 +) C es una funcin continua se tiene que es la funcin
( )() =

0
si
() si
3

Transformada de Laplace
lo que representa que la funcin enciende a la funcin o seal en el instante de tiempo = .
Adicionalmente, si consideramos 0 y la funcin : [0 +) C, sta tiene la forma

0 si
[ )
( )() =
1 si [ )
As, si tomamos ahora la funcin , la funcin tiene el efecto fsico de apagar la
funcin , ya que

si
0
() si
( )() =

0
si

Adems de estas interpretaciones fsicas, la funcin de Heaviside es til para describir funciones
continuas a trozos que a su vez sean continuas por la derecha. Por ejemplo, la funcin

si 0 1

1 si 1 3
() =

sin si 3
puede escribirse como

() = [0 () 1 ()] + ( 1) [1 () 3 ()] + sin 3 ()


Esta forma de describir funciones continuas a trozos ser til en los siguientes apartados del tema
debido a las propiedades de la Transformada de Laplace que posteriormente estudiaremos. Por otra
parte hemos de comentar que al venir la Transformada de Laplace definida como una integral, la
condicin de ser la funcin continua por la derecha es irrelevante y todas las funciones pueden tomarse
de esta forma.

1.3.

Definicin de Transformada de Laplace

1.3.1.

Definicin y primeros ejemplos

Sea : [0 +) C una funcin localmente integrable, esto es, existe la integral de Riemann de
en todo intervalo compacto [0 ] [0 +). Se define la Transformada de Laplace de en C
como
Z +
L[]() =
()
(1.1)
0

siempre que tal integral impropia exista. Como el alumno debe conocer, la convergencia de la integral
Z +
| ()|
0

implica la convergencia de la integral (1.1). Denotaremos por D el dominio de L[], es decir, el


subconjunto del plano complejo donde la expresin (1.1) tiene sentido.
A continuacin vamos a ver ejemplos de Transformadas de Laplace de algunas funciones elementales.
4

Transformada de Laplace
Funcin de Heaviside. Sea 0 y consideremos la funcin de Heaviside definida anteriormente. Entonces para todo C tal que Re 0 se verifica
Z +
Z +

L[ ]() =
() =

0

= lm
= lm
+
+

En particular, cuando = 0 obtenemos


1
L[0 ]() =

Funcin exponencial. Sea C y consideremos la funcin exponencial () = . Se verifica


entonces para todo C tal que Re Re
Z +
Z +

L[]() =
=
()
0
0

Z
1
()
1
()
= lm

= lm

=
+ 0
+

En particular, si = 0 se verifica que () = 1, con lo que nuevamente


L[ ]() =

1
para todo C tal que Re 0.

Potencias. Sea un nmero natural y consideremos la funcin () = . Vamos ver que la


Transformada de Laplace de viene dada por la expresin
L[ ]() =

!
+1

para todo C tal que Re 0.

Para ver esto procedemos por induccin calculando en primer lugar la Transformada de 1 .
Integrando por partes obtenemos
Z
Z +

= lm

L[1 ]() =
+
0
0

1
1
=
+

= lm
+

2
2
A continuacin, por la hiptesis de induccin supongamos que L[ ]() = ! +1 y calculemos
la Transformada de +1 . Consideremos
Z +
Z
+1
= lm
+1
(1.2)
L[+1 ]() =
+

Tomando partes en la expresin anterior


Z
Z
+1 + 1
+1
+
=

0
0
5

(1.3)

Transformada de Laplace
Combinando (1.2) y (1.3) concluimos que
L[+1 ]() =

+1
( + 1)!

L[ ]() =

+2

Funciones peridicas. Las funciones peridicas son bastante importantes en ingeniera debido
a que su periodicidad las hace controlables. Sea : [0 +) C una funcin peridica con
periodo . Entonces
Z
Z
1 Z (+1)
1
X
X

() =
() =

()
0

=0

=0

realizando cambios de variable en las integrales y usando que la funcin es peridica de periodo
. Tomando lmites cuando +, se verifica para todo C tal que Re 0 la relacin
Z
1
L[ ]() =
()
1 0

1.3.2.

Dominio de definicin de la Transformada de Laplace

Los ejemplos que anteriormente hemos explicado ponen de manifiesto que la funcin Transformada de Laplace de una funcin : [0 +) C no tiene porque estar definida en todo el plano
complejo. Vamos a estudiar con precisin cmo es el dominio de definicin de estas funciones, pero
consideraremos una clase especial de funciones que tienen lo que llamaremos orden exponencial.
Una funcin : [0 +) C se dice que tiene orden exponencial si existen constantes 0 y
R de manera que para todo 0 se satisface la condicin
| ()|

(1.4)

Denotaremos por E el conjunto de funciones continuas a trozos con orden exponencial, que sern
las funciones con las que trabajaremos a partir de ahora. El siguiente resultado ofrece una primera
aproximacin sobre el dominio de definicin de la Transformada de Laplace de funciones con orden
exponencial.
Proposicin 1 Sea : [0 +) C una funcin continua a trozos cumpliendo la condicin (1.4).
Entonces L[]() est definida para todo nmero complejo tal que Re
Proof. Vamos a ver que la funcin () es absolutamente integrable para todo complejo tal
que Re . Para ello consideramos
Z +
Z +

| ()| =
Re | ()|
0
0
Z +

(Re )
0
Z
= lm
(Re )
+
0

1
(Re )
1
= lm

+ Re
Re
Re
6

Transformada de Laplace
con lo que la Transformada de Laplace existe en el subconjunto { C : Re }
Este resultado prueba que { C : Re } D . Si definimos
= inf{ R : 0 con |()| para todo 0}
y denotamos por
D = { C : Re }

La Proposicin 1 nos asegura que D D .

1.4.

Propiedades de la Transformada de Laplace

Una vez estudiada la definicin de Transformada de Laplace y caracterizadas algunas condiciones


para que una funcin tenga Transformada de Laplace L[] definida en un dominio del plano
complejo D , pasamos a estudiar algunas propiedades bsicas de esta transformada integral. La
primera propiedad que vamos a estudiar es la linealidad.

1.4.1.

Linealidad

Esta propiedad ser muy til para resolver ecuaciones diferenciales lineales con coeficientes constantes, a la vez que permitir el clculo de la transformada de algunas funciones.
Teorema 2 Sean E y C. Entonces para todo D D se verifica que
L[ + ]() = L[ ]() + L[]()
Proof. La demostracin se sigue inmediatamente de la linealidad de la integral. Consideremos
Z +
L[ + ]() =
(() + ())
0
Z
= lm
(() + ())
+ 0
Z
Z

() + lm
()
= lm
+

= L[ ]() + L[]()

lo que concluye la prueba.


A partir de la linealidad de la Transformada de Laplace podemos obtener nuevas Transformadas
de funciones elementales, como muestran los siguientes ejemplos.
Funcin seno. Sea R y consideremos la funcin

() = sin() =
2
7

Transformada de Laplace
Entonces

1
L[ ]() L[ ]()
2

1
1

= 2
=
2 +
+ 2

L[ ]() =

siempre que Re 0
Funcin coseno. Sea R y consideremos la funcin
() = cos() =

De forma anloga a la anterior se obtiene que


L[]() =

2 + 2

siempre que Re 0.
Funcin seno hiperblico. Sea R y consideremos la funcin
() = sinh() =

Entonces

1
L[ ]() L[ ]()
2

1
1

= 2
=
2 +
2

L[ ]() =

si Re ||.
Funcin coseno hiperblico. Sea R y consideremos la funcin
() = cosh() =

De forma anloga a la anterior se obtiene que


L[]() =
siempre que Re ||.
8

Transformada de Laplace

1.4.2.

Transformada de la derivada

Se dice que la funcin E es derivable a trozos si es continua, existen las derivadas laterales de
en cada punto de [0 +) y en cada subintervalo [ ] [0 +) existen a lo sumo una cantidad
finita de puntos donde no es derivable. Si es derivable a trozos, definimos 0 : [0 +) C como
0 () = +0 () para todo [0 +). Es claro entonces que 0 es una funcin continua a trozos, que
coincidir en casi todos los puntos con la derivada ordinaria. Se tiene entonces el siguiente resultado.
Teorema 3 Bajo las condiciones anteriores se verifica para todo D
L[ 0 ]() = L[ ]() (0)

(1.5)

Proof. Sean D y 0 y consideremos


0 1 2 1
los puntos de discontinuidad de 0 en el intervalo (0 ) y fijemos 0 = 0 y = . Entonces,
dividiendo el intervalo de integracin y utilizando la frmula de integracin por partes
Z

() =

Z
X
=1

0 ()

=1

( )

= () (0) +

(1 )] +

Z
X
=1

()

()

Tomando lmites cuando +, y teniendo en cuenta que D y que por tanto existen
R, 0, Re , tales que
|() | (Re ) 0 si +
obtenemos inmediatamente (1.5).
Procediendo por induccin a partir de la frmula (1.5) se prueba una frmula general para la
derivada sima de la funcin en el caso de que 1) sea derivable a trozos para N. Esta
frmula viene dada para todo D por
L[ ) ]() = L[ ]() 1 (0) 2 0 (0) 2) (0) 1) (0)

(1.6)

donde las derivadas sucesivas de en 0 se entienden como derivadas por la derecha.


Las frmulas 1.5 y 1.6 sern claves para resolver ecuaciones y sistemas diferenciales lineales con
coeficientes constantes, como veremos en el apartado de aplicaciones de este tema.
9

Transformada de Laplace

1.4.3.

Transformada de la integral

Sea E y definamos la funcin


() =

()

que obviamente est bien definida y es continua para todo [0 +). La relacin entre las Transformadas de Laplace de ambas funciones viene dada por el siguiente resultado.
Teorema 4 En las condiciones anteriores, para todo D { C : Re 0} se verifica
L[]() =

L[]()

(1.7)

Proof. Sea 0 y consideremos


0 = 0 1 1 =
de manera que no es continua en para 1 . Obviamente es derivable en ( +1 ) para
1 . Entonces
Z
1 Z +1
X

() =
()
0

=0
1
X

+1
( )
=
(+1 )

=0
Z

1
+
()
= ()

1X
+
=0
1

+1

()

teniendo en cuenta la continuidad de y (0) = 0. Vamos a comprobar que


lm () = 0.

Para ello y dado que E, existirn reales y 0 de manera que | ()| para todo 0.
Sea
Z
Z

()
Re
|() |
0

0
1

0 si +
= Re

Entonces tomando lmites en la expresin anterior obtenemos (??).

1.4.4.

Transformada de la convolucin

Sean E y definamos () = () = 0 para todo 0. Se define la convolucin de y


como la funcin
Z +
Z
( )() =
( )() =
( )()
0

Puede verse con el cambio de variable = que = . El principal inters de la convolucin


respecto a la Transformada de Laplace se concreta en el siguiente resultado.
10

Transformada de Laplace
Teorema 5 En las condiciones anteriores, para todo D D se verifica la frmula
L[ ]() = L[]()L[]()
Proof. En primer lugar, existen nmeros reales y 0, = 1 2, de manera que para todo 0
se verifica
|()| 1 y |()| 2

Entonces para todo 0

Z
Z

| ( )||()|
|( )()| = ( )()
0
0
Z

= 1 2
1 2
0

con lo que se ve fcilmente que ( )() es absolutamente integrable para todo Re , con
lo que L[ ]() existe para todo con Re . Por otra parte, como las funciones () y
() tambin son absolutamente integrables para todo Re , por el Teorema de Fubini (ver
[?, pag. 187]) se tiene que
Z

Z +

L[ ]() =

( )()
0
0

Z + Z
()

( ) ()
=
0
0

Z + Z +
()

( ) ()
=
0

Z + Z +
()
=

( ) ()
0

Z + Z +

() ()
=
0
0
Z +
=
L[ ]() () = L[]()L[]()
0

con lo que termina la prueba.

La demostracin de este resultado no la haremos a los alumnos, debido a que pensamos que sus
conocimientos le impedirn comprenderla completamente. No obstante la frmula ser bastante til
en las aplicaciones.

1.4.5.

Primer Teorema de Traslacin

Fijemos un nmero complejo y consideremos E. El primer teorema de desplazamiento hace


referencia a la transformada de la funcin () y afirma lo siguiente.
Teorema 6 Bajo las condiciones anteriores
L[ ()]() = L[]( )
para todo D + Re := { + Re : D }.
11

(1.8)

Transformada de Laplace
Proof. Sea

() = lm

de donde se deduce inmediatamente (1.8).

()

() =

() ()

A partir de este resultado podemos obtener las Transformadas de las funciones siguientes:
() = sin(), R, cuya Transformada de Laplace para todo nmero complejo tal que
Re Re es

L[]() =

( )2 + 2
() = cos(), R, cuya Transformada de Laplace para todo nmero complejo tal que
Re Re es

L[]() =

( )2 + 2
() = sinh(), R. Si Re || + Re , entonces

L[]() =
( )2 2
() = cosh(), R. Si Re || + Re , entonces

L[]() =

( )2 2
() = con N. Entonces
L[]() =
siempre que Re Re .

1.4.6.

!
( )+1

Segundo Teorema de Traslacin

Sea ahora 0 un nmero real y supongamos que E est definida por () = 0 para todo
0. Recordemos que es la funcin de Heaviside. Entonces tenemos el siguiente resultado.
Teorema 7 Bajo las anteriores condiciones se verifica para todo D
L[ ()( )]() = L[]()

Proof. Tomamos

()( ) =
=
=

lm

lm

lm

Z0

() ( )
( )

Z0 +
0

12

(+) ()
()

(1.9)

Transformada de Laplace
haciendo el cambio de variable = . De aqu se obtiene inmediatamente (1.9).
Este resultado es til para obtener la Transformada de Laplace de funciones continuas a trozos.
Por ejemplo consideremos la funcin

si 0 1
() =
0 si 1
Esta funcin puede describirse como
() = [0 () 1 ()]
Entonces
L[]() = L[0 ()]() L[1 ()]() = L[]() L[ + 1]()

+1
1
1
1
1

= 2
+
= 2 2
2

para todo C tal que Re 0.

1.5.

Propiedades de la funcin Transformada de Laplace

En esta seccin estudiamos la propiedades de la funcin Transformada de Laplace considerndola


como una funcin de variable compleja definida en un semiplano { C : Re }, R.
Dividimos la seccin en tres subsecciones.

1.5.1.

Derivabilidad de la Transformada de Laplace

Consideremos una funcin E y su Transformada de Laplace


L[ ] : { C : Re } C
Teorema 8 Bajo la notacin anterior, la funcin L[] es holomorfa para todo C tal que Re
y adems se verifica
Z +

()
L[]() =

0
En las condiciones del resultado anterior, obtenemos por induccin la frmula para la derivada
sima de la Transformada de Laplace
Z +

L[ ]() = (1)
()

0
Claramente la demostracin de este resultado no es apropiada para hacerla en clase, pues presupone muchos contenidos que no hemos explicado en la misma. Nos centraremos en que el alumno
entienda el resultado y sepa aplicarlo. Por ejemplo, calculando las Transformadas de las siguientes
funciones.
13

Transformada de Laplace
() = sin(), N y R. Se tiene siempre que Re 0 la relacin



L[]() = (1)

L[sin()]() = (1)

2 + 2
() = cos(), N y R. Se tiene anlogamente siempre que Re 0



L[ ]() = (1)

L[cos()]() = (1)

2 + 2
De forma similar se obtienen frmulas equivalentes para el coseno y seno hiperblicos.

1.5.2.

Teoremas del valor inicial

Estos resultados hacen alusin a aspectos cualitativos de la Transformada de Laplace de funciones


de la clase E.
Teorema 9 Sea E. Entonces

lm

Re +

L[ ]() = 0

(1.10)

Proof. Sea D . Existen nmeros reales 0 y de manera que | ()| para todo 0.
Entonces
Z
Z

|L[]()| lm
| ()| lm
(Re )
+

(Re

(
1)
= lm
=

+
Re
Re

de donde claramente obtenemos (1.10) al hacer Re +.


Continuamos esta seccin con otro resultado que estudia cuestiones cualitativas de la Transformada de Laplace.
Teorema 10 Asumamos que E es derivable a trozos y que 0 E. Entonces
lm

Re +

L[ ]() = (0)

(1.11)

Proof. Sea D . Por el Teorema 3 tenemos que


L[ ]() = (0) + L[ 0 ]()

(1.12)

Aplicando el Teorema 9 a (1.12) se tiene que lmRe + L[ 0 ]() = 0, de donde se deduce inmediatamente (1.11).
Los resultados anteriores muestran que no todas las funciones de variable
compleja pueden ser

Transformadas de Laplace de funciones de E. Por ejemplo, la funcin 1 no puede serlo al tenerse


que

lm =
Re +

14

Transformada de Laplace

1.5.3.

Teorema del valor final

Al igual que los resultados de la seccin anterior el Teorema del valor final aporta informacin
cualitativa de la Transformada de Laplace en conexin directa con la funcin de la cual es transformada.
Teorema 11 Sea E una funcin derivable a trozos tal que 0 E. Supongamos que 0 D y
que existe y es finito lm+ (). Entonces
lm L[ ]() = lm ()

Proof. Por el Teorema 3,


0

L[ ]() (0) = L[ ]() =

0 ()

Por el Teorema 8, L[ 0 ]() es derivable y por lo tanto continua. Entonces


0

lm L[ ]() = L[ ](0) =

0 () = lm () (0)
+

lo cual concluye la demostracin.

1.6.

Transformada de Laplace inversa

1.6.1.

Inyectividad de la Transformada de Laplace

Al intervenir en la definicin de Transformada de Laplace la integracin, est claro que puede


haber infinitas funciones en E teniendo la misma Transformada, por lo que la sta no ser inyectiva.
Sin embargo este problema puede paliarse en parte para as poder hablar de la Transformada inversa
de una funcin holomorfa definida en un semiplano complejo. Como veremos en las aplicaciones del
tema, este punto ser de vital importancia.
Consideremos : [0 +) C una funcin localmente integrable. Diremos que es nula o nula
casi por todas partes si para todo (0 +) se verifica que
Z

|()| = 0

Dos funciones : [0 +) C localmente integrables se dirn iguales casi por todas partes si
es nula. Se tiene entonces el siguiente resultado.
Proposicin 12 Sean E iguales casi por todas partes. Entonces L[]() = L[]() para todo
D D .
15

Transformada de Laplace
Proof. Sea 0 y D D . Por el Teorema del Valor Medio del Clculo Integral existe (0 )
tal que
Z
Z

As

()

Re

| () ()| = 0

()| =

|L[]() L[]()| = lm
+

Re

lm

()

()

| () ()| = 0

lo que termina la demostracin.


El siguiente resultado establece una especie de recproco para el resultado anterior.
Teorema 13 (Lerch) Sean E tales que L[]() = L[]() para todo D D . Entonces
y son iguales salvo a lo mejor en los puntos de discontinuidad de ambas, con lo que adems
D = D .
La demostracin de este resultado no la haremos en clase y no lo hemos incluido en la leccin ya
que no puede obtenerse de forma autocontenida con las tcnicas que tenemos a nuestra disposicin.

1.6.2.

Transformada de Laplace inversa

Consideremos la funcin
L : E L(E)
El Teorema 13 permite definir clases de equivalencia en E del siguiente modo. Dadas E se
dir que ambas estn relacionadas, si y slo si son iguales salvo a lo sumo en los puntos de
discontinuidad de ambas. Podemos definir entonces la Transformada de Laplace inversa
L1 : L(E) E
para L(E) como L1 [ ] = [] donde [] denota la clase de E de manera que L[] = .
En general con nuestros alumnos tenderemos a identificar clases con funciones que normalmente
podrn ser calculadas. As diremos que dada L(E) su Transformada inversa es una funcin
L1 [ ]() = () de forma que L[ ] = , aunque est perfectamente claro que tal no es nica.
En este contexto, destacamos las siguiente propiedades de Transformada inversa que sern especialmente interesantes a la hora de las aplicaciones.
Linealidad. Dadas L(E) y C se verifica
L1 [ + ]() = L1 [ ]() + L1 []()
Traslacin. Dada L(E) y 0 se cumple la relacin
L1 [ ()]() = ()L1 [ ]( )
16

Transformada de Laplace
Convolucin. Dadas L(E) se cumple
L1 [ ]() = (L1 [ ] L1 [])()
Estas propiedades son particularmente interesantes a la hora de obtener Transformadas inversas
de Laplace una vez conocidas las Transformadas directas.

1.6.3.

Frmula de inversin compleja

Aparte de las tcnicas estudiadas en el apartado anterior para hallar Transformadas inversas,
estudiaremos la siguiente frmula de inversin compleja.
Teorema 14 Supongamos que () es holomorfa en C \ {1 2 }, y que existe R tal que
es holomorfa en { C : Re }. Supongamos adems que existen constantes positivas ,
y tales que

| ()| si ||
(1.13)
||

Para 0 sea

() =

Res( () )

=1

Entonces

L[ ]() = () si Re
Proof. Sea y consideremos el rectngulo de la figura, suficientemente grande para que las
singularidades de estn contenidas en su interior y adems todo cumpla la condicin || .
Separamos en la suma de dos caminos cerrados 1 y 2 divididos por la recta Re = .

17

Transformada de Laplace
Como las singularidades de estn contenidas en el interior de 1 , por definicin de tenemos que
Z
() = 2()
1

Entonces
2L[]() =
=

lm

lm

Z Z
0

()

()

()
1

aplicando el Teorema de Fubini. Por integracin directa


Z
()
()
1

2L[ ]() = lm
+

Para fijo en el semiplano Re , el trmino () converge uniformemente a 0 si + y el


integrando converge a ()( ) en 1 . As
Z
Z
Z
()
()
()
2L[ ]() =
=

1
2

Z
()

= 2 ()

Por otra parte, sea () = , [0 2] una circunferencia de radio y conteniendo a .
Entonces
Z
Z
()
()
=



de donde

Z
()

|| ( ) 2 0 si +

As
Z
()
= 0

y como era arbitrario, la frmula L[]() = () es vlida para todo Re .

Remarquemos aqu que la condicin (1.13) del resultado anterior se cumple para funciones de la
forma () = ()() donde y son polinomios tales que deg 1 + deg , donde deg
denota el grado de . As por ejemplo, la Transformada inversa de la funcin

() = 2
+1
puede calcularse como
L1 [ ]() = ()
= Res( () ) + Res( () )

= +
= cos
2
2
18

Transformada de Laplace

1.7.

Aplicaciones: una primera aproximacin

La Transformada de Laplace es una herramienta til para resolver ecuaciones y sistemas de


ecuaciones diferenciales lineales con coeficientes constantes. Como comentamos en la introduccin
del tema, estas ecuaciones aparecen de forma natural en la teora de circuitos elctricos. Para ilustrar
el mtodo, consideremos el siguiente ejemplo: la ecuacin
00 + = cos

(1.14)

(0) = 0; 0 (0) = 1

(1.15)

junto con las condiciones iniciales


Bsicamente se trata de aplicar la Transformada de Laplace y sus propiedades a (1.14) de manera
que teniendo en cuenta (1.15), nuestro problema se convierte en el problema algebraico

2 L[]() (0) 0 (0) + L[]() = 2


+1
de donde
2 + + 1
L[]() =

( 2 + 1)2
Una vez obtenida L[], hemos de usar la Transformada inversa para volver atrs y recuperar la
solucin del problema . En este caso, L[] satisface las condiciones del Teorema 14, por lo que

2
2
+ + 1
+ + 1
+ Res

() = Res
( 2 + 1)2
( 2 + 1)2
= (1 + 2) sin
una vez realizados los clculos.

1.8.

Uso de la convolucin

Otra forma de abordar el problema anterior, sin necesidad de tener que calcular la Transformada
de Laplace de la funcin coseno es la siguiente. Consideremos los clculos realizados anteriormente,
pero sin obtener L[]() donde () = cos . Nos quedar entonces la ecuacin algebraica
2 L[]() 1 + L[]() = L[ ]()

de donde
L[]() =

1
1
+ 2
L[]()
+1 +1

Entonces
() = L1 [1( 2 + 1)]() + L1 [L[ ]()( 2 + 1)]()
= sin + (L1 [L[]()] L1 [1( 2 + 1)])()
Z
= sin +
sin( ) cos
0

1
= sin + (cos(2 ) + 2 sin
4
0

= sin + sin = (1 + 2) sin


2
19

Transformada de Laplace
que era la solucin obtenida anteriormente.
As, el uso del producto de convolucin presenta una va alternativa para la resolucin de estos
problemas, aunque a veces el clculo de las integrales que aparecen en el producto de convolucin
pueden ser bastante complicado.

1.9.

Ejercicios

1. Calcular la transformada de Laplace de las siguientes funciones


(a) () = sin(3) (b) () = 5

(c) () = 5 cos 3 (d) () =

(e) () = 3 (f) () = sinh (g) () = cos sin (h) () = cos sin(2)


2. Una funcin : [0 +[ R se dice que es peridica con periodo 0 o -peridica si para
cada 0 se tiene que () = ( + ). Comprobar que en caso de existir la transformada de
Laplace de , se verifica la igualdad
Z
1
L()() =
()
1 0
3. Usar el resultado de la actividad anterior para calcular la transformada de Laplace de la funcin
perdica de periodo 2 definida en [0 2] por

si [0 1]
() =
2 si [1 2]
4. Dada la funcin,
() =

sin

calcular su transformada de Laplace. Calcular asimismo la transformada de Laplace de () =


().
5. Dada la funcin (), definimos la funcin () = (), que puede verse como un cambio de
escala en . Comprobar que
1
L[]() = L[ ()]() = L[]()

Utilizar dicha frmula para calcular la transformada de la funcin sin() a partir de


L[sin ]() =

1 + 2

6. Calcular la transformada de Laplace de la funcin,

si 0 1
1 si 1 2
() =

0 si 2
20

Transformada de Laplace
7. Calcular la transformada de Laplace de las siguientes funciones.
2

1 si 0 2
0 si 0 1
(c) () =
(a) () = | sin | (b) () =
si 1
2
si 2
8. Calcular la transformada de Laplace de la funcin escalonada

0 1
() =
0 1 2
extendida a todo [0 +[ como 2-peridica.
9. Existir la transformada inversa de Laplace de las siguientes funciones de variable compleja?
Razonar las respuestas.
(a) () =

sin

(b) () =

(c) () =

1 + 2

(d) () =

1 + cos ( 2 )

10. Calcular la transformada inversa de Laplace de las funciones siguientes


(a) () =

2
1 + 3

(b) () =
() () =

1
( 1)( 2 2)

(c) () =

+7
+ 2 + 5

1
( + 1)( + 2)( 2 + 2 + 10)

11. Calcular la transformada inversa de Laplace de las siguientes funciones:


(a) () =

2 + 2 + 5

(b) () =

( 1)
3 + 2

(c) () =

+1
+ 9)

2 ( 2

(d) () =

+1
4

12. Calcular las transformadas inversas de Laplace de las funciones:


(a) () =

0)
(b)

()
=
1 + 2
( 1)( + 2)2
() () =

(c) () =

1
+ 2

+2

2
( 2)( 3 1)

13. Utilizar la transformada de Laplace para resolver los siguientes problemas de Cauchy asociados
a ecuaciones diferenciales lineales con coeficientes constantes:

0 () + 3() = 2
000 () + 5 00 () + 17 0 () + 13() = 1
(0) = 0 (0) = 1 00 (0) = 0
(0) = 2

00 () + () =
00 () + 0 () 2() = 54 ()
(0) = 1 0 (0) = 0
(0) = 1 0 (0) = 2
21

Transformada de Laplace
14. Resolver los siguientes problemas de valores iniciales:

1
00
0
() + () = () con () =
0 1
(0) = 0 0 (0) = 2

00 () + () = sin

(0) = 0 (0) = 1

15. En el caso de un circuito LCR en el que no se tiene ninguna resistencia, la ecuacin diferencial
que describe la carga del condensador en funcin del tiempo es de la forma,

2
()
= ()
()
+
2

y se denomina oscilador armnico. Resolver la ecuacin anterior en los siguientes casos:


a) La fuerza electromotriz es constante y la carga e intensidad de corriente en el momento
inicial son ambas nulas.
b) La fuerza electromotriz es de la forma sin( + ), con R, mientras que (0) = 1
al conectar el circuito.
16. Usar la transformada de Laplace para resolver el siguiente sistema de ecuaciones diferenciales
lineales:
)
2100 () 200 () 10 () 20 () + 91 () 32 () = 0
2100 () 200 () + 10 () + 20 () + 71 () 52 () = 0

con las condiciones iniciales:

1 (0) = 10 (0) = 1

2 (0) = 20 (0) = 0

17. Encuentra la solucin del siguiente problema de Cauchy,


00 () + () = sen( )
(0) = 0

0 (0) = 1

con 1.
18. Encuentra la solucin del oscilador armnico dado por la ecuacin diferencial:
00 () + () = sin ( )

( R 0)

que verifica las condiciones iniciales:


0 (0) = 0

(0) = 12

(06-09-99)

19. Resuelve el siguiente problema de Cauchy:


00 () + () = cos ()
(0) = 1 0 (0) = 0
distinguiendo los casos en que 0 y 0 .
22

Transformada de Laplace
20. Obtener la solucin del siguiente sistema de ecuaciones diferenciales,
)
310 () + 20 () 21 () = 3 sin + 5 cos
210 () + 20 () + 2 () = sin + cos

para las condiciones iniciales, 1 (0) = 0, 2 (0) = 1.

23

Transformada de Laplace

24

Captulo 2
Estabilidad de ecuaciones diferenciales
Sumario. Ecuaciones y sistemas de ecuaciones lineales. Funciones de transferencia.
Nociones de estabilidad. Criterios de estabilidad. Estabilidad de sistemas autnomos
no lineales.

2.1.

Ecuaciones y sistemas lineales: generalidades

Para nosotros, un sistema de ecuaciones diferenciales es una expresin de la forma

1 ( 1 10 2 20
) = 0;

2 ( 1 0 2 0 0 ) = 0;
1
2

..

( 0 0 0 ) = 0;

donde 1 2 son funciones reales a determinar que dependen de y : R1+2 R,


1 , son funciones reales de varias variables. Se suele suponer que hay igual nmero de
ecuaciones que de incgnitas de manera que todas las ecuaciones son independientes, es decir, ninguna
puede deducirse de las dems. Estamos interesados en aquellos sistemas de ecuaciones diferenciales
en los que podemos despejar la primera derivada de cada una de las funciones incgnita, es decir,
sistemas de la forma

10 = 1 ( 1 2 );

0 = 2 ( 1 2 );
2
..

0 = ( );

donde : R1+ R, 1 , son funciones reales. Ejemplos de estos sistemas son


0
1 = 1 + 22 ;
20 = + 1 + 2 ;
0
1 = 1 + 22 3 ;
0 = + 1 + 2 3 ;
20
3 = 1 2 3 ;
25

Estabilidad de ecuaciones diferenciales


En general la resolucin de estos sistemas no es posible, salvo en casos excepcionales. Slo para el
caso de los sistemas de ecuaciones diferenciales lineales con coeficientes constantes, que veremos un
poco ms tarde existen algoritmos que permiten el clculo explcito de las soluciones. Sin embargo,
es relativamente sencillo saber cundo un sistema tiene solucin, o ms precisamente cundo un
problema de condiciones iniciales asociado tiene solucn. Primero claro est, debemos definir qu
entendemos por un problema de condiciones iniciales para sistemas de ecuaciones diferenciales. Dicho
problema es un sistema de ecuaciones diferenciales

10 = 1 ( 1 2 );

2 = 2 ( 1 2 );
..
.

= ( 1 2 );

( ) = ( ) = ( ) =
1 0
1 2 0
2
0

junto con las condiciones (0 ) = , donde 0 1 2 son nmeros reales. Por ejemplo
0
= 1 + 22 3 ;

10
2 = + 1 + 2 3 ;
0 = 1 2 3 ;

3
1 (0) = 2 2 (0) = 0 3 (0) = 1

es un problema de condiciones iniciales. Ntese que todas las condiciones iniciales implican el conocimiento de la funcin en 0, es decir, lo siguiente
0
= 1 + 22 3 ;

10
2 = + 1 + 2 3 ;
0 = 1 2 3 ;

3
1 (0) = 2 2 (1) = 0 3 (0) = 1
no sera un problema de condiciones iniciales, ya que conocemos 2 en 1 e 1 e 3 en 0.

Para el caso de los problemas de condiciones iniciales para sistemas de ecuaciones diferenciales
tenemos el siguiente resultado anlogo al de ecuaciones diferenciales de orden uno.
Teorema 15 Sea el problema de condiciones iniciales

10 = 1 ( 1 2 );

2 = 2 ( 1 2 );
..
.

= ( 1 2 );

( ) = ( ) = ( ) =
1 0
1 2 0
2
0

donde (0 1 ) , : R1+ R, 1 , son funciones reales continuas en el

abierto . Supongamos adems que las funciones


existen y son continuas en . Entonces existe

una solucin del problema de condiciones iniciales anterior : R, 1 definido en un


intervalo abierto de la recta real.
26

Estabilidad de ecuaciones diferenciales


Este resultado es fcil de aplicar. Por ejemplo el problema que consideramos anteriormente
0
1 = 1 + 22 3 ;

0
2 = + 1 + 2 3 ;
0 = 1 2 3 ;

3
1 (0) = 2 2 (0) = 0 3 (0) = 1

es tal que 1 ( 1 2 3 ) = 1 + 22 3 , 2 ( 1 2 3 ) = + 1 + 2 3 y 3 ( 1 2 3 ) = 1 2 3
son funciones definidas en R4 , continuas y las derivadas parciales de cada funcin respecto de 1 2
e 3 son continuas. Entonces este problema de condiciones iniciales tiene solucin nica, aunque no
tengamos ni idea de cmo calcularla. Se ver en la asignatura de cuarto curso mtodos numricos cmo
obtener soluciones aproximadas, y en esta misma asignatura estudiaremos cmo obtener informacin
parcial sobre el sistema incluso sin conocer las soluciones.

2.1.1.

Sistemas de ecuaciones diferenciales lineales

Como hemos comentado anteriormente en general no va a ser posible resolver sistemas de ecuaciones diferenciales salvo en ciertos casos particulares. Uno de ellos va a ser el de los sistemas de
ecuaciones diferenciales lineales de coeficientes constantes, cuya teora general pasamos a estudiar.
Vamos a ver a continuacin cmo son las soluciones de un sistema de este tipo, pero antes necesitamos
conocer un poco ms sobre stos. Un sistema de ecuaciones diferenciales lineales es una expresin
de la forma
0
= 11 ()1 + 12 ()2 + + 1 () + 1 ()

10
2 = 21 ()1 + 22 ()2 + + 2 () + 2 ()

0
= 1 ()1 + 2 ()2 + + () + ()

donde para cada 1 , y son funciones reales definidas sobre un intervalo . Si denotamos
por

11 () 12 () 1 ()
21 () 22 () 2 ()

A() = ( ())1
1 =


1 () 2 () ()
y por

1 ()
2 ()

b() = (1 () 2 () ()) =

()
e

1
2

y = (1 2 ) =

el sistema anterior puede escribirse de forma matricial como

y0 = A() y + b()
27

(2.1)

Estabilidad de ecuaciones diferenciales


donde por y0 se entender la derivada coordenada a coordenada, es decir,
0
1
0

2
y0 = (10 20 0 ) =

0
Por ejemplo, los sistemas

10 = 1 + 2 + 1 2
20 = 1 2 +

0
1 = 1 + 2 2 + 3 + 1 2
0 = 1 2 2 +
20
3 = 1 + (1 )2 + 3

son lineales. Un sistema se dir homogneo si b() = (0 0 0) , es decir, el sistema


0
1 = 1 + 2 2 + 3
0 = 1 2 2
20
3 = 1 + (1 )2 + 3

es homogneo. Se dir no homogneo en caso contrario. Nosotros le prestaremos una gran atencin
a los sistemas lineales con coeficioentes constantes. Un sistema de ecuaciones diferenciales lineales se
dir de coeficientes constantes si la matriz A() = A es constante. Ejemplos de tales sistemas, tanto
homogneos como no homogneos son
0
1 = 21 + 2 + 1 2
20 = 1 2 +
0
1 = 21 2 + 3
0 = 1 2 + 73
20
3 = 41 + 2 + 3
Veremos en los sucesivos temas cmo resolver estos ltimos sistemas, dando un algoritmo que permitir el clculo de la solucin general del mismo.

Previamente, estudiaremos la teora general de los sistemas de ecuaciones lineales y para posteriormente particularizarla al caso de las ecuaciones lineales de orden mayor o igual que dos (ver la
ltima seccin de este tema). Esta teora general de los sistemas de ecuaciones diferenciales lineales se
sustenta en la nocin de espacio vectorial de dimensin finita estudiadas en la parte de lgebra lineal
impartida durante el curso y utiliza el siguiente resultado sobre existencia y unicidad de soluciones
de ecuaciones y sistemas que se deducen directamente del Teorema 15.
Teorema 16 Sea y0 = A() y + b() un sistema de ecuaciones diferenciales lineales donde A y
b estn definidas en un intervalo 0 = [0 0 + ]. Si estas funciones son continuas en dicho
intervalo, entonces el problema de condiciones iniciales
0
y = A() y + b()
y(0 ) = y0
tiene solucin nica definido en todo 0 .
28

Estabilidad de ecuaciones diferenciales


Recordemos por un instante dos nociones que ser importante tener claras para entender la teora
que a continuacin vamos a desarrollar. Por un lado hemos de tener presente que bajo la notacin
que estamos utilizando, una solucin de un sistema lineal es una funcin y : ( ) R R , o dicho
de otro modo, un vector cuyas componentes son funciones reales. Por ejemplo, dado el sistema
0
1 = 2
20 = 1
una solucin del mismo es y() = (sin cos ) , es decir, 1 () = sin e 2 () = cos .
Por otra parte, recordemos una nocin de bsica del lgebra lineal. Si tenemos vectores cuyas
componentes son funciones y1 y2 y , se dicen linealmente independientes si para toda combinacin lineal
1 y1 + 2 y2 + + y = 0
donde R, 1 , y 0 es el vector que tiene a la funcin nula en cada componente, entonces
necesariamente = 0, 1 .
Vamos a empezar el estudio de los sistemas homogneos, empezando por el siguiente resultado.
Las demostraciones de los siguientes resultados estn basados en el Teorema 16.
Teorema 17 El conjunto de soluciones del sistema homogneo
y0 = A() y

(2.2)

tiene estructura de espacio vectorial de dimensin sobre R, esto es, cualquier solucin y del mismo
es de la forma
y = 1 y1 + 2 y2 + + y
donde 1 2 R e y1 y2 y son soluciones linealmente independientes del mismo.
Proof. En primer lugar, veamos que cualquier combinacin lineal de soluciones del sistema (2.2)
es una solucin del mismo. Para ello, sean y1 y2 y soluciones de (2.2) y 1 2 R.
Consideramos el vector de funciones z = 1 y1 + 2 y2 + + y y derivamos respecto de la
variable independiente (notar que z = z()), obtenindose, por ser y1 y2 y soluciones de (2.2)
que
z0 =
=
=
=

1 y10 + 2 y20 + + y0
1 A() y1 + 2 A() y2 + + A() y
A() [1 y1 + 2 y2 + + y ]
A() z

que prueba que z es solucin.


Sea ahora C = {u1 u2 u } la base cannica de R , es decir, para cada {1 2 }, u es
el vector de R que tiene 0 en todas las componentes salvo en la sima, donde tiene un 1. Sea 0
29

Estabilidad de ecuaciones diferenciales


un nmero real y supongamos que A() est definida en 0 (ver Teorema 16). Para cada 1 ,
consideramos el problema de condiciones iniciales
0
y = A() y;
y(0 ) = u
En virtud del Teorema 16, para cada {1 2 } existe una nica solucin de dicho problema,
que denotaremos por y , definida en 0 . Vamos a ver que B = {y1 y2 y } forman una base del
conjunto de soluciones del sistema 2.2.
Veamos primero que son linealmente independientes. Para ello sea
1 y1 + 2 y2 + + y = 0.
Particularizamos en 0 y obtenemos que
1 y1 (0 ) + 2 y2 (0 ) + + y (0 ) = 0(0 ) = 0,
y por ser cada y solucin del problema de condiciones iniciales, y (0 ) = u , 1 , de donde
1 u1 + 2 u2 + + u = 0
Como los vectores u son los elementos de la base cannica de R , son linealmente independientes y
por tanto = 0, 1 , de donde y1 y2 y son linealmente independientes.
Acto seguido, vamos a ver que B es un sistema generador del conjunto de soluciones del sistema
(2.2). Para ello sea z una solucin arbitraria del sistema (2.2). Sea 0 el nmero real del apartado
anterior. Como C es una base de R , se verifica que existen 1 2 R tales que
z(0 ) = 1 u1 + 2 u2 + + u
Sea el vector de funciones
z1 = 1 y1 + 2 y2 + + y
y consideremos el problema de condiciones iniciales
0
y = A() y;
y(0 ) = z(0 )
Claramente tanto z como z1 son soluciones de dicho problema. Como la solucin es nica en virtud
del Teorema 16, se tiene que
z = z1 = 1 y1 + 2 y2 + + y
por lo que B tambin es un sistema generador y la demostracin concluye.
Aunque el resultado anterior caracteriza las soluciones del sistema homogneo, el clculo explcito de las soluciones dista mucho de estar al alcance. Un primer avance en el objetivo del clculo de las soluciones lo proporciona el determinante wronskiano, definido de la manera siguiente.
30

Estabilidad de ecuaciones diferenciales


Dadas y1 y2 y : R R se define su determinante wronskiano como la funcin real
[y1 y2 y ] : R R definida todo como
[y1 y2 y ]() := |y1 (); y2 (); ; y ()|
El determinante wronskiano resulta ser til a la hora de determinar si soluciones del sistema
homogneo son o no linealmente independientes, como pone de manifiesto el siguiente resultado.
Proposicin 18 Sean y1 y2 y : R R soluciones del sistema homogneo y0 = () y.
Son equivalentes:
(a) y1 y2 y son linealmente independientes.
(b) [y1 y2 y ]() 6= 0 para todo .
(c) Existe 0 tal que [y1 y2 y ](0 ) 6= 0.
Proof. Veamos en primer lugar que (a) implica (b). Procedemos por reduccin al absurdo suponiendo
que (b) es falso, esto es, existe 0 tal que [y1 y2 y ](0 ) = 0. Entonces los vectores de R
son linealmente dependientes, es decir, existen 1 2 R, no todos nulos, tal que
1 y1 (0 ) + 2 y2 (0 ) + + y (0 ) = 0
Consideremos el problema de condiciones iniciales
0
y = A() y;
y(0 ) = 0
Obviamente el vector de funciones 0 (cuyas componentes son la funcin nula) es solucin de dicho
problema. Por otra parte, procediendo como en el final de la demostracin del Teorema 2.18, vemos
que la funcin
z = 1 y1 + 2 y2 + + y
tambin es solucin de dicho problema. Como la solucin debe ser nica por el Teorema 16, tenemos
que
z = 0 = 1 y1 + 2 y2 + + y
Como los escalares no eran todos nulos, tenemos que las funciones y1 y2 y no pueden ser
linealmente independientes, lo que nos lleva a una contradiccin.
(b) implica (c) es trivial. La demostracin de (c) implica (a) es anloga a la demostracin del
Teorema 2.18, cuando se comprueba que las funciones son linealmente independientes.
Ahora bien, seguimos todava muy lejos de resolver un sistema homogneo. De hecho, los mtodos
que permitirn dar soluciones explcitas a los sistemas planteados tendrn que esperar a los prximos
temas. La teora general, en lo que a la estructura de las soluciones, queda cerrada al establecer la
siguiente caracterizacin de los sistemas no homogneos.
31

Estabilidad de ecuaciones diferenciales


Teorema 19 El conjunto de soluciones del sistema
y0 = A() y + b()

(2.3)

es de la forma
y = 1 y1 + 2 y2 + + y + y
donde 1 2 R, y1 y2 y son soluciones linealmente independientes del problema homogneo e y es una solucin particular del problema no homogneo.
Proof. Sea y una solucion particular del sistema (2.3) y sea y otra solucin. Consideremos el vector
de funciones z = y y y veamos que es solucin del sistema homogneo asociado a (2.3). Para ello
calculamos
z0 =
=
=
=

y0 y0
A() y + b() [A() y +b()]
A() [y y ]
A() z

Por el Teorema 2.2, existen soluciones del sistema homogneo asociado linealmente independientes
y1 y2 y tales que
z = 1 y1 + 2 y2 + + y
donde 1 2 R. Teniendo en cuenta la definicin de z concluimos que
y = 1 y1 + 2 y2 + + y + y
con lo que se concluye la demostracin.

2.1.2.

Teora general para ecuaciones lineales de orden

Una ecuacin diferencial de orden 1 es una expresin de la forma


) = ( 0 1) )

(2.4)

donde : R+1 R. Esta ecuacin puede transformarse en un sistema de ecuaciones diferenciales de orden uno de la manera siguiente. Introducimos las variables dependientes 1 = , 2 = 0 ,
3 = 00 ,..., = 1) y entonces la ecuacin (2.4) puede escribirse como el sistema
0
1 = 2

20 = 3

0 =

1
0 = ( 1 2 )
Por ejemplo, la ecuacin de orden tres

3) = + 0 00
32

Estabilidad de ecuaciones diferenciales


puede escribirse como el sistema

0
1 = 2
0 = 3
20
3 = + 1 2 3
De aqui se ve que para tener un problema de condiciones para la ecuacin, necesitamos condiciones
iniciales 1 (0 ) = (0 ) = 0 , 2 (0 ) = 0 (0 ) = 00 ,..., (0 ) = 1) (0 ) = 01 , es decir, necesitamos
conocer el valor de la funcin y de las sucesivas derivadas hasta la 1 en un punto 0 . Entonces,

en virtud del Teorema 15 vemos que si es continua y las derivadas


, 1 , son continuas,

el problema de condiciones iniciales tiene solucin nica. Por ejemplo, el problema de condiciones
iniciales
3)
= + 0 00
(0) = 0 0 (0) = 1 00 (0) = 2
tiene solucin nica.
Nos ocuparemos expecialmente de ecuaciones diferenciales de orden que llamaremos lineales y
que a continuacin describimos. Por una ecuacin diferencial lineal de orden entenderemos una
expresin de la forma
() ) + 1 () 1) + + 1 () 0 + 0 () = ()

(2.5)

donde para 0 , y son funciones reales de variable real definidas en un intervalo de la recta
real . Siempre que () sea diferente de cero, podemos escribir la ecuacin como
) + 1 () 1) + + 1 () 0 + 0 () = ()

(2.6)

donde () = () (), 0 , y () = () (). Por ejemplo, las ecuaciones


000 + 2 0 =

00 + 2 0 + =
6) 7 3) + 2 00 + (log ) = 0

son ecuaciones lineales de rdenes tres, dos y seis, respectivamente. Como hemos visto anteriormente,
una ecuacin de orden puede escribirse como el sistema
0
1 = 2

20 = 3

0 =

1
0 = () [1 () + + 1 ()2 + 0 ()1 ]
que en forma matricial se escribe como

y0 = A() y + b()
donde

A() =

0
1
0
0
0
0
1
0
0
0
0
1

0 () 1 () 2 () 3 ()
33

1 ()

Estabilidad de ecuaciones diferenciales


y b() = (0 0 0 ()) . Diremos entonces que la ecuacin (3.1) es homognea o no homognea
segn se sea b() nulo o no, es decir, si () = 0 para todo . Adems, la ecuacin se dir de
coeficientes constantes cuando A() sea constante, es decir, cuando () = R para todo
0 .
Tanto los Teoremas 2.18 y 2.19 como la Proposicin 18 admiten la siguiente lectura en trminos de
ecuaciones lineales. A la vista de que cualquier ecuacin lineal puede escribirse como un sistema aadiendo las derivadas como funciones, cualquier solucin del sistema y es de la forma ( 0 1 ),
donde : R R es una funcin suficientemente derivable. En esta lnea, destacamos entonces
que el wronskiano puede escribirse como
[1 2 ]() = [y1 y2 y ]() := |y1 (); y2 (); ; y ()|

1 () 2 ()

()

0
0
0
1 () 2 ()

()

1)

1)
1)

()

()

()

1
2

donde 1 2 son las primeras componentes de y1 y2 y . Podremos enunciar entonces los


siguientes resultados.
Teorema 20 El conjunto de soluciones de la ecuacin homognea
) + 1 () 1) + + 1 () 0 + 0 () = 0
tiene estructura de espacio vectorial de dimensin sobre R, esto es, cualquier solucin de la
misma es de la forma
= 1 1 + 2 2 + +
donde 1 2 R e 1 2 son soluciones linealmente independientes del mismo.

Proposicin 21 Sean 1 2 : R R soluciones de la ecuacin homognea


) + 1 () 1) + + 1 () 0 + 0 () = 0
Son equivalentes:
(a) 1 2 son linealmente independientes.
(b) [1 2 ]() 6= 0 para todo .
(c) Existe 0 tal que [1 2 ](0 ) 6= 0.
Teorema 22 El conjunto de soluciones de la ecuacin
) + 1 () 1) + + 1 () 0 + 0 () = ()
es de la forma
= 1 1 + 2 2 + + +

donde 1 2 R, 1 2 son soluciones linealmente independientes del problema homogneo e es una solucin particular del problema no homogneo.
34

Estabilidad de ecuaciones diferenciales

2.2.

Resolucin desistemas lineales de coeficientes constantes

Vamos a considerar sistemas de la forma


y0 = A y + b()

(2.7)

donde A = ( )1
1 es una matriz cuadrada, b() = (1 () 2 () ()) donde para 1 ,
son funciones reales definidas sobre un intervalo de la recta real e y = (1 2 ) . Los mtodos
que vamos a estudiar son matriciales por lo que es necesario tener frescos conceptos sobre la teora
de matrices y especialmente con la diagonalizacin de stas.

2.2.1.

Resolucin del sistema homogneo

Vamos a introducir un mtodo matricial para la resolucin de sistemas de ecuaciones lineales con
coeficientes constantes que est basado en el clculo de la exponencial de una matriz utilizando el
Teorema de CayleyHamilton. Explicaremos en primer lugar en qu consiste el Teorema de Cayley
Hamilton y posteriormente introduciremos la exponencial de una matriz, que nos va a proporcionar
la solucin de sistemas homogneos de la forma
y0 = A y
donde A = ( )1
1 es una matriz cuadrada.
Teorema de CayleyHamilton

1
+ + 1 + 0 ,
Supongamos que A = ( )1
1 es una matriz cuadrada y () = + 1
es un polinomio de coeficientes reales. Si intercambiamos por A construimos lo que denominaremos
un polinomio matricial
(A) = A + 1 A1 + + 1 A + 0 I

Ntese que el trmino independiente del polinomio aparece multiplicado por la matriz identidad I .
Por ejemplo, si

1 2
A=
3 4
y () = 3 + 2 1, entonces

(A) = A3 + 2A I2

1 0
1 2
1 2

=
+2
0 1
3 4
3 4

38 58

=
87 125
El Teorema de CayleyHamilton afirma lo siguiente.
Teorema 23 (CayleyHamilton). Sea A = ( ) una matriz cuadrada y sea () = |A I |
su polinomio caracterstico. Entonces (A) = 0.
35

Estabilidad de ecuaciones diferenciales


Demostracin. Como sabemos del tema inicial,
|A I | I = () I = (A I ) (A I )
donde (A I ) es la matriz traspuesta de la adjunta de A I . Entonces (A I ) =
( ()), donde () son polinomios reales en de grado a lo sumo 1. Podemos reordenar dicha
matriz como
(A I ) = B1 1 + B2 2 + + B1 + B
donde B M (R). Entonces
() I = (B1 1 + B2 2 + + B1 + B ) (A I )
= B1 + (B1 A B2 ) 1 + + (B1 A B ) + B A
de donde sustituyendo por la matriz A tenemos
(A) = (A) I
= B1 A + (B1 A B2 ) A1 + + (B1 A B ) A + B A = 0
con lo que termina la demostracin.
A modo de ejemplo, dada la matriz anterior, su polinomio caracterstico es
() = 2 5 2
y si calculamos
(A) = A2 5A 2I2

2 0
5 10
7 10

=
0 2
15 20
15 22

0 0
=

0 0
Este teorema ser clave para poder obtener una frmula que permita resolver sistemas de ecuaciones
diferenciales lineales con coeficientes constantes.
El polinomio caracterstico de una matriz cuadrada A no tiene porqu ser el de menor grado que
satisfaga el teorema de CayleyHamilton. Un polinomio () se dice mnimo para la matriz cuadrada
A si (A) = 0. En general se sabe que () divide al polinomio caracterstico de A, es decir, dicho
polinomio ser de la forma
() = ( 1 )1 ( )
donde , 1 son los valores propios de A y = 1 + + , donde es el grado del
polinomio caracterstico ().
Como sabemos, para que la matriz A sea diagonalizable tiene que cumplirse que si
() = (1) ( 1 )1 ( )
entonces para cada valor propio debe cumplirse que su multiplicidad algebraica = dim Ker(A
I ), donde Ker(A I ) es el subespacio propio asociado al valor propio . Esta condicin es
equivalente a que = 1, siendo el exponente del monomio en el polinomio mnimo.
36

Estabilidad de ecuaciones diferenciales


Veamos un par de ejemplos. Consideremos la matriz

0 1 1
A = 1 2 1
1 1 2

que tiene valores propios 1 (doble) y 2 (simple). Esta matriz ser diagonalizable si su polinomio
mnimo es () = ( 1)( 2). Calculamos
(A) = (A I3 ) (A 2 I3 ) = 0,

por lo que dicha matriz es diagonalizable.Sin embargo

1 1
A = 1 2
0 1

la matriz

0
1
1

tiene los mismos valores propios con las mismas multiplicidades y sin embargo

1 0 1
(A) = (A I3 ) (A 2 I3 ) = 0 0 0
1 0 1

por lo que no puede ser diagnalizable.


Adems, si es valor propio de A, para comprobar la relacin = dim Ker(A I ), basta
comprobar que 1 (A) = 0, siendo
1 () = ( )

2.2.2.

()

( )

Resolucin de sistemas. La exponencial de una matriz

En esta seccin vamos a obtener una frmula para resolver sistemas de ecuaciones de la forma
y0 = A y

(2.8)

donde A es una matriz cuadrada de coeficientes reales. Para esto, debemos recordar un caso particular
de ste cuando la matriz es de una fila y una columna, es decir, cuando tenemos la ecuacin lineal
homognea de orden uno
0 = R

En este caso, la solucin general de esta ecuacin es de la forma


() = R

Por analoga con el caso unidimensional, para el caso general la solucin del sistema (2.8) va a ser
de la forma
y() = A C
donde C es un vector columna constante y A es la exponencial de la matriz A definida por la
serie

A
A :=
!
=0
Para hacer ms comprensible este captulo, vamos a dar algunas nociones sobre la exponencial de
una matriz.
37

Estabilidad de ecuaciones diferenciales


La exponencial de una matriz
Consideremos una matriz cuadrada A. Como hemos definido anteriormente, la exponencial de
dicha matriz viene definida, en analoga con la exponencial de un nmero real, viene dada por la
serie

X
1
A
=
A
!
=0

donde supondremos que A0 = I . Esta serie siempre es convergente, es decir, para toda matriz
cuadrada con coeficientes reales la serie anterior nos proporciona una matriz de coeficientes reales.
Hay casos en los que es bastante sencillo calcular la exponencial de una matriz. Por ejemplo,
si D = diag(1 ) es una matriz diagonal, entonces para todo nmero natural se tiene que
D = diag(1 ) y entonces
D

=
=

X
=0

X
=0

1
!

diag(1 )

= diag

=0
1

=0

= diag( )
Por ejemplo, si

1
!
!

1 0 0
D = 0 2 0
0 0 2

entonces

0 0
D = 0 2 0
0 0 2

Adems, la exponencial de una matriz cumple la siguientes propiedades (que no justificaremos). Si


A y B son matrices cuadradas que conmutan, esto es A B = B A, entonces
A+B = A B

(2.9)

Dado el vector columna C, la funcin y() = A C est definida para todo R, es derivable y
y0 () =

A
C = A A C = A y()

es decir, es solucin del sistema de ecuaciones diferenciales lineales con coeficientes constantes (2.8).
Ahora bien, consideremos el sistema
0

1
1 1
1
=

1 1
20
2
38

Estabilidad de ecuaciones diferenciales


La solucin de este sistema es la matriz

1 1
1 1

1
2

pero cmo calculamos dicha matriz? A continuacin vamos a ver un mtodo basado en el Teorema de
CayleyHamilton que permite hacer el clculo con cierta facilidad, aunque los clculos sean laboriosos.
Clculo prctico de la exponencial
Para fijar ideas supongamos que () es el polinomio caracterstico de la matriz A y que tiene
races reales o complejas 1 2 con multiplicidades 1 2 . Buscamos entonces polinomios
1 () 2 () () con grado a lo sumo 1 para cada 1 , de manera que se verifique la
igualdad
1 ()
2 ()
()
1
=
+
+ +

1
2
()
( 1 )
( 2 )
( )
de donde

(2.10)

1 = 1 ()1 () + 2 ()2 () + + () ()
con () = ()( ) , 1 . Sustituyendo en (2.10) por A tendremos
I = 1 (A)1 (A) + 2 (A)2 (A) + + (A) (A)

(2.11)

Dado que para todo 1


I

=0

( )
= I

entonces
A = I (A I ) =

(A I )
!
=0

De aqu, multiplicando por la izquierda ambos miembros por (A)


A

(A)

X
=0

X
1
=0

(A)(A I )

(A)(A I )

dado que por el Teorema de CayleyHamilton, para todo se tiene que (A)(A I ) =
(A)(A I ) = 0. Multiplicando nuevamente por la izquierda por (A) obtendremos
(A) (A)A =

X
1
=0

(A) (A)(A I )

39

(2.12)

Estabilidad de ecuaciones diferenciales


Sumando (2.12) desde 1 hasta y teniendo en cuenta (2.11) concluimos que la exponencial de la
matriz puede calcularse con la frmula

!
X

A =
(A) (A)

(2.13)
(A I )
!
=1
=0
Consideremos por ejemplo el sistema

10 = 41 + 22 ;
20 = 31 + 32

La matriz asociada al sistema es


A=

4 2
3 3

y el polinomio caracterstico
() = 2 7 + 6
que tiene por races 1 = 1 y 2 = 6. Calculamos ahora 1 y 2 a partir de
1
1
2
(1 + 2 ) 61 2
=
+
=

()
1 6
()
de donde obtenemos el sistema

1 + 2 = 0
61 2 = 1

que tiene por solucin 1 = 15 y 2 = 15. Adems


1 () = ()( 1) = 6
y
2 () = ()( 6) = 1
Aplicamos ahora la frmula (2.13) y tenemos que
A = (15I2 ) I2 (A 6I2 ) + 6 (15I2 ) I2 (A I2 )

6
1
3 + 2 26 2

=
36 3 26 + 3
5
La solucin del sistema ser

1
1 ()
=
2 ()
5
1
=
5
esto es
1 () =

2
6

(31 + 22 ) + (21 22 )

6 (31 + 22 ) + (31 + 32 )

36 + 2 26 2
36 3 26 + 3

1 6
(31 + 22 ) + (21 22 )
5
40

Estabilidad de ecuaciones diferenciales


e

1 6
(31 + 22 ) + (31 + 32 )
5
donde 1 y 2 son dos constantes reales. Si tuvisemos alguna condicin inicial, por ejemplo, 1 (0) =
1 2 (0) = 0, entonces planteando el sistema
2 () =

1 (0) = 1 = 1
2 (0) = 2 = 0
obtendramos que

1
1 () = (36 + 2 )
5

1
2 () = (36 3 )
5
es la nica solucin de dicho problema de condiciones iniciales.
Consideremos ahora el sistema

10 = 31 + 2 ;
20 = 1 + 2 ;

cuyo polinomio caracterstico asociado a la matriz A es () = 2 4 + 4, que tiene por solucin la


raz doble = 2. Entonces
1
1
1
=

=
2
()
( 2)
()
de donde 1 = 1 y
1 = ()( 2)2 = 1
Aplicando la frmula (2.13) tenemos que
A

1
X

= 1 (A)1 (A)
(A 2I2 )
!

=0

1 1

= 2 I I I +
1 1

1+

2
=
1 +
2

con lo que la solucin del sistema

1 ()
(1 + )2
1
2
=

2 ()
2
(1 + )2
2
donde 1 y 2 son dos constantes reales (la expresin definitiva de 1 e 2 se deja como ejercicio al
lector).
Si por ltimo tomamos el sistema

10 = 31 52 ;
20 = 1 2 ;
41

Estabilidad de ecuaciones diferenciales


podemos ver que el polinomio caracterstico asociado a la matriz A es () = 2 2 + 2 que tiene
por races los nmeros complejos conjugados 1 = 1 + y 2 = 1 . De la expresin

1
1
2
(1 + 2 ) + 1 (1 + ) + 2 (1 )
=
+
=

()
( 1 ) ( 1 + )
()
que da lugar al sistema

1 + 2 = 0
1 (1 + ) + 2 (1 ) = 1
que nos da como solucin 1 =

1
2

y 2 = 21 . Teniendo en cuenta que


1 () = 1 +

y
2 () = 1

se tiene aplicando la frmula (2.13)


1
1
A = (1+) I2 (A (1 )I2 ) (1) I2 (A (1 + )I2 )
2

2
2+
5
2
5

1
1

=
1
2 +
1
2
2
2


+

+
5

2
2
2
2
=


+
2
+
2
2
2

2 sin + cos
5 sin

=
sin
2 sin + cos
dado que

cos =
y

+
2


sin =

2
Entonces toda solucin del sistema viene dada por la expresin

1
2 sin + cos
5 sin
1 ()

sin
2 sin + cos
2 ()
2

donde 1 y 2 son dos constantes reales.

Los tres ejemplos anteriores resumen los casos que pueden darse para el caso de sistemas de dos
ecuaciones con dos incgnitas, es decir, que el polinomio caracterstico tenga dos soluciones reales
distintas, una real doble o dos complejas conjugadas. Cuando el nmero de ecuaciones es mayor,
pueden aparecer otros casos, pero bsicamente la matriz exponencial contiene en sus coordenadas
funciones de la forma
cos() y sin()
donde 0 y y son nmeros reales. En cualquier caso, resolveremos sistemas que a lo sumo
tienen cuatro ecuaciones con cuatro incgnitas, pues a partir de ese nmero de ecuaciones los clculos
suelen ser muy largos y engorrosos en general.
42

Estabilidad de ecuaciones diferenciales

2.2.3.

El mtodo de variacin de constantes

Volvamos ahora sobre el sistema no homogneo (2.7) y supongamos conocida la solucin general
del sistema homogneo asociado. Para terminar de resolver el sistema no homogneo usaremos el
mtodo de variacin de constantes. Para ello supongamos que la solucin es de la forma
y() = A C()
donde C() es una funcin a determinar. Derivando respecto de obtendremos que
y0 () = AA C() + A C0 () = A y() + A C0 ()
Sustituyendo en el sistema no homogneo tendremos
A y() + A C0 () = A y() + b()
o equivalentemente
A C0 () = b()

Dado que la matriz A es invertible (recordar la Proposicin 18) y teniendo en cuenta que
A A = 0 = I

concluimos que A es la inversa de A y entonces


Z
C() = A b()

Una vez calculada C() obtenemos la solucin del sistema no homogneo.


Por ejemplo, consideremos el sistema

10 = 41 + 22 + ;
20 = 31 + 32

que tambin podemos escribir como


0


1
4 2
1

0
3 3
2
2
0
Ya vimos que la exponencial de la matriz del sistema era

6
1
3 + 2 26 2
A
=

36 3 26 + 3
5
por lo que a partir de (2.14) obtenemos

Z 6
1 3

+ 2 26 2
1 ()

2 ()
3
2
+ 3
0
5 3

Z 5
1
3
+2

=
35 3
5

R
1 R (35 + 2)
=
(35 3)
5

1 35 5 + 2 + 1
=

5 35 5 3 + 2
43

(2.14)

Estabilidad de ecuaciones diferenciales


con lo que la solucin
6
1
3 + 2
y() =

36 3
5
6
1
3 + 2

=
36 3
25

1 35 5 + 2 + 1

5 35 5 3 + 2

1
1
10 3
26 2

+
3 15
26 + 3
2
25

26 2
26 + 3

Ntese que una solucin particular del sistema es


1
y () =
25

10 3
3 15

por lo que haciendo = 5, = 1 2, tenemos que

1
A
+ y ()
y() =
2
tal y como el Teorema 2.19 afirmaba.
Si por ejemplo consideramos el problema de condiciones iniciales
0
1 = 41 + 22 + ;
0 = 31 + 32 ;
2
1 (0) = 0 2 (0) = 1;

se verificar que

1 (0)
2 (0)

0
1

1
=
25

1
2

1
+
25

3
3

de donde
1 = 3
y
2 = 22
de donde sustituyendo en la solucin general concluimos que

1
1 ()
136 + (10 13)
=
2 ()
25 136 + (12 15)
es la nica solucin de dicho problema de condiciones iniciales.

2.3.

Resolviendo sistemas mediante la transformada de Laplace

Supongamos que tenemos un sistema de ecuaciones lineales de la forma


y0 () = A y()+f()
44

(2.15)

Estabilidad de ecuaciones diferenciales


donde A es una matriz cuadrada de filas por columnas con coeficientes reales, f = (1 2 )
donde son funciones dadas e y = (1 2 ) es la funcin vectorial incgnita. Supongamos
adems las condiciones iniciales
(2.16)
y(0) = y0
donde y0 = (10 20 0 ) con 0 nmeros reales para 1 . Sea
L[y]() = (L[1 ]() L[2 ]() L[ ]())
Entonces, tomando la Transformada de Laplace en (2.15) y teniendo en cuenta (2.16) obtenemos que
L[y]() y0 = A L[y]() + L[f]()
de donde, si I denota la matriz identidad,
(I A) L[y]() = y0 + L[f]()
y de aqu
L[y]() = (I A)1 (y0 + L[f]())

(2.17)

Una vez calculada de este modo L[y]() obtendremos y tomando la Transformada inversa.
Por ejemplo consideremos el sistema

0

1
1
2 3
1
=
+
3 2
0
20
2
junto con las condiciones iniciales

1 (0)
2 (0)

2
1

De (2.17)

L[1 ]()
L[2 ]()

1
2
3
=
3 2

1
2
= 2
3
4 + 13

!
2

2 2
( 2 4+13)
2 +8+3
( 2 4+13)

2 + 1
1

3
2

2+1

Entonces la solucin del problema viene dada por


!

2 2
L1 [ (224+13)
]()
1 ()
=
2 +8+3
2 ()
L1 [ (
2 4+13) ]()

1
282 cos(3) + 162 sin(3) 2
=

13 282 sin(3) 162 cos(3) + 3


45

Estabilidad de ecuaciones diferenciales

2.4.

Problemas con funciones discontinuas

Supongamos que el problema

00 + = ();
(0) = 0 0 (0) = 1;

viene dada ahora con la funcin discontinua

si 0
() =
cos(2) si
Podemos escribir ahora
( 2 + 1)L[]() = 1 + L[]()
Por otra parte
() = (0 () ()) + () cos(2)
con lo que
L[]() = L[0 ()]() + L[ ()]() + L[ () cos(2)]()
Desarrollando cada sumando por separado, obtenemos
L[0 ()]() = 1 2
L[ ()]() = L[( ) ()]() + L[ ()]()

=
2

L[ () cos(2)]() = L[ () cos(2( ))]()

= 2

+4
Combinando estas expresiones tenemos
2 + 1
( + 1)L[ ]() + 1 =
+
2
2

+ +
2 2 + 4

Entonces
2 + 1
L[]() = 2 2
+
( + 1)

+
+

2 ( 2 + 1) ( 2 + 1) ( 2 + 4)( 2 + 1)
1

y as

1
1
1
1

() = L
() + L

() + L
()
2
2 ( 2 + 1)
( 2 + 1)

()
+L
( 2 + 4)( 2 + 1)
= + 1 ( ) () + 2 ( ) () + 3 ( ) ()
1

46

Estabilidad de ecuaciones diferenciales


donde las funciones 1 , 2 y 3 se determinan de la siguiente manera.

1
1
1
1
1
1
() L
() = L
() = sin
1 () = L
2 ( 2 + 1)
2
2 + 1

1
1 1
1
2 () = L
() = L
() L
() = 1 cos
( 2 + 1)

2 + 1

()
3 () = L
( 2 + 4)( 2 + 1)

1 1

1 1
1
1
=
L
()

L
()
=
cos

cos(2)
3
2 + 1
3
2 + 4
3
3
1

Entonces
1
1
cos( ) cos(2 2)]
3
3
= (1 ()) + ()[2 + sin + (3 1)3 cos cos(2)3]

() = + ()[( ) sin( ) + cos( ) +


o equivalentemente
() =

2.5.

si 0
2 + sin (3 1)3 cos cos(2)3 si

Sistemas autnomos, puntos crticos y nocin de estabilidad

Consideremos un sistema de ecuaciones diferenciales


y0 = f( y)
donde f : R+1 R es una funcin con regularidad suficiente para satisfacer la unicidad de
soluciones para un problema de condiciones iniciales o de Cauchy. Si la variable independiente no
aparece explcitamente en las ecuaciones del sistema, es decir, el sistema es de la forma
y0 = f(y)
donde f : R R , se dice que el sistema de ecuaciones es autnomo. Por ejemplo, el sistema
0
= +
0 =
es no autnomo mientras que

0 =
0 =

0 = 4(1 )
47

(2.18)
(2.19)

Estabilidad de ecuaciones diferenciales


son autnomos.
Aunque estos sistemas pueden no ser fciles de resolver, es sencillo encontrar determinadas soluciones particulares. Entre ellas destacan las soluciones constantes, cuyascondiciones iniciales vienen
dadas por las soluciones del sistema algebraico
f(y) = 0.
Si y0 y verifica que

f(y0 ) = 0,

entonces la solucin constante de la forma


y() = y0
es la nica solucin del problema de condiciones inciales
0
y = f(y)
y(0 ) = y0
para todo 0 R. As, resolviendo el sistema

= 0
= 0

vemos que (0 0) es el nico punto crtico del sistema (2.18), mientras que al resolver la ecuacin
4(1 ) = 0
comprobamos que 0 y 1 son los puntos crticos de la ecuacin (2.19). Como veremos posteriormente,
estos puntos sern de gran importancia en el anlisis de la estabilidad de un sistema. Veamos que se
entiende por estabilidad.
Definicin 1 Sea el sistema autnomo
y0 = f(y)

(2.20)

donde y = (1 2 ) y f : R R es una funcin con funciones coordenadas 1 2 .


Una solucin y() de (2.20) definida para todo 0 se dice estable si para todo 0 existe 0
tal que si z() es otra solucin que cumple la condicin ||y(0) z(0)|| entonces z() est definida
para todo 0 y se verifica que ||z() y()|| para todo 0. Si adems se verifica que
lm ||z() y()|| = 0

la solucin y() se dir asintticamente estable. La solucin y() se dir inestable si no es estable.
Por ejemplo, consideremos la ecuacin
0 =
cuyas soluciones son de la forma
() = 0 0
48

Estabilidad de ecuaciones diferenciales


para condiciones iniciales (0 ) = 0 . Claramente, para dos soluciones 1 () e 2 () se verifica que
lm |2 () 1 ()| = +

por lo que dicha ecuacin es iniestable en todas sus soluciones. Lo contrario ocurre con la ecuacin
0 =
que es asintticamente estable. Finalmente, dado que las soluciones del sistema
0
=
0 =
son circunferencias concentricas con centro (0 0), se tiene que las soluciones del sistemas son estable
aunque no asintticamente estables.

2.6.

Estabilidad de sistemas lineales

Consideremos ahora un sistema lineal y0 = A y donde la matriz A tiene filas y columnas.


Aunque en este caso no disponemos de la representacin de los diagramas de fases del mismo, s que
es posible determinar la estabilidad del mismo, con un resultado anlogo al anterior. Para establecer
el mismo, dada la matriz A, denotaremos por 1 los valores propios de A con multiplicidades
1 . Asmismo, denotaremos por 1 las dimensiones sobre C de los subespacios propios
Ker(A 1 I ) Ker(A I ).
Teorema 24 Sea el sistema lineal plano y0 = A y, A (R) no nula. Entonces
(a) El sistema es estable si Re 0, 1 , y adems si verifica que Re = 0, entonces
= .
(b) El sistema es asintticamente estable si Re 0 para todo = 1 .
(c) El sistema es inestable si o bien existe tal que Re = 0 y , o bien existe tal que
Re 0.
Ejemplo 1 Consideremos el sistema
0
= 3 + 2 + 2
0 = 2 + + 2
0
= 2 + 2 +

Es fcil ver que 1 y 1 son los valores propios de la matriz asociada al sistema, por lo que en virtud
del Teorema 24 (c), ste es inestable.
Ejemplo 2 Sea ahora el sistema

0
= 2 +
0 = 2
0
= + 2

Podemos ver ahora que los valores propios de la matriz asociada son 1, 2 y 3, por lo que por el
Teorema 24 (b), el sistema es asintticamente estable.
49

Estabilidad de ecuaciones diferenciales


Ejemplo 3 Sea el sistema

0
= 4 + + 3
0 = 2
0
= 2

Puede comprobarse que 2 y 4 son los valores propios de la matriz del sistema. Cmo las dimensiones de los subespacios propios de los valores propios son 1 y coincide con la multiplicidad de
stos, por el Teorema 24 (a) y (b) el sistema ser estable, aunque no ser asintticamente estable.
La aplicacin del Teorema 24 tiene a priori un punto flaco puesto de manifiesto por el siguiente
ejemplo. Consideremos el sistema
0
= 2 + 2
0 = 3 9
0
= 4 + +

Este sistema coincide con el del apartado (d) del ejercicio anterior en todos los coeficientes de la matriz
asociada excepto el primero. El polinomio caracterstico es () = 3 102 1263, pero resolver
la ecuacin () = 0 no resulta sencillo, y quizs ni siquiera factible para los conocimientos de los
que se disponen. Ahora bien, para aplicar el Teorema 24 en la mayora de los casos slo necesitamos
conocer los signos de las partes reales de los valores propios de la matriz asociada. Para este objetivo
podemos usar el siguiente criterio de Routh-Hurwitz que, aunque no siempre es aplicable, supone
una gran ayuda para determinar al menos si el sistema es asintticamente estable.
Proposicin 25 Sea () = (1) ( + 1 1 + + 1 + ) el polinomio caracterstico de
la matriz A (R). Las races de () tienen parte real negativa si y slo son estrictamente
positivos los menores principales de la matriz

1 3 5 0
1 2 4 0

0 1 3 0

HA =
0 1 2 0


0 0 0
Ejemplo 4 Consideremos el sistema

0
= 3 + +
0 = 4 +
0
= 2 3

El polinomio caracterstico de la matriz asociada es

10 41
1 34
0 10

() = 41 34 102 3 y la matriz HA

0
0
41

cuyos menores principales son 10, 299 y 12259. Est claro entonces que todos los valores propios de
la matriz A tienen parte real negativa, por lo que el sistema ser asintticamente estable.
50

Estabilidad de ecuaciones diferenciales


Adems puede ser de utilidad el siguiente resultado que denominaremos Teorema de crculo de
Gershgorin.
Teorema 26 Sea A = ( ) M (R) con valores propios 1 . Entonces todos los valores
propios estn en el conjunto del plano de la forma
{ + C :
donde =

=1

p
p
( 11 )2 + 2 1 } { + C : ( )2 + 2 }

| | | |, = 1 2 .

Demostracin. Si es valor propio de A con vector propio v = (1 ) C y = max{| | :


= 1 }. Definimos
1
u= v = (1 )

que tambin es vector propio de tal que max{| | : = 1 } = | | = 1. Entonces

0 = 0

=1

con lo que

=1
6=0

As

0 = ( 0 0 )0

X
X

0
|0 || |
|0 | = 0
| 0 0 | =
=1
=1
=1
6=0
6=0
6=0

con lo que el resultado queda probado.


Vemos cmo se aplica este resultado en el siguiente ejemplo.
Ejemplo 5 Consideremos el sistema
0
= 4 + +
0 = 2 +
0
= 4 5

El conjunto a que hace referencia el resultado anterior es


{( ) :

p
p
p
( + 4)2 + 2 2} {( ) : ( + 2)2 + 2 1}{( ) : ( + 5)2 + 2 4}
51

Estabilidad de ecuaciones diferenciales


que grficamente representamos por

por lo que todos los valores propios tienen parte real negativa y el sistema es por tanto asitticamente
estable.
Ejercicio 1 Determinar si es posible la estabilidad asinttica de los siguientes sistemas
0
0
0
5
14 + 14
= 3 +
= 12
= 12
5
0 = 1 12 (b)
0 = 5
0 = 5 13
12

(c)
(a)
12
0
0 212
0 12
1
2
5
= 2 2
= 2 2 4
= 3 3 6

2.6.1.

Por qu un sistema estable es til en ingeniera?

Supongamos que tenemos un sistema de ecuaciones diferenciales lineales no autnomo


y0 = A y + f()
donde A (R) y supongamos que el sistema autnomo asociado
y0 = A y
es asintticamente estable. Entonces toda solucin del sistema autnomo
y () = A C C R
verifica que
lm y () = 0

Ahora bien, toda solucin del sistema no autnomo es de la forma


y() = y () + y ()
52

(2.21)

Estabilidad de ecuaciones diferenciales


donde y () es una solucin particular del sistema no homogneo. Si tomamos lmites cuando tiende
a infinito, tenemos que
y() ' y ()
es decir, para tiempos grandes (aqu lo de grande depende de cada sistema) la solucin del sistema no
autnomo es bsicamente la solucin particular del mismo y la parte de la solucin correspondiente al
sistema homogneo se va reduciendo con el tiempo. En ingeniera a la funcin f() se le llama entrada
del sistema e y () es la salida del mismo. Si el sistema es estable, al variar la entrada, vara la salida
sin que la parte homognea intervenga en el proceso. Esto es lo que ocurre en la mayora de los
sistemas lineales utilizados en las ciencias experimentales, como en circuitos elctricos o vibraciones
mecnicas.

2.7.

Funciones de transferencia. Estabilidad y control de sistemas lineales

Supongamos un sistema dado por la ecuacin


) + 1 1) + + 1 0 + 0 = ) + 1 1) + + 1 0 + 0

(2.22)

donde , R para 0 y R para 0 . es una seal entrada del sistema


e es la respuesta que produce en sistema a la excitacin que representa. Aplicando formalmente
la transformada de Laplace a (2.22) con todas las condiciones iniciales nulas obtenemos
()L[]() = () L[]()
donde es un polinomio de grado y es un polinomio de grado . La funcin de transferencia
del sistema, se define como
L[]()
()
() =
=

L[ ]()
()

La estabilidad del sistema puede estudiarse a partir de los polos de la funcin de transferencia,
entendiendo por estabilidad de un sistema lo siguiente. El sistema ser asintticamente estable si
en ausencia de excitacin ( = 0) y para cualquier condicin inicial que consideremos se verifica
que |()| 0 si +. Ser estable si existen 0 y 0 0 tales que |()| si 0 .
Finalmente es sistema es inestable si lm+ |()| = +. Se tiene entonces el siguiente resultado.
Q
P
Teorema 27 Sea () = =1 ( ) , =1 = . Entonces el sistema (2.22) es
(a) Asintticamente estable si Re 0 para todo = 1 2 .

(b) Estable si Re 0 y Re = 0 implica que la multiplicidad de es 1.


(c) Inestable si no se cumplen algunas de las condiciones (a) o (b) anteriores.
Proof. Sean , 1 las races de () con multiplicidades . Para 1 , consideremos
los polinomios
Y

() = ( ) 1 ( ) 1
6=

53

Estabilidad de ecuaciones diferenciales

Es fcil comprobar que B = { () : 1 ; 1 } es una base del conjunto de


polinomios con coeficientes en el cuerpo de los nmeros complejos de grado a lo sumo 1.
Consideremos el problema de condiciones iniciales
) + 1 1) + + 1 0 + 0 = 0

(2.23)

(0) = 1 0 (0) = 2 1) (0) =

(2.24)

donde 1 2 son nmeros reales arbitrarios.


Supongamos en primer lugar que Re 0 para todo = 1 2 . Entonces, sean cuales fueran
las condiciones (2.24) se tiene que la solucin del problema es de la forma
() =

X
X

=1 =1

X
X

L1 [1( ) ]()

=1 =1

1

( 1)!

donde los coeficientes , 1 , 1 vienen determinados a partir de las condiciones


iniciales del problema. Como Re 0, es claro que lm+ |()| = 0.
Supongamos ahora que existe {1 2 } de manera que Re 0. Como B es una base,
existen condiciones iniciales de manera que para las mismas la solucin () contiene un trmino de
la forma
L1 [1( )]() =

con C \ {0}. Entonces claramente lm+ |()| = +.

Consideremos ahora que toda raz de (), con Re = 0 tiene multiplicidad uno ( = 1) y
las restantes races tienen parte real negativa. Entonces para cualquier condicin inicial la solucin
() verifica que si Re = 0, entonces existe C tal que
L1 [1( )]() = = (cos( Im ) + sin( Im ))
aparece en la solucin. Teniendo en cuenta que todas las races tienen parte real menor o igual que
cero y el primer apartado, existir 0 tal que si es suficientemente grande se verifica
X
| | +
|()|
Re =0

lo que prueba que el sistema es estable.


Por ltimo, supongamos que existe una raz de (), con Re = 0 y con multiplicidad mayor
que uno. En estas condiciones existen condiciones iniciales de manera que () contiene un trmino
no nulo de la forma
L1 [1( )2 ]() = = (cos( Im ) + sin( Im ))
obviamente lm+ |()| = +.
54

Estabilidad de ecuaciones diferenciales

2.7.1.

Respuesta a una seal sinusuidal

Supongamos un sistema asintticamente estable con funcin de transferencia () de manera que


es estimulado por una funcin de tipo seno de la forma
() = sin( + )
donde 0 es la amplitud, es la frecuencia y es la fase inicial. Como sabemos, el seno es una
funcin 2 peridica, por lo que
sin( + ) = sin( + + 2) = sin(( + 2) + )
por lo que = 2 se llama periodo de la seal, es decir la frecuencia = 2 . Como sabemos,
si la fase inicial = 0, la transformada de Laplace de dicha seal ser de la forma
() =

+ 2

y la respuesta a largo tiempo del sistema () vendr dada por la expresin


() = () ()
Ahora bien, dicha respuesta se calcular como
() = L1 [ () ()]()
y dado que el sistema era asintticamente estable, se tiene que los polos de la funcin de transferencia
tienen parte real negativa, por lo que ninguno de ellos coincidir con los polos de () que son
. En el clculo de la transformada inversa, los polos de la funcin de transferencia dan lugar
a trminos que aparecen multiplicados por factores de la forma , con 0, y que tienden a
cero muy rpidamente cuando +. Por ello, al calcular la transformada inversa para tiempo
suficientemente grande basta con tomar los polos , es decir, podemos asumir que

( )
( + )
) + Res( () 2
)
2
2
+
+ 2

= ()
()

2
2
Tomando la forma polar de () y (), y teniendo en cuenta que los coeficientes del sistema
son reales obtenemos que
() = | ()| arg ()
() = Res( ()

() = | ()| arg () = | ()| arg ()

Sustituyendo en la relacin anterior

()
2
2

= | ()| arg ()
| ()| arg ()
2
2
(+arg ())
(+arg ())

= | ()|
2
= | ()| sin( + arg ())

() = ()

55

Estabilidad de ecuaciones diferenciales


El trmino | ()| mide si la respuesta amplifica o atenua la seal, mientras que arg () representa
un variacin de la fase respecto de la incial. Asmismo, () puede ser determinado experimentalmente introduciendo una seal sinusuidal.

2.8.
2.8.1.

Estabilidad local de sistemas autnomos


Mtodo de linealizacin de Lyapunov. Teorema de HartmanGrobman

Analizaremos a continuacin la estabilidad de puntos crticos de sistemas autnomos mediante


un mtodo que es comnmente usado en las ciencias experimentales, el mtodo de linealizacin.
Supongamos un sistema autnomo
y0 = f(y)
(2.25)
con f definido sobre el abierto R y sea y0 R un punto crtico aislado del mismo (un punto
crtico es aislado si existe 0 tal que la bola abierta de centro y0 y radio no contiene puntos
crticos aparte de y0 ). Consideremos el sistema linealizado dado por
y0 = Jf(y0 ) y

(2.26)

donde Jf(y0 ) es la matriz Jacobiana de f en el punto y0 . Por ejemplo consideremos el sistema


0
= 2 + 2 + 2
0 = 23 + 2
Es evidente que (0 0) es un punto crtico del sistema. La matriz Jacobiana en (0 0) es

2 0
Jf(0 0) =
0 2
y el sistema linealizado ser

0 = 2
0 = 2

Es de esperar que localmente (cerca del punto crtico y0 ), el comportamiento asinttico de los sistemas (2.25) y (2.26) sea parecido. Este parecido se precisar con el Teorema de HartmanGrobman,
para cuya compresin necesitaremos algunas definiciones previas.
En primer lugar necesitamos una herramienta para comparar localmente sistemas autnomos.
Esta herramienta es la conjugacin topolgica [?, pag. 239]. Los sistemas (2.25) y (2.26) se dice
topolgicamente conjugados si existe una aplicacin continua, biyectiva con inversa continua h :
R verificando la condicin h(y( y0 )) = z( h(y0 )) para todo y0 [aqu z( h(y0 )) representa la
solucin maximal de (2.26) con condicin inicial h(y0 )]. Si existen abiertos de R y de manera
que son topolgicamente conjugados los sistemas restringidos a estos abiertos, entonces los sistemas
(2.25) y (2.26) se dirn localmente topolgicamente conjugados. Para entendernos, una conjugacin
topolgica lleva rbitas de un sistema en rbitas del otro sistema, preservando la orientacin temporal.
La segunda definicin que interviene en el enunciado del Teorema de HartmanGrobman es el de
punto crtico hiperblico. Con la notacin anterior y0 se dice hiperblico si los valores propios de la
56

Estabilidad de ecuaciones diferenciales


matriz Jacobiana Jf(y0 ) tienen parte real no nula. En caso contrario y0 se dir no hiperblico. En el
ejemplo anterior, el valor propio de la matriz Jacobiana es 2 con multiplicidad 2, por lo que (0 0) es
un punto crtico hiperblico.

Teorema 28 (HartmanGrobman) Sea y0 un punto aislado crtico hiperblico de (2.25). Entonces existen entornos de y0 y de 0 tales que los sistemas (2.25) y (2.26) son localmente
topolgicamente conjugados.

En virtud del teorema anterior sabemos que los sistemas

0 = 2 + 2 + 2
0 = 23 + 2

0 = 2
0 = 2

son localmente topolgicamente conjugados en un entorno del punto (0 0). As, si el diagrama de
fases del sistema linealizado es (ver ejemplo ??)

sin conocer exactamente las rbitas del sistema no linealizado sabemos que cerca de (0 0) se obtienen
deformando de forma continua las rbitas del sistema linealizado, como por ejemplo muestra la
57

Estabilidad de ecuaciones diferenciales


siguiente figura:

Obsrvese como en el dibujo las rectas del sistema linealizado son deformadas y transformadas en
curvas. Adems, como la orientacin temporal se conserva, la estabilidad del punto crtico puede
estudiarse a partir del sistema no linealizado. As, el punto crtico (0 0) es inestable para el sistema
no linealizado dado que es inestable para el sistema linealizado.
Hemos de enfatizar el carcter local del Teorema de HartmanGrobman. Por ejemplo consideramos el sistema
0
=
(2.27)
0 = 1 2 2
con dos puntos crticos hiperblicos, (0 1) y (0 1). A partir del resultado anterior vemos que (0 1)
es asintticamente estable y (0 1) es inestable, pero obviamente el sistema (2.27) no puede ser
globalmente conjugado a los sistemas y0 = Jf(0 1) y o y0 = Jf(0 1) y, dado que stos slo tienen
un punto crtico.

2.8.2.

El mtodo directo de Lyapunov

Aunque el Teorema de HartmanGrobman proporciona una herramienta til para distinguir la


estabilidad de puntos crticos hiperblicos, resulta ineficaz para tratar la misma cuestin con puntos
crticos no hiperblicos. Una opcin alternativa vlida tambin en el caso de no hiperbolicidad es
el mtodo directo de Lyapunov, de clara inspiracin fsica. Consideremos nuevamente el sistema
autnomo
y0 = f(y)

(2.28)

y sea y0 un punto crtico, hiperblico o no, del mismo. El mtodo directo de Lyapunov consiste en
encontrar una funcin escalar : R, con un entorno de y0 , satisfaciendo ciertas condiciones.
Esta funcin puede ser considerada como una medida de la energa potencial del sistema, de manera
que a lo largo de las rbitas sta decrece cuando , indicando estabilidad, o bien crece, indicando
inestabilidad. Precisemos a continuacin estas ideas.
58

Estabilidad de ecuaciones diferenciales


Dada una solucin y = (1 2 ) de (2.28), la derivada de a lo largo de y() es
X (y())
X (y())

(y()) =
0 () =
(y()) = grad (y()) f(y())

=1
=1

donde f = (1 2 ) y grad denota el gradiente de . Definimos entonces la derivada total de


como

(y) := grad (y) f(y)


El siguiente resultado nos garantiza la estabilidad del punto crtico en cuestin.
Teorema 29 Sean y0 un punto crtico del sistema (2.28) y : R, con un entorno de y0 ,
continua en y derivable en \{y0 }. Supongamos que (y0 ) = 0 y (y) 0 para todo y \{y0 }.
Entonces

(a) Si (y) 0 para todo y \ {y0 }, entonces y0 es estable.

(b) Si (y) 0 para todo y \ {y0 }, entonces y0 es asintticamente estable.


Si satisface las condicin (a) [resp. (b)] del resultado anterior, se dir una funcin de Lyapunov
para y0 [resp. una funcin de Lyapunov estricta para y0 ]. Por ejemplo, el sistema
0
= 3
0 =
Es claro que (0 0) es un punto crtico aislado del sistema. La matriz Jacobiana en dicho punto es

0 1
Jf(0 0) =
1 0
que como puede comprobarse tiene por valores propios , por lo que dicho punto crtico no es
hiperblico. Vamos a comprobar que la funcin ( ) = 2 + 2 es una funcin de Lyapunov
estricta para el mismo, por lo que (0 0) ser un punto crtico asintticamente estable. En primer
lugar, est claro que (0 0) = 0 y ( ) 0 para todo ( ) R2 \ {(0 0)}. Por otra parte, la
derivada total es

( ) = grad ( ) f( ) = (2 2) ( 3 ) = 24 0
para todo ( ) R2 \ {(0 0)}. En virtud del Teorema 29 el punto crtico es estable.
Tambin la inestabilidad de los puntos crticos puede ser discutida, segn muestra el siguiente
resultado.
Teorema 30 Sean y0 un punto crtico del sistema (2.28) y un abierto de R conteniendo a y0
en su frontera Fr(). Supongamos que existe una funcin : R, con un entorno de y0 ,

con Fr() , de clase 1 y tal que (y) 0 y (y) 0 para todo y , y (y) = 0 si
y Fr(). Entonces y0 es inestable.
59

Estabilidad de ecuaciones diferenciales


Consideremos ahora el sistema

0 = + 3
0 =

Sea la funcin : R2 R, donde = {( ) R2 : 0 || } y ( ) = 2 2 . Es


fcil darse cuenta de que ( ) 0 para todo ( ) , y que la derivada total

( ) = grad ( ) f( ) = (2 2) ( + 3 ) = 24 0
para todo ( ) . Adems (0 0) Fr() y ( ) = 0 para todo ( ) Fr(). Por el Teorema
30 el punto crtico (0 0) es inestable.
La principal desventaja de este mtodo, que de hecho hace que su utilizacin sea cuando menos
limitada, es la dificultad en encontrar la funcin .

2.9.

Ejercicios

1. Resolver los siguientes sistemas de ecuaciones lineales de la forma


y0 = A y
donde la matriz A es la siguiente:

3 1 1
1
2
1
5
(a) 1 5 1 (b)
(c)
2 2
2 1
1 1 3
(d)

3 1
1 1

(e)

2
1

1 1 1
0

1 1 1
0
(g)
(h)
1
1 1
2

0 1
9
(f) 1 0
8
1 1

8 0
0

0 2
3
(i)
8 2
3

2. Resolver los siguientes problemas de condiciones iniciales:


0
0
= 4( + )
=
0
=
0 + 4 0 = 4
(b)
(a)

(0) = (0) = 1
(0) = 1 (0) = 0
0
=

0
= 2
(d)

0 =+

(0) = 2 (0) = 2 (0) = 1


60

1
1
0

1 1
0 1
1 0

0
= 3 + 8
0 = 3
(c)

(0) = 6 (0) = 2

0
=+

0
= +
(e)

0 =

(0) = (0) = (0) = 1

Estabilidad de ecuaciones diferenciales


3. Resolver los siguientes sistemas y problemas de condiciones iniciales
0
0
= + 2
= 4 + 3 + 5 + sin 2
0
2
0 = 4
= 2 + 3 +
(a)
(b)

0
= 2 + 3
(0) = 1 (0) = 1

0
= 2 +

2 1 1
0
0
= 3 + +
(c) y0 = 3 1 2 y+ 1 (d)

0 = 9 + 3 4

2 1 1
0

(0) = (0) = 0 (0) = 3


0

0
3 1
= 2 5 +
0
+
y =
sin
2 1
0 = + 2 + 2
(e)
(f)

(0) = 1 (0) = 0
(0) = 1 (0) = 0

4. Dados los siguientes sistemas lineales, decidir si son estables o no.


0
0
0
= 5 + 5
= 5 +
= 2
0
0
= 2 2 + 2 (b)
= 2 2 + 2
0 = 3 2
(a)
(c)
0
0
0
= 3 3 + 3
= 3 + 3 3
= 4 +
0
= 9 + 2
0 = 3 9
(d)
0
= 4 + +

0
= 5 +
0 = 3 + 3
(e)
0
= 4 + 4 2

0
= 2 2 + 2
0 = 2 2 + 2
(f)
0
= 0

5. Obtener los puntos crticos de los siguientes sistemas y determinar si son o no hiperblicos:
0
0
0
0
=
=
=
=
(a)
(b)
(c)
(d)
0
2
0
3
0
= +
= +
=
0 = 3
(e)

0 =
0 = +

(f)

0 =
0 = 1 2 2

(g)

0 = 2 + +
0 = 2 + 2 + 4 + 2

6. Obtener el sistema linealizado en los puntos crticos de los sistemas del ejercicio 5. Determinar
su diagrama de fases e indicar si es posible la naturaleza del punto crtico en un entorno del
mismo.
7. Consideremos la ecuacin de Van Der Pol
00 + 0 (1 2 ) = 0
donde es un parmetro real. Transformar dicha ecuacin en un sistema plano y determinar
los puntos crticos del mismo. Determinar la naturaleza de los puntos crticos en funcin del
parmetro .
8. Idem para la ecuacin
00 + 20 + (1 2 ) = 0
61

Estabilidad de ecuaciones diferenciales


9. Sea el sistema

donde es un parmetro real. Se pide:

0 = + ( + 1)
0 = 2( 1) +

a) Discutir la estabilidad de los puntos de equilibrio del sistema en funcin del parmetro .
b) Esbozar el diagrama de fases del sistema para el valor = 1.
10. Sea el sistema

0 = + 2( + )2
0 = 3 + 2 3 ( + )2

Determinar los puntos crticos del mismo y su hiperbolicidad. Determinar la naturaleza del
punto crtico (0 0) a partir de la funcin ( ) = 12 (2 + 2 ).
11. Idem para el sistema

y la funcin ( ) = 14 4 + 12 2 .
12. Idem con el sistema

y la funcin ( ) = 12 (2 + 2 ).
13. Idem con el sistema

0 = 2
0 = 3

0 = 3
0 =

0 = + 2 + + 2
0 = 2 + + 2

y la funcin ( ) = 2 2 definida sobre el conjunto del plano real = {( ) R2 : 0


|| }.
14. Un sistema

0 = 1 ( )
0 = 2 ( )

( )
se dice Hamiltoniano si existe una funcin derivable ( ) tal que 1 ( ) =

y 2 ( ) = ( ), de tal manera que es una integral primera del sistema. Se puede


comprobar que para un punto crtico de un sistema Hamiltoniano, las funciones de Lyapunov
pueden construirse sumando una constante a la funcin . Con esta idea, verificar el carcter
de los puntos crticos del sistema
0
= 2
0 = 2

62

Captulo 3
Ecuaciones en derivadas parciales
Sumario. Definiciones bsicas. Ecuaciones lineales de segundo orden: clasificacin.
Mtodo de separacin de variables. Series de Fourier. Resolucin de las ecuaciones
cannicas: calor, ondas y Laplace.

3.1.

Introduccin a las EDP

Por una ecuacin en derivadas parciales entederemos una expresin de la forma


(1 1 1 ) = 0
donde 1 son variables independientes, = (1 ) es una variable dependiente (incgnita
de la ecuacin) y 1 son las derivadas parciales de de orden , 1 , respecto de las
variables 1 . La derivada de mayor orden indica el orden de la ecuacin. Por ejemplo
+ + = 0
es una ecuacin de orden uno, mientras que
+ =
es una ecuacin de orden dos, que ser el orden mximo que estdiaremos en este curso.
Las ecuaciones en derivadas parciales (EDP) se utilizan para modelar procesos que adems de tener una variacin temporal, tienen una variacin de tipo espacial. Ejemplos conocidos son la variacin
de calor con el tiempo en un slido, la distribucin de poblaciones en un cierto habitat o la propagacin del sonido de las cuerdas de una guitarra.
En general, las EDP van a ser bastante difciles de resolver. De hecho, no existe un teorema
de existencia y unicidad "sencilloomo el que se estudiaba para problemas de condiciones iniciales
de sistemas de ecuaciones diferenciales ordinarias. Por todo ello, las EDP son fuente de estudio
en la actualidad para muchos matemticos siendo una de las reas de la matemticas con mayor
investigacin en la actualidad.
Como ocurre con las ecuaciones diferenciales, normalmente se suelen asociar varios tipos de condiciones a una EDP. Segn se trate, hablaremos de ellas como condiciones iniciales o condiciones de
63

Ecuaciones en derivadas parciales


contorno. Consideremos por ejemplo el problema siguiente

= 0 (0 1)
(0 ) = () [0 1]

( 0) = ( 1) = 0 0

que, como veremos posteriormente modela la varicin temperatura de una varilla unidimensional
de longitud 1 a lo largo del tiempo. La ecuacin de segundo orden = 2 se conoce como ecuacin
del calor, que en este problema tiene asociados dos tipos de condiciones. La condicin (0 ) = ()
establece la temperatura inicial de la varilla para todo punto de sta [0 1], por lo que hablamos
de ella como una condicin inicial. Sin embargo, la condicin ( 0) = ( 1) = 0 nos indica que los
valores de la temperatura en los extremos de la varilla son fijos para cada instante de tiempo. Estas
condiciones se llaman de frontera o contorno.

3.2.

Ecuaciones lineales de orden 2

Una ecuacin lineal de segundo orden es de la forma


( ) + ( ) + ( ) + ( ) + ( ) + ( ) = ( )

(3.1)

donde : R2 R son funciones de regularidad suficiente para cada problema que


vayamos a estudiar. Es fcil comprobar que si 1 ( ) y 2 ( ) son soluciones de (3.1), entonces una
combinacin lineal de ellas
1 ( ) + 2 ( )
R es tambin solucin de la ecuacin, por lo que sta recibe el calificativo de lineal. Dicha
ecuacin se dir de coeficientes constantes si las funciones son constantes. En este caso,
se pueden introducir nuevas variables independientes y , y una nueva variable dependiente de
manera que la ecuacin (3.1) se escribe de una de las siguientes formas:
+ + = ( )

(3.2)

+ = ( )

(3.3)

+ = ( )

(3.5)

= ( )

(3.4)

donde es una constante que toma los valores 1, 0 y 1. Si la ecuacin original verifica que
2 0 esta se dir elptica y se reducir a una ecuacin del tipo (3.2). Si verifica que 2 0
se dir hiperblica y puede reducirse a una ecuacin de la forma (3.3). Finalmente, si 2 = 0 la
ecuacin puede reducirse a la forma (3.3) y se dir parablica o a la forma (3.5) que se conoce con
el nombre de degenerada.
Veamos por ejemplo cmo transformar la ecuacin
3 2 + 6 12 9 5 = 0
en una de las formas anteriores. En primer lugar, dmonos cuenta que
2 = 14 0
por lo que se trata de una ecuacin elptica. La transformacin se hace en tres etapas.
64

Ecuaciones en derivadas parciales


Cambio en las variables independientes para eliminar el trmino . Para ello consideramos
una rotacin en el plano de ngulo que tendr la forma

= cos + sin
= sin + cos
y cuya transformacin inversa es

= cos sin
= sin + cos

Por la regla de la cadena, tenemos que

=
+
=
cos
sin

=
+
=
sin +
cos

De este modo

=
=
cos
sin
cos
sin
2

2
2
2
2
2
cos sin
cos

+
sin

2
=
2
2


=
sin +
cos
sin +
cos
=
2

2
2
2
2
2
cos sin
sin

+
cos

+
2
=
2
2

=
=
cos
sin
sin +
cos

2
2
2
cos

sin

cos

sin

+
2
(cos2 sin2 )
=
2
2

y sustituyendo en la ecuacin original tenemos


0 = 3 2 + 6 12 9 5

= 3 cos2 + sin2 2 cos sin

2 cos sin cos sin + 2 (cos2 sin2 )

+6 sin2 + cos2 + 2 cos sin


12 ( cos sin ) 9 ( sin + cos ) 5

= 3 cos2 2 cos sin + 6 sin2

+ 3 sin2 + 2 cos sin + 6 cos2

+ 6 cos sin 4(cos2 sin2 )


(12 cos + 9 sin ) + (12 sin 9 cos ) 5
65

Ecuaciones en derivadas parciales


Si buscamos que el coeficiente que multiplica a sea 0, debe verificarse que
6 cos sin 4(cos2 sin2 ) = 0
o equivalentemente
4 tan2 + 6 tan 4 = 0
de donde obtenemos que, considerando en el primer cuadrante,
1
tan =
2
con lo que

5
2 5
cos =
sin =

5
5
quedando la ecuacin original como

14
31
33 5
6 5
+

5 = 0
5
5
5
5
o equivalentemente

14 + 31 33 5 6 5 25 = 0

(3.6)

La siguiente etapa consiste en la eliminacin de los trminos de y , en dos pasos. En primer


lugar eliminaremos el trmino de introduciendo la variable dependiente
=
y calculamos para que el trmino que acompaa a sea cero. Para ello tenemos en cuenta
que = y derivamos

=
=
=
=

+

2 2 +

y sustituimos en la ecuacin (3.6) tenindose

0 = 14 + 31 33 5 6 5 25 = 0
= 14( 2 2 + ) + 31

33 5( + ) 6 5 25

= 14 + 31 [28 + 33 5] 6 5 + [14 2 + 33 5 25]


de donde obtenemos la condicin

de donde

28 + 33 5 = 0

33 5
=

28
66

Ecuaciones en derivadas parciales


y teniendo en cuenta que 6= 0, la ecuacin se simplifica a

6854
14 + 31 6 5
= 0
56

(3.7)

Procediendo del mismo modo con la variable , introduciendo la variable dependiente


=
la ecuacin (3.7) se reduce a
14 + 31

95737
= 0
868

(3.8)

Finalmente, introducimos la variables dependiente e independientes para reescalar la ecuacin


(3.8) de la siguiente forma. En primer lugar introducimos la variable dependiente
=

95737

868

y como
868

95737
868

=
95737

la ecuacin (3.8) se reduce a

12152
26908
+
= 0
95737
95737
Finalemente, los cambios de variables independientes

hacen que teniendo en cuenta que

q
= 12152
q 95737
= 26908
95737
95737

12152
95737

=
26908

nos quede la ecuacin reducida

+ = 0
67

Ecuaciones en derivadas parciales

3.3.

Ecuacin del calor. Mtodo de separacin de variables.

Partamos del problema

= 2 0 (0 )
(0 ) = () 0

( 0) = ( ) = 0 0

que es la ecuacin del calor en una varilla unidimensional de longitud con temperatura inicial ().
La incgnita ( ) mide la temperatura en cada instante de tiempo y en cada punto de la barra.
Una manera de resolver el problema anterior es intentar reducirlo a un problema de ecuaciones
diferenciales ordinarias. Para ello suponemos que la solucin puede expresarse de la forma
( ) = () ()
es decir, como el producto de dos funciones reales de variable real () e (). Derivando obtenemos
( ) = 0 () ()
( ) = () 00 ()
Sustituyendo en la ecuacin original tenemos
0 () () = 2 () 00 ()
y suponiendo que las fuciones no se anulan rescribimos la ecuacin como
0 ()
00 ()

=
()2
()
Un lado de la igualdad solo depende de , mientras que el contrario lo hace solo respecto de , por
lo que necesariamente ambos deben ser constantes, es decir
0 ()
00 ()
=
=
()2
()
de donde obtenemos las ecuaciones diferenciales
0 + 2 = 0
00 + = 0
Por otra parte, las condiciones de contorno se escriben como
() (0) = (0 ) = 0
() () = ( ) = 0
por lo que debe verificarse que (0) = () = 0. Si escribimos el problema para la funcin
tenemos lo que se conoce como un problema de contorno
00
+ = 0
(0) = () = 0
Como sabemos, las solucin general de la ecuacin 00 + = 0 es de una de las siguientes formas
68

Ecuaciones en derivadas parciales


Si = 0, entonces () = 1 + 2 , donde 1 y 2 son dos constantes arbitrarias.

+ 2 , donde 1 y 2 son dos constantes arbitrarias.

Si 0, la solucin es () = 1 cos( ) + 2 sin( ), donde 1 y 2 son dos constantes


arbitrarias.
Si 0, la solucin es () = 1

El problema se presenta a lo hora de calcular las constantes anteriores. En el primer caso tendramos que
(0) = 1 = 0
e
() = 1 + 2 = 0
de donde 1 = 2 = 0 y la solucin sera nula. En el segundo caso, las condiciones de contorno se
escriben como
(0) = 1 + 2 = 0
e

() = 1
que da lugar al sistema lineal

+ 2

= 0

1 +
= 0
2

+ 2 = 0
1

y dado que el determinante de la matriz asociada

1
1

6= 0

tenemos que la nica solucin posible es 1 = 2 = 0 y la solucin sera nuevamente nula. Finalmente,
en el tercer caso
(0) = 1 = 0
e
de donde

() = 1 cos( ) + 2 sin( ) = 0

2 sin( ) = 0

Como las soluciones de la ecuacin sin( ) = 0 son


=

2 2
, N
2

Si definimos

2 2

2
tenemos que el problema de condiciones de contorno tiene soluciones no nulas de la forma

p
() = sin( ) = sin

69

(3.9)

Ecuaciones en derivadas parciales


para los valores de dados en (3.9).
Para estos valores, la ecuacin para la funcin queda de la forma
0 +

2 2 2
= 0
2

que para cada valor de proporciona la solucin


() =

2 2 2

lo que da lugar a la solucin

2 2 2
2

La linealidad de la ecuacin nos lleva a plantear como posible solucin


( ) = sin

( ) =

sin

=1

2 2 2
2

y utilizando la condicin inicial



(0 ) =
sin
= ()

=1

(3.10)

lo que nos lleva a plantearnos si cualquier funcin () puede desarrollarse como en (3.10). La solucin
a esta cuestin ser el desarrollo en serie de Fourier.

3.4.

Series de Fourier

Consideremos una funcin real de variable real () que sea 2 peridica, es decir, para todo
se verifica la expresin
() = ( + 2)
Por ejemplo, las funciones seno y coseno son 2 peridicas. Definimos los coeficientes de Fourier
Z

1
= 0 1 2
() cos
=

1
=

La serie

() sin


= 1 2



0 X
cos
+
+ sin

=1

se conoce como serie de Fourier asociado a (). Por ejemplo, consideremos la funcin () tal que

0 [1 0)
() =
1 [0 1)
70

Ecuaciones en derivadas parciales


y es 2 peridica. Para dicha funcin tenemos que los coeficientes de Fourier son
Z
Z 1
1 1
1
0 =
() =
1 =
2 1
2
0
y para 1

Z
1 1
() cos () =
cos ()
2 0
1

1
1 1
1
=
sin () =
(sin () sin (0)) = 0
2
2
0

1
=
2

Z
1 1
() sin () =
sin ()
2 0
1

1
1 1
1
=
cos () =
(cos () cos (0))
2
2
0

0

=
1

1
=
2

por lo que la serie de Fourier asociada a () ser


1 X
1
+
sin ((2 1))
4 =1 (2 1)

La cuestin radica en saber si la igualdad

1 X
1
() = +
sin ((2 1))
4 =1 (2 1)

(3.11)

se verifica, es decir, si () puede aproximarse en forma de la serie anteriormente calculada.


La respuesta a esta pregunta es afirmativa para una familia notable de funciones, que precisa de
unas definiciones previas para su compresin. Recordemos que una funcin es continua en 0 si
lm () = (0 )

y () es continua si es continua en todos sus puntos. Si () no es continua en 0 pueden existir sus


lmites laterales
(0 ) =
lm ()
0

y
(0+ ) =
lm ()
0

y la discontinuidad se tipo salto finito si


(0 ) (0+ )
es finito. Finalmente, () se dice continua a trozos en [ ] si es continua salvo en una cantidad
finita de puntos y las discontinuidades son de tipo salto finito. Se verifica entonces el siguiente
resultado.
71

Ecuaciones en derivadas parciales


Teorema 31 Sea : R R una funcin 2 peridica de manera que y su derivada 0 son de
continuas a trozos. Entonces la serie de Fourier de dada por


0 X
+
+ sin

cos
2

=1

converge a () en los puntos de continuidad de , a 12 [ (0 ) (0+ )] en los puntos de discontinuidad


y a 12 [( ) (+ )] cuando = .
El teorema anterior garantiza que la igualdad a la que hacamos alusin en (3.11) se verifica para
(1 1) \ {0} es igual a 12 para 1 y 0.

3.4.1.

Funciones pares e impares

La series de Fourier tienen expresiones particulares cuando las funciones son pares o impares.
Recordemos que es par si se cumple que
() = ()
para todo R. Se dice que la funcin es impar si por el contrario la relacin que se cumple es
() = ()
Veamos cmo se obtiene la serie de Fourier para cada una de estas funciones.
Si es par, se verifica que
0

=
=
=
=

1
=

()
Z
Z
1
1
= {=}
() +
()
0
0
Z
2
()
=
0

Z

1
() cos

Z
Z


1 0
1
+

() cos
() cos

Z
Z


1
1
() cos
() cos
+

{=}
0

Z

2

() cos
0

72

Ecuaciones en derivadas parciales


mientras que
=
=
=
=

Z

1

() sin

Z
Z


1 0
1
() sin
() sin
+

Z
Z


1
1

()
sin
()
sin
{=}
0

por lo que para una funcin par tendremos que



0 X
() =
+

cos
2

=1

Si es impar
0

=
=
=
=

1
=

()
Z
Z
1
1
= {=}
() +
()
0
0
= 0

Z

1
() cos

Z
Z


1 0
1
+

() cos
() cos

Z
Z


1
1
() cos
() cos
+

{=}
0

mientras que
=
=
=
=

Z

1

() sin

Z
Z


1 0
1
() sin
() sin
+

Z
Z


1
1
+

() sin
() sin
{=}
0

Z

2

() sin
0

por lo que para una funcin par tendremos que


() =

X
=1

73

sin

Ecuaciones en derivadas parciales

3.4.2.

Aplicacin a ecuaciones diferenciales

Supongamos una ecuacin diferencial lineal con coeficientes constantes con funcin de transferencia (). Supongamos que el sistema es asintticamente estable, de tal manera que si () =
sin( + ) es la entrada del sistema, se verifica que su salida para tiempos suficientemente grandes
viene dada por
() = | ()| sin( + + arg ())
Supongamos ahora que la seal es peridica de periodo 2. Dicha funcin puede expresarse en su
serie de Fourier



0 X
() =
+
+ sin

cos
2

=1
0 X
=
+
( cos () + sin ())
2
=1

donde = . Por otra parte, si escribimos ( ) en coordenadas polares mediante la expresin

= cos
= sin
podemos reescribir la expresin anterior como
() =

0 X
+
( cos () + sin ())
2
=1

0 X
=
( sin cos () + cos sin ())
+
2
=1

0 X
+
sin( + )
=
2
=1

Si ahora () es la entrada al sistema anterior, entonces su salida para tiempos suficientemente


grandes vendr dada por

X
0
() = (0) +
| ()| sin( + + arg ())
2
=1

Dado que para casos prcticos lm | ()| = 0, por lo que lm | ()| = 0, como consecuencia la series de Fourier de () converge a cero ms rpidamente que la serie de Fourier de la
seal inicial ().

3.4.3.

Aplicacin a la ecuacin del calor

Si retomamos la ecuacin del calor

= 2 0 (0 )
(0 ) = () 0

( 0) = ( ) = 0 0
74

Ecuaciones en derivadas parciales


la teora de Fourier nos dice que su solucin formal es
( ) =

sin

=1

donde
(0 ) =

2 2 2
2

sin

=1


= ()

Ahora bien, si pensamos en () como una funcin impar 2 peridica tendremos que
2
=

() sin

y por tanto dicha solucin formal ser


( ) =

Z

X
2
=1

2 2 2

sin
2
() sin

(3.12)

Hablamos de solucin formal ya que no podemos asegurar que la expresin dada en (3.12) sea
una solucin. Por una parte, aunque la linealidad garantiza que una combinacin lineal finita de
soluciones sea solucin, nuestra combinacin lineal es infinita, por lo que tendramos que comprobar
que efectivamente es solucin, es decir que es dos veces derivable y cumple la ecuacin del calor. En
general comprobar que las soluciones formales son soluciones es un problema bastante dficil, que en
2 2 2

el caso de la ecuacin del calor se garantiza por el trmino 2 . Cualitativamente hablamos de


un proceso de difusin, en el que la barra va disipando calor convergiendo muy rpidamente a 0 y
suavizando cualquier irregularidad que la funcin () pudiera presentar.
Por ejemplo, si nuestra barra es de aluminio (con un coeficiente 2 = 086) y mide 10 cm., y la
tempreartura inicial en la barra es de 100 C, la evolucin de la tempreatura con el tiempo vendr
determinada por la expresin
Z

0862 2

X
2 10
sin
100
100 sin
( ) =
10 0
10
10
=1
y como
Z

10

100 sin

tenemos

h
i10

= 100
cos

10
10
10
0
= 10 (cos() cos 0)

0

=
20

086(21)2 2
(2 1)

100

4(2 1) sin

( ) =
10
=1

75

Ecuaciones en derivadas parciales


Hemos de destacar que en el desarrollo anterior tienen una gran importancia que las condiciones
de contorno sean nulas. En general esto no tiene porqu ser as, es decir la ecuacin del calor sera

= 2 0 (0 )
(0 ) = () 0

( 0) = 1 (); ( ) = 2 () 0

donde 1 () y 2 () son las funciones que miden la temperatura de la varilla. Un cambio de variable
en la variable dependiente permite llevar condiciones de contorno no nulas a un problema que s las
tenga mediante la nueva funcin
( ) = ( ) 1 ()

(2 () 1 ())

Es fcil ver que ahora


mientras que

( 0) = ( 0) 1 () = 1 () 1 () = 0
( ) = ( ) 1 () (2 () 1 ())
= 2 () 1 () (2 () 1 ()) = 0

por lo que tendremos condiciones de contorno nulas. La ecuacin original se reescribe


0 = 2 = + 10 () +

0
(2 () 10 ()) 2

por lo que tendramos el problema

2 = 10 () (20 () 10 ()) 0 (0 )
(0 ) = () 1 (0) (2 (0) 1 (0)) 0

( 0) = ( ) = 0 0

Si la temperatura en los extremos de la varilla permanece constante, esto es, 1 () = 1 y 2 () = 2 ,


el problema anterior se reduce a

= 2 0 (0 )
(0 ) = () 1 (2 1 ) 0

( 0) = ( ) = 0 0

3.5.

Ecuacin de ondas

Consideremos el problema hiperblico

= 2 0 (0 )

(0 ) = () 0
(0 ) = () 0


( 0) = ( ) = 0 0

que modela la vibracin mecnica de una cuerda, donde ( ) mide el desplazamiento respecto de
la horizontal en cada instante de tiempo y en cada posicin de la cuerda.
76

Ecuaciones en derivadas parciales


Con el mtodo de separacin de variable planteamos soluciones de la forma ( ) = () (),
que nos da lugar a los problemas de ecuaciones diferencales
00 + 2 = 0
y el problema de contorno

00 + = 0
(0) = () = 0

que como sabemos tiene una familia de soluciones no nulas para los valores =
por

() = sin

Para dichos valores tenemos las ecuaciones

00 + 2 = 0
que tendr por solucin general



+ sin

() = cos

pudiendo entonces plantear la solucin formal


( ) =
=

() ()

=1
h
X

cos

=1

De la condicin inicial


i

+ sin
sin

(0 ) = () =

sin

=1

Derivando formalmente ( ) respecto a obtenemos

h

i

X

sin
+
cos
sin

( ) =

=1

que aplicada a la otra condicin inicial

sin

(0 ) = () =

=1

Considerando de nuevo y como funciones impares 2 peridicas, concluimos que


Z

2

() sin
=
0

y
Z

2
=
() sin

0

para todo 1.
77

, N, dadas

Ecuaciones en derivadas parciales

3.6.

Ecuacin de Laplace

Al contrario que las ecuaciones del calor y ondas, la ecuacin de Laplace es esttica y representa
una condicin de equilibrio en, por ejemplo, la temperatura de una seccin plana. La ecuacin del
calor en dos dimensiones espaciales tiene la forma
= 2 ( + )
y si suponemos un equilibrio de esta funcin invariante respecto al tiempo, obtendramos
(3.13)

+ = 0

que es la ecuacin de Laplace. Estas ecuaciones se plantean slo con condiciones de contorno sobre
la frontera del recinto, que para los calculos prcticos tiene que tener alguna regularidad. Estas
condiciones de contorno son en general de dos tipos. Si es el recinto donde se verifica la ecuacin
(3.13), podemos suponer conocido ( ) para todo ( ) en la frontera de en cuyo caso estaramos
hablando de una condicin tipo Dirichlet. Si por el contrario suponemos que el vector normal a

en la frontera
es conocido, se trata de una condicin de Neumann. En cualquiera de los casos, la
geometra del conjunto es muy importante y slo podemos calcular soluciones cuando sta cumple
adecuadas condiciones de regularidad.
Supongamos por ejemplo que es el rectngulo [0 ] [0 ] y tenemos el problema

+ = 0 ( ) (0 ) (0 )

( 0) = ( ) = 0 0
(0 ) = 0 0

( ) = () 0

que es de tipo Dirichlet.


Si planteamos una solucin de la forma ( ) = () (), construimos las ecuaciones diferenciales
00 = 0
00 + = 0
La segunda ecuaicin da lugar al problema de contorno
00
+ = 0
(0) = () = 0
que como sabemos tiene por soluciones no nulas las funciones

() = sin

2
para los valores =
, N. La primera ecuacin se reescribe entonces

00 = 0

que tiene por solucin general


() = 1

78

+ 2

Ecuaciones en derivadas parciales


De la condicin (0 ) = 0 obtenemos que (0) = 0, por lo que
(0) = 0 = 1 + 2
por lo que 2 = 1 = 2, por lo que para todo natural obtenemos la solucin



( ) =
sin


2
sin

= sinh

Planteamos entonces la solucin formal


( ) =

sinh

=1



sin

Utilizando la condicin de contorno que nos queda


( ) = ()
tenemos que
() =

sinh

=1

sin

y considerando como 2 peridica e impar, tenemos que


2 Z

sinh
() sin
=

3.7.

Ejercicios

1. Encontrar las soluciones de los siguientes problemas de contorno:


a) 00 + = 0 (0) = 0 0 () = 0
b) 00 + = 0 0 (0) = 0 0 () = 0
c) 00 + = 0 0 (0) = 0 () = 0
d) 00 + = 0 (0) = 0 () 0 () = 0
e) 00 + = 0 (0) 0 (0) = 0 (1) = 0

f ) 00 + = 0 (0) 0 (0) = 0 () 0 () = 0

2. Para qu valores de tienen soluciones no triviales los siguientes problemas de contorno:


a) 00 2 0 + (1 + ) = 0 (0) = 0 (1) = 0
b) 00 + = 0 (0) = (2) 0 (0) = 0 (2)

3. Clasificar las siguientes EDP y encontrar su forma cannica:


79

Ecuaciones en derivadas parciales


a) 3 + 4 = 0

b) 4 + + 4 + = 0

c) + + 3 4 + 25 = 0

d) 3 + 2 + = 0
e) 2 + + 3 = 0

4. Encontrar los desarrollos en serie de Fourier de las siguientes funciones peridicas (se da su
valor en el intervalo [ ] con 2 el periodo).
a) () =
b) () =

1 [1 0)
1
[0 1]
[2 0)
0 [0 2]

c) () = [1 1]

[1 0)
d) () =

[0 1]

1 [2 0)
0 [0 1)
e) () =

1 [1 2]

0 [2 1)
f ) () =
1 [1 2]

0 [ 0)
g) () =
[0 ]

[ 0)
h) () =

[0 ]
5. Los extremos de una barra de aluminio (2 = 086) de longitud 10 metros se mantienen a
temperatura de 0 . Encontrar la expresin de la temperatura de la barra para las siguientes
condiciones iniciales
a) (0 ) = 70, 0 10.

b) (0 ) = 70 cos , 0 10.

10
[0 5)
c) (0 ) =
10(10 ) [5 10]

0 [0 3)
d) (0 ) =
65 [3 10]
6. Los extremos de una barra de cobre (2 = 114) de longitud 2 metros se mantienen a temperatura de 0 . Encontrar la expresin de la temperatura de la barra para las siguientes
condiciones iniciales
80

Ecuaciones en derivadas parciales


a) (0 ) = 65 cos2 (), 0 2.

b) (0 ) = 70 sin , 0 2.

60
[0 1)
c) (0 ) =
60(2 ) [1 2]

0 [0 1)
d) (0 ) =
75 [1 2]
7. Un estado de equilibrio para la ecuacin del calor = 2 es aquella que no vara con el
tiempo. Demostrar
a) Todos los equilibrios de la ecuacin del calor son de la forma () = +
b) Encontrar los estados de equilibrio de la ecuacin del calor que cumplen ( 0) = 1 y
( ) = 2 .
c) Resolver el problema

= 2 0 (0 1)
(0 ) = 75 0 1

( 0) = 20 ( ) = 60 0

Ayuda: Calcularla como ( ) = () + ( ) donde () es el estado de equilibrio


asociado a las condiciones de contorno ( 0) = 20 ( ) = 60, y ( ) es la solucin
del problema con condiciones de contorno nulas.
8. Los extremos de una barra de cobre (2 = 114) de longitud 10 centmetros se mantienen a
temperatura de 0 mientras que el centro de la barra es mantenido a 100 mediante una
fuente de calor externa. Encontrar la temperatura de la barra con el tiempo para la condicin
inicial

50 [0 5)
(0 ) =
100 [5 10]
Ayuda: Descomponer el problema en dos problemas de contorno con uno de los estremos en
la mitad de la barra.

9. Resolver el problema

= + 0 (0 1)
(0 ) = cos 0 1

( 0) = 0 ( ) = 0 0

10. Resolver los siguientes problemas

= 2 0 (0 2)

(0 ) = cos 1 0 2
a)
(0 ) = 0 0 2

( 0) = 0 ( 2) = 0 0

= 2 0 (0 1)

(0 ) = 0 0 1
b)
(0 ) = 1 0 1

( 0) = 0 ( 1) = 0 0

81

Ecuaciones en derivadas parciales

= 2 0 (0 3)

[0 1)


(0 ) = () 0 3
1
[1 2)
donde () =
c)
(0 ) = 0 0 3

2 [2 3]

( 0) = 0 ( 3) = 0 0

11. Una cuerda de 10 metros fijada en sus extremos se levanta por el medio hasta la distancia de
un metro y se suelta. Describe su movimiento suponiendo que 2 = 1.
12. Demuestra que el cambio de coordenadas

= +
=

transforma la ecuacin de ondas = 2 en la ecuacin = 0. Concluir que la solucin


general de la ecuacin ser de la forma
( ) = ( ) + ( + )
para funciones apropiadas y .
13. Demostrar que la solucin del problema

= 2 0 (0 )

(0 ) = () 0
(0 ) = () 0


( 0) = 0 ( 3) = 0 0
es de la forma

1
1
( ) = ( ( ) + ( + )) +
2
2

donde es la extensin 2 peridica e impar de .


14. Resolver el problema

= 2 + 0 (0 )

(0 ) = () 0
(0 ) = 0 0


( 0) = 0 ( 3) = 0 0

15. Resolver los problemas

+ = 0 ( ) (0 ) (0 )

( 0) = 0 0
a)
( ) = () 0

(0 ) = ( ) = 0 0

+ = 0 ( ) (0 ) (0 )

( 0) = ( ) = 0 0
b)
(0 ) = () 0

( ) = 0 0

82

()

Ecuaciones en derivadas parciales

+ = 0 ( ) (0 ) (0 )

( 0) = () 0
( ) = 0 0
c)

(0 ) = () 0

( ) = 0 0

16. Resolver los problemas de Neuman

+ = 0 ( ) (0 ) (0 )

( 0) = ( ) = 0 0
a)
(0 ) = () 0

( ) = 0 0

+ = 0 ( ) (0 ) (0 )

(0 ) = ( ) = 0 0
b)
( 0) = () 0


( ) = 0 0

+ = 0 ( ) (0 ) (0 )

(0 ) = 1 0
( ) = 0 0
c)

( 0) = 1 0


( ) = 0 0
17. Resolver el problema

+ = ( ) (0 1)2

( 0) = ( 1) = 0 0 1
(0 ) = () 0 1

(1 ) = 0 0 1

83

Ecuaciones en derivadas parciales

84

Captulo 4
Transformada de Fourier
Sumario. Definicin y propiedades bsicas. Transformada de Fourier inversa.
Relacin con la transformada de Laplace. Aplicacin a las ecuaciones diferenciales y
en derivadas parciales.

4.1.

Definicin y primeros ejemplos

Dada una funcin : R C, se define la transformada de Fourier de como

F[]() =

()

en todo donde la expresin anterior tenga sentido, es decir la integral impropia anterior sea convergente. Esta convergencia es ms difcil de verificar que en el caso de la transformada de Laplace.
Supongamos por ejemplo que y son reales, por o que = cos() sin(), que como sabemos tiene mdulo 1. Si () es tambin real, para garantizar la convergencia absoluta de la integral
anterior debe de satisfacerse que

lm |() | = lm |()| = 0

85

Transformada de Fourier
por lo que las funciones reales que tendrn transformada de Fourier tienen que tener una grfica
como la siguiente

o bien ser nulas fuera de un intervalo compacto [ ]. Veamos algunos ejemplos.


Consideramos la funcin () = () (), donde () es la funcin de Heaviside en R.
Como vemos es no nula con valor uno en el intervalo [ ). Su transformada de Fourier se calcula
como
Z
Z

F[]() =
() =


2
1

=
= sin()
=

Tomemos ahora la funcin () = || . Su transformada de Fourier vendr dada por


F[]() =

()

Z
Z 0
(1)

+
=

(1+)

(1+)
0

(1)
+
=
1
1 + 0
1
2
1
+
= 2

=
1 1 +
+1

4.2.

Propiedades bsicas

Al igual que la transformada de Laplace, la transformada de Fourier tiene unas propiedades


bsicas que permiten operar con ella con ms facilidad. Las enumeramos a continuacin suponiendo
siempre buenas condiciones de convergencia de las funciones implicadas.
86

Transformada de Fourier

4.2.1.

Linealidad

Dadas dos funciones y y dos nmeros se verifica que


F[ + ]() = F[]() + F[]()
La prueba de esta propiedad viene directamente de la linealidad de la integral de la siguiente forma
Z
( + )()
F[ + ]() =

Z
Z

() +
()
=

= F[ ]() + F[]()

Por ejemplo, si () = () () + || , su transformada de Fourier vendr dada por


F[ ]() = F[1 ]() + F[2 ]() =

2
2
sin() + 2

+1

siendo 1 () = () () y 2 () = || .
La linealidad no puede aplicarse al calculo de 1 del siguiente modo
F[1 ]() = F[ ]() F[ ]()
ya que las funciones y no tienen transformada de Fourier.

4.2.2.

Transformada de la derivada

Dada una funcin derivable a trozos, se tiene que


F[ 0 ]() = F[ ]()
La demostracin se hace con la frmula de integracin por partes del siguiente modo

Z
= =
0
0

F[ ]() =
() =
= ()
= 0 ()

() = F[ ]()
= () +

ya que

lm | () | = 0

para garantizar la convergencia.


En general, puede comprobarse que la derivada sima se calcula como
F[ ) ]() = () F[ ]()
Esta frmula, junto con la linealidad, tiene, al igual que ocurra con la transformada de Laplace,
utilidad potencial para la resolucin de ecuaciones diferenciales.
87

Transformada de Fourier

4.2.3.

Cambios de escala

Sea una funcin y un nmero real. Podemos calcular la transformada de Fourier de la funcin
() = (), que puede verse como un cambio de escala en , con la frmula
1
F[]() = F[ ()]() = F[]()

Esta frmula es consecuencia del cambio de variable en la integral ya que


Z
()
F[]() = F[ ()]() =
Z

1
1
=
=
() = F[]()
=
=

A modo de ejemplo, si suponemos que () = || con 0, podemos calcular


F[ ]() = F[|| ]() = F[|| ]()
1
2
2
1
=
F[|| ]() =
=

2 2 + 1
2 + 2

4.2.4.

Derivada de la transformada

La frmula para calcular la derivada de la trasnforma de Fourier de una funcin es

F[]() = F[()]()

Esta relacin es consecuencia de un cambio de orden en el clculo de lmites ya que


Z
Z

() = ()
F[]() =
()


Z
Z

()() =
() = F[ ()]()
=

2 2

Vamos a aplicar esta frmula al clculo de la transformada de Fourier de la funcin () =


En primer lugar, la funcin () verifica el problema de condiciones iniciales
0
() = ()
(0) = 1
Por otra parte, transformando la ecuacin anterior tenemos que
F[ ]() = F[ ()]() =

F[ ]()

por lo que F[]() satisface la ecuacin diferencial

F[ ]() = F[ ]()

88

Transformada de Fourier
que tiene por solucin
F[ ]() =
Por otra parte, como

2 2

tenemos que mediante un cambio de variable


Z

2
2 = 2

y por tanto
F[](0) = =
por lo que

2 2

4.2.5.

F[]() =

es decir, la transformada de Fourier de

2 2

2
2 2

es ella misma salvo el factor multiplicativo

2.

Convolucin

Dadas dos funciones y con transformadas de Fourier F[] y F[], no se verifica que F[ ] =
F[] F[]. Vamos a buscar qu funcin verificara que F[] = F[] F[], es decir, cmo puede
definirse a partir de las funciones iniciales y . Para ello calculamos
Z
Z

F[ ] F[] =
()
()

Z
Z
()()(+)
=

Z Z
+=
( )()
=
=
=

Z Z
=
( )()

por lo que hemos derivado formalmente1 que


Z
() =

( )()

que se conoce con el nombre de producto de convolucin, denotado por


Z
() () =
( )()

Como veremos, esta frmula tiene aplicaciones en la resolucin de diferentes ecuaciones diferenciales.
1

Au hemos hecho un cambio en la integracin, es decir, una permuta de lmites de la que no hemos probado su
validez.

89

Transformada de Fourier

4.3.

Transformada de Fourier inversa

Dada una funcin sabemos cmo obtener su transformada de Fourier de dicha funcin F[].
Ahora bien, como en el caso de la transformada de Laplace a veces es necesario recorrer el camino
inverso, es decir, dada una funcin (), es posible encontrar una funcin real tal que F[] = .
En trminos de funcin inversa sera la relacin = F 1 [ ], donde F 1 [ ] denota la transformada
inversa de Fourier.
Al tratarse de una transformda integral, no existir una nica funcin verificando ser la transformada inversa de (). Sin embargo, en general la frmula de inversin establece que para una
funcin suficientemente buena la relacin
Z
Z Z
1
1

() =
F[]() =
()
(4.1)
2
2
se verifica por lo que la transformada inversa de Fourier podra definirse como
Z
1
1
()
F [ ]() =
2
En particular, las condiciones de Dirichlet establecen que si se verifica que
R
| ()|

tiene un mero finito de extremos relativos y un nmero finito de discontinuidades, todas


ellas evitables, en cada subintervalo compacto de la recta real,

entonces la frmula (4.1) se verifica en todos los puntos de continuidad de . En los puntos de
discontinuidad la integral valdra el promedio de (+) y ().
As, por ejemplo, dada la funcin
2
() = 2
+ 2
se verifica que
F 1 [ ]() = || 0

Por tratarse de una frmula integral, dicha funcin hereda las propiedades de la integracin, en
particular la linealidad
F 1 [ + ]() = F 1 [ ]() + F 1 []()

4.4.

Relacin con la transformada de Laplace

Como sabemos, la transformada de Laplace de una funcin : (0 ) C se define como


Z
()
L[]() =
0

que tendr validez en un dominio de definicin dado por Re para algn real. Si 0, el
eje imaginario estar contenido en el dominio de definicin de la transformada de Laplace de . En
particular, la integral
Z

() R
90

Transformada de Fourier
tendr sentido al ser finita.
Si consideramos () = 0 definida como para todo 0, podemos calcular su transformada de
Fourier como
Z
Z

F[ ]() =
() =
()

integral que tendr sentido para todo R. Por lo tanto, se tendra la igualdad
L[]() = F[ ]() R

Consideremos por ejemplo la funcin () = , que como sabemos tiene transformada de Laplace
L[ ]() =

1
+1

para todo tal que Re 1. Si estendemos como nula en valores negativos, es decir, definimos
() = ()0 () siendo 0 () la funcin de Heaviside, tendremos para todo nmero real que
F[]() = L[]() =

4.4.1.

+ 1

Aplicacin a los sistemas estables

Si tenemos un sistema asintticamente estable con funcin de transferencia (), sabemos que su
respuesta a una seal sinusuidal de la forma
sin( + )
viene dada por la expresin
() = | ()| sin( + + arg ())
pero () es la transformada de Fourier. Esta funcin () se conoce como funcin de transferencia
de frecuencias del sistema. En particular, para sistemas estables estos pueden verse como
F[]() = ()F[]()
que relaciona la transformada de Fourier de la salida F[]() con la de la entrada F[]().

4.5.

Aplicacin a las ecuaciones en derivadas parciales

Consideremos la ecuacin del calor en una barra infinita

= R 0
(0 ) = () R
Como vemos no hay condiciones de frontera y por tanto slo existen condiciones iniciales. Para
resolver dicho problema tomamos la transformada de Fourier de la funcin ( ), para cada valor
fijo del tiempo , es decir
Z
F[( )]() =
( )

91

Transformada de Fourier
Entonces
F[ ( )]() = 2 F[( )]()

y por la frmula de derivacin bajo el signo de la integral


Z
F[ ( )]() =
( )


( ) = F[( )]()
=

por lo que la ecuancin = se transforma en


2 F[( )]() =
La condicin incial se transforma en
F[(0 )]() =
=

F[( )]()

(0 )
() = F[]()

por lo que tenemos el problema de condiciones iniciales

2 F[( )]() = F[( )]() 0


F[(0 )]() = F[]()
que como sabemos del clculo de soluciones de ecuaciones diferenciales ordinarias tiene por solucin
2

F[( )]() = F[ ]()


La solucin de la ecuacin la escribimos formalmente como
2

( ) = F 1 [F[ ]() ]() = () F 1 [ ]()


Z
2
=
( )F 1 [ ]()

Calculamos entonces F 1 [

]() teniendo en cuenta que

2
2
F[ 2 ]() = 2 2

Partiendo de esta expresin y haciendo el cambio de escala = 2 tenemos que

2
2
2
F[ 2 ]() = F[ 2 ]() = 2F[ 2 ]( 2)
2

2
=
2 2( 2) 2 = 2
por lo que

Entonces

1
2
2
F 1 [ ]() = 2
2
Z
1
2
( ) 2
( ) =
2

92

Transformada de Fourier

4.6.

Ejercicios

1. Encontrar la transformada de Fourier de las siguientes funciones ( 0):

cos || 2
a) () =
0
|| 2

||
b) () =
0 ||

|| ||
c) () =
0
||
2. Calcular la convolucin es los siguientes casos ( 0):

1 ||
a) () =
0 ||
b) () = ||

3. Calcular la transformada de Fourier inversa de la funcin () = (1 + 2 ).


4. Si () = ( ), demostrar la frmula
F[]() = F[]()
5. Resolver el problema

donde:

= R 0
(0 ) = () R

a) () =

1 ||
b) () =
0 ||

c) () = 0 () siendo 0 la funcin de Heaviside.

6. Utilizar la transformada de Fourier para obtener la solucin formal del problema

= + R 0
(0 ) = () R
7. Utilizar la transformada de Fourier para obtener la solucin formal del problema

+ = 0 R 0 1
( 0) = 0 R

( 1) = () R
93

Transformada de Fourier

94

Captulo 5
Fundamentos de Optimizacin:
Optimizacin no lineal
Sumario. Definciones bsicas de optimizacin. Conjuntos Convexos. Funciones convexas. Optimizacin de funciones convexas. Condiciones de Karush-Kuhn-Tucker.
Condiciones necesarias de primer orden: Ejemplos y Contraejemplos. Condiciones
necesarias de segundo orden. Condiciones suficientes. Interpretacin de los multiplicadores de KKT. Dualidad.

5.1.

Conceptos bsicos

La teora de optimizacin clsica o programacin matemtica est constituida por un conjunto de


resultados y mtodos analticos y numricos enfocados a encontrar e identificar al mejor candidato
de entre una coleccin de alternativas, sin tener que enumerar y evaluar explcitamente todas esas
alternativas. Un problema de optimizacin es, en general, un problema de decisin.
Con el fin de ilustrar de forma adecuada la estructura y composicin de un problema de optimizacin, introduciremos a continuacin un sencillo ejemplo.
Ejemplo 6 (Construccin de una caja con volumen mximo) Supongamos que queremos
determinar las dimensiones de una caja rectangular de forma que contenga el mayor volumen posible,
pero utilizando para ello una cantidad fija de material. El problema en forma abstracta se podra
plantear en los siguientes trminos
Maximizar Volumen de la caja
sujeto a
rea lateral fija
Con el fin de resolver este problema habr que modelizarlo matemticamente, es decir tendremos que
expresarlo en trminos matemticos. El primer paso para modelizar un problema de optimizacin es
identificar y definir las variables que estn implicadas en dicho problema, en este caso y puesto que
estamos tratando de determinar el tamao de una caja rectangular, la opcin ms clara es considerar
como variables sus tres dimensiones rectangulares usuales (ancho, largo, alto) y que representamos
con , , .
95

Fundamentos de Optimizacin: Optimizacin no lineal


Con estas variables, la funcin para la que tenemos que encontrar el mejor valor ser el volumen
de la caja que puede expresarse como
( ) =
A continuacin debemos tener en cuenta las limitaciones existentes sobre el material. Como este
material se utiliza para construir las paredes de la caja, necesitaremos considerar el rea lateral de la
misma, y si la caja tiene tapa, dicha rea ser
( ) = 2 ( + + )
Por ltimo, teniendo en cuenta que las dimensiones de la caja no pueden ser negativas el problema
puede expresarse matemticamente como
Maximizar

sujeto a
2 ( + + ) =
0
En este ejemplo se distinguen tres elementos fundamentales: las variables del problema, una
funcin de esas variables y un conjunto de relaciones que deben cumplir las variables del problema.
Estos elementos se repetirn en todos los problemas de optimizacin y se definen formalmente a
continuacin:
1.- Variables de decisin: El primer elemento clave en la formulacin de problemas de optimizacin
es la seleccin de las variables independientes que sean adecuadas para caracterizar los posibles
diseos candidatos y las condiciones de funcionamiento del sistema. Como variables independientes se sueleng elegir aquellas que tienen un impacto significativo sobre la funcin objetivo.
Representaremos las variables independientes se representarn mediante vectores columna de
R

x = ...

o vectores fila

x = (1 )
Aunque para los casos = 1, 2 y 3 se emplearn las notaciones usuales de , ( ) y ( )
respectivamente.
2.- Restricciones: Una vez determinadas las variables independientes, el siguiente paso es establecer,
mediante ecuaciones o inecuaciones las relaciones existentes entre las variables de decisin. Estas
relaciones son debidas, entre otras razones, a limitaciones en el sistema, a leyes naturales o a
limitaciones tecnolgicas y son las llamadas restricciones del sistema. Podemos distinguir dos
tipos de restricciones:
1.

a) Restricciones de igualdad: Son ecuaciones entre las variables de la forma


(x) = (1 ) = 0
donde : R R es una funcin real de variables reales definida sobre un conjunto
de nmeros reales.
96

Fundamentos de Optimizacin: Optimizacin no lineal


b) Restricciones de desigualdad: Son inecuaciones entre las variables de la forma
(x) = (1 ) 0
donde : R R es una funcin real de variables reales definida sobre un conjunto
de nmeros reales.
Nota 1 Solamente se han considerado restricciones de dos tipos: restricciones de igualdad del forma
(1 ) = 0 y restricciones de desigualdad de la forma (1 ) 0, debido a que siempre
es posible, mediante una simple transformacin, expresar el problema en trminos de esta clase de
restricciones, tal y como se puede apreciar en la siguiente tabla:
Tipo de Restriccin

Transformacin

Nueva Restriccin

(1 ) =

b
=

b
(1 ) = 0

=
b

(1 ) 0
b

(1 )
(1 )

=
b

(1 ) 0
b

Nota 2 Las condiciones sobre las variables del tipo 0, 0 o similares no se incluyen dentro
de este conjunto de restricciones y tienen un tratamiento particular, son restricciones en las variables
o llamadas de tipo cota.
3.- Funcin objetivo: Finalmente, el ltimo ingrediente de un problema de optimizacin es la funcin
objetivo, tambin llamado ndice de rendimiento o criterio de eleccin. Este es el elemento utilizado para decidir los valores adecuados de las variables de decisin que resuelven el problema
de optimizacin. La funcin objetivo permite determinar los mejores valores para las variables
de decisin.
Independientemente del criterio seleccionado, dentro del contexto de la optimizacin matemtica el adjetivo mejor siempre indica los valores de las variables de decisin que producen el
mnimo o mximo valor (segn el criterio utilizado) de la funcin objetivo elegida.
Algunos de estos criterios pueden ser por ejemplo de tipo econmico (coste total, beneficio), de
tipo tecnolgico (energa mnima, mxima capacidad de carga, mxima tasa de produccin) o
de tipo temporal (tiempo de produccin mnimo) entre otros.
1. Es importante hacer notar que en esta gua se utilizar un nico criterio de optimizacin, no
estamos interesados en encontrar una solucin que, por ejemplo, minimice el coste, maximice
la produccin y al mismo tiempo minimice la energa utilizada. Esta simplificacin es muy
importante, puesto que aunque en muchas situaciones prcticas sera deseable alcanzar una
solucin que sea la mejor con respecto a un nmero de criterios diferentes: la solucin ideal sera
maximizar beneficios al mnimo coste. No obstante una forma de tratar objetivos que chocan
entre s, es seleccionar un criterio como primario y el resto de posibles criterios como secundarios.
El criterio primario se utiliza como la funcin objetivo del problema de optimizacin, mientras
que los criterios secundarios seran valores mnimos y mximos aceptables que seran tratados
como restricciones del problema. Los problemas que utilizan varios criterios de bsqueda entran
dentro de la llamada programacin multiobjetivo.
97

Fundamentos de Optimizacin: Optimizacin no lineal


Con la introduccin de estos tres elementos, el objetivo de los problemas de optimizacin matemtica est claro: Un problema de optimizacin consiste en la bsqueda de valores para unas determinadas
variables (variables de decisin) de forma que, cumpliendo un conjunto de requisitos representados
mediante ecuaciones y/o inecuaciones algebricas (restricciones) que limitarn la eleccin de los
valores de las variables de decisin, proporcionan el mejor valor posible para una funcin (funcin
objetivo) que es utilizada para medir el rendimiento del sistema que se estudia. Como se ha comentado previamente, con el mejor valor se quiere indicar el mayor o el menor valor posible para la funcin
objetivo. En resumen, buscamos valores que cumplan unas condiciones y minimicen o maximicen
una funcin que caracteriza el sistema.
El planteamiento abstracto general para resolver problemas de este tipo es el siguiente
Optimizar (1 )
Sujeto a Restricciones
donde el empleo del trmino Optimizar incluir a ambos objetivos tanto de Minimizacin como de
Maximizacin. No obstante y en relacin a este aspecto, la mayora de los planteamientos pueden
hacerse con uno slo de los objetivos, por ejemplo el de minimizacin, ya que un problema con
objetivo de maximizacin se puede transformar en otro equivalente con objetivo de minimizacin
multiplicando para ello la funcin objetivo por (1) tal y como podemos comprobar en la figura
5.1. El mnimo de la funcin () = 2 + 1 se alcanza en el punto = 0. En este punto tambin
se alcanza el mximo de la funcin opuesta () = () = 2 1, notar que aunque el punto
buscado en ambos casos es el mismo, los valores que cada funcin toma en dicho punto son justamente
uno el opuesto del otro:
( ) = (0) = 1
( ) = (0) = 1
Veamos algunos ejemplos de problemas de optimizacin.
Ejemplo 7 Distancia ms corta entre dos curvas. Supongamos que se quiere calcular la mnima distancia entre dos curvas de ecuaciones 1 = () y 2 = () que no se corten
entre s. El problema se resuelve considerando un punto en cada curva y utilizando la frmula de la
distancia entre dos puntos para plantear el problema como

o de forma explcita

Minimizar ( )
sujeto a
1
2
q
(2 1 )2 + (2 1 )2
Minimizar
sujeto a
1 = (1 )
2 = (2 )

siendo
= (1 1 ) 1
= (2 2 ) 2

las coordenadas de los dos puntos. Este problema se puede extender de forma trivial a curvas en R .
98

Fundamentos de Optimizacin: Optimizacin no lineal

Figura 5.1: Equivalencia entre mn () y max () = ()


Ejemplo 8 Problema lineal. Supongamos que queremos obtener el nmero de artculos que debemos fabricar de diferentes productos con coste fijo, teniendo para ello un presupuesto limitado y
obteniendo a la misma vez el mximo beneficio posible. El problema podra plantearse como:
Minimizar

1 1 + 2 2 + +

Sujeto a

1 1 + 2 2 + +

= 1

donde es el presupuesto total disponible y los parmetros y para = 1 2 son el beneficio


y el coste, respectivamente, para cada uno de los productos y siendo la cantidad de producto que
se debe fabricar.

5.2.

Definiciones

En esta seccin se dan las definiciones elementales relacionadas con la teora de la optimizacin
matemtica con el objetivo de que el lector se familiarice con el lenguaje matemtico utilizado.
Definicin 2 (PPNL) Se define el problema fundamental de la optimizacin esttica o problema
de programacin no lineal ( PPNL) al expresado como

Optimizar
(1 )

(1 ) = 0 = 1
Sujeto a
(5.1)
(PPNL)

=
1

(1 ) R
99

Fundamentos de Optimizacin: Optimizacin no lineal


donde : R, o en notacin vectorial como

Optimizar
(x)

h (x) = 0
Sujeto a
(PPNL)

g (x) 0

x = (1 ) R
donde ahora h : R , y g : R son funciones vectoriales.

Las funciones implicadas en la definicin del problema fundamental no tienen porque tener ninguna propiedad en particular, pero en nuestro caso vamos a introducir hiptesis adicionales que ayudarn a simplificar el problema; por ejemplo, supondremos de forma general que las funciones ,
y son continuas y en la mayora de los casos tendrn derivadas primeras y segundas tambin
continuas.
La resolucin del problema de optimizacin PPNL consistir en primer lugar, en buscar valores
para las variables de decisin que cumplan las ecuaciones e inecuaciones que forman el sistema de
las restricciones y en segundo lugar encontrar de entre estos valores aquel o aquellos que proporcionen
el mayor (si el objetivo es maximizar) o menor (si el objetivo es minimizar) valor para la funcin real
(1 ).
Definicin 3 Se distinguen algunos casos particulares del problema general de optimizacin 5.1.
1. Problemas sin restricciones: En este tipo de problemas no hay restricciones de ningn tipo, es
decir = = 0. La expresin general para estos problemas es

Optimizar (1 )
(5.2)
(PSR)

Sujeto a (1 )

Las nicas limitaciones vienen dadas por el conjunto de R donde est definida la funcin
(1 ).

2. Problemas de Lagrange o problemas slo con restricciones de igualdad: Son problemas de


optimizacin con restricciones donde solamente existen restricciones de igualdad, por tanto
6= 0 y = 0. Son problemas de la forma

Optimizar
(1 )

Sujeto a (1 ) = 0 = 1
(5.3)
(PRI)

(1 )
No hay restricciones dadas por inecuaciones, slo por ecuaciones.
100

Fundamentos de Optimizacin: Optimizacin no lineal


3. Problemas unidimensionales o univariantes: Este es un caso particular de los problemas sin
restricciones en los que solamente hay una variable, es decir para = 1, = 0 y = 0. El
problema se expresa como

()
Optimizar
(P1D)
(5.4)

Sujeto a R
donde es, en la mayora de las ocasiones, un intervalo.

Definicin 4 (Solucin factible) Diremos que x = (1 ) R es una solucin factible


del problema PPNL (ecuacin 5.1) si cumple todas sus restricciones, es decir

(1 ) = 0 = 1
x solucin factible

(1 ) 0 = 1

Definicin 5 (Conjunto factible) Se define regin o conjunto factible del problema PPNL al
conjunto de todas sus soluciones factibles
= {x R : x es una solucin factible}

Nota 3 Con estas definiciones se puede decir que el objetivo al intentar resolver el problema de
optimizacin PPNL es encontrar la mejor de todas las soluciones factibles.
Definicin 6 (Mnimo global) Diremos que x = (1 ) R es un mnimo global del
problema PPNL o que (x) tiene un mnimo global sobre , el conjunto factible de PPNL, si
x ;

x 6= x

(x ) (x)

El punto x ser mnimo global estricto si la desigualdad es estricta


x ;

x 6= x

(x ) (x)

Esta definicin implica que no hay en un punto en el que la funcin tome un valor menor que
el que toma en x .
Definicin 7 (Mximo global) Diremos que x = (1 ) R es un mximo global
del problema PPNL o que () tiene un mximo global sobre , el conjunto factible de PPNL, si
x ;

x 6= x

(x ) (x)

El punto x ser mximo global estricto si la desigualdad es estricta


x ;

x 6= x

(x ) (x)

Esta definicin implica que no hay en un punto en el que la funcin tome un valor mayor que
el que toma en x .
101

Fundamentos de Optimizacin: Optimizacin no lineal


Nota 4 Los mximos y mnimos globales de un problema de optimizacin se denominan extremos
globales.
Definicin 8 (Solucin ptima) Diremos que x R es una solucin ptima del problema
PPNL o que (x) tiene un ptimo en x sobre el conjunto factible si ocurre alguna de estas dos
situaciones
1. x es un mnimo global del problema PPNL y el objetivo del problema es minimizar.
2. x es un mximo global del problema PPNL y el objetivo del problema es maximizar.
Definicin 9 (Valor ptimo) Si x R es una solucin ptima del problema PPNL, entonces se define el valor ptimo como el valor de la funcin objetivo
en la solucin ptima, es decir,

si x es una solucin ptima del problema PPNL, entonces x es el valor ptimo.

Resolver un problema de optimizacin es encontrar, si existen, sus soluciones ptimas, es decir los
extremos globales de la funcin objetivo sobre el conjunto factible. Desde el punto de vista prctico y
computacional en algunas ocasiones bastar con obtener los llamados extremos locales que se definen
a continuacin.
Definicin 10 (Mnimo local) Consideremos el problema de optimizacin PPNL y sea su conjunto factible. Diremos que x R es un mnimo local o relativo de (x) en si y slo
si
0 tal que x ; x 6= x ; kxx k = (x ) (x)
El punto x ser un mnimo local estricto de () en si la desigualdad es estricta
0 tal que x ;

x 6= x ;

kxx k = (x ) (x)

Definicin 11 (Mximo local) Consideremos el problema general de optimizacin PPNL y sea


su conjunto factible. Diremos que x R es un mximo local o relativo de (x) en si y slo
si
0 tal que x ; x 6= x ; kxx k = (x ) (x)
El punto x ser un mximo local estricto de () en si la desigualdad es estricta
0 tal que x ;

x 6= x ;

kxx k = (x ) (x)

Nota 5 Los mximos y mnimos locales de los problemas de optimizacin tambin se denominan
extremos locales o relativos.
A diferencia de los extremos globales que afectan a todo el conjunto factible , los extremos
locales afectan a cierto entorno a su alrededor.
La teora inicial asociada a la optimizacin est orientada a la obtencin de condiciones necesarias
y suficientes para que un punto sea ptimo. Como veremos en los temas correspondientes, esta teora
incluye el teorema de los multiplicadores de Lagrange y el teorema de Karush-Kuhn-Tucker. Por otra
parte, tambin es interesante conocer no slo si un punto es o no ptimo desde el punto de vista
terico, sino tambin cmo encontrar esos ptimos desde el punto de vista prctico. Teniendo esto
en cuenta, al considerar problemas de optimizacin se plantean dos cuestiones:
102

Fundamentos de Optimizacin: Optimizacin no lineal


1. Cuestin esttica: Cmo podemos determinar si un punto x es o no la solucin ptima de
un problema de optimizacin? Qu condiciones deberan cumplir las funciones (x), (x) y
(x) para que un problema PPNL tenga solucin? Qu condiciones debe cumplir el punto
x ?
2. Cuestin dinmica: Si x no es el punto ptimo, entonces cmo podemos encontrar una
solucin ptima x utilizando la informacin de la funcin en x?
Mientras que con la primera cuestin se trata de determinar condiciones necesarias y/o suficientes
para que un punto sea o no una solucin ptima, en la segunda de las cuestiones se consideran los
mtodos numricos adecuados para conseguir encontrar esas soluciones ptimas.
El resultado principal utilizado para conocer si un problema de optimizacin tiene solucin es
el teorema de Weierstrass, que recordamos a continuacin dentro del contexto de la optimizacin
matemtica.
Teorema 32 (Teorema de Weierstrass) Sea (x) una funcin continua definida sobre un conjunto compacto (cerrado y acotado) R . Entonces el problema de optimizacin

Optimizar (x)

Sujeto a

tiene al menos una solucin para ambos objetivos de minimizacin y maximizacin, es decir

n (x)

(xmn ) = m
x
xmn xmax :

(x ) = max (x)
m
ax
x

Este es un resultado importante a tener en cuenta en la resolucin de problemas de optimizacin,


sin embargo el teorema no nos proporciona un mtodo para la localizacin de las soluciones, solamente de su existencia en determinadas condiciones. Desde el punto de vista de las aplicaciones, lo
interesante es caracterizar los puntos solucin y disear un mtodo efectivo para su clculo.
Finalmente, apuntar que un problema de optimizacin puede tener solucin nica como en el
siguiente planteamiento

Optimizar 2

Sujeto a [0 1]
no tener ninguna solucin como en el problema

Optimizar

Sujeto a (0 1)
o tener ms de una solucin, como en el problema

Optimizar sen ()

Sujeto a

+ 2, Z) como de
en el que hay incluso infinitas soluciones ptimas, tanto de mnimo ( 3
2

mximo ( 2 + 2, Z).
103

Fundamentos de Optimizacin: Optimizacin no lineal

5.3.

Conjuntos Convexos

El concepto de convexidad es de gran importancia en el estudio de los problemas de optimizacin


desde el punto de vista de la aplicacin prctica, puesto que en algunos casos, bajo condiciones de
convexidad, se puede garantizar que un extremo local de un problema es realmente un extremo global
y por tanto la solucin ptima del problema buscada.
Se describen en esta seccin algunos conceptos bsicos de convexidad tiles para el desarrollo de la
programacin matemtica y aunque es posible definirlos en el mbito de cualquier espacio topolgico,
en lo sucesivo consideraremos el espacio vectorial R .
Definicin 12 (Segmento lineal) Dados dos puntos x y R el segmento lineal cerrado que une
x con y es el conjunto definido por
[x y] = {x+ (1 ) y R : 0 1}
Del mismo modo, el segmento lineal abierto que une x con y es el conjunto
(x y) = {x+ (1 ) y R : 0 1}
Definicin 13 (Conjunto convexo) Sea R entonces
es convexo x y [x y]
Esta definicin se interpreta de forma que un conjunto ser convexo si el segmento lineal cerrado que une cualquier par de puntos del conjunto est contenido en dicho conjunto. La figura 5.2
representa algunos conjuntos convexos y otros no convexos de R2 .

Figura 5.2: Convexidad en R2 .


Por convenio el conjunto vaco es un conjunto convexo.
Unos de los tipos ms importantes de conjuntos convexos son los hiperplanos y los semiespacios,
que definimos a continuacin.
104

Fundamentos de Optimizacin: Optimizacin no lineal


Definicin 14 (Hiperplano) Sea a R con a 6= 0 y R. Un hiperplano en R es un
conjunto definido como

= x R : a x =

El vector a es el llamado vector normal al hiperplano. La expresin a x es el producto escalar de


ambos vectores
a x = 1 1 + +
Definicin 15 (Semiespacios) Sea a R con a 6= 0 y R. Sea el hiperplano construido a
partir de a y entonces definimos los semiespacios cerrados positivos y negativos asociados a ,
respectivamente a los conjuntos

+ = x R : a x
=

x R : a x

y semiespacios abiertos positivos y negativos asociados a a los conjuntos definidos como

+ =

x R : a x

x R | : a x

El siguiente lema es una consecuencia inmediata de la definicin de convexidad y establece que


la interseccin de dos conjuntos convexos es convexa y que la suma algebrica de dos conjuntos
convexos tambin es convexa. Su demostracin es muy sencilla utilizando la propia definicin de
conjunto convexo y se deja como ejercicio.
Lema 33 Sean 1 , 2 R dos conjuntos convexos entonces
1. 1 2 es convexo.
2. 1 + 2 = {x + y R : x 1 y 2 } es convexo.
3. 1 2 = {x y R : x 1 y 2 } es convexo.
Nota 6 Es posible extender mediante induccin la propiedad 1 del lema 33 a una interseccin

cualquiera de conjuntos convexos, es decir T


si { }
=1 R es una familia de conjuntos convexos de R , entonces el conjunto interseccin
=1 es de nuevo un conjunto convexo.

Si tenemos en cuenta por una parte que los semiespacios de R son conjuntos convexos y por otra
utilizamos los resultados del lema 33 se deduce fcilmente que los conjuntos definidos de la forma

11
1
1

..
= (1 ) R :

1 1 + +
105

Fundamentos de Optimizacin: Optimizacin no lineal


o en de forma ms compacta en notacin matricial
= {x R :

Ax b}

donde A = ( ) es una matriz en R y b R es un vector; son convexos puesto que


= 1
siendo
= {(1 ) R : 1 1 + + } ;

= 1

semiespacios cerrados negativos, que son conjuntos convexos.


Ejemplo 9 El conjunto definido como = {x R : x es solucin ptima de } siendo el
problema

Minimizar
c x

Sujeto a Ax = b
=

x0
es un conjunto convexo.

Solucin: Para demostrar la convexidad de utilizaremos la definicin. Distinguimos tres caso:


1. Caso I: El problema no tiene solucin, en ese caso es el conjunto vaco , que por definicin
es un conjunto convexo.
2. Caso II: El problema tiene solucin nica: = {x }. En este caso el nico segmento lineal
que se puede construir es
x + (1 ) x = x
(en este caso incluso independientemente de si est en el intervalo [0 1] o no).
3. Caso III: El problema tiene ms de una solucin. En este caso tiene ms de un elemento y
podemos suponer que existen x1 y x2 que por ser soluciones del problema sern puntos
factibles y por tanto cumplirn las restricciones del problema
Ax1 = b
Ax2 = b
x1 x2 0
Como adems son mnimos de ; si llamamos al valor ptimo se tiene
= c x1 = c x2
Ahora hay que comprobar que los elementos del segmento lineal que une x1 con x2 tambin
estn en es decir son soluciones de . Para ello tomamos [0 1] y consideremos el punto
x3 definido por
x3 = x1 + (1 ) x2
106

Fundamentos de Optimizacin: Optimizacin no lineal


Comprobamos su factibilidad operando directamente. Por una parte x3 es factible ya que por
una parte cumple el sistema de ecuaciones

Ax3 = A x1 + (1 ) x2 = Ax1 + (1 ) Ax2 = b + (1 ) b = b


y por otra parte, como [0 1]

01
de donde al ser x1 x2 0 se obtiene

0
10

x3 = x1 + (1 ) x2 0
ya que todos los sumandos son positivos. De esta forma x3 es factible porque cumple las
restricciones del problema.
Si ahora evaluamos la funcin objetivo en x3

x3 = c x3 = c x1 + (1 ) x2 = c x1 + (1 ) c x2 = + (1 ) =
y por tanto se deduce que x3 tambin es solucin del problema .

Definicin 16 (Punto extremo) Sea R un conjunto convexo no vaco. Se dice que el punto
x es un vrtice o punto extremo de
Si x =x1 + (1 )x2 para algn [0 1] y x1 x2 = x1 = x2 = x
Por ejemplo el conjunto convexo

= x = (1 2 ) R2

0 1 2 0 2 2

tiene 4 puntos extremos dados por 1 = (0 0), 2 = (0 2), 3 = (2 0) y 4 = (2 2) (ver figura 5.3).
El conjunto de los puntos extremos de un conjunto convexo puede ser vaco, por ejemplo una bola
abierta de R , contener una cantidad finita de elementos, como en la figura 5.3 o tener una cantidad
infinita de elementos, como una bola cerrada de R .

5.4.

Funciones convexas

En esta seccin se proporciona la definicin de funcin convexa y se presentan alguna de sus


propiedades ms importantes, sobre todo aquellas que pueden utilizarse para resolver problemas de
optimizacin.
Definicin 17 (Funcin convexa) Diremos que la funcin : R R, con un conjunto
convexo no vaco, es convexa sobre
x y [0 1] (x + (1 ) y) (x) + (1 ) (y)
Se dice que estrictamente convexa
x y [0 1] (x + (1 ) y) (x) + (1 ) (y)
107

Fundamentos de Optimizacin: Optimizacin no lineal

Figura 5.3: Puntos extremos.


Nota 7 Si definimos = 1 , entonces la definicin puede ponerse como
es convexa (x + y) (x) + (y)

0 con + = 1

Y del mismo modo para funcin estrictamente convexa.


Definicin 18 (Funcin cncava) Diremos que la funcin : R R, con conjunto
convexo no vaco es cncava sobre = es convexa.
Esta definicin equivale a decir que
es cncava x y [0 1] (x + (1 ) y) (x) + (1 ) (y)
Definicin 19 Se dice que estrictamente cncava = es estrictamente convexa.
Proposicin 34 Si 1 (x) y 2 (x) son dos funciones convexas definidas sobre un conjunto convexo
no vaco R = (x) = (1 + 2 ) (x) es convexa sobre .
Demostracin: Por definicin de = 1 + 2 se tiene
(x) = (1 + 2 ) (x) = 1 (x) + 2 (x)
Sean x y y [0 1]
(x + (1 ) y) = 1 (x + (1 ) y) + 2 (x + (1 ) y)
Puesto que tanto 1 como 2 son convexas sobre se cumplen de forma simultanea las siguientes
desigualdades
1 (x + (1 ) y) 1 (x) + (1 ) 1 (y)
2 (x + (1 ) y) 2 (x) + (1 ) 2 (y)
108

Fundamentos de Optimizacin: Optimizacin no lineal


y sumando ambas expresiones
1 (x + (1 ) y) + 2 (x + (1 ) y) (1 (x) + 2 (x)) + (1 ) (1 (y) + 2 (y))
es decir
(x + (1 ) y) (x) + (1 ) (y)
por tanto (x) es convexa.
Proposicin 35 Si (x) es convexa sobre R , siendo un conjunto convexo no vaco, entonces
0, la funcin () (x) definida por
() (x) = (x)
es convexa sobre .
Demostracin: Como (x) es convexa sobre se cumple
(x + (1 ) y) (x) + (1 ) (y)
si ahora multiplicamos ambos lados de la desigualdad por 0, el sentido de esta no cambia y
tendremos
( (x + (1 ) y)) ( (x) + (1 ) (y)) = (x) + (1 ) (x)
lo que demuestra la convexidad de .
Nota 8 Si 0, entonces la funcin sera cncava sobre .
Proposicin 36 Sea convexa en R con conjunto convexo no vaco y sea R, entonces
el conjunto de nivel definido por
= {x : (x) }
es convexo R.
Demostracin: Hay que demostrar que x y y [0 1], debe ocurrir x+(1 ) y .
Utilizando la definicin de es equivalente a probar
x y con (x) y (y) = (x + (1 ) y) [0 1]
Como (x) es convexa se cumple
(x + (1 ) y) (x) + (1 ) (y)
Por otra parte como [0 1] se cumple
0 1 =

0
101
109

Fundamentos de Optimizacin: Optimizacin no lineal


y por tanto
(x) = (x)
(y) = (1 ) (x) (1 )
Al sumar ambas desigualdades se obtiene
(x) + (1 ) (x) + (1 ) =
y por tanto
(x + (1 ) y) (x) + (1 ) (x)
como tratbamos de probar.
La caracterizacin de funciones convexas mediante su definicin es, en general, muy difcil de
aplicar en la prctica. Para comprobar si una funcin es o no convexa es necesario encontrar otras
caracterizaciones ms sencillas de aplicar. Los siguientes resultados proporcionan esas caracterizaciones para funciones convexas diferenciables en trminos del gradiente y del Hessiano.
Proposicin 37 (Caracterizacin de primer orden para funciones convexas) Sea :
R R, con un conjunto convexo y (x) C 1 () es decir una funcin derivable en con
derivadas parciales continuas, entonces
(x) es convexa sobre (y) (x) + (x)(y x) x y
(x) es estrictamente convexa sobre (y) (x) + (x)(y x) x y
Demostracin: Demostramos la proposicin para el caso en el que (x) sea convexa y se procedera del mismo modo si (x) fuera estrictamente convexa.
= Supongamos en primer lugar que (x) es convexa, entonces tomando cualquier valor [0 1]
y x y , se tiene
(y + (1 )x) (y) + (1 )(x)
Se puede asumir el hecho de que 6= 0 y podremos entonces dividir la inecuacin por este valor
(x + (y x)) (x)
(y) (x) (0 1]

Si ahora 0 y tenemos en cuenta que la funcin (x) es derivable en , entonces


(x + (y x)) (x)
= (x) (y x)
0

lm

y por tanto
(x)(y x) (y) (x)
110

Fundamentos de Optimizacin: Optimizacin no lineal


= Supongamos ahora que es cierta la siguiente desigualdad
(x)(y x) (y) (x) x y
entonces por ser un conjunto convexo
x1 x2 y [0 1] = x = x1 + (1 )x2
Si utilizamos la desigualdad para x e y = x1 por una parte y para x e y = x2 por otra
obtenemos
y = x1 = (x1 ) (x) + (x)(x1 x)
y = x2 = (x2 ) (x) + (x)(x2 x)

Si multiplicamos por la primera desigualdad y por (1 ) la segunda y sumamos ambas


expresiones
(x1 ) (x) + (x)(x1 x)
(1 ) (x2 ) (1 )(x) + (1 ) (x)(x2 x)
(x1 ) + (1 )(x2 ) (x) + (x)(x1 + (1 )x2 x)
(x) = (x1 + (1 )x2 )
lo que demuestra la convexidad de (x).
Proposicin 38 (Caracterizacin de segundo orden para funciones convexas) Sea :
R R, con un conjunto abierto convexo no vaco y (x) C 2 () entonces:
(x) es convexa en H (x) es semidefinido positivo x
siendo
H (x) =

"

#
2
(x)

=1

la matriz hessiana asociada a (x).


Demostracin: Demostramos la doble implicacin.
= Supongamos que (x) es convexa en y sea x . Demostrar que H (x) es semidefinida
positiva en equivale a demostrar que d R ocurre d H(x)d 0.

Puesto que 6= y abierto, entonces para d R , ocurre y = x + d tomando || 6= 0


y suficientemente pequeo. Si utilizamos la proposicin 37 de caracterizacin de primer orden
de funciones convexas por una parte y el teorema de Taylor por otra, se obtienen las siguientes
expresiones:
(y) (x) + (x) (y x) (x + d) (x) + (x)d
(x + d) = (x) + (x) d + 12 2 d H (x)d + ()
111

Fundamentos de Optimizacin: Optimizacin no lineal


donde () = 2 ||d||2 (x d) es una funcin que converge a 0 cuando tiende a 0.
Si se restan ambas expresiones obtenemos

1 2
d H (x)d + 2 ||d||2 (x d) 0
2
A continuacin se divide por 2 y se toman lmites cuando 0. El resultado que se obtiene
es que d H(x)d 0.
= Recprocamente si suponemos ahora que la matriz Hessiana H (x) es semidefinida positiva
en cada punto de y consideramos x e y en , entonces por el teorema del valor medio
obtenemos:
1
(y) = (x) + (x) (y x) + (y x) H (x )(y x)
2

donde x = x + (1 )y con (0 1). Como H (x ) semidefinida positiva, se cumple


que (y x) H(x )(y x) 0 y concluimos que
1
(y) = (x) + (x) (y x) + (y x) H (x )(y x) (x) + (x) (y x)
2
(y) (x) + (x)x x x
que resulta ser la caracterizacin de primer orden para funciones convexas de la proposicin 37 y
por tanto () es convexa en .
La matriz Hessiana de es la generalizacin al espacio R del concepto de curvatura de una
funcin y de forma anloga, la definicin positiva del Hessiano es la generalizacin de curvatura
positiva. Las funciones convexas tienen curvatura positiva (o al menos no negativa) en todas las
direcciones.

5.5.

Optimizacin de funciones convexas

En esta seccin consideraremos el problema de minimizar y maximizar una funcin convexa sobre
un conjunto convexo.
Debido a la correspondencia entre funciones cncavas y convexas todos los resultados se presentan
de forma equivalente para ambos tipos de funciones, por ello en cada teorema y entre corchetes se
muestra el resultado alternativo.
Teorema 39 Sea : R R con un conjunto convexo. Si (x) es convexa [cncava] = El
conjunto donde (x) alcanza su mnimo [mximo] es convexo y cualquier mnimo [mximo] local
de (x) es mnimo [mximo] global.
Demostracin: Definimos el conjunto como
= {x | (x ) = mn ()}
Si = , es decir si (x) no tiene mnimos relativos, entonces el teorema se cumple por la convexidad
del conjunto vaco.
112

Fundamentos de Optimizacin: Optimizacin no lineal


Supongamos ahora 6= y por tanto existe x . Si x es el nico elemento de , entonces
es convexo puesto que la nica combinacin con elementos de que se puede hacer [0 1] es
x + (1 ) x = x .
Finalmente podemos suponer que tiene al menos dos elementos x , y . Por la definicin
de , entonces
mn = mn () = (x ) = (y )
Si tomamos [0 1], por convexidad de (x) se cumple

(x + (1 ) y ) (x ) + (1 ) (y ) = mn + (1 ) mn = mn

pero como x + (1 ) y y mn = mn (), tendr que ocurrir


mn (x + (1 ) y )

de donde
y por tanto

mn (x + (1 ) y ) mn
(x + (1 ) y ) = mn

y se obtiene el resultado pedido.


Supongamos ahora que x es un mnimo local de (x) que no es global; es decir, que y
con (y) (x ). Por la convexidad de (x) en el conjunto convexo se obtiene la siguiente
desigualdad
(y + (1 )x ) (y) + (1 ) (x )

para [0 1]. Utilizando ahora el hecho de que (y) (x ) y como [0 1] y por tanto tanto
como (1 ) son no negativos
(y + (1 )x ) (x ) + (1 )(x ) = (x )

Para un valor de suficientemente pequeo se contradice el hecho de que x sea un mnimo relativo,
como estamos asuminedo que x es mnimo local, entonces debe cumplirse que adems es global. .
Teorema 40 Sea : R R con un conjunto convexo con C 1 () una funcin convexa
[cncava]. Supongamos que existe un x que cumple la siguiente propiedad

(x ) (y x ) 0
y (x ) (y x ) 0
Entonces x es un punto de mnimo [mximo] global de en .

Demostracin: Como convexo, x + (y x ) con [0 1]. Por la caracterizacin de


primer orden de funciones convexas (proposicin 37) y utilizando el hecho de que para x ocurre
(x ) (y x ) 0 tenemos:
(y) (x ) + (x ) (y x ) (x )

Luego x es un punto de mnimo relativo de en y utilizando el resultado de la proposicin


anterior, tambin es un mnimo global .
Se incluyen a continuacin, sin demostracin, una serie de resultados muy tiles e interesantes
para la resolucin de problemas de optimizacin.
113

Fundamentos de Optimizacin: Optimizacin no lineal


Proposicin 41 Si es un subconjunto no vaco, convexo y compacto de R cuyo conjunto de
puntos extremos es finito y si : R R es un funcin convexa [cncava] sobre (x)
posee en un mximo [mnimo] global y se encuentra en uno de sus puntos extremos.
Teorema 42 Sea : R R convexa [cncava] en convexo y compacto = Si (x) tiene
mximo [mnimo] en entonces lo alcanza en un punto extremo de .
Lema 43 Si x y son dos puntos de mnimo [mximo] global de una funcin convexa [cncava]
(x), : R R con convexo = [0 1] los puntos definidos como z () = x +
(1 ) y tambin son mnimos [mximos] globales de (x).
Demostracin: Supongamos que es convexa (para el caso de cncava y mximo la demostracin sera equivalente), entonces
(z ()) = (x + (1 ) y ) = (x + (1 ) y ) (x ) + (1 ) (y )
Como x y son mnimos globales = (y ) = (x ) y resulta
(z ()) (x )
pero como x es el mnimo global de (x) sobre , que es un conjunto convexo, ocurre
z () (z ()) = (x )
y los puntos de la forma z (), con [0 1], son todos mnimos globales de en .
Lema 44 Sea : R R, con un conjunto convexo no vaco y (x) convexa [cncava]. Sea
x un mnimo [mximo] local de . Entonces, si x es un mnimo [mximo] local estricto de (x) o
si (x) es estrictamente convexa [cncava] sobre , entonces x es el nico mnimo [mximo] global
de (x) en .
Demostracin: Si x es un mnimo local entonces por el teorema 39 es un mnimo global. Si
suponemos ahora que existe otro punto z mnimo de (x), por el lema 43 el mnimo tambin se
alcanza en todo el segmento que une ambos puntos x y z y esto contradice el hecho de que x sea
estricto.
Supongamos ahora que x es un mnimo local de (x) y que (x) es estrictamente convexa. Como
(x) es convexa, ya que es estrictamente convexa, x es un mnimo global. Si ahora suponemos que
existe otro mnimo global z , por la convexidad estricta de obtenemos:
1
1
1
1
( x + z ) (x ) + (z ) = (x )
2
2
2
2
y por tanto x no sera mnimo global

.
114

Fundamentos de Optimizacin: Optimizacin no lineal

5.6.

Introduccin a la optimizacin no lineal

En este captulo se estudian algunos aspectos relacionados con la que hemos dado en llamar
cuestin esttica de los problemas de optimizacin. Se presentan y utilizan condiciones necesarias y
suficientes para encontrar de forma explcita la solucin o soluciones de un problema de optimizacin
de tipo general.
Recordemos la formulacin general, que se introdujo en el captulo anterior, para un problema de
optimizacin no lineal

Optimizar (x)
Sujeto a
(x) = 0 = 1
(5.5)
(PPNL)

(x) 0 = 1

donde : R son funciones reales de varias variables reales definidas sobre los puntos
x = (1 ) del conjunto R . Por regla general el conjunto ser abierto y en las mayora
de las ocasiones C 1 (), es decir, las funciones del problema sern derivables sobre con
derivadas parciales continuas.
Recordemos que resolver el problema de optimizacin PPNL es encontrar los ptimos (mximos
y/o mnimos) de la funcin (x) no sobre todo el conjunto donde est definida, sino sobre el
conjunto factible de los puntos que cumplen todas las restricciones.
Como se coment en el primer captulo, si en el modelo general (5.5) ocurre = = 0, el
problema es de optimizacin sin restricciones y se expresa como

Optimizar (x)
(5.6)
(PSR)
x
Un caso particular de este tipo de problemas aparece cuando = 1, es decir, cuando slo hay una
variable de decisin, es un problema de optimizacin univariante

()
Optimizar
(P1D)

Sujeto a R

En otro caso (o bien o bien son distintos de 0) el problema se dice de optimizacin con
restricciones y a sus extremos, ya sean locales o globales, se les conoce como extremos condicionados,
para distinguirlos de los extremos de los problemas sin restricciones.
Finalmente si 6= 0 y = 0, es decir, solamente hay restricciones de igualdad, entonces el
problema es un problema de Lagrange

Optimizar (x)

(PRI)
(5.7)
Sujeto a
(x) = 0 = 1

En el problema general PPNL el comportamiento de las restricciones de igualdad y el de las de


desigualdad es ligeramente distinto.
Definicin 20 (Restricciones activas) Consideremos el problema de optimizacin PPNL y su
conjunto factible . Sea x ; entonces
(x) 0 es activa o saturada en x (x) = 0

en caso contrario la restriccin es inactiva o no saturada en x.


115

Fundamentos de Optimizacin: Optimizacin no lineal


Nota 9 Las restricciones activas se comportan como restricciones de igualdad; stas por su propia
naturaleza son activas en cualquier punto factible del problema.
Definicin 21 Consideremos el problema PPNL y su conjunto factible . Sea x . Se define el
conjunto de actividad (x) asociado a x como
(x) = { {1 } : (x) = 0}
es decir, (x) es el conjunto de los ndices de las restricciones que son activas en x.
Si x es una solucin ptima para el problema PPNL, entonces las restricciones no activas en
l son irrelevantes puesto que no se alcanza la limitacin impuesta por dicha restriccin. De otro
modo, si se conocieran con antelacin, sera posible eliminar aquellas restricciones no saturadas de
la formulacin del problema, pero esto obviamente, no es posible en general.
Otra definicin importante en optimizacin es la de punto regular, aunque para ello es necesario
que las funciones del problema sean derivables. Damos a continuacin dicha definicin junto con la
definicin de espacio tangente en un punto.
Definicin 22 (Punto regular) Consideremos el problema NLPP con su conjunto factible. Diremos que x es regular para las restricciones, si y slo si el conjunto de vectores definido por
o
n
{5 (x)}=1 {5 (x)}(x)
constituye una familia de vectores linealmente independientes.
Notar que en la definicin slo se tienen en cuenta las restricciones de igualdad y las de desigualdad activas.
En la definicin hay que distinguir dos casos particulares:

1. Caso sin restricciones ( = = 0): En un problema sin restricciones todos los puntos son
regulares.
2. Caso con restricciones de desigualdad ( = 0, 6= 0): El punto x tambin es regular si
no hay ninguna restriccin activa en l, es decir, en problemas que slo contienen restricciones
de desigualdad, el punto x tambin ser regular si (x) = .
Definicin 23 (Espacio tangente) Consideremos el problema PPNL con su conjunto factible.
Sea x . Definimos el espacio tangente en x al conjunto definido por

(x) = d R : (x) d = 0 = 1 ; (x) d = 0 (x)

o de forma equivalente
(
(x) =

dR :
(x) = 0

=1

= 1 ;

(x) = 0

=1

(x)

donde (x) es el conjunto de actividad asociado a x.


Nota 10 Como caso particular en problemas sin restricciones, el conjunto (x) sera todo el espacio vectorial R .
116

Fundamentos de Optimizacin: Optimizacin no lineal

5.7.

Condiciones de Karush-Kuhn-Tucker

En esta seccin se presentan algunas de las condiciones necesarias y suficientes que deben cumplir
los candidatos a solucin ptima del problema de optimizacin PPNL. Estas condiciones son las
llamadas condiciones de Karush-Kuhn-Tucker (CKKT).
Para una mayor claridad, se dan a continuacin las definiciones correspondientes a los problemas
de minimizacin y maximizacin de forma separada.
Definicin 24 Dado el problema

Optimizar (1 )
Sujeto a
(1 ) = 0

(1 ) 0

= 1
= 1

(5.8)

con : R funciones de clase C 1 () y R un conjunto abierto. Diremos que x =


(1 ) es un punto de Karush-Kuhn-Tucker para el problema 5.8 si y slo si 1 , ,
1 R, de forma que se cumplen las siguientes condiciones:
1. Condicin estacionaria:

(1 )

X
=1

(1 )

X
=1

(1 ) = 0

2. Condicin de factibilidad
(1 ) = 0

= 1

(1 ) 0

= 1

(1 ) = 0

= 1

3. Condicin de holgura
4. Condicin de signo: Una vez que se cumplen las condiciones anteriores el punto es de
Mnimo (CKKTMin) 0

= 1

Mximo (CKKTMax) 0

= 1

o de

En ambos casos los valores 1 , , , 1 , , son los llamados multiplicadores y existe uno
por cada restriccin del problema: el multiplicador est asociado a la restriccin de igualdad
(1 ) = 0 para = 1 y el multiplicador est relacionado con la restriccin de
desigualdad (1 ) 0 para = 1 .
Los valores ( 1 ) son los multiplicadores de Lagrange y los valores ( 1 ) son los
multiplicadores de Karush-Kuhn-Tucker.
117

Fundamentos de Optimizacin: Optimizacin no lineal


De la condicin de holgura se deduce que si una restriccin de desigualdad es no activa en el
punto solucin, entonces el multiplicador de Karush-Kuhn-Tucker asociado debe tomar el valor 0.
Los puntos x , siendo el conjunto factible del problema, que cumplen la condicin
estacionaria se dice que son puntos crticos o estacionarios. Esta condicin estacionaria suele expresarse en trminos de la llamada funcin Lagrangiana definida utilizando la funcin objetivo y las
restricciones como

X
X

1 1 1 = (1 ) +
(1 ) +
(1 )
=1

=1

o en forma vectorial
(x ) = (x) + h (x) + g (x)

(5.9)

siendo

h (x)
g (x)

=
=
=
=

(1 )

1
(1 (1 ) (1 ))
(1 (1 ) (1 ))

En forma vectorial la condicin estacionaria se puede expresar de forma ms compacta como


x (x ) = 0
donde el subndice indica que estamos derivando respecto a las componentes de x.
Nota 11 Para diferenciar los puntos estacionarios de problemas sin restricciones de los correspondientes a problemas con restricciones, a estos ltimos se les suele aadir el adjetivo de condicionados.
Cmo encontrar los puntos de KKT ?
Para la bsqueda prctica de puntos que cumplan las condiciones de CKKT o puntos de KarushKuhn-Tucker, ya sean de mnimo o mximo, primero hay que resolver el sistema de ecuaciones
compuesto por: la condicin estacionaria, la condicin de fatibilidad para las restricciones de igualdad
y la condicin de holgura

X
X

(1 ) +

(1 ) +

(1 ) = 0

=1
=1

= 1

(1 ) = 0

= 1

(1 ) = 0

= 1

Este sistema est compuesto por ( + + ) ecuaciones y ( + + ) incgnitas (las coordenadas


de x = (1 ), los multiplicadores de Lagrange y los multiplicadores de Karush-KuhnTucker ).
118

Fundamentos de Optimizacin: Optimizacin no lineal


La forma usual de resolver el sistema es comenzar por la condicin de holgura complementaria,
ya que dichas ecuaciones nos proporcionan dos opciones

= 0

(1 ) = 0

(1 ) = 0

para restricciones de desigualdad tendramo 2 posibles casos.


Una vez resuelto el sistema, para ver cul o cules de las soluciones obtenidas son puntos de KKT
hay que, por una parte comprobar que son puntos factibles (notar que slo quedara por comprobar
si (1 ) 0) y por otra que sus multiplicadores de Karush-Kuhn-Tucker asociados tienen
todos el mismo signo, bien todos 0 para puntos de mnimo o bien todos 0 para puntos de
mximo.
Casos Particulares
Las anteriores condiciones de Karush-Kuhn-Tucker se aplican al problema general de optimizacin
(NLPP), sin embargo se obtienen expresiones ms simplificadas de las mismas cuando se aplican a
problemas sin restricciones o cuando el el problema slo tiene restricciones de igualdad.
1. Problemas sin restricciones ( = = 0): Si el problema no tiene restricciones de ningn tipo
(ecuacin 5.6), los multiplicadores no son necesarios y tampoco las condiciones relacionadas
con ellos. La nica condicin que queda es la estacionaria
(1 ) = 0


( ) = 0
1

= 1

que coincide para ambos objetivos de maximizar y minimizar.


Si adems = 1, es decir, el problema es optimizar una funcin real de variable real, la
condicin estacionaria nos conduce a un resultado bien conocido del clculo diferencial
0 ( ) = 0
2. Problemas de Lagrange ( = 0): Si el problema slo tiene restricciones de igualdad el problema
considerado es un problema clsico de Lagrange (ecuacin 5.7) y las condiciones de KarushKuhn-Tucker se obtienen eliminando aquellas ecuaciones relacionadas con restricciones de desigualdad, quedando por tanto la condicin estacionaria y la condicin de factibilidad
X

(1 ) +

(1 ) = 0

=1

= 1

(1 ) = 0

= 1

que es el resultado que proporciona el teorema clsico de los multiplicadores de Lagrange. De


nuevo las condiciones de KKT para ambos objetivos de maximizar y minimizar coinciden.
A continuacin se presentan algunos ejemplos de bsqueda de puntos de Karush-Kuhn-Tucker.
119

Fundamentos de Optimizacin: Optimizacin no lineal


Ejemplo 10 Encuentra los puntos de Karush-Kuhn-Tucker para el problema

Optimizar
++
sujeto a
( 1)2 + 2 1

2 + ( 1)2 + 2 3

Solucin: Se utilizan los multiplicadores correspondientes para construir la funcin Lagrangiana,


expresando previamente las restricciones en la forma () 0

( ) = ( + + ) + 1 ( 1)2 + 2 1 + 2 2 + ( 1)2 + 2 3
y se plantean cada una de las condiciones de KKT
1. Condicin Estacionaria (x = 0)

= 0 1 + 22 = 0

[1]

= 0 1 + 21 ( 1) + 22 ( 1) = 0

[2]

= 0 1 + 21 + 22 = 0

[3]

2. Condicin de factibilidad

3. Condicin de holgura

4. Condicin de signo

( 1)2 + 2 1 0

2
+ ( 1)2 + 2 3 0

1 1 () = 0 1 ( 1)2 + 2 1 = 0

2 2 () = 0 2 2 + ( 1)2 + 2 3 = 0

[4]
[5]

1 2 0 Para mnimo
1 2 0 Para mximo
El sistema que permite localizar los puntos de KKT estar formado por las tres ecuaciones que
proporciona la condicin estacionaria (ecuaciones [1], [2] y [3]) y las dos de la condicin de holgura
(ecuaciones [4] y [5]).
A partir de las ecuaciones de la condicin de holgura se obtienen cuatro casos

Caso I
2 = 0

1 = 0
=

+ ( 1)2 + 2 3 = 0 Caso II

2
2

( 1) + 1 = 0 =

2 = 0

Caso III

2 + ( 1)2 + 2 3 = 0 Caso IV
120

Fundamentos de Optimizacin: Optimizacin no lineal


De la ecuacin [1] de la condicin estacionaria se deduce que 2 6= 0, ya que en caso contario se
llegara a una contradiccin; por ello los casos I y III no pueden darse y quedan por comprobar los
casos II y IV.

1. Caso II 1 = 0, 2 + ( 1)2 + 2 3 = 0 : Sustituyendo el valor de 1 = 0 en las ecuaciones


del sistema se obtiene
1 + 22 = 0

[6]

1 + 22 ( 1) = 0

[7]

1 + 22 = 0

[8]

2 + ( 1)2 + 2 3 = 0

[9]

Si restamos las ecuaciones [6] y [7] se obtiene


(1 + 22 ) (1 + 22 ( 1)) = 0 22 ( + 1) = 0
y como 2 6= 0 , se llega a la conclusin de que
+1=0=1
Restando las ecuaciones [6] y [8] obtenemos
(1 + 22 ) (1 + 22 ) = 0 22 ( ) = 0
y como 2 6= 0, se obtiene

( ) = 0 =

Con las relaciones que se han obtenido entre las variables , y , utilizamos la ecuacin [9]
2 + ( 1)2 + 2 3 = 0 32 3 = 0 = 1
y para las otras dos variables
= = 1
= +1
Como 6= 0, despejamos 2 de la ecuacin [6]
2 =
121

=2

=0

1
1
=
2
2

Fundamentos de Optimizacin: Optimizacin no lineal


Finalmente y para este caso se han obtenido 2 puntos, que son junto con sus respectivos
multiplicadores

1
1 = (1 2 1)
= 0
2

1
= 0
2 = (1 0 1)
2

2. Caso IV ( 1)2 + 2 1 = 0, 2 + ( 1)2 + 2 3 = 0 : En este ltimo caso, el sistema


que hay que resolver es
1 + 22 = 0

[10]

1 + 21 ( 1) + 22 ( 1) = 0

[11]

1 + 21 + 22 = 0

[12]

( 1)2 + 2 1 = 0

[13]

2 + ( 1)2 + 2 3 = 0

[14]

Restando las ecuaciones [13] y [14] se obtiene el valor de

( 1)2 + 2 1 2 + ( 1)2 + 2 3 = 0 2 2 = 0 2 = 2 = 2

Se sustituye ese valor en la ecuacin [10] para calcular 2


2 =

1
1
1
= =
2
2 2
2 2

Si ahora se restan las ecuaciones [11] y [12] se obtiene

(1 + 21 ( 1) + 22 ( 1)) (1 + 21 + 22 ) = 0
y entonces podemos agrupar y sacar factor comn
21 ( 1 ) + 22 ( 1 ) = 0 2 (1 + 2 ) ( 1 ) = 0
Esta ecuacin nos proporciona dos opciones. La primera de ellas es
1 + 2 = 0
pero utilizando la ecuacin [12]
1 + 21 + 22 = 0 1 + 2 (1 + 2 ) = 0 1 = 0
que obviamente es imposible. Y la otra opcin es
1 =01=
122

Fundamentos de Optimizacin: Optimizacin no lineal


y utilizando la ecuacin [13] se obtiene el valor de
1
( 1)2 + 2 = 1 2 2 = 1 =
2
y por tanto el de
1
=1+ =1
2
Queda por determinar el valor del multiplicador 1 y para ello utilizamos la ecuacin [12]
1 + 21 + 22 = 0 1 = 2

1
2

Si se consideran los distintos valores que se han encontrado para 2 (2 valores) y para (otros
2 valores) tendremos 4 casos posibles
1
2 =
2 2

1
1
= 1 =
2
2 2

1
2 =
2 2

3
1
= 1 =
2
2 2

2 =

2 2

3
1
= 1 =
2
2 2

2 =

2 2

1
1
= 1 =
2
2 2

Se han obtenido cuatro puntos


3
4
5
6

1
1 1
1
=
=
2 1 +
2 2
2 2 2 2

3
1
1
1

=
=
2 1
2
2
2 2 2 2

3
1 1
1
=
=
2 1 +
2 2
2 2 2 2

1
1
1
1

=
=
2 1
2
2
2 2 2 2

Para determinar cuales de estos puntos son de tipo KKT, hay que comprobar su factiblidad
y el signo de sus multiplicadores. Se expone a continuacin una tabla resumen con los resultados
123

Fundamentos de Optimizacin: Optimizacin no lineal


obtenidos
P = ( )

= (1 2 )

1
1 = (1 2 1)
= 0
2

1
2 = (0 1 1)
= 0
2

1 1
1
1
3 =
2 1 +
=
2 2
2 2 2 2

1
3
1
1

4 =
2 1
=
2
2
2 2 2 2

1 1
3
1
5 = 2 1 +
=
2 2
2 2 2 2

1
1
1
1

6 = 2 1
=
2
2
2 2 2 2

Factibilidad Positividad/Negatividad

CKKT

NO

NO

SI

Negatividad

Mximo

SI

NO

SI

NO

SI

Positividad

Mnimo

Los puntos 1 y 2 no son factibles ya que no cumplen la primera restriccin del problema
1 = (1 2 1) 1 (1 ) = ( 1)2 + 2 = (2 1)2 + (1)2 = 2 1
2 = (0 1 1) 1 (2 ) = ( 1)2 + 2 = (0 1)2 + (1)2 = 2 1
y por tanto no son puntos vlidos para el problema.
Los puntos 4 y 5 s son factibles, sin embargo no tiene multiplicadores de signo constante y por
tanto tampoco son puntos de KKT.
Los puntos 3 y 6 son los nicos que cumplen con todas las condiciones para ser puntos de KKT;
en el caso de 3 sera un punto de mximo ya que 0, mientras que 6 sera un punto de mnimo
puesto que 0.
Ejemplo 11 Encuentra los puntos de Karush-Kuhn-Tucker del siguiente problema
Optimizar 2 + 2
Sujeto a
2 + 2 = 0
Solucin: En este caso = 1 y = 0, es decir hay solamente una restriccin de igualdad y el
problema es de Lagrange. La funcin Lagrangiana del problema es

( ) = 2 + 2 + (2 + 2)
124

Fundamentos de Optimizacin: Optimizacin no lineal


y las condiciones que debe cumplir un punto para ser de Karush-Kuhn-Tucker sern la condicin
estacionaria y la condicin de factibilidad

(Condicin estacionaria)

x = 0

(Condicin de factibilidad)

= 0 2 + 21 = 0

= 0 2 + 1 = 0

( ) = 0 2 + 2 = 0

El sistema es lineal y tiene como solucin nica, y por tanto nico punto de KKT
=

4
5

2
5

1 =

4
5

Como el multiplicador est asociado a una restriccin de igualdad y su signo no influye en el carcter
del punto, el punto es un punto de KKT que puede ser de mximo o de mnimo.

5.8.

Condiciones necesarias

Las condiciones de Karush-Kuhn-Tucker son necesarias para la mayora de los problemas de


optimizacin no lineal, es decir, si x es un ptimo local del problema no lineal (PPNL), entonces
ser un punto de Karush-Kuhn-Tucker. No obstante para que un ptimo local deba cumplir stas
u otras condiciones, las restricciones en dicho punto tienen que cumplir determinadas propiedades
denominadas Hiptesis de Cualificacin de las Restricciones (H.C.R.). El estudio de estas hiptesis
no cae dentro del mbito de esta gua y solamente se indican algunas de ellas.
Definicin 25 (H.C.R. Sin Restricciones) En un problema de optimizacin no lineal sin restricciones ( = = 0), todos los puntos cumplen la primera hiptesis de cualificacin de las restricciones.
Definicin 26 (H.C.R. de Karlin o de Linealidad) En un problema de optimizacin no lineal
donde solamente hay restricciones de tipo lineal, todos los puntos factibles cumplen la hiptesis de
cualificacin de las restricciones de Karlin.
Definicin 27 (H.C.R. de Slater o de Convexidad) En un problema de optimizacin no lineal
en el que el conjunto factible, , es un conjunto convexo con interior no vaco, todos los puntos
factibles cumplen la hiptesis de cualificacin de las restricciones de Slater.
Definicin 28 (H.C.R. de Fiacco-McKormik o de Regularidad) En un problema de optimizacin
no lineal, todos los puntos factibles que sean regulares cumplen la hiptesis de cualificacin de las
restricciones de Fiacco-McKormik.
125

Fundamentos de Optimizacin: Optimizacin no lineal


Condiciones necesarias de primer orden
Estamos en condiciones de establecer las llamadas condiciones necesarias de primer orden que
deben cumplir los extremos locales de un problema de optimizacin.

Teorema 45 (Condiciones necesarias de primer orden) Dado el problema general de la optimizacin no lineal ( PPNL)
Optimizar
Sujeto a

(x)
(x) = 0 = 1
(x) 0 = 1

(5.10)

donde : R son funciones de clase C 1 () en el conjunto abierto R . Sea su


conjunto factible y x un punto donde las restricciones del problema cumplen alguna hiptesis
de cualificacin ( H.C.R.) y en el que la funcin (x) alcanza un mnimo o mximo relativo = x
cumple las condiciones de Karush-Kuhn-Tucker de Mnimo o Mximo respectivamente.

Ejemplos
Emplearemos el teorema de las condiciones necesarias de primer orden para resolver en esta
seccin algunos problemas de optimizacin con restricciones.

Ejemplo 12 Aplica las condiciones necesarias de primer orden y resuelve el problema 10


Optimizar
sujeto a

( ) = + +
( 1)2 + 2 1

2 + ( 1)2 + 2 3

Solucin: Un anlisis inicial permitir deducir que el problema tiene solucin para ambos objetivos de minimizar y maximizar. La funcin objetivo es continua y el conjunto factible es compacto
( es cerrado porque contiene a la frontera que est expresada
mediante igualdades y acotado porque
es un subconjunto de una esfera de centro (0 1 0) y radio 3), por tanto por el teorema Weierstrass
existirn tanto el mnimo como el mximo de la funcin sobre el conjunto. Podemos ver a continuacin la representacin grfica de las dos restricciones, y en la figura siguiente el conjunto factible,
126

Fundamentos de Optimizacin: Optimizacin no lineal

Figura 5.4:
que es la intereseccin de ambas.

Recordemos que para este problema, los nicos puntos que cumplan las condiciones de CKKT
eran

1
1 1
1
3 =
=
2 1 +
2 2
2 2 2 2
127

Fundamentos de Optimizacin: Optimizacin no lineal


para mximo y

1
1
6 = 2 1
2
2

1
1

2 2 2 2

para mnimo.
Deduzcamos que el problema tiene un mnimo global en 6 , el razonamiento es el siguiente: Como
la funcin ( ) tiene mnimo global, entonces tambin es local, si adems se cumple alguna de
las hiptesis de cualificacin de las restricciones en ese punto, entonces este mnimo local debe ser un
punto de Karush-Kuhn-Tucker de mnimo y por tanto debe ser el punto 6 . El razonamiento para
mximo y el punto 3 sera anlogo.
Slo resta por probar que se cumple alguna de las hiptesis de cualificacin; en particular, es
fcil comprobar que se cumple la hiptesis de cualificacin de Slater ya que el conjunto factible es
convexo con interior no vaco.
Para comprobar la convexidad de tenemos en cuenta que

= ( ) R : ( 1)2 + 2 1; 2 + ( 1)2 + 2 3 = 1 2
con

1 =
2 =

( ) R : ( 1)2 + 2 1

( ) R : 2 + ( 1)2 + 2 3

siendo los conjuntos 1 y 2 convexos, puesto que son conjuntos de la forma


= {( ) R : ( ) }
con ( ) una funcin convexa (por qu?). El conjunto es convexo por ser interseccin de dos
conjuntos convexos. Queda por comprobar que el interior de es no vaco, pero eso es fcil ya que
al menos el punto (0 1 0) est en su interior
1 (0 1 0) = (1 1)2 + 02 = 0 1
2 (0 1 0) = 02 + (1 1)2 + 02 = 0 3
Los valores ptimos mnimo y mximo de ( ) sobre se obtienen al evaluar la funcin
objetivo en cada uno de ellos

1
1
+
=1+2 2
2 + 1+
Valor ptimo Mximo (3 ) =
2
2
y

1
1
Valor ptimo Mnimo (6 ) = 2 + 1
+
=12 2
2
2

Ejemplo 13 Aplica las condiciones necesarias de primer orden al problema


Minimizar + +
Sujeto a + + = 3
128

Fundamentos de Optimizacin: Optimizacin no lineal


Solucin: Como solamente tiene una restriccin de igualdad se trata de un problema de Lagrange; dicha restriccin es lineal, luego se cumple la hiptesis de cualificacin de Karlin en todos
los puntos del conjunto factible. De este modo, si el problema tuviera solucin, es decir, si existiera
el mnimo global de la funcin sobre el conjunto factible, sera mnimo local, como debe ser factible,
la consecuencia es que debe ser un punto que cumpla las condiciones Karush-Kuhn-Tucker de Mnimo. Al ser un problema de Lagrange estas condiciones se reducen a la condicin estacionaria y a la
condicin de factibilidad.
La funcin Lagrangiana para este problema es
( ) = ( + + ) + ( + + 3)
y las condiciones de Karush-Kuhn-Tucker proporcionan el siguiente sistema

(Condicin estacionaria)

(Condicin de factibilidad)

x = 0

=0 ++=0


=0 ++=0

= 0 + + = 0

( ) = 0 + + 3 = 0

que es lineal y con solucin nica


===1

= 2

El punto obtenido = (1 1 1) junto con el multiplicador asociado = 2 es el nico que cumple las
condiciones de KKT. Notar que aunque 1 = 2 0 y el objetivo sea de minimizar, el punto cumple
las condiciones de KKT puesto que es un multiplicador asociado a una restriccin de igualdad y
no est condicionado por su signo. No es posible determinar la naturaleza del punto, puesto que se
cumplen las condiciones de KKT tanto para mnimo, como para mximo.
Ejemplo 14 Plantea y resuelve el problema de construir una caja de cartn rectangular de volumen
mximo y rea fija .
Solucin: El planteamiento para este problema viene dado por
Maximizar
Sujeto a

+ + =

donde son las dimensiones de la caja y 0 su rea. Se han omitido las restricciones de
positividad sobre las variables ya que por la naturaleza del problema, los valores de estas variables
deben 0, es decir, sern inactivas en cualquier punto, en particular en el punto solucin y por tanto
los multiplicadores asociados a estas restricciones sera 0.
129

Fundamentos de Optimizacin: Optimizacin no lineal


Comprobaremos que se cumple la hiptesis de regularidad en todos los puntos factibles, para ello
calculamos el gradiente de la restriccin

+
( ) = +
+
y estudiamos su dependencia lineal en cada punto del conjunto factible. Como slo hay un vector,
ste ser linealmente dependiente cuando sea el vector nulo, es decir
+ =0
+ =0
+ =0
sistema que tiene por nica solucin el vector nulo
===0
sin embargo este punto es infactible

2
de donde se deduce que todos los puntos de (conjunto factible) son regulares. Al cumplirse una de
las hiptesis de cualificacin de las restricciones, cualquier extremo local del problema que existiera
debera cumplir las condiciones de Karush-Kuhn-Tucker. La funcin Lagrangiana para este problema
es

( ) = + + +
2
0 + 0 + 0 = 0 6=

aplicando las condiciones de KKT se obtiene el sistema

(Condicin estacionaria)

(Condicin de factibilidad)

x = 0

= 0 + ( + ) = 0


= 0 + ( + ) = 0

= 0 + ( + ) = 0

( ) = 0 + +

=0
2

El sistema anterior tiene como nica solucin, teniendo en cuenta que 0 a


r
r

===
=
6
24
y al ser un problema que slo tiene restricciones de igualdad, de momento con estos datos no es
posible determinar si el punto es de mnimo o de mximo.
130

Fundamentos de Optimizacin: Optimizacin no lineal


Contraejemplos
El teorema de las condiciones necesarias de primer orden proporciona los requisitos que deben
cumplir los extremos de un problema de optimizacin con restricciones bajo ciertas hiptesis de
cualificacin, sin embargo, es posible encontrar problemas en los que la solucin ptima no cumple
estas condiciones, y tambin es posible encontrar puntos que cumplen las condiciones de KarushKuhn-Tucker pero que no son extremos de la funcin. Veamos algunos de estos ejemplos patolgicos.
Ejemplo 15 Consideremos el problema
Maximizar 2 +
Sujeto a
3 = 0
Su conjunto factible es

= ( ) R2 : ( 0)

El siguiente es un problema equivalente

Maximizar 2
Sujeto a
R
y podemos obtener fcilmente que = 0 es su solucin ptimaen, y por equivalencia entre los dos
problemas, ser tambin la solucin ptima del problema inicial.
Vamos a comprobar si = (0 0) es un punto de Karush-Kuhn-Tucker. Si esto fuera cierto,
debera existir un multiplicador asociado a la restriccin 3 = 0 de forma que se cumplan las
ecuaciones del sistema

( ) = 0 2 = 0
(Condicin estacionaria)
x = 0

( ) = 0 1 + 3 2 = 0

(Condicin de factibilidad) ( ) = 0 3 = 0

Sin embargo, este sistema no tiene solucin, ya que de la ltima ecuacin necesariamente = 0 y al
sustituir en la segunda obtenemos una contradiccin.
El punto = (0 0) es un mximo local (de hecho es global puesto que la funcin objetivo siempre
es 0 y slo se anula en = 0) para el problema de optimizacin planteado, sin embargo no cumple
las condiciones de Karush-Kuhn-Tucker. Contradice este ejemplo el teorema de las condiciones de
primer orden? La respuesta es no, ya que no cumple ninguna de las hiptesis de cualificacin de
las restricciones necesarias en dicho teorema.
1. Hiptesis sin restricciones: Est claro que esta hiptesis no se cumple por la presencia de la
restriccin: 3 = 0.
2. Hiptesis de Karlin: Esta condicin tampoco se cumple, puesto que la nica restriccin del
problema, ( ) = 3 es claramente no lineal.
131

Fundamentos de Optimizacin: Optimizacin no lineal


3. Hiptesis de Slater: El conjunto factible es

= ( ) R2 : ( 0)

que es el eje , que en R2 es un conjunto convexo, pero su interior es vaco, puesto que
cualquier bola de centro un punto de tiene puntos fuera de y tampoco se cumple esta
hiptesis.
4. Hiptesis de Fiacco-McKormik: En este caso tenemos que comprobar si el punto es o no regular
para las restricciones del problema, es decir, habr que comprobar si el conjunto de vectores formado por los gradientes de las restricciones activas en est formado por vectores linealmente
independientes. Como solamente tenemos una restriccin activa en (por ser de igualdad), la
familia de vectores estar formada por un nico vector
{ ( )} =
y al evaluar en = (0 0) obtenemos

0 3 2

{ ( )} = {(0 0)}
que por ser el vector nulo, es linealmente dependiente; y como consecuencia el punto = (0 0)
es no regular para las restricciones.
Si en el planteamiento del problema cambiamos la restriccin 3 = 0 por la restriccin equivalente
=0
la solucin del problema es la misma, pero en este caso s se cumple la hiptesis de Karlin, ya
que todas las restricciones son lineales. Ahora tendramos que ser capaces de encontrar el valor del
multiplicador y comprobar que el punto = (0 0) cumple las condiciones de KKT. El sistema con
este cambio es
2 = 0
1+ = 0
= 0
que tiene por solucin
= (0 0)
= 1
y hemos encontrado el punto buscado y tambin su multiplicador correspondiente.
132

Fundamentos de Optimizacin: Optimizacin no lineal


Ejemplo 16 Sea el problema de optimizacin
Maximizar ( ) =
Sujeto a
1 ( ) = ( 1)2 + 2 1 = 0
2 ( ) = ( + 1)2 + 2 1 = 0
El conjunto factible para este problema es

= ( ) R3 : (0 0 )

y la solucin ptima del problema es cualquier punto de , puesto que ( ) es constante sobre
l.
La condicin estacionaria para este problema nos proporciona las siguientes ecuaciones

= 0 21 ( 1) + 22 ( + 1) = 0


= 0 1 + 21 + 22 = 0
(Condicin estacionaria) x = 0

= 0 0 = 0

siendo ( 1 2 ) = + 1 1 + 2 2 la funcin lagrangiana del problema.


Ninguno de los puntos de , (0 0 ) es solucin del sistema anterior, puesto que al sustituir
cualquiera de ellos en la segunda ecuacin nos llevara a una contradiccin: Ninguno de los extremos
locales del problema cumple las condiciones de KKT!
Podemos comprobar, como en el caso anterior, que ninguno de ellos cumple ninguna de las hiptesis de cualificacin. Es un problema con restricciones, ambas no lineales y donde el conjunto factible
tiene interior vaco por ser una recta. Para comprobar si se cumple la hiptesis de regularidad
observamos que el conjunto de vectores que son gradiente de las restricciones activas (en este caso
son todas puesto que es un problema con slo igualdades) est dado por

2 ( + 1)
2 ( 1)

2
2
{1 ( ) 2 ( )} =

0
0
y al evaluarlo en los puntos ptimos (0 0 ) obtenemos


2
2
0 0

0
0

que es una familia de vectores linealmente dependientes y por tanto ningn punto de la forma (0 0 )
es regular.
Tambin podra suceder que un punto donde las restricciones no cumplan ninguna de las hiptesis
de cualificacin, sea extremo local del problema y cumpla las condiciones de Karush-Kuhn-Tucker.
133

Fundamentos de Optimizacin: Optimizacin no lineal


Consideremos, por ejemplo, las restricciones del ejemplo anterior, pero cambiando la funcin objetivo
por ( ) = .
En este las condicin estacionaria para el problema es

= 0 1 + 21 ( 1) + 22 ( + 1) = 0


= 0 21 + 22 = 0
(Condicin estacionaria) x = 0

= 0 0 = 0

y teniendo en cuenta que el conjunto factible est formado por los puntos (0 0 ), el sistema queda
como
1 21 + 22 = 0
0 = 0
0 = 0
que tiene por solucin

1
2
Tomando ahora cualquier solucin de esta ecuacin, por ejemplo = (1 2 ) = (1 12), vemos que
todos los puntos extremos cumplen las condiciones de Karush-Kuhn-Tucker, sin embargo, como se ha
comprobado, en ninguno de ellos las restricciones cumplen ninguna de las hiptesis de cualificacin.
Todos estos ejemplos son atpicos y en general suceder que los extremos locales del problema
tendrn que cumplir las condiciones de Karush-Kuhn-Tucker, pero ilustran la necesidad de comprobar
adecuadamente los resultados obtenidos.
Por ltimo hay que indicar que estas condiciones son necesarias, en el sentido de que bajo las
hiptesis del teorema, los extremos de un problema de optimizacin deben ser puntos de KarushKuhn-Tucker. Sin embargo, las condiciones no son suficientes, ya que podemos encontrar puntos que
an cumpliendo las condiciones de Karush-Kuhn-Tucker, no son extremos, por ejemplo la funcin
() = 3 tiene como nico punto estacionario = 0, que no es extremo puesto que la funcin es
siempre creciente.
1 2 =

Definicin 29 Los puntos factibles que cumplen la condicin estacionaria pero que no son extremos
de la funcin se denominan puntos de silla (que son condicionados si hay presencia de restricciones
en el problema). Para funciones reales de una variable a estos puntos se les conoce mejor por puntos
de inflexin.
Condiciones necesarias de segundo orden
Si las funciones del problema son suficientemente derivables, entonces, podemos utilizar informacin relativa a las segundas derivadas.
134

Fundamentos de Optimizacin: Optimizacin no lineal


Teorema 46 (Condiciones necesarias de 2 orden) Dado el problema general de optimizacin
no lineal ( PPNL)
Optimizar (x)
Sujeto a
(x) = 0 = 1
(x) 0 = 1

donde : R son funciones de clase C 2 () en el conjunto abierto R . Sea su


conjunto factible y x un punto donde las restricciones del problema cumplen alguna hiptesis de cualificacin de las restricciones ( H.C.R.) y en el que la funcin (x) alcanza un mnimo
[respectivamente mximo] relativo condicionado = x es un punto que cumple las condiciones de
Karush-Kuhn-Tucker de Mnimo [respectivamente Mximo] es decir 1 , , 1 R de
forma que se cumplen las siguientes condiciones:
1. Condicin estacionaria

(x ) +

X
=1

(x ) +

X
=1

(x ) = 0

2. Condicin de factibilidad
(x ) = 0
(x ) 0

= 1
= 1

(x ) = 0

= 1

3. Condicin de holgura
4. Condicin de signo
0 para mnimo

0 para mximo

= 1

y adems se cumple la siguiente condicin:

5. Condicin del Hessiano: La matriz (x ) definida como

(x ) = (x ) +

X
=1

(x ) +

(x )

(5.11)

=1

es semidefinida positiva [semidefinida negativa respectivamente] sobre el espacio tangente (x )


en x .
Cuando en el problema no hay restricciones o solamente hay restricciones de igualdad, las condiciones KKT tienen formas particulares que indicamos a continuacin.
1. Caso sin restricciones y una variable ( = = 0, = 1): En el caso de problemas con una sola
variable, el Hessiano de la funcin () es su segunda derivada y la condicin 5.11 se convierte
en
00 ( ) 0
135

Fundamentos de Optimizacin: Optimizacin no lineal


2. Sin restricciones y varias variables ( = = 0): En este caso el espacio tangente es (x ) =
R , = y la condicin necesaria que debe cumplirse es
x es mnimo local (x ) es semidefinida positiva
x es mximo local (x ) es semidefinida negativa
3. Problemas de Lagrange ( = 0): Para problemas que tengan solamente restricciones de igualdad
la condicin del Hessiano no cambia, salvo que en este caso no hay trminos asociados a
restricciones de desigualdad.
Ejemplo 17 Aplica las condiciones necesarias de segundo orden al problema 10

Optimizar ( ) = + +
sujeto a
( 1)2 + 2 1

2 + ( 1)2 + 2 3

Solucin: Vamos a comprobar que las soluciones que se encontraron para este problema, cumplen
las condiciones de segundo orden.

1
1 1
1
(Mximo) 3 =
=
2 1 +
2 2
2 2 2 2

1
1
1
1

(Mnimo) 6 = 2 1
=
2
2
2 2 2 2
Para aplicar las condiciones de segundo orden tendremos que construir la matriz ( ) en cada
punto y evaluarlar sobre el espacio tangente correspondiente ( ).
Comenzamos por definir la matriz

0
0
22

0
(x) = (x) + 1 1 (x) + 2 2 (x) = 0 2 (1 + 2 )
0
0
2 (1 + 2 )
Para el punto 3 tendremos

0
0
12

(3 ) = 0
0
2

0
0
2

que es una matriz semidefinida negativa sobre todo R3 puesto que es diagonal negativa. Como el espacio tangente (3 ) es un subespacio vectorial de R3 , la matriz (3 ) tambin ser semidefinida
negativa sobre l y por tanto 3 cumple las condiciones necesarias de segundo orden para mximo,
como era de esperar.
Para el punto 6 tendremos

0
0
2
(6 ) = 0
2 0
0
0
2
136

Fundamentos de Optimizacin: Optimizacin no lineal


que es una matriz semidefinida positiva sobre todo R3 , puesto que es diagonal positiva. Como de
nuevo, el espacio tangente (6 ) es un subespacio vectorial de R3 , la matriz (6 ) tambin ser
semidefinida positiva sobre l y por tanto 6 cumple las condiciones necesarias de segundo orden
para mnimo.
Ejemplo 18 Aplica las condiciones de segundo orden al problema 14 de la caja.
Solucin: Recordemos que el problema de optimizacin poda plantearse como
Maximizar

2
y que habamos encontrado como nico punto de KKT el siguiente
r r r !
r

1
=

=
6
6
6
2 6
Sujeto a

Construiremos a continuacin tanto la

0
= + = 0

+ + =

matriz ( ) como el espacio tangente ( )

0 1 1
0
+ +
+ 1 0 1 = +
0
+
0
1 1 0
+ +
0

evaluando en y teniendo en cuenta que = = = 2

1
+ = + = + = =
2
y la matriz hessiana en es
( ) =

1
2

0 1 1

1 0 1
6
1 1 0

Para determinar el espacio tangente ( ) necesitamos calcular ( )


r

(1 1 1)
( ) = ( + + + ) ( ) = 2
6
y entonces
( ) =

d R3 : ( ) d = 0

( ) R3 :
=
1 2 3

(1 1 1) 2
= 0 = (1 2 3 ) R3 :

6
3

y el espacio tangente estar descrito por

( ) = (1 2 3 ) R3 :

137

(1 2 (1 + 2 ))

1 + 2 + 3 = 0

Fundamentos de Optimizacin: Optimizacin no lineal


Si construimos la forma cuadrtica asociada a ( ) sobre ( ) tendremos

0
1
1

=
2
( ) (d)( ) = (1 2 (1 + 2 )) 1 0 1
(1 + 2 )
1 1 0

2
= (1 2 (1 + 2 ))
(1 + 2 )
= 21 22 (1 + 2 )2

= 21 + 22 + (1 + 2 )2

que claramente toma siempre valores negativos, lo que implica que ( ) es semidefinida negativa
sobre ( ) y el punto cumple las condiciones necesarias de segundo orden para ser un mximo
del problema.
Con las condiciones necesarias obtenemos condiciones que permiten eliminar aquellos puntos que
no son candidatos a extremo de la funcin, sin embargo, necesitamos unas condiciones que permitan
asegurar que los puntos encontrados son realmente las soluciones buscadas.

5.9.

Condiciones suficientes

En el apartado anterior se han proporcionado condiciones necesarias de primer y segundo orden


que permitan descartar como soluciones a aquellos puntos que no las cumplieran, sin embargo,
en ocasiones, en algunos problemas, es posible encontrar puntos que cumplan tanto las primeras
condiciones como las segundas, sin ser la solucin al problema.
Ejemplo 19 Comprueba que el punto = (0 0) cumple las condiciones necesarias de primer y
segundo orden para el problema
Minimizar ( 2 ) ( 3 2 )
s.a.

( ) R2

pero que no es su solucin.


Solucin: Al tratarse de un problema sin restricciones se cumple una de las hiptesis de cualificacin, por tanto cualquier mnimo debe cumplir las condiciones de Karush-Kuhn-Tucker que en
este caso se reducen a la condicin estacionaria


2 4 2
0

( ) = 0
=
3
12 8
0
Este sistema tiene como nica solucin el punto = (0 0), es decir, cumple las condiciones
necesarias de primer orden.
138

Fundamentos de Optimizacin: Optimizacin no lineal


Las condiciones de segundo orden para problemas sin restricciones se reducen a comprobar el
Hessiano de la funcin ( ) en el punto en cuestin. Si calculamos la matriz Hessiana de ( )

2
8

( ) =
8
36 2 8

y lo evaluamos en = (0 0)

(0 0) =

2
0

0
0

La matriz ( ) es semidefinida positiva, puesto que sus valores propios son 1 = 2 0 y


2 = 0 0; esto implica que el punto tambin cumple las condiciones necesarias de segundo
orden, concretamente las condiciones de mnimo. Sin embargo vamos a comprobar que el punto
no es un mnimo. Por una parte el valor de la funcin en es nulo
(0 0) = 0
y por otra parte si evaluamos la funcin sobre los puntos de la curva
= 3 2
obtenemos

( ) = 3 2 = 3 2 2 3 2 4 2 = 2 4 0

es decir sobre los puntos de esa curva sucede

( ) 0 = (0 0)
y no podra ser el mnimo, puesto que hay valores cerca de l (tomando 0) donde el valor de
la funcin es menor.
Este tipo de problema provoca el estudio de condiciones cuyo cumplimiento garantice el hallazgo
de la solucin. Este tipo de condiciones son las llamadas suficientes.
Con el fin de dar estas condiciones de suficiencia es necesario exigir que la matriz Hessiana correspondiente sea por una parte definida (positiva o negativa para mnimo o mximo, respectivamente)
y por otra que lo sea en un espacio mayor que el espacio tangente.
Definicin 30 Dado el problema general con restricciones
Optimizar
Sujeto a

(x)
(x) = 0 = 1
(x) 0 = 1

donde : R, son funciones de clase C 1 () en R abierto. Sea su conjunto


factible y x un punto de Karush-Kuhn-Tucker para el problema. Diremos que una restriccin
de desigualdad (x) es degenerada en x (x ) = 0 y = 0
139

Fundamentos de Optimizacin: Optimizacin no lineal


Definicin 31 Definimos el conjunto de ndices de restricciones no degeneradas en un punto x de
KKT como

e (x ) = {1 }| (x ) = 0 y 6= 0
Notar que si en el problema no hay restricciones o son todas de igualdad entonces e (x ) = .

Definicin 32 Definimos el espacio tangente ampliado como


n
f ) = d R | (x ) d = 0 = 1 ; (x ) d = 0
(x

o
e (x )

Notar que en el caso de un problema sin restricciones el espacio tangente y el espacio tangente
ampliado coinciden:
f ) = (x ) = R
(x

y para un problema de Lagrange

f ) = (x )
(x

Teorema 47 (Condiciones suficientes) Dado el problema general de optimizacin


Optimizar
Sujeto a

(x)
(x) = 0 = 1
(x) 0 = 1

donde : R son funciones de clase C 2 () en R un conjunto abierto. Sea su


conjunto factible y x un punto donde las restricciones del problema cumplen alguna de las
hiptesis de cualificacin. Si x es un punto de Karush-Kuhn-Tucker de Mnimo [Mximo], es decir
1 , , 1 R de forma que se cumplen las siguientes condiciones:
1. Condicin estacionaria

(x ) +

X
=1

(x ) +

X
=1

(x ) = 0

2. Condicin de factibilidad
(x ) = 0
(x ) 0

= 1
= 1

(x ) = 0

= 1

3. Condicin de holgura

4. Condicin de signo
0 para Mnimo

0 para Mximo
140

= 1

Fundamentos de Optimizacin: Optimizacin no lineal


5. Condicin del Hessiano: La matriz (x ) definida como

(x ) = (x ) +

(x ) +

=1

(x )

=1

f ) =
es definida positiva [definida negativa respectivamente] sobre el espacio tangente ampliado (x

Entonces en x hay un mnimo [mximo] relativo condicionado estricto de sobre .


f ) entonces en x hay un punto de silla condicionado.
Si la matriz (x ) es indefinida sobre (x
Casos Particulares:

Teorema 48 1. Sin restricciones y una variable ( = = 0, = 1): En el caso de problemas


con una sola variable, la condicin del Hessiano se convierte en
00 ( ) 0
2. Sin restricciones y varias variables ( = = 0): En este caso (x ) = R y la condicin del
Hessiano es
Si la matriz (x ) es definida positiva [negativa] x es un mnimo [mximo] local estricto
Ejemplo 20 Resuelve el problema
Minimizar + +
Sujeto a + + = 3
Solucin: Se comprob anteriormente que el nico punto crtico obtenido era:
===1

1 = 2

Si ahora tratamos de emplear las condiciones suficientes


dremos:

0 1

H ( ) = 1 0
1 1

descritas en la proposicin anterior, ten


1
1
0

que no es ni definida positiva, ni definida negativa si consideramos todos los vectores de R3 , sin
f (x ), que por ser
embargo si restringimos la matriz a los puntos del espacio tangente ampliado
un problema de Lagrange que continene solamente restricciones de igualdad, coincide con el espacio
tangente (x )
o

n
(x ) = d R3 (x ) d =0 = d R3 (1 1 1)|(111) d =0 =

=
d R (1 1 1) 2 =0 = d R3 1 + 2 + 3 =0

3
141

Fundamentos de Optimizacin: Optimizacin no lineal


la forma cuadrtica asociada ser

0 1 1
1
0 1 1
1
=
2
| ( ) (d) = (1 2 3 ) 1 0 1 2 = (1 2 1 2 ) 1 0 1
1 1 0
1 1 0
3
1 2

= (1 2 1 2 ) 2 = 21 22 (1 + 2 )2 = 21 + 22 + (1 + 2 )2 0
1 + 2

y solamente ser 0, cuando

1 = 2 = (1 + 2 ) = 0
y por tanto
d = (0 0 0)
Por tanto la forma cuadrtica | ( ) (d) asociada a la matriz H ( ) es definida negativa sobre el
espacio tangente (x ) y por la proposicin anterior el punto x ser un mximo local estricto.
En el caso de los problemas convexos las condiciones necesarias de primer orden son tambin
suficientes.
Teorema 49 (Problemas Convexos) Dado el problema
Optimizar (x)
Sujeto a
(x) = 0
(x) 0

= 1
= 1

con : R , funciones de clase C 1 (), con R un conjunto abierto y su conjunto


factible. Si es convexo y (x) es convexa [cncava respectivamente] sobre , entonces, si existe
x y multiplicadores 1 , 1 R tales que se cumplen las condiciones necesarias
de primer orden para mnimo [mximo] local, entonces x es un mnimo [mximo] global del problema.
Proposicin 50 (Problemas con desigualdades) Dado el problema PPNL
Optimizar (x)
Sujeto a
(x) 0

= 1

con : R , funciones de clase C 1 (), con R un conjunto abierto y su conjunto


factible. Supongamos que (x) es convexa [cncava] sobre y supongamos tambin que 1 (x), ,
(x) son funciones convexas sobre entonces si existe un x punto CKKTMin [ CKKTMax]
entonces x es solucin del problema PPNL.
Adems si , 1 , , son estrictamente convexas x es la nica solucin del problema PPNL.
Proposicin 51 (Problemas Afines Convexos) Dado el problema PPNL
Optimizar (x)
Sujeto a
(x) = 0
(x) 0
142

= 1
= 1

Fundamentos de Optimizacin: Optimizacin no lineal


con : R , funciones de clase C 1 (), con R un conjunto abierto y su conjunto
factible. Supongamos que (x) es convexa [cncava respectivamente] sobre y supongamos tambin
que 1 (x), , () son funciones afines y 1 (x), , (x) son funciones convexas sobre
entonces si existe un x punto CKKTMin [ CKKTMax] entonces x es solucin del problema
PPNL.
Una funcin (x) es afn si es de la forma
h (x) = 1 1 + + +
Ejemplo 21 Resuelve el siguiente problema PPNL
Optimizar

Sujeto a + + = 1
2 + 2 9
Solucin: Planteamos las condiciones de KKT para ( ) = + ( + + 1) +
(2 + 2 9)
1. Condicin Estacionaria (x = 0)

= 0 + 2 = 0

(1)

= 01+=0

(2)

= 0 + 2 = 0

(3)

++ = 1

(4)

2 + 2 9

(5)

2. Condicin de factibilidad

3. Condicin de holgura

() = 0 2 + 2 9 = 0

4. Condicin de positividad o negatividad

0 Para mnimo
0 Para mximo
De la ecuacin [2] obtenemos directamente
= 1
143

(6)

Fundamentos de Optimizacin: Optimizacin no lineal


Utilizando ahora la condicin de holgura [6] obtenemos dos opciones
= 0
2 + 2 9 = 0
pero la primera opcin ( = 0) no es vlida, puesto que si sustituimos en [1] obtenemos
=0
que es una contradiccin con el valor anterior que hemos obtenido para .
Las ecuaciones que quedan son (sustituyendo el valor de )
1 + 2 = 0

(7)

1 + 2 = 0

(8)

++ = 1

(9)

2 + 2 9 = 0

(10)

Utilizando [7] y [8] y puesto que 6= 0 (porqu?) obtenemos


=
que sustituido en [10]
3
2 + 2 = 9 22 = 9 =
2
El valor de se obtiene de [9]

3
=13 2
= 1 = 1 2 = 1 2
2
y el valor de se obtiene de [7]
1 + 2 = 0 =
Se han obtenido 2 puntos
=

3
3
1 3 2
2
2

1
1
1
=
=
2 2 3
3 2
2

3
3
= 1 + 3 2
2
2
144

= 1
= 1

1
=
3 2
1
=
3 2

Fundamentos de Optimizacin: Optimizacin no lineal


Para obtenemos un valor de 0, por tanto se cumplen las condiciones de Karush-KuhnTucker de mnimo, mientras que para obtenemos un valor 0 y por tanto se cumplen las
condiciones de mximo.
La funcin objetivo ( ) = , es lineal, por tanto es cncava y convexa (por qu?). Por otra
parte hay una restriccin de igualdad que es afn ( + + = 1) y la otra restriccin de desigualdad
es convexa (por qu?), luego estamos en condiciones de aplicar el teorema anterior y podemos decir
que y son respectivamente el mnimo y mximo globales del problema.
Aunque es posible extender las condiciones necesarias y suficientes a rdenes superiores, en la
prctica la aplicacin de estas condiciones requiere de un excesivo esfuerzo y solamente tienen una
utilidad prctica en el caso de funciones reales de variable real, es decir, cuando = 1 y = = 0.
Teorema 52 (Condicin suficiente de ptimo local) Supongamos que, para , la funcin
: R es suficientemente derivable y verifica
() ( ) = 0
() ( ) 6= 0

= 1 1

Donde () () es la derivada sima de la funcin


1. Si es impar = es un punto de inflexin.
2. Si es par = es un ptimo local. Adems
a) Si () ( ) 0 es un mnimo local estricto.

b) Si () ( ) 0 es un mximo local estricto.

5.10.

Interpretacin de los multiplicadores de KKT

En esta seccin trataremos de explicar de forma no rigurosa el significado de los multiplicadores


que aparecen en las condiciones de Karush-Kuhn-Tucker para un problema con restricciones y sus
aplicaciones en el anlisis de la sensibilidad de los problemas no lineales.Planteemos en primer lugar
un problema no lineal con restricciones de igualdad y de desigualdad de la siguiente forma
Optimizar (x)
Sujeto a
(x) = = 1
(x) = 1

(5.12)

donde : R, son funciones de clase C 2 () en R abierto y 1 1 R.


Est claro que el conjunto factible del problema 5.12 depender de los valores de los vectores
b = (1 ) y c = (1 ), es decir
(b c)
y tambin es obvio que los puntos ptimos del problema, si existen, dependern de estos valores
x = x (b c)
145

Fundamentos de Optimizacin: Optimizacin no lineal


Supongamos que para ciertos valores de estos parmetros, (b c ), el problema general con restricciones 5.12 posee un ptimo en el punto x , con multiplicadores de Karush-Kuhn-Tucker 1
y 1 asociados. Podemos definir una funcin
: (b c ) R
con (b c ) un entorno de (b c ) R+ , de forma que


b c = x bc
b c (b c )

siendo x bc el ptimo del programa para cuando se utilizan en el problema 5.12, los trminos

independientes bc (b c ) .
El siguiente teorema da una relacin entre las variaciones del trmino independiente y las variaciones que experimenta el valor ptimo de la funcin objetivo.
Teorema 53 Dado el programa de optimizacin con
restricciones dado en la ecuacin 5.12. Si para
ciertos valores de los parmetros b y c, (b c ) = 1 1 el punto x es un punto de
Karush-Kuhn-Tucker y junto con los multiplicadores asociados, 1 , , y 1 , , ; cumple las
condiciones de suficiencia para que la funcin (x) posea en ese punto un extremo relativo sobre el
conjunto (b c ) y si no hay restricciones de desigualdad activas degeneradas, entonces

xb c
(b c )
=
=
= 1

xb c
(b c )
=
=
= 1

Los multiplicadores y , asociados a la -sima restriccin de igualdad y a la sima restriccin


de desigualdad respectivamente, nos mide la tasa de variacin del valor de la funcin objetivo ( ),
en el punto ptimo respecto a la variacin de su correspondiente trmino independiente ( , ).
Notar finalmente que utilizando diferencias finitas obtenemos

(b c ) =

X
=1

X
=1

X
=1



=1

La ecuacin anterior nos proporciona un valor aproximado del incremento que se producir en el
valor del objetivo ptimo al variar el trmino independiente de las restricciones de (b c ) a b c .

5.11.

Dualidad

Sea el siguiente problema de optimizacin con objetivo de minimizacin

Minimizar
(x)

Sujeto a
(x) = 0 = 1
( )

(x) = 1

que llamaremos problema Primal, podemos construir el llamado problema Dual.


146

Fundamentos de Optimizacin: Optimizacin no lineal


Mientras que en el problema primal los multiplicadores se utilizan como parmetros auxiliares
para resolver el problema y se minimiza sobre las variables del problema, en el problema dual los
multiplicadores seran las variables, mientras que las variables de decisin del problema primal haran
el papel de multiplicadores.
Definicin 33 Para el problema de optimizacin P, definimos su problema dual (P*) como

Maximizar ( )
( )
Sujeto a
0
donde la funcin ( ) est definida por

( ) = 1 1 = inf (x) + 1 1 (x) + + (x) + 1 1 (x) + + (x)


x

y siendo el conjunto factible del problema P.

Ejemplo 22 Construye el problema dual del siguiente problema de optimizacin


Minimizar
Sujeto a

2 2
+
2
2
+ 4
4

( ) =

Solucin: La funcin Lagrangiana es


( 1 2 ) =

2 2
+
+ 1 ( + 4) + 2 ( + 4)
2
2

Si buscamos el mnimo sobre ( ) en

= 1 2 = 0 = 1 + 2

= 1 + 2 = 0 = 1 2

y la funcin (1 2 ) es
(1 2 ) =

(1 + 2 )2 (1 2 )2
+
+ 1 ( (1 + 2 ) (1 2 ) + 4) + 2 ( (1 + 2 ) + (1 2 ) 4)
2
2

= 21 22 + 41 42
El problema dual ser entonces
Maximizar
Sujeto a

(1 2 ) = 21 22 + 41 42
1 2 0
147

Fundamentos de Optimizacin: Optimizacin no lineal


Teorema 54 (Teorema de Dualidad) Dado el problema de optimizacin P
Minimizar
Sujeto a

(x)
(x) = 0 = 1
(x) = 1

con (), () convexas y () afn. Entonces el problema primal P tiene solucin si y slo s
su problema dual P* tiene solucin. Adems en este caso si x es la solucin ptima del primal y
( ) la solucin ptima del dual se tiene
(x ) = ( )
Lema 55 (Lema de Dualidad Dbil) Dado el problema de optimizacin P
Minimizar
Sujeto a

(x)
(x) = 0 = 1
(x) = 1

con (), () y () de clase C 1 (), entonces:


1.
max { ( )| 0} mn { (x)| x }
2. Si ( ) son factibles para el problema dual P* y x , y si adems se cumple
(x ) = ( )

entonces ( ) y x son las soluciones ptimas del problema dual y primal respectivamente.
Adems
max { ( )| 0} = mn { (x)| x }
Ejemplo 23 Resuelve por dualidad el problema
Minimizar
Sujeto a

2 2
+
2
2
+ 4
4

( ) =

Solucin: Es sencillo comprobar que la funcin objetivo y las restricciones de desigualdad son
convexas, como en este caso no hay restricciones de igualdad podemos aplicar el teorema de dualidad
para indicar que este problema tendr solucin si y slo si la tiene su problema dual, que como vimos
en el ejercicio anterior viene dado por
Maximizar
Sujeto a

(1 2 ) = 21 22 + 41 42
1 2 0

Para resolver este problema aplicaremos la teora de KKT, ya que las restricciones son lineales (y por
tanto convexas) mientras que la funcin objetivo es cncava (por qu?), en este caso un punto que
cumpla las condiciones de KKT de mximo ser la solucin. Si llamamos 1 y 2 a los multiplicadores
de KKT para este problema, el Lagrangiano vendr dado por
(1 2 1 2 ) = 21 22 + 41 42 1 1 2 2
y las condiciones de KKT seran
148

Fundamentos de Optimizacin: Optimizacin no lineal


1. Condicin estacionaria: (1 2 1 2 )

= 21 + 4 1 = 0
1

= 22 4 2 = 0
2
2. Condicin de holgura:
1 1 = 0
2 2 = 0
El resto de condiciones las utilizaremos posteriormente.
De las condiciones de holgura tendremos 4 casos

2 = 0 = Caso I

1 = 0 =

2 = 0 = Caso II

2 = 0 = Caso III

=
0
=

2 = 0 = Caso IV

que resolvemos de forma independiente:

1. Caso I: 1 = 2 = 0. Sustituyendo en la primera y segunda ecuaciones, se obtiene


21 + 4 = 0 1 = 2
22 4 = 0 2 = 2
que no es un punto factible puesto que 2 0
2. Caso II: 1 = 2 = 0. Sustituyendo
21 + 4 = 0 1 = 2
4 2 = 0 2 = 4
que cumples las condiciones y por tanto ser el mximo buscado.
3. Caso III: 1 = 2 = 0 En este caso
4 1 = 0 1 = 4
22 4 = 0 2 = 2
que no es factible puesto que 2 0.
149

Fundamentos de Optimizacin: Optimizacin no lineal


4. Caso IV: 1 = 2 = 0
4 1 = 0 1 = 4
4 2 = 0 2 = 4
que no es un punto de KKT de Mximo, puesto que 1 0.
Hemos obtenido un nico punto para este problema
= (2 0)

= (0 4)

que como hemos comentado cumple las condiciones de KKT para mximo, luego por las condiciones
del problema es la solucin buscada.
Teniendo en cuenta ahora la relacin existente entre los valores de 1 y 2 y las variables de
decisin del problema primal, podemos hallar el valor de estas ltimas
= 1 + 2 = 2 + 0 = 2
= 1 2 = 2 0 = 2
y comprobar que se trata de un punto factible para el problema primal.
Por ltimo es sencillo comprobar que ambos problemas coinciden en sus respectivos valores ptimos
22 22
( ) = (2 2) =
+
=4
2
2
(1 2 ) = (2 0) = 22 02 + 4 2 4 0 = 4

5.12.

Temporal

Ejemplo 24 Encuentra los puntos que cumplen las condiciones de Karush-Kuhn-Tucker para el
problema
Optimizar 2 + 2
Sujeto a
+ =6
2 + 2 26
10
Solucin: En primer lugar transformamos el problema en la forma general, es decir, los trminos
independientes de las restricciones deben ser cero y las restricciones de desigualdad de la forma
Optimizar 2 + 2
Sujeto a
+6=0
2 + 2 26 0
10

La funcin Lagrangiana del problema ser

( 1 1 2 ) = 2 + 2 + ( + 6) + 1 2 + 2 26 + 2 (1 )

y planteamos las condiciones de KKT:

150

Fundamentos de Optimizacin: Optimizacin no lineal


1. Condicin estacionaria ( = 0)

= 0 2 + + 21 2 = 0

[1]

= 0 1 + + 21 = 0

[2]

2. Condicin de factibilidad
+6 = 0
+ 2 26 0
1 0

[3]

3. Condicin de positividad o negatividad


1 2 0 Para mnimo
1 2 0 Para mximo
4. Condiciones de holgura

1 1 () = 0 1 2 + 2 26 = 0
2 2 () = 0 2 (1 ) = 0

[4]
([5])

El sistema que permite localizar los puntos de KKT estar formado por las dos ecuaciones que
proporciona la condicin estacionaria (ecuaciones [1], [2]), la restriccin de igualdad ([3]) y las dos
de la condicin de holgura (ecuaciones [4] y [5]).
Resolvemos el sistema utilizando la condicin de holgura. Este anlisis produce dos opciones por
cada ecuacin, con un total de cuatro casos:

Caso I
2 = 0

1 = 0
=

(1 ) = 0 Caso II

2
2

26
=
0
=

2 = 0

(1 ) = 0 Caso IV

que resolvemos de forma independiente

1. Caso I (1 = 2 = 0): El sistema para estos valores queda


2 + = 0
1 + = 0
+ = 6
151

Caso III

Fundamentos de Optimizacin: Optimizacin no lineal


que es lineal y tiene como nica solucin
= 1
=

1
=
2
2

= 6=6+
Tenemos por tanto un punto para este caso

1 13
1 =
2 2

13
1
=
2
2

= 1 = (0 0)

Sin embargo, este punto no es factible ya que no cumple ninguna de las restricciones de desigualdad del problema
2 2
1
13
1 169
85
2
2
+
= +
+ =
=
26 No se cumple
2
2
4
4
2

3
1
= 0 No se cumple
1=1
2
2
y por tanto no es de KKT.
2. Caso II (1 = 0 = 1): Con estos datos el sistema queda
2 + 2 = 0
1 + = 0
1+ = 6
que es lineal y cuya nica solucin es
= 5
= 1
2 = 2 + = 2 + 1 = 3
Obtenemos otro punto
2 = (1 5)

= 1 = (0 3)

Comprobamos si es un punto factible


2 + 2 26 = 1 + 25 26 0 S cumple la primera restriccin
1 = 1 1 = 0 0 S cumple la segunda restriccin
152

Fundamentos de Optimizacin: Optimizacin no lineal


como adems se cumple la condicin de positividad, 2 es un punto que cumple las condiciones
de KKT de mnimo.
3. Caso III (2 + 2 = 26, 2 = 0): Para este caso el sistema es
2 + + 1 2 = 0
1 + + 1 2 = 0
+ = 6
2 + 2 26 = 0
cuya solucin se obtiene fcilmente despejando una de las variables de la tercera ecuacin,
= 6 y sustituyendo en la cuarta para obtener una ecuacin de segundo grado
2 + (6 )2 26 = 0 22 12 + 10 = 0
con soluciones
1 = 5 y 2 = 1
Se obtiene un valor de para cada valor de
1 = 5 1 = 6 1 = 1
y
2 = 1 1 = 6 1 = 5
Se comprueba la factibilidad de estos dos puntos, 3 = (5 1) y 4 = (1 5), sustituyendo en las
restricciones de desigualdad

3 = (5 1)

4 = (1 5)

2
5 + 12 26 = 0 0

1 5 = 4 0
2
1 + 52 26 = 0 0

11=00

Finalmente se calculan los valores de los multiplicadores asociados a cada uno de ellos, para
determinar si se cumplen algunas de las condiciones de positividad o negatividad y establecer
si los puntos son de KKT. Utilizando las dos primeras ecuaciones, que forman un sistema lineal
153

Fundamentos de Optimizacin: Optimizacin no lineal


en y 1 y evaluando en cada punto obtenemos

11

1 (3 ) =

8
1 + 2
1 =
=
2 ( )

1 (4 ) =
8

15

(3 ) =

4
(1 + 2)
=
=

11

(4 ) =
4

En resumen, los puntos con sus respectivos multiplicadores son:


15
4

3 = (5 1)

4 = (1 5)

1 =

11
0 2 = 0
8

y
11
4

1 =

3
0 2 = 0 0
8

de donde se obtiene que que 4 es un punto de KKT para el problema de minimizacin


(1 2 0), mientras que 3 cumple las condiciones de KKT para mximo (1 2 0).
4. Caso IV (2 + 2 = 6, = 1): En este ltimo caso queda el siguiente sistema:
2 + + 21 2 = 0
1 + + 1 2 = 0
1+ = 6
1 + 2 26 = 0
De la tercera y cuarta ecuacin tenemos el punto
5 = (1 5)
que es uno de los puntos encontrados en el apartado anterior y por tanto ya se ha discutido. Sin
embargo, el clculo de los multiplicadores se obtiene a partir de las dos primeras ecuaciones,
en las que al sustituir por los valores de e correspondientes obtenemos el sistema
2 + + 21 2 = 0
1 + + 1 10 = 0
154

Fundamentos de Optimizacin: Optimizacin no lineal


que es lineal y con ms incgnitas que ecuaciones, por tanto ser indeterminado. Su solucin
es en forma paramtrica

1 11 + 4
= ;
=

10
5

Notar, por ejemplo, que si

Si = 1 = 1; = (0 3)
11
11
Si = = ; =
4
4

3
0
8

que corresponden a los multiplicadores de los puntos 2 y 4 , respectivamente. En todos los


casos se trata del mismo punto. El hecho de que existan diversos multiplicadores para el mismo
punto es debido, como veremos posteriormente, a que ste problema es singular.

5.13.

Ejercicios

1. Demuestra que los hiperplanos de R son conjuntos convexos.


2. Demuestra que todos los semiespacios (positivos y/o negativos) asociados a un hiperplano
R son conjuntos convexos.
3. Demuestra el lema 33. Si 1 y 2 son dos subconjuntos convexos no vacos de R entonces los
siguientes conjuntos son convexos:
a) 1 + = {x1 + x2 R : x1 1 ; x2 2 }
b) 1 = {x1 x2 R : x1 1 ; x2 2 }
c) 1 2
4. Prueba la convexidad del conjunto definido por
)
(

X
= 1, 0; = 1
= x R :
=1

5. Demuestra la convexidad del conjunto

= ( ) R2 : 3 2

6. Comprueba la convexidad del conjunto

= ( ) R2 : =

7. Siendo 0 y a R , prueba que la bola abierta de centro a y radio es un conjunto convexo.


155

Fundamentos de Optimizacin: Optimizacin no lineal


8. Demuestra que z R es combinacin lineal convexa de x y R si y slo si z [x y].
9. Prueba que los siguientes conjuntos son convexos
a) 1 = {(1 2 3 ) R3 | 1 + 2 + 3 = 2 1 0 2 0 3 0}
b) 2 = {(1 2 ) R2 | 31 + 22 4 61 + 2 3 1 0 2 0}
n
c) 3 = (1 2 ) R2 |

21
2

22

o
1 2 0

d) 4 = {(1 2 3 ) R3 | 21 + 22 + 23 3 1 + 2 + 3 1}
10. Estudia la concavidad o convexidad en R2 o R3 de las siguientes funciones
a) 1 (1 2 ) = (1 3)2 + (2 + 1)2
b) 2 (1 2 ) = (1 2)2 + 32
1 2

2 + 2
1
2
c) 3 (1 2 ) =

(1 2 ) 6= (0 0)
(1 2 ) = (0 0)

d) 4 (1 2 3 ) = 21 22 + 23 + 1 2

11. Ser convexa la funcin 2 (1 2 ) del problema anterior sobre el conjunto abierto y convexo

1 = (1 2 ) R2 | 1 0 2 0 ?
Y 4 (1 2 ) sobre el conjunto abierto convexo

2 = (1 2 3 ) R3 | 1 0 2 0 3 0 ?

12. Para los problemas de optimizacin siguientes

(b) Optimizar (1 1)2 + (2 1)2


sujeto a
1 + 22 4
1 0
2 0

(a) Optimizar
1 + 2
sujeto a
91 + 22 6
21 + 22 3
1 0
2 0

se pide la resolucin razonada de los siguientes apartados:


a) El anlisis de su convexidad.
b) Qu se puede decir de sus extremos locales y globales?
c) La resolucin geomtrica del problema.
156

Fundamentos de Optimizacin: Optimizacin no lineal


13. Dada la funcin
() =

01

Responde de forma razonada a cada uno de los siguientes apartados


a) Estudia la concavidad o convexidad de la funcin () sobre el intervalo = (0 ).
b) Utilizando la informacin del apartado anterior, demuestra la siguiente desigualdad
( + ) 21 ( + )

14. Sea 1 un problema de programacin matemtica y sea 2 otro problema que resulta de anadirle
a 1 una restriccin ms. Supongamos que el objetivo es maximizar. Si 1 y 2 son respectivamente sus conjuntos factibles, resuelve los siguientes apartados:
a) Indica si existe alguna relacin entre los conjuntos 1 y 2 .
b) Supongamos que 1 es solucin ptima de 1 ser solucin ptima de 2 ?

c) Suponiendo que ambos problemas tienen soluciones ptimas 1 y 2 respectivamente.


Encuentra, si existe, la relacin entre ellas.

15. Encuentra sobre R, los extremos locales y globales de las siguientes funciones:
a) () = 5 + 4

3
3

+2

b) () = (2 + 1)2 ( 4)

16. Halla los extremos locales y globales de () = 3 12 + 3 en el intervalo [4 4].


17. Se construye un barco para transportar toneladas diarias a lo largo de una ruta de longitud
entre dos puertos. Si el coste de construccin del barco, sin los motores, vara segn la
capacidad de carga del bargo () y el coste de los motores vara como el producto de esta
capacidad de carga y el cubo de la velocidad () que alcanza el barco, muestra que el coste
total de construccin es menor cuando se gasta 2 veces ms en el barco que en los motores.
(Desprecia el tiempo de carga y descarga y asume que el barco se mueve de forma constante).
18. Un incendio en un bosque est quemando un estrecho valle de 2 de ancho a una velocidad de
32. El fuego puede contenerse mediante un cortafuegos a lo ancho del valle. Si un hombre
puede limpiar 2 del cortafuegos en 1 minuto, el coste del transporte de cada hombre hasta
el cortafuegos es de 12 euros, cada hombre cobra 6 euros/hora, por su trabajo y el valor de la
madera es de 1200 euros/2 : Cuntos hombres deben enviarse para luchar contra el fuego
de manera que el coste sea mnimo?
19. Dada la funcin

2
( ) = + + sen 2 + 2

a) Determina el valor de y , sabiendo que ( )tiene un extremo relativo en (0 0) y que


el polinomio de Taylor de 2 orden de ( )en ese punto, toma el valor 6 en el punto
(1 2)
b) Indica la clase de extremo que presenta ( ) en (0 0)
157

Fundamentos de Optimizacin: Optimizacin no lineal


20. A partir de la siguiente funcin:
( ) = (3 ) (3 ) ( + 3)
a) Dibuja el conjunto de puntos del plano en los que ( ) es positiva.
b) Calcula sus puntos estacionarios e indica cules son extremos relativos.
c) Encuentra, si existen, los extremos absolutos o globales de en R2
21. Estudia los extremos relativos y absolutos de las siguientes funciones, en los conjuntos que se
indican
( ) = 2 + 3 2
( ) = 3 + 3 2 15 12
( ) = sen + sen + cos ( + ) 0 2
22. Demuestra que el origen es el nico punto crtico de la funcin
( ) = + +
a) Es un punto de mximo o de mnimo relativo?
b) Encuentra 2 rectas que pasen por el origen tal que en una de ellas sea 0 y en la otra
0 Porqu es posible encontrar estas rectas?
23. (Optimizacin de funciones compuestas) Sea : R R una funcin real, sea
: R R una funcin real montona creciente. Si definimos la funcin compuesta como
= , se pide:
a) Demuestra que si es un mnimo, mximo o punto de silla de , tambin lo es de
b) Si y son diferenciables en y = ( ) respectivamente. Demuestra que si 0 () 6= 0
entonces un punto es crtico para si y slo si es crtico para
c) Aplica los apartados anteriores para determinar los ptimos locales de la funcin

( ) = exp 57 (ln )2 + 2
sobre = {( ) R2 |

0}

24. Encuentra los extremos de las siguientes funciones sobre los conjuntos correspondientes:
1 ( ) = (1 2 2 ) en 1 = [0 1] [0 1]
2 ( ) =
en 2 = Tringulo de vrtices (0 0) (1 0) (0 1)
25. Determina, de entre todos los polgonos de lados que se pueden inscribir en una circunferencia
el de rea mxima y el de permetro mximo. (Ayuda: resuelve el problema caracterizando los
polgonos por la amplitud de sus ngulos centrales).
26. Un alambre de longitud se divide en 2 partes, con las que construmos un cuadrado y una
circunferencia. Cul debe ser la longitud de cada una de las partes para que la suma de las
reas del cuadrado y del crculo sea la menor posible?
158

Fundamentos de Optimizacin: Optimizacin no lineal


27. Determina la distancia mnima entre las grficas de () = 2 y () = 5
28. (Contraejemplo de Peano) Para y constantes reales considera la funcin

( ) = 2 2 2 2

a) Clasifica el punto x = (0 0)

b) Muestra que ( ) tiene un mximo en el origen sobre la curva


=
29. Dada la funcin

1 2
+ 2 2
2

( ) = 2 + ( + 1)2 2 + ( 1)2

Clasifica los siguientes puntos: 1 = (0 0), 2 = (0 1), 3 = (0 1), 4 = (1 1).


30. Se quiere construir un contenedor para transportar material entre dos puertos. Si la cantidad de
material que hay que transportar es de 4003 y los costes del transporte son: 1000 euros cada
viaje entre los puertos, 120 euros/2 el coste del material de la tapa y el fondo del contenedor
y 30 euros2 el material de los lados del contenedor. Resuelve el problema para que el coste
sea mnimo.
31. (Condiciones de orden superior) Es posible extender las condiciones suficientes para
funciones de una variable a funciones multivariantes? es decir, qu les ocurre a los extremos
locales con las derivadas de orden superior para una funcin multivariable?. Comprueba lo qu
ocurre en el punto (0 0) y la funcin ( ) = ( 2 ) 2 2. Aplica el resultado a la funcin
( ) = 3 + 3
32. Determina, si existen, los extremos relativos y absolutos de la funcin ( ) = sobre el
conjunto

= 2 + 2 = 9; + + = 1
Determina los valores ptimos aproximados de ( ) sobre el conjunto

0 = 2 + 2 = 925; + + = 1

33. Determina los puntos de la elipse que se obtienen al cortar el cilindro de ecuacin 2 + 2 = 1
con el plano + + = 1, cuyas distancias al origen sean respectivamente mxima y mnima.
34. Dado el problema
Optimizar

2
2
Sujeto a + + 2 = 36
2 + = 2
159

Fundamentos de Optimizacin: Optimizacin no lineal


Se sabe que los puntos
1
2

10 + 265 5 + 265 1 + 265

=
15
15
3

10 2 265 5 265 1 265


=

15
15
3

son los nicos puntos estacionarios de la funcin dentro de la regin factible.


a) Estudia si son o no extremos (relativos o globales) condicionados.
b) Encuentra, si existen, los valores ptimos aproximados del problema
Optimizar

2
2
Sujeto a + + 2 = 3605
2 + = 2
35. De entre los tringulos rectngulos de rea 9, encuentra aquellos cuya hipotenusa sea mnima.
36. Resuelve el problema
Optimizar
( ) = 2 + 2 + 2
Sujeto a 2 + 2 + 2 + + + 1 = 0
+ 2 3 = 0
37. Participas en un concurso de televisin en el que se entrega una chapa metlica de 252 de
superficie y con la que debes construir una caja rectangular, que se llenar gratuitamente de
gasolina. Se pide:
a) Cules deben ser las dimensiones de la caja que maximizan tu beneficio?
b) Si el litro de gasolina cuesta 2 euros. Cunto estaras dispuesto a pagar por 12 ms de
chapa?
38. Halla la mnima distancia entre la recta + = 4 y la circunferencia 2 + 2 = 1
39. De entre todos los paraleleppedos rectngulos cuya suma de las aristas es la misma e igual a
, determina aquel que tiene volumen mximo
40. Traza por un punto dado un plano que forme con los planos coordenados un tetraedro de
volumen mnimo. Se supone el sistema de referencia cartesiano rectangular.
41. Maximiza la distancia al origen de los puntos de la elipse interseccin del cilindro de ecuacin
2 + 2 = 4 con el plano + + = 5
42. Halla la mxima distancia al origen de los puntos de la circunferencia de centro (2 1) y radio
3.
160

Fundamentos de Optimizacin: Optimizacin no lineal


43. Maximiza la funcin ( ) = 3 + 2 + 2 2 + 4 2 + ( 2)2 , sujeta a la restriccin
2 + 4 + = 0
44. Resuelve el problema
Optimizar
2
2
Sujeto a + 2 = 1
45. Determina los ptimos de ( ) = + + , sujeto a la restriccin + + = 120
46. Resuelve el siguiente problema
Optimizar 2 + 2 +
Sujeto a + 2 = 0
2 + = 0
47. Dados los problemas
Minimizar
( 2)2 + 2
Sujeto a ( 1)3 2 = 0

Minimizar
2 + 2
Sujeto a ( 1)3 2 = 0
Se pide:
a) Resulvelos grficamente.

b) Resulve cada problema mediante el mtodo de los multiplicadores.


c) Explica porqu no se puede resolver uno de ellos por este mtodo.
48. Un meteoro se mueve a lo largo de la trayectoria de ecuacin
= 2 + 3 6
Una estacin espacial se encuentra en el punto ( ) = (2 2). Utiliza las condiciones de KKT
para encontrar el punto ms cercano entre el meteoro y la estacin.
49. Se va a manufacturar una remesa de cajas de cartn rectangulares, de forma que las caras
superior, inferior y frontal sean de doble peso (es decir, dos piezas de cartn) que las otras.
Halla el tamao de las cajas que maximicen el volumen, teniendo en cuenta que para cada caja
se va contar con 722 de cartn.
50. Resuelve el siguiente problema
Optimizar
Sujeto a

2 2 2
+ 2 + 2
2

+ + =

Donde R, y 6= 0.
161

Fundamentos de Optimizacin: Optimizacin no lineal


51. Resuelve el siguiente problema
Optimizar
Sujeto a


+ +

+ + =

donde , , , , , R+ .
52. Resuelve el siguiente problema utilizando el mtodo de los multiplicadores
Optimizar

Sujeto a + + =
donde , , , , , R {0}.
53. Calcula los valores mximo y mnimo que alcanza la funcin ( ) = sobre el conjunto
= {42 + 2 8; 1}. Indica en qu puntos se alcanzan esos valores. Cmo cambiaran
los valores ptimos de la funcin objetivo si la regin fuera 0 = {42 + 2 805; 105}?
54. Un paraboloide elptico de ecuacin
=

2
2
+ , 0, 0
2 2

se corta por un plano de ecuacin = . En la porcin de paraboloide as determinada se


inscribe un paraleleppedo recto. Determina sus dimensiones para que tenga volumen mximo.
55. Halla los ptimos relativos y absolutos, si los hay, que alcanza ( ) = , sobre el conjunto
= {2 + 2 4; + + = 5}
56. Resuelve el problema
Optimizar 2 + 2 ( 1)
Sujeto a
+ 2 1
57. Realiza la descomposicin del nmero 6 en 3 sumandos, de forma que:
a) Su producto sea mximo.
b) Su producto sea mnimo.
c) Qu se puede decir si los tres nmeros son no negativos?
58. Halla, si existen, los extremos relativos y absolutos de la funcin ( ) = 2 sobre el conjunto
de los puntos que cumplen 2 + 2 1.
59. Resuelve el siguiente problema
Maximizar

=1

Sujeto a

X
2

=1

0;

162

Fundamentos de Optimizacin: Optimizacin no lineal


donde , son constantes reales positivas.
60. Sea el arco de curva interseccin de la superficie de ecuacin 2 = 16 2 2 con el
plano + = 4, contenido en el primer octante del espacio { 0}. Encuentra, si existen,
los puntos de , cuya distancia al origen sea mxima y mnima, as como los valores de esas
distancia mxima y mnima.
Si 0 es ahora el arco de curva interseccin de la superficie de ecuacin 2 = 17 2 2
con el plano + = 35, contenido en el primer octante del espacio, calcula los valores de las
distancias mxima y mnima de los puntos 0 al origen.
61. Encuentra los puntos del conjunto que estn ms cerca del origen de coordenada, siendo :

= ( ) R2 | + 4; 2 + 5
a) Formula y resuelve el problema de forma grfica.

b) Comprueba que el punto ptimo cumple las condiciones de K.K.T. Son tambin suficientes?
62. Resuelve mediante el mtodo de los multiplicadores de K.K.T. el siguiente problema de programacin no lineal:
Optimizar

2
Sujeto a
+ 2 8
++ 1
++ 40
63. Un comerciante se ha enterado de que en la fbrica de aceite hay una oferta de aceite de oliva
extra. El aceite que compre a la fbrica lo podr vender despus por litros, ganndose 1 euro
por litro. Para almacenar el aceite va a construir un dposito cilndrico con tapa, utilizando
252 de chapa. Como desea optimizar sus ganancias, pregunta a su hijo, que es matemtico,
cules son las dimensionesdel depsito de mximacapacidad que se podra construir, y obtiene
como respuestas = 10 6 de altura y = 5 6 de radio de las bases.
Cuando va a iniciar la construccin del depsito, su amigo, el de la ferretera, necesita urgentemente 12 de chapa como la que l tiene y le propone comprrselo. A qu precio debera
vendrselo?
64. Dado el siguiente problema de programacin no lineal
Optimizar ( 4)2 + ( 2)2
Sujeto a
+20
1 + 2 + ( 1)2
a) Discute las soluciones del problema mediante los multiplicadores de K.K.T.
b) Discute los cambios en la solucin del problema si ahora la primera restriccin se transforma en: + 205 0
163

Fundamentos de Optimizacin: Optimizacin no lineal


65. Comprueba grficamente que el punto (1 0) es una solucin ptima del siguiete problema, pero
que no cumple las condiciones de K.K.T. Explica el resultado:
Maximizar

Sujeto a
(1 )3 0
0
66. Dado el siguiente problema de programacin no lineal
Optimizar
Sujeto a

( 7)2 + ( 10)2
80
2
( 10) + ( 10)2 36 0

a) Discute las posibles soluciones del problema utilizando el mtodo de los multiplicadores
de K.K.T.
b) Qu sucede con la solucin del mismo si ahora la primera restriccin se transforma en:
805 0?
67. Dado el siguiente problema de programacin no lineal
Optimizar
Sujeto a

+
2
2 +
1
4
2
10

Discute las posibles soluciones del problema utilizando el mtodo de los multiplicadores de
K.K.T.
68. Dado el siguiente problema de programacin no lineal
Optimizar
Sujeto a

( 2)2 + ( 2)2
50
2
( 4) + ( 4)2 16 0

Discute las posibles soluciones del problema utilizando el mtodo de los multiplicadores de
K.K.T.
69. Determinar grficamente el mximo y mnimo absolutos de la funcin ( ) = 2 + ( 4)2
sobre el conjunto = {( ) | + 3; + 3; 2}

Plantea las condiciones de K.K.T. del problema anterior y utiliza la grfica para deducir qu
restricciones son activas y cuales inactivas en los puntos de mximo y mnimo. Calcular a partir
de los datos anteriores esos valores mximo y mnimo. Qu ocurrir con los valores mximo y
mnimo de ( ) sobre el conjunto = {( )} + 301; + 302; 205?

164

Captulo 6
Optimizacin dinmica: mtodos
variacionales
Sumario. Introduccin y ejemplos. Lemas de Lagrange y du Bois-Reymond. Ecuaciones de Euler-Lagrange. Condiciones Transversales. Condiciones de segundo orden.
Condiciones suficientes con convexidad. Optimizacin dinmica con restricciones.
Formulacin Variacional. Extensin de los mtodos variacionales.

6.1.

Introduccin y ejemplos

Los problemas tratados en la primera parte de este libro consistan en la optimizacin (maximizacin o minimizacin) de funciones reales de variables reales, que podan estar o no sujetas a
restricciones que estaban representadas tambin por funciones reales de variables reales. El objetivo
era buscar el punto o puntos que cumpliendo las restricciones impuestas al problema, nos proporcionaran el mejor valor (mayor o menor, dependiendo del objetivo del problema) de la funcin a
optimizar. En caso de existir, las soluciones encontradas para este tipo de problemas venan dadas
por un punto o conjunto de puntos reales; por ello, este tipo de optimizacin se suele clasificar como
esttica.
En este tema se plantearn otro tipo de problemas, para los que la solucin buscada es una curva
o trayectoria de puntos, es el primero de los temas dentro de lo que hemos llamado optimizacin
dinmica. En concreto se estudian los mtodos clsicos para estudiar los llamados problemas variacionales. El objetivo de estos problemas tambin consiste en maximizar o minimizar cierta funcin
teniendo en cuenta un conjunto de restricciones que describen el sistema, pero a diferencia de la optimizacin esttica, las soluciones de este problema estn ahora formadas por trayectorias de puntos
y no solamente por puntos particulares. En este caso las funciones objetivo utilizadas como ndices
de rendimiento del sistema son en este caso funciones que dependen de otras funciones (funcionales)
y las restricciones que describen los sistemas son en general ecuaciones que incluyen funciones como inc gnitas, tales como ecuaciones integrales, ecuaciones diferenciales, ecuaciones en derivadas
parciales o ecuaciones en diferencias.
Se plantean por tanto, otro tipo de problemas, en el que la solucin buscada es una curva o
trayectoria, obtenida de entre todas las posibles de un sistema, y que optimiza un determinado ndice
de coste. A continuacin presentamos y desarrollamos algunos problemas que pueden expresarse en
165

Optimizacin dinmica: mtodos variacionales

Figura 6.1: Curvas en R3 .


estos trminos.

6.1.1.

Problemas Geodsicos

Uno de los problemas clsicos y que aparece de forma natural es el de encontrar el camino ms
corto entre dos puntos. Es conocido que en el espacio real euclideo, R3 este camino es la lnea recta,
sin embargo, si estamos hablando del camino ms corto, por ejemplo, sobre la superficie terrestre;
entonces por regla general no ser posible tomar esta ruta, debido entre otras cosas a la existencia
de objetos naturales o ms importante an que la superficie de la tierra no es precisamente plana.
Para este y otros casos, es necesario considerar el problema ms complicado de encontrar la llamada
curva geodsica (es decir la que tiene menor longitud) de entre todas aquellas restringidas a una
hipersuperficie dada. En el caso particular que hemos comentado de la bsqueda de las rutas
terrestres ms cortas, se podra hacer una aproximacin buscando en R3 las geodsicas sobre la
superficie de una esfera.
Geodsicas en el R
El problema ms sencillo sobre bsqueda de curvas geodsicas consiste en plantear el problema
sin considerar la restriccin de estar sobre una determinada superficie, es decir, un problema sin
restricciones sobre todo el espacio ecuclideo R .
Una curva que una dos puntos A y B en R se puede considerar como el rango de una funcin
vectorial Y () = (1 () ()), [0 1] con componentes continuas en [0 1], de forma que
Y (0) = A e Y (1) = B (figura 6.1). En particular, el segmento lineal que une ambos puntos,
Y0 () = (1 ) A + B

[0 1]

(6.1)

es una de esas curvas (ver figura6.1).


Sin otra exigencia adicional la curva podra ser no rectificable, es decir, podra no tener longitud
finita, obviamente y debido a la naturaleza del problema de buscar la ruta con mnima longitud este
tipo de curvas no nos interesa. Para tener en cuenta este aspecto, supongamos ahora que exigimos
que la funcin Y () debe tener derivada continua en (0 1), entonces podremos contemplar la funcin
166

Optimizacin dinmica: mtodos variacionales


Y0 () = (10 () 0 ()) como la velocidad en con mdulo kY0 ()k y la longitud de la curva ser
la distancia recorrida durante el movimiento y vendr dada por la integral
(Y) =

Z1

kY0 ()k

Para garantizar la finitud de (Y) exigimos que cada componente de Y0 () sea integrable (esta
propiedad se obtiene facilmente si cada componente es continuamente diferenciable en (0 1)). De
esta manera el problema consistir en minimizar la longitud Y () sobre un determinado conjunto
de funciones vectoriales y puede expresarse como
mn

Z1

kY0 ()k

sujeto a

YD

donde D es el conjunto de funciones definido por

D = Y : [0 1] R | Y C 1 (0 1) ; Y (0) = A; Y (1) = B

que implica por una parte la necesidad de conectar los dos puntos A y B, y por otra necesidad de
que esta conexin se haga mediante una curva de longitud finita.
Este problema puede resolverse de forma sencilla de forma directa. Sabemos que el segmento
lineal Y0 () D, su derivada es Y00 () = B A, por tanto si existe una curva de longitud mnima
mn , entonces se cumplir
mn (Y0 ()) =

Z1

kY00 ()k = kB Ak

(6.2)

que es, como sabemos, la distancia euclidea entre A y B.


Para comprobar la conjetura natural de que mn = kB Ak, solamente habr que comprobar
que para cualquier otra funcin Y () D se cumple la siguiente desigualdad
(Y0 ()) (Y ())
Si suponemos A 6= B (el caso A = B es trivial) y utilizamos el teorema fundamental del Clculo
Integral
Z1
B A = Y (1) Y (0) = Y0 ()
0

de esta forma
2

(Y0 ()) = kB Ak = (B A) (B A) = (B A)

Z1
0

167

Y0 () =

Z1
0

[(B A) Y0 ()]

Optimizacin dinmica: mtodos variacionales


Si utilizamos la desigualdad de Cauchy para el producto escalar
[(B A) Y0 ()] kB Ak kY0 ()k
obtenemos la desigualdad
Z1

[(B A) Y ()]

Z1

kB Ak kY0 ()k

o equivalentemente
kB Ak2

Z1

kB Ak kY0 ()k = kB Ak (Y ())

y dividiendo por kB Ak 6= 0 (ya que estamos considerando A 6= B) se obtiene la desigualdad


buscada.
Geodsicas en la esfera
Para un avin es fundamental, con el objetivo de conseguir un ahorro de combustible, conocer
cul es la ruta ms corta entre dos ciudades. La Tierra no es plana, por tanto el camino ms corto
entre dos puntos de su superficie no ser la lnea recta. Para resolver este problema, es necesario
encontrar las curvas geodsicas sobre la superficie de una esfera.
Cada punto P = ( ) R3 de la superficie de una esfera de radio centrada en el origen
(excepto los polos Norte y Sur) estn determinados mediante coordenadas esfricas , y
(6.3)

P = ( cos sen sen sen cos )

para un nico (0 ) y [0 2) (figura 6.2). En los polos norte y sur la coordenada estara
indeterminada.
Dados dos puntos A y B sobre la esfera, supongamos que se eligen los ejes de forma que A est
en el polo Norte ( = 0), mientras que B 6= A tiene de coordenadas esfricas ( 0 1 ) con 1 0
(figura 6.3).
Entonces cualquier curva que una A con B sobre la superficie de la esfera estar determinada en
coordenadas esfricas mediante un par de funciones ( () ()) de la siguiente forma
Y () = (cos () sen () sen () sen () cos ())

[0 1]

donde adems se cumple (0) = 0, (1) = 0 y (1) = 1 .


Como en el caso de las geodsicas en R3 , supondremos que las funciones utilizadas son continuamente diferenciables en (0 1). Su derivada temporal ser
Y0 () = (0 sen sen + 0 cos cos 0 cos sen + 0 sen cos 0 sen )
donde por comodidad se ha prescindido de la variable temporal . La longitud de esta curva vendr
dada, como en el caso anterior, por la integral de su velocidad
(Y) =

Z1
0

Z1 q
2
kY0 ()k =
(0 ) sen2 + (0 )2
0

168

Optimizacin dinmica: mtodos variacionales

Figura 6.2: Coordenadas esfricas.


2

Como (0 ) sen2 0 se cumple la siguiente desigualdad


Z1 q
Z1 q
2
0 2

( ) sen2 + (0 )
(0 )2 = ()|10 = (1)
0

La integral a la derecha de la desigualdad se puede


De manera que
(Y) 1
2

para cualquier curva Y (). La igualdad solamente se cumplir cuandor el trmino (0 ) sen2 = 0.
Resolviendo

sen2 () = 0 [0 1]
0 2
2
( ) sen = 0

0 () = 0 [0 1]

En el primer caso () = 0, con [0 1], luego A = B y en este caso no hay desplazamiento. Si,
por el contrario, A 6= B, entonces 0 () = 0, para [0 1], de donde () = , en todo el intervalo
[0 1]. Y por tanto () = (1) = 0, que corresponde con el menor crculo mximo que conecta A y
B.

6.1.2.

Problemas temporales

Si viajamos con velocidad constante, entonces la ruta geodsica determinada en cada uno de
los problemas de la seccin anterior tambin proporciona el camino ms rpido. Sin embargo, si no
podemos viajar con velocidad constante y en particular si la velocidad depende del camino elegido,
entonces los problemas de mnima distancia y mnimo tiempo se deben analizar de forma separada.
A continuacin vemos alguno de estos problemas.
169

Optimizacin dinmica: mtodos variacionales

Figura 6.3: Geodsicas en la esfera.

Figura 6.4: Braquistcrona.


Braquistcrona
Al caer bajo la accin de la gravedad un objeto acelera rpidamente. La curva que proporciona
el menor tiempo de trnsito entre dos puntos distintos A y B, separados una distancia horizontal,
no es ni la lnea recta, ni tampoco un arco circular, sino la llamada braquistcrona o cicloide.
Si utilizamos el esquema indicado en la figura 6.4, en el que el punto inicial A est en el origen y
las ordenadas positivas se toman hacia abajo. Entonces una curva que una el punto A = (0 0) con
el punto B = (1 1 ) situado ms abajo (1 , 1 0), puede representarse como el grafo de una
funcin continua = () definida en [0 1 ] con (0) = 0 e (1 ) = 1 .
Asumiendo que () es suficientemente derivable, esta curva tendr una longitud finita y el
tiempo necesario para recorrerla estar dado (por consideraciones puramente cinemticas) por
= () =

Z
0

170

Optimizacin dinmica: mtodos variacionales


donde = es la velocidad del objeto.
Del clculo infinitesimal obtenemos que para cada [0 1 ]
Z q
= () =
1 + 0 ()2
0

es la longitud de arco correspondiente a la posicin horizontal . De esta forma


q
() = 1 + 0 ()2
y el tiempo de trnsito es

= () =

Z1

q
1 + 0 ()2
()

siendo = () la velocidad asociada.


Podemos expresar () en trminos de () utilizando las leyes de Newton de la dinmica,
para ello asumimos que la aceleracin gravitacional es constante durante la cada y despreciamos
los efectos de otras fuerzas (incluyendo las de friccin). La velocidada de la bola a lo largo de la
trayectoria () en tiempo viene dada por
p
() = 2 ()
De esta forma

1
= () =
2

Z1

1 + 0 ()2
()

!12

y el problema consistir en minimizar () sobre el conjunto de todas las funciones = () para


las que est definida la integral anterior. Posteriormente encontraremos la solucin a este problema
mediante mtodos analticos.
Problemas de control y direccin
Estrechamente relacionado con el problema de la braquistcrona, est el problema de encontrar
la mejor ruta de navegacin al atravesar una corriente de velocidad variable. Nos preguntamos cul
ser la ruta que proporcionar el menor tiempo de trnsito al intentar cruzar un ro de velocidad
cambiante desde un punto A hasta otro B en la orilla opuesta con un barco que navega a velocidad
constante respecto al agua. Si suponemos que las orillas del ro son paralelas y utilizamos un
determinado sistema de coordenadas, en el que el eje representa una orilla y la recta = 1 la otra
(siendo 1 la distancia entre las orillas), asumimos tambin que = 1 y que la corriente del ro ()
est dirigida hacia abajo (figura 6.5).
Las componentes e de la velocidad del barco se obtienen de la siguiente manera. Si es el
ngulo que forma la direccin de movimiento del barco respecto a la corriente, entonces
= cos = cos
= sen + () = sen +
171

Optimizacin dinmica: mtodos variacionales

Figura 6.5: Problema de control y direccin.


puesto que a la velocidad de avance del barco hay que aadirle la velocidad de la corriente.
El tiempo de trnsito entre las orillas ser
Z 1
Z 1
Z 1

1
=
=
sec
=

cos
0
0
0

El valor de la tangente a la curva () en cada punto, es decir su derivada 0 () en cada punto, se


obtiene como

+ sen

sen
=
0 () =
=
+
= sec + tan

cos
cos cos
y teniendo en cuenta que
1
= sec2
1 + tan2 =
cos2
podemos obtener ahora una relacin entre 0 () y sec

0 () = sec + tan = sec + sec2 1


(6.4)
h i

Despejando sec de la ecuacin 6.4 en funcin de 0 (), teniendo en cuenta que


2 2
1
cos =
0
sec

q
2 0
2
0
sec = () 1 + ( ) () ()

donde

12
() = 1 2 ()

con 0 () 1, ya que debe ser posible atravesar la corriente.


El tiempo de trnsito de un barco que cruce el ro desde el origen A hasta el punto B = (1 1 )
situado ro abajo a lo largo de un camino suave representado por la grfica de una funcin = ()
en [0 1 ] vendr entonces dado por

Z1
q
2 0
2
0
() =
() 1 + ( ) () ()
0

172

Optimizacin dinmica: mtodos variacionales

Figura 6.6: rea encerrada por una curva.


Este problema de control consistir en minimizar ()sobre todas las funciones () que son
continuamente diferenciables en [0 1 ] y cumplen (0) = 0 e (1 ) = 1 .
Este problema se puede generalizar al caso en el que las orillas del ro estn representadas mediante
curvas y en el que los puntos de cruce varan. Tambin es posible considerar que la corriente vara
respecto a igual que lo hace respecto a . En 1931, Zermelo investig la versin bidimensional de
este problema que podra ser igualmente significante para pilotar un submarino o un aeroplano.

6.1.3.

Problemas Isoperimtricos

Uno de los problemas ms antiguos de optimizacin de los que se tiene constancia es el de encontrar
el rea mxima que puede encerrarse mediante una curva de permetro fijo. La solucin de este
problema es bien conocida y se trata del crculo. Este tipo de problema se denomina isoperimtrico.
Para este ejemplo, la formulacin matemtica sera la siguiente. Suponemos que una curva cerrada
simple y suave de longitud est representada paramtricamente por Y () = ( () ()) para
[0 1], con Y (0) = Y (1) para que sta sea cerrada.
De acuerdo con el teorema de Green el rea del domino encerrado por esta curva es
(Y) =

ZZ

donde representa la frontera de orientada positivamente por la parametrizacin de Y (figura


6.6).
Utilizando esta parametrizacin obtenemos

(Y) =

Z1

() 0 ()

Y el problema consiste en encontrar el mximo de (Y) sobre todas las funciones Y () que tienen
componentes continuamente diferenciables en [0 1] y que cumplen la condicin de clausura Y (0) =
173

Optimizacin dinmica: mtodos variacionales

Figura 6.7: Cuerda colgante (Catenaria).


Y (1). Adems tambin debe cumplirse la condicin isoperimtrica

(Y) =

Z1

kY0 ()k =

siendo , la longitud de la cuerda, una constante.


Una versin moderna de este problema combina los problemas isoperimtricos y de direccin y
consiste en encontrar el camino cerrado que debe describir un aeroplano con velocidad constante,
teniendo en cuenta la velocidad del viento, para encerrar el rea mxima. Cuando la velocidad del
viento es cero, entonces este problema es equivalente a un problema isoperimtrico clsico.
Zenodoros tambin consider el problema anlogo en dimensin superior que consiste en maximizar el volumen de un solido que tiene una superficie fija.
Otro problema isoperimtrico diferente consiste en encontrar la forma que tendr un cable o
cuerda inextensible, con un peso por unidad de longitud y una longitud , bajo la accin de su
propio peso, cuando est sujeto por sus extremos a una distancia horizontal (figura 6.7)
Sea es la longitud de arco a lo largo del cable (que se toma como variable independiente), este
problema requiere la minimizacin de la energa potencial de la cuerda; dada, salvo constantes, por
la integral centro de masas
Z
() = ()
0

sobre todas las funciones 0 continuamente diferenciables en [0 ], con (0) = () = 0 y que


cumplen la condicin isoperimtrica

() =

() =

siendo () el desplazamiento en la direccin horizontal.


174

Optimizacin dinmica: mtodos variacionales

Figura 6.8: Superficie de revolucin mnima.


Por geometra elemental tenemos
0 ()2 + 0 ()2 = 1
de donde la funcin () se puede escribir en trminos de () como:
Z q
1 0 ()2 =
() =
0

En general, el trmino isoperimtrico se asigna a caulquier problema de optimizacin en el que


la clase funciones implicadas estn sujetas a restricciones integrales de la forma anterior.

6.1.4.

Problemas de reas de superficies

Un problema anlogo al problema geodsico de la primera seccin puede plantearse para una
dimensin superior de la siguiente forma: Encontrar la superficie de rea mnima que abarcan curvas
cerradas fija en R3
Superficie de revolucin mnima
Cuando las curvas consisten en una par de crculos paralelos concntricos, entonces podramos
preguntarnos por la superficie de revolucin que uniendo ambos crculos tenga rea mnima area,
o equivalentemente, queremos encontrar la expresin para de la curva de su frontera (figura 6.8).
Utilizando un sistema de coordenadas adecuado llegamos al problema de minimizar la funcin
rea de la superficie lateral ()
() = 2

() () = 2

q
() 1 + 0 ()2

entre todas las funciones () 0, continuamente diferenciables en [ ] y para las cuales


() = 1

() = 1

Donde 1 y 1 denotan los radios de cada crculo, uno de los cuales puede degenerar en un punto
( () = 0).
175

Optimizacin dinmica: mtodos variacionales


Problema del rea minimal.
Supongamos que las superficies en cuestin pueden representarse como el grafo de funciones suaves
= ( ) definidas en un dominio plano comn . Entonces el rea de la superficie asociada est
dada por
Z q
() =
1 + 2 + 2

donde denota el elemento bidimensional de integracin sobre ; la frontera de se denota como


y se supone que se comporta bien de forma que la integracin Riemann de funciones continuas
puede definirse sobre o y sobre
Podramos entonces buscar el mnimo de () sobre todas las funciones que son continua en
= , continuamente diferenciables dentro de y toma valores en la frontera de forma
continua y determinada
| = ( )

6.1.5.

Problemas con frontera libre

La solucin que Jakob Bernouilli (1696) di a su hermano Johann acerca del problema de la
braquistcrona marcaba el comienzo de consideraciones variacionales. Sin embargo fue con los trabajos de Euler (1742) y Lagrange (1755) cuando se estableci el clculo de variaciones tal y como se
conoce actualmente.
El anlisis del problema de la braquistcrona visto anteriormente estaba dirigido a la bsqueda
de soluciones del problema de minimizar el siguiente funcional
() =

( y () y0 ())

sobre el conjunto de funciones D; dado por

D = y C 1 [ ] : y () = 1 ;

y () = 1

para 1 y 1 dados, este es un problema de puntos extremos (inicial y final) fijos (ver figura 6.4). Sin
embargo para Jakob Bernouilli el inters se centraba en un conjunto ms amplio

D = C 1 [ ] : () = 1

al describir una braquistcrona para la que se pide que descienda sobre una distancia horizontal
( ) en el mnimo tiempo posible, sin especificar la distancia vertical que hay que cubrir. Este tipo
de problemas es llamado de punto extremo final libre (ver figura 6.9).
Del mismo modo, tambin pueden considerarse problemas sobre el conjunto

D = C 1 [ ] : () = 1

donde ahora el extremo final es el fijo, mientras que el extremo inicial .


Por ltimo, es posible plantear problemas con ambos puntos extremos libres (ver figura 6.10)

D = C 1 [ ]
176

Optimizacin dinmica: mtodos variacionales

Figura 6.9: Braquistcrona de extremo final libre.


o tambin en aquellos donde los extremos locales estn en subconjuntos arbitrarios de C 1 [ ], por
ejemplo, un problema relacionado con las condiciones sobre puntos extremos es el que caracteriza la
braquistcrona que une dos curvas fijas dadas, llamadas transversales, lo que requiere la minimizacin
de una integral con lmites 1 y 2 variables
() =

Z2

( () 0 ())

sobre un conjunto

D = C 1 [1 2 ] : ( ( )) = 0;

= 1 2

donde [1 2 ] R y { ( ( ))}2=1 son funciones dadas (figura 6.11)

6.1.6.

Resumen

Todos estos problemas presenta caractersticas comunes. Cada uno de ellos implica la bsqueda de
una funcin real definida sobre un determinado dominio D de funciones y , que minimiza o maximiza
cierta funcin definida por medio de una integral de la forma
(y) =

( y () y0 ())

para alguna funcin dada ( ). A este tipo de funciones cuyo valor depende de una funcin real
de variable real los hemos denominado funcionales.
La funcin y () puede ser escalar o vectorial, puede depender de una variable independiente o de
varias. Generalmente es continua y derivalbe en su dominio de definicin, mientras que el conjunto D
177

Optimizacin dinmica: mtodos variacionales

Figura 6.10: Braquistcrona de extremos libres.


consistir en aquellas funciones de esta clase que cumplen ciertas condiciones de frontera especficas
en o , de la forma
y () = 0
y () = 0
Adems, como en el caso de la braquistcrona, puede ser necesario imponer restricciones posteriores
tales como exigir que y 0 en [ ].
Buscamos un elemento de D, es decir, una funcin y D, para la que
(y) (y )

y D

En estos problemas, pueden tambier existir restricciones integrales de igualdad (restricciones


isoperimtricas)
Z
(y) = ( y () y0 ()) =

o bien de desigualdades integrales


(y) =

( y () y0 ())

o de forma Lagrangiana en las que


( () 0 ()) = 0
para funciones , , y constantes y dadas.
178

( )

Optimizacin dinmica: mtodos variacionales

Figura 6.11: Braquistcrona con condiciones transversales.


Tambin es posible ampliar el grupo de problemas de este tipo, permitiendo la inclusin de
derivadas de orden superior, funciones de ms de una variable o condiciones de frontera variables.
La teora general para resolver este tipo de problemas, conocida como clculo de variaciones, ha
sido desarrollada a lo largo de 300 aos.

6.2.

Lemas de Lagrange y du Bois-Reymond

Los siguientes resultados son necesarios para conseguir las ecuaciones de Euler-Lagrange, que son
fundamentales para la resolucin de problemas variacionales.
Lema 56 (du Bois-Reymond) Sea () C [ ] y sea D0 el conjunto de funciones definido como

D0 = C 1 [ ] () = () = 0

entonces se cumple

Si

() 0 () = 0 D0 = () =

[ ]

con una constante.


Demostracin: Sea R, un nmero real cualquiera y definimos la funcin () como
Z
( () )
() =

179

Optimizacin dinmica: mtodos variacionales


Puesto que () C [ ], la funcin () estar bien definida y por el teorema fundamental del
clculo integral, () C 1 [ ] y su derivada es
0 () = ()
adems () = 0.
Para que () est en el conjunto D0 , adems tiene que ocurrir () = 0. Definimos la constante
de forma que esto ocurra, es decir
() =

( () ) = 0

Puesto que ( () )2 0

utilizando la expresin de 0 ()
0

( () ) =

( () ) () =
Z

()

( () )2 0

() ()

0 ()

() 0 () ()|

Como D0 , entonces

1
=

() 0 () = 0

() = () = 0
y por tanto

de donde

( () )2 = 0
( () )2 0

es decir
[ ]

() =

Proposicin 57 Sea () () C [ ] y sea D0 el conjunto de funciones definido como

D0 = C 1 [ ] () = () = 0

entonces se cumple
Si

[ () () + () 0 ()] = 0 D0 = () C 1 [ ]

180

0 () = ()

Optimizacin dinmica: mtodos variacionales


Demostracin: Definimos en primer lugar la funcin () como
Z
()
[ ]
() =

Puesto que () es continua en [ ] = () C 1 [ ] y 0 () = ()


Si integramos por partes el primer trmino de la integral, obtenemos
Z
Z
0
[ () () + () ()] =
[ () ()] 0 () + () ()|
0=

pero como () D0 () = () = 0, y por tanto


0=

[ () ()] 0 ()

D0

Podemos ahora aplicar el lema anterior, para obtener


() () = R

[ ]

Pero entonces
() = () + C 1 [ ]
y derivando
0 () = 0 () = ()
Corolario 58 Sea () C [ ] y sea D0 el conjunto de funciones definido como

D0 = C 1 [ ] () = () = 0

entonces se cumple

Si

() () = 0 D0 = () = 0

[ ]

Basta con tomar () 0 en la proposicin anterior. Este resultado admite la siguiente generalizacin
Lema 59 (Lagrange) Sea () C [ ] y sea D0 el conjunto definido por

D0 = C [ ]| () () = () () = 0 = 0
para algn = 0 1 2

() () = 0 D0

entonces 0 en [ ]
181

Optimizacin dinmica: mtodos variacionales


Demostracin: Supongamos que () 0 para algn ( ). Entonces por la hiptesis de
continuidad de , est contenido en un intervalo [ ] ( ) en el que | () ()| () 2 o
() 2 0. Por otra parte la funcin

+1
[ ]
[( ) ( )]
() =

[ ]

es de clase C (R), no negativa y no identicamente igual a 0 (las primeras derivadas se anulan en


y ). Se obtiene as que sobre [ ] el producto es continuo, no negativo, y no identicamente
nulo. Por tanto
Z

() ()

que contradice la hiptesis.


Similarmente, la suposicin de que () 0 (o () 0) conduce a otra contradiccin y
concluimos que () = 0, ( ), pero puesto que es continua, tambin debe anularse en los
extremos del intervalo; es decir 0 sobre [ ]

6.3.

Ecuaciones de Euler-Lagrange

Con el fin de mantener una estructura similar a la empleada en la teora de control ptimo que
veremos en el siguiente tema, emplearemos como variable independiente, mientras que ser la
variable dependiente, por tanto tendremos
()

6.3.1.

Optimizacin dinmica sin restricciones

Recordemos que el problema general del clculo de variaciones se puede plantear en trminos de
la optimizacin de un funcional de la forma
Z 1
( () ())
() =
0

donde () = 0 () = ()
, es la derivada de () respecto a la variable independiente. Supondremos

que la integral anterior existe y que las funciones empleadas son dos veces derivables en el intervalo
[0 1 ], es decir
: [0 1 ] R
() C 2 ((0 1 ))

El problema de optimizar () se denomina problema de Lagrange. Estos problemas incluyen


a los llamados problemas de Bolza que pueden expresarse en la forma de optimizar un funcional
descrito por
Z1
1
() = [ ( ())]0 + ( () () )
(6.5)
0

182

Optimizacin dinmica: mtodos variacionales


donde
[ ( ())]10 = ( (1 ) 1 ) ( (0 ) 0 )
y por tanto slo es funcin de los valores iniciales y finales, mientras que la integral de depende
de toda la trayectoria entre 0 y 1 . Si ahora hacemos el cambio
( () ()) = ( () ()) +

( ())

el funcional se puede expresar como en un problema de Lagrange


() =

Z1

( () ())

En adelante buscaremos la solucin de problemas de la forma


Z 1
( )

mn () =
0

donde
()
()
Queremos encontrar una funcin () D tal que el funcional () alcance el mximo o mnimo
sobre ella. Esta funcin () se dice que es un extremal de () y se cumplir por tanto que
( ) ()

() D

Supongamos que () es una curva extremal para () y consideremos la familia de funciones


descritas por
() = () + ()
y definidas en [0 1 ]. Esta familia incluye a (), simplemente poniendo = 0. La funcin () es
llamada una variacin en () y un nmero pequeo, para permitir que () pertenezca al conjunto
D.
Con el fin de simplificar el proceso, supondremos que las funciones () deben cumplir las siguientes condiciones de frontera

(0 ) = 0
() D

(1 ) = 1
Con estas condiciones y la definicin de () se debe cumplir

(0 ) = (0 ) (0 ) = 0
(1 ) = (1 ) (1 ) = 0
183

Optimizacin dinmica: mtodos variacionales


Est claro por la definicin que para = 0 y cualquiera que sea () todas las curvas tienen un
mnimo
() = ()|=0
y la funcin
() = ( + )
tendr un mnimo en = 0, independientemente del valor de (). La funcin () es una funcin
real de variable real y por tanto si tiene un mnimo en = 0, debe cumplir la condicin necesaria
(para mnimo o para mximo)
0 ()|=0 = 0 0 (0) = 0
que en trminos del funcional se expresa como


( + )
=0

=0

(6.6)

mientras que la condicin para mnimo es que

2
( + )
0
2

=0

independientemente de (), sin embargo en la mayora de problemas ocurre que si la solucin existe,
entonces es una solucin de la ecuacin 6.6.
Vamos ahora a ver a qu nos conduce la ecuacin estacionaria 6.6. Supongamos que la funcin
() minimiza () entonces
Z 1

( + ) =
( + +
)
0

Si ahora derivamos respecto de

Z1


( + ) =
( + + )

donde por simplicidad se ha eliminado el smbolo de las ecuaciones. Bajo ciertas condiciones de
derivabilidad podemos pasar la derivada dentro de la integral
Z 1

( ( + + ))

0
y utilizando la regla de la cadena

Z 1

( + ) =
( + + )
+
( + + )


0
al evaluar en = 0 obtenemos

Z 1

( + )
( )
+
( )

=


0
=0
184

(6.7)

Optimizacin dinmica: mtodos variacionales


El segundo trmino del integrando en la ecuacin 6.7 se puede integrar por partes, considerando


=
( )
=
( )


de donde se obtiene
Z 1
0

=
=

1 Z 1

( )

=
( )

( )




0
0

Esta expresin se sustituye en 6.7 y despus de sacar factor comn obtendremos la expresin
buscada

Z 1

( + )
( )

( )

+
( )
= 0
=



0
=0
0

Como esta expresin debe ser 0, independientemente del valor de () entonces

Z 1

( )

( )

= 0


0
1

( )
= 0

0

(6.8)

(6.9)
(6.10)

Como estamos considerando que tanto (0 ) como (1 ) son fijos, y por tanto esto implicaba que
(0 ) = (1 ) = 0, el trmino 6.10 se anula y la condicin que queda es

Z 1

( )

( )

= 0


0
expresin podemos aplicar el lema de Lagrange para obtener la condicin

( )

( )
=0

(6.11)

La ecuacin 6.11 es la llamada primera ecuacin de Euler-Lagrange y nos proporciona una condicin necesaria (de primer orden) que debe cumplir cualquier extremal () del funcional .
Si no se realiza la integracin por partes de la ecuacin 6.7 obtenemos la llamada frmulacin
dbil o variacional de las ecuaciones de Euler Lagrange

Z 1
Z 1
Z 1

( + )
( )
+
( )
= 0
( )
=
(
=0


0
0
0
=0
Definicin 34 Cualquier funcin C 1 (0 1 ) que cumpla la primera ecuacin diferencial de EulerLagrange (ecuacin 6.11) se dice que es una funcin estacionaria de ().
185

Optimizacin dinmica: mtodos variacionales


Tradicionalmente se denomina a estas funciones funciones extremales o simplemente extremales,
aunque no proporcionen ni mximo ni mnimo local para el problema.
Nota 12 Es posible encontrar la ecuacin 6.11 expresada como

= 0

donde

6.4.

Condiciones Transversales

En la seccin anterior se ha deducido la ecuacin de Euler-Lagrange (ecuacin 6.11) con la condicin de que los valores de () en los puntos 0 y 1 fueran fijos. Estas condiciones de frontera sobre
la funcin () son tambin llamadas condiciones transversales o de transversalidad y permiten determinar la solucin particular del problema a partir de la solucin general de la ecuacin diferencial
6.11.
Como en el caso de la braquistcrona estas condiciones transversales pueden generalizarse de
forma que puedan ser fijas o libres. De esta forma tendremos cuatro casos.
1. Extremos inicial y final fijos
Este es el caso empleado para deducir la ecuacin de Euler Lagrange. Para determinar la
solucin particular del problema se utilizar la ecuacin 6.11 junto con las condiciones de
frontera
(0 ) = 0
(1 ) = 1
2. Extremos inicial y final variables
En este caso, ninguno de los valores de () en 0 y 1 est condicionados y por tanto los valores
de la variacin () no tienen porqu ser cero. Sin embargo para que la condicin 6.10 sea 0,
independientemente del valor de () tendr que ocurrir
1

( )
= 0

0

y podemos emplear como condiciones de frontera las siguientes

( )
= 0
(0 (0 ) (0 )) = 0


0

( )
= 0
(1 (1 ) (1 )) = 0


1
Estas son las llamadas condiciones naturales.

186

Optimizacin dinmica: mtodos variacionales

Figura 6.12:
3. Extremo inicial fijo y extremo final libre
En este caso mientras que (0 ) = 0 est fijo, el valor de () en 1 es indeterminado. Las
condiciones de frontera sern las siguientes
(0 ) = 0

( )
= 0
(1 (1 ) (1 )) = 0


1

4. Extremo inicial libre y extremo final fijo

Este caso es simtrico del anterior, ahora (0 ) es desconocido, pero (1 ) es fijo. Las condiciones
de frontera sern

( )
= 0
(0 (0 ) (0 )) = 0


0
(0 ) = 0

Ejemplo 25 Encuentra la curva con la mnima longitud entre el punto (0) = 0 y la lnea 1 = 2.
Solucin: Recordemos que para una curva () definida en un intervalo [0 1 ] su longitud viene
dada por el funcional
Z 1
() =
1 + 2
0

El planteamiento del problema del enunciado sera


Z 2
1 + 2
mn
0

187

Optimizacin dinmica: mtodos variacionales


junto con las condiciones transversales
(0) = 0
(2) libre
Planteamos la ecuacin de Euler-Lagrange para ( )
=

= 0

1 +

1 + 2

1 + 2

y se obtiene la relacin

1 + 2

=0

1 + 2

=0
=
1 + 2

donde es una constante. Si ahora despejamos ,


se obtiene

2 1 2 = 2

como 2 6= 1 (por qu?) se obtiene teniendo en cuenta que 2 0


2 =
Si integramos

2
= 2 () =
1 2
() = +

Para calcular las constante y necesitamos utilizar las condiciones transversales. Como (0) es
fijo tenemos
(0) = 1 0 + = 1 = 1
Sin embargo, como (2) es variable tendremos


=0
1 =2

es decir

Como () = para todo [0 2]

(2)
q
=0
1 + (2)2

=0=0
1 + 2

y el extremal buscado ser


() = 1
La distancia mnima ser

Z 2q
Z 2
Z 2
2
( ) =
1 + ( ) =
1 + 02 =
= 2

188

Optimizacin dinmica: mtodos variacionales


Ejemplo 26 Resuelve el siguiente problema variacional

R2
mn 0 12 2 + + +
s.a.

(0) libre
(2) libre

Solucin: Se trata de un problema de extremos inicial y final libres. Planteamos en primer lugar
la ecuacin de Euler-Lagrange para ( )
= 12 2 + + +

= + 1

( + 1) (
+ )
= 0 = 1
(6.12)

= + + 1
= +


Integrando la ecuacin diferencial de 6.12

= 1

(6.13)

= +

(6.14)

2
() =
+ +
2

(6.15)

Como antes, obtendremos los valores de y utilizando las condiciones transversales; que como
(0) y (2) son variables en este caso sern



=0
y
=0
0 =0
1 =2
es decir

(0) + (0) + 1 = 0

(6.16)

(2) + (2) + 1 = 0

Las expresiones de () y () vienen dadas en 6.14 y 6.15 respectivamente


(0) = 0 + =
(0) =

02
2

+0+ =

(2) = 2 +
(2) =

22
2

+ 2 + = 2 + + 2

y sustituyendo en 6.16 se obtiene un sistema lineal


++1=0
(2 + ) + (2 + + 2) + 1 = 0
189

+ = 1

3 + = 5

Optimizacin dinmica: mtodos variacionales


que tiene por soluciones
= 2
= 1
El extremal buscado es
() =

2
2 + 1
2

y el valor mnimo del funcional en () ser

Z 2
1 2
4

( ) =
( ) + + + =
2
3
0

6.4.1.

Casos especiales de la primera ecuacin

En general resolver la ecuacin 6.11 es bastante difcil. Sin embargo cuando una o ms variables
de no estn presentes explcitamente, entonces es posible encontrar una primera integral de la
ecuacin diferencial de forma relativamente sencilla. Veamos tres de estos casos.
Notar en primer lugar que si () C 2 [ ], al aplicar la regla de la cadena a la ecuacin 6.11 se
obtiene


2
2
= 0
(6.17)

+
+



2
Cuando = ()

En este caso

= 0 y la ecuacin 6.11 se transforma en



=0

o equivalentemente

=

con una constante.
En el caso particular de que () C 2 [ ], como en este caso tambin
ecuacin 6.17 se transforma en
2
= 0
2
De aqu se obtiene

= 0


=
0
2
Si = 0 entonces

() = +
190

=0y

= 0 la

Optimizacin dinmica: mtodos variacionales


con R, y obtenemos como solucin una familia biparamtrica de rectas. Los valores de y
se determinan utilizando las condiciones transversales corresopondientes.
2
Si, en caso contario, ocurre 2 = 0 y esta ecuacin tiene una o varias races reales = ,
entonces integrando
= +
que es una familia monoparamtrica de rectas, que podemos suponer, est contenida en la familia biparamtrica descrita con anterioridad. De esta forma, en el caso = ()
las funciones estacionarias
son todas lneas rectas.
Ejemplo 27 La longitud del arco de una curva es de la forma:
Z
() =
1 + 2

se trata por tanto del caso anterior, donde ()


= 1 + 2 .
La ecuacin de Euler-Lagrange para este caso particular es

=0
=0

1 + 2
y derivando respecto a

1 + 2

1
1 + 2
= 0
= 0
2
1 +
[1 + 2 ]32

cuya nica solucin es


= 0 () = +
Cuando = ( )

En este caso, tambin ocurre

= 0 y la ecuacin 6.11 se reduce a



=0

que tiene como primera integral

=

con una constante. Adems, como la ecuacin de primer orden obtenida no contiene a , sta
puede integrarse o bien resolvindola directamente respecto a e integrando o bien introduciendo
un parmetro escogido en forma adecuada.
Ejemplo 28 Como se ha visto al principio de la seccin para caracterizar las geodsicas suaves sobre
una esfera de radio haba que minimizar el funcional
Z1 q
()2 sen2 () + ()2
( ) =
0

191

Optimizacin dinmica: mtodos variacionales


con
(0) = 0

(1) = 0
(1) = 1
A partir de las ecuaciones paramtricas ( () ()) podemos obtener una expresin de en trminos
de : = ( ()) de donde por una parte
()

= () ()
= ()
() =

()

(6.18)

y por otra
()
() =

por lo que el funcional se puede expresar como


v
!
u
Z1 q
Z1
u () 2
( ) =
sen2 () + 1
()2 sen2 () + ()2 = () t
()
() =

y utilizando 6.18 y 6.19 obtenemos

Z1 q
1 + ( () sen )2
() =
0

Si tomamos ahora = como variable independiente, el problema es buscar el mnimo de


Z1 q
1 + ( () sen )2
() =
0

sobre el conjunto
En este caso

D1 = C 1 [0 1 ] : (1 ) = 0

= ( )
= 1 + 2 sen2

por tanto

sen2
=

1 + 2 sen2
de manera que las funciones estacionarias () son aquellas para las que sucede
sen2

=
1 + 2 sen2
192

(6.19)

Optimizacin dinmica: mtodos variacionales


siendo una constante, cuyo valor podemos determinar teniendo en cuenta que esta expresin es
vlida para todos los valores de en el intervalo [0 1 ] y tomando en particular = 0

sen2

=0
1 + 2 sen2 =0
luego

=0
De manera que tiene que cumplirse () = 0 y de ah
() =
con constante. Tal y como se dedujo en la seccin correspondiente, esta expresin de () corresponde a los crculos mximos de la esfera.
Cuando = ( )

Si no depende explcitamente de la variable y la funcin () C 2 ([0 1 ]), la ecuacin de


Euler-Lagrange 6.11 se reduce a una de primer orden, ya que llamando
() = ( () ())
al derivar respecto de , se obtiene

+
+

= [] =


= 0 y que tambin se cumple la ecuacin de Euler-Lagrange 6.11
y teniendo en cuenta que

entonces

=
+
=
=





e integrando

+

con una constante. Como = se tiene la ecuacin diferencial de primer orden
=

(6.20)

Ejemplo 29 Resuelve el problema de la braquistcrona.


Solucin: Teniendo en cuenta en la ecuacin de la braquistcrona era la variable independiente,
mientras que era funcin de , el problema consista en minimizar la expresin
1
() =
2

Z1
1 + 2

193

Optimizacin dinmica: mtodos variacionales


sobre el conjunto de funciones

Z
1
D = 0 () C [0 1 ] : (0) = 0 (1 ) = 1 ;

32

( ())

(la ltima condicin se impone para que la integral sea convergente en 0).
En este caso

1 + 2
( )
=

salvo el factor constante

1 .
2

De aqu obtenemos

=

1 + 2

Y utilizando la expresin 6.20

1 + 2

1
1


=
==

1 + 2
1 + 2
Si se eleva ambos miembros al cuadrado teniendo en cuenta adems que 0
r

2
2
1 + =
= 1
2

(6.21)

Si ahora introducimos el cambio de variable dependiente = () de forma que


() = 2 sen2

2
=
(1 cos )
2
2

0 2

entonces

y
() = 2 () sen cos
2
2
2
Y sustituyendo ambas expresiones en la ecuacin diferencial 6.21

2
2
2
sen
(1 cos ) = 1
= 1
o
2
2
2 () = 2 cos2

e integrando

2
2

( sen ) =

con una constante.


Si hacemos el cambio 2 2 = 2 se obtienen las ecuaciones paramtricas de la braquistcrona
= 2 ( sen ) +
= 2 (1 cos )
194

Optimizacin dinmica: mtodos variacionales


Las constantes y se determinan a partir de las condiciones de contorno
(0) = 0
(1 ) = 1
es decir, para 0 y 1 debe ocurrir
0 = 2 (0 sen 0 ) +
0 = 2 (1 cos 0 )
1 = 2 (1 sen 1 ) +
1 = 2 (1 cos 1 )

6.4.2.

La Segunda Ecuacin

Cuando C 1 ([0 1 ] R2 ) e es una solucin de clase C 1 ([ ]) de la primera ecuacin EulerLagrange (ecuacin 6.11) la integracin directa produce

Z
Z
Z


=
+
(6.22)
=
=



0
0
0
con una constante.
Por otra parte, si C 2 ([ ]) y derivamos respecto a , se obtiene


=
+
+
=
+
+
=
+


y por tanto

o integrando

donde es una constante.


Proposicin 60 Sea
() =

( )

con C 1 ([0 1 ] R2 ) y

D = C 1 [0 1 ] : (0 ) = 0 ; (1 ) = 1
195

Optimizacin dinmica: mtodos variacionales


Si 0 D es una funcin extremal para en D, entonces en [0 1 ] la funcin 0 cumple la segunda
ecuacin de Euler-Lagrange
Z


=
+
(6.23)

0
para alguna constante .

6.5.

Condiciones de segundo orden

Para establecer la naturaleza del extremo es necesario el clculo de

(
+
)

2
=0

Recordemos que la primera derivada respecto a para el funcional era

Z 1

( + ) =
( + +
) +
( + +
)


0
y derivando otra vez respecto de
Z 1

2

( + ) =
( + + )
+
( + + )

2


0
metiendo la derivada dentro de la integral

Z 1

2

( + ) =
( + + )
+
( + + )

2


0
y utilizando de nuevo la regla de la cadena

Z 1 2
2
2

( + + )
+
( + ) =
( + + )
+
2
2

0
2


2
( + + )
+
( + + )


2
y agrupando
Z 1 2

2
2
2
( + + )
+
( + + )
+2
( + + )
2
2
2


0
y particularizando en = 0

Z 1 2

2

2
2
2

+
(
+
)
=
(

+
2
( )
2

2
2
2

0
=0

Esta ecuacin puede reescribirse en notacin matricial como


2

Z 1
Z 1

2
2


( + )
=
( )

( )

=

2
2
0
0
=0


196

(6.24)

Optimizacin dinmica: mtodos variacionales


Si la matriz es semidefinida positiva (o negativa) entonces () podr ser mnimo (o mximo
respectivamente). Alternativamente podemos aplicar integracin por partes en la 6.24, concretamente
en el segundo trmino dentro de la integral. Tomando en este caso
2


2
=
( )
=
( )
+
( )

=
=

la integral queda
1 Z 1 2

Z 1 2
2


2
2

( )

=
( )

( )
+
( )

0
0
0
1 Z 1
2

Z 1 2
2



2
2

=
( )

( )

( )

0
0
0

pasando el tercer trmino del miembro de la derecha a la izquierda


1
2

Z 1 2
Z 1
2



2
2
2
( )

=
( )
+
( )

0
0
0

y sustituyendo en 6.24
1

2
2
Z 1 2
2

2
2
2
2
2

+
(

(
+
)
=
(

2
2

0
=0
0

agrupamos en 2
1

Z 1 2
2

2
2
2

(
+
)
=
(

+
(

2
2

0
=0
0
La ecuacin se simplifica en el caso de que los extremos inicial y final sean fijos, puesto que en este
caso (0 ) = (1 ) = 0

Z 1 2

2
( )

+
( + )
=
( )

( )
2
2
2
2


0
=0

Para establecer si es un mnimo o mximo de , la segunda condicin necesaria es que

(
+
)
0

2
=0

independientemente del valor de () y slo sobre (), es decir


2

( )

0
( )

2

2
( )
0
2
En la mayora de los problemas slo ser necesaria la condicin de primer orden (ecuacin de
Euler-Lagrange). En otros ejemplos es posible que el integrando se 0, pero no se cumplan las
condiciones anteriores, debido probablemente a que y no sean independientes entre s.
197

Optimizacin dinmica: mtodos variacionales


Ejemplo 30 Aplica las condiciones de segundo orden al problema de encuentrar la curva con la
mnima longitud entre el punto (0) = 0 y la lnea 1 = 2.
Solucin: Encontramos anteriormente que la solucin para el problema vena dada por la curva
() = 1
y recordemos tambin que para este problema tenamos

= 0

=

1 + 2
Para aplicar las condiciones de segundo orden tendremos que derivar otra vez

=
(0)
=
0


2
( )

( )
0

= (0) = 0

=
=
2
2


1 +
(1 + 2 )32
que al utilizar () = 1 y por tanto () = 1

2
1
=
=10

2 32
2
1 + (0)

Ejemplo 31 Aplica las condiciones de segundo orden al problema

R2
mn 0 12 2 + + +
s.a.

(0) libre
(2) libre

Solucin: Encontramos anteriormente que la solucin para el problema vena dada por la curva
2
() = 2 + 1
2
y recordemos tambin que para este problema tenamos

= + 1

= + + 1

Para aplicar las condiciones de segundo orden tendremos que derivar otra vez

=
( + 1) = 0
2
2

(
) = 0 0
(
)

= ( + 1) = 1

2

( + + 1) = 1 0
=
2


198

Optimizacin dinmica: mtodos variacionales

6.6.

Condiciones suficientes con convexidad

Teorema 61 Dado el problema


mn () =

Z1

( )

Entonces si es solucin de las ecuaciones de Euler-Lagrange y adems ( )


es estricamente
convexa como funcin de R3 en R3 , en las variables y ,
es decir, la funcin ( )
es convexa

para cada valor de fijo en las componentes y es la nica solucin del problema variacional.
Ejemplo 32 Definimos el siguiente problema variacional

Z
() 2
() () ()
mn () =
2
0

definido sobre el siguiente conjunto

D = : C 1 [0 ] (0) = ( ) = 0

Solucin: Las ecuaciones de Euler-Lagrange para este problema son

= ()


= () ()
= () () + () ()


y por tanto tenemos que resolver las siguiente ecuacin diferencial

( () ()) = ()

(0 ) = 0
(1 ) = 0
Veremos a continuacin si la solucin es nica, para ello veremos si es convexa en las variables
y .
Calculamos las derivadas correspondientes
2

=0

= ()

=0
0
0

2

0
()

=0

= () ()

= ()
2
por tanto ser convexa si () 0, [0 ].
199

Optimizacin dinmica: mtodos variacionales


1. Por ejemplo, como caso particular podemos tomar
() = 1
() =
donde es constante. En este caso

que es semidefinida positiva y por tanto una solucin de las ecuaciones de Euler-Lagrange ser
una solucin del problema de minimizar el funcional

mn () =

Z1

1 2
() ()
2

Recordemos que las ecuaciones de Euler-Lagrange para este problema era

( () ()) = () ( ()) = () =

cuya solucin general es

() = 2 + 1 + 2
2
con 1 y 2 constantes. El valor de las constantes se determina utilizando las condiciones transversales
(0) = 0 2 = 0

( ) = 0 2 + 1 + 2 = 0
2
cuya solucin es
1 =

2 = 0
Luego
() =
es la solucin buscada.

2

+
=
2
2
2
2
200

Optimizacin dinmica: mtodos variacionales


2. Por ejemplo si = 1 y () = sen (). En este caso la ecuacin de Euler-Lagrange es

( () ()) = () ( ()) = sen ()

y tenemos que resolver el problema


() = sen ()
(0) = (1) = 0
Integrando
() =

1
cos () + 1

() =

1
sen () + 1 + 2
()2

y aplicando las condiciones transversales


(0) = 2 2 = 0
(1) = 1 + 2 1 = 0
luego
() =

6.7.

1
sen ()
()2

Optimizacin dinmica con restricciones

Para problemas isoperimtricos, como en el caso del problema de la catenaria, es posible establecer
ecuaciones de Euler-Lagrange similares.

6.7.1.

Restricciones de igualdad

Podemos resolver el problema


mn () =

Z1

( )

s.a.

( )
=0
(0 ) = 0
(1 ) = 1
201

= 1

Optimizacin dinmica: mtodos variacionales


buscando la solucin del problema modificado:
Z1

mn () =

( )
+

( )

=1

s.a.
(0 ) = 0
(1 ) = 1

6.7.2.

Restricciones Integrales

En esta seccin damos las condiciones necesarias para que una funcin sea extremal de un funcional sujeto a restricciones de tipo integral, tanto de igualdad como de desigualdad.
Teorema 62 Dado el problema
mn () =

Z1

( )

s.a.

R 1
0

( )
=

= 1

(0 ) = 0
(1 ) = 1

si 1 R, tal que
( )
= ( )
+

( )

=1

es [estrictamente] convexa respecto de ( )


para cualquier fijo. Si es solucin del sistema de
ecuaciones

= 0


(0 ) = 0
(1 ) = 1
Z

( )
=

entonces es solucin [la nica] del problema.


202

Optimizacin dinmica: mtodos variacionales


Ejemplo 33 Resuelve el siguiente problema

mn () =

Z1

()2

Z1

s.a.

() = 1

(0) = 0
(1) = 1
Solucin: Construimos el coste ampliado = +
= 2 +
Comprobamos la convexidad de , para ello necesitamos derivar respecto de ( )


= 2

2
=0
2
=

2
2
=
= 0 = =

=
2
2

0
2

que es semidefinida positiva y por tanto es convexa en ( )

Ahora utilizamos las ecuaciones de Euler-Lagrange para


= 0

(2)
= 0 2
=0

por tanto
=

e integrando dos veces


=
=

+ 1
2

2
+ 1 + 2
4
203

Optimizacin dinmica: mtodos variacionales


Donde 1 y 2 son constantes. Los valores de estas constantes y del multiplicador los podemos
calcular utilizando las condiciones transversales y la condicin integral.
(0) = 0 2 = 0

+ 1 + 2 = 1
4
=1

R1
R1 2
3 1 2
1

+ 1 + 2 =
+ + 2 =
+ =1
() = 1 0
0
4
12
2
12
2
=0
(1) = 0

Se obtiene como solucin

1 = 6
2 = 0
= 24
La solucin ptima del problema es
() = 62 + 6
y el coste ptimo
( ) =

( )2 =

Teorema 63 Dado el problema

mn () =

3 =1
(12
+
6)

(12 + 6)2 =
= 12

36

Z1

=0

( )

s.a.

R 1
0

R 1
0

( )
=

= 1

( )

= 1

(0 ) = 0
(1 ) = 1

si 1 0 R, tal que
( )
= ( )
+

( )
+

=1

204

X
=1

( )

Optimizacin dinmica: mtodos variacionales


es [estrictamente] convexa respecto de ( )
para cualquier fijo. Si es solucin del sistema de
ecuaciones

= 0


(0 ) = 0
(1 ) = 1
Z

( )
=

( )

= 0

entonces es solucin [la nica] del problema.


Ejemplo 34 Resuelve el siguiente problema

mn () =

Z1

()2

s.a.

Z1

()

1
3

(0) = 0
(1) = 1
Solucin: Construimos el coste ampliado = +
= 2 + 2
Comprobamos la convexidad de , para ello necesitamos derivar respecto de ( )


= 2

2
= 2
2

= = = 0


= 2

2
=2
2
2

205

= =

2
0

0
2

Optimizacin dinmica: mtodos variacionales


que para 0 es definida positiva y por tanto es estrictamente convexa (para = 0, sera
semidefinida positiva y por tanto convexa).
Ahora utilizamos las ecuaciones de Euler-Lagrange para

= 0 2 (2)
= 0 2 2
=0

por tanto
=
Como estamos minimizando, interesa que 0 y por tanto distinguimos dos casos
= 0 = 0 () = 1 + 2

0 = () = 1

+ 2

Para = 0 y utilizando las condiciones transversales se obtiene

(0) = 0 2 = 0
= () =

(1) = 1 1 = 1
que cumple la condicin integral, ya que
=1
Z 1
Z 1
3
1
2
2
() =
= =
3 =0 3
0
0

El valor del funcional para esta funcin es


Z 1
Z 1
2
=
(1)2 = 1
() =
0

Para 0 utilizamos las condiciones transversales y la condicin de holgura integral

(0) = 0 1 + 2 = 0


(1) = 1 1 + 2
=1

R1
R
1
2
2
1
1

()

=
0

()

=
3
3
0
0

De la primera ecuacin

2 = 1

y de la segunda

+ 2



= 1 1 = 1 1 =

y por tanto la funcin es de la forma




senh


() = 1

=
senh
206

1

2 senh

Optimizacin dinmica: mtodos variacionales


Utilizamos ahora la condicin integral

Z 1
Z 1
2
senh

1
1
=
2 =
2
3
3

0
0 senh

Z 1
Z 1
senh2
1

=

(cosh (2 ) 1)
2
2

2 senh
0
0 senh
integrando

1

2 senh2

=1

senh
2
1


(cosh (2 ) 1) =

2
2 senh

=0

que nos proporciona la ecuacin

1

2 senh2

!

senh 2
1
1 =

2
3

cuya solucin se obtiene (utilizando un programa adecuado) es


=0
que es el mismo caso que en el apartado anterior.

6.8.

Formulacin Variacional

Dado el funcional
() =

( )

supongamos que

() = () + ()
() = () + ()
Podemos emplear el desarrollo de Taylor para
' ( )
+
( + + )

Si definimos
= ( + + )
( )

entonces
=

( ( + + )
( )) '

Si definimos la variacin en y como


=
=
207

Optimizacin dinmica: mtodos variacionales


entonces podemos poner
'
La variacin de es

como para = 0 ocurre = 0


Z
=

=
1
+

=0
=0

que produce las ecuaciones en variaciones siguientes

=0

6.9.

=
1

=0
=0

Extensin de los mtodos variacionales

En el apartado anterior se han desarrollado las ecuaciones de Euler-Lagrange para funcionales


que dependan de una sla variable independiente, , y de una funcin () y su primera derivada
(), en esta seccin se plantean si profundizar las ecuaciones de Euler-Lagrange para problemas
que dependen tanto de funciones vectoriales, como funcionales que dependen de derivadas de orden
superior, como de funcioanles que dependen de varias variables independientes.

6.9.1.

Funciones Vectoriales

Dado el problema
mn () =

Z1

( 1 1 )

s.a.

(0 ) = 0

= 1

(1 ) = 1

= 1

las ecuaciones de Euler-Lagrange que debe cumplir una funcin vectorial x () = (1 () ())
para ser un extremal del funcional anterior es

= 0 = 1


=
1

=0
=0

208

= 1

Optimizacin dinmica: mtodos variacionales


Ejemplo 35 Resuelve el siguiente problema
Z2
mn () =
21 + 22 + 21 2
0

s.a.

1 (0) = 0
1

En este caso

2 (0) = 0

=1

= 1

( 1 2 1 2 ) = 21 + 22 + 21 2
y las ecuaciones de Euler-Lagrange son
1. Para = 1

= 22
1

= 2
1
= 2 1
1
1
2. Para = 2

= 21
2


= 2
2
= 2 2
2
2

= 0 22 2
1 = 0 2 = 1

= 0 21 2
2 = 0 1 = 2

Para encontrar los extremales hay que resolver el sistema

1 = 2
2 = 1

Si derivamos dos veces en la primera ecuacin se obtiene


1 =

4 2
4

y al sustituir en la segunda
4 2
4
ecuacin diferencial de cuarto orden, que se resuelve fcilmente utilizando las races de su polinomio
caracterstico ( () = 4 1) que son = 1 y por tanto la solucin general es
2 =

2 () = 1 + 2 + 3 cos + 4 sen
209

Optimizacin dinmica: mtodos variacionales


y como 1 = 2 , entonces
1 () = 1 + 2 3 cos 4 sen

Los valores de se encuentran mediante las condiciones transversales


1 (0) = 0 1 + 2 + 3 = 0
2 (0) = 0 1 + 2 3 = 0
1
2
Cuya solucin es

= 1 1 2 + 2 2 + 4 = 1
= 1 1 2 + 2 2 4 = 1
1 = 0; 2 = 0; 3 = 0; 4 = 1

Ejemplo 36 Encuentra las ecuaciones de Euler-Lagrange para los problemas variacionales cuyo
funcional es de la forma
Z1
mn () = ( 1 2 )
0

Solucin: En este caso las ecuaciones de Euler-Lagrange son para 1

=0

=00
=0

1 1
1

1
1

y derivando respecto a

=0
+
1 +
1 +
2 +
2 = 0
1
1
1 1
1 1
2 1
2 1
y teniendo en cuenta que slo depende de 1 y 2 se obtiene

1 +
2 = 0
1 1
2 1
del mismo modo para 2 se obtiene

1 +
2

2 = 0

Ambas ecuaciones se pueden poner en forma matricial

1
0

1
2
1


0
2
2 1
2
210

Optimizacin dinmica: mtodos variacionales


cuya solucin trivial es
1 = 2 = 0
es decir
1 () = 1 + 2
2 () = 3 + 4
con R, constantes.

6.9.2.

Funcionales con derivadas de orden superior

Dado el problema
mn () =

Z1

s.a.


()

() (0 ) = 0

= 0 1

() (1 ) = 1

= 0 1

las ecuaciones de Euler-Lagrange que debe cumplir una funcin x () para ser un extremal del
funcional anterior es


2

=0

+ 2
+ + (1)


()
Ejemplo 37 Resuelve el problema variacional
mn () =

Z1

1 + 2

s.a.

(0) = 0

(1) = 1

(0) = 1

(1) = 1

Solucin: Para este problema la ecuacin de Euler-Lagrange es la siguiente

=0

=0
=0

+ 2
= 0 2(4) = 0


2
(3
(4
= 2

= 2 2
= 2


211

Optimizacin dinmica: mtodos variacionales


Ecuacin de cuarto grado cuya solucin general es
() = 1

3
2
+ 2 + 3 + 4
6
2

y utilizando las condiciones transversales obtenemos como solucin


1 = 2 = 4 = 0
3 = 1
Ejemplo 38 Resuelve el problema variacional
Z2
2

mn () =
2 + 2
0

s.a.

(0) = 1

(2) = 0

(0) = 0

(2) = 1

Solucin: Para este problema la ecuacin de Euler-Lagrange es la siguiente

= 2


=0
=0

= 2

(3)

= 2

2
2

= 2(4)

es decir

2 + 2(4) = 0
ecuacin de cuarto grado cuya solucin general es
() = 1 + 2 + 3 cos + 4 sen
y utilizando las condiciones transversales obtenemos como solucin
1 = 2 = 4 = 0
3 = 1
212

2
+ 2

=0

Optimizacin dinmica: mtodos variacionales

6.9.3.

Funcionales vectoriales con derivadas de orden superior

Dado el problema

mn =

Z1

( )
( )
( )

1 1 1 1 1 2 2 2 2 2
()

(0 ) = 0 R

s.a.

()

(1 ) = 1 R
las ecuaciones de Euler-Lagrange (en este tipo de problemas se llaman ecuaciones de Euler-Poisson)
que debe cumplir una funcin x () para ser un extremal del funcional anterior es

2


= 0 = 1
+ 2
+ + (1)

)


(

6.9.4.

Funcionales derivadas parciales

Dado el problema
mn () =

RR

( )

podemos tratar de encontrar las ecuaciondes de Euler-Lagrange para este tipo de problemas utilizando
el procedimiento realizado para el caso de una sola variable independiente. Para ello, si consideramos
que es la solucin del problema anterior, podemos estudiar qu ocurre cerca de esa solucin y
podemos definir la familia de funciones
= + ( )
Queremos saber cmo vara cuando hacemos cambios en y observar qu ocurre cuando 0,
ZZ
( + + + )

y derivamos ahora respecto a

ZZ
=

Z Z

( + + + )

( ( + + + ))

utilizando la regla de la cadena y particularizando en = 0

ZZ


=
+

+

=0


213

Optimizacin dinmica: mtodos variacionales


y para encontrar un extremal tenemos que igualar la ecuacin anterior a 0

ZZ

+
=
+
= 0

=0

(6.25)

Ahora por una parte

=

=


y por tanto
ZZ

+ =

= 0

| {z }
| {z }

ZZ
luego

+

=

ZZ


+
=
+

ZZ

Si utilizamos el teorema de Green


ZZ
obtenemos

ZZ

ZZ

+

+
=

que sustituimos en 6.25

ZZ
ZZ
ZZ

+

+
=
+

Por otra parte

2
2
2
2
+
+

2
2
2
2
+
+

la integral buscada es

ZZ
ZZ

+
=
+

214

Optimizacin dinmica: mtodos variacionales


y como es arbitrario se debe cumplir la ecuacin de Euler-Ostrogradski

=0

(6.26)

En el caso de que tengamos un funcional de la forma


Z
Z
( x) x

siendo
x = (1 )
= (1 )

la ecuacin de Euler-Ostrogradski dimensional es de la forma


=0

1 1
2 2

(6.27)

o equivalentemente y de forma simplificada

=0

( ) = 0

Ejemplo 39 Sea un disco circular de radio 1 que tiene permisividad elctrica = 1. Supongamos
tambin que sobre dicho disco tenemos una distribucin de cargas elctricas de densidad constante
= 1. Supongamos finalmente que el potencial sobre la frontera de dicho crculo es constante e
igual a cero, esto es, = 0 sobre = {( ) R2 : 2 + 2 = 1}. Se pide calcular la ecuacin de
Euler-Lagrange asociada al funcional
ZZ

|E|2
() =
2
donde
E =
Comprueba que
( ) =

1 (2 + 2 )
4

es solucin de la ecuacin.
215

Optimizacin dinmica: mtodos variacionales


Solucin: Con los datos del problema el funcional es de la forma

ZZ

1 2
2
+
() =
2

y la ecuacin de Euler-Lagrange (Euler-Ostrogradski) buscada es

=0



donde

1 2
+ 2
2
y por tanto

= 1

=
1 = 0
=

=
=

1(2 + 2 )
Vamos a comprobar que la funcin =
es solucin de la ecuacin anterior
4

= 2 = 1

4
2

+ = 1

2
1
= =


4
2
est claro que sobre , ocurre = 0.
=

6.10.

Ejercicios

1. Resuelve el siguiente problema variacional


mn

() =
Z1

s.a.

Z1
0

1 0 2

()

() =

(0) = 0

(1) = 1

2. Resuelve el problema
mn ( ) =

Z2 h
1

(1) = 0;
216

i
2
( 0 ) 2
(2) = 1

Optimizacin dinmica: mtodos variacionales


3. Resuelve el problema
Z4 h
i
2
mn ( ) =
0 ( 0 )
0

(0) = 0;

(4) = 3

4. Resuelve el problema
Z1

(3 )

(0) = 0;

(1) = 1

mn ( ) =

5. Resuelve el problema
mn ( ) =

Z1
0

(0) = 1;

+ 32 0
(1) = 1

6. Resuelve el problema
Z1 h
i
2
2 ( 0 ) + 3 0
mn ( ) =
0

(1) = 1

(0) = 1;
7. Hallar las extremales del problema isoperimtico
mn () =

s.a.

Z1

Z1

( 0 ) + 2

2 = 2

(0) = 0;

(1) = 0

8. Escribir la ecuacin diferencial de las extremales del problema isoperimtrico sobre el extremo de la
funcional
Z1
mn () = () 2 () + () 2 ()
0

s.a.

Z1

() 2 () = 1

(0) = 0;
217

(1 ) = 0

Optimizacin dinmica: mtodos variacionales


9. Hallar la extremal del problema isoperimtrico sobre el extremo del funcional:
mn () =

Z1

21 () + 22 () 4 2 () 42 ()

s.a.

Z1

21 () 1 () 22 () = 2

1 (0) = 2 (0) = 0
1 (1) = 2 (1) = 1
10. Sabiendo que la longitud de una curva que une dos puntos = ( ) y = ( ) viene dada por
la integral
Z q
1 + [ 0 ()]2
() =

demuestra que la curva que une con con menor longitud es la lnea recta que los une.
11. Resuelve para los distintos valores de el problema siguiente
mn () =

Z1
0

(0) = 0;

+ 2 0
(1) =

12. Resuelve, si es posible, el problema siguiente:


Z1

1 0
2
( )
2

(0) = 1

(1) = 2

mn () =

13. Resuelve el problema


mn ( ) =

Z1
0

(0) = 0;

2
(1) = 1

14. (*) Halla una curva () con () = () = 0, de longitud dada 0 , de modo que junto con
el segmento , limite una figura de rea mxima, es decir, resuelve el problema siguiente
R
max ()
() = () = 0
Rq
1 + 0 ()2 = 0

(Ayuda: La solucin general es un arco de circunferencia ( 1 )2 + ( 2 )2 = 2 )


218

Optimizacin dinmica: mtodos variacionales


15. (*) Geodsicas sobre una superficie: Sea ( ) = 0 una superficie lisa regular en 3 ( 1 (),
2 2 2
con 3 , y adems
+ + 6= 0). Buscamos una curva ( () () ()) que

una los puntos (0 0 0 ) y (1 1 1 ) situados sobre la superficie y que sea un extremal para el
funcional de la longitud de arco
Z p
=
2 + 2 + 2

es decir, buscamos extremales del funcional anterior que cumplan las condiciones
( ) = 0
() = 0

() = 0

() = 0

() = 1

() = 1

() = 1

Resuelve el problema cuando:


a) ( ) = x2 +y2 +z2 R2
b) ( ) = x2 +y2 R2

16. Resuelve para los distintos valores de , el problema siguiente


Z2

2
mn () =
0 + [ 0 ]
0

a) Con extremos fijos


(0) = 1;

(2) =

b) Con extremos variables


(0) = 1;

(2)

libre

17. Resuelve el siguiente problema


mn () =

Z1
0

1 0 2
( ) + 2
2

para los siguientes casos:


a) Extremos fijos:
(0) = 0;

(1) = 1

(0) libre;

(1) = 1

(0) = 0;

(1) libre

b) Extremo inferior libre:


c) Extremo superior libre

219

Optimizacin dinmica: mtodos variacionales


d) Ambos extremos libres
(0) libre;

(1) libre

18. Resuelve el siguiente problema


mn

() =

Z1
0

Z1

sujeto a

1 0 2
2
( ) +
2

() = 1

(0) = 0;
Nota: (*) Ejercicios con dificultad especial.

220

(1) = 1

Bibliografa
[1] Balbas, A. y Gil, J.A. Programacin Matemtica.Editorial AC. (1990).
[2] F. Balibrea y V. Jimnez Lpez, Ecuaciones diferenciales para las ciencias qumicas y fsicas,
DMUniversidad de Murcia, 2001.
[3] Barnett, S. & Cameron, R. G. Introduction to Mathematical Control Theory. Ed. Oxford University Press (Oxford Applied Mathematics and Computing Science Series).
[4] Bazaraa, M. S.; Jarvis, J. J. & Sherali, H. D. Linear Programming and Networks Flows. Ed.
John Wiley & Sons, Inc (1990).
[5] W. E. Boyce y R. C. DiPrima, Ecuaciones diferenciales y problemas con valores en la frontera,
Limusa, Mexico, 1996.
[6] M. Braun, Dierential equations and their applications, SpringerVerlag, Berlin, 1993.
[7] B. Davies, Integral transforms and their applications, SpringerVerlag, Berlin, 1985.
[8] Elsgoltz, L. Ecuaciones diferenciales y clculo variacional. Ed. MIR (Rubios-1860, S.A.).
[9] Gill, P.E.; Murray, W. & Wright, M.H. Practical Optimization. Editorial Academic Press.
[10] G. James y otros, Advanced modern engineering mathematics ( 2 edicin), AddisonWesley
1999.
[11] A. Jerey, Linear algebra and ordinary dierential equations, CRC Press, 1993.
[12] K. Ogata, Ingeniera de control moderna, Prentice Hall, 1998.
[13] J. E. Marsden y M. J. Homan, Basic complex analysis, W. H. Freeman & Co., 1999.
[14] Ronald E. Miller. Optimization. Foundations and Applications. Ed. John Wiley & Sons, Inc
(Wiley-Interscience).
[15] Mokhtar S. Bazaraa, Hanif D. Sherali and C.M. Shetty. Nonlinear Programming. Ed. John Wiley
& Sons, Inc (Wiley-Interscience). (1993).
[16] R. K. Nagle y E. B. Sa, Fundamentos de ecuaciones diferenciales ( 2 edicin), Addison Wesley
Longman, 1992.
[17] Novo Sanjurjo, V. Teora de la Optimizacin.Editorial U.N.E.D. (Aula Abierta) (1997).
221

Bibliografa
[18] Reklaitis G.V., Ravindran A. and Ragsdell K.M. Engineering Optimization. Methods and Applications. Editorial John Wiley and Sons.(1983).
[19] T. B. A. Senior, Mathematical methods in electrical engineering, Cambridge University Press
1986.
[20] G. F. Simmons, Ecuaciones diferenciales (con aplicaciones y notas histricas), 2 Edicin,
McGrawHill, 1993.
[21] J. Sotomayor, Licoes de ecuaciones diferenciais ordinrias, Rio de Janeiro: Instituto de
Matemtica Pura e Aplicada, 1979.

222

Você também pode gostar