Escolar Documentos
Profissional Documentos
Cultura Documentos
28 de abril de 2014
ndice General
Advertencia.
No son los apuntes de la asignatura. Son una gua que no tiene porqu corresponderse al cien
por cien con lo explicado en clase.
Se ha utilizado el smbolo = para denotar un paso en alguna demostracin que, siendo cierto,
no est bien justificado. Normalmente cuando se trata de permuta de lmites, como una integral
con un sumatorio. Para un estudio de las pruebas rigurosas al cien por cien nos remitimos a la
bibliografa al final de estas notas.
ndice General
ii
ndice general
1. Transformada de Laplace
1.1. Introduccin . . . . . . . . . . . . . . . . . . . . . .
1.2. Funciones continuas a trozos. Funcin de Heaviside
1.3. Definicin de Transformada de Laplace . . . . . . .
1.3.1. Definicin y primeros ejemplos . . . . . . . .
1.3.2. Dominio de definicin de la Transformada de
1.4. Propiedades de la Transformada de Laplace . . . .
1.4.1. Linealidad . . . . . . . . . . . . . . . . . . .
1.4.2. Transformada de la derivada . . . . . . . . .
1.4.3. Transformada de la integral . . . . . . . . .
1.4.4. Transformada de la convolucin . . . . . . .
1.4.5. Primer Teorema de Traslacin . . . . . . . .
1.4.6. Segundo Teorema de Traslacin . . . . . . .
1.5. Propiedades de la funcin Transformada de Laplace
1.5.1. Derivabilidad de la Transformada de Laplace
1.5.2. Teoremas del valor inicial . . . . . . . . . .
1.5.3. Teorema del valor final . . . . . . . . . . . .
1.6. Transformada de Laplace inversa . . . . . . . . . .
1.6.1. Inyectividad de la Transformada de Laplace
1.6.2. Transformada de Laplace inversa . . . . . .
1.6.3. Frmula de inversin compleja . . . . . . . .
1.7. Aplicaciones: una primera aproximacin . . . . . .
1.8. Uso de la convolucin . . . . . . . . . . . . . . . . .
1.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Laplace
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
4
4
6
7
7
9
10
10
11
12
13
13
14
15
15
15
16
17
19
19
20
.
.
.
.
.
.
.
.
.
25
25
27
32
35
35
37
43
44
46
ndice General
2.5. Sistemas autnomos, puntos crticos y nocin de estabilidad . . . . . . . . . .
2.6. Estabilidad de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1. Por qu un sistema estable es til en ingeniera? . . . . . . . . . . . .
2.7. Funciones de transferencia. Estabilidad y control de sistemas lineales . . . . .
2.7.1. Respuesta a una seal sinusuidal . . . . . . . . . . . . . . . . . . . . .
2.8. Estabilidad local de sistemas autnomos . . . . . . . . . . . . . . . . . . . . .
2.8.1. Mtodo de linealizacin de Lyapunov. Teorema de HartmanGrobman
2.8.2. El mtodo directo de Lyapunov . . . . . . . . . . . . . . . . . . . . . .
2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
49
52
53
55
56
56
58
60
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
63
63
64
68
70
72
74
74
76
78
79
4. Transformada de Fourier
4.1. Definicin y primeros ejemplos . . . . . . . . . . .
4.2. Propiedades bsicas . . . . . . . . . . . . . . . . .
4.2.1. Linealidad . . . . . . . . . . . . . . . . . .
4.2.2. Transformada de la derivada . . . . . . . .
4.2.3. Cambios de escala . . . . . . . . . . . . .
4.2.4. Derivada de la transformada . . . . . . . .
4.2.5. Convolucin . . . . . . . . . . . . . . . . .
4.3. Transformada de Fourier inversa . . . . . . . . . .
4.4. Relacin con la transformada de Laplace . . . . .
4.4.1. Aplicacin a los sistemas estables . . . . .
4.5. Aplicacin a las ecuaciones en derivadas parciales
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
85
86
87
87
88
88
89
90
90
91
91
93
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
95
95
99
104
107
112
115
117
125
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ndice General
5.9. Condiciones suficientes . . . . . . . . .
5.10. Interpretacin de los multiplicadores de
5.11. Dualidad . . . . . . . . . . . . . . . . .
5.12. Temporal . . . . . . . . . . . . . . . .
5.13. Ejercicios . . . . . . . . . . . . . . . .
. . . .
KKT
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
superior
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
138
145
146
150
155
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
165
165
166
169
173
175
176
177
179
182
182
186
190
195
196
199
201
201
202
207
208
208
211
213
213
216
Captulo 1
Transformada de Laplace
Sumario. Funciones continuas a trozos. Defincin de Transformada de Laplace.
Propiedades Bsicas. Transformada de Fourier inversa: propiedades bsicas. Frmula
de inversin compleja. Aplicaciones a la resolucin de ecuaciones diferenciales lineales
con coeficientes constantes.
1.1.
Introduccin
Transformada de Laplace
o equivalentemente con la ecuacin diferencial
00 () + 0 () + () = 0 ()
en el caso en que () sea una funcin derivable.
De forma similar, si tenemos un circuito con varias ramas y ms elementos, como por ejemplo
podemos deducir a partir de las leyes de Kircho que las intensidades que circulan por los hilos
elctricos del circuito vienen dadas por
0 = 1 2 3
0 () = 10 1 + 1 1 + 20 2
0 = 20 2 + 300 + 3 2
Si suponemos los elementos del circuito constantes, salvo a lo mejor el voltaje (), que supondremos
una funcin derivable, tenemos un sistema de ecuaciones diferenciales lineales con coeficientes constantes.
La Transformada de Laplace es una herramienta que permite transformar los problemas anteriores
en problemas algebraicos y, una vez resuelto este problema algebraico ms fcil a priori de resolver,
calcular a partir de la solucin del problema algebraico la solucin del problema de ecuaciones diferenciales.
Esta es la forma en que los ingenieros abordan el estudio de estos problemas, como pone de
manifiesto las referencias [12], [19] o [10]. Adems este mtodo es explicado en algunos libros de
ecuaciones diferenciales como [5], [6], [11] o [?].
Sin embargo, para entender en su justa dimensin la Transformada de Laplace hay que dominar
contenidos bsicos de variable compleja que nuestros alumnos ya han estudiado con anterioridad.
2
Transformada de Laplace
As, vamos a presentar la Transformada de Laplace en un primer lugar usando los conocimientos que
el alumno tiene de funciones de variable compleja y una vez explicada sta, procederemos a indicar
algunas aplicaciones a las ecuaciones y sistemas citadas anteriormente. Nuestros alumnos tambin
deben conocer y dominar contenidos relativos a integrales impropias que fueron explicados en la
asignatura de primer curso fundamentos matemticos de la ingeniera.
A modo de introduccin histrica, diremos que la expresin
() =
()
fu acuada en primer lugar por PierreSimon Laplace en 1782. Su utilizacin dentro de la tcnica se
debe en su forma rigurosa a Thomas Bromwich, el cual formaliz utilizando las funciones de variable
compleja y la Transformada de Laplace un clculo operacional inventado por Oliver Heaviside para
la resolucin de circuitos elctricos.
1.2.
0 si
() =
1 si
y se conoce en ingeniera con el nombre de funcin de Heaviside.
Fsicamente, la funcin de Heaviside realiza la funcin de interruptor, de manera que si :
[0 +) C es una funcin continua se tiene que es la funcin
( )() =
0
si
() si
3
Transformada de Laplace
lo que representa que la funcin enciende a la funcin o seal en el instante de tiempo = .
Adicionalmente, si consideramos 0 y la funcin : [0 +) C, sta tiene la forma
0 si
[ )
( )() =
1 si [ )
As, si tomamos ahora la funcin , la funcin tiene el efecto fsico de apagar la
funcin , ya que
si
0
() si
( )() =
0
si
Adems de estas interpretaciones fsicas, la funcin de Heaviside es til para describir funciones
continuas a trozos que a su vez sean continuas por la derecha. Por ejemplo, la funcin
si 0 1
1 si 1 3
() =
sin si 3
puede escribirse como
1.3.
1.3.1.
Sea : [0 +) C una funcin localmente integrable, esto es, existe la integral de Riemann de
en todo intervalo compacto [0 ] [0 +). Se define la Transformada de Laplace de en C
como
Z +
L[]() =
()
(1.1)
0
siempre que tal integral impropia exista. Como el alumno debe conocer, la convergencia de la integral
Z +
| ()|
0
Transformada de Laplace
Funcin de Heaviside. Sea 0 y consideremos la funcin de Heaviside definida anteriormente. Entonces para todo C tal que Re 0 se verifica
Z +
Z +
L[ ]() =
() =
0
= lm
= lm
+
+
Z
1
()
1
()
= lm
= lm
=
+ 0
+
1
para todo C tal que Re 0.
!
+1
Para ver esto procedemos por induccin calculando en primer lugar la Transformada de 1 .
Integrando por partes obtenemos
Z
Z +
= lm
L[1 ]() =
+
0
0
1
1
=
+
= lm
+
2
2
A continuacin, por la hiptesis de induccin supongamos que L[ ]() = ! +1 y calculemos
la Transformada de +1 . Consideremos
Z +
Z
+1
= lm
+1
(1.2)
L[+1 ]() =
+
0
0
5
(1.3)
Transformada de Laplace
Combinando (1.2) y (1.3) concluimos que
L[+1 ]() =
+1
( + 1)!
L[ ]() =
+2
Funciones peridicas. Las funciones peridicas son bastante importantes en ingeniera debido
a que su periodicidad las hace controlables. Sea : [0 +) C una funcin peridica con
periodo . Entonces
Z
Z
1 Z (+1)
1
X
X
() =
() =
()
0
=0
=0
realizando cambios de variable en las integrales y usando que la funcin es peridica de periodo
. Tomando lmites cuando +, se verifica para todo C tal que Re 0 la relacin
Z
1
L[ ]() =
()
1 0
1.3.2.
Los ejemplos que anteriormente hemos explicado ponen de manifiesto que la funcin Transformada de Laplace de una funcin : [0 +) C no tiene porque estar definida en todo el plano
complejo. Vamos a estudiar con precisin cmo es el dominio de definicin de estas funciones, pero
consideraremos una clase especial de funciones que tienen lo que llamaremos orden exponencial.
Una funcin : [0 +) C se dice que tiene orden exponencial si existen constantes 0 y
R de manera que para todo 0 se satisface la condicin
| ()|
(1.4)
Denotaremos por E el conjunto de funciones continuas a trozos con orden exponencial, que sern
las funciones con las que trabajaremos a partir de ahora. El siguiente resultado ofrece una primera
aproximacin sobre el dominio de definicin de la Transformada de Laplace de funciones con orden
exponencial.
Proposicin 1 Sea : [0 +) C una funcin continua a trozos cumpliendo la condicin (1.4).
Entonces L[]() est definida para todo nmero complejo tal que Re
Proof. Vamos a ver que la funcin () es absolutamente integrable para todo complejo tal
que Re . Para ello consideramos
Z +
Z +
| ()| =
Re | ()|
0
0
Z +
(Re )
0
Z
= lm
(Re )
+
0
1
(Re )
1
= lm
+ Re
Re
Re
6
Transformada de Laplace
con lo que la Transformada de Laplace existe en el subconjunto { C : Re }
Este resultado prueba que { C : Re } D . Si definimos
= inf{ R : 0 con |()| para todo 0}
y denotamos por
D = { C : Re }
1.4.
1.4.1.
Linealidad
Esta propiedad ser muy til para resolver ecuaciones diferenciales lineales con coeficientes constantes, a la vez que permitir el clculo de la transformada de algunas funciones.
Teorema 2 Sean E y C. Entonces para todo D D se verifica que
L[ + ]() = L[ ]() + L[]()
Proof. La demostracin se sigue inmediatamente de la linealidad de la integral. Consideremos
Z +
L[ + ]() =
(() + ())
0
Z
= lm
(() + ())
+ 0
Z
Z
() + lm
()
= lm
+
= L[ ]() + L[]()
() = sin() =
2
7
Transformada de Laplace
Entonces
1
L[ ]() L[ ]()
2
1
1
= 2
=
2 +
+ 2
L[ ]() =
siempre que Re 0
Funcin coseno. Sea R y consideremos la funcin
() = cos() =
2 + 2
siempre que Re 0.
Funcin seno hiperblico. Sea R y consideremos la funcin
() = sinh() =
Entonces
1
L[ ]() L[ ]()
2
1
1
= 2
=
2 +
2
L[ ]() =
si Re ||.
Funcin coseno hiperblico. Sea R y consideremos la funcin
() = cosh() =
Transformada de Laplace
1.4.2.
Transformada de la derivada
Se dice que la funcin E es derivable a trozos si es continua, existen las derivadas laterales de
en cada punto de [0 +) y en cada subintervalo [ ] [0 +) existen a lo sumo una cantidad
finita de puntos donde no es derivable. Si es derivable a trozos, definimos 0 : [0 +) C como
0 () = +0 () para todo [0 +). Es claro entonces que 0 es una funcin continua a trozos, que
coincidir en casi todos los puntos con la derivada ordinaria. Se tiene entonces el siguiente resultado.
Teorema 3 Bajo las condiciones anteriores se verifica para todo D
L[ 0 ]() = L[ ]() (0)
(1.5)
() =
Z
X
=1
0 ()
=1
( )
= () (0) +
(1 )] +
Z
X
=1
()
()
Tomando lmites cuando +, y teniendo en cuenta que D y que por tanto existen
R, 0, Re , tales que
|() | (Re ) 0 si +
obtenemos inmediatamente (1.5).
Procediendo por induccin a partir de la frmula (1.5) se prueba una frmula general para la
derivada sima de la funcin en el caso de que 1) sea derivable a trozos para N. Esta
frmula viene dada para todo D por
L[ ) ]() = L[ ]() 1 (0) 2 0 (0) 2) (0) 1) (0)
(1.6)
Transformada de Laplace
1.4.3.
Transformada de la integral
()
que obviamente est bien definida y es continua para todo [0 +). La relacin entre las Transformadas de Laplace de ambas funciones viene dada por el siguiente resultado.
Teorema 4 En las condiciones anteriores, para todo D { C : Re 0} se verifica
L[]() =
L[]()
(1.7)
() =
()
0
=0
1
X
+1
( )
=
(+1 )
=0
Z
1
+
()
= ()
1X
+
=0
1
+1
()
Para ello y dado que E, existirn reales y 0 de manera que | ()| para todo 0.
Sea
Z
Z
()
Re
|() |
0
0
1
0 si +
= Re
1.4.4.
Transformada de la convolucin
Transformada de Laplace
Teorema 5 En las condiciones anteriores, para todo D D se verifica la frmula
L[ ]() = L[]()L[]()
Proof. En primer lugar, existen nmeros reales y 0, = 1 2, de manera que para todo 0
se verifica
|()| 1 y |()| 2
Z
Z
| ( )||()|
|( )()| = ( )()
0
0
Z
= 1 2
1 2
0
con lo que se ve fcilmente que ( )() es absolutamente integrable para todo Re , con
lo que L[ ]() existe para todo con Re . Por otra parte, como las funciones () y
() tambin son absolutamente integrables para todo Re , por el Teorema de Fubini (ver
[?, pag. 187]) se tiene que
Z
Z +
L[ ]() =
( )()
0
0
Z + Z
()
( ) ()
=
0
0
Z + Z +
()
( ) ()
=
0
Z + Z +
()
=
( ) ()
0
Z + Z +
() ()
=
0
0
Z +
=
L[ ]() () = L[]()L[]()
0
La demostracin de este resultado no la haremos a los alumnos, debido a que pensamos que sus
conocimientos le impedirn comprenderla completamente. No obstante la frmula ser bastante til
en las aplicaciones.
1.4.5.
(1.8)
Transformada de Laplace
Proof. Sea
() = lm
()
() =
() ()
A partir de este resultado podemos obtener las Transformadas de las funciones siguientes:
() = sin(), R, cuya Transformada de Laplace para todo nmero complejo tal que
Re Re es
L[]() =
( )2 + 2
() = cos(), R, cuya Transformada de Laplace para todo nmero complejo tal que
Re Re es
L[]() =
( )2 + 2
() = sinh(), R. Si Re || + Re , entonces
L[]() =
( )2 2
() = cosh(), R. Si Re || + Re , entonces
L[]() =
( )2 2
() = con N. Entonces
L[]() =
siempre que Re Re .
1.4.6.
!
( )+1
Sea ahora 0 un nmero real y supongamos que E est definida por () = 0 para todo
0. Recordemos que es la funcin de Heaviside. Entonces tenemos el siguiente resultado.
Teorema 7 Bajo las anteriores condiciones se verifica para todo D
L[ ()( )]() = L[]()
Proof. Tomamos
()( ) =
=
=
lm
lm
lm
Z0
() ( )
( )
Z0 +
0
12
(+) ()
()
(1.9)
Transformada de Laplace
haciendo el cambio de variable = . De aqu se obtiene inmediatamente (1.9).
Este resultado es til para obtener la Transformada de Laplace de funciones continuas a trozos.
Por ejemplo consideremos la funcin
si 0 1
() =
0 si 1
Esta funcin puede describirse como
() = [0 () 1 ()]
Entonces
L[]() = L[0 ()]() L[1 ()]() = L[]() L[ + 1]()
+1
1
1
1
1
= 2
+
= 2 2
2
1.5.
1.5.1.
()
L[]() =
0
En las condiciones del resultado anterior, obtenemos por induccin la frmula para la derivada
sima de la Transformada de Laplace
Z +
L[ ]() = (1)
()
0
Claramente la demostracin de este resultado no es apropiada para hacerla en clase, pues presupone muchos contenidos que no hemos explicado en la misma. Nos centraremos en que el alumno
entienda el resultado y sepa aplicarlo. Por ejemplo, calculando las Transformadas de las siguientes
funciones.
13
Transformada de Laplace
() = sin(), N y R. Se tiene siempre que Re 0 la relacin
L[]() = (1)
L[sin()]() = (1)
2 + 2
() = cos(), N y R. Se tiene anlogamente siempre que Re 0
L[ ]() = (1)
L[cos()]() = (1)
2 + 2
De forma similar se obtienen frmulas equivalentes para el coseno y seno hiperblicos.
1.5.2.
lm
Re +
L[ ]() = 0
(1.10)
Proof. Sea D . Existen nmeros reales 0 y de manera que | ()| para todo 0.
Entonces
Z
Z
|L[]()| lm
| ()| lm
(Re )
+
(Re
(
1)
= lm
=
+
Re
Re
Re +
L[ ]() = (0)
(1.11)
(1.12)
Aplicando el Teorema 9 a (1.12) se tiene que lmRe + L[ 0 ]() = 0, de donde se deduce inmediatamente (1.11).
Los resultados anteriores muestran que no todas las funciones de variable
compleja pueden ser
lm =
Re +
14
Transformada de Laplace
1.5.3.
Al igual que los resultados de la seccin anterior el Teorema del valor final aporta informacin
cualitativa de la Transformada de Laplace en conexin directa con la funcin de la cual es transformada.
Teorema 11 Sea E una funcin derivable a trozos tal que 0 E. Supongamos que 0 D y
que existe y es finito lm+ (). Entonces
lm L[ ]() = lm ()
0 ()
lm L[ ]() = L[ ](0) =
0 () = lm () (0)
+
1.6.
1.6.1.
|()| = 0
Dos funciones : [0 +) C localmente integrables se dirn iguales casi por todas partes si
es nula. Se tiene entonces el siguiente resultado.
Proposicin 12 Sean E iguales casi por todas partes. Entonces L[]() = L[]() para todo
D D .
15
Transformada de Laplace
Proof. Sea 0 y D D . Por el Teorema del Valor Medio del Clculo Integral existe (0 )
tal que
Z
Z
As
()
Re
| () ()| = 0
()| =
|L[]() L[]()| = lm
+
Re
lm
()
()
| () ()| = 0
1.6.2.
Consideremos la funcin
L : E L(E)
El Teorema 13 permite definir clases de equivalencia en E del siguiente modo. Dadas E se
dir que ambas estn relacionadas, si y slo si son iguales salvo a lo sumo en los puntos de
discontinuidad de ambas. Podemos definir entonces la Transformada de Laplace inversa
L1 : L(E) E
para L(E) como L1 [ ] = [] donde [] denota la clase de E de manera que L[] = .
En general con nuestros alumnos tenderemos a identificar clases con funciones que normalmente
podrn ser calculadas. As diremos que dada L(E) su Transformada inversa es una funcin
L1 [ ]() = () de forma que L[ ] = , aunque est perfectamente claro que tal no es nica.
En este contexto, destacamos las siguiente propiedades de Transformada inversa que sern especialmente interesantes a la hora de las aplicaciones.
Linealidad. Dadas L(E) y C se verifica
L1 [ + ]() = L1 [ ]() + L1 []()
Traslacin. Dada L(E) y 0 se cumple la relacin
L1 [ ()]() = ()L1 [ ]( )
16
Transformada de Laplace
Convolucin. Dadas L(E) se cumple
L1 [ ]() = (L1 [ ] L1 [])()
Estas propiedades son particularmente interesantes a la hora de obtener Transformadas inversas
de Laplace una vez conocidas las Transformadas directas.
1.6.3.
Aparte de las tcnicas estudiadas en el apartado anterior para hallar Transformadas inversas,
estudiaremos la siguiente frmula de inversin compleja.
Teorema 14 Supongamos que () es holomorfa en C \ {1 2 }, y que existe R tal que
es holomorfa en { C : Re }. Supongamos adems que existen constantes positivas ,
y tales que
| ()| si ||
(1.13)
||
Para 0 sea
() =
Res( () )
=1
Entonces
L[ ]() = () si Re
Proof. Sea y consideremos el rectngulo de la figura, suficientemente grande para que las
singularidades de estn contenidas en su interior y adems todo cumpla la condicin || .
Separamos en la suma de dos caminos cerrados 1 y 2 divididos por la recta Re = .
17
Transformada de Laplace
Como las singularidades de estn contenidas en el interior de 1 , por definicin de tenemos que
Z
() = 2()
1
Entonces
2L[]() =
=
lm
lm
Z Z
0
()
()
()
1
2L[ ]() = lm
+
1
2
Z
()
= 2 ()
Por otra parte, sea () = , [0 2] una circunferencia de radio y conteniendo a .
Entonces
Z
Z
()
()
=
de donde
Z
()
|| ( ) 2 0 si +
As
Z
()
= 0
y como era arbitrario, la frmula L[]() = () es vlida para todo Re .
Remarquemos aqu que la condicin (1.13) del resultado anterior se cumple para funciones de la
forma () = ()() donde y son polinomios tales que deg 1 + deg , donde deg
denota el grado de . As por ejemplo, la Transformada inversa de la funcin
() = 2
+1
puede calcularse como
L1 [ ]() = ()
= Res( () ) + Res( () )
= +
= cos
2
2
18
Transformada de Laplace
1.7.
(1.14)
(0) = 0; 0 (0) = 1
(1.15)
( 2 + 1)2
Una vez obtenida L[], hemos de usar la Transformada inversa para volver atrs y recuperar la
solucin del problema . En este caso, L[] satisface las condiciones del Teorema 14, por lo que
2
2
+ + 1
+ + 1
+ Res
() = Res
( 2 + 1)2
( 2 + 1)2
= (1 + 2) sin
una vez realizados los clculos.
1.8.
Uso de la convolucin
Otra forma de abordar el problema anterior, sin necesidad de tener que calcular la Transformada
de Laplace de la funcin coseno es la siguiente. Consideremos los clculos realizados anteriormente,
pero sin obtener L[]() donde () = cos . Nos quedar entonces la ecuacin algebraica
2 L[]() 1 + L[]() = L[ ]()
de donde
L[]() =
1
1
+ 2
L[]()
+1 +1
Entonces
() = L1 [1( 2 + 1)]() + L1 [L[ ]()( 2 + 1)]()
= sin + (L1 [L[]()] L1 [1( 2 + 1)])()
Z
= sin +
sin( ) cos
0
1
= sin + (cos(2 ) + 2 sin
4
0
Transformada de Laplace
que era la solucin obtenida anteriormente.
As, el uso del producto de convolucin presenta una va alternativa para la resolucin de estos
problemas, aunque a veces el clculo de las integrales que aparecen en el producto de convolucin
pueden ser bastante complicado.
1.9.
Ejercicios
si [0 1]
() =
2 si [1 2]
4. Dada la funcin,
() =
sin
1 + 2
si 0 1
1 si 1 2
() =
0 si 2
20
Transformada de Laplace
7. Calcular la transformada de Laplace de las siguientes funciones.
2
1 si 0 2
0 si 0 1
(c) () =
(a) () = | sin | (b) () =
si 1
2
si 2
8. Calcular la transformada de Laplace de la funcin escalonada
0 1
() =
0 1 2
extendida a todo [0 +[ como 2-peridica.
9. Existir la transformada inversa de Laplace de las siguientes funciones de variable compleja?
Razonar las respuestas.
(a) () =
sin
(b) () =
(c) () =
1 + 2
(d) () =
1 + cos ( 2 )
2
1 + 3
(b) () =
() () =
1
( 1)( 2 2)
(c) () =
+7
+ 2 + 5
1
( + 1)( + 2)( 2 + 2 + 10)
2 + 2 + 5
(b) () =
( 1)
3 + 2
(c) () =
+1
+ 9)
2 ( 2
(d) () =
+1
4
0)
(b)
()
=
1 + 2
( 1)( + 2)2
() () =
(c) () =
1
+ 2
+2
2
( 2)( 3 1)
13. Utilizar la transformada de Laplace para resolver los siguientes problemas de Cauchy asociados
a ecuaciones diferenciales lineales con coeficientes constantes:
0 () + 3() = 2
000 () + 5 00 () + 17 0 () + 13() = 1
(0) = 0 (0) = 1 00 (0) = 0
(0) = 2
00 () + () =
00 () + 0 () 2() = 54 ()
(0) = 1 0 (0) = 0
(0) = 1 0 (0) = 2
21
Transformada de Laplace
14. Resolver los siguientes problemas de valores iniciales:
1
00
0
() + () = () con () =
0 1
(0) = 0 0 (0) = 2
00 () + () = sin
(0) = 0 (0) = 1
15. En el caso de un circuito LCR en el que no se tiene ninguna resistencia, la ecuacin diferencial
que describe la carga del condensador en funcin del tiempo es de la forma,
2
()
= ()
()
+
2
1 (0) = 10 (0) = 1
2 (0) = 20 (0) = 0
0 (0) = 1
con 1.
18. Encuentra la solucin del oscilador armnico dado por la ecuacin diferencial:
00 () + () = sin ( )
( R 0)
(0) = 12
(06-09-99)
Transformada de Laplace
20. Obtener la solucin del siguiente sistema de ecuaciones diferenciales,
)
310 () + 20 () 21 () = 3 sin + 5 cos
210 () + 20 () + 2 () = sin + cos
23
Transformada de Laplace
24
Captulo 2
Estabilidad de ecuaciones diferenciales
Sumario. Ecuaciones y sistemas de ecuaciones lineales. Funciones de transferencia.
Nociones de estabilidad. Criterios de estabilidad. Estabilidad de sistemas autnomos
no lineales.
2.1.
1 ( 1 10 2 20
) = 0;
2 ( 1 0 2 0 0 ) = 0;
1
2
..
( 0 0 0 ) = 0;
10 = 1 ( 1 2 );
0 = 2 ( 1 2 );
2
..
0 = ( );
10 = 1 ( 1 2 );
2 = 2 ( 1 2 );
..
.
= ( 1 2 );
( ) = ( ) = ( ) =
1 0
1 2 0
2
0
junto con las condiciones (0 ) = , donde 0 1 2 son nmeros reales. Por ejemplo
0
= 1 + 22 3 ;
10
2 = + 1 + 2 3 ;
0 = 1 2 3 ;
3
1 (0) = 2 2 (0) = 0 3 (0) = 1
es un problema de condiciones iniciales. Ntese que todas las condiciones iniciales implican el conocimiento de la funcin en 0, es decir, lo siguiente
0
= 1 + 22 3 ;
10
2 = + 1 + 2 3 ;
0 = 1 2 3 ;
3
1 (0) = 2 2 (1) = 0 3 (0) = 1
no sera un problema de condiciones iniciales, ya que conocemos 2 en 1 e 1 e 3 en 0.
Para el caso de los problemas de condiciones iniciales para sistemas de ecuaciones diferenciales
tenemos el siguiente resultado anlogo al de ecuaciones diferenciales de orden uno.
Teorema 15 Sea el problema de condiciones iniciales
10 = 1 ( 1 2 );
2 = 2 ( 1 2 );
..
.
= ( 1 2 );
( ) = ( ) = ( ) =
1 0
1 2 0
2
0
0
2 = + 1 + 2 3 ;
0 = 1 2 3 ;
3
1 (0) = 2 2 (0) = 0 3 (0) = 1
es tal que 1 ( 1 2 3 ) = 1 + 22 3 , 2 ( 1 2 3 ) = + 1 + 2 3 y 3 ( 1 2 3 ) = 1 2 3
son funciones definidas en R4 , continuas y las derivadas parciales de cada funcin respecto de 1 2
e 3 son continuas. Entonces este problema de condiciones iniciales tiene solucin nica, aunque no
tengamos ni idea de cmo calcularla. Se ver en la asignatura de cuarto curso mtodos numricos cmo
obtener soluciones aproximadas, y en esta misma asignatura estudiaremos cmo obtener informacin
parcial sobre el sistema incluso sin conocer las soluciones.
2.1.1.
Como hemos comentado anteriormente en general no va a ser posible resolver sistemas de ecuaciones diferenciales salvo en ciertos casos particulares. Uno de ellos va a ser el de los sistemas de
ecuaciones diferenciales lineales de coeficientes constantes, cuya teora general pasamos a estudiar.
Vamos a ver a continuacin cmo son las soluciones de un sistema de este tipo, pero antes necesitamos
conocer un poco ms sobre stos. Un sistema de ecuaciones diferenciales lineales es una expresin
de la forma
0
= 11 ()1 + 12 ()2 + + 1 () + 1 ()
10
2 = 21 ()1 + 22 ()2 + + 2 () + 2 ()
0
= 1 ()1 + 2 ()2 + + () + ()
donde para cada 1 , y son funciones reales definidas sobre un intervalo . Si denotamos
por
11 () 12 () 1 ()
21 () 22 () 2 ()
A() = ( ())1
1 =
1 () 2 () ()
y por
1 ()
2 ()
b() = (1 () 2 () ()) =
()
e
1
2
y = (1 2 ) =
y0 = A() y + b()
27
(2.1)
2
y0 = (10 20 0 ) =
0
Por ejemplo, los sistemas
10 = 1 + 2 + 1 2
20 = 1 2 +
0
1 = 1 + 2 2 + 3 + 1 2
0 = 1 2 2 +
20
3 = 1 + (1 )2 + 3
es homogneo. Se dir no homogneo en caso contrario. Nosotros le prestaremos una gran atencin
a los sistemas lineales con coeficioentes constantes. Un sistema de ecuaciones diferenciales lineales se
dir de coeficientes constantes si la matriz A() = A es constante. Ejemplos de tales sistemas, tanto
homogneos como no homogneos son
0
1 = 21 + 2 + 1 2
20 = 1 2 +
0
1 = 21 2 + 3
0 = 1 2 + 73
20
3 = 41 + 2 + 3
Veremos en los sucesivos temas cmo resolver estos ltimos sistemas, dando un algoritmo que permitir el clculo de la solucin general del mismo.
Previamente, estudiaremos la teora general de los sistemas de ecuaciones lineales y para posteriormente particularizarla al caso de las ecuaciones lineales de orden mayor o igual que dos (ver la
ltima seccin de este tema). Esta teora general de los sistemas de ecuaciones diferenciales lineales se
sustenta en la nocin de espacio vectorial de dimensin finita estudiadas en la parte de lgebra lineal
impartida durante el curso y utiliza el siguiente resultado sobre existencia y unicidad de soluciones
de ecuaciones y sistemas que se deducen directamente del Teorema 15.
Teorema 16 Sea y0 = A() y + b() un sistema de ecuaciones diferenciales lineales donde A y
b estn definidas en un intervalo 0 = [0 0 + ]. Si estas funciones son continuas en dicho
intervalo, entonces el problema de condiciones iniciales
0
y = A() y + b()
y(0 ) = y0
tiene solucin nica definido en todo 0 .
28
(2.2)
tiene estructura de espacio vectorial de dimensin sobre R, esto es, cualquier solucin y del mismo
es de la forma
y = 1 y1 + 2 y2 + + y
donde 1 2 R e y1 y2 y son soluciones linealmente independientes del mismo.
Proof. En primer lugar, veamos que cualquier combinacin lineal de soluciones del sistema (2.2)
es una solucin del mismo. Para ello, sean y1 y2 y soluciones de (2.2) y 1 2 R.
Consideramos el vector de funciones z = 1 y1 + 2 y2 + + y y derivamos respecto de la
variable independiente (notar que z = z()), obtenindose, por ser y1 y2 y soluciones de (2.2)
que
z0 =
=
=
=
1 y10 + 2 y20 + + y0
1 A() y1 + 2 A() y2 + + A() y
A() [1 y1 + 2 y2 + + y ]
A() z
(2.3)
es de la forma
y = 1 y1 + 2 y2 + + y + y
donde 1 2 R, y1 y2 y son soluciones linealmente independientes del problema homogneo e y es una solucin particular del problema no homogneo.
Proof. Sea y una solucion particular del sistema (2.3) y sea y otra solucin. Consideremos el vector
de funciones z = y y y veamos que es solucin del sistema homogneo asociado a (2.3). Para ello
calculamos
z0 =
=
=
=
y0 y0
A() y + b() [A() y +b()]
A() [y y ]
A() z
Por el Teorema 2.2, existen soluciones del sistema homogneo asociado linealmente independientes
y1 y2 y tales que
z = 1 y1 + 2 y2 + + y
donde 1 2 R. Teniendo en cuenta la definicin de z concluimos que
y = 1 y1 + 2 y2 + + y + y
con lo que se concluye la demostracin.
2.1.2.
(2.4)
donde : R+1 R. Esta ecuacin puede transformarse en un sistema de ecuaciones diferenciales de orden uno de la manera siguiente. Introducimos las variables dependientes 1 = , 2 = 0 ,
3 = 00 ,..., = 1) y entonces la ecuacin (2.4) puede escribirse como el sistema
0
1 = 2
20 = 3
0 =
1
0 = ( 1 2 )
Por ejemplo, la ecuacin de orden tres
3) = + 0 00
32
0
1 = 2
0 = 3
20
3 = + 1 2 3
De aqui se ve que para tener un problema de condiciones para la ecuacin, necesitamos condiciones
iniciales 1 (0 ) = (0 ) = 0 , 2 (0 ) = 0 (0 ) = 00 ,..., (0 ) = 1) (0 ) = 01 , es decir, necesitamos
conocer el valor de la funcin y de las sucesivas derivadas hasta la 1 en un punto 0 . Entonces,
el problema de condiciones iniciales tiene solucin nica. Por ejemplo, el problema de condiciones
iniciales
3)
= + 0 00
(0) = 0 0 (0) = 1 00 (0) = 2
tiene solucin nica.
Nos ocuparemos expecialmente de ecuaciones diferenciales de orden que llamaremos lineales y
que a continuacin describimos. Por una ecuacin diferencial lineal de orden entenderemos una
expresin de la forma
() ) + 1 () 1) + + 1 () 0 + 0 () = ()
(2.5)
donde para 0 , y son funciones reales de variable real definidas en un intervalo de la recta
real . Siempre que () sea diferente de cero, podemos escribir la ecuacin como
) + 1 () 1) + + 1 () 0 + 0 () = ()
(2.6)
00 + 2 0 + =
6) 7 3) + 2 00 + (log ) = 0
son ecuaciones lineales de rdenes tres, dos y seis, respectivamente. Como hemos visto anteriormente,
una ecuacin de orden puede escribirse como el sistema
0
1 = 2
20 = 3
0 =
1
0 = () [1 () + + 1 ()2 + 0 ()1 ]
que en forma matricial se escribe como
y0 = A() y + b()
donde
A() =
0
1
0
0
0
0
1
0
0
0
0
1
0 () 1 () 2 () 3 ()
33
1 ()
1 () 2 ()
()
0
0
0
1 () 2 ()
()
1)
1)
1)
()
()
()
1
2
donde 1 2 R, 1 2 son soluciones linealmente independientes del problema homogneo e es una solucin particular del problema no homogneo.
34
2.2.
(2.7)
donde A = ( )1
1 es una matriz cuadrada, b() = (1 () 2 () ()) donde para 1 ,
son funciones reales definidas sobre un intervalo de la recta real e y = (1 2 ) . Los mtodos
que vamos a estudiar son matriciales por lo que es necesario tener frescos conceptos sobre la teora
de matrices y especialmente con la diagonalizacin de stas.
2.2.1.
Vamos a introducir un mtodo matricial para la resolucin de sistemas de ecuaciones lineales con
coeficientes constantes que est basado en el clculo de la exponencial de una matriz utilizando el
Teorema de CayleyHamilton. Explicaremos en primer lugar en qu consiste el Teorema de Cayley
Hamilton y posteriormente introduciremos la exponencial de una matriz, que nos va a proporcionar
la solucin de sistemas homogneos de la forma
y0 = A y
donde A = ( )1
1 es una matriz cuadrada.
Teorema de CayleyHamilton
1
+ + 1 + 0 ,
Supongamos que A = ( )1
1 es una matriz cuadrada y () = + 1
es un polinomio de coeficientes reales. Si intercambiamos por A construimos lo que denominaremos
un polinomio matricial
(A) = A + 1 A1 + + 1 A + 0 I
Ntese que el trmino independiente del polinomio aparece multiplicado por la matriz identidad I .
Por ejemplo, si
1 2
A=
3 4
y () = 3 + 2 1, entonces
(A) = A3 + 2A I2
1 0
1 2
1 2
=
+2
0 1
3 4
3 4
38 58
=
87 125
El Teorema de CayleyHamilton afirma lo siguiente.
Teorema 23 (CayleyHamilton). Sea A = ( ) una matriz cuadrada y sea () = |A I |
su polinomio caracterstico. Entonces (A) = 0.
35
2 0
5 10
7 10
=
0 2
15 20
15 22
0 0
=
0 0
Este teorema ser clave para poder obtener una frmula que permita resolver sistemas de ecuaciones
diferenciales lineales con coeficientes constantes.
El polinomio caracterstico de una matriz cuadrada A no tiene porqu ser el de menor grado que
satisfaga el teorema de CayleyHamilton. Un polinomio () se dice mnimo para la matriz cuadrada
A si (A) = 0. En general se sabe que () divide al polinomio caracterstico de A, es decir, dicho
polinomio ser de la forma
() = ( 1 )1 ( )
donde , 1 son los valores propios de A y = 1 + + , donde es el grado del
polinomio caracterstico ().
Como sabemos, para que la matriz A sea diagonalizable tiene que cumplirse que si
() = (1) ( 1 )1 ( )
entonces para cada valor propio debe cumplirse que su multiplicidad algebraica = dim Ker(A
I ), donde Ker(A I ) es el subespacio propio asociado al valor propio . Esta condicin es
equivalente a que = 1, siendo el exponente del monomio en el polinomio mnimo.
36
0 1 1
A = 1 2 1
1 1 2
que tiene valores propios 1 (doble) y 2 (simple). Esta matriz ser diagonalizable si su polinomio
mnimo es () = ( 1)( 2). Calculamos
(A) = (A I3 ) (A 2 I3 ) = 0,
1 1
A = 1 2
0 1
la matriz
0
1
1
tiene los mismos valores propios con las mismas multiplicidades y sin embargo
1 0 1
(A) = (A I3 ) (A 2 I3 ) = 0 0 0
1 0 1
2.2.2.
()
( )
En esta seccin vamos a obtener una frmula para resolver sistemas de ecuaciones de la forma
y0 = A y
(2.8)
donde A es una matriz cuadrada de coeficientes reales. Para esto, debemos recordar un caso particular
de ste cuando la matriz es de una fila y una columna, es decir, cuando tenemos la ecuacin lineal
homognea de orden uno
0 = R
Por analoga con el caso unidimensional, para el caso general la solucin del sistema (2.8) va a ser
de la forma
y() = A C
donde C es un vector columna constante y A es la exponencial de la matriz A definida por la
serie
A
A :=
!
=0
Para hacer ms comprensible este captulo, vamos a dar algunas nociones sobre la exponencial de
una matriz.
37
X
1
A
=
A
!
=0
donde supondremos que A0 = I . Esta serie siempre es convergente, es decir, para toda matriz
cuadrada con coeficientes reales la serie anterior nos proporciona una matriz de coeficientes reales.
Hay casos en los que es bastante sencillo calcular la exponencial de una matriz. Por ejemplo,
si D = diag(1 ) es una matriz diagonal, entonces para todo nmero natural se tiene que
D = diag(1 ) y entonces
D
=
=
X
=0
X
=0
1
!
diag(1 )
= diag
=0
1
=0
= diag( )
Por ejemplo, si
1
!
!
1 0 0
D = 0 2 0
0 0 2
entonces
0 0
D = 0 2 0
0 0 2
(2.9)
Dado el vector columna C, la funcin y() = A C est definida para todo R, es derivable y
y0 () =
A
C = A A C = A y()
es decir, es solucin del sistema de ecuaciones diferenciales lineales con coeficientes constantes (2.8).
Ahora bien, consideremos el sistema
0
1
1 1
1
=
1 1
20
2
38
1 1
1 1
1
2
pero cmo calculamos dicha matriz? A continuacin vamos a ver un mtodo basado en el Teorema de
CayleyHamilton que permite hacer el clculo con cierta facilidad, aunque los clculos sean laboriosos.
Clculo prctico de la exponencial
Para fijar ideas supongamos que () es el polinomio caracterstico de la matriz A y que tiene
races reales o complejas 1 2 con multiplicidades 1 2 . Buscamos entonces polinomios
1 () 2 () () con grado a lo sumo 1 para cada 1 , de manera que se verifique la
igualdad
1 ()
2 ()
()
1
=
+
+ +
1
2
()
( 1 )
( 2 )
( )
de donde
(2.10)
1 = 1 ()1 () + 2 ()2 () + + () ()
con () = ()( ) , 1 . Sustituyendo en (2.10) por A tendremos
I = 1 (A)1 (A) + 2 (A)2 (A) + + (A) (A)
(2.11)
=0
( )
= I
entonces
A = I (A I ) =
(A I )
!
=0
(A)
X
=0
X
1
=0
(A)(A I )
(A)(A I )
dado que por el Teorema de CayleyHamilton, para todo se tiene que (A)(A I ) =
(A)(A I ) = 0. Multiplicando nuevamente por la izquierda por (A) obtendremos
(A) (A)A =
X
1
=0
(A) (A)(A I )
39
(2.12)
!
X
A =
(A) (A)
(2.13)
(A I )
!
=1
=0
Consideremos por ejemplo el sistema
10 = 41 + 22 ;
20 = 31 + 32
4 2
3 3
y el polinomio caracterstico
() = 2 7 + 6
que tiene por races 1 = 1 y 2 = 6. Calculamos ahora 1 y 2 a partir de
1
1
2
(1 + 2 ) 61 2
=
+
=
()
1 6
()
de donde obtenemos el sistema
1 + 2 = 0
61 2 = 1
6
1
3 + 2 26 2
=
36 3 26 + 3
5
La solucin del sistema ser
1
1 ()
=
2 ()
5
1
=
5
esto es
1 () =
2
6
(31 + 22 ) + (21 22 )
6 (31 + 22 ) + (31 + 32 )
36 + 2 26 2
36 3 26 + 3
1 6
(31 + 22 ) + (21 22 )
5
40
1 6
(31 + 22 ) + (31 + 32 )
5
donde 1 y 2 son dos constantes reales. Si tuvisemos alguna condicin inicial, por ejemplo, 1 (0) =
1 2 (0) = 0, entonces planteando el sistema
2 () =
1 (0) = 1 = 1
2 (0) = 2 = 0
obtendramos que
1
1 () = (36 + 2 )
5
1
2 () = (36 3 )
5
es la nica solucin de dicho problema de condiciones iniciales.
Consideremos ahora el sistema
10 = 31 + 2 ;
20 = 1 + 2 ;
=
2
()
( 2)
()
de donde 1 = 1 y
1 = ()( 2)2 = 1
Aplicando la frmula (2.13) tenemos que
A
1
X
= 1 (A)1 (A)
(A 2I2 )
!
=0
1 1
= 2 I I I +
1 1
1+
2
=
1 +
2
1 ()
(1 + )2
1
2
=
2 ()
2
(1 + )2
2
donde 1 y 2 son dos constantes reales (la expresin definitiva de 1 e 2 se deja como ejercicio al
lector).
Si por ltimo tomamos el sistema
10 = 31 52 ;
20 = 1 2 ;
41
1
1
2
(1 + 2 ) + 1 (1 + ) + 2 (1 )
=
+
=
()
( 1 ) ( 1 + )
()
que da lugar al sistema
1 + 2 = 0
1 (1 + ) + 2 (1 ) = 1
que nos da como solucin 1 =
1
2
y
2 () = 1
2
2+
5
2
5
1
1
=
1
2 +
1
2
2
2
+
+
5
2
2
2
2
=
+
2
+
2
2
2
2 sin + cos
5 sin
=
sin
2 sin + cos
dado que
cos =
y
+
2
sin =
2
Entonces toda solucin del sistema viene dada por la expresin
1
2 sin + cos
5 sin
1 ()
sin
2 sin + cos
2 ()
2
Los tres ejemplos anteriores resumen los casos que pueden darse para el caso de sistemas de dos
ecuaciones con dos incgnitas, es decir, que el polinomio caracterstico tenga dos soluciones reales
distintas, una real doble o dos complejas conjugadas. Cuando el nmero de ecuaciones es mayor,
pueden aparecer otros casos, pero bsicamente la matriz exponencial contiene en sus coordenadas
funciones de la forma
cos() y sin()
donde 0 y y son nmeros reales. En cualquier caso, resolveremos sistemas que a lo sumo
tienen cuatro ecuaciones con cuatro incgnitas, pues a partir de ese nmero de ecuaciones los clculos
suelen ser muy largos y engorrosos en general.
42
2.2.3.
Volvamos ahora sobre el sistema no homogneo (2.7) y supongamos conocida la solucin general
del sistema homogneo asociado. Para terminar de resolver el sistema no homogneo usaremos el
mtodo de variacin de constantes. Para ello supongamos que la solucin es de la forma
y() = A C()
donde C() es una funcin a determinar. Derivando respecto de obtendremos que
y0 () = AA C() + A C0 () = A y() + A C0 ()
Sustituyendo en el sistema no homogneo tendremos
A y() + A C0 () = A y() + b()
o equivalentemente
A C0 () = b()
Dado que la matriz A es invertible (recordar la Proposicin 18) y teniendo en cuenta que
A A = 0 = I
10 = 41 + 22 + ;
20 = 31 + 32
0
3 3
2
2
0
Ya vimos que la exponencial de la matriz del sistema era
6
1
3 + 2 26 2
A
=
36 3 26 + 3
5
por lo que a partir de (2.14) obtenemos
Z 6
1 3
+ 2 26 2
1 ()
2 ()
3
2
+ 3
0
5 3
Z 5
1
3
+2
=
35 3
5
R
1 R (35 + 2)
=
(35 3)
5
1 35 5 + 2 + 1
=
5 35 5 3 + 2
43
(2.14)
36 3
5
6
1
3 + 2
=
36 3
25
1 35 5 + 2 + 1
5 35 5 3 + 2
1
1
10 3
26 2
+
3 15
26 + 3
2
25
26 2
26 + 3
10 3
3 15
1
A
+ y ()
y() =
2
tal y como el Teorema 2.19 afirmaba.
Si por ejemplo consideramos el problema de condiciones iniciales
0
1 = 41 + 22 + ;
0 = 31 + 32 ;
2
1 (0) = 0 2 (0) = 1;
se verificar que
1 (0)
2 (0)
0
1
1
=
25
1
2
1
+
25
3
3
de donde
1 = 3
y
2 = 22
de donde sustituyendo en la solucin general concluimos que
1
1 ()
136 + (10 13)
=
2 ()
25 136 + (12 15)
es la nica solucin de dicho problema de condiciones iniciales.
2.3.
(2.15)
(2.17)
Una vez calculada de este modo L[y]() obtendremos y tomando la Transformada inversa.
Por ejemplo consideremos el sistema
0
1
1
2 3
1
=
+
3 2
0
20
2
junto con las condiciones iniciales
1 (0)
2 (0)
2
1
De (2.17)
L[1 ]()
L[2 ]()
1
2
3
=
3 2
1
2
= 2
3
4 + 13
!
2
2 2
( 2 4+13)
2 +8+3
( 2 4+13)
2 + 1
1
3
2
2+1
2 2
L1 [ (224+13)
]()
1 ()
=
2 +8+3
2 ()
L1 [ (
2 4+13) ]()
1
282 cos(3) + 162 sin(3) 2
=
2.4.
00 + = ();
(0) = 0 0 (0) = 1;
si 0
() =
cos(2) si
Podemos escribir ahora
( 2 + 1)L[]() = 1 + L[]()
Por otra parte
() = (0 () ()) + () cos(2)
con lo que
L[]() = L[0 ()]() + L[ ()]() + L[ () cos(2)]()
Desarrollando cada sumando por separado, obtenemos
L[0 ()]() = 1 2
L[ ()]() = L[( ) ()]() + L[ ()]()
=
2
= 2
+4
Combinando estas expresiones tenemos
2 + 1
( + 1)L[ ]() + 1 =
+
2
2
+ +
2 2 + 4
Entonces
2 + 1
L[]() = 2 2
+
( + 1)
+
+
2 ( 2 + 1) ( 2 + 1) ( 2 + 4)( 2 + 1)
1
y as
1
1
1
1
() = L
() + L
() + L
()
2
2 ( 2 + 1)
( 2 + 1)
()
+L
( 2 + 4)( 2 + 1)
= + 1 ( ) () + 2 ( ) () + 3 ( ) ()
1
46
1
1
1
1
1
1
() L
() = L
() = sin
1 () = L
2 ( 2 + 1)
2
2 + 1
1
1 1
1
2 () = L
() = L
() L
() = 1 cos
( 2 + 1)
2 + 1
()
3 () = L
( 2 + 4)( 2 + 1)
1 1
1 1
1
1
=
L
()
L
()
=
cos
cos(2)
3
2 + 1
3
2 + 4
3
3
1
Entonces
1
1
cos( ) cos(2 2)]
3
3
= (1 ()) + ()[2 + sin + (3 1)3 cos cos(2)3]
2.5.
si 0
2 + sin (3 1)3 cos cos(2)3 si
0 =
0 =
0 = 4(1 )
47
(2.18)
(2.19)
f(y0 ) = 0,
= 0
= 0
vemos que (0 0) es el nico punto crtico del sistema (2.18), mientras que al resolver la ecuacin
4(1 ) = 0
comprobamos que 0 y 1 son los puntos crticos de la ecuacin (2.19). Como veremos posteriormente,
estos puntos sern de gran importancia en el anlisis de la estabilidad de un sistema. Veamos que se
entiende por estabilidad.
Definicin 1 Sea el sistema autnomo
y0 = f(y)
(2.20)
la solucin y() se dir asintticamente estable. La solucin y() se dir inestable si no es estable.
Por ejemplo, consideremos la ecuacin
0 =
cuyas soluciones son de la forma
() = 0 0
48
por lo que dicha ecuacin es iniestable en todas sus soluciones. Lo contrario ocurre con la ecuacin
0 =
que es asintticamente estable. Finalmente, dado que las soluciones del sistema
0
=
0 =
son circunferencias concentricas con centro (0 0), se tiene que las soluciones del sistemas son estable
aunque no asintticamente estables.
2.6.
Es fcil ver que 1 y 1 son los valores propios de la matriz asociada al sistema, por lo que en virtud
del Teorema 24 (c), ste es inestable.
Ejemplo 2 Sea ahora el sistema
0
= 2 +
0 = 2
0
= + 2
Podemos ver ahora que los valores propios de la matriz asociada son 1, 2 y 3, por lo que por el
Teorema 24 (b), el sistema es asintticamente estable.
49
0
= 4 + + 3
0 = 2
0
= 2
Puede comprobarse que 2 y 4 son los valores propios de la matriz del sistema. Cmo las dimensiones de los subespacios propios de los valores propios son 1 y coincide con la multiplicidad de
stos, por el Teorema 24 (a) y (b) el sistema ser estable, aunque no ser asintticamente estable.
La aplicacin del Teorema 24 tiene a priori un punto flaco puesto de manifiesto por el siguiente
ejemplo. Consideremos el sistema
0
= 2 + 2
0 = 3 9
0
= 4 + +
Este sistema coincide con el del apartado (d) del ejercicio anterior en todos los coeficientes de la matriz
asociada excepto el primero. El polinomio caracterstico es () = 3 102 1263, pero resolver
la ecuacin () = 0 no resulta sencillo, y quizs ni siquiera factible para los conocimientos de los
que se disponen. Ahora bien, para aplicar el Teorema 24 en la mayora de los casos slo necesitamos
conocer los signos de las partes reales de los valores propios de la matriz asociada. Para este objetivo
podemos usar el siguiente criterio de Routh-Hurwitz que, aunque no siempre es aplicable, supone
una gran ayuda para determinar al menos si el sistema es asintticamente estable.
Proposicin 25 Sea () = (1) ( + 1 1 + + 1 + ) el polinomio caracterstico de
la matriz A (R). Las races de () tienen parte real negativa si y slo son estrictamente
positivos los menores principales de la matriz
1 3 5 0
1 2 4 0
0 1 3 0
HA =
0 1 2 0
0 0 0
Ejemplo 4 Consideremos el sistema
0
= 3 + +
0 = 4 +
0
= 2 3
10 41
1 34
0 10
() = 41 34 102 3 y la matriz HA
0
0
41
cuyos menores principales son 10, 299 y 12259. Est claro entonces que todos los valores propios de
la matriz A tienen parte real negativa, por lo que el sistema ser asintticamente estable.
50
=1
p
p
( 11 )2 + 2 1 } { + C : ( )2 + 2 }
| | | |, = 1 2 .
0 = 0
=1
con lo que
=1
6=0
As
0 = ( 0 0 )0
X
X
0
|0 || |
|0 | = 0
| 0 0 | =
=1
=1
=1
6=0
6=0
6=0
p
p
p
( + 4)2 + 2 2} {( ) : ( + 2)2 + 2 1}{( ) : ( + 5)2 + 2 4}
51
por lo que todos los valores propios tienen parte real negativa y el sistema es por tanto asitticamente
estable.
Ejercicio 1 Determinar si es posible la estabilidad asinttica de los siguientes sistemas
0
0
0
5
14 + 14
= 3 +
= 12
= 12
5
0 = 1 12 (b)
0 = 5
0 = 5 13
12
(c)
(a)
12
0
0 212
0 12
1
2
5
= 2 2
= 2 2 4
= 3 3 6
2.6.1.
(2.21)
2.7.
(2.22)
L[ ]()
()
La estabilidad del sistema puede estudiarse a partir de los polos de la funcin de transferencia,
entendiendo por estabilidad de un sistema lo siguiente. El sistema ser asintticamente estable si
en ausencia de excitacin ( = 0) y para cualquier condicin inicial que consideremos se verifica
que |()| 0 si +. Ser estable si existen 0 y 0 0 tales que |()| si 0 .
Finalmente es sistema es inestable si lm+ |()| = +. Se tiene entonces el siguiente resultado.
Q
P
Teorema 27 Sea () = =1 ( ) , =1 = . Entonces el sistema (2.22) es
(a) Asintticamente estable si Re 0 para todo = 1 2 .
() = ( ) 1 ( ) 1
6=
53
(2.23)
(2.24)
X
X
=1 =1
X
X
L1 [1( ) ]()
=1 =1
1
( 1)!
Consideremos ahora que toda raz de (), con Re = 0 tiene multiplicidad uno ( = 1) y
las restantes races tienen parte real negativa. Entonces para cualquier condicin inicial la solucin
() verifica que si Re = 0, entonces existe C tal que
L1 [1( )]() = = (cos( Im ) + sin( Im ))
aparece en la solucin. Teniendo en cuenta que todas las races tienen parte real menor o igual que
cero y el primer apartado, existir 0 tal que si es suficientemente grande se verifica
X
| | +
|()|
Re =0
2.7.1.
+ 2
( )
( + )
) + Res( () 2
)
2
2
+
+ 2
= ()
()
2
2
Tomando la forma polar de () y (), y teniendo en cuenta que los coeficientes del sistema
son reales obtenemos que
() = | ()| arg ()
() = Res( ()
()
2
2
= | ()| arg ()
| ()| arg ()
2
2
(+arg ())
(+arg ())
= | ()|
2
= | ()| sin( + arg ())
() = ()
55
2.8.
2.8.1.
(2.26)
2 0
Jf(0 0) =
0 2
y el sistema linealizado ser
0 = 2
0 = 2
Es de esperar que localmente (cerca del punto crtico y0 ), el comportamiento asinttico de los sistemas (2.25) y (2.26) sea parecido. Este parecido se precisar con el Teorema de HartmanGrobman,
para cuya compresin necesitaremos algunas definiciones previas.
En primer lugar necesitamos una herramienta para comparar localmente sistemas autnomos.
Esta herramienta es la conjugacin topolgica [?, pag. 239]. Los sistemas (2.25) y (2.26) se dice
topolgicamente conjugados si existe una aplicacin continua, biyectiva con inversa continua h :
R verificando la condicin h(y( y0 )) = z( h(y0 )) para todo y0 [aqu z( h(y0 )) representa la
solucin maximal de (2.26) con condicin inicial h(y0 )]. Si existen abiertos de R y de manera
que son topolgicamente conjugados los sistemas restringidos a estos abiertos, entonces los sistemas
(2.25) y (2.26) se dirn localmente topolgicamente conjugados. Para entendernos, una conjugacin
topolgica lleva rbitas de un sistema en rbitas del otro sistema, preservando la orientacin temporal.
La segunda definicin que interviene en el enunciado del Teorema de HartmanGrobman es el de
punto crtico hiperblico. Con la notacin anterior y0 se dice hiperblico si los valores propios de la
56
Teorema 28 (HartmanGrobman) Sea y0 un punto aislado crtico hiperblico de (2.25). Entonces existen entornos de y0 y de 0 tales que los sistemas (2.25) y (2.26) son localmente
topolgicamente conjugados.
0 = 2 + 2 + 2
0 = 23 + 2
0 = 2
0 = 2
son localmente topolgicamente conjugados en un entorno del punto (0 0). As, si el diagrama de
fases del sistema linealizado es (ver ejemplo ??)
sin conocer exactamente las rbitas del sistema no linealizado sabemos que cerca de (0 0) se obtienen
deformando de forma continua las rbitas del sistema linealizado, como por ejemplo muestra la
57
Obsrvese como en el dibujo las rectas del sistema linealizado son deformadas y transformadas en
curvas. Adems, como la orientacin temporal se conserva, la estabilidad del punto crtico puede
estudiarse a partir del sistema no linealizado. As, el punto crtico (0 0) es inestable para el sistema
no linealizado dado que es inestable para el sistema linealizado.
Hemos de enfatizar el carcter local del Teorema de HartmanGrobman. Por ejemplo consideramos el sistema
0
=
(2.27)
0 = 1 2 2
con dos puntos crticos hiperblicos, (0 1) y (0 1). A partir del resultado anterior vemos que (0 1)
es asintticamente estable y (0 1) es inestable, pero obviamente el sistema (2.27) no puede ser
globalmente conjugado a los sistemas y0 = Jf(0 1) y o y0 = Jf(0 1) y, dado que stos slo tienen
un punto crtico.
2.8.2.
(2.28)
y sea y0 un punto crtico, hiperblico o no, del mismo. El mtodo directo de Lyapunov consiste en
encontrar una funcin escalar : R, con un entorno de y0 , satisfaciendo ciertas condiciones.
Esta funcin puede ser considerada como una medida de la energa potencial del sistema, de manera
que a lo largo de las rbitas sta decrece cuando , indicando estabilidad, o bien crece, indicando
inestabilidad. Precisemos a continuacin estas ideas.
58
(y()) =
0 () =
(y()) = grad (y()) f(y())
=1
=1
0 1
Jf(0 0) =
1 0
que como puede comprobarse tiene por valores propios , por lo que dicho punto crtico no es
hiperblico. Vamos a comprobar que la funcin ( ) = 2 + 2 es una funcin de Lyapunov
estricta para el mismo, por lo que (0 0) ser un punto crtico asintticamente estable. En primer
lugar, est claro que (0 0) = 0 y ( ) 0 para todo ( ) R2 \ {(0 0)}. Por otra parte, la
derivada total es
( ) = grad ( ) f( ) = (2 2) ( 3 ) = 24 0
para todo ( ) R2 \ {(0 0)}. En virtud del Teorema 29 el punto crtico es estable.
Tambin la inestabilidad de los puntos crticos puede ser discutida, segn muestra el siguiente
resultado.
Teorema 30 Sean y0 un punto crtico del sistema (2.28) y un abierto de R conteniendo a y0
en su frontera Fr(). Supongamos que existe una funcin : R, con un entorno de y0 ,
con Fr() , de clase 1 y tal que (y) 0 y (y) 0 para todo y , y (y) = 0 si
y Fr(). Entonces y0 es inestable.
59
0 = + 3
0 =
( ) = grad ( ) f( ) = (2 2) ( + 3 ) = 24 0
para todo ( ) . Adems (0 0) Fr() y ( ) = 0 para todo ( ) Fr(). Por el Teorema
30 el punto crtico (0 0) es inestable.
La principal desventaja de este mtodo, que de hecho hace que su utilizacin sea cuando menos
limitada, es la dificultad en encontrar la funcin .
2.9.
Ejercicios
3 1 1
1
2
1
5
(a) 1 5 1 (b)
(c)
2 2
2 1
1 1 3
(d)
3 1
1 1
(e)
2
1
1 1 1
0
1 1 1
0
(g)
(h)
1
1 1
2
0 1
9
(f) 1 0
8
1 1
8 0
0
0 2
3
(i)
8 2
3
(0) = (0) = 1
(0) = 1 (0) = 0
0
=
0
= 2
(d)
0 =+
1
1
0
1 1
0 1
1 0
0
= 3 + 8
0 = 3
(c)
(0) = 6 (0) = 2
0
=+
0
= +
(e)
0 =
0
= 2 + 3
(0) = 1 (0) = 1
0
= 2 +
2 1 1
0
0
= 3 + +
(c) y0 = 3 1 2 y+ 1 (d)
0 = 9 + 3 4
2 1 1
0
0
3 1
= 2 5 +
0
+
y =
sin
2 1
0 = + 2 + 2
(e)
(f)
(0) = 1 (0) = 0
(0) = 1 (0) = 0
0
= 5 +
0 = 3 + 3
(e)
0
= 4 + 4 2
0
= 2 2 + 2
0 = 2 2 + 2
(f)
0
= 0
5. Obtener los puntos crticos de los siguientes sistemas y determinar si son o no hiperblicos:
0
0
0
0
=
=
=
=
(a)
(b)
(c)
(d)
0
2
0
3
0
= +
= +
=
0 = 3
(e)
0 =
0 = +
(f)
0 =
0 = 1 2 2
(g)
0 = 2 + +
0 = 2 + 2 + 4 + 2
6. Obtener el sistema linealizado en los puntos crticos de los sistemas del ejercicio 5. Determinar
su diagrama de fases e indicar si es posible la naturaleza del punto crtico en un entorno del
mismo.
7. Consideremos la ecuacin de Van Der Pol
00 + 0 (1 2 ) = 0
donde es un parmetro real. Transformar dicha ecuacin en un sistema plano y determinar
los puntos crticos del mismo. Determinar la naturaleza de los puntos crticos en funcin del
parmetro .
8. Idem para la ecuacin
00 + 20 + (1 2 ) = 0
61
0 = + ( + 1)
0 = 2( 1) +
a) Discutir la estabilidad de los puntos de equilibrio del sistema en funcin del parmetro .
b) Esbozar el diagrama de fases del sistema para el valor = 1.
10. Sea el sistema
0 = + 2( + )2
0 = 3 + 2 3 ( + )2
Determinar los puntos crticos del mismo y su hiperbolicidad. Determinar la naturaleza del
punto crtico (0 0) a partir de la funcin ( ) = 12 (2 + 2 ).
11. Idem para el sistema
y la funcin ( ) = 14 4 + 12 2 .
12. Idem con el sistema
y la funcin ( ) = 12 (2 + 2 ).
13. Idem con el sistema
0 = 2
0 = 3
0 = 3
0 =
0 = + 2 + + 2
0 = 2 + + 2
0 = 1 ( )
0 = 2 ( )
( )
se dice Hamiltoniano si existe una funcin derivable ( ) tal que 1 ( ) =
62
Captulo 3
Ecuaciones en derivadas parciales
Sumario. Definiciones bsicas. Ecuaciones lineales de segundo orden: clasificacin.
Mtodo de separacin de variables. Series de Fourier. Resolucin de las ecuaciones
cannicas: calor, ondas y Laplace.
3.1.
= 0 (0 1)
(0 ) = () [0 1]
( 0) = ( 1) = 0 0
que, como veremos posteriormente modela la varicin temperatura de una varilla unidimensional
de longitud 1 a lo largo del tiempo. La ecuacin de segundo orden = 2 se conoce como ecuacin
del calor, que en este problema tiene asociados dos tipos de condiciones. La condicin (0 ) = ()
establece la temperatura inicial de la varilla para todo punto de sta [0 1], por lo que hablamos
de ella como una condicin inicial. Sin embargo, la condicin ( 0) = ( 1) = 0 nos indica que los
valores de la temperatura en los extremos de la varilla son fijos para cada instante de tiempo. Estas
condiciones se llaman de frontera o contorno.
3.2.
(3.1)
(3.2)
+ = ( )
(3.3)
+ = ( )
(3.5)
= ( )
(3.4)
donde es una constante que toma los valores 1, 0 y 1. Si la ecuacin original verifica que
2 0 esta se dir elptica y se reducir a una ecuacin del tipo (3.2). Si verifica que 2 0
se dir hiperblica y puede reducirse a una ecuacin de la forma (3.3). Finalmente, si 2 = 0 la
ecuacin puede reducirse a la forma (3.3) y se dir parablica o a la forma (3.5) que se conoce con
el nombre de degenerada.
Veamos por ejemplo cmo transformar la ecuacin
3 2 + 6 12 9 5 = 0
en una de las formas anteriores. En primer lugar, dmonos cuenta que
2 = 14 0
por lo que se trata de una ecuacin elptica. La transformacin se hace en tres etapas.
64
= cos + sin
= sin + cos
y cuya transformacin inversa es
= cos sin
= sin + cos
=
+
=
cos
sin
=
+
=
sin +
cos
De este modo
=
=
cos
sin
cos
sin
2
2
2
2
2
2
cos sin
cos
+
sin
2
=
2
2
=
sin +
cos
sin +
cos
=
2
2
2
2
2
2
cos sin
sin
+
cos
+
2
=
2
2
=
=
cos
sin
sin +
cos
2
2
2
cos
sin
cos
sin
+
2
(cos2 sin2 )
=
2
2
5
2 5
cos =
sin =
5
5
quedando la ecuacin original como
14
31
33 5
6 5
+
5 = 0
5
5
5
5
o equivalentemente
14 + 31 33 5 6 5 25 = 0
(3.6)
=
=
=
=
+
2 2 +
0 = 14 + 31 33 5 6 5 25 = 0
= 14( 2 2 + ) + 31
33 5( + ) 6 5 25
de donde
28 + 33 5 = 0
33 5
=
28
66
6854
14 + 31 6 5
= 0
56
(3.7)
95737
= 0
868
(3.8)
95737
868
y como
868
95737
868
=
95737
12152
26908
+
= 0
95737
95737
Finalemente, los cambios de variables independientes
q
= 12152
q 95737
= 26908
95737
95737
12152
95737
=
26908
+ = 0
67
3.3.
= 2 0 (0 )
(0 ) = () 0
( 0) = ( ) = 0 0
que es la ecuacin del calor en una varilla unidimensional de longitud con temperatura inicial ().
La incgnita ( ) mide la temperatura en cada instante de tiempo y en cada punto de la barra.
Una manera de resolver el problema anterior es intentar reducirlo a un problema de ecuaciones
diferenciales ordinarias. Para ello suponemos que la solucin puede expresarse de la forma
( ) = () ()
es decir, como el producto de dos funciones reales de variable real () e (). Derivando obtenemos
( ) = 0 () ()
( ) = () 00 ()
Sustituyendo en la ecuacin original tenemos
0 () () = 2 () 00 ()
y suponiendo que las fuciones no se anulan rescribimos la ecuacin como
0 ()
00 ()
=
()2
()
Un lado de la igualdad solo depende de , mientras que el contrario lo hace solo respecto de , por
lo que necesariamente ambos deben ser constantes, es decir
0 ()
00 ()
=
=
()2
()
de donde obtenemos las ecuaciones diferenciales
0 + 2 = 0
00 + = 0
Por otra parte, las condiciones de contorno se escriben como
() (0) = (0 ) = 0
() () = ( ) = 0
por lo que debe verificarse que (0) = () = 0. Si escribimos el problema para la funcin
tenemos lo que se conoce como un problema de contorno
00
+ = 0
(0) = () = 0
Como sabemos, las solucin general de la ecuacin 00 + = 0 es de una de las siguientes formas
68
El problema se presenta a lo hora de calcular las constantes anteriores. En el primer caso tendramos que
(0) = 1 = 0
e
() = 1 + 2 = 0
de donde 1 = 2 = 0 y la solucin sera nula. En el segundo caso, las condiciones de contorno se
escriben como
(0) = 1 + 2 = 0
e
() = 1
que da lugar al sistema lineal
+ 2
= 0
1 +
= 0
2
+ 2 = 0
1
1
1
6= 0
tenemos que la nica solucin posible es 1 = 2 = 0 y la solucin sera nuevamente nula. Finalmente,
en el tercer caso
(0) = 1 = 0
e
de donde
() = 1 cos( ) + 2 sin( ) = 0
2 sin( ) = 0
2 2
, N
2
Si definimos
2 2
2
tenemos que el problema de condiciones de contorno tiene soluciones no nulas de la forma
p
() = sin( ) = sin
69
(3.9)
2 2 2
= 0
2
2 2 2
2 2 2
2
( ) =
sin
=1
2 2 2
2
=1
(3.10)
lo que nos lleva a plantearnos si cualquier funcin () puede desarrollarse como en (3.10). La solucin
a esta cuestin ser el desarrollo en serie de Fourier.
3.4.
Series de Fourier
Consideremos una funcin real de variable real () que sea 2 peridica, es decir, para todo
se verifica la expresin
() = ( + 2)
Por ejemplo, las funciones seno y coseno son 2 peridicas. Definimos los coeficientes de Fourier
Z
1
= 0 1 2
() cos
=
1
=
La serie
() sin
= 1 2
0 X
cos
+
+ sin
=1
se conoce como serie de Fourier asociado a (). Por ejemplo, consideremos la funcin () tal que
0 [1 0)
() =
1 [0 1)
70
Z
1 1
() cos () =
cos ()
2 0
1
1
1 1
1
=
sin () =
(sin () sin (0)) = 0
2
2
0
1
=
2
Z
1 1
() sin () =
sin ()
2 0
1
1
1 1
1
=
cos () =
(cos () cos (0))
2
2
0
0
=
1
1
=
2
1 X
1
() = +
sin ((2 1))
4 =1 (2 1)
(3.11)
y
(0+ ) =
lm ()
0
cos
2
=1
3.4.1.
La series de Fourier tienen expresiones particulares cuando las funciones son pares o impares.
Recordemos que es par si se cumple que
() = ()
para todo R. Se dice que la funcin es impar si por el contrario la relacin que se cumple es
() = ()
Veamos cmo se obtiene la serie de Fourier para cada una de estas funciones.
Si es par, se verifica que
0
=
=
=
=
1
=
()
Z
Z
1
1
= {=}
() +
()
0
0
Z
2
()
=
0
Z
1
() cos
Z
Z
1 0
1
+
() cos
() cos
Z
Z
1
1
() cos
() cos
+
{=}
0
Z
2
() cos
0
72
Z
1
() sin
Z
Z
1 0
1
() sin
() sin
+
Z
Z
1
1
()
sin
()
sin
{=}
0
=1
Si es impar
0
=
=
=
=
1
=
()
Z
Z
1
1
= {=}
() +
()
0
0
= 0
Z
1
() cos
Z
Z
1 0
1
+
() cos
() cos
Z
Z
1
1
() cos
() cos
+
{=}
0
mientras que
=
=
=
=
Z
1
() sin
Z
Z
1 0
1
() sin
() sin
+
Z
Z
1
1
+
() sin
() sin
{=}
0
Z
2
() sin
0
X
=1
73
sin
3.4.2.
Supongamos una ecuacin diferencial lineal con coeficientes constantes con funcin de transferencia (). Supongamos que el sistema es asintticamente estable, de tal manera que si () =
sin( + ) es la entrada del sistema, se verifica que su salida para tiempos suficientemente grandes
viene dada por
() = | ()| sin( + + arg ())
Supongamos ahora que la seal es peridica de periodo 2. Dicha funcin puede expresarse en su
serie de Fourier
0 X
() =
+
+ sin
cos
2
=1
0 X
=
+
( cos () + sin ())
2
=1
= cos
= sin
podemos reescribir la expresin anterior como
() =
0 X
+
( cos () + sin ())
2
=1
0 X
=
( sin cos () + cos sin ())
+
2
=1
0 X
+
sin( + )
=
2
=1
X
0
() = (0) +
| ()| sin( + + arg ())
2
=1
Dado que para casos prcticos lm | ()| = 0, por lo que lm | ()| = 0, como consecuencia la series de Fourier de () converge a cero ms rpidamente que la serie de Fourier de la
seal inicial ().
3.4.3.
= 2 0 (0 )
(0 ) = () 0
( 0) = ( ) = 0 0
74
sin
=1
donde
(0 ) =
2 2 2
2
sin
=1
= ()
Ahora bien, si pensamos en () como una funcin impar 2 peridica tendremos que
2
=
() sin
Z
X
2
=1
2 2 2
sin
2
() sin
(3.12)
Hablamos de solucin formal ya que no podemos asegurar que la expresin dada en (3.12) sea
una solucin. Por una parte, aunque la linealidad garantiza que una combinacin lineal finita de
soluciones sea solucin, nuestra combinacin lineal es infinita, por lo que tendramos que comprobar
que efectivamente es solucin, es decir que es dos veces derivable y cumple la ecuacin del calor. En
general comprobar que las soluciones formales son soluciones es un problema bastante dficil, que en
2 2 2
10
100 sin
tenemos
h
i10
= 100
cos
10
10
10
0
= 10 (cos() cos 0)
0
=
20
086(21)2 2
(2 1)
100
4(2 1) sin
( ) =
10
=1
75
= 2 0 (0 )
(0 ) = () 0
( 0) = 1 (); ( ) = 2 () 0
donde 1 () y 2 () son las funciones que miden la temperatura de la varilla. Un cambio de variable
en la variable dependiente permite llevar condiciones de contorno no nulas a un problema que s las
tenga mediante la nueva funcin
( ) = ( ) 1 ()
(2 () 1 ())
( 0) = ( 0) 1 () = 1 () 1 () = 0
( ) = ( ) 1 () (2 () 1 ())
= 2 () 1 () (2 () 1 ()) = 0
0
(2 () 10 ()) 2
2 = 10 () (20 () 10 ()) 0 (0 )
(0 ) = () 1 (0) (2 (0) 1 (0)) 0
( 0) = ( ) = 0 0
= 2 0 (0 )
(0 ) = () 1 (2 1 ) 0
( 0) = ( ) = 0 0
3.5.
Ecuacin de ondas
= 2 0 (0 )
(0 ) = () 0
(0 ) = () 0
( 0) = ( ) = 0 0
que modela la vibracin mecnica de una cuerda, donde ( ) mide el desplazamiento respecto de
la horizontal en cada instante de tiempo y en cada posicin de la cuerda.
76
00 + = 0
(0) = () = 0
que como sabemos tiene una familia de soluciones no nulas para los valores =
por
() = sin
00 + 2 = 0
que tendr por solucin general
+ sin
() = cos
() ()
=1
h
X
cos
=1
De la condicin inicial
i
+ sin
sin
(0 ) = () =
sin
=1
h
i
X
sin
+
cos
sin
( ) =
=1
sin
(0 ) = () =
=1
y
Z
2
=
() sin
0
para todo 1.
77
, N, dadas
3.6.
Ecuacin de Laplace
Al contrario que las ecuaciones del calor y ondas, la ecuacin de Laplace es esttica y representa
una condicin de equilibrio en, por ejemplo, la temperatura de una seccin plana. La ecuacin del
calor en dos dimensiones espaciales tiene la forma
= 2 ( + )
y si suponemos un equilibrio de esta funcin invariante respecto al tiempo, obtendramos
(3.13)
+ = 0
que es la ecuacin de Laplace. Estas ecuaciones se plantean slo con condiciones de contorno sobre
la frontera del recinto, que para los calculos prcticos tiene que tener alguna regularidad. Estas
condiciones de contorno son en general de dos tipos. Si es el recinto donde se verifica la ecuacin
(3.13), podemos suponer conocido ( ) para todo ( ) en la frontera de en cuyo caso estaramos
hablando de una condicin tipo Dirichlet. Si por el contrario suponemos que el vector normal a
en la frontera
es conocido, se trata de una condicin de Neumann. En cualquiera de los casos, la
geometra del conjunto es muy importante y slo podemos calcular soluciones cuando sta cumple
adecuadas condiciones de regularidad.
Supongamos por ejemplo que es el rectngulo [0 ] [0 ] y tenemos el problema
+ = 0 ( ) (0 ) (0 )
( 0) = ( ) = 0 0
(0 ) = 0 0
( ) = () 0
2
para los valores =
, N. La primera ecuacin se reescribe entonces
00 = 0
78
+ 2
( ) =
sin
2
sin
= sinh
sinh
=1
sin
sinh
=1
sin
3.7.
Ejercicios
f ) 00 + = 0 (0) 0 (0) = 0 () 0 () = 0
b) 4 + + 4 + = 0
c) + + 3 4 + 25 = 0
d) 3 + 2 + = 0
e) 2 + + 3 = 0
4. Encontrar los desarrollos en serie de Fourier de las siguientes funciones peridicas (se da su
valor en el intervalo [ ] con 2 el periodo).
a) () =
b) () =
1 [1 0)
1
[0 1]
[2 0)
0 [0 2]
c) () = [1 1]
[1 0)
d) () =
[0 1]
1 [2 0)
0 [0 1)
e) () =
1 [1 2]
0 [2 1)
f ) () =
1 [1 2]
0 [ 0)
g) () =
[0 ]
[ 0)
h) () =
[0 ]
5. Los extremos de una barra de aluminio (2 = 086) de longitud 10 metros se mantienen a
temperatura de 0 . Encontrar la expresin de la temperatura de la barra para las siguientes
condiciones iniciales
a) (0 ) = 70, 0 10.
b) (0 ) = 70 cos , 0 10.
10
[0 5)
c) (0 ) =
10(10 ) [5 10]
0 [0 3)
d) (0 ) =
65 [3 10]
6. Los extremos de una barra de cobre (2 = 114) de longitud 2 metros se mantienen a temperatura de 0 . Encontrar la expresin de la temperatura de la barra para las siguientes
condiciones iniciales
80
b) (0 ) = 70 sin , 0 2.
60
[0 1)
c) (0 ) =
60(2 ) [1 2]
0 [0 1)
d) (0 ) =
75 [1 2]
7. Un estado de equilibrio para la ecuacin del calor = 2 es aquella que no vara con el
tiempo. Demostrar
a) Todos los equilibrios de la ecuacin del calor son de la forma () = +
b) Encontrar los estados de equilibrio de la ecuacin del calor que cumplen ( 0) = 1 y
( ) = 2 .
c) Resolver el problema
= 2 0 (0 1)
(0 ) = 75 0 1
( 0) = 20 ( ) = 60 0
50 [0 5)
(0 ) =
100 [5 10]
Ayuda: Descomponer el problema en dos problemas de contorno con uno de los estremos en
la mitad de la barra.
9. Resolver el problema
= + 0 (0 1)
(0 ) = cos 0 1
( 0) = 0 ( ) = 0 0
= 2 0 (0 2)
(0 ) = cos 1 0 2
a)
(0 ) = 0 0 2
( 0) = 0 ( 2) = 0 0
= 2 0 (0 1)
(0 ) = 0 0 1
b)
(0 ) = 1 0 1
( 0) = 0 ( 1) = 0 0
81
= 2 0 (0 3)
[0 1)
(0 ) = () 0 3
1
[1 2)
donde () =
c)
(0 ) = 0 0 3
2 [2 3]
( 0) = 0 ( 3) = 0 0
11. Una cuerda de 10 metros fijada en sus extremos se levanta por el medio hasta la distancia de
un metro y se suelta. Describe su movimiento suponiendo que 2 = 1.
12. Demuestra que el cambio de coordenadas
= +
=
= 2 0 (0 )
(0 ) = () 0
(0 ) = () 0
( 0) = 0 ( 3) = 0 0
es de la forma
1
1
( ) = ( ( ) + ( + )) +
2
2
= 2 + 0 (0 )
(0 ) = () 0
(0 ) = 0 0
( 0) = 0 ( 3) = 0 0
+ = 0 ( ) (0 ) (0 )
( 0) = 0 0
a)
( ) = () 0
(0 ) = ( ) = 0 0
+ = 0 ( ) (0 ) (0 )
( 0) = ( ) = 0 0
b)
(0 ) = () 0
( ) = 0 0
82
()
+ = 0 ( ) (0 ) (0 )
( 0) = () 0
( ) = 0 0
c)
(0 ) = () 0
( ) = 0 0
+ = 0 ( ) (0 ) (0 )
( 0) = ( ) = 0 0
a)
(0 ) = () 0
( ) = 0 0
+ = 0 ( ) (0 ) (0 )
(0 ) = ( ) = 0 0
b)
( 0) = () 0
( ) = 0 0
+ = 0 ( ) (0 ) (0 )
(0 ) = 1 0
( ) = 0 0
c)
( 0) = 1 0
( ) = 0 0
17. Resolver el problema
+ = ( ) (0 1)2
( 0) = ( 1) = 0 0 1
(0 ) = () 0 1
(1 ) = 0 0 1
83
84
Captulo 4
Transformada de Fourier
Sumario. Definicin y propiedades bsicas. Transformada de Fourier inversa.
Relacin con la transformada de Laplace. Aplicacin a las ecuaciones diferenciales y
en derivadas parciales.
4.1.
F[]() =
()
en todo donde la expresin anterior tenga sentido, es decir la integral impropia anterior sea convergente. Esta convergencia es ms difcil de verificar que en el caso de la transformada de Laplace.
Supongamos por ejemplo que y son reales, por o que = cos() sin(), que como sabemos tiene mdulo 1. Si () es tambin real, para garantizar la convergencia absoluta de la integral
anterior debe de satisfacerse que
lm |() | = lm |()| = 0
85
Transformada de Fourier
por lo que las funciones reales que tendrn transformada de Fourier tienen que tener una grfica
como la siguiente
F[]() =
() =
2
1
=
= sin()
=
()
Z
Z 0
(1)
+
=
(1+)
(1+)
0
(1)
+
=
1
1 + 0
1
2
1
+
= 2
=
1 1 +
+1
4.2.
Propiedades bsicas
Transformada de Fourier
4.2.1.
Linealidad
Z
Z
() +
()
=
= F[ ]() + F[]()
2
2
sin() + 2
+1
siendo 1 () = () () y 2 () = || .
La linealidad no puede aplicarse al calculo de 1 del siguiente modo
F[1 ]() = F[ ]() F[ ]()
ya que las funciones y no tienen transformada de Fourier.
4.2.2.
Transformada de la derivada
Z
= =
0
0
F[ ]() =
() =
= ()
= 0 ()
() = F[ ]()
= () +
ya que
lm | () | = 0
Transformada de Fourier
4.2.3.
Cambios de escala
Sea una funcin y un nmero real. Podemos calcular la transformada de Fourier de la funcin
() = (), que puede verse como un cambio de escala en , con la frmula
1
F[]() = F[ ()]() = F[]()
1
1
=
=
() = F[]()
=
=
2 2 + 1
2 + 2
4.2.4.
Derivada de la transformada
F[]() = F[()]()
() = ()
F[]() =
()
Z
Z
()() =
() = F[ ()]()
=
2 2
F[ ]()
F[ ]() = F[ ]()
88
Transformada de Fourier
que tiene por solucin
F[ ]() =
Por otra parte, como
2 2
2
2 = 2
y por tanto
F[](0) = =
por lo que
2 2
4.2.5.
F[]() =
2 2
2
2 2
2.
Convolucin
Dadas dos funciones y con transformadas de Fourier F[] y F[], no se verifica que F[ ] =
F[] F[]. Vamos a buscar qu funcin verificara que F[] = F[] F[], es decir, cmo puede
definirse a partir de las funciones iniciales y . Para ello calculamos
Z
Z
F[ ] F[] =
()
()
Z
Z
()()(+)
=
Z Z
+=
( )()
=
=
=
Z Z
=
( )()
( )()
Como veremos, esta frmula tiene aplicaciones en la resolucin de diferentes ecuaciones diferenciales.
1
Au hemos hecho un cambio en la integracin, es decir, una permuta de lmites de la que no hemos probado su
validez.
89
Transformada de Fourier
4.3.
Dada una funcin sabemos cmo obtener su transformada de Fourier de dicha funcin F[].
Ahora bien, como en el caso de la transformada de Laplace a veces es necesario recorrer el camino
inverso, es decir, dada una funcin (), es posible encontrar una funcin real tal que F[] = .
En trminos de funcin inversa sera la relacin = F 1 [ ], donde F 1 [ ] denota la transformada
inversa de Fourier.
Al tratarse de una transformda integral, no existir una nica funcin verificando ser la transformada inversa de (). Sin embargo, en general la frmula de inversin establece que para una
funcin suficientemente buena la relacin
Z
Z Z
1
1
() =
F[]() =
()
(4.1)
2
2
se verifica por lo que la transformada inversa de Fourier podra definirse como
Z
1
1
()
F [ ]() =
2
En particular, las condiciones de Dirichlet establecen que si se verifica que
R
| ()|
entonces la frmula (4.1) se verifica en todos los puntos de continuidad de . En los puntos de
discontinuidad la integral valdra el promedio de (+) y ().
As, por ejemplo, dada la funcin
2
() = 2
+ 2
se verifica que
F 1 [ ]() = || 0
Por tratarse de una frmula integral, dicha funcin hereda las propiedades de la integracin, en
particular la linealidad
F 1 [ + ]() = F 1 [ ]() + F 1 []()
4.4.
que tendr validez en un dominio de definicin dado por Re para algn real. Si 0, el
eje imaginario estar contenido en el dominio de definicin de la transformada de Laplace de . En
particular, la integral
Z
() R
90
Transformada de Fourier
tendr sentido al ser finita.
Si consideramos () = 0 definida como para todo 0, podemos calcular su transformada de
Fourier como
Z
Z
F[ ]() =
() =
()
integral que tendr sentido para todo R. Por lo tanto, se tendra la igualdad
L[]() = F[ ]() R
Consideremos por ejemplo la funcin () = , que como sabemos tiene transformada de Laplace
L[ ]() =
1
+1
para todo tal que Re 1. Si estendemos como nula en valores negativos, es decir, definimos
() = ()0 () siendo 0 () la funcin de Heaviside, tendremos para todo nmero real que
F[]() = L[]() =
4.4.1.
+ 1
Si tenemos un sistema asintticamente estable con funcin de transferencia (), sabemos que su
respuesta a una seal sinusuidal de la forma
sin( + )
viene dada por la expresin
() = | ()| sin( + + arg ())
pero () es la transformada de Fourier. Esta funcin () se conoce como funcin de transferencia
de frecuencias del sistema. En particular, para sistemas estables estos pueden verse como
F[]() = ()F[]()
que relaciona la transformada de Fourier de la salida F[]() con la de la entrada F[]().
4.5.
= R 0
(0 ) = () R
Como vemos no hay condiciones de frontera y por tanto slo existen condiciones iniciales. Para
resolver dicho problema tomamos la transformada de Fourier de la funcin ( ), para cada valor
fijo del tiempo , es decir
Z
F[( )]() =
( )
91
Transformada de Fourier
Entonces
F[ ( )]() = 2 F[( )]()
( ) = F[( )]()
=
F[( )]()
(0 )
() = F[]()
Calculamos entonces F 1 [
2
2
F[ 2 ]() = 2 2
2
2
2
F[ 2 ]() = F[ 2 ]() = 2F[ 2 ]( 2)
2
2
=
2 2( 2) 2 = 2
por lo que
Entonces
1
2
2
F 1 [ ]() = 2
2
Z
1
2
( ) 2
( ) =
2
92
Transformada de Fourier
4.6.
Ejercicios
cos || 2
a) () =
0
|| 2
||
b) () =
0 ||
|| ||
c) () =
0
||
2. Calcular la convolucin es los siguientes casos ( 0):
1 ||
a) () =
0 ||
b) () = ||
donde:
= R 0
(0 ) = () R
a) () =
1 ||
b) () =
0 ||
= + R 0
(0 ) = () R
7. Utilizar la transformada de Fourier para obtener la solucin formal del problema
+ = 0 R 0 1
( 0) = 0 R
( 1) = () R
93
Transformada de Fourier
94
Captulo 5
Fundamentos de Optimizacin:
Optimizacin no lineal
Sumario. Definciones bsicas de optimizacin. Conjuntos Convexos. Funciones convexas. Optimizacin de funciones convexas. Condiciones de Karush-Kuhn-Tucker.
Condiciones necesarias de primer orden: Ejemplos y Contraejemplos. Condiciones
necesarias de segundo orden. Condiciones suficientes. Interpretacin de los multiplicadores de KKT. Dualidad.
5.1.
Conceptos bsicos
sujeto a
2 ( + + ) =
0
En este ejemplo se distinguen tres elementos fundamentales: las variables del problema, una
funcin de esas variables y un conjunto de relaciones que deben cumplir las variables del problema.
Estos elementos se repetirn en todos los problemas de optimizacin y se definen formalmente a
continuacin:
1.- Variables de decisin: El primer elemento clave en la formulacin de problemas de optimizacin
es la seleccin de las variables independientes que sean adecuadas para caracterizar los posibles
diseos candidatos y las condiciones de funcionamiento del sistema. Como variables independientes se sueleng elegir aquellas que tienen un impacto significativo sobre la funcin objetivo.
Representaremos las variables independientes se representarn mediante vectores columna de
R
x = ...
o vectores fila
x = (1 )
Aunque para los casos = 1, 2 y 3 se emplearn las notaciones usuales de , ( ) y ( )
respectivamente.
2.- Restricciones: Una vez determinadas las variables independientes, el siguiente paso es establecer,
mediante ecuaciones o inecuaciones las relaciones existentes entre las variables de decisin. Estas
relaciones son debidas, entre otras razones, a limitaciones en el sistema, a leyes naturales o a
limitaciones tecnolgicas y son las llamadas restricciones del sistema. Podemos distinguir dos
tipos de restricciones:
1.
Transformacin
Nueva Restriccin
(1 ) =
b
=
b
(1 ) = 0
=
b
(1 ) 0
b
(1 )
(1 )
=
b
(1 ) 0
b
Nota 2 Las condiciones sobre las variables del tipo 0, 0 o similares no se incluyen dentro
de este conjunto de restricciones y tienen un tratamiento particular, son restricciones en las variables
o llamadas de tipo cota.
3.- Funcin objetivo: Finalmente, el ltimo ingrediente de un problema de optimizacin es la funcin
objetivo, tambin llamado ndice de rendimiento o criterio de eleccin. Este es el elemento utilizado para decidir los valores adecuados de las variables de decisin que resuelven el problema
de optimizacin. La funcin objetivo permite determinar los mejores valores para las variables
de decisin.
Independientemente del criterio seleccionado, dentro del contexto de la optimizacin matemtica el adjetivo mejor siempre indica los valores de las variables de decisin que producen el
mnimo o mximo valor (segn el criterio utilizado) de la funcin objetivo elegida.
Algunos de estos criterios pueden ser por ejemplo de tipo econmico (coste total, beneficio), de
tipo tecnolgico (energa mnima, mxima capacidad de carga, mxima tasa de produccin) o
de tipo temporal (tiempo de produccin mnimo) entre otros.
1. Es importante hacer notar que en esta gua se utilizar un nico criterio de optimizacin, no
estamos interesados en encontrar una solucin que, por ejemplo, minimice el coste, maximice
la produccin y al mismo tiempo minimice la energa utilizada. Esta simplificacin es muy
importante, puesto que aunque en muchas situaciones prcticas sera deseable alcanzar una
solucin que sea la mejor con respecto a un nmero de criterios diferentes: la solucin ideal sera
maximizar beneficios al mnimo coste. No obstante una forma de tratar objetivos que chocan
entre s, es seleccionar un criterio como primario y el resto de posibles criterios como secundarios.
El criterio primario se utiliza como la funcin objetivo del problema de optimizacin, mientras
que los criterios secundarios seran valores mnimos y mximos aceptables que seran tratados
como restricciones del problema. Los problemas que utilizan varios criterios de bsqueda entran
dentro de la llamada programacin multiobjetivo.
97
o de forma explcita
Minimizar ( )
sujeto a
1
2
q
(2 1 )2 + (2 1 )2
Minimizar
sujeto a
1 = (1 )
2 = (2 )
siendo
= (1 1 ) 1
= (2 2 ) 2
las coordenadas de los dos puntos. Este problema se puede extender de forma trivial a curvas en R .
98
1 1 + 2 2 + +
Sujeto a
1 1 + 2 2 + +
= 1
5.2.
Definiciones
En esta seccin se dan las definiciones elementales relacionadas con la teora de la optimizacin
matemtica con el objetivo de que el lector se familiarice con el lenguaje matemtico utilizado.
Definicin 2 (PPNL) Se define el problema fundamental de la optimizacin esttica o problema
de programacin no lineal ( PPNL) al expresado como
Optimizar
(1 )
(1 ) = 0 = 1
Sujeto a
(5.1)
(PPNL)
=
1
(1 ) R
99
Optimizar
(x)
h (x) = 0
Sujeto a
(PPNL)
g (x) 0
x = (1 ) R
donde ahora h : R , y g : R son funciones vectoriales.
Las funciones implicadas en la definicin del problema fundamental no tienen porque tener ninguna propiedad en particular, pero en nuestro caso vamos a introducir hiptesis adicionales que ayudarn a simplificar el problema; por ejemplo, supondremos de forma general que las funciones ,
y son continuas y en la mayora de los casos tendrn derivadas primeras y segundas tambin
continuas.
La resolucin del problema de optimizacin PPNL consistir en primer lugar, en buscar valores
para las variables de decisin que cumplan las ecuaciones e inecuaciones que forman el sistema de
las restricciones y en segundo lugar encontrar de entre estos valores aquel o aquellos que proporcionen
el mayor (si el objetivo es maximizar) o menor (si el objetivo es minimizar) valor para la funcin real
(1 ).
Definicin 3 Se distinguen algunos casos particulares del problema general de optimizacin 5.1.
1. Problemas sin restricciones: En este tipo de problemas no hay restricciones de ningn tipo, es
decir = = 0. La expresin general para estos problemas es
Optimizar (1 )
(5.2)
(PSR)
Sujeto a (1 )
Las nicas limitaciones vienen dadas por el conjunto de R donde est definida la funcin
(1 ).
Optimizar
(1 )
Sujeto a (1 ) = 0 = 1
(5.3)
(PRI)
(1 )
No hay restricciones dadas por inecuaciones, slo por ecuaciones.
100
()
Optimizar
(P1D)
(5.4)
Sujeto a R
donde es, en la mayora de las ocasiones, un intervalo.
(1 ) = 0 = 1
x solucin factible
(1 ) 0 = 1
Definicin 5 (Conjunto factible) Se define regin o conjunto factible del problema PPNL al
conjunto de todas sus soluciones factibles
= {x R : x es una solucin factible}
Nota 3 Con estas definiciones se puede decir que el objetivo al intentar resolver el problema de
optimizacin PPNL es encontrar la mejor de todas las soluciones factibles.
Definicin 6 (Mnimo global) Diremos que x = (1 ) R es un mnimo global del
problema PPNL o que (x) tiene un mnimo global sobre , el conjunto factible de PPNL, si
x ;
x 6= x
(x ) (x)
x 6= x
(x ) (x)
Esta definicin implica que no hay en un punto en el que la funcin tome un valor menor que
el que toma en x .
Definicin 7 (Mximo global) Diremos que x = (1 ) R es un mximo global
del problema PPNL o que () tiene un mximo global sobre , el conjunto factible de PPNL, si
x ;
x 6= x
(x ) (x)
x 6= x
(x ) (x)
Esta definicin implica que no hay en un punto en el que la funcin tome un valor mayor que
el que toma en x .
101
Resolver un problema de optimizacin es encontrar, si existen, sus soluciones ptimas, es decir los
extremos globales de la funcin objetivo sobre el conjunto factible. Desde el punto de vista prctico y
computacional en algunas ocasiones bastar con obtener los llamados extremos locales que se definen
a continuacin.
Definicin 10 (Mnimo local) Consideremos el problema de optimizacin PPNL y sea su conjunto factible. Diremos que x R es un mnimo local o relativo de (x) en si y slo
si
0 tal que x ; x 6= x ; kxx k = (x ) (x)
El punto x ser un mnimo local estricto de () en si la desigualdad es estricta
0 tal que x ;
x 6= x ;
kxx k = (x ) (x)
x 6= x ;
kxx k = (x ) (x)
Nota 5 Los mximos y mnimos locales de los problemas de optimizacin tambin se denominan
extremos locales o relativos.
A diferencia de los extremos globales que afectan a todo el conjunto factible , los extremos
locales afectan a cierto entorno a su alrededor.
La teora inicial asociada a la optimizacin est orientada a la obtencin de condiciones necesarias
y suficientes para que un punto sea ptimo. Como veremos en los temas correspondientes, esta teora
incluye el teorema de los multiplicadores de Lagrange y el teorema de Karush-Kuhn-Tucker. Por otra
parte, tambin es interesante conocer no slo si un punto es o no ptimo desde el punto de vista
terico, sino tambin cmo encontrar esos ptimos desde el punto de vista prctico. Teniendo esto
en cuenta, al considerar problemas de optimizacin se plantean dos cuestiones:
102
Optimizar (x)
Sujeto a
tiene al menos una solucin para ambos objetivos de minimizacin y maximizacin, es decir
n (x)
(xmn ) = m
x
xmn xmax :
(x ) = max (x)
m
ax
x
Optimizar 2
Sujeto a [0 1]
no tener ninguna solucin como en el problema
Optimizar
Sujeto a (0 1)
o tener ms de una solucin, como en el problema
Optimizar sen ()
Sujeto a
+ 2, Z) como de
en el que hay incluso infinitas soluciones ptimas, tanto de mnimo ( 3
2
mximo ( 2 + 2, Z).
103
5.3.
Conjuntos Convexos
= x R : a x =
+ = x R : a x
=
x R : a x
+ =
x R : a x
x R | : a x
Si tenemos en cuenta por una parte que los semiespacios de R son conjuntos convexos y por otra
utilizamos los resultados del lema 33 se deduce fcilmente que los conjuntos definidos de la forma
11
1
1
..
= (1 ) R :
1 1 + +
105
Ax b}
= 1
Minimizar
c x
Sujeto a Ax = b
=
x0
es un conjunto convexo.
01
de donde al ser x1 x2 0 se obtiene
0
10
x3 = x1 + (1 ) x2 0
ya que todos los sumandos son positivos. De esta forma x3 es factible porque cumple las
restricciones del problema.
Si ahora evaluamos la funcin objetivo en x3
x3 = c x3 = c x1 + (1 ) x2 = c x1 + (1 ) c x2 = + (1 ) =
y por tanto se deduce que x3 tambin es solucin del problema .
Definicin 16 (Punto extremo) Sea R un conjunto convexo no vaco. Se dice que el punto
x es un vrtice o punto extremo de
Si x =x1 + (1 )x2 para algn [0 1] y x1 x2 = x1 = x2 = x
Por ejemplo el conjunto convexo
= x = (1 2 ) R2
0 1 2 0 2 2
tiene 4 puntos extremos dados por 1 = (0 0), 2 = (0 2), 3 = (2 0) y 4 = (2 2) (ver figura 5.3).
El conjunto de los puntos extremos de un conjunto convexo puede ser vaco, por ejemplo una bola
abierta de R , contener una cantidad finita de elementos, como en la figura 5.3 o tener una cantidad
infinita de elementos, como una bola cerrada de R .
5.4.
Funciones convexas
0 con + = 1
0
101
109
lm
y por tanto
(x)(y x) (y) (x)
110
"
#
2
(x)
=1
1 2
d H (x)d + 2 ||d||2 (x d) 0
2
A continuacin se divide por 2 y se toman lmites cuando 0. El resultado que se obtiene
es que d H(x)d 0.
= Recprocamente si suponemos ahora que la matriz Hessiana H (x) es semidefinida positiva
en cada punto de y consideramos x e y en , entonces por el teorema del valor medio
obtenemos:
1
(y) = (x) + (x) (y x) + (y x) H (x )(y x)
2
5.5.
En esta seccin consideraremos el problema de minimizar y maximizar una funcin convexa sobre
un conjunto convexo.
Debido a la correspondencia entre funciones cncavas y convexas todos los resultados se presentan
de forma equivalente para ambos tipos de funciones, por ello en cada teorema y entre corchetes se
muestra el resultado alternativo.
Teorema 39 Sea : R R con un conjunto convexo. Si (x) es convexa [cncava] = El
conjunto donde (x) alcanza su mnimo [mximo] es convexo y cualquier mnimo [mximo] local
de (x) es mnimo [mximo] global.
Demostracin: Definimos el conjunto como
= {x | (x ) = mn ()}
Si = , es decir si (x) no tiene mnimos relativos, entonces el teorema se cumple por la convexidad
del conjunto vaco.
112
(x + (1 ) y ) (x ) + (1 ) (y ) = mn + (1 ) mn = mn
de donde
y por tanto
mn (x + (1 ) y ) mn
(x + (1 ) y ) = mn
para [0 1]. Utilizando ahora el hecho de que (y) (x ) y como [0 1] y por tanto tanto
como (1 ) son no negativos
(y + (1 )x ) (x ) + (1 )(x ) = (x )
Para un valor de suficientemente pequeo se contradice el hecho de que x sea un mnimo relativo,
como estamos asuminedo que x es mnimo local, entonces debe cumplirse que adems es global. .
Teorema 40 Sea : R R con un conjunto convexo con C 1 () una funcin convexa
[cncava]. Supongamos que existe un x que cumple la siguiente propiedad
(x ) (y x ) 0
y (x ) (y x ) 0
Entonces x es un punto de mnimo [mximo] global de en .
.
114
5.6.
En este captulo se estudian algunos aspectos relacionados con la que hemos dado en llamar
cuestin esttica de los problemas de optimizacin. Se presentan y utilizan condiciones necesarias y
suficientes para encontrar de forma explcita la solucin o soluciones de un problema de optimizacin
de tipo general.
Recordemos la formulacin general, que se introdujo en el captulo anterior, para un problema de
optimizacin no lineal
Optimizar (x)
Sujeto a
(x) = 0 = 1
(5.5)
(PPNL)
(x) 0 = 1
donde : R son funciones reales de varias variables reales definidas sobre los puntos
x = (1 ) del conjunto R . Por regla general el conjunto ser abierto y en las mayora
de las ocasiones C 1 (), es decir, las funciones del problema sern derivables sobre con
derivadas parciales continuas.
Recordemos que resolver el problema de optimizacin PPNL es encontrar los ptimos (mximos
y/o mnimos) de la funcin (x) no sobre todo el conjunto donde est definida, sino sobre el
conjunto factible de los puntos que cumplen todas las restricciones.
Como se coment en el primer captulo, si en el modelo general (5.5) ocurre = = 0, el
problema es de optimizacin sin restricciones y se expresa como
Optimizar (x)
(5.6)
(PSR)
x
Un caso particular de este tipo de problemas aparece cuando = 1, es decir, cuando slo hay una
variable de decisin, es un problema de optimizacin univariante
()
Optimizar
(P1D)
Sujeto a R
En otro caso (o bien o bien son distintos de 0) el problema se dice de optimizacin con
restricciones y a sus extremos, ya sean locales o globales, se les conoce como extremos condicionados,
para distinguirlos de los extremos de los problemas sin restricciones.
Finalmente si 6= 0 y = 0, es decir, solamente hay restricciones de igualdad, entonces el
problema es un problema de Lagrange
Optimizar (x)
(PRI)
(5.7)
Sujeto a
(x) = 0 = 1
1. Caso sin restricciones ( = = 0): En un problema sin restricciones todos los puntos son
regulares.
2. Caso con restricciones de desigualdad ( = 0, 6= 0): El punto x tambin es regular si
no hay ninguna restriccin activa en l, es decir, en problemas que slo contienen restricciones
de desigualdad, el punto x tambin ser regular si (x) = .
Definicin 23 (Espacio tangente) Consideremos el problema PPNL con su conjunto factible.
Sea x . Definimos el espacio tangente en x al conjunto definido por
o de forma equivalente
(
(x) =
dR :
(x) = 0
=1
= 1 ;
(x) = 0
=1
(x)
5.7.
Condiciones de Karush-Kuhn-Tucker
En esta seccin se presentan algunas de las condiciones necesarias y suficientes que deben cumplir
los candidatos a solucin ptima del problema de optimizacin PPNL. Estas condiciones son las
llamadas condiciones de Karush-Kuhn-Tucker (CKKT).
Para una mayor claridad, se dan a continuacin las definiciones correspondientes a los problemas
de minimizacin y maximizacin de forma separada.
Definicin 24 Dado el problema
Optimizar (1 )
Sujeto a
(1 ) = 0
(1 ) 0
= 1
= 1
(5.8)
(1 )
X
=1
(1 )
X
=1
(1 ) = 0
2. Condicin de factibilidad
(1 ) = 0
= 1
(1 ) 0
= 1
(1 ) = 0
= 1
3. Condicin de holgura
4. Condicin de signo: Una vez que se cumplen las condiciones anteriores el punto es de
Mnimo (CKKTMin) 0
= 1
Mximo (CKKTMax) 0
= 1
o de
En ambos casos los valores 1 , , , 1 , , son los llamados multiplicadores y existe uno
por cada restriccin del problema: el multiplicador est asociado a la restriccin de igualdad
(1 ) = 0 para = 1 y el multiplicador est relacionado con la restriccin de
desigualdad (1 ) 0 para = 1 .
Los valores ( 1 ) son los multiplicadores de Lagrange y los valores ( 1 ) son los
multiplicadores de Karush-Kuhn-Tucker.
117
X
X
1 1 1 = (1 ) +
(1 ) +
(1 )
=1
=1
o en forma vectorial
(x ) = (x) + h (x) + g (x)
(5.9)
siendo
h (x)
g (x)
=
=
=
=
(1 )
1
(1 (1 ) (1 ))
(1 (1 ) (1 ))
X
X
(1 ) +
(1 ) +
(1 ) = 0
=1
=1
= 1
(1 ) = 0
= 1
(1 ) = 0
= 1
= 0
(1 ) = 0
(1 ) = 0
( ) = 0
1
= 1
(1 ) = 0
=1
= 1
(1 ) = 0
= 1
Optimizar
++
sujeto a
( 1)2 + 2 1
2 + ( 1)2 + 2 3
( ) = ( + + ) + 1 ( 1)2 + 2 1 + 2 2 + ( 1)2 + 2 3
y se plantean cada una de las condiciones de KKT
1. Condicin Estacionaria (x = 0)
= 0 1 + 22 = 0
[1]
= 0 1 + 21 ( 1) + 22 ( 1) = 0
[2]
= 0 1 + 21 + 22 = 0
[3]
2. Condicin de factibilidad
3. Condicin de holgura
4. Condicin de signo
( 1)2 + 2 1 0
2
+ ( 1)2 + 2 3 0
1 1 () = 0 1 ( 1)2 + 2 1 = 0
2 2 () = 0 2 2 + ( 1)2 + 2 3 = 0
[4]
[5]
1 2 0 Para mnimo
1 2 0 Para mximo
El sistema que permite localizar los puntos de KKT estar formado por las tres ecuaciones que
proporciona la condicin estacionaria (ecuaciones [1], [2] y [3]) y las dos de la condicin de holgura
(ecuaciones [4] y [5]).
A partir de las ecuaciones de la condicin de holgura se obtienen cuatro casos
Caso I
2 = 0
1 = 0
=
+ ( 1)2 + 2 3 = 0 Caso II
2
2
( 1) + 1 = 0 =
2 = 0
Caso III
2 + ( 1)2 + 2 3 = 0 Caso IV
120
[6]
1 + 22 ( 1) = 0
[7]
1 + 22 = 0
[8]
2 + ( 1)2 + 2 3 = 0
[9]
( ) = 0 =
Con las relaciones que se han obtenido entre las variables , y , utilizamos la ecuacin [9]
2 + ( 1)2 + 2 3 = 0 32 3 = 0 = 1
y para las otras dos variables
= = 1
= +1
Como 6= 0, despejamos 2 de la ecuacin [6]
2 =
121
=2
=0
1
1
=
2
2
1
1 = (1 2 1)
= 0
2
1
= 0
2 = (1 0 1)
2
[10]
1 + 21 ( 1) + 22 ( 1) = 0
[11]
1 + 21 + 22 = 0
[12]
( 1)2 + 2 1 = 0
[13]
2 + ( 1)2 + 2 3 = 0
[14]
( 1)2 + 2 1 2 + ( 1)2 + 2 3 = 0 2 2 = 0 2 = 2 = 2
1
1
1
= =
2
2 2
2 2
(1 + 21 ( 1) + 22 ( 1)) (1 + 21 + 22 ) = 0
y entonces podemos agrupar y sacar factor comn
21 ( 1 ) + 22 ( 1 ) = 0 2 (1 + 2 ) ( 1 ) = 0
Esta ecuacin nos proporciona dos opciones. La primera de ellas es
1 + 2 = 0
pero utilizando la ecuacin [12]
1 + 21 + 22 = 0 1 + 2 (1 + 2 ) = 0 1 = 0
que obviamente es imposible. Y la otra opcin es
1 =01=
122
1
2
Si se consideran los distintos valores que se han encontrado para 2 (2 valores) y para (otros
2 valores) tendremos 4 casos posibles
1
2 =
2 2
1
1
= 1 =
2
2 2
1
2 =
2 2
3
1
= 1 =
2
2 2
2 =
2 2
3
1
= 1 =
2
2 2
2 =
2 2
1
1
= 1 =
2
2 2
1
1 1
1
=
=
2 1 +
2 2
2 2 2 2
3
1
1
1
=
=
2 1
2
2
2 2 2 2
3
1 1
1
=
=
2 1 +
2 2
2 2 2 2
1
1
1
1
=
=
2 1
2
2
2 2 2 2
Para determinar cuales de estos puntos son de tipo KKT, hay que comprobar su factiblidad
y el signo de sus multiplicadores. Se expone a continuacin una tabla resumen con los resultados
123
= (1 2 )
1
1 = (1 2 1)
= 0
2
1
2 = (0 1 1)
= 0
2
1 1
1
1
3 =
2 1 +
=
2 2
2 2 2 2
1
3
1
1
4 =
2 1
=
2
2
2 2 2 2
1 1
3
1
5 = 2 1 +
=
2 2
2 2 2 2
1
1
1
1
6 = 2 1
=
2
2
2 2 2 2
Factibilidad Positividad/Negatividad
CKKT
NO
NO
SI
Negatividad
Mximo
SI
NO
SI
NO
SI
Positividad
Mnimo
Los puntos 1 y 2 no son factibles ya que no cumplen la primera restriccin del problema
1 = (1 2 1) 1 (1 ) = ( 1)2 + 2 = (2 1)2 + (1)2 = 2 1
2 = (0 1 1) 1 (2 ) = ( 1)2 + 2 = (0 1)2 + (1)2 = 2 1
y por tanto no son puntos vlidos para el problema.
Los puntos 4 y 5 s son factibles, sin embargo no tiene multiplicadores de signo constante y por
tanto tampoco son puntos de KKT.
Los puntos 3 y 6 son los nicos que cumplen con todas las condiciones para ser puntos de KKT;
en el caso de 3 sera un punto de mximo ya que 0, mientras que 6 sera un punto de mnimo
puesto que 0.
Ejemplo 11 Encuentra los puntos de Karush-Kuhn-Tucker del siguiente problema
Optimizar 2 + 2
Sujeto a
2 + 2 = 0
Solucin: En este caso = 1 y = 0, es decir hay solamente una restriccin de igualdad y el
problema es de Lagrange. La funcin Lagrangiana del problema es
( ) = 2 + 2 + (2 + 2)
124
(Condicin estacionaria)
x = 0
(Condicin de factibilidad)
= 0 2 + 21 = 0
= 0 2 + 1 = 0
( ) = 0 2 + 2 = 0
El sistema es lineal y tiene como solucin nica, y por tanto nico punto de KKT
=
4
5
2
5
1 =
4
5
Como el multiplicador est asociado a una restriccin de igualdad y su signo no influye en el carcter
del punto, el punto es un punto de KKT que puede ser de mximo o de mnimo.
5.8.
Condiciones necesarias
Teorema 45 (Condiciones necesarias de primer orden) Dado el problema general de la optimizacin no lineal ( PPNL)
Optimizar
Sujeto a
(x)
(x) = 0 = 1
(x) 0 = 1
(5.10)
Ejemplos
Emplearemos el teorema de las condiciones necesarias de primer orden para resolver en esta
seccin algunos problemas de optimizacin con restricciones.
( ) = + +
( 1)2 + 2 1
2 + ( 1)2 + 2 3
Solucin: Un anlisis inicial permitir deducir que el problema tiene solucin para ambos objetivos de minimizar y maximizar. La funcin objetivo es continua y el conjunto factible es compacto
( es cerrado porque contiene a la frontera que est expresada
mediante igualdades y acotado porque
es un subconjunto de una esfera de centro (0 1 0) y radio 3), por tanto por el teorema Weierstrass
existirn tanto el mnimo como el mximo de la funcin sobre el conjunto. Podemos ver a continuacin la representacin grfica de las dos restricciones, y en la figura siguiente el conjunto factible,
126
Figura 5.4:
que es la intereseccin de ambas.
Recordemos que para este problema, los nicos puntos que cumplan las condiciones de CKKT
eran
1
1 1
1
3 =
=
2 1 +
2 2
2 2 2 2
127
1
1
6 = 2 1
2
2
1
1
2 2 2 2
para mnimo.
Deduzcamos que el problema tiene un mnimo global en 6 , el razonamiento es el siguiente: Como
la funcin ( ) tiene mnimo global, entonces tambin es local, si adems se cumple alguna de
las hiptesis de cualificacin de las restricciones en ese punto, entonces este mnimo local debe ser un
punto de Karush-Kuhn-Tucker de mnimo y por tanto debe ser el punto 6 . El razonamiento para
mximo y el punto 3 sera anlogo.
Slo resta por probar que se cumple alguna de las hiptesis de cualificacin; en particular, es
fcil comprobar que se cumple la hiptesis de cualificacin de Slater ya que el conjunto factible es
convexo con interior no vaco.
Para comprobar la convexidad de tenemos en cuenta que
= ( ) R : ( 1)2 + 2 1; 2 + ( 1)2 + 2 3 = 1 2
con
1 =
2 =
( ) R : ( 1)2 + 2 1
( ) R : 2 + ( 1)2 + 2 3
1
1
+
=1+2 2
2 + 1+
Valor ptimo Mximo (3 ) =
2
2
y
1
1
Valor ptimo Mnimo (6 ) = 2 + 1
+
=12 2
2
2
(Condicin estacionaria)
(Condicin de factibilidad)
x = 0
=0 ++=0
=0 ++=0
= 0 + + = 0
( ) = 0 + + 3 = 0
= 2
El punto obtenido = (1 1 1) junto con el multiplicador asociado = 2 es el nico que cumple las
condiciones de KKT. Notar que aunque 1 = 2 0 y el objetivo sea de minimizar, el punto cumple
las condiciones de KKT puesto que es un multiplicador asociado a una restriccin de igualdad y
no est condicionado por su signo. No es posible determinar la naturaleza del punto, puesto que se
cumplen las condiciones de KKT tanto para mnimo, como para mximo.
Ejemplo 14 Plantea y resuelve el problema de construir una caja de cartn rectangular de volumen
mximo y rea fija .
Solucin: El planteamiento para este problema viene dado por
Maximizar
Sujeto a
+ + =
donde son las dimensiones de la caja y 0 su rea. Se han omitido las restricciones de
positividad sobre las variables ya que por la naturaleza del problema, los valores de estas variables
deben 0, es decir, sern inactivas en cualquier punto, en particular en el punto solucin y por tanto
los multiplicadores asociados a estas restricciones sera 0.
129
+
( ) = +
+
y estudiamos su dependencia lineal en cada punto del conjunto factible. Como slo hay un vector,
ste ser linealmente dependiente cuando sea el vector nulo, es decir
+ =0
+ =0
+ =0
sistema que tiene por nica solucin el vector nulo
===0
sin embargo este punto es infactible
2
de donde se deduce que todos los puntos de (conjunto factible) son regulares. Al cumplirse una de
las hiptesis de cualificacin de las restricciones, cualquier extremo local del problema que existiera
debera cumplir las condiciones de Karush-Kuhn-Tucker. La funcin Lagrangiana para este problema
es
( ) = + + +
2
0 + 0 + 0 = 0 6=
(Condicin estacionaria)
(Condicin de factibilidad)
x = 0
= 0 + ( + ) = 0
= 0 + ( + ) = 0
= 0 + ( + ) = 0
( ) = 0 + +
=0
2
===
=
6
24
y al ser un problema que slo tiene restricciones de igualdad, de momento con estos datos no es
posible determinar si el punto es de mnimo o de mximo.
130
= ( ) R2 : ( 0)
Maximizar 2
Sujeto a
R
y podemos obtener fcilmente que = 0 es su solucin ptimaen, y por equivalencia entre los dos
problemas, ser tambin la solucin ptima del problema inicial.
Vamos a comprobar si = (0 0) es un punto de Karush-Kuhn-Tucker. Si esto fuera cierto,
debera existir un multiplicador asociado a la restriccin 3 = 0 de forma que se cumplan las
ecuaciones del sistema
( ) = 0 2 = 0
(Condicin estacionaria)
x = 0
( ) = 0 1 + 3 2 = 0
(Condicin de factibilidad) ( ) = 0 3 = 0
Sin embargo, este sistema no tiene solucin, ya que de la ltima ecuacin necesariamente = 0 y al
sustituir en la segunda obtenemos una contradiccin.
El punto = (0 0) es un mximo local (de hecho es global puesto que la funcin objetivo siempre
es 0 y slo se anula en = 0) para el problema de optimizacin planteado, sin embargo no cumple
las condiciones de Karush-Kuhn-Tucker. Contradice este ejemplo el teorema de las condiciones de
primer orden? La respuesta es no, ya que no cumple ninguna de las hiptesis de cualificacin de
las restricciones necesarias en dicho teorema.
1. Hiptesis sin restricciones: Est claro que esta hiptesis no se cumple por la presencia de la
restriccin: 3 = 0.
2. Hiptesis de Karlin: Esta condicin tampoco se cumple, puesto que la nica restriccin del
problema, ( ) = 3 es claramente no lineal.
131
= ( ) R2 : ( 0)
que es el eje , que en R2 es un conjunto convexo, pero su interior es vaco, puesto que
cualquier bola de centro un punto de tiene puntos fuera de y tampoco se cumple esta
hiptesis.
4. Hiptesis de Fiacco-McKormik: En este caso tenemos que comprobar si el punto es o no regular
para las restricciones del problema, es decir, habr que comprobar si el conjunto de vectores formado por los gradientes de las restricciones activas en est formado por vectores linealmente
independientes. Como solamente tenemos una restriccin activa en (por ser de igualdad), la
familia de vectores estar formada por un nico vector
{ ( )} =
y al evaluar en = (0 0) obtenemos
0 3 2
{ ( )} = {(0 0)}
que por ser el vector nulo, es linealmente dependiente; y como consecuencia el punto = (0 0)
es no regular para las restricciones.
Si en el planteamiento del problema cambiamos la restriccin 3 = 0 por la restriccin equivalente
=0
la solucin del problema es la misma, pero en este caso s se cumple la hiptesis de Karlin, ya
que todas las restricciones son lineales. Ahora tendramos que ser capaces de encontrar el valor del
multiplicador y comprobar que el punto = (0 0) cumple las condiciones de KKT. El sistema con
este cambio es
2 = 0
1+ = 0
= 0
que tiene por solucin
= (0 0)
= 1
y hemos encontrado el punto buscado y tambin su multiplicador correspondiente.
132
= ( ) R3 : (0 0 )
y la solucin ptima del problema es cualquier punto de , puesto que ( ) es constante sobre
l.
La condicin estacionaria para este problema nos proporciona las siguientes ecuaciones
= 0 21 ( 1) + 22 ( + 1) = 0
= 0 1 + 21 + 22 = 0
(Condicin estacionaria) x = 0
= 0 0 = 0
2 ( + 1)
2 ( 1)
2
2
{1 ( ) 2 ( )} =
0
0
y al evaluarlo en los puntos ptimos (0 0 ) obtenemos
2
2
0 0
0
0
que es una familia de vectores linealmente dependientes y por tanto ningn punto de la forma (0 0 )
es regular.
Tambin podra suceder que un punto donde las restricciones no cumplan ninguna de las hiptesis
de cualificacin, sea extremo local del problema y cumpla las condiciones de Karush-Kuhn-Tucker.
133
= 0 1 + 21 ( 1) + 22 ( + 1) = 0
= 0 21 + 22 = 0
(Condicin estacionaria) x = 0
= 0 0 = 0
y teniendo en cuenta que el conjunto factible est formado por los puntos (0 0 ), el sistema queda
como
1 21 + 22 = 0
0 = 0
0 = 0
que tiene por solucin
1
2
Tomando ahora cualquier solucin de esta ecuacin, por ejemplo = (1 2 ) = (1 12), vemos que
todos los puntos extremos cumplen las condiciones de Karush-Kuhn-Tucker, sin embargo, como se ha
comprobado, en ninguno de ellos las restricciones cumplen ninguna de las hiptesis de cualificacin.
Todos estos ejemplos son atpicos y en general suceder que los extremos locales del problema
tendrn que cumplir las condiciones de Karush-Kuhn-Tucker, pero ilustran la necesidad de comprobar
adecuadamente los resultados obtenidos.
Por ltimo hay que indicar que estas condiciones son necesarias, en el sentido de que bajo las
hiptesis del teorema, los extremos de un problema de optimizacin deben ser puntos de KarushKuhn-Tucker. Sin embargo, las condiciones no son suficientes, ya que podemos encontrar puntos que
an cumpliendo las condiciones de Karush-Kuhn-Tucker, no son extremos, por ejemplo la funcin
() = 3 tiene como nico punto estacionario = 0, que no es extremo puesto que la funcin es
siempre creciente.
1 2 =
Definicin 29 Los puntos factibles que cumplen la condicin estacionaria pero que no son extremos
de la funcin se denominan puntos de silla (que son condicionados si hay presencia de restricciones
en el problema). Para funciones reales de una variable a estos puntos se les conoce mejor por puntos
de inflexin.
Condiciones necesarias de segundo orden
Si las funciones del problema son suficientemente derivables, entonces, podemos utilizar informacin relativa a las segundas derivadas.
134
(x ) +
X
=1
(x ) +
X
=1
(x ) = 0
2. Condicin de factibilidad
(x ) = 0
(x ) 0
= 1
= 1
(x ) = 0
= 1
3. Condicin de holgura
4. Condicin de signo
0 para mnimo
0 para mximo
= 1
(x ) = (x ) +
X
=1
(x ) +
(x )
(5.11)
=1
Optimizar ( ) = + +
sujeto a
( 1)2 + 2 1
2 + ( 1)2 + 2 3
Solucin: Vamos a comprobar que las soluciones que se encontraron para este problema, cumplen
las condiciones de segundo orden.
1
1 1
1
(Mximo) 3 =
=
2 1 +
2 2
2 2 2 2
1
1
1
1
(Mnimo) 6 = 2 1
=
2
2
2 2 2 2
Para aplicar las condiciones de segundo orden tendremos que construir la matriz ( ) en cada
punto y evaluarlar sobre el espacio tangente correspondiente ( ).
Comenzamos por definir la matriz
0
0
22
0
(x) = (x) + 1 1 (x) + 2 2 (x) = 0 2 (1 + 2 )
0
0
2 (1 + 2 )
Para el punto 3 tendremos
0
0
12
(3 ) = 0
0
2
0
0
2
que es una matriz semidefinida negativa sobre todo R3 puesto que es diagonal negativa. Como el espacio tangente (3 ) es un subespacio vectorial de R3 , la matriz (3 ) tambin ser semidefinida
negativa sobre l y por tanto 3 cumple las condiciones necesarias de segundo orden para mximo,
como era de esperar.
Para el punto 6 tendremos
0
0
2
(6 ) = 0
2 0
0
0
2
136
2
y que habamos encontrado como nico punto de KKT el siguiente
r r r !
r
1
=
=
6
6
6
2 6
Sujeto a
0
= + = 0
+ + =
0 1 1
0
+ +
+ 1 0 1 = +
0
+
0
1 1 0
+ +
0
1
+ = + = + = =
2
y la matriz hessiana en es
( ) =
1
2
0 1 1
1 0 1
6
1 1 0
(1 1 1)
( ) = ( + + + ) ( ) = 2
6
y entonces
( ) =
d R3 : ( ) d = 0
( ) R3 :
=
1 2 3
(1 1 1) 2
= 0 = (1 2 3 ) R3 :
6
3
( ) = (1 2 3 ) R3 :
137
(1 2 (1 + 2 ))
1 + 2 + 3 = 0
0
1
1
=
2
( ) (d)( ) = (1 2 (1 + 2 )) 1 0 1
(1 + 2 )
1 1 0
2
= (1 2 (1 + 2 ))
(1 + 2 )
= 21 22 (1 + 2 )2
= 21 + 22 + (1 + 2 )2
que claramente toma siempre valores negativos, lo que implica que ( ) es semidefinida negativa
sobre ( ) y el punto cumple las condiciones necesarias de segundo orden para ser un mximo
del problema.
Con las condiciones necesarias obtenemos condiciones que permiten eliminar aquellos puntos que
no son candidatos a extremo de la funcin, sin embargo, necesitamos unas condiciones que permitan
asegurar que los puntos encontrados son realmente las soluciones buscadas.
5.9.
Condiciones suficientes
( ) R2
2 4 2
0
( ) = 0
=
3
12 8
0
Este sistema tiene como nica solucin el punto = (0 0), es decir, cumple las condiciones
necesarias de primer orden.
138
2
8
( ) =
8
36 2 8
y lo evaluamos en = (0 0)
(0 0) =
2
0
0
0
( ) = 3 2 = 3 2 2 3 2 4 2 = 2 4 0
( ) 0 = (0 0)
y no podra ser el mnimo, puesto que hay valores cerca de l (tomando 0) donde el valor de
la funcin es menor.
Este tipo de problema provoca el estudio de condiciones cuyo cumplimiento garantice el hallazgo
de la solucin. Este tipo de condiciones son las llamadas suficientes.
Con el fin de dar estas condiciones de suficiencia es necesario exigir que la matriz Hessiana correspondiente sea por una parte definida (positiva o negativa para mnimo o mximo, respectivamente)
y por otra que lo sea en un espacio mayor que el espacio tangente.
Definicin 30 Dado el problema general con restricciones
Optimizar
Sujeto a
(x)
(x) = 0 = 1
(x) 0 = 1
e (x ) = {1 }| (x ) = 0 y 6= 0
Notar que si en el problema no hay restricciones o son todas de igualdad entonces e (x ) = .
o
e (x )
Notar que en el caso de un problema sin restricciones el espacio tangente y el espacio tangente
ampliado coinciden:
f ) = (x ) = R
(x
f ) = (x )
(x
(x)
(x) = 0 = 1
(x) 0 = 1
(x ) +
X
=1
(x ) +
X
=1
(x ) = 0
2. Condicin de factibilidad
(x ) = 0
(x ) 0
= 1
= 1
(x ) = 0
= 1
3. Condicin de holgura
4. Condicin de signo
0 para Mnimo
0 para Mximo
140
= 1
(x ) = (x ) +
(x ) +
=1
(x )
=1
f ) =
es definida positiva [definida negativa respectivamente] sobre el espacio tangente ampliado (x
1 = 2
0 1
H ( ) = 1 0
1 1
que no es ni definida positiva, ni definida negativa si consideramos todos los vectores de R3 , sin
f (x ), que por ser
embargo si restringimos la matriz a los puntos del espacio tangente ampliado
un problema de Lagrange que continene solamente restricciones de igualdad, coincide con el espacio
tangente (x )
o
n
(x ) = d R3 (x ) d =0 = d R3 (1 1 1)|(111) d =0 =
=
d R (1 1 1) 2 =0 = d R3 1 + 2 + 3 =0
3
141
0 1 1
1
0 1 1
1
=
2
| ( ) (d) = (1 2 3 ) 1 0 1 2 = (1 2 1 2 ) 1 0 1
1 1 0
1 1 0
3
1 2
= (1 2 1 2 ) 2 = 21 22 (1 + 2 )2 = 21 + 22 + (1 + 2 )2 0
1 + 2
1 = 2 = (1 + 2 ) = 0
y por tanto
d = (0 0 0)
Por tanto la forma cuadrtica | ( ) (d) asociada a la matriz H ( ) es definida negativa sobre el
espacio tangente (x ) y por la proposicin anterior el punto x ser un mximo local estricto.
En el caso de los problemas convexos las condiciones necesarias de primer orden son tambin
suficientes.
Teorema 49 (Problemas Convexos) Dado el problema
Optimizar (x)
Sujeto a
(x) = 0
(x) 0
= 1
= 1
= 1
= 1
= 1
Sujeto a + + = 1
2 + 2 9
Solucin: Planteamos las condiciones de KKT para ( ) = + ( + + 1) +
(2 + 2 9)
1. Condicin Estacionaria (x = 0)
= 0 + 2 = 0
(1)
= 01+=0
(2)
= 0 + 2 = 0
(3)
++ = 1
(4)
2 + 2 9
(5)
2. Condicin de factibilidad
3. Condicin de holgura
() = 0 2 + 2 9 = 0
0 Para mnimo
0 Para mximo
De la ecuacin [2] obtenemos directamente
= 1
143
(6)
(7)
1 + 2 = 0
(8)
++ = 1
(9)
2 + 2 9 = 0
(10)
3
=13 2
= 1 = 1 2 = 1 2
2
y el valor de se obtiene de [7]
1 + 2 = 0 =
Se han obtenido 2 puntos
=
3
3
1 3 2
2
2
1
1
1
=
=
2 2 3
3 2
2
3
3
= 1 + 3 2
2
2
144
= 1
= 1
1
=
3 2
1
=
3 2
= 1 1
5.10.
(5.12)
b c = x bc
b c (b c )
siendo x bc el ptimo del programa para cuando se utilizan en el problema 5.12, los trminos
independientes bc (b c ) .
El siguiente teorema da una relacin entre las variaciones del trmino independiente y las variaciones que experimenta el valor ptimo de la funcin objetivo.
Teorema 53 Dado el programa de optimizacin con
restricciones dado en la ecuacin 5.12. Si para
ciertos valores de los parmetros b y c, (b c ) = 1 1 el punto x es un punto de
Karush-Kuhn-Tucker y junto con los multiplicadores asociados, 1 , , y 1 , , ; cumple las
condiciones de suficiencia para que la funcin (x) posea en ese punto un extremo relativo sobre el
conjunto (b c ) y si no hay restricciones de desigualdad activas degeneradas, entonces
xb c
(b c )
=
=
= 1
xb c
(b c )
=
=
= 1
(b c ) =
X
=1
X
=1
X
=1
=1
La ecuacin anterior nos proporciona un valor aproximado del incremento que se producir en el
valor del objetivo ptimo al variar el trmino independiente de las restricciones de (b c ) a b c .
5.11.
Dualidad
Minimizar
(x)
Sujeto a
(x) = 0 = 1
( )
(x) = 1
Maximizar ( )
( )
Sujeto a
0
donde la funcin ( ) est definida por
2 2
+
2
2
+ 4
4
( ) =
2 2
+
+ 1 ( + 4) + 2 ( + 4)
2
2
= 1 2 = 0 = 1 + 2
= 1 + 2 = 0 = 1 2
y la funcin (1 2 ) es
(1 2 ) =
(1 + 2 )2 (1 2 )2
+
+ 1 ( (1 + 2 ) (1 2 ) + 4) + 2 ( (1 + 2 ) + (1 2 ) 4)
2
2
= 21 22 + 41 42
El problema dual ser entonces
Maximizar
Sujeto a
(1 2 ) = 21 22 + 41 42
1 2 0
147
(x)
(x) = 0 = 1
(x) = 1
con (), () convexas y () afn. Entonces el problema primal P tiene solucin si y slo s
su problema dual P* tiene solucin. Adems en este caso si x es la solucin ptima del primal y
( ) la solucin ptima del dual se tiene
(x ) = ( )
Lema 55 (Lema de Dualidad Dbil) Dado el problema de optimizacin P
Minimizar
Sujeto a
(x)
(x) = 0 = 1
(x) = 1
entonces ( ) y x son las soluciones ptimas del problema dual y primal respectivamente.
Adems
max { ( )| 0} = mn { (x)| x }
Ejemplo 23 Resuelve por dualidad el problema
Minimizar
Sujeto a
2 2
+
2
2
+ 4
4
( ) =
Solucin: Es sencillo comprobar que la funcin objetivo y las restricciones de desigualdad son
convexas, como en este caso no hay restricciones de igualdad podemos aplicar el teorema de dualidad
para indicar que este problema tendr solucin si y slo si la tiene su problema dual, que como vimos
en el ejercicio anterior viene dado por
Maximizar
Sujeto a
(1 2 ) = 21 22 + 41 42
1 2 0
Para resolver este problema aplicaremos la teora de KKT, ya que las restricciones son lineales (y por
tanto convexas) mientras que la funcin objetivo es cncava (por qu?), en este caso un punto que
cumpla las condiciones de KKT de mximo ser la solucin. Si llamamos 1 y 2 a los multiplicadores
de KKT para este problema, el Lagrangiano vendr dado por
(1 2 1 2 ) = 21 22 + 41 42 1 1 2 2
y las condiciones de KKT seran
148
= 21 + 4 1 = 0
1
= 22 4 2 = 0
2
2. Condicin de holgura:
1 1 = 0
2 2 = 0
El resto de condiciones las utilizaremos posteriormente.
De las condiciones de holgura tendremos 4 casos
2 = 0 = Caso I
1 = 0 =
2 = 0 = Caso II
2 = 0 = Caso III
=
0
=
2 = 0 = Caso IV
= (0 4)
que como hemos comentado cumple las condiciones de KKT para mximo, luego por las condiciones
del problema es la solucin buscada.
Teniendo en cuenta ahora la relacin existente entre los valores de 1 y 2 y las variables de
decisin del problema primal, podemos hallar el valor de estas ltimas
= 1 + 2 = 2 + 0 = 2
= 1 2 = 2 0 = 2
y comprobar que se trata de un punto factible para el problema primal.
Por ltimo es sencillo comprobar que ambos problemas coinciden en sus respectivos valores ptimos
22 22
( ) = (2 2) =
+
=4
2
2
(1 2 ) = (2 0) = 22 02 + 4 2 4 0 = 4
5.12.
Temporal
Ejemplo 24 Encuentra los puntos que cumplen las condiciones de Karush-Kuhn-Tucker para el
problema
Optimizar 2 + 2
Sujeto a
+ =6
2 + 2 26
10
Solucin: En primer lugar transformamos el problema en la forma general, es decir, los trminos
independientes de las restricciones deben ser cero y las restricciones de desigualdad de la forma
Optimizar 2 + 2
Sujeto a
+6=0
2 + 2 26 0
10
( 1 1 2 ) = 2 + 2 + ( + 6) + 1 2 + 2 26 + 2 (1 )
150
= 0 2 + + 21 2 = 0
[1]
= 0 1 + + 21 = 0
[2]
2. Condicin de factibilidad
+6 = 0
+ 2 26 0
1 0
[3]
1 1 () = 0 1 2 + 2 26 = 0
2 2 () = 0 2 (1 ) = 0
[4]
([5])
El sistema que permite localizar los puntos de KKT estar formado por las dos ecuaciones que
proporciona la condicin estacionaria (ecuaciones [1], [2]), la restriccin de igualdad ([3]) y las dos
de la condicin de holgura (ecuaciones [4] y [5]).
Resolvemos el sistema utilizando la condicin de holgura. Este anlisis produce dos opciones por
cada ecuacin, con un total de cuatro casos:
Caso I
2 = 0
1 = 0
=
(1 ) = 0 Caso II
2
2
26
=
0
=
2 = 0
(1 ) = 0 Caso IV
Caso III
1
=
2
2
= 6=6+
Tenemos por tanto un punto para este caso
1 13
1 =
2 2
13
1
=
2
2
= 1 = (0 0)
Sin embargo, este punto no es factible ya que no cumple ninguna de las restricciones de desigualdad del problema
2 2
1
13
1 169
85
2
2
+
= +
+ =
=
26 No se cumple
2
2
4
4
2
3
1
= 0 No se cumple
1=1
2
2
y por tanto no es de KKT.
2. Caso II (1 = 0 = 1): Con estos datos el sistema queda
2 + 2 = 0
1 + = 0
1+ = 6
que es lineal y cuya nica solucin es
= 5
= 1
2 = 2 + = 2 + 1 = 3
Obtenemos otro punto
2 = (1 5)
= 1 = (0 3)
3 = (5 1)
4 = (1 5)
2
5 + 12 26 = 0 0
1 5 = 4 0
2
1 + 52 26 = 0 0
11=00
Finalmente se calculan los valores de los multiplicadores asociados a cada uno de ellos, para
determinar si se cumplen algunas de las condiciones de positividad o negatividad y establecer
si los puntos son de KKT. Utilizando las dos primeras ecuaciones, que forman un sistema lineal
153
11
1 (3 ) =
8
1 + 2
1 =
=
2 ( )
1 (4 ) =
8
15
(3 ) =
4
(1 + 2)
=
=
11
(4 ) =
4
3 = (5 1)
4 = (1 5)
1 =
11
0 2 = 0
8
y
11
4
1 =
3
0 2 = 0 0
8
1 11 + 4
= ;
=
10
5
Si = 1 = 1; = (0 3)
11
11
Si = = ; =
4
4
3
0
8
5.13.
Ejercicios
X
= 1, 0; = 1
= x R :
=1
= ( ) R2 : 3 2
= ( ) R2 : =
21
2
22
o
1 2 0
d) 4 = {(1 2 3 ) R3 | 21 + 22 + 23 3 1 + 2 + 3 1}
10. Estudia la concavidad o convexidad en R2 o R3 de las siguientes funciones
a) 1 (1 2 ) = (1 3)2 + (2 + 1)2
b) 2 (1 2 ) = (1 2)2 + 32
1 2
2 + 2
1
2
c) 3 (1 2 ) =
(1 2 ) 6= (0 0)
(1 2 ) = (0 0)
d) 4 (1 2 3 ) = 21 22 + 23 + 1 2
11. Ser convexa la funcin 2 (1 2 ) del problema anterior sobre el conjunto abierto y convexo
1 = (1 2 ) R2 | 1 0 2 0 ?
Y 4 (1 2 ) sobre el conjunto abierto convexo
2 = (1 2 3 ) R3 | 1 0 2 0 3 0 ?
(a) Optimizar
1 + 2
sujeto a
91 + 22 6
21 + 22 3
1 0
2 0
01
14. Sea 1 un problema de programacin matemtica y sea 2 otro problema que resulta de anadirle
a 1 una restriccin ms. Supongamos que el objetivo es maximizar. Si 1 y 2 son respectivamente sus conjuntos factibles, resuelve los siguientes apartados:
a) Indica si existe alguna relacin entre los conjuntos 1 y 2 .
b) Supongamos que 1 es solucin ptima de 1 ser solucin ptima de 2 ?
15. Encuentra sobre R, los extremos locales y globales de las siguientes funciones:
a) () = 5 + 4
3
3
+2
b) () = (2 + 1)2 ( 4)
2
( ) = + + sen 2 + 2
( ) = exp 57 (ln )2 + 2
sobre = {( ) R2 |
0}
24. Encuentra los extremos de las siguientes funciones sobre los conjuntos correspondientes:
1 ( ) = (1 2 2 ) en 1 = [0 1] [0 1]
2 ( ) =
en 2 = Tringulo de vrtices (0 0) (1 0) (0 1)
25. Determina, de entre todos los polgonos de lados que se pueden inscribir en una circunferencia
el de rea mxima y el de permetro mximo. (Ayuda: resuelve el problema caracterizando los
polgonos por la amplitud de sus ngulos centrales).
26. Un alambre de longitud se divide en 2 partes, con las que construmos un cuadrado y una
circunferencia. Cul debe ser la longitud de cada una de las partes para que la suma de las
reas del cuadrado y del crculo sea la menor posible?
158
( ) = 2 2 2 2
a) Clasifica el punto x = (0 0)
1 2
+ 2 2
2
( ) = 2 + ( + 1)2 2 + ( 1)2
= 2 + 2 = 9; + + = 1
Determina los valores ptimos aproximados de ( ) sobre el conjunto
0 = 2 + 2 = 925; + + = 1
33. Determina los puntos de la elipse que se obtienen al cortar el cilindro de ecuacin 2 + 2 = 1
con el plano + + = 1, cuyas distancias al origen sean respectivamente mxima y mnima.
34. Dado el problema
Optimizar
2
2
Sujeto a + + 2 = 36
2 + = 2
159
=
15
15
3
15
15
3
2
2
Sujeto a + + 2 = 3605
2 + = 2
35. De entre los tringulos rectngulos de rea 9, encuentra aquellos cuya hipotenusa sea mnima.
36. Resuelve el problema
Optimizar
( ) = 2 + 2 + 2
Sujeto a 2 + 2 + 2 + + + 1 = 0
+ 2 3 = 0
37. Participas en un concurso de televisin en el que se entrega una chapa metlica de 252 de
superficie y con la que debes construir una caja rectangular, que se llenar gratuitamente de
gasolina. Se pide:
a) Cules deben ser las dimensiones de la caja que maximizan tu beneficio?
b) Si el litro de gasolina cuesta 2 euros. Cunto estaras dispuesto a pagar por 12 ms de
chapa?
38. Halla la mnima distancia entre la recta + = 4 y la circunferencia 2 + 2 = 1
39. De entre todos los paraleleppedos rectngulos cuya suma de las aristas es la misma e igual a
, determina aquel que tiene volumen mximo
40. Traza por un punto dado un plano que forme con los planos coordenados un tetraedro de
volumen mnimo. Se supone el sistema de referencia cartesiano rectangular.
41. Maximiza la distancia al origen de los puntos de la elipse interseccin del cilindro de ecuacin
2 + 2 = 4 con el plano + + = 5
42. Halla la mxima distancia al origen de los puntos de la circunferencia de centro (2 1) y radio
3.
160
Minimizar
2 + 2
Sujeto a ( 1)3 2 = 0
Se pide:
a) Resulvelos grficamente.
2 2 2
+ 2 + 2
2
+ + =
Donde R, y 6= 0.
161
+ +
+ + =
donde , , , , , R+ .
52. Resuelve el siguiente problema utilizando el mtodo de los multiplicadores
Optimizar
Sujeto a + + =
donde , , , , , R {0}.
53. Calcula los valores mximo y mnimo que alcanza la funcin ( ) = sobre el conjunto
= {42 + 2 8; 1}. Indica en qu puntos se alcanzan esos valores. Cmo cambiaran
los valores ptimos de la funcin objetivo si la regin fuera 0 = {42 + 2 805; 105}?
54. Un paraboloide elptico de ecuacin
=
2
2
+ , 0, 0
2 2
=1
Sujeto a
X
2
=1
0;
162
= ( ) R2 | + 4; 2 + 5
a) Formula y resuelve el problema de forma grfica.
b) Comprueba que el punto ptimo cumple las condiciones de K.K.T. Son tambin suficientes?
62. Resuelve mediante el mtodo de los multiplicadores de K.K.T. el siguiente problema de programacin no lineal:
Optimizar
2
Sujeto a
+ 2 8
++ 1
++ 40
63. Un comerciante se ha enterado de que en la fbrica de aceite hay una oferta de aceite de oliva
extra. El aceite que compre a la fbrica lo podr vender despus por litros, ganndose 1 euro
por litro. Para almacenar el aceite va a construir un dposito cilndrico con tapa, utilizando
252 de chapa. Como desea optimizar sus ganancias, pregunta a su hijo, que es matemtico,
cules son las dimensionesdel depsito de mximacapacidad que se podra construir, y obtiene
como respuestas = 10 6 de altura y = 5 6 de radio de las bases.
Cuando va a iniciar la construccin del depsito, su amigo, el de la ferretera, necesita urgentemente 12 de chapa como la que l tiene y le propone comprrselo. A qu precio debera
vendrselo?
64. Dado el siguiente problema de programacin no lineal
Optimizar ( 4)2 + ( 2)2
Sujeto a
+20
1 + 2 + ( 1)2
a) Discute las soluciones del problema mediante los multiplicadores de K.K.T.
b) Discute los cambios en la solucin del problema si ahora la primera restriccin se transforma en: + 205 0
163
Sujeto a
(1 )3 0
0
66. Dado el siguiente problema de programacin no lineal
Optimizar
Sujeto a
( 7)2 + ( 10)2
80
2
( 10) + ( 10)2 36 0
a) Discute las posibles soluciones del problema utilizando el mtodo de los multiplicadores
de K.K.T.
b) Qu sucede con la solucin del mismo si ahora la primera restriccin se transforma en:
805 0?
67. Dado el siguiente problema de programacin no lineal
Optimizar
Sujeto a
+
2
2 +
1
4
2
10
Discute las posibles soluciones del problema utilizando el mtodo de los multiplicadores de
K.K.T.
68. Dado el siguiente problema de programacin no lineal
Optimizar
Sujeto a
( 2)2 + ( 2)2
50
2
( 4) + ( 4)2 16 0
Discute las posibles soluciones del problema utilizando el mtodo de los multiplicadores de
K.K.T.
69. Determinar grficamente el mximo y mnimo absolutos de la funcin ( ) = 2 + ( 4)2
sobre el conjunto = {( ) | + 3; + 3; 2}
Plantea las condiciones de K.K.T. del problema anterior y utiliza la grfica para deducir qu
restricciones son activas y cuales inactivas en los puntos de mximo y mnimo. Calcular a partir
de los datos anteriores esos valores mximo y mnimo. Qu ocurrir con los valores mximo y
mnimo de ( ) sobre el conjunto = {( )} + 301; + 302; 205?
164
Captulo 6
Optimizacin dinmica: mtodos
variacionales
Sumario. Introduccin y ejemplos. Lemas de Lagrange y du Bois-Reymond. Ecuaciones de Euler-Lagrange. Condiciones Transversales. Condiciones de segundo orden.
Condiciones suficientes con convexidad. Optimizacin dinmica con restricciones.
Formulacin Variacional. Extensin de los mtodos variacionales.
6.1.
Introduccin y ejemplos
Los problemas tratados en la primera parte de este libro consistan en la optimizacin (maximizacin o minimizacin) de funciones reales de variables reales, que podan estar o no sujetas a
restricciones que estaban representadas tambin por funciones reales de variables reales. El objetivo
era buscar el punto o puntos que cumpliendo las restricciones impuestas al problema, nos proporcionaran el mejor valor (mayor o menor, dependiendo del objetivo del problema) de la funcin a
optimizar. En caso de existir, las soluciones encontradas para este tipo de problemas venan dadas
por un punto o conjunto de puntos reales; por ello, este tipo de optimizacin se suele clasificar como
esttica.
En este tema se plantearn otro tipo de problemas, para los que la solucin buscada es una curva
o trayectoria de puntos, es el primero de los temas dentro de lo que hemos llamado optimizacin
dinmica. En concreto se estudian los mtodos clsicos para estudiar los llamados problemas variacionales. El objetivo de estos problemas tambin consiste en maximizar o minimizar cierta funcin
teniendo en cuenta un conjunto de restricciones que describen el sistema, pero a diferencia de la optimizacin esttica, las soluciones de este problema estn ahora formadas por trayectorias de puntos
y no solamente por puntos particulares. En este caso las funciones objetivo utilizadas como ndices
de rendimiento del sistema son en este caso funciones que dependen de otras funciones (funcionales)
y las restricciones que describen los sistemas son en general ecuaciones que incluyen funciones como inc gnitas, tales como ecuaciones integrales, ecuaciones diferenciales, ecuaciones en derivadas
parciales o ecuaciones en diferencias.
Se plantean por tanto, otro tipo de problemas, en el que la solucin buscada es una curva o
trayectoria, obtenida de entre todas las posibles de un sistema, y que optimiza un determinado ndice
de coste. A continuacin presentamos y desarrollamos algunos problemas que pueden expresarse en
165
6.1.1.
Problemas Geodsicos
Uno de los problemas clsicos y que aparece de forma natural es el de encontrar el camino ms
corto entre dos puntos. Es conocido que en el espacio real euclideo, R3 este camino es la lnea recta,
sin embargo, si estamos hablando del camino ms corto, por ejemplo, sobre la superficie terrestre;
entonces por regla general no ser posible tomar esta ruta, debido entre otras cosas a la existencia
de objetos naturales o ms importante an que la superficie de la tierra no es precisamente plana.
Para este y otros casos, es necesario considerar el problema ms complicado de encontrar la llamada
curva geodsica (es decir la que tiene menor longitud) de entre todas aquellas restringidas a una
hipersuperficie dada. En el caso particular que hemos comentado de la bsqueda de las rutas
terrestres ms cortas, se podra hacer una aproximacin buscando en R3 las geodsicas sobre la
superficie de una esfera.
Geodsicas en el R
El problema ms sencillo sobre bsqueda de curvas geodsicas consiste en plantear el problema
sin considerar la restriccin de estar sobre una determinada superficie, es decir, un problema sin
restricciones sobre todo el espacio ecuclideo R .
Una curva que una dos puntos A y B en R se puede considerar como el rango de una funcin
vectorial Y () = (1 () ()), [0 1] con componentes continuas en [0 1], de forma que
Y (0) = A e Y (1) = B (figura 6.1). En particular, el segmento lineal que une ambos puntos,
Y0 () = (1 ) A + B
[0 1]
(6.1)
Z1
kY0 ()k
Para garantizar la finitud de (Y) exigimos que cada componente de Y0 () sea integrable (esta
propiedad se obtiene facilmente si cada componente es continuamente diferenciable en (0 1)). De
esta manera el problema consistir en minimizar la longitud Y () sobre un determinado conjunto
de funciones vectoriales y puede expresarse como
mn
Z1
kY0 ()k
sujeto a
YD
D = Y : [0 1] R | Y C 1 (0 1) ; Y (0) = A; Y (1) = B
que implica por una parte la necesidad de conectar los dos puntos A y B, y por otra necesidad de
que esta conexin se haga mediante una curva de longitud finita.
Este problema puede resolverse de forma sencilla de forma directa. Sabemos que el segmento
lineal Y0 () D, su derivada es Y00 () = B A, por tanto si existe una curva de longitud mnima
mn , entonces se cumplir
mn (Y0 ()) =
Z1
kY00 ()k = kB Ak
(6.2)
de esta forma
2
(Y0 ()) = kB Ak = (B A) (B A) = (B A)
Z1
0
167
Y0 () =
Z1
0
[(B A) Y0 ()]
[(B A) Y ()]
Z1
kB Ak kY0 ()k
o equivalentemente
kB Ak2
Z1
para un nico (0 ) y [0 2) (figura 6.2). En los polos norte y sur la coordenada estara
indeterminada.
Dados dos puntos A y B sobre la esfera, supongamos que se eligen los ejes de forma que A est
en el polo Norte ( = 0), mientras que B 6= A tiene de coordenadas esfricas ( 0 1 ) con 1 0
(figura 6.3).
Entonces cualquier curva que una A con B sobre la superficie de la esfera estar determinada en
coordenadas esfricas mediante un par de funciones ( () ()) de la siguiente forma
Y () = (cos () sen () sen () sen () cos ())
[0 1]
Z1
0
Z1 q
2
kY0 ()k =
(0 ) sen2 + (0 )2
0
168
( ) sen2 + (0 )
(0 )2 = ()|10 = (1)
0
para cualquier curva Y (). La igualdad solamente se cumplir cuandor el trmino (0 ) sen2 = 0.
Resolviendo
sen2 () = 0 [0 1]
0 2
2
( ) sen = 0
0 () = 0 [0 1]
En el primer caso () = 0, con [0 1], luego A = B y en este caso no hay desplazamiento. Si,
por el contrario, A 6= B, entonces 0 () = 0, para [0 1], de donde () = , en todo el intervalo
[0 1]. Y por tanto () = (1) = 0, que corresponde con el menor crculo mximo que conecta A y
B.
6.1.2.
Problemas temporales
Si viajamos con velocidad constante, entonces la ruta geodsica determinada en cada uno de
los problemas de la seccin anterior tambin proporciona el camino ms rpido. Sin embargo, si no
podemos viajar con velocidad constante y en particular si la velocidad depende del camino elegido,
entonces los problemas de mnima distancia y mnimo tiempo se deben analizar de forma separada.
A continuacin vemos alguno de estos problemas.
169
Z
0
170
= () =
Z1
q
1 + 0 ()2
()
1
= () =
2
Z1
1 + 0 ()2
()
!12
1
=
=
sec
=
cos
0
0
0
+ sen
sen
=
0 () =
=
+
= sec + tan
cos
cos cos
y teniendo en cuenta que
1
= sec2
1 + tan2 =
cos2
podemos obtener ahora una relacin entre 0 () y sec
q
2 0
2
0
sec = () 1 + ( ) () ()
donde
12
() = 1 2 ()
Z1
q
2 0
2
0
() =
() 1 + ( ) () ()
0
172
6.1.3.
Problemas Isoperimtricos
Uno de los problemas ms antiguos de optimizacin de los que se tiene constancia es el de encontrar
el rea mxima que puede encerrarse mediante una curva de permetro fijo. La solucin de este
problema es bien conocida y se trata del crculo. Este tipo de problema se denomina isoperimtrico.
Para este ejemplo, la formulacin matemtica sera la siguiente. Suponemos que una curva cerrada
simple y suave de longitud est representada paramtricamente por Y () = ( () ()) para
[0 1], con Y (0) = Y (1) para que sta sea cerrada.
De acuerdo con el teorema de Green el rea del domino encerrado por esta curva es
(Y) =
ZZ
(Y) =
Z1
() 0 ()
Y el problema consiste en encontrar el mximo de (Y) sobre todas las funciones Y () que tienen
componentes continuamente diferenciables en [0 1] y que cumplen la condicin de clausura Y (0) =
173
(Y) =
Z1
kY0 ()k =
() =
() =
6.1.4.
Un problema anlogo al problema geodsico de la primera seccin puede plantearse para una
dimensin superior de la siguiente forma: Encontrar la superficie de rea mnima que abarcan curvas
cerradas fija en R3
Superficie de revolucin mnima
Cuando las curvas consisten en una par de crculos paralelos concntricos, entonces podramos
preguntarnos por la superficie de revolucin que uniendo ambos crculos tenga rea mnima area,
o equivalentemente, queremos encontrar la expresin para de la curva de su frontera (figura 6.8).
Utilizando un sistema de coordenadas adecuado llegamos al problema de minimizar la funcin
rea de la superficie lateral ()
() = 2
() () = 2
q
() 1 + 0 ()2
() = 1
Donde 1 y 1 denotan los radios de cada crculo, uno de los cuales puede degenerar en un punto
( () = 0).
175
6.1.5.
La solucin que Jakob Bernouilli (1696) di a su hermano Johann acerca del problema de la
braquistcrona marcaba el comienzo de consideraciones variacionales. Sin embargo fue con los trabajos de Euler (1742) y Lagrange (1755) cuando se estableci el clculo de variaciones tal y como se
conoce actualmente.
El anlisis del problema de la braquistcrona visto anteriormente estaba dirigido a la bsqueda
de soluciones del problema de minimizar el siguiente funcional
() =
( y () y0 ())
D = y C 1 [ ] : y () = 1 ;
y () = 1
para 1 y 1 dados, este es un problema de puntos extremos (inicial y final) fijos (ver figura 6.4). Sin
embargo para Jakob Bernouilli el inters se centraba en un conjunto ms amplio
D = C 1 [ ] : () = 1
al describir una braquistcrona para la que se pide que descienda sobre una distancia horizontal
( ) en el mnimo tiempo posible, sin especificar la distancia vertical que hay que cubrir. Este tipo
de problemas es llamado de punto extremo final libre (ver figura 6.9).
Del mismo modo, tambin pueden considerarse problemas sobre el conjunto
D = C 1 [ ] : () = 1
D = C 1 [ ]
176
Z2
( () 0 ())
sobre un conjunto
D = C 1 [1 2 ] : ( ( )) = 0;
= 1 2
6.1.6.
Resumen
Todos estos problemas presenta caractersticas comunes. Cada uno de ellos implica la bsqueda de
una funcin real definida sobre un determinado dominio D de funciones y , que minimiza o maximiza
cierta funcin definida por medio de una integral de la forma
(y) =
( y () y0 ())
para alguna funcin dada ( ). A este tipo de funciones cuyo valor depende de una funcin real
de variable real los hemos denominado funcionales.
La funcin y () puede ser escalar o vectorial, puede depender de una variable independiente o de
varias. Generalmente es continua y derivalbe en su dominio de definicin, mientras que el conjunto D
177
y D
( y () y0 ())
( )
6.2.
Los siguientes resultados son necesarios para conseguir las ecuaciones de Euler-Lagrange, que son
fundamentales para la resolucin de problemas variacionales.
Lema 56 (du Bois-Reymond) Sea () C [ ] y sea D0 el conjunto de funciones definido como
D0 = C 1 [ ] () = () = 0
entonces se cumple
Si
() 0 () = 0 D0 = () =
[ ]
179
( () ) = 0
Puesto que ( () )2 0
utilizando la expresin de 0 ()
0
( () ) =
( () ) () =
Z
()
( () )2 0
() ()
0 ()
() 0 () ()|
Como D0 , entonces
1
=
() 0 () = 0
() = () = 0
y por tanto
de donde
( () )2 = 0
( () )2 0
es decir
[ ]
() =
D0 = C 1 [ ] () = () = 0
entonces se cumple
Si
[ () () + () 0 ()] = 0 D0 = () C 1 [ ]
180
0 () = ()
[ () ()] 0 ()
D0
[ ]
Pero entonces
() = () + C 1 [ ]
y derivando
0 () = 0 () = ()
Corolario 58 Sea () C [ ] y sea D0 el conjunto de funciones definido como
D0 = C 1 [ ] () = () = 0
entonces se cumple
Si
() () = 0 D0 = () = 0
[ ]
Basta con tomar () 0 en la proposicin anterior. Este resultado admite la siguiente generalizacin
Lema 59 (Lagrange) Sea () C [ ] y sea D0 el conjunto definido por
D0 = C [ ]| () () = () () = 0 = 0
para algn = 0 1 2
() () = 0 D0
entonces 0 en [ ]
181
+1
[ ]
[( ) ( )]
() =
[ ]
() ()
6.3.
Ecuaciones de Euler-Lagrange
Con el fin de mantener una estructura similar a la empleada en la teora de control ptimo que
veremos en el siguiente tema, emplearemos como variable independiente, mientras que ser la
variable dependiente, por tanto tendremos
()
6.3.1.
Recordemos que el problema general del clculo de variaciones se puede plantear en trminos de
la optimizacin de un funcional de la forma
Z 1
( () ())
() =
0
donde () = 0 () = ()
, es la derivada de () respecto a la variable independiente. Supondremos
que la integral anterior existe y que las funciones empleadas son dos veces derivables en el intervalo
[0 1 ], es decir
: [0 1 ] R
() C 2 ((0 1 ))
182
( ())
Z1
( () ())
donde
()
()
Queremos encontrar una funcin () D tal que el funcional () alcance el mximo o mnimo
sobre ella. Esta funcin () se dice que es un extremal de () y se cumplir por tanto que
( ) ()
() D
(0 ) = 0
() D
(1 ) = 1
Con estas condiciones y la definicin de () se debe cumplir
(0 ) = (0 ) (0 ) = 0
(1 ) = (1 ) (1 ) = 0
183
( + )
=0
=0
(6.6)
2
( + )
0
2
=0
independientemente de (), sin embargo en la mayora de problemas ocurre que si la solucin existe,
entonces es una solucin de la ecuacin 6.6.
Vamos ahora a ver a qu nos conduce la ecuacin estacionaria 6.6. Supongamos que la funcin
() minimiza () entonces
Z 1
( + ) =
( + +
)
0
Z1
( + ) =
( + + )
donde por simplicidad se ha eliminado el smbolo de las ecuaciones. Bajo ciertas condiciones de
derivabilidad podemos pasar la derivada dentro de la integral
Z 1
( ( + + ))
0
y utilizando la regla de la cadena
Z 1
( + ) =
( + + )
+
( + + )
0
al evaluar en = 0 obtenemos
Z 1
( + )
( )
+
( )
=
0
=0
184
(6.7)
=
( )
=
( )
de donde se obtiene
Z 1
0
=
=
1 Z 1
( )
=
( )
( )
0
0
Esta expresin se sustituye en 6.7 y despus de sacar factor comn obtendremos la expresin
buscada
Z 1
( + )
( )
( )
+
( )
= 0
=
0
=0
0
Z 1
( )
( )
= 0
0
1
( )
= 0
0
(6.8)
(6.9)
(6.10)
Como estamos considerando que tanto (0 ) como (1 ) son fijos, y por tanto esto implicaba que
(0 ) = (1 ) = 0, el trmino 6.10 se anula y la condicin que queda es
Z 1
( )
( )
= 0
0
expresin podemos aplicar el lema de Lagrange para obtener la condicin
( )
( )
=0
(6.11)
La ecuacin 6.11 es la llamada primera ecuacin de Euler-Lagrange y nos proporciona una condicin necesaria (de primer orden) que debe cumplir cualquier extremal () del funcional .
Si no se realiza la integracin por partes de la ecuacin 6.7 obtenemos la llamada frmulacin
dbil o variacional de las ecuaciones de Euler Lagrange
Z 1
Z 1
Z 1
( + )
( )
+
( )
= 0
( )
=
(
=0
0
0
0
=0
Definicin 34 Cualquier funcin C 1 (0 1 ) que cumpla la primera ecuacin diferencial de EulerLagrange (ecuacin 6.11) se dice que es una funcin estacionaria de ().
185
= 0
donde
6.4.
Condiciones Transversales
En la seccin anterior se ha deducido la ecuacin de Euler-Lagrange (ecuacin 6.11) con la condicin de que los valores de () en los puntos 0 y 1 fueran fijos. Estas condiciones de frontera sobre
la funcin () son tambin llamadas condiciones transversales o de transversalidad y permiten determinar la solucin particular del problema a partir de la solucin general de la ecuacin diferencial
6.11.
Como en el caso de la braquistcrona estas condiciones transversales pueden generalizarse de
forma que puedan ser fijas o libres. De esta forma tendremos cuatro casos.
1. Extremos inicial y final fijos
Este es el caso empleado para deducir la ecuacin de Euler Lagrange. Para determinar la
solucin particular del problema se utilizar la ecuacin 6.11 junto con las condiciones de
frontera
(0 ) = 0
(1 ) = 1
2. Extremos inicial y final variables
En este caso, ninguno de los valores de () en 0 y 1 est condicionados y por tanto los valores
de la variacin () no tienen porqu ser cero. Sin embargo para que la condicin 6.10 sea 0,
independientemente del valor de () tendr que ocurrir
1
( )
= 0
0
( )
= 0
(0 (0 ) (0 )) = 0
0
( )
= 0
(1 (1 ) (1 )) = 0
1
Estas son las llamadas condiciones naturales.
186
Figura 6.12:
3. Extremo inicial fijo y extremo final libre
En este caso mientras que (0 ) = 0 est fijo, el valor de () en 1 es indeterminado. Las
condiciones de frontera sern las siguientes
(0 ) = 0
( )
= 0
(1 (1 ) (1 )) = 0
1
Este caso es simtrico del anterior, ahora (0 ) es desconocido, pero (1 ) es fijo. Las condiciones
de frontera sern
( )
= 0
(0 (0 ) (0 )) = 0
0
(0 ) = 0
Ejemplo 25 Encuentra la curva con la mnima longitud entre el punto (0) = 0 y la lnea 1 = 2.
Solucin: Recordemos que para una curva () definida en un intervalo [0 1 ] su longitud viene
dada por el funcional
Z 1
() =
1 + 2
0
187
= 0
1 +
1 + 2
1 + 2
y se obtiene la relacin
1 + 2
=0
1 + 2
=0
=
1 + 2
2 1 2 = 2
2
= 2 () =
1 2
() = +
Para calcular las constante y necesitamos utilizar las condiciones transversales. Como (0) es
fijo tenemos
(0) = 1 0 + = 1 = 1
Sin embargo, como (2) es variable tendremos
=0
1 =2
es decir
(2)
q
=0
1 + (2)2
=0=0
1 + 2
Z 2q
Z 2
Z 2
2
( ) =
1 + ( ) =
1 + 02 =
= 2
188
R2
mn 0 12 2 + + +
s.a.
(0) libre
(2) libre
Solucin: Se trata de un problema de extremos inicial y final libres. Planteamos en primer lugar
la ecuacin de Euler-Lagrange para ( )
= 12 2 + + +
= + 1
( + 1) (
+ )
= 0 = 1
(6.12)
= + + 1
= +
Integrando la ecuacin diferencial de 6.12
= 1
(6.13)
= +
(6.14)
2
() =
+ +
2
(6.15)
Como antes, obtendremos los valores de y utilizando las condiciones transversales; que como
(0) y (2) son variables en este caso sern
=0
y
=0
0 =0
1 =2
es decir
(0) + (0) + 1 = 0
(6.16)
(2) + (2) + 1 = 0
02
2
+0+ =
(2) = 2 +
(2) =
22
2
+ 2 + = 2 + + 2
+ = 1
3 + = 5
2
2 + 1
2
Z 2
1 2
4
( ) =
( ) + + + =
2
3
0
6.4.1.
En general resolver la ecuacin 6.11 es bastante difcil. Sin embargo cuando una o ms variables
de no estn presentes explcitamente, entonces es posible encontrar una primera integral de la
ecuacin diferencial de forma relativamente sencilla. Veamos tres de estos casos.
Notar en primer lugar que si () C 2 [ ], al aplicar la regla de la cadena a la ecuacin 6.11 se
obtiene
2
2
= 0
(6.17)
+
+
2
Cuando = ()
En este caso
o equivalentemente
=
con una constante.
En el caso particular de que () C 2 [ ], como en este caso tambin
ecuacin 6.17 se transforma en
2
= 0
2
De aqu se obtiene
= 0
=
0
2
Si = 0 entonces
() = +
190
=0y
= 0 la
=0
=0
1 + 2
y derivando respecto a
1 + 2
1
1 + 2
= 0
= 0
2
1 +
[1 + 2 ]32
=
con una constante. Adems, como la ecuacin de primer orden obtenida no contiene a , sta
puede integrarse o bien resolvindola directamente respecto a e integrando o bien introduciendo
un parmetro escogido en forma adecuada.
Ejemplo 28 Como se ha visto al principio de la seccin para caracterizar las geodsicas suaves sobre
una esfera de radio haba que minimizar el funcional
Z1 q
()2 sen2 () + ()2
( ) =
0
191
(1) = 0
(1) = 1
A partir de las ecuaciones paramtricas ( () ()) podemos obtener una expresin de en trminos
de : = ( ()) de donde por una parte
()
= () ()
= ()
() =
()
(6.18)
y por otra
()
() =
Z1 q
1 + ( () sen )2
() =
0
sobre el conjunto
En este caso
D1 = C 1 [0 1 ] : (1 ) = 0
= ( )
= 1 + 2 sen2
por tanto
sen2
=
1 + 2 sen2
de manera que las funciones estacionarias () son aquellas para las que sucede
sen2
=
1 + 2 sen2
192
(6.19)
sen2
=0
1 + 2 sen2 =0
luego
=0
De manera que tiene que cumplirse () = 0 y de ah
() =
con constante. Tal y como se dedujo en la seccin correspondiente, esta expresin de () corresponde a los crculos mximos de la esfera.
Cuando = ( )
+
+
= [] =
= 0 y que tambin se cumple la ecuacin de Euler-Lagrange 6.11
y teniendo en cuenta que
entonces
=
+
=
=
e integrando
+
con una constante. Como = se tiene la ecuacin diferencial de primer orden
=
(6.20)
Z1
1 + 2
193
Z
1
D = 0 () C [0 1 ] : (0) = 0 (1 ) = 1 ;
32
( ())
(la ltima condicin se impone para que la integral sea convergente en 0).
En este caso
1 + 2
( )
=
1 .
2
De aqu obtenemos
=
1 + 2
1 + 2
1
1
=
==
1 + 2
1 + 2
Si se eleva ambos miembros al cuadrado teniendo en cuenta adems que 0
r
2
2
1 + =
= 1
2
(6.21)
2
=
(1 cos )
2
2
0 2
entonces
y
() = 2 () sen cos
2
2
2
Y sustituyendo ambas expresiones en la ecuacin diferencial 6.21
2
2
2
sen
(1 cos ) = 1
= 1
o
2
2
2 () = 2 cos2
e integrando
2
2
( sen ) =
6.4.2.
La Segunda Ecuacin
Cuando C 1 ([0 1 ] R2 ) e es una solucin de clase C 1 ([ ]) de la primera ecuacin EulerLagrange (ecuacin 6.11) la integracin directa produce
Z
Z
Z
=
+
(6.22)
=
=
0
0
0
con una constante.
Por otra parte, si C 2 ([ ]) y derivamos respecto a , se obtiene
=
+
+
=
+
+
=
+
y por tanto
o integrando
( )
con C 1 ([0 1 ] R2 ) y
D = C 1 [0 1 ] : (0 ) = 0 ; (1 ) = 1
195
=
+
(6.23)
0
para alguna constante .
6.5.
(
+
)
2
=0
Z 1
( + ) =
( + +
) +
( + +
)
0
y derivando otra vez respecto de
Z 1
2
( + ) =
( + + )
+
( + + )
2
0
metiendo la derivada dentro de la integral
Z 1
2
( + ) =
( + + )
+
( + + )
2
0
y utilizando de nuevo la regla de la cadena
Z 1 2
2
2
( + + )
+
( + ) =
( + + )
+
2
2
0
2
2
( + + )
+
( + + )
2
y agrupando
Z 1 2
2
2
2
( + + )
+
( + + )
+2
( + + )
2
2
2
0
y particularizando en = 0
Z 1 2
2
2
2
2
+
(
+
)
=
(
+
2
( )
2
2
2
2
0
=0
Z 1
Z 1
2
2
( + )
=
( )
( )
=
2
2
0
0
=0
196
(6.24)
2
=
( )
=
( )
+
( )
=
=
la integral queda
1 Z 1 2
Z 1 2
2
2
2
( )
=
( )
( )
+
( )
0
0
0
1 Z 1
2
Z 1 2
2
2
2
=
( )
( )
( )
0
0
0
Z 1 2
Z 1
2
2
2
2
( )
=
( )
+
( )
0
0
0
y sustituyendo en 6.24
1
2
2
Z 1 2
2
2
2
2
2
2
+
(
(
+
)
=
(
2
2
0
=0
0
agrupamos en 2
1
Z 1 2
2
2
2
2
(
+
)
=
(
+
(
2
2
0
=0
0
La ecuacin se simplifica en el caso de que los extremos inicial y final sean fijos, puesto que en este
caso (0 ) = (1 ) = 0
Z 1 2
2
( )
+
( + )
=
( )
( )
2
2
2
2
0
=0
(
+
)
0
2
=0
( )
0
( )
2
2
( )
0
2
En la mayora de los problemas slo ser necesaria la condicin de primer orden (ecuacin de
Euler-Lagrange). En otros ejemplos es posible que el integrando se 0, pero no se cumplan las
condiciones anteriores, debido probablemente a que y no sean independientes entre s.
197
= 0
=
1 + 2
Para aplicar las condiciones de segundo orden tendremos que derivar otra vez
=
(0)
=
0
2
( )
( )
0
= (0) = 0
=
=
2
2
1 +
(1 + 2 )32
que al utilizar () = 1 y por tanto () = 1
2
1
=
=10
2 32
2
1 + (0)
R2
mn 0 12 2 + + +
s.a.
(0) libre
(2) libre
Solucin: Encontramos anteriormente que la solucin para el problema vena dada por la curva
2
() = 2 + 1
2
y recordemos tambin que para este problema tenamos
= + 1
= + + 1
Para aplicar las condiciones de segundo orden tendremos que derivar otra vez
=
( + 1) = 0
2
2
(
) = 0 0
(
)
= ( + 1) = 1
2
( + + 1) = 1 0
=
2
198
6.6.
Z1
( )
para cada valor de fijo en las componentes y es la nica solucin del problema variacional.
Ejemplo 32 Definimos el siguiente problema variacional
Z
() 2
() () ()
mn () =
2
0
D = : C 1 [0 ] (0) = ( ) = 0
= ()
= () ()
= () () + () ()
y por tanto tenemos que resolver las siguiente ecuacin diferencial
( () ()) = ()
(0 ) = 0
(1 ) = 0
Veremos a continuacin si la solucin es nica, para ello veremos si es convexa en las variables
y .
Calculamos las derivadas correspondientes
2
=0
= ()
=0
0
0
2
0
()
=0
= () ()
= ()
2
por tanto ser convexa si () 0, [0 ].
199
que es semidefinida positiva y por tanto una solucin de las ecuaciones de Euler-Lagrange ser
una solucin del problema de minimizar el funcional
mn () =
Z1
1 2
() ()
2
( () ()) = () ( ()) = () =
() = 2 + 1 + 2
2
con 1 y 2 constantes. El valor de las constantes se determina utilizando las condiciones transversales
(0) = 0 2 = 0
( ) = 0 2 + 1 + 2 = 0
2
cuya solucin es
1 =
2 = 0
Luego
() =
es la solucin buscada.
2
+
=
2
2
2
2
200
1
cos () + 1
() =
1
sen () + 1 + 2
()2
6.7.
1
sen ()
()2
Para problemas isoperimtricos, como en el caso del problema de la catenaria, es posible establecer
ecuaciones de Euler-Lagrange similares.
6.7.1.
Restricciones de igualdad
Z1
( )
s.a.
( )
=0
(0 ) = 0
(1 ) = 1
201
= 1
mn () =
( )
+
( )
=1
s.a.
(0 ) = 0
(1 ) = 1
6.7.2.
Restricciones Integrales
En esta seccin damos las condiciones necesarias para que una funcin sea extremal de un funcional sujeto a restricciones de tipo integral, tanto de igualdad como de desigualdad.
Teorema 62 Dado el problema
mn () =
Z1
( )
s.a.
R 1
0
( )
=
= 1
(0 ) = 0
(1 ) = 1
si 1 R, tal que
( )
= ( )
+
( )
=1
= 0
(0 ) = 0
(1 ) = 1
Z
( )
=
mn () =
Z1
()2
Z1
s.a.
() = 1
(0) = 0
(1) = 1
Solucin: Construimos el coste ampliado = +
= 2 +
Comprobamos la convexidad de , para ello necesitamos derivar respecto de ( )
= 2
2
=0
2
=
2
2
=
= 0 = =
=
2
2
0
2
= 0
(2)
= 0 2
=0
por tanto
=
+ 1
2
2
+ 1 + 2
4
203
+ 1 + 2 = 1
4
=1
R1
R1 2
3 1 2
1
+ 1 + 2 =
+ + 2 =
+ =1
() = 1 0
0
4
12
2
12
2
=0
(1) = 0
1 = 6
2 = 0
= 24
La solucin ptima del problema es
() = 62 + 6
y el coste ptimo
( ) =
( )2 =
mn () =
3 =1
(12
+
6)
(12 + 6)2 =
= 12
36
Z1
=0
( )
s.a.
R 1
0
R 1
0
( )
=
= 1
( )
= 1
(0 ) = 0
(1 ) = 1
si 1 0 R, tal que
( )
= ( )
+
( )
+
=1
204
X
=1
( )
= 0
(0 ) = 0
(1 ) = 1
Z
( )
=
( )
= 0
mn () =
Z1
()2
s.a.
Z1
()
1
3
(0) = 0
(1) = 1
Solucin: Construimos el coste ampliado = +
= 2 + 2
Comprobamos la convexidad de , para ello necesitamos derivar respecto de ( )
= 2
2
= 2
2
= = = 0
= 2
2
=2
2
2
205
= =
2
0
0
2
= 0 2 (2)
= 0 2 2
=0
por tanto
=
Como estamos minimizando, interesa que 0 y por tanto distinguimos dos casos
= 0 = 0 () = 1 + 2
0 = () = 1
+ 2
(0) = 0 2 = 0
= () =
(1) = 1 1 = 1
que cumple la condicin integral, ya que
=1
Z 1
Z 1
3
1
2
2
() =
= =
3 =0 3
0
0
(0) = 0 1 + 2 = 0
(1) = 1 1 + 2
=1
R1
R
1
2
2
1
1
()
=
0
()
=
3
3
0
0
De la primera ecuacin
2 = 1
y de la segunda
+ 2
= 1 1 = 1 1 =
senh
() = 1
=
senh
206
1
2 senh
Z 1
Z 1
2
senh
1
1
=
2 =
2
3
3
0
0 senh
Z 1
Z 1
senh2
1
=
(cosh (2 ) 1)
2
2
2 senh
0
0 senh
integrando
1
2 senh2
=1
senh
2
1
(cosh (2 ) 1) =
2
2 senh
=0
1
2 senh2
!
senh 2
1
1 =
2
3
6.8.
Formulacin Variacional
Dado el funcional
() =
( )
supongamos que
() = () + ()
() = () + ()
Podemos emplear el desarrollo de Taylor para
' ( )
+
( + + )
Si definimos
= ( + + )
( )
entonces
=
( ( + + )
( )) '
=
1
+
=0
=0
=0
6.9.
=
1
=0
=0
6.9.1.
Funciones Vectoriales
Dado el problema
mn () =
Z1
( 1 1 )
s.a.
(0 ) = 0
= 1
(1 ) = 1
= 1
las ecuaciones de Euler-Lagrange que debe cumplir una funcin vectorial x () = (1 () ())
para ser un extremal del funcional anterior es
= 0 = 1
=
1
=0
=0
208
= 1
s.a.
1 (0) = 0
1
En este caso
2 (0) = 0
=1
= 1
( 1 2 1 2 ) = 21 + 22 + 21 2
y las ecuaciones de Euler-Lagrange son
1. Para = 1
= 22
1
= 2
1
= 2 1
1
1
2. Para = 2
= 21
2
= 2
2
= 2 2
2
2
= 0 22 2
1 = 0 2 = 1
= 0 21 2
2 = 0 1 = 2
1 = 2
2 = 1
4 2
4
y al sustituir en la segunda
4 2
4
ecuacin diferencial de cuarto orden, que se resuelve fcilmente utilizando las races de su polinomio
caracterstico ( () = 4 1) que son = 1 y por tanto la solucin general es
2 =
2 () = 1 + 2 + 3 cos + 4 sen
209
= 1 1 2 + 2 2 + 4 = 1
= 1 1 2 + 2 2 4 = 1
1 = 0; 2 = 0; 3 = 0; 4 = 1
Ejemplo 36 Encuentra las ecuaciones de Euler-Lagrange para los problemas variacionales cuyo
funcional es de la forma
Z1
mn () = ( 1 2 )
0
=0
=00
=0
1 1
1
1
1
y derivando respecto a
=0
+
1 +
1 +
2 +
2 = 0
1
1
1 1
1 1
2 1
2 1
y teniendo en cuenta que slo depende de 1 y 2 se obtiene
1 +
2 = 0
1 1
2 1
del mismo modo para 2 se obtiene
1 +
2
2 = 0
1
0
1
2
1
0
2
2 1
2
210
6.9.2.
Dado el problema
mn () =
Z1
s.a.
()
() (0 ) = 0
= 0 1
() (1 ) = 1
= 0 1
las ecuaciones de Euler-Lagrange que debe cumplir una funcin x () para ser un extremal del
funcional anterior es
2
=0
+ 2
+ + (1)
()
Ejemplo 37 Resuelve el problema variacional
mn () =
Z1
1 + 2
s.a.
(0) = 0
(1) = 1
(0) = 1
(1) = 1
=0
=0
=0
+ 2
= 0 2(4) = 0
2
(3
(4
= 2
= 2 2
= 2
211
3
2
+ 2 + 3 + 4
6
2
mn () =
2 + 2
0
s.a.
(0) = 1
(2) = 0
(0) = 0
(2) = 1
= 2
=0
=0
= 2
(3)
= 2
2
2
= 2(4)
es decir
2 + 2(4) = 0
ecuacin de cuarto grado cuya solucin general es
() = 1 + 2 + 3 cos + 4 sen
y utilizando las condiciones transversales obtenemos como solucin
1 = 2 = 4 = 0
3 = 1
212
2
+ 2
=0
6.9.3.
Dado el problema
mn =
Z1
( )
( )
( )
1 1 1 1 1 2 2 2 2 2
()
(0 ) = 0 R
s.a.
()
(1 ) = 1 R
las ecuaciones de Euler-Lagrange (en este tipo de problemas se llaman ecuaciones de Euler-Poisson)
que debe cumplir una funcin x () para ser un extremal del funcional anterior es
2
= 0 = 1
+ 2
+ + (1)
)
(
6.9.4.
Dado el problema
mn () =
RR
( )
podemos tratar de encontrar las ecuaciondes de Euler-Lagrange para este tipo de problemas utilizando
el procedimiento realizado para el caso de una sola variable independiente. Para ello, si consideramos
que es la solucin del problema anterior, podemos estudiar qu ocurre cerca de esa solucin y
podemos definir la familia de funciones
= + ( )
Queremos saber cmo vara cuando hacemos cambios en y observar qu ocurre cuando 0,
ZZ
( + + + )
ZZ
=
Z Z
( + + + )
( ( + + + ))
ZZ
=
+
+
=0
213
ZZ
+
=
+
= 0
=0
(6.25)
=
=
y por tanto
ZZ
+ =
= 0
| {z }
| {z }
ZZ
luego
+
=
ZZ
+
=
+
ZZ
ZZ
ZZ
+
+
=
ZZ
ZZ
ZZ
+
+
=
+
2
2
2
2
+
+
2
2
2
2
+
+
la integral buscada es
ZZ
ZZ
+
=
+
214
=0
(6.26)
siendo
x = (1 )
= (1 )
=0
1 1
2 2
(6.27)
=0
( ) = 0
Ejemplo 39 Sea un disco circular de radio 1 que tiene permisividad elctrica = 1. Supongamos
tambin que sobre dicho disco tenemos una distribucin de cargas elctricas de densidad constante
= 1. Supongamos finalmente que el potencial sobre la frontera de dicho crculo es constante e
igual a cero, esto es, = 0 sobre = {( ) R2 : 2 + 2 = 1}. Se pide calcular la ecuacin de
Euler-Lagrange asociada al funcional
ZZ
|E|2
() =
2
donde
E =
Comprueba que
( ) =
1 (2 + 2 )
4
es solucin de la ecuacin.
215
ZZ
1 2
2
+
() =
2
=0
donde
1 2
+ 2
2
y por tanto
= 1
=
1 = 0
=
=
=
1(2 + 2 )
Vamos a comprobar que la funcin =
es solucin de la ecuacin anterior
4
= 2 = 1
4
2
+ = 1
2
1
= =
4
2
est claro que sobre , ocurre = 0.
=
6.10.
Ejercicios
() =
Z1
s.a.
Z1
0
1 0 2
()
() =
(0) = 0
(1) = 1
2. Resuelve el problema
mn ( ) =
Z2 h
1
(1) = 0;
216
i
2
( 0 ) 2
(2) = 1
(0) = 0;
(4) = 3
4. Resuelve el problema
Z1
(3 )
(0) = 0;
(1) = 1
mn ( ) =
5. Resuelve el problema
mn ( ) =
Z1
0
(0) = 1;
+ 32 0
(1) = 1
6. Resuelve el problema
Z1 h
i
2
2 ( 0 ) + 3 0
mn ( ) =
0
(1) = 1
(0) = 1;
7. Hallar las extremales del problema isoperimtico
mn () =
s.a.
Z1
Z1
( 0 ) + 2
2 = 2
(0) = 0;
(1) = 0
8. Escribir la ecuacin diferencial de las extremales del problema isoperimtrico sobre el extremo de la
funcional
Z1
mn () = () 2 () + () 2 ()
0
s.a.
Z1
() 2 () = 1
(0) = 0;
217
(1 ) = 0
Z1
21 () + 22 () 4 2 () 42 ()
s.a.
Z1
21 () 1 () 22 () = 2
1 (0) = 2 (0) = 0
1 (1) = 2 (1) = 1
10. Sabiendo que la longitud de una curva que une dos puntos = ( ) y = ( ) viene dada por
la integral
Z q
1 + [ 0 ()]2
() =
demuestra que la curva que une con con menor longitud es la lnea recta que los une.
11. Resuelve para los distintos valores de el problema siguiente
mn () =
Z1
0
(0) = 0;
+ 2 0
(1) =
1 0
2
( )
2
(0) = 1
(1) = 2
mn () =
Z1
0
(0) = 0;
2
(1) = 1
14. (*) Halla una curva () con () = () = 0, de longitud dada 0 , de modo que junto con
el segmento , limite una figura de rea mxima, es decir, resuelve el problema siguiente
R
max ()
() = () = 0
Rq
1 + 0 ()2 = 0
una los puntos (0 0 0 ) y (1 1 1 ) situados sobre la superficie y que sea un extremal para el
funcional de la longitud de arco
Z p
=
2 + 2 + 2
es decir, buscamos extremales del funcional anterior que cumplan las condiciones
( ) = 0
() = 0
() = 0
() = 0
() = 1
() = 1
() = 1
2
mn () =
0 + [ 0 ]
0
(2) =
(2)
libre
Z1
0
1 0 2
( ) + 2
2
(1) = 1
(0) libre;
(1) = 1
(0) = 0;
(1) libre
219
(1) libre
() =
Z1
0
Z1
sujeto a
1 0 2
2
( ) +
2
() = 1
(0) = 0;
Nota: (*) Ejercicios con dificultad especial.
220
(1) = 1
Bibliografa
[1] Balbas, A. y Gil, J.A. Programacin Matemtica.Editorial AC. (1990).
[2] F. Balibrea y V. Jimnez Lpez, Ecuaciones diferenciales para las ciencias qumicas y fsicas,
DMUniversidad de Murcia, 2001.
[3] Barnett, S. & Cameron, R. G. Introduction to Mathematical Control Theory. Ed. Oxford University Press (Oxford Applied Mathematics and Computing Science Series).
[4] Bazaraa, M. S.; Jarvis, J. J. & Sherali, H. D. Linear Programming and Networks Flows. Ed.
John Wiley & Sons, Inc (1990).
[5] W. E. Boyce y R. C. DiPrima, Ecuaciones diferenciales y problemas con valores en la frontera,
Limusa, Mexico, 1996.
[6] M. Braun, Dierential equations and their applications, SpringerVerlag, Berlin, 1993.
[7] B. Davies, Integral transforms and their applications, SpringerVerlag, Berlin, 1985.
[8] Elsgoltz, L. Ecuaciones diferenciales y clculo variacional. Ed. MIR (Rubios-1860, S.A.).
[9] Gill, P.E.; Murray, W. & Wright, M.H. Practical Optimization. Editorial Academic Press.
[10] G. James y otros, Advanced modern engineering mathematics ( 2 edicin), AddisonWesley
1999.
[11] A. Jerey, Linear algebra and ordinary dierential equations, CRC Press, 1993.
[12] K. Ogata, Ingeniera de control moderna, Prentice Hall, 1998.
[13] J. E. Marsden y M. J. Homan, Basic complex analysis, W. H. Freeman & Co., 1999.
[14] Ronald E. Miller. Optimization. Foundations and Applications. Ed. John Wiley & Sons, Inc
(Wiley-Interscience).
[15] Mokhtar S. Bazaraa, Hanif D. Sherali and C.M. Shetty. Nonlinear Programming. Ed. John Wiley
& Sons, Inc (Wiley-Interscience). (1993).
[16] R. K. Nagle y E. B. Sa, Fundamentos de ecuaciones diferenciales ( 2 edicin), Addison Wesley
Longman, 1992.
[17] Novo Sanjurjo, V. Teora de la Optimizacin.Editorial U.N.E.D. (Aula Abierta) (1997).
221
Bibliografa
[18] Reklaitis G.V., Ravindran A. and Ragsdell K.M. Engineering Optimization. Methods and Applications. Editorial John Wiley and Sons.(1983).
[19] T. B. A. Senior, Mathematical methods in electrical engineering, Cambridge University Press
1986.
[20] G. F. Simmons, Ecuaciones diferenciales (con aplicaciones y notas histricas), 2 Edicin,
McGrawHill, 1993.
[21] J. Sotomayor, Licoes de ecuaciones diferenciais ordinrias, Rio de Janeiro: Instituto de
Matemtica Pura e Aplicada, 1979.
222