Escolar Documentos
Profissional Documentos
Cultura Documentos
5-23
1. INTRODUCCIN
Hoy en da, la optimizacin se ha convertido en
prctica habitual en las ciencias, las ingenieras y los
negocios. En estadstica son comunes trminos como
mxima probabilidad o mnimos cuadrados en el
campo de los negocios es frecuente encontrar
trminos como mximo beneficio, mnimo coste o
aprovechamiento ptimo de recursos. En fsica se
han enunciado diferentes principios ptimos en
campos como la ptica o la mecnica clsica, etc.
Aunque, muchos de los aspectos bsicos de la
optimizacin se desarrollaron en los siglos XVIII y
XIX con los trabajos de Lagrange o Euler el
verdadero desarrollo de la Programacin Matemtica
comienza con los trabajos de Kantorovich y Dantzing
en los aos cuarenta. Sin embargo, no es hasta la
revolucin informtica de los aos 70 cuando,
apoyados en el poder de clculo de los ordenadores,
la programacin matemtica comienza a ser una
herramienta ampliamente utilizada en muchas
aplicaciones. De hecho hoy en da existen una
cantidad importante de cdigos que cada vez pueden
resolver problemas mas grandes y complejos. Para
una panormica general de herramientas de
optimizacin se recomienda que el lector consulte la
pagina NEOS una vez haya ledo este artculo:
http://www-fp.mcs.anl.gov/otc/Guide/
Se intentar en este artculo dar una visin general de
los mtodos ms importantes de optimizacin. Las
primeras secciones estn dedicadas a una revisin
(1)
(2)
xt0
3. PROGRAMACIN NO LINEAL
Un problema de programacin no lineal (NLP) toma
la siguiente forma:
min : f ( x)
s.a. h( x) 0
g ( x) d 0
(3)
x X n
2. PROGRAMACIN LINEAL
min : z c T x
s.a. A x d b
J. A. Caballero, I. E. Grossmann
f ( x * ) h ( x * ) O g ( x * ) P
h (x* ) 0
g (x* ) s 0
(4)
S Me 0
(c1)
( s, P ) t 0
( c 2)
se
min f ( x k ) U Ln ( si )
i
s.a. h( x k ) 0
(7)
g(x k ) s 0
st0
s !0
(8)
S Me U e
{i | g i ( x ) 0 } . En la ecuacin
obliga
Oi 0 i I .
que
si
0 i I
min : f ( x k ) T d
g ( x k ) g ( x k ) T d s k 's 0
(5)
g ( x k ) g ( x k ) T d s 0 s t 0
g ( x k ) g ( x k ) T d s 0
SMe 0
( s, P ) t 0
(6)
Donde W ( x, O , P ) 2 f ( x) h( x) T O g ( x) T P
es la matriz Hessiana de la funcin de Lagrange. Es
f ( x ) OT h( x ) P T g ( x )
U g ( x ) h( x )
< ( x, O , P )
( LA)
f ( x ) O h( x ) P g ( x )
T
U g ( x ) h( x )
(10)
( PE )
(11)
1
U h( x ) , g ( x ) s 2
2
s.t. h( x k ) h( x k ) T d 0
g ( x k ) g ( x k ) T d s 0
s t0
(12)
En cada iteracin MINOS selecciona una base y
trabaja en el espacio reducido de variables de
decisin. Despus de eliminar las variables
dependientes y las variables en alguno de sus lmites
se aplica un mtodo quasi-Newton al problema sin
restricciones resultante. La descomposicin est
hecha de tal manera que en el caso de que el
problema sea lineal MINOS se convierte en el
mtodo simplex. En el punto solucin de este
subproblema se vuelve a linealizar y el ciclo se repite
hasta que se cumplen las condiciones de optimalidad.
MINOS es extremadamente eficiente en problemas
donde la mayor parte de las restricciones son lineales.
Finalmente los mtodos de gradiente reducido
generalizado
(GRG2,
CONOPT,
SOLVER)
consideran el mismo subproblema que MINOS, pero
eliminando los trminos debidos a la Lagrangiana
J. A. Caballero, I. E. Grossmann
(13)
y ^0,1`
10
f ( x, y )
g j ( x, y ) d 0 j J
x X n
(P1)
y ^0,1`
f ( x, y k )
s. a. g j ( x, y k ) d 0
j J
(NLP2)
xX
Cuando el problema NLP2 tiene una solucin factible
k
el valor de ZU es una cota superior a la solucin
ptima del problema (P1). O dicho de otra manera, si
el problema NLP2 tiene solucin factible,
corresponde a una posible solucin del problema P1,
es por lo tanto una cota superior al mismo. En el caso
de que el problema NLP2 fuera no-factible
deberamos considera el siguiente sub-problema:
c)
NLP-Relajado (NLP1)
k
min : Z LB
f ( x, y )
s. a. g j ( x, y ) d 0
j J
x X , y YR
yi d D
k
i
i I
k
FL
k
y i t E ik i I FU
(NLP1)
x X , u
jJ
(NLPF)
J. A. Caballero, I. E. Grossmann
11
x xk
s. a. D t f ( x k , y k ) f ( x k , y k )
k
y
y
k
x x
k
g j (x k , y k ) g j (x k , y k )
d
0
j
J
k
y y
x X , y Y
k 1.... K
(M-MIP)
f(x)
5.3 Algoritmos
Los diferentes mtodos se pueden clasificar de
acuerdo al uso que se hace de los sub-problemas
(NLP1), (NLP2) y (NLPF), y de la especializacin
del problema MILP (M_MIP), como se indica en la
Figura 2.
Enumeracin
en rbol
NLP1
NLP2
M-MIP
b) GBD, OA
M-MIP
M-MIP
c) ECP
NLP2
Ramificacin y Acotamiento
x1
x2
x1
x2
las
12
yi
yi
B 1
1....K
el problema
optimalidad.
UBk y una
nuevo punto
x X
D t f ( x k , y k ) f ( x k , y k )
D t f ( x k , y k ) y f ( x k , y k )T ( y y k )
P k >g ( x k , y k ) y g ( x k , y k ) ( y y k )@
(LCk)
T
iBk
(ICUT)
iN k
Ok T >g ( x k , y k ) y g ( x k , y k ) ( y y k )@ d 0
(FCk)
J. A. Caballero, I. E. Grossmann
min Z Lk
13
D
D t f (x k , y k ) y f (x k , y k )T ( y y k )
s. .a.
P k >g ( x k , y k ) y g ( x k , y k ) ( y y k )@ k KFS
O k T >g ( x k , y k ) y g ( x k , y k ) ( y y k )@ d 0
x X , D 1
(RM-GDB)
donde KFS es el subconjunto de los problemas
(NLP2) factibles y KIS es el subconjunto de los
problemas no factibles cuya solucin viene dada por
(NLPF). Por supuesto, se debe cumplir que
KFS KIS K . Dado que el problema Maestro
(RM-GBD) se puede obtener a partir del problema
Maestro (RM-OA), en el contexto del problema (P1).
La descomposicin de Benders Generalizada se
puede considerar un caso particular del algoritmo de
las aproximaciones exteriores. De hecho el lmite
inferior predicho por el problema relajado (RM-OA)
es mayor o igual que el predicho por el problema
master relajado (RM-GDB), (Duran y Grossmann,
1986)
Debido al hecho de que los lmites inferiores
obtenidos por GDB son ms dbiles que en OA, este
mtodo suele requerir un mayor nmero de
iteraciones. A medida que el nmero de variables 0-1
aumenta este efecto se hace ms pronunciado, lo cual
se corresponde con lo que cabra esperar dado que en
cada iteracin slo se aade un nuevo corte.
Habitualmente, el usuario debe aadir restricciones
con objeto de reducir los lmites. Por otra parte,
aunque el mtodo de las aproximaciones exteriores,
predice mejores lmites inferiores que GBD el coste
computacional para resolver el problema maestro (MOA) es mayor dado que el nmero de restricciones
aadidas por iteracin es igual al nmero de
restricciones no lineales ms la linealizacin de la
funcin objetivo.
14
min
k
1 x xk
k
k xx
2
D
k
k L (x , y )
2y y
y y
s.a. D d UB k H
x xk
k
y y k
x xk
g ( x k , y k ) g ( x k , y k ) T
k d0
y y
1
x X , y Y , D
(M-MIQP)
D t f (x k , y k ) f (x k , y k )T
1....K
Tratamiento de no-convexidades.
(PL)
aT w E cT y
s. a. E t r (v k ) O k >D w t (v k ) C y @
T
P k >G (v v k )@ k 1....K
F w Gv E y d b
T
w W , v V , y Y , E 1
(M-MIPL)
J. A. Caballero, I. E. Grossmann
D
>w kp
K
p k wqk q k @
k 1
x x k
s.a. D t f ( x , y ) f ( x , y )
k
y y
x xk
k
T k h ( x k , y k )
k d p
y y
k 1.. K
k
k
k
k
k T x x
k
g j (x , y ) g j (x , y )
k dq
y y
k y i k y i d B 1
iB
iN
x X , y Y , D 1 , p k , q k t 0
(M-APER)
k
15
x xk
f ( x k , y k ) f ( x k , y k )
D d H
k
y y
k
k
k x x
T h ( x , y )
k 1.K 1
k d H
y
y
x
x
g j (x k , y k ) g j (x k , y k )T
k d H
y y
16
6. PROGRAMACIN DISYUNTIVA
GENERALIZADA (GDP)
Recientemente ha aparecido una nueva tendencia que
representa los problemas de optimizacin
discretos/continuos con modelos que mezclan
restricciones algebraicas, disyunciones lgicas y
relaciones lgicas (Balas, 1985; Beaumont, 1991;
Raman y Grossmann, 1993, 1994; Turkay y
Grossmann, 1996; Hooker y Osorio, 1999; Hooker
2000; Lee y Grossmann 2000). En particular, el
MINLP del problema (P1) se puede formular como
un problema disyuntivo generalizado de la siguiente
manera (Raman y Grossmann, 1994) y que puede ser
considerado como una extensin de la programacin
disyuntiva introducida por (Balas ,1985):
min
c k f ( x)
hi k ( x) d M (1 y i k )
yi k
i D, k SD
k SD
(M-GDP)
i Dk
J i k O i k f ( x)
s.a. g ( x) d 0
x
Q i k
i Dk
Q i k
d0
Oi k
AO d a
O i k h
Oi k
1 k SD
i Dk
k SD
i Dk
(RDP)
x n , Q i , k t 0, 0 O i , k d 1 i D k k SD
s.a. g ( x) d 0
Yi k
hi k ( x ) d 0 k SD
iDk
c J
ik
k
(GDP)
: Y Verdad
x n , c m , Y ^Verdad , Falso`
(O j k H ) ( g j k (Q j k / (O j k H )) g j k (0) (O j k 1) d 0
Consideramos
finalmente
los
mtodos
de
aproximaciones exteriores y descomposicin de
Benders Generalizada para resolver GDPs. Como se
describe en el trabajo de (Turkay y Grossmann, 1996)
para valores fijos de las variables booleanas el
problema resultante es el siguiente NLP:
J. A. Caballero, I. E. Grossmann
min
17
ck f ( x)
k SD
s.a. g ( x) d 0
hi k ( x) d 0
Para Yi ' k Verdad i ' D, k SD
ci k J i k
B i x 0
Para Yi k
ck 0
Falso i Dk , i z i ' , k SD
x n , ci R m
NLP-D
En el problema anterior (NLP-D) slo se obliga a que
se cumplan aquellas restricciones correspondientes a
los trminos con variables booleanas verdaderas,
reduciendo la dimensionalidad del problema.
Inicialmente es necesario resolver K subproblemas
del tipo NLP-D, con objetivo de generar
linealizaciones para cada uno de los trminos en las
distintas disyunciones. La seleccin del menor
nmero de tales subproblemas se puede hacer
resolviendo un problema de cobertura de conjunto
normalmente de pequea dimensionalidad y muy
fcil de resolver (Turkay y Grossmann, 1996). Se
puede entonces plantear el siguiente problema
Maestro disyuntivo:
min ck D l
k
s.a. D t f ( x l ) f ( x l ) ( x x l )
l 1..... L
g ( xl ) g ( xl ) ( x xl ) d 0
ik
l
l
l
hi k ( x ) hi k ( x )( x x ) d 0 l Li k k SD
i Dk
ck J i k
:Y Verdad
D , x n , c m Y ^Verdad , Falso`m
Li k
^l | Yilk
Verdad `
MILP-D
Igual que en el caso de los MINLPs en el problema
anterior se pueden aadir variables de holgura para
minimizar el efecto de las no convexidades.
7. OPTIMIZACIN GLOBAL
Una de las grandes limitaciones que aparece cuando
se resuelven problemas no lineales, ya sean NLPs o
MINLPs es que, en la mayor parte de las aplicaciones
prcticas los problemas resultantes no son convexos.
En estos casos muchos de los algoritmos presentados
en los apartados anteriores slo pueden garantizar un
mnimo local al problema y en algunos casos muchas
de las implementaciones no son siquiera capaces de
encontrar un punto factible. En algunas aplicaciones
una buena solucin es suficiente, pero en otras es
necesario localizar el mnimo global del problema.
Los mtodos de optimizacin global se pueden
clasificar
en
estocsticos
y
deterministas.
Presentaremos las lneas generales de los mtodos
18
(Smith
Pantelides,
1999)
propusieron
la
reformulacin del problema junto con bsqueda
espacial basndose en que cualquier problema en el
que no aparezcan funciones trigonomtricas puede
ser reformulado en funcin de trminos bilineales,
fraccional lineales y funciones cncavas separables.
El algoritmo para resolver MINLPs ha sido
implementado en gProms.
J. A. Caballero, I. E. Grossmann
19
9. SISTEMAS DE MODELADO
Podramos considerar un lenguaje de modelado como
una herramienta que permite transformar la
representacin matemtica de un modelo a una
estructura que es capaz de resolver un algoritmo de
optimizacin en un ordenador. Aunque como se ver
en los prximos prrafos un sistema de modelado
hace mucho ms que una simple traduccin de un
lenguaje matemtico ms o menos estndar a cdigo
legible por un algoritmo de ordenador.
Es fcil comprender las dificultades que aparecen
cuando se plantea un modelo de optimizacin: El
nmero de ecuaciones que puede aparecer en el
modelo es grande, a veces enorme. Tener que
teclear todas esas ecuaciones es una tarea
definitivamente fuera del alcance de cualquier
persona y desde luego la probabilidad de cometer
algn error tipogrfico, enorme. Incluso aunque el
modelo no sea muy grande pueden serlo los datos que
lo acompaan. En muchas aplicaciones hay que
calcular el valor de derivadas e incluso derivadas de
segundo orden que se deben introducir tambin en el
cdigo. Cuando se trabaja con un modelo es a
menudo interesante comprobar el funcionamiento de
ste utilizando diferentes conjuntos de datos. Por
supuesto, es interesante analizar los resultados,
sensibilidades, etc En ms de una ocasin es
necesario probar diferentes cdigos disponibles,
desarrollados por diferentes investigadores y que
habitualmente utilizan formatos de datos distintos
De todos estos aspectos es de lo que se ocupa un
sistema de modelado.
Lo primero que se debe resaltar es que la formulacin
de un modelo es independiente de los formatos que
tomen los cdigos de resolucin. Cdigos diferentes
se pueden conectar a un lenguaje de modelado y es
ste el que se encarga de transformar el modelo a los
diferentes formatos automticamente. Esto tiene
varias ventajas, evita la etapa tediosa y con tendencia
a producir errores de traducir las ecuaciones. El
lenguaje de modelado detecta inconsistencias y
posibles errores tipogrficos y existe una clara
separacin entre el modelo y el algoritmo numrico
de resolucin, lo que tiene la ventaja de poder probar
diferentes algoritmos que pueden tener estructuras
drsticamente diferentes- slo seleccionando uno u
otro.
En un lenguaje de modelado, el modelo y los datos
estn separados. De tal manera que un mismo
20
(AMPL)
(GAMS)
REFERENCIAS.
Adjiman, C.S. y Floudas, C.A. (1996) Rigorous
convex underestimators for general twice
differentiable problems. Journal of Global
Optimization, 9(1), 23-40.
Al-Khayyal F.A. (1992) Generalized bilinear
Programming. Mathematics of Operations
Research, 60, 306-314.
Al-Khayyal F.A. y Falk, J.E. (1983) Jointly
constrained biconvex programming. Mathematics
of Operations Research, 8, 273-286.
Ashford, R.W. y Daniel, R.C.; (1995). XPRESS-MP
Reference Manual. Dash Associates, Blisworth
House, Northants, NN73BX.
Balas, E. (1985) Disjunctive Programming and a
hierarchy of relaxations for discrete optimization
problems, SIAM J.Alg. Disc. Meth., 6, 466-486.
Balas, E.; Ceria, S. y Cornuejols G. (1993) A lift and
project cutting plane algorithm for mixed 0-1
programs. Mathematical Programming 58, 295324.
Barnhart J.R.; Johnson, E.L.; Nemhauser, G.L.;
Savelsbergh, M. W. P. y Vance, P.H. (1998)
Branch and Price: Column generation for solving
huge integer programs. Operations Research, 46.
316-329.
J. A. Caballero, I. E. Grossmann
21
22
J. A. Caballero, I. E. Grossmann
23