Você está na página 1de 50

Programacin

No Lineal
Investigacin de
Operaciones
Son tcnicas de investigacin de operaciones para la
solucin de problemas llamados de programacin no
lineal o curvilneas.
Son relaciones no lineales en que las restricciones y las
funcin objetivo pueden tomar cualquier forma
matemtica.
La mejor forma de resolver problemas de
programacin no lineal, consiste en transformarlos en
una forma que permita la aplicacin de la
programacin lineal; la transformacin requerida para
cambiar un problema a una forma en la que resulte
aceptable el Mtodo Smplex.
Programacin No Lineal
Investigacin de Operaciones
Existen procedimientos de clculo para la
programacin no lineal como son:
Cuando la funcin objetivo se escribe como la
suma de una forma lineal ms una forma
cuadrtica se le llama Programacin Cuadrtica.
Cuando los problemas de programacin no lineal
se obtienen del modelo general de programacin
lineal, imponiendo el requerimiento adicional de
que las variables solo pueden aceptar valores
enteros, y se le llama Programacin en Enteros.
Programacin No Lineal
Investigacin de Operaciones
La Programacin Dinmica: se refiere a los
problemas de programacin en los que
ocurren cambios con el transcurso del tiempo.
El mtodo de clculo comprende relaciones de
recurrencia, en la que el tiempo no tiene
importancia.
Programacin No Lineal
Investigacin de Operaciones
El Mtodo del Gradiente: es un proceso
iterativo en el que nos movemos de una
posible solucin a otra, a fin de mejorar el
valor de la funcin objetivo. No garantiza que
cada solucin sucesiva este mas cercana a la
solucin ptima y puede requerir un nmero
infinito de repeticiones para su convergencia.
Este mtodo puede usarse cuando la funcin
objetivo y las restricciones no contengan
linealidad.
Programacin No Lineal
Investigacin de Operaciones
La figura 13.5 muestra lo que ocurre con este
problema si los nicos cambios que se hacen
al modelo son que la segunda y tercera
restricciones funcionales se sustituyen por la
restriccin no lineal 9x
1
2
+ 5x
2
2
216. La
solucin optima sigue siendo (x
1
, x
2
) = (2, 6).
Todava se encuentra sobre la frontera de la
regin factible en un vrtice (FEV).
Programacin No Lineal
Investigacin de Operaciones
Programacin No Lineal
Investigacin de Operaciones
Si las restricciones lineales se conservan sin
cambio, pero que la funcin objetivo se hace
no lineal. La figura indica que la solucin
optima es x
1
=8/3, x
2
=5, que de nuevo se
encuentra en la frontera de la regin factible.
(El valor optimo de Z es Z=857 tiene en comn
con la regin factible solo este punto,
mientras que el lugar geomtrico de los
puntos con Z mas grande no toca la regin
factible en ningn punto).
Programacin No Lineal
Investigacin de Operaciones
Programacin No Lineal
Investigacin de Operaciones
Si Z=54x
1
9x
1
2
+ 78x
2
13x
2
2
Entonces la figura 13.7 ilustra que la solucin
optima es (x
1
, x
2
) = (3, 3), que se encuentra
dentro de la frontera de la regin factible.
Programacin No Lineal
Investigacin de Operaciones
Programacin No Lineal
Investigacin de Operaciones
Si TBA Airlines es una compaa regional
pequea que se especializa en vuelos cortos
en aviones pequeos. La compaa ha tenido
buen desempeo y la administracin decidi
ampliar sus operaciones.
Despus de un anlisis representaron en la
siguiente tabla las consideraciones para tomar
la decisin.
Investigacin de Operaciones
Programacin Entera
Concepto Avin Pequeo Avin Grande Capital Disponible
Ingreso neto anual
por avin
$1 milln $ 5 millones
Costo de compra
por avin
$ 5 millones $50 millones $100 millones
Cantidad mxima
de compra
2 Sin mximo
Investigacin de Operaciones
Programacin Entera
L S z 5 + =
0 , 0
2
100 50 5
> >
s
s +
L S
S
L S
Maximizar
Investigacin de Operaciones
Con L=1.8 en el problema de TBA Airlines, la
historia es diferente. Redondear a L=2
requerira invertir $10 millones ms de capital
de lo que dispone, lo cual es inaceptable para
la administracin de TBA. Por lo tanto, se
abandona la programacin lineal y se adopta
la programacin entera para analizar este
problema.
Investigacin de Operaciones
La formulacin de programacin entera de
este problema es exactamente la misma que
la programacin lineal, salvo por una
diferencia crucial se agregan restricciones
que requieren que las variables de decisin
tengan valores enteros.
L S z 5 + =
L S
L S
S
L S
,
0 , 0
2
100 50 5
> >
s
s +
Maximizar
son enteros
Investigacin de Operaciones
La regin factible coincide con la de PL, sin
embargo las nicas soluciones factibles para la
programacin entera que estn en la regin
sombreada, es decir (0,0),
(1,0),(2,0),(0,1),(1,1),(2,1) y (0,2)
Investigacin de Operaciones
Investigacin de Operaciones
La resolucin de las mismas se clasifican de dos maneras:
1. Algoritmos directos: algoritmos de gradiantes
2. Algoritmos indirectos: programacion cuadratica,
separable y estocastica.
Investigacin de Operaciones
Programacin No Lineal
Hay problemas donde resolver $f(x) = 0 es muy difcil
Alternativa: mtodos numricos y/o iterativos:
Busqueda directa
Metodo de Newton
Metodo de Gradiante
Investigacin de Operaciones
Programacin No Lineal
Si se utilizan K unidades de capital y L
unidades de trabajo, una compaa puede
producir KL unidades de un bien
manufacturado. Se puede conseguir el capital
a 4 UM/unidad y el trabajo a 1 UM/unidad. Se
dispone de un total de 8 UM para contratar
capital y trabajo. Cmo puede la compaa
maximizar la cantidad de bienes que se
pueden fabricar?
Investigacin de Operaciones
Programacin No Lineal
Sea
K = unidades de capital contratadas y
L = unidades de trabajo compradas
entonces K y L deben satisfacer
Por lo tanto, la compaa quiere resolver el siguiente problema de maximizacin
restringido:
z= KL mximo
Sujeto a:
4kK+ L =< 8
K , L >= 0
Investigacin de Operaciones
Programacin No Lineal
Investigacin de Operaciones
Los mximos y mnimos son utilizados en los casos que no hay restricciones,
para el caso de restricciones de igualdad y de desigualdad se utilizan los
mtodos anteriormente mencionados que son:
Restricciones de Igualdad
Jacobiano y Lagrangiano
Restricciones de Desigualdad
Karush-Kuhn-Tucker
Investigacin de Operaciones
Optimizacin Clsica
Son un mtodo para trabajar con funciones de varias variables
que nos interesa maximizar o minimizar, y est sujeta a ciertas
restricciones. Este mtodo reduce el problema restringido en
n variables en uno sin restricciones de n + 1 variables cuyas
ecuaciones pueden ser resueltas.
Investigacin de Operaciones
Multiplicadores de Lagrange
Investigacin de Operaciones
Multiplicadores de Lagrange
Sea F(x,y) la funcin objetivo.
Supongamos que (x,y) estn condicionadas por la ecuacin
g(x,y)=K.
F y g son funciones suaves.
Si F tiene un extremo (mximo o mnimo) sujeto a g(x,y)=K en
el punto (x
0
,y
0
) entonces existe un escalar tal que:
F
x
(x
0
,y
0
) = g
x
(x
0
,y
0
)
F
y
(x
0
,y
0
) = g
y
(x
0
,y
0
)
g
x
(x
0
,y
0
) = k.
Investigacin de Operaciones
Este procedimiento define al mtodo lagrangiano, o de
LaGrange, para identificar los puntos estacionarios de
problemas de optimizacin con restricciones de
igualdad. El procedimiento se puede desarrollar
formalmente como sigue. Sea
L(X, ) = F(X) - g(X)
A la funcin L se le llama funcin LaGrange, y a los
parmetros se les llama multiplicadores de LaGrange.
Multiplicadores de Lagrange
Investigacin de Operaciones
Las ecuaciones
Expresan las condiciones necesarias para determinar los
puntos estacionarios de F(x) sujetos a g(x) = 0.
Multiplicadores de Lagrange
Son condiciones necesarias y suficientes para identificar
puntos estacionarios no lineal restringiendo, sujeto a
restricciones de desigualdad. El desarrollo se basa en el
mtodo de Lagrange.
En el problema:
Maximar z = f(x) sujeta a
g(X)<= 0
Investigacin de Operaciones
Condiciones de Karush-Kuhn-Tucker (KKT)
Las restricciones se pueden convertir en ecuaciones
usando variables no negativas de Holgura.
La funcin de Lagrange queda:
L(X, S, )= f(X) - [ g(X) + S
2
]
Dado las restricciones g(x)<=0, una condicin necesaria
para la optimalidad es que no sea negativo ( no
positivo) en problemas de maximizacin (minimizacin).
Investigacin de Operaciones
Condiciones de Karush-Kuhn-Tucker (KKT)
El resultado queda como sigue. El vector mide la
rapidez de variacin de f con respecto a g, esto es:
En el caso de la maximizacin, cuando el lado derecho
de la restriccin g(X)<= 0 cambia de 0 a g (>0), el
espacio de soluciones se hace menos restringido y en
consecuencia f no puede decrecer. En minimizacin, a
medida que aumente el lado derecho de las
restricciones f no puede aumentar lo que implica que
<= 0.
Investigacin de Operaciones
Condiciones de Karush-Kuhn-Tucker (KKT)
Si las restricciones son igualdades esto es g(X) = 0,
entonces son libres de signos.
Las restricciones de son parte de las condiciones KKT
necesarias.
Al sacar derivadas parciales de L con respecto a X,S Y
se obtienen:
Investigacin de Operaciones
Condiciones de Karush-Kuhn-Tucker (KKT)
Las condiciones KKT necesarias para el problema de
maximizacin se pueden resumir entonces como sigue:
>= 0

i
g
i
(X) = 0, i=1,2,,m
g(X)<=0
Estas condiciones se aplican tambin en el caso de
minimizacin, con la excepcin de que debe ser no
positiva.
Investigacin de Operaciones
Condiciones de Karush-Kuhn-Tucker (KKT)
Las condiciones necesarias de Kuhn-Tucker tambin
son suficientes, si la funcin objetivo y el espacio de
soluciones satisfacen las condiciones de la siguiente
tabla.
Condiciones requeridas
Solucin de la
optimizacin
Funcin objetivo Espacio de
soluciones
Maximizacin Cncava Conjunto
convexo
Minimizacin Convexa Conjunto
Convexo
Investigacin de Operaciones
Suficiencia de las condiciones KKT)
Existe una lista de condiciones que puede establecer la
convexidad del espacio o la concavidad de las funciones
de restriccin.
Maximizar o minimizar Z = f(X) sujeta a:
g
i
(X) <= , i=1,2,,r
g
i
(X) >= , i=r+1,,p
g
i
(X) = , i=p+1,,m
Investigacin de Operaciones
Suficiencia de las condiciones KKT)
Donde
i
es el multiplicador de Lagrange
correspondiente a la restriccin i. Las condiciones para
establecer la suficiencia de las condiciones KKT se
resumen en la siguiente tabla.
Investigacin de Operaciones
Suficiencia de las condiciones KKT)
Se aplican principalmente a funciones estrictamente
unimodales de una variable.
Su idea principal es identificar el intervalo de
incertidumbre que comprenda al punto de solucin
ptima.
Investigacin de Operaciones
Mtodo de bsqueda directa
Los mtodos usados en este tema son:
1. Mtodo de bsqueda dictomo.
2. Mtodo de bsqueda de seccin dorada.
Investigacin de Operaciones
Mtodo de bsqueda directa
Buscan la maximizacin de una funcin unimodal f(x) en el
intervalo a x b que incluye el punto x*
Comienzan con l = (a , b), representa el intervalo inicial de
incertidumbre.
Investigacin de Operaciones
Mtodo de bsqueda directa
Paso general i:
Sea l 1= (Xi XR) el intervalo actual de incertidumbre.
En la iteracin 0 XL=a Y XR=b
Con XL < X1 < X2 < XR
Investigacin de Operaciones
Mtodo de bsqueda directa
El intervalo de incertidumbre li se define de la siguiente manera:
1. Si f(xi) > f(x2), entonces x1 < x* < x2. se definen XR = X2 e
Ii= (x1, xR)
2. Si f(x1) < f(x2), entonces x1 < x* < xR. se definen XL=X1 e
Li= (X1, XR)
3. Si f(X1)= f(X2), entonces X1 < x* < X2, se definen XL= X1,
XR= X2 e Li=(X1,X2)
Investigacin de Operaciones
Mtodo de bsqueda directa
La diferencia entre los dos mtodos ya mencionados es la
forma en que se calcula x1 y x2
METODO DICOTOMO
X1= (XR + XL -)
X2= (XR + XL + )
METODO DE LA SECCION DORADA
X1= XR- ((5 1)/2)(XR XL)
X2= XL + ((5 1)/2)(XR XL)
Investigacin de Operaciones
Mtodo de bsqueda directa
MTODOS INDIRECTOS
PRIMER ORDEN (A)
SEGUNDO ORDEN (B)
A.-Mtodo del gradiente
Mtodo del Gradiente conjugado (Fletcher-Powell)
B.- Mtodo de Newton
Mtodo de la secante
Mtodo de Davidon-Fletcher-Powell
Investigacin de Operaciones
Mtodo del Gradiente
Este es un mtodo para optimizar funciones que son
doble continuamente diferenciables.
La idea es generar puntos sucesivos en la direccin del
gradiente de la funcin.
Investigacin de Operaciones
Mtodo del Gradiente
Ecuacin bsica para bsqueda de un mnimo/mximo
de f(x).El gradiente es un vector que da la mxima
variacin de f(x)
Metodo de ascenso (o descenso) mas pronunciado
Optimizar la longitud del paso
) f( ) f( adiente de g es el gr
atriz nxn H es una m
aso itud del p es la long
Hg
k
k k
x x
x x
x x
V
=
=
+
;

1

paso. del tamao el optimiza ,
paso. del variable tamao
simple ms el constante,
opt
k
k
es I H

=
=
) )( ( ) (
) (
: resulta cero a igualendo e a respecto con Derivando
) )( ( ) (
2
1
) ( ) ( ) (
opt
k
1
k k
T
k
k k
T
k k
T
k k k
T
k
k k k
H
f
H f f x f
s x s
s x
s x s s x x
s x x
V
=
+ V + =
+ =
+

Investigacin de Operaciones
Mtodo del Gradiente
Investigacin de Operaciones
Mtodo del Gradiente
Investigacin de Operaciones
Mtodo del Gradiente
( ) ( ) ( )
.
.
. 10 , 1 , 1
3
1
4 1
1
3
4
1
2
3
1
1
2
gradiente del mtodo el con W de mnimo el busca Se
W de isolneas las da figura La
p p NRT Datos
p
p
p
p
p
p
k
kNRT
W
k
k
k
k
k
k
= = =
(
(

|
|
.
|

\
|
+
|
|
.
|

\
|
+
|
|
.
|

\
|

=

. 7 , 4
3 2
= = p p inicial Estimado
tabla la en dado viene descenso primer el As
sern p de s incremento los
a iguales p de s incremento Tomando
p
p
p
W
p
W
en As
p y p con W de cambios los a al proporcion es bsqueda de direccin La
. 44 . 0 8 . 8 05 . 0
2
, 05 . 0
3
8 . 8
009 . 0
079 . 0
3
2
009 . 0
3
079 . 0
2
) 7 , 4 (
3 2
=
= =
A
A
=
c
c
=
c
c
Compresor de tres estados
Investigacin de Operaciones
Mtodo del Gradiente
p
2
p
3
W
4.00 7.00 2.681
3.56 6.95 2.653
3.12 6.90 2.629
2.68 6.85 2.615
2.24 6.80 2.622
Punto
mnimo
Investigacin de Operaciones
Mtodo del Gradiente
Mtodo del gradiente
Ejemplo
Investigacin de Operaciones
Mtodo del Gradiente
Direcciones conjugadas
Gradiente conjugado
Es un mtodo til en mejorar la convergencia del mtodo del gradiente.
La matriz Q es el hessiano de la funcin. objeto.
La direccin de bsqueda es una combinacin lineal del gradiente
actual con la direccin anterior.
Pequea informacin necesaria para realizar el algoritmo.
Paso 1.
Paso 2.Guardar
( ) ( ) 0 s
si s entre conjugadas s direccione son y
i
=
j
T
j i
s Q
s s
). (
). ( calcular
0 0
0 0
x s
x x
f
f En
V =
). (
0
x f
Investigacin de Operaciones

Você também pode gostar