Escolar Documentos
Profissional Documentos
Cultura Documentos
Investigación de Operaciones
Jorge Luis Santamaría Romero.
“PROGRAMACIÓN NO LINEAL”
OBSERVACIONES.
3. Programación no lineal.
La Programación no Lineal (PNL) es una parte de la Investigación Operativa cuya misión es
proporcionar una serie de resultados y técnicas tendentes a la determinación de puntos
óptimos para una función (función objetivo) en un determinado conjunto (conjunto de
oportunidades), donde tanto la función objetivo, como las que intervienen en las
restricciones que determinan el conjunto de oportunidades pueden ser no lineales.
Evidentemente, la estructura del problema puede ser muy variada, según las funciones
que en él intervengan (a diferencia de la Programación Lineal (PL) donde la forma especial
del conjunto de oportunidades y de la función objetivo permite obtener resultados
generales sobre las posibles soluciones y facilitan los tratamientos algorítmicos de los
problemas).
Ello ocasiona una mayor dificultad en la obtención de resultados, que se refleja también
en la dificultad de la obtención numérica de las soluciones. En este sentido, hay que
distinguir entre las diversas caracterizaciones de óptimo, que sólo se emplean como
técnicas de resolución en problemas sencillos, y los métodos numéricos iterativos, cuyo
funcionamiento se basa en estas caracterizaciones, para la resolución de problemas más
generales.
f(x,y) = ax + by.
Restricciones: La función objetivo está sujeta a una serie de restricciones, expresadas por
inecuaciones lineales:
a1x + b1y ≤ c1
a2x + b2y ≤c2
… … …
anx + bny ≤cn
Cada desigualdad del sistema de restricciones determina un semiplano.
Solución factible: El conjunto intersección, de todos los semiplanos formados por las
restricciones, determina un recinto, acotado o no, que recibe el nombre de región de
validez o zona de soluciones factibles.
Valor del programa lineal: El valor que toma la función objetivo en el vértice de solución
óptima se llama valor del programa lineal.
1. Optimización no restringida.
2. Optimización linealmente restringida.
3. Programación cuadrática
4. Programación convexa.
5. Programación separable.
6. Programación no convexa.
7. Programación geométrica.
8. Programación fraccional.
9. Problema de complementariedad.
Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención de
x* se reduce a resolver el sistema de las n ecuaciones obtenidas al establecer
las n derivadas parciales iguales a cero. Por desgracia, cuando se trata de funciones no
lineales f (x), estas ecuaciones suelen ser no lineales también, en cuyo caso es poco
probable que se pueda obtener una solución analítica simultánea. ¿Qué se puede hacer
en ese caso? Las secciones 13.4 y 13.5 describen procedimientos algorítmicos de
búsqueda para encontrar x* primero para n = 1 y luego para n > 1. Estos procedimientos
también tienen un papel importante en la solución de varios tipos de problemas con
restricciones, que se describirán en seguida. La razón es que muchos algoritmos para
problemas restringidos están construidos de forma que se adaptan a versiones no
restringidas del problema en una parte de cada iteración.
Cuando una variable Xj tiene una restricción de no negatividad, x- > 0, la condición ne-
cesaria (y tal vez) suficiente anterior cambia ligeramente a
para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución
óptima de un problema con una sola variable es x = 0 aun cuando la derivada ahí es
negativa y no cero. Como este ejemplo tiene una función cóncava para maximizar sujeta
a una restricción de no negatividad, el que su derivada sea menor o igual a 0 en # = 0, es
una condición necesaria y suficiente para que x= 0 sea óptima.
Un problema que tiene algunas restricciones de no negatividad y que no tiene restriccio-
nes funcionales es un caso especial (m = 0) de la siguiente clase de problemas.
1. f(x) es cóncava.
2. Cada una de las g(x) es convexa.
son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo
razonamiento, se puede verificar que la función considerada en la figura 13.7 también es
una función separable.
Es importante distinguir estos problemas de otros de programación convexa, pues cual-
quier problema de programación separable se puede aproximar muy de cerca mediante
uno de programación lineal y, entonces, se puede aplicar el eficiente método símplex.
son cada tina funciones de una sola variable x1 y x2, respectivamente. Usando el mismo
razonamiento, se puede verificar que la función considerada en la figura 13.7 también es
una función separable.
Es importante distinguir estos problemas de otros de programación convexa, pues cual-
quier problema de programación separable se puede aproximar muy de cerca mediante
uno de programación lineal y, entonces, se puede aplicar el eficiente método símplex.
En tales casos, las ci y a ty representan las constantes físicas y las x} son las variables de
diseño. Estas funciones por lo general no son ni cóncavas ni convexas, por lo que las
técnicas de programación convexa no se pueden aplicar directamente a estos problemas
de programación geométrica. Sin embargo, existe un caso importante en el que el
problema se puede transformar en un problema de programación convexa equivalente.
Este caso es aquel en el que todos los coeficientes c, en cada función son estrictamente
positivos, es decir, las funciones son polinomios positivos generalizados (ahora llamados
posnominales), y la función objetivo se tiene que minimizar. El problema equivalente de
programación convexa con variables de decisión yx, y2,…, yn se obtiene entonces al
establecer
que se puede resolver con el método símplex. En términos generales, se puede usar
el mismo tipo de transformación para convertir un problema de programación
fraccional con /¡(x) cóncava, f2 (x) convexa y g¡ (x) convexas, en un problema
equivalente de programación convexa.