Você está na página 1de 25

Programação Não Linear

Os modelos empregados em Programação Linear são, como o próprio nome diz, lineares (tanto a função-objetivo quanto as restrições). Este fato é, sem dúvida, “a maior das restrições” impostas sobre um modelo de Programação.

Em grande parte das aplicações, modelos lineares refletem apenas aproximações dos modelos reais. Fenômenos físicos ou econômicos são geralmente melhor representados por modelos não-lineares.

A maioria das não-linearidades englobadas em um modelo de programação está dentro de 2 principais categorias:

1)Relações observadas empiricamente, tais como variações não-proporcionais em custos, resultados de processos e características de qualidade.

2)Relações deduzidas estruturalmente, que englobam fenômenos físicos, deduzidos matematicamente e regras administrativas.

Em geral, os modelos empregados em Programação Não-Linear são do tipo:

Max

sujeito

(ou

a

g


i

X

Min)

()

X

0

b

i

com

X

=

f ().

(

x

e

1

, x

2

,

g ().

i

f

() X

para

,

x

n

)

funções

i

=

1,2,

,

m

não

lineares

Programação Não-Linear

2

Os métodos para resolução de problemas de Programação Não-Linear podem ser divididos em 2 grupos: 1) Modelos sem restrições e 2) Modelos com restrições

O principal conceito envolvido em Programação Não-Linear é o de taxa de variação derivadas e gradientes.

O grande problema que dificulta a obtenção da solução ótima nos problemas de Programação Não-Linear são os mínimos e máximos (extremos) locais da função- objetivo.

são os mínimos e máximos (extremos) locais da função- objetivo. a b c x f(x) Programação
a b c x f(x)
a b
c
x
f(x)

Programação Não-Linear

3

Métodos de Otimização Sem Restrições

Método de Minimização de funções muito simples

Consiste nos seguintes passos:

a b c x f(c) f(a)f(b) f(x)
a
b
c
x
f(c) f(a)f(b)
f(x)

1)“chutar” 3 pontos (a,b,c).

2)Escolher um ponto x entre a e b ou entre b e c.

supondo que escolhemos entre b e c:

3)Se f(b) < f(x) 3 novos pontos são (a,b,x).

4)Senão 3 novos pontos são (b,x,c).

5)Repetir processo até precisão desejada.

Problema deste Método:

Extremamente

determinísticos).

dependente

da

inicialização

(problema

comum

aos

Métodos

Função precisa ser avaliada em muitos pontos alto custo computacional.

Informação da derivada da função permite alcançar o extremo com menor número de avaliações da função melhor eficiência computacional.

Método do Gradiente (ou Método de Cauchy ou Método do Passo Mais Descendente (Steepest Descent Method) ).

Derivada fornece a informação da taxa de variação da função (1-D).

Para o caso n-D, o vetor gradiente fornece a direção da maior taxa de variação da

função.Vetor Gradiente

Método consiste em:

Procurar o máximo (ou mínimo) na direção de maior taxa de crescimento (decrescimento) da Função Objetivo a partir de uma solução (ponto) inicial X(0).

maximização X(i +1)= X(i)+ t.f(X()i )

⎡ ∂ f f

f

f

f =

x

1

,

x

2

,

x

3

,

,

x

n

minimização X(i +1)= X(i)t.f(X()i )

t é o “tamanho do passo”

i é o número da iteração

X =

(

x

1

, x

2

,

,

x

n

)

Programação Não-Linear

5

Exemplo

De uma longa folha de metal de 30 cm de largura deve-se fazer uma calha dobrando as bordas perpendicularmente à folha. Quantos centímetros devem ser dobrados de cada lado de modo que a calha tenha capacidade máxima ?

cada lado de modo que a calha te nha capacidade máxima ? 30 cm x x

30 cm

lado de modo que a calha te nha capacidade máxima ? 30 cm x x 30
lado de modo que a calha te nha capacidade máxima ? 30 cm x x 30
x x 30 - 2x
x
x
30 - 2x

30 - 2x

x

x
x
te nha capacidade máxima ? 30 cm x x 30 - 2x 30 - 2x x
te nha capacidade máxima ? 30 cm x x 30 - 2x 30 - 2x x
te nha capacidade máxima ? 30 cm x x 30 - 2x 30 - 2x x

Quanto deve medir x para que a calha tenha capacidade máxima ?

Programação Não-Linear

6

A capacidade de escoamento de água da calha é, formalmente, a vazão!

Q(A,v)= A.v

Q(A,v) é a vazão (cm 3 /s); A é a área da seção (cm 2 ); e v é a velocidade do fluído (cm/s).

Supondo v constante, a vazão torna-se diretamente proporcional à área da seção!

Portanto, maximizando A implica em maximizar Q(A,v).

Área da x seção x 30 - 2x
Área da
x
seção
x
30 - 2x

f (x) = x.(30 2x) = 30x 2x

x

x

x
x 30 - 2x f (x) = x.(30 − 2x) = 30x − 2x x 30-

30- 2x

30 - 2x f (x) = x.(30 − 2x) = 30x − 2x x 30- 2x
30 - 2x f (x) = x.(30 − 2x) = 30x − 2x x 30- 2x
 

120

100

8

0

2

 

6

0

4

0

2

0

 

0

ár e a m áx im a 0 2.5 5 7.5 1 0 12.5 1
ár e a
m áx im a
0
2.5
5
7.5
1 0
12.5
1 5
Área da 7.5cm seção 7.5cm Por inspeção do gráfico anterior verifica-se que a função alcança
Área da
7.5cm
seção
7.5cm
Por inspeção do gráfico anterior verifica-se que a
função alcança o máximo (ótimo) em x = 7.5
Solução do problema da calha pelo Método do Gradiente
30 - 2x

f (x) = x.(30 2x) = 30x 2x

2 f (x)= f (x) = 30 4x

x(i +1) = x(i)+ t(30 4x(i))

resíduo = |x(i+1)-x(i)| Processo iterativo cessa quando resíduo é menor que “precisão desejada” critério de parada. Para t=0.1.

1 o iteração

2 o iteração

x(0) = -3

x(1) = 1.2

x(1) = -3 + 0.1(30 - 4(-3)) = 1.2

x(2) = 1.2 + 0.1(30 - 4(1.2)) = 3.72

resíduo=4.2

resíduo=2.52

3 o iteração

19 o iteração

x(2) = 3.72

x(18) = 7.4982

x(3) = 3.72 + 0.1(30 - 4(3.72)) =

x(19) = 7.4982+0.1(30 – 4(7.4982)) =

5.232

7.4989

resíduo=1.512

resíduo=0.0007

O gráfico da esquerda mostra o “caminho de busca (trajetória)” da solução ótima realizada pelo algoritmo para t = 0.1 e o da direita para t = 0.4.

Função Objetivo e Processo de Busca do Máximo

150 solução ótima 100 50 Função Objetivo 0 Caminho de Busca -50 -100 solução inicial
150
solução
ótima
100
50
Função
Objetivo
0
Caminho
de Busca
-50
-100
solução
inicial
-150
-3
-1.5
0
1.5
3
4.5
6
7.5
9
área

solução

Função Objetivo e Processo de Busca do Máximo

150 Solução ótima 100 50 Função Objetivo 0 -50 Caminho de Busca -100 -150 -3
150
Solução
ótima
100
50
Função
Objetivo
0
-50
Caminho
de Busca
-100
-150
-3
-1.5
0
1.5
3
4.5
6
7.5
9
10.5
12
13.5
15
área

solução

trajetória é função do tamanho do passo Deve existir um tamanho de passo ótimo ?!

A solução ótima será alcançada mais rapidamente quanto menos a Função Objetivo for avaliada! Para isso, vamos fazer, sem perda de generalidade, algumas alterações no Método do Gradiente substituindo x(i+1) por Z(t), ou seja, uma expressão que é função do tamanho do passo t e x(i) por simplesmente x. O Método então fica:

Z(t) = x + t.f(x) = x + t.f(x)

Programação Não-Linear

9

Substituindo Z(t) em f(x), temos:

g(t)= f(Z(t))

Igualando a derivada de g(t) (em relação a t) a zero (g'(t)=0) e então resolvendo para t, encontra-se uma função que descreve os valores ótimos de t para cada solução x.

No exemplo, Z(t) fica:

Z(t) = x + t(30 4x)

Substituindo Z(t) em f, fica:

2 2 2 2 2 2 g(t) = 30x + 900t − 240xt − 2x
2
2
2
2
2
2
g(t) = 30x + 900t − 240xt − 2x
+ 16x t + 480xt
− 1800t
− 32x t
2
2
g ′ (t)
=
900
240x
+
16x
+
960xt
3600t
64x t
Função Objetivo e Processo de Busca do Máximo
Resolvendo para t:
150
Solução
2
ótima
16x
+
240x
900
⎧ 0.25
∀ ∈ℜ≠
x
7.5
100
t =
=
1 o iteração
2
Função
960x
3600
64x
t
para
x
=
7.5
Objetivo
50
x(0) = -3
0
Caminho
de Busca
-50
x(1) = -3 + 0.25(30 - 4(-3)) = 7.5
-100
-150
-3
-1.5
0
1.5
3
4.5
6
7.5
9
10.5
12
13.5
15
área

Programação Não-Linear

solução

10

Outro exemplo (caso 2-D)

Min

f

()

X

= x

2

1

+ 3x

2

2

()

f X

=

⎡ ∂ f ⎤ ⎢ ⎢ ⎢ ∂ x 1 ⎥ ⎥ ∂ f ⎥
⎡ ∂ f ⎤
x
1
f
∂ x
⎣ ⎢
2 ⎦

()

f X

=

2x

1

6x

2

função objetivo representada por curvas de nível + vetores gradientes 8 7 6 5 4
função objetivo representada por curvas de nível + vetores gradientes
8
7
6
5
4
3
2
1
0
-1
-10
-9
-8
-7
-6
-5
-4
-3
-2
-1
x1
x2
3 2 1 0 -1 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 x1

350

300

250

200

150

100

50

A próxima figura mostra o "caminho de busca" no plano x 1 x 2 dada a solução inicial em

(-10,10).

função objetivo representada por curvas de nível + vetores gradientes

10 8 6 4 2 0 -2 -4 -6 -8 -10 -10 -8 -6 -4
10
8
6
4
2
0
-2
-4
-6
-8
-10
-10
-8
-6
-4
-2
0
2
4
6
8
10
x1
350 300 250 200 150 100 50
350
300
250
200
150
100
50

Programação Não-Linear

12

O tamanho do passo ótimo t é calculado como:

x

x

1

2

(

i

)

1

+

(

i + 1

)

=

x

x

1

2

()

i

()

i

t.

2x

6x

1

2

()

i

()

i

Fazendo

()

z t

=

x

x

1

2

(

i

)

1

+

(

i + 1

)

e g(t)= f(z(t))

g t

() (())(

= f z t

=

12t

)

2

g

(t)

=

2(1

2t)(x

2

1

2)

+

6(1

x

2

1

(

+ 3 16t

6t)x

2

2

(

6)

=

0

)

2

Resolvendo para t

x

2

2

2 2 x + 9x 1 2 t = 2 2 2x + 54x 1
2
2
x
+ 9x
1
2
t =
2
2
2x
+ 54x
1
2
resíduo=
(
x
(
i +1 − x
)
())
2
i
+
(
x
(
i +1 − x
)
()) 2
i
1
1
2
2

x

1

x

2

tamanho

iteração

   

passo

-10.0000

10.0000

-

0

-6.4286

-0.7143

0.1786

1

-1.0714

1.0714

0.4167

2

-0.6888

-0.0765

0.1786

3

-0.1148

0.1148

0.4167

4

-0.0738

-0.0082

0.1786

5

-0.0123

0.0123

0.4167

6

-0.0079

-0.0009

0.1786

7

-0.0013

0.0013

0.4167

8

-0.0008

-0.0001

0.1786

9

-0.0001

0.0001

0.4167

10

Programação Não-Linear

13

Uma outra maneira de encontrar extremos de uma função não-linear é simplesmente igualar as derivadas parciais a zero e resolver o sistema de equações não-lineares.

Exemplo

Min

f

(

x

1

, x

2

)

=

80

x x

1

2

+

20x

2

+

10x x

1

2

+

10x

1

O sistema não-linear fica:

⎧ ∂ f

80

1

=−

x

=−

2

1 x

80

2

x

⎨ ⎪ f

⎪ ⎩ x

2

x x

1

2

2

+

10x

+

10x

2

+

1 +

10

=

0

20

=

0

Resolvendo este sistema, na região , tem-se: x 1 = 2 e x 2 = 1.

x

1

,x

2

0

Para confirmar que temos um ponto de mínimo, podemos substituí-lo, nas derivadas parciais de 2 o ordem:

∂ 2 f 160 = 2 ∂ x x 1 1 3 x 2 ∂
2 f
160
=
2
∂ x
x
1
1 3 x
2
2 f
160
=
2
3
∂ x
x
2
x 1
2

x 2,x

1

=

x 2,x

1

=

2

2

=

1

=

1

= 20

= 80

que

confirmando portanto, que o ponto é de

vez,

são positivos,

por

sua

mínimo.

Programação Não-Linear

14

Resumo

f

f

()

()

X

X

=

=

0

0

segundo

f

f

>

<

0

0

xx

xx

e

e

e

e

f

f

′′

′′

()

()

X

X

0

> ⇒

0

< ⇒

Strang

f

f

xx

xx

f

f

yy

yy

>

>

f

f

2

xy

2

xy

Mínimo

local

Máximo

local

Mínimo

local

Máximo

local

Um grande problema desta abordagem está em resolver sistemas de equações não- lineares, os quais geralmente, são resolvidos através de métodos numéricos.

Otimização com Restrições e Função-Objetivo Não-Linear

Min

( X

( X

X

f

X

Exemplo

e

x , x

1

g

⎪ ⎪

g

.

g


1

2

m

(

()

X

=

(

ou

)

=

Max

b

1

)

= b

2

)

= b

g

,

i

2

m

()

X

,

x

f

(

X

)

não

n

)

m

Max

sujeito

=

1

e

f

(

n

x , x

a

=

2

2

)

=

x

2 +

1

1

{(g x , x

1

1

2

)

X

satisfaça

lineares

2x

=

2

x

2

1

+

x

2

2

1

= ⇒

as

equações

circunferência

(r

=

1)

Programação Não-Linear

15

Método dos Multiplicadores de Lagrange Função Lagrangiana

( λ)=

h X,

f

m

()−∑λ[ ()]

X

i

g

i

X

b

i

i = 1

onde:

Nota-se que para valores viáveis de X:

assim:

Portanto, se (X, λ) = (X * , λ * ) é um extremo local ou global para a função sem restrição h(X, λ), então X * é um extremo para o problema original.

Assim, h(X, λ) é analisado normalmente como um modelo sem restrições. Com isso, n + m derivadas devem ser igualadas a zero.

⎧ ∂ h

x

λ = (λ 1 , λ 2 ,

,

λ m ) são os multiplicadores de Lagrange.

g

i

(X)

b

i

=

0,

i

h(X,λ)= f()X

f

m

g

   

i

 

=

 

− ∑ λ

i

 

j

x

j

i = 1

x

j

=−

()

X

+

b

 

=

0

 

g

i

i

 

⎨ ⎪ h

⎩ ⎪ ∂λ

i

Este sistema deverá fornecer os extremos

locais (ou globais). No entanto, para problemas reais, tais sistemas tornam-se praticamente impossíveis de soluciona-los.

0

, j

1,2,

=

=

,

n

,i = 1,2,

,

m

Programação Não-Linear

16

Exemplo

()

1

Se

x

1

= 0

(

f

g

h x

(

(

,x

1 2

,x

1 2

,x

1 2

)

)

,

2

=

= +

+

2x

x

2

1

1

−λ x =

1

1

0

()

3

x

2

1

2

2

(

x

x

e

(x

1

x

1

,x

1

,x

2

2

x

x

x

x

1

2

1

2

2

2

+

x

x


1

ou

λ

1

1

2

0

=

=

2x

0

= ⇒ =±

+ =

1

(

x

2

1

1

)

1

(

1

)

−λ = 0

1

)

λ =

1

x

−λ

1

x

2

2

+

1

x

x

2

= 1

2

)( )

=

0,1

então

()

1

()

2

h

x

1

h

λ 1 = 1

2

1

2x

1

2 λ

x

1

0

2

)(0, 1)

=

=

=

(

÷

x

2

0

2

)

=

1

2x

x

2

2

()

3

x

2

1

x

1

=

0

=

0

()

2

()

3

= ⇒

2

2 λ

(

x

2

1

+

x

2

x

2

2

0

x

2

h

∂λ

1

=

=

⎪ ⎩

Estes pontos são máximo e mínimo locais. Neste caso, estes pontos são máximo e mínimo globais. Como estamos querendo maximizar, a solução ótima é (x 1 ,x 2 )=(0,1).

f(0,1)=0 2 +2.1=2.

)

1 =

− + =

0

1

1

0

=−

Programação Não-Linear

17

No exemplo anterior, os extremos locais são também globais. Porém, este fato foi observado apenas por inspeção dos resultados. Uma maneira mais elegante de verificar isto consiste em analisar a questão de convexidade de uma função, uma vez que esta propriedade pode garantir a existência de mínimos ou máximos globais.

Funções Convexas e Côncavas Unidimensionais

Uma função de uma única variável f(x) é uma função convexa se, para cada par de valores de x, por exemplo, x´ e x´´ com x´<x´´ tem-se:

Se

f

[

λ

x´´

(

+ −λ

1

)

]

≤λ

f

(

x´´

)

(

+ −λ

1

)( )

f

∀λ

0

<λ<

1

pode ser recolocado por <, f é uma função estritamente convexa.

Se

pode ser recolocado por por

, f é uma função côncova.

 

Se

pode ser recolocado por por >, f é uma função estritamente côncova.

A interpretação geométrica destas propriedades é a seguinte: se para cada par de pontos sobre o gráfico de f(x), um segmento de reta conectando estes 2 pontos estiver inteiramente acima ou sobre o gráfico de f(x), f(x) é dita convexa.

Programação Não-Linear

18

Convexa

Convexa Estritamente Convexa Concâva Convexa e Côncava Estritamente Concâva Não Convexa e Não Côncava Programação

Estritamente Convexa

Convexa Estritamente Convexa Concâva Convexa e Côncava Estritamente Concâva Não Convexa e Não Côncava Programação

Concâva

Convexa Estritamente Convexa Concâva Convexa e Côncava Estritamente Concâva Não Convexa e Não Côncava Programação

Convexa e Côncava

Convexa Estritamente Convexa Concâva Convexa e Côncava Estritamente Concâva Não Convexa e Não Côncava Programação

Estritamente Concâva

Não Convexa e Não Côncava

Convexa Concâva Convexa e Côncava Estritamente Concâva Não Convexa e Não Côncava Programação Não-Linear 19
Convexa Concâva Convexa e Côncava Estritamente Concâva Não Convexa e Não Côncava Programação Não-Linear 19

Programação Não-Linear

19

O raciocínio é análogo para funções côncavas.

De maneira mais formal, o teste de convexidade (ou concavidade) pode ser realizado através da derivada segunda.f(x) é:

-Convexa se e somente se

-Estritamente convexa se e somente se

-Côncava se e somente se

-Estritamente côncava se e somente se

Esta propriedade pode ser generalizada para o caso de 2 variáveis. A seguinte tabela resume as condições.

d

2

f

()

x

0

x

dx

2

d f x

2

()

2

dx

0

d f x

2

()

>

0

x

d

dx

2

2

f

()

x

dx

2

>

≤ ∀

x

0

x

dx 2 d f x 2 () 2 dx 0 d f x 2 () >

Programação Não-Linear

20

As propriedades acima originam da análise da matriz Hessiana. De modo formal, uma função com n variáveis é dita convexa se a sua respectiva matriz Hessiana é Semi- Definida Positiva. Com isso, o conceito de convexidade pode ser generalizado para n dimensões.

Apenas como recordação, a matriz Hessiana de uma função f de n variáveis é:

[][]

j

H i

=

2

f

(

x

1

, x

2

,

,

x

n

)

 

∂ ∂

x

i

x

j

i, j

=

1,2,

,

n

Uma matriz é Semi-Definida Positiva se qualquer uma das seguintes propriedades é satisfeita.

t

1)x Hx

0

vetor

x

2)todo

autovalor

 

λ

3)todas

submatrizes

4)todo

pivô

é

0

de

H

é

principais

0

Hx

possuem

x det er min antes

com

x

Programação Não-Linear

autovetores

0

21

Condições para Otimização com Restrições de Karush-Kuhn-Tucker (KKT)

Se f(X), g 1 (X), g 2 (X),

X * = (x 1 * , x 2 * ,

Não-Linear somente se existe m números λ 1 , λ 2 , são satisfeitas:

1. − ∑ λ

,

g m (X) são diferenciáveis, então:

, x n * ) pode ser uma solução ótima para um problema de Programação

, λ m tais que todas as condições KKT

f


em

X

=

X

*

i

=

1,2,

,

n

m

g

i

0

= X * i = 1,2, , n m ∂ g i ≤ 0 ∂ x

x

j

i

=

1

i

x

j

⎜ ⎝

f

m

g

i

x

j

,


0

,

n

n

g

− ∑ λ

x

* )

j

X

*

i

= 1

b

i

)

b

i

0

i

j

i (

i

X

*

j

0

j

=

i

0

i

=

*

] =

1,2,

1,2,

1,2,

⎟ ⎞

⎟ ⎠

= 0

para

e

j

=

,

n

2. x

3. g

4. [( i

5. X

6. λ ≥

λ

Nas condições 2 e 4 existem o produto de 2 quantidades, portanto, no mínimo umas dessas 2 quantidades deve ser zero para satisfazer a igualdade.

Programação Não-Linear

22

Assim, as condições 3 e 4 podem ser combinadas para uma forma equivalente:

3,4.

g

g

i

i

(

(

X

X

*

*

)

)

b

b

i

i

=

0

0

se

se

λ ≠

i

λ =

i

0

0

Da mesma maneira, pode-se combinar as condições 1e 2:

1,2.

⎧ ∂ f


m

− ∑ λ

g

i

x

j

f

m

i = 1

x

g

j

i

x

j

− ∑ λ

i = 1

i

i

x

j

=

0

0

se

se

x

x

*

j

*

j

=

0

0

Os multiplicadores de Lagrange λ i correspondem para “variáveis duais”.

As condições KKT não garantem solução ótima ainda, faz-se necessário verificar as condições de convexidade-concavidade.

Se f(X) é côncava e g 1 (X), g 2 (X),

, g m (X) são convexas (Programação Não-Linear

Convexa) e condições KKT satisfeitas, X * = (x 1 * , x 2 * ,

, x n * ) é ótima.

Programação Não-Linear

23

Exemplo

Max

f

()(

X

=

ln x

1

1

)

+ +

x

2

sujeito

m

g

1

=

1

(

X

)

=

a

2x



x

x

1

2

2x

1

+

1

+

x

2

0

0

3

x

2

convexa,

pois :

2

g

1

(

X

)

2

g

1

(

X

)

2

g

1

(

X

)

= 0

= 0

2

g

2

x

2

1

1

(

X

)

x

2

1

.

1

(

X

x

)

2

2

1

(

∂ ∂

x

1

x

2

)

= 0

2

g

⎡ ∂ g X

x

2

2

x

1

x

2

= 0

f

()

X

(

ln x

.

1

+

1

+

x

2

 

1

 

(

x

1

+

1

)

2

2

f

(

X

)

 

 

x

2

2

)

côn cov a,

< 0

2

f

(

X

)

x

2

2

2

(

)

∂ ∂

x

1

x

2

= 0

pois :

2

f

(

=

2

f

(

X

)

 

2

 

x

1

2

f

(

X

)

2

 

x

1

X

)

= 0

=−

∂ ∂

x

1

x

2

⎡ ∂ f X

= 0

qualquer

solução

que

atenda

KKT

é

ótima

KKT condição3 condição1 ( * ) g X − b ≤ 0 1 1 ∂
KKT
condição3
condição1
(
*
)
g
X
b
0
1
1
f
g
1
−λ
≤ 0
2x
+
x
− 3 ≤
0
1
2
1
x
x
j
j
condição4
j
=
1
[( )
*
]
λ
g
X
b
=
0
1
1
1
1
− 2 λ ≤
0
1
λ
[
2x
+
x
3
]
=
0
x
+
1
1
1
2
1
condição5
j
=
2
1
−λ ≤
0
*
x
0
1
j
condição2
x
0,x
0
1
2
f
g
condição6
*
1
x
−λ
= 0
j
1
x
x
*
j
j
λ
i ≥ 0
j
=
1
λ
1 ≥ 0
1
x
2
λ
⎟ =
0
1
1
x
+
1
1
j
= 2
x
(1
−λ =
)
0
2
1

Programação Não-Linear

24

Re solução

1)

x

1

λ ≥ ⇒

1

1

condição1

0

≥ ⇒

condição 5

( j

=

2)

x

1

x

1

1

+

2)

− λ <

2

1

0

1

0

3)

4)

5)

x

6)

7)

x 0,x

= ⇒

2x

3

condição 2

1

+

0

x

2

− =

3

( j

=

1)

0

condição 4

λ ≠ ⇒

1

0

2x

=

3

1

+

x

2

x

2

− =

2

≠ ⇒λ = ⇒

0

1

1

condição 2

violada

( j

por :

2)

=

nenhuma

1

=

X

*

1

=

2

=

3,

x

1

condição

λ =

1

1

=

0, x

2

=

∴∃λ = 1

3,

λ =

1

1 satisfazen do

(0,3) é ótima

Outros tipos de problemas de Programação Não-Linear:

-Programação Separável -Programação Quadrática -Programação Geométrica -Programação Fracional -Programação Não-Convexa

condições

KKT