Escolar Documentos
Profissional Documentos
Cultura Documentos
=
n
i
i
x S
1
) (
d) | S(x) convexa para | > 0 e 9.
e) se todas S
i
(x) < x e K, ento S(x) = max{S
1
(x), S
2
(x), ..., S
n
(x)} convexa.
Se S(x) convexa ento um mnimo local tambm global e se a funo
estritamente convexa o mnimo global nico.
Para ilustrar, define-se y = o x
1
+ (1 o) x
2
e w = o S(x
1
)
+ (1 o) S(x
2
)
S(x) S(x)
funo cncava
Seja X um conjunto aberto no vazio do 9
n
e S(x) uma funo diferencivel em x
o
e
X. Se S(x) convexa em x
o
, ento
S(x) S(x
o
) > V
T
S(x
o
)(x x
o
)
Para uma funo S(x) diferencivel em X,
S(x) convexa S(x
2
) S(x
1
) > V
T
S(x
1
)(x
2
x
1
) x
1
, x
2
e X.
Seja X um conjunto aberto no vazio do 9
n
e S(x) uma funo duas vezes
diferencivel em x
o
e X. Se S(x) convexa em x
o
, ento V
2
S(x
o
) positiva semidefinida. Para
uma funo S(x) duas vezes diferencivel em X,
S(x) convexa V
2
S(x) positiva semidefinida x e X.
Seja K um conjunto convexo no vazio do 9
n
, x
o
e K e d um vetor no nulo tal que (x
o
+ o d) e K para um o > 0 suficientemente pequeno. Ento, a derivada direcional de S(x) no
ponto x
o
, ao longo da direo d, denotada por S(x
o
,d), definida pelo seguinte limite
(incluindo ):
( )
2
0 0
( ) ( )
( , ) lim lim ( ) ( )
o o
o T o
S x d S x
S x d S x d d S x d
+ +
o o
+ o
' = ~ V + o
o
T o
V
Portanto, a derivada direcional no ponto x
o
dada por S( x
o
,d) = V
T
S(x
o
) d.
8.1.1 Otimizao sem restrio
No caso da otimizao sem restries, onde se deseja encontrar os pontos extremos da
funo objetivo:
funo convexa
S(y)
w w
S(y)
x x
y y
x
2
x
2
x x
1
1
8.1 CONDIO DE OTIMALIDADE 5
min ( )
n
x
S x
e9
ou max ( )
n
x
S x
e9
tem-se as seguintes condies de otimalidade.
Condio necessria de primeira ordem:
Para que x* seja um mnimo (mximo) local da funo S(x), diferencivel em x*,
necessrio que:
VS(x*) = 0
Condio necessria de segunda ordem:
Para que x* seja um mnimo (mximo) local da funo S(x), duas vezes diferencivel
em x*, necessrio que:
VS(x*) = 0 e que
H(x*) V
2
S(x*) seja positiva (negativa) semidefinida
onde H(x*) chamada de matriz Hessiana.
Observa-se que estas condies so apenas necessrias porque os termos de primeira e
segunda ordem podem estar nulos, deixando ainda dvida sobre a natureza de x*.
Condio suficiente:
Seja S(x) duas vezes diferencivel em x* tal que:
VS(x*) = 0 e
H(x*) seja positiva (negativa) definida
ento x* um mnimo (mximo) local estrito de S.
Pode-se analisar a condio da matriz Hessiana, H(x*), pelas seguintes formas:
1) Pela sua contribuio no termo de segunda ordem da expanso em srie de Taylor em torno
do ponto timo.
+ = *) ( *) ( *) (
2
1
*) ( ) ( x x x H x x x S x S
T
2) Pelos sinais dos valores caractersticos de H(x*).
Decompondo a matriz Hessiana em seus valores e vetores caractersticos:
H(x*) = V A V
-1
onde V a matriz dos vetores caractersticos (nas colunas) e A a matriz dos valores
caractersticos (na diagonal). Definindo z(x) = V
-1
(x - x*) e lembrando que sendo a matriz
Hessiana simtrica ento V
-1
= V
T
(matriz ortogonal) e (x - x*)
T
V = z
T
. Desta forma a
expanso em srie de Taylor pode ser escrita como:
+ = + A =
=
n
i
i i
T
z z z x S x S
1
2
2
1
2
1
*) ( ) (
6 8. INTRODUO OTIMIZAO
3) Pelos sinais dos determinantes das primeiras menores principais de H(x*) (critrio de
Sylvester).
A menor M
ij
de uma matriz H definida como a matriz obtida pela remoo da i-sima linha
e da j-sima coluna de H. Uma menor principal de ordem k uma matriz obtida pela remoo
de quaisquer n k colunas e suas linhas correspondentes de uma matriz de ordem n. A
primeira menor principal de ordem k de uma matriz H, denotada por M
k
(H), obtida pela
remoo das ltimas n k colunas e linhas da matriz H. Observa-se que os determinantes das
primeiras menores principais de ordem 1,2,...,n da matriz A so, respectivamente:
1
,
1
2
, ...,
n
.
Na tabela a seguir apresenta-se as relaes entre a matriz Hessiana e as trs formas de analisar
a sua condio.
H(x*) Taylor A
k
= det (M
k
)
positiva semidefinida x
T
H x > 0 > 0 > 0
positiva definida x
T
H x > 0 > 0 > 0
negativa semidefinida x
T
H x s 0 s 0 (-1)
k
A
k
> 0
negativa definida x
T
H x < 0 < 0 (-1)
k
A
k
> 0
no definida
x
T
H x
>
< 0
>
< 0
= dos acima
Desta forma, pode-se afirmar que x* :
ponto de mnimo local se H(x*) for positiva definida, S(x) > S(x*)
ponto de mximo local se H(x*) for negativa definida, S(x) < S(x*)
ponto de sela se H(x*) for no definida, ora S(x) > S(x*) e ora S(x) < S(x*)
Nas situaes onde H(x*) semidefinida deve-se ainda investigar os termos de ordem
superior da expanso em srie de Taylor.
Se S(x) convexa ento as condies de otimalidade simplificam-se, porque as
condies de segunda ordem so equivalentes convexidade local da funo.
Exemplo 8.2: S(x) = (x
2
1)
3
VS(x) = 6 x (x
2
1)
2
VS(x) = 0
1
2
3
0
1
1
x
x
x
=
j
* g
j
(x*) = 0 , j = 1, 2, ..., p (condies de complementaridade)
* > 0
A condio do gradiente nulo, V
x
L(x*, *, *) = 0, implica em:
(*)
T
Vh(x*) + (*)
T
Vg(x*) = VS(x*)
que interpretada graficamente, figura abaixo, mostra que o vetor VS(x*) pertence ao cone
das direes viveis, formado pelo negativo dos gradientes das restries de igualdade e
desigualdade ativas (uma vez que = 0 para as restries inativas).
*
j
Supondo que VS(x*) caia fora do cone das direes viveis, ento haveria uma
direo d tal que d
T
VS(x*) < 0, d
T
Vg(x*) s 0 e d
T
Vh(x*) = 0, isto , existiria um ponto
melhor que x*, como ilustra a figura abaixo.
12 8. INTRODUO OTIMIZAO
Condio necessria de segunda ordem de KKT:
Para que x* seja um mnimo local do problema com restries, com S(x), g(x), e h(x) duas
vezes diferenciveis em x*, necessrio que:
a condio de primeira ordem de KKT seja satisfeita e, que a matriz Hessiana da funo de
Lagrange, L(x*, *, *), seja positiva semidefinida para todo vetor no nulo d tal que:
2
x
V
d
T
Vh
i
(x*) = 0 , i = 1, 2, ..., m
d
T
Vg
j
(x*) = 0 para as g
j
(x*) ativas
isto , d
T
L(x*, *, *) d > 0.
2
x
V
Condio suficiente de KKT:
Para que x* seja um mnimo local do problema com restries, com S(x), g(x), e h(x) duas
vezes diferenciveis em x*, suficiente que:
a condio de primeira ordem de KKT seja satisfeita e, que a matriz Hessiana da funo de
Lagrange, L(x*, *, *), seja positiva definida para todo vetor no nulo d tal que:
2
x
V
d
T
Vh
i
(x*) = 0 , i = 1, 2, ..., m
d
T
Vg
j
(x*) = 0 para as g
j
(x*) ativas {g
j
(x*) = 0 e
j
* > 0}
d
T
Vg
j
(x*) s 0 para as g
j
(x*) inativas {g
j
(x*) < 0 e
j
* = 0}
isto , d
T
L(x*, *, *) d > 0.
2
x
V
A positividade da matriz Hessiana com restrio, isto :
8.1 CONDIO DE OTIMALIDADE 13
d
T
L(x*, *, *) d > 0 d e {d / d
T
Vh
i
(x*) = 0, d
T
Vg
j
(x*) = 0, d = 0}
2
x
V
garantida se todas as razes do polinmio caracterstico
2
( ) 0
0
x
T
I L M
p
M
V
= =
forem positivas, onde M a matriz formada pelos gradientes de h(x*) e g(x*) ativas, isto , a
matriz tal que d
T
M = 0, com m+p
a
< n e com posto completo (p
a
o nmero de restries g
ativas). O mesmo critrio se aplica para semipositividade, negatividade e seminegatividade,
com os respectivos sinais das razes.
Exemplo 8.5: Verificar as condies necessrias e suficientes para o seguinte problema
(Edgar & Himmelblau, 1988 , pg. 314):
min S(x) = (x
1
1)
2
+
2
2
x
sujeito a: g
1
(x) = x
1
/ 4 s 0
2
2
x
Exemplo 8.6: Verificar as condies necessrias e suficientes para o problema com a mesma
funo objetivo do exemplo 8.5, mas usando a seguinte restrio:
g
2
(x) = x
1
s 0
2
2
x
14 8. INTRODUO OTIMIZAO
8.2 Mtodos diretos
Neste texto abordaremos somente alguns mtodos de otimizao sem restrio, cujo
problema a ser resolvido :
min ( )
n
x
S x
e9
ou m ax ( )
n
x
S x
e9
como equivalente a max ( )
n
x
S x
e9
min ( )
n
x
S x
e9
, os mtodos descritos a seguir so para
problemas de minimizao. Os mtodos existentes para a soluo deste problema podem ser
agrupados em duas categorias:
1) mtodos que no usam derivadas (mtodos de busca, mtodos diretos);
2) mtodos que usam derivadas (mtodos analticos, mtodos da mtrica varivel,
mtodos indiretos).
Como regra geral, na soluo de problemas sem restrio, os mtodos que usam derivadas
convergem mais rapidamente que os mtodos de busca. Por outro lado, os mtodos de busca
no requerem regularidade e continuidade da funo objetivo e, principalmente o clculo de
derivadas primeira ou segunda de S(x).
8.2.1 Mtodo da seo urea
um mtodo de busca monovarivel, onde a cada iterao o intervalo de busca
reduzido por um fator o, chamado de razo urea, obtido pela relao geomtrica abaixo
(retngulo ureo):
a b b
b a
=
a
2
1 0
b b
a a
| |
+ =
|
\ .
1 5
0, 618
2
b
a
+
o = = =
b
b a-b
Outras escolhas do fator o levariam a mtodos similares, como por exemplo o mtodo da
bisseo para o = 0,5. Contudo, a vantagem da razo urea est na reduo do nmero de
clculos da funo objetivo, em funo da propriedade deste mtodo de conservar o retngulo
ureo a cada iterao. Outro mtodo com caractersticas similares a seo urea a busca de
Fibonacci.
algoritmo
1) Determinar o intervalo de busca [L
o
, U
o
] que contm o ponto de mnimo
2) Fazer k 0, A
o
U
o
L
o
,
o o o o o
, (
L L
)
L
x L S S +oA x
o
)
U
,
o o o o
, (
U U
x U S S oA x
k
L
,
3) Se , ento , ( ) ( )
k
U
S x S x >
+1 k k
U
L x
1 k k
U L
x x
+
,
1 k k
U L
S S
+
seno ,
+1 k k
L
U x
1 k k
L U
x x
+
, S S
1 k k
L U
+
4) Fazer k k + 1 e A
k
U
k
L
k
,
8.2 MTODOS DIRETOS 15
Se , ento
1 1
( ) ( )
k k
U L
S x S x
>
k k k k k
, (
L L
)
L
x L S S + oA x
k
)
U
seno
k k k k
, (
U U
x U S S oA x
5) Se A
k
> c (tolerncia), ento (ir para 3)
seno FIM.
8.2.2 Mtodo das aproximaes polinomiais sucessivas
Na verdade uma classe de mtodos de busca monovarivel, que aproxima a funo S(x) por
uma interpolao polinomial, P
n
(x):
=
=
n
j
j j n
x S x x P
1
) ( ) ( ) (
onde
[
=
=
=
n
j k
k k j
k
j
x x
x x
x
1
) (
) (
) ( so os interpoladores de Lagrange. Quando a derivada de S(x)
est disponvel, ento ela tambm usada na aproximao polinomial:
| |
V + =
n
j
j j n
x S x h x S x h x P
1
2 1 1 2
) ( ) ( ) ( ) ( ) (
onde | | ) ( ) ( 2 1 ) ( ) (
2
1 j j j j
x x x x x h V = e so os interpoladores de
Hermite.
) ( ) ( ) (
2
2 j j
x x x x h =
Interpolao quadrtica ou mtodo de Coggins (ou DSC-Powell)
O mtodo de G.F. Coggins (1964) ou de Davies-Swann-Campey-Powell (1964) aproxima a
funo S(x) por uma interpolao quadrtica, P
2
(x):
) (
) )( (
) )( (
) (
) )( (
) )( (
) (
) )( (
) )( (
) (
3
2 3 1 3
2 1
2
3 2 1 2
3 1
1
3 1 2 1
3 2
2
x S
x x x x
x x x x
x S
x x x x
x x x x
x S
x x x x
x x x x
x P
+
+
=
calculando o mnimo desta funo quadrtica, isto , 0
2
=
dx
dP
, tem-se:
) ( ) ( ) ( ) ( ) ( ) (
) ( ) ( ) ( ) ( ) ( ) (
2
1
3 2 1 2 1 3 1 3 2
3
2
2
2
1 2
2
1
2
3 1
2
3
2
2 #
x S x x x S x x x S x x
x S x x x S x x x S x x
x
+ +
+ +
=
S(x)
L U
S(x)
S(x
U
)
S(x
L
)
x
x
U
x
L
oA
oA
L U
S(x
L
)
S(x
U
)
x
x
L
x
U
oA
oA
16 8. INTRODUO OTIMIZAO
algoritmo
1) Determinar o intervalo de busca [x
1
, x
3
]
2) Calcular S
1
S(x
1
), S
3
S(x
3
), x
2
(x
1
+ x
3
) / 2 e S
2
S(x
2
)
3) Calcular
2 2 2 2 2 2
# 2 3 1 3 1 2 1 2
2 3 1 3 1 2 1 2 3
( ) ( ) ( ) 1
2 ( ) ( ) ( )
3
x x S x x S x x S
x
x x S x x S x x S
+ +
+ +
e S
#
S(x
#
)
4) Se |x
#
x
i
| < c para algum i = 1, 2, 3, ento FIM.
5) Se (x
3
x
#
) (x
#
x
2
) > 0, ento k 1
seno k 3
6) Se S
#
< S
2
, ento x
k
x
2
, S
k
S
2
e k 2
7) x
4-k
x
#
, S
4-k
S
#
e (ir para 3).
P
2
(x)
S(x)
S(x
#
)
8.2.3 Mtodo de Hooke & Jeeves
um mtodo de busca multivarivel dividido em duas fases (R. Hooke e T.A. Jeeves, 1962):
fase de explorao: estimar a direo provvel do extremo, a partir de um ponto inicial
(ponto base).
fase de progresso: progredir na direo provvel do extremo enquanto o valor da funo
objetivo for diminuindo.
algoritmo
Partida:
1) Determinar a regio de busca [L
i
, U
i
], (i = 1,2,...,n)
2) Selecionar o ponto base inicial x
io
(i = 1,2,...,n)
3) Calcular o valor S
o
S(x
o
) da funo objetivo em x
o
x
2
x
x
3
x
1
x
#
4
x
2
x
2
o
9
10
12
15 17
x
20
x
1
o
o
2
o
1
o
1
o
2
x
10
x
21
+
x
2
1
x
1
1
x
1
1
+
explorao
9
x
21
+
o
10
12
15 17
x
20
x
1
x
10
x
21
x
11
x
1
1
+
progresso
8.2 MTODOS DIRETOS 17
4) Selecionar os incrementos iniciais o
i
e as respectivas tolerncias c
i
(i = 1,2,...,n)
5) Tomar a primeira direo de busca (k 1)
Fase de Explorao:
6) Calcular (sentido negativo)
o o k k k
x x
o
7) Se
o k
x
9) Se ento insucesso em k
-
o
S S
>
o
seno sucesso em k
-
e fazer
o o k k
x x
e
o
S S
o
n
k
onde x
h,j
o pior vrtice.
O algoritmo envolve quatro operaes de busca, que para o caso da minimizao da
funo objetivo tm as seguintes formas:
1) Reflexo:
{ }
0 0
1 1
( ) , 0
( ) max ( ), , ( )
k k k k
R h
k k
h n
x x x x
onde S x S x S x
+
+ o o >
2) Expanso:
{ }
1 1
0 0
1
1
( ) ( ) min ( ), , ( ) ,
( ) , 1
( ) ( ),
sen
1 ( 1)
k k k k
R n
h h k k
E R
k k k
E R h
k k
h R
Se S x S x S x S x
ento x x x x
Se S x S x ento x x
o x x
k k ir para
+
+
+
s =
+ >
<
k
E
8.2 MTODOS DIRETOS 19
4) Reduo:
1
1
( ) ( ), ( )
2
1, 2, , 1
1 ( 1)
k k k k k k
R h i i
Se S x S x ento x x x x
i n
k k ir para
+
> +
= +
O critrio usado por Nelder e Mead para terminar a busca o seguinte:
1
1
2
2
0
1
1
( ) ( )
1
n
k k
i
i
S x S x
n
+
=
( s c
`
+
)
.
8.2.6 Mtodos estocsticos
So mtodos onde caminhos aleatrios so construdos na seqncia dos passos em
busca do timo. Existe uma boa variedade de mtodos que se enquadram nesta categoria, tais
como os algoritmos genticos, busca aleatria adaptativa, simulated annealing, PSO, etc. O
Particle Swarm Optimization (PSO) um algoritmo que tem como fundamento o
comportamento de organismos sociais tais como uma revoada de pssaros ou um cardume de
peixes, onde cada indivduo da populao (partcula) modifica sua posio com o tempo
(gerao). A velocidade e posio de uma partcula so modificadas de acordo com a
experincia do indivduo e a dos demais componentes da populao, valendo-se de sua
melhor posio e a melhor posio do conjunto, dadas por:
1 1 1
1 2
( ) (
k k k k k k k
i i i i i i
v wv c p x c g x
+ + +
= + o + | )
k
i
1 1 k k k
i i i
x x v
+ +
= +
onde
k
i
x a posio da partcula i na iterao k,
k
i
v ua velocidade,
k
i
s p su
k
i
a melhor posio at
a iterao k, g
k
a melhor posio dentro todas as partculas at a iterao k, e so
nmeros aleatrios entre 0 e 1, w (fator de inrcia) e c
1
e c
2
so parmetros de sintonia do
mtodo. Para valores elevados de w, tem-se uma melhor busca global e para valores pequenos
tem-se uma melhor busca local. c
2
> c
1
favorece o refinamento da soluo j obtida, ou seja, a
busca local, ao passo que c
2
< c
1
favorece a busca global, j que cada partcula segue o seu
prprio caminho.
k
i
o |
algoritmo
1) Inicializao: construo de
0
i
x e aleatoriamente, k = 0.
0
i
v
2) Avalia-se a aptido de cada partcula e atualiza-se
k
i
p e g
k
.
3) Calcula-se a nova velocidade
1 k
i
v
+
e posio
1 k
i
x
+
, k k + 1
4) Se k < nmero mximo de iteraes ento (ir para 2)
No passo (4) pode-se tambm adotar outros critrios de parada, como por exemplo, um
determinado nmero de iteraes sem haver mudana no valor de g
k
.
20 8. INTRODUO OTIMIZAO
8.3 Mtodos indiretos
Estes mtodos tm como equao bsica para o processo iterativo:
x
k+1
= x
k
o
k
W(x
k
) VS(x
k
)
onde o
k
o tamanho do passo, d
k
= W(x
k
) VS(x
k
) o vetor direo e
W(x
k
) a matriz direo (inversa da matriz Hessiana ou uma aproximao desta)
Em qualquer mtodo de otimizao, uma boa direo de busca deve reduzir (para o caso da
minimizao) o valor da funo objetivo, isto , S(x
k+1
) < S(x
k
). Tal direo, d
k
, satisfaz o
seguinte critrio em cada ponto:
V
T
S(x
k
) d
k
< 0
ou em outras palavras, o ngulo (u) formado entre os vetores VS(x
k
) e d
k
deve ser sempre
maior que 90
, ou seja:
V
T
S(x
k
) d
k
= |V
T
S(x
k
)| |d
k
| cos u < 0 u > 90
Como a otimizao sem restries equivalente a encontrar a soluo do sistema de
equaes no-lineares F(x) = VS(x) = 0 (da vem a origem do nome dos mtodos indiretos),
pode-se utilizar todos os mtodos disponveis para a soluo de F(x) = 0. Por exemplo, na
utilizao do mtodo de Newton-Raphson, a matriz Jacobiana a prpria matriz Hessiana.
8.3.1 Mtodos gradientes
Utilizam somente a primeira derivada da funo objetivo, caso em que W(x
k
) = I:
x
k+1
= x
k
o
k
VS(x
k
)
8.3 MTODOS INDIRETOS 21
Quando o
k
escolhido de modo a minimizar:
g
k
(o) = S(x
k
o VS(x
k
)) , o > 0
tem-se o mtodo da maior descida (steepest descent), cujo algoritmo bsico pode ser escrito
da seguinte forma.
algoritmo
1) Escolher um ponto inicial x
o
, k 0
2) Calcular d
k
VS(x
k
)
3) Encontrar o
k
tal que S(x
k
+ o
k
d
k
) = g
k
(o) = S(x
k
+ o d
k
)
0
min
o >
4) Calcular x
k+1
x
k
+ o
k
d
k
5) Se o critrio de convergncia no foi satisfeito, ento k k + 1 (ir para 2)
6) FIM.
0.005 0.01 0.015 0.02 0.025 0.03
0.005
0.01
0.015
0.02
X1
X
2
L(x
1
,x
2
)
A minimizao de g
k
(o), conhecida como funo de mrito, tambm chamada de busca em
linha (linesearch), pode ser realizada com o uso de qualquer mtodo de minimizao
univarivel. Para ilustrar esta funo, a figura abaixo mostra a funo g
2
(o) do problema
acima:
x
o
g
1
(o)
g
2
(o)
22 8. INTRODUO OTIMIZAO
g
2
(o)
Aproximando S(x) por uma funo quadrtica:
1 1 1
1
( ) ( ) ( ) ( ) ( ) ( ) ( )
2
k k T k k k k k T k k
S x S x S x x x x x H x x x
+ + +
~ +V +
1 k +
ou de forma similar:
2
1
( ) ( ) ( ) ( ) ( ) ( )
2
k k k T k k k T k k
k
g S x d S x S x d d H x d o = + o ~ + oV + o
que minimizando em relao a o, 0
k
dg
d
=
o
, resulta:
( ) ( )
*
( ) ( ) ( ) ( )
T k k k T k
k
k T k k k T k k
S x d d d
d H x d d H x d
V
o = o = =
Contudo, a equao acima no utilizada para o clculo de o nos mtodos gradientes, pois
exigiria o clculo da segunda derivada da funo objetivo. Neste caso, se utiliza, em geral,
mtodos de busca para a sua seleo.
8.3.2 Mtodo de Newton
Faz uso da segunda derivada da funo objetivo, caso em que W(x
k
) = [H(x
k
)]
-1
:
x
k+1
= x
k
o
k
[H(x
k
)]
-1
VS(x
k
)
que resultado da minimizao da aproximao de S(x) por uma funo quadrtica:
1
( ) ( ) ( ) ( ) ( )
2
k T k k k T k
S x S x S x x x H x x
k
~ +V A + A A
onde Ax
k
= x x
k
, na direo Ax
k
, isto : 0
k
i
S
x
c
=
cA
Ax
k
= [H(x
k
)]
-1
VS(x
k
)
o
o
2
8.3 MTODOS INDIRETOS 23
Neste caso o
k
ou um parmetro de relaxao do processo iterativo 0 < o
k
s 1, ou um fator
de correo da inversa da matriz Hessiana, caso esta no seja atualizada em todas as iteraes.
A positividade da matriz Hessiana deve estar sempre garantida para evitar a migrao para um
ponto sela. E, para assegurar a convergncia do mtodo de Newton, a correo Ax
k
deve ser
tal que S(x
k+1
) < S(x
k
).
Uma maneira de assegurar a positividade da matriz Hessiana atravs da modificao
de Levenberg-Marquardt, que adiciona um fator ajustvel na diagonal da matriz Hessiana, ou
em sua inversa:
) (
~
k
x H = H(x
k
) + |
k
I , |
k
> min{
i
}
W(x
k
) = [H(x
k
)]
-1
+
k
I ,
k
> min{1/
i
}
onde
i
so os valores caractersticos de H(x
k
).
Em particular, quando o mtodo de Newton utilizado para a soluo de problemas de
mnimos quadrados, ele comumente referenciado na literatura como mtodo de Gauss-
Newton. Sendo que uma das aplicaes a soluo de sistemas de equaes no-lineares,
F(x) = 0, transformados em problemas de mnimos quadrados ao procurar minimizar o
quadrado dos resduos, isto ,
2
1
( ) ( ) ( ) ( )
m
T
i
i
S x F x F x f x
=
= =
neste caso VS(x
k
) = 2 J
T
(x
k
) F(x
k
) e H(x
k
) = 2 J
T
(x
k
) J(x
k
) + 2 Q(x
k
), onde
,
( )
i
j
i j
f
J x
x
(
c
=
(
c
(
a matriz Jacobiana do sistema, e H
i
(x) a matriz Hessiana da funo
f
i
(x). Quando f
i
(x
k
) 0 para x
k
x*, ento Q(x
k
) tende a zero, e as direes de busca do
mtodo de Gauss-Newton para o problema de mnimos quadrados:
1
( ) ( ) ( )
m
i i
i
Q x f x H x
=
=
2
min ( ) ( )
n
k k
d
J x d F x
e9
so equivalentes as direes do mtodo de Newton, ou seja:
d
k
= [ J
T
(x
k
) J(x
k
)]
-1
J
T
(x
k
) F(x
k
) ~ [H(x
k
)]
-1
VS(x
k
)
24 8. INTRODUO OTIMIZAO
8.3.3 Mtodo do gradiente conjugado
Utiliza somente a primeira derivada da funo objetivo, gerando uma seqncia de
direes que so combinaes lineares do gradiente:
d
k+1
= c
k+1
d
k
VS(x
k+1
)
onde a nova direo conjugada com a direo anterior com respeito a Hessiana:
(d
k+1
)
T
H(x
k
) d
k
= 0
e x
k+1
= x
k
+ o
k
d
k
, onde o
k
obtido de forma similar ao mtodo da maior descida. Para
calcular c
k+1
, faz-se a aproximao quadrtica de S(x), de onde obtm-se:
VS(x) ~ VS(x
k
) + H(x
k
) (x x
k
)
e portanto: VS(x
k+1
) VS(x
k
) = H(x
k
) (x
k+1
x
k
) = H(x
k
) o
k
d
k
, que multiplicado por d
k+1
esquerda, resulta:
(d
k+1
)
T
[VS(x
k+1
) VS(x
k
)] = o
k
(d
k+1
)
T
H(x
k
) d
k
= 0
substituindo a equao para d
k+1
na expresso acima, tem-se:
[c
k+1
d
k
VS(x
k+1
)]
T
[VS(x
k+1
) VS(x
k
)] = 0 ,
mas devido a ortogonalidade entre a direo de busca e o gradiente da funo objetivo no
mnimo desta direo (d
k
)
T
VS(x
k+1
) = 0 e para a aproximao quadrtica V
T
S(x
k+1
) VS(x
k
) = 0,
resultando em:
1 1 1 1
1
( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
T k k T k k
k
k T k T k k
S x S x S x S x
d S x S x S x
+ + +
+
V V V V
c = =
V V V
+
a ltima igualdade resulta do fato de d
k
= c
k
d
k-1
VS(x
k
) , que multiplicado por VS(x
k
)
direita:
(d
k
)
T
VS(x
k
) = c
k
(d
k-1
)
T
VS(x
k
) V
T
S(x
k
) VS(x
k
) = V
T
S(x
k
) VS(x
k
),
pois (d
k-1
)
T
VS(x
k
) = 0, pela mesma razo acima.
algoritmo
1) Escolher um ponto inicial x
o
2) Calcular d
o
VS(x
o
) , k 0
3) Encontrar o
k
tal que S(x
k
+ o
k
d
k
) = g
k
(o) = S(x
k
+ o d
k
)
0
min
o >
4) Calcular x
k+1
x
k
+ o
k
d
k
e VS(x
k+1
)
5) Se o critrio de convergncia foi satisfeito, ento FIM.
6) Calcular
1 1
1 1
( ) (
( )
( ) ( )
T k k
k k k
T k k
S x S x
d S x d
S x S x
+ +
+ +
V V
V +
V V
)
, k k + 1
7) Se k = n, isto , realizou n direes L.I. ento fazer x
o
x
k
e (ir para 2)
seno (ir para 3)
8.4 MTODO DOS MNIMOS QUADRADOS 25
8.4 Mtodo dos mnimos quadrados
Seja uma relao envolvendo m variveis independentes x
1
, x
2
, ..., x
m
com uma
varivel dependente y:
, sendo a
0
, a
1
, ..., a
n
os chamados n+1 parmetros do modelo. ( ) (
=
=
n
i
i i
f a y
0
mod
, x a x )
Assim:
( )
( ) x
a x
k
k
f
a
y
=
c
c ,
mod
para k= 0, 1, ..., n.
Nesse caso diz-se que a funo linear nos parmetros.
Deseja-se determinar os n parmetros do modelo que minimizem a funo objetivo que a
soma dos quadrados dos erros: ( ) ( ) | | ( )
= = =
(
(
= =
exp exp
1
2
0
exp,
1
2
mod exp,
,
N
j
n
i
j i i j
N
j
j j
f a y y y S x a x a
Logo:
( )
( ) ( )
= =
(
(
=
c
c
exp
1 0
exp,
0 2
N
j
n
i
j i i j j k
k
f a y f
a
S
x x
a
Ou seja: ( ) ( ) ( )
= = =
=
(
(
exp exp
1
exp,
0 1
N
j
j j k
n
i
i
N
j
j i j k
y f a f f x x x
Adotando a notao matricial: ; ;
1 1
0
+
9 e
|
|
|
|
|
.
|
\
|
=
n
n
a
a
a
a
exp
exp
exp,
2 exp,
1 exp,
exp
N
N
y
y
y
9 e
|
|
|
|
|
.
|
\
|
=
y
( ) ( ) ( )
( ) ( ) ( )
( ) ( ) ( )
|
|
|
|
|
.
|
\
|
=
exp exp exp
1 0
2 2 1 2 0
1 1 1 1 0
N n N N
n
n
f f f
f f f
f f f
x x x
x x x
x x x
A
.
Assim:
| | ( ) (
=
=
exp
1
k
N
j
j i j k linha
T
f f x x A A ) e | | ( )
=
=
exp
1
exp,
k lemento
exp
N
j
j j k
e
T
y f x y A
Resultando no sistema linear:
| | | | ( )
exp
1
exp
y A A A a y A a A A = =
T T T T
Uma forma de ajuste bastante empregada o ajuste polinomial, neste caso:
( )
i
i
x f = x para i = 0,....,n , assim:
|
|
|
|
|
.
|
\
|
=
n
N N
n
n
x x
x x
x x
exp exp
1
1
1
2 2
1 1
A
26 8. INTRODUO OTIMIZAO
No caso particular de n = 1 tem-se o ajuste linear quando:
|
|
.
|
\
|
=
|
|
|
|
|
.
|
\
|
=
exp
exp
2 1
2
1
1 1 1
e
1
1
1
N
T
N
x x x
x
x
x
A A
Assim: ou seja:
|
|
|
|
|
.
|
\
|
=
|
|
|
|
|
.
|
\
|
=
=
=
= =
=
exp
exp
exp exp
exp
1
exp,
1
exp,
exp
1
2
1
1
exp
e
N
i
i i
N
i
i
T
N
i
i
N
i
i
N
i
i
T
y x
y
x x
x N
y A A A
|
|
|
|
|
.
|
\
|
=
|
|
.
|
\
|
|
|
|
|
|
.
|
\
|
=
=
= =
=
exp
exp
exp exp
exp
1
exp,
1
exp,
1
0
1
2
1
1
exp
N
i
i i
N
i
i
N
i
i
N
i
i
N
i
i
y x
y
a
a
x x
x N
,
dividindo ambos os membros por N
exp
e definindo os valores mdios:
exp
1
exp
N
x
x
N
i
i
=
= ,
exp
1
exp,
exp
exp
N
y
y
N
i
i
=
= ,
exp
1
2
2
exp
N
x
x
N
i
i
=
= e
exp
1
exp
exp
N
y x
y x
N
i
i i
=
= resulta:
|
|
.
|
\
|
=
|
|
.
|
\
|
|
|
.
|
\
|
exp
exp
1
0
2
1
y x
y
a
a
x x
x
Quando a equao do modelo no-linear nos parmetros, pode se proceder da seguinte
maneira (mtodo de Gauss-Newton): considerando o valor do vetor dos parmetros na
iterao k, lineariza-se a equao do modelo em torno de , resultando em:
) (k
a
) (k
a
( ) ( ) | | ( ) ( ) ( )
= =
+ = + =
n
i
k
i i
k
n
i
k
i
k
i i
k
o linearizad
f a y f a a y y
0
) ( ) (
mod
0
) ( ) ( ) (
mod mod,
, , x x x a x a x ,
sendo ( )
( )
) (
,
mod ) (
k
i
k
i
a
y
f
a
a x
x
c
c
= e ( ) ( ) ( )
=
=
n
i
k
i
k
i
k k
f a y y
0
) ( ) ( ) (
mod
) (
mod
, x a x x
O valor de na prxima iterao (k+1) ento calculado por:
) 1 ( + k
a
( )
| |
( )
( )
k T
k k
T
k
k
exp
1
1
y A A A a =
+
Sendo: e
( )
( )
( )
( )
exp
exp exp
) (
mod exp,
2
) (
mod 2 exp,
1
) (
mod 1 exp,
exp
N
N
k
N
k
k
k
y y
y y
y y
9 e
|
|
|
|
|
.
|
\
|
=
x
x
x
y
\
|
=
exp exp exp
1 0
2 2 1 2 0
1 1 1 1 0
N
k
n N
k
N
k
k
n
k k
k
n
k k
k
f f f
f f f
f f f
x x x
x x x
x x x
A
Conforme observado na seo anterior, quando o mtodo de Newton utilizado para a
soluo de problemas de mnimos quadrados, ele comumente referenciado na literatura
como mtodo de Gauss-Newton. Definindo ento a funo resduo:
( ) ( )
exp, mod
,
j j
R y y = a x
j
a
T
A funo objetivo pode ser escrita como:
exp
2
1
( ) ( ) ( ) ( )
N
T
j
j
S R
=
= =
a R a R a a
neste caso VS(a
(k)
) = 2
k
A R(a
(k)
) e H(a
(k)
) = 2
T
k
A A
k
2Q(a
(k)
), onde
e H
j
(a) a matriz Hessiana da funo R
j
(a). Quando R
j
(a
(k)
) 0, ento Q(a
(k)
) tende a zero, e
as direes de busca do mtodo de Gauss-Newton para o problema de mnimos quadrados:
exp
1
( ) ( ) ( )
N
j j
j
R
=
=
Q a a H a
2
( )
min ( )
n
k
e9
k
d
R a A d
so equivalentes as direes do mtodo de Newton, ou seja:
d
k
=
( )
1
T
k k k
T
A A A R(a
(k)
) ~ [H(a
(k)
)]
-1
VS(a
(k)
)
Casos Particulares de Modelos No Lineares nos Parmetros
1) Modelos Exponenciais: ( ) (
=
=
n
i
i i
x b a x y
0
mod
exp , , b a )
Neste caso, se os pontos experimentais so igualmente espaados, isto :
( ) h j x x
j
+ = 1
1
para j=1, ..., N
exp
, tem-se:
( )
=
=
n
i
j
i i j
p c x y
0
1
mod
, , p c , sendo: ( ) ( ) h b p x b a c
i i i i i
= = exp e exp
1
Desse modo, em cada ponto experimental se tem:
1
exp,
0
n
j
j j i
i
i
R y c p
=
=
Valores preliminares dos parmetros c
i
e p
i
podem ser obtidos considerando que:
1
exp, exp,
0 0
0
n n
1 j j
j j i i j i
i i
i
R y c p y c
= =
= ~ ~
, considerando que p
0
, p
1
, ...p
n
so os valores
caractersticos de uma equao de diferenas de ordem n+1, linear, de coeficientes constantes
28 8. INTRODUO OTIMIZAO
e homognea da forma: Porm nos pontos experimentais tal equao
no satisfeita totalmente, assim define-se o resduo:
0
0
1
= +
+
=
+ + k j
n
k
k n j
Y Y o
k j
n
k
k n j
y y
+
=
+ +
+
exp,
0
1 exp,
o ( )
j
= 9 para ( ) 1 1
exp max
+ = s s n N J j
Os valores de o
0
, o
1
, ..., o
n
so determinados de modo a minimizar a funo:
( )
= =
= 9 =
max max
1
exp,
1
2
J
j
J
j
j
y F
+
=
+ +
(
(
(
+
2
exp,
0
1 k j
n
k
k n j
y o ( ) 1 1
exp max
> + = n N J sendo
Assim:
( )
=
+ + +
+
0
1 exp,
n
k
k n j m j
y y o
+
=
(
(
exp,
0
0
k j k
y o
+ + 2 exp, 1 exp,
5 exp, 4 exp, 3
4 exp, 3 exp, 2
3 exp, 2 exp, 1
max max max
J J
y y
y y
y y
y y
v
( )
n
k
k
n
n
r r P
=
+
+
+ =
0
1
1
o
=
+
=
(
(
(
=
c
c
max
1
exp, exp,
0 2
J
j
k j
m
y
F
o
ou seja:
= =
+ + +
+
max
1
1 exp, exp,
J
j
n
k
n j m j
y y para m = 0,..., n.
Definindo: e , tem-se:
, com os valores dos coeficientes o
0
, o
1
, ..., o
n
determinam-se as
n+1 razes do polinmio: , sejam estas razes: . Mas em
vista de
|
|
|
|
|
|
|
.
|
\
|
=
+
+
+
1 exp, exp,
3 exp, exp,
2 exp, exp,
1 exp, exp,
exp
N J
n
n
n
y y
y y
y y
y y
M
M
T
=
|
|
|
|
|
|
.
|
n
2
1
0
k
r
( )
|
|
|
|
|
|
|
.
|
\
|
=
+
+
+
exp
exp,
4 exp,
3 exp,
2 exp,
N
n
n
n
y
y
y
y
v
n
p p p , , ,
1 0
( ) M M
T
\
|
o
o
o
o
( )
i i i
p
h
b h b ln
1
exp =
i
p = para i = 0, 1,..., n. Assim
e como agora a equao do modelo linear nos coeficientes a
0
, a
1
, ...,a
n
estes so
determinados aps a definio de:
( )
=
=
n
i
i
a x
0
, , b a (
i
x b y
mod
exp )
( ) ( ) ( )
( ) ( ) ( )
( ) ( ) (
|
|
|
|
|
.
|
\
|
=
exp exp exp
exp exp exp
exp exp exp
exp exp exp
1 0
2 2 1 2 0
1 1 1 1 0
N n N N
n
n
x b x b x b
x b x b x b
x b x b x b
A
)
permitindo determinar: | | | | ( )
exp
1
exp
y A A A a y A a A A = =
T T T T
Como exemplo do procedimento, considera-se n= 0, isto :
( ) ( x b a a,b x y = exp ,
mod
) .
8.4 MTODO DOS MNIMOS QUADRADOS 29
Resultando em: e
=
|
|
|
|
|
|
|
.
|
\
|
=
1
1
2
exp,
1 exp,
3 exp,
2 exp,
1 exp,
exp
exp
N
i
i
N
y
y
y
y
y
M M M
T
( )
=
=
|
|
|
|
|
|
|
.
|
\
|
=
exp
exp
2
1 exp, exp,
exp,
4 exp,
3 exp,
2 exp,
N
i
i i
N
y y
y
y
y
y
v M v
T
.
Desse modo:
( )
( )
( )
|
|
|
|
|
|
.
|
\
|
= = =
=
=
=
=
1
1
2
exp,
2
1 exp, exp,
0 0
1
1
2
exp,
2
1 exp, exp,
0
exp
exp
exp
exp
ln
1
exp
N
i
i
N
i
i i
N
i
i
N
i
i i
y
y y
h
b h b p
y
y y
o o
E
=
=
=
exp
0
exp
0
1
2
1
exp,
N
j
x b
N
j
j
x b
j
j
e
y e
a
Para refinar os valores de a
0
e b
0
assim procede-se:
Minimiza-se a funo: | |
=
exp
1
2
exp,
) , (
N
j
x b
j
j
e a y b a S sendo:
Com: | |
c
) , (
exp
N
xj b
x b b a S
= =
c
=
0 2
1
exp,
j
j
e a y e
a
j
( )
=
=
=
exp
exp
1
2
1
exp,
N
j
x b
N
j
j
x b
j
j
e
y e
b a
e | | | | 0 0 2
) , (
exp exp
1
exp,
1
exp,
= = =
c
c
=
N
j
xj b
j
x b
j
N
j
xj b
j
x b
j
e a y e x e a y e x a
b
b a S
j j
Essa ltima expresso, aps a substituio de a em funo de b, uma funo no-linear
apenas de b que resolvida numericamente por um mtodo adequado.
Muitos trabalhos na literatura utilizam a funo ( ) ( x b a a,b x y ) = exp ,
mod
em sua forma
logartmica, assim:
( ) | | ( ) ( ) x b x b a ,b x Y a,b x y + = + = = o o ln , , ln
mod mod
, sendo ( )
o
o e a a = = ln .
30 8. INTRODUO OTIMIZAO
Essa nova funo considerada como a equao do modelo e os valores de o e b so
calculados da mesma forma que no ajuste linear, assim:
|
|
.
\
=
|
|
.
|
\
|
|
|
.
\
exp
exp
2
Y x b x x
o
| | | | 1 Y x
, sendo
( )
( )
( )
|
|
|
|
|
.
|
\
|
=
exp
exp,
2 exp,
1 exp,
exp
ln
ln
ln
N
y
y
y
Y
Esse procedimento denominado erroneamente de linearizao e seu emprego no
recomendvel quando se deseja um bom ajuste dos dados. Porm os valores de a e b assim
estimados podem ser utilizados como valores iniciais para o procedimento mais rigoroso.
2) Modelo Hiperblico: ( )
x b
a
b a x y
+
=
1
, ,
mod
De forma semelhante da feita com o modelo exponencial acima, este modelo pode tambm
ser expresso na forma: ( )
( )
x
b a x y
x Y + = = | o | o
, ,
1
, ,
mod
mod
sendo:
o
o
1 1
= = a
a
e
o
|
| = = b
a
b
. Os valores de o e | so calculados da mesma forma que no
ajuste linear, assim:
|
|
|
=
|
|
|
|
|
|
|
exp
2
1
Y x
Y
x x
x
|
o
. \
. \
. \
exp
, sendo
|
|
|
|
|
|
|
|
|
.
|
\
|
=
exp
exp,
2 exp,
1 exp,
exp
1
1
1
N
y
y
y
=
(
(
+
=
exp
1
2
exp,
1
) , (
N
j
j
j
x b
a
y b a S sendo:
Com =
(
(
+
=
c
=
0
1 1
2
1
exp,
j
j
j
j
x b
y
x b a
(
c 1 ) , (
exp
N
a b a S
( )
=
=
|
|
.
|
\
|
+
+
=
exp
exp
1
2
1
exp,
1
1
1
N
j
j
N
j
j
j
x b
x b
y
b a
e
( ) ( )
0
1
1
0
1
1
2
) , (
exp exp
1
exp,
2
1
exp,
2
=
(
(
+
=
(
(
+
+ =
c
c
= =
N
j
j
j
j
j
N
j
j
j
j
j
x b
a
y
x b
x
x b
a
y
x b
x
a
b
b a S
Essa ltima expresso, aps a substituio de a em funo de b, uma funo no-linear
apenas de b que resolvida numericamente por um mtodo adequado.
Procedimento semelhante pode tambm ser aplicado funo:
8.4 MTODO DOS MNIMOS QUADRADOS 31
( )
( )
( ) X X Y
b a x y x b
x a
b a x y + = =
+
= | o | o, ,
, ,
1
1
, ,
mod
mod
mod
, sendo:
x
X
1
= ,
a
b
= o e
a
1
= |
3) Modelo Geomtrico: Erro! No possvel criar objetos a partir de cdigos de campo de edio.
De forma semelhante da feita com o modelo exponencial acima, este modelo pode tambm
ser expresso na forma: ( ) ( ) ( ) X b b a x y b X Y + = = o o , , ln , ,
mod mod
, sendo ( ) x X ln = e
. ( )
o
o e a a = = ln
Os valores de o e b so calculados da mesma forma que no ajuste linear, assim:
|
|
.
\
=
|
|
.
|
\
|
|
|
.
\
exp
exp
2
Y x b X X
o
| | | | 1 Y X
, sendo
( )
( )
( )
|
|
|
|
|
.
|
\
|
=
exp
exp,
2 exp,
1 exp,
exp
ln
ln
ln
N
y
y
y
Y .
Neste caso tambm vale as duas observaes anteriores.
Para um ajuste que minimize de fato a soma dos quadrados dos erros deve-se ter:
Minimiza-se a funo: sendo: | |
=
=
exp
1
2
exp,
) , (
N
j
b
j j
x a y b a S
Com: | |
c ) , (
exp
N
b b
b a S
= =
c
=
0 2
1
exp,
j
j j j
x a y x
a
( )
=
=
exp
exp
1
2
1
exp,
N
j
b
j
N
j
j
b
j
x
y x
b a
e ( )| | ( )| | 0 ln 0 ln 2
) , (
exp exp
1
exp,
1
exp,
= = =
c
c
= =
N
j
b
j j j
b
j
N
j
b
j j j
b
j
x a y x x x a y x x a
b
b a S
Essa ltima expresso, aps a substituio de a em funo de b, uma funo no-linear
apenas de b que resolvida numericamente por um mtodo adequado.
Lista de exerccios
1) Determine (a partir da definio de concavidade e convexidade) a concavidade ou
convexidade das funes:
(a) ( ) (
2
1 2 1 2
( , ) 2 3 1 f x x x x )
2
= + + no domnio: ;
1 2
, 0 x x >
(b)
2 2
1 2 3 1 2 3
( , , ) 2 3
2
f x x x x x x = + no domnio: .
1 2 3
, , 0 x x x >
2) Determine a localizao e a natureza dos pontos estacionrios das funes abaixo,
determine tambm (em cada caso) o mximo e o mnimo globais:
32 8. INTRODUO OTIMIZAO
(a)
2
2
( ) para x 0
1
x
f x
x
= >
+
;
(b)
( )
( ) para - x
sen x
f x
x
t t = s s ;
(c)
2
( ) ( ) para 0 x
x
f x e sen x t
= s s ;
(d)
3 2
1 2 1 1 2 2
( , ) 3 3 f x x x x x x = + ;
(e)
2 2
1 2 1 2 1 2 1 1 2
1
( , ) para x , 0
2
f x x x x x x x x = + + > .
3) Resolva, utilizando multiplicadores de Lagrange, cada um dos problemas abaixo:
(a) Maximize:
1 2 1 2
( , ) f x x x x = tal que :
1 2
2 4 x x + = ;
(b) Minimize: tal que : ( ) ( ) (
2 2
1 2 1 2 3
( , ) 2 2 1 3 f x x x x x = + + )
2
)
2
1
;
2 2 2
1 2 3 1 2 3
2 2 4 e x 2 3 48 x x x x x + + > + + >
(c) Minimize: tal que : ( ) ( ) (
2 2
1 2 1 2 3
( , ) 2 2 1 3 f x x x x x = + +
;
2 2 2
1 2 3 1 2 3
2 2 4 e x 2 3 48 x x x x x + + s + + s
(d) Minimize: . ( )
3
2 2 2
1 2 1 2 1 2
( , ) tal que : x 1 0 f x x x x x = + =
4) Se as coordenadas x
1
e x
2
esto relacionadas por:
1 2
2 x x + = , ache os pontos sobre a
elipside: que se encontram, respectivamente, mais prximo e mais
afastado da origem.
2 2 2
1 2 3
2 x x x + + =1
5) Determine as dimenses do paraleleppedo, cuja diagonal tem um comprimento d, que
apresenta o maior volume.
6) Teste as condies necessrias e suficientes do problema abaixo.
min S(x) = x
1
x
2
sujeito a:
2 2
1 1 2
( ) 25 0 g x x x = + s
7) Em um reator qumico conduzida uma reao qumica irreversvel de segunda ordem, o
processo em batelada. O balano de massa do reagente descrito pela equao diferencial:
| |
0
2
0 com ) (
) (
c ) c( t c k
dt
t dc
= =
A variao da concentrao do reagente com o tempo medida construindo-se a tabela:
t (min) 1 2 3 4 5 7 10 12 15 20 25
c x100
(mol/L)
4,049 3,086 2,604 2,222 1,912 1,524 1,142 0,980 0,741 0,649 0,521
8.4 MTODO DOS MNIMOS QUADRADOS 33
Baseado nestes dados estime os valores de k e de c
0
.
Dica: A soluo da EDO : ( )
t c k
c
t c
+
=
0
0
1
considere:
0
c a = e e determine os
parmetros a e b como indicado em na seo 7.4 para modelo hiperblico.
0
c k b =
8) A intensidade de radiao de uma fonte radioativa expressa por: .
Determine os valores de I
0
e de o que melhor ajustem os dados experimentais abaixo:
t
e I t I
=
o
0
) (
t 0,2 0,3 0,4 0,5 0,6 0,7 0,8
I(t) 3,16 2,38 1,75 1,34 1,00 0,74 0,56
Dica: note que os pontos esto igualmente espaados, considere ento que:
sendo para i = 0, 1, ...., 7. ( ) ( )
i i
t I p t I
mod 1 mod
=
+
i 0, 2 0,1
i
t = +
9) y uma funo de x dada pela tabela abaixo, sabe-se que esta dependncia expressa por:
. Determine os valores de A, B, o e |.
x x
e B e A x y
+ =
| o
) (
x 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1
y(x) 2,31604 2,02877 1,78030 1,56513 1,37854 1,21651 1,07561 0,95289
Dica: note que os pontos esto igualmente espaados, considere ento que:
( ) ( ) ( ) 0
mod 1 mod 2 mod
= + +
+ + i i i
t y c t y b t y i sendo 0, 4 0,1
i
t = + para i = 0, 1,....,7. Os valores de
b e c so determinados de modo a minimizar a funo:
( ) ( ) ( )
5
2
mod 2 mod 1 mod
0
0
i i i
i
y t b y t c y t
+ +
=
+ + =
0
2
= + + c p b p
(
=
2
x b a
x a
x b x b
e
x b sen e
e e
x b sen
i
=
+
2
x b a
e
, pode-se assim interpretar
como se o polinmio caracterstico associado apresenta um par de raiz complexa conjugada.
Aps as razes serem determinadas o valores iniciais dos parmetros seriam:
( ) ( ) = 9 = 9 =
0 0
ln 5 ln
1
r e r e
h
a e ( ) ( )
0 0
arg 5 arg
1
r r
h
b = =
11) y uma funo de x dada pela tabela abaixo, sabe-se que esta dependncia expressa por:
. Determine os valores de A, B e o B e A x y
x
+ =
o
) (
34 8. INTRODUO OTIMIZAO
x 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 2,6 2,8 3,0
y(x)
3,00767 2,79720 2,61553 2,45874 2,32340 2,20659 2,10576 2,01874 1,94363 1,87880 1,82284
Dica: note que os pontos esto igualmente espaados, considere ento que:
( ) ( ) ( ) ( ) 0 1
mod 1 mod 2 mod
= + +
+ + i i i
t y b t y b t y i sendo 1 0, 2
i
t = + para i = 0, 1, ...., 10. Com o
valor de b determinam-se as razes de ( ) ( ) ( ) 0 1 1
2
= + b p p = + p b p b estas razes so:
e . Calculam-se ento A e B por regresso linear. 1
1
= r ( )
0,2
2
5 ln r b e b
o
= = o =
12) Atravs de fotografias estroboscpicas de pequenas bolhas de ar possvel medir o perfil
de velocidade prxima parede de um tubo no qual escoa um fluido. Com um nmero de
Reynolds de 1200 e com um tubo de 1 polegada de dimetro interno os seguintes pontos
experimentais so obtidos:
y (distncia parede)
cm
u (velocidade)
cm/s
y (distncia parede)
cm
u (velocidade)
cm/s
0,003 0,03 0,056 0,85
0,021 0,32 0,061 0,92
0,025 0,30 0,070 1,05
0,025 0,33 0,078 1,117
0,037 0,57 0,085 1,32
0,043 0,66 0,092 1,38
0,049 0,74 0,106 1,57
0,053 0,80 0,113 1,65
0,055 0,84
A funo que melhor ajusta o perfil de velocidade : , baseado nos dados
acima determine os valores de p
2
) ( y q y p y u + =
e q.
13) Os coeficientes de transferncia de calor em trocadores de calor so adequadamente
modelados por expresso do tipo:
o |
o r Nu = Pr Re
Onde Nu, Re e Pr so, respectivamente, os nmeros de Nusselt, Reynolds e Prandt e r a
razo entre a viscosidade temperatura mdia do fluido e temperatura da parede; o, |, e o
so constantes. Os seguintes dados experimentais esto disponveis:
Nu Re Pr r
277 49000 2,30 0,947
348 68600 2,28 0,954
421 84800 2,27 0,959
223 34200 2,32 0,943
177 22900 2,36 0,936
114,8 1321 246 0,592
95,9 931 247 0,583
68,3 518 251 0,579
49,1 346 273 0,290
56,0 122,9 1518 0,294
39,9 54,0 1590 0,279
47,0 84,6 1521 0,267
94,2 1249 107,4 0,724
99,9 1021 186 0,612
83,1 465 414 0,512
35,9 54,8 1302 0,273
8.4 MTODO DOS MNIMOS QUADRADOS 35
Estimar os valores de o, |, e o que melhor ajustam os pontos acima.
14) Encontre o mnimo das seguintes funes objetivo usando os mtodos diretos e indiretos
descritos nas sees 7.2 e 7.3 e compare os resultados em termos do nmero de funes
objetivo avaliadas por cada mtodo:
a) S(x) = 100 (x
2
x
1
2
)
2
+ (1 x
1
)
2
b) S(x) = [1,5 x
1
(1 x
2
)]
2
+ [2,25 x
1
(1 x
2
2
)]
2
+ [2,625 x
1
(1 x
2
3
)]
2
c) S(x) = 4 x
1
2
2 x
1
x
2
+ x
2
2
d) S(x) = exp(x
1
) (4 x
1
2
+ 2 x
2
2
+ 4 x
1
x
2
+ 2 x
2
+ 1)
e) S(x) = 4 (x
1
5)
2
+ (x
2
6)
2
f) S(x) = x
1
2
5 x
1
+ 3 x
2
2
+ 3
g) S(x) = (x
1
2)
2
+ (x
2
1)
2