Escolar Documentos
Profissional Documentos
Cultura Documentos
______________________________
Pappus de Alejandría.
OPTIMIZACION
DE FUNCIONES ESCALARES
Pn ( x) = a 0 + a1 x + a 2 x 2 + a 3 x 3 + .................... + a n x n
Como este polinomio lo usaremos para aproximar una función de variable real
en la vecindad de un punto, podemos escribir:
f ( x) ≈ a 0 + a1 x + a 2 x 2 + a3 x 3 + .................... + a n x n 4-1
f ( x ) ≈ a 0 + a1 ( x − x 0 ) + a 2 ( x − x 0 ) 2 + a 3 ( x − x 0 ) 3 + ........ + a n ( x − x 0 ) n 4-2
f ( x0 ) = a 0 + 0 ⇒ a0 = f ( x0 )
f ' ( x) = a1 + 2a 2 ( x − x0 ) + 3a 3 ( x − x 0 ) 2 + ........ + na n ( x − x 0 ) n −1
f ' ( x0 ) = a1 + 0 ⇒ a1 = f ' ( x0 )
f ' ' ( x0 )
f ' ' ( x 0 ) = 2a 2 + 0 ⇒ a 2 =
2!
f ' ' ( x0 ) f ( n) ( x0 )
f ( x) ≈ f ( x 0 ) + f ' ( x0 )( x − x0 ) + ( x − x 0 ) 2 + ..... + ( x − x0 ) n
2! n!
x
( x − t ) n ( n +1)
R n ( x, x 0 ) = ∫ n! f (t )dt , y debe ser un valor pequeño entre más
x0
R n ( x, x 0 )
Lim = 0.
x → x0 ( x − x0 ) n
f ( X ) = f ( X 0 ) + ∇f ( X 0 ) • ( X − X 0 ) + R1 ( X , X 0 )
f ( X ) = f ( X 0 ) + ∇ f ( X 0 ) • ( X − X 0 ) + 12 H [ f ( X 0 ) ][X − X 0 ] • ( X − X 0 ) + R 2 ( X , X 0 )
x1 − x01
x − x
2 02
.
[X − X 0 ] = . , matriz columna de dimensión n × 1
.
x n − x0 n
∂2 f ∂2 f ∂2 f ∂2 f
2
...
∂x21 ∂x 2 ∂x1 ∂x3 ∂x1 ∂x n ∂x1
∂ f ∂2 f ∂2 f ∂2 f
...
H [ f ( x)] = ∂x1∂x 2 ∂x 2
2
∂x3 ∂x 2 ∂x n ∂x 2
: : : :
∂2 f ∂ f2 2
∂ f ∂2 f
... 2
∂x1∂x n ∂x 2 ∂x n ∂x3 ∂x n ∂x n
n
∂f n n
∂2 f
f ( x) = f ( x o ) + ∑ ( x i − x 0i ) + 1
2 ∑ ∑ ∂x ∂x ( x i − x 0i )( x j − x 0 j ) + R 2 ( x, x 0 )
i =1 ∂x i i =1 j =1 i j
4.1 Formula de Taylor 149
[ ][
El producto H f ( X 0 ) X − X 0 ], representa un producto de dos matrices, de
dimensiones (n × n) por (n × 1) y resulta un vector de n componentes que se
multiplica escalar mente con el vector diferencia X − X 0 y forma el tercer término de
la fórmula de Taylor al segundo orden.
producto escalar
1
f ( X ) = f ( X 0 ) + ∇f ( X 0 ) • ( X − X 0 ) + H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) + R2 ( X , X 0 )
2
producto matricial
2
Si la función escalar esta en R :
f : R2 → R
∂2 f ∂2 f
2 ( X − X o ) = ( x − xo ; y − yo )
∂x ∂y∂x
[ ]
H f ( x, y ) = 2
∂ f ∂2 f
∂x∂y ∂y 2
Solución: f ( x, y ) = Sen( x + 2 y )
∇f = (Cos ( x + 2 y ),2Cos ( x + 2 y ))
f (0,0) = 0
150 Capítulo 4 Optimización de Funciones Escalares
∇f ( 0, 0 )
= (1,2)
f ( x, y ) = 0 + (1,2) • ( x − 0, y − 0) + R1
f ( x, y ) = x + 2 y + R1
Solución: [
∇f = ye xy sen( x + y ) + e xy cos( x + y ), xe xy sen(x + y ) + e xy cos(x + y ) ]
y 2e xy sen(x + y ) + ye xy cos(x + y ) + e xy sen(x + y ) + xyexy sen(x + y ) +
xy
ye cos(x + y ) − e sen( x + y )
xy
ye xy cos(x + y ) + xe xy cos(x + y ) −
e xy sen(x + y )
H[ f ]=
e xy sen(x + y ) + xye xy sen(x + y ) +
x 2e xy sen(x + y ) + xe xy cos(x + y ) +
xe cos( x + y ) + ye cos( x + y ) −
xy xy
xy xe xy cos(x + y ) − e xy sen(x + y )
e sen(x + y )
∇f (0,π ) = ( π2 ,0)
2
π −1 0
2
H [ f ] (0,π ) = 4
2
0 − 1
X − X 0 = ( x, y − π2 )
x
[X − X 0 ] = π
y − 2
H [ f ( X 0 )][ X − X 0 ] = ( π4 x − x,− y + π2 )
2
f (0, π2 ) = 1
∇f ( X 0 ) ⋅ ( X − X 0 ) = π2 x
4.1 Formula de Taylor 151
H [ f ( X 0 )][X − X 0 ] • ( X − X 0 ) = ( π4 x − x) x + ( y − π2 )(− y + π2 )
2
f ( x, y ) = 1 + x + 12 ( π4 − 1) x 2 + 12 ( − y 2 + πy − π4 ) + R2 ( x, y )
2 2
π
2
f ( x, y ) = π 8− 4 x 2 − 12 y 2 + y + (1 − π8 ) + R2 (x, y )
2 2
π π
2
x+ 2
e x cos y − e x seny 1 0
H [ f ( x, y )] = x x =
− e seny − e cos y ( 0,0 ) 0 − 1
[X − X o ] =
x − 0 x
=
y − 0 y
x 1 0 x x
H [ f ( x o , y o )] = = − y
y 0 − 1 y
f ( x, y ) = f ( x o , y o ) + ∇f ( x o , y o ) • (( x, y ) − ( x o , y o ) ) +
1
[H [ f (x o , y o )][( x, y ) − ( x o , y o )]] • [( x, y ) − ( x o , y o )] + R
2
f ( x, y ) = 1 + (1,0) • ( x, y ) + 12 ( x,− y ) • ( x, y ) + R2
= 1 + x + 12 ( x 2 − y 2 ) + R2
f ( x, y ) = 1 + x + 12 x 2 − 12 y 2 + R2
152 Capítulo 4 Optimización de Funciones Escalares
f (0.1,0.1) = 1.099649
f ( x, y ) ( 0.1, 0.1)
= 1.1
g ( x0 + h) = g ( x0 ) + Dg ( x0 )h + R g ( x0 , h)
Haciendo: k = Dg ( x0 )h + R g ( x0 , h) , tenemos:
g ( x0 + h) = g ( x0 ) + k ; por otro lado podemos ver que:
Limk = 0 .
h →0
D( f o g )( x0 ) = Df ( g ( x0 )) Dg ( x0 )
R f o g ( x0 , h) = ( f o g )( x0 + h) − ( f o g )( x 0 ) − Df ( g ( x 0 )) Dg ( x0 )h
O lo que es lo mismo:
R f o g ( x 0 , h) = f ( g ( x 0 + h)) − f ( g ( x 0 )) − Df ( g ( x 0 )) Dg ( x 0 ) h
4.1 Formula de Taylor 153
R f o g ( x 0 , h) = f ( g ( x 0 ) + k )) − f ( g ( x 0 )) − Df ( g ( x 0 )) Dg ( x 0 )h
R f o g ( x 0 , h) = f ( y 0 + k )) − f ( y 0 ) − Df ( y 0 ) Dg ( x 0 ) h
Para demostrar que f o g es diferenciable en x0 debemos hacer
R f o g ( x0 , h)
ver que Lim =0
h →0 h
Una fórmula de Taylor para f ( y 0 + k ) al primer orden es:
f ( y 0 + k ) = f ( y 0 ) + Df ( y 0 )k + R f ( y 0 , k ) , entonces:
R f o g ( x 0 , h) = f ( y 0 ) + Df ( y 0 ) k + R f ( y 0 , k ) − f ( y 0 ) − Df ( y 0 ) Dg ( x 0 ) h
R f o g ( x0 , h) = Df ( y0 )k + R f ( y0 , k ) − Df ( y0 ) Dg ( x0 )h , como:
k = Dg ( x0 )h + R g ( x0 , h) , entonces:
[ ]
R f o g ( x 0 , h) = Df ( y 0 ) Dg ( x 0 )h + R g ( x 0 , h) + R f ( y 0 , k ) − Df ( y 0 ) Dg ( x 0 )h
R f o g ( x0 , h) = Df ( y0 ) Dg ( x0 )h + Df ( y0 ) Rg ( x0 , h) + R f ( y0 , k ) − Df ( y0 ) Dg ( x0 )h
R f o g ( x0 , h ) = Df ( y0 ) Rg ( x0 , h) + R f ( y0 , k ) , o lo que es lo mismo:
R f o g ( x0 , h) = Df ( y 0 ) R g ( x0 , h) + R f ( y 0 , k )
Utilizando la desigualdad triangular:
R f o g ( x0 , h) ≤ Df ( y 0 ) R g ( x 0 , h) + R f ( y 0 , k )
Utilizando la propiedad matricial: Ax ≤ M x , donde A es una
matriz y M un número cualquiera, tenemos:
R f o g ( x0 , h) ≤ M R g ( x 0 , h) + R f ( y 0 , k ) , dividiendo todo
para h > 0:
R f o g ( x 0 , h) R g ( x0 , h) R f ( y0 , k )
0≤ ≤M + ; por otro
h h h
lado:
154 Capítulo 4 Optimización de Funciones Escalares
R f ( y0 , k ) R f ( y0 , k ) k
=
h k h
R f ( y0 , k ) R f ( y 0 , k ) Dg ( x0 )h + R g ( x0 , h)
=
h k h
Aplicando la desigualdad triangular y matricial antes expuesta:
R f ( y0 , k ) R f ( y 0 , k ) Dg ( x0 )h R g ( x 0 , h)
≤ +
h k h h
R f ( y0 , k ) R f ( y0 , k ) ~ h R g ( x 0 , h)
≤ M +
h k h h
R f ( y0 , k ) R f ( y 0 , k ) ~ R g ( x 0 , h)
≤ M + , remplazando:
h k h
R f o g ( x 0 , h) R g ( x 0 , h) R f ( y 0 , k ) ~ R g ( x0 , h
0≤ ≤M + M +
h h k h
Como:
R g ( x 0 , h)
Lim = 0 , por ser g ( x ) diferenciable en x 0 , y:
h →0 h
R f ( y0 , k )
Lim = 0 , por ser f ( x ) diferenciable en x 0 .
k →0 k
Entonces:
R f o g ( x 0 , h)
Lim = 0.
h →0 h
A los extremos de una función escalar se los llama también valores óptimos de
la función escalar o extremos relativos de la función escalar.
Si en x o hay un
extremo local ⇒ [∇f ( xo ) = 0]
En x 0 exista un
[∇f ( xo ) = 0] ⇒ extremo local
Demostración:
Supongamos que ∇f ( x 0 ) ≠ 0 .
La derivada direccional de f ( x) en x0 , en la dirección del gradiente:
2
f ´(xo; ∇f ( xo)) = (∇f ( x0 ) • ∇f ( x0 ) = ∇f ( xo) > 0
156 Capítulo 4 Optimización de Funciones Escalares
∇f ( x, y ) = [2 x 2 y ] = [0 0]
Solución: 2 x = 0 ;
⇒ ( x, y ) = (0,0)
2 y = 0
Si la matriz Hessiana es diagonal quiere decir que todas las derivadas parciales
mixtas de la función son cero y las dobles no; este razonamiento es muy importante
para poder demostrar la forma como sirve la matriz Hessiana para calificar la
naturaleza de los valores extremos. Ahora, si la matriz Hessiana es diagonal es
4.3 La Matriz Hessiana como calificadora de la Naturaleza de Extremos Locales 157
importante el signo que tienen los valores que están en la diagonal principal; esto nos
lleva hacer la siguiente clasificación de la matriz Hessiana:
∂ 2 f
2
0 0 ... 0
∂x1
Matriz Hessiana
0
∂2 f
0 ... 0
⇒
H = 2 diagonal de dimensión
∂x 2 n×n
: : : :
∂2 f
0 0 0 ... 2
∂ x n
∂2 f ∂2 f ∂2 f ∂2 f
...
2
∂x2∂x1 ∂x3∂x1 ∂xn ∂x1 Matriz Hessiana no
∂x2 1
∂ f ∂2 f ∂2 f ∂ f
2 ⇒ diagonal de dimensión
H = ∂x1∂x2 ∂x2
2
∂x3∂x2
...
∂xn ∂x2
n×n
: : : :
∂2 f ∂2 f ∂2 f ∂ f
2
... 2
∂x1∂xn ∂x2 ∂xn ∂x3∂xn ∂xn
∂2 f
1. Si ∀i, 2
> 0 , (todos los términos de la diagonal principal son
∂xi
positivos) se dice que es “DEFINIDA POSITIVA”.
∂2 f
2. Si ∀i, 2
< 0 , (todos los términos de la diagonal principal son
∂xi
negativos) se dice que es “DEFINIDA NEGATIVA”.
∂2 f
3. Si ∀i, 2
≥ 0 , (todos los términos de la diagonal principal son no
∂xi
negativos) se dice que es “SEMI DEFINIDA POSITIVA”.
∂2 f
4. Si ∀i, 2
≤ 0 , (todos los términos de la diagonal principal son no
∂xi
positivos) se dice que es “SEMI DEFINIDA NEGATIVA”.
Demostración:
Como en x0 hay un extremo local de la función, del teorema 4-1 tenemos que
∇f ( x 0 ) = 0 .
f ( X ) = f ( X 0 ) + ∇ f ( X 0 ) • ( X − X 0 ) + 12 H [ f ( X 0 ) ][X − X 0 ] • ( X − X 0 ) + R 2 ( X , X 0 )
f ( X ) = f ( X 0 ) + 12 H [ f ( X 0 )][ X − X 0 ] • ( X − X 0 ) + R2 ( X , X 0 )
O lo que es lo mismo:
f ( X ) − f ( X 0 ) = 12 H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) + R 2 ( X , X 0 )
Si H [ f ( x0 )] es definida positiva; 1
2 H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) > 0
Y por supuesto 1
2 H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) + R 2 ( X , X 0 ) > 0 , por
ser R 2 ( X , X 0 ) un infinitésimo; entonces:
De igual forma:
Y por supuesto 1
2 H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) + R 2 ( X , X 0 ) < 0 , por
ser R 2 ( X , X 0 ) un infinitésimo; entonces:
1
2
H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) ≥ 0
1
2
H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) ≤ 0
1
2 H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) + R 2 ( X , X 0 ) ≥ 0
1
2 H [ f ( X 0 ) ][ X − X 0 ] • ( X − X 0 ) + R 2 ( X , X 0 ) ≤ 0
Por cuanto en este caso la presencia del infinitésimo si afecta el signo de este
término y esto no permite aseverar que se pueda tratar de un mínimo o máximo,
respectivamente, sino solo afirmar que “puede tratarse” de estos extremos.
2 0
H [ f ( x, y ) ] =
0 2
Definida positiva lo que indica que en el punto (0,0) hay un valor mínimo de la
función y es un extremo absoluto por cuanto la matriz Hessiana ni siquiera depende del
valor (0,0) para ser definida positiva sino que lo es en todo el dominio de la función.
Hay que tomar en cuenta en los ejercicios que si la matriz Hessiana es semi-
definida, debemos probar en todas las direcciones posibles antes de concluir que se
trata de un valor máximo o mínimo; en el caso de semi-definida es más fácil negar que
se trata de un valor extremo que afirmar que es un valor extremo; por cuanto en el
primer caso se trata de probar un cuantificador de existencia mientras que en el
segundo caso se trata de probar un cuantificador universal y por lo tanto siempre
quedará la duda de lo afirmado.
4.3 La Matriz Hessiana como calificadora de la Naturaleza de Extremos Locales 161
∇f ( x ) = 0
Encontrar los posibles H [ f ( x 0 )] DIAGONAL
extremos (Calificar los
(valores críticos) valores críticos)
NO DIAGONAL
(Calcular autovalores)
Con los
autovalores
(Calificar los valores
críticos)
Figura 4-2
Solución: ∇f ( x, y ) = (2 x,−2 y )
∇f ( x, y ) = (0,0) ⇒ ( x, y ) = (0,0)
2 0
H [ f ( x, y ) ] = , no definida, por lo tanto en (0,0) hay
0 − 2
un punto de silla
162 Capítulo 4 Optimización de Funciones Escalares
Regla de CRAMER
Si en un sistema homogéneo el determinante del sistema es diferente de 0 ⇒ que
el sistema tiene solución, única y es la solución cero.
det[ A − λI ] = 0 4-5
7 3 0
Ejemplo 4-7 Encontrar los autovalores de la matriz: A = 3 7 4
0 4 7
7 3 0 1 0 0
Solución: A − λI = 3 7 4 − λ 0 1 0
0 4 7 0 0 1
4.3 La Matriz Hessiana como calificadora de la Naturaleza de Extremos Locales 163
7 − λ 3 0
det 3 7−λ 4 = 0
0 4 7 − λ
( )
(7 − λ ) (7 − λ ) 2 − 16 − 3(3(7 − λ ) ) = 0
(7 − λ )(49 − 14λ + λ 2 − 16) − 9(7 − λ ) = 0
( )
(7 − λ ) 33 − 14λ + λ2 − 9(7 − λ ) = 0
(7 − λ )(24 − 14λ + λ ) = 0
2
(7 − λ )(λ − 12)(λ − 2) = 0
λ1 = 7
λ 2 = 12
λ =2
3
Solución: ∇f = [2 x − 2 2 y + 4] = [0 0]
2x − 2 = 0 ⇒ x = 1
2 y + 4 = 0 ⇒ y = −2
Valor crítico: (1,-2)
2 0
H [ f ( x, y ) ] = ; definida positiva
0 2
Solución: [
∇ f ( x, y ) = 2 x − 2 y + 3 x 2 ]
− 2 x + 2 y + 3 y 2 = [0 0]
2 x − 2 y + 3x 2 = 0
− 2x + 2 y + 3y 2 = 0
3( x 2 + y 2 ) = 0
⇒ (0,0) Valor crítico
2 + 6 x −2
H [ f ( x, y ) ] =
−2 2 + 6 y
2 − 2
H [ f (0,0)] = ; como no es diagonal, calculamos los
− 2 2
autovalores: Y
2 − λ − 2 +
det =0 +
− 2 2 − λ +
+
(2 − λ ) 2 − 4 = 0 +
+
+ ++
4 − 4λ + λ 2 − 4 = 0 --- - -+++ +++++++++ X
-1 + 1
λ ( λ − 4) = 0 +
λ1 = 0 -
-
λ2 = 4 ; -
Semi definida positiva - Figura 4-3
2 3
En la dirección: y = 0 eje " X " ; f ( x,0) = x + x
Como se ve en la figura 4-3, en una pequeña vecindad de (0,0) si se
trata de un mínimo.
Como se aprecia en la misma figura lo mismo pasa para la
dirección del eje “Y” x = 0 ; pero no para el caso de la dirección
4.3 La Matriz Hessiana como calificadora de la Naturaleza de Extremos Locales 165
y=x ; f ( x, x ) = 2 x 3
Solución: [
∇f = 3 x 2 − 2 xy − 2 x − x 2 + 2 y = [0 0] ]
3x 2 − 2 xy − 2 x = 0
⇒ 2
− x + 2 y = 0
x2 x2
y= ⇒ 3x 2 − 2 x − 2 x = 0
2 2
3x 2 − x 3 − 2 x = 0
x(3 x − x 2 − 2) = 0
x=0 3x − x 2 − 2 = 0
x = 2; x = 1
6 x − 2 y − 2 − 2 x − 2 0
Hf = Hf =
− 2x 2 ( 0,0 )
0 2
3 − 2 3 − λ −2
Hf = ; det =0
2 − λ
1
1, −
2− 2 2 −2
(3 − λ )(2 − λ ) − 4 = 0
166 Capítulo 4 Optimización de Funciones Escalares
6 − 5λ + λ2 − 4 = 0
λ2 − 5λ + 2 = 0
5 ± 25 − 8
λ= ; λ1 = 4.56; λ 2 = 0.43 ; definida (+)
2
6 − 4 6 − λ −4
Hf = ; det =0
( 2, 2)
− 4 2 −4 2 − λ
(6 − λ )(2 − λ ) − 16 = 0
12 − 8λ + λ2 − 16 = 0
λ2 − 8λ − 4 = 0
8 ± 64 + 16
λ= ; λ1 = 8.47; λ 2 = −0.47 ; no definida
2
4 x 3 − 4 x + 4 y 0
Solución: ∇f = 3 =
4 y + 4 x − 4 y 0
x3 − x + y = 0 ; ⇒ y = x − x3
y3 + x − y = 0
(x − x3 )3 + x − x + x3 = 0
x 3 (1 − x 2 ) 3 + x − x + x 3 = 0
4.3 La Matriz Hessiana como calificadora de la Naturaleza de Extremos Locales 167
x 3 (1 − 3 x 2 + 3 x 4 − x 6 ) + x 3 = 0
x 3 − 3x 5 + 3x 7 − x 9 + x 3 = 0
x 9 − 3x 7 + 3x 5 − 2 x 3 = 0
x 3 ( x 6 − 3 x 4 + 3 x 2 − 2) = 0 ; ⇒ x = 0; y=0
6 4 2
( x − 3 x + 3 x − 1) − 1 = 0
( x 2 − 1) 3 − 1 = 0 ; diferencia de cubos
( x 2 − 1 − 1)( x 4 − 2 x 2 + 1 + x 2 − 1 + 1) = 0
( x 2 − 2)( x 4 − x 2 + 1) = 0
( x 4 − x 2 + 1) = 0 ; no sirve porque son valores imaginarios
⇒ x2 = 2 x=± 2
Puntos Críticos ( 0 , 0 ) ; ( 2 ,- 2 ) ; (- 2 , 2 )
12 x 2 − 4 4
H ( x) =
4 12 y 2 − 4
− 4 4
H (0,0) =
4 − 4
−4−λ 4
=0 16 + 8λ + λ2 − 16 = 0
4 −4−λ
λ1 = 0 λ 2 = −8
y=x
++ +
+
+ +
+ +
-- +
+
- +
X
++
+ --
- +
+ + +
+ ++
+
y = -x
Figura 4-4
20 4
H ( 2 ,− 2 ) =
4 20
20 − λ 4
=0
4 20 − λ ⇒ (20 − λ ) 2 − 16 = 0
λ1 = 24 λ 2 = 16
20 4
H (− 2 , 2 ) = ; lo mismo, por lo tanto:
4 20
Hay mínimos en ( 2 ,− 2 ); ( − 2 , 2 )
f ( 2 , − 2 ) = ( − 2 , 2 ) = −8
4.3 La Matriz Hessiana como calificadora de la Naturaleza de Extremos Locales 169
4 x − 3 y 2 0
Solución: ∇f = 3 =
4 y − 6 xy 0
4 − 6y
H = 2
− 6 y 12 y − 6 x
∇f = 0
4x − 3 y 2 = 0 x = 34 y 2
4 y 3 − 6 xy = 0 ; 4 y 3 − 6( 34 y 2 ) y = 0
4 y 3 − 92 y 3 = 0 ⇒ x = 0 ; y=0
4 0
H (0,0) = Semidefinida Positiva
0 0
y = ax
X
(0 , 0)
Figura 4-5
170 Capítulo 4 Optimización de Funciones Escalares
f ( x, ax) = 2 x 2 + a 4 x 4 − 3a 2 x 3
∧
f ' = 4 x + 4a 4 x 3 − 9a 2 x 2
∧
f ' ' = 4 + 12a 4 x 2 − 18a 2 x
∧ ∧
f ' (0) = 0 ; f ' ' (0) = 4 > 0 ⇒ Indica que la función tiene un
mínimo sobre cualquier perfil de la forma y = ax .
f=0
f=0
+ -
+ + -- +
+ + + + + X
+ + + ++
+ + - +
--
+
2x − y 2 = 0
x − y2 = 0
Figura 4-6
g1 ( X ) = b1
g (X ) = b
2 2
Sujeto a: Conjunto de restricciones
.
g k ( X ) = bk
El mínimo de z = x2 + y2 ,
sujeto a la restricción:
ax + by + cz + d = 0 (plano π )
El punto P1 es el mínimo
Extremo
absoluto de la función y el punto P2
Condicionado representa el mínimo condicionado al
plano π , como puede apreciar en
este gráfico resolver este problema
x Extremo Absoluto
condicionado, geométricamente, es
Figura 4-7
172 Capítulo 4 Optimización de Funciones Escalares
g1 ( X ) ≤ b1 g1 ( X ) ≥ b1
g ( X ) ≤ b g ( X ) ≥ b
2 2 2 2
o de la forma o combinando las desigualdades
. .
g k ( X ) ≤ bk g k ( X ) ≥ bk
con las igualdades.
Consideremos el problema:
Optimizar z = f (X )
g1 ( X ) = b1
g (X ) = b
2 2
Sujeto a:
.
g k ( X ) = bk
Podemos construir una función que asocie la función objetivo del problema
original y el conjunto de restricciones de la siguiente manera:
∇L = 0 , esto implica:
∂L ∂f ∂g ∂g ∂g
= − λ1 1 − λ 2 2 − ......... − λ k k = 0; i = 1,2,....., n
∂xi ∂xi ∂xi ∂xi ∂xi
∂L
= g j ( X ) − b j = 0; j = 1,2,...., k
∂λ j
∂L
= 0; i = 1,2,...., n
∂xi
∂L
= 0; j = 1,2,...., k
∂λ j
fˆ ( x, y ) = 3 x 2 + 4 y 2 + 1 − x 2 − y 2 o
fˆ ( x, y ) = 2 x 2 + 3 y 2 + 1 ,
4 x = 0
∇fˆ ( x, y ) = (4 x,6 y ) = (0,0) ⇒ , la solución es:
6 y = 0
(0,0,1) , calculemos la matriz Hessiana para probar si es máximo o
mínimo:
2 0
[ ]
H fˆ ( x, y ) =
0 6 ; definida positiva, lo que indica que el
punto antes mencionado es un mínimo.
L( x, y, z , λ ) = 3 x 2 + 4 y 2 + z 2 − λ ( x 2 + y 2 + z 2 − 1)
∇L = 0
6 x − 2 xλ = 0
8 y − 2 yλ = 0
2 z − 2 zλ = 0
x 2 + y 2 + z 2 = 1
f (±1,0,0) = 3
f (0,±1,0) = 4
f (0,0,m1) = 1
4.4 Extremos Condicionados 175
2x − 4x 3 1− 2x 2 2 2
= = =0⇒ x=± ⇒ y=±
2 x −x 2 4
1− x 2 2 2
2 2 2 2 2 2 2 2
( 2 , 2 ) , (− 2 , 2 ), ( 2 ,− 2 ) , (− 2 ,− 2 )
2 2 2 2
f( 2 , 2 ) = f (− 2 ,− 2 ) = 12 , máximos condicionados
2 2 2 2
f( 2 ,− 2 ) = f (− 2 , 2 ) = − 12 , mínimos condicionados
Por Lagrange:
L ( x , y , λ ) = xy − λ x 2 + y 2 − 1 ( )
∇ L = y − 2 xλ [ x − 2λy x 2
+ y2 −1 ]
y − 2 xλ = 0
x − 2 yλ ) = 0 ; da como solución:
x2 + y2 = 1
176 Capítulo 4 Optimización de Funciones Escalares
2 2 2 2 2 2 2 2
( 2 , 2 ) , (− 2 , 2 ) , (− 2 ,− 2 ), ( 2 ,− 2 )
Solución:
x+ y =6
d
x2 y2
+ =1
6 4 Figura 4-8
x+ y−6
Minimizar : f ( x, y ) =
2
2 2
Sujeto a: 2 x + 3 y = 12
L ( x, y , λ ) = 1
2
x + y − 6 − λ (2 x 2 + 3 y 2 − 12)
∇L = [ 2
2
− 2 xλ 2
2
− 6 yλ 2 x 2 + 3 y 2 − 12 ]
4.4 Extremos Condicionados 177
22 − 2 xλ = 0
2 x = −1.96 y = −1.3 λ = +0.09
2 − 6 yλ = 0 ⇒
2 x 2 + 3 y 2 = 12 x = +1.96 y = +1.3 λ = −0.09
f (−1.96,−1.3) = 6.54
f (1.96.1.3) = 1.93
⇒ la mínima distancia entre la elipse y la recta es 1.93.
Ejemplo 4-16 Cuál es el volumen del más grande paralelepípedo que puede ser
x2 y2 z2
inscrito en el elipsoide + + =1
9 16 36
Solución:
Figura 4-9
Figura 4-9
Maximizar: 8 xyz
x2 y2 z2
Sujeto a: + + =1
9 16 36
178 Capítulo 4 Optimización de Funciones Escalares
x2 y2 z2
L( x, y, z , λ ) = 8 xyz − λ ( + + − 1)
9 16 36
8 yz − 92 xλ
8 xz − 1 yλ
0
8 0
∇L = 8 xy − 1 zλ =
x 2 y 2 z 2 0
18
+
+ − 1 0
9 16 36
8 yz − 92 xλ = 0
8 xz − 1 yλ = 0
8
8 xy − 181 zλ = 0 , hay dos conjuntos de soluciones:
x2 y2 z2
+ + =1
9 16 36
x = 0
8 yz = 0 y = 0 z = 6
Si λ = 0 ; 8 xz = 0 ⇒ x = 0 y = 4 z = 0
8 xy = 0 x = 3 y = 0 z = 0
Si λ ≠ 0 ; λ ( 92 x 2 − 18 y 2 ) = λ ( 18 y 2 − 181 z 2 ) = 0
4
x= 3 y= 3 3 z=2 3
Ejemplo 4-17 Una caja rectangular abierta en la parte superior tiene un volumen
de 32 cm3, cada lado debe tener las dimensiones tales que la
superficie total sea máxima. Encontrar las dimensiones.
4.4 Extremos Condicionados 179
Sujeto a: xyz = 32
L( x, y, z , λ ) = 2 xz + 2 yz + xy − λ ( xyz − 32)
2 z + y − yzλ 0
2 z + x − xzλ 0
∇L = =
2 x + 2 y − xyλ 0
xyz − 32 0
Tenemos que resolver el sistema:
2 z + y − yzλ = 0 2 xz + xy − xyzλ = 0
2 z + x − xzλ = 0 2 yz + xy − xyzλ = 0
;
2 x + 2 y − xyλ = 0 2 xz + 2 yz − xyzλ = 0
xyz = 32 xyz = 32
2 xz − 2 yz = 0 z( x − y) = 0
xy − 2 xz = 0 ; x( y − 2 z ) = 0
xyz = 32 xyz = 32
x ≠ 0; y ≠ 0; z ≠ 0 ⇒ x = y; y = 2 z.
( y )( y )( 2y ) = 32 ⇒ y 3 = 64; y=4
f ' x1 = λg ' x1
f ' = λg '
x2 x2
n
: , además las coordenadas de la terna ( x1 , x 2 ,......, x n ) ∈ R ,
f ' = λg '
xn xn
g ( X ) = k
dM ∂M dx1 ∂M dx 2 ∂M dx n
= + + .......... + o lo que es lo mismo:
dk ∂x1 dk ∂x 2 dk ∂x n dk
dM dx dx dx
= f ' x1 1 + f ' x2 2 + .......... + f ' xn n por que M = f ( X ) , o:
dk dk dk dk
dM dx dx 2 dx
= λg ' x1 1 + λg ' x2 + .......... + λg ' xn n
dk dk dk dk
dM dx dx 2 dx n
= λ ( g ' x1 1 + g ' x2 + .......... + g ' xn ) ; o:
dk dk dk dk
4.4 Extremos Condicionados 181
dM dg
=λ aplicando la regla de la cadena,
dk dk
dg
Como g(X ) = k ⇒ = 1 y por supuesto:
dk
dM
=λ
dk
3
Maximizar f ( x, y ) = 20 x 2 y
Sujeto a: x + y = 60
3
L( x, y, λ ) = 20 x 2 y − λ ( x + y − 60)
182 Capítulo 4 Optimización de Funciones Escalares
30 x 2 y − λ 0
1
∇L = 20 x 2 − λ = 0 , esto lleva a resolver el sistema:
3
x + y − 60 0
30 x 2 y − λ = 0
1
3
20 x 2 − λ = 0 , la solución es: x = 36 y = 24
x + y = 60
dM
b.- Como: = λ , aplicando diferenciales tenemos:
dk
dM
∆M ≈ ∆k = λ∆k , calculemos λ
dk
3 3
λ = 20 x = 20(36) = 4.320 , ∆k = 0.2
2 2
(miles de dólares)
∆M ≈ (4.320)(0.2) = 864
Lo que quiere decir que las ventas máximas del nuevo producto se
incrementarán aproximadamente en 864 unidades, si el presupuesto
se aumenta de $60.000,00 a $60.200,00
Consideremos el problema:
4.4 Extremos Condicionados 183
Maximizar: z = f (X )
Sujeto a: g i ( X ) ≤ 0 ; i = 1,2,........, m
Maximizar: z = f (X )
Sujeto a: g i ( X ) + S i2 = 0 ; i = 1,2,........, m
Donde: X = ( x1 , x 2 ,..., x n ) ∈ R n
S = ( s1 , s 2 ,...., s m ) ∈ R m
λ = (λ1 , λ2 ,...., λm ) ∈ R m
g ( X ) = ( g 1 ( X ), g 2 ( X ),...., g m ( X )) ∈ R m
∂f
λ=
∂g
∂L
= ∇f ( X ) − λ ∇g ( X ) = 0
∂X
∂L
= −2λi S i = 0; i = 1,2,3,......, m
∂S i
∂L
= −( g ( X ) + S 2 ) = 0
∂λ
λi g i ( X ) = 0; i = 1,2,3,...., m
Esta nueva condición repite el argumento anterior , por cuanto λi > 0 , implica
2 2
g i ( X ) = 0 o S = 0 . De igual manera, si
i g i ( X ) < 0 , S > 0 y λi = 0 .
i
λ=0
∇f ( X ) − λ ∇g ( X ) = 0
λi g i ( X ) = 0, i = 1,2,3,..., m
g( X ) < 0
Tomar en cuenta que en la práctica es más fácil demostrar que una función es
convexa o cóncava que demostrar que un conjunto es convexo.
Maximizar o minimizar z = f (X )
g i ( X ) ≤ 0, i = 1,2,3,..., r
Sujeta a: g i ( X ) ≥ 0, i = r + 1,..., p
g i ( X ) = 0, i = p + 1,...., m
r p m
[
L( X , S , λ ) = f ( X ) − ∑ λi g i ( X ) + S i2 −] ∑ λ [g ( X ) − S ] − ∑ λ g ( X )
i i i
2
i i
i =1 i = r +1 i = p +1
Minimizar: f ( x, y , z ) = x 2 + y 2 + z 2
g 1 ( x, y , z ) = 2 x + y − 5 ≤ 0
g 2 ( x, y , z ) = x + z − 2 ≤ 0
Sujeta a: g 3 ( x, y, z ) = 1 − x ≤0
g 4 ( x, y , z ) = 2 − y ≤0
g 5 ( x, y, z ) = − z ≤0
(λ1 , λ 2 , λ3 , λ 4 , λ5 ) ≤ 0
2 1 0
1 0 1
(2 x,2 y,2 z ) − (λ1 , λ 2 , λ3 , λ 4 , λ5 ) − 1 0 0 = 0
0 − 1 0
0 0 − 1
λ1 g1 = λ2 g 2 = ....... = λ5 g 5 = 0
g( X ) ≤ 0
λ1 , λ2 , λ3 , λ4 , λ5 ≤ 0
2 x − 2λ1 − λ 2 + λ3 = 0
2 y − λ1 + λ 4 = 0
2 z − λ 2 + λ5 = 0
λ1 (2 x + y − 5) = 0
λ 2 ( x + z − 2) = 0
λ3 (1 − x) = 0
Ejercicios Optimización de funciones escalares 187
λ4 (2 − y ) = 0
λ5 z = 0
2x + y ≤ 5
x+ z ≤2
x ≥ 1, y ≥ 2, z ≥ 0
x = 1, y = 2, z = 0, λ1 = λ 2 = λ5 = 0, λ3 = −2, λ 4 = −4
EJERCICIOS
2 x+3 y
1.- Dada la función f(x, y) = e
a) Encontrar una fórmula de Taylor de segundo orden para aproximar
esta función en una vecindad del punto (0,0).
b) Estime el error de aproximación en (0.01, -0.03).
(x −1)2
2.- Dada la función f( x , y ) = e cos y
a) Encontrar una fórmula de Taylor de segundo orden para aproximar
esta función en una vecindad del punto (1,0).
b) Estime el error de aproximación en (1.2, 0.2).
a) f ( x, y ) = x 2 y − x − xy 2 + y
b) (
z = 0.5 − x 2 + y 2 e1− x ) 2
− y2
c) f (x, y ) = x 3 − x 2 y + y 2 − x 2
d) ( )(
f (x, y ) = x − y 2 2 x − y 2 )
1
e) f ( x, y , z ) = x 3 − x + 2 − y 2 + 2 y − z 2 + 2 z
3
2
− y 2 − z 2 + 2 y + xz
f) f ( x, y , z ) = e − x
g) z = senx + seny + sen( x + y ) ; en la región 0≤x≤
π
,0 ≤ y ≤
π
2 2
h) x y z 1
f (w, x, y , z ) = w + + + + +
w x y z
9.- La suma de tres números es 50. Determinar el valor de cada uno de ellos
para que el producto sea máximo.
3
x+y+ z
xyz ≥
3
18. Determine el área del paralelogramo de máxima área que se puede inscribir
en una elipse de ejes 2 y 3.
2z =16− x2 − y2
19. Hallar la distancia más cercana al origen y la curva C:
x + y = 4