Você está na página 1de 85

Universidad T ecnica Federico Santa Mar a

Tarea #2 Computaci on Cient ca I

Equipo de Curso Primer Semestre 2005

Valpara so, Mayo 2005.

Computaci on Cient ca I

Tarea 2

1. Las p-normas de vectores. Consideremos el espacio vectorial C m . Para 1 p


m 1/p

se dene

||x||p := Para p = se dene

k=1

|xk |

, x = (x1 , ..., xn )T Cm

||x|| := max1km |xk |, x = (x1 , ..., xn )T Cm Evidentemente, ||x||p 0 y ||x||p = ||||x||p para todo C, todo x Cm y todo 1 p {}. En lo que sigue se demuestra que || ||p satisface la desigualdad triangular, de modo que efectivamente son normas, 1 p {}. El resultado clave es (a) que debe Ud. demostrar.

(a) Sean 0 u, v

y 1 p, q

tales que

1 p

1 q

= 1. Demuestre que

uv = inf {tp

up vq + tq : t > 0} p q

El candidato principal a ser el nmo del conjunto dado, ser a la m nima funci on del conjunto de funciones, puesto que no existe una cota superior del conjunto que el m nimo de este. Para esto se derivar a la expresi on y se igualar a a cero, para luego vericar que la segunda derivada es positiva:
q v d(tp u p +t q )
p q

dt

= ptp1

up vq + (q )t(q+1) =0 p q

ptp1 Simplicando p, q y t nos queda:

up vq = qt(q+1) p q vq up

tp1+q+1 = Pero como


1 p

1 q

= 1, implica que p + q = pq tpq = vq up


1

elevando a

1 pq

uq Este ser a el valor para el cu al el conjunto de funciones tiene su m nimo (o m aximo). Se calcular aa continuaci on la segundo derivada para vericar que es un m nimo: d(tp1 up t(q+1) v q ) v p ( 1 ) = (p 1)tp2 up + (q + 1)tq2 v q dt uq = (p 1)( vp
q 1 1

t=

vp
1

u u Una vez vericado que es un m nimo, se puede comprobar la igualdad uv = tp vq up + tq , reemplazando : p q vp uq


1 1

p2 p u + (q + 1)( 1 )

vp
1 q

)q2 v q 0, puesp, q 1

uv = ( 2

)p

up vq vp + ( 1 )q p q uq Primer Semestre

Tarea 2

Computaci on Cient ca I

v up v p vq uv = p + 1 u q uq p vup q v q p uv = + 1 p u q Notar que: p p pq p p+qp = = =1 q q q pq q p+qq q = =1 q = p p p vu vu 1 1 + = uv ( + ) = uv p q p q tales que


1/p p k=1 1 p
p q

Entonces uv =

(b) La desigualdad de H older. Sean 1 p


m m

1 q

= 1. Entonces se tiene:
1/q q

k=1

|xk yk |

k=1

|xk |

|yk |

para todo x, y Cm

N otese que para p = 1/2 la desigualdad de H older se reduce a la conocida desigualdad de CauchySchwartz. Demostraci on. Sobre la base del resultado (a) se tiene para x, y Cm : |xk yk | tp |yk |q |xk |p + tq , t > 0, 1 k m p q

Sumando estas m desigualdades resulta:


m

k=1

|xk yk | tp

m k=1

|xk |p

+ tq

m k=1

|yk |q

, t > 0.

Tomando el inmum sobre t > 0 en el lado derecho de la desigualdad precedente y en vista del p 1/p q 1/q resultado (a) -con u = ( m yv=( m - se obtiene: k=1 |xk | ) k=1 |yk | )
m

k=1

|xk yk | inf {t

m k=1

|xk |p

+t

m k=1

|yk |q

1/p

1/q

: t > 0} =

k=1

|xk |

p k=1

|y k |

(c) La desigualdad de Minkowski. Sea 1 p x+y


p

y tambi en para p = se tiene:


p

+ y p , x, y C m

Demostracisn. Para p = 1 la desigualdad precedente es simplemente un caso especial de la desigualdad triangular usual en Re. Para x + y = 0 la desigualdad es evidente. Luego, sin perdida de generalidad (s.P.d.G.) se puede suponer 1 p y x + y = 0. Def nase q := p/(p 1),de modo que se cumple (1/p) + (1/q) = 1. Aplicando la desigualdad de +Holder se deduce entonces:
m k=1 m

|xk + yk |p =

k=1

|xk + yk ||xk + yk |p1

2005

Computaci on Cient ca I

Tarea 2

m k=1 m m

|xk + yk |p
1/p

k=1 m

|xk ||xk + yk |p1 + +


1/q

k=1

|yk ||xk + yk |p1


m 1/p m 1/q

k=1

|xk +yk |p

k=1

|xk |p

+
k=1

|xk + yk |(p1)q
1/p

++
k=1

|yk |p

k=1

|xk + +yk |(p1)q


(p1)/p

m p k=1

m k=1

1/p

Considerando el primero y el u ltimo t ermino de la cadena de desigualdades precedentes y, puesto (p1)/p m +que x + y = 0, dividiendo por ( k=1 |xk + yk |p ) +se obtiene:
m k=1 1/p m

|xk + yk |

|xk |

++
k=1

|yk |

m k=1

|xk + +yk |

|xk + yk |

=
k=1

|xk + +yk |

1(p1)/p

1/p

1/p

k=1

|xk |

++
k=1

|yk |

que es la desigualdad triangular planteada. 2. [, 3,5.6,p.290] a) Normas Matriciales. Se dice que una funci on : M(m x n,C) R es una norma matricial si y s olo si para todo A,B M(m x n,C) se cumple los siguientes axiomas: i) |A| 0 y |A| =0 si y s olo si A = 0, ii) |A| =|| |A| para todo C, iii) |A + B | |A | + |B |, iv) |AB | |A | |B |. b) En vista de que |A2 | = |AA | |A | |A | = |A |2 , para toda matriz no nula A con A2 = A se tiene |A | 1. En particular |I | 1. Si A es invertible, I = AA1 , de modo que |I | = |AA1 | |A | |A1 |, y en consecuencia |A1 | |I |/ |A . Sea A = (ai j ) = [a1 |a2 | . . . |an ] M(m x n,C), donde aj C m denota la j esima columna de A.

c)

d)

Las siguientes son alguna normas matriciales populares: 1-. La norma l1 de la matriz A considerada como un vector en Cmn : n j =1 aj 1 . A
1

ij

|aij | =

2-. La norma l2 de la matriz A considerada como un vector en Cmn : A 2 = ( ij |ai j |2 )1/2 . n 2 Notese que A 2 2 = j = 1 aj 2 . Esta norma se denomina, a veces, norma de Frobenius, o norma de Shur, o norma de Hilbert-Schmidt. 3-. La norma del m aximo de las normas l1 de las columnas: |A |C = max1j n Aj donde Aj denota la j esima columna de A.
1

= max1j n

m i=1

|aij |,

Primer Semestre

Tarea 2

Computaci on Cient ca I

4-. La norma del m aximo de las normas de l1 de las: |A |F = max1in

n j =1

|a i j |.

Vericar que las precedentes son efectivamente normas matriciales que poseen las propiedades que se indican. Solucion: 1-Norma l1 . A M(m x n,C), por lo tanto para: i) A
1

0 A

m 1

=
i=1 j =1

|aij | = |a11 | + |a12 | + . . . + |a1n | + . . . + |am1 | + |am2 | + . . . + |am n|


1

es una suma de vectores positivos, entonces A


1

0.

Luego A 1 = 0 A = 0, ya que como A A 1 = 0, A deber ser una matriz nula. ii) A


1

es una suma de valores positivos, entonces para que

= || A 1 , C .
m n m n

A iii) A + B A A+B iv) AB A


1

=
i=1 j =1

|aij | = ||

i=1 j =1

= || A

+ B
m

1. n m n m n

=
i=1 j =1

|aij + bij |

i=1 j =1

|aij | +

i=1 j =1

|bij | = A

+ B

A
m i=1

1 B 1, A n j =1 ain =

M(m x k,C) y B M(k x n,C). Luego


n j =i

aj , donde aj := j - esima columna.


n n

AB

=
j =1 n

[Ab1 |Ab2 | . . . |Abn ]

=
j =1

Abj

=
j =1 n

b1j A1 + b2j A2 + . . . + bkj Ak |b1j | A1


1

j =1

+ |b2j | A2
1

+ . . . + |bkj | Ak
k n 1) i=1 j =1

( A1 2-.Norma l2 o norma de Schur i) A


2

+ A2
1

+...+

|bij |

0, A M(m x n,C)
m n 1/2

:=
i=1 j =1

= 2005

|a11 |2 + |a12 |2 + . . . + |a1n |2 + |a21 |2 + . . . + |amn |2

1/2

Computaci on Cient ca I

Tarea 2

+ Por denicion A 2 R0 es una suma de valores positivos, luego A = 0 A = 0, ya que es suma de valores positivos.

> 0, por lo tanto

ii) A

= || A 2 , C .
m n 1/2

=
i=1 j =1 m n

|ai j |
2

1/2

=
i=1 j =1 m n

|| |aij | |aij |

1/2

=
i=1 j =1

= || A iii) A + B
2

+ B =

2. m n 1/2

A+B

i=1 j =1 m n

|aij + bij | |aij |2


2

1/2

1/2

+
i=1 j =1

i=1 j =1

|bij |2

, por Minskoski

+ B

iv)A, B M(n x n,K) C := AB . n A = [aij ], B = [bij ], C = [cij ], cij = l=1 ail blj , i, j = 1 : n. n 2 2 2 C = Schur := i,j =1 |cij | , por demostrar AB 2 A
n i,j =1 n n n 1/2

2.

|ci j |2

=
i=1 j =1 n n l=i

ail blj |[ai1 . . . . , ain ] [b1j . . . . , bnj ]T |2


uT v 2

=
i=1 j =1 n n

Cauchy =

[ai1 , . . . , ain ]T
i=1 j =1 n n n l=1 n n

[b1j , . . . , Bnj ]T

i=1 j =1 n

|ail |

2 l=1

|bjl |2
2 2

=
i,l=1

|ail |2

l,j =1

|bjl |2 = A

2 2

3-. Norma del Maximo de las normas l1 de las columnas:


n

|A |c 6

= m ax1j n A1

= m ax1j n

i=1

|aij | Primer Semestre

Tarea 2

Computaci on Cient ca I

i) |A |c > 0, A M(n x n,K). Por denici on el m aximo de los valores que se encuentran en los n umeros positivos, va a ser siempre mayor que cero. Adem as, para que |A |c = 0, 0 debe ser el mayor de los valores positivos, por lo tanto, todos los coecientes de A deben ser 0, lo que implica que A es una matriz nula. ii)
m

|A |c

= max1j n Aj
m

= max1j n

i=1

|aij |
m

= max1j n = || |A |c iii) | A + B |c | A + B |c

i=1

|||aij |1 = ||max1j n

i=1

|aij | (1)

|A |c + |B |c , A, B M(m x n,K)
1

= max1j n Aj + B j
n

= max1j n
n

i=1

|aij |

= max1j n
m

|aij | +

|bij | Por Minskowsky


n

= max1j n =

|aij | + max1j n

|bij |

|A |c + |B |c

iv)Sea A M(m x p,C) y B M(p x n,C), de modo que AB M(m x n,C) Entonces |AB |c = max [A.B 1 |A.B 2 | . . . |A.B n ]
1 1 }.

= max{ A.B 1 , A.B 2 , . . . , A.B n


1

Ahora bien, para cada t ermino A.B j A.B j


1

de la ecuacion anterior se tiene:


1

b1,j A1 + b2,j A2 + . . . + bn,j An


1 1 2

|b1,j | A max{ A1 =

|A |c B j

+ |b2,j | A 1 + . . . + |bn,j | An 1 2 n 1 , A 1 , . . . , A 1 }(|b1,j | + |b2,j | + . . . + |bn,j |)


1

De las dos ecuaciones anteriores se obtiene nalmente: |AB |c = max{ |A |c B 1 1 , |A |c B 2 |A |c max{ B 1 1 , B 2 |A |c |B |c


n j =1 1 , . . . , |A Bn 1}

1, . . . ,

|c B n 1 }

i) |A |F 0 y |A |F = 0 A = 0. Mientras A no sea la matriz nula, siempre se podr a encontrar un m aximo en la suma de los componentes de una matriz.

4-. La norma |A |F = maxij n

|aij |.

2005

Computaci on Cient ca I

Tarea 2

ii) |A |F = || |A |F , C . |A |F A
1

= max{ A1 1 , A2 1 , . . . , An = A1 + A2 + . . . + An 1

= max [A1 |A2 | . . . |An ]

1 1} 1

|| A1 1 + || A2 1 + . . . + || An max{ A1 1 , A2 1 , . . . , An 1 }|| = ||textrm |A |F iii) |A + B |c |A |c + |B |c .


n

|A + B |c

= max1in max1in

j =1 n j =1

|aij + bij |
n

|aij | + max1in

j =1

|bij |, Por Minskowsky.

|A |c + |B |c

iv) |AB | |A |F |B |F . |AB |F Por lo tanto tenemos. A.B i


1

= max [A.B 1 |A.B 2 | . . . |A.B n ] = max{ A.B


1 1,

A.B

1, . . . ,

A.B n

1}

= b1,i A1 + b2,i A2 + . . . + bn,i An 1 |b1,i | A1 1 + |b2,i | A2 1 + . . . + |bn,i | An max{ A1 =


2 1, A 1 n 1, . . . , A

|A |F B i

1 }(b1,i + b2,i + . . . + bn,i +)

Con lo cual podemos nalmente deducir: |AB |F max{ |A |F B 1 1 , |A |F B 2 1 , . . . , |A |F B n |A |F |B |F = |A |F max{ B


1 1, 1}

= =

1, . . . ,

1}

4. Ser an A

= m ax|aij | y A

i,j

C omo podr an modicarse para que lo fueran?

|aij |p , 1 < p < , normas matriciales? Si no lo son,

1 p

Para determinar si son normas matriciales se deben cumplir cuatro propiedades fundamentales: Caso: A a)

= m ax|aij | es igual al m aximo valor absoluto de aij .

A >0 Se cumple esta propiedad debido a que A i, j R.

Primer Semestre

Tarea 2

Computaci on Cient ca I

b)

|aij | > 0 es siempre positivo. A = || A Como es constante y multiplica a todos los componentes de la matriz, esta queda amplicada por la constante, por lo tanto se puede buscar primero el m ax|aij | y luego multiplicarlo por el valor ablsoluto de la constante , entonces: A

= m ax| aij | = || m ax|aij | = || A c ) La idea es demostrar que los m aximos entre dos conjuntos es menos o igual que los maximos de las sumas de esos mayores. Aplicando la desigualdad de H older en la primera desigualdad A + B = max {aij } + max {bij } max {aij + bij } A + B d ) La idea es demostrar la desigualdad triangular usando la desigualdad de Cauchy-Schwarz en la primera desigualdad. De esta manera obtener AB A B = max aik bkj
i j k

A+B

= =

max
i j

(
k

aik )(
k j

bkj )
k bik

max
i k

aik max

1 p

Caso: A a)

A p>0 La norma A

i,j

|aij |p es siempre positiva debido a que se toma el valor absoluta de cada aij .

Si A p = 0 A = 0. Como se usa el valor absoluto de los terminos |aij | es imposible que valores positivos y negativos se cancelen entre s , por lo tanto la u nica forma que A p sea igual a 0 es el caso en que aij = 0 i, j R. Si A b) A p = || A Demostraci on:
p

i,j

|aij |p = 0

1 p

aij = 0. i, j R.

2005

Computaci on Cient ca I
1 p 1 p 1 p 1 p

Tarea 2

i,j

|aij |p

i,j

|||aij |p
i,j

||p
p p

|aij |p
i,j

(||) ||
i,j p

|aij |p
1 p

= || A Por lo tanto, se cumple esta propiedad. c)

|aij |p

A+B p A p+ B p Se puede suponer 1 p R y aij + bij = 0.. Def nase q := p(p 1), de modo que se 1 1 lder se deduce entonces: cumple + = 1. Aplicando la desigualdad de Ho p q
i,j

|aij + bij |p

=
i,j

|aij + bij ||aij + bij |p1 |aij ||aij + bij |p1 + |aij |p
i,j
1 p

i,j

i,j

|bij ||aij + bij |p1


1 q

+ =

i,j

|bij |p
1 p

1 p

i,j

|aij + bij |(p1)q +


i,j

i,j

|aij |p +

|aij + bij |(p1)q


i,j
1 p |bij |p

1 q

i,j

|aij + bij |

1) (p p

y, puesto que aij + bij = 0, dividiendo por


1 p 1(p1) p

Considerando el primero y el u ltimo t ermino de la cadena de desigualdades precedentes 1) (p p


i,j

d)

= |aij + bij |p |aij + bij |p |aij |p que es la desigualdad triangular planteada. A+B p A p+ B p AB p A p B p Demostraci on:

|aij + bij |p

se obtiene: |bij |p

1 p

1 p

10

Primer Semestre

Tarea 2
1 p

Computaci on Cient ca I

AB

aik bkj |p |aik |p


1 p

Por lo tanto;

|aik |p A

|bkj |p |bkj |p
1 p

1 p

AB La norma p A A
p p

5. La norma espectral de una matriz. Sea A M (n n, C). El spectrum (A) de la matriz cuadrada A se dene como: (A) = { C : es valor propio de A} = { C : det(A I ) = 0} . De la teor a de las ecuaciones algebraicas se sabe que #( (A)) = n. El radio espectral (A) de la matriz A se dene como: (A) = m ax ||.
(A)

i,j

|aij |p , 1 < p < , es una norma matricial.

cumple con las cutaro propiedades. 1 p

La norma espectral A

de la matriz A se dene como: A

(A A) = m ax

: (A A) .

Tarea: Verique que la norma espectral es una norma matricial, i.e., que satisface los axiomas (i)-(iv) de m as arriba. a ) Para A = (A A) = max : (A A), entonces se debe vericar (A A). Para que = 0, se debe cumplir que = 0 y para que esto suceda A=0. Para que > 0 es trivial. b) A

= (< A, A >) = (2 < A, A >) = 2 (< A, A >) = (< A, A >) = A

c) A+B = = (< A + B, A + B >) (< A, A > +2 < A, B > + < B, B >) (< A, A >) + (< B, B >) A + B

d)

La u ltima condici on para que sea una norma se puede desprender de la desigualdad triangular.

2005

11

Computaci on Cient ca I

Tarea 2

6. La norma natural de una matriz. 1) Toda matriz A M (m n, C) puede ser considerada como (la representaci on de) un operador lineal A : Cn Cm (con respecto a sendas bases de Cn y Cm ). Si consideramos cualquier par de normas en Cn y Cm respectivamente, ambas denotadas por para mayor simplicidad notacional, entonces la norma de la matriz A en cuanto operador lineal, o la norma matricial inducida por las normas de Cn y Cm , o la norma natural de A se dene como: |A | = sup
0=xCn

A.x = max A.x x x =1

Note que x Cn y A.x Cm . Que la norma de A en cuanto operador lineal sea matricial, i.e., que satisfaga los axiomas (i)-(iv) de m as arriba, es una consecuencia de las propiedades generales de las normas vectoriales. Tarea: Verique esta aserci on. (i) |A | 0 y |A | = 0 si y solo si A = 0 Si A = 0, claramente Ax = 0 para cualquier x, entonces tenemos |A | = 0. Al contrario, a ij 0 para algunos i, j . Si x es un vector que posee 0 en todas sus posiciones excepto en la posici on j , entonces x > 0 y A.x > 0, ya que A.x es la columna en la posici on j que no es un vector 0. Entonces: |A | A.x >0 x

(ii) |A | = || |A |, C Sea y0 un vecot que satisface y0 = 1 y |A | = A.y0 . Para cualquier constante , tenemos: |A | = max A.y = A.y0 = || A.y0 = || |A |
y =1

(iii) |A + B | |A | + |B | Se utilizara para probar la desigualdad triangular la siguiente aseveraci on, la cual se probara posteriormente: A.x |A | x Sea x0 un vector que cumple con x0 = 1 y |A + B | = (A + B ).x0 , entonces: |A + B | = (A + B ).x0 = A.x0 + B.x0 A.x0 + B.x0 , por desigualdad triangular A.x0 + B.x0 |A | x0 + |B | x0 , por A.x |A | x |A | x0 + |B | x0 |A | + |B |, por x0 = 1 |A + B | |A | + |B | (iv) |AB | |A | |B | Sea x0 un vector que cumple con x0 = 1 y |AB | = (AB ).x0 , entonces: |A | = (A.x0 ) = A.(B.x0 ) |A | B.x0 , por A.x |A | x |A | B.x0 |A | |B | x0 |A | |B | |AB | |A | |B | 2) La norma natural |A | de A satisface: Tarea: Verique esta aserci on: A.x = A x A.x |A | x x x x x

= x A

x |A | Primer Semestre

12

Tarea 2

Computaci on Cient ca I

3) Una manera de probar que una funci on dada : M (m n, C) R es una norma matricial consiste en demostrar que es inducida por una norma vectorial. Tarea: D e algunos ejemplos. Las normas 1 e innito son inducidas por normas vectoriales. La expresion de la norma-1 de una matriz es la siguiente:
n

= max
k j =1

|ajk |

Es decir, la norma-1 es el m aximo de la suma de los valores absolutos de los elementos de cada columna. Demostraci on: Supongase que la igualdad en la denici on de la norma se alcanza para un vector y tal que: A 1 = Ay 1 , siendo la y 1 = 1. Desarrollando la expresi on de la norma-1 del vector Ay :
n n n n k=1

= Ay

=
j =1 k=1

ajk yk

j =1

|ajk ||yk |
n m j =1

n k=1

n j =1

n k=1

El desarrollo anterior demuestra que el maximo de las sumas de los valores absolutos de cada columna es un limite superior de la norma-1, pero para que sea verdaderamente la expresi on de la norma este limite debe ser alcanzado. De la misma manera, esto se puede demostrar para A 2 y A . 4)La norma natural minimal de A se dene como |A |inf = inf A : esunanormanatural. Tarea: Verique que |A |inf es una norma matricial: Sea N el conjunto de normas naturales inducidas por normas vectoriales validas. Cada miembro del conjunto N es una norma matricial que cumple con (i)-(iv), ya que ello fue demostrado a partir de la denici on general de una norma natural. Ya que: |A |inf N entonces |A |inf es una norma matricial valida. 5) LEMA 1: |A |inf (A). Proof: Consideremos Cn equipado con una norma vectorial . Sea A M (n n, C) y u Cn un vector propio normalizado (i.e., u = 1) de A con valor propio (A), i.e., A.u = u. Entonces se tiene A.u = u = ||. Luego, para la norma matricial natural | | inducida por la norma vectorial se tiene: |A | := max A.x A.u = ||
x =1

|yk |

|ajk |

|yk | max
m

n j =1

|ajm | = y

max 1

n m j =1

|ajm | = max

|ajm |

De aqu resulta entonces |A | (A) y, en consecuencia, |A |inf (A). 6) LEMA 2: Para todo > 0 existe una norma matricial natural | | tal que |A | (A) + . Demostraci on: Por desigualdad triangular sabemos: | + | || + || 2005 13

Computaci on Cient ca I

Tarea 2

Luego del LEMA 1 (ver punto 5) sabemos: |A | := max A.x A.u = ||


x =1

Por lo tanto podemos concluir: |A | := max A.x A.u + || = || + ||


x =1

Tambien sabemos: (A) = max ||


|| (A)

Entonces: |A | (A) + 7) Demuestre o refute: Si n = m (i.e., si A A es una matriz cuadrada de dimensi on n) entonces se tiene (A) < 1 si y solo si l mp Ap = 0 para alguna norma natural |A |. Demostraci on: Como la matriz A tiene una descomposici on en SVD entonces la matriz diagonal esta formada de valores menores que 1 ( < 1) puesto que las matrices unitarias no tienen efecto en los s. Esto quiere decir que si las matrices de la descomposici on las multiplico n veces, con n tendiendo al innito, la multiplicaci on converge a 0. 7. Las normas de vectores y las p-normas de matrices satisfacen varias desigualdades que a menudo incluyen las dimensiones m o n.En cada una de las sub-preguntas que siguen en este ejercicio, verique (o refute!) la desigualdad anotada y exhiba un ejemplo de matriz o vector no nulos que corroboren su resultado. Si la desigualdad es v alida, determine una condici on para que se cumpla el caso l mite de igualdad y exhiba un ejemplo que verique esa igualdad. En este ejercicio x Km y A M (m x n, K). (a) x x 2 , (b) x 2 m x , (c) A n A 2 , (d) A 2 m A . Las normas tomadas para el desarrollo de este ejercicio son: x x A A

= m ax

1j m |aj |

m j =1

|aj |2

1 2

= m ax

1im n j =1

n j =1

|aij |
1 2

m i=1

|aij |2

(a) Supongamos que x = |ak | 1 k m |ak | (|a1 |2 + |a2 |2 + . . . + |am |2 ) 2 /()2


1

y x

= (|a1 |2 + |a2 |2 + . . . + |am |2 )

|ak |2 |a1 |2 + . . . + |ak1 |2 + |ak |2 + |ak+1 |2 + . . . + |am |2 0 |a1 |2 + . . . + |ak1 |2 + |ak+1 |2 + . . . + |am |2 Como |ai |2 0 i = 1 : m, entonces la desigualdad es cierta para cualquier valor de m.

14

Primer Semestre

Tarea 2

Computaci on Cient ca I

Ejemplo: 1 Sea x = 2 3 = x = 3 x 2 = 3 14 14

(b) Considerendo las mismas normas de (a) tenemos: (|a1 |2 + |a2 |2 + . . . + |am |2 ) 2
1

m|ak |

/()2

|a1 |2 + . . . + |ak1 |2 + |ak+1 |2 + . . . + |am |2 |ak |2 + . . . + |ak |2 (m 1)t erminos (m 1)t erminos Como |ak |2 es el m aximo valor y los otros no son m aximos, cada |ak |2 es m as grande que |ai |2 = La desigualdad se cumple para cualquier valor de m.

Ejemplo: Tomando el mismo de (a): x


2

14,

3 x =3 3 14 3 3

(c)

A= Tomando A

a11 a21 . . . am1

... ... . . .

a1n a2n .. .

. . . amn

n j =1

akj

,1km

(|ak1 | + . . . + |akn |)

2 2

n A

(|a11 | + . . . + |a1n |2 + . . . + |am1 |2 + . . . + |amn |2 )

2 2 2

|ak1 |(|ak1 | + . . . + |akn |) + . . . + |akn |(|ak1 | + . . . + |akn |) n(|a11 |2 + . . . + |am1 |2 ) + . . . + n(|a1n |2 . + . . .+|amn |2 )

La suma de los |aij |2 que acompa nan a n es m as grande que el |aki |, con i = 1 : n. Adem as, los |a2 | al estar multiplicados por n hacen que la desigualdad se cumpla. ij La cantidad de t erminos hace ver de manera m as clara la desigualdad. Al lado izquierdo tenemos n2 t erminos, mientras que en el lado derecho tenemos (n2 m) t erminos. 2005 15

Computaci on Cient ca I

Tarea 2

La restricci on para que esta desigualdad se cumpla es que la dimensi on m de la matriz A debe ser mayor o igual que n. Ejemplo: 3 5 7 Sea A = 7 9 1 3i 0 i = A
2

= 289, A 2 2 = 224 289 3 224

(d)Considerando las mismas normas de (b) tenemos: A


2 2 2 2 2 2

(|a11 | + . . . + |a1n | + . . . + |am1 | + . . . + |amn | ) m(|ak1 | + |ak2 | + . . . + |akn |)2 (|a11 |2 + . . . + |am1 |2 ) + (|a12 |2 + . . . + |am2 |2 ) + . . . + (|a1n |2 + . . . + |amn |2 ) m|ak1 |(|ak1 |2 +. . .+|akn |2 )+m|akn |(|ak1 |2 +...+|akn |2 ) Se ve que los |aij |2 agrupados en par entesis son m as grande que el |aki |, con i = 1 : n. Pero el t ermino m junto con los que acompa nan a los |aij | hacen que sea mayor que la suma de los |ai j |2 del lado izquierdo. Por lo tanto, la desigualdad se cumple. A la izquierda hay (m n) t erminos y al derecho hay (m n2 ) t erminos. La restricci on para la desigualdad es que la dimensi on m de la matriz A debe ser igual a n. Ejemplo: Tomando el mismo que de (c): A 8. Sea A M(m x n, K) y sea B
2

m A

= 224, A i nf ty = 289 224 3 289

M( x ,K) con m y n.

a) Demuestre que B puede obtenerse a partir de A , mediante multiplicacion por matrices apropiadas de aniquilacion de las o columnas. Sean a1n . . . . . . amn ... . . . b1s . . . . . . brs

a11 . A= . . am1 b11 . B= . . br 1

16

Primer Semestre

Tarea 2

Computaci on Cient ca I

tal que

se quiere encontrar

a11 . A= . . am1

... [B ] ...

a1n . . . amn

mediante las matrices P y Q tal que A=PAQ.

0 ... 0 . . . A = . . . 0 ... 0

Debido a que debemos mantener los valores de B, las matrices P y Q deben ser diagonales. Entonces tenemos el siguiente algoritmo: Sea a11 ... 0 . . .. . . . . . am1 . . . 1m a1n . . . amn ... 0 . .. . . . . . . 1n

11 . A = P AQ = . . 0

... [B ] ...

11 . . . 0

Para la matriz P: Si se elimina la la i de la matriz A, entonces pi = 0, sino, pi = 1. Para la matriz Q: si se elimina la columna j de la matriz A, entonces qj = 0, sino,qj = 1. Ejemplo: Sean 1 2 4 5 A= 6 7 8 9 13 12 11 10 B= 7 8

Se debe encontrar

0 0 0 0 A = 0 7 8 0 0 0 0 0

Segun el algoritmo visto, P y Q deben ser diagonales ya que hay que preservar a 22 y a23 . Osea, hay que preservar la la 2 y las columnas 2 y 3. P y Q deberian tomar valores como: 0 0 0 P = 0 1 0 0 0 0

2005

17

Computaci on Cient ca I

Tarea 2

0 0 Q= 0 0

0 1 0 0

0 0 1 0

0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0

0 1 2 4 5 0 0 0 0 A = 0 1 0 6 7 8 9 0 13 12 11 10 0 0 0 0 = 0 2 4 0 0 0 0 0 1 0 0 7 8 0 0 12 11 0 0 0 0 0 0 0 0 0 7 8 0 0 0 0 0

Como vemos se Obtiene el resultado esperado. b)Usando el resultado precedente demuestre que B Se sabe que : A p = B p Se tiene entonces: B p = P AQ Por lo tanto B
p p

para todo p

R con 1 p .

= A p ( con P y Q unitarias)

A p. sobre Cm se dene

9. Sea una norma cualquiera sobre Cm . La correspondiente norma dual mediante la f ormula x = sup y =1 y x . a) Demuestre que 1) x

0, x

es efectivamente una norma vectorial. =0x=0 = sup


y =1

Dado que x x

|y x| y como sabemos | | 0, Entonces sup

y =1

|y x| 0

0. = 0 sup
y =1

|y x| = 0
y =1 |y

Dado que y

= 1, para que sup

x| = 0 , x = 0
y =1 |0|

Por otro lado, si x = 0 sup x =0

y =1 |y

x| = sup

=0

18

Primer Semestre

Tarea 2

Computaci on Cient ca I

2)

= || x x + z

= sup |y x| = || sup |y x| = || x
y =1 y =1

3)

x+z x+z

= sup |y (x + z )| = sup |y x + y z | sup |y x| + sup |y z | = x


y =1 y =1 y =1 y =1

+ z

b)

Demuestre que, dado un vector x Cm , existe un vector no nulo z Cm tal que |z x| = z x .

Dado que se pide demostrar que existe un z que cumpla la relaci on, basta un caso particular para efectuar esto. |z x| = z z De esta forma se tiene que: sup |y z | = sup( y
y =1

= sup |y x|
y =1

z cos ), y = 1 = angle(y, z )

Entonces, como y = 1, se tiene que lo anterior es igual a: sup( z cos ), expresi on que alcanza su valor m aximo para cos = 1. Resultando que:

2005

19

Computaci on Cient ca I

Tarea 2

sup |y z | = z De esta forma tendremos = z , R As , siempre existir a un z tal que < 1 y asi |z x| ser a igual a x . (Rem tase a la gura). c) Sean x, y Cm con x = y = 1 dados. Usando (b), demuestre que existe una matriz de tipo rank -uno B = yz tal que Bx = y y B = 1, donde B es la norma de la matriz B inducida por la norma vectorial . Nos dicen: x, y Cm x = y = 1 Usando (b) z vector no nulo Cm . (1)B = yz (2)Bx = y B = 1 por demostrar. B = yz /z Bz = y Bx = y z=x 1 0 0 B= 0 0 0 0 0 0

Es una matriz escalonada Un pivote Rank=1 B =1 10. Sea A2M (n n, R) una matriz positiva denida. Para ik con 1 i1 < i2 < ... < ip < n sea A[i1 , ..., ip ] la submatriz de A formada por las las i1 , ..., ip y las columnas i1 , ..., ip de la matriz A. Note, entonces, que la diagonal de A[i1 , ..., ip ] est a contenida en la diagonal de de A. Se dice que A[i1 , ..., ip ] es una submatriz principal de A. (a) Demuestre o refute: det A[i1 , ..., ip ] > 0 para toda selecci on de los ndices 1 i1 < i2 < ... < ip n. (b) Es equivalente (a) con el hecho que A es positiva denida? (c) Qu e relaci on hay entre los valore singulares de las matrices A[i1 , ..., ip ] y los valores singulares de la matriz A? V (A, ) (d) Sea V (A, ) el volumen del elipsoide {x n : xT .A.X < }.Calcule el cuociente det (A)1 /2 Desarrollo:

(a) Partamos de la denici on de las matrices positivas denidas: Sea Amm una matriz denida positiva (real), entonces: 20 Primer Semestre

Tarea 2

Computaci on Cient ca I

A es una matriz sim etrica, o sea A = AT . Para todo vector x


m

se cumple que: x A x > 0

Todos los valores propios de A son positivos y los vectores propio de A son ortogonales. De la segunda propiedad podemos deducir que, para cualquier matriz Bmn ( con m > n ) de rango completo, se cumple lo siguiente: B A B = Donde tambi en es una matriz positiva denida.
nn

Demostraci on: x = 0 x = 0 x (B A B ) x = (B x) A (B x) > 0 Siguiendo esta idea, podemos crear a la matriz B con vectores columnas unitarios can onicos de tal manera que la matriz C ser a una submatriz principal de A. Con esto, demostramos que toda submatriz principal de A es una matriz denida positiva. Siguiendo esta idea, los valores propios de la submatriz principal son todos positivos y, por lo tanto, el determinante tambi en lo es (ya que es igual a la multiplicaci on de todos sus valores singulares). (c) Los valores singulares de la submatriz principal de A corresponden a los valores singulares de A que tienen los ndices correspondientes a las columnas (o las) de la submatriz principal. De hecho, otra forma de obtener la submatriz principal A[i1 , ..., ip ] es usar la descomposici on SVD, A = U V y luego eliminar todas las las y columas de las tres matrices de la descomposici on que no correspondan a la submatriz principal: U [i1 , ..., ip ] [i1 , ..., ip ] V [i1 , ..., ip ] = A[i1 , ..., ip ] Esta nueva submatriz [i1 , ..., ip ] contiene los vlaores singulares de A[i1 , ..., ip ] que antes pertenec an a A. 12. Sea x Cn un vector no nulo.Considere el vector x como una mtariz X M(n 1, k).Sea W=[1] x M(1 1, k),( = [||x||2 , 0, .., 0]T M(n 1, k), V = ||x || , v2 , ..., vn M(n 1, k)
2

, donde v2 , ..., vn es un sistema de n 1 vectores ortonormales cualesquiera, todos ellos ortogonales al vector x.Demuestre que una descomposici on de valor singular de la matriz X viene dada por X=VWT . Sea: W=[1] ; = [||x||2 , 0, .., 0]T ; V = X=VWT x1 x2 X= . . xn n1 2005 21
x ||x||2 , v2 , ..., vn

Computaci on Cient ca I
nn

Tarea 2

X= X= Por lo tanto queda demostrado.

x ||x||2

. .

v2

...

xn ||x||2 x1 ||x||2 xn ||x||2

||x||2 ||x||2

n1

x1 . = M(n 1, k) . xn n1

vn

||x|| 0 [1]11 0 n1

13. Si A M(nxn,K) es no singular, demuestre que el siguiente procedimiento produce una descomposici on de valor singular A = VW : a) Forme la matriz Hermitiana positiva denida AA y determine una diagonalizaci on unitaria AA = U U hallando los valores propios positivos i ,i = 1,...,n, y el correspondiente sistema de ui , i = 1,..., n, de vectores propios ortonormales. Dena := 1/2 y V = U = [u1 , ..., un ]. Dena W = A V 1 . Demuestre todo. En particular, demuestre que W es unitaria con A = VW . Escriba un programa que permita obtener la descomposici on de valor singular. Usando su programa, obtenga descomposiciones de valor singular para tres o cuatro matrices de dimensiones 3, 5, y 8, por ejemplo. Para resolver esta parte del ejercicio, el estudiante probablemente querr a aplicar el algoritmo descrito en el ejercicio precedente. converse con sus colegas que abordaron ese ejercicio para que le faciliten los c odigos correspondientes. Usando un programa ad hoc verique que el producto de las matrices de las factorizaciones que obtenga, efectivamente dan las matrices originales. SOLUCION: a) Demo 1: V es unitaria. Evidente, ya que, por denici on, cada columna de V es un vector unitario linealmente independiente del resto, luego debe ser unitaria. Demo 2: AA es Hermitiana positiva denida. Evidente, ya que: (AA ) = A A = AA , es decir, es Hermitiana, y por lo tanto, todos sus valores propios son positivos y reales, por lo tanto es positiva denida. Demo 3: A V 1 es unitaria. Si W es unitaria, deber ya ser que W W = I . Ahora: W = (A V 1 ) = (1 ) V A Entonces W W = A V 1 (1 ) V A Ahora, n otese que, si acaso luego, como = = diag (i ) esto implica que: = diag (i ) 1 = diag (1/i ) (1 ) = 1 = diag (1/i ) 22 Primer Semestre

b) c)

Tarea 2

Computaci on Cient ca I

Leugo nos queda: W W = A V 1 V A Ahora, si se considera que: AA = V V (AA )1 = (V V )1 = (V )1 1 V 1 = V 1 V Lo que nos lleva a: W W = A (AA )1 A como=(AA )1 = (A )1 A1 , resulta que(ya A es no singular) W W = A (A )1 A1 A = II = I Luego W es unitaria. Demo 4: AW Evidente, ya que si: W = A V 1 A = W V Luego Pero = , ya que es diagonal y todos los coecientes son reales positivos. Luego, A = V W , claramente. b) d) Este programa de matlab obtiene la SVD y la comprueba. A=input(Ingresa matriz); AAt = A A; % La Matriz AAt, es el producto de A por su traspuesta [V,D]=eig(AAt); S=D.(1/2); U=A*V*(inv(S)); T=V*S*U; % Se comprueba que la factorizaci on resulte correcta disp (A); disp (U); disp (S); disp (V); disp (T); 1 2 0 3 5 1 0 3 2 0,5820 0,7058 0,4039 0,4567 0,1273 0,8805 0,6728 0,6969 0,2482 A = (W 1 V ) = V W

c)

0,9235 0,2264 0,3096 0,3775 0,3934 0,8383 0,0680 0,8911 0,4487

0,3588 0 0 0 1,9928 0 0 0 6,9929

2005

23

Computaci on Cient ca I 1,0000 2,0000 0,0000 3,0000 5,0000 1,0000 0,0000 3,0000 2,0000 1 2 3 1 6 6 4 2 8 1 7 1 0 3 2 3 0 6 4 4 5 4 5 5 7

Tarea 2

0,2993 0,3048 0,6662 0,5371 0,3748 0,4031 0 , 2759 0,5998 0,4703 0,6886 0,0912 0,4260 0,6891 0,4987 0,1099 0,3066 0,2717 0,1473 0,6779 0,2761

3,3366 0 0 0 0 0 4,0402 0 0 0 0 0 0,3709 0 0 0 0 0 7,7799 0 0 0 0 0 19,0756

0,2917 0,5109 0,3390 0,4127 0,6072

0,4354 0,4818 0,2681 0,4811 0,8136 0,0680 0,4966 0,0831 0,3383 0,5316 0,4839 0,4669 0,1466 0,5230 0,5326 0,3769 0,1125 0,4552 0,4046 0,6338 1,0000 2,0000 3,0000 1,0000 6,0000 9 7 0 4 1 3 2 1 2 3 2 5 4 4 0 2 6,0000 7,0000 3,0000 4,0000 1,0000 0,0000 2,0000 0,0000 6,0000 8,0000 3,0000 4,0000 1,0000 2,0000 4,0000 4 0 3 0 3 5 1 0 0 2 0 1 2 0 6 3 0 3 1 2 0 1 5 4 3 0 2 0 3 2 4 0 2 7 4 0 5 3 2 1

5,0000 4,0000 5,0000 5,0000 7,0000

0,5244 0,2828 0,3884 0,5286 0,4634

1 1 0 6 0 0 6 7

Columns 1 through 7

24

Primer Semestre

Tarea 2

Computaci on Cient ca I 0,6636 0,2859 0,1421 0,3447 0,3409 0,3480 0,0811 0,3081

0,5162 0,0598 0,3197 0,1236 0,4770 0,4004 0,2368 0,4106

0,1842 0,0182 0,1944 0,4046 0,4493 0,4850 0,5606 0,1136

0,0629 0,0432 0,3271 0,4687 0,4345 0,5824 0,3659 0,0753

0,2755 0,1289 0,1710 0,3042 0,3152 0,7070 0,5666 0,1776 0,1931 0,2703 0,2072 0,0316 0,2971 0,4844 0,5531 0,2252

0,1509 0,7133 0,0064 0,2578 0,2962 0,1258 0,3321 0,4337

Columns 1 through 7 1,1865 0 0 0 0 0 0 0 0,7166 0 0 0 0 0 0 0 2 , 3327 0 0 0 0 0 0 0 5 , 9535 0 0 0 0 0 0 0 5 , 6572 0 0 0 0 0 0 0 7 , 6484 0 0 0 0 0 0 0 11,7165 0 0 0 0 0 0 0 Column 8 0 0 0 0 0 0 0 20,2834 Columns 1 1,0000 1,0000 0,0000 6,0000 0,0000 0,0000 6,0000 7,0000 Column 8 2,0000 7,0000 4,0000 0,0000 5,0000 3,0000 2,0000 1,0000 through 9,0000 7,0000 0,0000 4,0000 1,0000 3,0000 2,0000 1,0000 7 2,0000 3,0000 2,0000 5,0000 4,0000 4,0000 0,0000 2,0000 4,0000 0,0000 0,0000 0,0000 2,0000 3,0000 3,0000 0,0000 1,0000 0,0000 1,0000 2,0000 3,0000 2,0000 0,0000 5,0000 0,0000 1,0000 1,0000 6,0000 5,0000 0,0000 3,0000 4,0000 3,0000 0,0000 2,0000 0,0000 3,0000 2,0000 4,0000 0,0000

14. Sea A M (n n, K) una matriz no necesariamente no-singular. Demuestre que el siguiente procedimiento produce una descomposici on de valor singular A = V W

2005

25

Computaci on Cient ca I

Tarea 2

a)

b) c)

Sea I M (n n, K) la matriz identidad. Entonces existe una constante c = c(A) tal que la matriz A = A + I es no-singular para todo ]0, c[ R. Sugerencia : Observe las ra ces de la ecuaci on caracter stica det(A I ) = 0 en el plano complejo. Elija ahora ]0, c[ R. Aplique el procedimiento del ejercicio anterior para obtener una descomposicio on de valor singular A = V W

Aplique ahora el siguiente resultado, que no se pide demostrar : Lema Auxiliar. Sea {Up }pN = up on de matrices unitarias en M (n n, K). ij pN una sucesi Entonces existe una subsucesi on {Upk }kN = upk ij
k 0 l m upk ij = uij , kN

de la sucesi on original, tal que

i, j = 1, . . . , n.

donde la matriz l mite U0 = [u0 en es unitaria. ij ] M (n n, K) tambi Sobre la base de este lema auxiliar se obtiene una sucesi on {k }kN en ]0, c[, una matriz diagonal M (n n, K) con coecientes no negativos, y matrices unitarias V, W M (n n, K) tales que:
k

l m k = 0,

l m Vk = V,

l m k = ,

l m Wk = W

d)

Demuestre que A = V W

DESARROLLO Sea A una matriz singular, es decir, det(A) = 0 En otras palabras la matriz A no es fullRank, es decir, no todas los vectores son linealmente independiente, y por ende la matriz mediante operaciones la se puede escalonar hasta dejar en la la n- esima el vector nulo ([0,...,0]) (para el ejercicio tomaremos una matriz de 2 2 y con coecientes reales para que a a = a 2 ) A= a c b d
Op.F ila

a b 0 0

=A

det(A) = 0 a) A = A + I A A det(A ) = = a b 0 0 + 1 0 0 1

a+ b 0

(a + ) = 0 1 = 0 2 = a

Para cumplir la restricci on de elegir un ]0, c[ R tal que se cumpla la condici on de que A sea no-singular, lo u nico que hay que tener en cuenta es: 0 < c |a| ya que si: a<0 c>a 26 Primer Semestre

Tarea 2

Computaci on Cient ca I

puede darse la posibilidad de que = a, visto de otra forma: ]0, c[ tal que det(A ) = 0 entonces A es singular. Teniendo en consideraci on lo anterior podemos extender la demostraci on a matrices de mayor dimensi on deniendo c como: 0<c donde j , j = 1 : n son las raices de: det(A ) = 0 b)
SVD de A = V W 1j n

m n (|j |) = 0

A B = A A B B = B I B det(B )

= = = = =

a+ 0

b a+ 0 (a + )b b 2 + 2 (a + )b b 2 + 2 0 0 b

a+ 0 b (a + )2 (a + )b (a + )2 (a + )b

(a + )2 (a + )b

= ((a + )2 )((b2 + 2 ) ) ((a + )b)2 = (a2 + 2 + 2a )((b2 + 2 ) ) (a2 b2 + 2ab2 + 2 b2 )

(a + )b b 2 + 2

= a2 (b2 + 2 ) + 2 (b2 + 2 ) + 2a(b2 + 2 ) (b2 + 2 ) (a2 + 2 + 2a) + 2 (a2 b2 + 2ab2 + 2 b2 ) = a2 2 + 4 + 2a3 (a2 + b2 + 22 + 2a) + 2

det(B ) = 0 0 = a2 2 + 4 + 2a3 (a2 + b2 + 22 + 2a) + 2 = (a2 + b2 + 22 + 2a)

(a2 + b2 + 22 + 2a)2 4(a2 2 + 4 + 2a3 ) 2

Apoyandonos en Matlab obtenemos 1 y 2 , que son los valores propios de la matriz B 1 2 = = a2 + 2a + 22 + b2 + a2 + 2a + 22 + b2 (a4 + 4a3 + 4a2 2 + 2a2 b2 + 4ab2 + 42 b2 + b4 ) 2 (a4 + 4a3 + 4a2 2 + 2a2 b2 + 4ab2 + 42 b2 + b4 ) 2 1 y 2 respectivamente, con la condici on:

Los valores singulares 1 y 2 corresponden a 1 2 , por lo tanto obtenemos: 1 2 2005 = = = 0 1 0 0 2


2 = 1 |

a2 +2a+22 +b2 +

(a4 +4a3 +4a2 2 +2a2 b2 +4ab2 +42 b2 +b4 ) 2

a2 +2a+22 +b2

(a4 +4a3 +4a2 2 +2a2 b2 +4ab2 +42 b2 +b4 ) 2

27

Computaci on Cient ca I

Tarea 2

Ahora ya tenemos los valores propios resolvemos el sistema: B x1 x2 = i[1:n] x1 x2

para obtener los vectores propios y de esa forma obtener W W (a + )2 x1 + (a + )bx2 (a + )bx2 =
1 2 W |W

= x1 ( = x1 (

a2 + 2a + 22 + b2 + a2 + 2a + 22 + b2 +

(a4 + 4a3 + 4a2 2 + 2a2 b2 + 4ab2 + 42 b2 + b4 ) ) 2 (a4 + 4a3 + 4a2 2 + 2a2 b2 + 4ab2 + 42 b2 + b4 ) 2 (a + )2 )

(a + )2 ) x2 x1
1 W

x1 (

a2 +2a+22 +b2 +

(a4 +4a3 +4a2 2 +2a2 b2 +4ab2 +42 b2 +b4 ) 2

(a + )b

= 1 = = x1 ( = x1 (

1
(a+)b

a2 +2a+22 +b2 +

(a4 +4a3 +4a2 2 +2a2 b2 +4ab2 +42 b2 +b4 ) (a+)2 2

(a + )bx1 + (b2 + 2 )x2 (b2 + 2 )x2

a + 2a + 2 + b a2 + 2a + 22 + b2
a2 +2a+22 +b2

(a4 + 4a3 + 4a2 2 + 2a2 b2 + 4ab2 + 42 b2 + b4 ) ) 2 (a4 + 4a3 + 4a2 2 + 2a2 b2 + 4ab2 + 42 b2 + b4 ) 2 (a + )b)

(a + )b) x2 x1
2 W

x1 (

(a4 +4a3 +4a2 2 +2a2 b2 +4ab2 +42 b2 +b4 ) 2 (b2 + 2 )

= 1 =

a2 +2a+22 +b2

1
(b2 +2 )

(a4 +4a3 +4a2 2 +2a2 b2 +4ab2 +42 b2 +b4 ) (a+)b) 2

De esta forma obtenemos W Ahora para obtener V, resolvemos el siguiente sistema: V = AW 1 Apoyandonos en MatLab encontramos el resultado (el resultado de V es demasiado grande para poder exponerlo en este documento) c) d) No se pide demostrar Por el Lema Auxiliar expuesto en la parte 3 de la pregunta 13, sabemos que:
k

l m k = 0,

l m Vk = V, l m A =

l m k = ,

l m Wk = W

A = V W

l m Vk k W k

15. Sea A M(mxn,K) una matriz dada con descomposici on de valor singular A = VW . Dena A = W V , donde es la transpuesta de en la cual los valores singulares positivos de A se reemplazan por sus valores reciprocos. Demuestre que : 28 Primer Semestre

Tarea 2

Computaci on Cient ca I

a)

AA y A A son hermitanias, Se debe comprobar que (AA ) = A A. La matriz A A tiene la siguiente forma: A A = (VW )(W V ) A A = VW W V A A = V V Siendo las matrices V y W unitarias, es decir: V = V 1 W = W1 Y la matriz es diagonal de dimensi on m x n. Para hacer la demostraci on se debe encontrar tambi en la forma de (AA ) . (AA ) = (V V ) (AA ) = ( V ) (V) (AA ) = V V De lo que encontraremos que para que se cumpla que (AA ) = AA , la matriz debe ser hermitiana, es decir: = = ( ) Lo que de hecho se cumple por que la matriz es cuadrada de dimensi on m x n y diagonal. Por lo tanto la matriz AA es hermitiana. Ahora debemos comprobar que (A A) = A A. Seguimos el mismo razonamiento anterior. La matriz A A tiene la siguiente forma: A A = (W V )(VW ) A A = W V VW A A = W W Siendo las matrices V y W unitarias, es decir: V = V 1 W = W1 Y la matriz es diagonal de dimensi on m x n. Para hacer la demostraci on se debe encontrar tambien la forma de (A A) . (A A) = (W W ) (A A) = (W ) (W ) (A A) = W W De lo que encontramos que para que se cumpla que (A A) = A A, la matriz es hermitiana, es decir: = = ( ) Lo que de hecho se cumple por que la matriz es cuadrada de dimensi on m x n y diagonal. Por lo tanto la matriz A A es hermitiana.

b)

AA A = A, Se busca demostrar que AA A = A. Para eso primero debemos encontrar la forma de la matriz AA A. AA A = (VW )(W V )(VW ) AA A = (V V )(VW ) AA A = V W

2005

29

Computaci on Cient ca I

Tarea 2

Lo que efectivamente se cumple por ser diagonal y por ser diagonal tambi en, cuyos valores en la diagonal son los rec procos de la diagonal de . 1 0 ... 0 0 2 . . . 0 = . ... . n . de dimension m x n. =
1 1

0
1 2

0 . .

... ... ...


1 n

de dimensi on n x m.

de dimensi on m x m. Al multiplicar esta u ltima matriz por nos queda la misma matriz . Queda comprobado el enunciado. c) A AA = A . De acuerdo al mismo razonamiento anterior: Se busca demostrar que A AA = A . Para eso primero debemos encontrar la forma de la matriz A AA . A AA = (W V )(VV ) (W V ) A AA = (W W )(W V ) A AA = W V Lo que efectivamente se cumple por ser diagonal y por ser diagonal tambi en, cuyos valores en la diagonal son los rec procos de los de la diagonal de . 1 0 ... 0 0 2 . . . 0 ... = . . n . =
1 1

1 0 ... 0 0 1 ... 0 = . ... . ... 1

0 0 ...

de dimension m x n.

0
1 2

0 . .

... ... ...


1 n

de dimensi on n x m.

de dimensi on m x m. Al multiplicar esta u ltima matriz por nos queda la misma matriz . Queda comprobado el enunciado. 30 Primer Semestre

1 0 ... 0 0 1 ... 0 = . ... . ... 1

0 0 ...

Tarea 2

Computaci on Cient ca I

Demuestre que A = A1 si A es cuadrada y no-singular. La matriz A se llama inversa generalizada o inversa de Moore-Penrose de la matriz A. Se puede demostrar que la inversa generalizada existe para toda matriz A, incluso para matrices cuadradas singulares o para matrices no cuadradas. Si A es una matriz cuadrada y no singular, entonces el determinante de A = 0 y por lo tanto la inversa de A y es igual a A1 . Supongamos que efctivamente A = A1 , entonces se deben comprobar las propiedades anteriores: (A1 A) = A1 A, esto se verica inmedeiatamente por las propiedades de la matriz invertible donde A1 A = I y adem as IT = I. Lo mismo sucede en el caso inverso pues AA1 = I. AA1 A = A, al igual que en el caso anterior como AA1 = I e IA = A, entonces tambi en cumple con esta propiedad. A1 AA1 = A1 , donde A1 A = I y adem as IA1 = A1 comprobando tambi en esta propiedad. Hasta el momento s olo se ha comprobado que si A = A1 las propiedades de A se cumplen, nos falta demostrar lo que viene a continuaci on para concluir que si las propiedades se cumplen, A queda un vocamente determinado y por lo tanto como la inversa de A existe, A 1 = A . Demuestre, adem as, que A queda un vocamente determinadas por las propiedades (a), (b), (c). Penrose demuestra que dada una matriz A existe una u nica matriz A tal que cumple con las propiedades (a), (b), (c). Supongamos que se tienen dos matrices K y L, que cumplen con: AA A = A A AA = A (AA ) = AA (A A) = AA Entonces: K = KAK = (KA) K = A K K = (ALA) K K = A L A K K = (LA) (KA) K = LAKAK = LAK = L(ALA)K = L(AL) AK = LL A AK = LL A (AK) = LL A K A = LL A = L(AL) = LAL = L Luego K = L, y la soluci on es u nica. Adem as en el punto anterior se concluye que si A es cuadrada y no singular A = A1 . 16. La descomposici on de valor singular se puede obtener sin utilizar expl citamente vectores ni valores propios. Los vectores singulares (de izquierda y de derecha) y los valores singulares pueden construirse directamente a partir de la llamada caracterizaci on variacional de la norma espectral (que es, simplemente, la denici on usual de la norma de un operador lineal): si A M (n n, K), es una matriz dada, entonces se dene: ||A||2 = sup ||Ax||2 , con ||x||2 = 1.

(a) Sea n 2 y suponga que B M (n n, K) tiene la forma: B= 1 0 w , X con 1 = ||B ||2 , w Kn1 , X M ((n 1) (n 1), K)

Demuestre w = 0. Soluci on:

2005

31

Computaci on Cient ca I

Tarea 2

Sea = Calculmos la norma de como sigue: || ||2 =


2 (1

1 1 1 / 2 w + w w)

1 2 + w w )1/2 (1

1 w

|| ||2 Por otro lado tenemos

2 (1 + w w)1/2 = 2 + w w )1/2 (1 = 1

es unitario.

||B ||2 2 ||B ||2 2

||B ||2 2 2 = 1

2 1 + w w 2 1 + w w 2 1 + w w

(#)

w=0

Nota: El paso en (#) se debe a que es unitario, por lo tanto al multiplicarlo por otra matriz, esta conserva su norma, adem as de que se utiliz o la denici on de la Norma Espectral. (b) Sea A M (n n, K), dena 1 = ||A||2 , y use la f ormula (Normal Espectral) para probar que existe 1 un vector unitario ||x||1 tal que ||Ax1 ||2 = 2 . Dena y1 = 1 Ax1 para la parte (c). Soluci on: 1 = ||A||2 , lo anterior es cierto ya que: ||A||2 = sup ||A.x||2 = m ax ||A.x||2 = 1 n
xS n xS

Adem as por el Teorema de Weierstrass, podemos demostrar que existe un vector unitario ||x|| 1 1 tal que ||A.x1 ||2 = 1 y dejar denido y1 = 1 Ax1 . S n es un conjunto compacto Kn . Adem as, x ||A.X ||2 || es continua. Por los 2 puntos antes mencionados podemos decir que: u1 Km , tales que Av1 = 1 u1 (#). Av1 = u 1 = ||u 1 || u 1 = 1 , ||u 1 || 1 = ||Av1 || = u1 v1 Kn con ||u1 ||2 = 1 ||v1 ||2 = 1

1 Para poder denir y1 = 1 Ax1 tomamos lo obtenido en (#) y

Ax1
1 1 Ax1 1 1 Ax1

= 1 y1

1 = 1 1 y = y1

1 / 1

(c) A M at(n n, K), V1 , W1 M at(n n, K). De la parte (b) sabemos que ||A||2 = 1 y como V1 y W1 son matrices unitarias ||V1 ||2 = ||W1 ||2 = 1. 32 Primer Semestre

Tarea 2

Computaci on Cient ca I

||V1 AW1 ||2 = ||A||2 = 1 . (ii)de la parte (a) y (b) tenemos que , Sea X = V2 W2 , con =diag(2 , . . . , n )A = 1 0 0 X

= =

1 0 0 V2 1 0

1 0 ,

0 X

1 0 0 W2

= V1 AW1

0 V1 W2

Lo que mantiene la forma de B de la parte (a)

(d)
U1 AV1 = 1 =

1 0

0 X

M at(n n, K),

U, V unitarias.

Adem as, X M at((n 1) (n 1), K), 1 = ||A||2 , norma espectral. Si n = 1 1 = [1 ] y terminamos. Si no: para la submatriz X M at((n 1) (n 1), K) tambi en es posible hallar una SVD, de esta manera. A = U1 1 V1 = U1 = U1 1 0 0 X V1 1 0 0 2 1 0 0 V1 V2

1 0 0 U2

Este proceso efectivamente termina tras n pasos. (e) ||A|| norma espectral =m ax{ : valor propio de A A}. Si A no es cuadrada, entonces la matriz U no ser a cuadrada. Con A M at(m n, K) entonces M at(n n, R) no se pueden multiplicar. En estos casos es posible agregar las o columnas a las matrices para que tengan las dimensiones adecuadas para realizar las operaciones. En las matrices unitarias es posible agregar columnas ortonormales utilizando el m etodo de GramSchmidt, y en , agregando las o columnas de ceros. 17. Considere una descomposici on de valor singular A = U M (nxn, K ) escriba: A=U V = (U U )(U V ) = P W , con P = U Demuestre o refute: P es positiva semidenida, i.e ,x P x 0 (note que dice y no >) para todo x K n , con x = 0. P = U U y P = (U U ) = U U P = P P es Hermitiana Sea x = 0 K n un EV de P con EW con (P ) ,i.e se sabe que P x = x entonces P x = x / x* x P x = x x = x x

V de una matriz cuadrada A

U y W = U V (Polar)

2005

33

Computaci on Cient ca I

Tarea 2

con x x = x P P = (V
2

>0

V )(V

V ) = V

V V

V = V

V = V

V con

P P = V V = V V es una matriz diagonal cuyas entradas di son los valores singulares de A (). Los valores singulares de A son las ra ces cuadradas de los Eigen Values de P P . La matriz contiene en su diagonal estos valores (2 ) por lo que lambda 0. Entonces x x 0 x P x 0 P es positiva semidef inida Rank(A)=Rank(P) P = U U A = U V Si sabemos que el rango de la matriz A es el numero de > 0 , que corresponden a los valores que se encuentran en en su diagonal. Esto implica que el Rank (A) = Rank () , ya que al multiplicar por matrices unitarias con vectores ortogonales esta no afecta el rango de . Por lo tanto el Rank(A) est a determinado por el rank(). a11 a21 . . . an1 a12 a22 . . . an2 0 b22 . . . 0 a12 b22 a22 b22 . . . an2 b22 a1n a2n . . . ann 0 0 . . . bnn
mn

b11 0 . . . 0

mn

a11 b11 a21 b11 . . . an1 b11

a1n bnn a2n bnn . . . ann bnn


mn

Si 1 i n, bii = 0 multiplicar una matriz unitaria por una matriz diagonal fullrank resulta una matriz con el mismo rango de la matriz diagonal fullrank, y si la matriz diagonal no fuera fullrank, la matriz resultante tendria columna nula al nal y no seria fullrank, es decir, mantiene el rango. Si ahora realizamos el mismo an alisis para la matriz P , al observar que P tiene la misma forma que A, vale decir, que tiene una matriz diagonal y dos matrices unitarias concluimos que el Rank(P)=Rank(). Rank(P)=Rank()=Rank(A). Por lo tanto Rank(P)=Rank(A). W tiene las ortonormales, i.e. W W = I W = UV W W = U V (U V ) = U V V U = U IU = U U = I Demostracion de que al multiplicar una matriz diagonal por una unitaria esta mantiene el rango de la matriz diagonal.

34

Primer Semestre

Tarea 2

Computaci on Cient ca I

P est a un vocamente determinada y satisface P = (AA ). D e una interpretaci on razonable para esta u ltima f ormula. Cualquier matriz invertible cuadrada puede ser escrita A = P W donde P es positiva sim etrica y W es ortogonal (W W = I ) Si nosotros tenemos A = P W , con P sim etrica y W ortogonal entonces A = W P y AA = P W W P = P 2 . Si se puede demostrar que P debe ser la raiz cuadrada positiva de AA entonces la divisi on de matriz sobre la izquierda de A = RW queda W = R1 A, lo que queda demostrado al satisfacer W W = I . Tambi en Si P = U U , si U es unitaria P U = U que es la diagonalizaci on de P , entonces P tiene asociado un u nico polinomio caracter stico, el cual tiene raices, llamda , que tiene un u nico vector asociado, este vector asociado, este vector cumple P x = x, entonces P es univocamente determinada. P = (AA ) P 2 = AA P P = U V (U V ) P P = U V V U P P = U I U P P = U U con = P P = U U =B Por otra parte P P = U U U U = U I U = U U = B Entonces P est a un vocamnete determinado Sup onga ahora que la matriz original A no es cuadrada, digamos A M (mxn, K ) con m n. A bruta f orza, haga cuadradas (de m x m) todas las matrices (execptuando V que conviene dejarla como una matriz de m x n) de la descomposici on de valor singular, agregando 0s a diestra y siniestra. Examinar la factorizaci on (polar) y las propiedades (a)-(d) siguen siendo v alidas o no
parte a: P = Umxm M xn Umxm se extiende mxn a mxm en donde se le agrega (m-n) columnas de 0s para poder realizar la multiplicaci on. Entonces es v alido la demostraci on anterior con el P actual. y P es semipositiva denida

parte b: Si generalizamos la demostraci on anterior, si tenemos una matriz A M at(mxn, K ), que la SVD de Amxn = Umxm mxn Vnxn , entonces P = U U que a se le deben agregar 0s a la derecha para hacerla de mxm y se pueda hacer la multiplicaci on, y por la demostraci on hecha que al multiplicar por una matriz unitaria esta mantiene su su rank . entonces Rank (P ) = Rank (A)
parte c: W W = I , si sabemos que W = U V y si Umxm Vnxn que la multiplicaci on no se puede realizar entonces se agregan 0s a V para hacerla de mxn Umxm Vmxn (Umxm Vmxn )= I Umxm Vmxn Vmxn Umxm = I , lo cual se cumple porque los ceros agregados se anulan ellos mismos que W W = I

parte d: Si a A le hacemos la SVD este s olo tiene una SVD asociada, entonces P = U U , Pmxn = Umxn mxn Umxm que no est a correcto para hacer la multiplicaci on, entonces P est a univocamente asociado ya que U, , V son u nicos asociados a la matriz A. si P = (AA ), P 2 = AAt Umxm mxn Vmxn Vmxn mxm Umxm U U = U V (U V ) 2005 35

Computaci on Cient ca I

Tarea 2

U V V U Umxn mxm mxm Umxm La nueva matriz W est a un vocamente determinada cuando rank A=n? Si W = U V entonces Wmxn = Umxm Vmxn que V tiene (m-n) las con 0s las cuales estan en la parte inferior de la matriz V , entonces como U no es univocamente determinada en sus (m-n) u ltimos vectores columnas, pero se anulan con la la de 0s de V que W esta univocamente determinada Si A es real, es posible Tomar P y W como matrices reales? Si sabemos que A es una matriz real AAt yAt A son matrices reales y como AT AyAAT son matrices hermitianas y se sabe que sus EW son reales por lo tanto sus EV son reales, entonces las matrices U y V son reales P y W son reales Por lo tanto es posible tomar P y W como matrices reales. Si m < n, se hace la extensi on de 0 cuando se corresponde sabiendo que Amxn = Umxm mxn V nxn entonces para calcular P se extiende U con ceros en la u ltima (n-m) la inferior con lo que la multiplicaci on quedar a. Pmxm = Umxm mxn Unxm y para el c alculo de W se debe extender U con (n-m) columnas derechas nales, para que quede de la forma Umxn entonces W queda Wmxn = Umxn Vnxn Entonces Amxn = Pmxm Wmxn que es valida la representaci on polar para matrices con m<n Escriba un programa para obtener la representaci on polar de cualquier matriz. function [P,W]=formapolar(A) [U,S,V]=svd(A); [m,n]=size(A); if m > n Stemp=[S zeros(m,m-n)]; P=U*Stemp*U; Vtemp=V; Vtemp=[Vtemp;zeros(m-n,n)]; W=U*Vtemp; elseif m n Utemp=[U zeros(m,n-m)]; W=Utemp*V; Utemp=[U ; zeros(n-m,m)]; P=U*S*Utemp; else P=U*S*U; W=U*V; end 18. Usando SVD demuestre que toda matriz A M (m n, C) es el l mite(Cu al norma ser a apropiada para calcular el l mite?) de una sucesi on de matrices Ak = aij
(k) (mn)

M (m n, C), k N, de

36

Primer Semestre

Tarea 2

Computaci on Cient ca I

rango completo. En otras palabras, demuestre que el conjunto de las matrices de rango completo es denso en M (m n, C). Suponiendo una matriz A M (m n, C) tal a1,1 a1,2 a1,r a1,r+1 a2,1 a2,2 a2,r a2,r+1 A= . . . . .. .. . . . . . . . . . . am,1 am,2 am,r am,r+1 Sea B M (m n, C) tal que B= AT 1 que: a1,n a2,n . . . am,n

AT 1

AT 2

AT r

AT r +1

AT n

m con AT as A tiene r columnas que son LI y n r columnas LD. j C . Adem

AT 2

AT r

1 T k Q1

+ AT r +1

1 T k Qnr

+ AT n

Hay que demostrar que l m Sea si tomamos l m

T T con ql AT 1 , A2 , . . . , Ar .

A B = 0. 0 0 0
1 T k Q1

AB =C =
k

1 T k Qnr

C = 0 y seleccionamos una norma conveniente (puesto que se puede utilizar

cualquier norma matricial v alida, ya que las normas miden distancias en un cierto espacio vectorial) como la norma matricial innito, entonces tenemos: l m C

= l m m ax
k j i

1 ax 0 = 0 qij = m j k

19. Considere la matriz A= a) b)

2 11 10 5

Determine s.c.P.L.P una SVD real de A de la forma A = U V T .LA SVD no es u nica (compruebe este hecho). As , encuentre la SVD que tiene el menor n umero de signos negativos. Haga una tabla con los valores singulares, los vectores singulares izquierdos, y los vectores singulares derechos de A. Dibuje cuidadosamente la bola unitaria de R2 y su imagen bajo A , junto con los vectores singulares, indicando claramente las coordenadas de sus v ertices. Use sistemas de coordenadas claramente rotulados con los nombres de las variables involucradas y todos los signos convencionales del Dibujo T ecnico que aseguren una buena comprensi on de sus diagramas. Determine A1 indirectamente v a SVD. Determine las normas 1,2, , y de Frobenius-Hilbert-Schmidt de la matriz A. Verique que: det(A) =1 2 y que |A| = 1 2

c) d) e) f)

Determine el a rea del elipsoide que resulta como imagen de la bola unitaria de R 2 bajo A. 2 11 10 1 104 72 72 164 37

SVD A= A B V 2 10 11 5 2005

2 11 10 5

Computaci on Cient ca I

Tarea 2

104 72

72 164

= (104 )(164 ) 722 = 0

2 250+ 250+ 250+ 250+ 62500 40000 22500 150 250 4 10000 = = = = 2 2 2 2 Valores Propios: 1 = 50 2 = 200

Vectores Propios: 104 72 72 146 104X1 72X2 = 50X1 72X1 + 146X2 = 50X2 54X1 72X2 = 0 72X1 + 46X2 = 0 x1 =
72 54 x2 4 =3 x2 4 3

50 0 0 200 0 5 2 0 10 2

X1 X2

= 50

4 12 + ( )2 3 104 72 72 146

9 + 16 = 9 X1 X2

5 25 = V1 = 9 3 x1 x2

4 5 3 5

= 200

104X1 72X2 = 200X1 72X1 + 146X2 = 200X2 96X1 72X2 = 0 72X1 54X2 = 0
3 72 x2 = 4 x2 x1 = 96

3 4 1 V =
4 5 3 5

3 12 + ( )2 4

16 + 9 5 = V2 = 16 4

3 5 4 5

3 5
4 5

Como: A = U

V AV

=U
4 5 3 5 4 25 2 3 25 2 3 5 4 5 1 5 2

2 11 10 5 2 11 10 5 38

0
1 10 2 1 2 1 2 1 2 1 2

503 2 4 50 2

Primer Semestre

Tarea 2
2 2 22 2 2 2 2

Computaci on Cient ca I

U =

SVD Completa es: 2 11 10 5


A

2 2 22 U

2 5 2 2

0 5 2 0 10 2
P

3 5
V

4 5

3 5 4 5

Por el otro m etodo A A U 2 11 10 5 125 75 75 125 2 10 11 5 = 125 75 75 125

= (125 )2 752 = 0 |125 | = 75

125 = 75 125 = 75

2005

39

Computaci on Cient ca I

Tarea 2

Valores Propios: 1 = 50 2 = 200 5 2 0 0 10 2 x1 x2

= Vectores Propios:

50 0 200 0

125 75 75 125 125x1 + 75x2 = 50x1 75x1 + 125x2 = 50x2 75x1 + 75x2 = 0 75x1 + 75x2 = 0 x1 = x2 1 1 V1 =
2 2 2 2

x1 x2

= 50

125 75 75 125 125x1 + 75x2 = 200x1 75x1 + 125x2 = 200x2 75x1 + 75x2 = 0 75x1 75x2 = 0 x1 = x 2 1 1 V2 =

x1 x2

= 200

x1 x2

2 2 2 2

U = Como: A=U V 1 U A=V V =


1 5 2

2 2 2 2

2 2 2 2

0
1 102 1 10 1 20

0
1 10 1 20

2 2 2 2

2 2 2 2

2 11 10 5
8 10 12 20 6 10 16 20

2 11 10 5

V =

4 5 3 5

3 5 4 5

SVD Completa: 2 11 10 5 =
2 2 2 2 2 2 2 2

5 2 0 0 10 2

4 5 3 5

3 5 4 5

La manera SVD obtenida es la que tiene menor cantidad de signos negativos 40 Primer Semestre

Tarea 2

Computaci on Cient ca I

a) b)

Parte B Normas Norma 1: ||A||1 = M AXk Norma 2: ||A||2 = Norma Innita: ||A|| = M AXk Norma Frobenius: ||A||F = (

n j =1

|ajk | = 5 11 = 16

P (AH A) = 10 2
n j =1

|akj | = | 10| + 5 = 15
n n
2 a2 ij ) = 1

i=1 j =1

(2)2 + 112 + (10)2 + 52 = 4 + 121 + 100 + 25 = 250 = 5 10 c) SVD A = U V A1 = (U V )1 = (V )1 (U )1 ) A1 = V 1 U


1 5 2 2 2 2 2 11 100 2 100

=
4 5 3 5

4 5 3 5 3 5 4 5

3 5
4 5 1 10 1 20

0
1 10 2

0
1 10 1 20

2 2 2 2 1 20 1 10

d)

e)

Parte D Como el largo de los semi-ejes de la elipse son valores singulares Area = 1 2 Parte E A= 2 11 10 5

|A| = (2) 5 (10) 11 = 10 + 110 = 100 1 2 = 50 200 = 10000 Det|A| = 1 2 1 2 = 5 2 10 2 = 50 2 = 100 Det|A| = 1 2

20. Suponga que A M (m n, C), tienen una SVD A = U V . Encuentre una EVD A = X X 1 0 A de la matriz hermitania M (2m 2m, C). A 0 Desarrollo: 0 A , como B es hermitania, B = B : Sea B = A 0 BB = 2005 0 A A 0 0 A A 0

A A 0 0 AA 41

Computaci on Cient ca I

Tarea 2

Adem as, como A tiene una SVD: A A = (U V ) (U V ) = V U U V = V I V = V V = V V Lo mismo: AA = (U V )(U V ) = U V V U = U I U = U U = U U Entoces: BB = A A 0 0 AA = V V 0 0 U U

Esto implica que los valores propios de B son los contenidos en la matriz diagonal de la SVD de A. Adem as, cada valor propio tiene multiplicidad 2. Esto nos lleva a ver la similitud entre y . Tambien, X es la matriz formada por los vectores propios correspondientes a . Finalmente, X tiene la misma forma que V de la SVD por la misma raz on anterior. Si i son los valores propios de A en y vi es el vector propio asociado, debe ser de la forma: 1 2 0 = .. . 0 n Luego X debe ser de la forma: X = v1 | v2 | | vn y X es: v1 v2 . . .

Luego la EVD de B = X X 1 :

X = vn v1 v2 . . .

B = v1 | v2 | | vn

1 2 0 0 .. . n

Donde las matrices X y pertenecen a (2m 2m, C).

vn

42

Primer Semestre

Tarea 2

Computaci on Cient ca I

21. Cf: http://www.computer.org/cise/homework/v5n3/index.htm James G. Nagy and Dianne P. OLeary [2]. Los llamados problemas inversos constituyen uno de los desaf os m as exigentes en la computaci on aplicada a la ciencia y a la ingenier a, debido a que involucran la determinaci on de los par ametros de un sistema observado s olo indirectamente. Un ejemplo de tales problemas es, por ejemplo, la determinaci on de un sistema a partir solamente de su espectro. Otro ejemplo t pico es la determinaci on de posibles fracturas en un (es)tanque exclusivamente a partir de mediciones de tipo sonar. El problema que se quiere discutir aqu es el siguiente: dada una imagen borrosa y un modelo lineal para la borrosidad, reconstruir la imagen original. Este problema inverso lineal ilustra el impacto del mal condicionamiento en la selecci on de algoritmos. La herramienta principal para este proyecto es la SVD. (1) Mal Condicionamiento. Consideremos un sistema de ecuaciones lineales: K.f = g, K M (n x n, R)f, g Rn . Supondremos que la matriz K esta escalada de modo que su mayor valor singular es 1 = 1. Si el menor valor singular n es aproximadamente 0, entonces K est a mal condicionada. Distinguiremos dos tipos de mal condicionamiento: La matriz K se considera ( num ericamente de rango deciente) si existe un j tal que j j +1 . . . n 0, i.e,, si hay una brecha ostensible entre los valores singulares grandes y los peque nos. Si los valores singulares decaen a 0 sin ninguna brecha especial en el espectro, se dice que el sistema lineal K.f = g es un problema mal condicionado discreto El c alculo soluciones aproximadas muy cercanas a las soluciones exactas en un problema mal condicionado discreto del tipo K.f = g es, por lo general, un problema muy dif cil, especialmente debido a que en muchas aplicaciones reales, g no se conoce exactamente. En realidad la data t picamente tiene la forma: g = K.f + donde representa un ruido (desconocido) o errores de medici on. El objetivo es, entonces, dada una matriz mal condicionada K y un vector g , calcular una (buena) aproximaci on del vector desconocido f . La soluci on ingenua de K.f = g , usualmente, no es apropiada cuando K es muy mal condiconada, como en el caso que nos interesa. En estos casos se usa un procedimiento de ( regularizaci on) para hacer el problema menos sensible al ruido. En algunos c rculos se habla de ( robusticaci on) del proceso. (2) Regularizaci on de Tikhonov. El m etodo de regularizaci on m as conocido es la llamada ( regularizaci on de Tikhonov) que calcula una soluci on del problema de m nimos cuadrados amortiguado:
2 2

minf g Kf

2 f

2 2

(7)

El t ermino 2 f 2 on al tama no de la soluci on. Dicha penalizaci on re2 impone una penalizaci luce el efecto de los valores singulares peque nos.

2005

43

Computaci on Cient ca I

Tarea 2

(3) Problema 1. Demuestre que la ecuaci on (7) es equivalente al prblema de m nimos cuadrados lineal:
2

minf

g 0

K I

f
2

(8)

El escalar (llamado par ametro de regularizaci on) controla el grado de suavidad de la soluci on. Evidentemente, = 0 implica ausencia de regularizaci on y en este caso la soluci on de (8) estar a muy probablemente corrupta con mucho ruido. Por otro lado, si es grande, la soluci on calculada no podr a ser una buena aproximaci on de la soluci on exacta f . La elecci on de un valor apropiado para no es algo trivial. Varios algoritmos han sido propuestos en la literatura pero aqui se usar a un metodo manual. = Para demostrar que la ecuaci on (7) es equivalente al problema de m nimos cuadrados lineal deben ser equivalentes los argumentos de la funci on minimal, es decir:
2

g Kf

2 2

+ f

2 2

g 0

K I

f
2

Para esto se partir a del lado derecho para llegar al izquierdo g 0 K I


2

f
2

= = = =

g Kf If g Kf g Kf g Kf
2 2 2 2 2 2

2 2 2 2 2

+ If + f + 2 f 2 2

As podemos decir que son equivalentes. (4) Problema 2. Demuestre que si K tiene una SVD K = U V T , emtonces la ecuaci on (8) puede trnasformarse en el problema de cuadrados m nimos equivalente:
2

minf

g 0

K I

f
2

, con

V T f, f

g UT g

(9)

= Para comprobar lo anterior deben ser equivalentes: g 0 K I


2

f
2

g 0

f
2

44

Primer Semestre

Tarea 2

Computaci on Cient ca I

Para esto se reemplaza K por su descomposicion SVD K = U V T .

g 0

U V T I

f
2

g U V T f If
T T

2 2

U U g U U U V T f V V T If U (U g U U V f ) V (V T If ) UT g 0 UT g 0 g 0 I V T f IV T f I f
2 2 T T T

UUT = V V T = I
2 2 2 2 2 2

U
2

= V

=1

2 2

V Tf
2 2

Por lo tanto son equivalentes. (5)Problema 3. Obtenga una formula para la solucion de la ecuacion (9). Hint: haga cero la derivada de la funcion de minimizacion y resuelva para f . Todo esto constituye un algoritmo para determinar la solucion de Tihkonov de un problema mal condicionado discreto. = La formula para la ecuacion (9) viene dada por: f = (T + 2 I )1 T g

(6) SVD truncada. Otro m etodo para regularizar el problema consiste en truncar la SVD. El siguiente Problema 4 ilustra c omo expresar la soluci on al problema de m nimos cuadrados en t erminos de la SVD. (7)Problema 4. Demuestre que la soluci on del problema: minf g Kf
2 2

2 f

2 2

(10)

Viene dado por: fls = V T U T


uT n i g i=1 i vi

(11)

2005

45

Computaci on Cient ca I

Tarea 2

donde ui es la i- esima columna de U, y vi es la i-esima columna de V. Se puede ver que hay problemas en fls si un peque no valor de i , divide un t ermino uT i g que contiene errores. En tales casos, fls quedar a dominado por errores. = Lo anterior se demostrar a a partir de la f ormula encontrada para la ecuaci on (9). Le quitamos el t ermino de ruido y queda: fls = (K T K )1 Kg = (U V T )T (U V T )1 (U V T )T g = (V U T U V T )1 (U V T )T g = (V V T )1 (U V T )T g = V 1 1 V T V U T g = V 1 U T g = V U T g Para eludir esta dicultad, Richard Hanson y James Vrah han sugerido truncar la expansi on (11): fls =
p uT i g i=1 i vi

(12)

para alg un valor p < n. Ahora tenemos los ingredientes para resolver el problema de eliminaci on de la borrosidad en procesamiento de im agenes. Supongamos que tenemos una imagen borrosa o ruidosa G justo con alg un conocimiento del operador de borrosidad, y queremos construir la imagen verdadera original F . Este es un ejemplo de un problema mal condicionado discreto en el cual los vectores en el sistema lineal g = K.f + representan los arreglos bidimensionles (F y G de las im agenes apilados por columnas para formar vectores (por ejemplo, debajo de la primera columna de F viene la segunda columna de F y as sucesivamente hasta concluir con la n- esima columna, obteni endose de esta manera un vector de n2 componente). En la notaci on de Matlab se tendr a: f = reshape(F, n, 1) g = reshape(G, n, 1) (13)

El objetivo de este problema es, dados K y G, reconstruir una aproximaci on de la imagen desconocida F . Si suponemos de F y G contienen nx n pixeles, entonces f y g son vectores de largo n y K es una matriz nxn que representa la borrosidad en la imagen. Por lo general esta matriz es muy grande para usar SVD. Sin embargo, en algunos casos se puede escribir K como un producto de Kronecker K = A B y entonces se puede usar SVD. (8) Dos Palabras Acerca de los Productos de Kronecker. El producto de Kronecker A B , donde A y B son matrices de mxm se dene mediante: 11 B . . . 1m B 21 B . . . 2m B AB = (14) . . .. . . . . . m1 B . . . mm B 46 Primer Semestre

Tarea 2

Computaci on Cient ca I

T T Teorema 1 Si A = UA A VA y B = U B B VB , entonces K = U V T donde U = UA UB , T = A B y V = V A VB .

Tarea: Demuesttre el teorema precedente. Para probar lo anterior analizamos el elemento C11 de la matriz A B , 11 B . Si A esta descompuesta como SVD tenemos: 11 21 . . . m1 12 22 . . . m2 ... ... . . . 1m 2m .. . u11 u21 . . . um1 u12 u22 . . . ... ... ... . . . u1m u2m .. . 11 0 . . . 0 0 12 . . . 0 ... ... . . . 0 0 .. . v11 v21 . . . v1m v12 v22 . . . v2m ... ... . . . v m1 v m2 .. .

. . . mm

. . . umm

. . . mm

. . . vmm

De esto sabemos que:

11 B 11 U V T

= (u11 11 v11 + u12 22 v12 + . . . u1m mm v1m ) B = (u11 11 v11 + u12 22 v12 + . . . u1m mm v1m ) U V T

(2)

= Para comprobar el teorema partiremos del lado derecho del teorema y demostraremos que el termino C11 = a11 B es equivalente a partir de las descomposiciones SVD. u11 u21 . . . um1 u12 u22 . . . ... ... ... . . . u1m u2m .. . u1m UB u2m UB .. .

UA =

. . . umm

UA U B =

u11 UB u21 UB . . . um1 UB

u12 UB u22 UB . . . um2 UB

... ... . . .

. . . umm UB

A =

11 0 . . . 0

0 12 . . . 0

... ... . . .

0 0 .. .

. . . mm

2005

47

Computaci on Cient ca I

Tarea 2

A B =

11 B 0 . . . 0

0 12 B . . . 0

... ... . . .

0 0 .. .

. . . mm B
T vm1 VB T vm2 VB .. .

T VA =

v11 v12 . . . v1m

v21 v22 . . . v2m

... ... . . .

vm1 vm2 .. .

. . . vmm

T T VA VB =

T v11 VB T v12 VB . . . T v1m VB

T v21 VB T v22 VB . . . T v2m VB

... ... . . .

T . . . vmm VB

T T As de la matriz A B = (UA UB )(A B )(VA VB ) el t ermino 11 B estar a dado por:

11 B 11 B

T T T = (u11 UB 11 B v11 VB + u12 UB 22 B v12 VB + . . . + u1m UB mm B v1m VB ) T = (u11 11 v11 + u12 22 v12 + . . . + u1m mm v1m )UB B VB

Mediante la comprobaci on de cada elemento vemos que todos los componentes pueden ser obtenidos de ambas formas por lo que se cumple el teorema. Por consiguiente, si una matriz grande es el producto de Kronecker de dos matrices m as peque nas, entonces se puede calcular la SVD de la matriz grande. Para resolver el problema de eliminaci on de la borrosidad de una imagen hay que operar cuidadosamente con matrices m as peque nas pues, de otro modo, r apidamente aparecen problemas de memoria o almacenamiento de datos. (9) Problema 5. Escriba un programa que toma matrices A, B y una imagen G, y calcule aproximaciones de la imagen F mediante la regularizacicon de Tikhonov y la SVD truncada. Para cada uno de estos algoritmos, realice algunos experimentos para hallar el valor del par ametro de reguralizaci on ( para Tikhonov y p para la SVD truncada) que da la imagen mas n tida. La referida p agina webde J.G. Nagy y D.P. OLeary contiene datos de muestra: una imagen borrosa G y matrices A, B . La tarea consiste en restaurar la imagen hasta el punto que se pueda leer el texto que contiene. Compare la efectividad de los dos algoritmos. ********************************************************** * A solution to CSE For Your Homework Project 1 * Image Deblurring: I Can See Clearly Now * Dianne P. OLeary and James G. Nagy 09/02 48 Primer Semestre

Tarea 2

Computaci on Cient ca I

**********************************************************

********************************************************** * Read in a blurred image G and matrices A and B. * Try to reconstruct F, where g is approximately * kron(A,B) * reshape(F,m*n,1) and g = reshape(G,m*n,1) **********************************************************

load proj1data imagesc(G) colormap(gray) gure(2) [m,n] = size(G); ********************************************************** * Compute the singular value decomposition of A and B. **********************************************************

[Ua, Sa, Va] = svd(A); [Ub, Sb, Vb] = svd(B); Ghat = Ub*G*Ua; S = diag(Sb)*(diag(Sa)); ********************************************************** * Use Tikhonov regularization, with parameters * specied in lamtest, to reconstruct the image. ********************************************************** lamtest = [.05 .01 .005 .0025 .0015 .001 .00095 .00016681 .00005]; for lam=lamtest Fhat = (S.Ghat) ./ (S.*S+lam2 ); F=Vb*Fhat*Va; imagesc(F) colormap(gray) disp(sprintf(Tikhonov lambda= f,lam)) disp(Strike any key to continue.) drawnow pause end ********************************************************** 2005 49

Computaci on Cient ca I

Tarea 2

* A solution to CSE For Your Homework Project 1 * Image Deblurring: I Can See Clearly Now * Dianne P. OLeary and James G. Nagy 09/02 ********************************************************** ********************************************************** * Read in a blurred image G and matrices A and B. * Try to reconstruct F, where g is approximately * kron(A,B) * reshape(F,m*n,1) and g = reshape(G,m*n,1) **********************************************************

load proj1data colormap(gray) imagesc(G) gure(1) [m, n] = size(G); ********************************************************** * Compute the singular value decomposition of A and B. **********************************************************

[Ua, Sa, Va] = svd(A); [Ub, Sb, Vb] = svd(B); Ghat = UbGUa; S = diag(Sb)(diag(Sa)); ********************************************************** * Use TSVD regularization to reconstruct the image. ********************************************************** ********************************************************** * Store the entries of S in a linear array s, then sort this * set in descending order and construct the permutation * that locates the ordered set in the unsorted list. ********************************************************** s = reshape(S,n2 , 1); [ss,prm] = sort(s); prm = ipud(prm); ss = ipud(ss); ls = length(s); iprm = zeros(ls,1); iprm(prm) = [1:ls]; * Using the sorted set and permutation constructed above, 50 Primer Semestre

Tarea 2

Computaci on Cient ca I

* remove all but the p largest singular values and then * compute the truncated expanded solution. Test using a * set of values of p.

pset = [100, 250, 500, 1000, 1500, 2000, 2500, 4000, 6000, 8000]; for i = 1:length(pset), ssnew = [ss(1:p); zeros(length(ss)-p,1)]; Snew = reshape(ssnew(iprm),n,n); Fhat = Ghat ./ S; Fnew = Fhat .* (Snew0); imagesc(F) F = VbFnewVa; p = pset(i);

disp(sprintf(TSVD p= /d , p)) disp(Strike any key to continue.) drawnow pause; end = El archivo requerido por ambos programas proj1data.matva adjunto en el disquette 22. Sea F M (mm, C) la matriz que inviertelas componentes de los vectores x C m , i.e.,transforma 1 (Im + F ). el vector (x1, ......, xm ) en el vector (xm, ......, x1 ) . Sea E = 2 Trefethen dice que E es la matriz que extrae la parte parde los vectores x C m .Por qu e?, Es E un proyector?, oblicuo?, ortonormal?, cu ales son sus coecientes?. Soluci on: Podemos observar 0 . . 0 . . . 1 F= . . 1 . 0 1 . . 1 0 . 0 del vector. Por ejemplo: Para 0 0 1 el vector v=(1 2 4) debemos hallar v=(4 2 1) al aplicar la matriz F. 4 1 0 1 1 0 2 = 2 ;donde observamos que hemos encontrado la matriz F correcta. 1 4 0 0 que la matriz que invierte un vector est a dada por : 1 0 . no m m, que multiplica por el lado izquierdo la cual es una matriz de tama . 0

1 Ahora encontramos la matriz E, donde E = 2 (Im + F ).

2005

51

Computaci on Cient ca I 1 0 . . 0 0 . 0 1 . . . . . . . 1 . . + . . E= 1 2 ( . . . 1 0 0 1 0 . . 0 1 1 0 1 0 . 0 1 0 1 . 1 0 1 1 . . ) = 2 ( 0 0 0 1 . . . 1 0 . 0 0 1 0 0 ). 0 1

Tarea 2

0 0 2 0 0

0 1 0 1 0

Por simplicidad en la demostraci on tomaremos nuestro 1 0 0 0 1 1 0 1 0 , donde encontramos que E = 2 0 2 F= 1 0 1 0 0 Desarrollando obtenemos 1 0 1 1 0 1 1 0 2 0 2 0 2 2 1 0 1 1 0 igual a : 0 1 2 0 = E. 0 1 que: 1 0 = 1 2 0 2 1 0 4 0 4 2 0 2

Para probar si es un proyector debemos comprobar que E 2 = E.

ejemplo inicial v=(1 2 4) . 1 0 . 1

que es 1 1 0 2 1

E es Proyector.

Podemos observar que en ning un caso E ser a ortonormal, debido a que existir an siempre ( m 2 1) vectores linealmente dependientes. Por ejemplo el vector de m as a la izquierda siempre ser a igual al vector de m as a la derecha. Los coecientes de la matriz E son: a) En caso que m sea par ser an puros 1/2 en ambas diagonales. b) Si m es impar ser an puros 1/2 en las diagonales y en la casilla del centro de la matriz habr a un 1. 23. Sea A M (m n, C) con mgeqn. Desmuestre A A es no singular si y s olo si A tiene rango completo. Dada una matriz A(3 2, C) donde A es: 1 0 A = 0 1 a b 1 0 1 0 a 0 1 0 1 b a b 1 + aa ba ab 1 + bb

Entonces la multiplicacion de A A viene dada por:

A A =

A A =

Donde las variables x con x = a, b son los conjugados de a y b. Al obtener el determinante de esta matriz se tiene: det|A A| = (1 + aa)(1 + bb) (ba)(ab) 52 Primer Semestre

Tarea 2

Computaci on Cient ca I

Al igualarlo a 0 para que la matriz sea singular y resoviendo la ecuaci on sucede lo siguiente: (1 + aa)(1 + bb) (ba)(ab) = 0 1 + aa + bb + aabb baab = 0 1 + aa + bb = 0 aa + bb = 1 Lo c ual resulta imposible puesto que un numero X C al multiplicarlo por su conjugado X siempre nos dara un numero positivo real 0.

Como el los vectores l.i. corresponde a la base can onica de R2 , por inducci on se generalizar f acilmente. 26. Sea A una matriz tal que sus columnas impares son ortogonales a sus columnas pares. En una R , que estructura especial tiene R ? factorizaci on reducida QR de A, A = Q a11 a21 . . . an1 a12 a22 .. a12 a22 . . . an2 . a1n . . . ann

v1 =

A= a11 a21 . . . an1

v 1 v 2 ; vi vi+1 i N

; v2 =

; ; vn =

a1n a2n . . . ann

Como son basta ortonormalizar ... q1 = a11 /||v1 || a21 /||v1 || . . . an1 /||v1 || ; q2 = a12 /||v2 || a22 /||v2 || . . . an2 /||v2 || ; ; qn = a1n /||vn || a2n /||vn || . . . ann /||vn ||

tiene una estructura especial ya que es la multiplicaci En esta descomposici on QR, R on de la matriz Identidad con una matriz que posee las normas de los vectores.

v1 = ||v1 ||q1 ; v2 = ||v2 ||q2 ; vn = ||vn ||qn ||v1 || 0 0 . . 0 . ||v2 || (v1 v2 vn ) = (q1 q2 qn ) . . .. . . 0 0 0 ||vn ||

=Q R

2005

53

Computaci on Cient ca I

Tarea 2

27. Sea A M (m x m, C) y aj su j- esima columna. Demuestre algebraicamente la desigualdad de Hadamard 1 2


n n

| det(A)|

i=1

Para el caso cuando m = 2 se tiene a11 a22 a12 a21


2 a2 11 + a12 2 a2 21 + a22

j =1

|aij |2

Elevamos al cuadrado
2 2 2 2 2 (a11 a22 a12 a2 21 ) (a11 + a12 )(a21 + a22 ) 2 2 2 2 2 2 2 2 2 2 2 a2 11 a22 2a11 a22 a12 a21 + a12 a21 a11 a21 + a11 a22 + a12 a21 + a12 a22

luego, 2 2 2 2a11 a22 a12 a21 a2 11 a21 + a12 a22

sea X = a11 a21 , Y = a22 a12 , entonces nos queda:

2XY X 2 + Y 2

As se cumple la demostraci on para m = 2. En el caso de que la matriz se de tama no mayor a 2x2 la demostraci on se realiza de forma an aloga ocupando la f ormula para el determinante del algoritmo de cofactores. La desigualdad de Hadamard simplemente dice que el volument del paralelep pedo n-dimensional P generado por las columnas de A no puede exceder el volumen de una caja rectangular de lados xj 2 , porque P es una caja sesgada con lados de largo xj 2 . 28. Sean a, b R3 y c, d R3 dos pares de vectores no nulos l.i. Considere los planos E = a, b R3 F = c, d R3 generados por los pares de vectores a, b y c, d, respectivamente. Desarolle un m etodo que permita hallar un vector no nulo v E F R3 mediante el c alculo de las factorizaciones QR de tres matrices de 3 2 apropiadas. La factorizaci on QR se obtiene usando los proyectores ortogonales de Gram Schmidt. Amn = [a1 |a2 |a3 . . . |an ] Amn = Qmn Rnn Amn = Qmm Rmn Q A = R(completa) La ortonormalizaci on triangular est a dada por: Amn = [a1 |a2 |a3 . . . |an ] = [aj ] v1 v1 = a1 q1 = , v1 = r11 v1 v2 , v2 = r22 ; a2 , q1 = r12 v2 = a2 a2 , q1 q1 q2 = v2 . . . vr = an an , q1 q1 an , q2 q2 . . . an , qn1 qn1 qn = 54 Primer Semestre vn , vn = rnn ; an , q1 = r1n vn

y nalmente, 2XY X 2 + Y 2

pero se sabe que (X + Y )2 0, por lo tanto, X 2 + 2XY + Y 2 0

Tarea 2

Computaci on Cient ca I

q1 = q2 =

a1 v1 = r11 v1

r12 a2 r v1 a2 r12 q1 11 = r22 r22

. . . qn = an
n1 i=1

xin qi

rnn

= an

n1 i=1

rin vi rnn

Entonces se tiene que para el primer caso se tiene la siguiente matriz(la generalizaci on a la pregunta): [q1 |a2 ahora para la segunda: [q1 |q2 |a3 r23 r1n r2n r13 v1 v2 | . . . |an v1 v2 ] r11 r22 r11 r22 r13 r1n r12 v1 |a3 v1 | . . . |an v1 ] r11 r11 r11

Y siguiendo con la generalizaci on tenemos la tercera matriz: [q1 |q2 |q3 |a4 r14 r24 r34 r1n r 2n r3n v1 v2 v3 3| . . . |an v1 v2 v3 ] r11 r22 r33 r11 r22 r33

Por lo tanto el proceso de otonormalizaci on de Gram Schmidt es un m etodo de ortogonalizaci on triangular que reduce la matriz A a una matriz unitaria: = A = QR 31. Desarrolle una funci on [Q,R]=mgs(A) en MATLAB que compute una factorizaci on QR reducida A = QR de una matriz A M (m n, C) con m n mediante el m etodo de ortogonalizaci on modicado de Gram-Schmidt. Las variables de salida deben ser, por supuesto, una matriz Q M (m n, C) con columnas ortonormales, y una matriz triangular superior R M (n n, C). No olvide considerar el caso en que el algoritmo de Gram-Schmidt pudiera interrumpirse (moment aneamente) antes de procesar todas las columnas de la matriz A. El c odigo en Matlab de la funci on mgs(A) es el siguiente: %Calcula la factorizacion QR a trav es %del metodo de Gram-Schmidt, %Devolviendo Q una matriz ortonormal y R una matriz triangular superior %Como entrada recibe una matriz A. function msg(A) [m,n]=size(A); Q=eye(m,m); for k=1:n R(1:k-1,k) = Q(:,1:k-1)*A(:,k); sum=0; for i=1:k-1sum=sum+R(i,k)*Q(:,i); end 2005 55

Computaci on Cient ca I

Tarea 2

Q(:,k)=A(:,k)-sum; R(k,k)=norm(Q(:,k)); Q(:,k)=Q(:,k)/R(k,k); end disp(Esta es la matriz A a factorizar seg un QR:); disp(A); disp(Esta es la matriz Q (ortonormal):); disp(Q); disp(Esta es la matriz R (triangular superior):); disp(R); disp(Comprobando A = QR:) disp(Q*R); end

32. El algoritmo de ortogonalizaci on de Gram-Schmidt y la factorizaci on QR. Considere una matriz invertible M de 3X3 (para simplicar) cuyas columnas denotaremos por a, b, y c, respectivamente. Evidentemente, los vectores a, b, y c, son linealmente independientes (Por qu e?). A partir de los vectores a, b, y c, queremos construir tres vectores ortogonales entre s A, B, y C, que expandan o desplieguen el mismo espacio vectorial que los vectores originales a, b, y c. Partimos deniendo (de manera arbitraria) A := a. El vector B se dene como b menos su proyecci on a lo largo del vector A, i.e.: AT b B = b T A. A A RP: Los vectores a, b, c deben ser l.i., ya que la idea de la factorizaci on QR es construir una secuencia de vectores ortonormales q1 , q2 , ..., qn que expandan los subespacios columnas sucesivos. Para esto se utiliza Gram-Schmidt y este algoritmo necesariamente requiere de vectores l.i. para encontrar vectores ortonormales. Verique que A y B son ortogonales. Para que A y B sean ortogonales: < A, B >= 0, y adem as B = b 1 A Entonces. < b 1 A, A > < b, A > < 1 A, A > < 1 A, A > 1 < A, A > 1 = como B = b
AT b AT A

= 0 = 0 = < b, A > = < b, A >

< A, b > AT b < b, A > = = T < A, A > < A, A > A A

A se concluye que A B

El vector C se dene como c menos su proyecci on en el subespacio vectorial desplegado por los vectores A y B, i.e.: BT c AT c C = c T A T B. A A B B Verique que los vectores A, B, y C son mutuamente ortogonales. Al igual que el caso anterior se debe probarr que < A, C >= 0 y < B, C >= 0, con C = c 2 A 3 B .

56

Primer Semestre

Tarea 2

Computaci on Cient ca I

Para < A, C >= 0 < A, c 2 A 3 B > < A, c > < A, 2 A > < A, 3 , B > para A B, 3 < A, B >= 0 < A, 1 A > 1 < A, A > 2 = Para < B, C >= 0 < B, c 2 A 3 B < B, c > < B, 2 A > < B, 3 , B para A B, 2 < B, A >= 0 < B, 1 B 1 < B, B 2 = > = 0 > = 0 > = < B, c > > = < B, c > AT c < A, c > = T < A, A > A A = 0 = 0 = < A, c > = < A, c >

BT c < B, c > = T < B, B > B B Entonces queda demostrado que A C B C Es claro que este procedimiento se puede extender a cualquier conjunto nito de vectores linealmente independientes o, equivalentemente, a matrices invertibles de cualquier dimensi on nita. Este algoritmo se conoce con el nombre de m etodo de ortogonalizaci on de GramSchmidt. Normalizando los vectores A, B, C obtenemos los vectores: q 1 = A/ A ; q 2 = B/ B ; q 3 = C/ C que podemos considerar como los vectores-columna de una matriz Q. Es ortogonal la matriz Q? (C omo se denen las matrices ortogonales?). Se dice que una matriz A es ortogonal, si < Q, Q >= Q QT = QT Q = I . Para Q = [A | B | C ]: A A B [A | B | C ] = [A | B | C ] B C C < A, A > < A, B > < A, C > < B, A > < B, B > < B, C > < C, A > < C, B > < C, C > Entonces < A, A > 0 0 0 < B, B > 0 0 0 < C, C >

Entonces QT Q queda:

y como son ortogonales

Puesto que los vectores a, b, y c, son combinaciones lineales de los vectores q1, q2, y q3 (y vice versa), existe una matriz R tal que A = QR. 2005 57

1 0 0 0 1 0 0 0 1

Computaci on Cient ca I

Tarea 2

Si consideramos A = [a1 |a2 |a3 ], entonces

Verique que R es una matriz triangular superior T T q1 a q 1 b T 0 q2 b 0 0

dada por T q1 c T q2 c T q3 c

qi = ai < q1 , ai > q1 ... < qi1 , a > qn1 , i : 1...n. Entonces ai = qi + < q1 , ai > q1 + ...+ < qi1 , a > qn1 , < q 1 , a1 > < q 1 , a2 > 0 < q 2 , a2 > A = [a1 , ..., an ] = [q1 , ..., qn ] . . . . . . 0 ... i : 1...n. ... . . . .. 0 . < qn1 , an > < q n , an > < q 1 , an > . . .

Escriba un programa para MATLAB que permita calcular la factorizaci on QR de una matriz invertible A de cualquier dimensi on nita. Estudie la generalizaci on de la factorizaci on QR de cualquier matriz A de m x n con n columnas linealmente independientes. Escriba el programa MATLAB corrrespondiente. 33. Polinomios de Jacobi. Obtenga (unos cuantos de) los polinomios de Jacobi P n (x), , > 1, n N0 , 1 x 1, aplicando el m etodo de ortonormalizaci on de Gram-Schmidt a los polinomios ak (x) := xk , k N0 , sobre el intervalo [-1,1], con el producto interno:
1 (, )

(f, g ) :=
1

f (x)g (x)(1 x) (1 + x) dx,

, > 1

a) b)

Anal ticamente (i.e., s.c.P.L.P.). Computacionalmente. Para el c alculo de las integrales use una regla de Simpson apropiada. (, ) Casos particulares de los polinomios de Jacobi Pn (x) son: los polinomios de Legendre Pn (x) = Pn los polinomios ultraesf ericos
Sn (x) (0,0)

(x),
1 ( 2 , 1 2)

(,) Pn ,

los polinomios de Chebyshev de primera especie Tn (x) = Pn los polinomios de Chebyshev de segunda especie Un (x) =

(x) = cos(n arc cos x) =


sin((n+1) arc cos x) sin(arc cos x)

(1,1) Pn 2 2 (x)

a)

Analiticamente, reemplzaremos la funci on de peso por su representaci on como sumatoria


1

(f, g ) :=
1

h(x)(1 x) (1 + x) dx, donde

h(x) = f (x)g (x)

(f, g ) :=
1

h(x)
k=0 1

k k

1k (x)k
1

j =0

j j

1k xj dx
1

(f, g ) :=
1

h(x)
k=0

(1)k (x)k

xj dx

j =0

58

Primer Semestre

Tarea 2

Computaci on Cient ca I

Luego, desarrollando las sumatorias se llega a


1

(f, g ) :=
1

h(x)
k=0 j =0

(1)k

xk+j dx

Finalemente, dado que la integral y las sumatorias son operadores lineales


(f, g ) :=
j =0 k=0

(1)k

1 1

h(x)xk+j dx

Ahora, aplicamos Gram-Schmidt para obtener polinomios ortonormales al conjunto dado ak (x) := xk Dado que se piden solo algunos, calcularemos para a0 (x), a1 (x) y a2 (x) Utilizando Gram-Schmidt = r1+1 q1+1 || || r1+1 donde = r1+1 v 1+1
i

, < q1+1 v 1+1 > q1+1

k=1

Para a0 (x) = 1

r0 = 1 1 q0 = ||1||

Sabemos que ||x|| = + (x, x) seg un el producto interno denido. Entonces ||1|| = + (1, 1) Es evidente entonces que para cada uno de los vectores r que se obtengan, calcularemos su norma de esta manera. Entonces, (1, 1) ser a

(1, 1) :=
j =0 k=0

(1)k

k k k j

j j

1 1

xk+j dx
1

(1, 1) :=
j =0 k=0

(1)

xk+j +1 k+j+1

(1, 1) :=
j =0 k=0

(1)k k+j+1

(1k+j +1 (1)k+j +1 ) si k + j es impar

0 (1, 1) := 2
j =0 (1)k k=0 k+j +1

si k + j es par

Por efectos pr acticos denotaremos este producto punto como U U = (1, 1)

2005

59

Computaci on Cient ca I

Tarea 2

Entonces

1 q0 = U

P0

(, )

(x) = U 2

Para a1 = x Ahora el producto ( q0 , x) es ( q0 , x) := Dado que q0 = U


1 2

r1 = x ( q0 , x) q0
1 1

j =0 k=0

(1)k

q0 x xk+j dx

es un n umero, puede salir de la integral


V

1 ( q0 , x) := U 2

j =0 k=0

(1)k

1 1

xk+j +1 dx

Donde V ser a

V =
j =0 k=0

(1)

k k j

xk+j +2 k+j+2

V =
j =0 k=0

(1)k k+j+2

(1k+j +2 (1)k+j +2 ) si k + j es par

0 V = Entonces
1 ( q0 , x) = U 2 V

j =0

(1) k=0 k+j +2

si k + j es impar

Dado que r1 = x ( q0 , x) q0 , su valor ser a


1 1 r1 = x V U 2 U 2

V r1 = x U Ahora, la norma de r1 ser a ( r1 , r1 ) := ( r1 , r1 ) :=


j =0 k=0

(1)k k

k j

j
1 1

1 1

(x

V 2 k+j ) x dx U

j =0 k=0

(1)k

(x2 2

V2 V x + 2 ) xk+j dx U U Primer Semestre

60

Tarea 2

Computaci on Cient ca I

( r1 , r1 ) :=

j =0 k=0

(1)k

1 1

(xk+j +2 2

V V2 xk+j +1 + 2 xk+j )dx U U

Podemos dividir la ecuaci on por cada polinomio, o sea, tendremos 3 t erminos


W

( r1 , r1 ) :=

j =0 k=0

(1)k

k
V

1 1

xk+j +2 dx

V U

j =0 k=0

(1)k

k
U

xk+j +1 dx +
1

V2 U2 Ahora W ser a W =

j =0 k=0

(1)k

xk+j dx
1

j =0 k=0

(1)

xk+j +3 k+j +3

0 W = 2
j =0 (1)k k=0 k+j +3

si k + j es impar k j si k + j es par

Entonces, el producto interno calculado ser a U V2 ( r1 , r1 ) := W 2 V + 2 U V U Finalmente, tendremos P1


(, )

(x) =

V U V2 U2 U V

U W 2V V +

Por efectos de comodidad, expresaremos este resultado de la siguiente manera xA q1 = B donde A =


V U U y B = W 2V V + V2 U2 U

Ahora, para a2 = x2 El producto ( q0 , x2 ) ser a ( q0 , x2 ) :=

r 2 = x 2 ( q0 , x2 ) q 0 ( q1 , x2 ) q1
1 1

j =0 k=0

(1)k

q0 x2 xk+j dx 61

2005

Computaci on Cient ca I

Tarea 2

( q0 , x2 ) := q0

j =0 k=0

(1)k

1 1

xk+j +2 dx
1

Lo cual calculamos anteriormente y llamamos W. Reemplazando q0 = U 2 ( q0 , x2 ) := q0 W


1 ( q0 , x2 ) := W U 2

Ahora, el producto (q1 , x2 ) ser a ( q1 , x2 ) :=


j =0 k=0

(1)k

k k

j j

1 1 1 1

x A 2 k+j x x dx B xk+j +3 A xk+j +2 dx

1 ( q1 , x2 ) := B

j =0 k=0

(1)k

Dividiendo la integral en dos obtenemos


X

1 ( q1 , x2 ) := B

j =0 k=0

(1)k

k
W

1 1

xk+j +3 dx

A B Ahora X ser a X=

j =0 k=0

(1)k

1 1

xk+j +2 dx

j =0 k=0

(1)

xk+j +4 k+j+4

0 X= 2
j =0 (1)k k=0 k+j +4

si k + j es par k j si k + j es impar

Finalmente, el producto ( q1 , x2 ) ser a X AW ( q 1 , x2 ) = B Entonces r2 ser a r 2 = x 2 ( q0 , x2 ) q 0 ( q1 , x2 ) q1


1 X AW x A r2 = x 2 W U 2 B B

1 X AW r2 = x 2 W U 2 xA B r = x2 D(x A) C

62

Primer Semestre

Tarea 2 r2 = x2 Dx (DA + C )

Computaci on Cient ca I

Ahora, ( r2 , r2 ) ser a ( r2 , r2 ) =

j =0 k=0

(1)k

1 1

(x2 Dx (DA + C ))2 xk+j dx

Separando las integrales


Y

( r2 , r2 ) =

j =0 k=0

(1)k

k
W

xk+j +4 dx
1

( r2 , r2 ) = D 2

j =0 k=0

(1)k

j
U

1 1

xk+j +2 dx

( r2 , r2 ) = (DA + C )2

j =0 k=0

(1)k

k
X

1 1

xk+j dx

( r2 , r2 ) = 2D

j =0 k=0

(1)k

j
W

1 1

xk+j +3 dx

( r2 , r2 ) = 2(DA + C )

j =0 k=0

(1)k

j
V

1 1

xk+j +2 dx

( r2 , r2 ) = 2D(DA + C ) Ahora Y ser a Y =


j =0 k=0

j =0 k=0

(1)k j

j xk+j +5 k+j +5

1 1 1

xk+j +1 dx

(1)k

0 Y = 2
j =0 (1)k k=0 k+j +5

si k + j es impar k j si k + j es par

Entonces ( r2 , r2 ) ser a ( r2 , r2 ) = Y + D2 W + (DA + C )2 U 2DX 2(DA + C )W + 2D(DA + C )V Finalmente P2


(, )

(x) =

Y + D2 W + (DA + C )2 U 2DX 2(DA + C )W + 2D(DA + C )V

x2 Dx (DA + C )

2005

63

Computaci on Cient ca I

Tarea 2

b)

Obtendremos los resultados num ericos utilizando la Regla de Simpson para calcular las integrales respectivas. Polinomios de Legendre (0,0) Su denici on nos dice que Pn (x) = Pn (x), o sea = 0 y = 0. Entonces, en este caso, el producto punto sera de la forma
1

(f, g ) :=
1

f (x)g (x)dx r0 = 1

Para P0 (x)

( r0 , r0 ) =

dx = 2
1

1 P0 (x) = 2

Para P1 (x)

r1 = x ( q0 , x) q0 ( q0 , x) =
1 1

1 xdx = 0 2
1

r1 = x ( r1 , r1 ) = x2 dx = 2 x 3
1

2 3

P1 (x) =

Para P2 (x)

r 2 = x 2 ( q0 , x2 ) q 0 ( q1 , x) q1 1 1 2 2 1 2 2 x dx = ( q0 , x ) = = 3 2 23 1 2 3 x dx = 0 3 2 r2 = x 2 3 38 20 2 ( r2 , r1 ) = 45 45 2 2 (x P2 (x) = ) 3 38 20 2 ( q 1 , x2 ) =
1 1

64

Primer Semestre

Tarea 2

Computaci on Cient ca I

Polinomios Ultraesf ericos (,) Se nos dice que Sn (x) = Pn . Entonces el producto punto seria
1

(f, g ) :=
1

f (x)g (x)(1 x2 ) dx

Para resolver el producto punto, utilizaremos una regla de Simpson adecuada que nos de el menor valor no nulo, a menos que la integral en s sea nula. O sea, se usar a la aproximaci on m as inexacta, a la vez, la m as simple, que se obtenga a aplicar la regla. La idea es dar una noci on del valor num erico que tendr a la integral si entrar en mayores complicaciones con terminos muy grandes Para S0 (x) r0 = 1

( r0 , r0 ) =

1 1

(1 x2 ) dx = 3 2

4 3

m=1

S0 (x) =

Para S1 (x) ( q0 , x) =
1 1

3 x(1 x2 ) dx = 0 2 r =x
1 1 1

r1 = x ( q0 , x) q0

m = cualquiera

( r1 , r1 ) =

x2 (1 x2 ) dx = 6 4 3

1 3 6 4 x

m=2

S1 (x) =

Para S2 (x)

r 1 = x 2 ( q0 , x2 ) q 0 ( q1 , x2 ) q1 1 3 2 3 3 ( q 0 , x2 ) = x (1 x2 ) dx = 2 12 4 1
1

m=2

( q 1 , x2 ) =

6
1

4 3

x3 (1 x2 ) dx = 0

m = cualquiera

3 3 r1 = x 2 24 4 ( r1 , r1 ) =
1 1

x2

3 3 24 4

dx = x2
3 24 2

2 1 3 1 3 8 4
3 4

1 48

3 4

m=2

S2 (x) =
2 3

1 8

3 4

1 48

3 4

2005

65

Computaci on Cient ca I

Tarea 2

Polinomios de Chebyshev de Primera Especie ( 1 , 1 ) Sabemos que Tn (x) = Pn 2 2 (x). Entonces, el producto punto ser a
1

(f, g ) :=
1

f (x)g (x)(1 x2 ) 2 dx

Para agilizar el problema, reemplaremos = 1 2 en los polinomios ultraesfericos Para T0 (x) 3 T0 (x) = 2 Para T1 T1 (x) = 2,279x

Para T2

T2 (x) = 1,309x2 + 0,189


1 (1,2 )

Polinomios de Chebyshev de segunda especieSabemos que Un (x) = Pn 2 el producto punto ser a


1

(x).Entonces,

(f, g ) :=
1

f (x)g (x)(1 x2 ) 2 dx

Identicamente, reemplaremos = Para U0 (x)

1 2

en los polinomios ultraesfericos 3 2

U0 (x) = Para U1

U1 (x) = 2,632x Para U2 U2 (x) = 1,27x2 + 0,137

35. Polinomios de lHermite. Obtenga los polinomios de lHermite Hn (x), n N0 , x R, aplicando el m etodo de ortonormalizaci on de Gram-Schmidt a los polinomios ak (x) := xk , k N0 , sobre R, con respecto al producto interno: (f, g ) := Anal ticamente (i.e., s.c.P.L.P.). Computacionalmente. Para c alculo de las integrales use una regla de Simpson apropiada v0 = a 0 = 1 < 1, 1 >=
2 ex dx

f (x)g (x)ex dx

v0 =

1 = q1 = 4

1 2 2 v1 = a 1 = x < 1, x > < 1, x >= xex dx = 0 = < v1 , v1 >= x2 ex dx = 4 4 2x 1 v1 = = q1 = 2 = 4 2 1 2x 2 1 v2 = a 2 = x 2 = < < 1, x2 > < x, x2 > < 1, x2 >= x2 ex dx = 2 4 4 2 x, x2 >= x3 ex dx = 0

66

Primer Semestre

Tarea 2

Computaci on Cient ca I

36. Sea P = I 2ww T M (n n, R), w Rn . Demuestre: P es sim etrica y ortogonal si y s olo si ww T = 1. Si P es sim etrica entonces: P = P T P = P T = (I 2wwT )T = I 2wwT Si P es ortogonal entonces: P P = P P = I P P = P 2 = (I 2wwT )(I 2wwT ) = I 4wwT + 4 w Si wwT = 1, entonces P w = w. P w = w (I 2wwT )w = w w 2wwT w = w w 2w(wT w) = w w 2wI = w w 2w = w Si uT w = 0, entonces P u = 0. Pu = 0 (I 2wwT )u = 0 u 2wwT u = 0 u 2w(uT w)T = 0 u 2w(0) = 0 Por lo tanto: u = 0 Entonces: P u = 0 37. Obtenga los valores y vectores propios, determinantes y valores singulares de los reector de Householder. M as generalmente, qu e puede Ud. decir acerca de los valores y vectores propios, determinantes y valores singulares de las matrices de la forma I + uv T para vectores dados u, v n .
2 + v n + ... + v 2 )2 (1 2v 2 ... 2v 2 2 2 2 2 2 2 2 2 (v1 n 2 1 n1 + (v1 + ... + vn1 )(v1 + v2 + ... + vn ) + vn (v1 + ... + vn )) Eigenvalues(1, 1, 1, ..., det) Para una matriz de la forma I + u v det=1 + u1 v1 + ... + un vn Eigenvalues(1, 1, 1, ..., det) 2 2 2 2 S.V=1 + u1 v1 + ... + un vn + (u2 1 + u2 + ... + un )(v1 + ... + vn ) 2 2 2 2 2 S.V=1 v 2 ... vn + (2v1 + ... + 2vn )(v1 + ... + vn ) 2

wwT = I = P P

2 2 2 2 2 2 2 2 2 (u2 1 + ... + un )(v1 + ... + vn )(1 + u1 vn + .. + un1 vn1 + (u1 + ... + un1 )(v1 + .. + vn ) + un (vn + un (va + ... + vn )

39. Sea:

T 1 4 7 4 4 Z = 2 5 8 2 2 3 6 7 3 2 67

2005

Computaci on Cient ca I

Tarea 2

Compute la factorizaci on QR reducida mediante: a) s.c.P.L.P: 1 4 Seg un la matriz dada: Z = 2 5 3 6 creando una matriz con columnas Donde: q 1 = r1/ q 2 = r2/ q 3 = r3/ r1 r2 r3 7 4 4 8 2 2, calculamos la descomposicion QR. Primero Q, 7 3 2 ortogonales, a trav es de Gram-Schmidt: Q = [q 1 | q 2 | q 3]

C alculo de q1: r1 = a 1 1 4 = 7 4 4 r1 q1 = ||r1|| 1 4 7 4 4

4 98 7 1 98 = 98 4 98 4
98

1 98

C alculo de q2:

68

Primer Semestre

Tarea 2

Computaci on Cient ca I

r2 = a2 < q 1, a2 > q 1

2 5 8 < 2 2

1 98

4 98

7 98

4 98

4 98

4 376 114 57 2 2 98 98 98 49 5 5 63 94 7 658 126 8 98 = 8 98 = 98 = 49 98 2 2 4 376 180 90 2 2 98 98 98 49


4 98 376 98 180 98 90 49

1 98

94 98

4 98 2 7 5 98 , 8 > 7 2 98 2 4 98
4 98 51 49 102 98

1 98

q2 = =

r2 ||r1||

51 49

57 49

63 49

90 49

90 T 49

51 2 57 2 63 2 90 2 90 2 ( 49 ) + ( 49 ) + ( 49 ) + ( 49 ) + ( 49 ) 51 49 57 49 63 49 90 49 90 T 49

1 2 ( 49 ) (512 + 572 + 632 + (90)2 + (90)2 51 49 512 + 57 49 572 63 49 90 49 90 T 49 (90)2 + (90)2

+ 632 + 51 51 26019 49 57 57 26019 49 63 49 63 49 = 26019 26019 180 180 49 26019


180 49 180 26019

1 49

2005

69

Computaci on Cient ca I

Tarea 2

Calculo de q3: r3 = a3 < q 1, a3 > q 1 < q 2, a3 > q 2 1 3 98 6 4 98 7 7 4 < 1 7 4 4 3 6 7 3 2 = , > < q 2, a3 > q 2 3 98 98 98 98 98 98 4 4 98 4 2 98 1 3 98 6 4 98 7 24 49 12 8 7 ( 3 + + + + ) < q 2, a3 > q 2 = 3 98 98 98 98 98 98 4 4 98 4 2 98 1 3 98 6 4 98 7 96 7 = < q 2, a3 > q 2 3 98 98 4 4 98 4 2 98 3 96 98 6 384 98 7 672 < q 2, a3 > q 2 = 98 3 384 98 4 384 98 2 39896 = 69896 98 798 96 98 398 < q 2, a3 > q 2 96
98 29896 98 198 98 204 98 14 98 90 98 188 98 98

< q 2, a3 > q 2

= 70

198 24786 98 26019 204 27702 98 26019 14 30618 98 26019 90 43740 98 26019 188 43740 98 26019 1982601924786 98 2601998 204260192770298 2601998 1426019 3061898 2601998 9026019+43740 98 2601998 18826019+4374098 2601998

198 98 204 98 14 98 90 98 188 98

<

51 26019

57 26019

63 26019

90 26019

90 26019

3 6 7 3 2 >

51 26019 57 26019 63 26019 90 26019 90 26019

Primer Semestre

Tarea 2

Computaci on Cient ca I

Por lo que q3 queda: 2593080 2549862 2636298 2549862 1944810 2549862 605052
2549862 2722734 2549862

q3 =

2636298 2 1944810 2 605052 2 2722734 2 2 ) + ( 2593080 ( 2549862 2549862 ) + ( 2549862 ) + ( 2549862 ) + ( 2549862 ) 2722734

2593080 252x1011 2636298 252x1011 = 1944810 11 252x10 605052 11


252x10

27227342 + 25930802 + +(2636298)2 + 19448102 + (605052)2 2722734 2593080 1 2636298 = 252x1011 1944810 605052 2722734
252x1011

1 2549862

2593080 2549862 2636298 2549862 1944810 2549862 605052


2549862

2549862

Luego de calcular los qi , para i=1,2,3 Podemos crear Q

2005

71

Computaci on Cient ca I

Tarea 2

Q=(q1q2q3) 4 98 7 98 4 98 4
98 1 98 51 26019 57 26019 63 26019 180 26019 180 26019 2722734 252x1011 2593080 252x1011 2636298 252x1011 1944810 252x1011 605052 252x1011

Q =

= QR

Como Q es unitaria es lo mismo: Q1 = Q Q Z = R

Podemos Calcular R R = Q Z =
1 98 4 98 57 26019 2593080 252x1011 94 98 531 26019 113499944 252x1011 7 98 63 26019 2636298 252x1011 102 98 486 26019 90065238 252x1011 4 98 180 26019 1944810 252x1011 4 98

51 26019 2722734 252x1011


98 98 720 26019 90065238 252x1011

1 4 7 4 4 2 5 8 2 2 605052 3 6 7 3 2 252x1011
180 26019

b)

el comando [Q,R]=qr(Z,0) de MATLAB. % Se ingresa la matriz Z Z=[1 2 3;4 5 6;7 8 7;4 2 3;4 2 2] % funci on que calcula la descomposici on QR [Q, R] = qr(Z, 0) % Da como resultado las siguientes matrices: 0,1010 0,3162 0,5420 0,4041 0,3534 0,5162 Q= 0,7071 0,3906 0,5248 0,4041 0,5580 0,3871 0,4041 0,5580 0,1204

72

Primer Semestre

Tarea 2

Computaci on Cient ca I 9,8995 9,4954 9,6975 0 3,2919 3,0129 R= 0 0 1,9701

40. Considere las matrices ortogonales de 2 x 2: F = cos sin sin , cos J= cos sin sin cos

a) La matriz F es una matriz reectora ya que es una matriz unitaria, es decir, cumple con F F = F F = I : F F = cos2 + sin2 cos sin + cos sin 1 0 cos sin + sin cos = 0 1 sin2 + cos2

De all es posible derivar las siguientes cualidades:

Es igual a su inversa: F = F 1 cos sin cos F 1 = = sin cos sin

sin cos

Las magnitudes de sus valores propios son 1 det(F I ) = cos sin sin cos

= ( cos )(cos ) sin2 = cos2 + cos cos + 2 sin2 = 2 1 = 0 = || = 1

b) J =

cos sin

sin cos

J es rotaci on J es ortogonal y J = 1 J es ortogonal JJ T = J T J = I JT J =

cos2 + sin2 cos sin cos sin

cos sin sin cos 1 0 = 0 1 sin2 + cos2

J = cos2 () (sin2 ()) = cos2 + sin2 = 1 Por lo tanto J es una rotaci on sobre una base ortonormal de R2 . c) La rotaci on J produce la transformaci on de coordenadas: x y = x y = cos sin sin cos x y

Es claro que x, y describen una rotaci on en sentido horario. 2005 73

= x cos + y sin = x sin + y cos

Computaci on Cient ca I

Tarea 2

d) Sea M (x) una soluci on obtenida por rotaciones de Givens de M x= x


2

e1

donde e1 = (1, 0, . . . , 0) corresponde al primer vector unitario y x Rm . El algoritmo para la factorizaci on QR basado en rotaciones de givens es: Q = Im R=A for i = 1 to n x = {Rki }m k=i Q[i] = Ii1 0 0 M (x)

Q = Qi Q R = Qi R end Q = QT R = {Rij }i=1,j =1 g) Algoritmos en MatLab function [Q,R] = householder_qr(A) [m,n] = size(A); Q = eye(m); for j=1:min(m-1,n) ak = A(j:end,j); vk = ak + sign(ak(1))*norm(ak)*[1;zeros(m-j,1)]; Hk = eye(m-j+1) - 2*vk*vk/(vk*vk); Qk = [eye(j-1) zeros(j-1,m-j+1); zeros(m-j+1,j-1) Hk]; A = Qk*A; Q = Q*Qk; end R = A; function [q,r]=givens_qr(a) [m,n]=size(a); if m==n kraj=n-1; else kraj=n; end q=eye(m);
n,n

74

Primer Semestre

Tarea 2

Computaci on Cient ca I

for j=1:kraj for i=m:-1:j+1 [c,s,alpha]=givens1(a(i-1,j),a(i,j)); a(i-1,j)=alpha; a(i,j)=0; for k=j+1:n [a(i-1,k),a(i,k)]=givens_prod(a(i-1,k),a(i,k),c,s); end for k=1:m [q(k,i-1),q(k,i)]=givens_prod(q(k,i-1),q(k,i),c,s); end end end r=a; end function [c,s,alpha]=givens1(a,b) if abs(b)>abs(a) tau=a/b; s=sign(b)/sqrt(1+tau^2); c=s*tau; else tau=b/a; c=sign(a)/sqrt(1+tau^2); s=c*tau; end alpha=sqrt(a^2+b^2); end function [y1,y2]=givens_prod(x1,x2,c,s) pom=x1; y1=c*x1+s*x2; y2=-s*pom+c*x2; 41. Demuestre que todo vector x Rn con norma Euclideana r = (xT x)1 /2 puede ser transformado en cualquier otro vector y Rn de largo r, y = x, mediante una transformacion de Householder. Solucion: Si x Rn y v = x x 2 e1 , luego el vector y = Hx donde H es la Matriz de Householder denotada vv T por H = I 2 v T v , tiene la misma direccion que e1 . i.e, la reeccion de Householder H aplicada al vector x aniquila todas menos la primera componente del vector x.
v x) x vv x = x 2 v(v = x 2v Hx = I 2 v Tv Tv vT v v
T T T

y Hx span{e1 }, luego v span{e1 }, escogiendo v = x + e1 ,


T obtenemos v T x = xT x + eT 1 x = x x + 1 , T 2 v T v = (xT + eT 1 )(x + e1 ) = x x + 21 +

2005

75

Computaci on Cient ca I

Tarea 2

x y Hx = x 2 v v =x2 vT v

xT x

xT x + 1 (x + e1 ) = + 21 + 2

= (1 2

xT x

T xT x + 1 x e )x 2 v vT v 1 + 21 + 2

Escoja un de modo que en la u ltima representaci on de Hx el coeciente de x sea cero. 12 xT x + 1 =0 + 21 + 2

xT x

xT x + 21 + 2 2xT x 21 = 0 xT x = 2 x para = x
T

= ,

tenemos que v = x x 2 e1 y
T

x x1 x Hx = 2 v v T v e1 = 2 xT x21 +xT x e1 = e1 = x 2 e1 = y

42. El metodo de Householder para calcular valores propios de A 2 M(n n;R), como el metodo de Givens, primeramente reduce A a la forma de Hessenberg superior (o a la forma tridiagonal en el caso simetrico)... Es posible reducir la matriz sim etrica A a la forma de Hessemberg usando transformaciones sucesivas del tipo: Ak =Qk Ak1 QH k con A0 = A

donde Qk corresponden a matrices unitarias por bloques: A= Ik Hk

donde I a Rkk corresponde a la matriz identidad, y Hk R(nk)(nk) corresponde a la y matriz de Householder, H = I 2vv T , v = ||y || , y = signo(x1 )||x||e1 + x, correspondiente al vector columna v = Ak1 (k + 1 : n, k ). De esta forma si A es n n, la matriz B = An2 es de Hessenberg. Luego de obtener la matriz de Hessenberg B, unitariamente equivalente a A, se puede a iterar a partir de B0 = B, Bk1 = Qk Rk (factorizaci on Q R de la matriz) ; Bk = Rk Qk ,k=1, 2,... tendiendo Bk a una matriz triangular superior, cuyos elementos de la diagonal principal son los autovalores de A. 43. Demuestre que el m etodo de Householder reduce toda la matriz real antisim etrica A (i.e., A = AT ) a una matriz real antisim etrica tridiagonal. Examine la evoluci on num erica de este algoritmo al aplicarlo a la matriz circulante : A= 76 0 1 1 0 1 1 1 0 1 1 0 1 1 1 0 1 1 0 0 1 1 0 1 1 1 0 1 1 0 1 1 1 0 1 1 0 Primer Semestre

Tarea 2

Computaci on Cient ca I

Solucion: Sea cualquier vector m 1 distinto del vector cero. Existe una matriz ortogonal P m m tal que:

P = || || e1 siendo:

e1 =

1 0 . . . 0

= (+1 si 0 o -1 si < 0 ) Esta matriz tiene por expresi on,


P = I 2 || ||2

con = + || || e1 Demostraci on: Entonces, = + || || e1 z = || || e


1

1 son ortogonales y =1 2 + 2 z . Tenemos en consecuencia, P


1 1 = I 2 || 2 + 2 z ||2 1 1 =2 +2 z 1 = 2 + 1 2 = = || || e 1

Al aplicar el m etodo de Householder a la matriz A, las matrices resultantes son las siguientes: 0 0,5774 0,5 0,1057 0,3943 0,5 0,5 0,2887 0,75 0,0528 0,1972 0,25 0,5 0,2887 0,25 0,6302 0,3802 0,25 0 0,5774 0 0,2113 0,7887 0 0,5 0,2887 0,25 0,0528 0,1972 0,75 0,5 0,2887 0,25 0,7358 0,0142 0,25 77

Q= 2005

Computaci on Cient ca I

Tarea 2

44. 1) El Problema cl asico de ajuste de cuadrados m nimos. Sea n1 la colecci on de los polinomios complejos de grado exactamente n1 en la variable compleja . Considere la data ( k , yk ) C2 , k = 1 : m, m n, con k = l para todo k = l. Se dice que el polinomio p( ) = x1 + x2 + ... + xn n1 n1 (note que los coecientes de p( ) se llaman xk y la variable independiente ajusta la data 2 en el sentido de los cuadrados m nimos ssi p( ) realiza el m nimo minqn1 m k=1 |p(k ) yk | , i.e.,ssi:
m m k=1

R=

2 1 1 2 1 1 0 1,7321 1,7321 0 1,7321 1,7321 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

|p(k ) yk |2 = minqn1

k=1

|q (k ) yk |2

El polinomio optimal p( ) queda caracterizado, entonces, por el vector x = [x 1 , x2 , x3 , ..., xn ]T Rn que minimiza la norma cuadr atica: y1 y2 y3 . . . ym 1 1 1 . . . 1 2 3 . . .
2 1 2 2 2 3 . . . 2 m

Puesto que m puede ser mayor que n, se observa que no cabe esperar que el m nimo precedente sea cero. En particular, el problema resuelto por simple inversionde la matriz de Vandermonde l [k ]mn (esta matriz no es cuadrada en general!). Evidentemente, el polinomio optimal p ns se corresponde biun vocamente con el vector optimal x = [x1 , x2 , x3 , . . . , xn ]T Rn cuyas componentes son los coecientes del polinomio optimal. Por su parte, el vector optimal x R n del problema de cuadrados m nimos discutido queda caracterizado, m as generalmente, por el siguiente teorema: Teorema 2 Sean m n, A M (m n, C), b Cm , r(u) := b Au para todo u Cn . Entonces las siguientes propiedades de un vector x Cn son equivalentes: ||r(x)||2 = ||b Ax||2 = minuCn ||v Au||2 (b) r(x)Range(A), i.e., (b Ax)Au para todo u Cn . (c) A r(x) = 0, i.e. A (b Ax) = 0 (d) A Ax = A b; esta es la llamada ecuaci on normal del problema de cuadrados m nimos. (e) Ax = P b, donde P M (m m, C) es el proyector ortogonal de Cm sobre Range(A). Zusatz: Si adem as, A es una matriz de rango completo, entonces el vector x C n caracterizado por las propiedades equivalentes (a)-(e), es el u nico y viene dado por x = (A A)1 A b. Este vector x se denomina entonces la soluci on del problema de cuadrados m nimos. Tarea: Demuestre este teorema 2) Matriz pseudo-inversa o inversa de Moore Penrose. En el caso en A es de rango completo se dene la matriz pseudo-inversa A+ de A, o inversa de Moore-Penrose, como A+ = (A A)1 78 Primer Semestre

||

.. .

n1 1 n1 2 n1 3 . . . n1 m

x1 x2 x3 . . . xn

1 m

||2

(a) x minimiza ||r(u)||2 sobre la colecci on de todos los vectores u Cn , i.e.:

Tarea 2

Computaci on Cient ca I

M (n m, C). As , la soluci on del problema de cuadrados m nimos, en este caso, viene dada simplemente por x = A+ b. Tarea: Verique que cuando A es de rango completo y m = n, se tiene A+ = A1 . Demostraci on A M (n2 , C), Rank (A) = Colum(A) = Row(A) = n A1 , A 1 A+ A A+ A+
+

= (A A)1 A = A1 A 1 A = A1 I = A1

3) Cuadrados m nimos mediante el sistema de ecuaciones normales. El m etodo cl asico para resolver los problemas de cuadrados m nimos consiste en resolver el sistema de ecuaciones normales. Si A es de rango completo, la matriz de este sistema es cuadrada, Hermitiana, positiva denida. El correspondiente sistema tiene n ecuaciones lineales y n inc ognitas. Tarea: Verique estos u ltimos hechos. Demostraci on Sea A M (n2 , C) y Rank (A) = n todas las las de A son l.i. Ax = b es un sistema con n inc ognitas y n ecuaciones. El m etodo est andar para resolver sistemas de ecuaciones lineales en que la matriz del sistema tiene las propiedades mencionadas m as arriba, recurre a la factorizaci on de Cholesky que factoriza A A en la forma A A = R R, donde R es una matriz triangular superior y reduce la ecuaci on normal al sistema: R Rx = A b El correspondiente algoritmo es bastante obvio: Cuadrados m nimos mediante las ecuaciones normales. a) b) c) d) Formar la matriz A A y el vector A b. Calcular la factorizaci on de Cholesky A A = R R. Resolver el sistema triangular inferior R w = A b para w Resolver el sistema triangular superior Rx = w para x

Tarea: Programe este algoritmo y verique su correcta operaci on mediante algunos ejemplos 3 sencillos. Compruebe que su complejidad es del orden de mn2 + 1 n ops. 3 C odigo function [x] = Cholesky( A , b ) %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Calcula x tal que A*Ax=A*b % Mediante Triangulaci on de Cholesky % y back substitution %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Calcula A*A y A*b C=A*A; D=A*b; % Calcula la matriz diagonal superior R=chol(C); 2005 79

Computaci on Cient ca I

Tarea 2

% Resuelve el sistema R*w=A*b, mediante "back substitution" [m,n]=size(R); T=R; for I=1:m, w(I)= D(I); for J=1:I-1, w(I)=w(I)-T(I,J)*w(J); end w(I)=w(I)/T(I,I); end % Resuelve el sistema Rx=w, mediante "back substitution" for I=m:-1:1, x(I)= w(I); for J=I+1:m, x(I)=x(I)-R(I,J)*x(J); end x(I)=x(I)/R(I,I); end x=x; Comprobaci on mediante ejemplo simple: Sea A= Se obtiene mediante el algoritmo: x= Y se comprueba que: A A = A Ax = A b = 17 22 22 29 17 22 22 29 y Ab= 11/3 13/3 33 45 = 33 45 11/3 13/3 1 2 4 5 yb= 5 7

Complejidad: Calculo de A A = (2mn2 ) Este calculo se ve reducido a la mitad si se utiliza simetr a. C alculo de factorizaci on de Cholesky utilizando simetr a es (n 3 /3). La resoluci on los sistemas tienen un coste menor. 4) Cuadrados m nimos mediante la factorizaci on QR. El m etodo c l asico moderno para resolver los problemas de cuadrados m nimos , que se ha hecho popular a partir de 1960 aproximadamente, recurre a la factorizaci on QR. Aplicando la ortogonalizaci on de Gram-Schmidt o, m as a menudo, la triangularizaci on de Householder, se calcula una factorizaci on A = QR. Como se sabe Q es una matriz, en general, rectangular de m n cuyas columnas son ortonormales, y R es una matriz triangular superior cuadrada de n n. Luego, si A es de rango completo (i.e., rank (A) = n = minm.n), la matriz R es invertible. Por consiguiente, en este caso, el proyector ortogonal P sobre Range(A), se escribe simplemente como: P = A(A A)1 A = QR(R Q QR)1 R Q = QRR1 (R )1 R Q = QQ De este modo se tiene: y = P b = QQ b

80

Primer Semestre

Tarea 2

Computaci on Cient ca I

Como y Range(A), el sistema Ax = y , esto es: QRx = QQ b tiene una soluci on exacta, a saber: x = R1 Q QQ b = R1 Q b Como es usual, en la practica nunca se calcula expl citamente R1 sino que el sistema correspondiente se resuelve mediante sustituci on inversa (back-substitution) pues R es una matriz triangular superior cuadrada. En vista de la soluci on general x = A+ b, el resultado presendente muestra, de paso, que cuando A es de rango completo se tiene: A+ = R1 Q El algoritmo discutido puede resumirse del siguiente modo: Cuadrados m nimos mediante factorizaci on QR. a) b) c) Calcular la factorizaci on QR reducida A = QR. Calcular el vector Q b. Resolver el sistema triangular superior Rx = Q b para x.

Tarea: Programe este algoritmo y verique su correcta operaci on mediante algunos ejemplos sencillos. Compruebe que, cuando se aplican las reexiones de Householder para obtener la facto3 rizaci on QR, la complejidad de este algoritmo es del orden de 2mn2 2 3 n ops. C odigo function [ x ] = qrfact( A,b ) %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Calcula x tal que A*Ax=A*b % Mediante factorizaci on QR % y back substitution %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Calculo de factorizaci on QR [Q,R]=qr(A,0); c=Q*b; % Resoluci on de sistema triangular Rx=Q*b [m,n]=size(A); for I=m:-1:1, x(I)= c(I); for J=I+1:m, x(I)=x(I)-R(I,J)*x(J); end x(I)=x(I)/R(I,I); end x=x; Comprobaci on mediante ejemplo simple: Sea A= Se obtiene mediante el algoritmo: x= 11/3 13/3 81 1 2 4 5 yb= 5 7

2005

Computaci on Cient ca I

Tarea 2

Y se comprueba que: A A = A Ax = A b = 17 22 22 29 17 22 22 29 y Ab= 11/3 13/3 33 45 = 33 45

Complejidad: El Grueso del calculo es realizado al efectuar la factorizaci on QR, si esta se realiza mediante ortogonalizaci on de Householder se tiene que el costo de la ortogonalizaci on es: 2 2mn2 n3 f lops 3 5) Cuadrados m nimos mediante la factorizaci on SVD. Si se dispone de una factorizaci on SVD reducida de A, A = U V , donde las columnas de U son ortogonales, y V son invertibles y el proyector ortogonal P sobre Range(A) adopta entonces la forma: P = A(A A)1 A = U V (V U U V )1 V U = U V (V )1 1 1 V 1 V U = U U U V x = U U b, de donde resulta: x = V 1 U b, y consecuentemente, A+ = V 1 U , El Algoritmo v a SVD se resume del siguiente modo: Cuadrados m nimos mediante factorizaci on SVD. a) b) c) d) Calcular la factorizaci on SVD reducida A = U V . Calcular el vector U b. Resolver el sistema diagonal w = U b para w. Calcular x = V w

La ecuaci on Ax = P b queda ahora:

Tarea: Programe este algoritmo y verique su correcta operaci on mediante algunos ejemplos sencillos. C odigo function [x] = svdfact(A,b) %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Calcula x tal que A*Ax=A*b % Mediante factorizaci on SVD % y back substitution %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% % Calculo de factorizaci on SVD [U,S,V]=svd(A,0); c=U*b; % Resoluci on de sistema diagonal Sw=U*b [m,n]=size(A); for I=1:m, w(I)=c(I)/S(I,I); end x=V*w; 82 Primer Semestre

Tarea 2

Computaci on Cient ca I

Comprobaci on mediante ejemplo simple: Sea A= Se obtiene mediante el algoritmo: x= Y se comprueba que: A A = A Ax = A b = 17 22 22 29 17 22 22 29 y Ab= 11/3 13/3 33 45 = 33 45 11/3 13/3 1 2 4 5 yb= 5 7

45. Suponga que la matriz A M(m n, C) tiene la forma A =

A+ denota el (pseudo) inverso de Moore-Penrose de A y ||A||2 = sup0=xCn (


n k=1

A1 , donde A1 M(m n, C) A2 es una matriz no singular y A2 M((m n) n, C). Demuestre que||A+ ||2 A 1 2 , donde |x| ) ,como es usual.
2
1 2

||A.x||2 ||x||2

con ||x||2 =

nota: Como el lector sabe, el (pseudo-) inverso de Moore-Penrose de A, cuando A es de rango completo( i.e. ,rankA=min{m, n}) se dene como A+ = (A A)1 M(n m, C. Por la denici on de (pseudo-)inversa de Moore-Penrose se tiene que: A+ = (A A)1 A Aplicando la norma 2 se tiene que: ||A+ ||2 = (A A)1 A ||A ||2
+ 2

(A A)

Suponiendo que la matriz A se puede descomponer en A1 y A2 ,se tiene que: ||A+ ||2 ||A ||2 ||A+ ||2 Suponiendo que ||A||2 = ||A1 ||2 Entonces: y de esto se deduce que: ||A+ ||2
1 A1 2 +

(A1 + A2 ) (A1 + A2 ))1 (A1 + A2 ) (A1 + ( A 1 2 A1


2 2 2 2 A 2 ) 2

(A1 + A2 )
1

2 1

(A1 + A2 )
2 2

2 2

(A1 + A2 )

(A1 + A2 )1 (A)
2

||A ||2

2 A 2 2)

=
2

1 = A 1

||A+ ||2

A 1

+ A 2

(A1 )1 .

46. (a) En el sentido de la norma L2 sobre el intervalo [1, 2] , cu al es la mejor aproximaci on a la funci on f (x) = x1 que se puede lograr mediante una combinaci on lineal de las funciones ex , sin x y (x)? Nota: Discuta el problema tanto desde el punto de vista te orico como computacional. La funci on gamma(x), o integral de Euler de segunda especie, que Ud. conoce de sus cursos de Matem atica, 1 se dene como integral (x) = 1 tx1 et dt que converge para x > 0.Mayor informaci on acerca 2005 83

Computaci on Cient ca I

Tarea 2

de esta funci on puede Ud. obtener en [1]. La funci on (x) ya est a implementada en MATLAB, de modo que no es necesario que Ud. la implemente. Escriba un programa que responda esta pregunta garantizando un error relativo, a lo m as, 3 %. Utilize una discretizaci on apropiada del intervalo [1, 2] y una versi on discreta del problema de los cuadrados m nimos (por ejemplo, aproximando las integrales involucradas mediante el conocido m etodo de la regla de Simpson). Su programa debe entregar una estimaci on de la respuesta, los coecientes de la combinaci on lineal optimal, y una gr aco computacional que ilustre esa aproximaci on lineal optimal. (b) Repita todo lo anterior, pero ahora trabaje sobre el intervalo [0, 1] en lugar de [1, 2]. La siguiente relaci on puede serle u til: si g (x) = 1/(x), entonces g (0) = 1. (a) El programa en MATLAB que responde esta pregunta es el siguiente:

intervalo = [1 : 0,1 : 2]; intervalo = intervalo A = [exp(intervalo)sin(intervalo)gamma(intervalo)]; b = intervalo; S = size(intervalo); for i = 1 : S b(i) = 1/b(i); end A b [Q, R] = qr(A) x = R \ (R \ (A b)) %r = b A x %e = R \ (R \ (A r)) %x = x + e; plot(intervalo, A x, intervalo, b) (b) El programa en MATLAB que responde esta pregunta es el siguiente: error = 0,00001 intervalo = [(0 + error) : 0,1 : (1 + error)]; intervalo = intervalo A = [exp(intervalo)sin(intervalo)gamma(intervalo)]; b = intervalo; S = size(intervalo); for i = 1 : S b(i) = 1/b(i); end A b

84

Primer Semestre

Tarea 2

Computaci on Cient ca I

[Q, R] = qr(A) x = R \ (R \ (A b)) %r = b A x plot(intervalo, A x, intervalo, b)

2005

85

Você também pode gostar