Você está na página 1de 150

4.

Espacios vectoriales
Espacios vectoriales
 Espacios vectoriales
 Subespacios vectoriales
 Combinaciones lineales
 Dependencia e independencia lineal
 Base y dimensión
Espacios vectoriales
 Un espacio vectorial E=(V,F)
 Es un conjunto de elementos llamados
vectores sobre un campo F donde
 x+y=y+x y pertenece a V
 x+(y+z)=(x+y)+z
 Existe el vector 0, tal que 0+x=x+0=x
 Para cada vector x existe el –x, tal que x-x=0
Espacios vectoriales
 Cada elemento dol campo es
llamado un escalar
 µ(x+y)= µx+µy
 µx= xµ
 (µ1+ µ2)x= µ1(x)+ µ2(y)
 1x=x  1 la unidad multiplicativa del
campo
Espacios vectoriales
 Teorema
 0v=v0=0
 0v=0v+0v-0v=(0+0)v-0v=0v-0v=0
 (-1)v=-v
 v+(-1)v=1v+(-1)v=(1-1)v=0v=0
 Agregando –v a ambos lados se tiene el
resultado
Subespacio
 Sea (V,F) un espacio, entonces (S,F)
es un subespacio de (V,F) si
preserva todas las características de
espacio y S es un subconjunto de V
Creación de espacios
 Teorema.
 Espacio vectorial (V,F)
 S subconjunto de V
 Si v1,…vn están en S, entonces también α 1v1+…
+α nvn, donde α i son elementos del campo
 (S,F) es un subespacio
 Demo en clase por los alumnos
Dependencia e
independencia lineal
 Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. El vector
y=α 1v1+α 2v2+...+α nvn donde
los coeficientes son escalares será
llamada combinación lineal de S.
Dependencia e
independencia lineal
 Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. S es
linealmente independiente si
α 1v1+α 2v2+...+α nvn=0 tiene
como única solución la trivial. De lo
contrario se llamarán linealmente
dependientes.
Dependencia e
independencia lineal
 Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. Si S es
linealmente independiente,
entonces el espacio creado por S
será llamado espacio generado por
S.
Dependencia e
independencia lineal
 Sea S={v1,v2,...vn} un conjunto de
vectores. Para mostrar si es
linealmente independiente se
resuelve la ecuación:
α1
α2
...
 [v1 v2 ... vn] =0
αn
Dependencia e
independencia lineal
 Entonces ya podemos aplicar Gauss
para resolver el sistema y ver su
solución
 Si la matriz [v1 ...vn] es de rango n
entonces tiene solución única
 Si la matriz [v1 ... vn] es de rango
menor a n, entonces tiene más de una
solución.
Bases, Dimensión y
coordenadas
 Definición. Sea (V,F) un espacio
vectorial, entonces el conjunto
S={v1, v2, ...vn} será una base
para (V,F) si S genera (V,F).
 S es linealmente independiente
 S genera (V,F)
Bases, Dimensión y
coordenadas
 Notita. Si z es una C.L. (combinación
lineal) de los vectores x1,...,xr; y xi es una
C.L. de los vectores y1,...,ys. Entonces z es
una C.L. de los vectores y1,...,ys.
 z=a1x1+...+arxr
 z=a1(b11y1+...+b1sys)+...+ar(br1y1+...+brsys)
 Es una propiedad de transitividad
Bases, Dimensión y
coordenadas
 Notita. Si algunos vectores x1,...,xn son
linealmente dependientes (L.D.) entonces
todo el sistema x1,...,xn son L.D.
 Suponer que x1,...,xk (k<n) son L.D. 
a1x1+...+akxk=0 con ai diferente de nulo.
 a1x1+...+akxk+0xk+1 +...+0xn=0 es
solución y el sistema es L.D.
Bases, Dimensión y Coordenadas

coordenadas
 La base B={v1, ..., vn} es un conjunto,
pero tiene un orden para facilitar
trabajos futuros. α1
 Representación. Un vector v se puedeα 2
reescribir en términos de una base.
 v=α 1v1+α 2v2+...+α nvn, a donde
...

Es la representación del vector


α n
Bases, Dimensión y
coordenadas
 Teorema. La representación del vector es
única
 v=α 1v1+α 2v2+...+α nvn=
α 1’v1+α 2’v2+...+α n’vn
 (α 1-α 1’)v1+...+ (α n-α n’)vn=0
  base  L.I. entonces la única solución
es cero (α i-α i)=0  α i=α i’
Bases, Dimensión y
coordenadas
 Notita. El teorema anterior es cierto
si dice que z=a1x1+...+akxk los ai son
únicos ssi los xi son L.I.
Bases, Dimensión y
coordenadas
 Definición. Sea (V,F) un espacio
vectorial. Dos subespacios de (V,F);
(V1,F) y (V2,F) se dicen equivalentes si
los vectores de uno se pueden escribir
como C.L. del otro y viceversa.
Bases, Dimensión y
coordenadas
 Teorema. Suponer que B={v1, ...,vp} es
una base para (V,F) y suponer que
D={u1,...,uq} es un subconjunto L.I. en
(V,F), entonces q≤ p
 Demostración.
 Como B es una base, entonces ui∈D,
(V,F) se puede expresar como una C.L.
de B 
Bases, Dimensión y
coordenadas
 S1={u1,e1,...,ep} es L.I.  Existe un vector que
es C.L. de los anteriores, digamos que es ei.
 Por transitividad el resto {u2,...,uq} es una C.L. de
S1-{ei} y se puede aplicar el mismo
procedimiento
 Como se observa el procedimiento no puede
eliminar todos los vp vectores antes de que los ui
vectores se hayan agotado y q≤ p.
Bases, Dimensión y
coordenadas
 Teorema. Número de vectores en la base.
Suponer que para un espacio (V,F) se
tiene una base con p vectores. Entonces
todas las bases tienen p vectores.
 Demo. Aplicar teorema anterior
suponiendo que se tiene otra base con q
vectores.  q≤ p. Aplicar partiendo de la
base con q vectores  p≤ q  q=p.
Bases, Dimensión y
coordenadas
 Definición. Al número de vectores en la base de un espacio
(V,F) se le llama dimensión de (V,F).
 En especial, todos los subespacios equivalentes también tienen
un conjunto de vectores que lo generan (ya que son un espacio
en sí) y se tiene una base y por tanto también tienen su
dimensión. En tal caso es más adecuado hablar de rango que
de dimensión, ya que podemos hablar de un subespacio en R3,
pero de rango 2.
 A su vez, a la dimensión del espacio completo se le puede
llamar rango, pero es mejor hablar de dimensión.
Bases, Dimensión y
coordenadas
 El espacio Rn tiene timensión n.
 Si la dimensión de un espacio es p
 cualquier conjunto con s vectores
s>p es L.D.
 En efecto, la base tiene p vectores y
el resto será una C.L. de la base.
Bases, Dimensión y
coordenadas
 Teorema. Un espacio tiene dimensión finita k
ssi k es el maximo número de vectores que
se pueden obtener en el espacio.
 Demo. Si la dimensión es k la base tiene k
vectores  son L.I. y cualquier otro es una
C.L. de la base (ya no es L.I.).
 Si el máximo número de vectores L.I. es k 
estos generan todo el espacio y por tanto es
una base  k es la dimensión.
Bases, Dimensión y
coordenadas
 Ok, regresemos a la representación
de vectores 1 0
B1={ }
0 1

4 1 0
=4 +4
4 0 1
Bases, Dimensión y
coordenadas
 El mismo vector en otra base
B2={
1 0 }
1 1

4 1 0
=4 +0
0 1 1
Bases, Dimensión y
coordenadas
 Si el mismo vector se puede
representar en diferentes bases, ¿se
podrá transformar de una en otra?

1 0 4 1 0 4
=
0 1 4 1 1 0
Bases, Dimensión y
coordenadas

-1
1 0 1 0 4 4
=
1 1 0 1 4 0

Matriz de cambio de base de B1 a B2


Bases, Dimensión y
coordenadas
• El concepto fácilmente se puede
generalizar a cualquier par de bases
• Lo que es más chido...

• (P[x]2,R) una posible base es B={1, x, x2}


1
• v1=1  en la base
0
0
Bases, Dimensión y
coordenadas
0
• v2=x  en la base
1
0
0
• v3=x2 0
1
Bases, Dimensión y
coordenadas
• v4=1-x
• v5=3+x
• v6=-2+2x+x2
• v7=2+3x+7x2
• ¿Son L.I.?

  ¡¡¡Todo cambia a matrices!!!


Espacios vectoriales
 Kernel, imagen, espacio columna y espacio fila de
una matriz
 Ecuaciones lineales y espacios vectoriales
 Cambio de base
 Espacio cociente
 Sumas y sumas directas
Pausa: Cosas de una
Matriz
 Kernel.
 Todos los x tales que Ax=0
 Kernel={x|Ax=0}
 Se puede hablar de dos kerneles, el
izquierdo y el derecho
 KerI={y|yTA=0}
 KerD={x|Ax=0}
Pausa: Cosas de una
Matriz
 Imagen
 Todos los y que son obtenidos de A
multiplicado por un vector
 Imagen={y|Ax=y}
Pausa: Cosas de una
Matriz
 Teorema (operaciones columna y dependencia
lineal). Suponer que una secuencia de
operaciones elementales por renglón transforma
la matriz A en la matriz B, entonces:
 Una colección de columnas de A es linealmente
dependiente (independiente) ssi la collección
correspondiente de columnas de B es linealmente
dependiente (independiente).
 Una matriz renglón puede ser escrita como una
combinación lineal de (esto es linealmente
dependiendte de) todos los renglones de A ssi puede ser
escrita como una combinación lineal de todos los
renglones de B.
Pausa: Cosas de una
Matriz
 Demostración caso 1.-
 Sea F=E1E2...En la secuencia de matrices
elementales que realizan las operaciones
elementales que transforman a A en B.
  F tiene inversa=no singular
  FA=B
 Fx=0  x=0 (solución única)
 Si las columnas de A son L.D. entonces
  α 1a1+α 2a2+...+α nan=A[α ]
 FA[α ]=B[α ]
  Si A es LD hay muchas combinaciones α
Pausa: Cosas de una
Matriz
 que dan cero  esas mismas combinaciones en B dan
cero y sus columnas son LI.
 Si A tiene una sola combinación que da cero, entonces
en B será la única posibilidad de dar cero, ya que sólo
es este caso FA[α ]=0
 Apliquemos esto a cualquier colección de columnas de
A y se tendrá la demostración de la primera parte.
 Demostración caso 2.-
 Un matriz renglón y es una CL de los renglones de A
ssi y=xA para alguan matriz renglón x, pero y=xF-
1
FA=x’B, para x’=xF-1
Pausa: Cosas de una
Matriz
 como FA=B; y y=x´B ssi y es una CL
de los renglones de B.
Pausa: Cosas de una
Matriz
 Veamos más a fondo el método de
Gauss
1 -1 2 3 1 -1 2 3
-1 1 1 2 0 0 3 5
1 2 4 1 0 3 2 -2
1 3 1 2 0 4 -1 -1
Pausa: Cosas de una
Matriz
 Veamos más a fondo el método de
Gauss
1 -1 2 3 1 -1 2 3
0 3 2 -2 0 1 2/3 5/3
0 0 3 5 0 0 2 -2
0 4 -1 -1 0 0 -11/3 -23/3
Pausa: Cosas de una
Matriz
 Veamos más a fondo el método de
Gauss
1 -1 2 3 1 -1 2 3
0 1 2/3 -5/3 0 1 2/3 5/3
0 0 1 -1 0 0 1 -1
0 0 -11/3 -23/3 0 0 0 1
Pausa: Cosas de una
Matriz Columnas dominantes

2 3 1 1.5

1 1 0 1

Matriz Forma de Gauss


Pausa: Cosas de una
Matriz Columnas dominantes

1 -1 1 -1

-1 1 0 0

Matriz Forma de Gauss


Pausa: Cosas de una
Matriz Columnas dominantes

0 -1 0 1

0 1 0 0

Matriz Forma de Gauss


Significado geométrico de esta relación
Estamos en los límites...

En realidad, cada clase forma una


línea paralela al Kernel de A.
Significado geométrico de esta relación

Si tenemos un operador lineal A:V→W, entonces el Kernel de A será un


subespacio de V, y cada una de las clases de equivalencia será una
variedad lineal paralela al Kernel de A.

Más aún, el conjunto de las clases de equivalencia se denotará en la


forma común V/Ker A y será llamado el espacio cociente V/Ker A.

Proposición. Sea un operador lineal A:V→W, entonces el conjunto


V/Ker A es un espacio vectorial.

Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene


Significado geométrico de esta relación

[v1]=[v1]+[0] para cualquier v1∈V. De la ecuación (1) x2= v1-α 1e1-


α 2e2-...-α nen se observa que esto es cierto, ya que x2∈[v1].

Los escalares, son los del campo definido en V.

La suma de vectores [v1]+[v2]=[v3] se define como x1∈[v1], x2∈[v2] y


x1+x2∈[v3]. Note que está bien definida ya que cualquier x1∈[v1] y
x2∈[v2] sirven. De hecho v1- α 1[0]+v2- α 2[0]=v1+v2- α [0]=[v3]

Todas las propiedades se pueden demostrar y resulta un espacio vectorial


Significado geométrico de esta relación
,... Pero hay más cosas

Claramente, Im(A)≈ V/Ker A. Vimos que esto se cumple aún en el caso


que no sean espacios vectoriales.

Ahora volvamos a los conjuntos.

Vimos que si A:X→Y, entonces Ker A es una relación de equivalencia.


Por la definición, cualquier función deja una relación de equivalencia en
su dominio. Pero, además, nosotros sabemos que una relación de
equivalencia sobre un conjunto X es equivalente a una partición de X
Espacios vectoriales con producto
interno
Espacios vectoriales con producto
interno

 5.1 Producto interno


 5.2 Desigualdad de Cauchy-Schwarz
 5.3 Ortogonalidad
 5.4 Procedimiento de Gram-Schmidt
 5.5 Espacios normados
Norma
 Definición.- Una norma (o norma
vectorial) en (V,F) es una funcional que
asigna a cada vector v un número real
no negativo, llamado norma del vector
v, y es denotado por ||v|| y satisface:
 ||v||>0 para v≠ 0, y ||0||=0
 ||α v||=|α | ||v|| α escalar y v vector
 ||u+v||≤ ||u||+||v||
Norma
 Definición.- Para vectores x=[x1 x2 ... xp]T,
las normas ||•||1, ||•||2, ||•||∞ son llamadas
norma 1, norma 2 y norma infinito
respectivamente y se definen como:
 ||•||1=|x1|+|x2|+...+|xp|
 ||•||2=(|x1|2+|x2|2+...+|xp|2)1/2
 ||•||∞=max{|x1|, |x2|, ...,|xp|}
Norma
 Definición.- Sea ||•|| una norma en (V,F). Una
secuencia de vectores vi se dice que converje al
vector v∞ ssi la secuencia de número reales ||vi-v∞||
Para vectores x=[x1 x2 ... xp]T, las normas ||•||1, ||•||
2, ||•||∞ son llamadas norma 1, norma 2 y norma
infinito respectivamente y se definen como:
 ||•||1=|x1|+|x2|+...+|xp|
 ||•||2=(|x1|2+|x2|2+...+|xp|2)1/2
 ||•||∞=max{|x1|, |x2|, ...,|xp|}
Norma
 Teorema: Sean x, y dos vectores. Entonces |
xTy|≤ ||x||2||y||2
 Demostración.
 sabemos 0≤ ||x+α y||=(x+y)T(x+y)=||x||22+ α 2
||y||
2 +2 α |x y|
2 T

 si α =-||x||22/xTy, entonces
 0≤ -||x||22+(||x||24||y||22/xTy|2)
 Despejando se llega a la desigualdad
Producto interno
 Definición. El producto interno en (V,F) sobre
un par de vectores (u,v) que satisface:
 (u,v)=(v,u)
 (α u+β v,w)= α (u,w)+ β (v,w)
 (w,α u+β v)= α (w,u)+ β (w,v)
 (u,u)>0, y es igual a cero si u es cero.
Producto interno
 El producto interno (u,v)1/2 induce una norma en el
espacio vectorial.
 Definición. Sean el producto interno (•,•)
 u, v son ortogonales ssi (u,v)=0
 Un conjunto de vectores son ortogonales ssi cada par de
vectores (u,v) son ortogonales
 Si un vector u es usado para producir u/||u|| tal que ||v||=1,
entonces u se dice ser normalizado para producir el vector
normalizado v
 Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||
v||=1 para todo vector v
Producto interno
 Diferentes productos internos
 (u,v)=uTv
 si f y g son funciones real valuadas continuas en
0∫ f ((f,g)=
0≤ t≤ 1, entonces t ) g (t )dt
Proyecciones ortogonales
 Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F)
un subespacio generado por los vectores
ortogonales S={v1,...,vq}. Defínase la proyección
ortogonal como sigue. Para cualquier vector v
 P0v=α 1v1+...+α qvq, donde α i=(vi,v)/(vi,vi)
 entonces
 v-P0v es ortogonal a todo vector v en (V0,F)
 P0(u+v)=P0u+P0v
 P0(α v)= α P0v
Proyecciones ortogonales
 Demostración
 (vi,v-P0v)=(vi,v)-α 1(vi,v1)-...-α q(vi,vq)=(vi,v)-
α i(vi,vi)=0
 Los otros puntos salen de la definición de los
coeficientes α . v
v-P0v

vi
P0v= α vi
Proyecciones ortogonales
 Teorema. Sea (V,F) un espacio vectorial con producto
interno y con su norma inducida por el producto interno ||
•||. Sea (V0,F) un subespacio generado por los vectores
ortogonales S={v1,...,vq}. Entonces para cualquier v, P0v
es el único punto más cercano en (V0,F) a v, y ||v-P0v|| es
la distancia de v a (V0,F)
 ||v-P0v||<||v-v0|| para todo v0 diferente de P0v en (V0,F)
Proyecciones ortogonales
 Demostración.
 ||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v,
v-P0v )+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0)
 Sabemos que v- P0v es ortogonal a los vectores en (V0,F),
entonces se obtiene que:
 ||v-v0||=||v- P0v||+|| P0v-v0||
 entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||v-
P0v||+||
Proyecciones ortogonales
 Sea S={v1,...,vq} un conjunto de vectores
ortogonales, entonces estos vectores son
linealmente independientes.
 si se toma el vector 0=c1v1+...+cqvq,
tenemos que saber el valor de cada ci.
 0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi)
 como (vi,vi)>0  ci=0 y son L.I.
Proyecciones ortogonales
 Se sigue que si el vector proyectado v está
en el espacio (V0,F), entonces P0v será el
mismo v y los valores de las α i será la
representación del vector en la base
seleccionada S.
Proyecciones ortogonales
 Teorema. Sea B={v1,...vq} una base
ortogonal. La representación del vector v se
calcula como
 v=α 1v1+...+α qvq, donde
 α i=(vi,v)/(vi,vi)
 Note que si la base es ortonormal, entonces los
α i se calculan fácilmente
Proyecciones ortogonales

 Si tenemos S={v1,...,vq} un conjunto de


vetores que genera (V,F)
 Tomar u1=v1,
 desde 2 hasta q, ui=vi-Pi-1vi
Transformaciones lineales
Transformaciones lineales

 6.1 Definición
 6.2 Propiedades
 6.3 Kernel e imagen de una transformación lineal
 6.4 Representación matricial de una
transformación lineal
 6.5 Isomorfismos
 6.6 Operaciones con transformaciones lineales
 6.7 Algebra de transformaciones lineales
  
Transformaciones lineales

 Definición. Sean (V,F) y (W,G) dos espacios


vectoriales. Una transformación lineal T de (V,F) a
(W,G) es una correspondencia que asigna a cada
vector v en V un vector w en W tal que:
 T(v1+v2)=T(v1)+T(v2)
 T(α v)= α T(v)

 Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)


+T(0) lo que implica que T(0) debe ser el cero de
W.
Transformaciones lineales

 El espacio imagen
 Todos los vectores w en (W,G) tal que w=T(v)
 Solución. Si w es fijo, entonces existe v en (V,F) tal
que T(v)=w ssi w está en la imagen de T.

 Se aplica Sobre

 Claramente el problema Solución tiene solución si


T es onto.
Transformaciones lineales

 Otro problema es si la solución es única.


 T(v1)=T(v2)=w

 Se aplica Inyectividad

 Claramente la solución es única si w esta en la


imagen de T y T es inyectiva.

 T(v1)=T(v2)  T(v1)-T(v2)=0  T(v1-v2)=0

 También T tiene kernel.


Transformaciones lineales

 Más propiedades de las transformaciones lineales


 T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v)
 T(α 1v1+...+α nvn)= α 1v1+...+α nvn
 Esto se puede ver por asociatividad e inducción

 Teorema. Sea (V,F) un espacio vectorial de dimensión finita


con base B={v1,...vn} y T1, T2 dos transformaciones
lineales. Si T1(vi)=T2(vi) para todo vi en B, entonces
T1(v)=T2(v) para v en (V,F).
 Demo, como cualquier vector de (V,F) se escribe como v=
α 1v1+...+α nvn, entonces T1(v)=T1(α 1v1+...+α nvn)=
T1(α 1v1)+...+T1(α nvn)=T2(α 1v1)+...+T2(α nvn)=T2(v)
Transformaciones lineales

 Teorema. Sea (V,F) un espacio vectorial de dimensión finita


con base B={v1,...vn} y (W,G) un espacio vectorial que
contiene a los vectores w1,...,wn, entonces existe una única
transformación lineal tal que T(vi)=wi, para vi en B.
 Demo. Como cualquier vector de (V,F) se escribe como v=
α 1v1+...+α nvn, entonces T se define como T(v)=α 1w1+...
+α nwn
 T será una transformación lineal T(u+v)=T[(α 1v1+...+α nvn)+
(β 1v1+...+ β nvn)]=
 =T[(α 1+β 1) v1+...+( α n+β n) vn] Por la definición de T,
 = (α 1+β 1) w1+...+( α n+β n) wn=T(u)+T(v)
Transformaciones lineales

 De igual forma
 T(δ u)=T[(δ α 1v1+...+ δ α nvn)] Por la definición de
T,
 δ α 1w1+...+ δ α nwn= δ T(u)
 Por teorema anterior se tiene la unicidad

 Tarea: Sean (V,F) y (W,G) dos espacios vectoriales


y T:(V,F)(W,G) una transformación lineal.
Demsotrar que el kernel de T es un subespacio de
(V,F) y que la imagen de T es un subespacio de
(W,G).
Transformaciones lineales

 Definición. Sean (V,F) y (W,G) dos espacios vectoriales y T:


(V,F)(W,G) una transformación lineal.
 Nulidad de T = ν (T) =dim (Ker (T))
 rango de T = ρ (T) = dim (Im (T))

 Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y T:


(V,F)(W,G) una transformación lineal.
 ν (T)+ ρ (T) = dim (V,F)
 Demo. Suponer que ν (T)=r y que {v1,...vr} es una base para
el kernel; además ρ (T)=k y {w1,...wk} es una base para la
imagen de T.
 Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}
Transformaciones lineales

 Sea un v que pertenece a (V,F). Como T(v)= α 1w1+...+α kwK


 Al Vector v lo podemos escribir como
 v= α 1u1+...+α kuK-v’  v´= α 1u1+...+α kuK-v
 T(v’)=T(α 1u1+...+α kuK-v)= α 1T(u1)+...+α kT(uk)-T(v)
 = α 1w1+...+α kwK-T(v)=0  v’ está en el kernel de T

 Como {v1,...vr} es una base de Kernel de T, existen escalares


β 1 ,.., β r tal que v’= β 1v1+ ... +β rvr=α 1u1+...+α kuK-v
 Por tanto v= α 1u1+...+α kuK- β 1v1- ... -β rvr
 y {u1,...,uk, v1,..., vr} genera (V,F)
 Ahora hay que ver que sean L.I.
Transformaciones lineales

 Sea un vector δ 1u1+...+ δ kuK+ γ 1v1+ ... + γ rvr=0


 Entonces T(δ 1u1+...+ δ kuK+ γ 1v1+ ... + γ rvr)=0
 Como los vi están en el kernel 
 0= δ 1w1+...+ δ kwK, como los wi son una base de la magen,
entonces son L.I. y la única solución es δ i=0
 Entonces el vector se reescribe como
 γ 1v1+ ... + γ rvr=0 , como los vi son una base para el kernel
son L.I., entonces la única solución γ i=0 y los vectores son
L.I.
 y por lo tanto es una base y la dimensión de (V,F) es
 ν (T)+ ρ (T) = dim (V,F)
Transformaciones lineales

 Sean (V,F) y (W,G) dos espacios vectoriales y T:


(V,F)(W,G) , entonces existe una única matriz A (dim(v),
dim(W)) tal que T(x)=Ax
 A est la matriz de transformación correspondiente a T.
 Demo
 sea B={e1,...,en} la base canónica en (V,F)
 T(ei)=wi
 Se puede formar la matriz A=[w1 wn]
 entonces Aei=wi (T(ei)=wi)
 En general T(x)=T(β 1e1+ ... +β nen)= β 1w1+ ... +β nwn
 También Ax=A[β 1e1+ ... +β nen]= β 1w1+ ... +β nwn =T(x)
Transformaciones lineales

 Suponer que T(x)=Ax=Bx  (A-B)x=0,


 para x=ei (A-B)ei=0  que la i-ésima columna de (A-
B) es cero, por lo que las matrices son iguales y A es
única.

 Teorema Sea A la matriz de transformación


correspondiente a T, entonces

 i) Im T ≠ Im A, pero isomorfo
 ii)ρ (T)=ρ (A)
 iii)Ker T≠ Ker A, pero isomorfo
 iv)ν (T)=ν (A)
Transformaciones lineales

 Teorema. Sean (V,F), (W,G) dos espacios vectoriales de


dimensiones n y m respectivamente. Sea T(V,F)(W,G) una
transformación lineal. Sean B1={v1,...,vn} y
B2={w1,...,wm} las bases de los espacios respectivamente.
Entonces existe una única matriz A (m,n) tal que:
 [T(x)]B2 =A(xB1 )
 [T(x)]B2 la representación de T(x) en B2
 T(x)= β 1w1+ ... +β mwm  [T(x)]B2 =[β 1 ... β m]T
 xB1 es la representación del vector en B1
 La matriz A se conoce como la matriz de transformación
correspondiente a T con respecto a las bases B1 y B2
Transformaciones lineales

 Considere los vectores T(v1, ...,T(vn), escríbase


 A=[[T(v1)]B2 ... [T(vn)]B2 ]
 Como AviB1 =Aei= [T(vi)]B2
 y xB1 es la representación del vector en B1, i.e. [α 1 ... α n]T
 entonces
 A xB1 =[[T(v1)]B2 ... [T(vn)]B2 ] xB1 = α 1[T(v1)]B2 +...+[T(vn)]B2 ]α n
 Por otro lado
 T(xB1 )=T(α 1v1+...+α nvn)= α 1T(v1)+...+α nT(vn)
 Al poner cada uno de estos vectores en la representación
 de la base B2 se obtiene que:
 A xB1 = T(xB1 )
 La unicidad es similar al teorema anterior
Transformaciones lineales

 Teorema.- Sea A (m,n) la matriz de transformación


correspondiente a T:(V,F)(W,G) con respecto a las bases
B1={v1,...,vn} y B2={w1,...,wm} respectivamente.
 Suponga que hay otras bases B1’={v1’,...,vn’} y
B2’={w1’,...,wm’} de los espacios respectivos.
 Entonces la matriz A’ correspondiente a la misma
transformación T con respecto a las bases B1’ y B2’ está dada
por:
 A’=P-1 AQ
 P es la matriz de transición (de paso) de la base B2’ en B2
 Q es la matriz de transición (de paso) de la base B1’ en B1
Transformaciones lineales

 Demo.
 Sabemos que [T(x)]B2=AxB1
 Ahora,
 xB1=QxB1’ y [T(x)]B2=P[T(x)]B2’
 Por tanto
 P[T(x)]B2’=A QxB1’
 [T(x)]B2’=P-1A QxB1’
 A’=P-1AQ es la matriz de transformación
Transformaciones lineales

 En especial, si (V,F) y (W,G) son los mismos,


entonces
 A’=P-1AP
 Definición. Se dice que dos matrices cuadradas A y
B son similares si existe una matriz P no singular
(determinante diferente de cero) tal que
 B=P-1AP
Transformaciones lineales

 Transformaciones T
 Inyectiva  Kernel T = {0}
 Sobre

 Teorema. T:VW una transformación lineal y dim


v=n y dim w=m
 i) si n>m,  T no es inyectiva
 ii) si m>n  T no es sobre

 Demo. Tarea.
Transformaciones lineales

 Definición. Una T.L es un Isomorfismos ssi es inyectiva y sobre.


 La matriz de un isomorfismo es invertible.
 Definición. Se dice que (V,F) y (W,G) son isomorfos ssi existe
un isomorfismo entre ambos
 Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de
dimensión finita. Entonces (V,F) y (W,G) son isomorfos si dim
(V,F)=dim (W,G)
 Demo. Obtener bases para cada uno. Entonces quedan
representados en (Rn,R). Como son bases en el mismo espacio,
existe una matriz de cambio de base A. por teoremas
anteriores existe una T.L. asociada a A que es un isomorfismo.
 Si existe el isomorfismo entre las representaciones, lo existe
entre los espacios.
Transformaciones lineales

 Corolario. Cualquier espacio de dimensión n es isomorfo a (Rn,R)


 Teorema. Si T:(V,F)(W,G) es un isomorfismo
 i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera (W,G)
 ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I.
 iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una base.
 Demo.
 i) v=β 1v1+ ... +β nvn  T(v)=w=β 1T(v1)+ ... +β nT(vn)  {T(v1),...,T(vn)}
genera (W,G)
 iii) Suponga que 0=T(v)=w=β 1T(v1)+ ... +β nT(vn) , entonces T(β 1v1+ ...
+β nvn)=0, como T es isomorfismo T(0)=0 es el único. Entonces β 1v1+ ...
+β nvn=0, pero como son L.I.  β i=0 y por tanto {T(v1),...,T(vn)} son L.I.
 iii) se sigue de anteriores.
Transformaciones lineales

 Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para


todo vector w∈W existe un único vector v ∈V tal que
T-1 (w)=v, donde T-1 :(W,G)(V,F) es conocida como la
transformación inversa de T.
 Demo. 2 partes T-1 es T.L. y T-1 (w)=v único
 T(v1)=w1;  T-1 (w1)=v1; T(v2)=w2 T-1 (w2)=v2
 T(v1+v2)=T(v1)+T(v2)=w1+w2  T-1 (w1+w2)=v1+v2
 T(α v1)= α T(v1)= α w1  T-1 (α w1)= α v1
 Como T es isomorfiso, la definición de T-1 hace que exista
un único valor de regreso.
 Nota. T es T.L.  A es su operador
 T-1 es la inversa de T, entonces A-1 es el operador de
T-1
Transformaciones lineales

 Operaciones con transformaciones lineales


 Sean (V,F) y (W,F) dos espacios vectoriales sobre
el mismo campo F. Hom(V,W) es el conjutno de
todas las transformaciones lineales entre (V,F) y
(W,F).
 Sean T1 y T2 dos T.L. entre (V,F) y (W,F)
 Se define la suma T1+T2 como
 T1+T2:VW (T1+T2)(v)=T1(v)+T2(v)
 para todo α ∈F, α T1 es
 (α T1)(v)=α T1(v)
Transformaciones lineales

 El conjunto Hom(V,W) definido anteriormente es


un espacio vectorial sobre el campo F.
 Demo. Tarea.
Algebra de Transformaciones
lineales

 Definición. Un álgebra A sobre un campo F es un


espacio vectorial sobre F en el que se tiene
definida una operación producto que satisface
para todos los elementos T1, T2, T3 ∈ A y α ∈F:
 T1(T2+T3)=T1T2+T1T3
 (T2+T3)T1=T2T1+T3T1
 α (T1T2)=(α T1)T2=T1(α T2)
 Si además se cumple que
 (T1T2)T3=T1(T2T3)
 entonces A es un álgebra asociativa
Algebra de Transformaciones
lineales

 Definición. Sean V, U y W espacios vectoriales sobre el mismo


campo F. Sean T1:VU y T2:UW dos transformaciones lineales.
 Se define la composición de T2 seguida de T1 T2°T1 como la
función de V a W (T2°T1) :VW tal que (T2°T1)(v)=T2(T1(v))
 Proposición. Si T1 y T2 son TL, entonces T2°T1 también lo es.
 Demo. Sean u,v ∈V y α ,β ∈ F, entonces
 (T2°T1)(α v+β u)=T2(T1(α v+β u))=T2(α T1(v)+β T1(u))
 = α (T2°T1)(v)+β (T2°T1)(u)
 (T2°T1) es T.L.

 Puede verse que Hom(V,V) con la composición es un álgebra


asociativa.
Adicional de
Transformaciones lineales

 Sean A, B dos matrices de qxn y nxp con


coeficientes en el mismo campo.
 Entonces ρ (A)+ρ (B)-n ≤ ρ (AB) ≤ min(ρ (A),
ρ (B))
 Demo
ρ (A) R(A) R(AB)
ρ (B) R(B)
d
p n
n(A)
n(B)
Adicional de
Transformaciones lineales
 De la figura ρ (AB)≤ min(ρ (A), ρ (B)).
 También ρ (AB)= ρ (B)-d (la intersección de R(B) y
n(A).
 La dimensión de n(A)=n- ρ (A)  d≤ n+ ρ (A)
 y se sigue que ρ (AB)≥ ρ (A)-n+ ρ (B)

 Si B es no singular
 ρ (A)+ρ (B)-n = ρ (A) ≤ ρ (AB) ≤ min(ρ (A),n) =
ρ (A)
ρ (A) R(A) R(AB)
ρ (B) R(B)
d
p n
n(A)
n(B)
4. Valores y vectores propios
Valores y vectores propios
 Definición y propiedades
 Teorema de Cayley-Hamilton
 Diagonalización de matrices
Valores y vectores propios
 Definición. Sea V un espacio vectorial y
T:VV una transformación lineal del
espacio en sí mismo. Sea v∈V un vector
diferente de cero pa el cual existe un
escalar λ tal que T(v)=λ v,
 entonces se dice que λ es un valor
propio de T y que v es un vector propio
de T asociado a λ .
Valores y vectores propios
 Cuando V es un espacio de dimensión finita, la
transformación T la podemos representar como
una matriz A de n,n. Entonces podemos redefir
los valores y vectores propios de la siguiente
forma.
 Definición. Sea A una matriz de n,n. El escalar λ
se denomina valor propio de A si existe un vector
x diferente del nulo, tal que Ax= λ x
 nuevamente x es el vector propio asociado a λ .
Valores y vectores propios
 Teorema. Sea A una matriz de n,n. Entonces λ
es un valor propio de A ssi det(λ I-A)=0
 Demo.
 Sólo si. Suponga que λ es un valor propio de
A; entonces existe un vector x diferente de
cero tal que Ax= λ x 
 (λ I-A)x=0, como x diferente de cero  (λ I-A)
es singular  det(λ I-A)=0
Valores y vectores propios
 (si). Si det(λ I-A)=0  (λ I-A) es
singular 
 (λ I-A)x=0 tiene soluciones
diferentes de cero, entonces existe
x diferente de cero tal que Ax= λ x.
Valores y vectores propios
 Definición. La ecuación det(λ I-A)=0 se conoce como
ecuación característica de A, y el polinomio
p(λ )=det(λ I-A)
 Observe que p(λ )=(det(λ I-A)=a0+a1λ +...+anλ
  por el teorema fundamental del álgebra, cualquier
polinomio de grado n tiene n raíces (contando
multiplicidades).
 p(λ )=(det(λ I-A)=a0+a1λ +...+an=
 (λ - λ 1)r1 ...(λ - λ m)rm
 Los número ri son la multiplicidad algebraica de los
valores propios de λ 1,..., λ m.
Valores y vectores propios
 Teorema. Sea λ un valor propio de
A y Eλ ={x|Ax= λ x}. Entonces Eλ
es un subespacio vectorial de Cn
 Nótese que Eλ son las soluciones de
(λ I-A)x=0, es decir el kernel de un
operador lineal  es un subespacio
vectorial.
Valores y vectores propios
 Definición. Sean λ un valor propio de A.
Entonces Eλ se denomina espacio propio de A
correspondiente a λ .
 Definición. Sea Eλ el espacio propio de A
debido a λ . A la dimensión de Eλ se le conoce
como multiplicidad geométrica de λ .
 Multiplicidad geométrica de λ =dim
Eλ =dim{Ker (λ I-A)}
Valores y vectores propios
 Ejemplos y procedimientos de
cálculo.
4 -2 2 -1 1 -1
1 1 -4 2 2 -1
Valores y vectores propios
 Teorema. Sea λ un valor propio de
A. Entonces se cumple que la
multiplicidad geométrica de
λ ≤ multiplicidad algebraica de λ
Valores y vectores propios
 Teorema. Sean λ 1, λ 2, ..., λ m valores propios
diferentes de A (n,n), donde m≤ n y sean x1, x2,..., xm
sus vectores propios correspondientes. Entonces x1,
x2, ..., xm son linealmente independientes.
 Demostración.
 Suponga que {x1,...,xm} son L.D. y que xs es el
primer vector L.D. de los previos
 xs=α 1x1+α 2x2+...+α s-1 xs-1
 Multiplicando por A
 Axs= α 1Ax1+α 2Ax2+...+α s-1 Axs-1
Valores y vectores propios
 λ sxs= α 1 λ 1 x1+α 2 λ 2 x2+...+α s-1 λ s-1 xs-1
 Restando ecuaciones y multiplicando por λ s se tiene
 0=α 1(λ 1-λ s)x1+α 2 (λ 2-λ s) x2+...+α s-1 (λ s-1 -λ s)xs-1
 Como xs es el primer vector L.D. entonces
 α 1(λ 1-λ s)=α 2 (λ 2-λ s)=...=α s-1 (λ s-1 -λ s)=0
 como λ i≠ λ s  α i=0  xs=0, lo cual contradice la
suposición  las vectores son L.I.

Valores y vectores propios
 Teorema. La matriz A (n,n) tiene n
vectores propios L.I. ssi la
multiplicidad geométrica de cada
valor propio es igual a su
multiplicidad algebraica.
 Tarea (Grossman, pag 545)
Valores y vectores propios
 Definición. Sea F(x)=a0+a1x+a2x2+...+anxn un polinomio y A
una matriz cuadrada
 Se define el polinomio f(x) en la matriz A como:
 F(A)=a0I+a1A+a2A2+...+anAn
 Sy f(A) es igual a la matriz cero, entonces se dice que A es
raíz (o cero) del polinomio f(x).
 Sea F(λ ) (n,n) una matriz polinomial en la variable λ , i.e.
 F(λ )=F0+F1λ +...+Fmλ m= F(λ )=F0+λ F1+...+λ mFm
 donde F0, F1,...,Fm son matrices cuadradas reales.
Valores y vectores propios
 Se dice que F(λ ) es de orden n; y si Fm≠ 0, entonces F(λ ) es
de grado m. Además F(λ ) se dice regular si det(Fm)≠ 0
 Definicion. Sean F(λ ) y G(λ ) matrices polinomiales de
orden n., y G(λ ) es regular. Las matrices polinomiales
Q(λ ) y R(λ ) se conocen como cociente derecho y residuo
derecho respectivamente de F(λ ) dicidida por G(λ ) si
 F(λ )= Q(λ ) G(λ ) + R(λ )
 y si el grado de R(λ ) es menor que el grado de G(λ ) [R(λ )
puede ser cero]
Valores y vectores propios
 De manera similar se pueden definir el
cociente izquierdo y residuo izquierdo
 Sea A (n,n) y denota F(A) la evaluación por la
derecha de A en la matriz polinomial F(λ ) ,
esto es, si
 F(λ )=F0+F1λ +...+Fmλ m=
 F(λ )= F0+F1A+...+FmAm
Valores y vectores propios
 Teorema. Si la matriz polimial F(λ ) es dividida
por la derecha por la matriz (λ I-A) entonces el
residuo es F(A), y si es dividida por la izquierda
por (λ I-A) entonces el resiudo es F’(A) (por la
izquierdA).
 Demostración. Tarea.
 (teorema generalizado de Bezout, Grantmatcher,
pag 81)

Valores y vectores propios
 Corolario. La matriz polinomial F(λ ) es divisible por la
derecha por la matriz (λ I-A) sin residuo (R(λ )=0) ssi
F(A)=0
 (De manera similar se puede hacer por la izquierda)

 Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raíz


de su polinomio característico.
 Demostración. P(λ )=det(λ I-A)=a0+a1λ +...+λ n
 Hay que mostrar que P(A)=0
Valores y vectores propios
 de teoremas previos
 (λ I-A)adj(λ I-A)=det(λ I-A)I=[adj(λ I-A)](λ I-A)
 Lo cual puede verse como
 P(λ )=(λ I-A)Q(λ )=Q(λ )(λ I-A)
 donde Q(λ )=adj(λ I-A) es una matriz polinomial en λ
y
 P(λ )=det(λ I-A)I=a0I+a1λ I+...+λ nI
 como P(λ ) es divisible por la derecha y por la
izquierda por (λ I-A) sin residuos, entonces
 P(A)=a0I+a1AI+...+AnI
Valores y vectores propios
 Definición. Se dice que el polinomio F(λ )
es un polinomio aniquilador de la matriz A
(n,n) si F(A)=0
 (p.e. el polinomio característico de A)
 Definición. Al polinomio aniquilador mónico
Q(λ ) de A de menor grado se le conoce
como polinomio mínimo de A.
Diagonalización de
matrices
 Definición. Se dice que A (n,n) es
diagonalizable (bajo similaridad) si
existe una matriz no singular P tal
que P-1AP es diagonal
Diagonalización de
matrices
 Teorema. La matriz A (n,n) es diagonalizable ssi
tiene n vectores propios linealmente
independientes
 Si λ 1, λ 2, ..., λ n son los valores propios de A y
los vectores propios x1, x2, ..., xn
correspondientes a estos valores propios son
linealmente independientes, entonces P-
1
AP=diag{λ 1, λ 2, ..., λ n}, donde P=[x1 x2 ... Xn]
Diagonalización de
matrices
 Demostración.
 (si) Suponga que A tiene n vectores propios L.I. x1 x2 ... xn
correspondientes a los valores propios λ 1, λ 2, ..., λ n (algunos
pueden ser repetidos).
 Sea P la matriz [x1 x2 ... xn], entonces
 AP= [Ax1 Ax2 ... Axn]= [λ 1x1 λ 2x2 ... λ nxn]
 = [x1 x2 ... xn]diag{λ 1, λ 2, ..., λ n}
 =Pdiag{λ 1, λ 2, ..., λ n}
 Como P es no singular  tiene inversa
 P-1 AP=diag{λ 1, λ 2, ..., λ n}
Diagonalización de
matrices
 Demostración.
 (sólo si) Suponga que existe una matriz no
singular P tal que
 P-1 AP=diag{λ 1, λ 2, ..., λ n}
 AP=Pdiag{λ 1, λ 2, ..., λ n}
 Para cada xi de P se tiene que:
 Axi= λ ix
  xi es vector propio de A λ i es valor propio de A
 P es no singular  A tiene n vectores propios L.I.
Diagonalización de
matrices
 Corolario. La matriz A (n,n) es
diagonalizable ssi la multiplicidad
geométrica de cada valor propio es
igual a su multiplicidad algebraica. En
particular A es diagonalizable si todos
sus valores propios son distintos
Diagonalización de
matrices
 Teorema. Si A y B son similares,
entonces tienen el mismo polinomio
característico, y por consiguiente los
mismos valores propios.
 Demo. det(λ I-B)=det(λ I-P-1 AP)=det(λ P-
1
P-P-1 AP)=det(P-1 (λ I-A)P)=det(P-1 )det(λ I-
A)det(P)=det(λ I-A)
Diagonalización de
matrices
 Teorema. Si A y B son similares, i.e.
existe una matriz no singular tal que
B=P-1AP. Entonces:
 i) Bk=P-1AkP
 ii)Si f(x)=a0+a1x+...+anxn es un
polinomio cualquiera, entonces
f(B)=P-1f(A)P
Diagonalización de
matrices
 Demo
 Bk=(P-1AP)k= =(P-1AP)(P-1AP)...(P-1AP)=
 P-1AkP
 ii)Si f(B)=a0I+a1(P-1AP)+...+an(P-1AnP)=
 =P-1(a0+a1A+...+anAn)P=P-1f(A)P
Diagonalización de
matrices

1 1 2
0 1 3
0 0 2
Diagonalización de
matrices
 Tiene dos propio valores λ 1=1, λ 2=2
con multiplicidades algebraicas 2 y 1 y
geométricas 1 y 1 respectivamente 
no es posible diagonalizar A, pero ¿es
posible encontrar una bse donde A sea
casi diagonal?
Diagonalización de
matrices
 Definición.- Un vector v es llamado un
vector propio generalizado de rango k
de A asociado con λ iff
 (A- λ I)kv=0
 (A- λ I)k-1v≠ 0
 Note que si k=1 coincide con vector
propio
Diagonalización de
matrices
 Definición.-
 vk=v  vector propio generalizado
 vk-1 =(A-λ I)v=(A-λ I)vk
 vk-2 =(A-λ I)2v=(A-λ I)vk-1
 ...
 v1=(A-λ I)k-1 v=(A-λ I)v2
Diagonalización de
matrices
 ...
 vk-2 =(A-λ I)2v=(A-λ I)vk-1
 ...
 Entonces para 1≤ i≤ k vi es un vector propio
generalizado de rango i, por ejemplo
 (A-λ I)k-2 vk-2 =(A-λ I)k-2 (A-λ I)2v=(A-λ I)kv=0
 (A- λ I)k-1 vk-2 =(A-λ I)k-1 v≠ 0
Diagonalización de
matrices
 Definición.- Lleamaremos a los vectores
{v1, v2,...,vk} una cadena de vectores
propios generalizados si vk es un vector
propio generalizado que dio origen a
todos los demás vectores
Diagonalización de
matrices
 Teorema. El conjunto de vectores propios
generalizados v1, v2, ..., vk definidos
anteriormente es L.I.
 Demostración.-
 Suponer que v1, v2, ..., vk son L.D., entonces
existen soluciones diferentes de la trivial a:
 α 1v1+α 2v2+...+α kvk=0
 Multiplicando por (A-λ I)k-1 y observando que
 vi=vk-(k-i) =(A-λ I)k-i v  por definición
Diagonalización de
matrices
 entonces
 (A-λ I)k-1 vi=(A-λ I)2k-(i+1) v=0
 para i=1,2,...,k-1
 α k(A-λ I)k-1 vk=0
 y sabiendo de la def. de vector propio generalizado
que (A-λ I)k-1 vk≠ 0,  α k=0
 Aplicando ahora (A-λ I)k-2 se demuestra que α k-1 =0
 Siguiendo esto se tiene que α i=0, lo que contradice
la suposición.  son L.I.
Diagonalización de
matrices
 Teorema: Los vectores propios generalizados de A
asociados con diferentes propio valores son L.I.
 Demostración.
 Sea v vector propio generalizado  λ 1
 vi=(A-λ 1I)vi+1 =(A-λ 1I)k-i v
 Sea u vector propio generalizado  λ 2
 ui=(A-λ 2I)ui+1 =(A-λ 2I)l-i u

 Del teorema anterior los vi son L.I. y los ui son L.I, falta ver
que {ui}, {vi} son L.I.
Diagonalización de

matrices
Suponer que vi es L.D. en {u1,...,ul}
 vi=α 1u1+α 2u2+...+α lul
 Aplicando (A-λ 1I)i
 0= (A-λ 1I)i [α 1u1+α 2u2+...+α lul α ]
 Ahora aplicando (A-λ 2I)l-1 y observando que
 (A-λ 2I)l-1 (A-λ 1I)i = (A-λ 1I)i (A-λ 2I)l-1
 y el hecho de que (A-λ 2I)l-1 uj=0, j=1,2,..., l-1
 0=α l(A-λ 1I)i(A-λ 2I)l-1 ul=α l(A-λ 1I)iu1
 Como (A-λ 2I)u1=0 o Au1=λ 2u1, la ecuación anterior se reduce a
 α l(λ 2-λ 1)iu1=0
Diagonalización de
matrices
 se reduce a
 α l(λ 2-λ 1)iu1=0
 lo cual implica que α l=0.
 Un procedimiento similar llega a la
conclusión de que todos los α i=0, lo que
contradice la suposición y los vectores
son L.I.
Diagonalización de
matrices
 Teorema. Sean u y v propio vectores de
rango o y l respectivamente, asociados con
el mismo valor propio λ .
 vi=(A-λ I)vi+1 =(A-λ 1I)k-i v
 ui=(A-λ I)ui+1 =(A-λ 2I)l-i u
 Si u1 y v1 son L.I.  las cadenas son L.I.
Diagonalización de

matrices
El tratar de construir la forma casi diagonal (diagonal
por bloques o forma de Jordan) se convierte en un
proceso iterativo.
 1.- se calculan propio valores y propio vectores de la
forma tradicional.
 2.- Si la multiplicidad algebraica es mayor que la
geométrica  tratar de encontrar una cadena lo
suficientemente larga de vectores generalizados para
construir los vectores L.I. independientes faltantes, de
lo contrario construir cadenas más pequeñas hasta
completarlos
Matrices unitarias
 Si P es no singular  B=P-1 AP transformación de
similaridad
 Sirven para cambio de bases
 Más conveniente si las bases son ortogonales y
ortonormales
 Si {x1,...,xp} es un conjunto ortonormal  xiTxi=1
y xiTxj=0
 Si hacemos que P=[x1,...,xp]  PTP=I o PT=P-1
Matrices unitarias
 Definición. Una matriz P (de reales) para la cual
PT=P-1 tal que PTP=I, se dice ser unitaria.
 Teorema.
 a) P unitaria  el conjunto de vectores columna
es ortonormal
 b) P unitiaria  |det(P)|=1
 c) P unitaria  <PX,Py>=<x,y>
 d) P unitaria  si λ valor propio de P  |λ |=1
 Demo. Clara
Matrices unitarias
 Teorema.
 Si B=P-1AP donde P es unitaria (se dice
transformación de similaridad unitaria)
 todo lo que se vió de propiedades de
similaridad sigue valiendo.
Matrices unitarias
 Teorema.
 Si A es una matriz de pxp.
 a) A es similar unitaria a una matriz triangular superior T;
T=P-1 AP con P unitaria y con los propiovalores de A en su
diagonal principal. T es llamada la forma de Shur de A y la
descomposición A=PTP-1 = PTPT es la descomposición Shur
de A.
 Demo.
 Si p=1 ya terminamos.
 Suponer que para p=k es cierto
 Para p=k+1 tenemos.
Matrices unitarias
 λ 1 es el propio valor asociado a x1, podemos normalizar este
vector para que ||x1||2=1
 Entonces x1 entra a la base que ya teníamos de
propiovectores ortonormalizados {w1,...,wk} si no es
otronormal a esta base, aplicamos Gram-Schmidt y tenemos la
nueva base {x1,w1,...,wk}
 U= [x1,w1,...,wk]=[x1,W]
 A’=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]=

λ 1 x1TAW λ 1 bT
=
0 W AW
T 0 C
Matrices unitarias
 Definición. Una matriz A de pxp es
normal si ATA=AAT
 Teorema. A normal  D=PTAP, D es
diagonal, y P es unitaria.
 Por tanto los propio vectores de A son p
linealmente independientes
Matrices unitarias
 Veamos ahora el caso en que A=UΣ VT,
con U y V unitarias de pxp y qxq, Σ es
pxq casi cero, excepto en la diagonal
que vale Σ ii=σ i que es un real no
negativo. 4 0
2 0 0 3 0 0 0 6
0 0 0 0 2 0
0 0

Así son Σ
Matrices unitarias
 Claramente se tendría AV=UΣ  Avi=σ iui para
1≤ i≤ min(p,q), dende los ui, vi son las columnas de U y
V respectivamente.
 Además
 ATA= (UΣ VT)T (UΣ VT)=VΣ TUTUΣ VT=V(Σ TΣ )VT
 donde Σ TΣ =D=VTATAV es diagonal de qxq
  que los propio vectores de ATA sirven para construir
V y D tiene los valores propios D=Σ TΣ
 Similarmente para el caso
 AAT=U(Σ TΣ )UT  en este caso D= Σ Σ T
Matrices unitarias
 Definición. A la descomposición que hemos venido manejando,
A=UΣ VT, se le conoce como descomposición en valores singulares
de A.
 Viendo lo que hicimos para la descomposición de Schur, podemos
ver que la descomposición en valores singulares siempre existe.
 Los valores singulares de A son los σ i, y el número de valores no
cero es el rango de A. Los ui son los vetores singulares izquierdos y
los vi los vectores singulares derechos relacionados con σ i.
1 1
9 9
A= 2 2 ATA
2 2 9 9

propiovalores 18 y 0.  σ 1=18(1/2) y σ 2=0


Un par de vectores propios de ATA normalizados son

v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T

Entonces V=[V1 v2]


1 1 2 4 4
A= 2 2 AAT= 4 8 8
2 2 4 8 8

propiovalores 18 y 0.  σ 1=18 y σ 2=0


Vectores propios de AAT normalizados son

u1=[1/3 2/3 2/3]T u2=[(-2)51/2 /5 51/2 /5 0]T u3 =[(2)51/2 /15 (4)51/2 /15 (-1)51/2 /3 ]T
Entonces U=[u1 u2 u3]
1 1 2 4 4
A= 2 2 AAT= 4 8 8
2 2 4 8 8

3(2)1/2 0
0 0
0 0
Mínimos cuadrados
 Suponer que A=UΣ VT, es la descomposición en valores singulares,
donde A es de rango k. El problema es minimizar ||Ax-b||2 con
respecto a x.
 ||Ax-b||2=||UΣ VTx-b||2=||Σ y-UTb||2
 y=VTx  ||Ax-b||2 es mínimo cra x ssi ||Σ y-UTb||2 es mínimo cra y.
 ||Σ y-b’||22=|σ 1y1-b1’|2+...+|σ kyk-bk’|2+|bk+1 ’|2+...+|bp’|2
 b’=UTb
 Es minimizado si yi=bi’/σ i
Mínimos cuadrados
 Entonces para ||Ax-b||2 con respecto a x.
 Encontrar A=UΣ VT
 Calcular b’=UTb
 Calcular yi=bi’/σ i para 1≤ i≤ k, yi=0 otro caso
 x0=Vy
 y=VTx  ||Ax-b||2 es mínimo cra x ssi ||Σ y-UTb||2 es mínimo cra y.
 ||Σ y-b’||22=|σ 1y1-b1’|2+...+|σ kyk-bk’|2+|bk+1 ’|2+...+|bp’|2
 b’=UTb
 Es minimizado si yi=bi’/σ i

Você também pode gostar