Você está na página 1de 59

UNIVERSIDAD DE SONORA

Divisi

on de Ciencias Exactas y Naturales


Departamento de Matematicas
Sistemas Controlables con un Valor Propio Complejo y
su Conjugado
T E S I S
Que para obtener el ttulo de:
Licenciado en Matematicas
Presenta:
Jorge Antonio Lopez Renteria
Director de Tesis: Dr. Martn Eduardo Fras Armenta
Hermosillo, Sonora, Mexico, 11 de Diciembre del 2006
Captulo 0 Secci on 0.0
Jorge A. L opez R. UNISON 2
SINODALES
Dr. Fernando Verduzco Gonzalez
Dr. Martn Eduardo Fras Armenta
Dr. Dr. Rodrigo Gonzalez Gonzalez
MC. Horacio Leyva Castellanos
Captulo 0 Secci on 0.0
Jorge A. L opez R. UNISON 4
Captulo 0 Secci on 0.0
Jorge A. L opez R. UNISON 6
Captulo 0 Secci on 0.0
Jorge A. L opez R. UNISON 8
Agradecimientos
Deseo agradecer al Departamento de Matem aticas, su administracion y su planta docente por el
apoyo que se me brindo en el transcurso de mi carrera por momentos de satisfacci on y difciles que
surgieron en el transcurso de esta. Deseo tambien agradecer a los jefes de Departamento que lo
liderearon en el transcurso de mis estudios.
Aprovecho para mostrar mis agradecimientos especialmente a mi director de tesis, Dr. Martn Ed-
uardo Fras Armenta, quien fue pilar fundamental en la realizacion del presente trabajo, as como a
Dr. Rodrigo Gonzalez Gonzalez, Dr. Fernando Verduzco Gonzalez, M.C. Horacio Leyva Castellanos,
el cual fue el comite revisor de mi tesis, por el tiempo brindado para la correccion y comentarios.
En lo personal, quiero agradecer a mi familia por su apoyo incondicional, mi madre que en las
buenas y en las malas, siempre ha estado conmigo. Mis tos que, apoyando al benecio familiar
alcance mucho de ellos, en especial a Rodolfo Renteria Lerma y su esposa Lourdes Jimenez Lozano
por su gran apoyo, tanto econ omico como en lo moral, siempre me llevaron de la mano hasta termi-
nar con mi carrera, mis hermanos que han sabido entender lo difcil que es estar fuera de casa sin
compartir momentos familiares importantes, a mis abuelos que durante mucho tiempo estuvieron
compartiendo grandes logros conmigo y el se nor Jose Guillermo Renteria Zatarain quien a logrado
formar para mi una gura paterna, con su amor incondicional. Al Profesor Rigoberto Radames
Sanchez Garca, quien me introdujo al fantastico mundo de las matem aticas e inuyo directamente
a que yo estudiara esta hermosa carrera.
Tambien quiero mostrar mis agradecimientos a mis compa neros de clases, quienes han campar-
tido grandes experiencias en el transcurso de nuestro recorrido por la vida y carrera.
Por ultimo, y no menos importante, mis grandes agradecimientos a mi esposa Mara De Los

Angeles
Mata Gonzalez por su gran apoyo amoroso y momentos agradables que hemos logrado juntos, as co-
mo su inuencia para lograr terminar mis estudios a pesar de las adversidades que han surgido para
lograrlo. A todos aquellos quienes por descuido, no han sido incluidos y estuvieron brindandome su
apoyo, les pido disculpas al igual que mis agradecimientos por todo lo que lograron en mi.
9
Captulo 0 Secci on 0.0
Jorge A. L opez R. UNISON 10

Indice general
Introducci on 13
1. Vectores y Espacios Vectoriales 15
1.1. La norma de un vector y ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2. N umeros complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5. Dimension de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2. Matrices y Transformaciones Lineales 27
2.1. El espacio de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5. Bases, matrices y transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 36
2.6. Valores propios, vectores propios y formas de Jordan . . . . . . . . . . . . . . . . . . 38
3. Sistemas de control 41
3.1. Ecuaciones diferenciales Ordinarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2. Controlabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3. Una caracterizaci on de sistemas de control . . . . . . . . . . . . . . . . . . . . . . . . 45
11
Captulo 0 Secci on 0.0
Jorge A. L opez R. UNISON 12
Introduccion
Los sistemas de control automatico son aquellos a los cuales se les puede trasladar un estado en otro
de manera contnua, mediante alg un control, es decir, que se puede controlar los estados del sistema.
Tales sistemas nacieron junto con la civilizacion y se han ido desarrollando a traves del tiempo junto
con ella. Hoy en da, los termostatos de refrigeraciones, el sistema del inhodoro, controladores de
direccion, temperatura, reguladores, etcetera, son ejemplos de sistemas de control automatico que
usamos cotidianamente en nuestra vida y otros no tan cotidianos (a un) como lo son la evolucion
del movimiento rob otico y los controladores de estos.
Es posible controlar los sistemas de eventos mediante algunas tecnicas que se han ido desarrollando
durante mucho tiempo, analizando el modelo matem atico que los simula y as dar caracterizaciones
de estos sistemas a controlar.
El presente trabajo tiene como objetivo determinar un caso especial de sistemas controlables que
determinan eventos cuya expresi on general es de la forma x = Ax+bu. Para esto, se hace referencia
a ciertos temas del algebra lineal y variable compleja.
En el capitulo 1, se denen los objetos vectoriales, as como las operaciones entre ellos y algu-
nas propiedades, para despues, pasar a la idea de un n umero complejo, junto con ciertos resultados
que se veran en el texto, pues parte del an alisis de esta caracterizaci on esta enfoncada en este senti-
do. Se muestra el concepto de espacio vectorial, como se genera un espacio vectorial mediante bases
y la dimension de un espacio vectorial de acuerdo a la base.
Para el Segundo captulo, se introducen nuevos objetos, llamados matrices, en el cual se hace
referencia a sus operaciones, algunas propiedades y una forma de aplicarlas a la ecuaciones lineales.
Se introduce un tema especial, que son las transformaciones lineales, ya que las armaciones m as
fuertes de las hip otesis del an alisis de este trabajo, se demuestran haciendo uso de transformaciones
lineales.

Estas estructuran todo lo que se sabe hasta ahora, por lo que es la base en la cual se
esta sujeto para hacer el desarrollo necesario concerniente al resultado principal; denimos lo que
es una transformacion lineal T y la relaci on que tienen con el espacio de matrices y las bases de un
espacio vectorial; se da referencia sobre como se comporta una matriz B asociada a una transfor-
macion lineal T cuando se hace el cambio de coordenadas con respecto a bases B y B

.
En el captulo 3, el cual es un tema de investigacion original, se hace referencia a las caractersticas
de las matrices del sistema de control. La matrz de estado A tiene como valor propio un n umero
complejo y su conjugado y es diagonal por submatrices dadas en bloques de Jordan. Las condi-
ciones que se establecen para controlar al sistema con estas caractersticas, caen sobre la matrz
13
Captulo 0 Secci on 0.0
B y se hace un an alisis del espacio de renglones columna de esta. Para esto, se tuvo que hacer
referencia de algunos lemas que se utilizaran directamente. Estos lemas surgieron a medida que se
fue desarrollando el trabajo.
Jorge A. L opez R. UNISON 14
1
Captulo
Vectores y Espacios Vecto-
riales
Empezaremos deniendo un punto en un espacio de n dimensiones. Primero, para representar un
punto sobre la recta real, dado x R, sabemos que posicion tiene x con respecto a los demas y como
se representa. Para representar un punto en el plano, un elemento del producto cartesiano RR es
una pareja (x, y) con x R y y R. Podemos introducir otro n umero para formar una terna (x, y, z)
y representar un punto en el producto cartesiano RRR, el cual denotamos como R
3
, que es un
punto en el espacio. Se puede emplear otra notaci on para estos n umero, esto es, hacemos (b
1
, b
2
, b
3
) en
lugar de (x, y, z). As podramos ir introduciendo m as n umeros para representar puntos en espacios
de cuatro dimensiones (R
4
), por ejemplo (b
1
, b
2
, b
3
, b
4
). De esta manera, podemos ir agregando
n umeros y denir un punto en el espacio de n dimensiones (que es un punto en el producto
cartesiano de R, n veces), como la n-upla de n umeros (b
1
, b
2
, , b
n
), si n es un entero positivo.
Denotaremos con b dicha n-upla. Daremos el nombre de vector de R a una n-upla. Teniendo claro
de lo que son los puntos de n dimensiones, deniremos para b = (b
1
, ..., b
n
) y v = (v
1
, , v
n
) son
vectores de n dimensiones, la suma como
b +v = (b
1
, ..., b
n
) + (v
1
, ..., v
n
) = (b
1
+v
1
, ..., b
n
+v
n
)
y si c es un n umero entonces
cb = c(b
1
, ..., b
n
) = (cb
1
, ..., cb
n
).
N otese que se satisfacen las siguientes propiedades:
i) (b +v) +w = b + (v +w).
ii) b +v = v +b.
iii) c(b +v) = cb +cv, para todo n umero c.
iv) Si c
1
, c
2
son n umeros, entonces (c
1
+c
2
)b = c
1
b +c
2
b y (c
1
c
2
)b = c
1
(c
2
b).
v) Si se supone que 0 = (0, ..., 0) es el vector de cuyas coordenadas son todas 0, entonces
0 +b = b +0 para todo b.
vi) 1 b = b, y si se denota por b a la n-upla (1) b, entonces
b + (b) = 0.
En lugar de escribir b + (b) simplemente lo ponemos b b.
15
Captulo 1 Secci on 1.1
Ahora, si b = (b
1
, ..., b
n
) y v = (v
1
, ..., v
n
) son dos vectores en R
n
, deniremos el producto de estos
como
b
1
v
1
+ +b
n
v
n
.
Este producto es un n umero real y es llamado producto escalar o producto interior. Adem as,
satisface las siguientes propiedades:
PE 1. b v = v b.
PE 2. Si b, v, w son puntos, entonces
b (v +w) = b v +b w = (v +w) b.
PE 3. Si c es un n umero, entonces
(cb) v = c(b v) y b(c v) = c(b v).
PE 4. Si b = 0 es el vector nulo, entonces b b =0, y si no lo es, se tiene que b b >0.
Cualquier espacio en el que se pueda denir un producto interior y satisfaga estas propiedades se
llama espacio con producto interior.
La demostraci on de estas propiedades es muy sencilla pues, respecto de la primera propiedad,
tenemos
b
1
v
1
+ +b
n
v
n
= v
1
b
1
+ +v
nb
n
puesto que para cualesquiera dos n umeros, se tiene que bv = vb.
Para probar PE 2, sea w = (w
1
, ..., w
n
). Luego
v +w = (v
1
+w
1
, ..., v
n
+w
n
)
y
b (v +w) = b
1
(v
1
+w
1
) + +b
n
(v
n
+w
n
)
= b
1
v
1
+b
1
w
1
+ +b
n
v
n
+b
n
w
n
= b
1
v
1
+ +b
n
v
n
+b
1
w
1
+ +b
n
w
n
= bv +bw.
En la propiedad PE 3, desarrollaremos ambas partes
(cb) v = (cb
1
, ..., cb
n
) (v
1
, ..., v
2
)
= (cb
1
)v
1
+ + (cb
n
)v
n
= c(b
1
v
1
) + +c(b
n
v
n
) = c(b v)
Por ultimo, para probar PE 4, notese que si una coordenada b
i
de b = 0 entonces b
2
i
= 0, adem as
b
2
i
> 0 en el producto
b b = b
2
1
+ +b
2
n
> 0.
Jorge A. L opez R. UNISON 16
Captulo 1 Secci on 1.1
1.1. La norma de un vector y ortogonalidad
Una vez que ya se tienen denidas las operaciones entre dos elementos de R
n
, toca ver la geometra
de estos, y sus propiedades consecuentes.
Denimos la longitud o norma de un vector b R
n
y se denota por ||b|| al n umero
||b|| =

b b =
_
b
2
1
+ +b
2
n
.
Adem as se satisfacen las siguientes propiedades:
Para todo b, v, w en R
n
y c R
(i) ||b|| 0, ||b|| = 0 b = 0 (no negatividad)
(ii) ||cb|| = |c| ||b||
(iii) ||b +v|| ||b +w|| +||w +v|| (desigualdad del tri angulo)
Si en un espacio se puede denir una norma, tal que se cumplan las propiedades anteriores, se le
llama espacio normado.
Sean b y v en R
n
. Se dene la distancia entre b y v como
||b v|| =
_
(b v) (b v)
Dada esta denicion, se cumplen, para todos b, v, w en R
n
las siguientes propiedades:
(i) ||b v|| 0, ||b v|| = 0 b = v.
(ii) ||b v|| = ||v b||.
(iii) ||b v|| ||b w|| +||wv||.
A un espacio, al que se le pueda denir una distancia o metrica con las propiedades anteriores, se
le llama espacio metrico.
Con esto podemos concluir que R
n
es un espacio metrico, normado.
Ahora nos encontramos en posicion de justicar la noci on de ortogonalidad o perpendiculari-
dad entre dos vectores b y v, lo cual lo veremos en el siguiente resultado:
Proposici on 1.1.1. Sean b y v dos vectores, entonces b,v son ortogonales si y solo si b v = 0.
Demostraci on. Dados b y v dos vectores, entonces la condici on
||b +v|| = ||b v||
Jorge A. L opez R. UNISON 17
Captulo 1 Secci on 1.2
nos muestra que b y v deben formar un paralelogramo. Elevando al cuadrado ambos miembros de
la igualdad tenemos
(b +v) (b +v) = (b v) (b v)
que al desarrollarla, por la propiedad PE 2 se tiene
b b +2b v +v v = b b 2b v +v v
de donde podemos observar que
||b +v|| = ||b v||
se cumple si y solo si
b v =0.
Denotaremos la ortogonalidad entre b y v como bv.
1.2. N umeros complejos
Vamos a denir los n umeros complejos, como el conjunto de parejas (b
1
, b
2
) de R
2
junto con las
reglas usuales de la adicion de vectores y la multiplicaci on escalar por un n umero real, de tal manera
que
(a
1
, b
1
) + (a
2
, b
2
) = (a
1
+a
2
, b
1
+b
2
)
c(a, b) = (ca, cb)
Para la multiplicaci on de n umeros complejos, hagamos
(a
1
, b
1
) (a
2
, b
2
) = (a
1
a
2
b
1
b
2
, a
1
b
2
+b
1
a
2
)
Al sistema de n umeros complejos denotaremos con C.
N otese que, a diferencia de R
2
, el producto entre dos n umeros complejos es cerrado bajo la multi-
plicacion, es decir, obtenemos nuevamente un n umero complejo, mientras que el producto entre dos
puntos o dos parejas de R
2
, es un n umero real.
De hoy en adelante, para referirnos a un n umero complejo haremos (, ) en lugar de (b
1
, b
2
),
pues esa notaci on la tendremos para se nalar puntos en R
2
.
Vamos a identicar a los n umeros reales con puntos en el eje x; entonces y (, 0) repre-
sentan al mismo punto en R
2
. El eje y sera llamado el eje imaginario y el punto (0, 1) sera denotado
por i. As, por denicion
(, ) = +i
pues el lado derecho de la ecuaci on representa a (, 0) +(0, 1) = (, 0) + (0, ) = (, ).
Jorge A. L opez R. UNISON 18
Captulo 1 Secci on 1.2
Usando = (, 0) y la denicion anterior de multiplicaci on de complejos, se obtiene i = (0, 1)(, 0) =
(0 1, 1 + 0 0) = (0, ) = (0, 1) = i y as tambien podemos escribir z = (, ) = +i,
donde el smbolo z se usa generalmente para indicar un n umero complejo y se denota como z C.
N otese que i
2
= i i = (0, 1) (0, 1) = (0 0 1 1, 1 0 + 0 1) = (1, 0) = 1, de esta man-
era tenemos la propiedad que queremos:
i
2
= 1.
Si recordamos esta ecuaci on, entonces la regla para la multiplicaci on de n umeros complejos sera tam-
bien facil de recordar
(
1
+i
1
)(
2
+i
2
) =
1

2
+i
1

2
+i
1

2
+i
2

2
= (
1

2
) +i(
1

2
+
1

2
).
Nuestro siguiente paso sera expresar un n umero complejo en otras coordenadas llamadas coor-
denadas polares. Para hacer esto, recordemos que la longitud del vector (a, b) se dene como

a
2
+b
2
, para un n umero complejo, vamos a utilizar la misma denicion, la cual generalmente
se le conoce como m odulo, norma o valor absoluto de z y se denotara como r = |z| ; as, si
z = (, ) = + i, entonces r = |z| =
_

2
+
2
. Supongase que este n umero complejo z, visto
como vector, forma un angulo con la direccion positiva del eje real, donde 0 < 2 (como se
muestra en la gura 1).
r sin
r cos
+i
x
y

r
gura 1
As, tan = / y, puesto que = rcos y = rsen tenemos entonces que z = + i =
rcos +i(rsen) = r(cos +isen).
Esta manera de escribir un n umero complejo se llama representaci on en coordenadas polares. El
angulo es llamado el argumento del n umero complejo y se denota por = arg(z).
El uso de la representaci on polar, simplica la tarea de hacer el producto de dos n umeros com-
plejos al denir (cos + isen) = e
i
, lo cual tiene sentido pues, en el caso real, el desarrollo de la
exponencial en su serie de Taylor es
e
x
= 1 +
x
1!
+
x
2
2!
+
x
3
3!
+ =

k=0
x
k
k!
Jorge A. L opez R. UNISON 19
Captulo 1 Secci on 1.2
entonces
e
i
= 1 +
i
1!
+
(i)
2
2!
+
(i)
3
3!
+
= 1 +
i
1!


2
2!

i
3
3!
+

4
4!
+
i
5
5!
+
= (1

2
2!
+

4
4!
) +i(

1!


3
3!
+

5
5!
+ )
= sen +icos.
As
z = r(cos +isen) = re
i
y la multiplicaci on para z
1
= r
1
(cos
1
+isen
1
) y z
2
= r
2
(cos
2
+isen
2
) es
z
1
z
2
= r
1
e
i
1
r
2
e
i
2
= r
1
r
2
e
i(
1
+
2
)
.
1.2.1. La f ormula de DMoivre
La formula que derivamos para la multiplicaci on de n umeros complejos, usando la representaci on
en coordenadas polares, la podemos utilizar para obtener una formula que nos permita calcular la
potencia n-esima de cualquier n umero complejo.
Proposici on 1.2.2 (F ormula de DMoivre). Si z = r(cos + isen) y n es un entero pos-
itivo, entonces
z
n
= r
n
(cos(n) +isen(n))
Demostraci on. La haremos por induccion sobre n.
Para k = 2, dado que z = r(cos +isen) = re
i
, se obtiene que
z
2
= re
i
re
i
= r
2
e
i2
= r
2
(cos(2) +isen(2))
Para k = 3, al multiplicar nuevamente por z tenemos
z
3
= z z
2
= re
i
r
2
e
i2
= r
3
e
i3
= r
3
(cos(3) +isen(3))
Jorge A. L opez R. UNISON 20
Captulo 1 Secci on 1.3
Supongase que se cumple para k = n, es decir, z
n
= r
n
e
in
= r
n
(cos(n) + isen(n)), veamos que
se cumple para k = n + 1
z
n+1
= z z
n
= re
i
r
n
e
in
= r
(n+1)
e
i(n+1)
= r
n+1
(cos(n + 1) +isen(n + 1)).
1.2.2. Conjugaci on compleja
Un concepto muy importante en el desarrollo del tema principal es el de conjugacion, pues, los
valores propios de la matriz de estado del sistema de control del teorema principal, son conjugados.
Deniremos el conjugado de z = + i, como el n umero complejo i y la denotaremos como
z. Se puede ver claramente que z z =
2
+
2
= |z|
2
y adem as se tiene que Re(z) = Re(z) y
Im(z) = Im(z), entre algunas otras propiedades.
1.3. Espacios Vectoriales
Ya que se tienen los objetos de interes y algunas de sus propiedades, la pregunta m as com un es
que estructura tiene cada uno de ellos (hablando de R, R
n
y C). En forma m as general, si tenemos
un conjunto no vaco K, un elemento c de K lo denotaremos como c K y se lee c perctenece
o esta en K. Por otro lado, si un conjunto S no vaco es tal que, todo elemento s de S esta en K,
diremos que S es un subconjunto de K o esta contenido en K y se denota como S K. Teniendo en
cuenta lo dicho anteriormente, podemos hablar de operaciones entre elementos del conjunto K. La
manera m as natural de pensar la operacion, es que siempre obtengamos otro elemento del mismo
conjunto, es decir, Si c
1
y c
1
son elementos de K, entonces c
1
+ c
1
, que es la suma de elementos,
es tambien un elemento de K (llamada la cerradura bajo la suma), o c
1
c
2
, llamado el producto,
tambien es elemento de K (cerradura bajo el producto). Si se cumplen ambas cerraduras y adem as
se tienen las siguientes condiciones
(i) Si c K, entonces c es un elemento de K. Si adem as c = 0, entonces c
1
tambien es un
elemento de K.
(ii) Los elementos 0 y 1 son elementos de K.
Se dice que K tiene estructura de campo o simplemente K es un campo. A un elemento c de
cualquier campo K le llamaremos n umeros, si es que la referencia a K queda clara con el contexto,
Jorge A. L opez R. UNISON 21
Captulo 1 Secci on 1.4
o bien se llamaran escalares.
N otese que R y C satisfacen las propiedades de campo, por las operaciones y propiedades denidas
anteriormente.
Un espacio vectorial V sobre un campo K es un conjunto de objetos que se pueden sumar y
que se pueden multiplicar por elementos del K, de tal manera que la suma de dos elementos de V
es, de nuevo, un elemento de V y, adem as, se satisfacen las siguientes propiedades:
EV 1. Dados los elementos b, v, w de V , se tiene que
(b +v) +w = b + (v +w)
EV 2. Existe un elemento de V , denotado por 0, tal que
0 +b = b +0 = b
para todos los elementos b de V .
EV 3. Dado un elemento b de V , el elemento -b en V es tal que
b + (b) = 0.
EV 4. Para todos lo elementos b, v de V se tiene que
b +v = v +b.
EV 5. Si c es un n umero, entonces c(b +v) = cb +cv
EV 6. Si c
1
y c
2
son n umeros, entonces (c
1
+c
2
)b = c
1
b +c
2
b
EV 7. Si c
1
y c
2
son n umeros, entonces (c
1
c
2
)b = c
1
(c
2
b)
EV 8. Para todos los elementos b de V , se tiene que 1 b = b (en donde 1 es el n umero uno).
En EV 3, para dos vectores b, v, en lugar de escribir b + (v) = 0, escribiremos b v = 0. Para
denotar al n umero cero, se usa el smbolo 0, y con 0 denotaremos el elemento de cualquier espacio
vectorial V que satisfaga EV 2; tambien se llamara cero, aunque no hay posibilidad alguna de
confusi on. N otese que el elemento 0 esta determinado de forma unica por EV 2. Adem as, para
cualquier elemento b de V se tiene que
0b = 0.
La prueba es muy sencilla, a saber:
0b +b = 0b +1b = (0 +1)b = 1b = b
sumando b a ambos lados tenemos 0b = 0.
R
n
con las operaciones y propiedades denidas, tiene estructura de espacio vectorial, el cual, clara-
mente tiene a R como campo.
Jorge A. L opez R. UNISON 22
Captulo 1 Secci on 1.4
1.4. Bases
Ahora, debemos tomar en cuenta que un espacio vectorial V tiene que haberse generado de al-
guna forma y, siendo as, naturalmente esperamos que los objetos que lo generan tienen que ser
internos a V , veremos que condiciones cumplen para generar a V , y posteriormente ver cuales son
las propiedades de estos y su gran importancia en el desarrollo de la teora que se encuentra en
an alisis. Para vericar lo antes dicho, comenzaremos por condicionar y seleccionar los elementos de
un espacio vectorial.
Si V es un espacio vectorial sobre un campo K y b
1
, ..., b
n
son elementos de V , diremos que
b
1
, ..., b
n
son linealmente dependientes sobre K si existen elementos c
1
, ..., c
n
en K no todos
iguales a 0, tales que
c
1
b
1
+ +c
n
b
n
= 0.
Si no existen tales n umeros, entonces se dice que b
1
, ...b
n
son linealmente independientes. En
otras palabras, los vectores b
1
, ..., b
n
son linealmente independientes si y solo si para c
1
, ...c
n
n umeros
de K tales que
c
1
b
1
+ +c
n
b
n
= 0
entonces c
i
= 0, para todo i = 1, ..., n.
Ejemplo 1. Sea V = R
n
y considerense los vectores
E
1
= (1, ..., 0)
.
.
.
E
n
= (0, ..., 1)
entonces E
1
, ..., E
n
son linealmente independientes. En efecto, sean c
1
, ..., c
n
n umeros tales que
c
1
E
1
+ +c
n
E
n
= 0
Pero
c
1
E
1
+ +c
n
E
n
= (c
1
, ..., c
n
) = (0, ..., 0)
esto es c
i
= 0, para toda i = 1, ..., n.
Proposici on 1.4.1. Considerese un espacio vectorial arbitrario V . Si b
1
, ..., b
n
son elementos
linealmente independientes de V , sean c
1
, ..., c
n
y b
1
, ..., b
n
n umeros. Sup ongase que tenemos
c
1
b
1
+ +c
n
b
n
= d
1
b
1
+ +d
n
b
n
En otras palabras, si las dos combinaciones lineales de b
1
, ..., b
n
son iguales, entonces c
i
= d
i
para
toda i = 1, . . . , n.
Jorge A. L opez R. UNISON 23
Captulo 1 Secci on 1.5
Demostraci on. En efecto, restando el miembro derecho de la igualdad al miembro izquierdo de la
misma tenemos que
c
1
b
1
d
1
b
1
+ +c
n
b
n
d
n
b
n
= 0
Tambien se puede escribir esta relaci on en la forma
(c
1
d
1
)b
1
+ + (c
n
d
n
)b
n
= 0
por denicion c
i
d
i
= 0 para toda i = 1, ..., n, es decir c
i
= d
i
, lo que demuestra nuestro enunciado.

Si b
1
, ..., b
n
son elementos de V que generan a V y adem as son linealmente independientes, en-
tonces {b
1
, ..., b
n
} se conoce como una base de V . Diremos adem as que los elementos b
1
, ..., b
n
constituyen o forman una base de V .
Los vectores E
1
, ..., E
n
que se mencionan en el ejemplo 1 forman una base de R
n
y se le conoce
como la base can onica de R
n
.
Sea V un espacio vectorial y sea {b
1
, ..., b
n
} una base de V . Los elementos de V se pueden repre-
sentar por n-uplas relativas a esta base, es decir, si un elemento de b de V se expresa como una
combinacion lineal
b = c
1
b
1
+ +c
n
b
n
de los elementos de la base, entonces se dice que (c
1
, ..., c
n
) son las coordenadas de b con respecto
a la base y que c
i
es la i-esima coordenada.
Las coordenadas con respecto a la base canonica de R
n
son simplemente las coordenadas del mismo
vector que se denieron en el captulo 1. Se dice que la n-upla C = (c
1
, ..., c
n
) es el vector de
coordenadas de b con respecto a la base {b
1
, ..., b
n
}.
1.5. Dimensi on de un espacio vectorial
El principal resultado de esta secci on es que cualesquiera dos bases de un espacio vectorial tienen
el mismo n umero de elementos. Para probar esta armacion se requiere un resultado previo.
Teorema 1.5.1. Sea V un espacio vectorial sobre un campo K. Sea {b
1
, b
2
, ..., b
m
} una base
de V sobre K. Sean v
1
, v
2
, ..., v
n
elementos de V y sup ongase que n > m. Entonces v
1
, v
2
, ..., v
n
son linealmente dependientes.
Jorge A. L opez R. UNISON 24
Captulo 1 Secci on 1.5
Demostraci on. Supongase que v
1
, v
2
, ..., v
n
son linealmente independientes. Puesto que {b
1
, b
2
, ..., b
m
}
es una base, existen elementos c
1
, c
2
, ...c
n
K tales que
v
1
= c
1
b
1
+c
2
b
2
+ +c
m
b
m
por hip otesis, sabemos que v
1
= 0 y, por tanto, alg un c
i
= 0. Despues renumerar b
1
, b
2
, ..., b
m
si es
necesario, se puede suponer sin perdida de generalidad que c
1
= 0. Entonces se puede despejar b
1
,
con lo que se obtiene
c
1
b
1
= v
1
c
2
b
2
c
m
b
m
b
1
= c
1
1
v
1
c
1
1
c
2
b
2
c
1
1
c
m
b
m
.
El subespacio generado por v
1
, b
2
, ..., b
m
contiene a b
1
y, por tanto, debe contener a todos los
elementos de V , ya que b
1
, b
2
, ..., b
m
generan a V . La idea consiste ahora en continuar el proceso
paso a paso y en reemplazar sucesivamente a b
1
, b
2
, ... por v
1
, v
2
, ... hasta que se agoten todos los
elementos b
1
, b
2
, ..., b
m
y as v
1
, v
2
, ..., v
m
genera a V . supongase ahora, por induccion, que existe
un elemento r con 1 r < m que, despues de una renumeraci on adecuada de b
1
, b
2
, ..., b
m
, los
elementos v
1
, ..., v
r
, b
r+1
, ..., b
m
generan a V . Existen elementos a
1
, ...a
r
, c
r+1
, ..., c
m
en K tales que
v
r+1
= a
1
v
1
+ +a
r
v
r
+c
r+1
b
r+1
+ +c
m
b
m
No puede suceder que c
j
= 0 para j = r + 1, ..., m, ya que si as fuera tendramos una dependencia
lineal entre v
1
, ..., v
r+1
, pues s olo se tendra
0 = v
r+1
= a
1
v
1
+ +a
r
v
r
es decir
0 = a
1
v
1
+ +a
r
v
r
v
r+1
y a un si a
i
= 0, i = 1, . . . , r entonces
v
r+1
= 0
lo que estara en contradicci on con nuestra suposicion. Luego de renumerar, si es necesario b
r+1
, ..., b
m
se puede suponer sin perdida de generalidad que c
r+1
= 0. Entonces se obtiene
c
r+1
b
r+1
= v
r+1
a
1
v
1
a
r
v
r
c
r+2
b
r+2
c
m
b
m
Al dividir entre c
r+1
concluimos que b
r+1
esta en el subespacio generado por
v
1
, ..., v
r+1
, b
r+2
, ..., b
m
.
As, por induccion tenemos que v
1
, ..., v
r+1
, b
r+2
, ..., b
m
generan a V . Por tanto se ha probado por
induccion que v
1
, ..., v
m
generan a V . Si n > m, entonces existen elementos d
1
, ..., d
m
K tales que
v
n
= d
1
v
1
+ +d
m
v
m
Lo cual prueba que v
1
, ..., v
n
son linealmente dependientes.
Teorema 1.5.2. Sea V un espacio vectorial y sup ongase que {b
1
, b
2
, ..., b
m
} y {v
1
, v
2
, ..., v
n
} son
bases de V . Entonces m = n.
Jorge A. L opez R. UNISON 25
Captulo 1 Secci on 1.5
Demostraci on. Se aplica el teorema 1.5.1 a las dos bases, el cual nos indica que las alternati-
vas n > m y m > n son imposibles pues, implicaran dependencia lineal, por tanto, m = n.
Si un espacio vectorial V tiene una base con n elementos, entonces diremos que n es la dimensi on
de V . Si V consta solamente del 0, entonces V no tiene base alguna y se dice que V tiene dimension
0.
Teorema 1.5.3. Sea V un espacio vectorial y sea {b
1
, ..., b
n
} un conjunto m aximo de elemen-
tos de V linealmente independiente, entonces {b
1
, ..., b
n
} es una base de V .
Demostraci on. Debemos demostrar que b
1
, ..., b
n
generan a V , es decir, que todo elemento de V
se puede expresar como una combinacion lineal de b
1
, ..., b
n
. Sea v V . Por hip otesis, los elementos
v, b
1
, ..., b
n
de V deben de ser linealmente dependientes y, por tanto, existen c
0
, c
1
, ..., c
n
en K no
todos iguales a 0, tales que
c
0
v +c
1
b
1
+ +c
n
b
n
= 0.
no se puede tener que c
0
= 0, pues esto implicara dependencia lineal entre b
1
, ..., b
n
. Por consigu-
iente, se puede despejar v en funcion de b
1
, ..., b
n
a saber
v =
c
1
c
0
b
1

c
n
c
0
b
n
esto prueba que v es una combinacion lineal de b
1
, ..., b
n
y, por tanto, {b
1
, ..., b
n
} es una base de
V .
De hoy en adelante, los campos sobre los que trabajaremos seran R y C y haremos referencia
cuando estemos haciendo uso de uno, el otro o ambos.
Jorge A. L opez R. UNISON 26
2
Captulo
Matrices y Transforma-
ciones Lineales
2.1. El espacio de las matrices
En estas secci on estudiaremos otra clase de objetos, las matrices. con otra estructura y operaciones
algebr aicas, mas sin embargo, estas formas operacionales, estan ligadas a las de vectores, pues las
matriciales se deniran a partir de la suma, producto de vectores por un escalar y del producto
interior entre vectores.
Sean n, m 1 enteros, denimos una matrz en R como un arreglo de n umeros en R de la siguiente
forma:
_
_
_
_
_
b
11
b
12
b
1n
b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
b
m1
b
m2
b
mn
_
_
_
_
_
Se puede abreviar la notaci on para esta matrz expresandola como (b
ij
), donde i = 1, ..., m y
j = 1, ..., n. Se dice que esta es una matrz de m por n, o bien, que es una matrz de m n. La
matrz tiene m renglones y n columnas. La componente b
ij
es la componente ij de la matrz.
Si la matrz anterior se denota por B, entonces el rengl on i se denota por B
i
, y se dene por
B
i
= (b
i1
, b
i2
, ..., b
in
).
La columna j se denota por B
j
y se dene como
B
j
=
_
_
_
_
_
b
1j
b
2j
.
.
.
b
mj
_
_
_
_
_
Sea B = (b
ij
) una matrz de mn. La matrz C = (c
ij
) de n m tal que c
ji
= b
ij
se conoce como
la transpuesta de B y se denota por B
t
.
Se considera que la transpuesta de una matrz equivale a intercambiar renglones por columnas
27
Captulo 2 Secci on 2.2
y viceversa. Si B es la matrz
_
_
_
_
_
b
11
b
12
b
1n
b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
b
m1
b
m2
b
mn
_
_
_
_
_
entonces la matrz transpuesta de B es
B
t
=
_
_
_
_
_
b
11
b
21
b
m1
b
12
b
22
b
m2
.
.
.
.
.
.
.
.
.
b
1n
b
2n
b
mn
_
_
_
_
_
Si B = (b
ij
), con i = 1, ..., m y j = 1, ..., n es una matrz y, si m = n, se dice que B es una matrz
cuadrada. Si se tiene que b
ij
= 0 para todo i y j, decimos que B es una matrz nula y tiene el
aspecto que se muestra en seguida:
_
_
_
_
_
0 0 0
0 0 0
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
Se representa con 0.
Si B = (b
ij
) es una matrz cuadrada. Se dice que b
11
, ..., b
nn
son las componentes de su diago-
nal. Si todas sus componentes son cero, excepto las de su diagonal, es decir, b
ij
= 0 si i = j,
diremos que B es una matrz diagonal. Si B tiene todas sus componentes igual a cero y las com-
ponentes de su diagonal iguales a 1, entonces B es la matrz uno o matrz identidad, y se denota
con I
n
o bien con I si no hay necesidad de especicar la n. As entonces
I =
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
2.2. Operaciones con matrices
Ahora que tenemos bien denidos nuestros objetos matriciales, nuestro siguiente paso es ver que es
lo que podemos hacer con ellos, es decir, que operaciones podemos denirles y que propiedades se
cumplen dadas estas operaciones.
En el caso de la suma, las matrices deben de ser del mismo tama no, es decir, mismo n umero
de renglones e igual n umero de columnas. Para la multiplicaci on, el n umero de columnas de la
Jorge A. L opez R. UNISON 28
Captulo 2 Secci on 2.2
primera debe ser igual al n umero de columnas de la segunda.
Estas operaciones estan dadas para m, n 1 enteros jos, y A = (a
ij
) y B = (b
ij
) matrices de
mn. Se dene la matrz A+B como aquella cuya componente en el rengl on i y la columna j es
a
i
+ b
j
, es decir, la suma de dos matrices del mismo tama no se realiza componente a componente.
Si tanto A como B son matrices de 1 n, esto es n-uplas, entonces la suma de A y B coincide con
la suma de n-uplas denidas en el captulo 1.
Para el producto entre matrices; si A = (a
ik
) y B = (b
kj
) son matrices de m r y r n re-
spectivamente, denimos la matrz A B como, la matrz cuya componente en el rengl on i y la
columna j es

r
k=1
a
ik
b
kj
, es decir, la compomente ij de A B es el producto interior entre el
rengl on i de A con la columna j de B.
Si c es un n umero y B = (b
ij
) una matrz, entonces la matrz cB es la matrz cuya componente es
cb
ij
y se escribe cB = (cb
ij
); As entonces, multiplicamos cada componente de B por c.
Proposici on 2.2.1. Sean A, B, C matrices. Sup ongase que A y B se pueden multiplicar entre
s, que A y C tambien se pueden multiplicar entre s y que B y C se pueden sumar. Entonces, A y
B +C se pueden multiplicar entre s y tenemos que
A(B +C) = AB +AC.
y si c es un n umero, entonces
A(cB) = c(AB)
Demostraci on. Sea A
i
el i-esimo rengl on de A y sean B
k
y C
k
las k-esimas columnas de B y
C respectivamente. Entonces B
k
+ C
k
es la k-esima columna de B + C. Por denicion, la compo-
nente ik de AB es A
i
B
k
, la componente ik de AC es A
i
C
k
, y las componentes ik de A(B +C)
es A
i
(B
k
+C
k
), ya que
A
i
(B
k
+C
k
) = A
i
B
k
+A
i
C
k
se deduce entonces la primera armacion. Para la segunda armacion, observese la columna k de
cB
k
, puesto que
A
i
cB
k
= c(A
i
B
k
)
se inere la segunda armacion.
Proposici on 2.2.2. Sean A, B y C matrices tales que A y B se puedan multiplicar entre s y
tales que B y C se puedan multiplicar entre s. Entonces A y BC se pueden multiplicar entre s; lo
mismo que las matrices AB y C, por tanto se tiene
(AB)C = A(BC).
Jorge A. L opez R. UNISON 29
Captulo 2 Secci on 2.3
Demostraci on. Sean A = (a
ij
) una matrz de m n, B = (b
jk
) matrz de n r y C = (c
kl
)
matrz de r s. El producto AB es una matrz de mr cuya componente ik es
n

j=1
a
ij
b
jk
.
Por denicion, la componente il de (AB)C es igual a
r

k=1
_
_
n

j=1
a
ij
b
jk
_
_
c
kl
=
r

k=1
_
_
n

j=1
a
ij
b
jk
c
kl
_
_
Por otro lado, el producto BC es una matrz de n s, cuya jl-esima componente es
r

k=1
b
jk
c
kl
y de nuevo, por denicion, la componente il de A(BC) es
n

j=1
a
ij
_
r

k=1
b
jk
c
kl
_
=
n

j=1
_
r

k=1
a
ij
b
jk
c
kl
_
=
r

k=1
_
_
n

j=1
a
ij
b
jk
c
kl
_
_
.
Si B es una matrz cuadrada de n n, diremos que B es invertible o no singular si existe
una matrz A de n n tal que
AB = BA = I.
Tal matrz A esta determinada en forma unica por B, ya que si C es tal que BC = CB = I, entonces
B = BI = B(AC) = (BA)C = IC = C.
2.3. Ecuaciones lineales
Veremos ahora una aplicacion de los teoremas sobre dimension para la solucion de ecuaciones lin-
eales.
Jorge A. L opez R. UNISON 30
Captulo 2 Secci on 2.3
Sea B = (b
ij
) una matrz de m n sobre R y sean c
1
, ..., c
m
n umeros en R. Las ecuaciones co-
mo
b
11
x
1
b
1n
x
n
= c
1
.
.
.
.
.
. (1)
b
m1
x
1
b
mn
x
n
= c
m
se conocen como sistema de ecuaciones lineales.
El n umero n se conoce como el n umero de incognitas y m se conoce como el n umero de ecua-
ciones. A la matrz (b
ij
) se le conoce como matrz de coecientes.
Si hacemos
C =
_
_
_
c
1
.
.
.
c
m
_
_
_
Entonces se puede escribir (1) en la forma
x
1
_
_
_
b
11
.
.
.
b
m1
_
_
_
+ +x
n
_
_
_
b
1n
.
.
.
b
mn
_
_
_
=
_
_
_
c
1
.
.
.
c
m
_
_
_
en forma abreviada, en terminos de los vectores columna de B
x
1
B
1
+ +x
n
B
n
= C.
El sistema de ecuaciones
b
11
x
1
b
1n
x
n
= 0
.
.
.
.
.
. (2)
b
m1
x
1
b
mn
x
n
= 0
se llamara sistema homogeneo asociado con (1), el cual se puede expresar como
x
1
_
_
_
b
11
.
.
.
b
m1
_
_
_
+ +x
n
_
_
_
b
11
.
.
.
b
m1
_
_
_
= 0
o, en terminos de los vectores de la matrz (b
ij
)
x
1
B
1
+ +x
n
B
n
= 0.
El sistema (2) siempre tiene solucion, a saber, la solucion obtenida al hacer todos los x
j
= 0. Esta
solucion se conoce como la solucion trivial. Una solucion (x
1
, ..., x
n
) tal que alg un x
i
= 0, se conoce
Jorge A. L opez R. UNISON 31
Captulo 2 Secci on 2.4
como solucion no trivial. Por consiguiente, una solucion no trivial X = (x
1
, ..., x
n
), no es otra cosa
que una n-upla X = 0 que da una relaci on de dependencia lineal entre las columnas B
1
, ..., B
n
.
Esta manera de expresar el sistema ofrece, por tanto una buena interpretacion y permite aplicar el
teorema 1.5.1.
Proposisi on 2.3.1. Sea
b
11
x
1
b
1n
x
n
= 0
.
.
.
.
.
.
b
m1
x
1
b
mn
x
n
= 0
un sistema homogeneo de m ecuaciones lineales con n inc ognitas, con coecientes en R. Sup ongase
que n > m. Entonces el sistema tiene una soluci on no trivial en R.
Demostraci on. Por el teorema 1.5.1, se tiene que los vectores B
1
, ..., B
n
deben ser linealmente
dependientes, por tanto, la combinacion lineal
x
1
B
1
+ +x
n
B
n
= 0
con alg un x
j
= 0.
Proposici on 2.3.1. Sup ongase que en el sistema (1) se tiene que m = n y sup ongase adem as
que los vectores B
1
, ..., B
n
son linealmente independientes. Entonces el sistema (1) tiene una solu-
ci on en R y esta soluci on es unica.
Demostraci on. Como los vectores B
1
, ..., B
n
son linealmente independientes forman una base
para K
n
. Por tanto, cualquier vector A tiene una expresi on unica como una combinacion lineal
A = x
1
B
1
+ +x
n
B
n
donde x
i
R y, por consiguiente, X = (x
1
, ..., x
n
) es la solucion unica del sistema.
2.4. Transformaciones lineales
Primero daremos una noci on general de funciones, que son las transformaciones, y entre las cuales,
las lineales son las m as importantes. Para S y S

conjuntos, Una Transformaci on de S en S

es
una asociaci on que adjunta a todo elemento de S con un elemento de S

. Para decir que T es una


transformacion de S en S

lo denotamos como T : S S

. Emplearemos para las transformaciones,


parte de la terminologa que se ha empleado para las funciones. Por ejemplo, si T : S S

es una
transformacion y u es un elemento de S, entonces denotamos por T(u) al elemento de S

asociado a
u por T. Se dice que T(u) es el valor de T en u, o tambien se dice que es la imagen de u bajo T. El
conjunto de todos los elementos T(u), cuando u vara sobre todo S, se conoce como la imagen de
Jorge A. L opez R. UNISON 32
Captulo 2 Secci on 2.4
S bajo T y se denota T(S). Si U, V, W son conjuntos, T : U V y T

: V W transformaciones,
entonces se puede formar la transformacion compuesta de U en W como
(T

T)(t) = T

(T(t))
para toda t U, y se denota por T

T.
Como ya se ha dicho, entre las transformaciones, las lineales son las m as importantes para el
desarrollo que deseamos, por lo que solo nos centraremos es estas.
Sean V y V

espacios vectoriales sobre R. Una transformaci on lineal T : V V

es una trasfor-
macion tal que, para cualesquiera elementos u, v V , se tiene
T(u +v) = T(u) +T(v).
y si c R, v V , se tiene
T(cv) = cT(v).
La transformacion que asocia cualquier elemento de v V este mismo elemento es, obviamente, una
transformacion lineal que se conoce con el nombre de identidad, se denota con id o simplemente
con I. As, id(v) = v.
Como ya se haba mencionado en un principio, en el hecho de que se pueden componer trans-
formaciones arbitrarias, se puede decir algo adicional para las transformaciones lineales, que son un
caso particular.
Proposici on 2.4.1. Sean U, V y W espacios vectoriales sobre R. Sean
T : U V y T

: V W
transformaciones lineales. Entonces, La transformaci on compuesta T

T es tambien una transfor-


maci on lineal.
Demostraci on. Sean u, v U. Como T es lineal, tenemos que
T(u +v) = T(u) +T(v)
por tanto
(T

T)(u +v) = T

(T(u +v)) = T

(T(u) +T(v)).
como T

es lineal, se obtiene
T

(T(u) +T(v)) = T

(T(u)) +T

(T(v))
por consiguiente
(T

T)(u +v) = (T

T)(u) + (T

T)(v)
Jorge A. L opez R. UNISON 33
Captulo 2 Secci on 2.4
Ahora, sea c un n umero. Entonces
(T

T)(cu) = T

(T(cu))
= T

(cT(u)) (por ser T lineal)


= cT

(T(u)) (por ser T

lineal)
Esto prueba que T

T es una transformacion lineal.


Si L es una transformacion lineal tal que L T = T L = id, entonces a L se le conoce como
transformacion inversa de T y se denota como T
1
.
2.4.1. Transformaci on lineal asociada a una matrz
Considerese la matrz de mn sobre R
B =
_
_
_
_
_
b
11
b
12
b
1n
b
21
b
22
b
2n
.
.
.
.
.
.
.
.
.
b
m1
b
m2
b
mn
_
_
_
_
_
Se puede asociar a B con una transformacion
T
B
: R
n
R
m
haciendo
T
B
(X) = BX
Para cada vector columna X de R
n
.
As, T
B
se dene mediante la asociaci on X BX, en donde el producto es el producto de matrices.
Que T
B
es una transformacion lineal se deduce simplemente de un caso especial de la proposicion
2.2.1, a saber, de la proposicion referente a las propiedades de la multiplicaci on de matrices. En
realidad, tenemos que
B(X +Y ) = BX +BY y B(cX) = cBX
para todos los vectores X, Y R
n
y para todo c R. Se dice que T
B
es la transformacion asociada
con la matrz B.
Proposici on 2.4.2. Si A y B son matrices de m n y si T
A
= T
B
, entonces A = B, es de-
cir, si las matrices A y B dan origen a la misma transformaci on lineal, entonces A = B.
Demostraci on. Por denicion, tenemos que A
i
X = B
i
X para todo i, si A
i
es el rengl on
i de A y B
i
es el rengl on i de B. por tanto, (A
i
B
i
) = 0 para todo i y todo X. Por lo que
A
i
B
i
= 0, entonces A
i
= B
i
para todo i. De donde A = B.
Jorge A. L opez R. UNISON 34
Captulo 2 Secci on 2.4
2.4.2. Matrz asociada a una transformaci on lineal
Ya sabemos que a una matrz le podemos asociar una transformacion lineal, lo mas l ogico es pre-
guntarse que pasa con el recproco, es decir, si a una transformacion lineal le podemos asociar una
matrz; el siguiente resultado nos responde la cuesti on anterior.
Teorema 2.4.1. Sea T : R
n
R
m
una transformaci on lineal. Sean E
1
, ..., E
n
los vectores columna
unitarios en R
n
y sean e
1
, ..., e
n
los vectores columna unitarios en R
m
. Entonces existe una matrz
A tal que T = T
A
, es decir, existe una matrz de mn tal que para todo X R
n
se tiene
T(X) = A X.
Demostraci on. Sabemos que cualquier vector X R
n
se puede expresar como una combinacion
lineal
X = x
1
E
1
+ +x
n
E
n
donde x
j
es la componente j de X. Considerense los vectores E
1
, ..., E
n
como vectores columna. Por
linealidad se tiene que
T(X) = x
1
T(E
1
) + +x
n
T(E
n
)
se puede escribir cada una de los T(E
j
) R
m
en terminos de e
1
, ..., e
m
. Es decir, existen n umeros
a
ij
tales que
T(E
1
) = a
11
e
1
+ +a
m1
e
m
.
.
.
T(E
n
) = a
1n
e
1
+ +a
mn
e
m
por tanto
T(X) = x
1
(a
11
e
1
+ +a
m1
e
m
) + +x
n
(a
1n
e
1
+ +a
mn
e
m
)
= (a
11
x
1
+ +a
1n
x
n
)e
1
+ + (a
m1
x
1
+ +a
mn
x
n
)e
m
.
en forma matricial
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
m1
a
mn
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
=
_
a
11
x
1
+ +a
1n
x
n
a
m1
x
1
+ +a
mn
x
n
_
en consecuencia, si hacemos A = (a
ij
), entonces se ve que
T(A) = A X.
As, designamos a A como la matrz asociada a una transformaci on lineal T. Por el teorema
tenemos que esta determinada en forma unica.
N otese que las operaciones con matrices corresponden a las operaciones con las transformaciones
lineales asociadas (el caso general de las transformaciones lineales, que son los operadores lineales,
hacer referencia a una matrz A, es igual a hablar sobre el operador lineal A) como se mostrara a
continuaci on.
Jorge A. L opez R. UNISON 35
Captulo 2 Secci on 2.5
Proposici on 2.4.3. Si A y B son matrices de mn y c un n umero, entonces
T
A+B
= T
A
+T
B
y T
cA
= cT
A
.
An alogamente, si T : R
n
R
m
y T

: R
m
R
s
son transformaciones lineales y si A y B son las
matrices asociadas a T y T

respectivamente entonces, para cualquier vector X en R


n
se tiene
(T

T)(X) = (BA)X.
Demostraci on. Para la primera parte, claramente
T
A+B
= (A+B)X = AX +BX = T
A
+T
B
y TcA = (cA)X = c(AX) = cT
A
y para la segunda parte
(T

T)(X) = T

(T(X)) = B(AX) = (BA)X.


por tanto BA es la matrz asociada con la transformacion lineal compuesta T

T.
2.5. Bases, matrices y transformaciones lineales
En las secciones anteriores se considero la relaci on entre las matrices y las transformaciones lineales.
A continuaci on, veremos algunos resultados que nos ayudaran a demostrar nuestro teorema de car-
acterizacion de sistemas controlables, que analizaremos en el siguiente captulo.
Sean V y W espacios vectoriales de dimension nita sobre R. Sean B = {v
1
, ..., v
n
} y B

=
{w
1
, ..., w
m
} bases de V y W respectivamente. Si v V , entonces se puede expresar v en forma
unica como una combinacion lineal
v = x
1
v
1
+ +x
n
v
n
con x
i
R. Entonces existe una aplicacion que nos relaciona a V con R
n
determinada por
(x
1
, ..., x
n
) x
1
v
1
+ +x
n
v
n
.
An alogamente, para W existe una aplicacion que nos relaciona a W con R
m
. Si T : V W es una
transformacion lineal, entonces, por lo anterior podemos interpretar a T como una transformacion
lineal de R
n
en R
m
, y as asociar una matrz con T que depende de la elecci on de las bases. Se
denota tal matrz con
M
B
B
(T).
Jorge A. L opez R. UNISON 36
Captulo 2 Secci on 2.5
Esta matrz es la unica matrz A que tiene la siguiente propiedad:
Proposici on 2.5.1. Si X es el vector (columna) de coordenadas de un elemento v de un espa-
cio vectorial V , relativa a la base B, entonces AX es el vector (columna) de coordenadas de T(v)
relativa a la base B

.
Demostraci on. Si A = M
B
B

(T), y si X es el vector de coordenadas de v con respecto a B,


entonces por denicion
T(v) = (A
1
X)w
1
+ + (A
m
X)w
m
.
Esta matrz esta determinada por el efecto de T sobre los elementos de la base, de la siguiente
manera. Sea
T(v
1
) = a
11
w
1
+ +a
m1
w
m
.
.
. ()
T(v
n
) = a
1n
w
1
+ +a
mn
w
m
Entonces, A resulta ser la transpuesta de la matrz
_
_
_
a
11
a
m1
.
.
.
.
.
.
a
1n
a
mn
_
_
_
claramente se tiene
T(v) = T(x
1
v
1
+ +x
n
v
n
) = x
1
T(v
1
) + +x
n
T(v
n
).
usando la expresi on () para T(v
1
), ..., T(v
n
), se tiene que
T(v) = x
1
(a
11
w
1
+ +a
m1
w
m
) + +x
n
(a
1n
w
1
+ +a
mn
w
m
).
y despues de agrupar los coecientes de w
1
, ..., w
m
se obtiene de nuevo esta expresi on en la forma
(a
11
x
1
+ +a
1n
x
n
)w
1
+ (a
m1
x
1
+ +a
mn
x
n
)w
m
= (A
1
X)w
1
+ + (A
m
X)w
m
.
Teorema 2.5.1. Sean V, W, U espacios vectoriales. Sean B, B

, B

bases de V, W, U respectiva-
mente. Sean
T : V W y T

: W U
transformaciones lineales. Entonces
M
B

B
(T

)M
B
B
(T) = M
B
B
(T

T)
Demostraci on. Sea A la matrz asociada con T relativa a las bases B, B

y sea B la matrz aso-


ciada con T

relativa a las bases B

, B

. Sea v V y sea X su vector (columna) de coordenadas


Jorge A. L opez R. UNISON 37
Captulo 2 Secci on 2.6
relativo a B. Entonces, el vector de coordenadas de T(v) relativo a B

es AX. Por denicion, el


vector de coordenadas de T

(T(v)) relativo a B

es B(AX) = (BA)X. Pero T

(T(v)) = (T

T)(v),
por tanto, el vector de coordenadas de (T

T)(v) relativo a la base B

es (BA)X. Por denicion,


esto signica que BA es la matrz asociada con T

T.
Corolario 2.5.2. Sea V un espacio vectorial y sean B, B

bases de V . Entonces
M
B
B
(id)M
B

B
(id) = I = M
B

B
(id)M
B
B
(id).
En particular M
B
B

(id) es invertible.
Demostraci on. En el teorema 2.5.1 considerese V = W = U y T

= T = id.
Teorema 2.5.2. Sea F : V V una transformaci on lineal y sean B, B

bases de V . Entonces
existe una matrz invertible N, tal que
M
B

B
(T) = N
1
M
B
B
(T)N.
De hecho, se puede considerar N = M
B

B
(id).
Demostraci on. Aplicando el teorema 2.5.1. paso a paso, encontramos que
M
B

B
(T) = M
B
B
(id)M
B
B
(T)M
B

B
(id).
El corolario anterior implica que esta aprobada nuestra armacion.
En vista de la importancia que tiene la aplicacion M N
1
MN, se le da un nombre especial.
Dos matrices M, M

se llaman semejantes (sobre R) si existe una matrz invertible N en K, tal


que M

= N
1
MN.
2.6. Valores propios, vectores propios y formas de Jordan
Si V es un espacio vectorial y
A : V V
es un operador de V (es decir, una transformacion de V en s mismo). Se dice que un elemento
b V se llama vector propio de A si existe R tal que
Av = v.
Jorge A. L opez R. UNISON 38
Captulo 2 Secci on 2.6
Si v = 0, entonces esta determinado de manera unica, debido a que
1
v =
2
v implica que

1
=
2
. En este caso, se dice que es un valor propio de A correspondiente al vector propio v.
Ahora, abordaremos un tipo de matrices diagonales por bloques de submatrices. Si una matrz
de n n con sus n vectores linealmente independientes, se puede expresar de una forma especial-
mente sencilla mediante una transformacion de semejanza. Para analizar este caso, comenzaremos
deniendo las matrices de Jordan.
Sea
N
k
=
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
. 1
0 0 0 0
_
_
_
_
_
una matrz de k k. Para una escalar dado R, se dene la matrz de bloques de Jordan como
sigue
D() = I +N
k
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
. 1
0 0 0
_
_
_
_
_
la cual tiene todos sus valores propios reales iguales a .
Para el caso complejo, la matrz de bloques de Jordan se dene como
D(, ) =
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0 0
0 1 0 0 0 0
0 0 1 0 0 0
0 0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0 0
0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
Donde sus valores propios complejos son = i.
Denimos la matrz de Jordan como
J =
_
_
_
_
_
D
1
(
1
) 0 0
0 D
2
(
2
) 0
.
.
.
.
.
.
.
.
.
0 0 D
r
(
r
)
_
_
_
_
_
donde cada D
j
(
j
), j = 1, . . . , r, es una matrz de bloques de Jordan.
Y en el caso de la matrz de bloques de Jordan con valores propios complejos, la matrz de Jordan
Jorge A. L opez R. UNISON 39
Captulo 2 Secci on 2.6
tiene la forma
J =
_
_
_
_
_
D
1
(
1
,
1
) 0 0
0 D
2
(
2
,
2
) 0
.
.
.
.
.
.
.
.
.
0 0 D
r
(
r
,
r
)
_
_
_
_
_
Entonces una matrz de Jordan es una matrz que tiene en la diagonal matrices de bloques de Jordan
y ceros en otra parte.
El siguiente resultado nos asegura que podemos expresar una matriz cuadrada en forma de Jor-
dan, aunque no se demostrar a, pues se puede hacer una analoga con el teorema 2.5.2.
Teorema 2.6.1. Sea B una matrz de n n sobre R o sobre C. Entonces existe una matrz P
sobre C invertible de n n tal que
P
1
BP = J.
Donde J es una matrz de Jordan cuyos elementos en la diagonal son los valores propios de B. M as
a un, La matrz de Jordan J es unica excepto por el orden en el que aparecen los bloques de Jordan.
Jorge A. L opez R. UNISON 40
3
Captulo
Sistemas de control
3.1. Ecuaciones diferenciales Ordinarias
Actualmente, las ecuaciones diferenciales se han convertido en una herramienta poderosa para la
investigacion de los fen omenos naturales. La mecanica, la astronoma y la tecnologa han sido causa
de numerosos progresos en esta area. A continuaci on, deniremos las ecuaciones diferenciales y
daremos una clasicacion estas.
Se llama ecuaci on diferencial ordinaria (E.D.O.) a una ecuaci on que liga la variable indepen-
diente x, a una funcion y = y(x) (que depende s olo de esa variable independiente) y sus respectivas
derivadas y, y

, y

, . . . , y
(n)
. Es decir, una expresi on de la forma:
F(x, y, y

, . . . , y
(n)
) = 0.
A la funcion y = y(x) la llamaremos funci on inc ognita.
Diremos que el orden de una ecuaci on diferencial es el n umero de mayor derivaci on en la fun-
ci on ic ognita. Diremos que el grado de una ecuaci on diferencial es el mayor exponente que tenga
la derivada de mayor orden.
Solo estudiaremos las ecuaciones diferenciales de primer orden, es decir, ecuaciones de la for-
ma
F(x, y, y

) = 0 o F(x, y, y) = 0 (forma implicita)


Si se puede despejar y

, se tendr a una ecuaci on de la forma


y

= f(x, y) o y = f(x, y) (forma explicita)


por lo tanto, las E.D.O. en forma explcita siempre seran de grado 1.
Un sistema de ecuaciones diferenciales de primer orden es de la forma
x
1
= a
11
x
1
+a
12
x
2
+ +a
1n
x
n
+b
1
x
2
= a
21
x
1
+a
22
x
2
+ +a
2n
x
n
+b
2
.
.
.
x
n
= a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
+b
n
41
Captulo 3 Secci on 3.2
y escrita en forma matricial

X = AX +B
donde

X = AX es la parte homogenea del sistema.
3.2. Controlabilidad
Considerese el sistema lineal
x = Ax +Bu (1)
con x R
n
, u R
m
, A y B matrices constantes con entradas reales y de tama no adecuado.
Denici on . Diremos que el estado x
1
del sistema (1) es controlable en t = t
0
, si toda condici on
inicial x
0
puede ser transferida a x
1
en un intervalo de tiempo nito, para alg un control u(t, x
0
).
Si todos los estados de un sistema son controlables, diremos que el sistema es completamente
controlable, o simplemente controlable.
Veamos como deducir una expresi on matem atica que nos garantice cu ando un sistema es con-
trolable. Sin perdida de generalidad supongamos que el estado nal x
1
= 0 y que el tiempo inicial
t
0
= 0. Analizaremos el caso de un control u escalar (m=1). El caso general es similar.
Consideremos el sistema de control (1) con x R, b M
n1
(R), A M
nn
(R) y u un escalar.
La solucion del sistema (1) es
x(t) = e
Ax
x
0
+
_
t
0
e
A(ts)
bu(s)ds
Ahora bien, si el sistema es controlable y como hemos supuesto que x
1
, obtenemos entonces que
x(t
1
) = x
1
= 0 = e
At
1
x
0
+
_
t
1
0
e
A(t
1
s)
bu(s)ds
lo que equivale a
0 = e
At
1
_
x
0
+
_
t
1
0
e
As
bu(s)ds
_
o bien
x
0
=
_
t
1
0
e
As
bu(s)ds (2)
Ahora bien, sabemos que la exponencial de una matriz cuadrada puede expresarse como una suma
nita de potencias de ella misma, es decir
e
At
=
n1

k=0

k
(t)A
k
Jorge A. L opez R. UNISON 42
Captulo 3 Secci on 3.2
Luego, (2) puede reescribirse como
x
0
=
_
t
1
0
_
n1

k=0

k
(s)A
k
bu(s)ds
_
=
n1

k=0
A
k
b
_
t
1
0

k
(s)u(s)ds
Deniendo

k
=
_
t
1
0

k
(s)u(s)ds
nalmente obtenemos
x
0
=
n1

k=0
A
k
b
k
=
_
b
0
+Ab
1
+A
2
b
2
+ +A
n1
b
n1
_
=
_
b Ab A
2
b A
n1
b
_
_
_
_
_
_
_
_

2
.
.
.

n1
_
_
_
_
_
_
_
Si el sistema (1) es completamente controlable, entonces para cualquier estado inicial x
0
, la ecuaci on
debera satisfacerse. Esto se puede garantizar si la matriz
C = (b Ab A
2
b A
n1
b)
nn
es de rango n, o lo que es lo mismo, que los vectores b, Ab, . . . , A
n1
b sean linealmente indepen-
dientes. La matriz C es llamada la matriz de controlabilidad. En general, si el control u R
m
, se
obtiene la matriz de controlabilidad
C = (BABA
2
B A
n1
B)
nnm
.
Esto nos lleva al siguiente resultado, el cual nos caracteriza los sistemas completamente controlables.
Proposici on
1
3.2.1. Considere el sistema de control (1) con x R
n
, u R
m
, A M
nn
(R)
y B M
nm
(R). Entonces el sistema es completamente controlable si y solo si la matriz
C = (BABA
2
B A
n1
B)
nnm
tiene rango n.
Dependiendo de las dimensiones de las matrices A y B, el calculo de la dimension de la matriz
1
La parte inversa de esta armacion se puede encontrar en el libro Linear Multivariable Control: A Geometric
Approach, de W. Murray Wonham, tercerra edicion. Editado por A. V. Balakrishnan, en el captulo 1, seccion 1.2.
Jorge A. L opez R. UNISON 43
Captulo 3 Secci on 3.2
C puede ser complicado, a un usando alg un paquete computacional. Una forma alterna para deter-
minar si el rango de la matriz C es n es vericar si
det(CC
T
) = 0.
El n umero m aximo q n 1 para el cual la matriz de controlabilidad
C = (BABA
2
B A
n1
B)
nnm
tiene rango n, se llama ndice de controlabilidad.
Ejemplo. Considerese el siguiente sistema de control
_
x
1
x
2
_
=
_
1 1
2 1
__
x
1
x
2
_
+
_
0
1
_
u
Para este sistema tenemos que la matriz de controlabilidad es
C =
_
b Ab
_
=
_
0 1
1 1
_
lo cu al es, evidentemente de rango dos. Luego, el sistema es completamente controlable con ndice
1.
Denici on 3.2.2. Considerese el sistema lineal
x = Ax +Bu (1)
con x R
n
, A R
nn
, B R
nm
. Cuando el par ametro de control u este restringido a tomar
valores en en cono U = R
m
+
, diremos que el control es positivo (CCP).
El siguiente resultado, debido a Brammer, nos da una caracterizaci on de los sistemas CCP.
Teorema 3.2.1. El sistema (1) es CCP si y solo si
(a) La matriz de controlabilidad C = (BAB A
n1
B) tiene rango n.
(b) No existe vector propio real v de A
T
que satisfaga que el producto escalar
v
t
Bu 0
Jorge A. L opez R. UNISON 44
Captulo 3 Secci on 3.3
Para todo u R
m
+
.
(a) y (b) ser an llamadas primera y segunda condiciones de Brammer, respectivamente.
Para hacer mas evidente este Teorema, daremos un ejemplo clasico en teora de sistemas de control,
el llamado 2-integrador:
Considerese el sistema
x =
_
1
0
_
x +
_
b
1
b
2
_
u
con R, b
2
= 0. El sistema es controlable pero no CCP.
En efecto, para probar que el sistema es controlable, nos jamos en la matriz de controlabilidad
C =
_
b
1
b
2
_
1
0
__
b
1
b
2
__
=
_
b
1
b
2
b
1
+b
2
b
2
_

_
b
1
b
2
b
2
0
_

_
0
b
2
b
2
0
_
la cual tiene rango 2, por tanto el sistema es controlable. Por otra parte, la matriz
A
t
=
_
0
1
_
tiene un valor propio con multiplicidad dos, con vectores propios
(A
t
I)v =
__
0
1
_

_
0
0
__ _
v
1
v
2
_
=
_
0 0
1 0
__
v
1
v
2
_
de aqu que v
1
= 0 y v
2
es arbitrario, por tanto, los vectores propios son de la forma
_
0
v
2
_
Ahora, la segunda condici on de Brammer nos pide que no exista vector propio real v de A
T
tal que
v
t
Bu 0
para todo u R
+
. As,
v
t
Bu =<
_
0
v
2
_
,
_
b
1
b
2
_
u >= 0 +v
2
b
2
u
Si b
2
> 0, se toma v
2
0, si b
2
< 0, tomamos v
2
0; en cualquiera de los dos casos no se satisface
la segunda condici on de Brammer, por tanto, el sistema no es CCP.
3.3. Una caracterizaci on de sistemas de control
Jorge A. L opez R. UNISON 45
Captulo 3 Secci on 3.3
El sistema controlable de estudio cuyas matrices A y B son de la forma que se muestran en el
siguiente teorema.
Teorema 3.3.1. Sean
A
2n2n
=
_
_
_
_
_
_
_
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
0 0
_
_
_
_
_
_
_
, B
2nm
=
_
_
_
_
_
b
11
b
12
b
1m
b
22
b
23
b
2m
.
.
.
.
.
.
.
.
.
.
.
.
b
2n1
b
2n2
b
2nm
_
_
_
_
_
.
El sistema x = Ax +Bu es controlable y CCP si y solo si < B
C
>= C
n
. M as a un, el n umero de
controles necesarios y sucientes para el sistema son n.
Nuestro estudio se enfocara s olo a la primera condici on de Brammer, pues la segunda implica
la no existencia de vectores propios reales y, el sistema en cuesti on arroja vectores propios comple-
jos. Para demostrar este teorema, necesitaremos de algunos resultados previos.
Denici on 3.3.1. Sea
b =
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
2n1
b
2n
_
_
_
_
_
_
_
un vector sobre R con un n umero par de entradas. La complejicaci on de b la deniremos como
b
C
=
_
_
_
b
1
+ib
2
.
.
.
b
2n1
+ib
2n
_
_
_
La complejicaci on para una matriz de la forma
A
2n2n
=
_
_
_
_
_
_
_
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
0 0
_
_
_
_
_
_
_
la deniremos como
A

C
nn =
_
_
_
i 0
.
.
.
.
.
.
.
.
.
0 i
_
_
_
Lema 3.3.1. Sean
z = +i, y A =
_


_
Jorge A. L opez R. UNISON 46
Captulo 3 Secci on 3.3
Entonces
A
k
=
_
Re(z
k
) Im(z
k
)
Im(z
k
) Re(z
k
)
_
Demostraci on. Primero, dado que z = r(cos + isen), con |z| = r y = tan
1
(

), por la
formula de DMoivre se obtiene que
z
k
= r
k
(cos(k) +isen(k))
Adem as, podemos escribir
A =
_


_
= r
_
/r /r
/r /r
_
= r
_
cos sen
sen cos
_
.
Vamos a probar por induccion sobre k, la conclusi on del lema. Para n = 2 se tiene
A
2
= r
2
_
cos
2
sen
2
2cossen
2cossen cos
2
sen
2

_
Atendiendo a las identidades
sen
1
cos
2
cos
1
sen
2
= sen(
1

2
) (3.1)
cos
1
cos
2
sen
1
sen
2
= cos(
1

2
) (3.2)
cuando
1
=
2
, se concluye que
A
2
= r
2
_
cos(2) sen(2)
sen(2) cos(2)
_
=
_
Re(z
2
) Im(z
2
)
Im(z
2
) Re(z
2
)
_
.
Para n = 3 se tiene
A
3
= A
2
A = r
2
_
cos(2) sen(2)
sen(2) cos(2)
_
r
_
cos sen
sen cos
_
= r
3
_
cos(2)cos sen(2)sen cos(2)sen +sen(2)cos
(cos(2)sen +sen(2)cos) cos(2)cos sen(2)sen
_
Por las identidades (3.1) y (3.2) se obtiene
A
3
= r
3
_
cos(3) sen(3)
sen(3) cos(3)
_
=
_
Re(z
3
) Im(z
3
)
Im(z
3
) Re(z
3
)
_
.
Ahora, suponemos que se cumple para n = k, es decir
A
k
=
_
r
k
cos(k) r
k
sen(k)
r
k
sen(k) r
k
cos(k)
_
=
_
Re(z
k
) Im(z
k
)
Im(z
k
) Re(z
k
)
_
probaremos que se cumple para n = k + 1. A saber,
A
k+1
= A
k
A = r
k
_
cos(k) sen(k)
sen(k) cos(k)
_
r
_
cos() sen()
sen() cos()
_
= r
k+1
_
cos(k)cos sen(k)sen cos(k)sen +sen(k)cos
(cos(k)sen +sen(k)cos) cos(k)cos sen(k)sen
_
Jorge A. L opez R. UNISON 47
Captulo 3 Secci on 3.3
de nuevo, por las identidades (3.1) y (3.2) se concluye que
A
k+1
= r
k+1
_
cos[(k + 1)] sen[(k + 1)]
sen[(k + 1)] cos[(k + 1)]
_
=
_
Re(z
k+1
) Im(z
k+1
)
Im(z
k+1
) Re(z
k+1
)
_
lo cual prueba el lema.
Lema 3.3.2 Sean
A
2n2n
=
_
_
_
_
_
_
_
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
0 0
_
_
_
_
_
_
_
, b =
_
_
_
_
_
b
1
b
2
.
.
.
b
2n
_
_
_
_
_
Con = 0 y b = 0. Entonces b, Ab, son linealmente independientes mientras que b, Ab, A
k
b no lo
son para k 2.
Demostraci on.
Jorge A. L opez R. UNISON 48
Captulo 3 Secci on 3.3
Veamos una combinacion lineal c
1
b +c
2
Ab = 0
0 = c
1
_
_
_
_
_
b
1
b
2
.
.
.
b
2n
_
_
_
_
_
+c
2
_
_
_
_
_
_
_
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
0 0
_
_
_
_
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
2n
_
_
_
_
_
= c
1
_
_
_
_
_
b
1
b
2
.
.
.
b
2n
_
_
_
_
_
+c
2
_
_
_
_
_
_
_
b
1
+b
2
b
1
+b
2
.
.
.
b
2n1
+b
2n
b
2n1
+b
2n
_
_
_
_
_
_
_
= c
1
_
_
_
_
_
b
1
b
2
.
.
.
b
2n
_
_
_
_
_
+c
2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
2n1
b
2n
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
b
2
b
1
.
.
.
b
2n
b
2n1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
= c
1
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
2n1
b
2n
_
_
_
_
_
_
_
+c
2

_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
2n1
b
2n
_
_
_
_
_
_
_
+c
2

_
_
_
_
_
_
_
b
2
b
1
.
.
.
b
2n
b
2n1
_
_
_
_
_
_
_
= (c
1
+c
2
)
_
_
_
_
_
_
_
b
1
b
2
.
.
.
b
2n1
b
2n
_
_
_
_
_
_
_
+c
2

_
_
_
_
_
_
_
b
2
b
1
.
.
.
b
2n
b
2n1
_
_
_
_
_
_
_
= (c
1
+c
2
)b +c
2
b

= 0
observemos que b y b

son ortogonales, luego, son linealmente independientes, por tanto, para que
esta ecuaci on sea cero, c
1
+c
2
= 0 y c
2
= 0, pero = 0, entonces c
2
= 0, as c
1
= 0.
Falta probar que b, Ab, A
k
b no son linealmente independientes para k 2. Se tiene por el lema
3.3.1 que
A
k
=
_
_
_
_
_
_
_
Re(z
k
) Im(z
k
) 0 0
Im(z
k
) Re(z
k
) 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 Re(z
k
) Im(z
k
)
0 0 Im(z
k
) Re(z
k
)
_
_
_
_
_
_
_
Jorge A. L opez R. UNISON 49
Captulo 3 Secci on 3.3
con z = +i, por tanto
A
k
b =
_
_
_
_
_
_
_
Re(z
k
)b
1
+Im(z
k
)b
2
Im(z
k
)b
1
+Re(z
k
)b
2
.
.
.
Re(z
k
)b
2n1
+Im(z
k
)b
2n
Im(z
k
)b
2n1
+Re(z
k
)b
2n
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
Re(z
k
)b
1
Re(z
k
)b
2
.
.
.
Re(z
k
)b
2n1
Re(z
k
)b
2n
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
Im(z
k
)b
2
Im(z
k
)b
1
.
.
.
Im(z
k
)b
2n
Im(z
k
)b
2n1
_
_
_
_
_
_
_
= Re(z
k
)b +Im(z
k
)b

.
Por otro lado, al poner en combinacion lineal b y Ab se obtiene
c
1
b +c
2
Ab = c
1
b +c
2
(b +b

) = c
1
b +c
2
b +c
2
b

= (c
1
+c
2
)b +c
2
b

si c
2
= Im(z
k
) y c
1
= Re(z
k
) Im(z
k
) concluimos que A
k
b se puede poner en combinacion lineal
de b, Ab, por tanto b, Ab, A
k
b no son linealmente independientes para k 2.
En pocas palabras, este lema nos indica que el ndice de controlabilidad del sistema de control
principal es q = 1.
Lema 3.3.3. Sean
A
2n2n
=
_
_
_
_
_
_
_
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
0 0
_
_
_
_
_
_
_
, b =
_
_
_
_
_
b
1
b
2
.
.
.
b
2n
_
_
_
_
_
,
entonces [Ab]
C
= A

C
b
C
.
Demostraci on.
[Ab] =
_
_
_
_
_
_
_
b
1
+b
2
b
1
+b
2
.
.
.
b
2n1
+b
2n
b
2n1
+b
2n
_
_
_
_
_
_
_
entonces
[Ab]
C
=
_
_
_
b
1
+b
2
+i(b
1
+b
2
)
.
.
.
b
2n1
+b
2n
+i(b
2n1
+b
2n
)
_
_
_
Jorge A. L opez R. UNISON 50
Captulo 3 Secci on 3.3
Ahora
b
C
=
_
_
_
b
1
+ib
2
.
.
.
b
2n1
+ib
2n
_
_
_
y la multiplicaci on
A

C
b
C
=
_
_
_
i 0
.
.
.
.
.
.
.
.
.
0 i
_
_
_
_
_
_
b
1
+ib
2
.
.
.
b
2n1
+ib
2n
_
_
_
=
_
_
_
b
1
+ib
2
ib
1
+b
2
.
.
.
b
2n1
+ib
2n
ib
2n1
+b
2n
_
_
_
=
_
_
_
b
1
+b
2
+i(b
1
+b
2
)
.
.
.
b
2n1
+b
2n
+i(b
2n1
+b
2n
)
_
_
_
= [Ab]
C
.
N otese que [BAB] = [BB

] (es decir, el espacio generado por BAB es igual al espacio generado


por BB

), pues si elegimos un elemento b B y Ab AB y los expresamos como combinacion


lineal, se tiene
c
1
b +c
2
Ab = c
1
b +c
2
(b +b

) = (c
1
+c
2
)b +c
2
b

la cual, la parte derecha es una combinacion lineal de elementos de [BB

] (es decir b B y
b

).
Lema 3.3.4. Sea A una matriz de tama no 2n 2n, como en el lema anterior y B una matriz
de tama no 2n m tal que Rango[BAB] = 2n. Entonces existen n vectores b
j
1
, ..., b
j
n
, tales que
b
j
1
, b

j
1
..., b
j
n
, b

j
n
son linealmente independientes, donde
b
j
k
=
_
_
_
_
_
_
_
b
1k
b
2k
.
.
.
b
(2n1) k
b
(2n) k
_
_
_
_
_
_
_
y b

j
k
=
_
_
_
_
_
_
_
b
2k
b
1k
.
.
.
b
(2n) k
b
(2n1) k
_
_
_
_
_
_
_
.
Para j
k
= 1, . . . , n.
Demostraci on. Podemos elegir b
1
de C = [BAB] y su correspondiente b

1
tambien en C, estos
son linealmente independientes, pues b
1
b

1
. Ahora elegimos un b
2
tal que sea linealmente inde-
Jorge A. L opez R. UNISON 51
Captulo 3 Secci on 3.3
pendiente con b

1
y b
1
. Tomamos b

2
correspondiente a b
2
y formamos la matriz

C = [b
1
b

1
b
2
b

2
] =
_
_
_
_
_
_
_
_
_
_
_
b
11
b
21
b
12
b
22
b
21
b
11
b
22
b
12
b
31
b
41
b
32
b
42
b
41
b
31
b
42
b
32
.
.
.
.
.
.
.
.
.
.
.
.
b
(2n1)1
b
(2n)1
b
(2n1)2
b
(2n)2
b
(2n)1
b
(2n1)1
b
(2n)2
b
(2n1)2
_
_
_
_
_
_
_
_
_
_
_
Por denicion,

C tiene asociada una transformacion lineal T, con respecto a una base B. Adem as,
existe una base B

tal que al hacer el cambio de coordenadas, la matriz nos queda de la forma

C
B
B
= [

b
1

b

b
2

b

2
] =
_
_
_
_
_
_
_
_
_
_
_
_
1 0 b

12
b

22
0 1 b

22
b

12
0 0 b

32
b

42
0 0 b

42
b

32
.
.
.
.
.
.
.
.
.
.
.
.
0 0 b

(2n1)2
b

(2n)2
0 0 b

(2n)2
b

(2n1)2
_
_
_
_
_
_
_
_
_
_
_
_

b
1
y

b

1
de esta forma, pues b
1
y b

1
son ortogonales, lo mismo con

b
2
y

b

2
. As al poner

b
1
,

b

1
,

b
2
y

b

2
en combinacion lineal tenemos
c
1
_
_
_
_
_
_
_
_
_
_
_
1
0
0
0
.
.
.
0
0
_
_
_
_
_
_
_
_
_
_
_
+c
2
_
_
_
_
_
_
_
_
_
_
_
0
1
0
0
.
.
.
0
0
_
_
_
_
_
_
_
_
_
_
_
+c
3
_
_
_
_
_
_
_
_
_
_
_
_
b

12
b

22
b

32
b

42
.
.
.
b

(2n1) 2
b

(2n) 2
_
_
_
_
_
_
_
_
_
_
_
_
+c
4
_
_
_
_
_
_
_
_
_
_
_
_
b

22
b

12
b

42
b

32
.
.
.
b

(2n) 2
b

(2n1) 2
_
_
_
_
_
_
_
_
_
_
_
_
= 0.
Teniendo que resolver el sistema
c
1
+c
3
b

12
+c
4
b

22
= 0
c
2
+c
3
b

22
c
4
b

12
= 0
c
3
b

32
+c
4
b

42
= 0
c
3
b

42
c
4
b

32
= 0
.
.
.
c
3
b

(2n1) 2
+c
4
b

(2n) 2
= 0
c
3
b

(2n) 2
c
4
b

(2n1) 2
= 0
La independencia lineal queda invariante mediante el cambio de base, tenemos que

b
1
,

b

1
y

b
2
son
linealmente independientes. Entonces, alg un b

i 2
= 0 con i = 3, ..., 2n. Sin perdida de generalidad,
podemos suponer que b

32
= 0. De la cuarta ecuaci on tenemos
c
4
= c
3
b

42
b

32
.
Jorge A. L opez R. UNISON 52
Captulo 3 Secci on 3.3
Sustituyendola en la tercera ecuaci on tenemos
c
3
_
b

32
+
b

42
b

32
_
= 0.
Entonces c
3
= 0 pues b

32
= 0. As, c
4
= 0 y c
1
= c
2
= 0. As

b
1
,

b

1
,

b
2
y

b

2
son linealmente
independientes, por tanto b
1
, b

1
, b
2
y b

2
son linealmente independientes.
De nuevo, podemos elegir un b
3
de tal forma que sea linealmente independiente con b
1
, b

1
, b
2
y b

2
, tomamos su ortogonal b

3
y formamos la matriz

C = [b
1
b

1
b
2
b

2
b
3
b

3
]
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b
11
b
21
b
12
b
22
b
13
b
23
b
21
b
11
b
22
b
12
b
23
b
13
b
31
b
41
b
32
b
42
b
33
b
43
b
41
b
31
b
42
b
32
b
43
b
33
b
51
b
61
b
52
b
62
b
53
b
63
b
61
b
51
b
62
b
52
b
63
b
53
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
(2n1)1
b
(2n)1
b
(2n1)2
b
(2n)2
b
(2n1)3
b
(2n)3
b
(2n)1
b
(2n1)1
b
(2n)2
b
(2n1)2
b
(2n)3
b
(2n1)3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
De nuevo,

C tiene asociada una transformacion lineal T (no necesariamente la misma) con respecto
a una base B. As, existe una base B

tal que al hacer el cambio de coordenadas, la matriz nos


queda

C = [

b
1

b

b
2

b

b
3

b

3
] =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 b

13
b

23
0 1 0 0 b

23
b

13
0 0 1 0 b

33
b

43
0 0 0 1 b

43
b

33
0 0 0 0 b

53
b

63
0 0 0 0 b

63
b

53
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 b

(2n1)3
b

(2n)3
0 0 0 0 b

(2n)3
b

(2n1)3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Y al poner cada una de los vectores como combinacion lineal
c
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
0
0
0
0
0
.
.
.
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+c
2
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
1
0
0
0
0
.
.
.
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+c
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
0
1
0
0
0
.
.
.
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+c
4
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
0
0
1
0
0
.
.
.
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+c
5
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b

13
b

23
b

33
b

43
b

53
b

63
.
.
.
b

(2n1) 3
b

(2n) 3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
+c
6
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
b

23
b

13
b

43
b

33
b

63
b

53
.
.
.
b

(2n) 3
b

(2n1) 3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
= 0.
Jorge A. L opez R. UNISON 53
Captulo 3 Secci on 3.3
Entonces, el sistema a resolver es
c
1
+c
5
b

13
+c
6
b

23
= 0
c
2
+c
5
b

23
c
6
b

13
= 0
c
3
+c
5
b

33
+c
6
b

43
= 0
c
4
+c
5
b

43
c
4
b

33
= 0
c
5
b

53
+c
6
b

63
= 0
c
5
b

63
c
6
b

53
= 0
.
.
.
c
5
b

(2n1) 3
+c
6
b

(2n) 3
= 0
c
5
b

(2n) 3
c
6
b

(2n1) 3
= 0.
Como la independencia lineal permanece invariante mediante el cambio de coordenadas, tenemos
que

b
3
es linealmente independiente con

b
1
,

b

1
,

b
2
y

b

2
, entonces alg un b

i 3
= 0, para i 5. Sin
perdida de generalidad, podemos suponer que b

5 3
= 0. As, de la sexta ecuaci on tenemos
c
6
= c
5
b

63
b

53
y sustituyendola en la tercera ecuaci on nos queda
c
5
_
b

53
+
(b

63
)
2
b

53
_
= 0
entonces c
5
= 0 pues b

53
= 0. As, c
6
= 0 y c
4
= c
3
= c
2
= c
1
= 0. As,

b
1
,

b

1
,

b
2
,

b

2
,

b
3
y

b

3
son
linealmente independientes, por tanto b
1
, b

1
, b
2
, b

2
, b
3
y b

3
son linealmente independientes.
Procediendo con esta elecci on inductivamente, suponemos que b
1
, b

1
, ..., b
n1
, b

n1
son linealmente
independientes, con esta construcci on. Sea b
n
linealmente independiente con b
1
, b

1
, ..., b
n1
, b

n1
.
Entonces, sea b

n
el correspondiente ortogonal a b
n
y formamos la matriz

C = [b
1
b

1
b
n
b

n
]
=
_
_
_
_
_
_
_
_
_
_
_
b
11
b
21
b
1(n1)
b
2(n1)
b
1n
b
2n
b
21
b
11
b
2(n1)
b
1(n1)
b
2n
b
1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
(2n3) 1
b
(2n2) 1
b
(2n3) (n1)
b
(2n2) (n1)
b
(2n3) n
b
(2n2) n
b
(2n2) 1
b
(2n3) 1
b
(2n2) (n1)
b
(2n3) (n1)
b
(2n2) n
b
(2n3) n
b
(2n1) 1
b
(2n) 1
b
(2n1) (n1)
b
(2n) (n1)
b
(2n1) n
b
(2n) n
b
(2n) 1
b
(2n1) 1
b
(2n) (n1)
b
(2n1) (n1)
b
(2n) n
b
(2n1) n
_
_
_
_
_
_
_
_
_
_
_
Como se hizo anteriormente, esta matriz tiene asociada una transformacion lineal T con respecto a
una base B. As, existe una base B

, para el cual el cambio de coordenadas nos deja la matriz de


Jorge A. L opez R. UNISON 54
Captulo 3 Secci on 3.3
la siguiente forma

C
B
B
= [

b
1

b

1


b
n

b

n
]
=
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 b

1n
b

2n
0 1 0 0 b

2n
b

1n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 b

(2n3) n
b

(2n2) n
0 0 0 1 b

(2n2) n
b

(2n3) n
0 0 0 0 b

(2n1) n
b

(2n) n
0 0 0 0 b

(2n) n
b

(2n1) n
_
_
_
_
_
_
_
_
_
_
_
_
Al poner los vectores como combinacion lineal
c
1
_
_
_
_
_
_
_
_
_
_
_
1
0
.
.
.
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
+c
2
_
_
_
_
_
_
_
_
_
_
_
0
1
.
.
.
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
+ +c
n3
_
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
1
0
0
0
_
_
_
_
_
_
_
_
_
_
_
+c
n2
_
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
0
1
0
0
_
_
_
_
_
_
_
_
_
_
_
+c
n1
_
_
_
_
_
_
_
_
_
_
_
_
b

1n
b

2n
.
.
.
b

(2n3) n
b

(2n2) n
b

(2n1) n
b

(2n) n
_
_
_
_
_
_
_
_
_
_
_
_
+c
n
_
_
_
_
_
_
_
_
_
_
_
_
b

2n
b

1n
.
.
.
b

(2n2) n
b

(2n3) n
b

(2n) n
b

(2n1) n
_
_
_
_
_
_
_
_
_
_
_
_
= 0
Por tanto, el sistema que tenemos que resolver es
c
1
+c
n1
b

1n
+c
n
b

2n
= 0
c
2
+c
n1
b

2n
c
n
b

1n
= 0
.
.
.
c
n3
+c
n1
b

(2n3) n
+c
n
b

(2n2) n
= 0
c
n2
+c
n1
b

(2n2) n
c
n
b

(2n3) n
= 0
c
n1
b

(2n1) n
+c
n
b

(2n) n
= 0
c
n1
b

(2n) n
c
n
b

(2n1) n
= 0
Por lo dicho anteriormente, el cambio de coordenadas conserva independencia lineal, por tanto

b
1
,

b

1
, . . . ,

b
n
y

b

n
son linealmente independientes. por tanto, b

(2n1) n
= 0 o bien b

(2n) n
= 0.
Supongamos, sin perdida de generalidad, que b

(2n1) n
= 0. De la 2n-esima ecuaci on tenemos
c
n
= c
n1
b

(2n) n
b

(2n1) n
y sustituyendola en la (2n 1)-esima ecuaci on tenemos
c
n1
_
b

(2n1) n
+
(b

(2n) n
)
2
b

(2n1) n
_
= 0.
As, c
n1
= 0 pues b

(2n1) n
= 0. Entonces c
n
= 0, y as c
1
= = c
n2
= 0.
Jorge A. L opez R. UNISON 55
Captulo 3 Secci on 3.3
Por tanto los 2n vectores linealmente independientes para que Rango(C) = 2n son b
1
, b

1
, . . . , b
n
, b

n
.
Estos resultados son sucientes para la demostraci on del teorema principal.
Teorema 3.3.1. Sean
A
2n2n
=
_
_
_
_
_
_
_
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
0 0
_
_
_
_
_
_
_
, B
2nm
=
_
_
_
_
_
b
11
b
12
b
1m
b
22
b
23
b
2m
.
.
.
.
.
.
.
.
.
.
.
.
b
2n1
b
2n2
b
2nm
_
_
_
_
_
El sistema x = Ax +Bu es controlable y CCP si y solo si
< B
C
>= C
n
. M as a un, el n umero de controles necesarios y sucientes para el sistema son n.
Demostraci on. Tenemos que demostrar que
Rango
R
(C = [BAB A
k
B]) = 2n Rango
C
(B
C
) = n
es decir
< B
C
>= C
n
.
Haremos primero la implicacion (), supongamos que Rango
C
(B
C
) = n
Sean b
1C
, b
2C
, ..., b
nC
los n vectores complejicados linealmente independientes, enseguida tomamos
los vectores cuya complejicaci on es la de estos y formamos el conjunto
b
1
, Ab
1
, b
2
, Ab
2
, ..., b
n
, Ab
n
Ahora, para ver que son R linealmente independientes, jemonos una combinacion lineal
c
11
b
1
+c
12
Ab
1
+c
21
b
2
+c
22
Ab
2
+ +c
n1
b
n
+c
n2
Ab
n
= 0
Al complejicar, por el lema 3.3.3 tenemos que
c
11
b
1C
+ c
12
[Ab
1
]
C
+c
21
b
2C
+c
22
[Ab
2
]
C
+ +c
n1
b
nC
+c
n2
[Ab
n
]
C
=
= c
11
b
1C
+ c
12
A

C
b
1C
+c
21
b
2C
+c
22
A

C
b
2C
+ +c
n1
b
nC
+c
n2
A

C
b
nC
= 0
dado que
A

C
=
_
_
_
i 0
.
.
.
.
.
.
.
.
.
0 i
_
_
_
= ( i)I
nn
y b
jC
, j = 1, . . . n, es un vector de n entradas, entonces se tiene que
A

C
b
jC
= ( i)b
jC
factorizando nos queda
Jorge A. L opez R. UNISON 56
Captulo 3 Secci on 3.3
[c
11
+c
12
( i)]b
1C
+ + [c
n1
+c
n2
( i)]b
nC
= 0
como los vectores b
jC
, j = 1, . . . , n son linealmente independientes en C, se tiene que c
j1
+c
j2
(
i) = 0, por otro lado tenemos que c
j1
, c
j2
R y = 0, entonces c
j1
+ c
j2
( i) = 0
si c
j1
= c
j2
( i), es decir, con c
j2
C, por tanto, c
j2
= 0 en R. As, se concluye que
b
1
, Ab
1
, b
2
, Ab
2
, ..., b
n
, Ab
n
son linealmente independientes en R.
Ahora, para la implicacion (), suponemos que la matriz de controlabilidad
C = [BAB A
2n1
B]
tiene rango 2n. Tenemos, por el lema 3.3.4 que, los 2n vectores linealmente independientes son
b
1
, b

1
, . . . , b
n
, b

n
, de los cuales tomaremos b
1
, , b
n
, donde
b
k
=
_
_
_
_
_
_
_
b
1 k
b
2 k
.
.
.
b
(2n1) k
b
(2n) k
_
_
_
_
_
_
_
Para k = 1, . . . , n . Y, al complejicar
b
C k
=
_
_
_
b
1k
+ib
2k
.
.
.
b
(2n1) k
+ib
(2n) k
_
_
_
Sean z
1
, . . . , z
n
n umeros en C y ponemos como combinacion lineal los vectores complejicados
z
1
_
_
_
b
11
+ib
21
.
.
.
b
(2n1) 1
+ib
(2n) 1
_
_
_
+ +z
n
_
_
_
b
1n
+ib
2n
.
.
.
b
(2n1) n
+ib
(2n) n
_
_
_
= 0
entonces, el sistema de ecuaciones a resolver es
z
1
(b
11
+ib
21
)+ +z
n
(b
1n
+ib
2n
) = 0
.
.
.
z
1
(b
(2n1) 1
+ib
(2n) 1
)+ +z
n
(b
(2n1) n
+ib
(2n) n
) = 0
Si z
k
=
k
+i
k
, k = 1, ..., n, el sistema queda
(
1
+i
1
)(b
11
+ib
21
)+ +(
n
+i
n
)(b
1n
+ib
2n
) = 0
.
.
.
(
1
+i
1
)(b
(2n1) 1
+ib
(2n) 1
)+ +(
n
+i
n
)(b
(2n1) n
+ib
(2n) n
) = 0
para cada j = 1, . . . , n y k = 1, . . . , n hacemos la multiplicaci on de los n umeros complejos
(
k
+i
k
)(b
(2j1) k
+ib
(2j) k
) = (
k
b
(2j1)k

k
b
(2j)k
) +i(
k
b
(2j)k
+
k
b
(2j1)k
)
Jorge A. L opez R. UNISON 57
Captulo 3 Secci on 3.3
as, se obtiene el sistema de ecuaciones
(
1
b
11

1
b
21
) + i(
1
b
21
+
1
b
11
)+ +(
n
b
1n

n
b
2n
) + i(
n
b
2n
+
n
b
1n
) = 0
.
.
.
(
1
b
(2n1)1

1
b
(2n)1
) + i(
1
b
(2n)1
+
1
b
(2n1)1
)+ +(
n
b
(2n1)n

n
b
(2n)n
) + i(
n
b
(2n)n
+
n
b
(2n1)n
) = 0
Pero tenemos que si z C tal que z = 0, entonces Re(z) = 0 y Im(z) = 0. As, separamos la parte
real y la parte compleja del sistema para obtener

1
b
11

1
b
21
+ +
n
b
1n

n
b
2n
= 0
.
.
.

1
b
(2n1)1

1
b
(2n)1
+ +
n
b
(2n1)n

n
b
(2n)n
= 0

1
b
21
+
1
b
11
+ +
n
b
2n
+
n
b
1n
= 0
.
.
.

1
b
(2n)1
+
1
b
(2n1)1
+ +
n
b
(2n)n
+
n
b
(2n1)n
= 0
donde las primeras n ecuaciones son la parte real del sistema y las n restantes son la parte imaginaria
del mismo. Ahora, acomodamos los renglones del sistema para obtener

1
b
11

1
b
21
+ +
n
b
1n

n
b
2n
= 0

1
b
21
+
1
b
11
+ +
n
b
2n
+
n
b
1n
= 0
.
.
.

1
b
(2n1)1

1
b
(2n)1
+ +
n
b
(2n1)n

n
b
(2n)n
= 0

1
b
(2n)1
+
1
b
(2n1)1
+ +
n
b
(2n)n
+
n
b
(2n1)n
= 0
y esto es

1
_
_
_
_
_
_
_
b
11
b
12
.
.
.
b
(2n1) 1
b
(2n) 1
_
_
_
_
_
_
_

1
_
_
_
_
_
_
_
b
21
b
11
.
.
.
b
(2n) 1
b
(2n1) 1
_
_
_
_
_
_
_
+ +
n
_
_
_
_
_
_
_
b
1n
b
2n
.
.
.
b
(2n1) n
b
(2n) n
_
_
_
_
_
_
_

n
_
_
_
_
_
_
_
b
2n
b
1n
.
.
.
b
(2n) n
b
(2n1) n
_
_
_
_
_
_
_
=
=
1
b
1

1
b

1
+ +
n
b
n

n
b

n
= 0.
Dado que b
1
, b

1
, . . . , b
n
, b

n
son linealmente independientes, se obtiene que
k
=
k
= 0 para
k = 1, . . . , n, esto es z
k
=
k
+ i
k
= 0 para i = 1, . . . , n. Por tanto b
Ck
, k = 1, . . . , n son lineal-
mente independientes, luego < B
C
>= C
n
.
Jorge A. L opez R. UNISON 58
Bibliografa
[1] R.F. Brammer. Controlability in linear autonomous systems with positive controllers. SIAM
J. Control, Vol. 10, No. 2, pp. 339-353. mayo 1972.
[2] Martn E. Fras A., Fernando Verduzco G., Horacio Leyva C. F. Armando Carrillo N. On
positive controllables systems (en espa nol). Proc AMCA. Mexico D.F. 2004.
[3] Martn E. Fras A., Fernando Verduzco G., Horacio Leyva C. F. Armando Carrillo N. On Con-
trollability of linear systems with positive control. Proc 16vo congreso mundial IFAC Republica
Checa. 2005.
[4] Martn E. Fras A., Fernando Verduzco G., Horacio Leyva C. F. Armando Carrillo N. A negative
Crieterion for controllability, en proceso para su publicacion a revista arbitrada.
[5] Lang, Serge.

Algebral Lineal, Versi on en Espa nol. Yale University. Fondo educativo interamer-
icano.
[6] Jerrold E. Marsden, Michael J. Homan. Analisis basico de an alisis complejo, primera edicion
en espa nol. 1996. Editorial trillas.
[7] W. R. Derrick, S. I. Grossman. Ecuaciones diferenciales con aplicaciones, versi on en espa nol.
University of Montana. Addison-Wesley Iberoamericana, S.A.
[8] W. Murray Wonham. Linear Multivariable Control: A geometric approach. Springer-Verlag.
1985.
[9] F. Verduzco G. T opicos de Control Lineal. Notas de clase. Universidad de Sonora. 2000.
59

Você também pode gostar