Você está na página 1de 17

Martín Codas

Capitulo I
Sistemas de ecuaciones lineales

Ecuaciones lineales con una incógnita: ax = b


a) Si a ≠ 0, x = b/a es solución única de ax = b
b) Si a = 0, pero b ≠ 0, ax = b no tiene solución
c) Si a = 0 y b =0, todo escalar k es solución de ax = b

Ecuaciones lineales degeneradas


Todos los coeficientes de las incógnitas son nulos: 0 x1 + 0 x2 + …+ 0 xn = b
a) Si b ≠ 0, la ecuación no tiene solución
b) Si b = 0, todo vector u = ( k1, k2, … , kn ) es una solución
(siendo k1 = x1, k2 = x2, …, kn = xn )

Ecuaciones lineales no degeneradas. Primera Incógnita, variables libres.


Se entiende por primera incógnita a la primera con coeficiente no nulo.
Las demás incógnitas de la ecuación se entienden como variables libres (porque se les
puede asignar cualquier valor).
Cualquier conjunto de valores para estas incógnitas dará una única solución de la
ecuación (teorema 1.3, ver pág. 4)
El conjunto de todas las soluciones se llama solución general de la ecuación. Cada
solución del sistema se denomina solución particular del mismo.

Sistemas de dos ecuaciones con dos incógnitas


Se considera un sistema de ecuaciones con dos ecuaciones no degeneradas, ambas con
dos incógnitas. a1x + b1y = c1
a2x + b2y = c2
Un par de números reales u = ( k1, k2 ) que satisface ambas ecuaciones se llama una
solución de las ecuaciones dadas, o una solución del sistema de ecuaciones. Existen tres
casos que pueden describirse geométricamente:
a) Sistema con una solución Rectas concurrentes (determinante no nulo)
b) Sistema sin soluciones Rectas paralelas a1 = b1 ≠ c1
a2 = b2 = c2
c) Sistema con infinitas soluciones Rectas coincidentes a1 = b1 = c1
a2 = b2 = c2
En el segundo y tercer caso se da que los coeficientes de las incógnitas son
proporcionales.
a1 = a1 b1
b1 a2 = b2 a1 b2 - a2 = b2 = 0
a2 =
b2

Algoritmo de eliminación
Proceso de eliminación mediante el cual reducimos el sistema a una ecuación sencilla con
sólo una incógnita. Esto es multiplicando por un escalar ≠ 0 una de las ecuaciones y
sumando algebraicamente con la otra ecuación, tal que se elimine una de las incógnitas
del sistema. Aplicando el algoritmo, pueden darse los casos:
a) El sistema tiene una única solución, se obtienen los valores de la misma.
b) El sistema no tiene solución, se obtiene una ecuación degenerada
c) Tiene infinitas soluciones, se obtiene una ecuación con la forma 0x + 0y = 0
Martín Codas

Sistemas de ecuaciones lineales


Considerando un sistema con m ecuaciones lineales (L1, L2, … , Lm), con n incógnitas X1,
X2, … , Xn, que puede ponerse en la forma convencional:
a11 X1 + a12 X2 + a13 X3 + … + a1n Xn + = b1
a21 X1 + a22 X2 + a23 X3 + … + a2n Xn + = b2
.
.
(*)
.
am1 X1 + am2 X2 + am3 X3 +… + amn Xn + = bm
Una solución (o solución particular) del sistema es un conjunto de valores de las
incógnitas ( X1 = k1 , X2 = k2 , … , Xn = kn ) o una n-pla u = ( k1, k2, … , kn ) de constantes,
que es solución de cada una de las ecuaciones del sistema. El conjunto de todas las
soluciones (particulares) se denomina conjunto solución o solución general.
Sistemas equivalentes
Se dice que dos sistemas de ecuaciones lineales con las mismas incógnitas son
equivalentes si tienen el mismo conjunto solución.
Operaciones elementales
Una forma de producir un sistema que sea equivalente a uno dado, con ecuaciones
lineales (L1, L2, … , Lm), es efectuar una sucesión de las siguientes operaciones:
[E1] Intercambiar las ecuaciones ( Li ↔ Lj )
[E2] Multiplicar la Li ecuación por un escalar no nulo ( k: k Li → L i’ , k ≠ 0 )
[E3] Sustituir la Li ecuación por ella misma más k veces la Lj ecuación
(k Li + Lj ) → L i’
El algoritmo para resolver un sistema de ecuaciones lineales denominado eliminación
gaussiana, consta de dos pasos:
1. Usar las operaciones elementales para reducir el sistema a uno equivalente más
simple (en forma triangular o escalonada)
2. Usar la sustitución hacia atrás para hallar la solución del sistema más simple.
En el primer paso del algoritmo, se tiene en cuenta: (teorema 1.5, ver pág. 10)
Si el sistema contiene una ecuación degenerada (0 x1 + 0 x2 +…+ 0 xn = b )
a) Si b = 0, esta ecuación puede suprimirse del sistema sin alterar el conjunto
solución
b) Si b ≠ 0, el sistema no tiene solución

Sistemas en forma triangular y escalonada


Condiciones
(tanto para sistemas en forma triangular como escalonada)

Xk es la primera incógnita de la k-ésima ecuación (la primera incógnita de cada ecuación


está a la derecha de la primera incógnita de la ecuación anterior)
Triangular: El número de ecuaciones es igual al número de incógnitas. Tiene una única
solución
Escalonada: Ninguna ecuación es degenerada.
Existen dos casos:
1. Hay tantas ecuaciones como incógnitas. Una única solución
2. Hay menos ecuaciones que incógnitas. Infinitas soluciones (debido a
que se les puede asignar valores arbitrarios a las variables libres para
obtener las soluciones del sistema).
Martín Codas

Algoritmo de reducción (reducción por filas)


1. Intercambiar las ecuaciones de modo que X1 no tenga coeficiente nulo (a11 ≠ 0)
2. Utilizar el a11 como pivote para eliminar X1 de todas las ecuaciones excepto de la
primera (usando las operaciones elementales).
3. Examinar cada ecuación, si se obtiene alguna degenerada, verificar teorema 1.5.
Si se da el caso de que la ecuación degenerada tenga la forma:
( 0 x1 + 0 x2 +…+ 0 xn = b ) y b ≠ 0, el sistema no tiene solución. Se abandona el
algoritmo.
4. Repetir los pasos 1, 2 y 3 con el subsistema formado por todas las ecuaciones,
excluyendo la primera.
5. Continuar el proceso hasta que el sistema esté en forma escalonada. (obs.: tener
siempre en cuenta el paso 3).

Teorema 1.7: (ver págs. 14 y 15)


Cualquier sistema de ecuaciones lineales tiene:
Una única solución Si al escalonar el sistema se obtiene un sistema en forma
triangular
Infinitas soluciones Si en el proceso de escalonamiento alguna ecuación es
suprimida por ser múltiplo de otra (ya aparecen variables libres, por
tanto, arbitrarios valores para las mismas que dan lugar a las infinitas soluciones del
sistema)
Ninguna solución Ecuación degenerada con constante no nula
Sistemas incompatibles: Aquellos sin solución
Sistemas compatibles: Aquellos con una o más soluciones

Sistemas de ecuaciones lineales homogéneos


Sistemas homogéneos son aquellos en que todas las constantes son iguales a cero.
Del sistema (*), anulando todas sus constantes (b1 , b2, … , bm ) se obtiene el sistema
homogéneo asociado. a11 X1 + a12 X2 + a13 X3 + … + a1n Xn + = 0
a21 X1 + a22 X2 + a23 X3 + … + a2n Xn + = 0
.
.
.
am1 X1 + am2 X2 + am3 X3 +… + amn Xn + = 0
El sistema homogéneo siempre tiene una solución a saber, la n-pla nula 0=(0,0, … , 0)
llamada solución nula o trivial.
El sistema puede reducirse a uno homogéneo equivalente en forma escalonada; al
escalonarse el sistema, existen dos posibilidades:
a) Hay tantas ecuaciones como incógnitas → sólo tiene solución trivial
b) Hay más incógnitas que ecuaciones → infinitas soluciones (teorema 1.9, ver pág. 22)

Base para la solución general de un sistema homogéneo


Sea W la solución general de un sistema homogéneo y supongamos que la forma
escalonada del sistema tiene s variables libres. Sean u1, u2, … , un las soluciones
obtenidas haciendo una de las variables libres igual a uno (o a cualquier constante distinta
de cero) y anulando las otras. Entonces la dimensión de W es la cantidad de variables
libres s y u1, u2, … , un forman una base de W. (teorema 1.10, ver pág. 23)
Sistemas Inhomogéneos y sus sistemas homogéneos asociados
La solución general de un sistema inhomogéneo (U) está dada por la suma de una
solución particular del mismo (v) y la solución general del sistema homogéneo asociado
(W) al sistema dado. [ U = v + W ] (teorema 1.11, ver pág. 24)
La interpretación geométrica de este teorema es que si W es una recta que pasa por el
origen, U es una recta paralela a la misma. Análogamente, siempre que W sea un plano
que pasa por el origen, entonces U es un plano paralelo a W.
Capitulo II
Vectores en Rn y Cn. Vectores espaciales
Rn : n-espacio. Conjunto de todas las n-plas de números reales.
Sean los vectores u = (u1, u2, … , un) y v = (v1, v2, … , vn) :
a) Son iguales si tienen el mismo nro de componentes y si u1 = v1 ; u2 = v2 y un = vn, es
decir si todas las componentes correspondientes son iguales.
b) Se pueden escribir también como vectores columnas: U = u1 V= V1
u2 V2
. .
. .
. .
un Vn
Suma de vectores y producto por un escalar
Martín Codas

La suma de u y v, es el vector obtenido sumando las componentes correspondientes de


cada uno.
El producto de un número real k por el vector u, escrito ku, es el vector obtenido
multiplicando cada componente por k. El vector ku se llama múltiplo de u.
La suma de vectores con diferente número de componentes no está definida
Para vectores arbitrarios u, v, w є Rn y escalares arbitrarios k y k’ є R
(teorema 1.11, ver pág. 24)
0 ≡ (0, 0, … , 0)
Vector nulo o vector cero

i) (u+v)+w = u+(v+w) v) k(u + v) = ku + kv


ii) u+0 = u vi) ( k + k’ )u = ku + k’u
iii) u + (- u) = 0 vii) ( kk’ )u = k( k’u )
iv) u+v = v+u viii) 1u = u
Vectores y ecuaciones lineales
Considerando el sistema inhomogéneo: a11 X1 + a12 X2 + a13 X3 + … + a1n Xn + = b1
a21 X1 + a22 X2 + a23 X3 + … + a2n Xn + = b2
. .
.
am1 X1 + am2 X2 + am3 X3 +… + amn Xn + = bm

Este sistema es equivalente a la ecuación vectorial:

a11 a12 a1n b1


a21 a22 a2n b2
X1 . + X2 . + … + Xn . = .
. . . .
. . . .
am1 am2 amn bm
esto es, la ecuación vectorial:
X1 u1 + X2 u2 + … + Xn un = v
Combinaciones lineales
La expresión combinación lineal se refiere a suma de productos de un vector por un
escalar. Si el sistema anterior tiene una solución, se dice que v es una combinación lineal
de los vectores ui. Esta definición es válida tanto para vectores columna como para
vectores fila.
Martín Codas

Dependencia lineal
Consideremos el sistema homogéneo asociado al sistema anterior, este sistema es
equivalente a la ecuación: X1 u1 + X2 u2 + … + Xn un = 0
Si el sistema tiene una solución no nula, se dice que los vectores son linealmente
dependientes. Mientras que si el sistema tiene únicamente la solución, se dice que los
vectores son linealmente independientes

Producto escalar
El producto escalar o interno de u y v, denotado por u . v, es el escalar obtenido
multiplicando las componentes correspondientes de los vectores y sumando los productos
resultantes.
Se dice que los vectores u y v son ortogonales si su producto escalar es cero.
i) (u+v).w = u.w + v.w iii) u.v = v.u → conmutativo
ii) (ku) . v = k (u . v) iv) u . u ≥ 0, y u . u = 0 si y sólo si u = 0
→ n-espacio euclideo: Espacio Rn con las operaciones de suma vectorial, producto
por un escalar y producto interno.

Norma de un vector (módulo de un vector)


La norma (o longitud) de un vector u, escrito ║ u ║ se define como la raíz cuadrada no
negativa de u . u
Normalizar un vector: Hallar el vector unitario (versor) de u, definido como: û ≡ _u_
║u║
Teorema 2.3 (Cauchy-Schwarz): │u.v│ ≤║u║.║v║
Teorema 2.4 (Minkowski): ║ u + v ║ ≤ ║ u ║+ ║ v ║
(Desigualdad triangular)

Distancia. Ángulos. Proyecciones


d (u, v) ≡ ║ u – v ║ ≡ √ (u1 – v1)2 + (u2 – v2)2 + … + (un – vn)2

Usando la desigualdad Cauchy-Schwarz podemos definir el ángulo θ entre dos vectores


no nulos u, v en Rn según cos θ = u.v .
║u║║v║
Sean u y v ≠ 0 vectores en Rn. La proyección (vectorial) de u sobre v es el vector:
proy (u, v) = u . v . v
║ v ║2
Vectores localizados, hiperplanos y rectas en Rn
Cualquier par de puntos P=(ai) y Q=(bi) en Rn define el vector localizado o segmento
dirigido de P a Q, escrito PQ, esto es: v= Q – P = (b1 – a1; b2 – a2; … ; bn – an)
Un hiperplano H en Rn es el conjunto de puntos (X1, X2, … , Xn) que satisfacen una
ecuación lineal no degenerada a1 X1 + a2 X2 + a3 X3 + … + an Xn + = b
En particular, un hiperplano H en R2 es una recta, y un hiperplano H en R3 es un plano. El
vector normal a H es ortogonal a cualquier segmente dirigido que pertenezca a H.
Curvas en Rn
Una función continua F: D → Rn es una curva en Rn (siendo D un intervalo en la recta R).
La derivada de F (si existe) proporciona el vector tangente a la curva (velocidad) y la
normalización de V nos da el vector unitario tangente a la curva.
Vectores Espaciales. Notación ijk en R3
Conjunto ortonormal: i . j =0 ║ i ║= 1 siendo i el vector unitario en la direc. x
j . k =0 ║ j ║= 1 siendo j el vector unitario en la direc. y
i . k =0 ║ k ║= 1 siendo k el vector unitario en la direc. Z
Base canónica en Rn (1, 0, 0, … , 0) Cualquier vector u= (a, b, c)
(0, 1, 0, … , 0) en R3 puede expresarse en
. forma única como:
.
. u = ai + bj + cj
(0, 0, 0, … , n)
Martín Codas

Producto Vectorial
Siendo u = (a1i + a2j + a3k) y v = (b1i + b2j + b3k), el producto vectorial o producto externo
de u y v es un vector.
i j k
a2 a3 a1 a3 a1 a2
uxv= i - j + k = a1 a2 a3
b2 b3 b1 b3 b1 b2
b1 b2 b3
Sean u, v y w vectores en R3 : (teorema 2.5, ver pág. 58)
i) El vector w = u x v es ortogonal a u y a v
ii) El valor absoluto del producto triple representa el volumen del paralelepípedo
determinado por los tres vectores (siendo los tres vectores las dimensiones de la figura)
iii) El producto vectorial no cumple la propiedad conmutativa. ixj≠jxi
ixj=-(jxi)
Números complejos
La igualdad, suma y producto de números complejos se define como:
(a, b) = (c, d) si y sólo si a = c y b = d
(a, b) + (c, d) = (a + c, b + d)
(a, b)(c, d) = (ac – bd, ad + bc)
El número complejo (0, 1) denotado por i, tiene la propiedad:
i2 = ii = (0,1)(0,1) = (-1,0) = -1 o i = √ -1
El número complejo z = a + bi consta de dos partes: la real (a) y la imaginaria (bi). La
suma y el producto de dos números complejos puede obtenerse utilizando las
propiedades conmutativa y distributiva, además de i2 = -1
La conjugada de un número complejo se da como: ż = a + bi = a – bi
El valor absoluto de z, escrito │ z │, se define como la distancia de z al origen:
│ z │ = √ a2 + b2 = √ z ż
Obs.: El conjunto C de los números complejos, con las operaciones suma y producto, es
un cuerpo
El conjunto de los complejos incluye al conjunto de los reales

Vectores en Cn
El conjunto de todas las n-plas de números complejos, denotado por Cn, se llama n-
espacio complejo. La suma vectorial y el producto por un escalar en Cn :
Sean u = (z1, z2, … , zn) y v = (w1, w2, … , wn) ; [zi, wi, z є C]
(z1, z2, … , zn) + (w1, w2, … , wn) = (z1 + w1, z2 + w2, … , zn + wn)
Z(z1, z2, … , zn) = (Zz1, Zz2, … , Zzn)
El producto escalar o interno de u y v es:
u . v = z1.ŵ1 + z2.ŵ2 + … + zn.ŵn
Norma de u:
║ u ║ = √ u . u = √ z1.ż1 + z2.ż2 + … zn.żn = √ │z1│2 + │z2│2 + … + │zn│2
Martín Codas

Capitulo III
Matrices

Una matriz sobre un cuerpo K (o simplemente una matriz, si K a11 a12 … a1n
viene dado implícitamente) es una tabla ordenada de escalares aij a21 a22 ... a2n
Las m n-plas horizontales son las filas y las n m-plas verticales son .
.
las columnas. El tamaño o forma de la matriz está dada por m x n .
(nro de filas x nro de columnas) am1 am2 … amn
La igualdad de matrices m x n equivale a un sistema de mn igualdades, una por cada par
de componentes.
(Matrices iguales, mismo tamaño y elementos correspondientes coinciden)

Suma de matrices y producto por un escalar


Sean dos matrices A y B (con el mismo nro de filas y de columnas), la suma de ambas es
la matriz obtenida sumando las entradas correspondientes de cada una
El producto de un escalar k por la matriz A, escrito k . A o simplemente kA, es la matriz
obtenida multiplicando cada entrada de A por k
i) (A+B) + C = A + (B+C) v) k1(A + B) = k1A + k1B
ii) A+0 = A vi) (k1 + k2)A = k1A + k2A
iii) A + (-A) = 0 vii) (k1 + k2)A = k1(k2A)
iv) A+B=B+A viii) 1.A = A y 0A= 0

Producto de matrices
Si A=(aij) y B=(bij) son matrices tales que el número de columnas de A (m x p) coincide
con el número de filas de B (p x n); el producto de las mismas es la matriz C (m x n) cuya
entrada ij se obtiene multiplicando la fila i de A por la columna j de B [cij = Σ aik bkj]
i) (AB)C = A(BC) (ley asociativa)
ii) A(B + C) = AB + AC (ley distributiva por la izquierda)
iii) (B + C)A = BA + CA (ley distributiva por la derecha)
iv) k(AB) = (kA)B = A(kB) , si k es un escalar

Traspuesta de una matriz


La matriz traspuesta de A es AT y se obtiene intercambiando filas por columnas
A = (aij) de orden (m x n), entonces AT = (aij)T de orden (n x m)
La traspuesta de un vector fila es un vector columna y viceversa
i) (A + B)T = AT + BT iv) (AB)T = BTAT
ii) (AT)T = A la traspuesta de un producto es el producto de las
iii) (kA)T = kAT si k es un escalar traspuestas, pero en orden inverso

(1.7 Matrices, Cap. 1)


La primera entrada no nula en una fila R de una matriz A se llama entrada principal no
nula de R.
Matrices Escalonadas
i) Todas las filas nulas, si las hay, están en la parte inferior de la matriz
ii) Cada entrada principal no nula está a la derecha de la entrada principal no nula de la
fila precedente.
Matrices Canónicas por filas
Se dice que una matriz escalonada A se ha puesto en forma canónica por filas si:
i) Cada entrada principal no nula es 1
ii) Cada entrada principal no nula es la única entrada distinta de cero en su columna
Ejemplo: 0 1 3 0 0 4
0 0 0 1 0 -3
0 0 0 0 1 2
La matriz cero, 0, con cualquier número de filas y de columnas, es otro ejemplo de matriz
en forma canónica por filas. (Si toda entrada en una fila es 0, esta fila se denomina fila
nula; si todas las filas son nulas, la matriz es la matriz cero).
Martín Codas

Equivalencia por filas. Operaciones elementales entre filas.


A ~ B, es decir, la matriz A es equivalente por filas a la matriz B, si B puede obtenerse a
partir de A mediante una sucesión finita de operaciones (operaciones elementales):
[E1] Intercambiar las filas ( Ri ↔ Rj )
[E2] Multiplicar la Ri fila por un escalar no nulo ( k: k Ri → R i’ , k ≠ 0 )
[E3] Sustituir la Ri fila por ella misma más k veces la Rj fila
(k Ri + Rj ) → R i’
Reducir por filas, o simplemente reducir, significa transformar una matriz mediante
operaciones elementales entre filas.
Análogamente, como en el caso de las ecuaciones, para reducir una matriz a forma
escalonada o canónica por filas, se utilizan las operaciones elementales entre filas.
Cualquier matriz A es equivalente por filas a una única matriz en forma canónica por filas
(llamada la forma canónica por filas de A). │A│

Matrices y Sistemas de ecuaciones lineales


a11 X1 + a12 X2 + a13 X3 + … + a1n Xn + = b1 a11 a12 … a1n x1 b1
̃̃
a21 X1 + a22 X2 + a23 X3 + … + a2n Xn + = b2 a21 a22 … a2n x2 b2
. ̃ . . = .
. . . .
~
am1 X1 + am2 X2 + am3 X3 +… + amn Xn + = bm am1 am2 … amn xn bn
El sistema de m ecuaciones con n incógnitas es equivalente a la ecuación matricial, o
simplemente a AX = B
La matriz A=(aij) es la matriz de los coeficientes, X=(xij) es la columna de las incógnitas y
B=(bij) la columna de constantes. Se dice que son equivalentes ya que toda solución del
sistema de ecuaciones es solución de la ecuación matricial.
La matriz ampliada del sistema AX = B consiste en la matriz de coeficientes seguida de la
matriz de constantes
Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada.
Específicamente reduciéndola a la forma escalonada (lo que nos dice si el sistema es
compatible o no) y luego a su forma canónica por filas.
1. Cualquier operación elemental entre filas en la matriz ampliada del sistema es
equivalente a efectuar la operación en el sistema mismo
2. El sistema tiene solución si y sólo si la forma escalonada de la matriz ampliada no
tiene una fila de la forma (0, 0, … , b) con b ≠ 0
(ecuación degenerada sin solución del sistema)
Teorema 3.4: Toda combinación lineal de soluciones de un sistema de ecuaciones
lineales homogéneo AX = 0, es también una solución del sistema. (ver pág. 93)
Teorema 3.5: La solución general de un sistema inhomogéneo AX = B puede obtenerse
sumando el espacio solución W del sistema homogéneo AX = 0 (asociado) a una solución
particular V0 del sistema inhomogéneo. [V0 + W es la solución de AX=B]
Matrices por bloques
Utilizando un sistema de líneas (discontinuas) horizontales y verticales podemos partir
una matriz A en otras más pequeñas llamadas bloques (o celdas) de A. La matriz A se
denomina entonces una matriz por bloques. Las operaciones entre matrices por bloques
puede obtenerse como si realmente fueran los elementos de las matrices.
Martín Codas

Capitulo IV
Matrices cuadradas. Matrices elementales

Matrices cuadradas
Una matriz cuadrada es la que tiene el mismo número de filas que de columnas.
Matrices cuadradas como funciones
A (matriz cuadrada) puede verse como una función A: Rn → Rn de dos formas:
1. A(u) = Au, donde u es un vector columna
2. A(u) = Au, donde u es un vector fila
Algebra de matrices: Matrices cerradas respecto a la suma, al producto por un escalar, y
al producto de matrices.

Matrices que conmutan


Se dice que las matrices A y B conmutan si AB = BA (condición sólo verificable para
matrices cuadradas del mismo orden)

Diagonal y traza. Matriz identidad


La diagonal (o diagonal principal) de A consiste en los elementos a11, a22, … , ann
La traza de A, escrito tr A, es la suma de los elementos de la diagonal [ tr A ≡ Σ aii ]
La matriz n-cuadrada con unos en la diagonal y ceros en cualquier otra posición,
denotada por In¸ o simplemente I, se conoce como matriz identidad (o unidad).
La matriz identidad es además una matriz escalonada, una matriz canónica por filas y se
comporta como el escalar unidad debido a que: [ I A = A I = A ]
Para un escalar arbitrario k, la matriz kI, que contiene k en las posiciones diagonales y 0
en cualquier otro lugar, se denomina matriz escalar correspondiente al escalar k.

Matrices invertibles o no singulares


Es la matriz n-cuadrada tal que A.B= I en donde B es la inversa de A o sea, B=A-1 y
además A es la inversa de B
Para obtener la inversa de una matriz 2x2:
i) se intercambian los elementos de la diagonal principal, ii) se toman los opuestos de los
demás elementos, iii) se multiplica la matriz por 1/│A│
Observaciones:
* La inversa de una matriz es única
* Existe una relación simétrica entre una matriz y su inversa
* Matriz singular, aquella que no tiene inversa
* Una matriz A n-cuadrada es invertible si y sólo si │A│ ≠ 0
* El producto de una n-pla de matrices invertibles también lo es, pero en orden inverso
(A1A2 … Ak)-1 = ( Ak-1 … A2-1 A1-1 )

Potencias de matrices
Representan las matrices n-cuadradas multiplicadas por sí mismas, tales que:
A2=AA An+1=AnA A0=I
Idempotente nilpotente
Martín Codas

Polinomio de matrices
Sea el polinomio en x: f(x) = a0 + a1x + a2x2 + … + anxn
y A una matriz n-cuadrada; el polinomio f(A) = a0 I + a1 A + a2 A2 + … + an An
En el caso de que f(A) sea la matriz cero, A recibe el nombre de cero o raíz del polinomio
f(x) f(A)=0 entonces, A= raíz de f(x)
Sean f(x) y g(x) dos polinomios y A una matriz n-cuadrada (todos sobre K). Se cumple:
i) (f + g)(A) = f(A) + g(A)
(teorema 4.2, ver
pág. 109)
ii) (fg)(A) = f(A)g(A)
iii) f(A)g(A) = g(A)f(A) dos polinomios cualesquiera en A conmutan
Obs.: La aplicación de los polinomios sobre K en el álgebra Mn de las matrices n-
cuadradas definida por [ f(x) → f(A) ] se llama aplicación de la evaluación en A

Matriz como función


Es la matriz escrita en función a un vector f(x) arbitrario, se puede expresar de la siguiente
manera [ Au = 0 ] donde u es el vector columna (de elementos x e y)

Matrices Diagonales
Una matriz cuadrada es diagonal si todas sus entradas no diagonales son nulas. Todas
las matrices diagonales nxn forman un álgebra conmutativa de matrices

Matrices Triangulares (o matriz triangular superior)


Es la matriz n-cuadrada cuyos elementos por debajo de la diagonal son nulos y además,
se definen el álgebra de matrices triangulares.
Siendo A=(aij) y B=(bij) son matrices triangulares superiores, se cumple: (teorema 4.2, ver
pág. 109)
i) Tanto la suma, el producto por un escalar y el producto de matrices da lugar a una
matriz también triangular superior
[A+B=C] [ kA = D ] [ AB = F ] siendo C, D y F matrices triangulares
ii) Para cualquier polinomio f(x), la matriz f(A) es triangular superior
iii) A es invertible si y sólo si cada elemento diagonal es distinto de cero [ aii ≠ 0 ]
Análogamente, una matriz diagonal inferior es una matriz n-cuadrada cuyas entradas
sobre la diagonal principal son todas nulas, y se cumplen las propiedades anteriores.

Matrices Simétricas y Antisimétricas


Simétrica: Es la matriz igual a su traspuesta [ A = AT ]
La matriz A es simétrica si los elementos simétricos (imágenes especulares respecto a la
diagonal) son iguales; es decir, si cada aij = aji
Antisimétrica: Es la matriz igual a su traspuesta, pero de signo contrario [ A = - AT ]
La matriz A es antisimétrica si cada aij = - aji.
Los elementos diagonales de una matriz antisimétrica deben ser nulos, ya que aij = - aji
implica aij = 0
Si A y B son simétricas, se cumple que también lo son las matrices resultantes de las
operaciones de suma (de matrices) y producto por un escalar, pero no necesariamente el
caso de producto de matrices. Por tanto, las matrices simétricas no forman un álgebra de
matrices.
Si A es una matriz cuadrada, entonces:
i) A + AT es simétrica
ii) A – AT es antisimétrica
iii) A = B + C para alguna matriz simétrica B y alguna antisimétrica C
Martín Codas

Matrices Ortogonales
Se dice que una matriz real A es ortogonal si [ AAT = ATA = I ]
Una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa: A-1=AT
En otras palabras, la matriz ortogonal es aquella que conmuta con su traspuesta y es
invertible.
Tanto las filas como las columnas de la matriz ortogonal son ortogonales entre sí
(presentan una independencia lineal) y tienen longitudes unidad; es decir, forman un
conjunto ortonormal de vectores.

Matrices Normales
Son las matrices n-cuadradas que conmutan con su traspuesta [ AAT = ATA ]
Si la matriz A es simétrica, ortogonal o antisimétrica, es necesariamente normal.
Teorema 4.7: Una matriz normal es simétrica o la suma de una matriz escalar y otra
antisimétrica.

Matrices Complejas
Matriz cuyas entradas son números complejos. La traspuesta de una matriz compleja (AH)
es aquella cuyos elementos son los conjugados correspondientes a los elementos de la
original.

Matriz hermítica, antihermítica, unitaria y normal


Hermítica: Es la traspuesta de la matriz compleja que resulta igual a la original, donde
cada elemento diagonal es real. [ AH = A ]
Antihermítica: Si la traspuesta de la matriz compleja resulta igual pero de signo contrario a
la original, donde cada elemento diagonal es nulo. [ AH = -A ]
Unitaria: Una matriz compleja A es unitaria si y sólo si sus filas (o columnas) forman un
conjunto ortonormal de vectores respecto al producto interno de vectores complejos.
(vectores linealmente independientes).
Normal: Una matriz compleja A es normal si [ AAH = AHA ] (se deduce a la definición de matrices reales
normales)
La conjugación y la transposición son conmutables: [ AH = -A ] antihermítica
[ AAH=AHA=I ] unitaria
AAH = AHA normal

Obs.: Hermítica es lo mismo que simétrica (en el caso de las matrices reales),
análogamente, unitaria es lo mismo que ortogonal.

Matrices cuadradas por bloques


Una matriz por bloques A es una matriz cuadrada por bloques si:
i) A es cuadrada,
ii) Los bloques forman una matriz cuadrada,
iii) Los bloques diagonales son también matrices cuadradas
(observación: las últimas condiciones se dan si y sólo si hay el mismo números de filas
que de columnas y están situadas simétricamente) (ver ejemplos pág. 116)
Matriz diagonal por bloques
Es una matriz cuadrada por bloques en la que todos los no diagonales son matrices cero.
Análogamente, una matriz cuadrada por bloques recibe el nombre de matriz triangular
superior por bloques si los bloques bajo la diagonal son matrices cero, y el de matriz
triangular inferior por bloques si lo son los bloques sobre la diagonal.

Cada una de las operaciones elementales entre filas tiene una operación inversa del
mismo tipo.
Intercambio de filas Ri → Rj Rj → Ri
Multiplicar una fila por un escalar kRi → Rj ’ (k -1)Ri → Rj ’
Sustituir una fila por ella misma más k veces otra fila kRi + Ri →Rj ’ -kRi + Ri → Rj ’
Martín Codas

Matriz Elemental
Es la matriz identidad a la que se le aplicó alguna/s operación/es [ E = e ( I ) ]
elemental/es
Esta matriz es la que se le aplica a cualquier matriz A para obtener [ E A ]
una matriz equivalente.
El producto de matrices elementales es no singular P= Ek .. E1
Una matriz es equivalente por filas a A si y sólo si existe una matriz no singular (invertible)
P tal que B = PA. Análogamente se puede tener la equivalencia por columnas. (teorema
4.12, ver pág. 118)
La matriz elemental correspondiente por columnas F es la traspuesta de la matriz
elemental por filas P . Ambas son no singulares (o invertibles)
De esto se tiene que efectuar la operación entre columnas f sobre una matriz A conduce
al mismo resultado que efectuar la operación entre filas correspondientes e sobre AT y
luego tomar la traspuesta. F(A) = [ e(AT ) ] T
Finalmente, matrices equivalentes son las que se obtienen aplicando sucesivamente
sobre ellas la matriz elemental por filas y la matriz elemental por columnas, esto es, P y Q
tales que B = PAQ.

Matrices simétricas congruentes. Ley de Inercia.


Congruencia: Es la relación de equivalencia entre las matrices A y B tal que B= PTAP,
siendo P la matriz no singular (elemental por filas) y A una matriz simétrica.
La relación de congruencia diagonaliza una forma simétrica (ver algoritmo de diagonalización,
pág. 122). Esto es:
[ BT = ( PTAP )T = PT AT PTT = PT AP = B ] así resulta que B también es simétrica.

Formas cuadráticas
Una forma cuadrática q en las variables x1, x2, …, xn es un polinomio
[ q(x1, x2, …, xn) = Σ cij xij ]
La forma cuadrática puede expresarse de modo único en la forma matricial
[ q(X) = XTAX ]
T
donde X = (x1, x2, …, xn ) y A = (aij) es una matriz simétrica. Esta matriz simétrica se
denomina la representación matricial de la forma cuadrática q. Aunque muchas matrices
conducirán a la misma forma cuadrática, sólo una de ellas es simétrica.
Las entradas diagonales de A son iguales al coeficiente de (xi)2 y las demás entradas
iguales a la mitad de los coeficientes xixj.
Cuando la forma cuadrática carece de términos cruzados (xixj – i≠j) adquiere la forma,
[ q(x1, x2, …, xn) = Σ c11 x12 + c22 x22 + … + cnn xn2 ]
en este caso se dice que la forma cuadrática está diagonalizada. La forma cuadrática se
puede diagonalizar por congruencia con lo que la matriz quedaría sin los coeficientes de
los términos cruzados. Una forma cuadrática está diagonalizada si y sólo si la matriz
simétrica asociada es diagonal.

Matriz de cambio de variables


Considerando un cambio de variables x1, x2, …, xn a y1, y2, …, yn por medio de una
sustitución lineal invertible, que puede expresarse como en la forma matricial [X=PY]
Siendo P la denominada matriz de cambio de variables, la misma es no singular, puesto
que la sustitución lineal es invertible (invertible: se puede despejar cada una de las
variables y de forma única en términos de las x).
La fórmula [Y=P -1X] expresa las variables y en términos de las x.

Diagonalización de una forma cuadrática (ver pàg. 126)

Similaridad
La similaridad como la congruencia es una relación de equivalencia, por consiguiente,
podemos decir que A y B son matrices similares cuando B = P-1 AP.
La matriz A representa una función f(Q)=AQ, la matriz P representa un cambio de
coordenadas en donde la función f(Q)=Pf(Q’) o sea f(Q’)=BQ’, y Q’ denota el vector
columna de las coordenadas de Q respecto al nuevo sistema de coordenadas.
Así se tiene que una matriz A es diagonalizable si existe una matriz no singular P tal que
B = P-1 AP es una matriz diagonal.

Factorización LU
Ver Algoritmo 4.14, triangularización de una matriz (pág. 129) y la aplicación a ecuaciones
lineales.
Martín Codas

Apéndice
Estructuras Algebraicas

Grupos (ver pág. 535)


Sea G un conjunto no vacío con una operación binaria, esto es, a cada par de elementos
a, b є G se le asigna un elemento ab є G. Entonces G se llama grupo si se cumple:
│G1│ Para todo a, b, c є G tenemos (ab)c = a(bc) ley asociativa
│G2│ Existe un elemento e є G, llamado elemento identidad, tal que ae = ea = a para
todo a є G.
│G3│ Para cada a є G existe un elemento a-1 є G, llamado inverso de a, tal que
aa-1 = a-1a = e
Se dice que un grupo G es abeliano (o también conmutativo) si cumple la ley conmutativa,
es decir: si ab = ba para todo a, b є G

Anillos, dominios de integridad, cuerpos. (ver pág. 538)

Anillos:
Sea R un conjunto no vacío ( R ≠ ø ) con dos operaciones binarias, una operación de
adición y otra de multiplicación. Entonces R se llama un anillo si cumple:
[R1] Para todo a, b, c є R tenemos (a+b)+c = a +( b+c) asociativa para la suma
[R2] Existe un elemento 0 є R, llamado el elemento cero, tal que a+0 = 0+a = a para
todo a є R. elemento identidad para la suma
[R3] Para cada a є R existe un elemento –a є R , llamado negativo de a, tal que
a+(-a) = (-a)+a = 0
[R4] Para todo a, b є R tenemos a + b = b + a conmutativa para la suma
[R5] Para todo a, b, c є R tenemos (ab)c = a(bc) asociativa para la multiplicación
[R6] Para todo a, b, c є R tenemos:
i) a(b+c) = ab + ac; ii) (b+c)a = ba + ca distributiva
Un anillo es un grupo abeliano para la adición. Así también, R es un anillo conmutativo si
ab = ba para todo a, b є R. Por otro lado, R es un anillo con elemento identidad si existe
un elemento diferente de cero 1 є R tal que a . 1 = 1. a = a para todo a є R.

Cuerpos:
Un anillo conmutativo R con elemento identidad se llama un cuerpo (o también un campo)
si todo a є R diferente de cero tiene un inverso multiplicativo, esto es, si existe un
elemento tal que a-1 є R tal que aa-1 = a-1a = 1
Un cuerpo puede considerarse como un anillo conmutativo en el cual los elementos
diferentes de cero forman un grupo para la multiplicación.

Dominios de integridad (ver pág. 539)

Conjuntos y relaciones

Operaciones entre conjuntos (ver pág. 530)

Leyes del álgebra de conjuntos (ver cuadro en pág. 531)


Martín Codas

Capitulo V
Espacios Vectoriales
La definición de espacio vectorial involucra un cuerpo arbitrario (K) cuyos elementos se
denominan escalares (a, b, c o k).
Dado un cuerpo K y un conjunto no vacío V, con reglas de suma y producto por un
escalar. Entonces V es un espacio vectorial sobre el cuerpo K si:
[A1] Para todo u, v, w є V se cumple (u+v)+w = u+(v+w)
[A2] Existe 0 (vector nulo) є V, tal que v+0 = 0+v = v
[A3] Para todo u є V, existe un único vector (-v) tal que v + (-v) = (-v) + v = 0
[A4] Para todo par u, v є V se cumple u+v=v+u
[M1] Para todo k є K y todo par u, v є V se cumple k(u + v) = ku + kv
[M2] Para todo par a, b є K y todo u є V (a+b) u = au + bu
[M3] Para todo par a, b є K y todo u є V (ab) u = a (bu)
[M4] Para todo v є V existe el escalar 1, tal que 1v= v1 = v
Observación: Los cuatros primeros axiomas pueden resumirse en que V es un grupo
conmutativo bajo la suma. Mientras que los cuatros restantes se refieren a la acción de K
sobre V. Teniendo en cuenta los últimos cuatro axiomas, se tiene:
Sea V un espacio vectorial sobre un cuerpo K (teorema 5.1, ver pág. 168)
i) Para todo escalar k є K y 0 є V, k0 = 0
ii) Para todo 0 є K y todo v є V, 0u = 0
iii) Si ku =0, donde k є K y u є V, entonces k = 0 o u = 0
iv) Para todo k є K y todo u є V, (-k)u = k(-u) = -ku

Ejemplos de espacios vectoriales. (ver pág. 169)


Espacio de matrices: Mm,n es un espacio vectorial sobre K respecto a las operaciones
usuales de suma matricial y producto por un escalar.
Espacio de Polinomios: P(t) es un espacio vectorial sobre K con respecto a las
operaciones usuales de suma de polinomios y el producto de un polinomio por una
constante.

Subespacio
Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un
subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las
operaciones de V, suma vectorial y producto por un escalar.
Corolario 5.3: W es un subespacio de V si y sólo si: (ver pág. 170)
i) 0 є W
ii) au + bv є W para todos los u, v є W y a, b є K

Ejemplos de subespacios. (ver pág. 170)


 El subconjunto de las matrices triangulares (superiores) y el de las matrices simétricas
son subespacios de V puesto que son no vacíos y cerrados bajo la suma de matrices y
el producto por un escalar.
 La intersección de cualquier número de subespacios de un espacio vectorial V es un
subespacio de V. (teorema 5.4, ver pág. 171)
 El conjunto solución W de un sistema homogéneo con n incógnitas AX=0 es un
subespacio de Kn. (teorema 5.5, ver pág. 171)
Obs.: El conjunto solución de un sistema inhomogéneo AX=B no es subespacio de Kn.
De hecho, el vector cero no pertenece a dicho conjunto solución.
Martín Codas

Combinación Lineal: Es la suma de productos de la forma: a1u1 +a2u2 + … +anun


en donde los ai є K y los ui є V.

Envolvente Lineal: Así se denomina al conjunto de todas las combinaciones lineales


semejantes, se escribe de la forma: lin(v1, v2, …, vn)
Teorema 5.6: Sea S un subconjunto de un espacio vectorial V
i) Entonces lin S es un subespacio de V que contiene a S (ver pág. 172)
ii) Si W es un subespacio de V que contiene a S, necesariamente linS está incluido en
W.

Conjunto Generador: El conjunto v1, v2, …, vn se denomina generador del espacio V si


para todo vector de V podemos escribir: V = a1v1 +a2v2 + … +anvn
Dependencia e Independencia Lineal
El conjunto u1 + u2 + … + un será linealmente dependiente si en la combinación lineal
a1u1 +a2u2 + … +anun = 0 algún ai ≠ 0
El conjunto u1 + u2 + … + un será linealmente independiente si en la combinación lineal
a1u1 +a2u2 + … +anun = 0 si todos los ai = 0
Observaciones:
 Si 0 (vector nulo) es uno de los vectores v1, v2, …, vn, los vectores son linealmente
dependientes
 Cualquier vector no nulo v es por sí solo linealmente independiente
 Dos vectores son linealmente dependientes si y sólo si uno de ellos es múltiplo del
otro
 Si un conjunto S de vectores es linealmente independiente, necesariamente lo es
cualquier subconjunto de de S. Alternativamente, si S contiene un subconjunto
linealmente dependiente, S es linealmente dependiente.
 En el espacio real R3, la dependencia lineal puede describirse geométricamente:
i) Dos vectores cualesquiera son linealmente dependientes si y sólo yacen en la
misma recta que pasa por el origen
ii) Tres vectores cualesquiera son linealmente dependientes si y sólo si yacen en el
mismo plano que pasa por el origen.

Espacio fila y Espacio columna de una matriz


Sea una matriz A sobre un cuerpo K arbitrario, las filas de la matriz pueden verse como
vectores en Kn y por tanto generan un subespacio de Kn llamado espacio fila de A y
denotado por f-lin A. Análogamente para las columnas.
Si se efectúan operaciones elementales entre filas (o columnas) sobre A, y obtenemos
una matriz B. En ese caso, cada fila de B es una fila de A o una combinación lineal de
filas de A, por lo que el espacio fila de B está contenido en el de A.

Teorema 5.7: Las matrices equivalentes por filas tienen el mismo espacio fila
Teorema 5.8: Dos matrices en forma canónica por filas tienen el mismo espacio fila si y
sólo si tienen las mismas filas no nulas
Teorema 5.9: Toda matriz es equivalente por filas a una única matriz en forma canónica
por filas (ver pág. 174)

Bases y Dimensión
Un conjunto S = { u1 + u2 + … + un } de vectores es una base de V si se verifica:
i) u1 + u2 + … + un son linealmente independientes
ii) u1 + u2 + … + un generan V
Teorema 5.12: Sea V un espacio vectorial de dimensión finita; todas las bases de V
tienen el mismo número de componentes. (ver pág. 178)
Martín Codas

Teorema 5.14: Sea V un espacio vectorial de dimensión finita n


i) n+1 o más vectores en V son linealmente dependientes
ii) Todo conjunto linealmente independiente S= {u1, u2, …, un}, con n elementos, es una
base de V.
iii) Todo conjunto generador T={v1, v2, …, vn} de V, con n elementos, es una base de V.

Teorema 5.15: Supongamos que S genera un espacio vectorial V.


i) Cualquier número máximo de vectores linealmente independientes en S es una base
de V.
ii) Si se suprime de S todo vector que sea combinación lineal de los precedentes, los
vectores que quedan constituyen una base en V.

Teorema 5.16: Sean V un espacio vectorial con dimensión finita y S= {u1, u2, …, un}, un
conjunto de vectores linealmente independientes en V. En ese caso, S es parte de una
base de V, es decir, S puede extenderse a una base de V.

Dimensión y Subespacios
Teorema 5.17: Sea W un subespacio de un espacio n-dimensional V. Entonces dimW ≤
n. Si, en particular, W = n, necesariamente W=V. (ver pág. 180, ejemplo 5.9)

Rango de una matriz


El espacio fila de una matriz A es el subespacio de Kn generado por sus filas y el espacio
columna de A es el subespacio de Km generado por sus columnas.
El rango por filas de una matriz es igual al número máximo de filas linealmente
independientes o, equivalentemente, a la dimensión del espacio fila. Análogamente para
el caso del rango por columnas.
Aunque f-lin A es un subespacio de Kn y c-lin A uno de Km, donde n y m no son
necesariamente iguales, se tiene que el rango de una matriz es único, es decir, el rango
por filas y por columnas son igual para cualquier matriz A. (teorem. 5.18 pág. 180)

Ecuaciones Lineales y Espacios Vectoriales


Considerando un sistema de m ecuaciones La ecuación matricial: AX=B
con n incógnitas sobre un cuerpo K: Se tiene que la matriz ampliada del
a11 X1 + a12 X2 + a13 X3 + … + a1n Xn + = b1 sistema es:
a21 X1 + a22 X2 + a23 X3 + … + a2n Xn + = b1 a11 a12 … a1n b1
.
. (A,B) = a21 a22 … a2n b1
. ………………………………………..
am1 X1 + am2 X2 + am3 X3 +… + amn Xn + = bm am1 am2 … amn bm
 Se dice que las ecuaciones lineales son dependientes o independientes según lo sean
los vectores correspondientes, esto es, las filas de la matriz ampliada.
 Dos sistemas de ecuaciones lineales son equivalentes si y sólo si las matrices
ampliadas correspondientes son equivalentes por filas, es decir, tienen el mismo
espacio fila.
Teorema 5.19: (pág. 182)
i) El sistema de ecuaciones lineales AX=B tiene alguna solución
ii) B es combinación lineal de las columnas de A
iii) La matriz de coeficientes A y la ampliada (A, B) tienen el mismo rango.

Teorema 5.20: La dimensión del espacio solución W del sistema AX=0 es ( n – r ) donde
n es el número de incógnitas y r el rango de la matriz de los coeficientes (A).

Algoritmos para hallar bases (ver pág. 183)


Martín Codas

Sumas y sumas directas


Teorema 5.21: La suma U + W de los subespacios U y W de V es también un subespacio
de V.
Teorema 5.22: Sean U y W subespacios de dimensión finita de un espacio vectorial V. En
ese caso, U + W tiene dimensión finita y está dado por:
[ dim (U + W) = dim U + dim W – dim (U ∩ W) ]

Sumas directas
Se dice que el espacio vectorial V es la suma directa de sus subespacios U y W,
denotado por [ V = U + W ] si todo vector v є V puede escribirse de una y sólo una forma
como [ v = u + w ], con u є U y v є V.
Teorema 5.23: El espacio vectorial V es la suma directa de sus subespacios U y W si y
sólo si: i) V= U + W
ii) U ∩ W = {0}

Teorema 5.24: Sea V= W1 + W2 + … + Wr. Además para cada i, supongamos que Si es un


subconjunto linealmente independiente de Wi. En tal caso,
a) La unión S = UiSi es linealmente independiente en V
b) Si Si es una base de Wi entonces S= UiSi es una base de V
c) dim V = dim W1 + dim W2 + … + dim W3

Coordenadas (de un vector)


Se definen como las n-pla de coeficientes que acompañan a la combinación lineal de todo
vector del espacio V con cualquier de las bases. Luego un mismo vector puede tener
diferentes coordenadas conforme se cambien las bases. Esto es:
v = a1u1 + a2u2 + … + anun es el vector v escrito como combinación lineal de la base S={ u1
+ u2 + … + un } , así las coordenadas del vector para la base S son:
[v]s= [a1, a2, …, an]

Isomorfismo entre V y Kn (ver pág. 188)


Cambio de Base
Supongamos que S={ u1 + u2 + … + un } es una base de un espacio vectorial V y que
S’={ v1 + v2 + … + vn } es otra. Por ser S base, cada vector de S’ puede escribirse de forma
única como combinación lineal de los elementos de S. Por ejemplo,
v1 = c11 u1 + c12 u2 + … + c1n un La matriz traspuesta P de los coeficientes es:
v2 = c11 u1 + c12 u2 + … + c1n un c11 C21 … cn1
.
. P= c12 C22 … cn2
. ………………………………..
v3 = c11 u1 + c12 u2 + … + c1n un c1n C2n … amn
La matriz cambio se define como la matriz P cuyos elementos son las coordenadas de los
vectores de la nueva base S’ relativas a la base original S
La matriz P es no singular y es necesaria para obtener las nuevas coordenadas de un
vector cualquiera.
A pesar de llamarse P la matriz de cambio de base desde la antigua base S hasta la
nueva S’, es P-1 la que transforma las coordenadas de v relativas a S en las coordenadas
de v relativas a S’.

Teorema 5.27: Sea P la matriz de cambio de base desde una base S hasta otra S’ en un
espacio vectorial V. En ese caso, para todo vector v є V, tenemos:
P[v]s’ = [v] s y, por consiguiente, P-1[v]s = [v] s’