Escolar Documentos
Profissional Documentos
Cultura Documentos
18 MATEMÁTICAS
Matrices.
Álgebra de matrices.
Aplicaciones al campo de las ciencias
sociales y de la naturaleza.
24-13810-13
Temario 1993
tema 18
matemáticas
1. Matrices
1.1. Concepto de matriz
2. Álgebra de matrices
2.1. El espacio vectorial de las matrices (m × n)
3
tema 18
matemáticas
INTRODUCCIÓN
Son numerosos los contextos en los que se puede aplicar el álgebra de matrices: geometría,
física, estadística, economía entre otros y sobre todo en la informática y la tecnología pues‑
to que la utilización matrices constituye hoy en día una parte esencial de los lenguajes de
programación, hojas de cálculo, tratamiento de imágenes, reconocimiento de voz, etc. Esto
nos muestra la importancia del presente tema, sobre todo en lo referente a las aplicaciones
del álgebra de matrices.
El tema se inicia con la definición del concepto matriz, así como el análisis de tipos parti‑
culares de matrices. El rango o la inversa de una matriz son conceptos clave, así como las
operaciones básicas entre matrices.
Antes de entrar en materia realizar un breve acercamiento hacia la historia. Es a media‑
dos del siglo XIX cuando Sylvester (1814‑1897) introduce por primera vez el término de
matriz para referirse a un cuadro rectangular de números. El desarrollo inicial de la teoría
de matrices se debe a Hamilton (1805‑1865), y es Cayley (1821‑1895) quien introduce la
notación matricial como una forma abreviada de escribir un sistema lineal de m ecuaciones
con n incógnitas.
5
tema 18
matemáticas
1 Matrices
a a ... a
11 12 1n
6
tema 18
matemáticas
Una matriz 1 × n se llama matriz fila, y una matriz m × 1 se llama matriz columna.
Una matriz que tiene igual número de filas que de columnas, m = n, se dice cuadra-
da de orden n y al conjunto de todas ellas se le representa simplemente por Mn (K).
Si m ≠ n, es decir, tiene distinto número de filas que de columnas, la matriz de dice
rectangular.
Una matriz con todos sus elementos iguales a 0 se llama matriz nula y se denota
por 0mxn o simplemente 0 cuando se sobreentienden sus dimensiones.
Una matriz se llama escalonada cuando el primer elemento no cero en cada fila
está más a la derecha que el de la fila anterior.
Sea A = (aij)∈ Mmxn (K). Se llama matriz opuesta de A, y se representa por –A,
a la matriz que resulta de sustituir cada elemento de A por su opuesto, es decir,
–A = (–aij).
Se llama matriz traspuesta de A, y se representa por At, a la matriz que se obtiene
intercambiando ordenadamente las filas por columnas, es decir, At = (aji) ∈ Mmxn (K).
Se cumple:
(At)t = A – (–A) = A (–A)t = – (At)
Sea A ∈ Mn (K) una matriz cuadrada de orden n, A = (aij), se llama diagonal
principal de una matriz A a la sucesión formada por los elementos aii, es decir,
a11, a22, ... , ann. Asimismo, se llama diagonal secundaria de A a la sucesión de
elementos aij tales que i + j = 1 + n. Diremos que A es una triangular superior
si tiene nulos los elementos situados por debajo de la diagonal principal, esto es,
aij = 0 ∀ i > j. Se llama triangular inferior si son nulos los elementos situados
por encima de la diagonal principal, esto es, aij = 0 ∀ i < j. Una matriz se dice dia-
gonal si son nulos los elementos situados fuera de la diagonal principal, esto es,
aij = 0 ∀ i ≠ j.
Presentan, pues, la siguiente escritura:
7
tema 18
matemáticas
Una matriz diagonal con todos los elementos de la diagonal principal iguales entre
sí recibe el nombre de matriz escalar; si además aii = 1 ∀ i dicha matriz se le
llama matriz unidad o identidad y se representa por In.o simplemente I cuando
se sobreentiende su dimensión.
Una matriz cuadrada se llama simétrica si coincide con su traspuesta, y se llama
antisimétrica si su traspuesta coincide con su opuesta.
XX Subdivisión en cajas
Dada una matriz A de tipo m × n, sean i1, ..., ip índices de fila, y j1, ..., jq índices de
columna. Entonces, la matriz p × q cuyas filas son:
(a¡j, aij2, ... aij ); i = i1, ..., ip
q
A1 ← matriz fila
A2 ← matriz fila
A= . ↓
( A1 , ..., An )
. ↓
A
m matriz columna
8
tema 18
matemáticas
Ejemplo:
a b c d e f g
a′ b′ c′ e′ f ′ g ′
Descomposición en cajas
d′
A A A
A = a ′′ b ′′ c ′′ d ′′ e ′′ f ′′ g ′′ = 11 12 13
A21 A22 A23
α β γ δ ε ξ η
α′ β ′ γ ′ δ′ ε′ ξ′ η′
a ′′ b ′′ c ′′ 0
0 0 0 δ 0 0 0 Suma directa o diagonal de las Aii
A22
0 0 0 0 ε′ ξ′ η′
A33
9
tema 18
matemáticas
2 Álgebra de matrices
XX Teorema
0 0 ...... 0
0 0 ...... 0
.
.
0 0 ...... 0
m×n
10
tema 18
matemáticas
XX Teorema
A= ∑∑a
i =1 j =1
ij εij
11
tema 18
matemáticas
XX Teorema
Vamos ahora a definir una nueva ley de composición que, en ciertos casos, permi‑
te asociar a dos matrices A y B una tercera matriz C, llamada producto, y represen‑
tada por la notación habitual C = A · B.
Esta operación no va a ser en general conmutativa, pero es asociativa y distributiva
a la derecha y a la izquierda con respecto a la suma, lo que justifica el nombre de
producto.
Definición
El producto de una matriz A de tipo m × n por una matriz B de tipo n × p
12
tema 18
matemáticas
cik = ∑a
j =1
ij ⋅ b jk = ai1 b1k +ai 2 b2 k + ... + ain bnk siendo i = 1, ... m , k = 1, ... p
Ejemplo:
1 0 3 2 1 3 2 1
⋅
=
−2 − 1 0 1 2 −6 − 5 − 4
2×2 2×3 2×3
Notemos que (A, B) → A · B no es una operación binaria en el conjunto total de las
matrices. Para que exista A · B es necesario y suficiente que el número de colum‑
nas de A sea igual al número de filas de B.
Veamos ahora algunas propiedades de la multiplicación de matrices.
XX Teorema 1
∑ a ⋅ (b
j =1
ij jk + c jk )
∑ a
j =1
ij ⋅ b jk + ∑a
j =1
ij ⋅ c jk = ∑ (a
j =1
ij ) ∑ a ⋅ (b
⋅ b jk + aij ⋅ c jk =
j =1
ij jk + c jk )
13
tema 18
matemáticas
XX Teorema 2
Sean A = aij ( ) , ( )
B = b jk
↓ ↓
m×n n× p
n n n
A ⋅ (t ⋅ B) =
ik ∑ a ⋅ (t ⋅ b ) = ∑ t ⋅ (a
j =1
ij jk
j =1
ij )
⋅ b jk = t ⋅ ∑a
j =1
ij ⋅ b jk = t ⋅ ( AB )ik
XX Teorema 3
( A ⋅ B)ik = ∑
j =1
aij ⋅ b jk ⇒ ( A ⋅ B) ⋅ C il = ∑∑ k =1
j =1
aij ⋅ b jk ⋅ ckl =
∑∑a
k =1 j =1
ij ⋅ b jk ⋅ ckl
p n p
n p
( B ⋅ C ) jl = ∑b
k =1
jk ⋅ ckl ⇒ A ⋅ ( B ⋅ C ) il = ∑
j =1
aij ⋅
∑k =1
b jk ⋅ ckl =
∑∑a
j =1 k =1
ij ⋅ b jk ⋅ ckl =
= ( A ⋅ B) ⋅ C il
14
tema 18
matemáticas
No conmutatividad
En general, no cabe hablar de conmutatividad en el producto de matrices, ya que
si A es una matriz m × n, y B una matriz n × p, existe el producto A · B, y es una
matriz m × p; mientras que el producto B · A es sólo posible cuando m = p, pero
aún en este caso A · B es cuadrada de orden m, y B · A es cuadrada de orden n.
Obsérvese que si fuese conmutativa y considerando:
Luego B: (n × m)
Pero:
Así pues, no se obtienen dos productos de igual dimensión más que multipli‑
cando matrices cuadradas del mismo orden, pero aún en este caso, en general,
A · B ≠ B · A, en razón de los distintos papeles que desempeñan las filas y
las columnas en la multiplicación.
Así, por ejemplo:
1 0 0 1 0 1
⋅ =
1 1 0 0 0 1
0 1 1 0 1 1
⋅ =
0 0 1 1 0 0
XX Teorema 4
15
tema 18
matemáticas
Entonces,
n
( A ⋅ B )t = ( A ⋅ B ) =
ki ik ∑a j =1
ij ⋅ b jk
XX Teorema
1 0 ... 0
0 1 ... 0
I n = ...............
0 0 ... 1
1 1 1 2 1 1 1 1 1 2 1 3
0 0 = 0 1 ⋅ 0 0 ≠ 0 0 ⋅ 0 1 = 0 0
Si dos matrices son tales que A · B = B · A se dice que conmutan o que son
permutables, o que verifican la propiedad conmutativa.
16
tema 18
matemáticas
2 4 0 2 0 0
−1 − 2 0 − 1 = 0 0
En síntesis:
(Mn, +, ·) representa el anillo de las matrices cuadradas, que tiene elemento
unidad In, no verifica la propiedad conmutativa y posee divisores de cero.
Además, resumiendo todas las propiedades de la suma de matrices, producto de
matrices y multiplicación por un número, podemos decir que
(Mn, +, ×, ·) es un álgebra (álgebra de las matrices cuadradas de orden n).
Observación: en la notación de la estructura de álgebra, el signo × denota el pro‑
ducto de matrices.
Definición
Llamaremos potencia de una matriz A ∈ Mn al producto reiterado de A por sí mis-
ma hasta un número de factores igual al exponente, k, y lo escribiremos Ak.
Relacionados con el concepto de potencia aparecen algunos tipos de matrices:
Se dice que A es idempotente cuando A2 = A.
Se dice que A es involutiva cuando A2 = I.
Se dice que A es nilpotente de orden k cuando Ak = 0.
17
tema 18
matemáticas
Proposición:
Si A y B son dos matrices inversibles, su producto es también una matriz inversi‑
ble, y, además, su matriz inversa (A · B)–1 = B–1 · A–1.
Demostración:
Basta ver que:
(A · B) · (B–1 · A–1) = (B–1 · A–1) · (A · B) = In
En efecto, basándonos en la propiedad asociativa del producto de matrices:
(A · B) · (B–1 · A–1) = A · [B · (B–1 · A–1)] = A · [(B · B–1) · A–1] = A · (In · A–1) = A · A–1 = In
Análogamente se prueba que (B–1 · A–1) (A · B) = In
Proposición:
Si A es una matriz inversible entonces At es inversible y además
(At)–1 = (A–1)t
Definición
Dos matrices A y B de tipo (m, n) se dicen equivalentes si existen las matrices
inversibles P: (m, m) y Q: (n, n), tales que:
B=P·A·Q
Se dice que el rango de una matriz A ∈ Mmxn es r ≤ min {m, n} si ésta es equiva‑
lente a una matriz suma directa de Ir y 0m-r,n-r
Se cumple que:
La equivalencia de matrices es una relación de equivalencia
Dos matrices equivalentes tienen la misma dimensión
Dos matrices equivalentes tienen el mismo rango
Dos matrices son equivalentes si y sólo si tienen igual rango y dimensión
Esta definición de rango se ha dado siguiendo una coherencia de los conceptos
elementales introducidos a lo largo del tema, que de otra manera implicaría hablar
de dependencia e independencia lineal de vectores, de rango por filas y rango por
columnas, y además probar que estos son iguales.
18
tema 18
matemáticas
I (ei ) = ∑a u
j =1
ij j , ∀i = 1, ..., n.
19
tema 18
matemáticas
yj = ∑x a
i =1
i ij , ∀j = 1, ... p.
.....................
I (x) x
a a ... a
n1 n 2 np
..................... .............................................................
a a ... a
n1 n 2 np
{
→ coordenadas de I (en ) u1 , u2 , ..., u p }
M (I) se denomina matriz asociada a la aplicación lineal I.
Una de las principales utilidades del álgebra matricial dentro de todas las ciencias
está en la posibilidad de poder representar, estudiar y resolver sistemas de ecua‑
ciones lineales con ayuda de nociones como rango de una matriz, matriz inversa
y determinante.
20
tema 18
matemáticas
a11 x1 a1n xn = c1
a x a x = c
m1 1 mn n m
a11 a1n x1 c1
⋅ =
a
m1 amn xn cm
Dentro del análisis, y por tanto en una amplia gama de problemas físicos,
de ingeniería, etc., aparecen las matrices para estudiar las funciones de varias va‑
riables y determinar sus máximos y mínimos. En efecto, si tenemos una función f:
Rn → Rm, se define su derivada por medio de una matriz m × n llamada jacobiana
y cuyos elementos son aij = Dj f¡ (x) (derivada de la componente i-ésima respecto
a la variable j-ésima, i = 1, ... m, j = 1, ...n), por ejemplo:
Sea f: R2 → R3, definida como f(x, y) = (2x + y, 5y, 2xy) sus componentes son:
f1 (x, y) = 2x + y f2 (x, y) = 5y f3 (x, y) = 2xy
y su matriz jacobiana será:
1 D1 f1 ( x ) D2 f1 ( x )
2
f ′ ( x, y ) = 0 5 = D1 f 2 ( x ) D2 f 2 ( x )
2 y 2 x D f ( x ) D2 f 3 ( x )
1 3
21
tema 18
matemáticas
0 1 0 1
f ′ (u, v ) = 2u 0 y como g (1, −2) = (−2, 2), entonces f ′ (−2, 2) = −4 0
1 − 1 1 − 1
y así,
0 1 0 − 4
−2 1
( f g ) ′ (1, −2) = f ′ (−2, 2) ⋅ g ′ (1, −2) = −4 0 ⋅ 0 − 4 = 8 − 4
1 − 1 −2 5
x ′ 1 0 0 x a
y ′ = 0 1 0 ⋅ y + b
z ′ 0 0 1 z c
Ecuación del giro de ángulo α y eje Z:
x ′ cosα −senα 0 x
y ′ = sen α − cosα 0 ⋅ y
z ′ 0 0 0 z
22
tema 18
matemáticas
También se pueden estudiar de forma matricial las simetrías axiales, centrales, con
deslizamiento, etc.
Siguiendo con la geometría, las matrices se utilizan también para estudiar los
planos y rectas, y sus posiciones relativas. Por último, señalar la importancia del
cálculo de matrices al trabajar con cónicas, que son pieza clave en el estudio del
movimiento de los planetas y en toda la astronomía. Por ejemplo:
x2 y2
Ecuación matricial de la elipse + − 1 = 0:
a2 b2
−1 0 0 1
(1 × y) ⋅ 0 1/a 2 0 ⋅ x = 0
0 0 1/b 2 y
Igualmente se estudian las cuádricas por medio de matrices.
Una matriz real cuadrada P = (pij) ∈ Mn () se llama estocástica si pij ≥ 0 ∀(i, j) y
los elementos de cada una de sus filas suman 1:
n
∑p
j =1
ij = 1, i = 1, n
Ejemplo:
0 1 0
1 1 1
2 6 3
1 2
0
3 3
23
tema 18
matemáticas
( ) (
P X t +1 = E j X t = Ei , X t −1 = Eit −1 , , X 0 = Ei0 = P X t +1 = E j X t = Ei )
para todos los instantes t, todos los estados Ei, Ej y todas las posibles sucesiones
de estados previos Ei , ..., Eit–1. Esta propiedad es la formulación de una idea muy
0
sencilla que viene a decirnos que en las cadenas de Markov la evolución al si‑
guiente estado sólo depende del estado actual, no de los estados por los que ha pa‑
sado anteriormente. Esta dependencia es la que distingue a las cadenas de Markov
de las series de sucesos independientes como tirar una moneda al aire.
Al valor:
(
pij (t ) = P X t = E j X t −1 = Ei )
que es la probabilidad de que en el instante t la cadena esté en el estado Ej dado
que haya pasado por el estado Ei en el instante t-1 se le llama probabilidad de
transición de moverse del estado Ei al Ej en el instante t. Resulta entonces que, la
matriz de las probabilidades de transición en el instante t:
P(t)=(pij(t))
es una matriz estocástica, para todo t.
Recíprocamente, si P = (pij) es una matriz estocástica los elementos pij definen un
conjunto de probabilidades de transición de una cadena de Markov estacionaria
con n estados.
Se cumple que:
El producto de dos matrices estocásticas es una matriz estocástica.
Toda potencia de una matriz estocástica es una matriz estocástica.
Hemos visto así la aplicación de matrices en procesos estocásticos que responden
a fenómenos aleatorios que evolucionan, generalmente, con el tiempo.
24
tema 18
matemáticas
Por ejemplo:
Supongamos dos empresas A y B de electrodomésticos en un mismo centro
comercial. Cuando llega la época de rebajas ambas empresas acostumbran a
realizar inversiones altas en publicidad que suelen implicar la pérdida de todo
el beneficio. Este año se han puesto de acuerdo y han decidido no hacer publi‑
cidad por lo que cada una si cumple el acuerdo puede obtener unos beneficios
de 12000 €. Sin embargo una de ellas puede preparar en secreto una campaña
publicitaria y lanzarla en el último momento con lo que conseguiría atraer a
todos los consumidores. Sus beneficios en ese caso serían de 18000€ mientras
que la empresa competidora perdería 6000 €.
La matriz de pagos de esta competencia publicitaria sería:
A→
Piedra Papel Tijera
B↓
Piedra 0, 0 – 5, 5 5, – 5
Papel 5, – 5 0, 0 – 5, 5
Tijera – 5, 5 5, – 5 0, 0
25
tema 18
matemáticas
Una agencia de viajes tiene tres sucursales S1, S2 y S3. En dichas sucursales quedan
billetes de cuatro tipos B1, B2, B3 y B4.
Las existencias se indican en esta matriz (aij = billetes del tipo B, que quedan en
la sucursal Sj):
5 7 3
0 2 5
E=
1 3 2
10 3 1
5 7 3
0 2 5
(14 5 8 3) 1 3 2 = (108 141 86)
⋅
10 3 1
26
tema 18
matemáticas
BIBLIOGRAFÍA
GODEMENT, R.: Álgebra. Ed. Tecnos, 1983.
GÓMEZ BERROCAL, F. J. Y OTROS: Introducción a las Matemáticas para las Ciencias Sociales.
Ed. Agora, 1990.
GUZMÁN DE, M.: Matemáticas en el mundo moderno. Ed. Blume, 1974.
JIMÉNEZ GUERRAS, P.: Álgebra I. U.N.E.D. Madrid, 1982.
KLIME, M.: El pensamiento matemático de la antigüedad a nuestros días, II. Alianza Editorial.
Madrid, 1992.
MARTÍNEZ MEDIANO, J. Y OTROS: Matemática II. COU. MacGraw-Hill. Madrid, 1993.
MARTÍNEZ SALAS, J.: Elementos de Matemáticas. Ed. Lex Nova, 1995.
MUÑOZ CIUDAD, E.: Introducción a la economía aplicada. Diego Marín Librero Editor, 1997.
27
tema 18
matemáticas
RESUMEN
MATRICES.
ÁLGEBRA DE MATRICES.
APLICACIONES AL CAMPO DE LAS CIENCIAS SOCIALES Y DE LA
NATURALEZA.
1.
1 Matrices
2.
2 Álgebra de matrices
29
tema 18
matemáticas
3.
3 Aplicaciones al campo de las ciencias sociales y de la
naturaleza
30