Você está na página 1de 30

tema

18 MATEMÁTICAS

Matrices.
Álgebra de matrices.
Aplicaciones al campo de las ciencias
sociales y de la naturaleza.
24-13810-13

Temario 1993
tema 18

matemáticas

1. Matrices
1.1. Concepto de matriz

1.2. Tipos de matrices

2. Álgebra de matrices
2.1. El espacio vectorial de las matrices (m × n)

2.2. Producto de matrices: propiedades

2.3. Anillo de las matrices cuadradas de orden n

2.4. Matriz inversible

3. Aplicaciones al campo de las ciencias sociales y de la naturaleza


3.1. Matriz asociada a una aplicación lineal

3.2. Matriz asociada a un sistema de ecuaciones lineales

3.3. Aplicación en el cálculo de varias variables

3.4. Aplicación en la geometría

3.5. Aplicación en la estadística

3.6. Aplicación en la Teoría de la Probabilidad

3.7. Aplicación en la economía

3.8. Aplicación en contabilidad

3
tema 18

matemáticas

INTRODUCCIÓN

Son numerosos los contextos en los que se puede aplicar el álgebra de matrices: geometría,
física, estadística, economía entre otros y sobre todo en la informática y la tecnología pues‑
to que la utilización matrices constituye hoy en día una parte esencial de los lenguajes de
programación, hojas de cálculo, tratamiento de imágenes, reconocimiento de voz, etc. Esto
nos muestra la importancia del presente tema, sobre todo en lo referente a las aplicaciones
del álgebra de matrices.
El tema se inicia con la definición del concepto matriz, así como el análisis de tipos parti‑
culares de matrices. El rango o la inversa de una matriz son conceptos clave, así como las
operaciones básicas entre matrices.
Antes de entrar en materia realizar un breve acercamiento hacia la historia. Es a media‑
dos del siglo XIX cuando Sylvester (1814‑1897) introduce por primera vez el término de
matriz para referirse a un cuadro rectangular de números. El desarrollo inicial de la teoría
de matrices se debe a Hamilton (1805‑1865), y es Cayley (1821‑1895) quien introduce la
notación matricial como una forma abreviada de escribir un sistema lineal de m ecuaciones
con n incógnitas.

5
tema 18

matemáticas

1 Matrices

1.1. Concepto de matriz

Sean I, J, K tres conjuntos; se llama matriz de tipo (I, J) con elementos


en un cuerpo K, o matriz de tipo (I, J) sobre K, a toda familia A = (aij)(i, j) ∈ I × J
de elementos de K en los que el conjunto de índices es el conjunto 1 × J.
Para todo i ∈ I, la familia (aij)j ∈ J es llamada la fila de índice i de A; para todo j ∈ J,
la familia (aij)i ∈ I se llama la columna de índice j de A.
Si I, respectivamente J, es finito, se dice que A es una matriz, teniendo un número
finito de filas, respectivamente de columnas.
Las denominaciones de «filas» y de «columnas» proviene de que en el caso en el
que I y J sean los intervalos cerrados [1, m], [1, n] de N se consideran los elemen‑
tos de la matriz dispuestos en un cuadro rectangular, teniendo m-filas (dispuestas
horizontalmente) y n-columnas (alineadas verticalmente):

 a a ... a 
 
11 12 1n

 a21 a22 ... a2 n 


A= 
..................... 
 ....................
 
 am1 am 2 ... amn 
  (1)
De esta forma, en lugar de una matriz de tipo ([1, m], [1, n]) se dirá de tipo (m, n)
o de orden m × n o matriz de m filas y n columnas. Al conjunto de matrices
de orden m × n sobre el cuerpo K se le denota Mmxn (K).
Para abreviar escritura, en algunos casos representaremos las matrices por la no‑
tación ya mencionada en un principio A = (aij), i = 1, 2, ..., m; j = 1, 2,..., n;
(el primer índice indica las filas y el segundo las columnas), en lugar de la notación
(1). El símbolo aij representa el elemento que ocupa la fila i-ésima y la columna
j-ésima de la matriz A y recibe el nombre de elemento (i, j) de A.
Dos matrices se dicen iguales cuando son del mismo orden y tienen iguales todos
los elementos que ocupan la misma posición, es decir, si A, B ∈ Mmxn (K)
A = B ⇔ aij = bij ∀(i, j)

6
tema 18

matemáticas

1.2. Tipos de matrices

Una matriz 1 × n se llama matriz fila, y una matriz m × 1 se llama matriz columna.

( ai1 ai 2 ai 3 ... ain ) a 


1j
 
matriz fila  a2 j 
 . 
 . 
 .. 
 
 amj 
maatriz columna

Una matriz que tiene igual número de filas que de columnas, m = n, se dice cuadra-
da de orden n y al conjunto de todas ellas se le representa simplemente por Mn (K).
Si m ≠ n, es decir, tiene distinto número de filas que de columnas, la matriz de dice
rectangular.
Una matriz con todos sus elementos iguales a 0 se llama matriz nula y se denota
por 0mxn o simplemente 0 cuando se sobreentienden sus dimensiones.
Una matriz se llama escalonada cuando el primer elemento no cero en cada fila
está más a la derecha que el de la fila anterior.
Sea A = (aij)∈ Mmxn (K). Se llama matriz opuesta de A, y se representa por –A,
a la matriz que resulta de sustituir cada elemento de A por su opuesto, es decir,
–A = (–aij).
Se llama matriz traspuesta de A, y se representa por At, a la matriz que se obtiene
intercambiando ordenadamente las filas por columnas, es decir, At = (aji) ∈ Mmxn (K).
Se cumple:
(At)t = A – (–A) = A (–A)t = – (At)
Sea A ∈ Mn (K) una matriz cuadrada de orden n, A = (aij), se llama diagonal
principal de una matriz A a la sucesión formada por los elementos aii, es decir,
a11, a22, ... , ann. Asimismo, se llama diagonal secundaria de A a la sucesión de
elementos aij tales que i + j = 1 + n. Diremos que A es una triangular superior
si tiene nulos los elementos situados por debajo de la diagonal principal, esto es,
aij = 0 ∀ i > j. Se llama triangular inferior si son nulos los elementos situados
por encima de la diagonal principal, esto es, aij = 0 ∀ i < j. Una matriz se dice dia-
gonal si son nulos los elementos situados fuera de la diagonal principal, esto es,
aij = 0 ∀ i ≠ j.
Presentan, pues, la siguiente escritura:

7
tema 18

matemáticas

Una matriz diagonal con todos los elementos de la diagonal principal iguales entre
sí recibe el nombre de matriz escalar; si además aii = 1 ∀ i dicha matriz se le
llama matriz unidad o identidad y se representa por In.o simplemente I cuando
se sobreentiende su dimensión.
Una matriz cuadrada se llama simétrica si coincide con su traspuesta, y se llama
antisimétrica si su traspuesta coincide con su opuesta.

XX Subdivisión en cajas

Dada una matriz A de tipo m × n, sean i1, ..., ip índices de fila, y j1, ..., jq índices de
columna. Entonces, la matriz p × q cuyas filas son:
(a¡j, aij2, ... aij ); i = i1, ..., ip
q

se dice submatriz de A. Se obtiene también suprimiendo en A las filas y las co‑


lumnas de índices distintos de los mencionados.
Una submatriz cuyos índices de fila sean consecutivos y asimismo los de columna
se llama bloque o caja de la matriz A. Los bloques más notables son los bloques
fila Ai, que son submatrices formadas por una fila, y los bloques columna Aj, que
son submatrices formadas por una columna.
La expresión de A mediante ellos es:

 A1  ← matriz fila
 
 A2  ← matriz fila
A= .  ↓
 
( A1 , ..., An )
 .  ↓
A 
 m matriz columna

Una matriz fila 1 × n es en realidad una n-upla de elementos de K, y por tanto un


vector de Kn. Los nombres con que se designe pueden considerarse sinónimos y
se usarán según convenga; así, un bloque fila se dice también un vector fila y un
bloque columna se dice también un vector columna.
Se llama descomposición de A en bloques o cajas a una partición de A en blo-
ques.

 A11 .......... A1k 


A =  ..................... 
 
 Ah1 .......... Ahk 

8
tema 18

matemáticas

Ejemplo:

A11 A12 A13

 a b c d e f g 
 a′ b′ c′ e′ f ′ g ′ 
Descomposición en cajas
d′
  A A A 
A =  a ′′ b ′′ c ′′ d ′′ e ′′ f ′′ g ′′ =  11 12 13 
 A21 A22 A23 
α β γ δ ε ξ η 
 
 α′ β ′ γ ′ δ′ ε′ ξ′ η′ 

A21 A22 A23

Si en la descomposición anterior h = k, y todos los bloques Aij con i ≠ j son nulos,


la matriz A se llama suma diagonal o suma directa de las matrices Aii, y se es‑
cribe:
A = (A11, A22, A33, ..., Ahh)
Por ejemplo:
A11
a b c 0 0 0 0
 a′ b′ c′ 0 0 0 0  Suma directa o diagonal de las A
 
0 0 0  = ( A11 , A22 , A33 )
ii

 a ′′ b ′′ c ′′ 0
 
0 0 0 δ 0 0 0  Suma directa o diagonal de las Aii
 A22 
 
0 0 0 0 ε′ ξ′ η′
A33

9
tema 18

matemáticas

2 Álgebra de matrices

2.1. El espacio vectorial de las matrices (m × n)

Designamos por Mm × n al conjunto de las matrices m × n de elementos de un cuerpo K.


Las definiciones que damos a continuación tienen por objeto dotar a dicho conjun‑
to de una estructura de espacio vectorial sobre el cuerpo K.
Definición
Dadas dos matrices A = (aij) y B = (bij), m × n, se define su suma como la matriz
cuyo elemento (i, j) es aij + bij para todo i y j. Es decir:
A = (aij)
⇒ A + B = (aij + bij) , ∀(i,j)
B = (bij)
Notemos que la aplicación (A, B)→ A + B no es una operación binaria en el con‑
junto total de las matrices (para sumar matrices es necesario que sean m × n), pero
sí es una operación binaria interna en el conjunto de las matrices m × n, donde
«m» y «n» son fijos.

XX Teorema

El conjunto de las matrices m × n con la operación suma (definida anteriormente)


tiene estructura de grupo abeliano y lo denotaremos: (Mm × n, +).
Demostración:
Es consecuencia inmediata de ser (K, +) grupo abeliano (por tanto, la asociativa y
conmutativa son evidentes).
El elemento neutro es la matriz (aij) / a¡j = 0 ∀(i, j), que se llama matriz cero:

 0 0 ...... 0
 0 0 ...... 0
 
. 
. 
 0 0 ...... 0
m×n

El opuesto de la matriz A = (aij) es la matriz –A = (–aij), ∀(i, j).


Definición
Dada una matriz A = (a¡j), m × n, y un escalar t ∈ K, se define la matriz producto
por un escalar, y se designa por t · A como la matriz que se obtiene multiplicando
cada elemento de A por t.
t · A = (t · aij), ∀(i, j)

10
tema 18

matemáticas

Es de comprobación inmediata las propiedades:


1 · A = A   (1 elemento unidad de K)
λ · (µ · A) = (λ · µ) · A
(λ + µ) · A = λ · A + µ · A
λ · (A + B) = λ · A + λ · B
∀λ, µ ∈ K; ∀A, B ∈ Mn × n
Por tanto, teniendo en cuenta estas propiedades y el teorema anterior, se define el
siguiente teorema:

XX Teorema

El conjunto de las matrices m × n con las operaciones suma y producto por un


escalar es un espacio vectorial sobre el cuerpo K, que representaremos por:
(Mm x n , +, · K), o simplemente m × n
Es interesante observar que hasta ahora no se diferencia entre los conceptos de ma‑
triz m × n y (m · n)-upla, pues en ambos casos se trata de un conjunto totalmente
ordenado de (m · n) elementos de K, que en el caso de matriz se escriben en forma
de cuadrado (de m filas y n columnas) y en el caso de (m · n)-upla en una sola fila.
Pero la definición de suma y producto por un escalar es la misma en ambos casos y
por ello, la aplicación:
M m x n → Km . n
A = (aij) → (a11, a12, ..., a1n, ..., am1, ..., amn)
es un isomorfismo de espacios vectoriales.
La diferencia matemática entre los dos conceptos reside en el producto de matri‑
ces que definiremos más adelante, y que utiliza de manera especial la distribución
de los números en m-filas.
Teniendo en cuenta el isomorfismo anterior, vemos que la base natural o canónica
del K-espacio vectorial Mm × n está formada por las matrices m × n, que tienen sus
elementos nulos excepto el que ocupa el lugar (i, j) (situado en la fila i, columna j
que vale 1. Se suele designar por εij la matriz que tiene el elemento (i, j) igual a 1
y todos los demás elementos nulos. Una matriz A = (aij) se escribe en función de
esta base:
m n

A= ∑∑a
i =1 j =1
ij εij

Por tanto, la dimensíón de Mm x n es m · n.

11
tema 18

matemáticas

XX Teorema

Toda matriz cuadrada es la suma de una matriz simétrica y de otra antisimétrica.


Además esta descomposición es única.
Demostración:
Admitiendo una descomposición A = S + T, con S simétrica y T antisimétrica. Se
tiene que:

At = St + Tt (es inmediato que la traspuesta de una suma
es la suma de las traspuestas)
Ahora bien:

St = S por ser simétrica.

Tt = –T por ser T antisimétrica.
Y por tanto:
A = S + T    S = 1/2 (A + At)
         ⇒
At = S – T    T = 1/2 (A – At)
de donde resulta la existencia y unicidad de la descomposición. Observamos que
el teorema pierde todo significado si el cuerpo K es de característica 2, pues apa‑
recería 2S, que es cero.
(Obsérvese que la matriz A tiene que ser cuadrada, pues las matrices simétricas
son cuadradas).

2.2. Producto de matrices: propiedades

Vamos ahora a definir una nueva ley de composición que, en ciertos casos, permi‑
te asociar a dos matrices A y B una tercera matriz C, llamada producto, y represen‑
tada por la notación habitual C = A · B.
Esta operación no va a ser en general conmutativa, pero es asociativa y distributiva
a la derecha y a la izquierda con respecto a la suma, lo que justifica el nombre de
producto.
Definición
El producto de una matriz A de tipo m × n por una matriz B de tipo n × p

 a11 ... a1n   b11 ... b1 p 


. . .  .. . 
.  .
. . = b

A= .
.
. . 
( )
.  = aij ; B =  .
. .
. 
. 
jk ( )
. .   . .
 a ... a   b ... b 
m1 mn n1 np

12
tema 18

matemáticas

es una matriz m × p, A · B = (cik), dada por:


n

cik = ∑a
j =1
ij ⋅ b jk = ai1 b1k +ai 2 b2 k + ... + ain bnk siendo i = 1, ... m , k = 1, ... p

Ejemplo:

 1 0  3 2 1  3 2 1
 ⋅
   =  
 −2 − 1  0 1 2  −6 − 5 − 4
2×2 2×3 2×3
Notemos que (A, B) → A · B no es una operación binaria en el conjunto total de las
matrices. Para que exista A · B es necesario y suficiente que el número de colum‑
nas de A sea igual al número de filas de B.
Veamos ahora algunas propiedades de la multiplicación de matrices.

XX Teorema 1

Sean A, B, C matrices. Supongamos que existen los productos A · B y A · C y que


B y C pueden sumarse. Entonces, existe el producto A · (B + C) y se verifica:
A · (B + C) = A · B + A · C
Análogamente, se probaría la distributiva por el otro lado: si existen los productos
B ·A y A · C y además B y C son sumables entonces:
(B + C) · A = B · A + C · A
Demostración:
Sea A = (aij) una matriz m × n. Para que existan:
A · B, A · C y B + C ha de ser:
   B = (bjk) una matriz n × p
   C = (cjk) una matriz n × p
    B + C = (bjk + cjk) es una matriz n × p, y por tanto existe: A · (B + C).
Veamos ahora la igualdad: A · (B + C) = A · B + A · C. El elemento que ocupa el
lugar (i, k) de A · (B + C) vendrá dado por:
n

∑ a ⋅ (b
j =1
ij jk + c jk )

Y el elemento que ocupa el lugar (i, k) de A · B + A · C será:


n n n n

∑ a
j =1
ij ⋅ b jk + ∑a
j =1
ij ⋅ c jk = ∑ (a
j =1
ij ) ∑ a ⋅ (b
⋅ b jk + aij ⋅ c jk =
j =1
ij jk + c jk )

13
tema 18

matemáticas

XX Teorema 2

Sean A y B dos matrices que se pueden multiplicar. Si t ∈ K, se verifica:


A · (t · B) = t · (A · B)
Demostración:

Sean A = aij ( ) , ( )
B = b jk
↓ ↓
m×n n× p
n n n
 A ⋅ (t ⋅ B) =
ik ∑ a ⋅ (t ⋅ b ) = ∑ t ⋅ (a
j =1
ij jk
j =1
ij )
⋅ b jk = t ⋅ ∑a
j =1
ij ⋅ b jk = t ⋅ ( AB )ik

XX Teorema 3

Sean A, B y C matrices tales que existan los productos A · B y B · C. Entonces,


existen los productos A · (B · C) y (A · B) · C, y además se verifica:
(A · B) · C = A · (B · C)
Es decir, el producto de matrices es asociativo.
Demostración:
Por existir A · B y B · C ha de verificarse:
„„ Número de columnas de A = Número de filas de B.
„„ Número de columnas de B = Número de filas de C.
Sean entonces: A una matriz (m × n), B: (n × p), C: (p × r). Entonces:
„„ B · C es una matriz (n × r) y A · (B · C): (m × r).
„„ A · B es una matriz (m × p) y (A · B) · C: (m × r).
Probemos ahora la igualdad (A · B) · C = A · (B · C). Sean, para ello:
A = (aij) ; B = (bjk) ; C = (ckl)
Se tiene:
n p
 n  p n

( A ⋅ B)ik = ∑
j =1
aij ⋅ b jk ⇒ ( A ⋅ B) ⋅ C  il = ∑∑ k =1

 j =1
aij ⋅ b jk  ⋅ ckl =

∑∑a
k =1 j =1
ij ⋅ b jk ⋅ ckl

p n  p
 n p

( B ⋅ C ) jl = ∑b
k =1
jk ⋅ ckl ⇒  A ⋅ ( B ⋅ C ) il = ∑
j =1
aij ⋅ 

∑k =1
b jk ⋅ ckl  =

∑∑a
j =1 k =1
ij ⋅ b jk ⋅ ckl =

= ( A ⋅ B) ⋅ C  il

14
tema 18

matemáticas

„„ No conmutatividad
En general, no cabe hablar de conmutatividad en el producto de matrices, ya que
si A es una matriz m × n, y B una matriz n × p, existe el producto A · B, y es una
matriz m × p; mientras que el producto B · A es sólo posible cuando m = p, pero
aún en este caso A · B es cuadrada de orden m, y B · A es cuadrada de orden n.
Obsérvese que si fuese conmutativa y considerando:

Luego B: (n × m)
Pero:

Así pues, no se obtienen dos productos de igual dimensión más que multipli‑
cando matrices cuadradas del mismo orden, pero aún en este caso, en general,
A · B ≠ B · A, en razón de los distintos papeles que desempeñan las filas y
las columnas en la multiplicación.
Así, por ejemplo:

1 0  0 1   0 1
  ⋅  = 
1 1   0 0  0 1

 0 1  1 0 1 1
  ⋅  =  
 0 0 1 1   0 0

XX Teorema 4

La traspuesta de un producto se obtiene multiplicando en orden inverso las tras‑


puestas de sus diferentes factores.
(A · B)t = Bt · At
Demostración:
Sean las matrices:
A = (aij) una matriz (m × n)
B = (bjk) una matriz (n × p)

15
tema 18

matemáticas

Entonces,
n
( A ⋅ B )t  = ( A ⋅ B ) =
  ki ik ∑a j =1
ij ⋅ b jk

Por otra parte:


n n n

( B t ⋅ At )ki = ∑ ( B t )kj + ( At ) ji = ∑ b jk ⋅ aij = ∑ aij ⋅ b jk


j =1 j =1 j =1

2.3. Anillo de las matrices cuadradas de orden n

Hay que volver a recalcar que si m ≠ n y A, B ∈ Mm × n, entonces las matrices A y B


no se pueden multiplicar. Estudiemos ahora qué ocurre si m = n.

XX Teorema

El conjunto Mn de las matrices cuadradas de orden n (sobre un cuerpo K) dotado


de la suma y el producto de matrices, tiene estructura de anillo con elemento uni‑
dad.
Demostración:
(Mn, +) es grupo abeliano. El producto de matrices verifica la propiedades asocia‑
tiva y la distributiva respecto a la adición.
Sólo hay que observar que dos matrices cualesquiera, de Mn se pueden multiplicar,
y además el producto pertenece a Mn. Así, (Mn, +, ·) tiene estructura de anillo.
Por último, la matriz Im ∈ Mn que tiene todos sus elementos nulos salvo los de la
diagonal principal, que son 1, es el elemento unidad del anillo Mn.

1 0 ... 0
 0 1 ... 0
I n =  ...............
 0 0 ... 1
 

Se comprueba fácilmente que: A · In = A = In · A para cualquier A ∈ Mn.


Obsérvese que en Mn tampoco se cumple la conmutatividad de la multiplicación.
Por ejemplo:

1 1 1 2 1 1 1 1 1 2 1 3
 0 0 =  0 1 ⋅  0 0 ≠  0 0 ⋅  0 1 =  0 0

Si dos matrices son tales que A · B = B · A se dice que conmutan o que son
permutables, o que verifican la propiedad conmutativa.

16
tema 18

matemáticas

También se comprueba que el anillo Mn tiene divisores de cero, por ejemplo:

 2 4  0 2  0 0
 −1 − 2   0 − 1 =  0 0

En síntesis:
(Mn, +, ·) representa el anillo de las matrices cuadradas, que tiene elemento
unidad In, no verifica la propiedad conmutativa y posee divisores de cero.
Además, resumiendo todas las propiedades de la suma de matrices, producto de
matrices y multiplicación por un número, podemos decir que
(Mn, +, ×, ·) es un álgebra (álgebra de las matrices cuadradas de orden n).
Observación: en la notación de la estructura de álgebra, el signo × denota el pro‑
ducto de matrices.
Definición
Llamaremos potencia de una matriz A ∈ Mn al producto reiterado de A por sí mis-
ma hasta un número de factores igual al exponente, k, y lo escribiremos Ak.
Relacionados con el concepto de potencia aparecen algunos tipos de matrices:
„„ Se dice que A es idempotente cuando A2 = A.
„„ Se dice que A es involutiva cuando A2 = I.
„„ Se dice que A es nilpotente de orden k cuando Ak = 0.

2.4. Matriz inversible

Una matriz cuadrada se dice inversible (o también se llama no-singular o regular)


si tiene inversa. Es decir:
A ∈ Mn, A es inversible si existe una matriz cuadrada B de orden n, tal que:
A · B = B · A = In, donde In denota, como ya dijimos antes, la matriz unitaria
de orden n.
Es fácil comprobar que:
Si A es inversible la matriz B verificando A · B = B · A = In es única. En efecto:
Supongamos que existe B’ ∈ Mn / B’ · A = A · B’ = In. Probaremos que B = B’.
Para ello,
B = B · In = B · (A · B’) = (B · A) · B’ = In · B’ = B’ ⇒ B = B’
La matriz B se llama matriz inversa de A, y se representa por A–1. (Cuando haga‑
mos el estudio de los determinantes daremos una caracterización práctica de las
matrices inversibles, así como el cálculo de la matriz inversa.)
Veamos cómo es el producto de dos matrices inversibles. Se verifica:

17
tema 18

matemáticas

Proposición:
Si A y B son dos matrices inversibles, su producto es también una matriz inversi‑
ble, y, además, su matriz inversa (A · B)–1 = B–1 · A–1.
Demostración:
Basta ver que:
(A · B) · (B–1 · A–1) = (B–1 · A–1) · (A · B) = In
En efecto, basándonos en la propiedad asociativa del producto de matrices:
(A · B) · (B–1 · A–1) = A · [B · (B–1 · A–1)] = A · [(B · B–1) · A–1] = A · (In · A–1) = A · A–1 = In
Análogamente se prueba que (B–1 · A–1) (A · B) = In
Proposición:
Si A es una matriz inversible entonces At es inversible y además
(At)–1 = (A–1)t
Definición
Dos matrices A y B de tipo (m, n) se dicen equivalentes si existen las matrices
inversibles P: (m, m) y Q: (n, n), tales que:
B=P·A·Q
Se dice que el rango de una matriz A ∈ Mmxn es r ≤ min {m, n} si ésta es equiva‑
lente a una matriz suma directa de Ir y 0m-r,n-r
Se cumple que:
„„ La equivalencia de matrices es una relación de equivalencia
„„ Dos matrices equivalentes tienen la misma dimensión
„„ Dos matrices equivalentes tienen el mismo rango
„„ Dos matrices son equivalentes si y sólo si tienen igual rango y dimensión
Esta definición de rango se ha dado siguiendo una coherencia de los conceptos
elementales introducidos a lo largo del tema, que de otra manera implicaría hablar
de dependencia e independencia lineal de vectores, de rango por filas y rango por
columnas, y además probar que estos son iguales.

18
tema 18

matemáticas

3 Aplicaciones al campo de las ciencias sociales y de


la naturaleza
Las aplicaciones de las matrices son muy variadas: desde la confección de hora‑
rios, hasta el tratamiento digital de imágenes.
Las matrices juegan un papel importantísimo en todas las ramas de las matemá‑
ticas, ramas subyacentes en todas las ciencias y, en particular, en el campo de las
ciencias sociales y de la naturaleza. Es por ello, que veremos aplicaciones en las
distintas ramas de las matemáticas indicando o dando un ejemplo de su aplicación
al campo de las ciencias sociales y de la naturaleza.

3.1. Matriz asociada a una aplicación lineal

Sean E y F dos espacios vectoriales de dimensiones n y p respectivamente y sobre


un cuerpo conmutativo K.
Sea B = {e1, e2, ..., en) una base de E y C = {u1, u2, ... uP} una base de F, y sea I una
aplicación lineal de E en F, por tanto, cumple que:
I (x + y) = I (x) + I (y), I (k · x) = k · I (x), ∀x, y ∈ E, ∀k ∈ k).
Vamos a estudiar cómo está definida esta aplicación lineal.
n
Sea:
x ∈ E, x = x1e1 + x2e2 + ... + xnen = ∑ x e,
i =1
i i

siendo (x1, ..., xn) las coordenadas de x en B; entonces como I (x) ∈ F


será de la forma: p

I(x) = y1u1 + y2u2 + ... + yPuP = ∑ yu


j =1
j j

donde (y1, ..., yP) son las coordenadas de l (x) en la base C.


Se trata, pues, de buscar quiénes son las coordenadas (y1, y2, ... , yP) de I (x)
en la base C.
También sabemos que una aplicación lineal queda totalmente definida si conoce‑
mos las imágenes de una base. Sea pues:
I (e1) = a11 u1 + a12u2 + ... + alpup , (a11, a12, ..., a1p) coordenadas de I (e1) en C
I (e2) = a21 u1 + a22u2 + ... + a2pup , (a21, a22, ..., a2p) coordenadas de I (e2) en C
........................................................................................................................
I (en) = an1 u1 + an2u2 + ... + anpup , (an1, an2, ..., anp) coordenadas de I (en) en C
Hay, pues, n relaciones que se pueden escribir de manera más condensada:
p

I (ei ) = ∑a u
j =1
ij j , ∀i = 1, ..., n.

19
tema 18

matemáticas

Calculemos ahora quién es I (x):


I (x) = I (x1e1 + x2 e2 + ... + xnen) = x1 · I (e1) + x2 I (e2) + ... xn · I (en) =
= x1 (a11u1 + a12u2 + ... + a1pup) + x2 (a21 u1 + a22u2 + ... + a2pup) + ... +
+ xn (an1 u1 + an2u2 + ... + anpup) _ (x1a11 + x2a21 + ... + xnan1) · u1 + p

+ (x1a12 + x2a22 + ... + xnan2) u2 + ... + (x1a1p + x2a2p + ... + xnanp) · up = ∑ yu


j =1
j j

Y, por tanto, en notación abreviada:


n

yj = ∑x a
i =1
i ij , ∀j = 1, ... p.

que escrito detalladamente resulta:


y1 = x1 a11 + x2 a21 + ... + xn an1 
y2 = x1 a12 + x2 a22 + ... + xn an 2 
 Ecuación de la aplicación
...................................................  lineal I,
  
y p = x1 a1 p + x2 a2 p + ... + xn anp 
y que matricialmente se puede escribir como:

 a11 a12 ... a1 p 


 a a ... a 
(

)
y1 , y2 , ..., y p = ( x1 , x2 , ..., xn ) ⋅ 
  
21 22 2p

  .....................

I (x) x
 a a ... a 
 n1 n 2 np 

que es la ecuación matricial de la aplicación lineal I.


Así, hemos visto que una aplicación lineal queda totalmente definida por la si‑
guiente matriz cuyas filas son las imágenes de la base.

 a11 a12 ... a1 p  { }


→ coordenadas de I (e1 ) u1 , u2 , ..., u p
 a a ... a  → coordenadas de I (e ) {u , u , ..., u }
M (I ) = 
21 22 2p
 2 1 2 p

 ..................... .............................................................
 a a ... a 
 n1 n 2 np 
{
→ coordenadas de I (en ) u1 , u2 , ..., u p }
M (I) se denomina matriz asociada a la aplicación lineal I.

3.2. Matriz asociada a un sistema de ecuaciones lineales

Una de las principales utilidades del álgebra matricial dentro de todas las ciencias
está en la posibilidad de poder representar, estudiar y resolver sistemas de ecua‑
ciones lineales con ayuda de nociones como rango de una matriz, matriz inversa
y determinante.

20
tema 18

matemáticas

Dado cualquier sistema lineal de m ecuaciones con n incógnitas:

 a11 x1  a1n xn = c1

   
a x  a x = c
 m1 1 mn n m

puede escribirse en forma matricial como:

 a11  a1n   x1   c1 
     
    ⋅   =   
a     
 m1  amn   xn   cm 

es decir, A · X = C, y cuando A es inversible la solución del sistema es X = A-1 · C.

3.3. Aplicación en el cálculo de varias variables

Dentro del análisis, y por tanto en una amplia gama de problemas físicos,
de ingeniería, etc., aparecen las matrices para estudiar las funciones de varias va‑
riables y determinar sus máximos y mínimos. En efecto, si tenemos una función f:
Rn → Rm, se define su derivada por medio de una matriz m × n llamada jacobiana
y cuyos elementos son aij = Dj f¡ (x) (derivada de la componente i-ésima respecto
a la variable j-ésima, i = 1, ... m, j = 1, ...n), por ejemplo:
Sea f: R2 → R3, definida como f(x, y) = (2x + y, 5y, 2xy) sus componentes son:
f1 (x, y) = 2x + y f2 (x, y) = 5y f3 (x, y) = 2xy
y su matriz jacobiana será:

1   D1 f1 ( x ) D2 f1 ( x )
2
 
f ′ ( x, y ) =  0 5 =  D1 f 2 ( x ) D2 f 2 ( x ) 
  
 2 y 2 x  D f ( x ) D2 f 3 ( x ) 
 1 3

La, matriz de las segundas derivadas se llama hessiana.


También se trabaja con matrices a la hora de aplicar la regla de la cadena en fun‑
ciones de varias variables. Veamos un ejemplo:
Sean dos funciones g y f, R 2 
g
→ R 2 
f
→ R 3 definidas como:
g (x, y) = (x · y, y2 – 2) f(u, v) = (v, u2, u – v)

21
tema 18

matemáticas

vamos a calcular (f ° g) ‘ (1, –2) con la regla de la cadena:


 y x  −2 1
g ′ ( x, y ) =   y, por tanto, g ′ (1, −2) = 
0 2y  0 − 4

 0 1  0 1
f ′ (u, v ) = 2u 0 y como g (1, −2) = (−2, 2), entonces f ′ (−2, 2) =  −4 0
 
   
1 − 1  1 − 1

y así,
 0 1  0 − 4
 −2 1  
( f  g ) ′ (1, −2) = f ′ (−2, 2) ⋅ g ′ (1, −2) =  −4 0 ⋅  0 − 4 =  8 − 4 
 
 
 1 − 1  −2 5

con lo que hemos calculado la derivada de la composición utilizando el producto


de matrices.
La herramienta principal para el estudio de ecuaciones diferenciales lineales es el
análisis matricial, donde adquiere especial relevancia la llamada matriz de Jordan.

3.4. Aplicación en la geometría

Dentro de la geometría, las matrices sirven para representar los movimientos y


semejanzas en el plano y en el espacio que son de vital importancia en los mo‑
saicos, la dinámica, cristalografía, ... Recordemos que se llama movimiento a
una aplicación f: Rn → Rn no necesariamente lineal, que se puede escribir en la
forma:
f(u) = Au + b
con A una matriz ortogonal, A At = In, y b ∈ Rn (la linealidad o no depende de que
b sea al vector nulo o no).
He aquí algunos ejemplos:
„„ Ecuación de la traslación de vector t = (a, b, c)

 x ′  1 0 0  x   a
 y ′ =  0 1 0 ⋅  y +  b
 z ′   0 0 1  z   c 

„„ Ecuación del giro de ángulo α y eje Z:

 x ′   cosα −senα 0  x 
 y ′ =  sen α − cosα 0 ⋅  y
 z ′   0 0 0  z 

22
tema 18

matemáticas

También se pueden estudiar de forma matricial las simetrías axiales, centrales, con
deslizamiento, etc.
Siguiendo con la geometría, las matrices se utilizan también para estudiar los
planos y rectas, y sus posiciones relativas. Por último, señalar la importancia del
cálculo de matrices al trabajar con cónicas, que son pieza clave en el estudio del
movimiento de los planetas y en toda la astronomía. Por ejemplo:
x2 y2
„„ Ecuación matricial de la elipse + − 1 = 0:
a2 b2
 −1 0 0  1 
(1 × y) ⋅  0 1/a 2 0  ⋅  x  = 0
 0 0 1/b 2   y

Igualmente se estudian las cuádricas por medio de matrices.

3.5. Aplicación en la estadística

En el campo de la estadística también se emplean las matrices: matriz de datos


para presentar la información; matriz de desviaciones; matriz de varianza-cova‑
rianza que está definida así:
aii = varianza de la variable i
aij = covarianza entre la variable i y j (i ≠ j).
Esta matriz es simétrica y se emplea a menudo en psicología para estudiar, por
ejemplo, una serie de conductas de sujetos determinados. Otra matriz simétrica
que aparece en los trabajos estadísticos es la matriz de correlaciones, cuya diago‑
nal principal está formada por «unos».

3.6. Aplicación en la Teoría de la Probabilidad

Una matriz real cuadrada P = (pij) ∈ Mn () se llama estocástica si pij ≥ 0 ∀(i, j) y
los elementos de cada una de sus filas suman 1:
n

∑p
j =1
ij = 1, i = 1, n

Ejemplo:

 
0 1 0
 
1 1 1
2 6 3
1 2 
 0
3 3 

23
tema 18

matemáticas

Consideremos un proceso aleatorio en el que se produce un cambio de estado en


ciertos instantes de tiempo discretos t = 0, 1, 2,… Supongamos que hay un número
finito de estados posibles E1,…, En. Surge así una sucesión (o cadena) de situacio‑
nes X0, X1…, Xt ,… en donde cada Xt es igual a uno de los n estados. Este proceso
recibe el nombre de cadena de Markov cuando las probabilidades condicionadas
que expresan este cambio de situaciones satisfacen la siguiente propiedad:

( ) (
P X t +1 = E j X t = Ei , X t −1 = Eit −1 , , X 0 = Ei0 = P X t +1 = E j X t = Ei )
para todos los instantes t, todos los estados Ei, Ej y todas las posibles sucesiones
de estados previos Ei , ..., Eit–1. Esta propiedad es la formulación de una idea muy
0
sencilla que viene a decirnos que en las cadenas de Markov la evolución al si‑
guiente estado sólo depende del estado actual, no de los estados por los que ha pa‑
sado anteriormente. Esta dependencia es la que distingue a las cadenas de Markov
de las series de sucesos independientes como tirar una moneda al aire.
Al valor:

(
pij (t ) = P X t = E j X t −1 = Ei )
que es la probabilidad de que en el instante t la cadena esté en el estado Ej dado
que haya pasado por el estado Ei en el instante t-1 se le llama probabilidad de
transición de moverse del estado Ei al Ej en el instante t. Resulta entonces que, la
matriz de las probabilidades de transición en el instante t:
P(t)=(pij(t))
es una matriz estocástica, para todo t.
Recíprocamente, si P = (pij) es una matriz estocástica los elementos pij definen un
conjunto de probabilidades de transición de una cadena de Markov estacionaria
con n estados.
Se cumple que:
„„ El producto de dos matrices estocásticas es una matriz estocástica.
„„ Toda potencia de una matriz estocástica es una matriz estocástica.
Hemos visto así la aplicación de matrices en procesos estocásticos que responden
a fenómenos aleatorios que evolucionan, generalmente, con el tiempo.

3.7. Aplicación en la economía

En el campo de la economía, Von Neuman demostró que muchas situaciones


competitivas que se presentan tantas veces en economía, pueden estudiarse con
ayuda de las matrices de pago que informan de las ganancias o pérdidas que pue‑
den darse en determinadas situaciones.

24
tema 18

matemáticas

Por ejemplo:
Supongamos dos empresas A y B de electrodomésticos en un mismo centro
comercial. Cuando llega la época de rebajas ambas empresas acostumbran a
realizar inversiones altas en publicidad que suelen implicar la pérdida de todo
el beneficio. Este año se han puesto de acuerdo y han decidido no hacer publi‑
cidad por lo que cada una si cumple el acuerdo puede obtener unos beneficios
de 12000 €. Sin embargo una de ellas puede preparar en secreto una campaña
publicitaria y lanzarla en el último momento con lo que conseguiría atraer a
todos los consumidores. Sus beneficios en ese caso serían de 18000€ mientras
que la empresa competidora perdería 6000 €.
La matriz de pagos de esta competencia publicitaria sería:

B cumple el acuerdo B incumple el acuerdo


A cumple el acuerdo 12,  12 – 6,  18
A incumple el acuerdo 18,  –6 0,  0

Los beneficios o pérdidas (en miles de euros) mostrados a la izquierda de cada


casilla son los que obtiene A cuando elige la estrategia mostrada a la izquierda
y B la mostrada arriba. Los resultados a la derecha en las casillas son los co‑
rrespondientes a B.
La rama de las matemáticas que estudia estos aspectos se conoce como Teoría
de Juegos, y ha adquirido gran importancia últimamente.
Esta sería otra matriz de pagos, la del conocido juego infantil de
piedra-papel-tijera:

A→
Piedra Papel Tijera
B↓
Piedra 0,  0 – 5,  5 5,  – 5
Papel 5,  – 5 0,  0 – 5,  5
Tijera – 5,  5 5,  – 5 0,  0

en la que los números de la izquierda indican el dinero que gana o pierde el


jugador A (se pagan 5 euros por jugada) y los números de la derecha corres‑
ponden a B, valores que en cada caso están en función de la estrategia seguida
por cada jugador.
Continuando en el área de las ciencias económicas y empresariales, hay que refe‑
rirse a una matriz de especial relevancia:
Matriz input-output de una economía. Esta matriz de entradas y salidas fue
presentada por el ruso Leontief, lo cual le ayudó a conseguir el premio Nobel de
Economía en 1973.

25
tema 18

matemáticas

La matriz input-output permite ofrecer una visión cuantitativa del conjunto de


transacciones que se establecen entre los distintos sectores (agricultura, industria,
alimentación, etc.) de un sistema económico (ciudad, país, etc.). Esta matriz nos
proporciona modelos de estimación y simulación de situaciones no vividas. Cada
término aij de dicha matriz indica cuantitativamente la producción que el sector i
suministra al sector j.
Valiéndose de la matriz input-output y de la matriz demanda final (es una matriz
de una sola columna en la que cada fila refleja la demanda de los sectores), se
puede contestar a preguntas como ¿cuánto debe producir cada rama para satisfacer
una demanda ya determinada?, ¿cómo se ven afectados los precios de cada rama
al variar ciertos aspectos como salarios o impuestos?

3.8. Aplicación en contabilidad

Una agencia de viajes tiene tres sucursales S1, S2 y S3. En dichas sucursales quedan
billetes de cuatro tipos B1, B2, B3 y B4.
Las existencias se indican en esta matriz (aij = billetes del tipo B, que quedan en
la sucursal Sj):

 5 7 3
 0 2 5
E= 
 1 3 2
10 3 1 

Los medios (en euros) de los billetes son:


B, = 14; B2 = 5; B3 = 8; B4 = 3. Se pide calcular el dinero máximo que puede fac‑
turar cada sucursal y la agencia.
Matricialmente operamos así:

 5 7 3
 0 2 5
(14 5 8 3)  1 3 2 = (108 141 86)

 
10 3 1

Las 3 columnas de la matriz obtenida representan la facturación de cada sucursal,


y si hacemos la suma obtenemos el total de la agencia.

26
tema 18

matemáticas

BIBLIOGRAFÍA
GODEMENT, R.: Álgebra. Ed. Tecnos, 1983.
GÓMEZ BERROCAL, F. J. Y OTROS: Introducción a las Matemáticas para las Ciencias Sociales.
Ed. Agora, 1990.
GUZMÁN DE, M.: Matemáticas en el mundo moderno. Ed. Blume, 1974.
JIMÉNEZ GUERRAS, P.: Álgebra I. U.N.E.D. Madrid, 1982.
KLIME, M.: El pensamiento matemático de la antigüedad a nuestros días, II. Alianza Editorial.
Madrid, 1992.
MARTÍNEZ MEDIANO, J. Y OTROS: Matemática II. COU. MacGraw-Hill. Madrid, 1993.
MARTÍNEZ SALAS, J.: Elementos de Matemáticas. Ed. Lex Nova, 1995.
MUÑOZ CIUDAD, E.: Introducción a la economía aplicada. Diego Marín Librero Editor, 1997.

27
tema 18

matemáticas

RESUMEN

MATRICES.
ÁLGEBRA DE MATRICES.
APLICACIONES AL CAMPO DE LAS CIENCIAS SOCIALES Y DE LA
NATURALEZA.

1.
1 Matrices

1.1. Concepto de matriz


Se definen los conceptos de matriz sobre un cuerpo, igualdad de matrices y dimensión.

1.2. Tipos de matrices


En este apartado se definen los distintos tipos de matrices: matriz fila, matriz columna,
matriz cuadrada, matriz rectangular, matriz nula, matriz escalonada, matriz opuesta, ma‑
triz traspuesta, matriz diagonal, matriz escalar, matriz identidad, matriz simétrica, matriz
antisimétrica, matriz por bloques.

2.
2 Álgebra de matrices

2.1. El espacio vectorial de las matrices (m × n)


Sobre el conjunto de las matrices m × n, Mm × n, se definen unas operaciones, suma y produc-
to por un escalar, que lo dotarán de estructura de espacio vectorial de dimensión (m · n).

2.2. Producto de matrices: propiedades


Se trata de una nueva ley de composición que, en ciertos casos, permite asociar a dos
matrices una tercera matriz llamada producto. Se demuestra que esta operación no va a
ser en general conmutativa, pero es asociativa y distributiva a la derecha y a la izquierda
con respecto a la suma, lo que justifica que se le llame producto. Se cumple también que
la traspuesta de un producto se obtiene multiplicando en orden inverso las traspuestas de
sus diferentes factores.

2.3. Anillo de las matrices cuadradas de orden n


El producto de matrices siempre existe cuando estas son cuadradas del mismo orden. Se
cumple que el conjunto Mn de las matrices cuadradas de orden n (sobre un cuerpo K) do‑
tado de la suma y el producto de matrices, tiene estructura de anillo no conmutativo con
elemento unidad, la matriz identidad de orden In, y con divisores de cero. Para terminar
este punto, se define el concepto de potencia de una matriz cuadrada y los conceptos de
matriz idempotente, involutiva y nilpotente, subyacentes a él.

29
tema 18

matemáticas

2.4. Matriz inversible


Se define el concepto de matriz regular o inversible y el de matriz inversa. Se demuestra
que ésta es única y se estudia la inversa de un producto de matrices regulares y de la tras‑
puesta de una matriz regular. Se define además rango de una matriz a través del concepto
de equivalencia de matrices.

3.
3 Aplicaciones al campo de las ciencias sociales y de la
naturaleza

3.1. Matriz asociada a una aplicación lineal


Una matriz permite representar toda la información de una trasformación lineal entre dos
espacios vectoriales de dimensión finita.

3.2. Matriz asociada a un sistema de ecuaciones lineales


Una de las principales utilidades del álgebra matricial dentro de todas las ciencias, está en
la posibilidad de poder representar, estudiar y resolver sistemas de ecuaciones lineales.

3.3. Aplicación en el cálculo numérico de varias variables


Dentro del análisis, y por tanto en una amplia gama de problemas físicos, de ingeniería,
etc., aparecen las matrices para estudiar las funciones de varias variables.

3.4. Aplicación en la geometría


Dentro de la geometría, las matrices sirven para representar los movimientos y semejan‑
zas en el plano y en el espacio que son de vital importancia en los mosaicos, la dinámica,
cristalografía,…. También permiten clasificar cónicas y cuádricas.

3.5. Aplicación en la estadística


En este campo se emplean las matrices de datos para presentar información así como
parámetros estadísticos.

3.6. Aplicación en la teoría de la probabilidad


Las matrices estocásticas permiten estudiar procesos de Markov.

3.7. Aplicación en la economía


En este campo, Von Neuman demostró que muchas situaciones competitivas que se pre‑
sentan tantas veces en economía, pueden estudiarse con ayuda de las matrices de pago,
que informan de las ganancias o pérdidas que pueden darse en determinadas situaciones.

3.8. Aplicación en contabilidad

30

Você também pode gostar