Escolar Documentos
Profissional Documentos
Cultura Documentos
2 3
Ejemplo 1 Calcular el producto escalar de u = −5 y v = 2 .
1 −3
2. (u + v) · w = u · w + v · w. 4. u · u ≥ 0 y u · u = 0 si y sólo si u = 0.
Ejercicio 2 Demostrar que para cualquier escalar c se tiene kcuk = |c| kuk.
Un vector cuya longitud es 1 se llama vector unitario. Para obtener un vector unitario u a partir de otro dado, v,
basta dividir el vector v por su norma. Ambos vectores tienen la misma dirección, pero distinta longitud. Al proceso
mediante el cual se obtiene u a partir de v se le conoce con el nombre de normalización.
1
−2
Ejercicio 3 Sea v = . Encontrar un vector unitario u en la misma dirección que v.
2
0
Ejercicio 4 Sea W el subespacio generado por x = ( 32 , 1)T . Encontrar un vector unitario z que sea una base de W .
Definición 3 Sean u, v ∈ Rn . Se define la distancia entre los vectores u y v como la norma del vector u − v,
1
Obsérvese que el vector 0 es ortogonal a cualquier vector u, porque 0 · u = 0, siempre.
Definición 5 Dado un vector v y un subespacio W diremos que v es ortogonal a W si v · w = 0 para todo vector
w ∈ W.
Dos subespacios vectoriales V y W de un espacio vectorial se dicen ortogonales si v · w = 0 para todo vector v ∈ V y
w ∈ W . En este caso, diremos que V es el complemento ortogonal de W y lo denotamos por V = W ⊥ (y W es también
el complemento ortogonal de V ). Dicho de otra forma: el complemento ortogonal de W es el conjunto de todos los
vectores v que son perpendiculares a W ,
W ⊥ = {v ∈ Rn : v · w = 0, para todo w ∈ W }.
Ejemplo 6 Hay cuatro subespacios importantes N (A), C(A), F (A), N (AT ). ¿Cuáles son ortogonales?
El espacio F (A) es por definición el generado por las filas de A, F (A) = Gen{f1 , f2 , . . . , fn } (visto como vectores columna).
Para demostrar que los subespacios son ortogonales, basta con ver que dado x ∈ N (A), entonces x es ortogonal a cada una de
las filas. Pero como x ∈ N (A), por definición
−f1 T −
−f2 T −
Ax =
.. x = 0,
¡Cuidado con la notación!
.
−fn T −
y por tanto
f1 T x = 0, . . . , fn T x = 0.
Análogamente, para demostrar que C(A) = Gen{a1 , a2 , . . . , am } es el complemento ortogonal de N (AT ) comprobamos que
un vector y ∈ N (AT ) arbitrario es ortogonal a todas las columnas de A: Si y ∈ N (AT ), entonces
−a1 T −
−a2 T −
A y=
T
.. y = 0,
¡Cuidado con la notación!
.
−am T −
y por tanto
a1 T y = 0, . . . , am T y = 0.
2 Proyecciones ortogonales
¿Cuál es la sombra que proyecta el vector b = (2, 3, 4)T sobre el plano xy? ¿Y sobre el eje z? ¿Cómo podemos
calcular la proyección de un vector sobre un subespacio arbitrario?
tal que pW ∈ W y e ∈ W ⊥ .
2
Ejemplo 7 Proyectar un vector v sobre un subespacio vectorial de dimensión 1 (una recta):
pW = λa
a·e=0
e = v − pW = v − λa
0 = a · e = a · (v − λa) = a · v − λa · a
aT v aT v
y por tanto λ = y pW = T a
aT a a a
Ejercicio 8 Calcular la proyección del vector v = (1, 1, 1)T sobre la recta cuyo vector director es a = (1, 2, 2)T .
Si W es un subespacio vectorial generado por los vectores {a1 , . . . , ap } linealmente independientes para proyectar
v sobre W usamos la misma idea que en dimensión 1. Buscamos
Utilizando que AT · e = 0 concluimos x tiene que ser solución del sistema AT v = AT Ax y entonces la proyección es
pW = A(AT A)−1 AT v .
Ejercicio 9 Dados el vector v = (6, 0, 0)T y el subespacio W = {(1, 1, 1)T , (0, 1, 2)T }. Calcular la proyección de v sobre W .
Importante.
tales que pW ∈ W y e ∈ W ⊥ .
Distancia mı́nima
pW es el elemento de W que más cerca está de v:
para todo b ∈ W.
Ejercicio 10 Encontrar la distancia del vector v = (−1, −5, 10)T al subespacio W generado por (5, −2, 1)T , (1, 2, −1)T .
Idea. En muchos problemas prácticos Ax = b no tiene solución. Hay demasiadas ecuaciones. Sin
embargo necesitamos encontrar una “solución”, de forma que Ax se parezca lo más posible a b.
Sea e = b − Ax; como el sistema no tiene solución e 6= 0, y buscamos x tal que e sea lo más pequeño posible.
Definición 6 Dada A una matriz m × n y b ∈ Rn . Una solución de mı́nimos cuadrados de Ax = b es y ∈ Rn tal que
3
¿Cómo calculamos la solución de mı́nimos cuadrados?
Ejemplo 11 Dados los puntos (0, 6), (1, 0) y (2, 0) encontrar la recta que esté más cerca de los tres puntos.
Buscamos y = mx + n con incógnitas m y n. El sistema que tenemos que resolver se escribe en forma matricial como
1 0 |6
1 1 |0
1 2 |0
y resolvemos el sistema à ! à !à !
3 3 n 6
.
3 5 m 0
La solución de mı́nimos cuadrados es m = −3 y n = 5, luego la recta que mejor aproxima a los tres puntos es y = −3x + 5.
ortogonales si qi · qj = 0, para i 6= j.
Definición 8 Una matriz Q con columnas ortonormales entre sı́ se llama ortogonal
QT = Q−1
Dada una base {a1 , . . . , an } de un subespacio, queremos encontrar otra {q1 , . . . , qn } base de ese mismo espacio
cuyos elementos sean ortogonales (o incluso ortonormales). La ventaja que tiene el trabajar con bases ortonormales
es que, si bien el espacio generado por ambas bases el mismo, las cuentas se simplifican si utilizamos Q = [q1 | . . . |qn ]
(Recordar que QT Q = I).
Paso i: Elegimos w1 = a1 .
4
Paso ii: El vector w2 tiene que ser ortogonal a w1 . Por el teorema de de descomposición ortogonal sabemos que
a2 = pW + e,
a3 = pW + e,
..
.
Paso n: Para calcular wn proyectamos an sobre el espacio generado por {w1 , . . . wn−1 }, que por la construcción que
hemos hecho, son ortogonales entre sı́. Entonces
w1 T an w 2 T an wn−1 T an
wn = an − pW = an − w1 − w 2 − · · · − wn−1 .
w1 T w1 w2 T w2 wn−1 T wn−1
De esta forma obtenemos una base ortogonal {w1 , . . . , wn } y tal que Gen{a1 , . . . , an } = Gen{w1 , . . . , wn }. Para
conseguir una base ortonormal basta con dividir cada uno de los vectores de la base ortogonal por su norma; es decir
n w wn o
1
{q1 , . . . , qn } = ,..., .
kw1 k kwn k
A es simétrica si AT = A.
A = P DP −1
Ejemplo 12 La matriz
6 −2 −1
A = −2 6 −1
−1 −1 4
tiene por valores propios λ = 8, 6, 3 y por vectores propios
−1 −1 1
v1 = 1 , v2 = −1 , v3 = 1 .
0 2 1
5
que son ortogonales entre sı́. Si v1 , v2 , v3 son vectores propios
v1 v2 v3
w1 = , w2 = , w3 = ,
kv1 k kv2 k kv3 k
A = [w1 |w2 |w3 ]D[w1 |w2 |w3 ]−1 = [w1 |w2 |w3 ]D[w1 |w2 |w3 ]T .
A es siempre diagonalizable
Los vectores propios se pueden escoger todos ortogonales entre sı́ (con el proceso de Gram-
Schmidt, cuando sea necesario)
Es más: