Escolar Documentos
Profissional Documentos
Cultura Documentos
Sumrio
1 Equaes lineares
1.1 Equao algbrica linear . . . . . . . . .
1.2 Produto escalar . . . . . . . . . . . . . .
1.3 Sistemas de equaes algbricas lineares
1.4 Sistema escalonado . . . . . . . . . . . .
1.5 Sistema inferiormente escalonado . . . .
1.6 Sistemas equivalentes . . . . . . . . . . .
1.7 O mtodo da eliminao de Gauss . . . .
1.8 Matrizes inversas . . . . . . . . . . . . .
1.9 Matrizes elementares . . . . . . . . . . .
1.10 Clculo da inversa . . . . . . . . . . . .
1.11 Fatorao LU . . . . . . . . . . . . . . .
1.12 Decomposio PLU . . . . . . . . . . . .
1.13 Decomposio de Cholesky . . . . . . . .
2 Espao vetorial
2.1 Conceito de espao vetorial .
2.2 Dependncia linear . . . . .
2.3 Base e dimenso . . . . . . .
2.4 Matriz de mudana de base
2.5 Subespao vetorial . . . . .
2.6 Subespao gerado . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
4
6
9
10
11
13
15
17
19
26
30
.
.
.
.
.
.
33
33
35
37
40
43
44
3 Transformao linear
49
3.1 Matriz de uma transformao linear . . . . . . . . . . . . . . . . . . . . . . 54
3.2 Isomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.3 Transformaes lineares em Cm1 . . . . . . . . . . . . . . . . . . . . . . . 60
4 Produto interno e norma
4.1 Produto interno em espaos vetoriais reais . . .
4.2 Produto interno em espaos vetoriais complexos
4.3 Funcional linear . . . . . . . . . . . . . . . . . .
4.4 Norma . . . . . . . . . . . . . . . . . . . . . . .
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
62
65
66
ii
5 Soma de subespaos
77
5.1 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6 Transformao adjunta
81
6.1 Posto de uma transformao linear . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Existncia de soluo dos sistemas lineares . . . . . . . . . . . . . . . . . . 87
7 Projetores
7.1 Projetores ortogonais . . . . . . . . . . . . . .
7.2 Projetores ortogonais em Cm1 . . . . . . . .
7.3 Ortogonalizao de Gram-Schmidt em Cm1 .
7.4 Ortogonalizao modificada de Gram-Schmidt
7.5 Contagem das operaes . . . . . . . . . . . .
8 Refletor de Householder
8.1 Decomposio QR usando o refletor
8.2 O algoritmo para calcular R . . . .
8.3 Contagem das operaes . . . . . .
8.4 O algoritmo para calcular Q . . .
8.5 O algoritmo para calcular Q . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
de Householder
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
9 Mnimos quadrados
9.1 Mnimos quadrados e a decomposio
9.2 Pseudo inversa . . . . . . . . . . . .
9.3 Reta de regresso . . . . . . . . . . .
9.4 Interpolao polinomial . . . . . . . .
9.5 Ajuste polinomial . . . . . . . . . . .
9.6 Aproximao polinomial de funes .
9.7 Aproximao trigonomtrica . . . . .
QR
. . .
. . .
. . .
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
89
89
92
94
95
96
.
.
.
.
.
.
.
.
.
.
99
101
103
104
104
105
.
.
.
.
.
.
.
107
. 109
. 109
. 110
. 111
. 112
. 112
. 114
.
.
.
.
.
10 Autovalores e autovetores
11 Espaos Invariantes
11.1 Polinmio mnimo . . . . . . . . . . . .
11.2 Matrizes em bloco . . . . . . . . . . . .
11.3 Decomposio primria . . . . . . . . .
11.4 Diagonalizao de operadores normais .
11.5 Decomposio de Schur . . . . . . . . .
11.6 Decomposio em valores singulares . .
115
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
123
. 125
. 131
. 132
. 135
. 139
. 141
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
147
. 147
. 151
. 153
. 154
. 155
. 156
13 Aplicaes
159
A Matrizes
A.1 Matrizes especiais . . . . . . . . . . . . . . . .
A.2 Multiplicao de matrizes . . . . . . . . . . .
A.3 Inversa . . . . . . . . . . . . . . . . . . . . . .
A.4 Operaes elementares e matrizes elementares
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
161
162
163
164
166
B Determinante
B.1 Permutao . . . . . . . . . . . . . . . .
B.2 Determinante . . . . . . . . . . . . . . .
B.3 Cofator . . . . . . . . . . . . . . . . . .
B.4 Regra de Cramer . . . . . . . . . . . . .
B.5 Determinante de Vandermonde . . . . .
B.6 Determinante, uma definio alternativa
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
169
169
171
174
177
178
179
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iv
Captulo 1
Equaes lineares
1.1
(1.1)
em que todos os coeficientes so nulos degenerada. Se b for igual a zero, ento toda
matriz coluna [x1 , . . . , xn ]T soluo. Se b for diferente de zero, a equao degenerada
no possui soluo.
As equaes no degeneradas com duas ou mais variveis possui infinitas solues.
Uma equao no degenerado com uma nica varivel possui uma nica soluo.
1
Exemplo 1.1 Para todo s real, a matriz coluna [7 + 3s, 2s]T soluo de 2x1 3x2 = 8
que, portanto, possui infinitas solues. A varivel s que aparece neste exemplo chamado
de parmetro.
O conjunto de todas as solues de uma equao chamado conjunto soluo ou
soluo geral. Cada elemento deste conjunto , evidentemente, uma soluo e, quando
for conveniente, ser chamado de soluo particular.
Para determinar a soluo geral de uma equao no degenerada a1 x1 + + an xn =
b basta explicitar a incgnita principal em funo das variveis livres.
Exemplo 1.2 Para obter a soluo geral de x1 7x2 + x3 = 1, basta explicitar x1 para
obter x1 = 1+ 7x2 x3 . A soluo geral o conjunto de matrizes coluna
x1
7
1
1 + 7x2 x3
1
x2 =
= 0 + x2 1 + x3 0 .
x2
x3
x3
0
1
0
A equao
a1 x1 + + an xn = 0
x1
1 + 7x2 x3
1
7
1
x2 =
= 0 + x2 1 + x3 0 .
x2
0
0
1
x3
x3
interessante observar que [1, 0, 0]T soluo da equao e que tanto [7, 1, 0]T quanto
[1, 0, 1]T so solues da equao homognea associada.
Este exemplo apresenta um fato geral.
Se v1 , . . . , vp forem solues da equao homognea aT x = 0, ento
c1 v1 + + cp vp
continua sendo soluo, para qualquer escolha dos nmeros reais c1 , . . . , cn . Esta soma
chamada de combinao linear das matrizes v1 , . . . , vp .
Se um conjunto {v1 , . . . , vp } de solues da equao homognea for tal que toda
soluo da equao homognea uma combinao linear dos seus elementos, diremos que
ele um conjunto gerador das solues da equao homognea.
x1
3
1
3x2 x3
x2 =
= x2 1 + x3 0 .
x2
x3
x3
0
1
Portanto, [3, 1, 0]T e [1, 0, 1]T formam um conjunto gerador de solues para a equao
dada.
1.2
Produto escalar
1.3
x1
b1
a11 a1n
.. ,
...
x = ...
e
b = ... ,
A = ...
.
xn
bn
am1 amn
denominamos A de matriz dos coeficientes, x de matriz das incgnitas e b de matriz
dos termos constantes do sistema. Na forma matricial, o sistema se reduz a
Ax = b.
A matriz [A | b] obtida acrescentando-se matriz A uma coluna final com os elementos
de b, chamada de matriz aumentada do sistema linear.
Um vetor coluna real w tal que Aw = b chamado de soluo do sistema Ax = b.
Isto significa que w soluo de cada equao do sistema. Um sistema como este pode
ter ou no uma soluo.
Exemplo 1.5 O sistema
1 2
0 0
x1
x2
3
1
4
1 2
x1
=
1
0 1
x2
possui uma nica soluo x1 = 2 e x2 = 1. Para obt-la, basta observar que, da segunda
equao x2 = 1 e, da primeira, x1 + 2x2 = 4. Como x2 = 1, devemos ter x1 = 2.
O sistema
3
1 2
x1
=
x2
6
2 4
possui infinitas solues. De fato, explicitano x1 na primira equao segue x1 = 3 2x2 .
Substituindo esta expresso na segunda vem 2(3 2x2 ) + 4x2 = 6 que se simplifica em 6 =
6, ou seja, sempre satisfeita. Logo, qualquer matrix coluna [x1 , x2 ]T = [3 2x2 , x2 ]T
uma soluo do sistema. A varivel x2 pode variar livremente nos reais.
O conjunto de todas as solues do sistema chamado de conjunto soluo ou
soluo geral do sistema. Este conjunto pode ser vazio, ter um nico elemento ou
possuir infinitos elementos. O sistema de equaes que no possui soluo chamado
incompatvel. Quando possui uma nica soluo compatvel determinado e, quando
possui infinitas solues, chamado de compatvel indeterminado.
O sistema de equaes Ax = 0 chamado de homogneo. Quando b 6= 0, o sistema
de equaes Ax = b chamado de no homogneo. Um sistema est intimamente
ligado ao outro e, por esta razo, Ax = 0 chamado de sistema homogneo de equaes
associado ao sistema Ax = b.
A equao homognea Ax = 0 possui sempre a soluo trivial x = 0. Entretanto,
quando o sistema homogneo Ax = 0 possui uma soluo v no trivial, ela possuir
infinitas solues pois cv ser soluo para qualquer nmero real c.
Podemos ir um pouco alm. Se v1 , . . . , vp forem solues do sistema homogneo Ax =
0, ento
c1 v1 + + cp vp
ainda ser uma soluo do sistema homogneo para qualquer escolha dos nmeros reais
c1 , . . . , cn . A soma acima chamada de combinao linear dos vetores {v1 , . . . , vp }.
Se toda soluo de Ax = 0 for uma combinao linear dos elementos deste conjunto, ele
ser chamado de conjunto gerador das solues do sistema homogneo Ax = 0.
Se v for uma soluo de Ax = 0 e w0 for uma soluo de Ax = b, ento w0 + v
soluo de Ax = b. Se w1 for outra soluo de Ax = b, diferente de w0 , ento u = w1
w0 soluo de Ax = 0. Logo, qualquer soluo w1 do sistema Ax = b da forma w1 =
w0 + u onde u soluo da equao homognea Ax = 0. Em outras palavras, conhecida
uma soluo w0 de Ax = b, outra soluo w1 deste sistema da forma w1 = w0 + u, onde
u soluo do sistema homogneo Ax = 0.
Ao conhecer uma nica soluo do sistema no homogneo Ax = b e a soluo geral
do sistema homogneo Ax = 0, se conhece a soluo geral do sistema no homogneo.
1 2 5
0 1 6
x1
x2 = 7 .
3
x3
x1
13
7
x2 = 3 + x3 6
0
1
x3
Observe que [13, 3, 0]T uma soluo particular do sistema e [7, 6, 1]T soluo
do sistema homogneo associado. O valor de x3 poder variar livremente no conjunto dos
nmeros reais.
No exemplo anterior, as variveis x1 e x2 foram expressas em termos de x3 . neste caso,
chamamos x1 e x2 de variveis principais e x3 a varivel livre.
1.4
Sistema escalonado
escalonada.
1 0 3 0
0 0 1 2
0 0 0 0
1
0
0
0
0
1
0
0
x1
2 1
3 5 x2
0 1 x3
0 0
x4
3
0
=
8
0
5 2x3
5
2
x1
x2 40 3x3 40
+ x3 3
x3 =
0
1
x3
8
0
x4
8
onde a varivel livre x3 pode assumir qualquer valor real. interessante observar que
[2, 3, 1, 0]T soluo do sistema homogneo associado Ax = 0.
Uma matriz A de tamanho mn escalonada reduzida se for escalonada e cada piv
o nico elemento no nulo em sua coluna. Neste caso, o sistema Ax = b denominado
de sistema escalonado reduzido.
x1
3
1 2 0 3
0 0 1 1 x2 = 0
x3
0
0 0 0 0
x4
r22 r2m
R=
..
...
.
rmm
m
X
xj = bj
rmj,mj
rjk xk
k=j+1
==================================
1.5
r11
r21 r22
R = ..
.
.
.
.
rm1 rm2 rmm
10
bj
j1
X
rjk xk
k=1
!,
rjj
1.6
Sistemas equivalentes
Uma tcnica muito usada para resolver sistemas de equaes lineares consiste em realizar
transformaes sobre o sistema original at se chegar a um sistema escalonado cuja soluo
simples. Para que esta tcnica se torne efetiva, as transformaes no podem alterar o
conjunto soluo do sistema.
Definio 1.10 Dois sistemas Ax = b e Bx = c so equivalentes quando ambos possuem o mesmo conjunto soluo.
Existem operaes, denominadas elementares que, ao serem aplicadas a um sistema,
preserva suas solues, transformando-o em outro sistema equivalente. As operaes elementares so:
1. Permutar a ordem de duas equaes.
2. Multiplicar uma equao por uma constante no nula.
3. Adicionar a uma equao um mltiplo de outra.
11
(1.2)
(1.3)
Isto significa que as solues do sistema (1.2) so solues do sistema (1.3) que foi obtido
do original a partir da transformao elementar O(l1 + rl2 ). Logo, as solues de (1.3) so
solues de (1.2) pois esta pode ser obtida daquela pela operao O(l1 rl2 ). Conclumos
que os sistemas original e o transformado so equivalentes.
De modo semelhante se pode provar que as outras operaes elementares transformam
um sistema em outro equivalente.
1.7
12
sistema, obtida ao acrescentar a coluna b direita de A. Esta matriz ser denotada por
[A b]. A realizao de operaes elementares sobre as equaes equivalente realizao
de operaes elementares sobre as linhas da matriz completa.
Vamos escreve A R quando for possvel levar A em R efetuando operaes elementares sobre as linhas de A. Se R for escalonada, diremos que ela a forma escalonada
de A. Se R for escalonada reduzida, diremos que ela a forma escalonada reduzida
de A. Pode-se provar que a forma escalonada reduzida de uma matriz nica.
O processo de Gauss para resolver um sistema Ax = b descrito pelo algoritmo abaixo,
realizado sobre a matriz completa [A b].
Passo 1. Se A = 0, encerre o algoritmo. O sistema j escalonado.
Passo 2. Percorra as colunas da matriz completa [A b] da esquerda para a direita,
localizando a primeira no nula.
Passo 3. Percorra esta coluna de cima para baixo, localizando seu primeiro elemento
no nulo. Seja p o valor deste elemento.
Passo 4. Permute esta linha com a primeira.
Passo 5. Multiplique a atual primeira linha por p1 , fazendo com que o primeiro
elemento no nulo da primeira linha fique igual a 1. Este ser o piv da primeira linha.
A partir deste ponto, a primeira linha no sofrer outras modificaes.
Passo 6. Passe segunda linha, tranformando-a na primeira da prxima etapa.
Passo 7. Repita os passos de 1 a 6 com todas as linhas restantes.
Com este algoritmo, partimos da matriz [A b] e chegamos matriz [R c], onde R a
forma escalonada de A. O sistema Rx = c equivalente ao original.
Se existirem equaes degeneradas incompatveis no sistema Rx = c, ento o sistema
Ax = b no tem soluo.
Se todas as equaes degeneradas de Rx = c forem compatveis, o sistema Ax = b
tem soluo. Exclua as equaes degeneradas e use a substituio reversa para obter as
solues do sistema euqivalente Rx = c. Estas solues possuiro a forma
x = w0 + c1 v1 + + cr vr
onde w0 uma soluo de Rx = c e v1 , . . . , vr so solues do sistema homogneo associado
Rx = 0. Os nmeros reais ci so arbitrrios e relacionados com as variveis livres. Os
nmeros reais c1 , . . . , cr so denominados de parmetros.
O nmero de pivs de R igual ao nmero de linhas no nulas de R. Se existirem k
pivs, este ser o nmero de variveis principais do sistema. Se o nmero de incgnitas
do sistema for n, o nmero de variveis livres ser n k.
Se R for escalonada e A pode ser levada em R por transformaes elementares, o
nmero de pivs de R chamado de posto da matriz A.
Exemplo 1.11 Considere o sistema
x + y 2z = 0
2x + 2y 3z = 2
3x y + 2z = 12
13
1 1 2 0
2 2 3 2
3 1 2 12
1 1 2 0
0 0
1 2 .
0 4 8 12
Realizando a operao O(l2 l3 ) segue
1 1 2 0
0 4 8 12
0 0
1 2
que uma matriz diagonal superior. Encerramos a primeira etapa do mtodo de eliminao de Gauss.
Para completar o mtodo, caminhando de baixo para cima e da esquerda para a direita,
anulamos os elementos nas colunas acima da diagonal principal. Com as operaes O(l2 =
l2 8l3 ) e O(l1 = l1 + 2l3 ), obtemos
1 1 0 4
0 4 0 4
0 0 1 2
1 0
0 1
0 0
0 3
0 1
1 2
A matriz A foi transformada at se tornar uma matriz identidade. Agora, obter a soluo
do problema trivial x = 3, y = 1 e z = 2.
1.8
Matrizes inversas
14
1.9
15
Matrizes elementares
0 0
0 1
1 0
abaixo so elementares
1
7 0 0
0 1 0
0
0
0 0 1
1 0 0
0 1 0
3 0 1
a1 a2
A = b1 b2
c1 c2
O produto
a3
b3 .
c3
0 0 1
a1 a2 a3
c1 c2 c3
E(l1 l3 )A = 0 1 0 b1 b2 b3 = b1 b2 b3
c1 c2 c3
a1 a2 a3
1 0 0
7 0 0
a1
b1
E(7l1 )A = 0 1 0
c1
0 0 1
multiplica a primeira linha de A por 7. O
1 0 0
a1 a2
E(l3 + 5l1 )A = 0 1 0 b1 b2
c1 c2
5 0 1
A. O produto
a2 a3
7a1 7a2 7a3
b2 b3 = b1 b2 b3
c2 c3
c1 c2 c3
produto
a3
a2
a3
a1
b3 =
b1
b2
b3
c3
5a1 + c1 5a2 + c2 5a3 + c3
16
A = 10
15
1 3
5 8 .
6 16
Em lugar de executar uma operao elementar por vez, vamos executar as operaes lineares necessrias para anular todos os elementos de cada coluna abaixo da diagonal principal. Efetuando o produto
1 0 0
5 1 3
5 1 3
E1 A = 2 1 0 10 5 8 = 0 3 2
3 0 1
15 6 16
0 3 7
17
obtemos uma matriz onde os elementos da primeira linha abaixo da diagonal principal so
nulos. A matriz E1 no elementar mas o produto de duas matrizes elementares
1 0 0
1 0 0
E1 = 2 1 0 0 1 0 .
0 0 1
3 0 1
Efetuando o produto de E1 A pela matriz elementar E3 definida
1 0 0
5 1 3
5
0 3 2 = 0
E2 E1 A = 0 1 0
0 1 1
0 3 7
0
1 0 0
1
2
E2 E1 = 0 1 0
0 1 1
3
abaixo, obtemos
1 3
3 2
0 5
1 0 = 2 1
0 1
1 1
que E2 E1 A = U. A
0
0
1
1 0 0
L = 2 1 0 .
1 1 1
Um fato notvel desta inversa reside no fato de ser exatamente igual ao produto E2 E1 ,
onde os elementos abaixo da diagonal principal aparecem com os sinais trocados. Assim,
5 1 3
E2 E1 A = U = 0 3 2 .
0 0 5
1.10
Clculo da inversa
1
0 0
5 1 3
A = 10 5 8
e
E2 E1 = 2 1 0 ,
1 1 1
15 6 16
para obter
5 1 3
U = E2 E1 A = 0 3 2 .
0 0 5
18
1 0 3/5
5 1 3
5 1 0
E3 U = 0 1 2/5 0 3 2 = 0 3 0
0 0 1/5
0 0 5
0 0 1
anulamos os elementos da terceira coluna
produto de trs matrizes elementares
1 0 0
1
0
E3 = 0 1 0
0 0 1/5
0
0
0
1 0 3/5
1 2/5 0 1
0 .
0
1
0 0
1
1 1/3 0
5 1 0
5 0 0
E4 E3 U = 0 1/3 0 0 3 0 = 0 1 0
0
0
1
0 0 1
0 0 1
1 0 0
1 1/3 0
1
0 .
E4 = 0 1/3 0 0
0 0 1
0
0
1
Finalmente, multiplicando E4 E3 U pela matriz
1/5
E5 = 0
0
obtemos
elementar
0 0
1 0
0 1
E5 E4 E3 U = E5 E4 E3 E2 E1 A = I
onde I a matriz identidade. O produto E5 E4 E3 E2 E1 a inversa procurada
32
7
2
75
75
75
8
2
7
15
A1 = 15
.
15
1
1
1
5 5
5
19
1 2 1
A = 1 3 4 .
2 7 12
Inicialmente formamos a matriz aumentada
1 2 1 1 0 0
[A I] = 1 3 4 0 1 0
2 7 12 0 0 1
1 0 0
1 2 1 1 0 0
1 2 1 1 0 0
1 1 0 1 3 4 0 1 0 = 0 1 3 1 1 0
2 0 1
2 7 12 0 0 1
0 3 10 2 0 1
1 0 0
1 2 1 1 0 0
1
0 1 0 0 1 3 1 1 0 = 0
0 3 1
0 3 10 2 0 1
0
1 0 1
1 2 1 1
0 0
1
0 1 3 0 1 3 1 1 0 = 0
0 0 1
0 0 1 1 3 1
0
1 2 0
1 2 0 0
3 1
1
0 1 0 0 1 0 4 10 3 = 0
0 0 1
0 0 1 1 3 1
0
Logo, a inversa de A
1.11
8 17 5
4 10 3 .
1 3 1
2 1 1
0 0
1 3 1 1 0
0 1 1 3 1
2 0 0
3 1
1 0 4 10 3
0 1 1 3 1
0 0 8 17 5
1 0 4 10 3
0 1 1 3 1
Fatorao LU
Multiplicando uma matriz A por matrizes elementares, podemos chegar a uma matriz U
triangular superior.
Para descrever o processo, vamos ampliar um pouco nosso conceito de matriz elementar e tambm denominar de elementar aquelas matrizes obtidas a partir da identidade
permitindo que os elementos de uma nica coluna abaixo da diagonal principal sejam
diferentes de zero.
20
1 0 0
2 1 0
3 0 1
1 0 0
1 0 0
2 1 0
0 1 0 .
e
0 0 1
3 0 1
Podemos usar essas matrizes elementares para zerar todos os elementos abaixo da
diagonal principal de uma coluna de uma matriz A.
Exemplo 1.22 Este exemplo ilustra o anulamento de todos os elementos de abaixo da
diagonal da primeira coluna de uma matriz mediante o uso de uma matriz elementar
1 0 0
2 6 1
2 6 1
2 1 0 4 3 8 = 0 9 10 .
6 0 1
12 7 9
0 29 15
Seja A uma matriz mm. Sejam E1 , . . . , Em1 matrizes elementares que, multiplicadas
esquerda de A a levam numa matriz triangular superior U. Os elementos abaixo da
diagonal principal da primeira coluna de E1 A so nulos. Os elementos abaixo da diagonal
principal da primeira e segunda colunas de E2 E1 A so nulos e assim por diante. Este
procedimento resulta em
Ek E1 A = U
onde U triangular superior. A matriz
E = Ek E1
triangular inferior e os elementos da diagonal principal so todos iguais a 1. Sua inversa
L tambm triangular inferior e os elementos da diagonal principal so todos iguais a 1.
Com isto, obtemos a fatorao
A = LU
onde U uma matriz triangular superior e L uma matriz triangular inferior inversvel,
cujos elementos da diagonal principal so iguais a 1.
Exemplo 1.23 Vamos obter a decomposio LU da matriz
1 2 0
A = 2 1 5 .
4 1 13
21
Efetuando o produto
1 0 0
1 2 0
1 2 0
E1 A = 2 1 0 2 1 5 = 0 3 5
4 0 1
4 1 13
0 9 13
obtemos uma matriz cujos elementos abaixo da diagonal principal da primeira coluna so
iguais a zero. Agora, efetuando o produto
1 0 0
1 2 0
1 2
0
E2 E1 A = 0 1 0 0 3 5 = 0 3 5
0 3 1
0 9 13
0 0 2
obtemos a forma escalonada de A. Para chegar decomposio LU, basta calcular a inversa L = E11 E22 . As matrizes E1 e E2 nas multiplicaes acima so elementares
1 0 0
E1 = 2 1 0
4 0 1
1 0 0
E2 = 0 1 0
0 3 1
1 0 0
= 2 1 0
4 0 1
E21
1 0 0
= 0 1 0
0 3 1
Oberve um fato interessante: para obter as inversas de E1 e E2 , basta trocar os sinais dos
elementos no nulos abaixo da diagonal principal. Em seguida, efetuando o produto
L = E11 E21
1 0 0
1 0 0
1 0 0
= 2 1 0 0 1 0 = 2 1 0
4 0 1
0 3 1
4 3 1
percebemos outro fato fantstico: para obter o produto L, basta colocar na matriz identidade os elementos no nulos de E11 e E21 nos seus devidos lugares. Agora tem-se a
decomposio LU de A
1 0 0
1 2
0
A = 2 1 0 0 3 5 .
4 3 1
0 0 2
O fato ocorrido no clculo de L do exemplo anterior no fortuito e sim um resultado
geral.
Para provar esta afirmao baseando-nos no livro de Trefethen e Bau.
22
x x x x
x x x x
A=
x x x x
x x x x
x x
0 x
L1 A =
0 x
0 x
primeira transformao
x x
x x
x x
x x
x x x x
0 x x x
L2 L1 A =
0 0 x x
0 0 x x
x x x
0 x x
L3 L2 L1 A =
0 0 x
0 0 0
x
x
=U
x
x
1
2
A=
1
0
1
2
A=
1
0
0
1
2
3
0
0
1
1
3
7
5
3
2
5
5
4
0
1
4
6
0
1 3
0 0 1
0 0 0
1
0 0
2
1
1
0
0
1
.
2
1
23
1
2
L1 =
1
0
0
1
0
0
0
0
1
0
0
1 0
0
0 1
, L2 =
0
0 2
1
0 3
0
0
1
0
0
1 0 0
0
0 1 0
, L3 =
0
0 0 1
1
0 0 1
0
0
0
1
As inversas de L1 , L2 e L3 so
1
2
1
0
0
1
0
0
0
0
1
0
1
0
0
0
,
0
0
0
1
0
1
2
3
0
0
1
0
1
0
0
0
,
0
0
0
1
0
1
0
0
0
0
1
1
0
0
,
0
1
1 1
L = L1
1 L2 L3
1
2
=
1
0
0
1
2
3
0
0
1
1
0
0
0
1
1
obtido a partir de L1
e L1
simplesmente colocando na matriz identidade os
1 , L2
3
termos no nulos dessas trs matrizes em suas respectivos posies.
x1k
..
.
xkk
xk =
xk+1,k
.
..
xm,k
x1k
..
xkk
.
Lk xk =
..
0
xjk
xkk
24
Lk =
k+1,k 1
..
...
.
1
m,k
0
..
0
k =
.
k+1,k
..
.
m,k
L1
k = I + k ek .
Para o segundo golpe de sorte, argumentamos como segue. Considere, por exemplo, o
1
produto L1
k Lk+1 . Como ek k+1 = 0, segue
1
L1
k Lk+1 = (I + k ek )(I + k+1 ek+1 ) = I + k ek + k+1 ek+1
1
L1
k Lk+1
1
...
1
k+1,k
1
k+2,k k+2,k+1 1
..
..
...
.
.
m,k+1
1
m,k
25
Esta matriz triangular inferior sendo obtida a partir da matriz identidade substituindo
os elementos abaixo da diagonal principal das coluna k e k + 1 pelos elementos de L1
k e
L1
inseridas
em
seus
lugares
usuais
abaixo
da
diagonal.
Quando
tomamos
o
produto
k+1
de todas estas matrizes para formar L, obtemos
1
21
1
1
1
31
32
L
L
=
L = L1
1
2
m1
..
..
.
.
.
.
.
.
.
.
m1 m2 m,m1 1
onde
xjk
xkk
so os multiplicadores necessrios para anular os elementos abaixo da diagonal da matriz
X = Ek1 E1 A.
Tais fatos geram o seguinte algoritmo
jk =
=====================================
Algoritmo da eliminao gaussiana sem pivotamento
=====================================
Entrada: A
Sada: U e L.
=====================================
U = A e L = I.
for k = 1:m-1
for j = k+1:m
L(j,k) = U(j,k)/U(k,k);
U(j,k:m) = U(j,k:m) - L(j,k) * U(k,k:m);
end
end
=====================================
Neste algoritmo podemos usar uma nica matriz para armazenar L e U se abrirmos
mo de gravar a diagonal de L cujos elementos so unitrio. Se a matriz A no for mais
necessria, podemos us-la para gravar L e U.
Soluo Ax = b por fatorao LU
Dada a decomposio A = LU, o sistema Ax = b equivalente a LUx = b. Defina y =
Ux, resolva Ly = b e, em seguida, Ux = y para obter a soluo do sistema original. A
primeira etapa, para a fatorao A = LU, exige 23 m3 flops. O segundo e o terceiro,
26
1.12
Decomposio PLU
Nem sempre
uma matriz A possui uma
decomposio
LU e um exemplo clssico
1 1
0 1
obtida de A pela permutao das linhas
. Entretanto, a matriz B =
0 1
1 1
possui uma decomposio LU
1 0
1 1
B=
.
0 1
0 1
Sempre possvel permutar as linhas de uma matriz A de modo que a matriz assim
obtida possui uma decomposio LU.
Uma matriz de permutao aquela obtida a partir da matriz identidade mediante
uma permutao qualquer de suas linhas. A matriz elementar E(li lj ) obtida da
identidade pela permutao das linhas i e j pertence a esta classe. Toda matriz de
permutao o produto de matrizes elementares deste tipo. O produto de duas matrizes
de permutao uma matriz de permutao e a inversa de uma matriz de permutao
uma matriz de permutao. Como tivemos a oportunidade de destacar, a inversa de
E(li lj ) ela mesma.
Exemplo 1.25 So matrizes de permutao
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
0
1
0
0
0
0
0
1
1
0
0
0
0
0
.
1
0
1
0
P =
0
0
0
0
0
1
0
0
1
0
0
1
0
0
1
2
E=
3
4
0
1
0
0
0
0
1
0
0
0
0
1
27
1 0 0 0
4 1 0 0
3 0 1 0 .
2 0 0 1
Esta matriz pode ser obtida de A permutando os elementos das linhas 2 e 4 da coluna 1.
Fato interessantssimo.
xkk x x x
xkk x x x
x x x x
0 x x x
0 x x x
x x x x
x x x x
0 x x x
Entretanto, xkk pode ser nulo ou muito pequeno quando comparado aos demais elementos daquela coluna abaixo da diagonal. Neste caso, para evitar instabilidade numrica,
procura-se naquela coluna, dentre os elementos abaixo da diagonal principal, o de maior
mdulo. Troca-se esta linha com a linha k e este elemento de maior mdulo passa a ser
o piv da linha k. Esta troca de linhas denominada de pivotamento parcial. H um
processo conhecido por pivotamento onde se toma por piv o elemento de maior mdulo
na submatriz Xk:m,k:m e o coloca na posio (k, k) mediante a troca de linhas e colunas.
Devido dificuldade de gerenciar a troca de colunas e ao trabalho computacional para se
encontrar o piv, prefere-se o pivotamento parcial.
xjk
xjk
xkk
P1 L1 0
xjk
xkk
0
0
Este algoritmo pode ser expresso como um produto de matrizes. No pivotamento parcial,
em cada etapa, realiza-se uma permutao para posicionar o piv da coluna no local
correto para, em seguida, aplicar uma matriz elementar para zerar os elementos abaixo
28
da diagonal principal da coluna k. Este processo pode ser repetido coluna a coluna, at
transformar A numa matriz U triangular superior
Lm1 Pm1 L2 P2 L1 P1 A = U.
2 1
4 3
A=
8 7
6 7
copiado)
1 0
3 1
.
9 5
9 8
8 7
0 0 1 0
2 1 1 0
0 1 0 0 4 3 3 1 4 3
1 0 0 0 8 7 9 5 = 2 1
6 7
0 0 0 1
6 7 9 8
Agora efetuamos o primeiro passo de eliminao: L1 P1 A =
8 7
1 0 0 0
8 7 9 5
1 1 0 0 4 3 3 1 0 1
2
21
0 1 0 2 1 1 0 = 0 3
4
4
6 7 9 8
34 0 0 1
0 74
Em seguida, trocamos a
1 0 0
0 0 0
0 0 1
0 1 0
Efetuamos a segunda
1 0
0 1
0 3
7
0 27
Agora permutamos
1
0
0
0
9 5
3 1
.
1 0
9 8
9
5
32 32
.
54 54
9
4
17
4
8 7
9
5
0
8 7
9
5
9
17
1
3
3
7
1 0 2 2 2 0 4
4
4
=
0 0 34 54 54 0 34 54 54
9
17
0
0 74
0 12 32 32
4
4
eliminao: L2 P2 L1 P1 A =
8 7
9
5
0 0
9
17
0 7
0 0
4
4
4
1 0 0 34 54 54
0 1
0 12 32 32
a terceira linha
0 0 0
8
0
1 0 0
0 0 1 0
0 1 0
0
8 7 9
5
17
0 7 9
4
4
4
=
0 0 2 4 .
7
7
0 0 67 27
com a quarta: P3 L2 P2 L1 P1 A =
8 7 9
5
7 9
5
7
9
17
17
0 7 9
4
4
4 =
4
4
4
0 27 74 0 0 67 27
0 67 27
0 0 27 74
8 7 9
5
1 0 0 0
8 7 9
5
17
17
0 7 9
0 1 0 0 0 7 9
4
4
4
4
4
4
0 0 1 0 0 0 6 2 = 0 0 6 2
7
7
7
7
2
0 0 13 1
0 0 27 74
0 0 0
3
29
P = Pm1 P2 P1 ,
temos
P A = LU.
Qualquer matriz quadrada A, singular ou no, possui uma fatorao deste tipo, onde P
uma matriz de permutao, L uma matriz triangular inferior com elementos unitrios
na diagonal principal e U triangular superior. Esta fatorao conhecida por fatorao
P LU de A.
Para obter a fatorao P LU de A, multiplique a matriz A por uma matriz de permutao P e calcule a decomposio LU de A. Na prtica, no assim que se procede pois
no se conhece P a priori.
Vamos descrever um procedimento que justifica o algoritmo que vamos descrever
k E
1 Pk P1 A,
abaixo. Seja A uma matriz m m e X = Ek Pk E1 P1 A = E
30
i so
onde Pi so matrizes de permutao que posicionam o piv no lugar correto e E
matrizes elementares que zeram as entradas abaixo da diagonal da coluna i de Pk P1
A onde E
=E
k E1 e A = Pk P1 A. Se k < m 1, o
A. Vamos escrever X = E
processo no terminou e X, em geral, no triangular superior. A prxima etapa consiste
em aplicar uma permutao P que trocar uma linha i de X com sua linha k + 1 para
posicionar o piv da coluna no local correto. Neste caso, i > k + 1. A inversa de P P e
assim P P = I. Podemos usar este fato para escrever
P )A = (P EP
)(P A).
P X = P E A = P E(P
triangular inferior e a matriz E onde se permutou a parte
Lembramos que P EP
no nula das linhas i e k + 1, situadas abaixo da diagonal ficam permutadas. Desta
forma, sempre que se aplica uma permutao matriz A se deve efetuar uma permutao
correspondente na matriz E.
Este comentriio justifica o algoritmo da eliminao Gaussiana com pivotamento parcial descrito abaixo.
Algoritmo da eliminao Gaussiana com pivotamento parcial
=============================
U = A, L = I, P = I
for k = 1:m-1
Selecione na coluna k a linha i na qual |u(i,k)| eh maximo
Permute as linhas U(k,k:m) e U(i,k:m)
Permute as linhas L(k,1:k-1) e L(i,1:k-1)
Permute as linhas P(k,:) e P(i,:)
for j = k+1:m
L(j,k) = U(j,k) / U(k,k)
U(j,k:m) = U(j,k:m) - L(j,k)*U(k,k:m)
end
end
=============================
1.13
Decomposio de Cholesky
Se a matriz A for simtrica e inversvel, uma permutao P A dessa matriz tem uma
decomposio P LU. Vamos, num primeiro momento, nos esquecer da permutao P e
escrever esta decomposio na forma A = LU de modo que
LU = A = AT = U T LT .
Como L e U so inversveis,
1
= L1 U T = D
U LT
31
1
diagonal pois U LT
triangular superior e L1 U T triangular inferior. Assim, U =
DLT e obtemos a decomposio
A = LDLT
onde L triangular inferior cujos elementos diagonais so iguais a 1 e D = L1 U T
diagonal.
Como os elementos da diagonal principal de L so iguais a 1, D = diag(U) onde
diag(U) uma matriz diagonal, cujos elementos da diagonal principal so iguais aos
elementos da diagonal de U.
Exemplo 1.28 Considere a decomposio A = LU abaixo
2 1 0
1
0
0
2 1 0
1 2 1 = 1/2
1
0 0 3/2 1
0 1 2
0
2/3 1
0 0 4/3
2 0
0
1 T
2 1 0
1
0
0
2 0
0
1 1/2
0
1 2 1 = 1/2
1
0 0 3/2 0 0
1
2/3 .
0 1 2
0
2/3 1
0 0 4/3
0
0
1
2 p0
0
2
0
0
1
0
0
p
p
.
1
0 0
M = 1/2
3/2 p0 = 1/2
p3/2 p0
0
2/3 1
4/3
4/3
0
0
0
2/3
A decomposio de Cholesky de A
2
0
2 1 0
1 2 1 = 1 2 1 6
2
2
0 1 2
0
13 6
0
2 12 2
0
1
0 0
6 13 6 .
2
2
2
0
0
3
3
3
3
32
Captulo 2
Espao vetorial
2.1
Seja K um corpo e V um conjunto no vazio, onde definimos duas operaes, sendo uma
a adio de vetores e a outra a multiplicao de um elemento do corpo K por um
elemento de V. Sejam v e w dois elementos de V e k um elemento do corpo K. Denotaremos
a adio de v e w por v + w e a multiplicao de k e v por kv. O conjunto V, com essas
operaes denominado de espao vetorial sobre o corpo K se, para todo u, v, w de
V e todo , de K, se verificarem as propriedades
1. Comutativa: v + w = w + v.
2. Associativa: (u + v) + w = u + (v + w).
3. Elemento neutro: Existe um elemento de V denotado por 0 tal que 0+v = v +0 = v.
4. Elemento oposto: Dado v em V existe um elemento denotado por v e tal que
v + (v) = (v) + v = 0.
5. Associatividade: ()v = (v).
6. Distributividade: ( + )v = v + v.
7. Distributividade: (v + w) = v + w.
8. Elemento unitrio: A multiplicao do elemento unitrio 1 de K pelo elemento v
de V igual a v, isto , 1v = v.
Os elementos de V so chamados vetores e os elementos de K de escalares. O
elemento v + w o vetor soma de v com w e o elemento v o produto de por v ou
ainda que v um mltiplo de v. O vetor v denominado oposto de v e 0 o vetor
nulo ou vetor zero. Definimos a diferena v w (leia-se v menos w) entre os vetores
v e w por v + (w).
33
34
Em nosso curso, o corpo K ser o corpo R dos nmeros reais ou o corpo C dos nmeros
complexos. Quando V for um espao vetorial sobre o corpo dos nmeros reais, diremos
que V um espao vetorial real. Quando V for um espao vetorial sobre o corpo dos
nmeros complexos, diremos que V um espao vetorial complexo.
Quando se diz que V um espao vetorial sobre o corpo K entenda-se que est
implcito a existncia das operaes de adio de vetores e multiplicao de um escalar
por um vetor. Quando o contexto permitir, omite-se a referncia ao corpo K e se diz
apenas que V um espao vetorial. O espao vetorial {0} que contm apenas o vetor
nulo denominado de espao vetorial trivial.
Exemplo 2.1 Seja Rn o conjunto de todas as nuplas ordenadas (x1 , x2 , . . . , xn ) de
nmeros reais. Duas nuplas ordenadas (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) so iguais se
x1 = y1 , x2 = y2 , . . . , xn = yn . Define-se a operao de adio em Rn por
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
e a multiplicao de um nmero real por uma nupla ordenada definida por
(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ).
O Rn com as operaes de adio de duas nuplas ordenadas e multiplicao de um escalar
por uma nupla um espao vetorial sobre os reais.
Exemplo 2.2 O conjunto Rmn das matrizes m n com elementos reais munido com as
operaes de adio de matrizes e multiplicao de um nmero complexo por uma matriz
um espao vetorial sobre o corpo dos nmeros reais. O zero deste espao vetorial a
matriz nula e o elemento oposto (inverso aditivo) de A = [aij ] A = [aij ].
Exemplo 2.3 O conjunto das matrizes m por n com elementos complexos, que denotaremos por Cmn , munido com as operaes de adio de matrizes e multiplicao de um
nmero complexo por uma matriz um espao vetorial sobre o corpo dos nmeros complexos. O zero deste espao vetorial a matriz nula e o elemento oposto (inverso aditivo)
de A = [aij ] A = [aij ].
Exemplo 2.4 O conjunto de todos os polinmios de grau menor ou igual a n, com coeficientes reais, munido com as operaes de adio de polinmios e multiplicao de um
nmero real por um polinmio, um espao vetorial sobre o corpo dos reais. O conjunto
dos polinmios de grau menor ou igual a n com coeficientes complexos com as operaes
acima um espao vetorial sobre o corpo dos nmeros complexos.
Exemplo 2.5 O conjunto de todos os polinmios com coeficientes reais, munido com as
operaes de adio de polinmios e multiplicao de um nmero real por um polinmio,
um espao vetorial sobre o corpo dos reais. O conjunto de todos os polinmios com
coeficientes complexos com as operaes acima um espao vetorial sobre o corpo dos
nmeros complexos.
Exemplo 2.6 O conjunto C[a, b] = {f : [a, b] R : f contnua} com as operaes de
adio de funes e multiplicao de um nmero real por uma funo um espao vetorial
sobre R.
2.2
35
Dependncia linear
36
Observe que, a dependncia linear do conjunto S = { (5, 7), (1, 0), (0, 1) } de vetores
do R2 que se expressa por
1(5, 7) 5(1, 0) 7(0, 1) = (0, 0).
implica na possibilidade de escrever (5, 7) como uma combinao linear dos vetores (1, 0)
e (0, 1)
(5, 7) = 5(1, 0) + 7(0, 1).
Esta igualdade tambm implica na dependncia linear de S = { (5, 7), (1, 0), (0, 1) }. Tal
fato enunciado de modo geral no prximo teorema.
Proposio 2.9 Um conjunto {v1 , . . . , vn } de vetores de um espao vetorial V linearmente dependente se e s se um dos seus elementos for combinao linear dos demais.
Prova. Se {v1 , . . . , vn } for linearmente dependente, existem escalares 1 , . . . , n , nem
todos nulos, tais que 1 v1 + + n vn = 0. Supondo 1 6= 0 (se 1 = 0, basta permutar os
vetores do conjunto para trazer o coeficiente no nulo para a primeira posio) podemos
escrever v1 como combinao linear de v2 , . . . , vn
v1 = 1
1 2 v2 1 n vn .
37
2.3
Base e dimenso
38
Uma base B = {v1 , . . . , vn } gera V. Assim, para cada vetor v em V existem escalares
1 , . . . , n tais que
v = 1 v1 + + n vn .
Os vetores 1 v1 , . . . , n vn so denominados de componentes do vetor v na base B, os
escalares 1 , . . . , n so as coordenadas de v na base B e a matriz coluna
[v]B = [1 . . . n ]T
a matriz das coordenadas de v na base B.
Uma base ordenada B = {v1 , v2 , . . . , vn } aquela em que se estabelece que v1 o
seu primeiro elemento, que v2 o seu segundo elemento, e assim por diante. A ordem em
que seus elementos so escritos relevante.
Proposio 2.14 A matriz das coordenadas de um vetor numa base ordenada nica.
Prova. Seja B = {v1 , . . . , vn } uma base ordenada de um espao vetorial V. Se v =
x1 v1 + + xn vn e v = y1 v1 + + yn vn forem duas decomposies de v nos elementos
da base B, ento
0 = v v = (x1 y1 )v1 + + (xn yn )vn
De ora em diante, uma base ordenada ser chamada simplesmente de base. O contexto
indicar a necessidade de ser a base ordenada ou no.
Exemplo 2.15 Considere as nuplas e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), en = (0, 0,
. . . , 1), onde ek a linha k da matriz identidade n n. O conjunto de vetores {e1 , e2 ,
. . . , en } uma base tanto do Rn quanto do Cn e chamada de base cannica. Se x =
(x1 , . . . , xn ), ento x = x1 e1 + + xn en . Isto significa que as coordenadas de x na base
cannica so exatamente os elementos da nupla x.
Exemplo 2.16 O conjunto {1, x, x2 } uma base do espao vetorial dos polinmios de
grau menor ou igual a dois com coeficientes complexos.
Nem todo espao vetorial possui uma base tal como se definiu acima. O espao vetorial
de todos os polinmios com coeficientes complexos no possui base no sentido definido
neste texto. No existe conjunto finito de polinmios que gera todos os demais. Todo
conjunto finito de polinmios tem um polinmio de grau mximo, que no seria capaz de
gerar os polinmios de grau superior ao polinmio de grau mximo do conjunto.
Todas as bases de um espao vetorial possuem o mesmo nmero de elementos, como
provaremos em seguida. Precederemos o teorema principal por trs lemas.
Lema 2.17 Seja {v1 , . . . , vn } uma base de V e w = 1 v1 + + n vn . Se i 6= 0, ento
{v1 , . . . , vi1 , w, vi+1 , , . . . , vn }
tambm base.
39
1
2
n
w v2
vn = 1 w + 2 v2 + + n vn .
1
1
1
40
independente. Assim, pelo menos um dos coeficientes c22 , . . . , cn2 no nulo. Como
antes, podemos supor, sem perda de generalidade, que c22 6= 0.
Pelo lema anterior, {w1 , w2 , v3 , . . . , vn } base de V.
Prosseguindo com este raciocnio, substitumos todos os elementos da base {v1 , . . . ,
vn } por w1 , w2 , . . . , wn , provando que {w1 , w2 , . . . , wn } base.
Lema 2.19 Se um espao vetorial V possuir uma base com n elementos, ento todo
conjunto de vetores em V com mais de n elementos linearmente dependente.
Prova. De fato, se houvesse um conjunto linearmente independente com mais do que
n elementos, qualquer subconjunto dele com n elementos seria base e os vetores restantes
seriam combinaes lineares desses n selecionados, contrariando a hiptese de independncia linear do conjunto. Logo, no existe conjunto de vetores linearmente independente
com mais do que n elementos.
Estes lemas nos permitem enunciar o
Teorema 2.20 Se um espao vetorial V possuir uma base com n elementos, todas as
outras bases deste espao vetorial tm o mesmo nmero de elementos.
Prova. De fato, como todo conjunto com mais do que n elementos linearmente
dependente, no h base com mais do que n elementos.
Seja B1 a base com n elementos. Se existisse alguma base B2 com k elementos e k <
n, pelo lema anterior, a base B1 seria linearmente dependente, possibilidade que se exclui
pela definio de base. Logo no existe base com menos do que n elementos.
Este teorema garante que todas as bases de um espao vetorial possui o mesmo nmero
de elementos o que justifica a definio que segue.
Definio 2.21 Se um espao vetorial possui uma base, diremos que ele possui dimenso finita e que o nmero de elementos das bases a sua dimenso. Por definio, a
dimenso do espao vetorial trivial, aquele que contm apenas o vetor nulo, zero.
2.4
M12 =
41
n
X
qij vi
i=1
X X
i
pik qkj
ui =
rij ui
P
onde M13 = [rij ] = [ k pik qkj ] a matriz de mudana da base B1 para a base B3 . Como
#
"
X
pik qkj = [pik ][qkj ] = M12 M23 ,
M13 = [rij ] =
k
provamos a identidade
M13 = M12 M23 .
Quando B3 = B1 , a matriz M13 a identidade I e M23 = M21 . Da igualdade acima segue
M12 M21 = I,
mostrando que as matrizes de mudana de base so inversveis e que a inversa de M12
M21 .
Sejam i e j inteiros do conjunto {1, 2, . . . , n}. O delta de Kronecker ij , um
conjunto de n2 nmeros definidos do seguinte modo: ij = 1 quando i = j e ij = 0
quando i 6= j.
Observe que o elemento da linha i coluna j da matriz identidade I de ordem n n
exatamente ij e podemos usar o delta de Kronecker para escrever I = [ ij ].
As igualdades matriciais
M12 M21 = I
M21 M12 = I
42
wj =
n
X
pij vi .
i=1
Portanto,
u =
yj wj =
X X
i
Como u =
base que
X
j
pij yj
yj
pij vi
vi .
pij yj
2.5
43
Subespao vetorial
44
2.6
Subespao gerado
w11 w12
w21 w22
..
..
.
.
wk1 wk2
w1n
w2n
..
...
.
wkn
45
Os fatos enumerados acima nos permitem usar o mtodo da eliminao de Gauss para
determinar uma base para o espao gerado por S : Construa a matriz cujas linhas so
os elementos de w1 , w2 , . . . , wk , como acima e obtenha sua forma escalonada usando o
mtodo da eliminao de Gauss. As linhas no nulas da forma escalonada desta matriz
R= 0
r
3n
..
.. . .
..
. .
.
.
formaro a base de hSi .
Este procedimento pode ser usado para determinar o subespao gerado por S = { w1 ,
. . . , wk } mesmo quando S for um conjunto de vetores num espao vetorial de dimenso
finita V qualquer. Basta tomar uma base B = { v1 , v2 , . . . , vn } de V e decompor cada
elementos de S numa combinao linear de elementos de B
w1 = 11 v1 + 12 v2 + + 1n vn
w2 = 21 v1 + 22 v2 + + 2n vn
wk = k1 v1 + k2 v2 + + kn vn
formar a matriz
11 12 1n
21 22 2n
..
..
..
...
.
.
.
k1 k2 kn
e proceder como no caso em que o espao vetorial o Cn , obtendo, obter sua forma
escalonada
R= 0
r
3n
..
.. . .
.
. ..
.
.
Os vetores no nulos obtidos na forma escalonada
46
Exemplo 2.27 Vamos determinar uma base do subespao vetorial do R5 gerado por
w1
w2
w3
w4
w5
Construmos a matriz
=
=
=
=
=
(1, 2, 2, 3, 4),
(3, 8, 0, 2, 8),
(1, 2, 2, 1, 0),
(1, 2, 8, 8, 8),
(2, 6, 3, 5, 9).
1
2 2 3 4
3
8 0 2
8
1
2 2 1 0
1 2 8 8
8
2
6 3 5
9
e a escalonamos
1 2 2 3 4
1
2 2 3 4
1 0 0 0 0
3 1 0 0 0 3
8 0 2
8
0 2 6 11 20
1 0 1 0 0 1
2
4
2 2 1 0
= 0 0 0
1 0 0 1 0 1 2 8 8
0 0 10 5
4
8
0 2 1 11 17
2
6 3 5
9
2 0 0 0 1
1 2 2 3 4
1 2 2 3 4
1 0 0 0 0
0 1 0 0 0 0 2 6 11 20 0 2 6 11 20
= 0 0 0
0 0 1 0 0 0 0 0
2
4
2
4
0 0 0 1 0 0 0 10 5
0 0 10 5
4
4
0 0 5
0 3
0 2 1 11 17
0 1 0 0 1
1 2 2 3 4
1 2 2 3 4
1 0 0 0 0
0 1 0 0 0 0 2 6 11 20 0 2 6 11 20
0 0 0 0 1 0 0 0
0 3
2
4
= 0 0 5
0 0 0 1 0 0 0 10 5
4
4 0 0 10 5
0 0 0
2
4
0 0 5
0 3
0 0 1 0 0
1 2 2 3 4
1 2 2 3 4
1 0 0 0 0
0 1 0 0 0 0 2 6 11 20 0 2 6 11 20
0 0 1 0 0 0 0 5
0 3
0 3
= 0 0 5
0 0 2 1 0 0 0 10 5
5 10
4 0 0 0
0 0 0
2
4
0 0 0
2
4
0 0 0 0 1
1 2 2 3 4
1 2 2 3 4
1 0 0
0
0
0 1 0
0
0
0 2 6 11 20 0 2 6 11 20
0 0 1
0 3
0 3 = 0 0 5
0
0 0 0 5
0 0 0 1/5 0 0 0 0
1
2
5 10 0 0 0
0 0 0
0
0
0 0 0
2
4
0 0 0 2/5 1
=
=
=
=
(1, 2, 2, 3, 4),
(0, 2, 6, 11, 20),
(0, 0, 5, 0, 3),
(0, 0, 0, 1, 2).
47
48
Captulo 3
Transformao linear
Neste captulo consideraremos que os espaos vetoriais esto definidos em um mesmo corpo
K. Nos exemplos, K ser o corpo dos nmeros reais ou o corpo dos nmeros complexos.
Sejam V e W dois espaos vetoriais sobre um mesmo corpo K. Uma funo L : V W
uma transformao linear se, para todo par de vetores v, w em V e todo escalar
do corpo K,
L(v + w) = L(v) + L(w),
L(v) = L(v).
A notao Lv tambm usada para indicar L(v).
Podemos unir as duas igualdades acima dizendo que L linear quando a igualdade
L(v + w) = L(v) + L(w)
se verificar para todo e escalares e para todo v e w em V.
Toda transformao linear leva o zero de V no zero de W. De fato, L(0) = L(0 + 0) =
L(0)+ L(0) = 2L(0) o que implica em L(0) = 0.
Exemplo 3.1 A transformao L1 : R2 R definida por L1 (x, y) = 3x+ 2y linear.
A transformao L2 : R2 R2 definida por L2 (x, y) = (x y, 0) linear.
A transformao T : R2 R definida por T (x, y) = x + y + 2 no linear pois T (2x,
2y) = 2x+ 2y+ 2 diferente de 2T (x, y) = 2x+ 2y+ 4.
Uma transformao linear L : V V de um espao V sobre ele mesmo recebe o nome
de operador linear. Se V for um espao vetorial sobre um corpo K, uma transformao
linear L : V K recebe o nome de funcional linear.
Sendo L : V W e T : W U, definimos a composta T L : V U por
T L(v) = T (L(v)).
Tambm se denota T L por T L. Assim, T L(v) = T (L(v)).
49
50
51
L2 (x1 , x2 ) = 3x2
e L3 (x1 , x2 ) = x1 + 4x2
ento
L(x1 , x2 ) = ( L1 (x1 , x2 ), L2 (x1 , x2 ), L3 (x1 , x2 ) ).
Baseados neste exemplo, vemos que, se L uma transformao linear do Rn em Rm , para
qualquer x no Rn , tem-se
L(x) = ( L1 (x), . . . , Lm (x) ),
onde L1 (x), . . . , Lm (x) so nmeros reais, dependentes de x. Vamos mostrar que L1 , . . . ,
Lm so funcionais lineares de Rn em R. De fato, sendo e escalares e x, y nuplas
ordenadas, ento
L(x + y) = Lx + Ly
e assim,
( L1 (x + y), . . . , Lm (x + y) ) = ( L1 x + L1 y, . . . , Lm x + Lm y )
e, da igualdade desses elementos de Rm , obtemos
L1 (x + y) = L1 x + L1 y
...
Lm (x + y) = Lm x + Lm y
mostrando que L1 , . . . , Lm so funcionais lineares de Rn em R. A partir da, conclumos
que toda transformao linear L de Rn em Rm da forma
L(x1 , . . . , xn ) = ( a11 x1 + + a1n xn , . . . , am1 x1 + + am,n xn )
onde aij , para i = 1, . . . , m e j = 1, . . . , n, so nmeros reais.
Exemplo 3.4 A transformao
L(x, y) = (2x y, x + y, y)
de R2 em R3 linear. A transformao
T (x, y) = (x, 0, x + 2y, 3x + y, 4y)
de R2 em R5 linear.
52
1 2 1
0 1 2
1 1 1
1 2 1
1 2
1
1 2
l3 =l3 l2
3 l1
0 1 2 l3 =l
0 1
2
0 1
1 1 1
0 1 2
0 0
Usando operaes
1
2
0
53
(0, 1, 2)
54
3.1
55
a12 a1n
a22 a2n
..
..
...
.
.
am2 amn
a11
a21
..
.
am1
n
X
xj vj ,
Lv =
j=1
m
X
yi wi ,
Lvj =
i=1
m
X
aij wi ,
i=1
!
X
X
Lv = L
xj vj =
xj L (vj )
j
X
j
e por outro,
xj
aij wi =
Lv =
X X
i
aij xj
wi
yi wi .
56
m
X
aij wi ,
i=1
p
L2 wi =
bki uk ,
k=1
p
L2 L1 vj =
ckj uk ,
k=1
ento [L1 ]12 = [aij ], [L2 ]23 = [bki ] e [L2 L1 ]13 = [ckj ]. Como
m
!
m
X
X
L2 L1 vj = L2
aij wi =
aij L2 (wi )
i=1
m
X
aij
i=1
segue
i=1
p
bki uk =
k=1
ckj =
m
X X
k=1
m
X
i=1
bki aij
uk
bki aij
i=1
ou
1
[L]2 = M12
[L]1 M12 .
n
X
i=1
mij vi .
57
n
X
aij vi ,
Lwj =
i=1
n
X
bij wi .
i=1
Por um lado,
Lwj =
bkj wk =
bkj
mik vi =
X X
i
mik bkj
vi
e por outro,
Lwj = L
mkj vk
X X
i
aik mkj
=
!
mkj L (vk ) =
X
k
mkj
aik vi
vi .
3.2
Isomorfismo
58
59
ou seja,
x1 w1 + + xn wn = y1 w1 + + yn wn .
Da independncia linear de B2 , conclumos que x1 = y1 , . . . , xn = yn , de onde resulta
a igualdade x = y, provando que L injetora.
De 3 e 4 conclumos que L um isomorfismo.
Teorema 3.13 Sejam V e W espaos vetoriais sobre o mesmo corpo, ambos com a
mesma dimenso e L : V W linear. So equivalentes:
1. L um isomorfismo.
2. L sobrejetora.
3. L injetora.
4. Se L(v) = 0, ento v = 0. Em outras palavras, ker(L) = {0}.
Prova. Provemos que (2) implica em (3). Seja L sobrejetora e {w1 , . . . , wn } uma
base de W. Da sobrejetividade de L, existe um conjunto de vetores B = {v1 , . . . , vn } em
V tais que Lvi = wi , para i = 1, . . . , n. O conjunto B base de V. Sejam x = x1 v1 + +
xn vn e y = y1 v1 + + yn vn dois vetores de V tais que Lx = Ly. Desta igualdade segue
x1 w1 + + xn wn = y1 w1 + + yn wn . A independncia linear de {w1 , . . . , wn } implica
em x1 = y1 , . . . , xn = yn , ou x = y, provando a injetividade de L.
Provemos que (3) implica em (4). Se L injetora e L(v) = 0, como L(0) = 0, segue
que v = 0, provando que (3) implica em (4).
Provemos que (4) implica em (2). Sendo ker(L) = {0} e {v1 , . . . , vn } uma base de V,
ento {Lv1 , . . . , Lvn } uma base de W. De fato, se k1 , . . . , kn forem escalares tais que
k1 Lv1 + + kn Lvn = 0, ento L(k1 v1 + + kn vn ) = 0 e, como o ncleo de L contm
apenas o zero, k1 v1 + + kn vn = 0. A independncia linear dos vi acarreta em k1 = =
kn = 0, provando que conjunto {Lv1 , . . . , Lvn } linearmente independente e, portanto,
base de W. Logo, L sobrejetor.
Teorema 3.14 Sejam B1 e B2 bases dos espaos V e W respectivamente e L : V W
um isomorfismo. Se A for a representao matricial de L nas bases B1 e B2 , ento A1
ser a representao matricial de L1 nas bases B2 e B1 .
Prova. Seja A = [aij ] a representao matricial de L nas bases B1 e B2 . Seja B = [bij ]
a representao matricial de L1 nas bases B2 e B1 . Como L1 L o operador identidade,
BA a matriz da transformao identidade na base B1 e esta a matriz identidade. Ainda
temos que LL1 o operador identidade e, desta maneira, AB a matriz da transformao
identidade na base B2 e esta a matriz identidade o que prova ser B = A1 .
60
3.3
Seja A uma matriz complexa m por n. Ento L : Cn1 Cm1 definida por L(x) = Ax
uma transformao linear.
Reciprocamente, vamos mostrar que toda transformao linear L : Cn1 Cm1
da forma L(x) = Ax, onde A uma matriz m por n.
Se {e1 , . . . , en } for a base cannica do Cn1 ento aj = L(ej ) so vetores coluna em
Cm1 . Dado o vetor coluna x = [x1 , . . . , xn ]T = x1 e1 + + xn en do Cn , ento
!
n
n
X
X
xj ej =
xj L (ej )
L(x) = L
j=1
n
X
j=1
xj aj = Ax
j=1
Captulo 4
Produto interno e norma
Neste captulo trabalharemos apenas com espaos vetoriais sobre o corpo dos nmeros
reais ou sobre o corpo dos nmeros complexos.
4.1
Seja V um espao vetorial sobre o corpo R dos nmeros reais. Um produto interno em
V uma operao
h , i: V V R
que possui as propriedades abaixo, vlidas para todo v, w e z em V e todo a e b em R :
1. O produto interno positivo definido
hv, vi 0 e hv, vi = 0 se e s se v = 0.
2. O produto interno simtrico
hv, wi = hw, vi .
3. O produto interno linear na segunda varivel
hv, aw + bzi = a hv, wi + b hv, zi .
Das propriedades (2) e (3) se conclui que o produto interno liner na primeira varivel
hav + bw, zi = a hv, zi + b hw, zi .
Essas propriedades se extrai a linearidade do produto interno em relao primeira e
segunda varivel. Tanto que, se v1 , . . . , vp e w1 , . . . , wq forem vetores de V e ai , bj
forem nmeros reais, ento
+
* p
q
p
q
X
X
X
X
ai vi ,
bj wj =
ai bj hvi , wj i .
i=1
j=1
i=1 j=1
61
62
a0 + a1 x + a2 x2 , b0 + b1 x + b2 x2 = a0 b0 + a1 b1 + a2 b2
um produto interno e
hf (x), g(x)i =
outro.
f (x)g(x)dx
Exemplo 4.3 Seja C [a, b] o conjunto das funes reais de varivel real, definidas e contnuas no intervalo [a, b]. Com as operaes de adio de funes e a multiplicao de um
nmero real por uma funo, C [a, b] um espao vetorial sobre o corpo de nmeros reais.
Nele
Z
b
hf, gi =
f (t)g(t) dt
um produto interno.
4.2
Vamos agora definir produto interno em um espao vetorial sobre o corpo C dos nmeros
complexos. O corpo dos nmeros complexos formado pelo conjunto de pares ordenados
(a, b) de nmeros reais, no qual definimos duas operaes, uma de adio e outra de
multiplicao. Os elementos desse corpo so denominados nmeros complexos. Dois
nmeros complexos (a, b) e (c, d) so iguais quando a = c e b = d e se escreve (a, b) =
(c, d) para expressar esta igualdade. O a a parte real e o b a parte imaginria do
nmero complexo (a, b). Definimos as operaes de adio e de multiplicao de dois
nmeros complexos por
(a, b) + (c, d) = (a + c, b + d)
e
(a, b) (c, d) = (ac bd, ad + bc).
O sinal de multiplicao pode ser omitido e tanto (a, b) (c, d) quanto (a, b) (c, d) possuem
o mesmo significado. O nmero complexo (0, 1) denotado por i e denominado unidade
imaginria. Se denotarmos o nmero complexo (a, 0) simplesmente por a e vemos que
todo nmero complexo (a, b) pode ser escrito na forma a + bi. De fato,
(a, b) = (a, 0) + (b, 0)(0, 1) = a + bi
63
b
a
i .
(a + bi)
a2 + b2 a2 + b2
que existe apenas quando a + bi for diferente de zero. O oposto de z denotado por z
e o inverso de z denotado por z 1 .
Definimos a subtrao z1 z2 de dois nmeros complexos z1 e z2 por
z1 z2 = z1 + (z2 )
e a diviso z1 /z2 , onde z2 6= 0, por
z1
= z1 z21 .
z2
Sendo z = a + bi um nmero complexo, onde
a eb so reais, z = a bi o seu
complexo conjugado e o nmero real |z| = zz = a2 + b2 o seu mdulo. Neste
caso, sendo z 6= 0, ento
z
z 1 =
zz
Exemplo 4.4 Se z = 3 + 4i, ento z = 3 4i e zz = (3 + 4i)(3 4i) = 25. Logo,
z 1 = (3 4i)/25.
Se z e w so nmeros complexos, valem as propriedades
z + w = z + w
zw = zw
1
1
z
= z .
64
*
X
i
ai vi , w
X
i
ai hvi , wi
65
hf, gi =
4.3
f (t)g(t) dt.
Funcional linear
Seja V um espao vetorial sobre um corpo C dos nmeros complexos. Uma transformao
linear f : V C recebe o nome de funcional linear em V.
Teorema 4.7 Seja V um espao vetorial sobre C, com dimenso finita e produto interno.
Dado um funcional linear f : V C. Ento existe um vetor w em V tal que f (v) =
hw, vi para todo v em V.
Prova. Seja {v1 , . . . , vn } uma base ortonormal de V. Decompondo v nesta base e
calculando f (v) obtemos
f (v) = f (a1 v1 + + an vn ) = a1 f (v1 ) + + an f (vn ) = hw, vi
onde w = f (v1 )v1 + + f (vn )vn .
Vamos mostrar que este vetor nico. Se houvesse outro vetor u tal que hv, wi =
hv, ui para todo v em V, ento hv, w ui = 0 para todo v. Tomando v = w u, segue
hw u, w ui = 0, mostrando que w = u.
O vetor w tal que f (v) = hw, vi para todo v em V pertence ao complemento ortogonal
do ker(f ) uma vez que f (v) = 0 implica em hw, vi = 0.
Toda transformao linear L de um espao vetorial complexo V de dimenso n em
Cm da forma
L(v) = ( f1 (v), . . . , fm (v) ),
onde fi um funcional linear em V. Dado um produto interno em V, existem w1 , . . . , wm
em V tais que
L(v) = ( hw1 , vi , . . . , hwm , vi ),
66
4.4
Norma
Como este polinmio real maior ou igual a zero para todo , seu discriminante =
4 |hv, wi|2 4 kvk2 kwk2 menor ou igual a zero, ou seja,
|hv, wi|2 kvk2 kwk2 .
67
hv, wi
.
kvk kwk
68
Sendo as bases ortonormais, aij = hvi , wj i = aji e bij = hwi , vj i = hvj , wi i = aji , mostrando
1
que M12
= M12 e M12
= M12
.
Exemplo 4.11 Consideremos as bases B1 = {e1 , e2 } e B2 = {f1 , f2 } do R2 , onde e1 =
(1, 0), e2 = (0, 1), f1 = (1/5)(3, 4) e f2 = (1/5)(4, 3). Ambas so ortonormais em
relao ao produto interno h(x1 , y1 ), (x2 , y2 )i = x1 x2 + y1 y2 . Temos
3
4
e1 + e2
5
5
4
3
e1 e2
=
5
5
f1 =
f1
e
3
4
f1 + f2
5
5
4
3
=
f1 f2 .
5
5
e1 =
e1
Assim
M12 = M21 =
3
5
4
5
4
5
35
4.5
Ortogonalizao de Gram-Schmidt
Podemos, a partir de uma base {v1 , . . . , vn } uma base de um espao vetorial V, obter
uma base ortogonal {w1 , . . . , wn } de V, seguindo o procedimento descrito em seguida e
conhecido como processo de ortogonalizao de Gram-Schmidt.
Defina
w1 = v1 .
Agora escreva
w2 = v2 12 w1
69
e determine o escalar 12 para que a condio de ortogonalidade hw1 , w2 i = 0 seja satisfeita. Substitua w2 por v2 12 w1 nesta condio para obter
12 =
hw1 , v2 i
.
hw1 , w1 i
Em seguida, considere
w3 = v3 13 w1 23 w3
e determine 13 e 23 para tornar w3 ortogonal a w1 e w2 . Das condies de ortogonalidade
hw1 , w3 i = 0 e hw2 , w3 i = 0 calcule
13 =
hw1 , v3 i
hw1 , w1 i
23 =
hw2 , v3 i
.
hw2 , w2 i
hwi , vk i
.
hwi , wi i
A partir da base ortogonal {w1 , . . . , wn } pode-se determinar uma base ortonormal {q1 ,
. . . , qn }, onde qi = wi / kwi k . Esta base ortonormal pode ser obtida ao mesmo tempo em
que se obtm a base ortogonal. Comece com
w1 = v1
q1 = w1 / kw1 k
w3 = v3 r13 q1 r23 q2
q2 = w2 / kw2 k ,
e
q3 = w3 / kw3 k ,
qk = wk / kwk k ,
70
Exemplo 4.12 Os ternos ordenados (1, 0, 0), (0, 3/5, 4/5), (0, 4/5, 3/5) formam uma
base ortonormal no espao vetorial Cn em relao ao produto interno
1 b1 + a2 b2 + a3 b3 .
h (a1 , a2 , a3 ), (b1 , b2 , b3 ) i = a
Exemplo 4.13 Os polinmios 1, x, x2 formam uma base ortonormal no espao vetorial
sobre C dos polinmios de grau menor ou igual a 2 e coeficientes complexos, munido com
o produto interno
a1 + a2 x + a3 x2 , b1 + b2 x + b3 x2 = a1 b1 + a
2 b2 + a3 b3 .
Exemplo 4.14 Considere o espao vetorial sobre C dos polinmios com coeficientes complexos de grau menor ou igual a 3, com o produto interno
Z 1
hf, gi =
f (x)g(x)dx.
1
O conjunto {1, x, x2 , x3 } uma base no ortogonal deste espao vetorial. A base ortogonal
obtida a partir dela, usando o procedimento de Gram-Schmidt,
{ 1, x, x2 1/3, x3 (3/5)x }.
Este procedimento pode ser estendido para o espao vetorial dos polinmios de grau
menor ou igual a n.
Denotemos por p0 (x), p1 (x), p2 (x), . . . os polinmios obtidos de 1, x, x2 , . . . pelo
processo de ortogonalizao de Gram-Schmidt, usando o produto interno definido acima.
Os polinmios Lk (x) = pk (x)/pk (1) continuam ortogonais dois a dois e so denominados
de polinmios de Legendre. Os quatro primeiros so
3
1
5
3
L0 (x) = 1, L1 (x) = x, L2 (x) = x2 , L3 (x) = x3 x.
2
2
2
2
Tanto {1, x, x2 , x3 } quanto {L0 (x), L1 (x), L2 (x), L3 (x)} so bases do espao dos polinmios
de grau menor ou igual a 3. A segunda possui a vantagem de ser ortogonal, o que a torna
mais adequada para determinados clculos. Os mtodos espectrais usam polinmios ortogonais para resolver equaes diferenciais parciais tanto analtica quanto numericamente.
4.6
Decomposio QR
Vamos analisar o caso especial do espao vetorial complexo Cn1 com o produto interno
hx, yi = x y.
Seja A = [v1 , . . . , vn ] uma matriz m n cujo coluna k vk . Um modo interessante
de olhar para o produto Ax, onde x = [x1 , . . . , xn ]T uma matriz em Cm1 consiste em
escrever
Ax = x1 v1 + + xn vn
71
v1
A = ...
vn
v1 vn
v2 vn
= [vi vj ] .
vn vn
v1 v1 v1 v2
v2 v1 v2 v2
A A =
vn v1 vn v2
72
r11
0
[v1 , v2 , v3 , . . . , vn ] = [q1 , q2 , q3 , . . . , qn ]
0
que se resume em
r12 r13
r22 r23
0 r33
A=Q
denominada decomposio QR reduzida de A.
Nesta decomposio, observe que o espao hv1 i , gerado por v1 igual ao espao hq1 i
gerado por q1 , o espao hv1 , v2 i gerado por v1 e v2 igual ao espao hq1 , q2 i gerado por q1 ,
q2 , e assim por diante,
hq1 i = hv1 i ,
hq1 , q2 i = hv1 , v2 i ,
hq1 , q2 , q3 i = hv1 , v2 , v3 i ,
...
73
74
1
(v4 r14 q1 r24 q2 r34 q3 )
r44
r14
r24
r34
r44
onde se observa que a matriz da direita triangular superior. Note-se que o espao gerado
por {q1 , q2 , q3 , q4 } contm o espao gerado por {v1 , v2 , v3 , v4 }.
e R.
As colunas
No caso genrico, este procedimento continua, at obter as matrizes Q
= [q1 , . . . , qn ], de ordem m por n, so vetores ortogonais entre si e possuem
da matriz Q
de ordem n por n, triangular superior. Para estas matrizes,
mdulo unitrio. A matriz R,
R.
A=Q
Esta fatorao de A conhecida como decomposio QR reduzida de A.
de modo que {q1 , . . . ,
Podemos acrescentar m n colunas qn+1 , . . . , qm direita de Q,
qn , . . . , qm } seja uma base ortonormal de Cm e assim, obter uma matriz unitria Q = [q1 ,
. . . , qn , . . . , qm ], de ordem m por m, cujas colunas formam uma base ortonormal de Cm .
obtendo
Na continuao, devemos acrescentar m n linhas nulas na parte inferior de R,
uma matriz R, de ordem m por n, triangular superior. As matrizes Q e R assim obtidas
so de tal forma que
A = QR.
75
1 3 0
1 0 1
0 1 2
1/ 2 3/22 1/11
2 3/ 2 1/ 2
1/ 2 3/ 22 1/ 11 0 11/ 22 7/ 22 .
0
2/ 22 3/ 11
0
0
5/ 11
1 3
1 0
0 1
1/ 2 3/22 1/11
2 3/
2
p
1/ 2 3/ 22 1/ 11 0
11/2
p
0
0
2/11 3/ 11
0
1 1 2
0 1 1
1/ 2 1/22
2/33
3/ 3
2 1/ 2 3/ 2
0
2/ 22
4/ 33 3/3
0 1/ 22 3/22
1/ 2 1/ 22 2/ 33 3/ 3 0
0
6/ 33
0
0
0
0
4/ 22 3/ 33
0
1
0
1
0
1
1
0
0
2
1
1
0
76
1/ 2 1/6 1/ 3
0
2/ 6 13
1/ 2 1/ 6 1 3
0
0
0
0
2 1/2 3/2
0
0 3/ 6 3/ 6
0
0
0
0
0
0
0
1
1 1 2 0
0 1 1 1
1 0 1 3
A = QR, onde
1/ 2 1/6
1/ 3
Q = 0
2/ 6 1/3
1/ 2 1/ 6 1/ 3
2 1/2 3/2 3/ 2
R = 0 3/ 6 3/ 6 1/6 .
0
0
0
4/ 3
Captulo 5
Soma de subespaos
Sejam V1 , . . . , Vk subespaos vetoriais de V. O conjunto
V1 + + Vk = { v1 + + vk : vi Vi para i = 1, . . . , k }
um subespao vetorial de V e recebe o nome de soma de V1 , . . . , Vk .
Teorema 5.1 Sejam V e W dois subespaos de um espao vetorial U. Ento
dim(V + W ) = dim(V ) + dim(W ) dim(V W ).
Prova. Quando V est contido em W, ento V W = V e V + W = W. Neste caso,
dim(V ) + dim(W ) dim(V W ) = dim(V ) + dim(W ) dim(V ) = dim(W )
o que prova o teorema para este caso particular. Do mesmo modo se prova que o teorema
vale quando W est contido em V.
Vamos agora tratar o caso em que V W diferente de V e de W. Seja B1 = {u1 , . . . ,
up } uma base de V W. Vamos complet-la de modo que B2 = {u1 , . . . , up , v1 , . . . , vq }
seja base de V e B3 = {u1 , . . . , up , w1 , . . . , wr } seja base de W. O conjunto B4 = {u1 ,
. . . , up , v1 , . . . , vq , w1 , . . . , wr } gera V + W e, se for linearmente independente, ser base
de V + W. Neste caso,
dim(V + W ) = p + q + r = (q + p) + (r + p) p
= dim(V ) + dim(W ) dim(V W )
e o teorema estar provado.
Falta provar que B4 linearmente independente. Vamos mostrar que, se x1 , . . . , xp ,
y1 , . . . , yq , z1 , . . . , zr forem escalares tais que
x1 u1 + + xp up + y1 v1 + + yq vq + z1 w1 + + zr wr = 0,
ento todos eles so nulos. Analisemos esta possibilidade. Se algum yj for diferente de
zero, o vetor no nulo y1 v1 + + yq vq seria uma combinao linear dos elementos de
77
78
5.1
Soma direta
V2
V1
V2
79
Teorema 5.6 Sejam V1 , . . . , Vk subespaos vetoriais de V, um espao vetorial com dimenso finita. Se V = V1 Vk ento
dim V = dim V1 + + dim Vk .
Prova. Seja Bi base de Vi para i = 1, . . . , k.
Se V = V1 Vk , todo v em V pode ser decomposto de forma nica numa soma
v = v1 + + vk , com vi em Vi , para i = 1, . . . , k. Cada vi pode ser decomposto de
forma nica nos vetores da base Bi . Logo, v pode ser escrito de forma nica como uma
combinao linear dos vetores da unio B1 Bk , provando que esta uma base de
V.
80
5.2
Complemento ortogonal
Definio 5.7 Seja V um espao vetorial com produto interno e S um subespao vetorial
de V. O conjunto
S = {v V : hv, si = 0 para todo s em S }
um subespao de V, chamado de complemento ortogonal de S.
Para mostrar que um determinado vetor v est em S , basta mostrar que ele ortogonal a todo vetor de uma base de S. O nico vetor que est ao mesmo tempo em S e em
S o vetor nulo e da,
S S = {0}.
Teorema 5.8 Seja S um subespao vetorial de dimenso finita de um espao vetorial V
com produto interno. Ento V = S S .
Prova. Seja {v1 , . . . , vp } uma base ortonormal de S. Dado qualquer v em V, o vetor
w = v hv1 , vi v1 hvp , vi vp
ortogonal a todo vetor de S. Desta forma, qualquer vetor v pode ser decomposto numa
soma v = s+ w, onde s = hv1 , vi v1 + + hvp , vi vp pertence a S e w pertence a S e
assim, V = S+ S .
Vamos mostrar que esta decomposio nica. Se v = s1 + w1 , com s1 em S e w1 em
Captulo 6
Transformao adjunta
Sejam V e W espaos vetoriais complexos com dimenso finita e produto interno. Dado
uma tansformao linear L : V W, vamos mostrar que existe uma nica transformao
linear L : W V tal que
hLv, wi = hv, L wi .
para todo v em V e w em W.
Primeiro a existncia. Sendo B1 = {v1 , . . . , vn } uma base ortonormal de V e B2 =
{w1 , . . . , wm } uma base ortonormal de W podemos escrever Lvj , para j = 1, . . . , n, como
uma combinao linear dos elementos de B2
Lv1 = a11 w1 + a21 w2 + + am1 wm
Lv2 = a12 w1 + a22 w2 + + am2 wm
L w2 = a
21 v1 + a22 v2 + + a2n vn
m1 v1 + am2 v2 + + a
mn vn
L wm = a
Usando o smbolo de somatrio, os valores das transformaes lineares L e L nas bases
de seus respectivos domnios se escrevem
Lvj =
L wi =
m
X
i=1
n
X
j=1
81
aij wi
aij vj .
82
83
e
L f1 = 2e1 + 3e2
L f2 = 5e1 + 7e2
L f3 = 11e1 + 13e2
de modo que
[L]12
2 3
= 5 7 ,
11 13
[L ]21 =
2 5 11
3 7 13
8 3
= 11 4
7 2
[L ]43 =
18
27 11
13 21 9
84
85
=
=
=
=
L
ker(L)
Im (L),
ker(L ).
Definio 6.5 Seja V um espao vetorial com produto interno. O operador linear L :
V V antiadjunto quando L = L e unitrio quando L = L1 .
Teorema 6.6 Numa base ortonormal, a matriz A = [aij ] de um operador auto-adjunto
hermitiana (A = A ), a de um operador antiadjunto antihermitiana (A = A ) e a
de um operador unitrio unitria (A = A1 ).
Teorema 6.7 O operador linear L : V V unitrio se e s se, para todo v1 e v2 em
V,
hLv1 , Lv2 i = hv1 , v2 i .
Para fixar a nomenclatura, apresentamos o quadro abaixo.
Espao Real
Espao Complexo
Operador
Matriz
Operador
Matriz
auto-adjunto simtrica
auto-adjunto hermitiana
antiadjunto
anti-simtrica antiadjunto
antihermitiana
ortogonal
ortogonal
unitrio
unitria
6.1
86
A= 2
0
base cannica do R3
2 1
4 2
1 2
Teorema 6.11 Sejam V e W espaos vetoriais com produto interno e dimenso finita.
Seja L : V W linear. O posto das transformaes lineares L, L , L L e LL so iguais.
Prova. Sabemos que
de onde obtemos
V = ker(L) Im (L ),
dim ker(L) + dim Im (L ) = dim V.
87
Teorema 6.13 Sejam V e W espaos vetoriais com dimenso finita, ambos com produto
interno. Seja L : V W uma transformao linear com posto mximo.
1. Quando dim V dim W, a transformao linear L L : V V um isomorfismo.
2. Quando dim W dim V, a transformao linear LL : W W um isomorfismo.
Prova. Quando
1. posto(L) = dim V dim W, ento dim Im (L L) = dim Im (L) = dim(V ) e assim
L L sobrejetora e, portanto, um isomorfismo.
2. posto(L) = dim W dim V, ento dim Im (LL ) = dim Im (L ) = dim(W ) e assim
LL sobrejetora e, portanto, um isomorfismo.
6.2
As igualdades Im (L) = ker(L ) e Im (L ) = ker(L) possuem uma consequncia interessante para sistemas de equaes lineares Ax = b, onde A uma matriz complexa m n
e b uma matriz complexa m 1. Nestes sistemas, as matrizes A e b so dadas e o que
se deseja determinar se existem matrizes coluna complexas x de tamanho n 1 tais
que Ax = b. Tais matrizes x so denominadas solues do sistema Ax = b. Existindo
solues, importante determin-las. Um mtodo usado na obteno das solues o da
eliminao de Gauss.
A matriz A uma transformao linear de Cn1 em Cm1 .
O sistema Ax = b tem soluo se e s se b estiver na imagem de A. Da igualdade
Im(A) = ker(A ) conclmos que Ax = b tem soluo se e s se b for ortogonal a todo y
no ncleo de A isto ,
hb, yi = 0
88
Captulo 7
Projetores
Seja V um espao vetorial. Um operador linear P : V V um projetor em V se
P 2 = P. Sendo I : V V o operador identidade, o operador linear I P tambm um
projetor, denominado projetor complementar de P. Os projetores tambm recebem o
nome de operadores idempotentes.
Sejam S1 e S2 dois subespaos de V tais que V = S1 S2 . Considere o operador
P : V V definido por P (v1 + v2 ) = v1 , para todo v1 em S1 e v2 em S2 . O operador
assim definido um projetor, denominado projetor sobre S1 ao longo de S2 . Sob estas
condies, S1 a imagem de P e S2 o ncleo de P.
Se v estiver na imagem de P, ento existe w em V tal que P w = v. Sendo P uma
projeo, P 2 w = P w o que implica em P v = v. A imagem de (I P ) igual ao ncleo
de P e a imagem de P igual ao ncleo de I P.
Teorema 7.1 Seja P : V V um projetor. Ento V = Im (P ) ker(P ).
Prova. (1) Seja v um vetor em V. Podemos escrever v = P v+ (I P )v. Como P v
est na imagem de P e (I P )v est no ncleo de V, segue V = Im (P )+ ker(P ).
(2) Se v1 na Im (P ) e v2 no ker(P ) forem tais que v = v1 + v2 , ento P v = P v1 + P v2 .
Como P v1 = v1 e P v2 = 0, segue P v = v1 e (I P )v = v2 , mostrando que a decomposio
de v numa soma de um elemento da Im (P ) com um elemento do ker(P ) nica. Logo,
V = Im (P ) ker(P ).
De acordo com este teorema, todo projetor P um projetor sobre sua imagem ao
longo do seu ncleo.
7.1
Projetores ortogonais
90
91
e assim,
P x = hq1 , xi q1 + + hqk , xi qk
= (q1 q1 )x + + (qk qk )x
= (q1 q1 + + qk qk ) x.
Como esta igualdade vale para todo x,
P = q1 q1 + + qk qk .
Quando P projeta ortogonalmente sobre o espao gerado por um nico vetor unitrio
q, temos
P = qq .
Se x for uma matriz coluna no nula em Cn1 , no necessariamente unitrio, ento q =
x/ kxk unitrio e a projeo ortogonal P sobre o espao gerado por x
xx
x x
= .
P = qq =
kxk kxk
xx
Vamos relembrar que, sendo x uma matriz coluna do Cn1 , ento x x um nmero real
e xx uma matriz complexa n por n.
O projetor complementar de P
I
xx
,
x x
92
7.2
Nesta seo vamos considerar o espao vetorial Cm1 com o produto interno hx, yi = x y.
Usando uma base ortonormal
Seja P um projetor ortogonal em Cm1 e S sua imagem. Sendo P ortogonal, seu ncleo
S . Seja {q1 , . . . , qn } uma base ortonormal de S e {qn+1 , . . . , qm } uma base ortonormal
de S . Pelas propriedades provadas para uma projeo ortogonal P,
P qi = qi
P qi = 0
para
para
i = 1, . . . , n
i = n + 1, . . . , m
Seja
Q = [ q1 , . . . , qn , qn+1 , . . . , qm ]
a matriz cujas colunas so os vetores da base ortonormal {q1 , . . . , qn , qn+1 , . . . , qm } do
Cm1 e para a qual
P Q = Q,
onde uma matriz quadrada m m, onde os n primeiros elementos da diagonal so
iguais a 1 e todos os demais elementos so nulos. Podemos escrev-la usando blocos
I 0
=
0 0
93
Pk
i=1 qi qi
Q
=
P =Q
k
X
qi qi
i=1
ou
vj P v = vj v,
de onde segue
vj Ax = vj v.
Como a j sima linha de A vj , a identidade acima resulta em
A Ax = A v.
Como as colunas de A so linearmente independentes, seu posto mximo e A A : Cn1
Cn1 um isomorfismo, possuindo assim uma inversa, o que nos permite escrever
x = (A A)1 A v
de onde resulta
P v = Ax = A(A A)1 A v.
Como esta igualdade vale para todo v em Cm1 ,
P = A(A A)1 A .
Se a base B for ortonormal, a matriz A unitria e da A = A1 . Com isto reobtemos
P = AA , vlida quando usamos uma base ortonormal.
94
Exemplo 7.6 Determine o projetor ortogonal P sobre o espao gerado pelos vetores v1 =
(1, 2, 0)T e v2 = (0, 1, 1)T .
Inicialmente estabelecemos
1 0
A = [v1 , v2 ] = 2 1
0 1
e calculamos
Observe que P v1 = v1 e P v2 = v2 .
7.3
Vamos considerar o espao vetorial Cm1 com o produto interno hx, yi = x y. Pelo
processo de ortogonalizao de Gram-Schmidt, partindo de uma base {v1 , . . . , vm } de
Cm1 , pode-se obter uma base ortonormal {q1 , . . . , qm }, de modo iterativo
w1 = v1 e q1 =
w1
kw1 k
w2 = v2 hq1 , v2 i q1 e q2 =
w2
kw2 k
w3 = v3 hq1 , v3 i q1 hq2 , v3 i q2 e q3 =
w3
kw3 k
j1
X
i=1
hqi , vj i qi e qj =
wj
,
kwj k
j1
j1
X
X
wj = vj
qi qi vj = 1
qi qi vj
i=1
i=1
j
X
i=1
qi qi
95
7.4
Se q for uma matriz coluna unitria em Cm1 , a projeo ortogonal sobre o complemento
ortogonal do espao gerado por q
Pq = I qq .
Vamos, a partir de um conjunto linearmente independente {v1 , . . . , vn } em Cm1 , obter
um conjunto ortonormal de matrizes coluna {q1 , . . . , qn } em Cm1 . Observe que
Pq2 Pq1 = (I q2 q2 )(I q1 q1 ) = I q1 q1 q2 q2 + q1 q1 q2 q2 = I q1 q1 q2 q2
pois q1 q1 q2 q2 = 0, uma vez que q1 q2 = 0. Prosseguindo com esse raciocnio, obtemos
Pqj Pq2 Pq1 =
j
Y
i=1
(I qi qi ) =
= I
j
X
i=1
j Q
j
qi qi = I Q
j exatamente aquele
j Q
uma vez que qr qr qs qs = 0 para todo r 6= s. O projetor Pj = I Q
usado no algoritmo de Gram-Schmidt. A identidade
Pj = Pqj Pq2 Pq1
ser usada no algoritmo modificado. A obteno de Pj atravs das projees sucessivas
Pqj Pq2 Pq1 mais estvel numericamente do que o clculo clssico atravs da
matriz Pj . Em lugar de calcular wj pela frmula,
wj = Pj1 vj
96
= vj
(2)
= Pq1 wj = wj q1 q1 wj
wj
wj
(3)
wj
wj
(1)
(1)
(1)
(2)
(2)
(2)
= Pq2 wj = wj q2 q2 wj ,
..
.
(j)
(j1)
(j1)
(j1)
= wj = Pqj1 wj
= wj
qj1 qj1
wj
.
7.5
97
n
X
n2 n
4m = 4m
(n j) = 4m
= 2mn2 2mn 2mn2 ,
2
j=1 k=j+1
j=1
98
Captulo 8
Refletor de Householder
Seja v um vetor no nulo de Cm . A matriz
vv
v v
chamada de matriz de Householder ou refletor de Householder. Se u for mltiplo
de v e w for ortogonal a v, ento
Hv = I 2
Hv u = u
Hv w = w.
vv
v v
hermitiano e unitrio.
O refletor Hv hermitiano e unitrio mas no um projetor, visto que
Hv2 = I.
Sejam x e y dois vetores do Cm com normas iguais e hx, yi = hy, xi . Os vetores
1
(x + y)
2
1
w =
(x y)
2
so ortogonais e o refletor de Householder Hv tal que
v =
Hv x = y.
Este fato pode ser provado escrevendo x e y em termos de v e w
x=v+w
e
99
y = v w.
100
Nota 8.2 Se os elementos de x e y forem todas reais, basta ter kxk = kyk para garantir
a igualdade entre hx, yi e hy, xi .
Podemos definir um refletor de Householder que leva um vetor x do Cm num outro
y = (y1 , 0, . . . , 0) onde apenas a primeira coordenada y1 no nula. Iremos us-lo para
calcular a decomposio QR de uma matriz usando refletores de Householder, que so
operadores auto-adjuntos. Vamos sua descrio.
O sinal de um nmero complexo z definido por sign(0) = 1 e, quando z 6= 0,
sign(z) =
z
.
|z|
Observe que o sinal um nmero complexo de mdulo unitrio. Se z for real, seu sinal
ser +1 ou 1. Para todo nmero complexo z,
sign(z)sign(z) = 1.
Teorema 8.3 Seja x = (x1 , x2 , . . . , xm )T um vetor no nulo em Cm , com x1 complexo
no nulo e e1 = (1, 0, . . . , 0)T o primeiro elemento da base cannica do Cm . O refletor
Hv , onde
1
v = (x + sign(x1 ) kxk e1 ) ,
2
leva x em y = sign(x1 ) kxk e1 , cujo nico elemento no nulo o primeiro.
Prova. O vetor
w=
1
(x sign(x1 ) kxk e1 )
2
ortogonal a v e
x = u + w,
sign(x1 ) kxk e1 = u w.
Portanto,
Hv (x) = Hv v + Hv w = v + w = sign(x1 ) kxk e1 .
O y definido neste teorema tem a forma (y1 , 0, . . . , 0)T , onde apenas y1 = sign(x1 ) kxk
no nulo. Esta escolha de u assegura que kxk kyk , o que fornece uma maior estabilidade numrica decomposio QR usando refletores de Householder descrita em seguida.
8.1
101
A decomposio QR, baseada no processo de ortogonalizao de Gram-Schmidt o resultado de sucessivas multiplicaes direita de A = [v1 , . . . , vn ] por matrizes elementares,
todas triangulares superiores, resultando numa matriz ortogonal Q = [q1 , . . . , qn ]
A R1 Rn = Q.
A matriz R1 Rn triangular superior e sua inversa R nos fornece a decomposio
A = QR.
Por seu turno, a decomposio QR baseada nas matrizes de Householder ser o resultado da multiplicao esquerda de A por uma seqncia de matrizes ortogonais Q1 , . . . ,
Qn , que resultaro numa matriz triangular R
Qn Q1 A = R.
A matriz Q1 Qn ortogonal e sua inversa Q nos fornecer a decomposio A = QR.
A idia de Householder, proposta em 1958, foi a de escolher Qk para zerar aqueles
elementos da coluna k de A, situados abaixo da diagonal. A multiplicao pela matriz Qk
opera sobre A realizando uma combinao linear das linhas k, k + 1, . . . , m, mantendo as
primeiras k 1 colunas inalteradas e anulando os elementos da coluna k situados abaixo
da diagonal. A matriz Q1 uma matriz de Householder H1 e a forma geral de Qk , para
k = 2, . . . , n,
I 0
Qk =
0 Hk
1
(x + sign(x1 ) kxk e1 ) ,
2
e e1 = (1, 0, . . . , 0) o primeiro elemento da base cannica do Cmk+1 . Pelo que foi visto
anteriormente,
Hk x = (y1 , 0, . . . , 0)T
onde y1 = sign(x1 ) kxk o nico elemento no
Sendo
(1)
a11
(1)
a21
(1)
(1) (1)
(1)
A = [a1 , a2 , . . . , an ] =
a31
..
.
(1)
am1
nulo de Hk x.
(1)
(1)
a12 a13
(1)
(1)
a22 a23
(1)
(1)
a32 a33
..
..
.
.
(1)
(1)
am2 am3
...
(1)
a1n
(1)
a2n
(1)
a3n
..
.
(1)
amn
102
(1)
a21
1
(1)
v1 =
a31
2
..
.
(1)
am1
esto em Cm . Assim,
Q1 A =
(1)
e a1
(1) (2) (2)
sign(a11 ) a1 a12 a13
(2)
(1)
a11
(1)
a21
(1)
a31
..
.
(1)
am1
(2)
a1n
(2)
(2)
0
0
..
.
obtemos a matriz
(2)
a2n
(2)
a3n
..
...
.
(2)
amn
(2)
(2)
(2) (2) (2)
a22 + sign a22 a2 e1
a22
(2)
(2)
1
a32
a32
(2)
v2 =
e a2 =
..
2
...
.
(2)
(2)
am2
am2
esto em Cm1 . Toma-se
Q2 =
e, com esta escolha,
Q2 Q1 A =
(1) (1)
sign(a11 ) a1
0
0
..
.
1 0
0 H2
(2)
(2)
a12
a13
0
..
.
a33
..
.
am3
(2) (2)
(3)
sign(a22 ) a2 a23
(3)
(3)
(2)
a1n
(3)
a2n
(3) .
a3n
..
...
.
(3)
amn
103
1 0 0
Q3 = 0 1 0
0 0 H3
(3)
(3) (3)
a33 + sign a33 a3
(3)
1
a43
v3 =
..
2
.
(3)
am3
(3)
a3
(3)
a33
(3)
a43
..
.
(3)
am3
(1) (1)
(2)
(2)
sign a11 a1
a12
a13
(2) (2)
(3)
a23
0
sign a22 a2
(3) (3)
Q2 Q1 A =
0
0
sign a33 a3
..
..
..
.
.
.
0
0
0
e o processo continua at obter uma matriz triangular superior
...
R = Qn Q2 Q1 A.
As matrizes Q1 , Q2 , . . . , Qn so todas unitrias, de modo que seu produto Qn Q2 Q1 ,
que denotaremos por Q , tambm unitria sendo Q sua inversa. Assim, Q A = R, que
resulta na decomposio
A = QR
onde Q unitria e R triangular superior.
8.2
104
for k = 1 to n
x = Ak:m,k
vk = x + sign(x1 ) kxk e1
vk = vk / kvk k
Ak:m, k:n = Ak:m, k:n 2vk (vk Ak:m, k:n )
=================================
8.3
4l(n k + 1) =
n
X
2
2
4(m k + 1)(n k + 1) = 2mn2 n3 + 2mn + n
3
3
k=1
1 = n,
n
X
1
k = n(n + 1),
2
k=1
n
X
1
k2 = (n + 3n2 + 2n3 ).
6
k=1
8.4
105
=================================
Algoritmo 10.2 Fatorao QR de Householder
Entrada: As reflexes v1 , . . . , vn de ordem m por 1 e b de ordem m por 1
Sada: Substitui b pelo vetor Q b de ordem m por 1.
=================================
for k = 1 to n
bk:m = bk:m 2vk (vk bk:m )
=================================
Podemos usar este algoritmo para obter Q , calculando suas colunas Q e1 , . . . , Q em
de Q .
8.5
106
Captulo 9
Mnimos quadrados
Seja A uma matriz complexa m por n e b um vetor coluna do Cm . O sistema algbrico
Ax = b tem soluo se e somente se b for um ponto da imagem de A. Quando, alm disso
A for inversvel, Ax = b possui uma nica soluo dada por x = A1 b.
Quando b no pertencer imagem de A, o sistema algbrico Ax = b no tem soluo.
Entretanto, podemos escolher c na imagem de A que minimiza kc bk2 e resolver o sistema
Ax = c. O ponto c da imagem de A mais prximo de b a projeo ortogonal de b sobre
a imagem de A. Seja P b esta projeo. As solues de Ax = P b, minimizam kAx bk2 .
Quando o ker(A) = {0}, o sistema Ax = P b tem soluo nica. Entretanto, quando
ker(A) contiver vetores no nulos, o sistema Ax = P b possuir infinitas solues. De fato,
se n for um elemento no nulo do ncleo de A e x1 uma soluo de Ax = P b, ento, para
todo nmero complexo c, A(x1 + cn) = P b.
Se x for uma soluo de Ax = P b, podemos decomp-la numa soma x1 = r + n onde
r est na imagem de A e n est no ncleo de A, uma vez que Cn = Im (A ) ker(A).
Observe que r a projeo ortogonal de x sobre a imagem de A . Sendo x1 qualquer outra
soluo do sistema Ax = P b, ento A(x1 x) = 0 e x1 x = n1 pertence ao ncleo de A
e assim x1 = x + n1 = r+ (n + n1 ), onde n + n1 pertence ao ncleo de A e r a projeo
ortogonal sobre a imagem de A de uma soluo qualquer do sistema Ax = P b. Uma das
lies que se tira do raciocnio acima que projeo ortogonal sobre a imagem de A de
uma soluo x qualquer de Ax = P b sempre resulta no mesmo vetor r. Determinando
uma nica soluo do sistema Ax = P b e todas as solues do sistema homogneo Ax =
0, teremos em mos todas as solues do sistema no homogneo Ax = P b.
Cada soluo de Ax = P b uma soluo por mnimos quadrados de Ax = b.
A projeo ortogonal r de uma soluo do sistema Ax = P b sobre a imagem de A
chamada de soluo principal por mnimos quadrados de Ax = b.
Quando o sistema linear Ax = b tem soluo, suas solues coincidem com as solues
por mnimos quadrados de Ax = b.
Seguindo o esquema estabelecido at o momento, para obter a soluo principal por
mnimos quadrados de Ax = b, precisamos seguir a seguinte receita:
1. Determine P b, a projeo ortogonal de b sobre a imagem de A.
107
108
1 2
1
1. A = 0 1 e b = 0 .
2 3
0
1 0 1
1
2 1 0
1 .
2. A =
eb=
3 1 1
1
1 2
1/ 2 0
Exerccio 9.2 Na decomposio QR de A = 0 1 , Q = 0 1 . Determine
1 2
1/ 2 0
a matriz que projeta sobre a imagem de A. Resolva o problema de mnimos quadrados
Ax = (1, 0, 0)T . (Sugesto: note que as colunas de Q do base ortogonal para a imagem
de A.)
A resoluo de um problema de mnimos quadrados bastante rdua. Felizmente
existe um atalho que nos dado pela proposio seguinte.
Teorema 9.3 Seja A uma matriz m por n e b um vetor coluna m por 1. Seja P a matriz
que projeta ortogonalmente sobre a imagem de A. Os sistemas lineares Ax = P b e A Ax =
A b possuem as mesmas solues.
Prova. Observe inicialmente que P b b Im (A) = ker(A ).
1. Se x for soluo de Ax = P b, ento Ax b = P b b pertence ao ncleo de A de
onde se conclui que A (Ax b) = 0 ou
A Ax = A b.
2. Se x for soluo de A Ax = A b, ento A (b Ax) = 0 e b Ax pertence ao
ncleo de A , que ortogonal imagem de A. Desta forma, b = Ax+ (b Ax) uma
decomposio de b em um vetor Ax na imagem de A e outro b Ax no seu complemento
ortogonal. Logo, P b = Ax.
Definio 9.4 A equao
A Ax = A b
chamada de equao normal do problema de mnimos quadrados para Ax = b.
109
Embora seja redundante, nunca demais reafirmar que, se x for uma soluo da
equao normal, ento a projeo ortogonal de b sobre a imagem de A igual a Ax
P b = Ax.
Quando m n e a matriz A, de ordem m por n, possuir posto mximo n, suas colunas
sero linearmente independentes e o seu ncleo conter apenas o zero. A matriz A A ser
inversvel e o problema de mnimos quadrados para Ax = b ter uma nica soluo
x = (A A)1 A b.
Como P b = Ax, a projeo ortogonal P sobre a imagem de A ser dada pelo produto
P = A(A A)1 A .
9.1
R
a decomposio QR reduzida da matriz A. As colunas da matriz Q
= [q1 ,
Seja A = Q
A A = R
e a equao normal A Ax = A b toma a forma
Rx
=R
Q
b.
R
triangular superior e R
Este sistema pode ser resolvido com facilidade, posto que R
triangular inferior.
Quando m n e a matriz A de ordem m por n possuir posto mximo n, as matrizes
9.2
Pseudo inversa
110
9.3
Reta de regresso
2
por kxk = x x. Sendo
1 x1
y1
c0
A = ... ... , c =
, d = ... ,
c1
1 xm
ym
ento
m
X
kAc dk = hAc d, Ac di =
(c0 + c1 xi yi )2 .
2
i=1
111
Pm
Pm
c
x
y
m
i
0
i
i=1
i=1
Pm
Pm 2
= Pm
c1
i=1 xi
i=1 xi
i=1 xi yi
1
1
(x1 + + xm ) e y = (y1 + + ym )
m
m
os valores mdios de x1 , . . . , xm e y1 , . . . , ym , respectivamente. Podemos fazer a decomposio A = W T, onde
1 (x1 x)
1
x
..
.
..
T =
W = .
,
0 1
1 (xm x)
x=
Pm
c0 + c1 x
yi
m P
0
i=1
P
=
m
m
2
c1
0
i=1 (xi x)
i=1 (xi x)yi
cuja soluo imediata
Pm
(xi x)yi
c1 = Pi=1
m
2
i=1 (xi x)
c0 = y c1 x.
Exerccio 9.5 Calcule a reta de regresso para os dados (1; 3), (2; 6), (3; 5, 5), (4; 6, 5).
9.4
Interpolao polinomial
c0
y1
1 x1 x21 xk1
c1
y2
1 x2 x2 xk
2
2
,
c
=
,
d
=
A = .. ..
.. .
.. . .
..
..
.
.
. .
. .
.
1 xm x2m xkm
ck
ym
112
9.5
Ajuste polinomial
P
2
de grau k menor do que m 1 que minimiza o resduo m
i=1 (p(xi ) yi ) .
Minimizar este resduo equivalente minimizao da norma kAc dk2 , onde
c0
y1
1 x1 x21 xk1
c1
y2
1 x2 x2 xk
2
2
,
c
=
,
d
=
A = .. ..
..
.. ,
.. . .
..
.
.
. .
. .
.
ck
ym
1 xm x2m xkm
de modo que o problema proposto equivalente quele dos mnimos quadrados para Ac =
d com o produto interno
hx, yi = x y.
Quando k = m 1 camos no caso anterior da interpolao polinomial.
9.6
113
de grau menor ou igual a k que melhor aproxima uma funo g(x) definida no intervalo
[a, b]. Logo surge a pergunta: em que sentido p(x) o melhor polinmio que aproxima
g(x)?
Numa tentativa de responder a esta indagao, legtima por sinal, poderamos pegar
m pontos a = x1 x2 xm = b igualmente espaados em [a, b] e assim determinar
o polinmio p(x) que minimiza a soma
S=
m
X
i=1
Denotando g(xi ) por yi , podemos resolver este problema usando a tcnica anterior de
ajuste polinomial.
Entretanto, antes de encerrar o caso, vamos elaborar um pouco mais este problema.
Para m fixo, seja x = (b a)/m. Minimizar S ou S x a mesma coisa. medida
que o m cresce,
m
X
|p(xi ) g(xi )|2 x
S x =
i=1
Rb
a
f (x)
g(x) dx
kf k =
s
Z
|f (x)|2 dx.
Rb
Nesta norma, kp gk2 = a |p(x) g(x)|2 dx.
O problema agora pode ser reformulado como segue: Seja g uma funo contnua,
definida no intervalo real [a, b]. Determine o polinmio p(x) = c0 + c1 x+ + ck xk de
grau menor ou igual a k, que minimiza
2
kp gk =
114
9.7
Aproximao trigonomtrica
m
m
a0 X
k
k
f (x) =
+
x +
x
ak cos
bk sen
2
L
L
k=1
k=1
fazendo com que
kf gk =
|f (x) g(x)|2 dx
k
k
{ 1, cos
x , sen
x : k = 1, 2, . . . , m }
L
L
ortogonal em relao a este produto interno. Pode-se calcular que h1, 1i = 2L e
k
k
k
k
x , cos
x
= sen
x , sen
x
= L.
cos
L
L
L
L
Consequentemente,
a0
ak
bk
Z
1 L
=
g(x)dx
L L
Z
1 L
k
x dx
=
g(x) cos
L L
L
Z
1 L
k
x dx
=
g(x)sen
L L
L
para k = 1, 2, . . . , m.
Seja g(x) uma funo contnua por partes no intervalo [L, L] e h(x) sua extenso
peridica para toda a reta. medida que o m cresce, a aproximao trigonomtrica
converge para o valor mdio
g(x ) + g(x+ )
2
onde
g(x ) = lim g(s) e g(x+ ) = lim+ g(s).
sx
sx
Captulo 10
Autovalores e autovetores
Definio 10.1 Seja V um espao vetorial e L : V V um operador linear. Um escalar
um autovalor de L se existir um vetor v, no nulo, tal que Lv = v. O vetor v
chamado de autovetor de L correspondente ao autovalor .
Uma matriz quadrada A define um operador linear de Rn em Rn se for real ou de Cn
em Cn se for complexa. Um nmero real um autovalor de A se existir uma matriz
coluna x de ordem n por 1, no nula, tal que Ax = x. O vetor coluna x chamado de
autovetor de A correspondente ao autovalor .
Sendo x um autovetor de A correspondente ao autovalor ento
(I A)x = 0,
onde I a matriz identidade. A equao matricial acima possui soluo no trivial se e
s se
det(I A) = 0.
116
e, se x = (x1 , . . . , xn ) , ento
v=
n
X
xi vi
i=1
e
Lv =
n
X
j=1
xj Lvj =
n
X
j=1
xj
n
X
i=1
aij vi =
n
n
X
X
i=1
j=1
aij xj
vi .
P Pn
P
Assim, Lv = v se e s se ni=1
vi = ni=1 xi vi e, da independncia linear
a
x
ij
j
j=1
P
P
dos elementos de B, esta igualdade se verifica se e s se nj=1 aij xj = ni=1 xi , para i =
1, . . . , n, que corresponde equao matricial Ax = x.
Desta forma, para calcular os autovalores e autovetores de um operador L num espao
vetorial de dimenso finita, basta calcular sua matriz A numa base B, determinar seus
autovalores 1 , . . . , s , que sero os autovetores de L. A cada autovalor i , determine o
autoespao de A correspondente a este autovalor
auto(i ) = {x Cn : Ax = i x}
para obter os autovetores v de L correspondente ao autovalor i que sero dados por
v = x1 v1 + + xn vn
117
118
119
Teorema 10.6 Seja V um espao com produto interno e L : V V unitrio. Os autovalores de L so nmeros complexos com mdulo unitrio e os autovetores correspondentes
a autovalores distintos so ortogonais.
Prova. Seja v um autovetor de L, com Lv = v. Ento
hv, vi = hv, vi =
= 1,
hLv, Lvi = hv, vi =
mostrando que um nmero complexo de mdulo unitrio.
Sejam v e w autovetores de L com Lv = v, Lw = w e 6= . Se hv, wi 6= 0, ento
hLv, Lwi = hv, wi =
hv, wi = hv, wi =
= 1.
Como possui mdulo unitrio, podemos escrev-lo na forma = exp(i), onde um
de onde se conclui que = , o
nmero real. Assim
exp(i) = 1 e
= exp(i) =
que contraria a hiptese.
Definio 10.7 Seja p(t) = c0 + c1 t+ + ck tk um polinmio em t e A uma matriz
quadrada. Define-se p(A), o valor do polinmio p(t) na matriz A, por
p(A) = c0 I + c1 A + + ck Ak
onde I a matriz identidade com ordem igual de A. Se p(A) = 0, diremos que a matriz
A um zero do polinmio p(t).
Sejam Ak , k = 0, 1, . . . , r, matrizes quadradas de mesma ordem. Os elementos da
matriz
A(t) = A0 + A1 t + + Ar tr
so polinmios de grau menor ou igual a r.
Teorema 10.8 (Cayley-Hamilton) Toda matriz um zero do seu polinmio caracterstico.
Prova. Seja A uma matriz quadrada de ordem n e B = tI A sua matriz caracterstica. Seu polinmio caracterstico
det B = det(tI A) = tn + cn1 tn1 + + c1 t + c0
tem grau n. Cada elemento da adjunta clssica de B, denotada por adj(B), um polinmio
de grau n 1 ou inferior. Logo, adj(B) = Bn1 tn1 + + B1 t+ B0 um polinmio
matricial de grau n 1 ou inferior. Sabe-se que B 1 = adj(B)/ det(B) e assim,
det(B)I = adj(B) B.
Como
det(B)I = Itn + cn1 Itn1 + + c1 It + c0 I
120
c1 I = B0 B1 A
c0 I = B0 A.
Multiplicando as igualdades, da primeira at a ltima por An , An1 , . . . , A e I, respectivamente, pela direita e adicionando os resultados, obtemos zero do lado direito e, do lado
esquerdo, o polinmio caracterstico
An + cn1 An1 + + c1 A + c0 I
calculado na matriz A. Isto prova o teorema de Cayley-Hamilton.
Matrizes triangulares em bloco so aquelas do tipo
A1 B
A=
0 A2
onde A1 e A2 so matrizes quadradas, podendo ter a mesma ordem ou no. Ento
det(A) = det(A1 ) det(A2 ).
A matriz caracterstica de A tambm triangular por blocos e
det(tI A) = det(tI A1 ) det(tI A2 ).
Teorema 10.9 Seja A uma matriz triangular em blocos, cujos blocos diagonais so A1 ,
. . . , Ar . Ento o polinmio caracterstico de A o produto dos polinmios caractersticos
de A1 , . . . , Ar , isto ,
det(tI A) = det(tI A1 ) det(tI Ar ).
O polinmio caracterstico de uma matriz quadrada complexa A pode ser fatorado em
fatores lineares,
(t) = (t 1 )p1 (t k )pk ,
onde 1 , . . . , k so suas razes e p1 , . . . , pk suas multiplicidades. O expoente pk a
multiplicidade algbrica do autovalor k .
121
Definio 10.10 Seja um autovalor de uma matriz quadrada A de ordem n. A multiplicidade algbrica de a multiplicidade de como raz da equao caracterstica.
A multiplicade geomtrica de a dimenso do seu autoespao.
5 1 0
Exemplo 10.11 O polinmio caracterstico de A = 0 5 0 (t 5)3 . Logo, 5
0 0 5
um autovalor de A de multiplicidade algbrica 3. O autoespao deste autovalor gerado
por (1, 0, 0)T e (0, 0, 1)T . Logo, a multiplicidade geomtrica do autovalor 5 2.
Teorema 10.12 A multiplicidade geomtrica de um autovalor nunca excede sua multiplicidade algbrica.
Prova. Seja V um espao vetorial de dimenso n e L : V V um operador linear.
Seja g a multiplicidade geomtrica de um autovalor de L. Existem g autovetores v1 , . . . ,
vg linearmente independentes correspondentes ao autovalor . Completemos este conjunto
para obter uma base de V. Seja B = {v1 , . . . , vg , w1 , . . . , wr } esta base. A matriz de L
nesta base
0 c11 c1r
.. . . . .. .. . . . ..
. .
.
.
A C
c
0
p1
pr
M =
=
0 B
0 0 b11 b1r
. .
.
.
.
.
.. . . .. ..
. . ..
0 0 br1 brr
Prova. 1. Se A for semelhante a uma matriz diagonal D, ento existe uma matriz
inversvel P tal que AP = P D. Os elementos diagonais de D so os autovalores de A e
as colunas de P os autovetores. Sendo inversvel, as colunas de P so vetores linearmente
independentes.
2. Se A tem n autovetores linearmente independentes, sejam eles {v1 , . . . , vn } que
formam uma base de V e para os quais Avi = i vi . Se P for a matriz cujas colunas so
formadas por esses vetores, temos AP = P D onde D = diag(1 , . . . , n ).
Nota 10.14 No teorema anterior, os n autovalores 1 , . . . , n no precisam ser todos
distintos.
122
m
m
m
1
.
Am = P DP 1 = P Dm P 1 = P diag(dm
11 , d22 , . . . , dnn )P
Sendo f (t) um polinmio,
Captulo 11
Espaos Invariantes
Definio 11.1 Seja L : V V um operador linear e W um subespao de V. Se L(W )
W, diremos que W invariante sob L.
Exemplo 11.2 Seja L(x, y, z) = ( x y, x + y, z ) um operador definido no espao
vetorial dos ternos ordenados. O subespao W = { (x, y, 0) : x, y R } invariante sob
L.
O subespao gerado por um vetor w no nulo invariante sob L se e s se w for um
autovetor de L.
Seja L : V V linear e f (t) um polinmio. O ker f (L) invariante sob L. Se W for
invariante sob L, ento W invariante sob f (L).
Definio 11.3 Seja W um subespao vetorial de V e L : V V um operador linear.
Se W for invariante sob L podemos definir T : W W por T (w) = L(w) para todo w
em W. O operador T linear em W e recebe o nome de restrio de L em W.
Sendo W invariante sob L, ento invariante sob Lk , para todo k inteiro positivo. Se
f (t) for um polinmio, ento W invariante sob f (L). Sendo T a restrio de L a W,
para todo w em W, tem-se f (T )w = f (L)w.
Teorema 11.4 Seja L : V V linear e W subespao de V invariante sob L. Ento L
possui uma representao matricial em bloco
A C
0 B
124
a11 a1j
.. . . . ..
.
.
a
a
j1
jj
0 0
. .
..
. . ...
0 0
c11 c1k
.. . .
.
. ..
.
A C
cj1 cjk
.
=
0 B
b11 a1j
.. . .
.
. ..
.
bk1 bkk
A1 0 0
0 A2 0
A = ..
.. . .
..
.
. .
.
0 0 Ar
onde Ai uma representao matricial da restrio Li de L no subespao Wi .
125
L,
L(u1 ) = a11 u1 + + ar1 ur
a11
..
.
a
A = r1
0
.
..
0
a1r 0 0
.. . .
.
. . . ..
. ..
.
.
A 0
arr 0 0
.
=
0 B
0 b11 b1s
.. . .
.
. . . ..
. ..
.
.
0 bs1 bss
11.1
Polinmio mnimo
126
c0 I = c1 L c2 L2 Lr .
Esta expresso pode ser usada para eliminar c0 I em f (t)I.
f (t)I =
=
=
=
c0 I + c1 tI + c2 t2 I + + tr I
c1 (tI L) + c2 (t2 I L2 ) + + (tr I Lr )
(tI L)(c1 + c2 (tI + L) + + (tr1 I + tr2 L + + Lr1 ))
(tI L)B(t).
Se f (t) for o polinmio mnimo m(t) de L, vale (tI L)B(t) = m(t)I. Calculando o
determinante dos dois membros, segue
(t) det B(t) = m(t)n .
127
2 2 5
A = 3 7 15 .
1 2 4
5
2
1
1
, eigenvectors:
, 0
1, 3 3Seu polinmio caracterstico
0
1
1
(t) = (t 1)2 (t 3).
5 2 0
0 5 2
0 0 5
so ambos iguais a (t 5)3 .
5 2 0
A = 0 5 0 ,
0 0 5
128
5 0 0
A = 0 5 0 ,
0 0 5
0 0
1 0
A=
0 1
so ambos iguais a t3 5t2 3t 2.
mnimo de
2
3
5
0 0 0 2
1 0 0 3
0 1 0 5
0 0 1 7
0 0 0
1 0 0
0 1 0
0 0 1
e mnimo de
a0
a1
a2
a3
so ambos iguais a t4 a3 t3 a2 t2 a1 t a0 .
5 6
tem dois autovalores: 4 e 7. Os autovetores
Exemplo 11.21 A matriz A =
2
3
3
2
. Os polinmios caracterstico e mnimo so
e
correspondentes a eles so
1
3
iguais (t) = m(t) = t2 3t 28. Assim
1
1 3
5 6
2 3
4 0
=
.
3 2
3 1
0 7
11 3 2
5 6
so 1 e 8 e os autovetores correspondentes
Exemplo 11.22 Os autovalores de
3 2
2
1
.
e
a eles so, respectivamente,
1
1
129
5 1
Exemplo 11.23 A matriz C =
possui um nico autovalor real = 4 e um
1 3
1
. Os polinmios caracterstico e mnimo
nico autovetor linearmente independente
1
so iguais (t) = m(t) = t2 8t + 16.
2 2
so 1 e 4. Os autovetores correspondentes
Exemplo 11.24 Os autovalores de
1 3
1
2
. Os polinmios carcterstico e mnimo so iguais: t2 5t + 4.
e
so
1
1
4 1 1
Exemplo 11.25 Os autovalores de 2 5 2 so 3 e 5. Correspondente a 1 =
2
1 1
1
1
3 temos dois autovetores LI 1 e 0 . Correspondente a 2 = 5 temos um
0
1
1
autovetor LI 2 . Seu polinmio caracterstico (t) = (t 3)2 (t 5) e mnimo
1
m(t) = (t 3) (t 5) .
3 1 1
Exemplo 11.26 Os autovalores de A = 0 6 3 so 3 e 5. Correspondentes ao
0 1
2
1
1
1
0 .
e
autovalor 1 = 3 temos dois autovetores linearmente independentes,
0
1
1
2 . O
Todos os autovetores correspondentes ao autovalor 2 = 5 so mltiplos de
1
2
polinmio caracterstico de A (t) = (t 3) (t 5) e o polinmio mnimo m(t) =
(t 3) (t 5) .
3 1 1
Exemplo 11.27 Os autovalores de 7 5 1 so 2 e 4 e os autovetores corre6 6 2
1
0
1
1 . O polinmio caracterstico e mnimo so (t) = m(t) =
spondentes so
e
0
1
2
(t 4) (t + 2) .
2 0 0
Exemplo 11.28 Dada a matriz 0 2 0 , seu polinmio caracterstico (t 2)3 e
0 0 2
seu polinmio mnimo t 2.
130
2 1 0
Exemplo 11.29 Dada a matriz 0 2 0 , seu polinmio caracterstico (t 2)3 e
0 0 2
2
seu polinmio mnimo (t 2) .
2 1 0
Exemplo 11.30 Dada a matriz 0 2 1 , seu polinmio caracterstico (t 2)3 e
0 0 2
3
seu polinmio mnimo (t 2)
2
0
0
0
0
0
2
0
0
0
0
0
2
0
0
0
0
0
2
0
0
0
0
0
2
2
0
0
0
0
1
2
0
0
0
0
1
2
0
0
0
0
0
2
0
0
0
0
0
2
, seus autovetores
1
0
0
0
0
0
1
0
0
0
0
0
0
0 0 0
1 , 0 , 0 formam uma base de C5 . Seu polinmio caracterstico (t 2)5
0 1 0
1
0
0
e seu polinmio mnimo t 2.
0
1
2 1 0 0 0
0 0
0 2 0 0 0
0
0
0
0
1
, seus autovetores so
1
0
0
0
0
0
0
0
1
0
131
0
1
2 1 0 0 0
0 0
0 2 1 0 0
, seus autovetores so 0 0
0
0
2
1
0
Exemplo 11.34 Dada a matriz
0 0
0 0 0 2 0
1
0
0 0 0 0 2
5
4
polinmio caracterstico: (t 2) , polinmio mnimo: (t 2) .
2 1 0 0 0
0 2 1 0 0
Nota 11.36 Parece-me que d para tirar uma regra para calcular a multiplicidade geomtrica de um autovalor: Calcule os polinmios caracterstico e mnimo da matriz e
fatore-os. Se o polinmio caracterstico possuir o fator (t )n o polinmio caracterstico ter o fator (t )m com m n. O nmero de autovetores correspondentes a
(multiplicidade geomtrica de ) n m + 1.
11.2
Matrizes em bloco
A 0
D=
,
0 B
onde 0 so matrizes retangulares nulas, uma matriz diagonal em bloco. Se f (t) for
um polinmio em t, ento
f (A)
0
.
f (D) =
0
f (B)
Teorema 11.37 Sejam A1 e A2 so matrizes quadradas e
A1 0
A=
0 A2
uma matriz diagonal em bloco. Ento o polinmio mnimo de A igual ao mnimo mltiplo
comum dos polinmios mnimos dos blocos diagonais A1 e A2 .
132
Prova. Sejam m(t), m1 (t) e m2 (t) os polinmios mnimos de A, A1 e A2 , respectivamente. Vamos provar que m(t) = mmc{m1 (t), m2 (t)}. Sendo m(t) o polinmio mnimo
de A, ento
m(A1 )
0
0 0
m(A) =
=
.
0
m(A2 )
0 0
Conclui-se que m(A1 ) = m(A2 ) = 0. Logo, m1 (t) e m2 (t) dividem m(t) e da, m(t)
multiplo comum de m1 (t) e m2 (t).
Vamos mostrar que A uma raiz de todo polinmio mltiplo de m1 (t) e m2 (t). Sendo
f (t) um mltiplo comum de m1 (t) e m2 (t), ento
0 0
f (A1 )
0
=0
=
f (A) =
0 0
0
f (A2 )
11.3
Decomposio primria
133
e, para j = 1, . . . , s,
Lwj =
r
X
bij wi .
i=1
A 0
.
M=
0 B
Consequentemente,
det(tI M) = det(tI A) det(tI B) = L1 (t)L2 (t).
Nota 11.42 No teorema anterior, se m1 (t) e m2 (t) forem primos entre si, ento m(t) =
m1 (t)m2 (t).
Teorema 11.43 Seja L : V V linear e g(t), h(t) polinmios mnicos primos entre si,
tais que L um zero do polinmio f (t) = g(t)h(t). Ento:
1. Os subespaos ker g(L) e ker h(L) so invariantes sob L e
V = ker g(L) ker h(L)
134
135
11.4
136
semelhante a uma matriz diagonal. Isto significa que, se A for a matriz de L numa base
de V, ento existe uma matriz inversvel P e uma matriz diagonal D tais que
A = P DP 1 .
Podemos nos perguntar qual a condio mais geral que um operador linear deve satisfazer para ser diagonalizvel. Quando o operador linear L : V V auto-adjunto,
antiadjunto ou unitrio, ento LL = L L. Esta a condio mais geral sob a qual um
operador diagonalizvel.
Definio 11.46 Um operador linear L : V V normal quando
LL = L L.
A matriz quadrada A que satisfaz AA = A A denominada matriz normal.
Exemplo 11.47 Os operadores auto-adjuntos, antiadjuntos e unitrios so normais.
Exemplo 11.48 Se L for normal, I for o operador identidade e um escalar, ento o
operador L I normal.
autovalor de L . Se L for um operador normal,
Se for autovalor de L, ento
provaremos logo em seguida que v autovetor de L correspondente ao autovalor se e s
Sendo hv, vi 6= 0, segue = .
137
Teorema 11.50 Seja L uma transformao normal sobre um espao vetorial de dimenso
finita com produto interno V. Ento
1. V possui uma base ortonormal formada por autovetores de L.
2. Seja A uma matriz complexa normal de ordem n. Existe uma matriz unitria U e
uma matriz diagonal D para as quais
A = U DU 1 .
Prova. 1. Seja n a dimenso de V. A transformao L possui pelo menos um autovetor
v de mdulo unitrio. O subespao vetorial W = ger(v) e W so invariantes sob L e
sob L . A dimenso de W 1 e a de W n 1.
Vamos provar que a restrio T de L em W normal. Para todo v e w em W
temos hv, T wi = hT v, wi = hLv, wi = hv, L wi de onde conclumos que o adjunto de T
a restrio de L a W . Para todo v em W , T T v = LL v = L Lv = T T v, mostrando
que T normal.
O teorema agora ser demonstrado por induo na dimenso n do espao.
Se n = 1, nada resta a provar: a base de V contm apenas um autovetor v1 de norma
unitria.
Vamos supor, como hiptese de induo, que o teorema vale para todos os operadores
normais em espaos vetoriais de dimenso n 1.
Provemos que o teorema vale para todo operador normal L definido em um espao
vetorial V de dimenso n. Seja v1 um autovetor de L e W = ger(v1 ). Seja T a restrio
de L a W . O operador T normal em W que tem dimenso n 1. Pela hiptese de
induo, W possui uma base ortonormal {v2 , . . . , vn } cujos elementos so autovetores de
T. Os autovetores de T so autovetores de L. Ao incluirmos v1 a este conjunto, obtemos
a base ortonormal {v1 , v2 , . . . , vn } formada por autovetores de L. Nela, a representao
matricial de L diagonal.
Teorema 11.51 Seja L um operador linear sobre um espao vetorial V de dimenso
finita. Se V possuir uma base ortonormal formada por autovetores de L, ento L
normal.
Prova. Seja B = {v1 , . . . , vn } uma base ortonormal de V cujos elementos so autovetores de L, de modo que Lvi = i vi para i = 1, . . . , n. O escalar i o autovalor de L
correspondente ao autovetor vi . Se decompondo L vi na base B, podemos escrever
X
aij vj
L vi =
j
138
i , de modo que L vi =
i vi . Mostramos
Isto significa que aij = 0 quando i 6= j e aii =
i vi =
i . Portanto, L Lvi = i
assim que vi autovetor de L correspondente ao autovalor
2
2
7
4 5
Exemplo 11.54 A matriz A = 4 2 4 simtrica. Seus autovalores so
5 4
7
6, 12 e 6. Os autovetores correspondentes so (1, 1, 1)T , (1, 0, 1)T e (1, 2, 1)T .
Para montar S tal que A = SDS 1 , tomamos as colunas de S iguais aos autovetores
normalizados
1/3 1/ 2 1/ 6
6 0 0
S = 1/3
e
D = 0 12 0 .
0
2/ 6
0 0 6
1/ 3 1/ 2
1/ 6
139
0
1 1
Exemplo 11.55 A matriz A = 1 0 2 anti-simtrica. Seus autovalores so
1 2 0
1/3
Exemplo 11.56 A matriz A = 1/3
1/ 3
ores so 1; 0, 9381+ 0, 3464i e 0, 9381
2/ 6
9
1/6 1/ 2 ortogonal. Seus autoval1/ 6 1/ 2
0, 3464i. Os autovetores correspondentes so
11.5
Decomposio de Schur
Teorema 11.57 Dada uma matriz complexa A de ordem n, existe uma matriz unitria
U tal que
T = U AU
triangular superior.
Prova. Ser usada a induo sobre n. Se n = 1, A triangular superior e nada resta
a provar. Se n > 1, assuma, como hiptese de induo, que o teorema verdadeiro para
toda matriz quadrada de ordem n 1. Seja q1 um autovetor unitrio correspondente a um
autovalor 1 de A. Construa uma base de Cn onde um dos elementos q1 . Use o processo
de ortogonalizao de Gram-Schmidt para obter uma base ortonormal {q1 , . . . , qn } de
Cn . A matriz
U1 = [q1 , . . . , qn ]
unitria e
U1 AU1
1 b1
0 A1
140
1 0
0 V1
1 b1
1 0
1 0
=
0 A1
0 V1
0 V1
b1 a1
1 b1 a1
1
=
=T
=
0 V1 A1 V1
0 T1
que triangular superior.
Como A e T so semelhantes, possuem os mesmos autovalores e com a mesma multiplicidade. Sendo T triangular superior, os elementos da diagonal principal so seus
autovalores e, consequentemente, autovalores de A.
Nota 11.58 Sejam 1 , . . . , n os elementos da diagonal principal de T. Como matrizes
semelhantes possuem o mesmo determinante e o mesmo trao, segue
det(A) = 1 n
tr(A) = 1 + + n .
Teorema 11.59 (Teorema Espectral). Se H uma matriz hermitiana, existe uma matriz
unitria U tal que U HU diagonal.
Prova. Pelo teorema de Schur, existe U unitria tal que U HU = T triangular
superior. Como T = U H U = U HU = T, vemos que T simtica. Logo, tambm
triangular inferior, ou seja, diagonal.
0 1
no hermitiana mas ortogonalmente diagonalizvel, com
A matriz A =
1 0
1
U=
2
1 i
i 1
141
t11 0
T =
0 T1
onde T1 normal e, por hiptese de induo, diagonal. Cnclui-se da que T diagonal,
completando a prova do teorema.
a b
b a
11.6
142
onde
D = diag(1 , . . . , n ) uma matriz quadrada diagonal nn. Como i 0, definimos
i = i 0. Seja r n o nmero de valores i diferentes de zero, de modo que
1 r > 0
r+1 = = n = 0.
formam um conjunto ortonormal. Uma vez que qr+1 , . . . , qn esto no ncleo de A (pois
so levados por A em 0), o conjunto {p1 , . . . , pr } uma base ortonormal da imagem de
A e, por este motivo r o posto de A que deve ser menor ou igual a m.
Para provar que {p1 , . . . , pr } um conjunto ortonormal, basta calcular, para 1 i,
j r, o produto interno
1
1
hAqi , Aqj i =
hqi , A Aqj i
hpi , pj i =
ij
i j
2
j
j
=
hqi , qj i =
hqi , qj i = ij .
ij
i
Pode-se completar {p1 , . . . , pr } de modo a obter uma base ortonormal {p1 , . . . , pr , pr+1 ,
. . . , pm } de Cm .
A matriz m m
P = [p1 , . . . , pr , pr+1 , . . . , pm ]
cujas colunas so os vetores pi , unitria e, pelo modo como foi construda,
AQ = P
onde
= diag{ 1 , . . . , r , 0, . . . , 0}.
uma matriz mn onde todos os elementos so nulos, excesso dos r primeiros elementos
da diagonal principal que so 1 r . Lembramos que r min(m, n).
Como Q unitria, obtemos a decomposio de A em valores singulares
A = P Q
Os nmeros reais 1 , . . . , r , 0, so denominado de valores singulares de A.
Usando a expresso de A deduzida acima, prova-se que
A AQ = Q
AA P = P
143
1
1
Aq1 , . . . , Aqr }
1
r
1 2 0
.
Exemplo 11.63 Obtenha a decomposio em valores singulares de A =
2 1 0
1 2 0 1
Exemplo 11.64 Obtenha a decomposio em valores singulares de A = 1 0 2 1 .
2 2 2 2
6 6 6 6
6 8 4 6
Ento A A =
6 4 8 6 cujos autovalores so 24, 4, 0 e 0.Os autovetores corre6 6 6 6
spondentes a eles so
1
0
3
0
1
1 , 1 1 , 1 1 , 1 1
2 1
2 1
12 1
6 1
1
0
1
2
144
Assim,
1/2
0 3/ 12
0
24
0
0
0
1/2 1/ 2 1/ 12 1/ 6
, = 0 2 0 0 .
Q=
1/2 1/ 2
1/12 1/ 6
0 0 0 0
1/2
0
1/ 12
2/ 6
1
1
1
1
1 ,
1 .
6
2
2
0
T
unitrio e fazendo-o ortogonal a p1 e a p2 .
a base. Calculamos p3 = p13 p23 p33
T
. Com estes vetores montamos
Obtemos ento p3 = (1/ 3) 1 1 1
1/6 1/ 2 1/3
P = 1/6 1/ 2
1/ 3 .
2/ 6
0
1/ 3
X
X
X
2
i Aqi =
i i pi =
2i 2i kpi k22
kAxk2 =
i=1
i=1
i=1
sendo a segunda igualdade verdadeira pois Aqi = 0 para i > r e a ltima igualdade se
justifica pela ortogonalidade dos pi . Como kpi k2 = 1, segue
kAxk22 =
r
X
i=1
2i 2i 21
r
X
i=1
2i 21
n
X
2i = 21 .
i=1
A primeira desigualdade se justifica pois 1 o maior valor singular e a segunda por termos
acrescentado parcelas positivas soma. Provamos que kAxk22 21 e que kAq1 k2 = 1 .
Logo,
kAk2 = sup kAxk2 = 1 .
xRn
kxk2 =1
145
Teorema 11.65 Se
A = U ST
for outra decomposio por valores singulares de A, ento S = , as colunas t1 , . . . , tn de
T formam um conjunto ortonormal de autovetores de A A correspondentes aos autovalores
1 2 r 0 = = 0, as colunas u1 , . . . , um de U so autovetores de AA
correspondentes aos mesmos autovalores e, para i = 1, . . . , r,
ui =
1
Ati .
i
146
Captulo 12
Forma cannica de Jordan
12.1
Operadores nilpotentes
0 0 0
1 0 0
0 1 0
0 0 1
.. .. ..
. . .
Prova. Vamos provar um item por vez.
148
149
Prova. O teorema anterior assegura que os vetores Lw1 , . . . , Lwt pertencem ao ker Li .
Sejam 1 , . . . , r , 1 , . . . , t escalares tais que
1 u1 + + r ur + 1 Lw1 + + t Lwt = 0.
Aplicando Li1 a esta igualdade, segue
Li ( 1 w1 + + t wt ) = 0,
mostrando que a combinao linear 1 w1 + + t wt pertence ao ker Li e pode ser escrito
como uma combinao linear de u1 , . . . , ur , v1 , . . . , vs
1 w1 + + t wt = c1 u1 + + cr ur + d1 v1 + + ds vs .
Sendo {u1 , . . . , ur , v1 , . . . , vs , w1 , . . . , wt } uma base, conclumos que todos os escalares
na igualdade acima so nulos e, em particular, 1 = = t = 0. Sendo {u1 , . . . , ur }
uma base, deve-se ter tambm 1 = = r = 0, o que prova a independncia linear do
conjunto de vetores { u1 , . . . , ur , Lw1 , . . . , Lwt }.
Este resultado interessante pois ele nos permite inferir que s t. Sabemos que a
dimenso do ker Li cresce com i ou permanece inalterada. Alm disso, o acrscimo na
dimenso quando passamos do ker Li para o ker Li+1 nunca maior do que o acrscimo
na dimenso quando passamos do ker Li1 para o ker Li . ***
Teorema 12.5 (Forma cannica de um operador nilpotente) Seja L : V V um operador nilpotente com ndice k. Existe uma base na qual a representao matricial de L tem
a forma bloco diagonal
N1 0
0
0 N2 0
N = 0
.
0
N
..
..
.. . .
.
.
.
.
Cada bloco diagonal Ni uma matriz quadrada que pode ser 1 1 e nula ou ter a forma
0 1 0 0 0
0 0 1 0 0
.. .. .. . . .. ..
. . . .
Ni = . . .
0 0 0 1 0
0 0 0 0 1
0 0 0 0 0
As ordens de todos os blocos so menores ou iguais a k. Pelo menos um bloco tem ordem k.
O nmero de blocos igual nulidade de L. O nmero de blocos do tipo N determinado
de modo nico por L.
Em lugar de demonstrar vamos dar exemplos.
150
W1
u2
L2 u7
w5
W2
u3
u10
w8
u4
L2 u8
w2
W3
u5
Lu7
w6
u6
Lu8
w3
u7
u9
w7
W4
u8
u8
w4
0 1 0
0 0 1
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0 0 0
0 0 0 0 0
1 0 0 0 0
0 0 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 0
0 0 0 0 0
151
u2
Lu9
w5
W2
u3
u10
w7
Na base {w1 , w2 , w3 , w4 , w5 , w6 , w7 ,
0 1 0
0 0 1
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
12.2
u4
u11
w8
u5
L2 u8
w2
u6
u9
w6
W3
u7
Lu8
w3
W4
u8
u8
w4
0 0 0 0 0
0 0 0 0 0
1 0 0 0 0
0 0 0 0 0
0 0 1 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
i 1 0 0 0
0 i 1 0 0
. .
.. ..
. . ...
. .
. .
Jij =
.
0 0 0 ... 1 0
0 0 0 i 1
0
0 i
152
um bloco nilpotente.
1 0 0 0
0 1 0 0
.. . .
. .
. .. ..
.
N =
.
0 0 0
.. 1 0
0 0 0 0 1
0 0 0 0 0
0
0
..
.
2 1
2 1
0 2
0 2
2
2
1
2
0 2
ou
3 1
3
1
0 3
0 3
3
3
A primeira matiz ocorre se L possui dois autovetores linearmente independentes pertencentes ao seu autovalor 2 e a segunda ocorre se L tem trs autovetores linearmente independentes pertencentes ao seu autovalor 2.
0 1
. A
Exemplo 12.9 Vamos determinar a forma cannica J da matriz A =
1 2
equao caracterstica de A ( 1)2 = 0 e uma base do autoespao correspondente ao
153
0 0
. Calculamos ento (AI) =
e vemos que o zero
autovalor 1 v1 = 1 1
0 0
autovalor desta matriz e que qualquer vetor autovetor correspondente ao zero. Tomemos
T
v2 = 0 1 que,juntamente com v1 , forma uma base do espao das
matrizes 2 1. A
1 0
1 0
, cujas colunas so v1 e v2 , tem por inversa S 1 =
e tal
matriz S =
1 1
1 1
1 0
que J = S 1 AS =
.
0 1
3 2 5
Exemplo 12.10 Vamos determinar a forma cannica J da matriz A = 1 2 1 .
1 1 0
2
A equao caracterstica de A (1)(2) = 0. A multiplicidade algbrica do autovalor
1 1 e do autovalor 2 2. Uma base do autoespao correspondente ao autovalor 1 for
T
. Uma base do autoespao correspondente ao autovalor
mada pelo vetor v1 = 1 1 0
T
2 formada pelo
. Um conjunto gerador do autoespao de (A 2I)2 =
vetor 1 3 1
2 3 7
T
e v4 = 7 0 2
. Como nenhum deles mltiplo de 1 3 1
podemos tomar
v3 para gerar a uma cadeia de Jordan de comprimento 2, correspondente
ao autovalor
2
1
1
3
T
e calculamos v2 = (A 2I)v3 = 1 3 1
. A matriz S = 1 3 2 , cuja
0 1 0
2 3 7
1 0 0
0 1 tal que J = S 1 AS = 0 2 1 que a forma
inversa S 1 = 0
1 1 2
0 0 2
cannica da matriz A.
12.3
Subespaos cclicos
154
linearmente independente.
O subespao vetorial
Z(v, L) = [v, Lv, L2 v, . . . , Lk1 v]
chamado de subespao cclico de V gerado por L e v. Sua dimenso k.
Este subespao a interseo de todos os subespaos L invariantes que contm v.
Denotemos por Lv a restrio de L a Z(v, L). Se
Lk v = a0 v a1 Lv a2 L2 v ak1 Lk1 v
ento
mv (t) = a0 + a1 t + a2 t2 + + ak1 tk1 + tk
C=
0 0 a0
0 0 a1
0 0 a2
..
. . . .. ..
. .
.
0 0 0 0 0 ak3
0 0 0 1 0 ak2
0 0 0 0 1 ak1
0
1
0
..
.
0
0
1
..
.
0
0
0
..
.
denominada de matriz companheira do polinmio mv (t). O polinmio mv (t) denominado de L anulador de v e Z(v, L).
12.4
Lema 12.12 11.13. Seja L : V V linear, cujo polinmio mnimo f (t)n , onde f (t)
irredutvel. Ento existem v1 , v2 , . . . , vr tais que
V = Z(v1 , L) Z(vr , L).
C (1) 0
0
0 C (2)
0
C = ..
..
..
.
.
.
.
.
.
0
0 C (r)
155
C1 0 0
0 C2 0
..
.. . .
..
.
. .
.
0 0 Cs
onde cada Ci uma matriz com o formato
(1)
Ci
0
0
0 C (2)
0
i
Ci = .
.
..
...
..
..
.
(r)
0
0 Ci
(j)
em que Ci
que
12.5
Forma triangular
a11 a12
0 a22
A = ..
.. . .
.
.
.
0
0
matricial triangular
a1n
a2n
..
.
ann
156
12.6
Espaos quocientes
Esta uma maneira inteligente de definir projees em espaos vetoriais que no possuem produto interno.
Seja W um subespao vetorial de V. Dado v V, definimos o conjunto
v + W = {v + w : w W },
denominado de classe lateral de W em V. Observe que 0 + W = W.
Podemos definir duas operaes no conjunto das classes laterais de modo a torn-lo
um espao vetorial.
Seja W um subespao vetorial de V. Sejam u e v dois vetores em V e k um escalar
pertencente ao corpo sobre o qual se define o espao vetorial V. Definimos no conjunto
das classes laterais de W as operaes de adio de duas classes e multiplicao de uma
classe por um escalar por
(u + W ) + (v + W ) = (u + v) + W,
k(u + W ) = ku + W.
O conjunto das classes laterais, com estas duas operaes, um espao vetorial sobre
o mesmo corpo sobre o qual se define V. Este espao vetorial denominado espao
quociente de V por W e denotado por V /W. Se a dimenso de V for finita ento
dim(V /W ) = dim(V ) dim(W ).
Teorema 12.15 Seja L : V V linear e W um subespao L invariante de V. Ento L
em V /W definido por
induz um operador linear L
+ W ) = L(v) + W.
L(v
tambm o . Assim, o polinmio mnimo de
Se L for um zero de um polinmio, ento L
157
Exemplo 12.16 Vamos apresentar um exemplo que mostra como se pode obter uma representao matricial triangular de uma transformao linear. Seja L : R3 R3 definida
por L(x, y, z) = (4x + y z, 2x + 5y 2z, x + y + 2z). A matriz de L na base cannica do
R3
4 1 1
A = 2 5 2
1 1 2
Os vetores v1 = (1, 1, 0), v2 = (0, 1, 0), v3 = (0, 0, 1) formam uma base do R3 .
Destacamos que v1 autovetor de L correspondente ao autovetor 3. Como
L(v1 ) = 3v1
L(v2 ) = v1 + 6v2 + v3
L(v3 ) = v1 3v2 + 2v3
a matriz de L na base {v1 , v2 , v3 }
3 1 1
B = 0 6 3 .
0 1
2
6 3
C=
.
1 2
Vamos omitir a barra e olhar para L no espao gerado por v2 e v3 . Sabemos que
L(v2 ) = 6v2 + v3
L(v3 ) = 3v2 + 2v3
cuja matriz na base {v1 , v2 } C. Os autovalores de C so 5 e 3 e o autovetor relativo ao
autovalor 5 3v2 + v3 . Vamos ento passar da base {v1 , v2 , v3 } para a base {w1 , w2 , w3 }
onde
w1 = v1 ,
w2 = 3v2 + v3 ,
w3 = v3 .
158
O w3 foi escolhido de modo arbitrrio, exigimos apenas que {w1 , w2 , w3 } seja uma base
de V. Podemos inverter as relaes acima para obter
v1 = w1 ,
v2 = (w2 w3 )/3,
v3 = w3 .
Da segue
L(w1 ) = 3w1
L(w2 ) = 2w1 + 5w2
L(w3 ) = w1 w2 + 3w3
e, nesta base, a matriz de L
3 2 1
D = 0 5 1
0 0
3
que est na forma triangular. Esta transformao linear pode ser representada por uma
matriz diagonal pois ela possui trs autovetores linearmente independente.
Captulo 13
Aplicaes
Aproximao por polinmios
Cadeias de Markov
Circuitos eltricos
Diferenas finitas
Elementos finitos
Equao de Schredinger
Sistemas de equaes diferenciais
Exponencial de matriz
Formas quadrticas
Cnicas e qudricas
Mnimos quadrados
Modelo econmico de Leontief
Mtodo hngaro para alocao de tarefas
Cifras de Hill
Programao linear
Sries de Fourier
Sistemas de equaes diferenciais
Tenso nos meios contnuos
Teoria dos grafos
Teoria dos jogos
159
160
Apndice A
Matrizes
Uma matriz um arranjo retangular de nmeros, denominados de elementos da matriz,
dispostos em linhas e colunas. Quando uma matriz possuir m linhas e n colunas diremos
que uma matriz m n ou matriz m por n ou matriz de ordem m por n. Matrizes reais
so aquelas cujos elementos so nmeros reais e matrizes complexas so aquelas cujos
elementos so nmeros complexos. Em nosso curso trabalharemos com matrizes reais ou
complexas.
Uma matriz com uma nica coluna chamada de vetor coluna e uma matriz com
uma nica linha chamada de vetor linha. Se o nmero de linhas for igual ao nmero de
colunas se diz que a matriz quadrada. Uma matriz quadrada com n linhas e n colunas
uma matriz n por n ou de ordem n. Neste caso, em lugar de dizermos que a ordem da
matriz m por m, diremos apenas que a matriz de ordem m.
A menos que se especifique o contrrio, Rn o conjunto das matrizes coluna reais,
que possuem n linhas e uma coluna. Denotaremos por Cn ao conjunto de matrizes coluna
complexas, com n linhas e uma coluna. Designaremos o conjunto das matrizes reais m por
n pelo smbolo Rmn e das matrizes complexas de ordem m por n pelo smbolo Cmn .
Tambm usual escrever Amn para indicar que A possui m linhas e n colunas. Um
nmero real ou complexo ser denominado genericamente de escalar.
Usaremos a notao abreviada A = (aij ) para denotar uma matriz
a11 a1n
..
...
A = ...
.
am1 amn
onde aij o elemento da linha i e coluna j. No conjunto das matrizes m por n, se define
a adio de duas matrizes e a multiplicao de uma matriz por um escalar atravs das
frmulas
(aij ) + (bij ) = (aij + bij )
k (aij ) = (kaij )
onde k um escalar, (aij ) e (bij ) so matrizes de ordem m por n. Quando for conveniente,
escreveremos (aij )k em lugar de k(aij ).
161
162
A.1
Matrizes especiais
Seja A = (aij ) uma matriz m por n e p = min{m, n}. Os elementos a11 , a22 , . . . , app
formam a diagonal principal da matriz A. Uma matriz diagonal se todos os elementos
fora da diagonal principal forem nulos.
A matriz identidade I de ordem m a matriz diagonal cujos elementos da diagonal
principal so todos iguais a 1. O delta de Kronecker, definido para todo i e j inteiros por
ij = 1
ij = 0
se
se
i=j
i 6= j
pode ser usado para representar os elementos da matriz identidade. Em termos deste
smbolo, I = ( ij ) .
Se os elementos abaixo da diagonal principal da matriz A forem nulos, a matriz
triangular superior. Se os elementos direita da diagonal principal de A forem nulos,
a matriz triangular inferior.
163
A.2
Multiplicao de matrizes
A multiplicao a operao que leva duas matrizes A = (aij )mn e B = (bjk )np na
matriz
n
!
X
AB =
aik bkj
k=1
de ordemque uma matriz m por p. Para efetuar o produto AB, o nmero de colunas de
A deve ser igual ao nmero de linhas de B. Quando este for o caso, se diz que A e B so
conformes para o produto.
A multiplicao de matrizes uma operao associativa e distributiva mas no
comutativa. Assim,
164
A.3
Inversa
k=1
165
k 1
.
Ak = A1 = Ak
166
A.4
0 1 0
E = 1 0 0 ,
0 0 1
0 0
E = 0 1 0 ,
0 0 1
1 0
E = 0 1 0 ,
0 0 1
167
168
Apndice B
Determinante
B.1
Permutao
170
Seja uma permutao de {1, 2, . . . , n}. Se i < j e (i) > (j) diremos que o par
(i, j) uma inverso de . Definimos o sinal de do seguinte modo: Se o nmero de
inverses de for par, seu sinal ser +1. Se o nmero de inverses de for mpar, seu
sinal ser 1. O sinal de ser denotado por sign().
A permutao identidade no apresenta nenhuma inverso. Portanto, seu sinal +1.
Teorema B.1 Sejam 1 e 2 duas permutaes de {1, 2, . . . , n}. Ento
sign( 2 1 ) = sign( 2 )sign( 1 ).
Prova. Observe a tabela que vem em seguida, onde i < j.
Inverses
1 2 21
1 (i) < 1 (j) 2 1 (i) < 2 1 (j) 0 0 0
1 (i) < 1 (j) 2 1 (i) > 2 1 (j) 0 1 1
1 (i) > 1 (j) 2 1 (i) < 2 1 (j) 1 1 0
1 (i) > 1 (j) 2 1 (i) > 2 1 (j) 1 0 1
Ela mostra que quando h uma inverso em 2 1 ou h uma inverso em 1 ou h
uma em 2 mas no em ambas ao mesmo tempo. Quando no h inverso em 2 1 ento
no h inverso nem em 1 nem em 2 ou ambas apresentam uma inverso. Isto significa
que o nmero de inverses de 2 1 e a soma do nmero de inverses em 1 e 2 tm a
mesma paridade. Isto implica na igualdade dos sinais
sign( 2 1 ) = sign( 2 )sign( 1 ).
171
B.2
Determinante
Teorema B.6 Se uma linha ou uma coluna de uma matriz quadrada for nula, seu determinante zero.
Prova. Quando a linha i for nula, ai(i) = 0 para toda permutao e assim, det(A) =
0. Uma coluna nula na matriz uma linha nula na transposta. Assim, det(AT ) = 0 e,
portanto, det(A) = 0.
Teorema B.7 Se permutarmos duas linhas de uma matriz, o determinante muda de
sinal. Se permutarmos duas colunas de uma matriz, o determinante muda de sinal.
172
Teorema B.8 Se duas linhas ou duas colunas de uma matriz quadrada forem iguais, seu
determinante zero.
Prova. Se duas linhas da matriz A so iguais, ao trocar uma linha pela outra, a matriz
A permanece inalterada e seu determinante troca de sinal. Logo, det(A) = det(A), o
que resulta em det(A) = 0.
Teorema B.9 Seja A = [v1 , . . . , vj + wj , . . . , vn ], B = [v1 , . . . , vj , . . . , vn ], e C = [v1 ,
. . . , wj , . . . , vn ], matrizes quadradas de ordem n, onde v1 , . . . , vn e wj so as colunas de
B e C. A coluna j de A vj + wj . Ento
det(A) = det(B) + det(C).
Prova. Imediata, a partir da definio.
Vale um teorema anlogo se os elementos de uma linha de A forem decompostos em
duas parcelas.
Teorema B.10 Sejam v1 , . . . , vn vetores coluna em Cn . Ento para todo escalar ,
det[v1 , . . . , vi , . . . , vn ] = det[v1 , . . . , vi , . . . , vn ]
O mesmo resultado se aplica ao multiplicarmos uma linha de A por um escalar .
173
174
Teorema B.17 Se E for uma matriz elementar e A uma matriz quadrada, todas de
ordem n, ento det(EA) = det(E) det(A).
Prova. Se E for uma matriz elementar que permuta a linha i com a linha j, ento
det(E) = 1 e det(EA) = det(A), provando que det(EA) = det(E) det(A) para este
caso.
Se E for uma matriz elementar que multiplica uma linha por r, ento det(E) = r e
det(EA) = r det(A), provando que neste caso tambm vale o teorema.
Se E for uma matriz elementar que multiplica linha i um mltiplo r da linha j, ento
det(E) = 1 e det(EA) = det(A), provando que o teorema tambm vale neste ltimo caso,
o que completa a prova do teorema.
Corolrio B.18 Se E1 , E2 , . . . , Ek forem matrizes elementares e A for uma matriz
quadrada, todas de ordem n, ento det(E1 E2 Ek A) = det(E1 ) det(E2 ) det(Ek )
det(A).
Teorema B.19 Se A e B forem matrizes quadradas de mesma ordem,
det(AB) = det(A) det(B).
Prova. Se A for inversvel, A = E1 E2 Ek , onde E1 , E2 , . . . , Ek so matrizes
elementares. Assim, det(AB) = det(E1 E2 Ek B) = det(E1 ) det(E2 ) det(Ek )
det(B) = det(A) det(B).
Se A ou B for singular, AB singular e det(AB) = 0 e det(A) det(B) = 0.
Corolrio B.20 Se A for uma matriz quadrada inversvel, det(A1 ) = 1/ det(A).
Teorema B.21 Matrizes quadradas semelhantes possuem o mesmo determinante.
Prova. Se A e B forem matrizes quadradas semelhantes, ento existe uma matriz
inversvel P de modo que B = P AP 1 e det(B) = det(P ) det(A) det(P 1 ) = det(A).
B.3
Cofator
175
n. Nas permutaes que levam 1 em 1 podemos colocar a11 em evidncia; nas que levam
1 em 2, o a12 pode ser colocado em evidncia e, naquelas que levam 1 em n podemos
colocar o a1n em evidncia e escrever
det(A) = a11 c11 + a12 c12 + a13 c13 + + a1n c1n .
O escalar c1j chamado
P de cofator de a1j .
Vemos que c11 = (1)=1 sign()a2(2) an(n) onde a soma percorre todas as permutaes que levam 1 em 1. A cada permutao em {1, 2, . . . , n} que mantm fixo o 1,
corresponde a uma permutao em S 0 = {2, 3, . . . , n}, onde (i) = (i) para i = 2, . . . ,
n. Ambas possuem o mesmo nmero de inverses e, portanto, possuem o mesmo sinal.
Para estabelecer o sinal de uma permutao, as inverses de um ponto fixo no precisam
ser contadas, uma vez que o nmero dessas inverses um nmero par. Logo, c11 =
P
sign()a2(2) an(n) o determinante de uma matriz que se obtm de A excluindo
a primeira linha e a primeira coluna. Denotamos este determinante por A11 .
Em geral, vamos denotar por Aij o determinante da matriz obtida quando se elimina
a linha i e a coluna j de A.
Para determinar o termo c12 faz-se o seguinte raciocnio: Permutando a primeira
coluna de A com a segunda, obtemos uma matriz B = (bij ) onde b11 = a12 e det(B) =
det(A). Desta igualdade segue b11 B11 + = a12 c12 + e, como a12 = b11 , se conclui
que c12 = B11 . O escalar B11 o determinante da matriz obtida de B ao excluir sua
primeira linha e sua primeira coluna, que so a primeira linha e a segunda coluna de A.
Este determinante foi denotado por A12 . Desta forma, c12 = A12 .
O termo c13 pode ser obtido trazendo a terceira coluna para o lugar da primeira,
fazendo duas permutaes: basta trocar esta coluna sucessivamente com as que esto
sua esquerda at conduzi-la para a posio da primeira. Neste processo, o sinal do
determinante da matriz se modifica duas vezes. O determinante da matriz final igual
ao de A. Por um raciocnio anlogo ao anterior, conclui-se que c13 = A13 , onde A13 o
determinante da matriz obtida ao eliminar a primeira linha e a terceira coluna de A.
Prosseguindo com o raciocnio anterior, chega-se ao desenvolvimento
det(A) = a11 c11 + a12 c12 + a13 c13 + + a1n c1n
onde c1j = (1)1j A1j o cofator de a1j e A1j o determinante da matriz obtida ao eliminar
a linha 1 e a coluna j de A. Esta frmula desenvolve o determinante pela primeira linha
e conhecida por desenvolvimento do determinante pela primeira linha.
De modo semelhante, podemos desenvolver o determinante pela linha i, usando o
argumento seguinte. O determinante de A a soma de diversas parcelas, cada uma com n
fatores. Dentre os fatores de uma parcela do determinante h um nico elemento da linha
i. Aquelas parcelas que possuem como fator um elemento da linha i coluna j, no contm
como fator outro elemento da linha i nem outro elemento da coluna j. Nas parcelas que
possuem o fator aij , vamos coloc-lo em evidncia. Denotemos por cij o termo que fica
multiplicado por aij e vamos cham-lo de cofator de aij . Assim,
det(A) = aij cij + ,
176
onde os trs pontos se referem s parcelas que contm elementos da linha i e colunas
distintas da j. Mediante transposio de linhas e colunas, podemos transformar a matriz
A numa matriz B, onde o elemento aij fique posicionado na linha 1 coluna 1 de B.
Basta transpor i 1 vezes a linha i com as que esto acima, at posicion-la no topo da
matriz. Em seguida, mediante j 1 transposies da coluna j com as que esto sua
esquerda, coloca-se o elemento aij na primeira posio da matriz. A cada transposio, o
determinante muda de sinal. Como h um total de (i1)+(j 1) transposies, det(A) =
(1)(i1)+(j1) det(B) = (1)i+j det(B). O determinante de B possuir parcelas onde um
dos fatores o aij . Como aij ocupa a primeira linha primeira coluna de B, sabemos de
antemo que det(B) = aij cij + onde cij o determinante de uma matriz obtida de B
pela eliminao de sua linha 1 coluna 1. Ora, a matriz obtida ao eliminar a linha 1 coluna
1 de B igual matriz obtida ao eliminar a linha i coluna j de A. Assim, det(A) =
(1)i+j aij det Aij , onde Aij a matriz obtida de A retirando sua linha i e sua coluna j,
chamada de menor (i, j) de A. Provamos que o cofator de aij no desenvolvimento do
det(A) cij = (1)i+j det Aij .
Na soma que define o determinante de A, podemos colocar em evidncia os elementos
ai1 , ai2 , . . . , ain . A parcela que contm um desses fatores no conter os demais. Cada
um deles ser multiplicado pelo seu cofator e assim
det(A) = ai1 ci1 + ai2 ci2 + ai3 ci3 + + ain cin
onde cij = (1)i+j det A(i, j) o cofator de aij . Como os elementos ai1 , ai2 , . . . , ain so
todos da linha i, a frmula acima conhecida por desenvolvimento do determinante pela
linha i.
Um argumento semelhante nos permite desenvolver o determinante pela coluna j.
Obtemos ento o desenvolvimento do determinante pela coluna j
det(A) = a1j c1j + a2j c2j + a3j c3j + + anj cnj
Um modo prtico de utilizar estas frmulas consiste em aplicar transformaes elementares sobre a matriz zerando o maior nmero de elementos de uma linha ou de uma
coluna e usar as frmulas acima para reduzir o determinante original a uma soma de
outros envolvendo matrizes de ordem n 1. Este processo pode ser utilizado mais de
uma vez reduzindo sucessivamente a ordem das matrizes cujos determinantes precisam
ser calculados.
Definio B.22 Seja A uma matriz quadrada de ordem n. A matriz cujo elemento da
linha i coluna j cji (observe a ordem dos ndices em que primeiro vem o j e depois o i)
chamada de matriz adjunta clssica de A e denotada por adj(A).
Teorema B.23 Se A for inversvel, ento A adj(A) = adj(A) A = det(A) I.
Prova. Provamos que
X
j
177
P
Se i for diferente de k, j akj cij corresponderia ao determinante de uma matriz em que
a linha i foi substituda pela linha k. As linhas i e k desta matriz seriam iguais e seu
determinante seria igual a zero. Portanto, para i 6= k,
X
akj cij = 0.
j
Podemos usar o delta de Kronecker para unificar estas duas expresses em destaque
X
akj cij = ik det(A).
j
Ora, o lado esquerdo desta expresso o elemento da linha k coluna i da matriz A adj(A)
e o lado direito o elemento da linha k coluna i da matriz det(A) I, provando que
A adj(A) = det(A) I.
O lado esquerdo da expresso tambm o elemento da linha i coluna k da matriz
adj(A) A e o lado direito o elemento da linha i coluna k da matriz det(A) I, provando
que adj(A) A = det(A) I.
B.4
Regra de Cramer
aij xj = bi ,
j=1
i=1
j=1
j=1
i=1
j=1
Pn
i=1 cik bi
Pn
i=1 cik bi
det(A)
k
,
det(A)
k = det
178
B.5
Determinante de Vandermonde
1
1
Vn (x1 , x2 , . . . , xn ) = det ..
.
1
x1 x21 xn1
1
x2 x22 xn1
2
..
.. . .
..
.
.
.
.
2
n1
xn xn xn
Da,
Vn (x1 , . . . , xn ) = Vn1 (x1 , . . . , xn1 )
=
Y
(xn xi )
i<n
Y
(xj xi ) (xn xi )
i<j<n
Y
(xj xi )
=
i<n
i<j
Esta igualdade vale mesmo quando os xi no forem distintos dois a dois, caso em que o
determinante de Vandermonde nulo.
Trocando o nmero xn pela varivel x, Vn (x1 , . . . , xn1 , x) se torna um polinmio em
x de grau n 1 que possui x1 , . . . , xn1 como razes. Assim,
Vn (x1 , . . . , xn1 , x) = (x x1 )(x x2 ) (x xn1 ),
onde um nmero real que no depende de x.
B.6
179
i2
in
Se dois ndices em det[ei1 , ei2 , . . . , ein ] forem iguais, o determinante nulo. Logo, as
parcelas no nulas so aquelas em que {i1 , i2 , . . . , in } for uma permutao de {1, 2,
. . . , n} e assim,
XX X
i2
in
180
Referncias Bibliogrficas
[CaDoCo] Callioli, C.A., Domingues, H.H., e Costa R.C.F., lgebra Linear e Aplicaes.
Editora Atual.
[Franklin] Joel N. Franklin, Matrix Theory, Dover publications, Inc., 1993.
[Homan] Homann & Kunze, lgebra Linear. Editora da USP com Editora Polgono.
[Kolman]
[Lang]
[Lawson]
Evar D. Nering, Linear Algebra and Matrix Theory. John Wiley & Sons, 1970.
Ben Noble & James W. Daniel, lgebra Linear Aplicada. Guanabara Koogan.
[Poole]
[RoHo]
Chris Rorres e Howard Anton, lgebra Linear com Aplicaes, oitava edio.
Editora Bookman, 2001.
[TrefBau]
Lloyd N. Trefethen and David Bau III, Numerical Linear Algebra. SIAM,
Society for Industrial and Applied Mathematics, 1997.
181