Escolar Documentos
Profissional Documentos
Cultura Documentos
Um segundo curso
Hamilton Prado Bueno
Universidade Federal de Minas Gerais
Departamento de Matem atica
Georg, Claudia und Miriam M uller
gewidmet
Prefacio
Esse texto e uma adapta c ao de parte de um livro de
Algebra Linear que considero uma obra
prima: o livro Linear Algebra, de P. Lax.
Adaptar o texto de P. Lax e, no fundo, uma temeridade. N ao acredito que aquele texto
possa ser melhorado. Por outro lado, ele foi escrito tendo como prop osito um curso de p os-
gradua c ao no Courant Institute.
E um texto denso e sintetico. Ap os umas poucas aulas cheguei ` a
conclus ao que os meus alunos dicilmente conseguiriam acompanh a-lo. Da surgiu a necessidade
dessa adapta c ao. Tentei esmiu car algumas passagens; substitu demonstra c oes elegantes, mas
sinteticas, por outras mais diretas. Tentando poupar algum tempo na exposi c ao de assuntos,
suprimi material que servia de motiva c ao. Inclu pre-requisitos e reordenei parte do material
exposto. Aumentei a enfase em espa cos vetoriais reais. Mas, tendo concludo a adapta c ao de
quase todos os oito primeiros captulos (de um total de dezessete, mais oito apendices, tudo
isso em apenas 250 p aginas!), a compara c ao do texto original com a adapta c ao e apenas um
desprestgio para o primeiro. Mais do que isso, com o decorrer do curso, veriquei que algumas
passagens que os alunos julgavam incompreensveis no livro de Lax puderam ser absorvidas. Ou
seja, bastou um pouco de maturidade matem atica para tornar aquele texto inteligvel.
O presente texto e dirigido a alunos que cursam um segundo curso de
Algebra Linear. Na
prepara c ao dessa adapta c ao z uso, principalmente, do texto Geometria Analtica e
Algebra
Linear, 2a. parte, do Prof. Reginaldo J. Santos [15]. Esse e bastante direto, apresentando
a
Algebra Linear de um ponto de vista bastante adequado ` a sua utiliza c ao por engenheiros e
n ao-matem aticos.
E difcil encontrar um livro t ao bem escrito de introdu c ao ` a
Algebra Linear.
Sugeri esse texto como leitura complementar aos meus alunos, principalmente ` aqueles que haviam
cursado seu primeiro curso de
Algebra Linear h a algum tempo. Ele apresenta demonstra c oes
simples de resultados que, em outros textos, tem tratamento muito mais complicado: compare-se,
por exemplo, as demonstra c oes do Teorema de Cayley-Hamilton daquele texto (aqui transcrita)
e aquela do livro do Prof. Elon Lima. Na escolha de material complementando o livro de Lax,
utilizei as notas de aula do Prof. Marcos Montenegro [13] e o livro de Leon [11]. O primeiro
foi especialmente util no tratamento de espa cos vetoriais reais e o segundo na apresenta c ao de
alguns resultados da
Algebra Linear Numerica.
Os captulos desse texto cobrem um curso de
Algebra Linear usual: espa cos vetoriais e
bases, o espa co dual, aplica c oes lineares e matrizes, determinantes, o Teorema da Decomposi c ao
Prim aria e a Forma Can onica de Jordan, espa cos euclidianos, formas quadr aticas, o Teorema
Espectral para operadores normais (e, com isso, operadores unit arios e ortogonais) e, nalmente,
o Teorema de Valores Singulares.
Fa co alguns coment arios sobre os captulos desse texto. Observo que, apesar de todas as
no c oes b asicas da
Algebra Linear serem apresentadas, alguns captulos foram escritos no esprito
revis ao, notadamente os captulos 1, 3 e parte do captulo 6. Assim, e pressuposto que o
i
ii
aluno tenha alguma familiaridade com matrizes e sistemas lineares, bases e o produto interno
no espa co R
n
.
O captulo 1 introduz espa cos vetoriais e bases. Os espa cos vetoriais s ao considerados apenas
sobre os corpos R ou C, o que e coerente com a linha geral do texto, que e voltado para a area
de An alise. Os alunos que assistiram o curso n ao possuam forma c ao em
Algebra. Isso tornou
necess aria uma apresenta c ao detalhada do espa co quociente. Inclu no texto alguns dos exerccios
que procuravam esclarecer o assunto, mas n ao a interpreta c ao geometrica apresentada em sala de
aula. Apesar disso, e bom salientar que o espa co quociente e usado apenas duas vezes: uma na
demonstra c ao do Teorema do N ucleo e da Imagem (que tambem possui uma prova alternativa,
sem o uso desse conceito) e outra na demonstra c ao da Forma Can onica de Jordan, quando apenas
e necess aria a ideia do que e uma base do espa co quociente e n ao do espa co propriamente dito.
N ao e difcil adaptar aquela demonstra c ao sem se mencionar o espa co quociente, de modo que
sua apresenta c ao ca a criterio do instrutor. Por outro lado, a introdu c ao do espa co quociente
na demonstra c ao do Teorema do N ucleo e da Imagem unica conceitos: a mesma demonstra c ao
se repete no estudo de outras estruturas algebricas. Apresentei o captulo 1 em ritmo acelerado,
j a que seu conte udo era familiar aos alunos do curso.
O captulo 2 trata do espa co dual e apresenta uma primeira vers ao do Teorema de Repre-
senta c ao de Riesz (para espa cos de dimens ao nita). Geralmente o dual e o bidual s ao apresenta-
dos ap os a introdu c ao de espa cos de aplica c oes lineares, como casos particulares desses. O texto
inverte essa ordem para dar exemplo de um isomorsmo can onico entre espa cos vetoriais. Com
modica c oes corriqueiras no captulo 3, o instrutor pode optar por n ao apresentar esse captulo.
O captulo 3 come ca por mostrar que a deni c ao de multiplica c ao de matrizes e uma con-
seq uencia natural da composi c ao de aplica c oes lineares. Nesse captulo tambem s ao tratados
outros t opicos fundamentais de um curso de
Algebra Linear: matrizes e representa c oes de
aplica c oes lineares, n ucleo e imagem de uma aplica c ao linear, sistemas lineares, espa co-linha
e espa co-coluna, etc. Sua apresenta c ao foi r apida; decidi n ao expor a sua ultima se c ao.
O captulo 4 apresenta determinantes, desde o ponto de vista de permuta c oes. Procurei
evitar uma apresenta c ao demasiadamente abstrata. Inclu material sobre ciclos e transposi c oes
que n ao e estritamente necess ario ao estudo de determinantes
1
; alem disso, adeq uei o ritmo
da minha exposi c ao ` a pouca familiaridade dos alunos com esses conceitos. Ainda assim, esses
quatro primeiros captulos foram cobertos em aproximadamente 30 horas de aula de um curso
semestral de 90 horas.
O captulo 5 apresenta o Teorema de Cayley-Hamilton e as formas can onicas fundamentais: o
Teorema da Decomposi c ao Prim aria e a Forma Can onica de Jordan. A primeira se c ao do captulo
e escrita de forma a apresentar os resultados b asicos sobre diagonaliza c ao de matrizes. Ent ao
se estudam os polin omios matriciais e se demonstra o Teorema de Cayley-Hamilton. As provas
dos Teoremas da Decomposi c ao Prim aria (que Lax denomina, no caso de espa cos vetoriais sobre
C, de Teorema Espectral) e da Forma Can onica de Jordan s ao bastante objetivas, e se ap oiam
em resultados que est ao explicitamente demonstrados no texto. Decidi apresentar a vers ao real
desses dois teoremas, o que n ao constava do texto original. V arios exemplos s ao dirigidos ` a
Forma Can onica de Jordan. Dediquei aproximadamente 25 horas de aula a esse captulo e, no
decorrer de sua exposi c ao, voltei repetidamente ` a demonstra c ao do Teorema da Decomposi c ao
1
Interpretando adequadamente, a apresenta c ao de Lax sobre o sinal de uma permuta c ao e mais concisa. Lax
deixa como exerccio a demonstra c ao de que uma permuta c ao e um produto de transposi c oes.
iii
Prim aria. Achei proveitoso esse procedimento: as ideias fundamentais desse teorema, bem como
seu extraordin ario signicado, cam melhor compreendidos se sua import ancia e constantemente
salientada.
O captulo seguinte trata de espa cos com produto interno. Lax segue a tradi c ao bourbakista
de apresent a-los apenas ap os o estudo de espa cos vetoriais gerais. Mantive esse ordenamento,
apesar de ach a-lo demasiadamente purista para os meus prop ositos, que eram enfatizar espa cos
de dimens ao nita. O captulo e leve e pode ser exposto mais rapidamente, mesmo assim trazendo
algum alvio aos alunos ap os a maratona do captulo anterior, j a que apresenta t opicos familiares
de um primeiro curso de
Algebra Linear. (Mesmo assim, acho que o instrutor deve ressaltar o
aspecto geometrico introduzido conjuntamente com o produto interno. Por exemplo, o processo
de ortogonaliza c ao de Gram-Schmidt pode ser justicado em casos bi- e tridimensionais. Mais
do que isso, no caso de espa cos de dimens ao n, uma representa c ao decompondo-o em um eixo
vertical e seu complementar ortogonal e adequada: muitas demonstra c oes podem ser, assim,
geometricamente justicadas). Em coerencia com o caminho voltado para a An alise, algumas
propriedades da norma de uma aplica c ao linear s ao apresentadas. Tambem s ao estudadas as
rela c oes entre o n ucleo e a imagem de uma aplica c ao linear e de sua adjunta, bem como algumas
propriedades b asicas de isometrias.
Voltando a diminuir o ritmo da exposi c ao em sala de aula, o captulo 7 trata das principais
formas can onicas em espa co com produto interno: o Teorema Espectral para operadores normais,
operadores unit arios e ortogonais. O captulo come ca tratando do Teorema de Sylvester e ent ao
apresenta, como um renamento, a diagonaliza c ao de matrizes simetricas, cuja demonstra c ao
e feita ` a partir do Teorema da Decomposi c ao Prim aria. Esse enfoque unica conceitos que
usualmente s ao apresentados separadamente: formas bilineares simetricas e diagonaliza c ao de
matrizes simetricas. As vers oes reais dos teoremas tambem est ao presentes, diferindo mais uma
vez do texto original. Os exerccios do captulo procuram esclarecer duas rela c oes de equivalencia:
a semelhan ca de matrizes (B = P
1
AP) e a equivalencia de matrizes (B = P
T
AP). Dediquei
aproximadamente 20 horas de aula a esse captulo.
O captulo 8, que n ao consta no livro de Lax e n ao foi apresentado no curso, trata de decom-
posi c oes matriciais: LU, Cholesky, Schur, QR e valores singulares, resultados especialmente uteis
na
Algebra Linear Numerica. Decidi inclu-lo por dois motivos. Em primeiro lugar, alguns desses
t opicos (a saber, as decomposi c oes LU, QR e em valores singulares) s ao apenas a formula c ao
matricial de resultados conhecidos. J a a decomposi c ao de Schur possibilita uma demonstra c ao
independente do teorema de diagonaliza c ao de operadores normais, enquanto Cholesky desvela
o vnculo entre a decomposi c ao LU e matrizes positivas-denidas. Mas, mais importante do que
isso, esses temas usualmente n ao s ao abordados em apresenta c oes tradicionais, e isso signica
ignorar todo o desenvolvimento proporcionado pela introdu c ao de metodos numericos no estudo
da
Algebra Linear. O captulo pode ser apresentado em combina c ao com captulos anteriores,
sem um acrescimo substancial em termos de tempo de aula.
Os exerccios includos no livro, alguns formulados por mim mesmo e outros compilados de
diversos textos, tem v arios graus de diculdade. Algumas vezes, eles introduzem nota c oes e con-
ceitos que ser ao usados livremente no resto do texto. Alguns indicam demonstra c oes alternativas
de resultados expostos. Outros complementam o material apresentado, sugerindo generaliza c oes.
Belo Horizonte, fevereiro de 2002
Hamilton Prado Bueno
Sumario
1 Base e Dimensao 1
1.1 Espa cos vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Somas diretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Espa co quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Dualidade 9
2.1 Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 O espa co dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Aplicac oes Lineares 14
3.1 Aplica c oes lineares e matrizes I . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Composta de aplica c oes lineares e multiplica c ao de matrizes . . . . . . . . . . . 16
3.3 O teorema do n ucleo e da imagem . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 O espa co linha e o espa co coluna de uma matriz . . . . . . . . . . . . . . . . . . 21
3.5 Aplica c oes lineares e matrizes II . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.6 A transposta de uma aplica c ao linear . . . . . . . . . . . . . . . . . . . . . . . . 26
3.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4 Determinantes 31
4.1 Permuta c oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2.1 Determinantes e permuta c oes . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3 Propriedades do determinante de uma matriz . . . . . . . . . . . . . . . . . . . 38
4.3.1 O determinante da matriz transposta . . . . . . . . . . . . . . . . . . . . 38
4.3.2 O determinante do produto de matrizes quadradas . . . . . . . . . . . . 38
4.3.3 O determinante em termos de cofatores . . . . . . . . . . . . . . . . . . . 40
4.4 A regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
iv
SUM
ARIO v
5 Teoria Espectral 46
5.1 Autovetores e autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2 Polin omios de aplica c oes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.3 O teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.4 O teorema da decomposi c ao prim aria . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5 A forma can onica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6 A forma de Jordan real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6 Estrutura Euclidiana 70
6.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.3 Bases ortonormais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.4 Proje c oes ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.5 A adjunta de uma aplica c ao linear . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.6 Norma de uma aplica c ao linear . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.7 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.8 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7 Teoria Espectral Euclidiana 84
7.1 Formas bilineares e quadr aticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.2 Diagonaliza c ao de formas quadr aticas . . . . . . . . . . . . . . . . . . . . . . . . 86
7.3 Aplica c oes auto-adjuntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.4 Aplica c oes normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.5 O teorema dos valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
8 Decomposic oes Matriciais 101
8.1 O metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.1.1 Sistemas lineares e escalonamento . . . . . . . . . . . . . . . . . . . . . . 101
8.1.2 Matrizes elementares e a decomposi c ao LU . . . . . . . . . . . . . . . . . 104
8.2 A decomposi c ao de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.3 A decomposi c ao de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.4 A decomposi c ao QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
8.5 A decomposi c ao em valores singulares . . . . . . . . . . . . . . . . . . . . . . . . 111
8.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Captulo 1
Base e Dimensao
1.1 Espacos vetoriais
Denotaremos por K o corpo R ou o corpo C.
Denicao 1.1.1 Um espaco vetorial X sobre o corpo K e um conjunto cujos elementos
(chamados vetores) podem ser somados e multiplicados por escalares, isto e, os elementos
do corpo K. Se x, y, z X e , K, as seguintes propriedades devem ser satisfeitas pela
adi c ao e multiplica c ao por escalar:
(i) x +y X (fechamento);
(ii) (x +y) +z = x + (y +z) (associatividade);
(iii) x +y = y +x (comutatividade);
(iv) existe 0 X tal que x + 0 = x (elemento neutro);
(v) existe (x) X tal que x + (x) = 0 (inverso aditivo);
(vi) x X (fechamento);
(vii) (x) = ()x (associatividade);
(viii) (x +y) = x +y (distributividade);
(ix) ( +)x = x +x (distributividade);
(x) 1x = x (regra da unidade).
Denotaremos x + (y) simplesmente por x y (veja exerccio 1).
Exemplo 1.1.2 O conjunto K
n
= (x
1
, x
2
, . . . , x
n
) : x
i
K (i = 1, . . . , n) com a adi c ao e
multiplica c ao por escalar denidas coordenada a coordenada e um espa co vetorial. O conjunto
T de todas as fun c oes f : S K denidas num conjunto arbitr ario S e com as opera c oes de
adi c ao e multiplica c ao por escalar usualmente denidas e tambem um espa co vetorial. O mesmo
acontece com o conjunto T de todos os polin omios com coecientes em K ou o subconjunto T
n
de todos os polin omios de grau menor do que n.
1
2 CAP
AO
Denicao 1.1.3 Um subconjunto Y de um espa co vetorial X e um subespaco se seus elemen-
tos satisfazem `as propriedades que denem o espa co vetorial X.
Exemplo 1.1.4 O subconjunto de K
n
de todos os vetores cuja primeira coordenada e nula e
um subespa co de K
n
. Se S = R, os subconjunto de T formado por todas as fun c oes contnuas ou
por todas as fun c oes de perodo s ao subespa cos de T. O mesmo acontece com o subconjunto
de T formado por todos os polin omios de grau par.
Denicao 1.1.5 Sejam X e Y espa cos vetoriais sobre o corpo K. Uma aplica c ao
T : X Y
satisfazendo
T(x +y) = Tx +Ty
para quaisquer x, y X e K e chamada transformacao linear ou aplicacao linear. Se
X = Y tambem chamamos T de operador linear.
Se T e uma bije c ao, dizemos que T e um isomorsmo e que os espa cos X e Y s ao isomor-
fos.
Observacao 1.1.6 Note que, na deni c ao de aplica c ao linear, estamos denotando as opera c oes
nos espa cos vetoriais X e Y da mesma maneira: em T(x +y), a soma x +y ocorre no espa co
X, enquanto em Tx +Ty ela ocorre em Y .
1.2 Somas diretas
Denicao 1.2.1 Sejam A, B subconjuntos de um espa co vetorial X. Denotamos A+B o con-
junto de todos os vetores x +y, com x A e y B.
Proposicao 1.2.2 Sejam U, V subespa cos de X. Ent ao U +V e subespa co de X. O subespa co
U +V e chamado soma dos subespa cos U e V .
Demonstracao: Se z
1
= x
1
+ y
1
e z
2
= x
2
+ y
2
s ao elementos de U + V e K, ent ao
claramente z
1
+z
2
U +V (veja exerccio 3).
2
Denicao 1.2.3 Sejam U, V subespa cos de X. O subespa co W = U +V e a soma direta dos
subespa cos U e V se cada elemento de w W pode ser escrito de maneira unica como
w = x +y.
Nesse caso denotamos W = U V .
A deni c ao de soma direta pode ser generalizada para a soma de um n umero nito de subespa cos
de X.
1.3. BASES 3
Proposicao 1.2.4 O subespa co W = U + V e a soma direta dos subespa cos U, V de X se, e
somente se, U V = 0.
Demonstracao: Suponhamos que W = U V . Se z U V ent ao w = x + y tambem pode
ser escrito como w = (x + z) + (y z). Como a decomposi c ao w = x + y e unica, devemos ter
x = x +z e y = y z. Assim, z = 0 (veja exerccio 2).
Reciprocamente, suponhamos que x
1
+ y
1
e x
2
+ y
2
sejam duas decomposi c oes de w W.
Ent ao x
1
x
2
= y
2
y
1
pertencem simultaneamente a U e V . Logo x
1
x
2
= 0 = y
2
y
1
,
garantindo a unicidade da decomposi c ao.
2
1.3 Bases
Denicao 1.3.1 Seja S X um subconjunto qualquer de um espa co vetorial X. Uma com-
binacao linear de elementos de S e uma soma
1
x
1
+. . . +
k
x
k
,
com
1
, . . . ,
k
K e x
1
, . . . , x
k
S.
O conjunto S e linearmente dependente se existe um n umero nito de elementos
x
1
, . . . , x
k
S
e escalares
1
, . . . ,
k
K, n ao todos nulos, tais que
1
x
1
+. . . +
k
x
k
= 0.
Caso contrario, o conjunto S e linearmente independente.
O conjunto S gera o espa co X se, para todo x X, existem (nitos) elementos x
1
, . . . , x
j
S
tais que x =
1
x
1
+. . . +
j
x
j
, para escalares
1
, . . . ,
j
K. Uma base de X e um subconjunto
S que e linearmente independente e gera X. Um espa co vetorial tem dimensao nita se tem
uma base com um n umero nito de elementos.
Lema 1.3.2 Suponhamos que S = x
1
, . . . , x
n
gere o espa co vetorial X e que y
1
, . . . , y
j
seja
linearmente independente em X. Ent ao
j n.
Demonstracao: Suponhamos j > n. Como S gera X, temos que
y
1
=
1
x
1
+. . . +
n
x
n
,
sendo ao menos um dos escalares
1
, . . . ,
n
diferente de zero (veja exerccio 10). Podemos supor
1
,= 0. Temos ent ao que x
2
, . . . , x
n
, y
1
gera X. De fato, se x X, existem escalares
1
, . . . ,
n
tais que x =
1
x
1
+. . . +
n
x
n
. Mas ent ao
x =
1
_
1
1
(y
1
2
x
2
. . .
n
x
n
)
_
+
2
x
2
+. . . +
n
x
n
,
4 CAP
AO
mostrando o armado.
De maneira an aloga, y
2
=
2
x
2
+. . . +
n
x
n
+
1
y
1
, com ao menos um dos escalares
2
, . . . ,
n
diferente de zero (veja o exerccio 11). Supondo
2
,= 0, vericamos ent ao que o conjunto
x
3
, . . . , x
n
, y
1
, y
2
gera o espa co X. Repetindo sucessivamente esse procedimento, obtemos que
y
1
, . . . , y
n
1
y
1
. . .
n
y
n
+ 1y
n+1
+ 0y
n+2
+. . . + 0y
j
= 0,
o que contradiz y
1
, . . . , y
j
ser um conjunto linearmente independente.
2
Lema 1.3.3 Todo espa co vetorial gerado por um subconjunto nito S = x
1
, . . . , x
n
possui
uma base.
Demonstracao: Se S e linearmente dependente, um de seus elementos pode ser escrito como
combina c ao linear dos elementos restantes. Retirando esse elemento, o conjunto restante con-
tinua gerando X. Continuamos retirando elementos que s ao combina c ao linear dos elementos
restantes ate obter um conjunto linearmente independente que continua gerando X.
2
Um espa co vetorial de dimens ao nita possui muitas bases.
Teorema 1.3.4 Todas as bases de um espa co vetorial X de dimens ao nita possuem o mesmo
n umero de elementos.
Demonstracao: Se S = x
1
, . . . , x
n
e S
= y
1
, . . . , y
j
s ao bases de X, o lema 1.3.2 aplicado
ao conjunto linearmente independente S
, obtemos n j.
2
Denicao 1.3.5 Se S = x
1
, . . . , x
n
e uma base do espa co vetorial X, dizemos que X tem
dimens ao n e escrevemos
dimX = n.
Se X = 0, X tem dimens ao nita igual a zero.
Teorema 1.3.6 Todo subconjunto linearmente independente S = y
1
, . . . , y
j
de um espa co
vetorial X de dimens ao n pode ser completado para formar uma base de X.
1.3. BASES 5
Demonstracao: Se S n ao gera X, ent ao existe um vetor x
1
X que n ao e combina c ao linear
dos elementos de S. O conjunto
y
1
, . . . , y
j
, x
1
e linearmente independente. Repetimos esse procedimento um n umero nito de vezes, ate obter
uma base de X.
2
O teorema 1.3.6 nos mostra como obter diferentes bases para um espa co vetorial de dimens ao
nita.
Observacao 1.3.7 Uma base de um espa co vetorial e um conjunto ordenado. Assim, se S =
x
1
, x
2
, . . . , x
n
e uma base do espa co X, ent ao S
= x
2
, . . . , x
n
, x
1
e outra base de X.
Denicao 1.3.8 Sejam X um espa co vetorial e B = x
1
, . . . , x
n
uma base de X. Se x X,
ent ao existem escalares
1
, . . . ,
n
K tais que
x =
1
x
1
+. . . +
n
x
n
.
O vetor (
1
, . . . ,
n
) K
n
e chamado representacao de x na base B e
1
, . . . ,
n
as coorde-
nadas de x na base B. Denotamos tambem por [x]
B
o vetor (
1
, . . . ,
n
).
Denicao 1.3.9 Seja e
i
K
n
o vetor cuja i-esima coordenada e igual a 1, as outras sendo
nulas. O conjunto c = e
1
, . . . , e
n
e a base can onica do espa co K
n
.
Teorema 1.3.10 Seja X um espa co vetorial de dimens ao nita. Ent ao vale:
(i) todo subespa co Y de X possui dimens ao nita;
(ii) todo subespa co Y possui um complemento Z X, isto e, existe um subespa co Z de X tal
que
X = Y Z.
Demonstracao: Se Y = 0, ent ao dimY = 0. Tome 0 ,= y
1
Y . Se existir y
2
Y
linearmente independente com y
1
, consideramos ent ao o conjunto y
1
, y
2
. Se esse conjunto gera
Y , temos uma base. Caso contr ario, podemos acrescentar y
3
Y linearmente independente com
y
1
e y
2
. Procedendo assim, obtemos sucessivamente conjuntos linearmente independentes, cada
um contendo o anterior. De acordo com o lema 1.3.2, esse processo s o pode continuar enquanto
esses conjuntos tiverem dimens ao menor do que a dimens ao de X. Obtemos assim uma base
y
1
, . . . , y
j
para Y .
Aplicando ent ao o teorema 1.3.6, essa base pode ser completada ate obtermos uma base
y
1
, . . . , y
j
, x
1
, . . . , x
nj
para X. Dena Z como o espa co de todas as combina c oes lineares
dos elementos x
1
, . . . , x
nj
. Claramente Z e um subespa co de X e Z Y = 0. Logo, pela
proposi c ao 1.2.4, temos X = Y Z.
2
6 CAP
AO
1.4 Espaco quociente
Denicao 1.4.1 Seja Y um subespa co de X. Se x
1
, x
2
X, dizemos que x
1
e congruente a
x
2
modulo Y , escrito
x
1
x
2
mod Y,
se x
1
x
2
Y .
Podemos dividir o espa co X em diferentes classes de equivalencia m odulo Y (veja exerccio 23).
Denotaremos a classe contendo o elemento x por [x].
Denicao 1.4.2 Se [x] e [z] s ao classes de equivalencia modulo Y e K, denimos
[x] + [z] = [x +z], [x] = [x].
Com essas opera c oes, o conjunto de todas as classes de equivalencia modulo Y torna-se um
espa co vetorial, denotado
X
Y
ou X/Y
e denominado espaco quociente de X por Y .
A classe de equivalencia [x] muitas vezes e representada por x +Y .
A rigor, precisamos mostrar que as opera c oes em X/Y est ao bem denidas, isto e, independem
dos representantes de cada classe de equivalencia. Portanto, suponhamos que x
1
[x] e z
1
[z].
Ent ao x
1
= x+y
1
e z
1
= z+y
2
, com y
1
, y
2
Y . Mas ent ao x
1
+z
1
= x+y
1
+z+y
2
= x+z+(y
1
+y
2
)
e, assim, x
1
+z
1
x +z mod Y . Do mesmo modo, x
1
= x + (y
1
) e x
1
x mod Y .
Exemplo 1.4.3 Seja x K
n
e considere Y o subespa co de todos os vetores cujas duas primeiras
coordenadas s ao nulas. Ent ao dois vetores s ao congruentes m odulo Y se, e somente se, suas duas
primeiras coordenadas s ao iguais. Isto e,
(x
1
, x
2
, x
3
, . . . , x
n
) (y
1
, y
2
, y
3
, . . . , y
n
) mod Y x
1
= y
1
e x
2
= y
2
.
Cada classe de equivalencia pode ser vista como um vetor com duas componentes, quais sejam,
as duas coordenadas que eles possuem em comum.
Teorema 1.4.4 Seja Y um subespa co do espa co vetorial de dimens ao nita X. Ent ao
dimX = dimY + dim
X
Y
.
Demonstracao: Seja y
1
, . . . , y
j
uma base de Y . Podemos complet a-la de modo que
y
1
, . . . , y
j
, x
j+1
, . . . , x
n
ICIOS 7
1.5 Exerccios
1. Se x e o inverso aditivo de x X, mostre que x = (1)x.
2. Mostre que o elemento neutro aditivo de um espa co vetorial e unico. Mostre que 0x = 0
para todo x X e 0 = 0 para todo K, sendo 0 X o elemento neutro aditivo.
3. Mostre que Y X e um subespa co se, e somente se, x + y Y para quaisquer x, y Y
e K.
4. Se X e um espa co vetorial, mostre que os conjuntos X e 0 (que consiste apenas do
elemento neutro aditivo) s ao subespa cos de X, chamados subespacos triviais.
5. Seja X = (x
1
, . . . , x
n
) : x
i
K. Dena a soma x + y da maneira usual e x = 0 para
todo K e x X. Verique quais propriedades da deni c ao de espa co vetorial s ao
satisfeitas.
6. Seja V K
n
o conjunto de todas as n-uplas da forma (0, 0, x
3
, . . . , x
n
). Mostre que V e
um subespa co de K
n
.
7. Seja U = (x, y) R
2
: x > 0, y > 0. Se z
1
= (x
1
, y
1
) e z
2
= (x
2
, y
2
) s ao elementos de U
e R, dena
z
1
+z
2
= (x
1
x
2
, y
1
y
2
), z
1
= (x
1
, y
1
).
(a) Mostre que U e um espa co vetorial;
(b) mostre que, se v
1
= (e, 1) e v
2
= (1, e), ent ao B = v
1
, v
2
e uma base de U (estamos
denotando e a base dos logaritmos naturais).
(c) Dena T : U R
2
por T(z) = [z]
B
, em que [z]
B
e a representa c ao de z na base B.
Mostre que T e um isomorsmo.
8. Seja S X um subconjunto arbitr ario do espa co vetorial X. Mostre que o conjunto de
todas as combina c oes lineares dos elementos de S forma um subespa co de X, chamado
espaco gerado por S e denotado < S >. Mostre que se Y X e um subespa co tal
que S Y , ent ao < S > Y . (Esse exerccio generaliza o procedimento usado na
demonstra c ao do teorema 1.3.10).
9. Mostre que U V e um subespa co de X, se U e V s ao subespa cos de X. O subespa co
U V e chamado intersecao dos subespa cos U e V .
10. Se S X e linearmente independente, mostre que 0 , S. Mostre que se um conjunto possui
um subconjunto linearmente dependente, ent ao esse conjunto e linearmente dependente.
11. Qual a raz ao, na demonstra c ao do lema 1.3.2, de substituirmos sempre um dos elementos
x
j
, . . . , x
n
do conjunto x
j
, . . . , x
n
, y
1
, . . . , y
j1
pelo elemento y
j
? Porque n ao podemos
substituir y
j
por um dos elementos y
1
, . . . , y
j1
?
12. Seja T o espa co vetorial de todos os polin omios na vari avel x, com coecientes em K. Seja
S = 1, x, x
2
, . . . , x
n
, . . .. Mostre que S e uma base de T.
8 CAP
AO
13. Mostre que uma transforma c ao linear T : X Y e injetiva se, e somente se, ker T = 0,
em que ker T := v X; Tv = 0.
14. Mostre que K
n
e T
n
s ao isomorfos.
15. Seja T : X Y um isomorsmo entre os espa cos X e Y . Mostre que a inversa T
1
:
Y X e linear.
16. Mostre que todo espa co vetorial de dimens ao n sobre o corpo K e isomorfo a K
n
. Esse
isomorsmo e unico? Conclua que quaisquer dois espa cos de dimens ao n sobre o mesmo
corpo K s ao sempre isomorfos. Os espa cos R
n
e C
n
s ao isomorfos?
17. Mostre que S e uma base de X se, e somente se, todo elemento x X pode ser escrito de
maneira unica como combina c ao linear dos elementos de S.
18. Seja X um espa co vetorial de dimens ao n. Se S = y
1
, . . . , y
n
e um conjunto linearmente
independente, mostre que S e uma base de X.
19. Sejam X um espa co vetorial de dimens ao n e S = y
1
, . . . , y
n
um conjunto que gera X.
Mostre que S e uma base de X.
20. Seja X um espa co de dimens ao n e V
1
V
k
uma soma direta de subespa cos de X.
Mostre que dimV
1
V
k
= dimV
1
+. . . + dimV
k
n.
21. Sejam U, V subespa cos de X. Mostre que dimU +V = dimU + dimV dim(U V ).
22. Denotaremos por M
nn
o conjunto das matrizes n n. Dena o = A M
nn
; A
T
= A,
em que A
T
denota a transposta da matriz A (o e o conjunto das matrizes simetricas);
dena / = A M
nn
; A
T
= A (/ e o conjunto das matrizes anti-simetricas). Mostre
que M
nn
= o /.
23. Seja uma rela c ao de equivalencia
1
num conjunto A. Dado x A, denote
cl(x) =: y A; y x
a classe de equivalencia do elemento x. Mostre que A pode ser escrito como uma uni ao
disjunta de suas classes de equivalencia.
24. Mostre que a congruencia m odulo Y e uma rela c ao de equivalencia.
25. Seja W R
3
o subespaco (verique!) formado por todas as solu c oes da equa c ao linear
homogenea 2x + 3y + 4z = 0. Descreva as classes de equivalencia de W em R
3
.
26. Seja Y um subespa co de X. Mostre que X e isomorfo a Y X/Y .
27. A soma direta de espa cos vetoriais X
1
, X
2
e o conjunto X
1
X
2
de todos os pares
(x
1
, x
2
) com x
1
X
1
e x
2
X
2
. Denindo adi c ao e multiplica c ao por escalar coordenada
a coordenada, mostre que X
1
X
2
e um espa co vetorial. Se X
1
e X
2
tem dimens ao nita,
ent ao dimX
1
X
2
= dimX
1
+ dimX
2
.
1
Quer dizer, se x, y, z A, ent ao: (i) x x; (ii) se x y, ent ao y x; (iii) se x y e y z, ent ao x z.
Captulo 2
Dualidade
O captulo visa a apresenta c ao de uma primeira vers ao do Teorema de Representa c ao de Riesz e
tambem do isomorsmo can onico entre o espa co X e o bidual X
ITULO 2. DUALIDADE
Exemplo 2.2.2 Seja X = f : [0, 1] R : f e contnua. Dena (f) =
_
1
0
f(s)ds e, para
s
0
[0, 1] xo, m(f) = f(s
0
). Ent ao , m X
.
Seja x
1
, . . . , x
n
uma base do espa co vetorial X. Para x X, existem escalares
1
(x), . . . ,
n
(x)
tais que
x =
1
(x)x
1
+. . . +
n
(x)x
n
.
Os escalares s ao justamente as coordenadas de x na base x
1
, . . . , x
n
. (Quer dizer, se x =
1
x
1
+. . . +
n
x
n
e y =
1
x
1
+. . . +
n
x
n
, estamos denotando
i
(x) =
i
e
i
(y) =
i
).
Teorema 2.2.3 Seja B = x
1
, . . . , x
n
uma base de X e
x =
1
(x)x
1
+. . . +
n
(x)x
n
.
Ent ao:
(i) para todo i = 1, . . . , n,
i
: X K e um funcional linear e
i
(x
j
) =
ij
;
(ii) o conjunto
1
, . . . ,
n
e uma base de X
, ent ao
m(x) =
1
(x)m(x
1
) +. . . +
n
(x)m(x
n
).
(iv) para todo 0 ,= x X, existe m X
i
(x +y) =
i
+
i
=
i
(x) +
i
(y).
(ii) Suponhamos que
1
1
+ . . . +
n
n
= 0 X
. Ent ao
m(x) = m(
1
x
1
+. . . +
n
x
n
) =
1
m(x
1
) +. . . +
n
m(x
n
) =
1
(x)m(x
1
) +. . . +
n
(x)m(x
n
),
provando n ao apenas que
1
, . . . ,
n
gera X
e um espa co vetorial de dimens ao n, temos que esse espa co tem o seu dual,
que denotaremos X
= n.
Note que X
= L : X
K : L e linear.
2.2. O ESPAC O DUAL 11
Quer dizer, L e uma transforma c ao linear que associa, a cada funcional linear : X K, o
n umero L() K. Os elementos de X
K denida por
L
x
() = (x).
Quer dizer, L
x
associa a cada funcional linear X
.
Demonstracao: Suponhamos que , m X
. Ent ao, se K,
L
x
( +m) = ( +m)(x) = (x) +m(x) = L
x
() +L
x
(m).
(Compare essa demonstra c ao com o exemplo 2.2.2).
2
Teorema 2.2.6 Todo elemento do espa co X
e da forma L
x
, para algum x X.
Demonstracao: Apesar de ser constituda de etapas bastante simples, a ideia da demonstra c ao
e relativamente elaborada. Denimos = L
x
: x X. Quer dizer, os elementos de s ao as
aplica c oes lineares denidas no lema anterior. Vamos mostrar, em primeiro lugar, que e um
subespa co de X
.
Isso quer dizer que = X
.
1a. parte: e um subespa co de X
.
Sejam L
x
, L
y
e K. Consideremos L
x
+ L
y
. Queremos mostrar que essa aplica c ao
linear e um elemento de , isto e, L
x
+L
y
= L
z
para algum z X. Temos, para X
,
(L
x
+L
y
)() = L
x
() +L
y
() = (x) +(y) = (x +y) = L
x+y
().
2a. parte: X e isomorfo a . Denimos
T : X
x L
x
.
Vamos mostrar que T e um isomorsmo entre X e . Temos que
T(x +y) = L
x+y
= L
x
+L
y
= T(x) +T(y),
de acordo com o que mostramos na primeira parte. A aplica c ao T e sobrejetiva por deni c ao.
A injetividade tambem e clara: se T(x) = T(y), ent ao L
x
= L
y
e, portanto, L
x
() = L
y
()
para todo X
ITULO 2. DUALIDADE
Teorema 2.2.7 Sejam t
1
, . . . , t
n
pontos distintos do intervalo I. Ent ao existem constantes
m
1
, . . . , m
n
tais que
_
I
p(t)dt = m
1
p(t
1
) +. . . +m
n
p(t
n
)
para todo polin omio p de grau menor do que n.
Demonstracao: O espa co T
n
de todos os polin omios p(t) = a
0
+ a
1
t + . . . + a
n1
t
n1
de grau
menor do que n e isomorfo a K
n
e, portanto, tem dimens ao n.
Denimos
j
(p) = p(t
j
). Ent ao
j
T
n
. Armamos que
1
, . . . ,
n
e linearmente indepen-
dente. De fato, suponhamos que
1
+. . . +
n
n
= 0 T
n
.
Isso implica que
1
p(t
1
) +. . . +
n
p(t
n
) = 0, p T
n
. (2.1)
Considere os polin omios
q
1
(t) = (t t
2
) (t t
n
), q
2
(t) = (t t
1
)(t t
3
) (t t
n
), . . . , q
n
(t) = (t t
1
) . . . (t t
n1
).
Cada polin omio q
i
possui exatamente n 1 razes nos pontos t
j
, com j ,= i. Substituindo
sucessivamente os polin omios q
i
na rela c ao (2.1), obtemos
i
q(t
i
) = 0, o que implica
i
= 0. Isso
mostra que
1
, . . . ,
n
e linearmente independente em T
n
e, portanto, uma base desse espa co,
que tem dimens ao n.
Assim, todo funcional linear : T
n
R e uma combina c ao linear dos funcionais
1
, . . . ,
n
e,
portanto,
= m
1
1
+. . . +m
n
n
para escalares m
1
, . . . , m
n
K. O resultado decorre ao considerarmos o funcional linear
p
_
I
p(t)dt.
2
2.3 Exerccios
1. Considere a base B := v
1
, v
2
do R
2
, em que v
1
= (2, 1) e v
2
= (3, 1). Acha a base dual
de B.
2. Seja T
n
o espa co de todos os polin omios (com coecientes em R) de grau menor do que
n. Mostre que as seguintes aplica c oes pertencem ao dual de T
n
: (a)
i
(p(t)) = a
i
para
todo i = 0, 1, . . . , n 1, se p(t) T
n
e dado por p(t) = a
0
+ a
1
t + . . . + a
n1
t
n1
; (b)
J(p(t)) =
_
1
0
p(t)dt, para todo p(t) T
n
(t).
3. Considere o espa co T
2
, como acima. Sejam
1
: T
2
R e
2
: T
2
R dadas por
1
(p(t)) =
_
1
0
p(t)dt e
2
(p(t)) =
_
2
0
p(t)dt. Mostre que B
=
1
,
2
e uma base de T
2
.
Ache a base v
1
, v
2
de T
2
da qual B
e dual.
2.3. EXERC
ICIOS 13
4. Sejam X um espa co vetorial arbitr ario e f : X K um funcional linear n ao-nulo.
(a) Mostre que ker f tem codimensao 1, isto e, existe w X tal que
X = ker f < w > .
(denotamos < w > o espa co gerado por w X).
(b) Se g : X K e outro funcional linear, ent ao g e um m ultiplo escalar de f se, e
somente se, o n ucleo de g contiver o n ucleo de f.
(c) Sejam , f
1
, . . . , f
r
funcionais lineares no espa co X. Mostre que e combina c ao linear
de f
1
, . . . , f
r
se, e somente se, ker f
1
ker f
r
ker .
5. Sejam X um espa co vetorial e S X um subconjunto arbitr ario. O anulador de S e o
conjunto S
= f X
e um subespa co de X
.
6. Seja Y X um subespa co do espa co vetorial de dimens ao nita X. Mostre que dimX =
dimY + dimY
. Identicando X e X
= Y .
7. Seja S = (2, 2, 3, 4, 1), (1, 1, 2, 5, 2), (0, 0, 1, 2, 3), (1, 1, 2, 3, 0) R
5
. Obtenha
o anulador de < S >.
8. Sejam A, B matrizes n n. Mostre que a igualdade AB BA = I nunca e satisfeita.
9. Seja W X um subespa co e f : W K linear. Mostre que existe um funcional linear
: X K que estende f, isto e, (w) = f(w) para todo w W.
Captulo 3
Aplicac oes Lineares
3.1 Aplicac oes lineares e matrizes I
Sejam X e Y espa cos vetoriais sobre o mesmo corpo K. Como sabemos, uma aplicacao linear
(ou transforma c ao linear) e uma aplica c ao T : X Y tal que
T(x +y) = T(x) +T(y), x, y X e K.
Exemplo 3.1.1 Um isomorsmo e sempre uma transforma c ao linear. Se X = Y = R
2
,
denindo T como sendo uma rota c ao de um angulo em torno da origem, vemos que T e
linear (verique!). Se T e o espa co vetorial de polin omios, T : T T denida por T(p) = p
j=1
a
ij
x
j
, i = 1, . . . , m. (3.1)
(Estamos denotando x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
m
), sendo y
i
= (Tx)
i
a i-esima coordenada
de y). Armamos que T e linear. De fato, se w = (w
1
, . . . , w
n
) R
n
e R, temos
(T(x +w))
i
=
n
j=1
a
ij
(x
j
+w
j
) =
n
j=1
a
ij
x
j
+
n
j=1
a
ij
w
j
= (Tx)
i
+(Tw)
i
.
(Escolha i 1, . . . , m e escreva explicitamente a soma que est a sendo efetuada).
Teorema 3.1.3 Toda aplica c ao linear T : R
n
R
m
e da forma (3.1).
Demonstracao: Considere a base can onica e
1
, . . . , e
n
do R
n
. Temos ent ao que x = x
1
e
1
+
. . . +x
n
e
n
=
n
j=1
x
j
e
j
. Como T e linear,
y = Tx = T
_
n
j=1
x
j
e
j
_
=
n
j=1
x
j
T(e
j
).
14
3.1. APLICAC
OES LINEARES E MATRIZES I 15
Denote a i-esima coordenada do vetor T(e
j
) por a
ij
, isto e, a
ij
= (T(e
j
))
i
. Assim, a i-esima
coordenada de y e
y
i
=
n
j=1
x
j
a
ij
,
como queramos provar.
2
ITULO 3. APLICAC
OES LINEARES
3.2 Composta de aplicac oes lineares e multiplicacao de
matrizes
Sejam X, Y e Z espa cos vetoriais sobre o mesmo corpo K, e T : X Y e S : Y Z aplica c oes
lineares. Denotamos S T : X Z a aplica c ao composta de T com S. Quer dizer,
(S T)x = S(Tx).
E f acil vericar que ST L(X, Z). Alem disso, se R : Z W e linear, temos que R(ST) =
(R S) T (quer dizer, a composi c ao de aplica c oes e uma opera c ao associativa; isso independe
da linearidade de R, S e T).
Mais do que isso, temos
(P +S) T = P T +S T P L(Y, Z)
e
S (T +Q) = S T +S Q, Q L(X, Y ).
(tambem essas propriedades independem da linearidade).
E usual denotar, no caso de aplica c oes lineares, S T por ST e cham a-lo produto das
aplica c oes lineares S e T. Note que, em geral, ST ,= TS (na verdade, os dois lados nem
precisam estar simultaneamente denidos; mesmo estando, n ao h a raz ao para eles serem iguais).
Atraves do Lema 3.1.5 foram interpretadas as opera c oes no espa co vetorial L(R
n
, R
m
) em
termos de opera c oes entre matrizes, introduzindo assim opera c oes em M
mn
que fazem desse
conjunto um espa co vetorial, isomorfo ao espa co L(R
n
, R
m
) (verique que temos realmente um
isomorsmo!). A composi c ao de aplica c oes lineares (quando possvel) tambem pode ser inter-
pretada como opera c ao entre matrizes. Veremos que elas correspondem ` a multiplica c ao dessas,
o que justica a denomina c ao de produto para a composi c ao de aplica c oes lineares e a nota c ao
ST ao inves de S T.
O nosso ponto de partida, para isso, consiste da express ao (3.1). Considerando o vetor x = e
j
,
vemos que o lado direito de (3.1) produz a j-esima coluna da matriz (a
ij
). Mas Te
j
e justamente
um vetor do R
m
, cuja i-esima coordenada e a
ij
. Assim, e natural interpretar os vetores em R
m
como colunas. Para sermos consistentes com esse fato, interpretaremos tanto os vetores no R
n
como os vetores no R
m
como vetores coluna.
Uma matriz A pode ser concebida de duas maneiras diferentes: como uma linha de vetores
coluna ou como uma coluna de vetores linha:
A = (c
1
c
2
. . . c
n
) =
_
_
_
1
.
.
.
m
_
_
_
, em que c
j
=
_
_
_
a
1j
.
.
.
a
nj
_
_
_
e
i
= (a
i1
a
i2
a
in
). (3.2)
Enfatizamos a equa c ao obtida acima:
Te
j
= c
j
. (3.3)
Utilizaremos as diversas concep c oes de uma matriz - arranjo de n umeros ou de vetores linha ou
vetores coluna - para podermos interpretar a composi c ao de aplica c oes lineares e introduzirmos
a multiplica c ao de matrizes.
3.2. COMPOSTA DE APLICAC
OES LINEARES E MULTIPLICAC
AO DE MATRIZES 17
Para isso, come camos por considerar um caso simples: aquele em que a matriz e composta
por uma unica linha. De acordo com o lema 3.1.5, uma matriz linha (c
1
. . . c
n
) corresponde a
uma aplica c ao linear : R
n
R. Temos, assim, uma interpreta c ao para os elementos do espa co
dual do R
n
: eles s ao as matrizes-linha, isto e, as matrizes formadas por uma unica linha e n
colunas!
Calculando (x) = x (o vetor x sendo interpretado como um vetor coluna), obtemos, de
acordo com (3.1),
x = (c
1
. . . c
n
)
_
_
_
x
1
.
.
.
x
n
_
_
_
= c
1
x
1
+c
2
x
2
+. . . +c
n
x
n
. (3.4)
Essa f ormula, em particular, dene o produto de uma matriz linha por uma matriz coluna!
A f ormula de multiplica c ao de uma matriz mn por uma matriz coluna n1 decorre tambem
imediatamente de (3.1): se T L(R
n
, R
m
) e representada pela matriz (a
ij
), ent ao y = Tx tem
coordenadas
y
i
=
n
j=1
a
ij
x
j
, i = 1, . . . , m. (3.5)
Uma vez que j a convencionamos que os nossos vetores s ao representados por colunas e
Tx =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
,
vemos que
y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
= Tx =
_
_
_
_
_
2
.
.
.
m
_
_
_
_
_
x =
_
_
_
_
_
1
x
2
x
.
.
.
m
x
_
_
_
_
_
, (3.6)
o que vem da compara c ao de (3.5) com (3.4).
Agora e f acil obter a f ormula de multiplica c ao de uma matriz p m por uma matriz mn:
uma matriz pm corresponde a uma aplica c ao linear S L(R
m
, R
p
) e uma matriz mn a uma
aplica c ao linear T L(R
n
, R
m
). A composi c ao ST L(R
n
, R
p
) est a bem denida e produz uma
matriz p n. Vamos caracterizar essa matriz. Pela equa c ao (3.3), Te
j
e igual a c
j
, a j-esima
coluna de T. Do mesmo modo (ST)e
j
corresponde ` a j-esima coluna da matriz que representa
ST. Aplicando a f ormula (3.6) para x = c
j
= Te
j
, temos ent ao
(ST)e
j
= S(Te
j
) = Sc
j
=
_
_
_
1
c
j
.
.
.
p
c
j
_
_
_
,
em que
k
e a k-esima linha de S. Mostramos assim a regra: se S e uma matriz p m e T uma
matriz mn, ent ao o produto ST e uma matriz p n, cuja entrada kj e o produto da k-esima
18 CAP
ITULO 3. APLICAC
OES LINEARES
linha de S pela j-esima coluna de T:
(ST)
kj
=
k
c
j
,
em que
S =
_
_
_
1
.
.
.
k
_
_
_
e T = (c
1
c
n
).
Note que, uma vez que o produto de transforma c oes lineares e associativo, a multiplica c ao de
matrizes e associativa. Outras propriedades b asicas da multiplica c ao de matrizes decorrem, do
mesmo modo, das propriedades an alogas da composi c ao de aplica c oes lineares.
3.3 O teorema do n ucleo e da imagem
Denicao 3.3.1 Seja T : X Y uma aplica c ao linear. Denimos a imagem de T, denotada
1mT, por
1mT := y Y ; y = Tx.
Denimos o n ucleo de T, denotado ker T, por
ker T := x X; Tx = 0.
O n ucleo e a imagem de T s ao subespa cos vetoriais de X e Y , respectivamente. De fato, se
x
1
, x
2
ker T e K, ent ao T(x
1
+ x
2
) = T(x
1
) + T(x
2
) = 0 + 0 = 0, provando que
x
1
+ x
2
ker T. Se y
1
, y
2
1mT, ent ao existem x
1
, x
2
X tais que y
1
= T(x
1
) e y
2
= T(x
2
).
Logo, se K, y
1
+y
2
= T(x
1
) +T(x
2
) = T(x
1
+x
2
), o que mostra que y
1
+y
2
1mT.
Temos ent ao um dos resultados mais importantes da
Algebra Linear:
Teorema 3.3.2 (do n ucleo e da imagem) Sejam X e Y espa cos vetoriais de dimens ao nita
e T L(X, Y ). Ent ao
dimX = dimker T + dim1mT.
Apresentaremos duas demonstra c oes distintas desse teorema. A primeira usa a linguagem de
espa co quociente e e bastante sintetica. A segunda e bastante construtiva.
Para motivar a primeira demonstra c ao, cujo fundamento perpassa o estudo de todas as
estruturas algebricas, apresentamos o
Exemplo 3.3.3 Seja A uma matriz mn e considere o sistema linear n ao homogeneo Ax = b.
Suponhamos que x
p
seja uma solu c ao desse sistema. Claramente, x
p
+z tambem e solu c ao desse
sistema para qualquer z ker A. Mas essas s ao as unicas solu c oes. De fato, se x e outra solu c ao,
temos que A(x x
p
) = 0, de modo que x x
p
= z ker A.
A igualdade x = x
p
+z, com z ker A, signica que x x
p
mod ker A. Portanto, no espa co
quociente R
n
/ ker A a equa c ao Ax = b ter a solu c ao unica [x
p
]!
3.3. O TEOREMA DO N
UCLEO E DA IMAGEM 19
1a. Demonstracao: Essa prova pode ser sintetizada pelo seguinte diagrama:
T
X 1mT Y
X
ker T
T
q
Vamos denir um isomorsmo T
q
:
X
ker T
1mT. Como espa cos isomorfos de dimens ao nita
tem a mesma dimens ao, deduzimos que
dim
_
X
ker T
_
= dim1mT.
Mas, como j a vimos, dimX/ ker T = dimX dimker T, de onde segue o teorema.
Denimos, para [x] X/ ker T, T
q
([x]) = Tx. Temos:
1. T est a bem denida: x y mod ker T quer dizer que T(xy) = 0, ou seja, T(x) = T(y).
2. T
q
e linear: T
q
([x] +[y]) = T
q
([x +y]) = T(x +y) = Tx +Ty = T
q
([x]) +T
q
([y]).
3. T
q
e injetiva: se T
q
([x]) = T
q
([y]), ent ao Tx = Ty e T(xy) = 0, donde x y mod ker T.
4. T
q
e sobrejetiva, por deni c ao.
Logo T
q
e um isomorsmo e o resultado est a provado.
2
A demonstra c ao acima e a pr opria essencia da utilidade do espa co quociente. Ela mostra
que, mesmo se T n ao tiver inversa, podemos construir, de maneira natural, um isomorsmo ` a
partir de T, no caso, a aplica c ao T
q
.
2a. Demonstracao: Como 1mT Y e um espa co vetorial de dimens ao nita, existe uma base
y
1
, . . . , y
j
para 1mT. Para cada elemento y
i
existe x
i
X tal que Tx
i
= y
i
, com 1 i j.
Armamos que o conjunto x
1
, . . . , x
j
assim obtido e linearmente independente. De fato,
suponhamos que
1
x
1
+. . . +
j
x
j
= 0. Ent ao
0 = T(
1
x
1
+. . . +
j
x
j
) =
1
T(x
1
) +. . . +
j
T(x
j
) =
1
y
1
+. . . +
j
y
j
.
Como y
1
, . . . , y
j
s ao linearmente independentes,
i
= 0 para 1 i j, como queramos.
Consideremos agora uma base w
1
, . . . , w
k
do n ucleo de T. Armamos que
x
1
, . . . , x
j
, w
1
, . . . , w
k
e uma base de X.
Dado x X, como Tx 1mT, Tx =
1
y
1
+. . . +
j
y
j
, quer dizer, Tx = T(
1
x
1
+. . . +
j
x
j
)
e portanto T(x
1
x
1
. . .
j
x
j
) = 0. Assim, x
1
x
1
. . .
j
x
j
ker T, donde
x
1
x
1
. . .
j
x
j
=
1
w
1
+. . . +
k
w
k
.
20 CAP
ITULO 3. APLICAC
OES LINEARES
Isso mostra que x =
1
x
1
+ . . . +
j
x
j
+
1
w
1
+ . . . +
k
w
k
, e que x
1
, . . . , x
j
, w
1
, . . . , w
k
gera
X.
Suponhamos agora que
1
x
1
+ . . . +
j
x
j
+
1
w
1
+ . . . +
k
w
k
= 0. Aplicando T nessa
igualdade temos
1
y
1
+ . . . +
j
y
j
= 0, o que nos permite concluir que
i
= 0 para i = 1, . . . , j.
Mas ent ao
1
w
1
+. . . +
k
w
k
= 0. Como w
1
, . . . , w
k
e linearmente independente, temos
i
= 0
para i = 1, . . . , k, o que mostra que todos os escalares s ao nulos e completa a demonstra c ao.
2
Se voce comparar essas duas demonstra c oes, voce perceber a que a essencia da segunda e o
procedimento aplicado na primeira: mostrou-se que existe um isomorsmo entre 1mT, espa co
cuja base e y
1
, . . . , y
j
= Tx
1
, . . . , Tx
j
, e o espa co gerado por x
1
, . . . , x
j
. Esse ultimo
espa co e justamente X/ ker T!
Mostraremos agora algumas conseq uencias do Teorema do n ucleo e da imagem. As demon-
stra c oes seguem imediatamente da f ormula
dimX = dim1mT + dimker T.
Corolario 3.3.4 Suponhamos que dimY < dimX. Ent ao existe x ,= 0 tal que Tx = 0.
Demonstracao: Note que, em particular, dim1mT < dimX.
2
O corol ario 3.3.4 e muitas vezes formulado em termos de sistemas lineares:
Corolario 3.3.5 Seja T : R
n
R
m
linear, com m < n. Ent ao o sistema linear homogeneo
Tx = 0 (em que T esta sendo identicada com a matriz que a representa) possui solu c ao n ao
trivial, isto e, existe x ,= 0 tal que Tx = 0.
Corolario 3.3.6 Se dimX = dimY , ent ao T e injetiva se, e somente se, T e sobrejetiva.
Demonstracao: Se T e injetiva, T(x) = 0 implica x = 0. Logo, dimker T = 0. Assim,
dim1mT = dimX = dimY e, portanto, 1mT = Y . Reciprocamente, se T e sobrejetiva,
1mT = Y e, portanto, dimker T = 0.
2
Em particular o corol ario 3.3.6 garante, quando dimX = dimY , que T e injetiva se, e somente
se, ker T = 0. Esse resultado e v alido, na verdade, para quaisquer espa cos vetoriais X e Y .
De fato
1
, se T e injetiva, claramente ker T = 0; se existisse x
1
,= x
2
tal que T(x
1
) = T(x
2
),
ent ao T(x
1
x
2
) = 0, com x
1
x
2
,= 0.
A formula c ao do corol ario 3.3.6 em termos de sistemas lineares e a seguinte:
Corolario 3.3.7 Seja T : R
n
R
n
linear. Ent ao o sistema n ao homogeneo Tx = y tem solu c ao
unica para todo y Y se, e somente se, o sistema homogeneo Tx = 0 tem solu c ao unica.
Finalmente, enunciamos o resultado apresentado no exemplo 3.3.3, que n ao passa de uma
caracteriza c ao do isomorsmo dado na primeira demonstra c ao do teorema do n ucleo e da im-
agem:
1
Veja exerccio 13 do captulo 1.
3.4. O ESPAC O LINHA E O ESPAC O COLUNA DE UMA MATRIZ 21
Proposicao 3.3.8 Seja y R
m
um elemento da imagem de T : R
n
R
m
. Ent ao existe um
unico elemento x
p
R
n
tal que toda solu c ao de Tx = y e congruente a x
p
modulo ker T, isto e,
se Tx = y, ent ao x = x
p
+z, para algum z ker T.
3.4 O espaco linha e o espaco coluna de uma matriz
Como vimos, dada uma matriz A = (a
ij
), podemos ve-la atraves de suas linhas ou colunas:
A =
_
_
_
a
11
. . . a
1n
.
.
. . . .
.
.
.
a
m1
. . . a
mn
_
_
_
= (c
1
. . . c
n
) =
_
_
_
1
.
.
.
m
_
_
_
. (3.7)
Os vetores colunas c
1
, . . . , c
n
s ao vetores do R
m
. Se ( = c
1
, . . . , c
n
, chamamos de espa co-coluna
o espa co gerado por (, isto e, < ( > R
m
.
Por outro lado, podemos interpretar as linhas de A ou como elementos do dual (R
n
)
ou
como elementos do pr oprio espa co R
n
. Se escrevemos L =
1
, . . . ,
m
R
n
, chamamos de
espa co-linha o espa co gerado por L, isto e, < L > R
n
.
Come camos interpretando o espa co-coluna de uma matriz.
Lema 3.4.1 Considere o sistema linear n ao-homogeneo Tx = b, em que T : R
n
R
m
e
representada pela matriz A = (a
ij
). Ent ao s ao equivalentes:
(i) Existe solu c ao x para Tx = b;
(ii) O vetor b e combina c ao linear das colunas de A.
Demonstracao: Basta notar que o sistema Tx = b e equivalente ` a equa c ao
x
1
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
+x
2
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
+. . . +x
n
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
.
2
Em outras palavras, acabamos de mostrar que < ( > e o subespa co 1mT, imagem da
aplica c ao linear T.
Denicao 3.4.2 Se A = (a
ij
) e uma matriz mn, denimos a matriz transposta de A como a
matriz A
T
de ordem n m cujo elemento ij e a
ji
.
Em outras palavras, se A e a matriz dada por (3.7), ent ao
A
T
=
_
_
_
a
11
. . . a
m1
.
.
. . . .
.
.
.
a
1n
. . . a
mn
_
_
_
.
22 CAP
ITULO 3. APLICAC
OES LINEARES
Assim, as colunas da matriz A
T
s ao justamente as linhas da matriz A. Como conseq uencia
imediata do lema 3.4.1 temos que
< L >= 1m A
T
. (3.8)
Se S e a aplica c ao linear representada pela matriz A (com rela c ao ` as bases can onicas do R
n
e
R
m
), ent ao < L > e a imagem da aplica c ao linear S
T
(que e chamada transposta da aplica c ao
linear S e representada pela matriz A
T
).
Vamos agora relacionar as dimens oes dos espa cos < ( > e < L > de uma matriz A.
Mostraremos que esses espa cos tem a mesma dimens ao; isso e um fato not avel, pois eles s ao
subespa cos de espa cos vetoriais diferentes!
Teorema 3.4.3 Dada uma matriz m n, seu espa co-linha tem a mesma dimens ao de seu
espa co-coluna.
Demonstracao: Suponhamos que os vetores
b
1
= (b
11
, b
12
, . . . , b
1n
), b
2
= (b
21
, b
22
, . . . , b
2n
), . . . , b
r
= (b
r1
, b
r2
, . . . , b
rn
)
formem uma base do espa co-linha da matriz A. Ent ao cada linha
i
de A e combina c ao linear
desses elementos:
1
=
11
b
1
+. . . +
1r
b
r
2
=
21
b
1
+. . . +
2r
b
r
.
.
. =
.
.
.
m
=
m1
b
1
+. . . +
mr
b
r
Igualando a componente i de cada uma das equa c oes acima, obtemos
a
1i
=
11
b
1i
+
12
b
2i
+. . . +
1r
b
ri
a
2i
=
21
b
1i
+
22
b
2i
+. . . +
2r
b
ri
.
.
. =
.
.
.
a
mi
=
m1
b
1i
+
m2
b
2i
+. . . +
mr
b
ri
.
Quer dizer,
_
_
_
_
_
a
1i
a
2i
.
.
.
a
mi
_
_
_
_
_
= b
1i
_
_
_
_
_
11
21
.
.
.
m1
_
_
_
_
_
+b
2i
_
_
_
_
_
12
22
.
.
.
m2
_
_
_
_
_
+. . . +b
ri
_
_
_
_
_
1r
2r
.
.
.
mr
_
_
_
_
_
,
mostrando que as colunas de A s ao combina c oes lineares dos r vetores
_
_
_
_
_
11
21
.
.
.
m1
_
_
_
_
_
, . . . ,
_
_
_
_
_
1r
2r
.
.
.
mr
_
_
_
_
_
.
3.5. APLICAC
OES LINEARES E MATRIZES II 23
Isso quer dizer que o espa co-coluna tem dimens ao, no m aximo, igual a r, ou seja,
dim < ( > dim < L > .
Procedendo da mesma maneira com rela c ao a uma base do espa co-coluna, mostramos que
dim < L > dim < ( > .
Assim, essas duas dimens oes s ao iguais.
2
Temos ent ao a seguinte conseq uencia imediata:
Corolario 3.4.4 Seja A uma matriz mn. Ent ao dim1mA = dim1mA
T
.
Se denotamos r := dim1mA = dim1mA
T
, a aplica c ao do teorema do n ucleo e da imagem
garante:
dimker A = n r e dimker A
T
= mr.
Assim,
Corolario 3.4.5 Seja A uma matriz n n. Ent ao
dimker A = dimker A
T
.
Esse resultado s o vale para matrizes quadradas.
3.5 Aplicac oes lineares e matrizes II
Na primeira se c ao desse captulo mostramos como associar a cada aplica c ao linear T : R
n
R
m
uma matriz A = (a
ij
) que representa T com rela c ao ` as bases can onicas do R
n
e R
m
. Note que
o mesmo procedimento associa a cada aplica c ao linear T : C
n
C
m
uma matriz A = (a
ij
)
que representa T com rela c ao ` as bases can onicas do C
n
e C
m
. Mostraremos agora que a mesma
associa c ao entre aplica c oes lineares e matrizes e v alida para o caso de uma aplica c ao linear
T : X Y entre espacos vetoriais de dimensao nita X e Y .
A principal diferen ca, nesse caso, consiste em n ao termos uma escolha natural para bases
nos espa cos X e Y . Suponhamos que dimX = n e dimY = m. Escolhendo uma base arbitr aria
B = x
1
, . . . , x
n
do espa co X e escrevendo x =
1
x
1
+ . . . +
n
x
n
, a aplica c ao B : X K
n
denida por Bx = (
1
, . . . ,
n
) =
1
e
1
+. . . +
n
e
n
e um isomorsmo entre X e K
n
. Da mesma
forma, ao se escolher uma base ( = y
1
, . . . , y
m
no espa co Y , se obtem um isomorsmo C entre
Y e K
m
. Temos assim o seguinte diagrama:
T
X Y
B C
K
n
K
m
T
K
. (3.9)
24 CAP
ITULO 3. APLICAC
OES LINEARES
A aplica c ao linear T
K
e denida como composta de aplica c oes lineares (estamos usando a nota c ao
de composta para enfatizar)
T
K
= C T B
1
e e representada por uma matriz A, de acordo como o que vimos na primeira se c ao desse captulo.
B
, relativa ` as bases
B de X e
( de Y . Consideremos
a aplica c ao linear que leva as coordenadas de x na base B nas suas coordenadas na base
B. Essa
aplica c ao e um isomorsmo e e representada por uma matriz, como acabamos de sintetizar no
diagrama 3.10. Essa matriz e denotada P
B
B
: X X e chamada matriz mudanca da base
B para a base
B (no exerccio 7 se pede para mostrar que essa matriz corresponde ` a aplica c ao
identidade entre X com a base B e X com a base
B). Da mesma forma, temos o isomorsmo
Q
C
C
, mudan ca da base ( para a base
(. Temos, assim, o diagrama
T
C
B
X, B Y, (
P
B
B
Q
C
C
X,
B Y,
(
T
C
B
.
Esse diagrama, cujos componentes s ao matrizes, nos mostra que
T
C
B
= [Q
C
C
]
1
T
C
B
P
B
B
.
Note que [Q
C
C
]
1
= Q
C
C
(veja exerccio 9), de modo que
T
C
B
= Q
C
C
T
C
B
P
B
B
.
O caso em que os espa cos X e Y s ao iguais permite que se tome a mesma base nos dois espa cos.
Nesse caso, denotamos T
B
B
por T
B
, que e chamada representa c ao de T na base B. A rela c ao entre
T
B
e T
B
e dada por
T
B
= [P
B
B
]
1
T
B
P
B
B
= P
B
B
T
B
P
B
B
,
3.5. APLICAC
OES LINEARES E MATRIZES II 25
para qualquer outra base
B de X.
Exemplo 3.5.1 Considere a aplica c ao linear T : R
2
R
2
denida por
T(x, y) = (4x 2y, 2x +y).
Para simplicarmos a nota c ao nesse exemplo, escreveremos os nossos vetores indiferentemente
como linhas ou colunas.
Sejam B a base do R
2
formada pelos vetores v
1
= (1, 1) e v
2
= (1, 0). Vamos achar a
matriz que representa T com rela c ao ` a base B. Quer dizer, estamos utilizando a mesma base no
domnio e na imagem e procuramos a matriz T
B
. Para isso, calculamos
T(v
1
) = (2, 3) = 3(1, 1) + (1, 0) = 3v
1
+v
2
.
Note que escrevemos a imagem de T(v
1
) na base B, utilizada tambem no contradomnio. De
acordo com a nota c ao introduzida na deni c ao 1.3.8, temos
[T(v
1
)]
B
=
_
3
1
_
.
Da mesma forma, T(v
2
) = (4, 2) = 2(1, 1) + 2(1, 0) = 2v
1
+ 2v
2
e, portanto,
[T(v
2
)]
B
=
_
2
2
_
.
Assim,
T
B
=
_
3 2
1 2
_
.
As colunas de T
B
s ao as imagens dos vetores da base B, escritas na pr opria base B utilizada,
nesse caso, tambem no contradomnio.
Se quisermos calcular a imagem do vetor (1, 2) = 1e
1
+ 2e
2
utilizando a matriz T
B
, primeiro
expressamos esse vetor na base B:
(1, 2) = 2(1, 1) + 1(1, 0) = 2v
1
+v
2
.
Calculando
T
B
_
2
1
_
=
_
3 2
1 2
__
2
1
_
=
_
4
4
_
,
obtemos a resposta na base B. Se quisermos a resposta na base can onica, precisamos escrever
o resultado obtido nessa base:
4(1, 1) + 4(1, 0) = (0, 4) = 0e
1
+ 4e
2
,
que e o mesmo que calcular diretamente T(1, 2) utilizando a express ao T(x, y) = (4x2y, 2x+y).
Para entendermos melhor a estrutura desse exemplo, temos o seguinte diagrama
T
E
R
2
, c R
2
, c
P
B
E
P
B
E
R
2
, B R
2
, B
T
B
.
26 CAP
ITULO 3. APLICAC
OES LINEARES
Aqui, T
E
e a representa c ao natural da transforma c ao T(x, y) = (4x 2y, 2x + y). Isso e, a
matriz cujas colunas s ao, respectivamente, T(1, 0) = (4 2) e T(0, 1) = (2 1).)
A matriz T
B
e a matriz obtida no exemplo. A matriz P
B
E
e a matriz mudan ca da base c para
a base B. Ela e obtida pelo mesmo metodo (veja exerccio 7): escrevemos a imagem dos vetores
e
1
, e
2
pela aplica c ao identidade na base B. Temos
(1, 0) = 0(1, 1) 1(1, 0) = 0v
1
v
2
e (0, 1) = 1(1, 1) + 1(1, 0) = 1v
1
+ 1v
2
.
A matriz P
B
E
e, ent ao,
P
B
E
=
_
0 1
1 1
_
.
O diagrama anterior garante que
T
E
= [P
B
E
]
1
T
B
P
B
E
,
ou seja,
_
4 2
2 1
_
=
_
0 1
1 1
_
1
_
3 2
1 2
__
0 1
1 1
_
Se calcularmos a inversa da matriz P
B
E
, vericaremos esse fato. Entretanto, e f acil obter P
E
B
.
Essa matriz tem como colunas a express ao dos vetores v
1
e v
2
na base can onica. Assim, e claro
que
P
E
B
=
_
1 1
1 0
_
.
Verique que P
E
B
= [P
B
E
]
1
.
3.6 A transposta de uma aplicacao linear
Existe uma maneira intrnseca de se denir a aplica c ao transposta T
T
de um operador linear
T. (No caso de aplica c oes lineares se denota a transposta T
T
tambem por T
, o que faremos a
seguir).
Para isso, sejam T : X Y uma aplica c ao linear entre os espa cos X e Y e Y
, isto e,
: Y K e linear. Ent ao o produto dessas aplica c oes (isto e, a composta) T : X K e um
elemento do dual X
.
T
X Y
m
K
Estamos denotando (provisoriamente) m
. Consideremos ent ao T
: Y
denida por
T
() = (Tx) = m
(x).
Armamos que T
e linear. De fato,
T
(
1
+
2
) = (
1
+
2
)(Tx) =
1
(Tx) +
2
(Tx) = T
(
1
) +T
(
2
),
3.7. EXERC
ICIOS 27
para quaisquer
1
,
2
Y
.
Vamos agora introduzir uma nova nota c ao para a avalia c ao de um elemento do dual em
um ponto do espa co: ate agora estamos denotando, se : Z
K e z Z, (z). Tambem
denotaremos (z) por
, z).
Abandonaremos a nota c ao provis oria m
e usaremos a nota c ao T
, x) = , Tx)
ou, o que e o mesmo
T
= T. (3.11)
Nosso pr oximo objetivo e caracterizar a aplica c ao T
para o caso de T : R
n
R
m
. Vere-
mos que podemos representar T
com R
m
e (R
n
)
com R
n
. Assim T
: (R
m
)
(R
n
)
, satisfaz a igualdade T
= T, ou seja, se B = (b
ij
) e a
representa c ao matricial de T
_
_
_
c
1
.
.
.
c
m
_
_
_
=
_
_
_
b
11
. . . b
1m
.
.
. . . .
.
.
.
b
n1
. . . a
nm
_
_
_
_
_
_
c
1
.
.
.
c
m
_
_
_
= (c
1
. . . c
m
)
_
_
_
a
11
. . . a
1n
.
.
. . . .
.
.
.
a
m1
. . . a
mn
_
_
_
.
A segunda igualdade acima mostra que B = (b
ij
) deve satisfazer b
ij
= a
ji
, como se verica
mediante escolha adequada de c
1
, . . . , c
m
. Mas ent ao B = A
T
, como antes denido.
3.7 Exerccios
1. Represente matricialmente a base dual da base e
1
, . . . , e
n
do R
n
.
2. Mostre a proposi c ao 3.3.8 utilizando o isomorsmo T
q
denido na primeira demonstra c ao
do teorema do n ucleo e da imagem.
3. Seja X = W
1
W
2
e x = w
1
+ w
2
, com w
i
W
i
. Mostre que : X W
1
, denida por
x = w
1
, e uma aplica c ao linear. Seja : X X uma aplica c ao linear tal que
2
=
(uma tal aplica c ao linear e chamada projecao). Mostre que X = ker 1m . Mostre
tambem que (denida acima) e uma proje c ao.
28 CAP
ITULO 3. APLICAC
OES LINEARES
4. Sejam X um espa co vetorial e Y X um subespa co. Mostre que : X X/Y denida
por (x) = x +Y = [x] e uma aplica c ao linear.
5. Sejam X e Y espa cos vetoriais e B uma base de X (mesmo que X tenha dimens ao innita).
Fa camos corresponder, de maneira arbitr aria, um vetor y
x
Y a cada elemento x B.
Mostre que existe uma unica transforma c ao linear T : X Y tal que Tx = y
x
para todo
x B. (Note que, em particular, isso implica que uma transforma c ao linear T : K
n
K
m
ca completamente determinada pela imagem que ela assume em qualquer base do K
n
).
Mostre ent ao que uma transforma c ao linear T : X Y e injetiva se, e somente se, leva
vetores linearmente independentes em vetores linearmente independentes.
6. SejamX e Y espa cos vetoriais com a mesma dimens ao. Suponhamos que, para as aplica c oes
linear T : X Y e S : Y X, seja verdadeiro ST = I, a identidade em X. Mostre que
S = T
1
.
7. Verique que a matriz P
B
B
: X X corresponde ` a representa c ao matricial da aplica c ao
identidade I : X X, com rela c ao ` as bases B e
B.
8. Seja T : X Y uma aplica c ao linear invertvel representada, com rela c ao ` as bases B e (
dos espa cos X e Y , respectivamente, pela matriz T
C
B
. Mostre que a aplica c ao inversa T
1
e representada pela matriz [T
C
B
]
1
.
9. Seja P
B
B
a matriz mudan ca da base B para a base
B. Mostre que (P
B
B
)
1
= P
B
B
.
10. Seja V um espa co vetorial de dimens ao nita sobre K. Denimos, para v, w V , v w se
existe uma transforma c ao linear invertvel T : V V tal que Tv = w. Mostre que assim
est a denida uma rela c ao de equivalencia. Mostre tambem que essa rela c ao de equivalencia
possui apenas duas classes: uma formada apenas pelo elemento 0 V e a outra formada
por todos os outros vetores de V .
11. Considere os polin omios p
1
(t) = 7t
5
+6t
2
, p
2
(t) = 1+t no espa co T
6
de todos os polin omios
de grau menor que 6.
(a) Se S = p
1
, p
2
, descreva < S >;
(b) ache uma base B de T
6
que completa o conjunto linearmente independente S;
(c) determine a representa c ao de cada um dos vetores de B nessa base;
(d) determine a representa c ao de q T
6
em termos da base B.
12. Seja T o espa co de todos os polin omios na vari avel t. Considere T : T T
6
denida da
seguinte maneira: se p T ent ao Tp e o polin omio em T
6
cujos coecientes de grau menor
que 6 s ao iguais aos coecientes de p. Mostre que T e linear. Ache uma base para 1mT e
ker T. O teorema do n ucleo e da imagem se aplica? Justique.
13. Se
M =
_
a
11
a
12
a
21
a
22
_
,
3.7. EXERC
ICIOS 29
dena T : M
22
M
23
por
T(M) =
_
a
12
a
11
a
12
a
21
a
12
a
22
a
21
a
11
a
22
+a
21
_
.
Sejam
B =
__
1 0
0 1
_
,
_
1 1
0 0
_
,
_
1 1
1 0
_
,
_
1 1
1 1
__
,
B
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
_ _
,
( =
__
1 0 0
0 0 0
_
,
_
1 1 0
0 0 0
_
,
_
1 1 1
0 0 0
_
,
_
1 1 1
1 0 0
_
,
_
1 1 1
1 1 0
_
,
_
1 1 1
1 1 1
__
(
=
__
1 0 0
0 0 0
_
,
_
0 1 0
0 0 0
_
,
_
0 0 1
0 0 0
_
,
_
0 0 0
1 0 0
_
,
_
0 0 0
0 1 0
_
,
_
0 0 0
0 0 1
__
.
(a) Mostre que T : M
22
M
23
e linear;
(b) mostre que B e B
s ao bases de M
22
, enquanto ( e (
s ao bases de M
23
;
(c) ache a representa c ao matricial de T relativa ` as bases B e (, bem como a relativa ` as
bases B
e (
;
(d) ache a rela c ao entre essas matrizes;
(e) obtenha bases para ker T e 1mT.
14. Sejam T(x, y, x) = (x +y +z, y +z, x) e B = (1, 0, 1), (0, 1, 0), (1, 0, 1). Ent ao:
(a) ache a matriz T
B
;
(b) usando a matriz acima, especique uma base para ker T e 1mT;
(c) calcule T(1, 1, 1) utilizando a representa c ao matricial calculada em (a).
15. A deni c ao dos espa cos ker T e 1mT de uma aplica c ao linear T : X Y independe
(da existencia) de bases nesses espa cos. Contudo, se A e uma matriz que representa uma
transforma c ao linear, tanto ker A como 1mA dependem das bases consideradas no domnio
e no contradomnio. Explique.
16. Sejam X um espa co vetorial de dimens ao nita e T : X X uma aplica c ao linear. Mostre
que
X = ker T 1mT
se, e somente se, ker T = ker T
2
.
30 CAP
ITULO 3. APLICAC
OES LINEARES
17. Justique
2
o algoritmo utilizado para se obter a inversa de uma matriz quadrada A.
18. Sejam A, B matrizes quadradas invertveis. Mostre que (AB)
1
= B
1
A
1
.
19. Seja A = (a
1
a
2
. . . a
n
) e B uma matriz cuja j-esima coluna e b
j
= (b
1j
b
2j
b
nj
)
T
. Se
est a denido o produto AB, mostre que a j-esima coluna de AB e dada por
Ab
j
= b
1j
a
1
+. . . +b
nj
a
n
.
20. Se V e um espa co vetorial de dimens ao nita n e W
1
, . . . , W
n
s ao subespa cos de V tais que
V = W
1
W
n
, mostre que dimW
i
= 1.
Seja agora T : V V uma transforma c ao linear e V = W
1
W
k
(os subespa cos W
i
n ao precisam ter dimens ao igual a 1). Suponhamos que T(W
i
) W
i
para i 1, . . . , k
(dizemos que os subespa cos W
i
s ao invariantes por T. Se B
i
for uma base de W
i
, mostre
que B =
k
i=1
B
i
e uma base de V . Ache T
B
, a representa c ao de T na base B em termos
de T
B
i
, a representa c ao de T : W
i
W
i
na base B
i
.
21. Sejam A, B M
nn
, o espa co das matrizes nn com coecientes em K. Denimos A B
se existe uma matriz invertvel P M
nn
tal que B = P
1
AP. Mostre que A B e uma
rela c ao de equivalencia. Esboce um diagrama que representa essa rela c ao de equivalencia.
E usual dizer ent ao que A e B s ao iguais, a menos da uma mudan ca de base. Voce consegue
dar um sentido para essa frase?
2
Para esse exerccio e necessario o conhecimento do conceito de matrizes elementares. Veja a se c ao 8.1.
Captulo 4
Determinantes
4.1 Permutac oes
Denicao 4.1.1 Seja S = 1, 2, . . . , n ou, mais geralmente, um conjunto x
1
, . . . , x
n
com n
elementos distintos. Uma permutacao e uma aplica c ao sobrejetiva p : S S.
E claro que p e, necessariamente, injetiva. Assim, permuta c oes podem ser compostas e tem
inversa. Denotaremos p
0
a permuta c ao identidade, q p = qp a composta de duas permuta c oes
e denimos, para k N
, p
k
= pp
k1
. Denimos, para k Z, k < 0, p
k
= (p
1
)
k
.
Existem v arias nota c oes para uma permuta c ao p : S S. Em geral escrevemos p(i) = p
i
(ou p(x
i
) = p
i
) e denotamos
p(1, . . . , n) =
_
1 2 . . . n
p
1
p
2
. . . p
n
_
ou p =
1 2 . . . n
p
1
p
2
. . . p
n
.
Exemplo 4.1.2 Considere a permuta c ao
1 2 3 4
2 4 1 3
.
Ent ao
p
2
=
1 2 3 4
4 3 2 1
, p
1
=
1 2 3 4
3 1 4 2
, p
3
=
1 2 3 4
3 1 4 2
, p
4
=
1 2 3 4
1 2 3 4
= p
0
.
ITULO 4. DETERMINANTES
(iii) a b mod p e b c mod p implica a c mod p, pois b = p
i
(a) e c = p
j
(b) e, portanto,
c = p
j
(p
i
(a)) = p
j+i
(a).
Denicao 4.1.4 Chamamos de orbita de a a classe de equivalencia a que pertence o elemento
a. Assim, a orbita de a consiste de todos os elementos p
i
(a), i Z.
Entretanto, p
i
(a) S para todo i. Assim, existe um menor inteiro positivo k (que depende do
elemento a) tal que p
k
(a) = a. O n umero k = k
a
e chamado ordem do elemento a.
Denicao 4.1.5 O ciclo de a e o conjunto ordenado a, p(a), p
2
(a), . . . , p
k
a
1
(a).
Veremos como identicar o ciclo de a com uma permuta c ao : S S. Primeiramente
mostraremos
Lema 4.1.6 Todos os elementos da orbita de a est ao presentes no ciclo de a. Os elementos do
ciclo de a s ao distintos.
Demonstracao: Consideremos s Z e p
s
(a). Seja k a ordem do elemento a. Ent ao existem
inteiros m e r tais que s = mk +r, com 0 r < k (divis ao euclidiana). Mas ent ao
p
s
(a) = p
mk+r
(a) = p
mk
(p
r
(a)) = p
r
(a),
mostrando a primeira arma c ao (veja exerccio 1).
Se fosse p
i
= p
j
para 0 i < j (k 1), ent ao a = p
0
= p
ji
, com j i < k, contradizendo
a deni c ao de k.
2
Se conhecemos todos os ciclos de uma permuta c ao p, conhecemos a imagem de todos os
elementos de p. A cada ciclo corresponde uma permuta c ao de S. De fato, para cada a S
e 0 i k
a
1, considere a permuta c ao que envia p
i
(a) em p
i+1
(a), os elementos que n ao
pertencem ao ciclo de a permanecendo inalterados.
E usual chamar de ciclo ` a permuta c ao assim
obtida (e n ao mais ao conjunto obtido atraves das orbitas). Daremos um exemplo ilustrando
essas ideias:
Exemplo 4.1.7 Seja S = 1, 2, . . . , 6. Consideremos p : S S denida por (2 1 3 5 6 4).
Ent ao 1 = p
0
(1), 2 = p
1
(1), p
2
(1) = p(p(1)) = p(2) = 1. Assim, o ciclo de 1 e 1, 2. O ciclo
de 3 consiste apenas do 3; o ciclo de 4 consiste dos elementos 4, 5 = p(4), 6 = p
2
(4) = p(5),
pois p
3
(4) = p(p
2
(4)) = p(6) = 4. Note que p(1) = 2, p(2) = 1, p(3) = 3, p(4) = 5, p(5) = 6,
p(6) = 4. Assim, conhecemos a imagem por p de todos os elementos de S.
Ao conjunto 1, 2 corresponde a permuta c ao p
1
: S S tal que p
1
(1) = 2, p
1
(1) = 1, os
outros elementos permanecendo xos. Vamos denotar tal permuta c ao por (1 2). (Note que,
para um conjunto S xo, essa nota c ao n ao ocasiona ambig uidade). Da mesma forma, seja p
2
a permuta c ao denida por p
2
(4) = 5, p
2
(5) = 6, p
2
(6) = 4, os outros elementos permanecendo
xos; vamos denotar p
2
por (4 5 6). Verique que p = p
1
p
2
= p
2
p
1
(ao conjunto 3 corresponde
a permuta c ao identidade). As permuta c oes p
1
, p
2
e p
3
s ao os ciclos de p.
E usual desprezar o
ciclo identidade p
3
e dizer que os ciclos de p s ao p
1
e p
2
. Note que os ciclos de p s ao disjuntos,
pois foram gerados por classes de uma rela c ao de equivalencia.
4.1. PERMUTAC
OES 33
O que aconteceu no exemplo acima e um fato geral:
Lema 4.1.8 Toda permuta c ao e o produto (quer dizer, a composi c ao) de seus ciclos.
Demonstracao: Seja p : S S e s S. Sejam
1
, . . . ,
j
os ciclos de p. Como esses ciclos
s ao gerados por classes de equivalencia, existe i 1, . . . , j tal que s p
i
. De acordo com o
exerccio 1, temos que
i
= (s p(s) . . . p
k1
(s))
em que k e a ordem de s. Mas o ciclo
k
afeta apenas os elementos que ele contem, os outros
permanecendo xos. Assim, (
1
. . .
i
. . .
j
)(s) =
i
(s) = p(s). Isso mostra o armado. Note
que e irrelevante a ordem em que o produto de ciclos e tomado.
2
Denicao 4.1.9 Uma transposicao e uma permuta c ao p : S S tal que existem dois ele-
mentos i, j S (ou a
i
, a
j
S) com
p(k) = k, k S, k ,= i, k ,= j; p(i) = j e p(j) = i.
Consideremos um ciclo (a
1
a
2
. . . a
m
) = (a
1
p(a
1
) . . . p
m1
(a
1
)).
E f acil vericar que esse ciclo
pode ser escrito como produto de transposi c oes:
(a
1
a
2
. . . a
m
) = (a
1
a
m
) . . . (a
1
a
3
)(a
1
a
2
).
Essa decomposi c ao, entretanto, n ao e unica. Por exemplo, podemos escrever
(1 2 3) = (1 3)(1 2) = (3 2)(3 1).
Vamos mostrar, entretanto, que o n umero de fatores numa decomposi c ao de um ciclo como
produto de transposi c oes e sempre par ou semprempar. Para simplicar a nota c ao, denotaremos
S = x
1
, . . . , x
n
ao inves de 1, . . . , n.
Denicao 4.1.10 Seja S = x
1
, . . . , x
n
. Denimos o discriminante P(x
1
, . . . , x
n
) por
P(x
1
, . . . , x
n
) =
i<j
(x
i
x
j
).
Exemplo 4.1.11 Consideremos S = x
1
, x
2
, x
3
, x
4
. Ent ao
P(x
1
, x
2
, x
3
, x
4
) = (x
1
x
2
)(x
1
x
3
)(x
1
x
4
)(x
2
x
3
)(x
2
x
4
)(x
3
x
4
).
Note que
i<j
(x
i
x
j
) contem todos as combina c oes de termos (x
i
x
j
), com i ,= j. O
discriminante apenas prescreve uma ordem para essas combina c oes: aquelas com i < j.
Se p : S S e uma permuta c ao no conjunto S = x
1
, x
2
, . . . , x
n
, denimos
P
p
(x
1
, x
2
, . . . , x
n
) =
i<j
(x
p
i
x
p
j
).
Armamos que
P
p
(x
1
, x
2
, . . . , x
n
) = P(x
1
, x
2
, . . . , x
n
).
De fato, como p e uma permuta c ao, todas as combina c oes x
i
x
j
constam de P
p
(x
1
, . . . , x
n
).
Entretanto, ou elas aparecem com i < j ou com j > i. Isso mostra que elas podem diferir apenas
em m odulo.
34 CAP
ITULO 4. DETERMINANTES
Exemplo 4.1.12 Considere a permuta c ao
p(x
1
, x
2
, x
3
, x
4
) =
_
x
1
x
2
x
3
x
4
x
4
x
2
x
3
x
1
_
.
Ent ao
P
p
(x
1
, x
2
, x
3
, x
4
) =
i<j
(x
p
i
x
p
j
)
= (x
p
1
x
p
2
)(x
p
1
x
p
3
)(x
p
1
x
p
4
)(x
p
2
x
p
3
)(x
p
2
x
p
4
)(x
p
3
x
p
4
)
= (x
4
x
2
)(x
4
x
3
)(x
4
x
1
)(x
2
x
3
)(x
2
x
1
)(x
3
x
1
)
= [(x
2
x
4
)][(x
3
x
4
)][(x
1
x
4
)](x
2
x
3
)[(x
1
x
2
)][(x
1
x
3
)]
= (x
1
x
2
)(x
1
x
3
)(x
1
x
4
)(x
2
x
3
)(x
2
x
4
)(x
3
x
4
)
= P(x
1
, . . . , x
4
).
Denicao 4.1.13 O sinal (p) (ou paridade) de uma permuta c ao p e denido por
P
p
(x
1
, . . . , x
n
) = (p)P(x
1
, . . . , x
n
).
Claramente temos (p) = 1.
Note que se (p) = 1, ent ao p altera um n umero par de termos x
i
x
j
na deni c ao do
discriminante e, se (p) = 1, p altera um n umero mpar de termos. Assim, se e uma
transposi c ao, ent ao () = 1 (justique esse argumento no exerccio 2). Alem disso, temos
Lema 4.1.14 Se p
1
, p
2
s ao permuta c oes, ent ao
(p
2
p
1
) = (p
2
)(p
1
).
Demonstracao: De fato, suponhamos que (p
1
) = 1 = (p
2
). Ent ao p
1
altera um n umero
mpar k
1
de termos de x
1
, . . . , x
n
e p
2
altera um n umero mpar k
2
de termos. Escrevemos
k
2
= n
1
+ n
2
, em que n
1
0 e a quantidade de termos alterados por p
2
dentre aqueles que j a
havia sido alterado por p
1
(esses cam, portanto, inalterados). Assim, o total de termos alterados
por p
2
p
1
= p
2
p
1
e
k
1
n
1
+n
2
= k
1
n
1
+k
2
n
1
= k
1
+k
2
2n
1
.
Como k
1
+k
2
e par, temos que o total de termos alterados e par. O mesmo argumento se aplica
a todos os outros casos.
2
E f acil agora notar que o n umero de transposi c oes na decomposi c ao de uma permuta c ao e
sempre par ou sempre mpar. Suponhamos, por exemplo, que numa decomposi c ao de p tenhamos
encontrado um n umero par de transposi c oes. Como () = 1 para toda transposi c ao ,
conclumos que (p) = 1. Se fosse possvel escrever p como um produto de um n umero mpar
de transposi c oes, teramos (p) = 1, absurdo. Em outras palavras, mostramos que se p =
k
1
, ent ao
(p) = (1)
k
. (4.1)
4.2. DETERMINANTES 35
4.2 Determinantes
Denicao 4.2.1 Sejam a
1
, a
2
, . . . , a
n
pontos do R
n
. Denimos o determinante D(a
1
, . . . , a
n
)
desses pontos como uma fun c ao
D : R
n
R
n
R
(a
1
, . . . , a
n
) D(a
1
, . . . , a
n
)
satisfazendo `as seguintes propriedades:
(i) D(a
1
, . . . , a
n
) = 0 se a
i
= a
j
para i ,= j, i, j 1, . . . , n
(ii) D(a
1
, . . . , a
n
) e uma aplica c ao n-linear, isto e, e uma aplica c ao linear de cada coordenada,
as outras sendo mantidas xas; em outras palavras, se todos os a
i
com i ,= j est ao xos,
D(a
1
, . . . , x +y, . . . , a
n
) = D(a
1
, . . . , x, . . . , a
n
) +D(a
1
, . . . , y, . . . , a
n
).
(iii) D(e
1
, . . . , e
n
) = 1, em que e
1
, . . . , e
n
e a base can onica do R
n
.
Se A e uma matriz n n com vetores coluna a
1
, . . . , a
n
, (quer dizer, A = (a
1
a
2
a
n
)),
denimos det A = D(a
1
, a
2
, . . . , a
n
).
Temos, como conseq uencia imediata da deni c ao do determinante,
Lema 4.2.2 O determinante satisfaz `as propriedades
(iv) D e uma aplica c ao linear alternada, isto e, se trocarmos a
i
por a
j
, ent ao o valor do
determinante e multiplicado por 1. Sendo mais preciso,
D(a
1
, . . . , a
i
, . . . , a
j
, . . . , a
n
) = D(a
1
, . . . , a
j
, . . . , a
i
, . . . , a
n
).
(v) Se a
1
, . . . , a
n
s ao linearmente dependentes, ent ao D(a
1
, . . . , a
n
) = 0.
Demonstracao: Para mostrar (iv), uma vez que apenas os elementos a
i
e a
j
est ao sendo
trocados, indicaremos apenas essas coordenadas no determinante e denotaremos a := a
i
e b := a
j
.
Temos:
D(a, b) = D(a, b) +D(a, a) = D(a, a +b)
= D(a, a +b) D(a +b, a +b) = D(b, a +b) = D(b, a) D(b, b)
= D(b, a).
Se a
1
, . . . , a
n
s ao linearmente dependentes, ent ao um desses elementos pode ser escrito como
combina c ao linear dos restantes. Vamos supor que a
1
=
2
a
1
+. . . +
n
a
n
. Decorre ent ao de (iv)
que
D(a
1
, . . . , a
n
) = D(
2
a
2
+. . . +
n
a
n
, a
2
, . . . , a
n
)
=
2
D(a
2
, a
2
, . . . , a
n
) +. . . +
n
D(a
n
, a
2
, . . . , a
n
).
Pela propriedade (i), todos os termos na ultima linha s ao nulos.
2
36 CAP
ITULO 4. DETERMINANTES
4.2.1 Determinantes e permutac oes
Nessa subse c ao mostraremos a f ormula cl assica do determinante em termos de permuta c oes.
Para isso, consideremos vetores a
1
, . . . , a
n
R
n
arbitr arios. Escrevendo cada um desses vetores
em termos da base can onica do R
n
, obtemos
a
1
= a
11
e
1
+. . . +a
n1
e
n
,
a
2
= a
12
e
1
+. . . +a
n2
e
n
,
.
.
. =
.
.
.
a
n
= a
1n
e
1
+. . . +a
nn
e
n
(estamos usando essa nota c ao para os ndices, pois os vetores a
1
, . . . , a
n
s ao colunas!).
Assim,
D(a
1
, . . . , a
n
) = D(a
11
e
1
+. . . +a
n1
e
n
, a
2
, . . . , a
n
)
= a
11
D(e
1
, a
2
, . . . , a
n
) +. . . +a
n1
D(e
n
, a
2
, . . . , a
n
).
Se substituirmos agora a
2
por a
12
e
1
+ . . . + a
n2
e
n
, obteremos uma express ao semelhante. Note
que, a partir de cada parcela da soma acima, essa substitui c ao cria outras n parcelas. Entretanto,
existem alguns cancelamentos; por exemplo, sabemos que D(e
1
, e
1
, a
3
, . . . , a
n
) = 0. Feitas todas
as substitui c oes de a
2
, . . . , a
n
, chegaremos a
D(a
1
, . . . , a
n
) =
n
i
1
,...,i
n
=1
a
i
1
1
a
i
2
2
a
i
n
n
D(e
i
1
, . . . , e
i
n
).
Nesse somat orio s ao nulas todas as parcelas em que h a repeti c ao de algum dos ndices i
1
, . . . , i
n
.
De fato, nesse caso, temos que i
k
= i
j
para k ,= j e ent ao e
i
k
= e
i
j
. A propriedade (i) do
determinante garante ent ao que D(e
i
1
, . . . , e
i
j
, . . . , e
i
k
, . . . , e
i
n
) = 0. Quer dizer, como todos os
ndices i
1
, . . . , i
n
s ao diferentes entre si, est a assim estabelecida uma permuta c ao dos inteiros
1, . . . , n. Quer dizer, no somat orio acima precisamos apenas considerar
D(a
1
, . . . , a
n
) =
p
a
p
1
1
a
p
2
2
a
p
n
n
D(e
p
1
, . . . , e
p
n
),
em que p percorre as permuta c oes de S = 1, . . . , n. Se p e uma permuta c ao, podemos escreve-
la como produto de transposi c oes. Pela propriedade (iv) do determinante, uma transposi c ao
altera o valor de D pelo fator 1. Se p e um produto de k transposi c oes, D ser a alterado por
(1)
k
. Decorre ent ao da f ormula (1) que D(e
p
1
, . . . , e
p
n
) = (p)D(e
1
, . . . , e
n
) = (p), em virtude
da propriedade (iii) do determinante. Assim temos, nalmente,
D(a
1
, . . . , a
n
) =
p
(p)a
p
1
1
a
p
2
2
a
p
n
n
, (4.2)
que e a express ao cl assica do determinante em termos de permuta c oes. (Muitos autores usam
essa express ao como deni c ao do determinante).
4.2. DETERMINANTES 37
Exemplo 4.2.3 Sejam a
1
= (a
11
, a
21
) e a
2
= (a
12
, a
22
) vetores do R
2
. Calcule o determinante
D(a
1
, a
2
).
Precisamos, em primeiro lugar, determinar todas as permuta c oes do conjunto 1, 2. Elas
s ao p
1
= id e p
2
= (1 2). Temos que (p
1
) = 1 e (p
2
) = 1 (note que p
2
e uma transposi c ao!).
Ent ao
D(a
1
, a
2
) =
p
(p)a
p
1
1
a
p
2
2
= (1)a
11
a
22
+ (1)a
12
a
21
= a
11
a
22
a
12
a
21
.
O exerccio 4 pede para que se calcule, dessa maneira, o determinante de tres vetores genericos
do R
3
.
E claro que, depois de ter feito esse exerccio, voce ter a chegado ` a conclus ao que esse
processo para se calcular o determinante n ao e muito pr atico...Entretanto, o seguinte corol ario
e importante:
Corolario 4.2.4 Existe (no maximo) uma fun c ao D satisfazendo `as propriedades (i) (iii).
Demonstracao: De fato, se
D tambem satiszesse essas propriedades,
D satisfaria a mesma
express ao obtida para D em termos de permuta c oes.
2
Falta, entretanto, mostrar que existe alguma fun c ao satisfazendo ` as propriedades do deter-
minante.
E o que faremos agora.
Teorema 4.2.5 Existe uma unica fun c ao determinante.
Demonstracao: Como vimos, basta provar a existencia de uma fun c ao determinante. Mostrare-
mos que a fun c ao denida pela express ao (4.2), isto e,
D(a
1
, . . . , a
n
) =
p
(p)a
p
1
1
a
p
2
2
a
p
n
n
, (4.3)
satisfaz ` as propriedades (i) (iii) da fun c ao determinante. (Lembramos que p denota uma
permuta c ao do conjunto S = 1, . . . , n).
(i) Suponhamos que os vetores a
i
e a
j
sejam iguais. Seja a transposi c ao entre a
i
e a
j
.
Ent ao a
p
1
1
a
p
2
2
a
p
n
n
= a
p
1
1
a
p
2
2
a
p
n
n
, pois transp oe os vetores a
i
e a
j
, que s ao iguais, e
mantem xos os outros vetores. Assim,
D(. . . , a
i
, . . . , a
j
, . . .) =
p
(p)a
p
1
1
a
p
2
2
a
p
n
n
=
p
(p)a
p
1
1
a
p
2
2
a
p
n
n
=
p
(p)a
p
1
1
a
p
2
2
a
p
n
n
= D(. . . , a
j
, . . . , a
i
, . . .),
Como D(. . . , a
i
, . . . , a
j
, . . .) = D(. . . , a
j
, . . . , a
i
, . . .), resulta que D(. . . , a
i
, . . . , a
j
, . . .) = 0.
(ii) A linearidade e imediata, notando que cada parcela de (4.3) contem exatamente uma
coordenada do vetor a
i
+kb
i
, de modo que
D(a
1
, . . . , a
i
+kb
i
, . . . , a
n
) = D(a
1
, . . . , a
i
, . . . , a
n
) +kD(a
1
, . . . , b
i
, . . . , a
n
).
(iii) Se p
i
,= i, a coordenada do vetor a
i
= e
i
tomada no somat orio (4.3) ser a nula. Assim,
apenas a permuta c ao identidade, produz termo n ao-nulo. No caso da identidade, temos sinal
igual a 1 e todos os termos a
p
i
i
= 1, de modo que D(e
1
, . . . , e
n
) = 1.
2
38 CAP
ITULO 4. DETERMINANTES
4.3 Propriedades do determinante de uma matriz
Denicao 4.3.1 Seja A uma matriz nn, com colunas a
1
, . . . , a
n
. Denimos o determinante
da matriz A por
det A = D(a
1
, . . . , a
n
).
Nessa se c ao mostraremos algumas propriedades cl assicas do determinante de uma matriz.
4.3.1 O determinante da matriz transposta
Uma vez que (id) = 1, notamos que 1 = (pp
1
) = (p)(p
1
), o que mostra que (p) = (p
1
).
Teorema 4.3.2 Seja A uma matriz n n e A
T
a transposta da matriz A. Ent ao
det A = det A
T
.
Demonstracao: A equa c ao (4.3) garante que
det A =
p
(p)a
p
1
1
a
p
2
2
a
p
n
n
.
Mas, se p(i) = j, ent ao i = p
1
p(i) = p
1
(j). Como estamos denotando p(i) = p
i
, denotaremos
p
1
(j) = p
1
j
, de modo que a ultima express ao pode ser escrita como, i = p
1
j
. Assim, se
p
1
= j, ent ao a
p
1
1
= a
jp
1
j
. Da mesma forma para os outros ndices, de modo que
p
(p)a
p
1
1
a
p
2
2
a
p
n
n
=
p
(p)a
1p
1
1
a
2p
1
2
a
np
1
n
.
Mas se p percorre todas as permuta c oes de 1, . . . , n, o mesmo acontece com p
1
. Uma vez que
o sinal de p e o de p
1
e o mesmo, chegamos a
det A =
p
1
(p
1
)a
1p
1
1
a
2p
1
2
a
np
1
n
=
p
(p)a
1p
1
a
2p
2
a
np
n
,
que e o determinante da matriz transposta, pois cada uma de suas entradas aparece na forma
a
ji
ao inves de a
ij
.
2
4.3.2 O determinante do produto de matrizes quadradas
Teorema 4.3.3 Sejam A, B matrizes n n. Ent ao
det(BA) = det Adet B.
4.3. PROPRIEDADES DO DETERMINANTE DE UMA MATRIZ 39
Demonstracao: A equa c ao (3.3) garante que a j-esima coluna da matriz BA e (BA)e
j
. Da
mesma forma, a j-esima coluna de A e Ae
j
= a
j
. Assim, a j-esima coluna de BA e
(BA)e
j
= B(Ae
j
) = Ba
j
.
Temos ent ao, por deni c ao,
det(BA) = D(Ba
1
, . . . , Ba
n
).
Suponhamos que det B ,= 0. Denimos ent ao a fun c ao C por
C(a
1
, . . . , a
n
) =
det(BA)
det B
.
Em virtude da express ao para det(BA) obtida acima, podemos escrever C como
C(a
1
, . . . , a
n
) =
D(Ba
1
, . . . , Ba
n
)
det B
. (4.4)
Vamos provar que a fun c ao C satisfaz ` as propriedades (i) (iii) postuladas para a fun c ao
determinante. Temos
(i) Se a
i
= a
j
, para i ,= j, ent ao Ba
i
= Ba
j
. Como D satisfaz ` a propriedade (i), temos C = 0;
(ii) Como B(x + y) = Bx + By, cada Ba
i
e uma fun c ao linear de a
i
. Como D e n-linear, o
mesmo vale para C;
(iii) Para a
i
= e
i
, temos
C(e
1
, . . . , e
n
) =
D(Be
1
, . . . , Be
n
)
det B
.
Mas Be
i
= b
i
, a i-esima coluna de B. Logo
C(e
1
, . . . , e
n
) =
D(b
1
, . . . , b
n
)
det B
=
det B
det B
= 1.
Uma vez que existe uma unica fun c ao determinante, C(a
1
, . . . , a
n
) = D(a
1
, . . . , a
n
). Mas isso
prova o armado, quando det B ,= 0.
Quando det B = 0 denimos, para cada t, a matriz B(t) = B +tI. Claramente det(B(0)) =
det B = 0. A express ao (4.2) mostra que D(B(t)) e um polin omio de grau n e que o coeciente
do termo t
n
e igual a 1 (vide exerccio 6). Isso quer dizer que D(B(t)) = 0 para no m aximo n
valores de t. Em particular, D(B(t)) ,= 0 para todos os valores de t sucientemente pr oximos de
0, mas diferentes de zero. Assim, pelo que j a mostramos,
det(B(t)A) = det Adet(B(t)).
Fazendo t tender a zero, chegamos a det(BA) = 0, como queramos
2
.
2
2
Veja exerccio 6.
40 CAP
ITULO 4. DETERMINANTES
4.3.3 O determinante em termos de cofatores
Lema 4.3.4 Seja A uma matriz cuja primeira coluna e o vetor e
1
:
A =
_
_
_
_
_
1
0
.
.
. A
11
0
_
_
_
_
_
,
em que A
11
denota a submatriz (n 1) (n 1) formada pelos a
ij
com i, j > 1. Ent ao vale
det A = det A
11
.
Demonstracao: Notamos inicialmente que podemos considerar apenas o caso em que
A =
_
_
_
_
_
1 0 0
0
.
.
. A
11
0
_
_
_
_
_
.
De fato, decorre das propriedades (i) e (ii) que o determinante de A n ao e alterado se somarmos
a cada uma das colunas a
2
, . . . , a
n
um m ultiplo adequado a primeira coluna. Ora, com esse
processo conseguimos zerar a primeira linha da matriz A.
Para a matriz A com zeros na primeira coordenada de todas as colunas exceto da primeira,
denimos, como fun c ao das colunas da matriz A
11
,
C(A
11
) = det
_
1 0
0 A
11
_
.
Essa fun c ao satisfaz ` as propriedades (i) (iii) da deni c ao do determinante. A unicidade do
determinante ent ao garante que det C(A
11
) = det A
11
. Mas isso prova o armado. (Note que
estamos repetindo o argumento utilizado na equa c ao (4.4)).
2
Corolario 4.3.5 Seja A uma matriz cuja j-esima coluna e o vetor e
i
. Ent ao
det A = (1)
i+j
det A
ij
,
em que A
ij
e a matriz obtida de A ao se eliminar sua i-esima linha e sua j-esima coluna. Em
outras palavras, A
ij
e o menor (ij) de A.
Demonstracao: Como cada troca de uma coluna por outra corresponde a uma multiplica c ao
do determinante por (1), ap os j trocas, faremos que o vetor e
i
esteja na primeira coluna da
matriz A e as colunas restantes mantendo sua ordem original. Quer dizer,
det A = (1)
j
D(e
i
, a
1
, , a
j1
, a
j+1
, , a
n
).
4.4. A REGRA DE CRAMER 41
Como o determinante de A e de A
T
s ao iguais (pelo teorema 4.3.2), tambem podemos alterar a
ordem das linhas da matriz A. Ap os i trocas (o que resulta em multiplica c ao do determinante
por (1)
i
), o vetor e
i
ter a se transformado no vetor e
1
e a matriz resultante estar a como no lema
4.3.4. Da decorre o armado.
2
Agora mostraremos a expans ao cl assica do determinante em termos de uma de suas colunas.
Teorema 4.3.6 Seja A uma matriz n n e j 1, . . . , n. Ent ao
det A =
n
i=1
(1)
i+j
a
ij
det A
ij
.
Demonstracao: Para simplicar a nota c ao, vamos considerar j = 1. Escrevendo a
1
como
combina c ao linear dos vetores da base can onica, temos
a
1
= a
11
e
1
+ +a
n1
e
n
.
Como D e n-linear, temos
det A = D(a
1
, . . . , a
n
) = a
11
D(e
1
, a
2
, . . . , a
n
) + +a
n1
D(e
n
, a
2
, . . . , a
n
).
O resultado segue ent ao do corol ario 4.3.5.
2
4.4 A regra de Cramer
Consideremos a express ao
Ax = u,
em que A e uma matriz n n. Podemos interpret a-la, supondo conhecido o vetor x, como a
deni c ao de u. Por outro lado, conhecido u, ela pode ser vista como uma equa c ao na vari avel x.
Suponhamos conhecido o vetor x. Exprimindo x em termos dos vetores da base can onica,
x =
n
j=1
x
j
e
j
, a rela c ao Ae
j
= a
j
(em que a
j
e a j-esima coluna de A) garante que
n
j=1
x
j
a
j
= u.
Denimos agora a matriz A
k
, obtida ao se substituir a k-esima coluna de A pelo vetor u.
Ent ao, descrevendo essa matriz em termos de suas colunas,
A
k
= (a
1
. . . a
k1
u a
k+1
. . . a
n
)
= (a
1
. . . a
k1
n
j=1
x
j
a
j
a
k+1
. . . a
n
).
42 CAP
ITULO 4. DETERMINANTES
Assim, se D e a fun c ao determinante,
det A
k
=
n
j=1
x
j
det(a
1
. . . , a
k1
, a
j
, a
k+1
, . . . , a
n
).
Logo,
det A
k
= x
k
det A,
pois apenas esse termo n ao se anula no somat orio, pela propriedade (i) da deni c ao da fun c ao
determinante. Portanto,
x
k
=
det A
k
det A
, (4.5)
desde que det A ,= 0. Essa e a regra de Cramer para se obter a solu c ao da equa c ao Ax = u,
para um dado u. Ela garante que, se det A ,= 0, ent ao a ( unica) solu c ao x de Ax = u e dada por
x
k
=
det A
k
det A
.
Se expandirmos det A
k
com rela c ao a sua k-esima coluna, obtemos
det A
k
=
n
i=1
(1)
i+k
det A
ik
u
i
.
Dividindo essa equa c ao por det A, encontramos ent ao
x
k
=
det A
k
det A
=
n
i=1
(1)
i+k
det A
ik
det A
u
i
. (4.6)
Vamos escrever a express ao acima em linguagem matricial.
Teorema 4.4.1 A matriz A e invertvel se, e somente se, det A ,= 0. Nesse caso, a matriz
inversa A
1
tem a forma
(A
1
)
ki
= (1)
i+k
det A
ik
det A
. (4.7)
Demonstracao: Suponhamos que A tenha inversa. Ent ao existe A
1
com AA
1
= I. Aplicando
o determinante em ambos os lados dessa igualdade, obtemos det Adet A
1
= det I = 1. Logo,
det A ,= 0.
Reciprocamente, suponhamos que det A ,= 0. Ent ao a equa c ao (4.7) faz sentido, denindo
assim uma matriz que, por abuso de linguagem, chamaremos A
1
. Fa camos essa matriz agir
sobre u. Pela f ormula (3.1), temos
(A
1
u)
k
=
n
i=1
(A
1
)
ki
u
i
.
Substituindo (4.7) nessa f ormula e comparando com (4.6), obtemos
(A
1
u)
k
= x
k
,
o que mostra que A
1
e realmente a inversa da matriz A.
2
4.5. MATRIZES SEMELHANTES 43
4.5 Matrizes semelhantes
Denicao 4.5.1 Seja A = (a
ij
) uma matriz quadrada. Denimos o traco da matriz A, deno-
tado tr A, por
tr A =
n
i=1
a
ii
.
Teorema 4.5.2 O tra co e uma aplica c ao linear e tr (AB) = tr (BA).
Demonstracao: A linearidade do tra co e obvia. Por deni c ao, temos
(AB)
ii
=
n
k=1
a
ik
b
ki
e (BA)
kk
=
n
i=1
b
ki
a
ik
.
Assim,
tr (AB) =
n
i=1
_
n
k=1
a
ik
b
ki
_
=
n
k=1
_
n
i=1
b
ki
a
ik
_
= tr (BA).
2
Denicao 4.5.3 Duas matrizes A e B s ao semelhantes, denotado A B, se existe uma
matriz invertvel P tal que B = P
1
AP.
Claramente temos assim denida uma rela c ao de equivalencia
3
no conjunto das matrizes n n.
Teorema 4.5.4 Matrizes semelhantes possuem o mesmo determinante e o mesmo tra co.
Demonstracao: Temos
det B = det(P
1
AP) = det P
1
det Adet P = det Adet(P
1
P) = det Adet I = det A.
Tambem, pelo teorema 4.5.2,
tr B = tr (P
1
AP) = tr (APP
1
) = tr (AI) = tr A.
2
Como vimos anteriormente, dada uma aplica c ao linear T de um espa co X de dimens ao n
nele mesmo, ao se escolher uma base de X, podemos representar T por uma matriz. Duas
representa c oes de T, obtidas pela escolha de duas bases distintas, s ao semelhantes. Aplicando o
teorema anterior, vemos que faz sentido a seguinte deni c ao:
Denicao 4.5.5 Seja T : V V uma aplica c ao linear denida no espa co vetorial de dimens ao
nita V . Denimos
tr T = tr T
B
B
= tr T
B
e det T = det T
B
B
= det T
B
,
em que B e qualquer base de V .
3
Veja exerccio 21 do captulo 3.
44 CAP
ITULO 4. DETERMINANTES
4.6 Exerccios
1. Seja p : S S uma permuta c ao e a, p(a), . . . , p
k1
(a) os elementos da orbita de a. Se b e
um elemento da orbita de a, mostre que p
k
(b) = b. Em outras palavras, todos os elementos
da orbita de a tem a mesma ordem.
2. Mostre que o sinal de uma transposi c ao e igual a 1.
3. Mostre que a propriedade (iv) da fun c ao determinante implica a propriedade (i). Assim,
poderamos ter denido o determinante como uma fun c ao que satisfaz ` as propriedades
(ii) (iii) (iv).
4. Repita o exemplo 4.2.3 para tres vetores genericos do R
3
. Em outras palavras, calcule o
determinante de uma matriz 3 3.
5. Aplique as propriedades da fun c ao determinante para calcular o determinante da matriz
_
_
_
_
2 5 3 2
2 3 2 5
1 3 2 2
1 6 4 3
_
_
_
_
.
6. Se B e uma matriz n n e B(t) = B +tI, mostre que det(B(t)) e um polin omio m onico
4
de grau n na vari avel t e, portanto, uma fun c ao contnua. Se A e uma matriz n n,
verique que det(AB(t)) tambem e um polin omio de grau n em t. Mostre que a fun c ao
determinante e uma fun c ao contnua e justique, assim, as propriedade de limite utilizadas
na demonstra c ao do teorema 4.3.3.
7. Seja A uma matriz triangular superior, isto e, uma matriz da forma
A =
_
_
_
_
_
a
11
a
12
a
1n
0 a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
.
Mostre que det A = a
11
a
nn
. A transposta da matriz A e uma matriz triangular
inferior.
8. Seja
A =
_
_
_
_
_
A
1
0 0
0 A
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
j
_
_
_
_
_
,
4
isto e, o coeciente do termo de maior grau e igual a 1.
4.6. EXERC
ICIOS 45
em que cada A
i
(i = 1, . . . , j) e uma matriz quadrada. Mostre que det A = det A
1
det A
j
.
Generalize para uma matriz A que seja triangular superior por blocos, isso e, uma matriz
da forma
A =
_
_
_
_
_
A
1
0 A
2
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
j
_
_
_
_
_
,
em que denota uma matriz de ordem adequada.
9. Resolva, utilizando a regra de Cramer, o sistema
2x
1
+ x
2
+ 5x
3
+ x
4
= 5
x
1
+ x
2
3x
3
4x
4
= 1
3x
1
+ 6x
2
2x
3
+ x
4
= 8
2x
1
+ 2x
2
+ 2x
3
3x
4
= 2
10. Usando a regra de Cramer, determine os valores de k para os quais o sistema
kx + y + z = 1
x + ky + z = 1
x + y + kz = 1
possui solu c ao unica. Compare com o resultado obtido atraves de escalonamento (metodo
de Gauss - veja a se c ao 8.1).
11. Utilizando escalonamento, de uma demonstra c ao alternativa para o teorema 4.4.1.
Captulo 5
Teoria Espectral
5.1 Autovetores e autovalores
Dados um espa co vetorial V de dimens ao nita sobre o corpo K e uma aplica c ao linear T : V
V , queremos encontrar uma base B de V tal que a representa c ao T
B
desse operador na base B
seja a mais simples possvel.
Consideremos a seguinte situa c ao: suponhamos que se tenha
V = W
1
W
2
W
n
, dimW
i
= 1, TW
i
W
i
, 1 i n. (5.1)
Seja w
i
uma base de W
i
. Ent ao B = w
1
, . . . , w
n
e uma base de V . Como T(W
i
) W
i
,
existe
i
K tal que Tw
i
=
i
w
i
(n ao estamos supondo que
i
,=
j
para i ,= j). A representa c ao
de T na base B (no domnio e na imagem) e a matriz A = T
B
A =
_
_
_
_
_
1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
.
Dizemos ent ao que T e diagonalizavel. Note que, se T for diagonaliz avel, ent ao vale a decom-
posi c ao (5.1), resultado que formalizaremos no teorema 5.1.4, mais abaixo.
Observe que a igualdade Tw
i
=
i
w
i
garante que (
i
I T) n ao e um operador injetivo;
portanto, (
i
I T) n ao e um isomorsmo. Assim, det(
i
I T) = det(
i
I A) = 0, de
acordo com a deni c ao 4.5.5. Isso quer dizer que
i
e uma raiz do polin omio (na vari avel t)
p(t) = det(tI A), chamado polin omio caracterstico do operador T (ou da matriz A).
Lembramos
1
que p(t) e um polin omio m onico de grau n. Assim, como esse polin omio possui n
razes no corpo K, podemos concluir (mesmo quando
i
=
j
para i ,= j) que
p(t) = (t
1
)(t
2
) (t
n
) (5.2)
e w
i
ker(T
i
I). Note que a equa c ao Tx =
i
x e satisfeita para qualquer elemento de W
i
.
1
Veja exerccio 6 do captulo 4.
46
5.1. AUTOVETORES E AUTOVALORES 47
Consideremos o operador T e seu polin omio caracterstico p(t) = det(tI T). As razes K
do polin omio caracterstico s ao chamadas autovalores
2
de T. Se existirem n razes distintas,
isto e, se
p(t) = (t
1
) (t
n
),
com
i
,=
j
para i ,= j, o espa co W
i
:= ker(T
i
I) ter a dimens ao 1. De fato, existe pelo menos
um vetor n ao-nulo w
i
tal que (
i
I T)w
i
= 0 pois, como
i
I T n ao tem inversa, o sistema
(
i
I T)x = 0 tem solu c ao n ao-trivial w
i
. O vetor 0 ,= w
i
W
i
, solu c ao de (
i
I T)x = 0, e
chamado autovetor de T associado ao autovalor
i
. Agora armamos: autovetores w
i
associados
a autovalores distintos s ao linearmente independentes. (Aceitaremos isso momentaneamente).
Mas ent ao w
1
, . . . , w
n
e uma base de V . Quer dizer, nesse caso especial em que o polin omio
caracterstico possui n razes distintas, teremos provado que
V = W
1
W
2
W
n
,
com W
i
= ker(T
i
I) e T(W
i
) W
i
(pois T(cw
i
) = cTw
i
= cw
i
W
i
).
Estamos agora na situa c ao em que iniciamos e, portanto, a representa c ao de T na base
B = w
1
, . . . , w
n
ser a justamente a matriz diagonal dada por A.
Entretanto, nem sempre o polin omio caracterstico e produto de fatores lineares distintos,
mesmo quando o operador T e diagonaliz avel. Considere o seguinte exemplo:
Exemplo 5.1.1 Para a aplica c ao identidade I : K
n
K
n
, o polin omio caracterstico p() =
det(I I) = (1 )
n
. Quer dizer,
1
= =
n
. Temos a decomposi c ao (5.1)
K
n
= W
1
W
n
com W
i
= ce
i
; c K, mas ker(I 1I) = ker 0 = K
n
.
Antes de mostrarmos que autovetores associados a autovalores distintos s ao linearmente
independentes, daremos algumas deni c oes e estudaremos uma situa c ao simples.
Denicao 5.1.2 Sejam V um espa co vetorial sobre o corpo K, com dimens ao nita n, e T :
V V uma aplica c ao linear. O polin omio p(t) := det(tI T) e o polin omio caracterstico de
T. As razes
i
K desse polin omio s ao chamadas autovalores de T. Os elementos n ao nulos
do n ucleo ker(T
i
I) s ao chamados autovetores associados ao autovalor
i
, ou simplesmente
autovetores de T. O n ucleo
ker(T
i
I) = v V ; (T
i
I)v = 0
e o autoespaco associado ao autovalor
i
.
2
O nome espectro, usual no estudo de operadores lineares em espa cos de dimens ao innita, refere-se a uma
generaliza c ao do conceito de autovalor: dado um operador linear T : V V , o espectro de T e formado por
escalares tais que: (i) (T I) n ao e injetivo; (ii) (T I) n ao e sobrejetivo; (iii) (T I)
1
n ao e contnuo.
As duas primeiras op c oes s ao equivalentes em espa cos de dimens ao nita; a terceira nunca ocorre nestes espa cos.
Assim, o espectro de um operador e o mesmo que o conjunto de autovalores de um operador linear, no caso de
dimens ao nita.
48 CAP
1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
(n ao estamos supondo que os
i
sejam distintos!).
Sabemos que a i-esima coluna de D e [T(v
i
)]
B
=
i
e
i
. Como e
i
e a representa c ao de v
i
na
base B, mostramos que T(v
i
) =
i
v
i
.
A recproca e imediata.
2
(Veja, a esse respeito, o exerccio 3).
Mostraremos agora o fato utilizado anteriormente.
Teorema 5.1.5 Autovetores de T correspondentes a autovalores distintos s ao linearmente in-
dependentes.
Demonstracao: Sejam w
i
, 1 i n, autovetores de T associados a autovalores distintos
i
.
Faremos indu c ao no n umero n. Se n = 1, o resultado e obvio. Suponhamos verdadeiro para
n = j 1 e consideremos n = j. Se
1
w
1
+
2
w
2
+. . . +
j
w
j
= 0, (5.3)
aplicando T em (5.3), obtemos
1
Tw
1
+
2
Tw
2
+. . . +
j
Tw
j
= 0.
Mas Tw
i
=
i
w
i
. Assim,
1
w
1
+. . . +
n
j
w
j
= 0.
5.2. POLIN
OMIOS DE APLICAC
OES LINEARES 49
Por outro lado, multiplicando (5.3) por
j
, obtemos
j
w
1
+
2
j
w
2
+. . . +
j
j
w
j
= 0.
Subtraindo essas duas ultimas equa c oes, vem
1
(
1
j
)w
1
+
2
(
2
j
)w
2
+. . . +
j1
(
j1
j
)w
j1
= 0.
Como
i
j
,= 0 para todo i = 1, . . . , j 1, a hip otese de indu c ao garante que
i
= 0 para
esses valores de i. Levando em (5.3), conclumos que
j
= 0 e que os vetores s ao linearmente
independentes.
2
Na verdade, temos a seguinte generaliza c ao do teorema anterior:
Corolario 5.1.6 Se
1
, . . . ,
j
s ao autovalores distintos de T e W
i
= ker(T
i
I), ent ao o
subespa co W = W
1
+ +W
j
e a soma direta dos subespa cos W
i
, ou seja,
W = W
1
W
j
.
Em outras palavras, sejam w
i1
, . . . , w
ik
i
autovetores linearmente independentes associados ao
autovalor
i
da aplica c ao linear T, com i = 1, . . . , j. Ent ao o conjunto
w
11
, w
12
, . . . , w
1k
1
, w
21
, . . . , w
2k
2
, . . . , w
j1
, . . . , w
jk
j
e linearmente independente.
Demonstracao: Escolha w
i
W
i
, para i = 1, . . . , j. Cada w
i
,= 0 e um autovetor associado a
i
. Pelo teorema 5.1.5 temos que
1
w
1
+. . . +
j
w
j
= 0 se, e somente se, cada parcela
i
w
i
= 0,
para todo i. Isso e o mesmo que armar a unicidade da decomposi c ao w = w
1
+. . . +w
j
.
2
O corol ario acima e importante, pois podemos ter v arios autovetores linearmente indepen-
dentes associados ao mesmo autovalor. Essa e a situa c ao que ocorre no exemplo 5.1.1.
Para nalizar essa se c ao, enunciamos o resultado que mostramos anteriormente:
Corolario 5.1.7 Se V e um espa co vetorial de dimens ao n e o polin omio caracterstico da
aplica c ao linear T : V V possui n razes distintas, ent ao V possui uma base B formada
por autovetores de T. A aplica c ao T representada na base B e uma matriz diagonal, sendo os
elementos da diagonal principal os autovalores de T.
5.2 Polin omios de aplicac oes lineares
SejamV um espa co vetorial sobre o corpo K, T : V V uma aplica c ao linear e q(t) um polin omio
com coecientes no corpo K (denotaremos ent ao q K[t]). Se q(t) = a
k
t
k
+a
k1
t
k1
+a
1
t +a
0
,
claramente faz sentido calcular
q(T) := a
k
T
k
+a
k1
T
k1
+ +a
1
T +a
0
I,
mesmo que V tenha dimens ao innita. Se A M
nn
e uma matriz, q(A) e uma matriz n n.
Vamos mostrar como os autovalores de A se relacionam com os autovalores de q(A).
50 CAP
k
v +. . . +a
1
v +a
0
v = q()v.
Isso e o mesmo que armar que (q(A) q()I)v = 0, ou seja, que v e um autovetor de q(A)
associado ao autovalor q().
Reciprocamente, suponhamos que K = C e que seja um autovalor de q(A). Queremos
mostrar que = q(), para algum autovalor da matriz A. Consideremos o polin omio q(t) .
Fatorando esse polin omio no corpo C, temos
q(t) = a
k
k
i=1
(t r
i
),
em que r
i
s ao as razes (n ao necessariamente distintas) desse polin omio (note que a
k
e o coeciente
do termo de maior grau de q(t)). Temos ent ao que (note que essa express ao independe de ser
autovalor de q(A))
q(A) I = a
k
k
i=1
(A r
i
I). (5.4)
Como e um autovalor de q(A), a matriz do lado esquerdo da igualdade n ao tem inversa. Isso
quer dizer que ao menos uma das matrizes (A r
i
I) n ao tem inversa e, portanto, r
i
e um
autovalor de A. Como r
i
e raiz de q(t) , temos q(r
i
) = 0, ou seja, q(r
i
) = .
2
Dizemos que dois polin omios p, q K[t] s ao primos entre si se o unico polin omio m onico
que divide tanto p quanto q e o polin omio 1.
Observacao 5.2.2 Seja A uma matriz real. Como R C, podemos ve-la como uma matriz
sobre C. Se C R e uma raiz do polin omio caracterstico p(t) = a
0
+ a
1
t + . . . + a
n
t
n
,
ent ao p() = 0. De fato, como todos os coecientes desse polin omio s ao reais, o resultado segue
quando tomamos os conjugados na equa c ao p() = 0. Como conseq uencia, fatores quadr aticos
que aparecem na decomposi c ao do polin omio caracterstico em fatores irredutveis surgem do
produto (t )(t
) das razes ,
C R.
Lema 5.2.3 Sejam p, q K[t]. Se p e q s ao primos entre si, ent ao existem polin omios a, b K[t]
tais que
ap +bq = 1.
3
Em toda a bibliograa consultada, nunca encontrei uma tradu c ao para Spectral Mapping Theorem. Acho
inadequada a tradu c ao Teorema da Aplica c ao Espectral.
5.2. POLIN
OMIOS DE APLICAC
OES LINEARES 51
Demonstracao: Seja 1 o conjunto de todos os polin omios da forma ap + bq, com a, b K[t].
Como 1 possui elemento n ao nulo, existe em 1 um polin omio n ao nulo de menor grau, que
chamaremos d = ap +bq.
Armamos que d divide tanto p quanto q. De fato, se d n ao dividisse p, por exemplo,
teramos p = md + r, em que o grau de r e menor do que o grau de d. Como p e d est ao em 1,
r = p md 1, o que contradiz a escolha de d. Logo r = 0, mostrando o armado.
Como p e q s ao primos entre si, d tem grau zero, isto e, d e uma constante, digamos k. Como
d ,= 0, escolhendo a = a/k e b = b/k temos
ap +bq = 1.
2
Corolario 5.2.4 Se p
1
, . . . , p
k
, p
k+1
K[t] s ao primos entre si dois a dois, ent ao p
2
. . . p
k
p
k+1
e
p
1
s ao primos entre si.
Demonstracao: Isso se prova por indu c ao em k. Se k = 1, nada h a a provar. Suponhamos
verdadeiro para k = j e seja d um polin omio m onico que divide p
1
e p
2
. . . p
j
p
j+1
. Como p
1
e p
j+1
s ao primos entre si, existem polin omios a e b tais que ap
1
+ bp
j+1
= 1. Multiplicando
por p
2
. . . p
j
, obtemos ap
1
(p
2
. . . p
j
) +b(p
2
. . . p
j
p
j+1
) = p
2
. . . p
j
. Como d divide tanto p
1
quanto
p
2
. . . p
j
p
j+1
, vemos que d divide p
2
. . . p
j
. Mas ent ao a hip otese de indu c ao garante que d = 1,
provando o armado.
2
Lema 5.2.5 Sejam p, q K[t] primos entre si e 0 ,= A M
nn
(K). Sejam N
p
, N
q
e N
pq
os
n ucleos das matrizes p(A), q(A) e p(A)q(A), respectivamente. Ent ao
N
pq
= N
p
N
q
.
Demonstracao: Como existem polin omios a, b K[t] tais que bq +ap = 1, temos que
b(A)q(A) +a(A)p(A) = I.
Se x N
pq
, ent ao b(A)q(A)x N
p
. De fato, aplicando p(A) a esse ponto, temos p(A)b(A)q(A)x=
b(A)p(A)q(A)x = 0, dada a comutatividade de polin omios da matriz A. Da mesma forma temos
a(A)p(A)x N
q
, se x N
pq
. Como b(A)q(A)x + a(A)p(A)x = x, mostramos que x = x
p
+ x
q
,
com x
p
N
p
e x
q
N
q
.
Para mostrar que essa decomposi c ao e unica, suponhamos que x = x
p
+ x
q
= x
p
+ x
q
. Mas
ent ao y := x
p
x
p
= x
q
x
q
pertence, simultaneamente, a N
p
e N
q
. Aplicando b(A)q(A) +
a(A)p(A) = I em y, temos
b(A)q(A)y +a(A)p(A)y = y.
Mas b(A)q(A)y = 0 = a(A)p(A)y, de modo que y = 0, o que implica x = x
p
e x
q
= x
q
, mostrando
a unicidade da decomposi c ao.
2
Por indu c ao, obtemos ent ao o
52 CAP
m1
t
m1
. . .
0
= p
W
(t),
sendo p
W
(t) o polin omio caracterstico de T restrito a W. Mas a equa c ao (5.5) mostra ent ao
que p
W
(T)v = 0.
Armamos agora que p(t) = q(t)p
W
(t), para algum polin omio q(t). Da decorre o resultado,
pois v ,= 0 foi escolhido arbitrariamente e p(T)v = q(T)p
W
(T)v = 0. Para provar a arma c ao,
basta notar se completarmos S de forma a obter uma base B de V , a representa c ao de T nessa
base e
_
A B
0 C
_
.
O resultado ent ao decorre do exerccio 8 do captulo 4, pois
det(tI T) = det(tI A) det(tI C) = p
W
(t)q(t)
54 CAP
e uma base de V , de acordo com o corol ario 5.1.6. Uma vez que T(W
i
) W
i
temos que
T(w
i
) = c
1
w
i1
+c
2
w
i2
+ +c
k
i
w
ik
i
.
Assim, a representa c ao de T na base B e
T
B
=
_
_
_
_
_
T
1
0 0
0 T
2
0
.
.
.
.
.
.
.
.
.
0 0 T
j
_
_
_
_
_
,
em que T
i
e um bloco de tamanho k
i
k
i
:
T
i
=
_
_
_
_
_
c
11
c
21
c
1k
i
c
21
c
22
c
2k
i
.
.
.
.
.
.
.
.
.
.
.
.
c
k
i
1
c
k
i
2
c
k
i
k
i
_
_
_
_
_
.
(Veja exemplo 5.4.5, abaixo).
Denicao 5.4.1 Seja p K[t] o polin omio caracterstico da aplica c ao linear T : V V , em
que V e um espa co vetorial de dimens ao nita n. Suponhamos que
p(t) = [p
1
(t)]
s
1
[p
j
(t)]
s
j
seja a decomposi c ao de p em fatores irredutveis, com p
i
,= p
k
para i ,= k. Denimos, para
i = 1, . . . , j, o autoespaco generalizado associado ao polin omio p
i
como o conjunto de todos
os vetores v V para os quais existe um inteiro positivo k tal que
[p
i
(T)]
k
v = 0.
No caso em que p
i
(t) = t
i
, sendo
i
um autovalor de T, os elementos n ao-nulos do autoespa co
generalizado s ao chamados autovetores generalizados de T associados ao autovalor
i
.
5.4. O TEOREMA DA DECOMPOSIC
AO PRIM
ARIA 55
Para k N
, seja N
k
(p
i
) o n ucleo de [p
i
(T)]
k
. Claramente temos que
N
1
(p
i
) N
2
(p
i
) .
Como N
k
(p
i
) e um subespa co do espa co de dimens ao nita V para todo k N, esses subespa cos
precisam ser todos iguais ` a partir de certo ndice k N. Seja d
i
= d(p
i
) o menor inteiro positivo
com tal propriedade, isto e,
N
d
i
(p
i
) = N
d
i
+1
(p
i
) = , mas N
d
i
1
(p
i
) ,= N
d
i
(p
i
).
O inteiro positivo d
i
e chamado ndice de p
i
(T).
Lema 5.4.2 Os subespa cos N
k
(p
i
) s ao invariantes pelo operador T, para todo k N
. Se
W
i
= ker[p
i
(T)]
d
i
, ent ao o polin omio mnimo de T restrito a W
i
e [p
i
(T)]
d
i
.
Demonstracao: Seja w N
k
(p
i
) = ker[p
i
(T)]
k
. Ent ao [p
i
(T)]
k
Tw = T[p
i
(T)]
k
w = 0,
mostrando que Tw N
k
(p
i
).
A arma c ao sobre o polin omio mnimo decorre da deni c ao de d
i
.
2
Teorema 5.4.3 (Decomposicao Primaria)
Seja T : V V uma aplica c ao linear e p K[t] seu polin omio caracterstico. Se
p(t) = [p
1
(t)]
s
1
[p
j
(t)]
s
j
e a decomposi c ao de p(t) em fatores irredutveis, com p
i
,= p
k
para i ,= k, ent ao, se d
i
e o ndice
de p
i
(T), o polin omio mnimo de T e
m(t) = [p
1
(t)]
d
1
[p
j
(t)]
d
j
,
em que 0 < d
i
s
i
para i = 1, . . . , j. Em outras palavras, o polin omio mnimo possui todos os
fatores irredutveis do polin omio caracterstico de T. Alem disso,
V = W
1
W
j
,
em que W
i
= ker[p
i
(T)]
d
i
, com T(W
i
) W
i
.
Demonstracao: Seja m K[t] o polin omio mnimo de T. De acordo com o Teorema de Cayley-
Hamilton 5.3.1 e o lema 5.2.8, os unicos fatores irredutveis presentes na decomposi c ao de m s ao
fatores irredutveis de p. Incluindo fatores irredutveis [p
i
(t)]
0
do polin omio caracterstico p que
eventualmente estejam ausentes na decomposi c ao de m, podemos escrever
m(t) = m
1
(t) m
j
(t),
com m
i
(t) = [p
i
(t)]
r
i
e r
i
0 para i = 1, . . . , j. (Vamos mostrar que r
i
= d
i
> 0 para todo
i = 1, . . . , j).
56 CAP
ARIA 57
Desenvolvendo esse determinante com rela c ao ` a segunda coluna, obtemos:
det(AI) = det
_
_
_
_
10 0 7 1
0 0 0
13 0 9 1
4 0 3 1
_
_
_
_
det
_
_
_
_
10 0 7 1
0 1 0 0
13 0 9 1
4 0 3 1
_
_
_
_
.
Desenvolvendo esses dois determinantes, obtemos
det(A I) =
2
det
_
_
10 7 1
13 9 1
4 3 1
_
_
+ det
_
_
10 7 1
13 9 1
4 3 1
_
_
= (
2
+ 1)[
3
2
2
+]
= (
2
+ 1)( 1)
2
.
Pelo Teorema da Decomposi c ao Prim aria,
R
5
= ker A ker(A
2
+I) ker(A I)
2
.
Encontramos ker A resolvendo o sistema Ax = 0. Assim,
_
_
_
_
_
_
10 0 0 7 1
0 0 1 0 0
0 1 0 0 0
13 0 0 9 1
4 0 0 3 1
_
_
_
_
_
_
_
_
_
_
_
_
10 0 0 7 1
0 1 0 0 0
0 0 1 0 0
3 0 0 2 0
4 0 0 3 1
_
_
_
_
_
_
Logo, x
2
= x
3
= 0, x
4
= 3x
1
/2, x
5
= 4x
1
+ 3x
4
= 4x
1
+ 9x
1
/2 = x
1
/2. Assim, a solu c ao
geral de Ax = 0 e x = (2x
1
, 0, 0, 3x
1
, x
1
) e o vetor v
1
B = v
1
, v
2
, v
3
, v
4
, v
4
pode ser escolhido
como v
1
= (2, 0, 0, 3, 1). Calculando A
2
+ I e resolvendo o sistema (A
2
+ I)x = 0, encontramos
a solu c ao geral
(0, x
2
, x
3
, 0, 0),
de modo que os vetores v
2
e v
3
podem ser escolhidos como
v
2
= (0, 1, 0, 0, 0) e v
3
= (0, 0, 1, 0, 0).
Da mesma forma o sistema (A I)
2
x = 0, cuja solu c ao geral e
(x
1
, 0, 0, x
4
, 3x
1
2x
4
)
o que nos permite escolher os vetores
v
4
= (1, 0, 0, 0, 3) e v
5
= (0, 0, 0, 1, 2).
Consideremos ent ao a base B = v
1
, v
2
, v
3
, v
4
, v
5
. Vamos representar a aplica c ao linear T nessa
base. Temos:
T(2, 0, 0, 3, 1) = 0 = 0v
1
T(0, 1, 0, 0, 0) = (0, 0, 1, 0, 0) = 1v
3
T(0, 0, 1, 0, 0) = (0, 1, 0, 0, 0) = v
2
T(1, 0, 0, 0, 3) = (13, 0, 0, 16, 7) = 13v
4
+ 16v
5
T(0, 0, 0, 1, 2) = (9, 0, 0, 11, 5) = 9v
4
11v
5
.
58 CAP
ONICA DE JORDAN 59
Demonstracao: Como no Teorema da Decomposi c ao Prim aria, seja W
i
= ker[p
i
(T)]
d
i
. Se
w
i
W
i
, armamos que Sw
i
W
i
(isto e, que W
i
e um subespa co invariante tambem para S).
De fato,
[p
i
(T)]
d
i
Sw
i
= S[p
i
(T)]
d
i
w
i
= 0.
Isso mostra o armado.
2
No caso de K = C podemos obter um resultado mais forte:
Proposicao 5.4.8 Sejam S, T : V V duas aplica c oes lineares no espa co de dimens ao nita
V sobre C. Suponhamos que ST = TS. Ent ao existe uma base de V formada por autovetores
generalizados de S e T.
Demonstracao: J a vimos que W
i
= ker[p
i
(T)]
d
i
e invariante por S. Todos os elementos n ao-
nulos de W
i
s ao, por deni c ao, autovetores generalizados de T. Aplicamos ent ao o Teorema
da Decomposi c ao Prim aria ao subespa co W
i
com respeito a B e obteremos uma divis ao desse
subespa co em subespa cos formados por autovetores generalizados de B.
2
Note que a demonstra c ao anterior mostra que a proposi c ao 5.4.8 permanece v alida para
qualquer n umero de operadores que comutam. Mais precisamente,
Proposicao 5.4.9 Se T
1
, . . . , T
m
: V V s ao aplica c oes lineares no espa co de dimens ao nita
V sobre C e se T
i
T
j
= T
j
T
i
para i, j 1, . . . , m, ent ao existe uma base de V formada por
autovetores generalizados para todas as aplica c oes T
1
, . . . , T
m
.
5.5 A forma can onica de Jordan
Seja V um espa co vetorial de dimens ao nita. Nessa se c ao mostraremos como encontrar uma
base de V na qual um operador linear T : V V assume uma matriz especialmente simples.
Denicao 5.5.1 Uma matriz complexa J, n n, esta na forma can onica de Jordan se
J =
_
_
_
_
_
J
1
0 0
0 J
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 J
k
_
_
_
_
_
, em que J
i
=
_
_
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
_
_
_
_
_
_
_
,
em que e um dos autovalores distintos
1
, . . . ,
j
da matriz J. (Ao autovalor
i
pode estar
associado mais do que um bloco J
i
; `as vezes se dene J
i
com a sub-diagonal de 1s situando-se
abaixo da diagonal principal ).
Mostraremos a seguir que toda matriz complexa e semelhante a uma matriz na forma can onica
de Jordan. Lembramos que, no caso de matrizes reais, sempre podemos ve-la como uma matriz
complexa, de modo que, nesse sentido, o resultado abaixo e geral. Mais do que isso, a necessidade
de considerarmos o corpo complexo e para garantir que os autovalores est ao todos presentes no
corpo (veja exemplo 5.5.4, abaixo).
60 CAP
i
I)y. Ent ao (A
i
I)(x y) = 0, o que e um absurdo, pois ent ao x y estaria em N
k
.
2
Vamos agora construir uma base especial para W
i
. Lembramos que uma base de N
k
/N
k1
e
obtida ao se escolher uma base para N
k1
e ent ao complet a-la para uma base de N
k
; os elementos
introduzidos formam a base procurada. (Veja o Teorema 1.4.4).
Seja x
1
, . . . , x
uma base de N
d
i
/N
d
i
1
. De acordo com o lema, os elementos
(A
i
I)x
1
, . . . , (A
i
I)x
ONICA DE JORDAN 61
s ao linearmente independentes e pertencem a N
d
i
1
/N
d
i
2
. Completamos esses elementos ate
obter uma base desse espa co. Pelo mesmo raciocnio, a imagem por (A
i
I) dos elementos
dessa base e linearmente independente e podemos novamente completar esse conjunto ate obter
uma base; procedemos desse modo ate chegarmos ao espa co N
1
. A base de W
i
assim construda
e a base de Jordan do subespa co W
i
. Obtemos ent ao uma base do espa co inteiro ao obtermos
as bases de Jordan de cada espa co W
i
. Essa base e chamada base de Jordan.
De acordo com a hip otese (ii), os subespa cos M
k
= ker(B
i
)
k
tem a mesma dimens ao
do espa co correspondente N
k
. Em outras palavras, o procedimento aplicado a N
k
, se repetido
para a matriz B, produzir a o mesmo n umero de elementos para cada base de M
k
/M
k1
. Em
outras palavras, existe uma aplica c ao P que faz corresponder a cada elemento da base de Jordan
x
j
N
k
/N
k1
o elemento correspondente na base de y
j
M
k
/M
k1
, de modo que (A
i
I)x
j
seja levado em (B
i
I)y
j
. Conhecida a imagem dos vetores da base, existe uma unica aplica c ao
linear que estende essa aplica c ao; seja P tal extens ao. Como base est a sendo levada em base,
essa aplica c ao linear tem inversa. O mesmo procedimento aplicado ao autoespa co associado a
i
constr oi a aplica c ao P.
Finalmente, a deni c ao de P garante que P(A
i
I)x
j
= (B
i
I)y
j
= (B
i
I)Px
j
.
Assim, P(A
i
I) = (B
i
I)P. Decorre da que PA = BP, como desejado.
2
Exemplo 5.5.4 Seja T : R
4
R
4
denido por
T(x
1
, x
2
, x
3
, x
4
) = (2x
1
x
2
+x
4
, 3x
2
x
3
, x
2
+x
3
, x
2
+ 3x
4
).
Vamos obter a forma can onica de Jordan de T, bem como a base na qual T assume essa forma.
O polin omio caracterstico de T de p(t) = (t 3)(t 2)
3
(verique!). Assim, todos os
autovalores de T est ao no corpo R e podemos obter a forma de Jordan de T. Para o autovalor
3, a forma escalonada reduzida de
(T 3I) =
_
_
_
_
1 1 0 1
0 0 1 0
0 1 2 0
0 1 0 0
_
_
_
_
e
_
_
_
_
1 0 0 1
0 1 0 0
0 0 1 0
0 0 0 0
_
_
_
_
.
Assim, o subespa co W
1
= ker(T 3I) do Teorema da Decomposi c ao Prim aria e dado por
(x
1
, 0, 0, x
1
); x
1
R.
Da mesma forma se verica que
ker(T 2I) = (x
1
, x
2
, x
2
, x
2
); x
1
, x
2
R
ker(T 2I)
2
= (x
1
, x
2
+x
3
, 2x
3
, 2x
2
); x
1
, x
2
, x
3
R.
Como a dimens ao de ker(T 2I)
3
e igual ` a multiplicidade de 2 como raiz do polin omio carac-
terstico p(t) de T , temos que o espa co W
2
do Teorema da Decomposi c ao Prim aria e dado por
ker(T 2I)
2
(veja proposi c ao 5.4.6).
O subespa co W
1
tem base (1, 0, 0, 1) = w
1
. Esse e o primeiro elemento da base de Jordan
(ele e respons avel por um bloco 1 1 no Teorema da Decomposi c ao Prim aria).
62 CAP
ONICA DE JORDAN 63
Se chamamos de N
1
= ker(A 2I), vemos que dimN
1
= 2. (Voce consegue perceber isso sem
fazer qualquer conta? Lembre-se que o n umero de linhas nulas no escalonamento de A 2I
fornece os graus de liberdade nas solu c oes de (A 2I)x = 0, isto e, a dimens ao desse espa co.)
Temos
N
1
= ker(A 2I) = (0, 0, x
3
, x
3
, x
4
, x
4
/3); x
3
, x
4
R
N
2
= ker(A 2I)
2
= (0, 0, x
3
, x
4
, x
5
, (3x
5
x
4
x
3
)/9)
N
3
= ker(A 2I)
3
= (0, x
2
, x
3
, x
4
, x
5
, (2x
2
3x
3
3x
4
+ 9x
5
)/27
N
4
= ker(A 2I)
4
= (x
1
, x
2
, x
3
, x
4
, x
5
, (27x
5
9x
4
9x
3
6x
2
10x
1
)/81
Uma vez que dimker(A 2I)
4
= 5, vemos que o coeciente que estabiliza o espa co A 2I e 4.
Se W
2
e o autoespa co generalizado associado ao autovalor 2, temos W
2
= N
4
.
Claramente o vetor v
6
= (1, 0, 0, 0, 0, 10/81) N
4
N
3
. Uma vez que a aplica c ao
A 2I :
N
4
N
3
N
3
N
2
e injetiva e dimN
3
/N
2
= 1 (pois existe em N
3
apenas um grau de liberdade a mais do que em
N
2
, temos que
v
5
= (A 2I)v
6
= (0, 1, 1, 0, 1, 10/27)
e o quinto vetor da base procurada.
Pelo mesmo motivo, v
4
= (A2I)
2
v
6
= (A2I)v
5
= (0, 0, 0, 1, 0, 1/9) e o quarto vetor da
base procurada (note que v
4
N
2
/N
1
).
O terceiro vetor da base e v
3
= (A2I)
3
v
6
= (A2I)v
4
= (0, 0, 0, 0, 1, 1/3) e um autovetor
de A, pois ele pertence a N
1
. Como N
1
tem dimens ao 2, existe um outro vetor nesse espa co,
linearmente independente com v
3
. Esse e o vetor v
2
= (0, 0, 1, 1, 0, 0).
Tendo obtido os vetores v
1
, . . . , v
6
, a representa c ao de A nessa base e dada por
Av
1
= v
1
(pois (A +I)v
1
= 0)
Av
2
= 2v
2
(pois (A 2I)v
2
= 0)
Av
3
= 2v
3
(pois (A 2I)v
3
= 0)
Av
4
= v
3
+ 2v
4
(pois (A 2I)v
4
= v
3
)
Av
5
= v
4
+ 2v
5
(pois (A 2I)v
5
= v
4
)
Av
6
= v
5
+ 2v
6
(pois (A 2I)v
6
= v
5
)
A representa c ao de A nessa base e
J =
_
_
_
_
_
_
_
_
1 0 0 0 0 0
0 2 0 0 0 0
0 0 2 1 0 0
0 0 0 2 1 0
0 0 0 0 2 1
0 0 0 0 0 2
_
_
_
_
_
_
_
_
.
A matriz J tem um bloco 1 1 associado ao autovalor 1. Associado ao autovalor 2 ela tem
dois blocos de Jordan: o bloco 1 1 associado ao autovetor v
2
e o bloco 4 4 associado aos
elementos v
3
, v
4
, v
5
, v
6
= (A 2I)
3
v
6
, (A 2I)
2
v
6
, (A 2I)v
6
, v
6
.
64 CAP
() = . . . = p
(d1)
() = 0 e p
(d)
() ,= 0 (isto e, se e raiz de multi-
plicidade d do polin omio caracterstico
5
), tomando o conjugado em cada uma dessas equa c oes
obtemos p
) = . . . = p
(d1)
(
) = 0 e p
(d)
(
) ,= 0, mostrando que
tambem tem multiplicidade
d.
(iv) Seja w
1
, . . . , w
k
uma base de
W, com w
j
= u
j
+iv
j
, j = 1, . . . , k. Somando e subtraindo
os vetores w
j
e w
j
, obtemos que u
j
= u
j
+ i0 e v
j
= v
j
+ i0 est ao em
W. Assim, o conjunto
S = u
1
, v
1
, . . . , u
k
, v
k
e um conjunto de vetores reais que gera
W. Uma base formada de
vetores reais e obtida ao se tomar um subconjunto de S com k elementos que seja linearmente
independente em V
C
. 2
Lema 5.6.4 Sejam T : V V um operador linear e T
C
sua complexica c ao. Se o subespa co
W V
C
possui uma base formada por vetores reais, ent ao ele e a complexica c ao de um sube-
spa co W V .
Demonstracao: Todo vetor de
W e da forma w = u+iv, sendo u e v vetores reais. Escrevendo
u e v em termos dos vetores da base real, segue imediatamente que
W e a complexica c ao do
espa co real W gerado pelos vetores dessa base. 2
Teorema 5.6.5 (Forma de Jordan real)
Seja T : V V um operador linear real. Ent ao existe uma base ( de V na qual T e repre-
sentado por uma matriz J, diagonal em blocos, cujos blocos diagonais, alem daqueles associados
a autovalores reais e que s ao como na deni c ao da forma de Jordan complexa, tambem podem
ter a forma
J
,
=
_
_
_
_
_
_
_
D
,
I
2
0 0
0 D
,
I
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 D
,
I
2
0 0 0 0 D
,
_
_
_
_
_
_
_
em que D
,
=
_
_
,
sendo +i um autovalor complexo de T
C
e I
2
a matriz identidade 2 2.
5
Veja exerccio 6.
5.7. EXERC
ICIOS 67
Demonstracao: De acordo com o Teorema da Decomposi c ao Prim aria, o espa co vetorial V
pode ser decomposto como soma direta de espa cos invariantes pela aplica c ao T. Se R e um
autovalor de T, obtemos o espa co invariante W
. A base do espa co W
e W
. Se os vetores w
j
= u
j
+ iv
j
(j = 1, . . . , k) formam uma base de W
,
de acordo com o exerccio 13.
Armamos que
S = u
1
, v
1
, u
2
, v
2
, . . . , u
k
, v
k
e uma base de W
= dimW
= k,
o conjunto S tem a dimens ao do espa co W
, T
C
e representado por bloco(s)
da forma descrita no enunciado do teorema. Como T
C
= T para qualquer dos vetores dessa base,
a demonstra c ao est a completa.
2
5.7 Exerccios
1. Ache o polin omio mnimo de T : R
3
R
3
dada por T(x, y, z) = (3x + y z, 2x + 2y
z, 2x + 2y).
2. Seja V um espa co vetorial de dimens ao nita. Mostre que o polin omio caracterstico e o
polin omio mnimo da aplica c ao linear T : V V independem da base B de V .
3. Sejam T : K
n
K
n
uma aplica c ao linear e A a representa c ao de T na base can onica
do K
n
. Suponhamos que T possa ser representada por uma matriz diagonal na base
B = v
1
, . . . , v
n
. Se P e matriz cujas colunas s ao as coordenadas de v
i
(com rela c ao
` a base can onica do K
n
), mostre que D = P
1
AP, em que D e a matriz diagonal cujos
elementos diagonais s ao os autovalores de T.
4. Demonstre a Proposi c ao 5.4.9.
68 CAP
() = . . . = p
(d1)
() = 0, mas p
(d)
() ,= 0. Dizemos ent ao que a raiz de
p(z) tem multiplicidade algebrica d.
7. Encontre a decomposi c ao prim aria da matriz
A =
_
_
_
_
_
_
1 1 1 1 1
0 1 1 1 1
0 0 1 1 1
0 0 0 2 1
0 0 0 0 2
_
_
_
_
_
_
.
8. Leia o par agrafo 6.8 (Teorema da Decomposi c ao Prim aria) do livro
Algebra Linear, de
Homan e Kunze. Estude o exemplo 14 daquela se c ao.
9. Seja A uma matriz n n diagonaliz avel. Se B comuta com A, mostre que A e B s ao
simultaneamente diagonaliz aveis.
10. Obtenha uma base B na qual as seguintes matrizes estejam na forma can onica de Jordan:
(i)
_
_
_
_
_
_
2 5 0 0 0
0 2 0 0 0
0 0 1 0 1
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
.
(ii)
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0 0 1 0 4 0
0 1 1 1 1 3 3 4
0 0 1 0 1 1 2 1
0 0 0 1 1 1 4 5
0 0 0 0 1 0 1 5
0 0 0 0 0 1 1 1
0 0 0 0 0 0 1 2
0 0 0 0 0 0 0 3
_
_
_
_
_
_
_
_
_
_
_
_
.
5.7. EXERC
ICIOS 69
11. Sejam
m(t) = (t
1
)
d
1
. . . (t
r
)
d
r
p(t) = (t
1
)
s
1
. . . (t
r
)
s
r
os polin omios mnimo e caracterstico do operador T : V V , sendo V um espa co sobre
os complexos. Mostre que
(i) existe ao menos um bloco d
i
d
i
associado ao autovalor
i
;
(ii) o n umero de blocos associados ao autovalor
i
e igual ` a multiplicidade geometrica
de
i
(isto e, ` a dimens ao do espa co W
i
associado ao autovalor
i
). (O inteiro s
i
e a
multiplicidade algebrica do autovalor
i
).
12. Determine todas as possveis formas can onicas de Jordan para uma matriz
(i) cujo polin omio caracterstico e p(t) = (t 2)
3
(t 5)
2
;
(ii) cujo polin omio mnimo e m(t) = (t 2)
2
;
(iii) cujo polin omio caracterstico e p(t) = (t 3)
4
(t 5)
4
e cujo polin omio mnimo e
m(t) = (t 3)
2
(t 5)
2
.
Sugest ao: em cada caso, quais s ao as possveis dimens oes dos subespa cos associados ao
polin omio mnimo?
13. Deniremos a conjugada
B de uma matriz B qualquer como a matriz obtida ao se tomar
o conjugado em cada uma de suas entradas. Mostre que B +C = B + C e BC = BC.
Em particular, se u = (
1
. . .
n
)
T
e um vetor, u = (
1
. . .
n
)
T
e o conjugado do vetor
u. Seja T : V V um operador linear real e T
C
sua complexica c ao. Mostre que, se
u +iv ker(T
C
I)
r
, ent ao u iv ker(T
C
I)
r
. Conclua que se u
1
+iv
1
, . . . , u
k
+iv
k
e uma base de W
, ent ao u
1
iv
1
, . . . , u
k
iv
k
e uma base de W
.
14. Verique que a demonstra c ao do teorema 5.6.5 garante, em particular, que os subespa cos
W
e W
, com w
j
= u
j
+ iv
j
, ent ao tanto
u
1
, . . . , u
k
quanto v
1
, . . . , v
k
s ao bases de W
, sendo w
j
= u
j
+iv
j
.
E verdade que u
1
, . . . , u
k
e uma base de W
?
16. Seja T : R
4
R
4
um operador que tem a forma de Jordan complexa dada por
_
_
_
_
i 1 0 0
0 i 0 0
0 0 i 0
0 0 0 i
_
_
_
_
.
Ache a sua forma de Jordan real.
Captulo 6
Estrutura Euclidiana
6.1 Produto interno
Denicao 6.1.1 Seja V um espa co vetorial sobre o corpo K. Um produto interno em V e
uma aplica c ao , ) : V V K satisfazendo `as seguintes propriedades:
(i) v, w) = w, v);
(ii) u +v, w) = u, w) +v, w);
(iii) v, v) 0 e v, v) = 0 se, e somente se, v = 0.
Um espa co V com produto interno e chamado euclidiano se ele tem dimens ao nita
1
.
Exemplo 6.1.2 Se V = R
n
, o produto interno can onico (tambem chamado produto escalar) e
denido por
x, y) = x y =
n
i=1
x
i
y
i
= (x
1
. . . x
n
)
_
_
_
y
1
.
.
.
y
n
_
_
_
,
em que x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
n
).
Com a mesma nota c ao, esse e um caso particular do produto interno can onico emC
n
, denido
por
x, y) = x y =
n
i=1
x
i
y
i
= (x
1
. . . x
n
)
_
_
_
y
1
.
.
.
y
n
_
_
_
.
[(y, x)[
2
|x|
2
,
donde obtemos a desigualdade de Cauchy-Schwarz.
2
Agora estamos em condi c oes de justicar a nota c ao |x| = x, x)
1/2
.
Proposicao 6.2.4 Todo espa co com produto interno V tem uma norma denida por |x| =
x, x)
1/2
.
Demonstracao: A primeira propriedade de norma decorre imediatamente da deni c ao do pro-
duto interno. Alem disso,
|v|
2
= v, v) = v, v) = [[
2
|v|
2
.
Finalmente, temos que
|v +w|
2
= v +w, v +w) = |v|
2
+v, w) +w, v) +|w|
2
= |v|
2
+ 21e v, w) +|w|
2
|v|
2
+ 21e [v, w)[ +|w|
2
|v|
2
+ 2|v| |w| +|w|
2
= (|v| +|w|)
2
2
A seguinte propriedade de espa cos com produto interno e imediata (desenvolva o lado es-
querdo da equa c ao):
Proposicao 6.2.5 Em todo espa co com produto interno vale a identidade do paralelogramo:
|x +y|
2
+|x y|
2
= 2
_
|x|
2
+|y|
2
_
.
6.3 Bases ortonormais
Denicao 6.3.1 Seja V um espa co com produto interno. Um conjunto X V e ortogonal se
u v para quaisquer u, v X. Se, alem disso, todos os seus vetores s ao unitarios, ent ao X e
ortonormal.
O pr oximo resultado vale ate em espa cos vetoriais de dimens ao innita:
6.3. BASES ORTONORMAIS 73
Lema 6.3.2 Todo conjunto ortogonal formado por vetores n ao nulos e linearmente indepen-
dente.
Demonstracao: Sejam x
1
, . . . , x
m
X e suponhamos que
1
x
1
+. . . +
m
x
m
= 0.
Ent ao,
0 = 0, x
i
) =
1
x
1
+. . . +
m
x
m
, x
i
) =
1
x
1
, x
i
) +. . . +
m
x
m
, x
i
) =
i
x
i
, x
i
).
Como x
i
, x
i
) = |x
i
|
2
,= 0, temos
i
= 0.
2
Proposicao 6.3.3 Seja v
1
, . . . , v
n
uma base ortonormal de um espa co euclidiano V . Ent ao
(i) u = u, v
1
)v
1
+. . . +u, v
n
)v
n
;
(ii) |u|
2
= [u, v
1
)[
2
+. . . +[u, v
n
)[
2
.
Demonstracao: Se u =
1
v
1
+. . . +
n
v
n
, ent ao u, v
i
) =
i
v
i
, v
i
) =
i
. Isso mostra (i).
Como
|u|
2
=
_
u, v
1
)v
1
+. . . +u, v
n
)v
n
, u, v
1
)v
1
+. . . +u, v
n
)v
n
_
=
n
i=1
u, v
i
)u, v
i
) =
n
i=1
[u, v
i
)[
2
,
(ii) tambem se verica.
2
Teorema 6.3.4 (Gram-Schmidt)
Dada uma base arbitraria u
1
, . . . , u
n
do espa co euclidiano V , existe uma base ortonormal
x
1
, . . . , x
n
de V formada por vetores x
i
que s ao combina c oes lineares dos vetores u
1
, . . . , u
i
,
para todo i = 1, . . . , n.
Demonstracao: Utilizaremos indu c ao na dimens ao do espa co, o caso n = 1 sendo trivial.
Suponhamos construdos os vetores x
1
, . . . , x
k1
. Consideramos ent ao
x
k
= c
_
u
k
k1
i=1
c
i
x
i
_
.
Para obtermos x
k
ortogonal a todos os x
i
j a escolhidos, basta denir c
i
= u
k
, x
i
) para i =
1, . . . , k 1. Escolhemos ent ao 1/c como a norma do vetor u
k
k1
i=1
c
i
x
i
. Note que c > 0.
2
Uma interpreta c ao do teorema de Gram-Schmidt em termos de decomposi c ao matricial ser a
dada na se c ao 8.4. O teorema de Gram-Schmidt garante a existencia de uma innidade de bases
ortonormais para espa cos euclidianos. Dada uma base ortonormal x
1
, . . . , x
n
, temos
x = a
1
x
1
+. . . +a
n
x
n
.
74 CAP
e V .
2
Veja o exerccio 2.
6.4. PROJEC
OES ORTOGONAIS 75
6.4 Projec oes ortogonais
Denicao 6.4.1 Seja Y V um subespa co do espa co com produto interno V . O complemento
ortogonal de Y , denotado Y
, e o conjunto
Y
= v V v, y) = 0 y Y .
Claramente Y
e um subespa co de V .
Teorema 6.4.2 Para qualquer subespa co Y V de um espa co euclidiano temos
V = Y Y
.
Alem disso, vale
(Y
= Y.
Demonstracao: Seja y Y Y
. Ent ao y, y) = 0 e, portanto, y = 0.
Seja y
1
, . . . , y
m
uma base ortonormal de Y e v V . Dena z = v v, y
1
)y
1
. . . v, y
m
)y
m
.
Ent ao z Y
e v = y +z, com y = v, y
1
) +. . . +v, y
m
)y
m
.
Temos, por (i), V = Y Y
e tambem V = Y
(Y
v = y + z,
a componente y e chamada proje c ao ortogonal de v em Y e denotada y =
Y
v.
Teorema 6.4.5 Sejam V um espa co euclidiano e Y V um subespa co. A aplica c ao
Y
: V
Y e linear e satisfaz
2
Y
=
y
. A aplica c ao
Y
e a projecao ortogonal de V em Y .
Demonstracao: Seja w W qualquer. O teorema 6.4.2 garante que w = y + z, com y Y
e z Y
Y
(x +w) = y + y =
Y
x +
Y
w.
Se v = y +z e a decomposi c ao de v, ent ao
Y
y = y, mostrando que
2
Y
=
Y
.
2
Teorema 6.4.6 Seja Y um subespa co do espa co euclidiano V e v V . Entre todos os elementos
y Y , aquele com menor dist ancia ate v e o elemento
Y
v.
Demonstracao: A decomposi c ao dada pelo teorema 6.4.2 garante que v y = (
Y
v y) + z,
com z Y
w) v V, w W.
Demonstracao: Para w W xo, a aplica c ao v Tv, w) pertence ao dual de V . O teorema
de representa c ao de Riesz garante ent ao que existe um unico y Y tal que
Tv, w) = v, y).
Dena T
: W V .
Sejam u, w W e K. Ent ao,
v, T
u) +v, T
w).
Da decorre a linearidade de T
. Se S
w), ent ao v, T
w S
w S
w, conclumos
que T
= S
.
2
Exemplo 6.5.2 Seja T : R
2
R
2
dada por T(x, y) = (ax +by, cx +dy). A representa c ao de T
com rela c ao ` a base can onica do R
2
e a matriz
T
E
=
_
a b
c d
_
.
Ent ao
T(x
1
, y
1
), (x
2
, y
2
)) = (ax
1
+by
1
)x
2
+ (cx
1
+dy
1
)y
2
= (ax
2
+cy
2
)x
1
+ (bx
2
+dy
2
)y
1
= (x
1
, y
1
), (ax
2
+cy
2
, bx
2
+cy
2
)),
de onde conclumos que
[T
]
E
=
_
a c
b d
_
.
Note que se T : C
2
C
2
e dada por T(x, y) = (ax + by, cx + dy) para a, b, c, d C, ent ao a
representa c ao de sua adjunta com rela c ao ` a base can onica seria a conjugada da transposta da
representa c ao de T com rela c ao ` a base can onica (verique!).
Seja B = x
1
, . . . , x
n
uma base ortonormal de V e T : V V uma aplica c ao linear.
E f acil
vericar que, se A = (a
ij
) e a representa c ao de T na base B, ent ao a
ij
= Tx
i
, x
j
). (Veja o
exerccio 17).
Se ( e uma base arbitr aria de V e T : V V uma aplica c ao linear, a rela c ao entre [T]
C
e
[T
]
C
e mais complicado do que no exemplo acima.
6.5. A ADJUNTA DE UMA APLICAC
AO LINEAR 77
Proposicao 6.5.3 Sejam V, W, U espa cos euclidianos e T, S : V W e R : W U aplica c oes
lineares e K. Ent ao vale:
(i) I
= I;
(ii) (T +S)
= T
+S
;
(iii) (T)
=
T
;
(iv) (RT)
= T
;
(v) (T
= T.
(vi) (T
1
)
= (T
)
1
Demonstracao: As provas dos resultados armados s ao muito semelhantes. Faremos apenas
algumas delas.
(ii) v, (S+T)
w)+v, T
w) = v, (S
+T
)w).
A unicidade da adjunta garante ent ao que (S +T)
= S
+T
.
(v) v, T
v) = T
w, v) = v, T
= (1mT)
;
(ii) ker T = (1mT
;
(iii) 1mT
= (ker T)
;
(iv) 1mT = (ker T
;
(v) posto de T= posto de T
.
Demonstracao: Tambem nesse caso as demonstra c oes s ao muito semelhantes. Temos:
(i) w ker T
w = 0 v, T
w) = 0 v V Tv, w) = 0 v V w 1mT.
Do mesmo modo se mostra (ii).
(iii) Basta passar (ii) ao complementar ortogonal: ((1mT
= (ker T)
. Similarmente
para (iv).
Finalmente, temos V = dimker T + posto de T = dim(1mT
+ posto de T. Decorre da
que dim1mT
= T.
Note que, se B e uma base ortonormal de V , [T
]
B
= ([T]
B
)
. Alem disso, se T
B
= A e auto-
adjunta, P
1
AP = B implica que B e auto-adjunta.
Uma matriz A e auto-adjunta se A
, My = y
| = |x|, |y
| = |y| e |x
| = |x y|, (6.2)
de acordo com o que acabamos de mostrar e a equa c ao (6.1). Elevando ao quadrado a ultima
igualdade vem
x
, y
) = x, y), (6.3)
mostrando que T preserva o produto interno. Desenvolvendo |z
|
2
em termos do produto
interno, obtemos
|z
|
2
= |z
|
2
+|y
|
2
+|x
|
2
2z
, x
) 2z
, y
) + 2x
, y
).
Do mesmo modo,
|z x y|
2
= |z|
2
+|y|
2
+|x|
2
2z, x) 2z, y) + 2x, y).
Decorre ent ao de (6.2) e (6.3) que
|z
|
2
= |z x y|
2
.
Escolhemos ent ao z = x + y. O lado direito da igualdade acima e, ent ao, nulo. Isso garante
que o lado esquerdo tambem e, o que implica que z
My)
e v alida para quaisquer x, y V , de modo que
x, M
My y) = 0.
80 CAP
My = y para todo
y. A recproca e obtida invertendo a ordem na prova dada acima.
Decorre imediatamente de M
.
Finalmente, no caso real, como M
= M
T
e det M
T
= det M, a igualdade M
M = I garante
que (det M)
2
= 1 e, portanto, det M = 1. No caso complexo, M
= M
T
. Decorre da que
det M
= det M
T
= det M. Assim, det Mdet M = 1, provando o armado.
2
O signicado geometrico de (iv) e que uma aplica c ao que preserva dist ancias tambem preserva
volumes. Uma aplica c ao linear M que satisfaz M
A = I).
6.8 Exerccios
1. Seja V um espa co euclidiano complexo. De um exemplo mostrando que a validade do
Teorema de Pit agoras n ao implica que x y.
2. Seja v
1
, . . . , v
n
uma base arbitr aria do espa co euclidiano real V . Dena g
ij
= v
i
, v
j
). Se
u =
1
v
1
+. . .
+
n
v
n
e v =
1
v
1
+. . . +
n
v
n
, mostre que
u, v) =
n
i,j=1
g
ij
j
. (6.4)
Mostre tambem que a matriz G = (g
ij
) e simetrica e positiva, isto e, se x = (x
1
, . . . , x
n
)
R
n
n
i,j=1
g
ij
x
i
x
j
= x
T
Gx > 0
para todo x ,= 0.
Reciprocamente, xada a base v
1
, . . . , v
n
do espa co real V e dada uma matriz simetrica
positiva G, mostre que (6.4) dene um produto interno em V .
3. Seja V um espa co euclidiano complexo e v
1
, . . . , v
n
m uma base desse espa co. Dena
g
ij
= v
i
, v
j
) e mostre a equa c ao 6.4. Verique ent ao que a matriz G e hermitiana (isto e,
G
T
= G), e
x
T
G x > 0 0 ,= x C
n
. (6.5)
Reciprocamente, se G e uma matriz hermitiana e a equa c ao (6.5) se verica, ent ao u, v) =
u
T
G v dene um produto interno.
6.8. EXERC
ICIOS 81
4. Seja C([a, b], K) o espa co das fun c oes contnuas f : [a, b] K. Mostre que
f, g) :=
_
b
a
f(t)g(t)dt
dene um produto interno nesse espa co.
5. Considere agora o espa co C([, ], R). Mostre que o conjunto
X := 1, sen t, cos t, sen 2t, cos 2t, . . .
e um conjunto ortogonal.
6. Considere ent ao o espa co vetorial C([1, 1], R). Seja P C([1, 1], R) o subespa co for-
mado por todas as fun c oes pares e 1 C([1, 1], R) o subespa co formado por todas as
fun c oes mpares. Mostre que 1 = P
.
7. Seja R[t] o espa co vetorial de todos os polin omios com coecientes em R. Verique que
X = 1, t, t
2
, . . .
e uma base desse espa co. Encontre os 4 primeiros termos da base obtida ao se aplicar o
processo de ortogonaliza c ao de Gram-Schmidt ` a base X.
8. Seja V um espa co com produto interno. Mostre as identidades de polarizacao:
(i) Se V e um espa co real, ent ao
u, v) =
1
4
|u +v|
2
1
4
|u v|
2
.
(ii) Se V e um espa co complexo, ent ao
u, v) =
1
4
|u +v|
2
1
4
|u v|
2
+
i
4
|u +iv|
2
i
4
|u iv|
2
.
9. Prove o corol ario 6.3.6. O que acontece se V for um espa co complexo?
10. Seja A = (a
ij
) uma matriz m n real. Considere o sistema Ax = b, em que b R
m
. O
sistema
A
T
y = 0
e chamado sistema homogeneo transposto. Mostre que o sistema Ax = b possui solu c ao
se, e somente se, b for ortogonal a qualquer solu c ao do sistema homogeneo transposto. (Isso
implica que podemos garantir a existencia de solu c oes para o sistema Ax = b sem necessitar
exibir uma de suas solu c oes; basta vericar se b e ortogonal ` as solu c oes de A
T
y = 0).
11. Seja T : V V uma aplica c ao linear. Mostre que se T
T = 0 ent ao T = 0.
12. Seja V um espa co euclidiano complexo. Mostre que T : V V e auto-adjunto se, e
somente se, Tv, v) R para todo v V .
82 CAP
=
W
1
W
2
e (W
1
W
2
)
= W
1
+W
2
15. Seja w
1
, . . . , w
m
uma base ortonormal do subespa co W do espa co com produto interno V .
Mostre que, para todo v V , vale a desigualdade de Bessel
|v|
2
j=1
[v, w
j
)[
2
.
16. Sejam B = v
1
, . . . , v
n
e ( = w
1
, . . . , w
m
bases ortonormais dos espa cos euclidianos V
e W, respectivamente. Seja T : V W uma aplica c ao linear. Mostre que
T
C
B
= A = (a
ij
), em que a
ij
= T(v
j
), w
i
), para i = 1, . . . , m e j = 1, . . . , n.
Conclua que (T
)
B
C
= B = (b
ij
), em que b
ij
= a
ji
, generalizando assim o exemplo 7.6.
17. Sejam V, W espa cos euclidianos. Dadas as aplica c oes S, T L(V, W), dena
S, T) = tr (S
T).
Mostre que est a denido assim um produto interno em L(V, W). Se A = (a
ij
e B = (b
ij
s ao, respectivamente, as matrizes de S e T com rela c ao a bases ortonormais de V e W,
mostre que
A, B) =
i,j
a
ij
b
ij
.
18. Um isomorsmo dos espa cos com produto interno V e W e uma bije c ao linear T : V W
que satisfaz, adicionalmente, Tu, Tv) = u, v), para todos u, v V (isto e, T preserva o
produto interno). Se dimV = dimW, mostre que as seguintes arma c oes s ao equivalentes:
(i) T preserva o produto interno;
(ii) T e um isomorsmo (de espa cos com produto interno);
(iii) T leva toda base ortonormal de V em base ortonormal de W;
(iv) T leva alguma base ortonormal de V em uma base ortonormal de W.
19. Sejam V e W espa cos com produto interno. Mostre que T : V W preserva produto
interno se, e somente se, |Tv| = |v| para todo v V (T preserva norma).
20. Mostre que M e uma matriz unit aria (respectivamente, ortogonal) se, e somente se, suas
colunas formam uma base ortonormal de K
n
.
21. Seja T : V V um operador auto-adjunto no espa co com produto interno V . Mostre que
(i) |v +iTv| = |v iTv| para todo v V ;
6.8. EXERC
ICIOS 83
(ii) v +iTv = u +iTu se, e somente se, v = u;
(iii) ker(I +iT) = 0;
(iv) ker(I iT) = 0.
Mostre que se dimV = n, ent ao
U := (I iT)(i +iT)
1
e um operador unit ario, chamado transformada de Cayley de T.
Captulo 7
Teoria Espectral Euclidiana
7.1 Formas bilineares e quadraticas
Denicao 7.1.1 Seja V um espa co vetorial. Uma forma bilinear
1
e uma fun c ao B : V V
K tal que, para quaisquer K e u
1
, u
2
, v
1
, v
2
V ,
(i) B(u
1
+u
2
, v) = B(u
1
, v) +B(u
2
, v);
(ii) B(u, v
1
+v
2
) = B(u, v
1
) +B(u, v
2
).
Uma forma bilinear e simetrica se B(u, v) = B(v, u).
Exemplo 7.1.2 Se V e um espa co euclidiano real, ent ao , ) e uma forma bilinear simetrica.
Seja A M
nn
(K) uma matriz. Denindo B : K
n
K
n
K por
B(u, v) = u
T
Av = (u
1
u
2
. . . u
n
)
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
,
obtemos uma forma bilinear.
Denotaremos L
2
(V ) o conjunto das formas bilineares denidas em V . L
2
(V ) e um espa co vetorial
com as deni c oes usuais de soma de fun c oes e multiplica c ao por escalar.
Vamos mostrar que todas as formas bilineares denidas em espa cos euclidianos s ao como no
exemplo 7.1.2.
Proposicao 7.1.3 Seja B = x
1
, . . . , x
n
uma base do espa co vetorial V sobre o corpo K.
Existe um isomorsmo entre L
2
(V ) e M
nn
(K) tal que B(u, v) = [u]
T
B
A[v]
B
, em que [u]
B
e a
representa c ao de u na base B. A matriz A e chamada matriz de B na base B.
1
O termo bilinear e um caso particular da denomina c ao utilizada na deni c ao 4.2.1.
84
7.1. FORMAS BILINEARES E QUADR
ATICAS 85
Demonstracao: Seja B = x
1
, . . . , x
n
uma base de V , u = u
1
x
1
+ . . . + u
n
x
n
e v = v
1
x
1
+
. . . +v
n
x
n
. Ent ao
B(u, v) = B(u
1
x
1
+. . . +u
n
x
n
, v
1
x
1
+. . . +v
n
x
n
)
= u
1
v
1
B(x
1
, x
1
) +u
1
v
2
B(x
1
, x
2
) +. . . +u
1
v
n
B(x
1
, x
n
) +. . .
+u
n
v
1
B(x
n
, x
1
) +. . . +u
n
v
n
B(x
n
, x
n
)
=
n
i,j=1
u
i
v
j
B(x
i
, x
j
). (7.1)
Isso mostra que B ca completamente determinada pelos n
2
valores B(x
i
, x
j
). Denimos ent ao
a matriz A = (a
ij
) por a
ij
= B(x
i
, x
j
). Ent ao
B(u, v) = (u
1
. . . u
n
)
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= [u]
T
B
A[v]
B
. (7.2)
Assim, estabelecemos uma bije c ao entre L
2
(V ) e M
nn
(K), associando a matriz A ` a forma
B. Temos que (B
1
+B
2
) e uma matriz C = (c
ij
) tal que c
ij
= (B
1
+B
2
)(x
i
, x
j
). Mas ent ao
c
ij
= B
1
(x
1
, x
j
) +B
2
(x
i
, x
j
) = A
1
+A
2
, em que A
1
= (B
1
) e A
2
= (B
2
), o que mostra que
e linear.
2
Observacao 7.1.4 Sejam B uma base do espa co euclidiano real V , e , ) o produto interno
can onico do R
n
. Denotando o vetor [w]
B
R
n
simplesmente por w, temos
u
T
Av = u, Av),
como se verica facilmente (veja tambem o exerccio 2 do captulo 6).
Observacao 7.1.5 Pode-se mostrar que a derivada segunda de uma aplica c ao f : R
n
R e
dada por uma forma bilinear f
(x)(h, k) = h
T
H
x
k,
em que H
x
e a matriz (que varia com o ponto x) hessiana de f. A forma quadr atica q aparece
no desenvolvimento de Taylor de f:
f(x +h) = f(x) +
1
1!
f
(x).h +
1
2!
q
x
(h) +r(h),
em que
f
(x).h = f(x), h)
e o produto interno do gradiente de f em x por h,
q
x
(h) = f
(x).(h, h) = h
T
H
x
h
e r(h) denota o resto de Taylor.
86 CAP
i=1
a
ij
v
i
v
j
= v, Av). (7.3)
Quando trabalhamos com formas quadr aticas, podemos supor que a matriz A seja simetrica:
e claro que (A +A
= A +A
; o operador
A +A
2
e chamada parte auto-adjunta do matriz A. Temos que
q(y) = y, Ay) =
_
y,
A +A
2
y
_
.
7.2 Diagonalizacao de formas quadraticas
Dada uma forma quadr atica (7.3) podemos, com uma mudan ca de coordenadas, obter que ela
seja representada por uma matriz diagonal.
Para mostrar isso, introduziremos novas coordenadas:
Lv = z
em que L e uma matriz mudan ca de coordenadas.
Teorema 7.2.1 (Sylvester) Dada uma forma quadratica (7.3), e possvel fazer uma mudan ca
de coordenadas Lv = z de modo que, na nova variavel z, a forma quadratica q e diagonal, isto
e,
q(L
1
z) =
n
i=1
d
i
z
2
i
. (7.4)
Existem muitas mudan cas de variaveis que diagonalizam q. Entretanto, o n umero de termos
positivos, negativos e nulos entre os coecientes d
i
e sempre o mesmo (Lei da Inercia).
Demonstracao: Seja q(v) = v, Av), a matriz A = (a
ij
) sendo simetrica. Se todos os termos
a
ij
s ao nulos, q j a e diagonal. Suponhamos que todos os termos diagonais de q sejam nulos, mas
que exista um termo a
ij
diferente de zero, digamos a
12
= a
21
,= 0. Os termos de q envolvendo v
1
e v
2
s ao
a
12
v
1
v
2
+a
21
v
2
v
1
+
_
n
j=3
a
1j
v
1
v
j
_
+
_
n
j=3
a
j1
v
j
v
1
_
+
_
n
j=3
a
2j
v
2
v
j
_
+
_
n
j=3
a
j2
v
j
v
2
_
= 2a
12
v
1
v
2
+
_
n
j=3
a
1j
2v
1
v
j
_
+
_
n
j=3
a
j2
2v
2
v
j
_
7.2. DIAGONALIZAC
AO DE FORMAS QUADR
ATICAS 87
Denimos ent ao w
1
= v
1
+v
2
e w
2
= v
1
v
2
e w
k
= v
k
para k = 3, . . . , n. (Assim, 2v
1
= w
1
+w
2
e 2v
2
= w
1
w
2
). Obtemos
a
12
2
(w
2
1
w
2
2
) +. . . ,
mostrando assim que podemos supor, sem perda de generalidade, que q possua um termo diagonal
diferente de zero.
Suponhamos ent ao que a
11
,= 0. Agrupamos ent ao os termos contendo v
1
:
a
11
v
2
1
+ 2
n
j=2
a
1j
v
1
v
j
.
Logo, podemos escrever esses termos como
a
11
_
v
1
+
1
a
11
n
j=2
a
1j
v
j
_
2
1
a
11
_
n
j=2
a
1j
v
j
_
2
Denimos ent ao a mudan ca de vari avel linear
z
1
= v
1
+
1
a
11
n
j=2
a
1j
v
j
.
Podemos ent ao escrever
q(v) = a
11
z
2
1
+q
2
(v),
em que q
2
e uma forma quadr atica que depende apenas de v
2
, . . . , v
n
. Tendo diagonalizado o
termo em z
1
, repetimos ent ao o processo com a forma quadr atica q
2
.
Vamos agora mostrar a Lei da Inercia. Para isso, denotamos p
+
, p
e p
0
o n umero de termos
positivos, negativos e nulos em (7.4).
Dizemos que q e positiva num subespa co Y V se q(v) > 0 para todo 0 ,= v Y .
Armacao: A dimens ao do maior subespa co de V no qual q e positiva e p
+
:
p
+
= max dimY, q positiva em Y.
Similarmente,
p
, existe z ,= 0 tal que (z) = 0. Mas isso implica que as primeiras p componentes
de z s ao nulas. Mas ent ao, de acordo com (7.5), q(z) 0, contradi c ao. Analogamente se mostra
a outra igualdade.
88 CAP
e p
0
podem ser denidos em termos de q,
independente das coordenadas que colocam q na forma diagonal. Uma vez que p
+
+p
+p
0
= n,
isso completa a demonstra c ao.
2
Teorema 7.2.2 Dada uma matriz real simetrica, existe uma matriz invertvel real M tal que
M
AM = M
T
AM = D, (7.6)
sendo D uma matriz diagonal.
Demonstracao: Considerada a mudan ca de vari aveis Lv = z que diagonaliza a forma quadr ati-
ca q(v) = v, Av), seja M = L
1
. Ent ao v = Mz e
q(v) = v, Av) = Mz, AMz) = z, M
AMz).
Claramente q tem a forma (7.4) se, e somente se, M
M = I.
Um dos resultados mais importantes da Matem atica garante que, dada uma forma quadr atica
q, e possvel diagonaliz a-la por meio de uma mudan ca isometrica de coordenadas. Em outras
palavras, que tanto (7.6) como M
M = I sejam satisfeitas.
Teorema 7.3.1 Seja V um espa co euclidiano complexo e H : V V uma aplica c ao auto-
adjunta. Ent ao os autovetores de H est ao associados a autovalores reais e formam uma base
ortonormal de V .
Demonstracao: De acordo com o Teorema da Decomposi c ao Prim aria (especializado para o
caso K = C), os autovetores generalizados de H geram o espa co V . Para mostrarmos o armado,
precisamos mostrar que uma aplica c ao auto-adjunta satisfaz ` as seguintes propriedades adicionais:
(a) H possui apenas autovalores reais;
(b) H possui uma base formada por (autenticos) autovetores;
(c) Autovetores correspondentes a autovalores distintos s ao ortogonais.
7.3. APLICAC
OES AUTO-ADJUNTAS 89
De fato, uma vez mostrado (b) (c), podemos aplicar o processo de ortogonaliza c ao de Gram-
Schmidt e obter bases ortonormais para os subespa cos invariantes associados a cada autovalor.
A arma c ao (c) ent ao implica que teremos uma base ortonormal formada por autovalores de T.
(Assim, como conseq uencia do teorema 5.1.4, H ser a representada nessa base por uma matriz
diagonal).
(a) Seja v um autovetor associado ao autovalor de H. Ent ao
v, v) = v, v) = Hv, v) = v, Hv) = v, v) = v, v),
de modo que ( )v, v) = 0. Isso mostra que R, pois = .
(b) Suponhamos que v seja um autovetor generalizado de H associado ao autovalor . Ent ao
(H I)
d
v = 0 para algum d N. Queremos mostrar que (H I)v = 0. Suponhamos
inicialmente que d = 2. Ent ao, tomando o produto interno com v, obtemos
0 = (H I)
2
v, v) = (H I)v, (H I)v) = |(H I)v|
2
.
Mas isso implica que (H I)v = 0, como desejado.
Suponhamos agora que d > 2. Reescrevemos (HI)
d
v = 0 como (HI)
2
(HI)
d2
v = 0.
Denindo w = (H I)
d2
v, podemos concluir que (H I)w = 0, ou seja, (H I)
d1
v = 0.
O resultado pode ent ao ser mostrado por indu c ao.
(c) Sejam v, w autovetores associados aos autovalores distintos , R. Ent ao
v, w) = Hv, w) = v, Hw) = v, w) = v, w),
de modo que
( )v, w) = 0.
Como ,= , isso implica v w.
2
O pr oximo resultado n ao passa de uma reformula c ao do teorema 7.3.1 em termos de matrizes.
Teorema 7.3.2 Seja H uma matriz complexa auto-adjunta. Ent ao existem uma matriz unitaria
U e uma matriz diagonal D tais que
U
HU = D.
Demonstracao: Decorre imediatamente dos exerccios 3 do captulo 5 e 20 do captulo 6
2
A vers ao para matrizes reais e a seguinte:
Teorema 7.3.3 Seja H uma matriz real auto-adjunta (isto e, simetrica). Ent ao existem uma
matriz ortogonal P e uma matriz diagonal D tais que
P
T
HP = D.
90 CAP
i=1
z
2
i
= |z|
2
. (7.8)
Aplicando H em (7.7), obtemos
Hv =
1
z
1
v
1
+. . . +
n
z
n
v
n
, (7.9)
em que
i
e o autovalor associado ao autovetor v
i
.
Substituindo (7.7) e (7.9) em q(v) = v, Hv), vemos que
q(v) =
1
z
2
1
+. . . +
n
z
2
n
.
Essa express ao mostra que a nova vari avel z diagonaliza a forma quadr atica q. Combinando com
o teorema 7.2.2, vemos que
P
HP = D.
A equa c ao (7.8) mostra que P e uma isometria e, portanto, P
= P
T
= P
1
.
Vamos agora reescrever o teorema 7.3.1 em termos de proje c oes.
Teorema 7.3.5 (Resolucao Espectral dos operadores auto-adjuntos)
Sejam V um espa co euclidiano e H : V V uma aplica c ao linear auto-adjunta, com auto-
valores distintos
1
, . . . ,
k
. Seja E
j
o autoespa co associado ao autovalor
j
, para 1 j k.
Se
j
: V E
j
denota a proje c ao ortogonal sobre E
j
, ent ao
I =
k
j=1
j
.
e
H =
k
j=1
j
.
As proje c oes ortogonais
j
satisfazem
j
= 0, se i ,= j,
2
j
=
j
e
j
=
j
.
7.3. APLICAC
OES AUTO-ADJUNTAS 91
Demonstracao: De acordo com o teorema 7.3.1 (ou teorema 7.3.3), vale
V = E
1
E
k
,
em que os espa cos E
j
s ao ortogonais dois a dois. Em outras palavras,
v = v
1
+. . . +v
k
, v
j
E
j
. (7.10)
Denimos ent ao
j
(v) = v
j
. Claramente
j
e uma aplica c ao linear, satisfazendo
2
j
=
j
e
j
= 0 se i ,= j. A express ao (7.10) pode ser escrita como
I =
k
j=1
j
.
Aplicando o operador H em (7.10), como os elementos de E
j
s ao autovetores associados ao
autovalor
j
, obtemos
Hv = Hv
1
+. . . +Hv
k
=
1
v
1
+. . . +
k
v
k
=
k
j=1
j
(v).
Falta apenas mostrar que as proje c oes
j
s ao auto-adjuntas. Se w = w
1
+. . . +w
k
com w
j
E
j
,
ent ao
j
v, w) =
_
v
j
,
k
i=1
w
i
_
=
k
i=1
v
j
, w
i
) = v
j
, w
j
),
devido ` a ortogonalidade entre os espa cos E
j
. Analogamente,
v,
j
w) = v
j
, w
j
).
Isto mostra que
j
v, w) = v,
j
w).
2
O teorema 7.3.5 e especialmente util para se denir fun c oes de aplica c oes lineares auto-
adjuntas. Por exemplo, decorre imediatamente daquele teorema que
H
2
=
k
j=1
2
j
j
e, por indu c ao,
H
m
=
k
j=1
m
j
j
.
Assim, para qualquer polin omio q K[t], temos
p(H) =
k
j=1
q(
j
)
j
.
92 CAP
j=1
f(
j
)
j
.
Essa deni c ao e conhecida como o calculo funcional da aplica c ao auto-adjunta H. Por exemplo,
e
Ht
=
k
j=1
e
j
.
Uma outra conseq uencia importante do teorema 7.3.5 diz respeito a aplica c oes auto-adjuntas
que comutam:
Teorema 7.3.6 Sejam H, K : V V aplica c oes auto-adjuntas tais que
HK = KH.
Ent ao H e K podem ser simultaneamente diagonalizadas, isto e, existe uma base ortogonal de
V formada por vetores que s ao, ao mesmo tempo, autovetores de K e H.
Demonstracao: (Essa demonstra c ao deve ser comparada com aquela da proposi c ao 26 do
captulo de teoria espectral). Notamos inicialmente que H
j
I comuta com K. Uma vez que
K(H
j
I)x = (H
j
I)Kx,
vemos que se x ker(H
j
I), ent ao Kx ker(H
j
I).
Consideremos ent ao a aplica c ao auto-adjunta K : ker(H
j
I) ker(H
j
I) e aplicamos
o teorema 7.3.1 (ou teorema 7.3.3). Obtemos ent ao uma base de ker(H
j
I) formada por
autovetores de K. Como todo elemento de ker(H
j
I) e um autovetor de H, obtivemos assim
uma base ortogonal desse espa co formada por autovetores tanto de K quanto de H. Aplicamos
ent ao esse processo a cada autoespa co ker(H
j
I).
2
Note que o resultado anterior pode ser generalizado para qualquer n umero de aplica c oes
auto-adjuntas que comutam duas a duas.
7.4 Aplicac oes normais
Denicao 7.4.1 Seja V um espa co euclidiano. Uma aplica c ao linear T : V V e anti-auto-
adjunta se
T
= T.
No caso real, diz-se tambem que T e anti-simetrica.
De acordo com a proposi c ao 6.5.3, temos
(iT)
= iT
= iA,
mostrando que iT e uma aplica c ao auto-adjunta. Decorre imediatamente do teorema 7.3.1:
7.4. APLICAC
OES NORMAIS 93
Teorema 7.4.2 Seja T : V V uma aplica c ao anti-auto-adjunta no espa co euclidiano com-
plexo V . Ent ao
(i) Os autovalores de T s ao imaginarios puros;
(ii) Existe uma base ortonormal de V consistindo de autovetores de T.
Demonstracao: Considere uma base ortogonal v
1
, . . . , v
j
para iA. Ent ao (iT)v
j
=
j
v
j
, com
j
R. Logo
Tv
j
= (i)v
j
,
mostrando que T tem os mesmos autovetores de iT, associados aos autovalores imagin arios puros
(i
j
).
2
Introduzimos agora uma classe de aplica c oes lineares que engloba as aplica c oes auto-adjuntas,
anti-auto-adjuntas e unit arias (ou ortogonais) como casos particulares.
Denicao 7.4.3 Seja V um espa co euclidiano. A aplica c ao linear N : V V e normal se ela
comuta com sua adjunta:
NN
= N
N.
Teorema 7.4.4 Uma aplica c ao linear normal N : V V no espa co euclidiano complexo V
possui uma base ortonormal consistindo de autovetores.
Demonstracao: Uma vez que N e N
2
e A :=
N N
2
.
As aplica c oes H e N s ao auto-adjunta e anti-auto-adjunta, respectivamente. Aplicamos ent ao o
teorema 7.3.5 ` as aplica c oes H e iA: existe uma base ortogonal formada por autovetores tanto
de H quanto de iA e, assim, por autovetores tanto de H quanto de A. Como
N = H +A,
vemos que essa base e formada por autovetores de N. Note que, segundo os teoremas 7.3.1 e
7.4.2, se Hv = av (com a R) e Av = (bi)v (com b R), ent ao Nv = Hv +Av = (a +bi)v.
2
O exerccio 13 pede que se mostre a recproca do resultado acima. Assim, existe uma base
ortonormal B na qual T
B
e diagonal se, e somente se, T e normal.
Teorema 7.4.5 Uma aplica c ao linear normal N : V V no espa co euclidiano real V possui
uma base ortonormal B na qual N e uma matriz diagonal em blocos, com blocos diagonais
A
1
, . . . , A
m
, em que
A
j
=
j
R ou A
j
=
_
a
j
b
j
b
j
a
j
_
,
o ultimo caso ocorrendo quando
j
= a
j
+ib
j
e um autovalor da complexica c ao N
C
: V
C
V
C
.
94 CAP
C
(u +iv) = N
u +iN
v. Assim,
N
C
N
C
(u +iv) = N
C
(N
u +iN
v) = NN
u +iNN
v = N
Nu +iN
Nv = N
C
N
C
(u +iv).
Se R e um autovalor de N, ent ao e um autovalor de N
C
. Considere o polin omio mnimo
m
N
(t) de N:
m
N
(t) = (t
1
) . . . (t
k
)(t
2
2a
k+1
t +a
2
k+1
+b
2
k+1
) . . . (t
2
2a
m
t +a
2
m
+b
2
m
),
em que os fatores (t
2
2a
j
t +a
2
j
+b
2
j
) surgem das razes complexas conjugadas
j
= a
j
ib
j
.
Os termos lineares do polin omio mnimo s ao diagonaliz aveis, como sabemos (veja o teorema
5.5.9).
Consideremos um fator (t
2
2at + a
2
+ b
2
) de segundo grau do polin omio mnimo. Seja
W = ker(N
2
2aN + a
2
+ b
2
). Denotando S = N[
W
, temos S : W W (pelo Teorema da
Decomposi c ao Prim aria). Consideremos ent ao a complexica c ao W
C
de W. De acordo com o
Teorema da Decomposi c ao Prim aria temos
W
C
= ker(S
C
I) ker(S
C
I)
= W
.
Seja ( = u
1
+iv
1
, . . . , u
+iv
.
Como
T(u
k
) +iTv
k
= T
C
(u
k
+iv
k
) = (u
k
+iv
k
) = (a +bi)(u
k
+iv
k
) = (au
k
bv
k
) +i(bu
k
+av
k
),
vemos que
Tu
k
= au
k
bv
k
e Tv
k
= bu
k
+av
k
.
Armamos que u
1
, v
1
, . . . , u
, v
U = I, U tem inversa U
1
= U
=
A (no caso real, anti-simetrica) e normal se A
A = AA
.
96 CAP
T : V V , que e
auto-adjunta e n ao-negativa. De fato,
(T
T)
= T
(T
= T
T e T
w
i
=
i
v
i
para i = 1, . . . , r
T
w
i
= 0 para i = r + 1, . . . , m.
Denotando D
1
a matriz n n
D
1
=
_
_
_
_
_
_
_
_
_
_
_
2
.
.
.
r
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
,
a representa c ao [T]
C
B
e, portanto, a matriz mn
[T]
C
B
=
_
D
1
0
0 0
_
.
7.6. EXERC
ICIOS 97
Demonstracao: O exemplo 7.5.2 mostra que T
T). De fato,
Tv = 0 Tv, Tu) = 0 u V T
Tv, u) u V T
Tv = 0.
Isso mostra que posto(T
T) = n dimker T
T = n dimker T = r.
Uma vez que T
T(v
i
) =
2
i
v
i
, i = 1, . . . , r e T
T(v
i
) = 0, i = r + 1, . . . , n.
(Note que os autovalores do operador T
i
T(v
i
).
Ent ao Tv
i
=
i
w
i
. (Note que, se i r + 1, . . . , n, como 0 = T
Tv
i
, v
i
) = Tv
i
, Tv
i
), temos
Tv
i
= 0. Assim, os vetores v
r+1
, . . . , v
n
formam uma base ortonormal de ker T = ker T
T, se
esse subespa co e n ao-vazio).
Mostraremos que w
1
, . . . , w
r
e base ortonormal de 1m T. Claramente esses vetores per-
tencem ` a imagem de T e, se i, j 1, . . . , r, ent ao
w
i
, w
j
) =
1
j
Tv
i
, Tv
j
) =
1
j
T
Tv
i
, v
j
) =
1
2
i
v
i
, v
j
) =
i
j
v
i
, v
j
) =
i
ij
.
Como dim1m T = r, provamos o armado.
Alem disso,
T
w
i
= T
_
1
i
Tv
i
_
=
1
i
T
Tv
i
=
i
v
i
.
Seja w
r+1
, . . . , w
m
uma base ortonormal de ker T
. Ent ao T
w
i
= 0 para i = r + 1, . . . , n.
Uma vez que ker T
= (1m T)
, os vetores w
1
, . . . , w
m
formam uma base ortonormal de W,
de acordo com o teorema 6.4.2. Isso completa a prova.
2
Usualmente a base B e ordenada de modo que
1
2
. . .
r
. Veja um exemplo na
se c ao 8.5.
7.6 Exerccios
1. Sejam B = x
1
, . . . , x
n
e ( = y
1
, . . . , y
n
duas bases no espa co vetorial V . Se a matriz
de B na base B e A, mostre que a matriz de B na base ( e P
T
AP, em que P e a
matriz mudan ca da base B para a base (. Isso signica que formas bilineares mudam suas
representa c oes em bases de maneira diferente da mudan ca de base de matrizes!
2. Seja V um espa co euclidiano real. Mostre que, dada uma forma quadr atica q : V R,
ent ao
B(u, v) =
1
2
[q(u +v) q(u) q(v)] (7.13)
98 CAP
AM = D,
sendo D uma matriz diagonal.
(Note que, se V e um espa co vetorial real, toda forma sesquilinear e bilinear e uma
forma hermitiana e simetrica. Em particular, os resultados desse exerccio s ao v alidos
para espa cos vetoriais reais).
7.6. EXERC
ICIOS 99
5. Seja H : V V uma matriz auto-adjunta denida no espa co complexo V . Tendo em
vista o exerccio 4, verique que o teorema 7.3.3 pode ser generalizado: existe uma matriz
unit aria M tal que M
T possui inversa;
(b) Mostre que 1mT
= 1m(T
T);
(c) Mostre que se T e sobrejetiva, ent ao TT
possui inversa.
11. Sejam S, T : V V aplica c oes lineares, S sendo normal. Suponha que ST = TS. Mostre
que S e T s ao simultaneamente diagonaliz aveis por uma (mesma) matriz mudan ca de base
ortonormal.
12. Seja T : V V uma aplica c ao linear no espa co euclidiano V . Mostre que
|T| = sup
x=1=y
[Tx, y)[.
Conclua ent ao que |T| = |T
|.
13. Mostre que se T : V V possui uma base ortonormal v
1
, . . . , v
n
constituda de autovetores,
ent ao T e normal.
100 CAP
T e os de TT
?
Captulo 8
Decomposic oes Matriciais
Nesse captulo estudaremos algumas decomposi c oes matriciais. Os resultados que apresentare-
mos s ao bastante uteis na
Algebra Linear Numerica.
8.1 O metodo de Gauss
A primeira sub-se c ao reve a teoria b asica de sistemas lineares.
8.1.1 Sistemas lineares e escalonamento
Para 1 i m e 1 j n, suponhamos conhecidos os valores a
ij
e os valores b
j
. Um sistema
linear em m equa c oes e n inc ognitas procura a solu c ao x
1
, . . . , x
n
que satisfaz
a
11
x
1
+ . . . + a
1n
x
n
= b
1
a
21
x
1
+ . . . + a
2n
x
n
= b
2
.
.
. =
.
.
.
a
m1
x
1
+ . . . + a
mn
x
n
= b
m
.
Em termos de matrizes, esse sistema pode ser escrito como
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
,
ou,
Ax = b
Mais sinteticamente ainda, podemos representar esse sistema por uma unica matriz, chamada
matriz aumentada do sistema:
/ = (A [ b) =
_
_
_
_
_
_
a
11
a
12
a
1n
b
1
a
21
a
22
a
2n
b
2
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
b
m
_
_
_
_
_
_
101
102 CAP
ITULO 8. DECOMPOSIC
OES MATRICIAIS
E f acil vericar que as seguintes opera c oes sobre as linhas da matriz / n ao alteram o conjunto
de solu c oes
1
do sistema Ax = b:
(i) Transpor as linhas i e j;
(ii) Multiplicar a linha i por um escalar n ao-nulo;
(iii) Substituir a linha j por sua soma com um m ultiplo da linha i.
As opera c oes (i) (ii) (iii) s ao as operac oes elementares sobre as linhas da matriz /.
Uma sucessiva aplica c ao de opera c oes elementares sobre a matriz / pode fazer com que essa
matriz se transforme numa matriz com as seguintes propriedades:
(i) se o primeiro elemento n ao-nulo da linha i (chamado piv o da linha i) ocorre na coluna j,
ent ao o primeiro elemento da linha i + ocorre numa coluna k > j, para todo N
;
(ii) o piv o de cada linha e igual a 1.
De fato, se existe algum elemento n ao nulo na primeira coluna de /, ao aplicarmos as opera c oes
elementares (i) e (ii) obtemos uma nova matriz /
= (a
ij
), com a
11
= 1. A aplica c ao da opera c ao
elementar (iii) torna possvel transformar em zero qualquer outro elemento n ao-nulo da primeira
coluna. O resultado ent ao segue por indu c ao sobre o n umero de linhas de /. Essa forma da
matriz / e chamada forma escalonada e a sucess ao de opera c oes elementares utilizadas e um
escalonamento da matriz A.
Suponhamos agora que a matriz / esteja na forma escalonada. Se o piv o for o unico
elemento n ao-nulo de cada coluna, dizemos que a matriz est a na forma escalonada reduzida
por linhas. Aplicando as opera c oes elementares (i) e (iii), podemos fazer com que uma matriz
na forma escalonada atinja sua forma reduzida por linhas. De fato, consideremos o piv o da
segunda linha de /. A aplica c ao da opera c ao elementar (iii) torna possvel zerar o elemento
que est a acima do piv o, mantendo ainda a matriz na forma escalonada. A demonstra c ao agora
segue por indu c ao.
Dois sistemas Ax = b e A
x = b
0
_
,
em que I e matriz identidade n n e 0 a matriz nula de ordem (mn) n. Assim, o sistema
Ax = b e equivalente ao sistema x = c
1
c
2
.
.
.
c
i
c
i+2
.
.
.
c
n
_
_
_
_
_
_
_
_
_
_
_
.
coluna i + 1
Assim, sua solu c ao e
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
i
x
i+1
x
i+2
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
c
1
c
2
.
.
.
c
i
0
c
i+2
.
.
.
c
n1
_
_
_
_
_
_
_
_
_
_
_
_
_
x
i+1
_
_
_
_
_
_
_
_
_
_
_
_
_
2
.
.
.
i
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
=: d x
i+1
. (8.2)
Em outras palavras, a perda de um piv o gerou um grau de liberdade para o sistema (o valor de
x
i+1
) e, com isso, uma innidade de solu c oes, dadas como a soma dos vetores na express ao (8.2).
Essa express ao mostra, em particular, a unicidade da forma escalonada reduzida por linhas de
qualquer sistema que perca um piv o: se um dos valores
j
for diferente, o vetor ser a diferente.
Por indu c ao, se o sistema perder k piv os, a sua solu c ao ser a a soma de um vetor xo com uma
combina c ao linear arbitr aria de k vetores (tendo, portanto, k graus de liberdade). Essa express ao
acarreta, em particular, a unicidade da forma escalonada reduzida por linhas de um sistema que
perde k piv os.
Quer dizer, dois sistemas lineares s ao equivalentes ou se ambos n ao possuem solu c oes ou
se, eliminadas as linhas nulas existentes, eles possuem a mesma forma escalonada reduzida por
linhas.
104 CAP
ITULO 8. DECOMPOSIC
OES MATRICIAIS
8.1.2 Matrizes elementares e a decomposicao LU
Consideremos agora uma matriz mn A. Vamos mostrar que os resultados da subse c ao anterior
podem ser interpretados como uma decomposi c ao da matriz A.
Uma matriz e elementar se ela pode ser obtida da matriz identidade m m atraves da
aplica c ao de uma opera c ao elementar.
Proposicao 8.1.1 Seja e um opera c ao elementar sobre (as linhas da) a matriz A (de ordem
mn) e E a matriz elementar e(I), sendo I a matriz identidade mm.
Demonstracao: A demonstra c ao deve ser feita com rela c ao a cada uma das opera c oes ele-
mentares. Faremos isso apenas no caso da opera c ao elementar (iii): a linha j ser a substituda
pela soma da linha j com c vezes a linha i.
A matriz E, nesse caso, e dada por
E =
_
_
_
_
_
_
_
1 0 . . . 0
.
.
.
.
.
.
0 . . . c . . . 1 . . . 0
.
.
.
.
.
.
0 0 . . . 1
_
_
_
_
_
_
_
linha j
coluna j
Ent ao
EA =
_
_
_
_
_
_
_
1 0 . . . 0
.
.
.
.
.
.
0 . . . c . . . 1 . . . 0
.
.
.
.
.
.
0 0 . . . 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
.
.
.
.
.
.
a
j1
a
j2
. . . a
jn
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
.
.
.
.
.
.
a
j1
+ca
i1
a
j2
+ca
i2
. . . a
jn
+ca
in
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
_
,
que e justamente e(A).
2
Suponhamos que E seja uma matriz elementar obtida por meio da opera c ao elementar (ii)
ou (iii).
E f acil vericar que tanto a matriz E como sua inversa (que existe!) s ao matrizes
triangulares inferiores.
Tendo em vista a proposi c ao 8.1.1, dada uma matriz mn A, obtemos a forma escalonada
da matriz A ao multiplic a-la por matrizes elementares E
k
E
k1
. . . E
2
E
1
. Quer dizer,
(E
k
E
k1
. . . E
2
E
1
)A = U,
8.1. O M
coluna j
O valor de c
,j
e b
j
/b
ij
, se b
j
e b
ij
s ao os primeiros elementos n ao-nulos das linhas e i,
respectivamente, da matriz E
k
. . . E
1
A. Se multiplicarmos todas as matrizes que anulam os
elementos b
j
, com > i, obteremos a matriz
Q
j
=
_
_
_
_
_
_
_
_
_
1
.
.
.
1
c
i+1,j
.
.
.
.
.
.
c
i+r,j
1
_
_
_
_
_
_
_
_
_
.
ITULO 8. DECOMPOSIC
OES MATRICIAIS
Seja A uma matriz mn. Suponhamos que, no escalonamento de A, tenhamos exatamente n
piv os e que n ao tenhamos utilizado a opera c ao elementar (i). Isso implica que, na decomposi c ao
LU da matriz A, os elementos diagonais da matriz m m L s ao todos iguais a 1, enquanto os
elementos diagonais da matriz U s ao justamente os piv os. Podemos ent ao escrever a matriz A
numa forma mais simetrica: se
U =
_
_
_
_
_
_
_
_
_
_
_
u
11
u
12
u
1n
0 u
22
u
2n
.
.
.
.
.
.
.
.
.
0 0 u
nn
0 0 0
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
_
_
_
,
com u
ii
,= 0, ent ao podemos decompor
U = DU
=
_
_
_
_
_
_
_
_
_
_
_
u
11
0 0 0 0
0 u
22
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
nn
0 0
0 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 u
12
/u
11
u
1n
/u
11
0 1 u
2n
/u
22
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
_
_
_
,
em que D e uma matriz mm e U
e U = U
. Em particular, a
decomposi c ao LDU de uma matriz e unica.
Demonstracao: Como a matriz L possui inversa, temos U = (L
1
L)U. A matriz quadrada
L
1
L e triangular inferior e tem elementos diagonais iguais a 1. Vamos mostrar que L
1
L =: R =
(r
ij
) e a matriz identidade. Temos r
i1
= 0 se i ,= 1, o que pode ser comprovado multiplicando a
linha i de R pela primeira coluna de U, pois RU e uma matriz triangular inferior e u
11
,= 0. Da
mesma forma, multiplicando as linha de R pela segunda coluna de U, vericamos que r
i2
= 0 se
i ,= 2 e assim sucessivamente. Logo R = I e U = U.
Da decorre, em particular, que os elementos diagonais de U e U
s ao iguais. Se D = (d
ij
)
e a matriz diagonal m m com d
ii
= u
ii
para i = 1, . . . , n e d
jj
= 0 se j > n, ent ao podemos
escrever U = DU, as matrizes D e U tendo o formato dado na decomposi c ao LDU da matriz A.
2
8.1. O M
ITULO 8. DECOMPOSIC
OES MATRICIAIS
8.2 A decomposicao de Cholesky
Como vimos na se c ao 7.5, uma aplica c ao auto-adjunta e positiva se todos os seus autovalores
s ao positivos.
Seja A uma matriz (real) simetrica, representa c ao matricial de um operador auto-adjunto
positivo T : R
n
R
n
(resp., n ao-negativo) com rela c ao ` a base can onica do R
n
. Como D =
P
T
AP para alguma matriz ortogonal A e uma matriz diagonal D, temos que det A > 0 (resp.,
det A 0). Uma matriz A simetrica com todos os autovalores positivos e chamada matriz
positiva-denida.
Observacao 8.2.1 Estamos denominando a matriz A de positiva-denida, pois o termo matriz
positiva e utilizado em outra situa c ao (geralmente associada ao teorema de Perron).
Lema 8.2.2 Seja A uma matriz n n simetrica positiva-denida. Ent ao as sub-matrizes prin-
cipais A
r
s ao positivas-denidas (e, portanto, det A
r
> 0) para 1 r n.
Demonstracao: Seja x
r
= (x
1
, . . . , x
r
) R
r
um vetor n ao-nulo arbitr ario e dena x =
(x
1
, . . . , x
r
, 0, . . . , 0) R
n
. Como
x
r
, A
r
x
r
) = x, Ax)
e A e positiva-denida, o resultado segue. 2
Note que o lema 8.2.2 combinado com a proposi c ao 8.1.5 garante que uma matriz positiva-
denida A possui decomposi c ao LU, obtida unicamente mediante a sucessiva aplica c ao da
opera c ao elementar (iii) ` a matriz A. Em particular, A possui uma fatora c ao LDU, a matriz
diagonal D = (d
ii
) tendo seus elementos diagonais positivos. Mas, como a matriz A e simetrica,
temos
LDU = A = A
T
= U
T
AL
T
.
Pela proposi c ao 8.1.3 temos L
T
= U, de modo que A = LDL
T
. Denindo D
1/2
como a matriz
D
1/2
=
_
_
_
_
_
d
11
0 0
0
d
22
0
.
.
.
.
.
.
0 0
d
nn
_
_
_
_
_
.
Mas ent ao A = LDL
T
= (LD
1/2
)(D
1/2
L
T
) = L
1
L
2
, a matriz L
1
sendo triangular inferior e a
matriz L
2
sendo triangular superior. Como A = A
T
, segue que L
2
= L
T
1
, mostrando que
A = LL
T
,
chamada decomposicao de Cholesky da matriz A.
Assim, uma matriz n n positiva-denida tem duas decomposi c oes: a decomposi c ao A =
LDU e a decomposi c ao de Cholesky A = L
1
L
T
1
. J a vimos que L
1
= LD
1/2
, o que nos mostra
como obter a decomposi c ao de Cholesky da matriz A.
O pr oximo resultado caracteriza as matrizes positivas-denidas e apresenta um resumo dos
resultados obtidos nessa se c ao:
8.3. A DECOMPOSIC
AO DE SCHUR 109
Proposicao 8.2.3 Seja A uma matriz simetrica nn. As seguintes arma c oes s ao equivalentes:
(i) A e positiva-denida;
(ii) As sub-matrizes principais A
1
, . . . , A
n
tem determinante positivo;
(iii) A matriz A tem uma decomposi c ao LDU, com os elementos diagonais da matriz diagonal
D todos positivos;
(iv) A tem uma decomposi c ao de Cholesky A = LL
T
, sendo L uma matriz triangular inferior
com elementos diagonais positivos.
Demonstracao: J a vimos as implica c oes (i) (ii) (iii) (iv).
Seja agora x R
n
um vetor arbitr ario e y = L
T
x. Como a matriz L
T
possui inversa, y ,= 0.
Assim
x, Ax) = x
T
(LL
T
x) = (x
T
L)(L
T
x) = y
T
y = |y|
2
> 0.
Isso mostra que (iv) (i).
2
8.3 A decomposicao de Schur
Seja A uma matriz n n no corpo C.
Teorema 8.3.1 (Schur)
Existe uma matriz unitaria U tal que T = U
AR = (R
Aw
1
. Mas R
Aw
1
=
1
R
w
1
=
1
e
1
, pois as linhas de R
AR tem a
forma
_
_
_
_
_
1
0
.
.
. S
0
_
_
_
_
_
,
em que S e uma matriz k k. Pela hip otese de indu c ao, existe uma matriz unit aria V
1
tal que
T
1
= V
1
SV
1
e uma matriz triangular superior. Denimos ent ao
V =
_
_
_
_
_
1 0 0
0
.
.
. V
1
0
_
_
_
_
_
.
110 CAP
ITULO 8. DECOMPOSIC
OES MATRICIAIS
Claramente V e unit aria e
V
(R
AR)V =
_
_
_
_
_
1 0 0
0
.
.
. V
1
0
_
_
_
_
_
_
_
_
_
_
1
0
.
.
. S
0
_
_
_
_
_
_
_
_
_
_
1 0 0
0
.
.
. V
1
0
_
_
_
_
_
=
_
_
_
_
_
1
0
.
.
. V
1
SV
1
0
_
_
_
_
_
=
_
_
_
_
_
1
0
.
.
. T
1
0
_
_
_
_
_
= T,
uma matriz triangular superior. Denimos ent ao U = RV . A matriz U e unit aria, pois
U
U = (RV )
(RV ) = V
RV = I.
Isso completa a demonstra c ao.
2
A demonstra c ao apresentada continua v alida se A e uma matriz real cujos autovalores est ao
no corpo R. Uma prova alternativa do teorema de Schur e indicada no exerccio 6. Note que o
teorema pode tambem ser formulado para aplica c oes lineares ao inves de matrizes.
Corolario 8.3.2 Se A e uma matriz auto-adjunta, ent ao existe uma matriz unitaria U tal que
U
= (U
AU)
= U
U = U
AU = T,
de acordo com a proposi c ao 6.5.3. Isso mostra que T e auto-adjunta e, portanto, uma matriz
diagonal.
Se A e real, todos os autovalores de A s ao reais e, portanto, tambem seus autovetores. Isso
implica que a matriz U e ortogonal.
2
8.4 A decomposicao QR
O processo de ortogonaliza c ao de Gram-Schmidt pode ser interpretado como uma decomposi c ao
de uma matriz cujas colunas s ao linearmente independentes.
Teorema 8.4.1 (A decomposicao QR)
Seja A uma matriz mn de posto n. Ent ao
A = QR,
em que Q e uma matriz m n com colunas ortonormais e R e uma matriz n n triangular
superior com elementos diagonais positivos.
8.5. A DECOMPOSIC
AO EM VALORES SINGULARES 111
Demonstracao: Sejam v
1
, . . . , v
n
as colunas da matriz A. Como essa matriz tem posto n,
esses vetores s ao linearmente independentes em K
m
. Aplicando o processo de ortogonaliza c ao
de Gram-Schmidt 6.3.4 a esses vetores, obtemos os vetores ortonormais q
1
, . . . , q
n
K
m
, dados
por
q
k
= r
kk
_
v
k
k1
i=1
r
ik
q
i
_
, (k = 1, . . . , n)
em que r
ik
= v
k
, q
i
) para i = 1, . . . , k 1 e (1/r
kk
) e a norma do vetor v
k
k1
i=1
r
ik
q
i
. Mas
isso quer dizer que
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
.
.
. =
.
.
.
v
n
= r
1n
q
1
+. . . +r
nn
q
n
.
Denindo Q como a matriz cujas colunas s ao os vetores q
1
, . . . , q
n
e R a matriz triangular superior
R =
_
_
_
_
_
r
11
r
12
r
1n
0 r
21
r
2n
.
.
.
.
.
.
.
.
.
0 0 r
nn
_
_
_
_
_
= (r
1
r
2
r
n
),
temos que a j-esima coluna da matriz QR e
QRe
j
= Qr
j
= r
1j
q
1
+r
2j
q
2
+. . . +r
jj
q
j
= v
j
.
Isso mostra que QR = A, completando a demonstra c ao.
2
8.5 A decomposicao em valores singulares
Seja A e uma matriz m n. A determina c ao do posto de A, atraves do escalonamento dessa
muitas vezes n ao e vi avel numericamente, devido a propaga c ao de erros no processo computa-
cional. O teorema dos valores singulares oferece uma solu c ao para esse problema.
O que faremos nessa se c ao n ao passa de uma interpreta c ao em termos matriciais dos resul-
tados obtidos na se c ao 7.5.
Seja A a matriz que representa a aplica c ao linear T : R
n
R
m
com rela c ao ` as bases can onicas
do R
n
e R
m
. Se B = v
1
, . . . , v
n
e a base ortonormal do R
n
formada por autovetores de A
A,
ent ao P
B
E
= P e a matriz
P = (v
1
v
2
. . . v
n
)
cujas colunas s ao os vetores da base B. Denotamos Q = Q
E
C
a matriz mudan ca da base ( do R
m
para a base can onica desse espa co e D = T
C
B
. Ent ao
D = QAP.
112 CAP
ITULO 8. DECOMPOSIC
OES MATRICIAIS
Como as matrizes P e Q s ao ortogonais, temos A = Q
DP
4 = 2 e
2
=
2
_
1 1
1 1
_
.
O vetor w
1
e dado por
w
1
=
1
1
Av
1
=
1
2
_
_
1
1
0
_
_
.
Para obtermos os vetores w
2
e w
3
, achamos uma base ortonormal de ker A
T
(nesse exemplo, n ao
e necess ario utilizar o processo de ortogonaliza c ao de Gram-Schmidt):
w
2
=
1
2
_
_
1
1
0
_
_
e w
3
=
_
_
0
0
1
_
_
.
Portanto,
A = QDP =
_
_
1
2
1
2
0
1
2
1
2
0
0 0 1
_
_
_
_
2 0
0 0
0 0
_
_
_
1
2
1
2
1
2
1
2
_
.
8.6 Exerccios
1. Demonstre a proposi c ao 8.1.1 com rela c ao ` as opera c oes elementares (i) e (ii).
2. Mostre que toda matriz elementar tem inversa.
3. Mostre que o produto de matrizes triangulares inferiores (respectivamente, superiores) e
uma matriz triangular inferior (resp., superior).
8.6. EXERC
ICIOS 113
4. De um exemplo mostrando que e possvel ter A = LU = L
, com L, L
matrizes trian-
gulares inferiores com elementos diagonais todos iguais a 1 e U, U
matrizes triangulares
superiores. (Compare com a proposi c ao 8.1.3).
5. Seja A uma matriz simetrica invertvel. Mostre que A
2
e uma matriz positiva-denida.
6. Suponhamos que o polin omio caracterstico de T : V V se decomponha em polin omios
irredutveis de grau um (quer dizer, todas as razes do polin omio caracterstico est ao no
corpo K). Mostre
2
:
(a) Se e autovalor de T, ent ao e autovalor de T
: V V ;
(b) Seja v um autovetor unit ario associado ao autovalor de T
. Decompondo V =
W W
) W
;
(c) Supondo que o teorema de Schur seja v alido em espa cos de dimens ao n1 (cujas razes
do polin omio caracterstico est ao em K), considere a restri c ao T[
W
- que produz uma
base ortonormal ( na qual a representa c ao dessa restri c ao e triangular superior - e
verique que T
B
e uma matriz triangular superior, sendo B = ( v.
7. Seja B uma base ortonormal de V . Suponhamos que a representa c ao A = T
B
do operador
linear T : V V seja uma matriz triangular superior. Mostre que T e normal se, e
somente se, A e diagonal. Deduza o teorema 7.4.4 ao aplicar o teorema de Schur ao
resultado anterior.
8. Na decomposi c ao de Schur U
A e AA
?
11. Seja A uma matriz m n. O posto de A e igual ao n umero de autovalores n ao nulos,
contados de acordo com a multiplicidade?
2
Compare com o teorema 6.5.4.
Referencias Bibliogracas
[1] H. Anton and C. Rorres: Elementary Linear Algebra: Applications version, 6th. edition,
Wiley, New York, 1991.
[2] R. Bellman: Introduction to Matrix Analysis, McGraw-Hill Book Company, New York,
1960. (Republicado na serie Classics in applied mathematics, SIAM, 1995).
[3] H. P. Bueno: Equa c oes Diferenciais Ordin arias - 1a. parte. Notas de aula de um curso.
Departamento de Matem atica da UFMG, 2001.
[4] N. Dunford and J. T. Schwarz: Linear operators I, Interscience, New York, 1968.
[5] Gantmacher, F. R.: The Theory of Matrices, vol. 1 and 2, Chelsea Publishing Co., New
York, 1959.
[6] G. Golub e Charles Van Loan: Matrix Computations, 2nd. Edition, Johns Hopkins, Balti-
more, 1989.
[7] M. Hirsch and S. Smale: Dierential Equations, Dynamical Systems and Linear Algebra,
Academic Press, New York, 1974.
[8] K. Homan e R. Kunze:
Algebra Linear, 2a. edi c ao, Livros Tecnicos e Cientcos Editora,
Rio de Janeiro, 1979.
[9] S. Lang: Linear Algebra, 3rd. Edition, Springer-Verlag, New York, 1989.
[10] P. D. Lax: Linear Algebra, Wiley-Interscience Publication, New York, 1997.
[11] S. J. Leon:
Algebra Linear com Aplica c oes, 4a. Edi c ao, LTC Editora, Rio de Janeiro, 1999.
[12] E. L. Lima:
Algebra Linear, 2a. edi c ao, IMPA, Rio de Janeiro, 1996.
[13] M. Montenegro: Notas de aula de um curso de
Algebra Linear, UFMG, 2000.
[14] M. Reed and B. Simon: Methods of Modern Mathematical Physics, vol. I, Academic Press,
New York, 1972.
[15] R. J. Santos: Geometria Analtica e
Algebra Linear, Parte II, UFMG, 2000.
[16] J. Sotomayor: Li c oes de Equa c oes Diferenciais Ordin arias, IMPA, Rio de Janeiro, 1979.
[17] G. Strang: Linear Algebra and its Applications, 3rd. edition, Harcourt, Fort Worth, 1988.
114
Indice Remissivo
adjunta, 76
anulador de um subconjunto, 13
aplica c ao linear
adjunta, 76
alternada, 35
auto-adjunta, 77
n ao-negativa, 96
autoespa co, 47
autovalor, 47
autovetor, 47
complexica c ao de uma, 65
diagonaliz avel, 46
imagem de uma, 18
inversa de uma, 8
n ucleo de uma, 18
norma de uma, 78
normal, 93
ortogonal, 80
polin omio caracterstico, 47
que preserva norma, 82
que preserva produto interno, 82
representa c ao em bases, 24
transposta de uma, 22, 26
unit aria, 80
autovalor
multiplicidade algebrica, 69
multiplicidade geometrica, 69
base, 3
can onica do K
n
, 5
dual, 10
ortogonal, 72
ortonormal, 72
bidual, 10
c alculo funcional de matrizes, 92
ciclo, 32
codimens ao 1, 13
combina c ao linear, 3
complemento ortogonal, 75
conjugado
de um vetor, 69
de uma matriz, 69
conjunto
ortonormal, 72
gerador, 3
linearmente dependente, 3
linearmente independente, 3
ortogonal, 72
coordenadas de um vetor, 5
decomposi c ao
LDU, 106
LU, 105
QR, 110
de Cholesky, 108
de Schur, 109
em valores singulares, 112
polar, 100
desigualdade
de Cauchy-Schwarz, 72
desigualdade de Bessel, 82
determinante
da matriz transposta, 38
de pontos do R
n
, 35
de uma matriz, 38
do produto de matrizes, 38
existencia do, 37
unicidade do, 37
espa co dual, 9
espa co vetorial, 1
com produto interno, 70
complexica c ao de um, 65
de dimens ao nita, 3
dual, 9
115
116
INDICE REMISSIVO
euclidiano, 70
gerado por um subconjunto, 7
normado, 71
subespa co trivial, 7
espa cos vetoriais
isomorfos, 2
soma direta de, 8
forma
bilinear, 84
simetrica, 84
quadr atica, 86
hermitiana, 98
positiva, 87
sesquilinear, 98
hermitiana, 98
funcional linear, 9
Gram-Schmidt, 73
identidade
de polariza c ao, 81, 98
do paralelogramo, 72
isometria, 78
isomorsmo, 2
de espa cos com produto interno, 82
matriz
simetrica, 80
anti-auto-adjunta, 95
anti-simetrica, 95
aumentada de um sistema, 101
auto-adjunta, 77
conjugada, 69
de permuta c ao, 107
decomposi c ao
LDU, 106
LU, 105
QR, 110
de Cholesky, 108
de Schur, 109
em valores singulares, 112
elementar, 104
entrada de uma, 15
escalonamento de uma, 102
forma escalonada, 102
reduzida por linhas, 102
hermitiana, 80
inversa, 24
mudan ca de base, 24
normal, 95
ortogonal, 80
positiva, 80
positiva-denida, 108
que representa uma aplica c ao linear, 15
simetrica, 77
sub-matriz, 107
sub-matriz principal, 107
transposta, 21
triangular inferior, 44
triangular superior, 44
norma, 71
de uma aplica c ao linear, 78
opera c oes elementares
sobre as linhas de uma matriz, 102
operador linear, 2
complexica c ao de um, 65
permuta c ao, 31
orbita, 32
ciclo, 32
ordem de um elemento, 32
transposi c ao, 33
piv o, 102
polin omio
caracterstico, 46
mnimo, 52
polin omios
primos entre si, 50
processo de ortogonaliza c ao de Gram - Sch-
midt, 73
produto de aplica c oes lineares, 16
produto interno, 70
proje c ao, 27
ortogonal, 75
raiz
multiplicidade algebrica, 68
raiz quadrada, 100
representa c ao de um vetor em uma base, 5