Você está na página 1de 124

Algebra Linear

Um segundo curso
Hamilton Prado Bueno
Universidade Federal de Minas Gerais
Departamento de Matem atica
Georg, Claudia und Miriam M uller
gewidmet
Prefacio
Esse texto e uma adapta c ao de parte de um livro de

Algebra Linear que considero uma obra
prima: o livro Linear Algebra, de P. Lax.
Adaptar o texto de P. Lax e, no fundo, uma temeridade. N ao acredito que aquele texto
possa ser melhorado. Por outro lado, ele foi escrito tendo como prop osito um curso de p os-
gradua c ao no Courant Institute.

E um texto denso e sintetico. Ap os umas poucas aulas cheguei ` a
conclus ao que os meus alunos dicilmente conseguiriam acompanh a-lo. Da surgiu a necessidade
dessa adapta c ao. Tentei esmiu car algumas passagens; substitu demonstra c oes elegantes, mas
sinteticas, por outras mais diretas. Tentando poupar algum tempo na exposi c ao de assuntos,
suprimi material que servia de motiva c ao. Inclu pre-requisitos e reordenei parte do material
exposto. Aumentei a enfase em espa cos vetoriais reais. Mas, tendo concludo a adapta c ao de
quase todos os oito primeiros captulos (de um total de dezessete, mais oito apendices, tudo
isso em apenas 250 p aginas!), a compara c ao do texto original com a adapta c ao e apenas um
desprestgio para o primeiro. Mais do que isso, com o decorrer do curso, veriquei que algumas
passagens que os alunos julgavam incompreensveis no livro de Lax puderam ser absorvidas. Ou
seja, bastou um pouco de maturidade matem atica para tornar aquele texto inteligvel.
O presente texto e dirigido a alunos que cursam um segundo curso de

Algebra Linear. Na
prepara c ao dessa adapta c ao z uso, principalmente, do texto Geometria Analtica e

Algebra
Linear, 2a. parte, do Prof. Reginaldo J. Santos [15]. Esse e bastante direto, apresentando
a

Algebra Linear de um ponto de vista bastante adequado ` a sua utiliza c ao por engenheiros e
n ao-matem aticos.

E difcil encontrar um livro t ao bem escrito de introdu c ao ` a

Algebra Linear.
Sugeri esse texto como leitura complementar aos meus alunos, principalmente ` aqueles que haviam
cursado seu primeiro curso de

Algebra Linear h a algum tempo. Ele apresenta demonstra c oes
simples de resultados que, em outros textos, tem tratamento muito mais complicado: compare-se,
por exemplo, as demonstra c oes do Teorema de Cayley-Hamilton daquele texto (aqui transcrita)
e aquela do livro do Prof. Elon Lima. Na escolha de material complementando o livro de Lax,
utilizei as notas de aula do Prof. Marcos Montenegro [13] e o livro de Leon [11]. O primeiro
foi especialmente util no tratamento de espa cos vetoriais reais e o segundo na apresenta c ao de
alguns resultados da

Algebra Linear Numerica.
Os captulos desse texto cobrem um curso de

Algebra Linear usual: espa cos vetoriais e
bases, o espa co dual, aplica c oes lineares e matrizes, determinantes, o Teorema da Decomposi c ao
Prim aria e a Forma Can onica de Jordan, espa cos euclidianos, formas quadr aticas, o Teorema
Espectral para operadores normais (e, com isso, operadores unit arios e ortogonais) e, nalmente,
o Teorema de Valores Singulares.
Fa co alguns coment arios sobre os captulos desse texto. Observo que, apesar de todas as
no c oes b asicas da

Algebra Linear serem apresentadas, alguns captulos foram escritos no esprito
revis ao, notadamente os captulos 1, 3 e parte do captulo 6. Assim, e pressuposto que o
i
ii
aluno tenha alguma familiaridade com matrizes e sistemas lineares, bases e o produto interno
no espa co R
n
.
O captulo 1 introduz espa cos vetoriais e bases. Os espa cos vetoriais s ao considerados apenas
sobre os corpos R ou C, o que e coerente com a linha geral do texto, que e voltado para a area
de An alise. Os alunos que assistiram o curso n ao possuam forma c ao em

Algebra. Isso tornou
necess aria uma apresenta c ao detalhada do espa co quociente. Inclu no texto alguns dos exerccios
que procuravam esclarecer o assunto, mas n ao a interpreta c ao geometrica apresentada em sala de
aula. Apesar disso, e bom salientar que o espa co quociente e usado apenas duas vezes: uma na
demonstra c ao do Teorema do N ucleo e da Imagem (que tambem possui uma prova alternativa,
sem o uso desse conceito) e outra na demonstra c ao da Forma Can onica de Jordan, quando apenas
e necess aria a ideia do que e uma base do espa co quociente e n ao do espa co propriamente dito.
N ao e difcil adaptar aquela demonstra c ao sem se mencionar o espa co quociente, de modo que
sua apresenta c ao ca a criterio do instrutor. Por outro lado, a introdu c ao do espa co quociente
na demonstra c ao do Teorema do N ucleo e da Imagem unica conceitos: a mesma demonstra c ao
se repete no estudo de outras estruturas algebricas. Apresentei o captulo 1 em ritmo acelerado,
j a que seu conte udo era familiar aos alunos do curso.
O captulo 2 trata do espa co dual e apresenta uma primeira vers ao do Teorema de Repre-
senta c ao de Riesz (para espa cos de dimens ao nita). Geralmente o dual e o bidual s ao apresenta-
dos ap os a introdu c ao de espa cos de aplica c oes lineares, como casos particulares desses. O texto
inverte essa ordem para dar exemplo de um isomorsmo can onico entre espa cos vetoriais. Com
modica c oes corriqueiras no captulo 3, o instrutor pode optar por n ao apresentar esse captulo.
O captulo 3 come ca por mostrar que a deni c ao de multiplica c ao de matrizes e uma con-
seq uencia natural da composi c ao de aplica c oes lineares. Nesse captulo tambem s ao tratados
outros t opicos fundamentais de um curso de

Algebra Linear: matrizes e representa c oes de
aplica c oes lineares, n ucleo e imagem de uma aplica c ao linear, sistemas lineares, espa co-linha
e espa co-coluna, etc. Sua apresenta c ao foi r apida; decidi n ao expor a sua ultima se c ao.
O captulo 4 apresenta determinantes, desde o ponto de vista de permuta c oes. Procurei
evitar uma apresenta c ao demasiadamente abstrata. Inclu material sobre ciclos e transposi c oes
que n ao e estritamente necess ario ao estudo de determinantes
1
; alem disso, adeq uei o ritmo
da minha exposi c ao ` a pouca familiaridade dos alunos com esses conceitos. Ainda assim, esses
quatro primeiros captulos foram cobertos em aproximadamente 30 horas de aula de um curso
semestral de 90 horas.
O captulo 5 apresenta o Teorema de Cayley-Hamilton e as formas can onicas fundamentais: o
Teorema da Decomposi c ao Prim aria e a Forma Can onica de Jordan. A primeira se c ao do captulo
e escrita de forma a apresentar os resultados b asicos sobre diagonaliza c ao de matrizes. Ent ao
se estudam os polin omios matriciais e se demonstra o Teorema de Cayley-Hamilton. As provas
dos Teoremas da Decomposi c ao Prim aria (que Lax denomina, no caso de espa cos vetoriais sobre
C, de Teorema Espectral) e da Forma Can onica de Jordan s ao bastante objetivas, e se ap oiam
em resultados que est ao explicitamente demonstrados no texto. Decidi apresentar a vers ao real
desses dois teoremas, o que n ao constava do texto original. V arios exemplos s ao dirigidos ` a
Forma Can onica de Jordan. Dediquei aproximadamente 25 horas de aula a esse captulo e, no
decorrer de sua exposi c ao, voltei repetidamente ` a demonstra c ao do Teorema da Decomposi c ao
1
Interpretando adequadamente, a apresenta c ao de Lax sobre o sinal de uma permuta c ao e mais concisa. Lax
deixa como exerccio a demonstra c ao de que uma permuta c ao e um produto de transposi c oes.
iii
Prim aria. Achei proveitoso esse procedimento: as ideias fundamentais desse teorema, bem como
seu extraordin ario signicado, cam melhor compreendidos se sua import ancia e constantemente
salientada.
O captulo seguinte trata de espa cos com produto interno. Lax segue a tradi c ao bourbakista
de apresent a-los apenas ap os o estudo de espa cos vetoriais gerais. Mantive esse ordenamento,
apesar de ach a-lo demasiadamente purista para os meus prop ositos, que eram enfatizar espa cos
de dimens ao nita. O captulo e leve e pode ser exposto mais rapidamente, mesmo assim trazendo
algum alvio aos alunos ap os a maratona do captulo anterior, j a que apresenta t opicos familiares
de um primeiro curso de

Algebra Linear. (Mesmo assim, acho que o instrutor deve ressaltar o
aspecto geometrico introduzido conjuntamente com o produto interno. Por exemplo, o processo
de ortogonaliza c ao de Gram-Schmidt pode ser justicado em casos bi- e tridimensionais. Mais
do que isso, no caso de espa cos de dimens ao n, uma representa c ao decompondo-o em um eixo
vertical e seu complementar ortogonal e adequada: muitas demonstra c oes podem ser, assim,
geometricamente justicadas). Em coerencia com o caminho voltado para a An alise, algumas
propriedades da norma de uma aplica c ao linear s ao apresentadas. Tambem s ao estudadas as
rela c oes entre o n ucleo e a imagem de uma aplica c ao linear e de sua adjunta, bem como algumas
propriedades b asicas de isometrias.
Voltando a diminuir o ritmo da exposi c ao em sala de aula, o captulo 7 trata das principais
formas can onicas em espa co com produto interno: o Teorema Espectral para operadores normais,
operadores unit arios e ortogonais. O captulo come ca tratando do Teorema de Sylvester e ent ao
apresenta, como um renamento, a diagonaliza c ao de matrizes simetricas, cuja demonstra c ao
e feita ` a partir do Teorema da Decomposi c ao Prim aria. Esse enfoque unica conceitos que
usualmente s ao apresentados separadamente: formas bilineares simetricas e diagonaliza c ao de
matrizes simetricas. As vers oes reais dos teoremas tambem est ao presentes, diferindo mais uma
vez do texto original. Os exerccios do captulo procuram esclarecer duas rela c oes de equivalencia:
a semelhan ca de matrizes (B = P
1
AP) e a equivalencia de matrizes (B = P
T
AP). Dediquei
aproximadamente 20 horas de aula a esse captulo.
O captulo 8, que n ao consta no livro de Lax e n ao foi apresentado no curso, trata de decom-
posi c oes matriciais: LU, Cholesky, Schur, QR e valores singulares, resultados especialmente uteis
na

Algebra Linear Numerica. Decidi inclu-lo por dois motivos. Em primeiro lugar, alguns desses
t opicos (a saber, as decomposi c oes LU, QR e em valores singulares) s ao apenas a formula c ao
matricial de resultados conhecidos. J a a decomposi c ao de Schur possibilita uma demonstra c ao
independente do teorema de diagonaliza c ao de operadores normais, enquanto Cholesky desvela
o vnculo entre a decomposi c ao LU e matrizes positivas-denidas. Mas, mais importante do que
isso, esses temas usualmente n ao s ao abordados em apresenta c oes tradicionais, e isso signica
ignorar todo o desenvolvimento proporcionado pela introdu c ao de metodos numericos no estudo
da

Algebra Linear. O captulo pode ser apresentado em combina c ao com captulos anteriores,
sem um acrescimo substancial em termos de tempo de aula.
Os exerccios includos no livro, alguns formulados por mim mesmo e outros compilados de
diversos textos, tem v arios graus de diculdade. Algumas vezes, eles introduzem nota c oes e con-
ceitos que ser ao usados livremente no resto do texto. Alguns indicam demonstra c oes alternativas
de resultados expostos. Outros complementam o material apresentado, sugerindo generaliza c oes.
Belo Horizonte, fevereiro de 2002
Hamilton Prado Bueno
Sumario
1 Base e Dimensao 1
1.1 Espa cos vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Somas diretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Espa co quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Dualidade 9
2.1 Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 O espa co dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Aplicac oes Lineares 14
3.1 Aplica c oes lineares e matrizes I . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Composta de aplica c oes lineares e multiplica c ao de matrizes . . . . . . . . . . . 16
3.3 O teorema do n ucleo e da imagem . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 O espa co linha e o espa co coluna de uma matriz . . . . . . . . . . . . . . . . . . 21
3.5 Aplica c oes lineares e matrizes II . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.6 A transposta de uma aplica c ao linear . . . . . . . . . . . . . . . . . . . . . . . . 26
3.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4 Determinantes 31
4.1 Permuta c oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2.1 Determinantes e permuta c oes . . . . . . . . . . . . . . . . . . . . . . . . 36
4.3 Propriedades do determinante de uma matriz . . . . . . . . . . . . . . . . . . . 38
4.3.1 O determinante da matriz transposta . . . . . . . . . . . . . . . . . . . . 38
4.3.2 O determinante do produto de matrizes quadradas . . . . . . . . . . . . 38
4.3.3 O determinante em termos de cofatores . . . . . . . . . . . . . . . . . . . 40
4.4 A regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
iv
SUM

ARIO v
5 Teoria Espectral 46
5.1 Autovetores e autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2 Polin omios de aplica c oes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.3 O teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.4 O teorema da decomposi c ao prim aria . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5 A forma can onica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6 A forma de Jordan real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6 Estrutura Euclidiana 70
6.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.3 Bases ortonormais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.4 Proje c oes ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.5 A adjunta de uma aplica c ao linear . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.6 Norma de uma aplica c ao linear . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.7 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.8 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
7 Teoria Espectral Euclidiana 84
7.1 Formas bilineares e quadr aticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.2 Diagonaliza c ao de formas quadr aticas . . . . . . . . . . . . . . . . . . . . . . . . 86
7.3 Aplica c oes auto-adjuntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.4 Aplica c oes normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.5 O teorema dos valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
8 Decomposic oes Matriciais 101
8.1 O metodo de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.1.1 Sistemas lineares e escalonamento . . . . . . . . . . . . . . . . . . . . . . 101
8.1.2 Matrizes elementares e a decomposi c ao LU . . . . . . . . . . . . . . . . . 104
8.2 A decomposi c ao de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.3 A decomposi c ao de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.4 A decomposi c ao QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
8.5 A decomposi c ao em valores singulares . . . . . . . . . . . . . . . . . . . . . . . . 111
8.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Captulo 1
Base e Dimensao
1.1 Espacos vetoriais
Denotaremos por K o corpo R ou o corpo C.
Denicao 1.1.1 Um espaco vetorial X sobre o corpo K e um conjunto cujos elementos
(chamados vetores) podem ser somados e multiplicados por escalares, isto e, os elementos
do corpo K. Se x, y, z X e , K, as seguintes propriedades devem ser satisfeitas pela
adi c ao e multiplica c ao por escalar:
(i) x +y X (fechamento);
(ii) (x +y) +z = x + (y +z) (associatividade);
(iii) x +y = y +x (comutatividade);
(iv) existe 0 X tal que x + 0 = x (elemento neutro);
(v) existe (x) X tal que x + (x) = 0 (inverso aditivo);
(vi) x X (fechamento);
(vii) (x) = ()x (associatividade);
(viii) (x +y) = x +y (distributividade);
(ix) ( +)x = x +x (distributividade);
(x) 1x = x (regra da unidade).
Denotaremos x + (y) simplesmente por x y (veja exerccio 1).
Exemplo 1.1.2 O conjunto K
n
= (x
1
, x
2
, . . . , x
n
) : x
i
K (i = 1, . . . , n) com a adi c ao e
multiplica c ao por escalar denidas coordenada a coordenada e um espa co vetorial. O conjunto
T de todas as fun c oes f : S K denidas num conjunto arbitr ario S e com as opera c oes de
adi c ao e multiplica c ao por escalar usualmente denidas e tambem um espa co vetorial. O mesmo
acontece com o conjunto T de todos os polin omios com coecientes em K ou o subconjunto T
n
de todos os polin omios de grau menor do que n.
1
2 CAP

ITULO 1. BASE E DIMENS

AO
Denicao 1.1.3 Um subconjunto Y de um espa co vetorial X e um subespaco se seus elemen-
tos satisfazem `as propriedades que denem o espa co vetorial X.
Exemplo 1.1.4 O subconjunto de K
n
de todos os vetores cuja primeira coordenada e nula e
um subespa co de K
n
. Se S = R, os subconjunto de T formado por todas as fun c oes contnuas ou
por todas as fun c oes de perodo s ao subespa cos de T. O mesmo acontece com o subconjunto
de T formado por todos os polin omios de grau par.
Denicao 1.1.5 Sejam X e Y espa cos vetoriais sobre o corpo K. Uma aplica c ao
T : X Y
satisfazendo
T(x +y) = Tx +Ty
para quaisquer x, y X e K e chamada transformacao linear ou aplicacao linear. Se
X = Y tambem chamamos T de operador linear.
Se T e uma bije c ao, dizemos que T e um isomorsmo e que os espa cos X e Y s ao isomor-
fos.
Observacao 1.1.6 Note que, na deni c ao de aplica c ao linear, estamos denotando as opera c oes
nos espa cos vetoriais X e Y da mesma maneira: em T(x +y), a soma x +y ocorre no espa co
X, enquanto em Tx +Ty ela ocorre em Y .
1.2 Somas diretas
Denicao 1.2.1 Sejam A, B subconjuntos de um espa co vetorial X. Denotamos A+B o con-
junto de todos os vetores x +y, com x A e y B.
Proposicao 1.2.2 Sejam U, V subespa cos de X. Ent ao U +V e subespa co de X. O subespa co
U +V e chamado soma dos subespa cos U e V .
Demonstracao: Se z
1
= x
1
+ y
1
e z
2
= x
2
+ y
2
s ao elementos de U + V e K, ent ao
claramente z
1
+z
2
U +V (veja exerccio 3).
2
Denicao 1.2.3 Sejam U, V subespa cos de X. O subespa co W = U +V e a soma direta dos
subespa cos U e V se cada elemento de w W pode ser escrito de maneira unica como
w = x +y.
Nesse caso denotamos W = U V .
A deni c ao de soma direta pode ser generalizada para a soma de um n umero nito de subespa cos
de X.
1.3. BASES 3
Proposicao 1.2.4 O subespa co W = U + V e a soma direta dos subespa cos U, V de X se, e
somente se, U V = 0.
Demonstracao: Suponhamos que W = U V . Se z U V ent ao w = x + y tambem pode
ser escrito como w = (x + z) + (y z). Como a decomposi c ao w = x + y e unica, devemos ter
x = x +z e y = y z. Assim, z = 0 (veja exerccio 2).
Reciprocamente, suponhamos que x
1
+ y
1
e x
2
+ y
2
sejam duas decomposi c oes de w W.
Ent ao x
1
x
2
= y
2
y
1
pertencem simultaneamente a U e V . Logo x
1
x
2
= 0 = y
2
y
1
,
garantindo a unicidade da decomposi c ao.
2
1.3 Bases
Denicao 1.3.1 Seja S X um subconjunto qualquer de um espa co vetorial X. Uma com-
binacao linear de elementos de S e uma soma

1
x
1
+. . . +
k
x
k
,
com
1
, . . . ,
k
K e x
1
, . . . , x
k
S.
O conjunto S e linearmente dependente se existe um n umero nito de elementos
x
1
, . . . , x
k
S
e escalares
1
, . . . ,
k
K, n ao todos nulos, tais que

1
x
1
+. . . +
k
x
k
= 0.
Caso contrario, o conjunto S e linearmente independente.
O conjunto S gera o espa co X se, para todo x X, existem (nitos) elementos x
1
, . . . , x
j
S
tais que x =
1
x
1
+. . . +
j
x
j
, para escalares
1
, . . . ,
j
K. Uma base de X e um subconjunto
S que e linearmente independente e gera X. Um espa co vetorial tem dimensao nita se tem
uma base com um n umero nito de elementos.
Lema 1.3.2 Suponhamos que S = x
1
, . . . , x
n
gere o espa co vetorial X e que y
1
, . . . , y
j
seja
linearmente independente em X. Ent ao
j n.
Demonstracao: Suponhamos j > n. Como S gera X, temos que
y
1
=
1
x
1
+. . . +
n
x
n
,
sendo ao menos um dos escalares
1
, . . . ,
n
diferente de zero (veja exerccio 10). Podemos supor

1
,= 0. Temos ent ao que x
2
, . . . , x
n
, y
1
gera X. De fato, se x X, existem escalares
1
, . . . ,
n
tais que x =
1
x
1
+. . . +
n
x
n
. Mas ent ao
x =
1
_
1

1
(y
1

2
x
2
. . .
n
x
n
)
_
+
2
x
2
+. . . +
n
x
n
,
4 CAP

ITULO 1. BASE E DIMENS

AO
mostrando o armado.
De maneira an aloga, y
2
=
2
x
2
+. . . +
n
x
n
+
1
y
1
, com ao menos um dos escalares
2
, . . . ,
n
diferente de zero (veja o exerccio 11). Supondo
2
,= 0, vericamos ent ao que o conjunto
x
3
, . . . , x
n
, y
1
, y
2
gera o espa co X. Repetindo sucessivamente esse procedimento, obtemos que
y
1
, . . . , y
n

gera o espa co X. Em particular,


y
n+1
=
1
y
1
+. . . +
n
y
n
.
Mas ent ao

1
y
1
. . .
n
y
n
+ 1y
n+1
+ 0y
n+2
+. . . + 0y
j
= 0,
o que contradiz y
1
, . . . , y
j
ser um conjunto linearmente independente.
2
Lema 1.3.3 Todo espa co vetorial gerado por um subconjunto nito S = x
1
, . . . , x
n
possui
uma base.
Demonstracao: Se S e linearmente dependente, um de seus elementos pode ser escrito como
combina c ao linear dos elementos restantes. Retirando esse elemento, o conjunto restante con-
tinua gerando X. Continuamos retirando elementos que s ao combina c ao linear dos elementos
restantes ate obter um conjunto linearmente independente que continua gerando X.
2
Um espa co vetorial de dimens ao nita possui muitas bases.
Teorema 1.3.4 Todas as bases de um espa co vetorial X de dimens ao nita possuem o mesmo
n umero de elementos.
Demonstracao: Se S = x
1
, . . . , x
n
e S

= y
1
, . . . , y
j
s ao bases de X, o lema 1.3.2 aplicado
ao conjunto linearmente independente S

e ao conjunto gerador S mostra que j n. Aplicando


ent ao ao conjunto linearmente independente S e ao conjunto gerador S

, obtemos n j.
2
Denicao 1.3.5 Se S = x
1
, . . . , x
n
e uma base do espa co vetorial X, dizemos que X tem
dimens ao n e escrevemos
dimX = n.
Se X = 0, X tem dimens ao nita igual a zero.
Teorema 1.3.6 Todo subconjunto linearmente independente S = y
1
, . . . , y
j
de um espa co
vetorial X de dimens ao n pode ser completado para formar uma base de X.
1.3. BASES 5
Demonstracao: Se S n ao gera X, ent ao existe um vetor x
1
X que n ao e combina c ao linear
dos elementos de S. O conjunto
y
1
, . . . , y
j
, x
1

e linearmente independente. Repetimos esse procedimento um n umero nito de vezes, ate obter
uma base de X.
2
O teorema 1.3.6 nos mostra como obter diferentes bases para um espa co vetorial de dimens ao
nita.
Observacao 1.3.7 Uma base de um espa co vetorial e um conjunto ordenado. Assim, se S =
x
1
, x
2
, . . . , x
n
e uma base do espa co X, ent ao S

= x
2
, . . . , x
n
, x
1
e outra base de X.
Denicao 1.3.8 Sejam X um espa co vetorial e B = x
1
, . . . , x
n
uma base de X. Se x X,
ent ao existem escalares
1
, . . . ,
n
K tais que
x =
1
x
1
+. . . +
n
x
n
.
O vetor (
1
, . . . ,
n
) K
n
e chamado representacao de x na base B e
1
, . . . ,
n
as coorde-
nadas de x na base B. Denotamos tambem por [x]
B
o vetor (
1
, . . . ,
n
).
Denicao 1.3.9 Seja e
i
K
n
o vetor cuja i-esima coordenada e igual a 1, as outras sendo
nulas. O conjunto c = e
1
, . . . , e
n
e a base can onica do espa co K
n
.
Teorema 1.3.10 Seja X um espa co vetorial de dimens ao nita. Ent ao vale:
(i) todo subespa co Y de X possui dimens ao nita;
(ii) todo subespa co Y possui um complemento Z X, isto e, existe um subespa co Z de X tal
que
X = Y Z.
Demonstracao: Se Y = 0, ent ao dimY = 0. Tome 0 ,= y
1
Y . Se existir y
2
Y
linearmente independente com y
1
, consideramos ent ao o conjunto y
1
, y
2
. Se esse conjunto gera
Y , temos uma base. Caso contr ario, podemos acrescentar y
3
Y linearmente independente com
y
1
e y
2
. Procedendo assim, obtemos sucessivamente conjuntos linearmente independentes, cada
um contendo o anterior. De acordo com o lema 1.3.2, esse processo s o pode continuar enquanto
esses conjuntos tiverem dimens ao menor do que a dimens ao de X. Obtemos assim uma base
y
1
, . . . , y
j
para Y .
Aplicando ent ao o teorema 1.3.6, essa base pode ser completada ate obtermos uma base
y
1
, . . . , y
j
, x
1
, . . . , x
nj
para X. Dena Z como o espa co de todas as combina c oes lineares
dos elementos x
1
, . . . , x
nj
. Claramente Z e um subespa co de X e Z Y = 0. Logo, pela
proposi c ao 1.2.4, temos X = Y Z.
2
6 CAP

ITULO 1. BASE E DIMENS

AO
1.4 Espaco quociente
Denicao 1.4.1 Seja Y um subespa co de X. Se x
1
, x
2
X, dizemos que x
1
e congruente a
x
2
modulo Y , escrito
x
1
x
2
mod Y,
se x
1
x
2
Y .
Podemos dividir o espa co X em diferentes classes de equivalencia m odulo Y (veja exerccio 23).
Denotaremos a classe contendo o elemento x por [x].
Denicao 1.4.2 Se [x] e [z] s ao classes de equivalencia modulo Y e K, denimos
[x] + [z] = [x +z], [x] = [x].
Com essas opera c oes, o conjunto de todas as classes de equivalencia modulo Y torna-se um
espa co vetorial, denotado
X
Y
ou X/Y
e denominado espaco quociente de X por Y .
A classe de equivalencia [x] muitas vezes e representada por x +Y .
A rigor, precisamos mostrar que as opera c oes em X/Y est ao bem denidas, isto e, independem
dos representantes de cada classe de equivalencia. Portanto, suponhamos que x
1
[x] e z
1
[z].
Ent ao x
1
= x+y
1
e z
1
= z+y
2
, com y
1
, y
2
Y . Mas ent ao x
1
+z
1
= x+y
1
+z+y
2
= x+z+(y
1
+y
2
)
e, assim, x
1
+z
1
x +z mod Y . Do mesmo modo, x
1
= x + (y
1
) e x
1
x mod Y .
Exemplo 1.4.3 Seja x K
n
e considere Y o subespa co de todos os vetores cujas duas primeiras
coordenadas s ao nulas. Ent ao dois vetores s ao congruentes m odulo Y se, e somente se, suas duas
primeiras coordenadas s ao iguais. Isto e,
(x
1
, x
2
, x
3
, . . . , x
n
) (y
1
, y
2
, y
3
, . . . , y
n
) mod Y x
1
= y
1
e x
2
= y
2
.
Cada classe de equivalencia pode ser vista como um vetor com duas componentes, quais sejam,
as duas coordenadas que eles possuem em comum.
Teorema 1.4.4 Seja Y um subespa co do espa co vetorial de dimens ao nita X. Ent ao
dimX = dimY + dim
X
Y
.
Demonstracao: Seja y
1
, . . . , y
j
uma base de Y . Podemos complet a-la de modo que
y
1
, . . . , y
j
, x
j+1
, . . . , x
n

seja uma base de X. Armamos que x


j+1
, . . . , x
n
e uma base de X/Y . De fato, se v X/Y ,
ent ao v =
1
y
1
+ . . . +
j
y
j
+
j+1
x
j+1
+ . . . +
n
x
n
. Mas ent ao v =
j+1
x
j+1
+ . . . +
n
x
n
+ y,
em que y =
1
y
1
+. . . +
j
y
j
Y .
2
Temos ent ao, imediatamente, o seguinte
Corolario 1.4.5 Se Y e um subespa co de X e dimY = dimX, ent ao Y = X.
1.5. EXERC

ICIOS 7
1.5 Exerccios
1. Se x e o inverso aditivo de x X, mostre que x = (1)x.
2. Mostre que o elemento neutro aditivo de um espa co vetorial e unico. Mostre que 0x = 0
para todo x X e 0 = 0 para todo K, sendo 0 X o elemento neutro aditivo.
3. Mostre que Y X e um subespa co se, e somente se, x + y Y para quaisquer x, y Y
e K.
4. Se X e um espa co vetorial, mostre que os conjuntos X e 0 (que consiste apenas do
elemento neutro aditivo) s ao subespa cos de X, chamados subespacos triviais.
5. Seja X = (x
1
, . . . , x
n
) : x
i
K. Dena a soma x + y da maneira usual e x = 0 para
todo K e x X. Verique quais propriedades da deni c ao de espa co vetorial s ao
satisfeitas.
6. Seja V K
n
o conjunto de todas as n-uplas da forma (0, 0, x
3
, . . . , x
n
). Mostre que V e
um subespa co de K
n
.
7. Seja U = (x, y) R
2
: x > 0, y > 0. Se z
1
= (x
1
, y
1
) e z
2
= (x
2
, y
2
) s ao elementos de U
e R, dena
z
1
+z
2
= (x
1
x
2
, y
1
y
2
), z
1
= (x

1
, y

1
).
(a) Mostre que U e um espa co vetorial;
(b) mostre que, se v
1
= (e, 1) e v
2
= (1, e), ent ao B = v
1
, v
2
e uma base de U (estamos
denotando e a base dos logaritmos naturais).
(c) Dena T : U R
2
por T(z) = [z]
B
, em que [z]
B
e a representa c ao de z na base B.
Mostre que T e um isomorsmo.
8. Seja S X um subconjunto arbitr ario do espa co vetorial X. Mostre que o conjunto de
todas as combina c oes lineares dos elementos de S forma um subespa co de X, chamado
espaco gerado por S e denotado < S >. Mostre que se Y X e um subespa co tal
que S Y , ent ao < S > Y . (Esse exerccio generaliza o procedimento usado na
demonstra c ao do teorema 1.3.10).
9. Mostre que U V e um subespa co de X, se U e V s ao subespa cos de X. O subespa co
U V e chamado intersecao dos subespa cos U e V .
10. Se S X e linearmente independente, mostre que 0 , S. Mostre que se um conjunto possui
um subconjunto linearmente dependente, ent ao esse conjunto e linearmente dependente.
11. Qual a raz ao, na demonstra c ao do lema 1.3.2, de substituirmos sempre um dos elementos
x
j
, . . . , x
n
do conjunto x
j
, . . . , x
n
, y
1
, . . . , y
j1
pelo elemento y
j
? Porque n ao podemos
substituir y
j
por um dos elementos y
1
, . . . , y
j1
?
12. Seja T o espa co vetorial de todos os polin omios na vari avel x, com coecientes em K. Seja
S = 1, x, x
2
, . . . , x
n
, . . .. Mostre que S e uma base de T.
8 CAP

ITULO 1. BASE E DIMENS

AO
13. Mostre que uma transforma c ao linear T : X Y e injetiva se, e somente se, ker T = 0,
em que ker T := v X; Tv = 0.
14. Mostre que K
n
e T
n
s ao isomorfos.
15. Seja T : X Y um isomorsmo entre os espa cos X e Y . Mostre que a inversa T
1
:
Y X e linear.
16. Mostre que todo espa co vetorial de dimens ao n sobre o corpo K e isomorfo a K
n
. Esse
isomorsmo e unico? Conclua que quaisquer dois espa cos de dimens ao n sobre o mesmo
corpo K s ao sempre isomorfos. Os espa cos R
n
e C
n
s ao isomorfos?
17. Mostre que S e uma base de X se, e somente se, todo elemento x X pode ser escrito de
maneira unica como combina c ao linear dos elementos de S.
18. Seja X um espa co vetorial de dimens ao n. Se S = y
1
, . . . , y
n
e um conjunto linearmente
independente, mostre que S e uma base de X.
19. Sejam X um espa co vetorial de dimens ao n e S = y
1
, . . . , y
n
um conjunto que gera X.
Mostre que S e uma base de X.
20. Seja X um espa co de dimens ao n e V
1
V
k
uma soma direta de subespa cos de X.
Mostre que dimV
1
V
k
= dimV
1
+. . . + dimV
k
n.
21. Sejam U, V subespa cos de X. Mostre que dimU +V = dimU + dimV dim(U V ).
22. Denotaremos por M
nn
o conjunto das matrizes n n. Dena o = A M
nn
; A
T
= A,
em que A
T
denota a transposta da matriz A (o e o conjunto das matrizes simetricas);
dena / = A M
nn
; A
T
= A (/ e o conjunto das matrizes anti-simetricas). Mostre
que M
nn
= o /.
23. Seja uma rela c ao de equivalencia
1
num conjunto A. Dado x A, denote
cl(x) =: y A; y x
a classe de equivalencia do elemento x. Mostre que A pode ser escrito como uma uni ao
disjunta de suas classes de equivalencia.
24. Mostre que a congruencia m odulo Y e uma rela c ao de equivalencia.
25. Seja W R
3
o subespaco (verique!) formado por todas as solu c oes da equa c ao linear
homogenea 2x + 3y + 4z = 0. Descreva as classes de equivalencia de W em R
3
.
26. Seja Y um subespa co de X. Mostre que X e isomorfo a Y X/Y .
27. A soma direta de espa cos vetoriais X
1
, X
2
e o conjunto X
1
X
2
de todos os pares
(x
1
, x
2
) com x
1
X
1
e x
2
X
2
. Denindo adi c ao e multiplica c ao por escalar coordenada
a coordenada, mostre que X
1
X
2
e um espa co vetorial. Se X
1
e X
2
tem dimens ao nita,
ent ao dimX
1
X
2
= dimX
1
+ dimX
2
.
1
Quer dizer, se x, y, z A, ent ao: (i) x x; (ii) se x y, ent ao y x; (iii) se x y e y z, ent ao x z.
Captulo 2
Dualidade
O captulo visa a apresenta c ao de uma primeira vers ao do Teorema de Representa c ao de Riesz e
tambem do isomorsmo can onico entre o espa co X e o bidual X

. Ele pode ser suprimido numa


primeira leitura ou a criterio do instrutor.
2.1 Isomorsmos
Lema 2.1.1 Sejam X, Y espa cos vetoriais de dimens ao nita sobre o corpo K. Ent ao, se
T : X Y e um isomorsmo, a imagem por T de toda base de X e uma base de Y . Em
particular, dimX = dimY .
Demonstracao: Seja x
1
, . . . , x
n
uma base de X. Armamos que Tx
1
, . . . , Tx
n
e uma
base de Y . De fato, seja y Y qualquer. Existe um unico x X tal que Tx = y. Mas
x =
1
x
1
+. . . +
n
x
n
para escalares
1
, . . . ,
n
K. A linearidade de T ent ao garante que
y = T(x) =
1
Tx
1
+. . . +
n
Tx
n
,
mostrando que Tx
1
, . . . , Tx
n
gera Y . Suponhamos agora que
1
Tx
1
+ . . . +
n
Tx
n
= 0 para
certos escalares
1
, . . . ,
n
. Ent ao T(
1
x
1
+. . .+
n
x
n
) = 0. Como T e injetora,
1
x
1
+. . .+
n
x
n
=
0. Como x
1
, . . . , x
n
e base,
1
= . . . =
n
= 0.
2
2.2 O espaco dual
Denicao 2.2.1 Se X e um espa co vetorial sobre K, consideremos o conjunto
: X K : e linear.
De maneira natural vemos que esse conjunto tem uma estrutura de espa co vetorial, se denirmos,
para escalar e , m nesse conjunto,
( +m)(x) = (x) +m(x), ()(x) = (x).
Com essas opera c oes, denotamos X

= : X K : e linear o espaco dual de X. Os


elementos de X

s ao chamados funcionais lineares.


9
10 CAP

ITULO 2. DUALIDADE
Exemplo 2.2.2 Seja X = f : [0, 1] R : f e contnua. Dena (f) =
_
1
0
f(s)ds e, para
s
0
[0, 1] xo, m(f) = f(s
0
). Ent ao , m X

.
Seja x
1
, . . . , x
n
uma base do espa co vetorial X. Para x X, existem escalares
1
(x), . . . ,
n
(x)
tais que
x =
1
(x)x
1
+. . . +
n
(x)x
n
.
Os escalares s ao justamente as coordenadas de x na base x
1
, . . . , x
n
. (Quer dizer, se x =

1
x
1
+. . . +
n
x
n
e y =
1
x
1
+. . . +
n
x
n
, estamos denotando
i
(x) =
i
e
i
(y) =
i
).
Teorema 2.2.3 Seja B = x
1
, . . . , x
n
uma base de X e
x =
1
(x)x
1
+. . . +
n
(x)x
n
.
Ent ao:
(i) para todo i = 1, . . . , n,
i
: X K e um funcional linear e
i
(x
j
) =
ij
;
(ii) o conjunto
1
, . . . ,
n
e uma base de X

, chamada base dual da base B;


(iii) se m X

, ent ao
m(x) =
1
(x)m(x
1
) +. . . +
n
(x)m(x
n
).
(iv) para todo 0 ,= x X, existe m X

tal que m(x) ,= 0.


Demonstracao: (i) Suponhamos que x =
1
x
1
+ . . . +
n
x
n
e y =
1
x
1
+ . . . +
n
x
n
(quer
dizer,
i
(x) =
i
e
i
(y) =
i
). Ent ao x + y = (
1
+
1
)x
1
+ . . . + (
n
+
n
)x
n
e, portanto

i
(x +y) =
i
+
i
=
i
(x) +
i
(y).
(ii) Suponhamos que
1

1
+ . . . +
n

n
= 0 X

. Avaliando esse funcional sucessivamente


nos vetores x
1
, . . . , x
n
conclumos que
1
= . . . =
n
= 0. Seja agora m X

. Ent ao
m(x) = m(
1
x
1
+. . . +
n
x
n
) =
1
m(x
1
) +. . . +
n
m(x
n
) =
1
(x)m(x
1
) +. . . +
n
(x)m(x
n
),
provando n ao apenas que
1
, . . . ,
n
gera X

, mas tambem a arma c ao (iii).


(iv) Se 0 ,= x, ent ao alguma coordenada
i
(x) na express ao x =
1
(x)x
1
+ . . . +
n
(x)x
n
n ao
e nula. Considere m =
i
.
2
Observacao 2.2.4 A parte (iii) do teorema 2.2.3 e uma vers ao do Teorema de Representa c ao
de Riesz; veja o teorema 6.3.5.
Uma vez que X

e um espa co vetorial de dimens ao n, temos que esse espa co tem o seu dual,
que denotaremos X

e chamaremos o bidual de X. O teorema anterior garante ent ao que


dimX

= n, pois j a vimos que dimX

= n.
Note que X

e, por deni c ao, o espa co vetorial de aplica c oes lineares


X

= L : X

K : L e linear.
2.2. O ESPAC O DUAL 11
Quer dizer, L e uma transforma c ao linear que associa, a cada funcional linear : X K, o
n umero L() K. Os elementos de X

s ao, aparentemente, complicados. Mostraremos que as


aplica c oes lineares em X

est ao canonicamente associadas aos vetores do espa co X. Quer dizer,


existe um isomorsmo entre X e X

que independe da utiliza c ao de qualquer base nesses espa cos


vetoriais. (A existencia de um isomorsmo entre esses espa cos e trivial, j a que eles tem a mesma
dimens ao; veja o exerccio 16 do captulo 1).
Lema 2.2.5 Para cada x X xo, considere a aplica c ao L
x
: X

K denida por
L
x
() = (x).
Quer dizer, L
x
associa a cada funcional linear X

o valor que assume no ponto x. Ent ao


L
x
X

.
Demonstracao: Suponhamos que , m X

. Ent ao, se K,
L
x
( +m) = ( +m)(x) = (x) +m(x) = L
x
() +L
x
(m).
(Compare essa demonstra c ao com o exemplo 2.2.2).
2
Teorema 2.2.6 Todo elemento do espa co X

e da forma L
x
, para algum x X.
Demonstracao: Apesar de ser constituda de etapas bastante simples, a ideia da demonstra c ao
e relativamente elaborada. Denimos = L
x
: x X. Quer dizer, os elementos de s ao as
aplica c oes lineares denidas no lema anterior. Vamos mostrar, em primeiro lugar, que e um
subespa co de X

. Depois, mostraremos que X e isomorfo a . Assim, dim = n = dimX

.
Isso quer dizer que = X

.
1a. parte: e um subespa co de X

.
Sejam L
x
, L
y
e K. Consideremos L
x
+ L
y
. Queremos mostrar que essa aplica c ao
linear e um elemento de , isto e, L
x
+L
y
= L
z
para algum z X. Temos, para X

,
(L
x
+L
y
)() = L
x
() +L
y
() = (x) +(y) = (x +y) = L
x+y
().
2a. parte: X e isomorfo a . Denimos
T : X
x L
x
.
Vamos mostrar que T e um isomorsmo entre X e . Temos que
T(x +y) = L
x+y
= L
x
+L
y
= T(x) +T(y),
de acordo com o que mostramos na primeira parte. A aplica c ao T e sobrejetiva por deni c ao.
A injetividade tambem e clara: se T(x) = T(y), ent ao L
x
= L
y
e, portanto, L
x
() = L
y
()
para todo X

. Mas ent ao (x) = (y) e (x y) = 0 para todo X

. Mas isto implica


que x y = 0, de acordo com o teorema 2.2.3, (iv). Isto mostra a injetividade e completa a
demonstra c ao.
2
Conclumos esse captulo com o seguinte resultado, surpreendente ` a primeira vista:
12 CAP

ITULO 2. DUALIDADE
Teorema 2.2.7 Sejam t
1
, . . . , t
n
pontos distintos do intervalo I. Ent ao existem constantes
m
1
, . . . , m
n
tais que
_
I
p(t)dt = m
1
p(t
1
) +. . . +m
n
p(t
n
)
para todo polin omio p de grau menor do que n.
Demonstracao: O espa co T
n
de todos os polin omios p(t) = a
0
+ a
1
t + . . . + a
n1
t
n1
de grau
menor do que n e isomorfo a K
n
e, portanto, tem dimens ao n.
Denimos
j
(p) = p(t
j
). Ent ao
j
T

n
. Armamos que
1
, . . . ,
n
e linearmente indepen-
dente. De fato, suponhamos que

1
+. . . +
n

n
= 0 T

n
.
Isso implica que

1
p(t
1
) +. . . +
n
p(t
n
) = 0, p T
n
. (2.1)
Considere os polin omios
q
1
(t) = (t t
2
) (t t
n
), q
2
(t) = (t t
1
)(t t
3
) (t t
n
), . . . , q
n
(t) = (t t
1
) . . . (t t
n1
).
Cada polin omio q
i
possui exatamente n 1 razes nos pontos t
j
, com j ,= i. Substituindo
sucessivamente os polin omios q
i
na rela c ao (2.1), obtemos
i
q(t
i
) = 0, o que implica
i
= 0. Isso
mostra que
1
, . . . ,
n
e linearmente independente em T

n
e, portanto, uma base desse espa co,
que tem dimens ao n.
Assim, todo funcional linear : T
n
R e uma combina c ao linear dos funcionais
1
, . . . ,
n
e,
portanto,
= m
1

1
+. . . +m
n

n
para escalares m
1
, . . . , m
n
K. O resultado decorre ao considerarmos o funcional linear
p
_
I
p(t)dt.
2
2.3 Exerccios
1. Considere a base B := v
1
, v
2
do R
2
, em que v
1
= (2, 1) e v
2
= (3, 1). Acha a base dual
de B.
2. Seja T
n
o espa co de todos os polin omios (com coecientes em R) de grau menor do que
n. Mostre que as seguintes aplica c oes pertencem ao dual de T
n
: (a)
i
(p(t)) = a
i
para
todo i = 0, 1, . . . , n 1, se p(t) T
n
e dado por p(t) = a
0
+ a
1
t + . . . + a
n1
t
n1
; (b)
J(p(t)) =
_
1
0
p(t)dt, para todo p(t) T
n
(t).
3. Considere o espa co T
2
, como acima. Sejam
1
: T
2
R e
2
: T
2
R dadas por

1
(p(t)) =
_
1
0
p(t)dt e
2
(p(t)) =
_
2
0
p(t)dt. Mostre que B

=
1
,
2
e uma base de T

2
.
Ache a base v
1
, v
2
de T
2
da qual B

e dual.
2.3. EXERC

ICIOS 13
4. Sejam X um espa co vetorial arbitr ario e f : X K um funcional linear n ao-nulo.
(a) Mostre que ker f tem codimensao 1, isto e, existe w X tal que
X = ker f < w > .
(denotamos < w > o espa co gerado por w X).
(b) Se g : X K e outro funcional linear, ent ao g e um m ultiplo escalar de f se, e
somente se, o n ucleo de g contiver o n ucleo de f.
(c) Sejam , f
1
, . . . , f
r
funcionais lineares no espa co X. Mostre que e combina c ao linear
de f
1
, . . . , f
r
se, e somente se, ker f
1
ker f
r
ker .
5. Sejam X um espa co vetorial e S X um subconjunto arbitr ario. O anulador de S e o
conjunto S

= f X

: f(s) = 0 s S. Mostre que S

e um subespa co de X

.
6. Seja Y X um subespa co do espa co vetorial de dimens ao nita X. Mostre que dimX =
dimY + dimY

. Identicando X e X

(de acordo com o teorema 2.2.6), mostre que


Y

= Y .
7. Seja S = (2, 2, 3, 4, 1), (1, 1, 2, 5, 2), (0, 0, 1, 2, 3), (1, 1, 2, 3, 0) R
5
. Obtenha
o anulador de < S >.
8. Sejam A, B matrizes n n. Mostre que a igualdade AB BA = I nunca e satisfeita.
9. Seja W X um subespa co e f : W K linear. Mostre que existe um funcional linear
: X K que estende f, isto e, (w) = f(w) para todo w W.
Captulo 3
Aplicac oes Lineares
3.1 Aplicac oes lineares e matrizes I
Sejam X e Y espa cos vetoriais sobre o mesmo corpo K. Como sabemos, uma aplicacao linear
(ou transforma c ao linear) e uma aplica c ao T : X Y tal que
T(x +y) = T(x) +T(y), x, y X e K.
Exemplo 3.1.1 Um isomorsmo e sempre uma transforma c ao linear. Se X = Y = R
2
,
denindo T como sendo uma rota c ao de um angulo em torno da origem, vemos que T e
linear (verique!). Se T e o espa co vetorial de polin omios, T : T T denida por T(p) = p

(deriva c ao) e uma transforma c ao linear, bem como S(p) =


_
p (integra c ao).
Exemplo 3.1.2 Sejam X = R
n
e Y = R
m
e a
ij
R, para j = 1, . . . , n e i = 1, . . . , m. Para
x X, denimos y = Tx por
y
i
=
n

j=1
a
ij
x
j
, i = 1, . . . , m. (3.1)
(Estamos denotando x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
m
), sendo y
i
= (Tx)
i
a i-esima coordenada
de y). Armamos que T e linear. De fato, se w = (w
1
, . . . , w
n
) R
n
e R, temos
(T(x +w))
i
=
n

j=1
a
ij
(x
j
+w
j
) =
n

j=1
a
ij
x
j
+
n

j=1
a
ij
w
j
= (Tx)
i
+(Tw)
i
.
(Escolha i 1, . . . , m e escreva explicitamente a soma que est a sendo efetuada).
Teorema 3.1.3 Toda aplica c ao linear T : R
n
R
m
e da forma (3.1).
Demonstracao: Considere a base can onica e
1
, . . . , e
n
do R
n
. Temos ent ao que x = x
1
e
1
+
. . . +x
n
e
n
=

n
j=1
x
j
e
j
. Como T e linear,
y = Tx = T
_
n

j=1
x
j
e
j
_
=
n

j=1
x
j
T(e
j
).
14
3.1. APLICAC

OES LINEARES E MATRIZES I 15
Denote a i-esima coordenada do vetor T(e
j
) por a
ij
, isto e, a
ij
= (T(e
j
))
i
. Assim, a i-esima
coordenada de y e
y
i
=
n

j=1
x
j
a
ij
,
como queramos provar.
2

E conveniente representar os coecientes (a


ij
) da express ao (3.1) como um arranjo retangular:
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
;
denominamos tal arranjo matriz mn, m sendo o n umero de linhas e n o n umero de colunas.
O elemento t
ij
e a entrada correspondente ` a linha i e coluna j.
Denicao 3.1.4 Sejam T, S aplica c oes lineares de X para Y . Denimos
(T +S)(x) = Tx +Sx, (T)(x) = Tx.
Com essas opera c oes, o conjunto de todas as aplica c oes lineares de X para Y e um espa co
vetorial, denotado L(X, Y ).
(Compare a deni c ao acima com a deni c ao do espa co dual).
O exemplo 3.1.2 e o teorema 3.1.3 mostram que existe uma correspondencia bijetiva entre
o conjunto de matrizes m n e L(R
n
, R
m
). Denotamos o elemento a
ij
da matriz A, chamada
matriz que representa T (com rela c ao ` as bases can onicas do R
n
e R
m
) por
T
ij
= a
ij
.
Lema 3.1.5 Sejam S, T : R
n
R
m
. Ent ao (S +T)
ij
= S
ij
+T
ij
e (T)
ij
= T
ij
.
Em outras palavras, est ao assim denidas a soma de duas matrizes m n (como a matriz
obtida ao se somar as entradas correspondentes de cada matriz) e a multiplica c ao de uma matriz
por um escalar (como a matriz obtida ao se multiplicar cada entrada da matriz pelo escalar).
As opera c oes no espa co L(R
n
, R
m
) correspondem `as opera c oes no conjunto das matrizes mn,
fazendo desse conjunto, denotado M
mn
, um espa co vetorial.
Demonstracao: Utilizando a nota c ao do teorema 3.1.3, temos, por deni c ao, que a
ij
e b
ij
s ao
as i-esimas coordenadas dos vetores T(e
j
) e S(e
j
). Assim, se somamos as i-esimas coordenadas
desses vetores, obtemos b
ij
+ a
ij
. Por outro lado, S(e
j
) + T(e
j
) = (S + T)(e
j
), de modo que a
i-esima componente do vetor (S +T)(e
j
) e b
ij
+a
ij
.
Do mesmo modo, a i-esima componente do vetor (T)(e
j
) e multiplicado pela i-esima
componente do vetor T(e
j
).
2
16 CAP

ITULO 3. APLICAC

OES LINEARES
3.2 Composta de aplicac oes lineares e multiplicacao de
matrizes
Sejam X, Y e Z espa cos vetoriais sobre o mesmo corpo K, e T : X Y e S : Y Z aplica c oes
lineares. Denotamos S T : X Z a aplica c ao composta de T com S. Quer dizer,
(S T)x = S(Tx).

E f acil vericar que ST L(X, Z). Alem disso, se R : Z W e linear, temos que R(ST) =
(R S) T (quer dizer, a composi c ao de aplica c oes e uma opera c ao associativa; isso independe
da linearidade de R, S e T).
Mais do que isso, temos
(P +S) T = P T +S T P L(Y, Z)
e
S (T +Q) = S T +S Q, Q L(X, Y ).
(tambem essas propriedades independem da linearidade).

E usual denotar, no caso de aplica c oes lineares, S T por ST e cham a-lo produto das
aplica c oes lineares S e T. Note que, em geral, ST ,= TS (na verdade, os dois lados nem
precisam estar simultaneamente denidos; mesmo estando, n ao h a raz ao para eles serem iguais).
Atraves do Lema 3.1.5 foram interpretadas as opera c oes no espa co vetorial L(R
n
, R
m
) em
termos de opera c oes entre matrizes, introduzindo assim opera c oes em M
mn
que fazem desse
conjunto um espa co vetorial, isomorfo ao espa co L(R
n
, R
m
) (verique que temos realmente um
isomorsmo!). A composi c ao de aplica c oes lineares (quando possvel) tambem pode ser inter-
pretada como opera c ao entre matrizes. Veremos que elas correspondem ` a multiplica c ao dessas,
o que justica a denomina c ao de produto para a composi c ao de aplica c oes lineares e a nota c ao
ST ao inves de S T.
O nosso ponto de partida, para isso, consiste da express ao (3.1). Considerando o vetor x = e
j
,
vemos que o lado direito de (3.1) produz a j-esima coluna da matriz (a
ij
). Mas Te
j
e justamente
um vetor do R
m
, cuja i-esima coordenada e a
ij
. Assim, e natural interpretar os vetores em R
m
como colunas. Para sermos consistentes com esse fato, interpretaremos tanto os vetores no R
n
como os vetores no R
m
como vetores coluna.
Uma matriz A pode ser concebida de duas maneiras diferentes: como uma linha de vetores
coluna ou como uma coluna de vetores linha:
A = (c
1
c
2
. . . c
n
) =
_
_
_

1
.
.
.

m
_
_
_
, em que c
j
=
_
_
_
a
1j
.
.
.
a
nj
_
_
_
e
i
= (a
i1
a
i2
a
in
). (3.2)
Enfatizamos a equa c ao obtida acima:
Te
j
= c
j
. (3.3)
Utilizaremos as diversas concep c oes de uma matriz - arranjo de n umeros ou de vetores linha ou
vetores coluna - para podermos interpretar a composi c ao de aplica c oes lineares e introduzirmos
a multiplica c ao de matrizes.
3.2. COMPOSTA DE APLICAC

OES LINEARES E MULTIPLICAC

AO DE MATRIZES 17
Para isso, come camos por considerar um caso simples: aquele em que a matriz e composta
por uma unica linha. De acordo com o lema 3.1.5, uma matriz linha (c
1
. . . c
n
) corresponde a
uma aplica c ao linear : R
n
R. Temos, assim, uma interpreta c ao para os elementos do espa co
dual do R
n
: eles s ao as matrizes-linha, isto e, as matrizes formadas por uma unica linha e n
colunas!
Calculando (x) = x (o vetor x sendo interpretado como um vetor coluna), obtemos, de
acordo com (3.1),
x = (c
1
. . . c
n
)
_
_
_
x
1
.
.
.
x
n
_
_
_
= c
1
x
1
+c
2
x
2
+. . . +c
n
x
n
. (3.4)
Essa f ormula, em particular, dene o produto de uma matriz linha por uma matriz coluna!
A f ormula de multiplica c ao de uma matriz mn por uma matriz coluna n1 decorre tambem
imediatamente de (3.1): se T L(R
n
, R
m
) e representada pela matriz (a
ij
), ent ao y = Tx tem
coordenadas
y
i
=
n

j=1
a
ij
x
j
, i = 1, . . . , m. (3.5)
Uma vez que j a convencionamos que os nossos vetores s ao representados por colunas e
Tx =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
,
vemos que
y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
= Tx =
_
_
_
_
_

2
.
.
.

m
_
_
_
_
_
x =
_
_
_
_
_

1
x

2
x
.
.
.

m
x
_
_
_
_
_
, (3.6)
o que vem da compara c ao de (3.5) com (3.4).
Agora e f acil obter a f ormula de multiplica c ao de uma matriz p m por uma matriz mn:
uma matriz pm corresponde a uma aplica c ao linear S L(R
m
, R
p
) e uma matriz mn a uma
aplica c ao linear T L(R
n
, R
m
). A composi c ao ST L(R
n
, R
p
) est a bem denida e produz uma
matriz p n. Vamos caracterizar essa matriz. Pela equa c ao (3.3), Te
j
e igual a c
j
, a j-esima
coluna de T. Do mesmo modo (ST)e
j
corresponde ` a j-esima coluna da matriz que representa
ST. Aplicando a f ormula (3.6) para x = c
j
= Te
j
, temos ent ao
(ST)e
j
= S(Te
j
) = Sc
j
=
_
_
_

1
c
j
.
.
.

p
c
j
_
_
_
,
em que
k
e a k-esima linha de S. Mostramos assim a regra: se S e uma matriz p m e T uma
matriz mn, ent ao o produto ST e uma matriz p n, cuja entrada kj e o produto da k-esima
18 CAP

ITULO 3. APLICAC

OES LINEARES
linha de S pela j-esima coluna de T:
(ST)
kj
=
k
c
j
,
em que
S =
_
_
_

1
.
.
.

k
_
_
_
e T = (c
1
c
n
).
Note que, uma vez que o produto de transforma c oes lineares e associativo, a multiplica c ao de
matrizes e associativa. Outras propriedades b asicas da multiplica c ao de matrizes decorrem, do
mesmo modo, das propriedades an alogas da composi c ao de aplica c oes lineares.
3.3 O teorema do n ucleo e da imagem
Denicao 3.3.1 Seja T : X Y uma aplica c ao linear. Denimos a imagem de T, denotada
1mT, por
1mT := y Y ; y = Tx.
Denimos o n ucleo de T, denotado ker T, por
ker T := x X; Tx = 0.
O n ucleo e a imagem de T s ao subespa cos vetoriais de X e Y , respectivamente. De fato, se
x
1
, x
2
ker T e K, ent ao T(x
1
+ x
2
) = T(x
1
) + T(x
2
) = 0 + 0 = 0, provando que
x
1
+ x
2
ker T. Se y
1
, y
2
1mT, ent ao existem x
1
, x
2
X tais que y
1
= T(x
1
) e y
2
= T(x
2
).
Logo, se K, y
1
+y
2
= T(x
1
) +T(x
2
) = T(x
1
+x
2
), o que mostra que y
1
+y
2
1mT.
Temos ent ao um dos resultados mais importantes da

Algebra Linear:
Teorema 3.3.2 (do n ucleo e da imagem) Sejam X e Y espa cos vetoriais de dimens ao nita
e T L(X, Y ). Ent ao
dimX = dimker T + dim1mT.
Apresentaremos duas demonstra c oes distintas desse teorema. A primeira usa a linguagem de
espa co quociente e e bastante sintetica. A segunda e bastante construtiva.
Para motivar a primeira demonstra c ao, cujo fundamento perpassa o estudo de todas as
estruturas algebricas, apresentamos o
Exemplo 3.3.3 Seja A uma matriz mn e considere o sistema linear n ao homogeneo Ax = b.
Suponhamos que x
p
seja uma solu c ao desse sistema. Claramente, x
p
+z tambem e solu c ao desse
sistema para qualquer z ker A. Mas essas s ao as unicas solu c oes. De fato, se x e outra solu c ao,
temos que A(x x
p
) = 0, de modo que x x
p
= z ker A.
A igualdade x = x
p
+z, com z ker A, signica que x x
p
mod ker A. Portanto, no espa co
quociente R
n
/ ker A a equa c ao Ax = b ter a solu c ao unica [x
p
]!
3.3. O TEOREMA DO N

UCLEO E DA IMAGEM 19
1a. Demonstracao: Essa prova pode ser sintetizada pelo seguinte diagrama:
T
X 1mT Y

X
ker T
T
q
Vamos denir um isomorsmo T
q
:
X
ker T
1mT. Como espa cos isomorfos de dimens ao nita
tem a mesma dimens ao, deduzimos que
dim
_
X
ker T
_
= dim1mT.
Mas, como j a vimos, dimX/ ker T = dimX dimker T, de onde segue o teorema.
Denimos, para [x] X/ ker T, T
q
([x]) = Tx. Temos:
1. T est a bem denida: x y mod ker T quer dizer que T(xy) = 0, ou seja, T(x) = T(y).
2. T
q
e linear: T
q
([x] +[y]) = T
q
([x +y]) = T(x +y) = Tx +Ty = T
q
([x]) +T
q
([y]).
3. T
q
e injetiva: se T
q
([x]) = T
q
([y]), ent ao Tx = Ty e T(xy) = 0, donde x y mod ker T.
4. T
q
e sobrejetiva, por deni c ao.
Logo T
q
e um isomorsmo e o resultado est a provado.
2
A demonstra c ao acima e a pr opria essencia da utilidade do espa co quociente. Ela mostra
que, mesmo se T n ao tiver inversa, podemos construir, de maneira natural, um isomorsmo ` a
partir de T, no caso, a aplica c ao T
q
.
2a. Demonstracao: Como 1mT Y e um espa co vetorial de dimens ao nita, existe uma base
y
1
, . . . , y
j
para 1mT. Para cada elemento y
i
existe x
i
X tal que Tx
i
= y
i
, com 1 i j.
Armamos que o conjunto x
1
, . . . , x
j
assim obtido e linearmente independente. De fato,
suponhamos que
1
x
1
+. . . +
j
x
j
= 0. Ent ao
0 = T(
1
x
1
+. . . +
j
x
j
) =
1
T(x
1
) +. . . +
j
T(x
j
) =
1
y
1
+. . . +
j
y
j
.
Como y
1
, . . . , y
j
s ao linearmente independentes,
i
= 0 para 1 i j, como queramos.
Consideremos agora uma base w
1
, . . . , w
k
do n ucleo de T. Armamos que
x
1
, . . . , x
j
, w
1
, . . . , w
k

e uma base de X.
Dado x X, como Tx 1mT, Tx =
1
y
1
+. . . +
j
y
j
, quer dizer, Tx = T(
1
x
1
+. . . +
j
x
j
)
e portanto T(x
1
x
1
. . .
j
x
j
) = 0. Assim, x
1
x
1
. . .
j
x
j
ker T, donde
x
1
x
1
. . .
j
x
j
=
1
w
1
+. . . +
k
w
k
.
20 CAP

ITULO 3. APLICAC

OES LINEARES
Isso mostra que x =
1
x
1
+ . . . +
j
x
j
+
1
w
1
+ . . . +
k
w
k
, e que x
1
, . . . , x
j
, w
1
, . . . , w
k
gera
X.
Suponhamos agora que
1
x
1
+ . . . +
j
x
j
+
1
w
1
+ . . . +
k
w
k
= 0. Aplicando T nessa
igualdade temos
1
y
1
+ . . . +
j
y
j
= 0, o que nos permite concluir que
i
= 0 para i = 1, . . . , j.
Mas ent ao
1
w
1
+. . . +
k
w
k
= 0. Como w
1
, . . . , w
k
e linearmente independente, temos
i
= 0
para i = 1, . . . , k, o que mostra que todos os escalares s ao nulos e completa a demonstra c ao.
2
Se voce comparar essas duas demonstra c oes, voce perceber a que a essencia da segunda e o
procedimento aplicado na primeira: mostrou-se que existe um isomorsmo entre 1mT, espa co
cuja base e y
1
, . . . , y
j
= Tx
1
, . . . , Tx
j
, e o espa co gerado por x
1
, . . . , x
j
. Esse ultimo
espa co e justamente X/ ker T!
Mostraremos agora algumas conseq uencias do Teorema do n ucleo e da imagem. As demon-
stra c oes seguem imediatamente da f ormula
dimX = dim1mT + dimker T.
Corolario 3.3.4 Suponhamos que dimY < dimX. Ent ao existe x ,= 0 tal que Tx = 0.
Demonstracao: Note que, em particular, dim1mT < dimX.
2
O corol ario 3.3.4 e muitas vezes formulado em termos de sistemas lineares:
Corolario 3.3.5 Seja T : R
n
R
m
linear, com m < n. Ent ao o sistema linear homogeneo
Tx = 0 (em que T esta sendo identicada com a matriz que a representa) possui solu c ao n ao
trivial, isto e, existe x ,= 0 tal que Tx = 0.
Corolario 3.3.6 Se dimX = dimY , ent ao T e injetiva se, e somente se, T e sobrejetiva.
Demonstracao: Se T e injetiva, T(x) = 0 implica x = 0. Logo, dimker T = 0. Assim,
dim1mT = dimX = dimY e, portanto, 1mT = Y . Reciprocamente, se T e sobrejetiva,
1mT = Y e, portanto, dimker T = 0.
2
Em particular o corol ario 3.3.6 garante, quando dimX = dimY , que T e injetiva se, e somente
se, ker T = 0. Esse resultado e v alido, na verdade, para quaisquer espa cos vetoriais X e Y .
De fato
1
, se T e injetiva, claramente ker T = 0; se existisse x
1
,= x
2
tal que T(x
1
) = T(x
2
),
ent ao T(x
1
x
2
) = 0, com x
1
x
2
,= 0.
A formula c ao do corol ario 3.3.6 em termos de sistemas lineares e a seguinte:
Corolario 3.3.7 Seja T : R
n
R
n
linear. Ent ao o sistema n ao homogeneo Tx = y tem solu c ao
unica para todo y Y se, e somente se, o sistema homogeneo Tx = 0 tem solu c ao unica.
Finalmente, enunciamos o resultado apresentado no exemplo 3.3.3, que n ao passa de uma
caracteriza c ao do isomorsmo dado na primeira demonstra c ao do teorema do n ucleo e da im-
agem:
1
Veja exerccio 13 do captulo 1.
3.4. O ESPAC O LINHA E O ESPAC O COLUNA DE UMA MATRIZ 21
Proposicao 3.3.8 Seja y R
m
um elemento da imagem de T : R
n
R
m
. Ent ao existe um
unico elemento x
p
R
n
tal que toda solu c ao de Tx = y e congruente a x
p
modulo ker T, isto e,
se Tx = y, ent ao x = x
p
+z, para algum z ker T.
3.4 O espaco linha e o espaco coluna de uma matriz
Como vimos, dada uma matriz A = (a
ij
), podemos ve-la atraves de suas linhas ou colunas:
A =
_
_
_
a
11
. . . a
1n
.
.
. . . .
.
.
.
a
m1
. . . a
mn
_
_
_
= (c
1
. . . c
n
) =
_
_
_

1
.
.
.

m
_
_
_
. (3.7)
Os vetores colunas c
1
, . . . , c
n
s ao vetores do R
m
. Se ( = c
1
, . . . , c
n
, chamamos de espa co-coluna
o espa co gerado por (, isto e, < ( > R
m
.
Por outro lado, podemos interpretar as linhas de A ou como elementos do dual (R
n
)

ou
como elementos do pr oprio espa co R
n
. Se escrevemos L =
1
, . . . ,
m
R
n
, chamamos de
espa co-linha o espa co gerado por L, isto e, < L > R
n
.
Come camos interpretando o espa co-coluna de uma matriz.
Lema 3.4.1 Considere o sistema linear n ao-homogeneo Tx = b, em que T : R
n
R
m
e
representada pela matriz A = (a
ij
). Ent ao s ao equivalentes:
(i) Existe solu c ao x para Tx = b;
(ii) O vetor b e combina c ao linear das colunas de A.
Demonstracao: Basta notar que o sistema Tx = b e equivalente ` a equa c ao
x
1
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
+x
2
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
+. . . +x
n
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
.
2
Em outras palavras, acabamos de mostrar que < ( > e o subespa co 1mT, imagem da
aplica c ao linear T.
Denicao 3.4.2 Se A = (a
ij
) e uma matriz mn, denimos a matriz transposta de A como a
matriz A
T
de ordem n m cujo elemento ij e a
ji
.
Em outras palavras, se A e a matriz dada por (3.7), ent ao
A
T
=
_
_
_
a
11
. . . a
m1
.
.
. . . .
.
.
.
a
1n
. . . a
mn
_
_
_
.
22 CAP

ITULO 3. APLICAC

OES LINEARES
Assim, as colunas da matriz A
T
s ao justamente as linhas da matriz A. Como conseq uencia
imediata do lema 3.4.1 temos que
< L >= 1m A
T
. (3.8)
Se S e a aplica c ao linear representada pela matriz A (com rela c ao ` as bases can onicas do R
n
e
R
m
), ent ao < L > e a imagem da aplica c ao linear S
T
(que e chamada transposta da aplica c ao
linear S e representada pela matriz A
T
).
Vamos agora relacionar as dimens oes dos espa cos < ( > e < L > de uma matriz A.
Mostraremos que esses espa cos tem a mesma dimens ao; isso e um fato not avel, pois eles s ao
subespa cos de espa cos vetoriais diferentes!
Teorema 3.4.3 Dada uma matriz m n, seu espa co-linha tem a mesma dimens ao de seu
espa co-coluna.
Demonstracao: Suponhamos que os vetores
b
1
= (b
11
, b
12
, . . . , b
1n
), b
2
= (b
21
, b
22
, . . . , b
2n
), . . . , b
r
= (b
r1
, b
r2
, . . . , b
rn
)
formem uma base do espa co-linha da matriz A. Ent ao cada linha
i
de A e combina c ao linear
desses elementos:

1
=
11
b
1
+. . . +
1r
b
r

2
=
21
b
1
+. . . +
2r
b
r
.
.
. =
.
.
.

m
=
m1
b
1
+. . . +
mr
b
r
Igualando a componente i de cada uma das equa c oes acima, obtemos
a
1i
=
11
b
1i
+
12
b
2i
+. . . +
1r
b
ri
a
2i
=
21
b
1i
+
22
b
2i
+. . . +
2r
b
ri
.
.
. =
.
.
.
a
mi
=
m1
b
1i
+
m2
b
2i
+. . . +
mr
b
ri
.
Quer dizer,
_
_
_
_
_
a
1i
a
2i
.
.
.
a
mi
_
_
_
_
_
= b
1i
_
_
_
_
_

11

21
.
.
.

m1
_
_
_
_
_
+b
2i
_
_
_
_
_

12

22
.
.
.

m2
_
_
_
_
_
+. . . +b
ri
_
_
_
_
_

1r

2r
.
.
.

mr
_
_
_
_
_
,
mostrando que as colunas de A s ao combina c oes lineares dos r vetores
_
_
_
_
_

11

21
.
.
.

m1
_
_
_
_
_
, . . . ,
_
_
_
_
_

1r

2r
.
.
.

mr
_
_
_
_
_
.
3.5. APLICAC

OES LINEARES E MATRIZES II 23
Isso quer dizer que o espa co-coluna tem dimens ao, no m aximo, igual a r, ou seja,
dim < ( > dim < L > .
Procedendo da mesma maneira com rela c ao a uma base do espa co-coluna, mostramos que
dim < L > dim < ( > .
Assim, essas duas dimens oes s ao iguais.
2
Temos ent ao a seguinte conseq uencia imediata:
Corolario 3.4.4 Seja A uma matriz mn. Ent ao dim1mA = dim1mA
T
.
Se denotamos r := dim1mA = dim1mA
T
, a aplica c ao do teorema do n ucleo e da imagem
garante:
dimker A = n r e dimker A
T
= mr.
Assim,
Corolario 3.4.5 Seja A uma matriz n n. Ent ao
dimker A = dimker A
T
.
Esse resultado s o vale para matrizes quadradas.
3.5 Aplicac oes lineares e matrizes II
Na primeira se c ao desse captulo mostramos como associar a cada aplica c ao linear T : R
n
R
m
uma matriz A = (a
ij
) que representa T com rela c ao ` as bases can onicas do R
n
e R
m
. Note que
o mesmo procedimento associa a cada aplica c ao linear T : C
n
C
m
uma matriz A = (a
ij
)
que representa T com rela c ao ` as bases can onicas do C
n
e C
m
. Mostraremos agora que a mesma
associa c ao entre aplica c oes lineares e matrizes e v alida para o caso de uma aplica c ao linear
T : X Y entre espacos vetoriais de dimensao nita X e Y .
A principal diferen ca, nesse caso, consiste em n ao termos uma escolha natural para bases
nos espa cos X e Y . Suponhamos que dimX = n e dimY = m. Escolhendo uma base arbitr aria
B = x
1
, . . . , x
n
do espa co X e escrevendo x =
1
x
1
+ . . . +
n
x
n
, a aplica c ao B : X K
n
denida por Bx = (
1
, . . . ,
n
) =
1
e
1
+. . . +
n
e
n
e um isomorsmo entre X e K
n
. Da mesma
forma, ao se escolher uma base ( = y
1
, . . . , y
m
no espa co Y , se obtem um isomorsmo C entre
Y e K
m
. Temos assim o seguinte diagrama:
T
X Y
B C
K
n
K
m
T
K
. (3.9)
24 CAP

ITULO 3. APLICAC

OES LINEARES
A aplica c ao linear T
K
e denida como composta de aplica c oes lineares (estamos usando a nota c ao
de composta para enfatizar)
T
K
= C T B
1
e e representada por uma matriz A, de acordo como o que vimos na primeira se c ao desse captulo.

E usual chamar a matriz A de representacao da aplicacao linear T com respeito ` as bases B


e ( (dos espa cos X e Y , respectivamente) e denotar A = T
C
B
. Temos, assim, uma identica c ao
entre a aplica c ao linear T e a matriz A = T
C
B
. Com essa identica c ao, o diagrama (3.9) pode ser
condensado:
T
C
B
X, B Y, (
(3.10)
(estamos enfatizando, na express ao dos espa cos X e Y , as bases que produziram a matriz T
C
B
).

E f acil vericar (veja exerccio 8) que a inversa T


1
, quando existe, e representada pela matriz
A
1
= [T
C
B
]
1
, chamada matriz inversa da matriz A.
Note que, em particular, esse mesmo raciocnio pode ser empregado no caso de uma aplica c ao
linear T : R
n
R
m
, se escolhermos bases arbitr arias em R
n
e R
m
.
Associamos assim a cada aplica c oes linear T : X Y uma matriz, cuja express ao depende
dos isomorsmos entre X e K
n
e Y e K
m
. Esses, por sua vez, dependem das bases consideradas
nos espa cos X e Y . Uma vez que cada escolha de base em X produz um isomorsmo diferente
entre X e K
n
e o mesmo acontece com Y e K
m
, vemos que existem muitas maneiras distintas
de representar uma transforma c ao linear por meio de uma matriz. Como se relacionam essas
diferentes matrizes que representam a aplica c ao linear T?
Seja, portanto, uma outra representa c ao T

C

B
, relativa ` as bases

B de X e

( de Y . Consideremos
a aplica c ao linear que leva as coordenadas de x na base B nas suas coordenadas na base

B. Essa
aplica c ao e um isomorsmo e e representada por uma matriz, como acabamos de sintetizar no
diagrama 3.10. Essa matriz e denotada P

B
B
: X X e chamada matriz mudanca da base
B para a base

B (no exerccio 7 se pede para mostrar que essa matriz corresponde ` a aplica c ao
identidade entre X com a base B e X com a base

B). Da mesma forma, temos o isomorsmo
Q

C
C
, mudan ca da base ( para a base

(. Temos, assim, o diagrama
T
C
B
X, B Y, (
P

B
B
Q

C
C
X,

B Y,

(
T

C

B
.
Esse diagrama, cujos componentes s ao matrizes, nos mostra que
T
C
B
= [Q

C
C
]
1
T

C

B
P

B
B
.
Note que [Q

C
C
]
1
= Q
C

C
(veja exerccio 9), de modo que
T
C
B
= Q
C

C
T

C

B
P

B
B
.
O caso em que os espa cos X e Y s ao iguais permite que se tome a mesma base nos dois espa cos.
Nesse caso, denotamos T
B
B
por T
B
, que e chamada representa c ao de T na base B. A rela c ao entre
T
B
e T
B
e dada por
T
B
= [P
B

B
]
1
T
B
P
B

B
= P

B
B
T
B
P
B

B
,
3.5. APLICAC

OES LINEARES E MATRIZES II 25
para qualquer outra base

B de X.
Exemplo 3.5.1 Considere a aplica c ao linear T : R
2
R
2
denida por
T(x, y) = (4x 2y, 2x +y).
Para simplicarmos a nota c ao nesse exemplo, escreveremos os nossos vetores indiferentemente
como linhas ou colunas.
Sejam B a base do R
2
formada pelos vetores v
1
= (1, 1) e v
2
= (1, 0). Vamos achar a
matriz que representa T com rela c ao ` a base B. Quer dizer, estamos utilizando a mesma base no
domnio e na imagem e procuramos a matriz T
B
. Para isso, calculamos
T(v
1
) = (2, 3) = 3(1, 1) + (1, 0) = 3v
1
+v
2
.
Note que escrevemos a imagem de T(v
1
) na base B, utilizada tambem no contradomnio. De
acordo com a nota c ao introduzida na deni c ao 1.3.8, temos
[T(v
1
)]
B
=
_
3
1
_
.
Da mesma forma, T(v
2
) = (4, 2) = 2(1, 1) + 2(1, 0) = 2v
1
+ 2v
2
e, portanto,
[T(v
2
)]
B
=
_
2
2
_
.
Assim,
T
B
=
_
3 2
1 2
_
.
As colunas de T
B
s ao as imagens dos vetores da base B, escritas na pr opria base B utilizada,
nesse caso, tambem no contradomnio.
Se quisermos calcular a imagem do vetor (1, 2) = 1e
1
+ 2e
2
utilizando a matriz T
B
, primeiro
expressamos esse vetor na base B:
(1, 2) = 2(1, 1) + 1(1, 0) = 2v
1
+v
2
.
Calculando
T
B
_
2
1
_
=
_
3 2
1 2
__
2
1
_
=
_
4
4
_
,
obtemos a resposta na base B. Se quisermos a resposta na base can onica, precisamos escrever
o resultado obtido nessa base:
4(1, 1) + 4(1, 0) = (0, 4) = 0e
1
+ 4e
2
,
que e o mesmo que calcular diretamente T(1, 2) utilizando a express ao T(x, y) = (4x2y, 2x+y).
Para entendermos melhor a estrutura desse exemplo, temos o seguinte diagrama
T
E
R
2
, c R
2
, c
P
B
E
P
B
E
R
2
, B R
2
, B
T
B
.
26 CAP

ITULO 3. APLICAC

OES LINEARES
Aqui, T
E
e a representa c ao natural da transforma c ao T(x, y) = (4x 2y, 2x + y). Isso e, a
matriz cujas colunas s ao, respectivamente, T(1, 0) = (4 2) e T(0, 1) = (2 1).)
A matriz T
B
e a matriz obtida no exemplo. A matriz P
B
E
e a matriz mudan ca da base c para
a base B. Ela e obtida pelo mesmo metodo (veja exerccio 7): escrevemos a imagem dos vetores
e
1
, e
2
pela aplica c ao identidade na base B. Temos
(1, 0) = 0(1, 1) 1(1, 0) = 0v
1
v
2
e (0, 1) = 1(1, 1) + 1(1, 0) = 1v
1
+ 1v
2
.
A matriz P
B
E
e, ent ao,
P
B
E
=
_
0 1
1 1
_
.
O diagrama anterior garante que
T
E
= [P
B
E
]
1
T
B
P
B
E
,
ou seja,
_
4 2
2 1
_
=
_
0 1
1 1
_
1
_
3 2
1 2
__
0 1
1 1
_
Se calcularmos a inversa da matriz P
B
E
, vericaremos esse fato. Entretanto, e f acil obter P
E
B
.
Essa matriz tem como colunas a express ao dos vetores v
1
e v
2
na base can onica. Assim, e claro
que
P
E
B
=
_
1 1
1 0
_
.
Verique que P
E
B
= [P
B
E
]
1
.
3.6 A transposta de uma aplicacao linear
Existe uma maneira intrnseca de se denir a aplica c ao transposta T
T
de um operador linear
T. (No caso de aplica c oes lineares se denota a transposta T
T
tambem por T

, o que faremos a
seguir).
Para isso, sejam T : X Y uma aplica c ao linear entre os espa cos X e Y e Y

, isto e,
: Y K e linear. Ent ao o produto dessas aplica c oes (isto e, a composta) T : X K e um
elemento do dual X

.
T
X Y

m

K
Estamos denotando (provisoriamente) m

(x) = (Tx). Note que, variando Y



, obtemos
diferentes aplica c oes m X

. Consideremos ent ao T

: Y

denida por
T

() = (Tx) = m

(x).
Armamos que T

e linear. De fato,
T

(
1
+
2
) = (
1
+
2
)(Tx) =
1
(Tx) +
2
(Tx) = T

(
1
) +T

(
2
),
3.7. EXERC

ICIOS 27
para quaisquer
1
,
2
Y

e K. Desse modo, a aplica c ao T

e denida como uma aplica c ao


linear denida no espa co dual Y

e tomando valores no espa co dual X

.
Vamos agora introduzir uma nova nota c ao para a avalia c ao de um elemento do dual em
um ponto do espa co: ate agora estamos denotando, se : Z

K e z Z, (z). Tambem
denotaremos (z) por
, z).
Abandonaremos a nota c ao provis oria m

e usaremos a nota c ao T

. Assim, por deni c ao,


T

, x) = , Tx)
ou, o que e o mesmo
T

= T. (3.11)
Nosso pr oximo objetivo e caracterizar a aplica c ao T

para o caso de T : R
n
R
m
. Vere-
mos que podemos representar T

(a aplica c ao transposta) por uma matriz, que e justamente a


transposta da matriz que representa T com rela c ao ` as bases can onicas do R
n
e R
m
.
O lado direito de (3.11) tem interpreta c ao imediata: como (R
m
)

, e dada por uma


matriz linha, de modo que
T = (c
1
. . . c
m
)
_
_
_
a
11
. . . a
1n
.
.
. . . .
.
.
.
a
m1
. . . a
mn
_
_
_
.
Se quisermos interpretar T

como uma matriz, ent ao devemos identicar (R


m
)

com R
m
e (R
n
)

com R
n
. Assim T

: (R
m
)

(R
n
)

passa a ser vista como uma aplica c ao T : R


m
R
n
. O vetor
coluna R
m
, quando aplicado a T

, satisfaz a igualdade T

= T, ou seja, se B = (b
ij
) e a
representa c ao matricial de T

(com rela c ao ` as bases can onicas do R


m
e R
n
), ent ao
T

_
_
_
c
1
.
.
.
c
m
_
_
_
=
_
_
_
b
11
. . . b
1m
.
.
. . . .
.
.
.
b
n1
. . . a
nm
_
_
_
_
_
_
c
1
.
.
.
c
m
_
_
_
= (c
1
. . . c
m
)
_
_
_
a
11
. . . a
1n
.
.
. . . .
.
.
.
a
m1
. . . a
mn
_
_
_
.
A segunda igualdade acima mostra que B = (b
ij
) deve satisfazer b
ij
= a
ji
, como se verica
mediante escolha adequada de c
1
, . . . , c
m
. Mas ent ao B = A
T
, como antes denido.
3.7 Exerccios
1. Represente matricialmente a base dual da base e
1
, . . . , e
n
do R
n
.
2. Mostre a proposi c ao 3.3.8 utilizando o isomorsmo T
q
denido na primeira demonstra c ao
do teorema do n ucleo e da imagem.
3. Seja X = W
1
W
2
e x = w
1
+ w
2
, com w
i
W
i
. Mostre que : X W
1
, denida por
x = w
1
, e uma aplica c ao linear. Seja : X X uma aplica c ao linear tal que
2
=
(uma tal aplica c ao linear e chamada projecao). Mostre que X = ker 1m . Mostre
tambem que (denida acima) e uma proje c ao.
28 CAP

ITULO 3. APLICAC

OES LINEARES
4. Sejam X um espa co vetorial e Y X um subespa co. Mostre que : X X/Y denida
por (x) = x +Y = [x] e uma aplica c ao linear.
5. Sejam X e Y espa cos vetoriais e B uma base de X (mesmo que X tenha dimens ao innita).
Fa camos corresponder, de maneira arbitr aria, um vetor y
x
Y a cada elemento x B.
Mostre que existe uma unica transforma c ao linear T : X Y tal que Tx = y
x
para todo
x B. (Note que, em particular, isso implica que uma transforma c ao linear T : K
n
K
m
ca completamente determinada pela imagem que ela assume em qualquer base do K
n
).
Mostre ent ao que uma transforma c ao linear T : X Y e injetiva se, e somente se, leva
vetores linearmente independentes em vetores linearmente independentes.
6. SejamX e Y espa cos vetoriais com a mesma dimens ao. Suponhamos que, para as aplica c oes
linear T : X Y e S : Y X, seja verdadeiro ST = I, a identidade em X. Mostre que
S = T
1
.
7. Verique que a matriz P

B
B
: X X corresponde ` a representa c ao matricial da aplica c ao
identidade I : X X, com rela c ao ` as bases B e

B.
8. Seja T : X Y uma aplica c ao linear invertvel representada, com rela c ao ` as bases B e (
dos espa cos X e Y , respectivamente, pela matriz T
C
B
. Mostre que a aplica c ao inversa T
1
e representada pela matriz [T
C
B
]
1
.
9. Seja P

B
B
a matriz mudan ca da base B para a base

B. Mostre que (P

B
B
)
1
= P
B

B
.
10. Seja V um espa co vetorial de dimens ao nita sobre K. Denimos, para v, w V , v w se
existe uma transforma c ao linear invertvel T : V V tal que Tv = w. Mostre que assim
est a denida uma rela c ao de equivalencia. Mostre tambem que essa rela c ao de equivalencia
possui apenas duas classes: uma formada apenas pelo elemento 0 V e a outra formada
por todos os outros vetores de V .
11. Considere os polin omios p
1
(t) = 7t
5
+6t
2
, p
2
(t) = 1+t no espa co T
6
de todos os polin omios
de grau menor que 6.
(a) Se S = p
1
, p
2
, descreva < S >;
(b) ache uma base B de T
6
que completa o conjunto linearmente independente S;
(c) determine a representa c ao de cada um dos vetores de B nessa base;
(d) determine a representa c ao de q T
6
em termos da base B.
12. Seja T o espa co de todos os polin omios na vari avel t. Considere T : T T
6
denida da
seguinte maneira: se p T ent ao Tp e o polin omio em T
6
cujos coecientes de grau menor
que 6 s ao iguais aos coecientes de p. Mostre que T e linear. Ache uma base para 1mT e
ker T. O teorema do n ucleo e da imagem se aplica? Justique.
13. Se
M =
_
a
11
a
12
a
21
a
22
_
,
3.7. EXERC

ICIOS 29
dena T : M
22
M
23
por
T(M) =
_
a
12
a
11
a
12
a
21
a
12
a
22
a
21
a
11
a
22
+a
21
_
.
Sejam
B =
__
1 0
0 1
_
,
_
1 1
0 0
_
,
_
1 1
1 0
_
,
_
1 1
1 1
__
,
B

=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
_ _
,
( =
__
1 0 0
0 0 0
_
,
_
1 1 0
0 0 0
_
,
_
1 1 1
0 0 0
_
,
_
1 1 1
1 0 0
_
,
_
1 1 1
1 1 0
_
,
_
1 1 1
1 1 1
__
(

=
__
1 0 0
0 0 0
_
,
_
0 1 0
0 0 0
_
,
_
0 0 1
0 0 0
_
,
_
0 0 0
1 0 0
_
,
_
0 0 0
0 1 0
_
,
_
0 0 0
0 0 1
__
.
(a) Mostre que T : M
22
M
23
e linear;
(b) mostre que B e B

s ao bases de M
22
, enquanto ( e (

s ao bases de M
23
;
(c) ache a representa c ao matricial de T relativa ` as bases B e (, bem como a relativa ` as
bases B

e (

;
(d) ache a rela c ao entre essas matrizes;
(e) obtenha bases para ker T e 1mT.
14. Sejam T(x, y, x) = (x +y +z, y +z, x) e B = (1, 0, 1), (0, 1, 0), (1, 0, 1). Ent ao:
(a) ache a matriz T
B
;
(b) usando a matriz acima, especique uma base para ker T e 1mT;
(c) calcule T(1, 1, 1) utilizando a representa c ao matricial calculada em (a).
15. A deni c ao dos espa cos ker T e 1mT de uma aplica c ao linear T : X Y independe
(da existencia) de bases nesses espa cos. Contudo, se A e uma matriz que representa uma
transforma c ao linear, tanto ker A como 1mA dependem das bases consideradas no domnio
e no contradomnio. Explique.
16. Sejam X um espa co vetorial de dimens ao nita e T : X X uma aplica c ao linear. Mostre
que
X = ker T 1mT
se, e somente se, ker T = ker T
2
.
30 CAP

ITULO 3. APLICAC

OES LINEARES
17. Justique
2
o algoritmo utilizado para se obter a inversa de uma matriz quadrada A.
18. Sejam A, B matrizes quadradas invertveis. Mostre que (AB)
1
= B
1
A
1
.
19. Seja A = (a
1
a
2
. . . a
n
) e B uma matriz cuja j-esima coluna e b
j
= (b
1j
b
2j
b
nj
)
T
. Se
est a denido o produto AB, mostre que a j-esima coluna de AB e dada por
Ab
j
= b
1j
a
1
+. . . +b
nj
a
n
.
20. Se V e um espa co vetorial de dimens ao nita n e W
1
, . . . , W
n
s ao subespa cos de V tais que
V = W
1
W
n
, mostre que dimW
i
= 1.
Seja agora T : V V uma transforma c ao linear e V = W
1
W
k
(os subespa cos W
i
n ao precisam ter dimens ao igual a 1). Suponhamos que T(W
i
) W
i
para i 1, . . . , k
(dizemos que os subespa cos W
i
s ao invariantes por T. Se B
i
for uma base de W
i
, mostre
que B =

k
i=1
B
i
e uma base de V . Ache T
B
, a representa c ao de T na base B em termos
de T
B
i
, a representa c ao de T : W
i
W
i
na base B
i
.
21. Sejam A, B M
nn
, o espa co das matrizes nn com coecientes em K. Denimos A B
se existe uma matriz invertvel P M
nn
tal que B = P
1
AP. Mostre que A B e uma
rela c ao de equivalencia. Esboce um diagrama que representa essa rela c ao de equivalencia.

E usual dizer ent ao que A e B s ao iguais, a menos da uma mudan ca de base. Voce consegue
dar um sentido para essa frase?
2
Para esse exerccio e necessario o conhecimento do conceito de matrizes elementares. Veja a se c ao 8.1.
Captulo 4
Determinantes
4.1 Permutac oes
Denicao 4.1.1 Seja S = 1, 2, . . . , n ou, mais geralmente, um conjunto x
1
, . . . , x
n
com n
elementos distintos. Uma permutacao e uma aplica c ao sobrejetiva p : S S.

E claro que p e, necessariamente, injetiva. Assim, permuta c oes podem ser compostas e tem
inversa. Denotaremos p
0
a permuta c ao identidade, q p = qp a composta de duas permuta c oes
e denimos, para k N

, p
k
= pp
k1
. Denimos, para k Z, k < 0, p
k
= (p
1
)
k
.
Existem v arias nota c oes para uma permuta c ao p : S S. Em geral escrevemos p(i) = p
i
(ou p(x
i
) = p
i
) e denotamos
p(1, . . . , n) =
_
1 2 . . . n
p
1
p
2
. . . p
n
_
ou p =
1 2 . . . n
p
1
p
2
. . . p
n
.
Exemplo 4.1.2 Considere a permuta c ao
1 2 3 4
2 4 1 3
.
Ent ao
p
2
=
1 2 3 4
4 3 2 1
, p
1
=
1 2 3 4
3 1 4 2
, p
3
=
1 2 3 4
3 1 4 2
, p
4
=
1 2 3 4
1 2 3 4
= p
0
.

Denicao 4.1.3 Seja p : S S uma permuta c ao. Dados a, b S, denimos a b mod p se


existe i Z tal que b = p
i
(a).
Isso estabelece uma rela c ao de equivalencia
1
em S. De fato:
(i) a a mod p, pois a = p
0
(a);
(ii) a b mod p implica b a mod p, pois b = p
i
(a) implica p
i
(b) = p
i
(p
i
(a)) = a;
1
Veja exerccio 23 do captulo 1.
31
32 CAP

ITULO 4. DETERMINANTES
(iii) a b mod p e b c mod p implica a c mod p, pois b = p
i
(a) e c = p
j
(b) e, portanto,
c = p
j
(p
i
(a)) = p
j+i
(a).
Denicao 4.1.4 Chamamos de orbita de a a classe de equivalencia a que pertence o elemento
a. Assim, a orbita de a consiste de todos os elementos p
i
(a), i Z.
Entretanto, p
i
(a) S para todo i. Assim, existe um menor inteiro positivo k (que depende do
elemento a) tal que p
k
(a) = a. O n umero k = k
a
e chamado ordem do elemento a.
Denicao 4.1.5 O ciclo de a e o conjunto ordenado a, p(a), p
2
(a), . . . , p
k
a
1
(a).
Veremos como identicar o ciclo de a com uma permuta c ao : S S. Primeiramente
mostraremos
Lema 4.1.6 Todos os elementos da orbita de a est ao presentes no ciclo de a. Os elementos do
ciclo de a s ao distintos.
Demonstracao: Consideremos s Z e p
s
(a). Seja k a ordem do elemento a. Ent ao existem
inteiros m e r tais que s = mk +r, com 0 r < k (divis ao euclidiana). Mas ent ao
p
s
(a) = p
mk+r
(a) = p
mk
(p
r
(a)) = p
r
(a),
mostrando a primeira arma c ao (veja exerccio 1).
Se fosse p
i
= p
j
para 0 i < j (k 1), ent ao a = p
0
= p
ji
, com j i < k, contradizendo
a deni c ao de k.
2
Se conhecemos todos os ciclos de uma permuta c ao p, conhecemos a imagem de todos os
elementos de p. A cada ciclo corresponde uma permuta c ao de S. De fato, para cada a S
e 0 i k
a
1, considere a permuta c ao que envia p
i
(a) em p
i+1
(a), os elementos que n ao
pertencem ao ciclo de a permanecendo inalterados.

E usual chamar de ciclo ` a permuta c ao assim
obtida (e n ao mais ao conjunto obtido atraves das orbitas). Daremos um exemplo ilustrando
essas ideias:
Exemplo 4.1.7 Seja S = 1, 2, . . . , 6. Consideremos p : S S denida por (2 1 3 5 6 4).
Ent ao 1 = p
0
(1), 2 = p
1
(1), p
2
(1) = p(p(1)) = p(2) = 1. Assim, o ciclo de 1 e 1, 2. O ciclo
de 3 consiste apenas do 3; o ciclo de 4 consiste dos elementos 4, 5 = p(4), 6 = p
2
(4) = p(5),
pois p
3
(4) = p(p
2
(4)) = p(6) = 4. Note que p(1) = 2, p(2) = 1, p(3) = 3, p(4) = 5, p(5) = 6,
p(6) = 4. Assim, conhecemos a imagem por p de todos os elementos de S.
Ao conjunto 1, 2 corresponde a permuta c ao p
1
: S S tal que p
1
(1) = 2, p
1
(1) = 1, os
outros elementos permanecendo xos. Vamos denotar tal permuta c ao por (1 2). (Note que,
para um conjunto S xo, essa nota c ao n ao ocasiona ambig uidade). Da mesma forma, seja p
2
a permuta c ao denida por p
2
(4) = 5, p
2
(5) = 6, p
2
(6) = 4, os outros elementos permanecendo
xos; vamos denotar p
2
por (4 5 6). Verique que p = p
1
p
2
= p
2
p
1
(ao conjunto 3 corresponde
a permuta c ao identidade). As permuta c oes p
1
, p
2
e p
3
s ao os ciclos de p.

E usual desprezar o
ciclo identidade p
3
e dizer que os ciclos de p s ao p
1
e p
2
. Note que os ciclos de p s ao disjuntos,
pois foram gerados por classes de uma rela c ao de equivalencia.
4.1. PERMUTAC

OES 33
O que aconteceu no exemplo acima e um fato geral:
Lema 4.1.8 Toda permuta c ao e o produto (quer dizer, a composi c ao) de seus ciclos.
Demonstracao: Seja p : S S e s S. Sejam
1
, . . . ,
j
os ciclos de p. Como esses ciclos
s ao gerados por classes de equivalencia, existe i 1, . . . , j tal que s p
i
. De acordo com o
exerccio 1, temos que

i
= (s p(s) . . . p
k1
(s))
em que k e a ordem de s. Mas o ciclo
k
afeta apenas os elementos que ele contem, os outros
permanecendo xos. Assim, (
1
. . .
i
. . .
j
)(s) =
i
(s) = p(s). Isso mostra o armado. Note
que e irrelevante a ordem em que o produto de ciclos e tomado.
2
Denicao 4.1.9 Uma transposicao e uma permuta c ao p : S S tal que existem dois ele-
mentos i, j S (ou a
i
, a
j
S) com
p(k) = k, k S, k ,= i, k ,= j; p(i) = j e p(j) = i.
Consideremos um ciclo (a
1
a
2
. . . a
m
) = (a
1
p(a
1
) . . . p
m1
(a
1
)).

E f acil vericar que esse ciclo
pode ser escrito como produto de transposi c oes:
(a
1
a
2
. . . a
m
) = (a
1
a
m
) . . . (a
1
a
3
)(a
1
a
2
).
Essa decomposi c ao, entretanto, n ao e unica. Por exemplo, podemos escrever
(1 2 3) = (1 3)(1 2) = (3 2)(3 1).
Vamos mostrar, entretanto, que o n umero de fatores numa decomposi c ao de um ciclo como
produto de transposi c oes e sempre par ou semprempar. Para simplicar a nota c ao, denotaremos
S = x
1
, . . . , x
n
ao inves de 1, . . . , n.
Denicao 4.1.10 Seja S = x
1
, . . . , x
n
. Denimos o discriminante P(x
1
, . . . , x
n
) por
P(x
1
, . . . , x
n
) =

i<j
(x
i
x
j
).
Exemplo 4.1.11 Consideremos S = x
1
, x
2
, x
3
, x
4
. Ent ao
P(x
1
, x
2
, x
3
, x
4
) = (x
1
x
2
)(x
1
x
3
)(x
1
x
4
)(x
2
x
3
)(x
2
x
4
)(x
3
x
4
).
Note que

i<j
(x
i
x
j
) contem todos as combina c oes de termos (x
i
x
j
), com i ,= j. O
discriminante apenas prescreve uma ordem para essas combina c oes: aquelas com i < j.
Se p : S S e uma permuta c ao no conjunto S = x
1
, x
2
, . . . , x
n
, denimos
P
p
(x
1
, x
2
, . . . , x
n
) =

i<j
(x
p
i
x
p
j
).
Armamos que
P
p
(x
1
, x
2
, . . . , x
n
) = P(x
1
, x
2
, . . . , x
n
).
De fato, como p e uma permuta c ao, todas as combina c oes x
i
x
j
constam de P
p
(x
1
, . . . , x
n
).
Entretanto, ou elas aparecem com i < j ou com j > i. Isso mostra que elas podem diferir apenas
em m odulo.
34 CAP

ITULO 4. DETERMINANTES
Exemplo 4.1.12 Considere a permuta c ao
p(x
1
, x
2
, x
3
, x
4
) =
_
x
1
x
2
x
3
x
4
x
4
x
2
x
3
x
1
_
.
Ent ao
P
p
(x
1
, x
2
, x
3
, x
4
) =

i<j
(x
p
i
x
p
j
)
= (x
p
1
x
p
2
)(x
p
1
x
p
3
)(x
p
1
x
p
4
)(x
p
2
x
p
3
)(x
p
2
x
p
4
)(x
p
3
x
p
4
)
= (x
4
x
2
)(x
4
x
3
)(x
4
x
1
)(x
2
x
3
)(x
2
x
1
)(x
3
x
1
)
= [(x
2
x
4
)][(x
3
x
4
)][(x
1
x
4
)](x
2
x
3
)[(x
1
x
2
)][(x
1
x
3
)]
= (x
1
x
2
)(x
1
x
3
)(x
1
x
4
)(x
2
x
3
)(x
2
x
4
)(x
3
x
4
)
= P(x
1
, . . . , x
4
).

Denicao 4.1.13 O sinal (p) (ou paridade) de uma permuta c ao p e denido por
P
p
(x
1
, . . . , x
n
) = (p)P(x
1
, . . . , x
n
).
Claramente temos (p) = 1.
Note que se (p) = 1, ent ao p altera um n umero par de termos x
i
x
j
na deni c ao do
discriminante e, se (p) = 1, p altera um n umero mpar de termos. Assim, se e uma
transposi c ao, ent ao () = 1 (justique esse argumento no exerccio 2). Alem disso, temos
Lema 4.1.14 Se p
1
, p
2
s ao permuta c oes, ent ao
(p
2
p
1
) = (p
2
)(p
1
).
Demonstracao: De fato, suponhamos que (p
1
) = 1 = (p
2
). Ent ao p
1
altera um n umero
mpar k
1
de termos de x
1
, . . . , x
n
e p
2
altera um n umero mpar k
2
de termos. Escrevemos
k
2
= n
1
+ n
2
, em que n
1
0 e a quantidade de termos alterados por p
2
dentre aqueles que j a
havia sido alterado por p
1
(esses cam, portanto, inalterados). Assim, o total de termos alterados
por p
2
p
1
= p
2
p
1
e
k
1
n
1
+n
2
= k
1
n
1
+k
2
n
1
= k
1
+k
2
2n
1
.
Como k
1
+k
2
e par, temos que o total de termos alterados e par. O mesmo argumento se aplica
a todos os outros casos.
2

E f acil agora notar que o n umero de transposi c oes na decomposi c ao de uma permuta c ao e
sempre par ou sempre mpar. Suponhamos, por exemplo, que numa decomposi c ao de p tenhamos
encontrado um n umero par de transposi c oes. Como () = 1 para toda transposi c ao ,
conclumos que (p) = 1. Se fosse possvel escrever p como um produto de um n umero mpar
de transposi c oes, teramos (p) = 1, absurdo. Em outras palavras, mostramos que se p =

k

1
, ent ao
(p) = (1)
k
. (4.1)
4.2. DETERMINANTES 35
4.2 Determinantes
Denicao 4.2.1 Sejam a
1
, a
2
, . . . , a
n
pontos do R
n
. Denimos o determinante D(a
1
, . . . , a
n
)
desses pontos como uma fun c ao
D : R
n
R
n
R
(a
1
, . . . , a
n
) D(a
1
, . . . , a
n
)
satisfazendo `as seguintes propriedades:
(i) D(a
1
, . . . , a
n
) = 0 se a
i
= a
j
para i ,= j, i, j 1, . . . , n
(ii) D(a
1
, . . . , a
n
) e uma aplica c ao n-linear, isto e, e uma aplica c ao linear de cada coordenada,
as outras sendo mantidas xas; em outras palavras, se todos os a
i
com i ,= j est ao xos,
D(a
1
, . . . , x +y, . . . , a
n
) = D(a
1
, . . . , x, . . . , a
n
) +D(a
1
, . . . , y, . . . , a
n
).
(iii) D(e
1
, . . . , e
n
) = 1, em que e
1
, . . . , e
n
e a base can onica do R
n
.
Se A e uma matriz n n com vetores coluna a
1
, . . . , a
n
, (quer dizer, A = (a
1
a
2
a
n
)),
denimos det A = D(a
1
, a
2
, . . . , a
n
).
Temos, como conseq uencia imediata da deni c ao do determinante,
Lema 4.2.2 O determinante satisfaz `as propriedades
(iv) D e uma aplica c ao linear alternada, isto e, se trocarmos a
i
por a
j
, ent ao o valor do
determinante e multiplicado por 1. Sendo mais preciso,
D(a
1
, . . . , a
i
, . . . , a
j
, . . . , a
n
) = D(a
1
, . . . , a
j
, . . . , a
i
, . . . , a
n
).
(v) Se a
1
, . . . , a
n
s ao linearmente dependentes, ent ao D(a
1
, . . . , a
n
) = 0.
Demonstracao: Para mostrar (iv), uma vez que apenas os elementos a
i
e a
j
est ao sendo
trocados, indicaremos apenas essas coordenadas no determinante e denotaremos a := a
i
e b := a
j
.
Temos:
D(a, b) = D(a, b) +D(a, a) = D(a, a +b)
= D(a, a +b) D(a +b, a +b) = D(b, a +b) = D(b, a) D(b, b)
= D(b, a).
Se a
1
, . . . , a
n
s ao linearmente dependentes, ent ao um desses elementos pode ser escrito como
combina c ao linear dos restantes. Vamos supor que a
1
=
2
a
1
+. . . +
n
a
n
. Decorre ent ao de (iv)
que
D(a
1
, . . . , a
n
) = D(
2
a
2
+. . . +
n
a
n
, a
2
, . . . , a
n
)
=
2
D(a
2
, a
2
, . . . , a
n
) +. . . +
n
D(a
n
, a
2
, . . . , a
n
).
Pela propriedade (i), todos os termos na ultima linha s ao nulos.
2
36 CAP

ITULO 4. DETERMINANTES
4.2.1 Determinantes e permutac oes
Nessa subse c ao mostraremos a f ormula cl assica do determinante em termos de permuta c oes.
Para isso, consideremos vetores a
1
, . . . , a
n
R
n
arbitr arios. Escrevendo cada um desses vetores
em termos da base can onica do R
n
, obtemos
a
1
= a
11
e
1
+. . . +a
n1
e
n
,
a
2
= a
12
e
1
+. . . +a
n2
e
n
,
.
.
. =
.
.
.
a
n
= a
1n
e
1
+. . . +a
nn
e
n
(estamos usando essa nota c ao para os ndices, pois os vetores a
1
, . . . , a
n
s ao colunas!).
Assim,
D(a
1
, . . . , a
n
) = D(a
11
e
1
+. . . +a
n1
e
n
, a
2
, . . . , a
n
)
= a
11
D(e
1
, a
2
, . . . , a
n
) +. . . +a
n1
D(e
n
, a
2
, . . . , a
n
).
Se substituirmos agora a
2
por a
12
e
1
+ . . . + a
n2
e
n
, obteremos uma express ao semelhante. Note
que, a partir de cada parcela da soma acima, essa substitui c ao cria outras n parcelas. Entretanto,
existem alguns cancelamentos; por exemplo, sabemos que D(e
1
, e
1
, a
3
, . . . , a
n
) = 0. Feitas todas
as substitui c oes de a
2
, . . . , a
n
, chegaremos a
D(a
1
, . . . , a
n
) =
n

i
1
,...,i
n
=1
a
i
1
1
a
i
2
2
a
i
n
n
D(e
i
1
, . . . , e
i
n
).
Nesse somat orio s ao nulas todas as parcelas em que h a repeti c ao de algum dos ndices i
1
, . . . , i
n
.
De fato, nesse caso, temos que i
k
= i
j
para k ,= j e ent ao e
i
k
= e
i
j
. A propriedade (i) do
determinante garante ent ao que D(e
i
1
, . . . , e
i
j
, . . . , e
i
k
, . . . , e
i
n
) = 0. Quer dizer, como todos os
ndices i
1
, . . . , i
n
s ao diferentes entre si, est a assim estabelecida uma permuta c ao dos inteiros
1, . . . , n. Quer dizer, no somat orio acima precisamos apenas considerar
D(a
1
, . . . , a
n
) =

p
a
p
1
1
a
p
2
2
a
p
n
n
D(e
p
1
, . . . , e
p
n
),
em que p percorre as permuta c oes de S = 1, . . . , n. Se p e uma permuta c ao, podemos escreve-
la como produto de transposi c oes. Pela propriedade (iv) do determinante, uma transposi c ao
altera o valor de D pelo fator 1. Se p e um produto de k transposi c oes, D ser a alterado por
(1)
k
. Decorre ent ao da f ormula (1) que D(e
p
1
, . . . , e
p
n
) = (p)D(e
1
, . . . , e
n
) = (p), em virtude
da propriedade (iii) do determinante. Assim temos, nalmente,
D(a
1
, . . . , a
n
) =

p
(p)a
p
1
1
a
p
2
2
a
p
n
n
, (4.2)
que e a express ao cl assica do determinante em termos de permuta c oes. (Muitos autores usam
essa express ao como deni c ao do determinante).
4.2. DETERMINANTES 37
Exemplo 4.2.3 Sejam a
1
= (a
11
, a
21
) e a
2
= (a
12
, a
22
) vetores do R
2
. Calcule o determinante
D(a
1
, a
2
).
Precisamos, em primeiro lugar, determinar todas as permuta c oes do conjunto 1, 2. Elas
s ao p
1
= id e p
2
= (1 2). Temos que (p
1
) = 1 e (p
2
) = 1 (note que p
2
e uma transposi c ao!).
Ent ao
D(a
1
, a
2
) =

p
(p)a
p
1
1
a
p
2
2
= (1)a
11
a
22
+ (1)a
12
a
21
= a
11
a
22
a
12
a
21
.

O exerccio 4 pede para que se calcule, dessa maneira, o determinante de tres vetores genericos
do R
3
.

E claro que, depois de ter feito esse exerccio, voce ter a chegado ` a conclus ao que esse
processo para se calcular o determinante n ao e muito pr atico...Entretanto, o seguinte corol ario
e importante:
Corolario 4.2.4 Existe (no maximo) uma fun c ao D satisfazendo `as propriedades (i) (iii).
Demonstracao: De fato, se

D tambem satiszesse essas propriedades,

D satisfaria a mesma
express ao obtida para D em termos de permuta c oes.
2
Falta, entretanto, mostrar que existe alguma fun c ao satisfazendo ` as propriedades do deter-
minante.

E o que faremos agora.
Teorema 4.2.5 Existe uma unica fun c ao determinante.
Demonstracao: Como vimos, basta provar a existencia de uma fun c ao determinante. Mostrare-
mos que a fun c ao denida pela express ao (4.2), isto e,
D(a
1
, . . . , a
n
) =

p
(p)a
p
1
1
a
p
2
2
a
p
n
n
, (4.3)
satisfaz ` as propriedades (i) (iii) da fun c ao determinante. (Lembramos que p denota uma
permuta c ao do conjunto S = 1, . . . , n).
(i) Suponhamos que os vetores a
i
e a
j
sejam iguais. Seja a transposi c ao entre a
i
e a
j
.
Ent ao a
p
1
1
a
p
2
2
a
p
n
n
= a
p
1
1
a
p
2
2
a
p
n
n
, pois transp oe os vetores a
i
e a
j
, que s ao iguais, e
mantem xos os outros vetores. Assim,
D(. . . , a
i
, . . . , a
j
, . . .) =

p
(p)a
p
1
1
a
p
2
2
a
p
n
n
=

p
(p)a
p
1
1
a
p
2
2
a
p
n
n
=

p
(p)a
p
1
1
a
p
2
2
a
p
n
n
= D(. . . , a
j
, . . . , a
i
, . . .),
Como D(. . . , a
i
, . . . , a
j
, . . .) = D(. . . , a
j
, . . . , a
i
, . . .), resulta que D(. . . , a
i
, . . . , a
j
, . . .) = 0.
(ii) A linearidade e imediata, notando que cada parcela de (4.3) contem exatamente uma
coordenada do vetor a
i
+kb
i
, de modo que
D(a
1
, . . . , a
i
+kb
i
, . . . , a
n
) = D(a
1
, . . . , a
i
, . . . , a
n
) +kD(a
1
, . . . , b
i
, . . . , a
n
).
(iii) Se p
i
,= i, a coordenada do vetor a
i
= e
i
tomada no somat orio (4.3) ser a nula. Assim,
apenas a permuta c ao identidade, produz termo n ao-nulo. No caso da identidade, temos sinal
igual a 1 e todos os termos a
p
i
i
= 1, de modo que D(e
1
, . . . , e
n
) = 1.
2
38 CAP

ITULO 4. DETERMINANTES
4.3 Propriedades do determinante de uma matriz
Denicao 4.3.1 Seja A uma matriz nn, com colunas a
1
, . . . , a
n
. Denimos o determinante
da matriz A por
det A = D(a
1
, . . . , a
n
).
Nessa se c ao mostraremos algumas propriedades cl assicas do determinante de uma matriz.
4.3.1 O determinante da matriz transposta
Uma vez que (id) = 1, notamos que 1 = (pp
1
) = (p)(p
1
), o que mostra que (p) = (p
1
).
Teorema 4.3.2 Seja A uma matriz n n e A
T
a transposta da matriz A. Ent ao
det A = det A
T
.
Demonstracao: A equa c ao (4.3) garante que
det A =

p
(p)a
p
1
1
a
p
2
2
a
p
n
n
.
Mas, se p(i) = j, ent ao i = p
1
p(i) = p
1
(j). Como estamos denotando p(i) = p
i
, denotaremos
p
1
(j) = p
1
j
, de modo que a ultima express ao pode ser escrita como, i = p
1
j
. Assim, se
p
1
= j, ent ao a
p
1
1
= a
jp
1
j
. Da mesma forma para os outros ndices, de modo que

p
(p)a
p
1
1
a
p
2
2
a
p
n
n
=

p
(p)a
1p
1
1
a
2p
1
2
a
np
1
n
.
Mas se p percorre todas as permuta c oes de 1, . . . , n, o mesmo acontece com p
1
. Uma vez que
o sinal de p e o de p
1
e o mesmo, chegamos a
det A =

p
1
(p
1
)a
1p
1
1
a
2p
1
2
a
np
1
n
=

p
(p)a
1p
1
a
2p
2
a
np
n
,
que e o determinante da matriz transposta, pois cada uma de suas entradas aparece na forma
a
ji
ao inves de a
ij
.
2
4.3.2 O determinante do produto de matrizes quadradas
Teorema 4.3.3 Sejam A, B matrizes n n. Ent ao
det(BA) = det Adet B.
4.3. PROPRIEDADES DO DETERMINANTE DE UMA MATRIZ 39
Demonstracao: A equa c ao (3.3) garante que a j-esima coluna da matriz BA e (BA)e
j
. Da
mesma forma, a j-esima coluna de A e Ae
j
= a
j
. Assim, a j-esima coluna de BA e
(BA)e
j
= B(Ae
j
) = Ba
j
.
Temos ent ao, por deni c ao,
det(BA) = D(Ba
1
, . . . , Ba
n
).
Suponhamos que det B ,= 0. Denimos ent ao a fun c ao C por
C(a
1
, . . . , a
n
) =
det(BA)
det B
.
Em virtude da express ao para det(BA) obtida acima, podemos escrever C como
C(a
1
, . . . , a
n
) =
D(Ba
1
, . . . , Ba
n
)
det B
. (4.4)
Vamos provar que a fun c ao C satisfaz ` as propriedades (i) (iii) postuladas para a fun c ao
determinante. Temos
(i) Se a
i
= a
j
, para i ,= j, ent ao Ba
i
= Ba
j
. Como D satisfaz ` a propriedade (i), temos C = 0;
(ii) Como B(x + y) = Bx + By, cada Ba
i
e uma fun c ao linear de a
i
. Como D e n-linear, o
mesmo vale para C;
(iii) Para a
i
= e
i
, temos
C(e
1
, . . . , e
n
) =
D(Be
1
, . . . , Be
n
)
det B
.
Mas Be
i
= b
i
, a i-esima coluna de B. Logo
C(e
1
, . . . , e
n
) =
D(b
1
, . . . , b
n
)
det B
=
det B
det B
= 1.
Uma vez que existe uma unica fun c ao determinante, C(a
1
, . . . , a
n
) = D(a
1
, . . . , a
n
). Mas isso
prova o armado, quando det B ,= 0.
Quando det B = 0 denimos, para cada t, a matriz B(t) = B +tI. Claramente det(B(0)) =
det B = 0. A express ao (4.2) mostra que D(B(t)) e um polin omio de grau n e que o coeciente
do termo t
n
e igual a 1 (vide exerccio 6). Isso quer dizer que D(B(t)) = 0 para no m aximo n
valores de t. Em particular, D(B(t)) ,= 0 para todos os valores de t sucientemente pr oximos de
0, mas diferentes de zero. Assim, pelo que j a mostramos,
det(B(t)A) = det Adet(B(t)).
Fazendo t tender a zero, chegamos a det(BA) = 0, como queramos
2
.
2
2
Veja exerccio 6.
40 CAP

ITULO 4. DETERMINANTES
4.3.3 O determinante em termos de cofatores
Lema 4.3.4 Seja A uma matriz cuja primeira coluna e o vetor e
1
:
A =
_
_
_
_
_
1
0
.
.
. A
11
0
_
_
_
_
_
,
em que A
11
denota a submatriz (n 1) (n 1) formada pelos a
ij
com i, j > 1. Ent ao vale
det A = det A
11
.
Demonstracao: Notamos inicialmente que podemos considerar apenas o caso em que
A =
_
_
_
_
_
1 0 0
0
.
.
. A
11
0
_
_
_
_
_
.
De fato, decorre das propriedades (i) e (ii) que o determinante de A n ao e alterado se somarmos
a cada uma das colunas a
2
, . . . , a
n
um m ultiplo adequado a primeira coluna. Ora, com esse
processo conseguimos zerar a primeira linha da matriz A.
Para a matriz A com zeros na primeira coordenada de todas as colunas exceto da primeira,
denimos, como fun c ao das colunas da matriz A
11
,
C(A
11
) = det
_
1 0
0 A
11
_
.
Essa fun c ao satisfaz ` as propriedades (i) (iii) da deni c ao do determinante. A unicidade do
determinante ent ao garante que det C(A
11
) = det A
11
. Mas isso prova o armado. (Note que
estamos repetindo o argumento utilizado na equa c ao (4.4)).
2
Corolario 4.3.5 Seja A uma matriz cuja j-esima coluna e o vetor e
i
. Ent ao
det A = (1)
i+j
det A
ij
,
em que A
ij
e a matriz obtida de A ao se eliminar sua i-esima linha e sua j-esima coluna. Em
outras palavras, A
ij
e o menor (ij) de A.
Demonstracao: Como cada troca de uma coluna por outra corresponde a uma multiplica c ao
do determinante por (1), ap os j trocas, faremos que o vetor e
i
esteja na primeira coluna da
matriz A e as colunas restantes mantendo sua ordem original. Quer dizer,
det A = (1)
j
D(e
i
, a
1
, , a
j1
, a
j+1
, , a
n
).
4.4. A REGRA DE CRAMER 41
Como o determinante de A e de A
T
s ao iguais (pelo teorema 4.3.2), tambem podemos alterar a
ordem das linhas da matriz A. Ap os i trocas (o que resulta em multiplica c ao do determinante
por (1)
i
), o vetor e
i
ter a se transformado no vetor e
1
e a matriz resultante estar a como no lema
4.3.4. Da decorre o armado.
2
Agora mostraremos a expans ao cl assica do determinante em termos de uma de suas colunas.
Teorema 4.3.6 Seja A uma matriz n n e j 1, . . . , n. Ent ao
det A =
n

i=1
(1)
i+j
a
ij
det A
ij
.
Demonstracao: Para simplicar a nota c ao, vamos considerar j = 1. Escrevendo a
1
como
combina c ao linear dos vetores da base can onica, temos
a
1
= a
11
e
1
+ +a
n1
e
n
.
Como D e n-linear, temos
det A = D(a
1
, . . . , a
n
) = a
11
D(e
1
, a
2
, . . . , a
n
) + +a
n1
D(e
n
, a
2
, . . . , a
n
).
O resultado segue ent ao do corol ario 4.3.5.
2
4.4 A regra de Cramer
Consideremos a express ao
Ax = u,
em que A e uma matriz n n. Podemos interpret a-la, supondo conhecido o vetor x, como a
deni c ao de u. Por outro lado, conhecido u, ela pode ser vista como uma equa c ao na vari avel x.
Suponhamos conhecido o vetor x. Exprimindo x em termos dos vetores da base can onica,
x =

n
j=1
x
j
e
j
, a rela c ao Ae
j
= a
j
(em que a
j
e a j-esima coluna de A) garante que
n

j=1
x
j
a
j
= u.
Denimos agora a matriz A
k
, obtida ao se substituir a k-esima coluna de A pelo vetor u.
Ent ao, descrevendo essa matriz em termos de suas colunas,
A
k
= (a
1
. . . a
k1
u a
k+1
. . . a
n
)
= (a
1
. . . a
k1
n

j=1
x
j
a
j
a
k+1
. . . a
n
).
42 CAP

ITULO 4. DETERMINANTES
Assim, se D e a fun c ao determinante,
det A
k
=
n

j=1
x
j
det(a
1
. . . , a
k1
, a
j
, a
k+1
, . . . , a
n
).
Logo,
det A
k
= x
k
det A,
pois apenas esse termo n ao se anula no somat orio, pela propriedade (i) da deni c ao da fun c ao
determinante. Portanto,
x
k
=
det A
k
det A
, (4.5)
desde que det A ,= 0. Essa e a regra de Cramer para se obter a solu c ao da equa c ao Ax = u,
para um dado u. Ela garante que, se det A ,= 0, ent ao a ( unica) solu c ao x de Ax = u e dada por
x
k
=
det A
k
det A
.
Se expandirmos det A
k
com rela c ao a sua k-esima coluna, obtemos
det A
k
=
n

i=1
(1)
i+k
det A
ik
u
i
.
Dividindo essa equa c ao por det A, encontramos ent ao
x
k
=
det A
k
det A
=
n

i=1
(1)
i+k
det A
ik
det A
u
i
. (4.6)
Vamos escrever a express ao acima em linguagem matricial.
Teorema 4.4.1 A matriz A e invertvel se, e somente se, det A ,= 0. Nesse caso, a matriz
inversa A
1
tem a forma
(A
1
)
ki
= (1)
i+k
det A
ik
det A
. (4.7)
Demonstracao: Suponhamos que A tenha inversa. Ent ao existe A
1
com AA
1
= I. Aplicando
o determinante em ambos os lados dessa igualdade, obtemos det Adet A
1
= det I = 1. Logo,
det A ,= 0.
Reciprocamente, suponhamos que det A ,= 0. Ent ao a equa c ao (4.7) faz sentido, denindo
assim uma matriz que, por abuso de linguagem, chamaremos A
1
. Fa camos essa matriz agir
sobre u. Pela f ormula (3.1), temos
(A
1
u)
k
=
n

i=1
(A
1
)
ki
u
i
.
Substituindo (4.7) nessa f ormula e comparando com (4.6), obtemos
(A
1
u)
k
= x
k
,
o que mostra que A
1
e realmente a inversa da matriz A.
2
4.5. MATRIZES SEMELHANTES 43
4.5 Matrizes semelhantes
Denicao 4.5.1 Seja A = (a
ij
) uma matriz quadrada. Denimos o traco da matriz A, deno-
tado tr A, por
tr A =
n

i=1
a
ii
.
Teorema 4.5.2 O tra co e uma aplica c ao linear e tr (AB) = tr (BA).
Demonstracao: A linearidade do tra co e obvia. Por deni c ao, temos
(AB)
ii
=
n

k=1
a
ik
b
ki
e (BA)
kk
=
n

i=1
b
ki
a
ik
.
Assim,
tr (AB) =
n

i=1
_
n

k=1
a
ik
b
ki
_
=
n

k=1
_
n

i=1
b
ki
a
ik
_
= tr (BA).
2
Denicao 4.5.3 Duas matrizes A e B s ao semelhantes, denotado A B, se existe uma
matriz invertvel P tal que B = P
1
AP.
Claramente temos assim denida uma rela c ao de equivalencia
3
no conjunto das matrizes n n.
Teorema 4.5.4 Matrizes semelhantes possuem o mesmo determinante e o mesmo tra co.
Demonstracao: Temos
det B = det(P
1
AP) = det P
1
det Adet P = det Adet(P
1
P) = det Adet I = det A.
Tambem, pelo teorema 4.5.2,
tr B = tr (P
1
AP) = tr (APP
1
) = tr (AI) = tr A.
2
Como vimos anteriormente, dada uma aplica c ao linear T de um espa co X de dimens ao n
nele mesmo, ao se escolher uma base de X, podemos representar T por uma matriz. Duas
representa c oes de T, obtidas pela escolha de duas bases distintas, s ao semelhantes. Aplicando o
teorema anterior, vemos que faz sentido a seguinte deni c ao:
Denicao 4.5.5 Seja T : V V uma aplica c ao linear denida no espa co vetorial de dimens ao
nita V . Denimos
tr T = tr T
B
B
= tr T
B
e det T = det T
B
B
= det T
B
,
em que B e qualquer base de V .
3
Veja exerccio 21 do captulo 3.
44 CAP

ITULO 4. DETERMINANTES
4.6 Exerccios
1. Seja p : S S uma permuta c ao e a, p(a), . . . , p
k1
(a) os elementos da orbita de a. Se b e
um elemento da orbita de a, mostre que p
k
(b) = b. Em outras palavras, todos os elementos
da orbita de a tem a mesma ordem.
2. Mostre que o sinal de uma transposi c ao e igual a 1.
3. Mostre que a propriedade (iv) da fun c ao determinante implica a propriedade (i). Assim,
poderamos ter denido o determinante como uma fun c ao que satisfaz ` as propriedades
(ii) (iii) (iv).
4. Repita o exemplo 4.2.3 para tres vetores genericos do R
3
. Em outras palavras, calcule o
determinante de uma matriz 3 3.
5. Aplique as propriedades da fun c ao determinante para calcular o determinante da matriz
_
_
_
_
2 5 3 2
2 3 2 5
1 3 2 2
1 6 4 3
_
_
_
_
.
6. Se B e uma matriz n n e B(t) = B +tI, mostre que det(B(t)) e um polin omio m onico
4
de grau n na vari avel t e, portanto, uma fun c ao contnua. Se A e uma matriz n n,
verique que det(AB(t)) tambem e um polin omio de grau n em t. Mostre que a fun c ao
determinante e uma fun c ao contnua e justique, assim, as propriedade de limite utilizadas
na demonstra c ao do teorema 4.3.3.
7. Seja A uma matriz triangular superior, isto e, uma matriz da forma
A =
_
_
_
_
_
a
11
a
12
a
1n
0 a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nn
_
_
_
_
_
.
Mostre que det A = a
11
a
nn
. A transposta da matriz A e uma matriz triangular
inferior.
8. Seja
A =
_
_
_
_
_
A
1
0 0
0 A
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
j
_
_
_
_
_
,
4
isto e, o coeciente do termo de maior grau e igual a 1.
4.6. EXERC

ICIOS 45
em que cada A
i
(i = 1, . . . , j) e uma matriz quadrada. Mostre que det A = det A
1
det A
j
.
Generalize para uma matriz A que seja triangular superior por blocos, isso e, uma matriz
da forma
A =
_
_
_
_
_
A
1

0 A
2

.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
j
_
_
_
_
_
,
em que denota uma matriz de ordem adequada.
9. Resolva, utilizando a regra de Cramer, o sistema
2x
1
+ x
2
+ 5x
3
+ x
4
= 5
x
1
+ x
2
3x
3
4x
4
= 1
3x
1
+ 6x
2
2x
3
+ x
4
= 8
2x
1
+ 2x
2
+ 2x
3
3x
4
= 2
10. Usando a regra de Cramer, determine os valores de k para os quais o sistema
kx + y + z = 1
x + ky + z = 1
x + y + kz = 1
possui solu c ao unica. Compare com o resultado obtido atraves de escalonamento (metodo
de Gauss - veja a se c ao 8.1).
11. Utilizando escalonamento, de uma demonstra c ao alternativa para o teorema 4.4.1.
Captulo 5
Teoria Espectral
5.1 Autovetores e autovalores
Dados um espa co vetorial V de dimens ao nita sobre o corpo K e uma aplica c ao linear T : V
V , queremos encontrar uma base B de V tal que a representa c ao T
B
desse operador na base B
seja a mais simples possvel.
Consideremos a seguinte situa c ao: suponhamos que se tenha
V = W
1
W
2
W
n
, dimW
i
= 1, TW
i
W
i
, 1 i n. (5.1)
Seja w
i
uma base de W
i
. Ent ao B = w
1
, . . . , w
n
e uma base de V . Como T(W
i
) W
i
,
existe
i
K tal que Tw
i
=
i
w
i
(n ao estamos supondo que
i
,=
j
para i ,= j). A representa c ao
de T na base B (no domnio e na imagem) e a matriz A = T
B
A =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
.
Dizemos ent ao que T e diagonalizavel. Note que, se T for diagonaliz avel, ent ao vale a decom-
posi c ao (5.1), resultado que formalizaremos no teorema 5.1.4, mais abaixo.
Observe que a igualdade Tw
i
=
i
w
i
garante que (
i
I T) n ao e um operador injetivo;
portanto, (
i
I T) n ao e um isomorsmo. Assim, det(
i
I T) = det(
i
I A) = 0, de
acordo com a deni c ao 4.5.5. Isso quer dizer que
i
e uma raiz do polin omio (na vari avel t)
p(t) = det(tI A), chamado polin omio caracterstico do operador T (ou da matriz A).
Lembramos
1
que p(t) e um polin omio m onico de grau n. Assim, como esse polin omio possui n
razes no corpo K, podemos concluir (mesmo quando
i
=
j
para i ,= j) que
p(t) = (t
1
)(t
2
) (t
n
) (5.2)
e w
i
ker(T
i
I). Note que a equa c ao Tx =
i
x e satisfeita para qualquer elemento de W
i
.
1
Veja exerccio 6 do captulo 4.
46
5.1. AUTOVETORES E AUTOVALORES 47
Consideremos o operador T e seu polin omio caracterstico p(t) = det(tI T). As razes K
do polin omio caracterstico s ao chamadas autovalores
2
de T. Se existirem n razes distintas,
isto e, se
p(t) = (t
1
) (t
n
),
com
i
,=
j
para i ,= j, o espa co W
i
:= ker(T
i
I) ter a dimens ao 1. De fato, existe pelo menos
um vetor n ao-nulo w
i
tal que (
i
I T)w
i
= 0 pois, como
i
I T n ao tem inversa, o sistema
(
i
I T)x = 0 tem solu c ao n ao-trivial w
i
. O vetor 0 ,= w
i
W
i
, solu c ao de (
i
I T)x = 0, e
chamado autovetor de T associado ao autovalor
i
. Agora armamos: autovetores w
i
associados
a autovalores distintos s ao linearmente independentes. (Aceitaremos isso momentaneamente).
Mas ent ao w
1
, . . . , w
n
e uma base de V . Quer dizer, nesse caso especial em que o polin omio
caracterstico possui n razes distintas, teremos provado que
V = W
1
W
2
W
n
,
com W
i
= ker(T
i
I) e T(W
i
) W
i
(pois T(cw
i
) = cTw
i
= cw
i
W
i
).
Estamos agora na situa c ao em que iniciamos e, portanto, a representa c ao de T na base
B = w
1
, . . . , w
n
ser a justamente a matriz diagonal dada por A.
Entretanto, nem sempre o polin omio caracterstico e produto de fatores lineares distintos,
mesmo quando o operador T e diagonaliz avel. Considere o seguinte exemplo:
Exemplo 5.1.1 Para a aplica c ao identidade I : K
n
K
n
, o polin omio caracterstico p() =
det(I I) = (1 )
n
. Quer dizer,
1
= =
n
. Temos a decomposi c ao (5.1)
K
n
= W
1
W
n
com W
i
= ce
i
; c K, mas ker(I 1I) = ker 0 = K
n
.
Antes de mostrarmos que autovetores associados a autovalores distintos s ao linearmente
independentes, daremos algumas deni c oes e estudaremos uma situa c ao simples.
Denicao 5.1.2 Sejam V um espa co vetorial sobre o corpo K, com dimens ao nita n, e T :
V V uma aplica c ao linear. O polin omio p(t) := det(tI T) e o polin omio caracterstico de
T. As razes
i
K desse polin omio s ao chamadas autovalores de T. Os elementos n ao nulos
do n ucleo ker(T
i
I) s ao chamados autovetores associados ao autovalor
i
, ou simplesmente
autovetores de T. O n ucleo
ker(T
i
I) = v V ; (T
i
I)v = 0
e o autoespaco associado ao autovalor
i
.
2
O nome espectro, usual no estudo de operadores lineares em espa cos de dimens ao innita, refere-se a uma
generaliza c ao do conceito de autovalor: dado um operador linear T : V V , o espectro de T e formado por
escalares tais que: (i) (T I) n ao e injetivo; (ii) (T I) n ao e sobrejetivo; (iii) (T I)
1
n ao e contnuo.
As duas primeiras op c oes s ao equivalentes em espa cos de dimens ao nita; a terceira nunca ocorre nestes espa cos.
Assim, o espectro de um operador e o mesmo que o conjunto de autovalores de um operador linear, no caso de
dimens ao nita.
48 CAP

ITULO 5. TEORIA ESPECTRAL


Frisamos que apenas as razes
i
K do polin omio caracterstico s ao autovalores do operador.
Assim, se T : R
2
R
2
e denido por T(x, y) = (y, x), ent ao seu polin omio caracterstico e
p(t) = t
2
+ 1, que n ao possui razes reais. Portanto, T n ao possui autovalores. Considerando
T : C
2
C
2
denido da mesma maneira, p(t) = t
2
+1 = (ti)(t+i), e T possui dois autovalores
distintos. Isso mostra que a an alise de uma aplica c ao linear T : V V depende muito do corpo
K sobre o qual V e espa co vetorial.
Observacao 5.1.3 O polin omio caracterstico de T : V V e especialmente importante por
causa de suas razes, os autovalores de T. Como det(T tI) = (1)
n
det(tI T) (em que n e
a dimens ao de V ) possui as mesmas razes, tambem e usual chamar de polin omio caracterstico
de T ao polin omio det(T tI).
Teorema 5.1.4 Uma aplica c ao linear T : V V pode ser representada por uma matriz diago-
nal se, e somente se, existe uma base B de V formada por autovetores de T.
Demonstracao: Suponhamos que B = v
1
, . . . , v
n
seja uma base de V tal que T
B
B
= T
B
seja
uma matriz diagonal:
T
B
= D =
_
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
(n ao estamos supondo que os
i
sejam distintos!).
Sabemos que a i-esima coluna de D e [T(v
i
)]
B
=
i
e
i
. Como e
i
e a representa c ao de v
i
na
base B, mostramos que T(v
i
) =
i
v
i
.
A recproca e imediata.
2
(Veja, a esse respeito, o exerccio 3).
Mostraremos agora o fato utilizado anteriormente.
Teorema 5.1.5 Autovetores de T correspondentes a autovalores distintos s ao linearmente in-
dependentes.
Demonstracao: Sejam w
i
, 1 i n, autovetores de T associados a autovalores distintos
i
.
Faremos indu c ao no n umero n. Se n = 1, o resultado e obvio. Suponhamos verdadeiro para
n = j 1 e consideremos n = j. Se

1
w
1
+
2
w
2
+. . . +
j
w
j
= 0, (5.3)
aplicando T em (5.3), obtemos

1
Tw
1
+
2
Tw
2
+. . . +
j
Tw
j
= 0.
Mas Tw
i
=
i
w
i
. Assim,

1
w
1
+. . . +
n

j
w
j
= 0.
5.2. POLIN

OMIOS DE APLICAC

OES LINEARES 49
Por outro lado, multiplicando (5.3) por
j
, obtemos

j
w
1
+
2

j
w
2
+. . . +
j

j
w
j
= 0.
Subtraindo essas duas ultimas equa c oes, vem

1
(
1

j
)w
1
+
2
(
2

j
)w
2
+. . . +
j1
(
j1

j
)w
j1
= 0.
Como
i

j
,= 0 para todo i = 1, . . . , j 1, a hip otese de indu c ao garante que
i
= 0 para
esses valores de i. Levando em (5.3), conclumos que
j
= 0 e que os vetores s ao linearmente
independentes.
2
Na verdade, temos a seguinte generaliza c ao do teorema anterior:
Corolario 5.1.6 Se
1
, . . . ,
j
s ao autovalores distintos de T e W
i
= ker(T
i
I), ent ao o
subespa co W = W
1
+ +W
j
e a soma direta dos subespa cos W
i
, ou seja,
W = W
1
W
j
.
Em outras palavras, sejam w
i1
, . . . , w
ik
i
autovetores linearmente independentes associados ao
autovalor
i
da aplica c ao linear T, com i = 1, . . . , j. Ent ao o conjunto
w
11
, w
12
, . . . , w
1k
1
, w
21
, . . . , w
2k
2
, . . . , w
j1
, . . . , w
jk
j

e linearmente independente.
Demonstracao: Escolha w
i
W
i
, para i = 1, . . . , j. Cada w
i
,= 0 e um autovetor associado a

i
. Pelo teorema 5.1.5 temos que
1
w
1
+. . . +
j
w
j
= 0 se, e somente se, cada parcela
i
w
i
= 0,
para todo i. Isso e o mesmo que armar a unicidade da decomposi c ao w = w
1
+. . . +w
j
.
2
O corol ario acima e importante, pois podemos ter v arios autovetores linearmente indepen-
dentes associados ao mesmo autovalor. Essa e a situa c ao que ocorre no exemplo 5.1.1.
Para nalizar essa se c ao, enunciamos o resultado que mostramos anteriormente:
Corolario 5.1.7 Se V e um espa co vetorial de dimens ao n e o polin omio caracterstico da
aplica c ao linear T : V V possui n razes distintas, ent ao V possui uma base B formada
por autovetores de T. A aplica c ao T representada na base B e uma matriz diagonal, sendo os
elementos da diagonal principal os autovalores de T.
5.2 Polin omios de aplicac oes lineares
SejamV um espa co vetorial sobre o corpo K, T : V V uma aplica c ao linear e q(t) um polin omio
com coecientes no corpo K (denotaremos ent ao q K[t]). Se q(t) = a
k
t
k
+a
k1
t
k1
+a
1
t +a
0
,
claramente faz sentido calcular
q(T) := a
k
T
k
+a
k1
T
k1
+ +a
1
T +a
0
I,
mesmo que V tenha dimens ao innita. Se A M
nn
e uma matriz, q(A) e uma matriz n n.
Vamos mostrar como os autovalores de A se relacionam com os autovalores de q(A).
50 CAP

ITULO 5. TEORIA ESPECTRAL


Teorema 5.2.1 (Teorema da Imagem do Espectro)
3
Sejam A M
nn
(K) e q K[t]. Se e um autovalor de A, ent ao q() e um autovalor de
q(A). Alem disso, quando K = C, todos os autovalores de q(A) s ao da forma q(), em que e
um autovalor de A.
Demonstracao: Se e um autovalor de A, ent ao existe v ,= 0 tal que Av = v. Decorre da
que A
j
v =
j
v para todo j N. Se q(A) = a
k
A
k
+a
k1
A
k1
+ +a
1
A +a
0
I, ent ao
q(A)v = a
k
A
k
v +. . . +a
1
Av +a
0
Iv = a
k

k
v +. . . +a
1
v +a
0
v = q()v.
Isso e o mesmo que armar que (q(A) q()I)v = 0, ou seja, que v e um autovetor de q(A)
associado ao autovalor q().
Reciprocamente, suponhamos que K = C e que seja um autovalor de q(A). Queremos
mostrar que = q(), para algum autovalor da matriz A. Consideremos o polin omio q(t) .
Fatorando esse polin omio no corpo C, temos
q(t) = a
k
k

i=1
(t r
i
),
em que r
i
s ao as razes (n ao necessariamente distintas) desse polin omio (note que a
k
e o coeciente
do termo de maior grau de q(t)). Temos ent ao que (note que essa express ao independe de ser
autovalor de q(A))
q(A) I = a
k
k

i=1
(A r
i
I). (5.4)
Como e um autovalor de q(A), a matriz do lado esquerdo da igualdade n ao tem inversa. Isso
quer dizer que ao menos uma das matrizes (A r
i
I) n ao tem inversa e, portanto, r
i
e um
autovalor de A. Como r
i
e raiz de q(t) , temos q(r
i
) = 0, ou seja, q(r
i
) = .
2
Dizemos que dois polin omios p, q K[t] s ao primos entre si se o unico polin omio m onico
que divide tanto p quanto q e o polin omio 1.
Observacao 5.2.2 Seja A uma matriz real. Como R C, podemos ve-la como uma matriz
sobre C. Se C R e uma raiz do polin omio caracterstico p(t) = a
0
+ a
1
t + . . . + a
n
t
n
,
ent ao p() = 0. De fato, como todos os coecientes desse polin omio s ao reais, o resultado segue
quando tomamos os conjugados na equa c ao p() = 0. Como conseq uencia, fatores quadr aticos
que aparecem na decomposi c ao do polin omio caracterstico em fatores irredutveis surgem do
produto (t )(t

) das razes ,

C R.
Lema 5.2.3 Sejam p, q K[t]. Se p e q s ao primos entre si, ent ao existem polin omios a, b K[t]
tais que
ap +bq = 1.
3
Em toda a bibliograa consultada, nunca encontrei uma tradu c ao para Spectral Mapping Theorem. Acho
inadequada a tradu c ao Teorema da Aplica c ao Espectral.
5.2. POLIN

OMIOS DE APLICAC

OES LINEARES 51
Demonstracao: Seja 1 o conjunto de todos os polin omios da forma ap + bq, com a, b K[t].
Como 1 possui elemento n ao nulo, existe em 1 um polin omio n ao nulo de menor grau, que
chamaremos d = ap +bq.
Armamos que d divide tanto p quanto q. De fato, se d n ao dividisse p, por exemplo,
teramos p = md + r, em que o grau de r e menor do que o grau de d. Como p e d est ao em 1,
r = p md 1, o que contradiz a escolha de d. Logo r = 0, mostrando o armado.
Como p e q s ao primos entre si, d tem grau zero, isto e, d e uma constante, digamos k. Como
d ,= 0, escolhendo a = a/k e b = b/k temos
ap +bq = 1.
2
Corolario 5.2.4 Se p
1
, . . . , p
k
, p
k+1
K[t] s ao primos entre si dois a dois, ent ao p
2
. . . p
k
p
k+1
e
p
1
s ao primos entre si.
Demonstracao: Isso se prova por indu c ao em k. Se k = 1, nada h a a provar. Suponhamos
verdadeiro para k = j e seja d um polin omio m onico que divide p
1
e p
2
. . . p
j
p
j+1
. Como p
1
e p
j+1
s ao primos entre si, existem polin omios a e b tais que ap
1
+ bp
j+1
= 1. Multiplicando
por p
2
. . . p
j
, obtemos ap
1
(p
2
. . . p
j
) +b(p
2
. . . p
j
p
j+1
) = p
2
. . . p
j
. Como d divide tanto p
1
quanto
p
2
. . . p
j
p
j+1
, vemos que d divide p
2
. . . p
j
. Mas ent ao a hip otese de indu c ao garante que d = 1,
provando o armado.
2
Lema 5.2.5 Sejam p, q K[t] primos entre si e 0 ,= A M
nn
(K). Sejam N
p
, N
q
e N
pq
os
n ucleos das matrizes p(A), q(A) e p(A)q(A), respectivamente. Ent ao
N
pq
= N
p
N
q
.
Demonstracao: Como existem polin omios a, b K[t] tais que bq +ap = 1, temos que
b(A)q(A) +a(A)p(A) = I.
Se x N
pq
, ent ao b(A)q(A)x N
p
. De fato, aplicando p(A) a esse ponto, temos p(A)b(A)q(A)x=
b(A)p(A)q(A)x = 0, dada a comutatividade de polin omios da matriz A. Da mesma forma temos
a(A)p(A)x N
q
, se x N
pq
. Como b(A)q(A)x + a(A)p(A)x = x, mostramos que x = x
p
+ x
q
,
com x
p
N
p
e x
q
N
q
.
Para mostrar que essa decomposi c ao e unica, suponhamos que x = x
p
+ x
q
= x
p
+ x
q
. Mas
ent ao y := x
p
x
p
= x
q
x
q
pertence, simultaneamente, a N
p
e N
q
. Aplicando b(A)q(A) +
a(A)p(A) = I em y, temos
b(A)q(A)y +a(A)p(A)y = y.
Mas b(A)q(A)y = 0 = a(A)p(A)y, de modo que y = 0, o que implica x = x
p
e x
q
= x
q
, mostrando
a unicidade da decomposi c ao.
2
Por indu c ao, obtemos ent ao o
52 CAP

ITULO 5. TEORIA ESPECTRAL


Corolario 5.2.6 Seja 0 ,= A M
nn
(K). Se p
1
, p
2
, . . . , p
k
s ao polin omios em K[t], primos entre
si dois a dois, se N
p
i
denota o n ucleo de p
i
(A) e N
p
1
...p
k
o n ucleo de p
1
(A) . . . p
k
(A), ent ao
N
p
1
...p
k
= N
p
1
N
p
k
.
O polin omio mnimo m K[t] de uma matriz 0 ,= A M
nn
(K) e o polin omio m onico e
de menor grau tal que m(A) = 0.
Lema 5.2.7 Existe o polin omio mnimo de uma matriz A ,= 0.
Demonstracao: O espa co M
nn
(K) e um espa co vetorial de dimens ao n
2
. Assim, as n
2
+ 1
matrizes I, A, A
2
, . . . , A
n
2
s ao linearmente dependentes. Quer dizer, existem escalares n ao todos
nulos a
0
, a
1
, . . . , a
n
2 K, tais que
a
0
I +a
1
A +. . . +a
n
2A
n
2
= 0.
Denindo p(t) = a
0
+ a
1
t + . . . + a
n
2t
n
2
, temos 0 ,= p K[t] e p(A) = 0. Dividindo pelo
coeciente do termo de maior grau, podemos supor que p seja m onico. O polin omio mnimo
ent ao existe, como decorrencia da aplica c ao do Princpio da Boa Ordena c ao ao conjunto de
todos os polin omios m onicos que anulam A.
2
Lema 5.2.8 Se p K[t] e p(A) = 0, ent ao p e m ultiplo de m.
Demonstracao: Se 1 denota o conjunto de todos os polin omios p K[t] tais que p(A) = 0,
claramente a soma de dois polin omios em 1, bem como qualquer m ultiplo de p 1 est ao em 1
(quer dizer, 1 e um ideal). A divis ao euclidiana de p por m nos d a p = qm+r. Como r = pqm
pertence a 1, conclumos que r = 0.
2
5.3 O teorema de Cayley-Hamilton
Nessa se c ao apresentaremos um dos resultados mais importantes da

Algebra Linear
4
:
Teorema 5.3.1 (Cayley-Hamilton)
Seja V um espa co vetorial de dimens ao n. Se p K[t] e o polin omio caracterstico de
T : V V , ent ao p(T) = 0.
Demonstracao: Seja 0 ,= v V arbitr ario. Queremos mostrar que p(T)v = 0. Seja m o maior
natural tal que o conjunto
S = v, Tv, . . . , T
m1
v
e linearmente independente. Ent ao
T
m
v =
0
v +. . . +
m1
T
m1
v. (5.5)
4
Veja a elegante demonstra c ao apresentada no livro de Lax.
5.3. O TEOREMA DE CAYLEY-HAMILTON 53
Seja W =< S >. Ent ao os elementos de S formam uma base de W. Armamos que T(W) W.
De fato, se w W, ent ao w =
0
v +
1
Tv +. . . +
m1
T
m1
v, para escalares
0
, . . . ,
m1
K.
Assim, Assim,
Tw =
0
Tv +
1
T
2
v +. . . +
m1
T
m
v.
A igualdade (5.5) garante o armado.
Seja T
i
a restri c ao de T ao subespa co W. A representa c ao de T
i
na base S e
A =
_
_
_
_
_
_
_
0 0 0
0
1 0 0
1
0 1 0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
m1
_
_
_
_
_
_
_
.
Logo,
det(tI A) = det
_
_
_
_
_
_
_
t 0 0
0
1 t 0
1
0 1 0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 t
m1
_
_
_
_
_
_
_
= t det
_
_
_
_
_
t 0
1
1 t
2
.
.
.
.
.
.
.
.
.
0 1 t
m1
_
_
_
_
_
+
(
0
)(1)
m+1
det
_
_
_
_
_
1 t 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
.
Como o determinante da ultima matriz e (1)
m1
, o ultimo termo e justamente
0
. Procedendo
do mesmo modo, obtemos
det(tI A) = t
m

m1
t
m1
. . .
0
= p
W
(t),
sendo p
W
(t) o polin omio caracterstico de T restrito a W. Mas a equa c ao (5.5) mostra ent ao
que p
W
(T)v = 0.
Armamos agora que p(t) = q(t)p
W
(t), para algum polin omio q(t). Da decorre o resultado,
pois v ,= 0 foi escolhido arbitrariamente e p(T)v = q(T)p
W
(T)v = 0. Para provar a arma c ao,
basta notar se completarmos S de forma a obter uma base B de V , a representa c ao de T nessa
base e
_
A B
0 C
_
.
O resultado ent ao decorre do exerccio 8 do captulo 4, pois
det(tI T) = det(tI A) det(tI C) = p
W
(t)q(t)
54 CAP

ITULO 5. TEORIA ESPECTRAL


(em cada express ao, as ordens das matrizes I s ao diferentes).
2
5.4 O teorema da decomposicao primaria
Vamos agora generalizar o que zemos na primeira se c ao desse captulo. Suponhamos a seguinte
decomposi c ao em soma direta:
V = W
1
W
2
W
j
,
com dimW
i
= n
i
e T(W
i
) W
i
, para 1 i j. Seja B
i
= w
i1
, . . . , w
ik
i
uma base de W
i
.
Ent ao
B = w
11
, . . . , w
1k
1
, w
21
, . . . , w
2k
2
, . . . , w
j1
, . . . , w
jk
j

e uma base de V , de acordo com o corol ario 5.1.6. Uma vez que T(W
i
) W
i
temos que
T(w
i
) = c
1
w
i1
+c
2
w
i2
+ +c
k
i

w
ik
i
.
Assim, a representa c ao de T na base B e
T
B
=
_
_
_
_
_
T
1
0 0
0 T
2
0
.
.
.
.
.
.
.
.
.
0 0 T
j
_
_
_
_
_
,
em que T
i
e um bloco de tamanho k
i
k
i
:
T
i
=
_
_
_
_
_
c
11
c
21
c
1k
i
c
21
c
22
c
2k
i
.
.
.
.
.
.
.
.
.
.
.
.
c
k
i
1
c
k
i
2
c
k
i
k
i
_
_
_
_
_
.
(Veja exemplo 5.4.5, abaixo).
Denicao 5.4.1 Seja p K[t] o polin omio caracterstico da aplica c ao linear T : V V , em
que V e um espa co vetorial de dimens ao nita n. Suponhamos que
p(t) = [p
1
(t)]
s
1
[p
j
(t)]
s
j
seja a decomposi c ao de p em fatores irredutveis, com p
i
,= p
k
para i ,= k. Denimos, para
i = 1, . . . , j, o autoespaco generalizado associado ao polin omio p
i
como o conjunto de todos
os vetores v V para os quais existe um inteiro positivo k tal que
[p
i
(T)]
k
v = 0.
No caso em que p
i
(t) = t
i
, sendo
i
um autovalor de T, os elementos n ao-nulos do autoespa co
generalizado s ao chamados autovetores generalizados de T associados ao autovalor
i
.
5.4. O TEOREMA DA DECOMPOSIC

AO PRIM

ARIA 55
Para k N

, seja N
k
(p
i
) o n ucleo de [p
i
(T)]
k
. Claramente temos que
N
1
(p
i
) N
2
(p
i
) .
Como N
k
(p
i
) e um subespa co do espa co de dimens ao nita V para todo k N, esses subespa cos
precisam ser todos iguais ` a partir de certo ndice k N. Seja d
i
= d(p
i
) o menor inteiro positivo
com tal propriedade, isto e,
N
d
i
(p
i
) = N
d
i
+1
(p
i
) = , mas N
d
i
1
(p
i
) ,= N
d
i
(p
i
).
O inteiro positivo d
i
e chamado ndice de p
i
(T).
Lema 5.4.2 Os subespa cos N
k
(p
i
) s ao invariantes pelo operador T, para todo k N

. Se
W
i
= ker[p
i
(T)]
d
i
, ent ao o polin omio mnimo de T restrito a W
i
e [p
i
(T)]
d
i
.
Demonstracao: Seja w N
k
(p
i
) = ker[p
i
(T)]
k
. Ent ao [p
i
(T)]
k
Tw = T[p
i
(T)]
k
w = 0,
mostrando que Tw N
k
(p
i
).
A arma c ao sobre o polin omio mnimo decorre da deni c ao de d
i
.
2
Teorema 5.4.3 (Decomposicao Primaria)
Seja T : V V uma aplica c ao linear e p K[t] seu polin omio caracterstico. Se
p(t) = [p
1
(t)]
s
1
[p
j
(t)]
s
j
e a decomposi c ao de p(t) em fatores irredutveis, com p
i
,= p
k
para i ,= k, ent ao, se d
i
e o ndice
de p
i
(T), o polin omio mnimo de T e
m(t) = [p
1
(t)]
d
1
[p
j
(t)]
d
j
,
em que 0 < d
i
s
i
para i = 1, . . . , j. Em outras palavras, o polin omio mnimo possui todos os
fatores irredutveis do polin omio caracterstico de T. Alem disso,
V = W
1
W
j
,
em que W
i
= ker[p
i
(T)]
d
i
, com T(W
i
) W
i
.
Demonstracao: Seja m K[t] o polin omio mnimo de T. De acordo com o Teorema de Cayley-
Hamilton 5.3.1 e o lema 5.2.8, os unicos fatores irredutveis presentes na decomposi c ao de m s ao
fatores irredutveis de p. Incluindo fatores irredutveis [p
i
(t)]
0
do polin omio caracterstico p que
eventualmente estejam ausentes na decomposi c ao de m, podemos escrever
m(t) = m
1
(t) m
j
(t),
com m
i
(t) = [p
i
(t)]
r
i
e r
i
0 para i = 1, . . . , j. (Vamos mostrar que r
i
= d
i
> 0 para todo
i = 1, . . . , j).
56 CAP

ITULO 5. TEORIA ESPECTRAL


Como m(T) = 0, vemos que todo vetor v V pertence ao n ucleo de m(T) = m
1
(T) m
j
(T).
Como os polin omios m
1
(t) = [p
1
(t)]
r
1
, . . . , m
j
(t) = [p
j
(t)]
r
j
s ao primos entre si dois a dois,
podemos aplicar o corol ario 5.2.6 e concluir que
V = N
m
1
m
j
= N
m
1
N
m
j
. (5.6)
Consideremos agora q
i
(t) := [p
i
(t)]
d
i
. Pela deni c ao de d
i
, se 0 r
i
d
i
, ent ao N
m
i
N
q
i
=
W
i
e V = N
m
1
...m
j
N
q
1
...q
k
. Assim, pelo corol ario 5.2.6,
V = N
q
1
N
q
j
= W
1
W
j
. (5.7)
Se r
i
> d
i
ainda temos N
m
i
N
q
i
, pois a deni c ao de d
i
garante que N
q
i
= N
m
i
. Em outras
palavras, a decomposi c ao (5.7) sempre e v alida e, tendo em conta o lema 5.4.2, provamos a
decomposi c ao armada no enunciado do teorema.
Vamos agora provar que r
i
= d
i
. Denotando T
i
= T[
W
i
, temos que q
i
(T
i
) = 0, pela deni c ao
de W
i
. Assim (q
1
. . . q
j
)T = 0 e, como m(t) e o polin omio mnimo de T, m(t) divide q
1
(t) . . . q
j
(t)
e portanto r
i
d
i
. Mas a deni c ao de d
i
garante a existencia de x W
i
tal que x , [p
i
(T)]
r
i
para r
i
< d
i
. Como N
m
i
N
q
i
, isso contradiz a existencia das decomposi c oes(5.6) e (5.7). Logo
r
i
= d
i
.
2
Observacao 5.4.4 No caso especial em que K = C, o Teorema da Decomposi c ao Prim aria e
conhecido como Teorema Espectral.
Levando em conta o Teorema de Cayley-Hamilton, vemos que d
i
r
i
.
Exemplo 5.4.5 Considere a aplica c ao T : R
5
R
5
denida por
T(x
1
, x
2
, x
3
, x
4
, x
5
) = (10x
1
7x
4
+x
5
, x
3
, x
2
, 13x
1
9x
4
+x
5
, 4x
1
3x
4
+x
5
).
Procuramos uma base B na qual realiza-se a decomposi c ao prim aria de T.
A representa c ao de T na base can onica do R
5
e a matriz
A =
_
_
_
_
_
_
10 0 0 7 1
0 0 1 0 0
0 1 0 0 0
13 0 0 9 1
4 0 0 3 1
_
_
_
_
_
_
.
O polin omio caracterstico de A e o
det(A I) =
_
_
_
_
_
_
10 0 0 7 1
0 1 0 0
0 1 0 0
13 0 0 9 1
4 0 0 3 1
_
_
_
_
_
_
.
5.4. O TEOREMA DA DECOMPOSIC

AO PRIM

ARIA 57
Desenvolvendo esse determinante com rela c ao ` a segunda coluna, obtemos:
det(AI) = det
_
_
_
_
10 0 7 1
0 0 0
13 0 9 1
4 0 3 1
_
_
_
_
det
_
_
_
_
10 0 7 1
0 1 0 0
13 0 9 1
4 0 3 1
_
_
_
_
.
Desenvolvendo esses dois determinantes, obtemos
det(A I) =
2
det
_
_
10 7 1
13 9 1
4 3 1
_
_
+ det
_
_
10 7 1
13 9 1
4 3 1
_
_
= (
2
+ 1)[
3
2
2
+]
= (
2
+ 1)( 1)
2
.
Pelo Teorema da Decomposi c ao Prim aria,
R
5
= ker A ker(A
2
+I) ker(A I)
2
.
Encontramos ker A resolvendo o sistema Ax = 0. Assim,
_
_
_
_
_
_
10 0 0 7 1
0 0 1 0 0
0 1 0 0 0
13 0 0 9 1
4 0 0 3 1
_
_
_
_
_
_

_
_
_
_
_
_
10 0 0 7 1
0 1 0 0 0
0 0 1 0 0
3 0 0 2 0
4 0 0 3 1
_
_
_
_
_
_
Logo, x
2
= x
3
= 0, x
4
= 3x
1
/2, x
5
= 4x
1
+ 3x
4
= 4x
1
+ 9x
1
/2 = x
1
/2. Assim, a solu c ao
geral de Ax = 0 e x = (2x
1
, 0, 0, 3x
1
, x
1
) e o vetor v
1
B = v
1
, v
2
, v
3
, v
4
, v
4
pode ser escolhido
como v
1
= (2, 0, 0, 3, 1). Calculando A
2
+ I e resolvendo o sistema (A
2
+ I)x = 0, encontramos
a solu c ao geral
(0, x
2
, x
3
, 0, 0),
de modo que os vetores v
2
e v
3
podem ser escolhidos como
v
2
= (0, 1, 0, 0, 0) e v
3
= (0, 0, 1, 0, 0).
Da mesma forma o sistema (A I)
2
x = 0, cuja solu c ao geral e
(x
1
, 0, 0, x
4
, 3x
1
2x
4
)
o que nos permite escolher os vetores
v
4
= (1, 0, 0, 0, 3) e v
5
= (0, 0, 0, 1, 2).
Consideremos ent ao a base B = v
1
, v
2
, v
3
, v
4
, v
5
. Vamos representar a aplica c ao linear T nessa
base. Temos:
T(2, 0, 0, 3, 1) = 0 = 0v
1
T(0, 1, 0, 0, 0) = (0, 0, 1, 0, 0) = 1v
3
T(0, 0, 1, 0, 0) = (0, 1, 0, 0, 0) = v
2
T(1, 0, 0, 0, 3) = (13, 0, 0, 16, 7) = 13v
4
+ 16v
5
T(0, 0, 0, 1, 2) = (9, 0, 0, 11, 5) = 9v
4
11v
5
.
58 CAP

ITULO 5. TEORIA ESPECTRAL


Assim, a representa c ao de T na base B e
T
B
=
_
_
_
_
_
_
0 0 0 0 0
0 0 1 0 0
0 1 0 0 0
0 0 0 13 9
0 0 0 16 11
_
_
_
_
_
_
.
A submatriz (0), (matriz 11) situada na extremidade superior esquerda corresponde ` a restri c ao
de T ao subespa co invariante ker A. A matriz
_
0 1
1 0
_
e a restri c ao de T ao subespa co invariante ker(A
2
+I). A matriz
_
13 9
16 11
_
e a restri c ao de T ao subespa co invariante ker(A I)
2
.
Proposicao 5.4.6 Com a nota c ao do teorema 5.4.3, o subespa co W
i
= ker[p
i
(T)]
d
i
tem di-
mens ao igual ao grau de [p
i
(t)]
s
i
, em que s
i
e a multiplicidade de p
i
como fator irredutvel do
polin omio caracterstico p(t).
Demonstracao: Como o polin omio caracterstico de uma matriz n n tem grau n, basta
mostrar que o polin omio caracterstico de T restrito a W
i
e justamente [p
i
(t)]
s
i
.
Seja B
i
uma base de W
i
. Como V = W
1
W
j
, a representa c ao de T na base B formada
pelos vetores de cada base B
i
e
T
B
= A =
_
_
_
_
_
A
1
0 0
0 A
2
0
.
.
.
.
.
.
.
.
.
0 0 A
j
_
_
_
_
_
,
em que A
i
e um bloco de tamanho k
i
k
i
, em que k
i
e a dimens ao de W
i
. Assim
det(tI A) = det(tI A
1
) det(tI A
j
). (5.8)
Observe que det(tI A
i
) e o polin omio caracterstico de T
i
, a restri c ao de T ao subespa co
W
i
. Como o polin omio mnimo de T
i
e [p
i
(t)]
d
i
(pelo lema 5.4.2), o Teorema da Decomposi c ao
Prim aria 5.4.3 garante que o polin omio caracterstico de T
i
e uma potencia de p
i
(t). Da igualdade
(5.8) segue que o polin omio caracterstico de T
i
e [p
i
(t)]
s
i
.
2
Lema 5.4.7 Sejam S, T : V V duas aplica c oes lineares no espa co de dimens ao nita V .
Suponhamos que ST = TS. Ent ao existe uma base de V na qual tanto S como T realizam sua
decomposi c ao primaria.
5.5. A FORMA CAN

ONICA DE JORDAN 59
Demonstracao: Como no Teorema da Decomposi c ao Prim aria, seja W
i
= ker[p
i
(T)]
d
i
. Se
w
i
W
i
, armamos que Sw
i
W
i
(isto e, que W
i
e um subespa co invariante tambem para S).
De fato,
[p
i
(T)]
d
i
Sw
i
= S[p
i
(T)]
d
i
w
i
= 0.
Isso mostra o armado.
2
No caso de K = C podemos obter um resultado mais forte:
Proposicao 5.4.8 Sejam S, T : V V duas aplica c oes lineares no espa co de dimens ao nita
V sobre C. Suponhamos que ST = TS. Ent ao existe uma base de V formada por autovetores
generalizados de S e T.
Demonstracao: J a vimos que W
i
= ker[p
i
(T)]
d
i
e invariante por S. Todos os elementos n ao-
nulos de W
i
s ao, por deni c ao, autovetores generalizados de T. Aplicamos ent ao o Teorema
da Decomposi c ao Prim aria ao subespa co W
i
com respeito a B e obteremos uma divis ao desse
subespa co em subespa cos formados por autovetores generalizados de B.
2
Note que a demonstra c ao anterior mostra que a proposi c ao 5.4.8 permanece v alida para
qualquer n umero de operadores que comutam. Mais precisamente,
Proposicao 5.4.9 Se T
1
, . . . , T
m
: V V s ao aplica c oes lineares no espa co de dimens ao nita
V sobre C e se T
i
T
j
= T
j
T
i
para i, j 1, . . . , m, ent ao existe uma base de V formada por
autovetores generalizados para todas as aplica c oes T
1
, . . . , T
m
.
5.5 A forma can onica de Jordan
Seja V um espa co vetorial de dimens ao nita. Nessa se c ao mostraremos como encontrar uma
base de V na qual um operador linear T : V V assume uma matriz especialmente simples.
Denicao 5.5.1 Uma matriz complexa J, n n, esta na forma can onica de Jordan se
J =
_
_
_
_
_
J
1
0 0
0 J
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 J
k
_
_
_
_
_
, em que J
i
=
_
_
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
_
_
_
_
_
_
_
,
em que e um dos autovalores distintos
1
, . . . ,
j
da matriz J. (Ao autovalor
i
pode estar
associado mais do que um bloco J
i
; `as vezes se dene J
i
com a sub-diagonal de 1s situando-se
abaixo da diagonal principal ).
Mostraremos a seguir que toda matriz complexa e semelhante a uma matriz na forma can onica
de Jordan. Lembramos que, no caso de matrizes reais, sempre podemos ve-la como uma matriz
complexa, de modo que, nesse sentido, o resultado abaixo e geral. Mais do que isso, a necessidade
de considerarmos o corpo complexo e para garantir que os autovalores est ao todos presentes no
corpo (veja exemplo 5.5.4, abaixo).
60 CAP

ITULO 5. TEORIA ESPECTRAL


Teorema 5.5.2 (Jordan)
Sejam A, B M
nn
(C) duas matrizes semelhantes, isto e,
A = P
1
BP.
Ent ao
(i) A e B possuem os mesmos autovalores
i
;
(ii) os espa cos N
j
(
i
) = ker(A
i
I)
j
e M
j
(
i
) = ker(B
i
I)
j
possuem a mesma dimens ao
para todo j N e todo autovalor
i
.
Reciprocamente, se estas duas condi c oes se vericam, ent ao A e B s ao semelhantes.
Demonstracao: ( ) Notamos inicialmente que os n ucleos de duas matrizes semelhantes
tem dimens ao igual. De fato, se C = Q
1
DQ e x
1
, . . . , x
k
e uma base do n ucleo de C, ent ao
Qx
1
, . . . , Qx
k
e uma base do n ucleo de D.
Temos tambem que se A e B s ao semelhantes, ent ao tambem s ao as matrizes AaI e BaI,
bem como qualquer potencia delas:
(A aI)
m
= P
1
(B aI)
m
P.
A rela c ao (ii) decorre ent ao dos n ucleos dessas matrizes terem a mesma dimens ao. Em particular,
como um elemento v ker(A
i
I)
d
i
ker(A
i
I)
d
i
1
e tal que (A
i
I)
d
i
1
v e um autovetor
de A associado ao autovalor
i
, (i) decorre de (ii).
Para mostrarmos a recproca, denotaremos N
k
= ker(A
i
I)
k
. Come camos pelo
Lema 5.5.3 A aplica c ao
A
i
I :
N
k+1
N
k
W
i
tem imagem contida em
N
k
N
k1
e e injetiva.
Demonstracao: Seja x
N
k+1
N
k
. Isso quer dizer que (A
i
I)
k+1
x = 0 e (A
i
I)
k
x ,= 0.
Consideremos ent ao (A
i
I)x. Como (A
i
I)
k
(A
i
I)x = (A
i
I)
k+1
x, vemos que
(A
i
I)x N
k
. Por outro lado, (A
i
I)
k1
(A
i
I)x = (A
i
I)
k
x ,= 0, mostrando que
(A
i
I)x , N
k1
.
Armamos agora que essa aplica c ao e injetiva. Sejam x, y
N
k+1
N
k
, com (A
i
I)x = (A

i
I)y. Ent ao (A
i
I)(x y) = 0, o que e um absurdo, pois ent ao x y estaria em N
k
.
2
Vamos agora construir uma base especial para W
i
. Lembramos que uma base de N
k
/N
k1
e
obtida ao se escolher uma base para N
k1
e ent ao complet a-la para uma base de N
k
; os elementos
introduzidos formam a base procurada. (Veja o Teorema 1.4.4).
Seja x
1
, . . . , x

uma base de N
d
i
/N
d
i
1
. De acordo com o lema, os elementos
(A
i
I)x
1
, . . . , (A
i
I)x

5.5. A FORMA CAN

ONICA DE JORDAN 61
s ao linearmente independentes e pertencem a N
d
i
1
/N
d
i
2
. Completamos esses elementos ate
obter uma base desse espa co. Pelo mesmo raciocnio, a imagem por (A
i
I) dos elementos
dessa base e linearmente independente e podemos novamente completar esse conjunto ate obter
uma base; procedemos desse modo ate chegarmos ao espa co N
1
. A base de W
i
assim construda
e a base de Jordan do subespa co W
i
. Obtemos ent ao uma base do espa co inteiro ao obtermos
as bases de Jordan de cada espa co W
i
. Essa base e chamada base de Jordan.
De acordo com a hip otese (ii), os subespa cos M
k
= ker(B
i
)
k
tem a mesma dimens ao
do espa co correspondente N
k
. Em outras palavras, o procedimento aplicado a N
k
, se repetido
para a matriz B, produzir a o mesmo n umero de elementos para cada base de M
k
/M
k1
. Em
outras palavras, existe uma aplica c ao P que faz corresponder a cada elemento da base de Jordan
x
j
N
k
/N
k1
o elemento correspondente na base de y
j
M
k
/M
k1
, de modo que (A
i
I)x
j
seja levado em (B
i
I)y
j
. Conhecida a imagem dos vetores da base, existe uma unica aplica c ao
linear que estende essa aplica c ao; seja P tal extens ao. Como base est a sendo levada em base,
essa aplica c ao linear tem inversa. O mesmo procedimento aplicado ao autoespa co associado a

i
constr oi a aplica c ao P.
Finalmente, a deni c ao de P garante que P(A
i
I)x
j
= (B
i
I)y
j
= (B
i
I)Px
j
.
Assim, P(A
i
I) = (B
i
I)P. Decorre da que PA = BP, como desejado.
2
Exemplo 5.5.4 Seja T : R
4
R
4
denido por
T(x
1
, x
2
, x
3
, x
4
) = (2x
1
x
2
+x
4
, 3x
2
x
3
, x
2
+x
3
, x
2
+ 3x
4
).
Vamos obter a forma can onica de Jordan de T, bem como a base na qual T assume essa forma.
O polin omio caracterstico de T de p(t) = (t 3)(t 2)
3
(verique!). Assim, todos os
autovalores de T est ao no corpo R e podemos obter a forma de Jordan de T. Para o autovalor
3, a forma escalonada reduzida de
(T 3I) =
_
_
_
_
1 1 0 1
0 0 1 0
0 1 2 0
0 1 0 0
_
_
_
_
e
_
_
_
_
1 0 0 1
0 1 0 0
0 0 1 0
0 0 0 0
_
_
_
_
.
Assim, o subespa co W
1
= ker(T 3I) do Teorema da Decomposi c ao Prim aria e dado por
(x
1
, 0, 0, x
1
); x
1
R.
Da mesma forma se verica que
ker(T 2I) = (x
1
, x
2
, x
2
, x
2
); x
1
, x
2
R
ker(T 2I)
2
= (x
1
, x
2
+x
3
, 2x
3
, 2x
2
); x
1
, x
2
, x
3
R.
Como a dimens ao de ker(T 2I)
3
e igual ` a multiplicidade de 2 como raiz do polin omio carac-
terstico p(t) de T , temos que o espa co W
2
do Teorema da Decomposi c ao Prim aria e dado por
ker(T 2I)
2
(veja proposi c ao 5.4.6).
O subespa co W
1
tem base (1, 0, 0, 1) = w
1
. Esse e o primeiro elemento da base de Jordan
(ele e respons avel por um bloco 1 1 no Teorema da Decomposi c ao Prim aria).
62 CAP

ITULO 5. TEORIA ESPECTRAL


Agora vamos obter a base de Jordan de W
2
. Para isso, come camos por obter um vetor em
W
2
= N
2
= ker(T 2I)
2
que nao est a em N
1
= ker(T 2I) (e possvel obter apenas um vetor
assim, pois a diferen ca de dimens ao entre esses espa cos e 1). Ele fornecer a a base de N
2
/N
1
da
demonstra c ao do Teorema de Jordan. Ora, claramente o vetor w
4
= (0, 1, 0, 2) N
2
e w
4
, N
1
.
Calculamos ent ao w
3
= (T 2I)w
4
= (1, 1, 1, 1). (A demonstra c ao do Teorema de Jordan
garante que w
3
N
1
e que w
3
, w
4
s ao linearmente independentes). Para obtermos uma base
de N
1
, escolhemos o vetor w
2
= (1, 0, 0, 0) N
1
, que claramente e linearmente independente
com w
3
. (Mais uma vez, a demonstra c ao do Teorema de Jordan garante que w
2
, w
3
, w
4
s ao
linearmente independentes).
Temos assim a base B = w
1
, w
2
, w
3
, w
4
, que e a base de Jordan de T. Os vetores w
2
e
w
3
s ao autovetores de T associados ao autovalor 2 (pois eles pertencem a N
1
). Finalmente,
(T 2I)w
4
= w
3
, de modo que Tw
4
= 2w
4
+w
3
. Assim, representando T na base B, obtemos
T
B
= J =
_
_
_
_
3 0 0 0
0 2 0 0
0 0 2 1
0 0 0 2
_
_
_
_
,
que e a forma can onica de Jordan de T.
Observacao 5.5.5 Comparando com o exemplo acima, se tivessemos encontrado dois vetores
distintos para N
2
/N
1
, consideraramos o ciclo formado pelo primeiro e ent ao o ciclo formado pelo
segundo e ordenaramos a base nessa ordem.
Exemplo 5.5.6 Obtenha uma base B na qual a matriz A esteja na forma can onica de Jordan:
A =
_
_
_
_
_
_
_
_
2 0 0 0 0 0
1 2 0 0 0 0
1 0 2 0 0 0
0 1 0 2 0 0
1 1 1 1 2 0
0 0 0 0 1 1
_
_
_
_
_
_
_
_
.
O polin omio caracterstico de A e p(t) = (t 2)
5
(t + 1), pois a matriz A e triangular superior
(enuncie e demonstre esse resultado sobre matrizes triangulares).
Se chamamos de W
1
o subespa co relacionado ao autovalor 1, vemos que dimW
1
= 1 e que
uma base para esse subespa co e dado pelo vetor e
6
. (Voce consegue obter essa base sem fazer
qualquer conta?). Denotaremos v
1
= e
6
o primeiro vetor da base procurada.
Consideremos agora o espa co W
2
, associado ao autovalor 2. Temos que dimW
2
= 5 e que
A 2I =
_
_
_
_
_
_
_
_
0 0 0 0 0 0
1 0 0 0 0 0
1 0 0 0 0 0
0 1 0 0 0 0
1 1 1 1 0 0
0 0 0 0 1 3
_
_
_
_
_
_
_
_
.
5.5. A FORMA CAN

ONICA DE JORDAN 63
Se chamamos de N
1
= ker(A 2I), vemos que dimN
1
= 2. (Voce consegue perceber isso sem
fazer qualquer conta? Lembre-se que o n umero de linhas nulas no escalonamento de A 2I
fornece os graus de liberdade nas solu c oes de (A 2I)x = 0, isto e, a dimens ao desse espa co.)
Temos
N
1
= ker(A 2I) = (0, 0, x
3
, x
3
, x
4
, x
4
/3); x
3
, x
4
R
N
2
= ker(A 2I)
2
= (0, 0, x
3
, x
4
, x
5
, (3x
5
x
4
x
3
)/9)
N
3
= ker(A 2I)
3
= (0, x
2
, x
3
, x
4
, x
5
, (2x
2
3x
3
3x
4
+ 9x
5
)/27
N
4
= ker(A 2I)
4
= (x
1
, x
2
, x
3
, x
4
, x
5
, (27x
5
9x
4
9x
3
6x
2
10x
1
)/81
Uma vez que dimker(A 2I)
4
= 5, vemos que o coeciente que estabiliza o espa co A 2I e 4.
Se W
2
e o autoespa co generalizado associado ao autovalor 2, temos W
2
= N
4
.
Claramente o vetor v
6
= (1, 0, 0, 0, 0, 10/81) N
4
N
3
. Uma vez que a aplica c ao
A 2I :
N
4
N
3

N
3
N
2
e injetiva e dimN
3
/N
2
= 1 (pois existe em N
3
apenas um grau de liberdade a mais do que em
N
2
, temos que
v
5
= (A 2I)v
6
= (0, 1, 1, 0, 1, 10/27)
e o quinto vetor da base procurada.
Pelo mesmo motivo, v
4
= (A2I)
2
v
6
= (A2I)v
5
= (0, 0, 0, 1, 0, 1/9) e o quarto vetor da
base procurada (note que v
4
N
2
/N
1
).
O terceiro vetor da base e v
3
= (A2I)
3
v
6
= (A2I)v
4
= (0, 0, 0, 0, 1, 1/3) e um autovetor
de A, pois ele pertence a N
1
. Como N
1
tem dimens ao 2, existe um outro vetor nesse espa co,
linearmente independente com v
3
. Esse e o vetor v
2
= (0, 0, 1, 1, 0, 0).
Tendo obtido os vetores v
1
, . . . , v
6
, a representa c ao de A nessa base e dada por
Av
1
= v
1
(pois (A +I)v
1
= 0)
Av
2
= 2v
2
(pois (A 2I)v
2
= 0)
Av
3
= 2v
3
(pois (A 2I)v
3
= 0)
Av
4
= v
3
+ 2v
4
(pois (A 2I)v
4
= v
3
)
Av
5
= v
4
+ 2v
5
(pois (A 2I)v
5
= v
4
)
Av
6
= v
5
+ 2v
6
(pois (A 2I)v
6
= v
5
)
A representa c ao de A nessa base e
J =
_
_
_
_
_
_
_
_
1 0 0 0 0 0
0 2 0 0 0 0
0 0 2 1 0 0
0 0 0 2 1 0
0 0 0 0 2 1
0 0 0 0 0 2
_
_
_
_
_
_
_
_
.
A matriz J tem um bloco 1 1 associado ao autovalor 1. Associado ao autovalor 2 ela tem
dois blocos de Jordan: o bloco 1 1 associado ao autovetor v
2
e o bloco 4 4 associado aos
elementos v
3
, v
4
, v
5
, v
6
= (A 2I)
3
v
6
, (A 2I)
2
v
6
, (A 2I)v
6
, v
6
.
64 CAP

ITULO 5. TEORIA ESPECTRAL


Exemplo 5.5.7 Seja
A =
_
_
_
_
_
_
_
_
1 1 1 3 1 7
0 1 1 2 3 2
0 0 1 0 2 1
0 0 0 1 1 2
0 0 0 0 1 3
0 0 0 0 0 4
_
_
_
_
_
_
_
_
,
cujo polin omio caracterstico e (obviamente) p(t) = (t + 1)
5
(t + 4). Temos
ker(A + 4I) = (2x
1
, 0, x
1
, x
1
, x
1
, x
1
) : x
1
R
ker(A +I) = (x
1
, x
2
, 2x
2
, x
2
, 0, 0) : x
1
, x
2
R
ker(A +I)
2
= (x
1
, x
2
, 2x
3
2x
4
, x
3
, x
4
, 0) : x
1
, x
2
, x
3
, x
4
R
ker(A +I)
3
= (x
1
, x
2
, x
3
, x
4
, x
5
, 0) : x
1
, x
2
, x
3
, x
4
, x
5
R
Escolhemos v
1
= (2, 0, 1, 1, 1, 1) ker(A + 4I). Esse e o primeiro vetor de uma base na
qual A e representada por sua forma can onica de Jordan.
Claramente, v
6
= (0, 0, 1, 0, 0, 0) ker(A + I)
3
ker(A + I)
2
. Seja ent ao (A + I)v
6
= v
5
=
(1, 1, 0, 0, 0, 0) e (A + I)v
5
= v
4
= (1, 0, 0, 0, 0, 0) ker(A + I). Como dim
ker(A+I)
2
ker(A+I)
= 2, existe
mais um vetor nesse espa co, linearmente independente com v
5
. A primeira vista, poderamos
escolher o vetor v = (0, 1, 0, 0, 0, 0), pois ele est a em ker(A + I)
2
e n ao est a em ker(A + I).
Entretanto, em
ker(A+I)
2
ker(A+I)
, os vetores v
5
e v s ao linearmente dependentes: basta notar que a
diferen ca entre eles e um vetor em ker(A + I). Uma escolha correta para o vetor de
ker(A+I)
2
ker(A+I)
,
linearmente independente com v
5
e v
3
= (0, 0, 2, 0, 1, 0) (verique). Ent ao (A + I)v
3
= v
2
=
(1, 1, 2, 1, 0, 0).
Notamos, em particular, que pode ser complicada a escolha de tres vetores linearmente
independentes num espa co quociente N
i
/N
i1
. (Em geral, isso pode ser obtido por simples
inspe c ao: o vetor v
4
escolhido acima tem uma coordenada que n ao est a presente no espa co
ker(A + I)). Se essa inspe c ao n ao e suciente, a melhor maneira e pensar como e construda a
base do espa co N
i
/N
i1
: partindo de uma base de N
i1
os elementos que completam a base de
N
i
formam a base do quociente. Esse e o processo computacional adequado quando a dimens ao
do quociente for grande.
Teorema 5.5.8 Toda matriz A M
nn
(C) e semelhante `a sua transposta.
Demonstracao: Uma vez que det A = det A
T
, obtemos que o polin omio caracterstico dessas
duas matrizes e igual. Em particular, elas tem os mesmos autovalores.
Notamos que se q e um polin omio e B uma matriz nn, ent ao [q(B)]
T
= q(B
T
) (basta tomar
a transposta). Se
i
e um autovalor de A (e, portanto, de A
T
), aplicando esse resultado para
os polin omios (t
i
)
k
e ent ao considerando a dimens ao de seus n ucleos, decorre do Corol ario
3.4.5que a condi c ao (ii) do Teorema de Jordan tambem e cumprida.
2
5.6. A FORMA DE JORDAN REAL 65
Teorema 5.5.9 Um operador linear T : V V e diagonalizavel se, e somente se, o seu
polin omio mnimo e produto de fatores lineares distintos.
Demonstracao: Suponhamos que T seja diagonaliz avel e
1
, . . . ,
k
os autovalores distintos de
T. Ent ao V possui uma base formada por autovetores de T, de acordo com o teorema 5.1.4.
Considere o polin omio
h(z) = (t
1
) . . . (t
k
).
Se v e um autovetor de T associado ao autovalor
i
, ent ao (T
i
I)v = 0. Isso implica que
h(T)v = 0 para qualquer autovetor de T. Como o Teorema da Decomposi c ao Prim aria implica
que o polin omio mnimo e caracterstico possuem os mesmos fatores irredutveis, mostramos que
h e o polin omio mnimo de T.
Reciprocamente, se p(t) = (t
1
) . . . (t
k
) e o polin omio mnimo de T, ent ao W
i
=
ker(T
i
I). Claramente todo elemento de W
i
e um autovetor de T. Tomando bases B
i
de cada
espa co W
i
, temos que B = B
1
, . . . , B
k
e uma base de V formada por autovetores de T.
2
5.6 A forma de Jordan real
Denicao 5.6.1 Sejam A M
nn
e z K
n
um vetor qualquer. Denimos A M
nn
como a
matriz obtida ao se tomar o conjugado em cada uma das entradas de A e z K
n
como o vetor
obtido ao se tomar o conjugado em cada uma das coordenadas de z.

E de verica c ao imediata que A +B = A +



B, AB = AB para quaisquer matrizes A, B
M
nn
e K. Alem disso, tambem vale Az = A z para qualquer z K
n
.
Denicao 5.6.2 Seja V um espa co vetorial real. Denimos a complexicacao de V como
sendo o conjunto
V
C
= u +iv; u, v V .
Em V
C
soma-se e multiplica-se por escalar (complexo) de maneira natural.

E facil vericar
que V
C
torna-se, assim, um espa co vetorial sobre os complexos.
Seja T : V V uma aplica c ao linear. Denimos a complexicacao de T como sendo a
aplica c ao T
C
: V
C
V
C
denida por T
C
(u +iv) = Tu +iTv.
Se identicarmos o vetor v V com o vetor v + i0 V
C
, V e um subespa co de V
C
. Essa
identica c ao ser a usada no pr oximo resultado:
Lema 5.6.3 Sejam V um espa co vetorial de dimens ao nita e T : V V uma aplica c ao linear.
As seguintes armativas s ao validas:
(i) toda base de V e base de V
C
;
(ii) os polin omios caractersticos de T e T
C
s ao iguais;
(iii) se e um autovalor de T
C
, ent ao

e tambem um autovalor de T
C
; as multiplicidades
algebricas dos autovalores e

s ao iguais;
66 CAP

ITULO 5. TEORIA ESPECTRAL


(iv) seja

W um subespa co tal que w = u + iv

W implica que w = u iv

W. Ent ao

W
possui uma base formada por vetores reais.
Demonstracao: (i) Basta notar que as partes real u e imagin aria v de qualquer vetor u + iv
podem ser escritas como combina c ao linear dos elementos da base de V .
(ii) Decorre imediatamente de (i) com a identica c ao V v = v + i0 V
C
, pois ent ao as
representa c oes de T e T
C
numa base de V s ao iguais.
(iii) Sejam um autovalor de T
C
e p(z) o polin omio caracterstico de T
C
. Como p(z) tambem
e o polin omio caracterstico de T, os coecientes de p(z) s ao reais. Tomando o conjugado na
equa c ao p() = 0, obtemos p(

) = 0, o que mostra que



tambem e uma raiz do polin omio
caracterstico de T
C
. Se p

() = . . . = p
(d1)
() = 0 e p
(d)
() ,= 0 (isto e, se e raiz de multi-
plicidade d do polin omio caracterstico
5
), tomando o conjugado em cada uma dessas equa c oes
obtemos p

) = . . . = p
(d1)
(

) = 0 e p
(d)
(

) ,= 0, mostrando que

tambem tem multiplicidade
d.
(iv) Seja w
1
, . . . , w
k
uma base de

W, com w
j
= u
j
+iv
j
, j = 1, . . . , k. Somando e subtraindo
os vetores w
j
e w
j
, obtemos que u
j
= u
j
+ i0 e v
j
= v
j
+ i0 est ao em

W. Assim, o conjunto
S = u
1
, v
1
, . . . , u
k
, v
k
e um conjunto de vetores reais que gera

W. Uma base formada de
vetores reais e obtida ao se tomar um subconjunto de S com k elementos que seja linearmente
independente em V
C
. 2
Lema 5.6.4 Sejam T : V V um operador linear e T
C
sua complexica c ao. Se o subespa co

W V
C
possui uma base formada por vetores reais, ent ao ele e a complexica c ao de um sube-
spa co W V .
Demonstracao: Todo vetor de

W e da forma w = u+iv, sendo u e v vetores reais. Escrevendo
u e v em termos dos vetores da base real, segue imediatamente que

W e a complexica c ao do
espa co real W gerado pelos vetores dessa base. 2
Teorema 5.6.5 (Forma de Jordan real)
Seja T : V V um operador linear real. Ent ao existe uma base ( de V na qual T e repre-
sentado por uma matriz J, diagonal em blocos, cujos blocos diagonais, alem daqueles associados
a autovalores reais e que s ao como na deni c ao da forma de Jordan complexa, tambem podem
ter a forma
J
,
=
_
_
_
_
_
_
_
D
,
I
2
0 0
0 D
,
I
2
0
.
.
.
.
.
.
.
.
.

.
.
.
0 0 0 D
,
I
2
0 0 0 0 D
,
_
_
_
_
_
_
_
em que D
,
=
_


_
,
sendo +i um autovalor complexo de T
C
e I
2
a matriz identidade 2 2.
5
Veja exerccio 6.
5.7. EXERC

ICIOS 67
Demonstracao: De acordo com o Teorema da Decomposi c ao Prim aria, o espa co vetorial V
pode ser decomposto como soma direta de espa cos invariantes pela aplica c ao T. Se R e um
autovalor de T, obtemos o espa co invariante W

. A base do espa co W

na qual T assume sua


forma de Jordan nesse espa co e ent ao construda como na demonstra c ao do teorema de Jordan
5.5.2.
Assim, podemos nos limitar ao caso de autovalores C R da complexica c ao T
C
de T.
Suponhamos que T
C
possua um autovalor , R. Decorre do lema 5.6.3(iii) que

tambem e
autovalor de T
C
, o que garante a existencia dos espa cos W

e W

. Se os vetores w
j
= u
j
+ iv
j
(j = 1, . . . , k) formam uma base de W

, temos que os vetores u


j
iv
j
formam uma base de W

,
de acordo com o exerccio 13.
Armamos que
S = u
1
, v
1
, u
2
, v
2
, . . . , u
k
, v
k

e uma base de W

formada apenas por vetores reais. De fato, como dimW

= dimW

= k,
o conjunto S tem a dimens ao do espa co W

. Por outro lado, todo vetor desse espa co e


combina c ao linear dos elementos de S. Isso mostra o armado.
Finalmente, se w
1
= u
1
+iv
1
satisfaz T
C
w
1
= w
1
para = +i C R, ent ao
T(u
1
) +iT(v
1
) = (u
1
v
1
) +i(u
1
+v
1
).
Se, para j 2, . . . , r, temos T
C
w
j
= w
j
+w
j1
, vemos que
Tu
j
+iTv
j
= (u
j
v
j
+u
j1
) +i(u
j
+v
j
+v
j1
),
de onde segue que, na base u
1
, v
1
, u
2
, v
2
, . . . , u
k
, v
k
de W

, T
C
e representado por bloco(s)
da forma descrita no enunciado do teorema. Como T
C
= T para qualquer dos vetores dessa base,
a demonstra c ao est a completa.
2
5.7 Exerccios
1. Ache o polin omio mnimo de T : R
3
R
3
dada por T(x, y, z) = (3x + y z, 2x + 2y
z, 2x + 2y).
2. Seja V um espa co vetorial de dimens ao nita. Mostre que o polin omio caracterstico e o
polin omio mnimo da aplica c ao linear T : V V independem da base B de V .
3. Sejam T : K
n
K
n
uma aplica c ao linear e A a representa c ao de T na base can onica
do K
n
. Suponhamos que T possa ser representada por uma matriz diagonal na base
B = v
1
, . . . , v
n
. Se P e matriz cujas colunas s ao as coordenadas de v
i
(com rela c ao
` a base can onica do K
n
), mostre que D = P
1
AP, em que D e a matriz diagonal cujos
elementos diagonais s ao os autovalores de T.
4. Demonstre a Proposi c ao 5.4.9.
68 CAP

ITULO 5. TEORIA ESPECTRAL


5. Uma aplica c ao linear N : V W e nilpotente se existe m N tal que N
m
v = 0 para
todo v V . De exemplo de uma matriz A, 2 2, tal que A ,= 0 e A
2
= 0. Ache um vetor
v R
2
tal que v, Av seja uma base do R
2
e que A coincida com sua representa c ao nessa
base. Considere agora uma matriz N, n n. Seja m
0
o menor de tais n umeros m N. Se
m
0
> 1, mostre que existe v V tal que
v, Nv, . . . , N
m
0
2
v, N
m
0
1
v
e linearmente independente. De exemplo de uma matriz 4 4 tal que A ,= 0, A
2
= 0 e
existam vetores v, w R
4
tais que v, Av, w, Aw seja uma base de R
4
e A coincida com
sua representa c ao nessa base. De exemplo de uma matriz 5 5 tal que A
2
,= 0 e A
3
= 0,
para a qual existam vetores v, w R
5
tais que v, Av, w, Aw, A
2
w seja uma base do R
5
e
A coincida com sua representa c ao nessa base.
6. Suponha que o polin omio p(z) seja da forma (z )
d
q(z), com q() ,= 0 e d 2, 3, . . ..
Mostre que p

() = . . . = p
(d1)
() = 0, mas p
(d)
() ,= 0. Dizemos ent ao que a raiz de
p(z) tem multiplicidade algebrica d.
7. Encontre a decomposi c ao prim aria da matriz
A =
_
_
_
_
_
_
1 1 1 1 1
0 1 1 1 1
0 0 1 1 1
0 0 0 2 1
0 0 0 0 2
_
_
_
_
_
_
.
8. Leia o par agrafo 6.8 (Teorema da Decomposi c ao Prim aria) do livro

Algebra Linear, de
Homan e Kunze. Estude o exemplo 14 daquela se c ao.
9. Seja A uma matriz n n diagonaliz avel. Se B comuta com A, mostre que A e B s ao
simultaneamente diagonaliz aveis.
10. Obtenha uma base B na qual as seguintes matrizes estejam na forma can onica de Jordan:
(i)
_
_
_
_
_
_
2 5 0 0 0
0 2 0 0 0
0 0 1 0 1
0 0 0 1 0
0 0 0 0 1
_
_
_
_
_
_
.
(ii)
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0 0 1 0 4 0
0 1 1 1 1 3 3 4
0 0 1 0 1 1 2 1
0 0 0 1 1 1 4 5
0 0 0 0 1 0 1 5
0 0 0 0 0 1 1 1
0 0 0 0 0 0 1 2
0 0 0 0 0 0 0 3
_
_
_
_
_
_
_
_
_
_
_
_
.
5.7. EXERC

ICIOS 69
11. Sejam
m(t) = (t
1
)
d
1
. . . (t
r
)
d
r
p(t) = (t
1
)
s
1
. . . (t
r
)
s
r
os polin omios mnimo e caracterstico do operador T : V V , sendo V um espa co sobre
os complexos. Mostre que
(i) existe ao menos um bloco d
i
d
i
associado ao autovalor
i
;
(ii) o n umero de blocos associados ao autovalor
i
e igual ` a multiplicidade geometrica
de
i
(isto e, ` a dimens ao do espa co W
i
associado ao autovalor
i
). (O inteiro s
i
e a
multiplicidade algebrica do autovalor
i
).
12. Determine todas as possveis formas can onicas de Jordan para uma matriz
(i) cujo polin omio caracterstico e p(t) = (t 2)
3
(t 5)
2
;
(ii) cujo polin omio mnimo e m(t) = (t 2)
2
;
(iii) cujo polin omio caracterstico e p(t) = (t 3)
4
(t 5)
4
e cujo polin omio mnimo e
m(t) = (t 3)
2
(t 5)
2
.
Sugest ao: em cada caso, quais s ao as possveis dimens oes dos subespa cos associados ao
polin omio mnimo?
13. Deniremos a conjugada

B de uma matriz B qualquer como a matriz obtida ao se tomar
o conjugado em cada uma de suas entradas. Mostre que B +C = B + C e BC = BC.
Em particular, se u = (
1
. . .
n
)
T
e um vetor, u = (
1
. . .
n
)
T
e o conjugado do vetor
u. Seja T : V V um operador linear real e T
C
sua complexica c ao. Mostre que, se
u +iv ker(T
C
I)
r
, ent ao u iv ker(T
C

I)
r
. Conclua que se u
1
+iv
1
, . . . , u
k
+iv
k
e uma base de W

, ent ao u
1
iv
1
, . . . , u
k
iv
k
e uma base de W

.
14. Verique que a demonstra c ao do teorema 5.6.5 garante, em particular, que os subespa cos
W

e W

associados aos autovalores conjugados ,

possuem a mesma dimens ao. Voce e


capaz de dar uma outra demonstra c ao desse fato?
15. Seja T
C
a complexica c ao do operador T : V V , sendo V e um espa co vetorial real.
Suponhamos que R seja um autovalor de T
C
(e, portanto, de T). Mostre que,
se w
1
, . . . , w
k
e uma base do espa co invariante W

, com w
j
= u
j
+ iv
j
, ent ao tanto
u
1
, . . . , u
k
quanto v
1
, . . . , v
k
s ao bases de W

. De ent ao uma demonstra c ao do teo-


rema 5.6.5 usando a complexica c ao T
C
tambem para o caso de um autovalor R.
Suponhamos agora que C R seja um autovalor de T
C
e w
1
, . . . , w
k
uma base de
W

, sendo w
j
= u
j
+iv
j
.

E verdade que u
1
, . . . , u
k
e uma base de W

?
16. Seja T : R
4
R
4
um operador que tem a forma de Jordan complexa dada por
_
_
_
_
i 1 0 0
0 i 0 0
0 0 i 0
0 0 0 i
_
_
_
_
.
Ache a sua forma de Jordan real.
Captulo 6
Estrutura Euclidiana
6.1 Produto interno
Denicao 6.1.1 Seja V um espa co vetorial sobre o corpo K. Um produto interno em V e
uma aplica c ao , ) : V V K satisfazendo `as seguintes propriedades:
(i) v, w) = w, v);
(ii) u +v, w) = u, w) +v, w);
(iii) v, v) 0 e v, v) = 0 se, e somente se, v = 0.
Um espa co V com produto interno e chamado euclidiano se ele tem dimens ao nita
1
.
Exemplo 6.1.2 Se V = R
n
, o produto interno can onico (tambem chamado produto escalar) e
denido por
x, y) = x y =
n

i=1
x
i
y
i
= (x
1
. . . x
n
)
_
_
_
y
1
.
.
.
y
n
_
_
_
,
em que x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
n
).
Com a mesma nota c ao, esse e um caso particular do produto interno can onico emC
n
, denido
por
x, y) = x y =
n

i=1
x
i
y
i
= (x
1
. . . x
n
)
_
_
_
y
1
.
.
.
y
n
_
_
_
.

Observacao 6.1.3 Se o espa co vetorial V possui uma base B = v


1
, . . . , v
n
, ent ao
x, y) = [x]
T
B
[y]
B
dene um produto interno em V .
1
Em alguns textos, um espa co euclidiano e um espa co com produto interno, mesmo em dimens ao innita.
70
6.2. NORMA 71
Assim, ao dizermos que um espa co vetorial e euclidiano, n ao estamos atribuindo uma pro-
priedade especial a esse espa co. Estamos, na verdade, especicando que naquele espa co foi
escolhido um determinado produto interno, entre os v arios produtos internos com que ele pode-
ria ser considerado.
Note que a deni c ao do produto interno atraves de uma base e a generaliza c ao do exemplo
6.1.2. Veremos posteriormente uma certa recproca a esse resultado, caracterizando produtos
internos em espa cos de dimens ao nita.
Denicao 6.1.4 Sejam u, v vetores do espa co com produto interno V . Esses vetores s ao or-
togonais (ou perpendiculares) se u, v) = 0. Nesse caso escrevemos u v.
Posteriormente justicaremos geometricamente essa deni c ao.
6.2 Norma
Denicao 6.2.1 Seja V um espa co vetorial sobre o corpo K. Uma norma em V e uma
aplica c ao | | : V [0, ) satisfazendo `as seguintes propriedades:
(i) |v| > 0 se v ,= 0;
(ii) |v| = [[ |v|, para K;
(iii) |v +w| |v| +|w|.
Se V possui uma norma, dizemos que V e um espa co normado.
O valor |v| pode ser interpretado geometricamente como o comprimento do vetor v. Se |v| = 1,
o vetor v e chamado unitario.
Seja V um espa co com produto interno. Consideremos (com abuso de nota c ao) |v| :=
v, v)
1/2
. Vamos mostrar que essa nota c ao se justica, isto e, que v, v)
1/2
realmente dene uma
norma. Come camos justicando a deni c ao de perpendicularidade dada acima.
Teorema 6.2.2 (Pitagoras)
Seja V um espa co com produto interno e |x| = x, x)
1/2
. Ent ao, se x y, temos
|x +y|
2
= |x|
2
+|y|
2
.
Demonstracao: Basta desenvolver |x +y|
2
:
|x +y|
2
= x +y, x +y) = x, x) +x, y) +y, x) +y, y) = |x|
2
+|y|
2
,
pois x e y s ao ortogonais.
2
Suponhamos agora que V seja real. Ent ao x + y, x + y) = |x|
2
+ 2x, y) + |y|
2
. Se vale o
Teorema de Pit agoras, ent ao x y.
72 CAP

ITULO 6. ESTRUTURA EUCLIDIANA


Proposicao 6.2.3 (Desigualdade de Cauchy-Schwarz)
Seja V um espa co com produto interno. Ent ao, se |x| = x, x)
1/2
, temos para todos x, y E
[x, y)[ |x| |y|.
Demonstracao: A prova que apresentaremos e bem geometrica (interprete!). Se x = y, ent ao
[x, y)[ = [[ y, y) = [[ |y|
2
= |x| |y|. Se x ,= y, existe K tal que [y x, x)[ = 0. (De
fato, basta tomar := y, x)/|x|
2
; note que |x| = 0 est a includo no caso anterior). Ent ao
0 |y x|
2
= |y|
2
[[
2
|x|
2
= |y|
2

[(y, x)[
2
|x|
2
,
donde obtemos a desigualdade de Cauchy-Schwarz.
2
Agora estamos em condi c oes de justicar a nota c ao |x| = x, x)
1/2
.
Proposicao 6.2.4 Todo espa co com produto interno V tem uma norma denida por |x| =
x, x)
1/2
.
Demonstracao: A primeira propriedade de norma decorre imediatamente da deni c ao do pro-
duto interno. Alem disso,
|v|
2
= v, v) = v, v) = [[
2
|v|
2
.
Finalmente, temos que
|v +w|
2
= v +w, v +w) = |v|
2
+v, w) +w, v) +|w|
2
= |v|
2
+ 21e v, w) +|w|
2
|v|
2
+ 21e [v, w)[ +|w|
2
|v|
2
+ 2|v| |w| +|w|
2
= (|v| +|w|)
2
2
A seguinte propriedade de espa cos com produto interno e imediata (desenvolva o lado es-
querdo da equa c ao):
Proposicao 6.2.5 Em todo espa co com produto interno vale a identidade do paralelogramo:
|x +y|
2
+|x y|
2
= 2
_
|x|
2
+|y|
2
_
.
6.3 Bases ortonormais
Denicao 6.3.1 Seja V um espa co com produto interno. Um conjunto X V e ortogonal se
u v para quaisquer u, v X. Se, alem disso, todos os seus vetores s ao unitarios, ent ao X e
ortonormal.
O pr oximo resultado vale ate em espa cos vetoriais de dimens ao innita:
6.3. BASES ORTONORMAIS 73
Lema 6.3.2 Todo conjunto ortogonal formado por vetores n ao nulos e linearmente indepen-
dente.
Demonstracao: Sejam x
1
, . . . , x
m
X e suponhamos que

1
x
1
+. . . +
m
x
m
= 0.
Ent ao,
0 = 0, x
i
) =
1
x
1
+. . . +
m
x
m
, x
i
) =
1
x
1
, x
i
) +. . . +
m
x
m
, x
i
) =
i
x
i
, x
i
).
Como x
i
, x
i
) = |x
i
|
2
,= 0, temos
i
= 0.
2
Proposicao 6.3.3 Seja v
1
, . . . , v
n
uma base ortonormal de um espa co euclidiano V . Ent ao
(i) u = u, v
1
)v
1
+. . . +u, v
n
)v
n
;
(ii) |u|
2
= [u, v
1
)[
2
+. . . +[u, v
n
)[
2
.
Demonstracao: Se u =
1
v
1
+. . . +
n
v
n
, ent ao u, v
i
) =
i
v
i
, v
i
) =
i
. Isso mostra (i).
Como
|u|
2
=
_
u, v
1
)v
1
+. . . +u, v
n
)v
n
, u, v
1
)v
1
+. . . +u, v
n
)v
n
_
=
n

i=1
u, v
i
)u, v
i
) =
n

i=1
[u, v
i
)[
2
,
(ii) tambem se verica.
2
Teorema 6.3.4 (Gram-Schmidt)
Dada uma base arbitraria u
1
, . . . , u
n
do espa co euclidiano V , existe uma base ortonormal
x
1
, . . . , x
n
de V formada por vetores x
i
que s ao combina c oes lineares dos vetores u
1
, . . . , u
i
,
para todo i = 1, . . . , n.
Demonstracao: Utilizaremos indu c ao na dimens ao do espa co, o caso n = 1 sendo trivial.
Suponhamos construdos os vetores x
1
, . . . , x
k1
. Consideramos ent ao
x
k
= c
_
u
k

k1

i=1
c
i
x
i
_
.
Para obtermos x
k
ortogonal a todos os x
i
j a escolhidos, basta denir c
i
= u
k
, x
i
) para i =
1, . . . , k 1. Escolhemos ent ao 1/c como a norma do vetor u
k

k1
i=1
c
i
x
i
. Note que c > 0.
2
Uma interpreta c ao do teorema de Gram-Schmidt em termos de decomposi c ao matricial ser a
dada na se c ao 8.4. O teorema de Gram-Schmidt garante a existencia de uma innidade de bases
ortonormais para espa cos euclidianos. Dada uma base ortonormal x
1
, . . . , x
n
, temos
x = a
1
x
1
+. . . +a
n
x
n
.
74 CAP

ITULO 6. ESTRUTURA EUCLIDIANA


Os escalares a
i
podem ser facilmente determinados. Como a base e ortonormal, temos que
a
i
= x, x
i
) i = 1, . . . , n.
Consideremos ent ao um outro vetor y V . Ent ao
x, y) = a
1
x
1
+. . . +a
n
x
n
, b
1
x
1
+. . . +b
n
x
n
) = a
1
b
1
+. . . +a
n
b
n
,
o que mostra que, com rela c ao a uma base ortonormal
2
, qualquer produto interno em V tem a
forma dada pela observa c ao 6.1.3. Em particular, quando y = x, temos
|x|
2
= a
2
1
+. . . +a
2
n
.
Podemos ainda explorar mais as rela c oes acima com a observa c ao 6.1.3. Se x = a
1
x
1
+. . . +a
n
x
n
,
conclumos facilmente que a aplica c ao
S : V K
n
, Sx = (a
1
, . . . , a
n
)
e um isomorsmo que transforma um dado produto interno em V no produto escalar usual no
K
n
.
Notamos que, para y V xo, a aplica c ao x x, y) e uma aplica c ao linear. Reciproca-
mente, temos o importante
Teorema 6.3.5 (de representacao de Riesz) Toda aplica c ao linear : V K num espa co
euclidiano V pode ser escrita como um produto interno. Mais precisamente, existe um unico
y V tal que
(x) = x, y) x V.
Compare o enunciado acima com o teorema 2.2.3. Existe uma generaliza c ao desse resultado para
certos espa cos com produto interno de dimens ao innita (os espa cos de Hilbert).
Demonstracao: Considere uma base ortonormal x
1
, . . . , x
n
V . Se x = x, x
1
)x
1
+ . . . +
x, x
n
)x, ent ao
(x) = x, x
1
)(x
1
) +. . . +x, x
n
)(x
n
)
= x, (x
1
)x
1
) +. . . +x, (x
n
)x
n
) = x, (x
1
)x
1
+. . . +(x
n
)x
n
).
Dena y = (x
1
)x
1
+. . . +(x
n
)x
n
. A unicidade de y decorre de x
1
, . . . , x
n
ser uma base.
2
Decorre ent ao o seguinte
Corolario 6.3.6 Se V e um espa co euclidiano real, a aplica c ao y e um isomorsmo entre
V

e V .
2
Veja o exerccio 2.
6.4. PROJEC

OES ORTOGONAIS 75
6.4 Projec oes ortogonais
Denicao 6.4.1 Seja Y V um subespa co do espa co com produto interno V . O complemento
ortogonal de Y , denotado Y

, e o conjunto
Y

= v V v, y) = 0 y Y .
Claramente Y

e um subespa co de V .
Teorema 6.4.2 Para qualquer subespa co Y V de um espa co euclidiano temos
V = Y Y

.
Alem disso, vale
(Y

= Y.
Demonstracao: Seja y Y Y

. Ent ao y, y) = 0 e, portanto, y = 0.
Seja y
1
, . . . , y
m
uma base ortonormal de Y e v V . Dena z = v v, y
1
)y
1
. . . v, y
m
)y
m
.
Ent ao z Y

e v = y +z, com y = v, y
1
) +. . . +v, y
m
)y
m
.
Temos, por (i), V = Y Y

e tambem V = Y

(Y

. Da decorre que (ii).


2
Observacao 6.4.3 A demonstra c ao acima continua v alida para espa cos de dimens ao innita,
desde que Y V tenha dimens ao nita. Uma outra demonstra c ao e a seguinte: considere
uma base ortogonal y
1
, . . . , y
m
de Y e ent ao complete essa base de modo a obter uma base
de V . O processo de Gram-Schmidt mostra que podemos completar com uma base ortogonal:
y
1
, . . . , y
m
, w
1
, . . . , w
k
. Claramente temos que Y

e o espa co gerado por w
1
, . . . , w
k
.
Denicao 6.4.4 Na decomposi c ao
V = Y Y

v = y + z,
a componente y e chamada proje c ao ortogonal de v em Y e denotada y =
Y
v.
Teorema 6.4.5 Sejam V um espa co euclidiano e Y V um subespa co. A aplica c ao
Y
: V
Y e linear e satisfaz
2
Y
=
y
. A aplica c ao
Y
e a projecao ortogonal de V em Y .
Demonstracao: Seja w W qualquer. O teorema 6.4.2 garante que w = y + z, com y Y
e z Y

. Logo, w = y + z. Assim, x + w = (y + y) + (z + z), o que mostra que

Y
(x +w) = y + y =
Y
x +
Y
w.
Se v = y +z e a decomposi c ao de v, ent ao
Y
y = y, mostrando que
2
Y
=
Y
.
2
Teorema 6.4.6 Seja Y um subespa co do espa co euclidiano V e v V . Entre todos os elementos
y Y , aquele com menor dist ancia ate v e o elemento
Y
v.
Demonstracao: A decomposi c ao dada pelo teorema 6.4.2 garante que v y = (
Y
v y) + z,
com z Y

. Pelo teorema de Pit agoras,


|v y|
2
= |
Y
v y|
2
+|z|
2
.
Assim, |v y| e mnima quando y =
Y
v.
2
76 CAP

ITULO 6. ESTRUTURA EUCLIDIANA


6.5 A adjunta de uma aplicacao linear
Sejam V, W espa cos euclidianos.
Proposicao 6.5.1 Dada uma aplica c ao linear T : V W, existe uma unica aplica c ao linear
T

: W V , chamada adjunta de T, satisfazendo


Tv, w) = v, T

w) v V, w W.
Demonstracao: Para w W xo, a aplica c ao v Tv, w) pertence ao dual de V . O teorema
de representa c ao de Riesz garante ent ao que existe um unico y Y tal que
Tv, w) = v, y).
Dena T

w = y. Est a assim denida, para cada w W, uma aplica c ao T

: W V .
Sejam u, w W e K. Ent ao,
v, T

(u +v)) = Tv, u +w) = Tv, u) +



Tv, w) = v, T

u) +v, T

w).
Da decorre a linearidade de T

. Se S

: W V fosse outra aplica c ao linear tal que Tv, w) =


v, S

w), ent ao v, T

w S

w) = 0 para todo v V . Escolhendo v = T

w S

w, conclumos
que T

= S

.
2
Exemplo 6.5.2 Seja T : R
2
R
2
dada por T(x, y) = (ax +by, cx +dy). A representa c ao de T
com rela c ao ` a base can onica do R
2
e a matriz
T
E
=
_
a b
c d
_
.
Ent ao
T(x
1
, y
1
), (x
2
, y
2
)) = (ax
1
+by
1
)x
2
+ (cx
1
+dy
1
)y
2
= (ax
2
+cy
2
)x
1
+ (bx
2
+dy
2
)y
1
= (x
1
, y
1
), (ax
2
+cy
2
, bx
2
+cy
2
)),
de onde conclumos que
[T

]
E
=
_
a c
b d
_
.
Note que se T : C
2
C
2
e dada por T(x, y) = (ax + by, cx + dy) para a, b, c, d C, ent ao a
representa c ao de sua adjunta com rela c ao ` a base can onica seria a conjugada da transposta da
representa c ao de T com rela c ao ` a base can onica (verique!).
Seja B = x
1
, . . . , x
n
uma base ortonormal de V e T : V V uma aplica c ao linear.

E f acil
vericar que, se A = (a
ij
) e a representa c ao de T na base B, ent ao a
ij
= Tx
i
, x
j
). (Veja o
exerccio 17).
Se ( e uma base arbitr aria de V e T : V V uma aplica c ao linear, a rela c ao entre [T]
C
e
[T

]
C
e mais complicado do que no exemplo acima.
6.5. A ADJUNTA DE UMA APLICAC

AO LINEAR 77
Proposicao 6.5.3 Sejam V, W, U espa cos euclidianos e T, S : V W e R : W U aplica c oes
lineares e K. Ent ao vale:
(i) I

= I;
(ii) (T +S)

= T

+S

;
(iii) (T)

=

T

;
(iv) (RT)

= T

;
(v) (T

= T.
(vi) (T
1
)

= (T

)
1
Demonstracao: As provas dos resultados armados s ao muito semelhantes. Faremos apenas
algumas delas.
(ii) v, (S+T)

w) = (S+T)v, w) = Sv, w)+Tv, w) = v, S

w)+v, T

w) = v, (S

+T

)w).
A unicidade da adjunta garante ent ao que (S +T)

= S

+T

.
(v) v, T

v) = T

w, v) = v, T

v) = Tv, w) = w, Tv). De novo, a unicidade da adjunta


garante o armado.
2
Teorema 6.5.4 Sejam V, W espa cos euclidianos e T : V W uma aplica c ao linear. Ent ao
vale:
(i) ker T

= (1mT)

;
(ii) ker T = (1mT

;
(iii) 1mT

= (ker T)

;
(iv) 1mT = (ker T

;
(v) posto de T= posto de T

.
Demonstracao: Tambem nesse caso as demonstra c oes s ao muito semelhantes. Temos:
(i) w ker T

w = 0 v, T

w) = 0 v V Tv, w) = 0 v V w 1mT.
Do mesmo modo se mostra (ii).
(iii) Basta passar (ii) ao complementar ortogonal: ((1mT

= (ker T)

. Similarmente
para (iv).
Finalmente, temos V = dimker T + posto de T = dim(1mT

+ posto de T. Decorre da
que dim1mT

= posto de T, mostrando o armado.


2
Denicao 6.5.5 Uma aplica c ao T : V V e chamada auto-adjunta se T

= T.
Note que, se B e uma base ortonormal de V , [T

]
B
= ([T]
B
)

. Alem disso, se T
B
= A e auto-
adjunta, P
1
AP = B implica que B e auto-adjunta.
Uma matriz A e auto-adjunta se A

= A. No caso real, isso equivale a A


T
= A e a matriz
e simetrica.
78 CAP

ITULO 6. ESTRUTURA EUCLIDIANA


6.6 Norma de uma aplicacao linear
Seja T : V V uma aplica c ao linear denida no espa co euclidiano V .
Denicao 6.6.1 Denimos
|T| = max
x=0
|Tx|
|x|
.
Chamamos |T| de norma da aplica c ao linear T.
Decorre imediatamente da deni c ao que |Tx| |T| |x|. O pr oximo resultado garante que | |
denida acima e uma norma no espa co vetorial L(V ) de todas as aplica c oes lineares de V em V .
Proposicao 6.6.2 Seja T : V V uma aplica c ao linear denida no espa co euclidiano V .
Ent ao
(i) A aplica c ao | | : L(V ) [0, ) e uma norma;
(ii) |ST| |S| |T|.
Demonstracao: Claramente |T| 0 e |T| = 0 se, e somente se, Tx = 0 para todo x ,= 0.
Alem disso
|T| = max
x=0
|Tx|
|x|
= max
x=0
[[ |Tx|
|x|
= [[ max
x=0
|Tx|
|x|
= [[ |T|.
Alem disso,
|S +T| = max
x=0
|(S +T)x|
|x|
max
x=0
|Sx| +|Tx|
|x|
max
x=0
|Sx|
|x|
+ max
x=0
|Tx|
|x|
= |S| +|T|.
(ii) |(ST)x| = |S(Tx)| |S| |Tx| |S| |T| |x|.
2
6.7 Isometrias
Denicao 6.7.1 Seja M : V V uma aplica c ao (n ao necessariamente linear) denida no
espa co euclidiano V . A aplica c ao M e uma isometria se, para quaisquer x, y V , temos
|Mx My| = |x y|. (6.1)
Decorre imediatamente da deni c ao que a composta de duas isometrias e uma isometria. Um
exemplo elementar de uma isometria e uma translacao:
Tx = x +a
para a V xo. Dada uma isometria, podemos comp o-la com uma transla c ao e produzir assim
uma isometria que leva 0 V em 0 V . Reciprocamente, toda isometria e a composta de uma
que leva 0 V no 0 V com uma transla c ao.
6.7. ISOMETRIAS 79
Teorema 6.7.2 Seja M : V V uma isometria no espa co euclidiano V , com M(0) = 0.
Ent ao:
(i) Se V e um espa co sobre R, ent ao M e linear;
Supondo adicionalmente que M seja linear no caso complexo, ent ao vale:
(ii) M

M = I; reciprocamente, se essa igualdade e satisfeita, ent ao M e uma isometria.


(iii) M possui inversa e sua inversa e uma isometria.
(iv) Se V e um espa co vetorial sobre R, ent ao det M = 1. No caso complexo, [ det M[ = 1.
Demonstracao: (i) Tomando y = 0 em (6.1) vem que
|Mx| = |x|.
Vamos denotar Mx = x

, My = y

, etc. Temos ent ao


|x

| = |x|, |y

| = |y| e |x

| = |x y|, (6.2)
de acordo com o que acabamos de mostrar e a equa c ao (6.1). Elevando ao quadrado a ultima
igualdade vem
x

, y

) = x, y), (6.3)
mostrando que T preserva o produto interno. Desenvolvendo |z

|
2
em termos do produto
interno, obtemos
|z

|
2
= |z

|
2
+|y

|
2
+|x

|
2
2z

, x

) 2z

, y

) + 2x

, y

).
Do mesmo modo,
|z x y|
2
= |z|
2
+|y|
2
+|x|
2
2z, x) 2z, y) + 2x, y).
Decorre ent ao de (6.2) e (6.3) que
|z

|
2
= |z x y|
2
.
Escolhemos ent ao z = x + y. O lado direito da igualdade acima e, ent ao, nulo. Isso garante
que o lado esquerdo tambem e, o que implica que z

= 0. Mas isso garante que


M(x +y) = Mx +My. Mas tambem temos que
M(x), My) = x, y) = x, y) = Mx, My) = Mx, My),
o que garante que M(x) = Mx. Isso mostra a linearidade de M no caso real.
Para mostrarmos (ii), partimos de (6.3) (note que essa express ao tambem vale para o caso
complexo): a rela c ao
x, y) = Mx, My) = x, M

My)
e v alida para quaisquer x, y V , de modo que
x, M

My y) = 0.
80 CAP

ITULO 6. ESTRUTURA EUCLIDIANA


Escolhendo x como o termo no lado direito do produto interno, vemos que M

My = y para todo
y. A recproca e obtida invertendo a ordem na prova dada acima.
Decorre imediatamente de M

M = I que M tem inversa. Quando tomamos x = M


1
y na
igualdade |Mx| = |x| vem |M
1
y| = |y|. Como M
1
e linear, essa aplica c ao e uma isometria.
Note que M
1
= M

.
Finalmente, no caso real, como M

= M
T
e det M
T
= det M, a igualdade M

M = I garante
que (det M)
2
= 1 e, portanto, det M = 1. No caso complexo, M

= M
T
. Decorre da que
det M

= det M
T
= det M. Assim, det Mdet M = 1, provando o armado.
2
O signicado geometrico de (iv) e que uma aplica c ao que preserva dist ancias tambem preserva
volumes. Uma aplica c ao linear M que satisfaz M

M = I e chamada ortogonal no caso real e


unitaria no caso complexo.
Como antes, uma matriz A e ortogonal (respectivamente, unitaria) se A
T
A = I (resp.,
A

A = I).
6.8 Exerccios
1. Seja V um espa co euclidiano complexo. De um exemplo mostrando que a validade do
Teorema de Pit agoras n ao implica que x y.
2. Seja v
1
, . . . , v
n
uma base arbitr aria do espa co euclidiano real V . Dena g
ij
= v
i
, v
j
). Se
u =
1
v
1
+. . .
+

n
v
n
e v =
1
v
1
+. . . +
n
v
n
, mostre que
u, v) =
n

i,j=1
g
ij

j
. (6.4)
Mostre tambem que a matriz G = (g
ij
) e simetrica e positiva, isto e, se x = (x
1
, . . . , x
n
)
R
n
n

i,j=1
g
ij
x
i
x
j
= x
T
Gx > 0
para todo x ,= 0.
Reciprocamente, xada a base v
1
, . . . , v
n
do espa co real V e dada uma matriz simetrica
positiva G, mostre que (6.4) dene um produto interno em V .
3. Seja V um espa co euclidiano complexo e v
1
, . . . , v
n
m uma base desse espa co. Dena
g
ij
= v
i
, v
j
) e mostre a equa c ao 6.4. Verique ent ao que a matriz G e hermitiana (isto e,

G
T
= G), e
x
T
G x > 0 0 ,= x C
n
. (6.5)
Reciprocamente, se G e uma matriz hermitiana e a equa c ao (6.5) se verica, ent ao u, v) =
u
T
G v dene um produto interno.
6.8. EXERC

ICIOS 81
4. Seja C([a, b], K) o espa co das fun c oes contnuas f : [a, b] K. Mostre que
f, g) :=
_
b
a
f(t)g(t)dt
dene um produto interno nesse espa co.
5. Considere agora o espa co C([, ], R). Mostre que o conjunto
X := 1, sen t, cos t, sen 2t, cos 2t, . . .
e um conjunto ortogonal.
6. Considere ent ao o espa co vetorial C([1, 1], R). Seja P C([1, 1], R) o subespa co for-
mado por todas as fun c oes pares e 1 C([1, 1], R) o subespa co formado por todas as
fun c oes mpares. Mostre que 1 = P

.
7. Seja R[t] o espa co vetorial de todos os polin omios com coecientes em R. Verique que
X = 1, t, t
2
, . . .
e uma base desse espa co. Encontre os 4 primeiros termos da base obtida ao se aplicar o
processo de ortogonaliza c ao de Gram-Schmidt ` a base X.
8. Seja V um espa co com produto interno. Mostre as identidades de polarizacao:
(i) Se V e um espa co real, ent ao
u, v) =
1
4
|u +v|
2

1
4
|u v|
2
.
(ii) Se V e um espa co complexo, ent ao
u, v) =
1
4
|u +v|
2

1
4
|u v|
2
+
i
4
|u +iv|
2

i
4
|u iv|
2
.
9. Prove o corol ario 6.3.6. O que acontece se V for um espa co complexo?
10. Seja A = (a
ij
) uma matriz m n real. Considere o sistema Ax = b, em que b R
m
. O
sistema
A
T
y = 0
e chamado sistema homogeneo transposto. Mostre que o sistema Ax = b possui solu c ao
se, e somente se, b for ortogonal a qualquer solu c ao do sistema homogeneo transposto. (Isso
implica que podemos garantir a existencia de solu c oes para o sistema Ax = b sem necessitar
exibir uma de suas solu c oes; basta vericar se b e ortogonal ` as solu c oes de A
T
y = 0).
11. Seja T : V V uma aplica c ao linear. Mostre que se T

T = 0 ent ao T = 0.
12. Seja V um espa co euclidiano complexo. Mostre que T : V V e auto-adjunto se, e
somente se, Tv, v) R para todo v V .
82 CAP

ITULO 6. ESTRUTURA EUCLIDIANA


13. Seja V um espa co com produto interno e , V vetores xos. Mostre que Tv = v, )
dene uma aplica c ao linear em V . Mostre que T

existe e obtenha sua express ao.


14. Sejam W
1
, W
2
V subespa cos do espa co com produto interno V . Mostre que (W
1
+W
2
)

=
W

1
W

2
e (W
1
W
2
)

= W

1
+W

2
15. Seja w
1
, . . . , w
m
uma base ortonormal do subespa co W do espa co com produto interno V .
Mostre que, para todo v V , vale a desigualdade de Bessel
|v|
2

j=1
[v, w
j
)[
2
.
16. Sejam B = v
1
, . . . , v
n
e ( = w
1
, . . . , w
m
bases ortonormais dos espa cos euclidianos V
e W, respectivamente. Seja T : V W uma aplica c ao linear. Mostre que
T
C
B
= A = (a
ij
), em que a
ij
= T(v
j
), w
i
), para i = 1, . . . , m e j = 1, . . . , n.
Conclua que (T

)
B
C
= B = (b
ij
), em que b
ij
= a
ji
, generalizando assim o exemplo 7.6.
17. Sejam V, W espa cos euclidianos. Dadas as aplica c oes S, T L(V, W), dena
S, T) = tr (S

T).
Mostre que est a denido assim um produto interno em L(V, W). Se A = (a
ij
e B = (b
ij
s ao, respectivamente, as matrizes de S e T com rela c ao a bases ortonormais de V e W,
mostre que
A, B) =

i,j
a
ij
b
ij
.
18. Um isomorsmo dos espa cos com produto interno V e W e uma bije c ao linear T : V W
que satisfaz, adicionalmente, Tu, Tv) = u, v), para todos u, v V (isto e, T preserva o
produto interno). Se dimV = dimW, mostre que as seguintes arma c oes s ao equivalentes:
(i) T preserva o produto interno;
(ii) T e um isomorsmo (de espa cos com produto interno);
(iii) T leva toda base ortonormal de V em base ortonormal de W;
(iv) T leva alguma base ortonormal de V em uma base ortonormal de W.
19. Sejam V e W espa cos com produto interno. Mostre que T : V W preserva produto
interno se, e somente se, |Tv| = |v| para todo v V (T preserva norma).
20. Mostre que M e uma matriz unit aria (respectivamente, ortogonal) se, e somente se, suas
colunas formam uma base ortonormal de K
n
.
21. Seja T : V V um operador auto-adjunto no espa co com produto interno V . Mostre que
(i) |v +iTv| = |v iTv| para todo v V ;
6.8. EXERC

ICIOS 83
(ii) v +iTv = u +iTu se, e somente se, v = u;
(iii) ker(I +iT) = 0;
(iv) ker(I iT) = 0.
Mostre que se dimV = n, ent ao
U := (I iT)(i +iT)
1
e um operador unit ario, chamado transformada de Cayley de T.
Captulo 7
Teoria Espectral Euclidiana
7.1 Formas bilineares e quadraticas
Denicao 7.1.1 Seja V um espa co vetorial. Uma forma bilinear
1
e uma fun c ao B : V V
K tal que, para quaisquer K e u
1
, u
2
, v
1
, v
2
V ,
(i) B(u
1
+u
2
, v) = B(u
1
, v) +B(u
2
, v);
(ii) B(u, v
1
+v
2
) = B(u, v
1
) +B(u, v
2
).
Uma forma bilinear e simetrica se B(u, v) = B(v, u).
Exemplo 7.1.2 Se V e um espa co euclidiano real, ent ao , ) e uma forma bilinear simetrica.
Seja A M
nn
(K) uma matriz. Denindo B : K
n
K
n
K por
B(u, v) = u
T
Av = (u
1
u
2
. . . u
n
)
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
,
obtemos uma forma bilinear.
Denotaremos L
2
(V ) o conjunto das formas bilineares denidas em V . L
2
(V ) e um espa co vetorial
com as deni c oes usuais de soma de fun c oes e multiplica c ao por escalar.
Vamos mostrar que todas as formas bilineares denidas em espa cos euclidianos s ao como no
exemplo 7.1.2.
Proposicao 7.1.3 Seja B = x
1
, . . . , x
n
uma base do espa co vetorial V sobre o corpo K.
Existe um isomorsmo entre L
2
(V ) e M
nn
(K) tal que B(u, v) = [u]
T
B
A[v]
B
, em que [u]
B
e a
representa c ao de u na base B. A matriz A e chamada matriz de B na base B.
1
O termo bilinear e um caso particular da denomina c ao utilizada na deni c ao 4.2.1.
84
7.1. FORMAS BILINEARES E QUADR

ATICAS 85
Demonstracao: Seja B = x
1
, . . . , x
n
uma base de V , u = u
1
x
1
+ . . . + u
n
x
n
e v = v
1
x
1
+
. . . +v
n
x
n
. Ent ao
B(u, v) = B(u
1
x
1
+. . . +u
n
x
n
, v
1
x
1
+. . . +v
n
x
n
)
= u
1
v
1
B(x
1
, x
1
) +u
1
v
2
B(x
1
, x
2
) +. . . +u
1
v
n
B(x
1
, x
n
) +. . .
+u
n
v
1
B(x
n
, x
1
) +. . . +u
n
v
n
B(x
n
, x
n
)
=
n

i,j=1
u
i
v
j
B(x
i
, x
j
). (7.1)
Isso mostra que B ca completamente determinada pelos n
2
valores B(x
i
, x
j
). Denimos ent ao
a matriz A = (a
ij
) por a
ij
= B(x
i
, x
j
). Ent ao
B(u, v) = (u
1
. . . u
n
)
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
_
_
_
_
_
v
1
v
2
.
.
.
v
n
_
_
_
_
_
= [u]
T
B
A[v]
B
. (7.2)
Assim, estabelecemos uma bije c ao entre L
2
(V ) e M
nn
(K), associando a matriz A ` a forma
B. Temos que (B
1
+B
2
) e uma matriz C = (c
ij
) tal que c
ij
= (B
1
+B
2
)(x
i
, x
j
). Mas ent ao
c
ij
= B
1
(x
1
, x
j
) +B
2
(x
i
, x
j
) = A
1
+A
2
, em que A
1
= (B
1
) e A
2
= (B
2
), o que mostra que
e linear.
2
Observacao 7.1.4 Sejam B uma base do espa co euclidiano real V , e , ) o produto interno
can onico do R
n
. Denotando o vetor [w]
B
R
n
simplesmente por w, temos
u
T
Av = u, Av),
como se verica facilmente (veja tambem o exerccio 2 do captulo 6).
Observacao 7.1.5 Pode-se mostrar que a derivada segunda de uma aplica c ao f : R
n
R e
dada por uma forma bilinear f

(x) (que varia com o ponto x R


n
). A proposi c ao 7.1.3 garante
que, para vetores h, k R
n
,
f

(x)(h, k) = h
T
H
x
k,
em que H
x
e a matriz (que varia com o ponto x) hessiana de f. A forma quadr atica q aparece
no desenvolvimento de Taylor de f:
f(x +h) = f(x) +
1
1!
f

(x).h +
1
2!
q
x
(h) +r(h),
em que
f

(x).h = f(x), h)
e o produto interno do gradiente de f em x por h,
q
x
(h) = f

(x).(h, h) = h
T
H
x
h
e r(h) denota o resto de Taylor.
86 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


Denicao 7.1.6 Seja B L
2
(V ) uma forma bilinear sobre o espa co real V . A aplica c ao q :
V R dada por q(v) = B(v, v) chama-se forma quadratica.
Assim, se v = v
1
x
1
+ . . . + v
n
x
n
e a express ao de v na base x
1
, . . . , x
n
, de acordo com (7.1),
toda forma quadr atica q(v) se escreve como
q(v) =
n

i=1
a
ij
v
i
v
j
= v, Av). (7.3)
Quando trabalhamos com formas quadr aticas, podemos supor que a matriz A seja simetrica:
e claro que (A +A

= A +A

; o operador
A +A

2
e chamada parte auto-adjunta do matriz A. Temos que
q(y) = y, Ay) =
_
y,
A +A

2
y
_
.
7.2 Diagonalizacao de formas quadraticas
Dada uma forma quadr atica (7.3) podemos, com uma mudan ca de coordenadas, obter que ela
seja representada por uma matriz diagonal.
Para mostrar isso, introduziremos novas coordenadas:
Lv = z
em que L e uma matriz mudan ca de coordenadas.
Teorema 7.2.1 (Sylvester) Dada uma forma quadratica (7.3), e possvel fazer uma mudan ca
de coordenadas Lv = z de modo que, na nova variavel z, a forma quadratica q e diagonal, isto
e,
q(L
1
z) =
n

i=1
d
i
z
2
i
. (7.4)
Existem muitas mudan cas de variaveis que diagonalizam q. Entretanto, o n umero de termos
positivos, negativos e nulos entre os coecientes d
i
e sempre o mesmo (Lei da Inercia).
Demonstracao: Seja q(v) = v, Av), a matriz A = (a
ij
) sendo simetrica. Se todos os termos
a
ij
s ao nulos, q j a e diagonal. Suponhamos que todos os termos diagonais de q sejam nulos, mas
que exista um termo a
ij
diferente de zero, digamos a
12
= a
21
,= 0. Os termos de q envolvendo v
1
e v
2
s ao
a
12
v
1
v
2
+a
21
v
2
v
1
+
_

n
j=3
a
1j
v
1
v
j
_
+
_

n
j=3
a
j1
v
j
v
1
_
+
_

n
j=3
a
2j
v
2
v
j
_
+
_

n
j=3
a
j2
v
j
v
2
_
= 2a
12
v
1
v
2
+
_

n
j=3
a
1j
2v
1
v
j
_
+
_

n
j=3
a
j2
2v
2
v
j
_
7.2. DIAGONALIZAC

AO DE FORMAS QUADR

ATICAS 87
Denimos ent ao w
1
= v
1
+v
2
e w
2
= v
1
v
2
e w
k
= v
k
para k = 3, . . . , n. (Assim, 2v
1
= w
1
+w
2
e 2v
2
= w
1
w
2
). Obtemos
a
12
2
(w
2
1
w
2
2
) +. . . ,
mostrando assim que podemos supor, sem perda de generalidade, que q possua um termo diagonal
diferente de zero.
Suponhamos ent ao que a
11
,= 0. Agrupamos ent ao os termos contendo v
1
:
a
11
v
2
1
+ 2
n

j=2
a
1j
v
1
v
j
.
Logo, podemos escrever esses termos como
a
11
_
v
1
+
1
a
11
n

j=2
a
1j
v
j
_
2

1
a
11
_
n

j=2
a
1j
v
j
_
2
Denimos ent ao a mudan ca de vari avel linear
z
1
= v
1
+
1
a
11
n

j=2
a
1j
v
j
.
Podemos ent ao escrever
q(v) = a
11
z
2
1
+q
2
(v),
em que q
2
e uma forma quadr atica que depende apenas de v
2
, . . . , v
n
. Tendo diagonalizado o
termo em z
1
, repetimos ent ao o processo com a forma quadr atica q
2
.
Vamos agora mostrar a Lei da Inercia. Para isso, denotamos p
+
, p

e p
0
o n umero de termos
positivos, negativos e nulos em (7.4).
Dizemos que q e positiva num subespa co Y V se q(v) > 0 para todo 0 ,= v Y .
Armacao: A dimens ao do maior subespa co de V no qual q e positiva e p
+
:
p
+
= max dimY, q positiva em Y.
Similarmente,
p

= max dimY, q negativa em Y.


Para mostrarmos a arma c ao, reordenamos os termos d
i
de (7.4) de modo que os p primeiros
sejam todos positivos, com p = p
+
.
q(z) = d
1
z
2
1
+. . . +d
p
z
2
p
+d
p+1
z
2
p+1
+. . . +d
n
z
2
n
. (7.5)
Para z = (z
1
, . . . , z
n
) V , seja S
+
o subespa co dos vetores da forma (z
1
, . . . , z
p
, 0, . . . , 0).
Claramente q e positiva em S
+
. Isso mostra que p
+
max dimY , com q positiva em Y .
Suponhamos que exista algum subespa co Y com q positiva em Y e dimY > p. Claramente
S
+
Y . Considere a aplica c ao : Y S
+
, (z) = (z
1
, . . . , z
n
) = (z
1
, . . . , z
p
, 0, . . . , 0). Como
dimY > dimS

, existe z ,= 0 tal que (z) = 0. Mas isso implica que as primeiras p componentes
de z s ao nulas. Mas ent ao, de acordo com (7.5), q(z) 0, contradi c ao. Analogamente se mostra
a outra igualdade.
88 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


A arma c ao garante ent ao que os n umeros p
+
, p

e p
0
podem ser denidos em termos de q,
independente das coordenadas que colocam q na forma diagonal. Uma vez que p
+
+p

+p
0
= n,
isso completa a demonstra c ao.
2
Teorema 7.2.2 Dada uma matriz real simetrica, existe uma matriz invertvel real M tal que
M

AM = M
T
AM = D, (7.6)
sendo D uma matriz diagonal.
Demonstracao: Considerada a mudan ca de vari aveis Lv = z que diagonaliza a forma quadr ati-
ca q(v) = v, Av), seja M = L
1
. Ent ao v = Mz e
q(v) = v, Av) = Mz, AMz) = z, M

AMz).
Claramente q tem a forma (7.4) se, e somente se, M

AM e uma matriz diagonal. Mostramos


assim que os teoremas 7.2.1 e 7.2.2 s ao equivalentes.
2
7.3 Aplicac oes auto-adjuntas
Em muitas aplica c oes e importante utilizar mudan cas de coordenadas tais que os comprimentos
euclidianos da velha vari avel e da nova sejam o mesmo, isto e
|v|
2
= |z|
2
.
Em termos da express ao matricial v = Mz, isso signica que M e uma isometria. Assim, de
acordo com o teorema 6.7.2, M deve satisfazer M

M = I.
Um dos resultados mais importantes da Matem atica garante que, dada uma forma quadr atica
q, e possvel diagonaliz a-la por meio de uma mudan ca isometrica de coordenadas. Em outras
palavras, que tanto (7.6) como M

M = I sejam satisfeitas.
Teorema 7.3.1 Seja V um espa co euclidiano complexo e H : V V uma aplica c ao auto-
adjunta. Ent ao os autovetores de H est ao associados a autovalores reais e formam uma base
ortonormal de V .
Demonstracao: De acordo com o Teorema da Decomposi c ao Prim aria (especializado para o
caso K = C), os autovetores generalizados de H geram o espa co V . Para mostrarmos o armado,
precisamos mostrar que uma aplica c ao auto-adjunta satisfaz ` as seguintes propriedades adicionais:
(a) H possui apenas autovalores reais;
(b) H possui uma base formada por (autenticos) autovetores;
(c) Autovetores correspondentes a autovalores distintos s ao ortogonais.
7.3. APLICAC

OES AUTO-ADJUNTAS 89
De fato, uma vez mostrado (b) (c), podemos aplicar o processo de ortogonaliza c ao de Gram-
Schmidt e obter bases ortonormais para os subespa cos invariantes associados a cada autovalor.
A arma c ao (c) ent ao implica que teremos uma base ortonormal formada por autovalores de T.
(Assim, como conseq uencia do teorema 5.1.4, H ser a representada nessa base por uma matriz
diagonal).
(a) Seja v um autovetor associado ao autovalor de H. Ent ao
v, v) = v, v) = Hv, v) = v, Hv) = v, v) = v, v),
de modo que ( )v, v) = 0. Isso mostra que R, pois = .
(b) Suponhamos que v seja um autovetor generalizado de H associado ao autovalor . Ent ao
(H I)
d
v = 0 para algum d N. Queremos mostrar que (H I)v = 0. Suponhamos
inicialmente que d = 2. Ent ao, tomando o produto interno com v, obtemos
0 = (H I)
2
v, v) = (H I)v, (H I)v) = |(H I)v|
2
.
Mas isso implica que (H I)v = 0, como desejado.
Suponhamos agora que d > 2. Reescrevemos (HI)
d
v = 0 como (HI)
2
(HI)
d2
v = 0.
Denindo w = (H I)
d2
v, podemos concluir que (H I)w = 0, ou seja, (H I)
d1
v = 0.
O resultado pode ent ao ser mostrado por indu c ao.
(c) Sejam v, w autovetores associados aos autovalores distintos , R. Ent ao
v, w) = Hv, w) = v, Hw) = v, w) = v, w),
de modo que
( )v, w) = 0.
Como ,= , isso implica v w.
2
O pr oximo resultado n ao passa de uma reformula c ao do teorema 7.3.1 em termos de matrizes.
Teorema 7.3.2 Seja H uma matriz complexa auto-adjunta. Ent ao existem uma matriz unitaria
U e uma matriz diagonal D tais que
U

HU = D.
Demonstracao: Decorre imediatamente dos exerccios 3 do captulo 5 e 20 do captulo 6
2
A vers ao para matrizes reais e a seguinte:
Teorema 7.3.3 Seja H uma matriz real auto-adjunta (isto e, simetrica). Ent ao existem uma
matriz ortogonal P e uma matriz diagonal D tais que
P
T
HP = D.
90 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


Demonstracao: Considerando a matriz H agindo sobre C
n
, a express ao
Hv = v
e o fato dos autovalores de H serem reais implicam que a parte real (e tambem a imagin aria) de
V tambem s ao autovetores de H. Assim, existe uma base ortonormal formada por autovetores
reais de H. A demonstra c ao ent ao e como no teorema 7.3.2.
2
Observacao 7.3.4

E possvel dar uma demonstra c ao alternativa do teorema 7.3.3, sem fazer
uso dos exerccios utilizados naquela prova. Como j a vimos, obtemos uma base ortonormal
formada por autovetores (reais) de H. Seja B = v
1
, . . . , v
n
essa base ortonormal. Se v R
n
,
consideremos sua representa c ao z = (z
1
z
2
. . . z
n
) na base B (quer dizer, z = [v]
B
):
v = z
1
v
1
+z
2
v
2
+. . . +z
n
v
n
. (7.7)
Ent ao
|v|
2
= v, v) =
n

i=1
z
2
i
= |z|
2
. (7.8)
Aplicando H em (7.7), obtemos
Hv =
1
z
1
v
1
+. . . +
n
z
n
v
n
, (7.9)
em que
i
e o autovalor associado ao autovetor v
i
.
Substituindo (7.7) e (7.9) em q(v) = v, Hv), vemos que
q(v) =
1
z
2
1
+. . . +
n
z
2
n
.
Essa express ao mostra que a nova vari avel z diagonaliza a forma quadr atica q. Combinando com
o teorema 7.2.2, vemos que
P

HP = D.
A equa c ao (7.8) mostra que P e uma isometria e, portanto, P

= P
T
= P
1
.
Vamos agora reescrever o teorema 7.3.1 em termos de proje c oes.
Teorema 7.3.5 (Resolucao Espectral dos operadores auto-adjuntos)
Sejam V um espa co euclidiano e H : V V uma aplica c ao linear auto-adjunta, com auto-
valores distintos
1
, . . . ,
k
. Seja E

j
o autoespa co associado ao autovalor
j
, para 1 j k.
Se
j
: V E

j
denota a proje c ao ortogonal sobre E

j
, ent ao
I =
k

j=1

j
.
e
H =
k

j=1

j
.
As proje c oes ortogonais
j
satisfazem

j
= 0, se i ,= j,
2
j
=
j
e

j
=
j
.
7.3. APLICAC

OES AUTO-ADJUNTAS 91
Demonstracao: De acordo com o teorema 7.3.1 (ou teorema 7.3.3), vale
V = E

1
E

k
,
em que os espa cos E

j
s ao ortogonais dois a dois. Em outras palavras,
v = v
1
+. . . +v
k
, v
j
E

j
. (7.10)
Denimos ent ao
j
(v) = v
j
. Claramente
j
e uma aplica c ao linear, satisfazendo
2
j
=
j
e

j
= 0 se i ,= j. A express ao (7.10) pode ser escrita como
I =
k

j=1

j
.
Aplicando o operador H em (7.10), como os elementos de E

j
s ao autovetores associados ao
autovalor
j
, obtemos
Hv = Hv
1
+. . . +Hv
k
=
1
v
1
+. . . +
k
v
k
=
k

j=1

j
(v).
Falta apenas mostrar que as proje c oes
j
s ao auto-adjuntas. Se w = w
1
+. . . +w
k
com w
j
E

j
,
ent ao

j
v, w) =
_
v
j
,
k

i=1
w
i
_
=
k

i=1
v
j
, w
i
) = v
j
, w
j
),
devido ` a ortogonalidade entre os espa cos E

j
. Analogamente,
v,
j
w) = v
j
, w
j
).
Isto mostra que

j
v, w) = v,
j
w).
2
O teorema 7.3.5 e especialmente util para se denir fun c oes de aplica c oes lineares auto-
adjuntas. Por exemplo, decorre imediatamente daquele teorema que
H
2
=
k

j=1

2
j

j
e, por indu c ao,
H
m
=
k

j=1

m
j

j
.
Assim, para qualquer polin omio q K[t], temos
p(H) =
k

j=1
q(
j
)
j
.
92 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


Denimos, para uma fun c ao f denida em R,
f(H) =
k

j=1
f(
j
)
j
.
Essa deni c ao e conhecida como o calculo funcional da aplica c ao auto-adjunta H. Por exemplo,
e
Ht
=
k

j=1
e

j
.
Uma outra conseq uencia importante do teorema 7.3.5 diz respeito a aplica c oes auto-adjuntas
que comutam:
Teorema 7.3.6 Sejam H, K : V V aplica c oes auto-adjuntas tais que
HK = KH.
Ent ao H e K podem ser simultaneamente diagonalizadas, isto e, existe uma base ortogonal de
V formada por vetores que s ao, ao mesmo tempo, autovetores de K e H.
Demonstracao: (Essa demonstra c ao deve ser comparada com aquela da proposi c ao 26 do
captulo de teoria espectral). Notamos inicialmente que H
j
I comuta com K. Uma vez que
K(H
j
I)x = (H
j
I)Kx,
vemos que se x ker(H
j
I), ent ao Kx ker(H
j
I).
Consideremos ent ao a aplica c ao auto-adjunta K : ker(H
j
I) ker(H
j
I) e aplicamos
o teorema 7.3.1 (ou teorema 7.3.3). Obtemos ent ao uma base de ker(H
j
I) formada por
autovetores de K. Como todo elemento de ker(H
j
I) e um autovetor de H, obtivemos assim
uma base ortogonal desse espa co formada por autovetores tanto de K quanto de H. Aplicamos
ent ao esse processo a cada autoespa co ker(H
j
I).
2
Note que o resultado anterior pode ser generalizado para qualquer n umero de aplica c oes
auto-adjuntas que comutam duas a duas.
7.4 Aplicac oes normais
Denicao 7.4.1 Seja V um espa co euclidiano. Uma aplica c ao linear T : V V e anti-auto-
adjunta se
T

= T.
No caso real, diz-se tambem que T e anti-simetrica.
De acordo com a proposi c ao 6.5.3, temos
(iT)

= iT

= iA,
mostrando que iT e uma aplica c ao auto-adjunta. Decorre imediatamente do teorema 7.3.1:
7.4. APLICAC

OES NORMAIS 93
Teorema 7.4.2 Seja T : V V uma aplica c ao anti-auto-adjunta no espa co euclidiano com-
plexo V . Ent ao
(i) Os autovalores de T s ao imaginarios puros;
(ii) Existe uma base ortonormal de V consistindo de autovetores de T.
Demonstracao: Considere uma base ortogonal v
1
, . . . , v
j
para iA. Ent ao (iT)v
j
=
j
v
j
, com

j
R. Logo
Tv
j
= (i)v
j
,
mostrando que T tem os mesmos autovetores de iT, associados aos autovalores imagin arios puros
(i
j
).
2
Introduzimos agora uma classe de aplica c oes lineares que engloba as aplica c oes auto-adjuntas,
anti-auto-adjuntas e unit arias (ou ortogonais) como casos particulares.
Denicao 7.4.3 Seja V um espa co euclidiano. A aplica c ao linear N : V V e normal se ela
comuta com sua adjunta:
NN

= N

N.
Teorema 7.4.4 Uma aplica c ao linear normal N : V V no espa co euclidiano complexo V
possui uma base ortonormal consistindo de autovetores.
Demonstracao: Uma vez que N e N

comutam, o mesmo acontece com


H :=
N +N

2
e A :=
N N

2
.
As aplica c oes H e N s ao auto-adjunta e anti-auto-adjunta, respectivamente. Aplicamos ent ao o
teorema 7.3.5 ` as aplica c oes H e iA: existe uma base ortogonal formada por autovetores tanto
de H quanto de iA e, assim, por autovetores tanto de H quanto de A. Como
N = H +A,
vemos que essa base e formada por autovetores de N. Note que, segundo os teoremas 7.3.1 e
7.4.2, se Hv = av (com a R) e Av = (bi)v (com b R), ent ao Nv = Hv +Av = (a +bi)v.
2
O exerccio 13 pede que se mostre a recproca do resultado acima. Assim, existe uma base
ortonormal B na qual T
B
e diagonal se, e somente se, T e normal.
Teorema 7.4.5 Uma aplica c ao linear normal N : V V no espa co euclidiano real V possui
uma base ortonormal B na qual N e uma matriz diagonal em blocos, com blocos diagonais
A
1
, . . . , A
m
, em que
A
j
=
j
R ou A
j
=
_
a
j
b
j
b
j
a
j
_
,
o ultimo caso ocorrendo quando
j
= a
j
+ib
j
e um autovalor da complexica c ao N
C
: V
C
V
C
.
94 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


Demonstracao: Armamos inicialmente que a complexica c ao N
C
de N e uma aplica c ao nor-
mal. De fato, para u +iv V
C
, temos que N

C
(u +iv) = N

u +iN

v. Assim,
N
C
N

C
(u +iv) = N
C
(N

u +iN

v) = NN

u +iNN

v = N

Nu +iN

Nv = N

C
N
C
(u +iv).
Se R e um autovalor de N, ent ao e um autovalor de N
C
. Considere o polin omio mnimo
m
N
(t) de N:
m
N
(t) = (t
1
) . . . (t
k
)(t
2
2a
k+1
t +a
2
k+1
+b
2
k+1
) . . . (t
2
2a
m
t +a
2
m
+b
2
m
),
em que os fatores (t
2
2a
j
t +a
2
j
+b
2
j
) surgem das razes complexas conjugadas
j
= a
j
ib
j
.
Os termos lineares do polin omio mnimo s ao diagonaliz aveis, como sabemos (veja o teorema
5.5.9).
Consideremos um fator (t
2
2at + a
2
+ b
2
) de segundo grau do polin omio mnimo. Seja
W = ker(N
2
2aN + a
2
+ b
2
). Denotando S = N[
W
, temos S : W W (pelo Teorema da
Decomposi c ao Prim aria). Consideremos ent ao a complexica c ao W
C
de W. De acordo com o
Teorema da Decomposi c ao Prim aria temos
W
C
= ker(S
C
I) ker(S
C

I)
= W

.
Seja ( = u
1
+iv
1
, . . . , u

+iv

uma base ortonormal de W

.
Como
T(u
k
) +iTv
k
= T
C
(u
k
+iv
k
) = (u
k
+iv
k
) = (a +bi)(u
k
+iv
k
) = (au
k
bv
k
) +i(bu
k
+av
k
),
vemos que
Tu
k
= au
k
bv
k
e Tv
k
= bu
k
+av
k
.
Armamos que u
1
, v
1
, . . . , u

, v

e uma base ortogonal de W. A ortogonalidade de ( e dos


vetores de ( e de ( garante que u
k
+iv
k
u
j
+iv
j
para j ,= k, e u
k
+iv
k
u
j
iv
j
para todos
k, j, com k, j 1, . . . .
De fato, temos que
0 = u
j
+iv
j
, u
j
iv
j
) = |u
j
|
2
+iu
j
, v
j
) +iv
j
, u
j
) |v
j
|
2
.
A igualdade acima mostra que |u
j
| = |v
j
| e que
u
j
v
j
.
Da mesma forma,
0 = u
j
+iv
j
, u
k
+iv
k
) = u
j
, u
k
) iu
j
, v
k
) +iv
j
, u
k
) +v
j
, v
k
),
mostrando que
u
j
, u
k
) +v
j
, v
k
) = 0 e u
j
, v
k
) = v
j
, u
k
). (7.11)
Por outro lado,
0 = u
j
+iv
j
, u
k
iv
k
) = u
j
, u
k
) +iu
j
, v
k
) +iv
j
, u
k
) v
j
, v
k
),
7.4. APLICAC

OES NORMAIS 95
provando que
u
j
, u
k
) = v
j
, v
k
) e u
j
, v
k
) +v
j
, u
k
) = 0. (7.12)
Decorre de (7.11) e (7.12) que
u
j
u
k
e v
j
v
k
.
Como dimW = 2 e os vetores u
k
, v
k
W
C
e tambem a W, provamos o armado.
2
Aplicamos ent ao os teoremas 7.4.4 e 7.4.5 e obtemos:
Teorema 7.4.6 Seja U : V V uma aplica c ao unitaria denida no espa co euclidiano complexo
V . Ent ao:
(i) Existe uma base ortonormal formada por autovetores de U;
(ii) Os autovalores de U tem valor absoluto igual a 1.
Demonstracao: Como U

U = I, U tem inversa U
1
= U

. Isso implica que U e normal,


possuindo assim uma base ortonormal formada por seus autovetores. Se e um autovetor de U
associado ao autovalor v, ent ao |Uv| = |v| = [[ |v|. Como U e isometrica, [[ = 1.
2
Teorema 7.4.7 Seja T : V V um operador ortogonal (isto e, uma isometria) denida no
espa co euclidiano real V . Ent ao existe uma base ortonormal B na qual T e uma matriz diagonal
em blocos, com blocos diagonais 1, 1 e blocos 2 2 da forma
_
cos sen
sen cos
_
.
Demonstracao: A demonstra c ao do teorema 7.4.5 mostra a existencia de uma base ortonormal
com blocos de tamanho 1 1 ou 2 2.
A demonstra c ao do teorema 7.4.6 mostra que os autovalores de T tem valor absoluto igual
a 1. Como T e uma isometria, a imagem de uma base ortonormal e uma base ortonormal. Isso
mostra que cada coluna das matrizes diagonais 2 2 devem ter norma 1. Mas, de acordo como
o teorema 7.4.5, essa matriz tem a forma
_
a b
b a
_
.
Como a
2
+b
2
= 1, podemos escrever essa matriz na forma
_
cos sen
sen cos
_
.
2
Considerando as deni c oes dadas anteriormente, a matriz A e anti-auto-adjunta se A

=
A (no caso real, anti-simetrica) e normal se A

A = AA

.
96 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


7.5 O teorema dos valores singulares
Denicao 7.5.1 Uma aplica c ao linear auto-adjunta T : V V e nao-negativa se Tv, v) 0
para todo v V . Nesse caso, escrevemos T 0. Quando Tv, v) > 0 para todo v ,= 0,
escrevemos T > 0 e dizemos que T e positiva.
Note que todos os autovalores de uma aplica c ao positiva (respectivamente, n ao-negativa) s ao
maiores que zero (resp., maiores ou iguais a zero). De fato, se T > 0 e Tv = v, ent ao
v, v) = Tv, v) > 0.
Exemplo 7.5.2 Seja T : V W uma aplica c ao linear entre os espa cos euclidianos V e W.
Como sua adjunta e uma aplica c ao de W para V , existe a composta T

T : V V , que e
auto-adjunta e n ao-negativa. De fato,
(T

T)

= T

(T

= T

T e T

Tv, v) = Tv, Tv) 0.

O pr oximo resultado e, em certo sentido, o an alogo ` a diagonaliza c ao de operadores lineares


para o caso de aplica c oes T : V W entre espa cos euclidianos distintos. Algumas implica c oes
matriciais desse resultado ser ao estudadas no captulo 8.
Teorema 7.5.3 (Decomposicao em valores singulares)
Sejam V, W espa cos euclidianos e T : V W uma aplica c ao linear de posto r. Ent ao
existem bases ortonormais B = v
1
, . . . , v
n
de V e ( = w
1
, . . . , w
m
de W tais que
Tv
i
=
i
w
i
para i = 1, . . . , r, com
i
> 0
Tv
i
= 0 para i = r + 1, . . . , n
T

w
i
=
i
v
i
para i = 1, . . . , r
T

w
i
= 0 para i = r + 1, . . . , m.
Denotando D
1
a matriz n n
D
1
=
_
_
_
_
_
_
_
_
_
_
_

2
.
.
.

r
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
,
a representa c ao [T]
C
B
e, portanto, a matriz mn
[T]
C
B
=
_
D
1
0
0 0
_
.
7.6. EXERC

ICIOS 97
Demonstracao: O exemplo 7.5.2 mostra que T

T : V V e uma aplica c ao n ao-negativa.


Temos ker T = ker(T

T). De fato,
Tv = 0 Tv, Tu) = 0 u V T

Tv, u) u V T

Tv = 0.
Isso mostra que posto(T

T) = n dimker T

T = n dimker T = r.
Uma vez que T

T e um operador normal, o teorema 7.4.4 garante que existe uma base


ortonormal B = v
1
, . . . , v
n
de V tal que
T

T(v
i
) =
2
i
v
i
, i = 1, . . . , r e T

T(v
i
) = 0, i = r + 1, . . . , n.
(Note que os autovalores do operador T

T s ao n ao-negativos, como vimos).


Dena, para i = 1, . . . , r,
w
i
=
1

i
T(v
i
).
Ent ao Tv
i
=
i
w
i
. (Note que, se i r + 1, . . . , n, como 0 = T

Tv
i
, v
i
) = Tv
i
, Tv
i
), temos
Tv
i
= 0. Assim, os vetores v
r+1
, . . . , v
n
formam uma base ortonormal de ker T = ker T

T, se
esse subespa co e n ao-vazio).
Mostraremos que w
1
, . . . , w
r
e base ortonormal de 1m T. Claramente esses vetores per-
tencem ` a imagem de T e, se i, j 1, . . . , r, ent ao
w
i
, w
j
) =
1

j
Tv
i
, Tv
j
) =
1

j
T

Tv
i
, v
j
) =
1

2
i
v
i
, v
j
) =

i

j
v
i
, v
j
) =

i

ij
.
Como dim1m T = r, provamos o armado.
Alem disso,
T

w
i
= T

_
1

i
Tv
i
_
=
1

i
T

Tv
i
=
i
v
i
.
Seja w
r+1
, . . . , w
m
uma base ortonormal de ker T

. Ent ao T

w
i
= 0 para i = r + 1, . . . , n.
Uma vez que ker T

= (1m T)

, os vetores w
1
, . . . , w
m
formam uma base ortonormal de W,
de acordo com o teorema 6.4.2. Isso completa a prova.
2
Usualmente a base B e ordenada de modo que
1

2
. . .
r
. Veja um exemplo na
se c ao 8.5.
7.6 Exerccios
1. Sejam B = x
1
, . . . , x
n
e ( = y
1
, . . . , y
n
duas bases no espa co vetorial V . Se a matriz
de B na base B e A, mostre que a matriz de B na base ( e P
T
AP, em que P e a
matriz mudan ca da base B para a base (. Isso signica que formas bilineares mudam suas
representa c oes em bases de maneira diferente da mudan ca de base de matrizes!
2. Seja V um espa co euclidiano real. Mostre que, dada uma forma quadr atica q : V R,
ent ao
B(u, v) =
1
2
[q(u +v) q(u) q(v)] (7.13)
98 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


e a ( unica) forma bilinear simetrica B : V V R tal que q(v) = B(v, v). A identidade
(7.13) e a identidade de polarizacao.
3. Dada a forma quadr atica ax
2
+bxy +cy
2
, encontre a matriz que a representa.
4. Seja V um espa co vetorial complexo. Alem das formas bilineares denidas em V , s ao
importantes as formas B : V V C tais que para quaisquer C e u
1
, u
2
, v
1
, v
2
V ,
(i) B(u
1
+u
2
, v) = B(u
1
, v) +B(u
2
, v);
(ii) B(u, v
1
+v
2
) = B(u, v
1
) +B(u, v
2
).
Essas s ao as formas sesquilineares denidas em V . Denotaremos B(V ) o conjunto das
formas sesquilineares em V .
Uma forma sesquilinear e hermitiana se B(u, v) = B(v, u) para quaisquer u, v V . (Um
produto interno denido no espa co euclidiano V e um exemplo de uma forma sesquilinear
hermitiana).
Verique:
(a) Seja V um espa co euclidiano. Mostre que existe um unico operador linear T : V V
tal que
B(u, v) = Tu, v)
e a aplica c ao B T e um isomorsmo entre B(V ) e L(V ). (Em particular, escolhida
uma base de V , a forma sesquilinear B e representada por uma matriz A).
(b) Se B e uma forma (sesquilinear) hermitiana, denindo q(v) = B(v, v) (chamada
forma quadratica hermitiana), vale
B(u, v) =
1
4
[q(u +v) q(u v)] +
i
4
[q(u +iv) q(u iv)], (7.14)
chamada identidade de polarizacao (veja os exerccios 8 do captulo 6 e 2, desse
captulo);
(c) Seja B B(V ). Ent ao B e hermitiana se, e somente se, B(u, u) R para todo u V .
Se V e um espa co euclidiano, conclua que A : V V e auto-adjunto se, e somente
se, Tu, u) R para todo u R;
(d) O Teorema de Sylvester 7.2.1 (incluindo a Lei de Inercia) pode ser generalizado, se
B(u, v) e uma forma sesquilinear hermitiana;
(e) Generalize, tendo em vista o item (a), o teorema 7.2.2: mostre que se A e uma matriz
hermitiana A, ent ao existe uma matriz invertvel M M
nn
(C) tal que M

AM = D,
sendo D uma matriz diagonal.
(Note que, se V e um espa co vetorial real, toda forma sesquilinear e bilinear e uma
forma hermitiana e simetrica. Em particular, os resultados desse exerccio s ao v alidos
para espa cos vetoriais reais).
7.6. EXERC

ICIOS 99
5. Seja H : V V uma matriz auto-adjunta denida no espa co complexo V . Tendo em
vista o exerccio 4, verique que o teorema 7.3.3 pode ser generalizado: existe uma matriz
unit aria M tal que M

HM = D, sendo D a matriz diagonal cujos elementos diagonais s ao


os autovalores de H.
6. Dena a equivalencia de duas matrizes A e B, denotado A

= B, se existe uma ma-
triz invertvel M tal que A = M

BM. Mostre que assim est a denida uma rela c ao de


equivalencia em M
nn
(C).
7. O teorema 7.2.2 mostra que toda matriz simetrica e equivalente a uma matriz diagonal.
Dada a equivalencia entre os teoremas 7.2.1 e 7.2.2, podemos concluir que a Lei de Inercia
e uma arma c ao sobre matrizes simetricas. Ela garante que, no teorema 7.2.2, o n umero
de termos positivos, negativos e nulos na matriz diagonal D independe da mudan ca de
vari avel utilizada. Por outro lado, sabemos que se D e a diagonaliza c ao da matriz A, ent ao
os elementos diagonais de D s ao os autovalores de A. Mas sabemos que os autovalores de
A independem da base na qual a matriz e representada. Isso n ao implica a Lei de Inercia?
8. Explique a rela c ao M

AM = D em termos de mudan cas de coordenadas.


9. Considere a matriz simetrica
A =
_
_
4 2 2
2 4 2
2 2 4
_
_
.
Ache uma matriz ortogonal (isto e, P
T
= P
1
) e uma matriz diagonal D tais que
P
1
AP = D.
10. Seja T : V W uma aplica c ao linear entre espa cos euclidianos.
(a) Mostre que se T e injetiva, ent ao T

T possui inversa;
(b) Mostre que 1mT

= 1m(T

T);
(c) Mostre que se T e sobrejetiva, ent ao TT

possui inversa.
11. Sejam S, T : V V aplica c oes lineares, S sendo normal. Suponha que ST = TS. Mostre
que S e T s ao simultaneamente diagonaliz aveis por uma (mesma) matriz mudan ca de base
ortonormal.
12. Seja T : V V uma aplica c ao linear no espa co euclidiano V . Mostre que
|T| = sup
x=1=y
[Tx, y)[.
Conclua ent ao que |T| = |T

|.
13. Mostre que se T : V V possui uma base ortonormal v
1
, . . . , v
n
constituda de autovetores,
ent ao T e normal.
100 CAP

ITULO 7. TEORIA ESPECTRAL EUCLIDIANA


14. Seja T : V V um operador linear denido no espa co real V . Mostre que existe uma
base ortonormal B na qual T
B
e diagonal se, e somente se, T e auto-adjunto.
15. No decorrer da demonstra c ao do teorema de Sylvester 7.2.1 se introduziu o conceito de
forma quadr atica positiva no espa co V : a forma quadr atica e positiva se q(v) > 0 para todo
0 ,= v V . Como sabemos, ` a forma quadr atica q est a associada a matriz auto-adjunta A,
denida por q(v) = v, Av). O conceito de uma aplica c ao auto-adjunta positiva foi denido
na deni c ao 7.5.1. Mostre que essas duas deni c oes coincidem no caso da matriz A.
16. Seja T : V V uma aplica c ao auto-adjunta e v
1
, . . . , v
n
uma base ortonormal formada
por autovetores de T. Mostre que se todos os autovalores de T s ao positivos (resp., n ao-
negativos), ent ao T > 0 (resp., T 0).
17. Se T : V V satisfaz T 0 e Tv, v) = 0, mostre que Tv = 0.
18. Mostre que um operador T e positivo se, e somente se, T 0 e T e invertvel.
19. Uma aplica c ao linear S : V V e uma raiz quadrada da aplica c ao linear T : V V
quando S
2
= T. Mostre que toda aplica c ao linear auto-adjunta T : V V que e n ao-
negativa possui uma unica raiz quadrada n ao-negativa. Essa e positiva se, e somente se T
e positiva.
20. Seja T : V V uma aplica c ao linear invertvel. Mostre que existe uma unica aplica c ao
auto-adjunta positiva (isto e, Pv, v) > 0 para todo v ,= 0) e um operador unit ario (ortog-
onal, se V e um espa co real) tais que
T = PU.
Essa e a decomposicao polar de T.
21. Qual a rela c ao entre os autovalores de T

T e os de TT

?
Captulo 8
Decomposic oes Matriciais
Nesse captulo estudaremos algumas decomposi c oes matriciais. Os resultados que apresentare-
mos s ao bastante uteis na

Algebra Linear Numerica.
8.1 O metodo de Gauss
A primeira sub-se c ao reve a teoria b asica de sistemas lineares.
8.1.1 Sistemas lineares e escalonamento
Para 1 i m e 1 j n, suponhamos conhecidos os valores a
ij
e os valores b
j
. Um sistema
linear em m equa c oes e n inc ognitas procura a solu c ao x
1
, . . . , x
n
que satisfaz
a
11
x
1
+ . . . + a
1n
x
n
= b
1
a
21
x
1
+ . . . + a
2n
x
n
= b
2
.
.
. =
.
.
.
a
m1
x
1
+ . . . + a
mn
x
n
= b
m
.
Em termos de matrizes, esse sistema pode ser escrito como
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
,
ou,
Ax = b
Mais sinteticamente ainda, podemos representar esse sistema por uma unica matriz, chamada
matriz aumentada do sistema:
/ = (A [ b) =
_
_
_
_
_
_
a
11
a
12
a
1n

b
1
a
21
a
22
a
2n

b
2
.
.
.
.
.
.

.
.
.
a
m1
a
m2
a
mn

b
m
_
_
_
_
_
_
101
102 CAP

ITULO 8. DECOMPOSIC

OES MATRICIAIS

E f acil vericar que as seguintes opera c oes sobre as linhas da matriz / n ao alteram o conjunto
de solu c oes
1
do sistema Ax = b:
(i) Transpor as linhas i e j;
(ii) Multiplicar a linha i por um escalar n ao-nulo;
(iii) Substituir a linha j por sua soma com um m ultiplo da linha i.
As opera c oes (i) (ii) (iii) s ao as operac oes elementares sobre as linhas da matriz /.
Uma sucessiva aplica c ao de opera c oes elementares sobre a matriz / pode fazer com que essa
matriz se transforme numa matriz com as seguintes propriedades:
(i) se o primeiro elemento n ao-nulo da linha i (chamado piv o da linha i) ocorre na coluna j,
ent ao o primeiro elemento da linha i + ocorre numa coluna k > j, para todo N

;
(ii) o piv o de cada linha e igual a 1.
De fato, se existe algum elemento n ao nulo na primeira coluna de /, ao aplicarmos as opera c oes
elementares (i) e (ii) obtemos uma nova matriz /

= (a

ij
), com a

11
= 1. A aplica c ao da opera c ao
elementar (iii) torna possvel transformar em zero qualquer outro elemento n ao-nulo da primeira
coluna. O resultado ent ao segue por indu c ao sobre o n umero de linhas de /. Essa forma da
matriz / e chamada forma escalonada e a sucess ao de opera c oes elementares utilizadas e um
escalonamento da matriz A.
Suponhamos agora que a matriz / esteja na forma escalonada. Se o piv o for o unico
elemento n ao-nulo de cada coluna, dizemos que a matriz est a na forma escalonada reduzida
por linhas. Aplicando as opera c oes elementares (i) e (iii), podemos fazer com que uma matriz
na forma escalonada atinja sua forma reduzida por linhas. De fato, consideremos o piv o da
segunda linha de /. A aplica c ao da opera c ao elementar (iii) torna possvel zerar o elemento
que est a acima do piv o, mantendo ainda a matriz na forma escalonada. A demonstra c ao agora
segue por indu c ao.
Dois sistemas Ax = b e A

x = b

s ao equivalentes se eles possuem as mesmas solu c oes. Se


as formas escalonadas reduzidas por linhas de ambos os sistemas possuem linhas da forma
(0 [ ), (8.1)
ambos n ao possuem solu c oes e s ao, portanto, equivalentes.
Suponhamos agora que, na forma escalonada reduzida por linhas (R [ c) do sistema Ax = b, a
equa c ao (8.1) n ao se verique. Armamos que o sistema possui solu c ao. Na matriz R, o n umero
1
Note que x = (x
1
, x
2
, . . . , x
n
) satisfaz
a
i1
x
1
+ . . . + a
in
x
n
= b
i
a
j1
x
1
+ . . . + a
jn
x
n
= b
j
se, e somente se, satisfaz
a
i1
x
1
+ . . . + a
in
x
n
= b
i
(a
j1
+ a
i1
)x
1
+ . . . + (a
jn
+ a
in
)x
n
= b
j
+ b
i
.
8.1. O M

ETODO DE GAUSS 103


de piv os (isto e, de linhas n ao-nulas) e, no m aximo, igual ao n umero de colunas de R. Se o
n umero de piv os e igual ao n umero de colunas da matriz R, ent ao a matriz (R [ c) e da forma
_
I

0
_
,
em que I e matriz identidade n n e 0 a matriz nula de ordem (mn) n. Assim, o sistema
Ax = b e equivalente ao sistema x = c

e apenas uma solu c ao. Se, por outro lado, o n umero de


piv os e menor do que o n umero de colunas da matriz R, o sistema possui innitas solu c oes. De
fato, suponhamos que o sistema (R [ c) tenha um piv o a menos. Desprezando as linhas nulas
desse sistema, ele tem a forma
linha i
_
_
_
_
_
_
_
_
_
_
_
1 0 . . . 0
1
0 . . . 0
1 . . . 0
2
0 . . . 0
.
.
.
.
.
.
.
.
.
1
i
0 . . . 0
0 1 . . . 0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
i
x
i+1
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
c

1
c

2
.
.
.
c

i
c

i+2
.
.
.
c

n
_
_
_
_
_
_
_
_
_
_
_
.

coluna i + 1
Assim, sua solu c ao e
_
_
_
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
i
x
i+1
x
i+2
.
.
.
x
n
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
c

1
c

2
.
.
.
c

i
0
c

i+2
.
.
.
c

n1
_
_
_
_
_
_
_
_
_
_
_
_
_
x
i+1
_
_
_
_
_
_
_
_
_
_
_
_
_

2
.
.
.

i
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
=: d x
i+1
. (8.2)
Em outras palavras, a perda de um piv o gerou um grau de liberdade para o sistema (o valor de
x
i+1
) e, com isso, uma innidade de solu c oes, dadas como a soma dos vetores na express ao (8.2).
Essa express ao mostra, em particular, a unicidade da forma escalonada reduzida por linhas de
qualquer sistema que perca um piv o: se um dos valores
j
for diferente, o vetor ser a diferente.
Por indu c ao, se o sistema perder k piv os, a sua solu c ao ser a a soma de um vetor xo com uma
combina c ao linear arbitr aria de k vetores (tendo, portanto, k graus de liberdade). Essa express ao
acarreta, em particular, a unicidade da forma escalonada reduzida por linhas de um sistema que
perde k piv os.
Quer dizer, dois sistemas lineares s ao equivalentes ou se ambos n ao possuem solu c oes ou
se, eliminadas as linhas nulas existentes, eles possuem a mesma forma escalonada reduzida por
linhas.
104 CAP

ITULO 8. DECOMPOSIC

OES MATRICIAIS
8.1.2 Matrizes elementares e a decomposicao LU
Consideremos agora uma matriz mn A. Vamos mostrar que os resultados da subse c ao anterior
podem ser interpretados como uma decomposi c ao da matriz A.
Uma matriz e elementar se ela pode ser obtida da matriz identidade m m atraves da
aplica c ao de uma opera c ao elementar.
Proposicao 8.1.1 Seja e um opera c ao elementar sobre (as linhas da) a matriz A (de ordem
mn) e E a matriz elementar e(I), sendo I a matriz identidade mm.
Demonstracao: A demonstra c ao deve ser feita com rela c ao a cada uma das opera c oes ele-
mentares. Faremos isso apenas no caso da opera c ao elementar (iii): a linha j ser a substituda
pela soma da linha j com c vezes a linha i.
A matriz E, nesse caso, e dada por
E =
_
_
_
_
_
_
_
1 0 . . . 0
.
.
.
.
.
.
0 . . . c . . . 1 . . . 0
.
.
.
.
.
.
0 0 . . . 1
_
_
_
_
_
_
_
linha j

coluna j
Ent ao
EA =
_
_
_
_
_
_
_
1 0 . . . 0
.
.
.
.
.
.
0 . . . c . . . 1 . . . 0
.
.
.
.
.
.
0 0 . . . 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
.
.
.
.
.
.
a
j1
a
j2
. . . a
jn
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
a
11
a
12
. . . a
1n
.
.
.
.
.
.
a
j1
+ca
i1
a
j2
+ca
i2
. . . a
jn
+ca
in
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
_
,
que e justamente e(A).
2
Suponhamos que E seja uma matriz elementar obtida por meio da opera c ao elementar (ii)
ou (iii).

E f acil vericar que tanto a matriz E como sua inversa (que existe!) s ao matrizes
triangulares inferiores.
Tendo em vista a proposi c ao 8.1.1, dada uma matriz mn A, obtemos a forma escalonada
da matriz A ao multiplic a-la por matrizes elementares E
k
E
k1
. . . E
2
E
1
. Quer dizer,
(E
k
E
k1
. . . E
2
E
1
)A = U,
8.1. O M

ETODO DE GAUSS 105


em que U = (u
ij
) tem todos os seus elementos abaixo da diagonal u
ii
iguais a zero.
Suponhamos que, nesse processo de levar a matriz A a sua forma escalonada, a opera c ao
elementar (i) n ao tenha sido utilizada. Uma vez que a matriz E
k
E
k1
. . . E
2
E
1
tem inversa e sua
inversa e uma matriz triangular inferior (veja exerccios 2 e 3), obtemos que
A = LU
em que a matriz L e triangular inferior e a matriz U e triangular superior. Essa e a decom-
posi c ao LU da matriz A.
Observacao 8.1.2 A decomposi c ao A = LU e usualmente feita para matrizes quadradas A.
Nesse caso, a matriz U e uma autentica matriz triangular superior.
Se A e uma matriz mn e se no seu escalonamento n ao foi utilizada a opera c ao elementar
(i), a decomposi c ao LU pode ser atingida unicamente por meio da opera c ao elementar (iii):
n ao h a necessidade de transformar em 1 o primeiro elemento n ao nulo de cada linha. Assim,
suponhamos que por meio das matrizes elementares E
1
,...,E
k
todos os elementos abaixo do piv o
de cada linha tenham sido anulados ate a coluna j 1, e que o piv o da coluna j esteja na linha
i, com i j. Se > i, para anularmos o elemento b
j
da matriz (b
ij
) = E
k
. . . E
1
A, substitumos
a linha pela linha somada a c vezes a linha i. A essa opera c ao corresponde corresponde a
matriz elementar
linha i
linha
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
.
.
.
.
.
.
c
,j
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
.

coluna j
O valor de c
,j
e b
j
/b
ij
, se b
j
e b
ij
s ao os primeiros elementos n ao-nulos das linhas e i,
respectivamente, da matriz E
k
. . . E
1
A. Se multiplicarmos todas as matrizes que anulam os
elementos b
j
, com > i, obteremos a matriz
Q
j
=
_
_
_
_
_
_
_
_
_
1
.
.
.
1
c
i+1,j
.
.
.
.
.
.
c
i+r,j
1
_
_
_
_
_
_
_
_
_
.

E f acil vericar que L


j
= Q
1
j
existe e tem o mesmo formato da matriz acima. Decorre da que,
na decomposi c ao LU da matriz A, todos os elementos da diagonal principal da matriz L s ao
iguais a 1.
106 CAP

ITULO 8. DECOMPOSIC

OES MATRICIAIS
Seja A uma matriz mn. Suponhamos que, no escalonamento de A, tenhamos exatamente n
piv os e que n ao tenhamos utilizado a opera c ao elementar (i). Isso implica que, na decomposi c ao
LU da matriz A, os elementos diagonais da matriz m m L s ao todos iguais a 1, enquanto os
elementos diagonais da matriz U s ao justamente os piv os. Podemos ent ao escrever a matriz A
numa forma mais simetrica: se
U =
_
_
_
_
_
_
_
_
_
_
_
u
11
u
12
u
1n
0 u
22
u
2n
.
.
.
.
.
.
.
.
.
0 0 u
nn
0 0 0
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
_
_
_
,
com u
ii
,= 0, ent ao podemos decompor
U = DU

=
_
_
_
_
_
_
_
_
_
_
_
u
11
0 0 0 0
0 u
22
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
nn
0 0
0 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 u
12
/u
11
u
1n
/u
11
0 1 u
2n
/u
22
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
_
_
_
,
em que D e uma matriz mm e U

uma matriz mn, com elementos diagonais iguais a 1.


Temos, assim,
A = LDU

E usual escrever A = LDU, chamada decomposicao LDU da matriz A.


Proposicao 8.1.3 Seja A uma matriz m n. Se A = LU e A = LU, com L, L matrizes
m m triangulares inferiores com elementos diagonais iguais a 1 e U, U matrizes triangulares
superiores com elementos diagonais n ao nulos. Ent ao L = L

e U = U

. Em particular, a
decomposi c ao LDU de uma matriz e unica.
Demonstracao: Como a matriz L possui inversa, temos U = (L
1
L)U. A matriz quadrada
L
1
L e triangular inferior e tem elementos diagonais iguais a 1. Vamos mostrar que L
1
L =: R =
(r
ij
) e a matriz identidade. Temos r
i1
= 0 se i ,= 1, o que pode ser comprovado multiplicando a
linha i de R pela primeira coluna de U, pois RU e uma matriz triangular inferior e u
11
,= 0. Da
mesma forma, multiplicando as linha de R pela segunda coluna de U, vericamos que r
i2
= 0 se
i ,= 2 e assim sucessivamente. Logo R = I e U = U.
Da decorre, em particular, que os elementos diagonais de U e U

s ao iguais. Se D = (d
ij
)
e a matriz diagonal m m com d
ii
= u
ii
para i = 1, . . . , n e d
jj
= 0 se j > n, ent ao podemos
escrever U = DU, as matrizes D e U tendo o formato dado na decomposi c ao LDU da matriz A.
2
8.1. O M

ETODO DE GAUSS 107


Denicao 8.1.4 Seja A = (a
ij
) uma matriz m n. Uma sub-matriz de A e a matriz obtida
de A ao se omitir algumas de suas linhas e/ou colunas. Denotaremos A
r
a matriz (a
ij
), 1
i, j r n. A sub-matriz A
r
e a sub-matriz principal de A de ordem r.
Proposicao 8.1.5 Seja A uma matriz mn tal que todas suas sub-matrizes principais A
r
sejam
invertveis. Ent ao A tem uma decomposi c ao LU.
Demonstracao: Como a
11
= A
1
, o elemento a
11
e o piv o da primeira linha. Existe ent ao uma
matriz invertvel E, obtida ao se aplicar sucessivamente a opera c ao elementar (iii) de modo a
anular todos os elementos de A abaixo do piv o. Temos ent ao que
EA =
_
_
_
_
_
a
11
a
12
a
1n
0 b
22
b
2n
.
.
.
.
.
.
0 b
m2
b
mn
_
_
_
_
_
.
Claramente a sub-matriz principal de EA
_
a
11
a
12
0 b
22
_
resulta da sub-matriz principal de A
_
a
11
a
12
a
21
b
22
_
mediante a aplica c ao de uma opera c ao elementar do tipo (iii). Em particular, aquela sub-matriz
principal de EA e invertvel, pois a sub-matriz de A e invertvel (por hip otese). Da decorre que
b
22
,= 0, mostrando que b
22
e um piv o da segunda linha de EA. A prova agora segue por indu c ao.
2
Suponhamos agora que, ao levarmos a matriz A a sua forma escalonada seja necess aria a
aplica c ao da opera c ao elementar (i). Ent ao n ao e possvel decompor a matriz A na forma LU.
Entretanto, podemos considerar as matrizes elementares que fazem as transposi c oes de linhas
necess arias para o escalonamento da matriz A. Cada matriz dessas e ortogonal e se consideramos
a matriz P, multiplica c ao de todas essas matrizes, obtemos uma matriz, chamada matriz de
permutacao.
Consideremos ent ao a matriz PA. Com essa permuta c ao das linhas de A, e possvel levar
a matriz A a uma forma triangular superior por meio unicamente da opera c ao elementar (iii).
Assim, para a matriz PA vale:
PA = LU.
Como a matriz P e ortogonal, temos ent ao
A = P
T
LU.
108 CAP

ITULO 8. DECOMPOSIC

OES MATRICIAIS
8.2 A decomposicao de Cholesky
Como vimos na se c ao 7.5, uma aplica c ao auto-adjunta e positiva se todos os seus autovalores
s ao positivos.
Seja A uma matriz (real) simetrica, representa c ao matricial de um operador auto-adjunto
positivo T : R
n
R
n
(resp., n ao-negativo) com rela c ao ` a base can onica do R
n
. Como D =
P
T
AP para alguma matriz ortogonal A e uma matriz diagonal D, temos que det A > 0 (resp.,
det A 0). Uma matriz A simetrica com todos os autovalores positivos e chamada matriz
positiva-denida.
Observacao 8.2.1 Estamos denominando a matriz A de positiva-denida, pois o termo matriz
positiva e utilizado em outra situa c ao (geralmente associada ao teorema de Perron).
Lema 8.2.2 Seja A uma matriz n n simetrica positiva-denida. Ent ao as sub-matrizes prin-
cipais A
r
s ao positivas-denidas (e, portanto, det A
r
> 0) para 1 r n.
Demonstracao: Seja x
r
= (x
1
, . . . , x
r
) R
r
um vetor n ao-nulo arbitr ario e dena x =
(x
1
, . . . , x
r
, 0, . . . , 0) R
n
. Como
x
r
, A
r
x
r
) = x, Ax)
e A e positiva-denida, o resultado segue. 2
Note que o lema 8.2.2 combinado com a proposi c ao 8.1.5 garante que uma matriz positiva-
denida A possui decomposi c ao LU, obtida unicamente mediante a sucessiva aplica c ao da
opera c ao elementar (iii) ` a matriz A. Em particular, A possui uma fatora c ao LDU, a matriz
diagonal D = (d
ii
) tendo seus elementos diagonais positivos. Mas, como a matriz A e simetrica,
temos
LDU = A = A
T
= U
T
AL
T
.
Pela proposi c ao 8.1.3 temos L
T
= U, de modo que A = LDL
T
. Denindo D
1/2
como a matriz
D
1/2
=
_
_
_
_
_

d
11
0 0
0

d
22
0
.
.
.
.
.
.
0 0

d
nn
_
_
_
_
_
.
Mas ent ao A = LDL
T
= (LD
1/2
)(D
1/2
L
T
) = L
1
L
2
, a matriz L
1
sendo triangular inferior e a
matriz L
2
sendo triangular superior. Como A = A
T
, segue que L
2
= L
T
1
, mostrando que
A = LL
T
,
chamada decomposicao de Cholesky da matriz A.
Assim, uma matriz n n positiva-denida tem duas decomposi c oes: a decomposi c ao A =
LDU e a decomposi c ao de Cholesky A = L
1
L
T
1
. J a vimos que L
1
= LD
1/2
, o que nos mostra
como obter a decomposi c ao de Cholesky da matriz A.
O pr oximo resultado caracteriza as matrizes positivas-denidas e apresenta um resumo dos
resultados obtidos nessa se c ao:
8.3. A DECOMPOSIC

AO DE SCHUR 109
Proposicao 8.2.3 Seja A uma matriz simetrica nn. As seguintes arma c oes s ao equivalentes:
(i) A e positiva-denida;
(ii) As sub-matrizes principais A
1
, . . . , A
n
tem determinante positivo;
(iii) A matriz A tem uma decomposi c ao LDU, com os elementos diagonais da matriz diagonal
D todos positivos;
(iv) A tem uma decomposi c ao de Cholesky A = LL
T
, sendo L uma matriz triangular inferior
com elementos diagonais positivos.
Demonstracao: J a vimos as implica c oes (i) (ii) (iii) (iv).
Seja agora x R
n
um vetor arbitr ario e y = L
T
x. Como a matriz L
T
possui inversa, y ,= 0.
Assim
x, Ax) = x
T
(LL
T
x) = (x
T
L)(L
T
x) = y
T
y = |y|
2
> 0.
Isso mostra que (iv) (i).
2
8.3 A decomposicao de Schur
Seja A uma matriz n n no corpo C.
Teorema 8.3.1 (Schur)
Existe uma matriz unitaria U tal que T = U

AU e uma matriz triangular superior.


Demonstracao: Faremos indu c ao em n, o resultado sendo obvio para n = 1. Suponhamos
v alido para uma matriz k k qualquer e consideremos A, matriz (k + 1) (k + 1). Seja w
1
um autovetor unit ario associado ao autovalor
1
de A. O processo de ortogonaliza c ao de Gram-
Schmidt assegura a existencia de uma base ortonormal w
1
, w
2
, . . . , w
k+1
para C
k+1
. A matriz
R, cuja i-esima coluna e o vetor w
i
, e unit aria (veja o exerccio 20 do captulo 6). Consideremos
ent ao R

AR = (R

A)R. A primeira coluna dessa matriz e R

Aw
1
. Mas R

Aw
1
=
1
R

w
1
=

1
e
1
, pois as linhas de R

s ao dadas pelos vetores w


1
, . . . , w
k+1
. Assim, a matriz R

AR tem a
forma
_
_
_
_
_

1

0
.
.
. S
0
_
_
_
_
_
,
em que S e uma matriz k k. Pela hip otese de indu c ao, existe uma matriz unit aria V
1
tal que
T
1
= V

1
SV
1
e uma matriz triangular superior. Denimos ent ao
V =
_
_
_
_
_
1 0 0
0
.
.
. V
1
0
_
_
_
_
_
.
110 CAP

ITULO 8. DECOMPOSIC

OES MATRICIAIS
Claramente V e unit aria e
V

(R

AR)V =
_
_
_
_
_
1 0 0
0
.
.
. V

1
0
_
_
_
_
_
_
_
_
_
_

1

0
.
.
. S
0
_
_
_
_
_
_
_
_
_
_
1 0 0
0
.
.
. V
1
0
_
_
_
_
_
=
_
_
_
_
_

1

0
.
.
. V

1
SV
1
0
_
_
_
_
_
=
_
_
_
_
_

1

0
.
.
. T
1
0
_
_
_
_
_
= T,
uma matriz triangular superior. Denimos ent ao U = RV . A matriz U e unit aria, pois
U

U = (RV )

(RV ) = V

RV = I.
Isso completa a demonstra c ao.
2
A demonstra c ao apresentada continua v alida se A e uma matriz real cujos autovalores est ao
no corpo R. Uma prova alternativa do teorema de Schur e indicada no exerccio 6. Note que o
teorema pode tambem ser formulado para aplica c oes lineares ao inves de matrizes.
Corolario 8.3.2 Se A e uma matriz auto-adjunta, ent ao existe uma matriz unitaria U tal que
U

AU = D, sendo D uma matriz diagonal. Se A e uma matriz real, a matriz U e ortogonal.


Demonstracao: De acordo com o teorema de Schur 8.3.1, existe uma matriz unit aria U tal que
U

AU = T, sendo T uma matriz triangular superior. Mas


T

= (U

AU)

= U

U = U

AU = T,
de acordo com a proposi c ao 6.5.3. Isso mostra que T e auto-adjunta e, portanto, uma matriz
diagonal.
Se A e real, todos os autovalores de A s ao reais e, portanto, tambem seus autovetores. Isso
implica que a matriz U e ortogonal.
2
8.4 A decomposicao QR
O processo de ortogonaliza c ao de Gram-Schmidt pode ser interpretado como uma decomposi c ao
de uma matriz cujas colunas s ao linearmente independentes.
Teorema 8.4.1 (A decomposicao QR)
Seja A uma matriz mn de posto n. Ent ao
A = QR,
em que Q e uma matriz m n com colunas ortonormais e R e uma matriz n n triangular
superior com elementos diagonais positivos.
8.5. A DECOMPOSIC

AO EM VALORES SINGULARES 111
Demonstracao: Sejam v
1
, . . . , v
n
as colunas da matriz A. Como essa matriz tem posto n,
esses vetores s ao linearmente independentes em K
m
. Aplicando o processo de ortogonaliza c ao
de Gram-Schmidt 6.3.4 a esses vetores, obtemos os vetores ortonormais q
1
, . . . , q
n
K
m
, dados
por
q
k
= r
kk
_
v
k

k1

i=1
r
ik
q
i
_
, (k = 1, . . . , n)
em que r
ik
= v
k
, q
i
) para i = 1, . . . , k 1 e (1/r
kk
) e a norma do vetor v
k

k1
i=1
r
ik
q
i
. Mas
isso quer dizer que
v
1
= r
11
q
1
v
2
= r
12
q
1
+r
22
q
2
.
.
. =
.
.
.
v
n
= r
1n
q
1
+. . . +r
nn
q
n
.
Denindo Q como a matriz cujas colunas s ao os vetores q
1
, . . . , q
n
e R a matriz triangular superior
R =
_
_
_
_
_
r
11
r
12
r
1n
0 r
21
r
2n
.
.
.
.
.
.
.
.
.
0 0 r
nn
_
_
_
_
_
= (r
1
r
2
r
n
),
temos que a j-esima coluna da matriz QR e
QRe
j
= Qr
j
= r
1j
q
1
+r
2j
q
2
+. . . +r
jj
q
j
= v
j
.
Isso mostra que QR = A, completando a demonstra c ao.
2
8.5 A decomposicao em valores singulares
Seja A e uma matriz m n. A determina c ao do posto de A, atraves do escalonamento dessa
muitas vezes n ao e vi avel numericamente, devido a propaga c ao de erros no processo computa-
cional. O teorema dos valores singulares oferece uma solu c ao para esse problema.
O que faremos nessa se c ao n ao passa de uma interpreta c ao em termos matriciais dos resul-
tados obtidos na se c ao 7.5.
Seja A a matriz que representa a aplica c ao linear T : R
n
R
m
com rela c ao ` as bases can onicas
do R
n
e R
m
. Se B = v
1
, . . . , v
n
e a base ortonormal do R
n
formada por autovetores de A

A,
ent ao P
B
E
= P e a matriz
P = (v
1
v
2
. . . v
n
)
cujas colunas s ao os vetores da base B. Denotamos Q = Q
E
C
a matriz mudan ca da base ( do R
m
para a base can onica desse espa co e D = T
C
B
. Ent ao
D = QAP.
112 CAP

ITULO 8. DECOMPOSIC

OES MATRICIAIS
Como as matrizes P e Q s ao ortogonais, temos A = Q

DP

. Mudando a nota c ao, temos


A = QDP,
chamada decomposi c ao em valores singulares da matriz A.
Exemplo 8.5.1 Seja
A =
_
_
1 1
1 1
0 0
_
_
.
Para obter a decomposi c ao de A em valores singulares, obtemos a matriz A
T
A;
A
T
A =
_
2 2
2 2
_
,
cujos autovalores s ao
1
= 4 e
2
= 0. Os valores singulares de A s ao, portanto,
1
=

4 = 2 e

2
=

0 = 0. A matriz P, cujas colunas s ao os autovetores normalizados de A


T
A e
P =
1

2
_
1 1
1 1
_
.
O vetor w
1
e dado por
w
1
=
1

1
Av
1
=
1

2
_
_
1
1
0
_
_
.
Para obtermos os vetores w
2
e w
3
, achamos uma base ortonormal de ker A
T
(nesse exemplo, n ao
e necess ario utilizar o processo de ortogonaliza c ao de Gram-Schmidt):
w
2
=
1

2
_
_
1
1
0
_
_
e w
3
=
_
_
0
0
1
_
_
.
Portanto,
A = QDP =
_
_
1

2
1

2
0
1

2
1

2
0
0 0 1
_
_
_
_
2 0
0 0
0 0
_
_
_
1

2
1

2
1

2
1

2
_
.

8.6 Exerccios
1. Demonstre a proposi c ao 8.1.1 com rela c ao ` as opera c oes elementares (i) e (ii).
2. Mostre que toda matriz elementar tem inversa.
3. Mostre que o produto de matrizes triangulares inferiores (respectivamente, superiores) e
uma matriz triangular inferior (resp., superior).
8.6. EXERC

ICIOS 113
4. De um exemplo mostrando que e possvel ter A = LU = L

, com L, L

matrizes trian-
gulares inferiores com elementos diagonais todos iguais a 1 e U, U

matrizes triangulares
superiores. (Compare com a proposi c ao 8.1.3).
5. Seja A uma matriz simetrica invertvel. Mostre que A
2
e uma matriz positiva-denida.
6. Suponhamos que o polin omio caracterstico de T : V V se decomponha em polin omios
irredutveis de grau um (quer dizer, todas as razes do polin omio caracterstico est ao no
corpo K). Mostre
2
:
(a) Se e autovalor de T, ent ao e autovalor de T

: V V ;
(b) Seja v um autovetor unit ario associado ao autovalor de T

. Decompondo V =
W W

, mostre que T(W

) W

;
(c) Supondo que o teorema de Schur seja v alido em espa cos de dimens ao n1 (cujas razes
do polin omio caracterstico est ao em K), considere a restri c ao T[
W
- que produz uma
base ortonormal ( na qual a representa c ao dessa restri c ao e triangular superior - e
verique que T
B
e uma matriz triangular superior, sendo B = ( v.
7. Seja B uma base ortonormal de V . Suponhamos que a representa c ao A = T
B
do operador
linear T : V V seja uma matriz triangular superior. Mostre que T e normal se, e
somente se, A e diagonal. Deduza o teorema 7.4.4 ao aplicar o teorema de Schur ao
resultado anterior.
8. Na decomposi c ao de Schur U

AU = T h a unicidade da matriz triangular superior T?


9. A decomposi c ao em valores singulares A = QDP e unica? Os valores singulares s ao unicos?
10. Quais s ao as diagonaliza c oes ortogonais de A

A e AA

?
11. Seja A uma matriz m n. O posto de A e igual ao n umero de autovalores n ao nulos,
contados de acordo com a multiplicidade?
2
Compare com o teorema 6.5.4.
Referencias Bibliogracas
[1] H. Anton and C. Rorres: Elementary Linear Algebra: Applications version, 6th. edition,
Wiley, New York, 1991.
[2] R. Bellman: Introduction to Matrix Analysis, McGraw-Hill Book Company, New York,
1960. (Republicado na serie Classics in applied mathematics, SIAM, 1995).
[3] H. P. Bueno: Equa c oes Diferenciais Ordin arias - 1a. parte. Notas de aula de um curso.
Departamento de Matem atica da UFMG, 2001.
[4] N. Dunford and J. T. Schwarz: Linear operators I, Interscience, New York, 1968.
[5] Gantmacher, F. R.: The Theory of Matrices, vol. 1 and 2, Chelsea Publishing Co., New
York, 1959.
[6] G. Golub e Charles Van Loan: Matrix Computations, 2nd. Edition, Johns Hopkins, Balti-
more, 1989.
[7] M. Hirsch and S. Smale: Dierential Equations, Dynamical Systems and Linear Algebra,
Academic Press, New York, 1974.
[8] K. Homan e R. Kunze:

Algebra Linear, 2a. edi c ao, Livros Tecnicos e Cientcos Editora,
Rio de Janeiro, 1979.
[9] S. Lang: Linear Algebra, 3rd. Edition, Springer-Verlag, New York, 1989.
[10] P. D. Lax: Linear Algebra, Wiley-Interscience Publication, New York, 1997.
[11] S. J. Leon:

Algebra Linear com Aplica c oes, 4a. Edi c ao, LTC Editora, Rio de Janeiro, 1999.
[12] E. L. Lima:

Algebra Linear, 2a. edi c ao, IMPA, Rio de Janeiro, 1996.
[13] M. Montenegro: Notas de aula de um curso de

Algebra Linear, UFMG, 2000.
[14] M. Reed and B. Simon: Methods of Modern Mathematical Physics, vol. I, Academic Press,
New York, 1972.
[15] R. J. Santos: Geometria Analtica e

Algebra Linear, Parte II, UFMG, 2000.
[16] J. Sotomayor: Li c oes de Equa c oes Diferenciais Ordin arias, IMPA, Rio de Janeiro, 1979.
[17] G. Strang: Linear Algebra and its Applications, 3rd. edition, Harcourt, Fort Worth, 1988.
114

Indice Remissivo
adjunta, 76
anulador de um subconjunto, 13
aplica c ao linear
adjunta, 76
alternada, 35
auto-adjunta, 77
n ao-negativa, 96
autoespa co, 47
autovalor, 47
autovetor, 47
complexica c ao de uma, 65
diagonaliz avel, 46
imagem de uma, 18
inversa de uma, 8
n ucleo de uma, 18
norma de uma, 78
normal, 93
ortogonal, 80
polin omio caracterstico, 47
que preserva norma, 82
que preserva produto interno, 82
representa c ao em bases, 24
transposta de uma, 22, 26
unit aria, 80
autovalor
multiplicidade algebrica, 69
multiplicidade geometrica, 69
base, 3
can onica do K
n
, 5
dual, 10
ortogonal, 72
ortonormal, 72
bidual, 10
c alculo funcional de matrizes, 92
ciclo, 32
codimens ao 1, 13
combina c ao linear, 3
complemento ortogonal, 75
conjugado
de um vetor, 69
de uma matriz, 69
conjunto
ortonormal, 72
gerador, 3
linearmente dependente, 3
linearmente independente, 3
ortogonal, 72
coordenadas de um vetor, 5
decomposi c ao
LDU, 106
LU, 105
QR, 110
de Cholesky, 108
de Schur, 109
em valores singulares, 112
polar, 100
desigualdade
de Cauchy-Schwarz, 72
desigualdade de Bessel, 82
determinante
da matriz transposta, 38
de pontos do R
n
, 35
de uma matriz, 38
do produto de matrizes, 38
existencia do, 37
unicidade do, 37
espa co dual, 9
espa co vetorial, 1
com produto interno, 70
complexica c ao de um, 65
de dimens ao nita, 3
dual, 9
115
116

INDICE REMISSIVO
euclidiano, 70
gerado por um subconjunto, 7
normado, 71
subespa co trivial, 7
espa cos vetoriais
isomorfos, 2
soma direta de, 8
forma
bilinear, 84
simetrica, 84
quadr atica, 86
hermitiana, 98
positiva, 87
sesquilinear, 98
hermitiana, 98
funcional linear, 9
Gram-Schmidt, 73
identidade
de polariza c ao, 81, 98
do paralelogramo, 72
isometria, 78
isomorsmo, 2
de espa cos com produto interno, 82
matriz
simetrica, 80
anti-auto-adjunta, 95
anti-simetrica, 95
aumentada de um sistema, 101
auto-adjunta, 77
conjugada, 69
de permuta c ao, 107
decomposi c ao
LDU, 106
LU, 105
QR, 110
de Cholesky, 108
de Schur, 109
em valores singulares, 112
elementar, 104
entrada de uma, 15
escalonamento de uma, 102
forma escalonada, 102
reduzida por linhas, 102
hermitiana, 80
inversa, 24
mudan ca de base, 24
normal, 95
ortogonal, 80
positiva, 80
positiva-denida, 108
que representa uma aplica c ao linear, 15
simetrica, 77
sub-matriz, 107
sub-matriz principal, 107
transposta, 21
triangular inferior, 44
triangular superior, 44
norma, 71
de uma aplica c ao linear, 78
opera c oes elementares
sobre as linhas de uma matriz, 102
operador linear, 2
complexica c ao de um, 65
permuta c ao, 31
orbita, 32
ciclo, 32
ordem de um elemento, 32
transposi c ao, 33
piv o, 102
polin omio
caracterstico, 46
mnimo, 52
polin omios
primos entre si, 50
processo de ortogonaliza c ao de Gram - Sch-
midt, 73
produto de aplica c oes lineares, 16
produto interno, 70
proje c ao, 27
ortogonal, 75
raiz
multiplicidade algebrica, 68
raiz quadrada, 100
representa c ao de um vetor em uma base, 5

INDICE REMISSIVO 117


sistema linear, 101
matriz aumentada de um, 101
sistema transposto, 81
sistemas lineares
equivalentes, 102
Spectral Mapping Theorem, 50
subespa co, 2
invariante, 30
trivial, 7
subespa cos
interse c ao de, 7
soma de, 2
soma direta de, 2
teorema
da decomposi c ao prim aria, 55
da imagem do espectro, 50
de caracteriza c ao de matrizes positivas-
denidas, 109
de caracteriza c ao dos operadores diago-
naliz aveis, 65
de Cayley-Hamilton, 52
de decomposi c ao de um espa co, 75
de diagonaliza c ao para matrizes hermi-
tianas, 89, 110
de diagonaliza c ao para matrizes simetri-
cas, 89, 110
de Gram-Schmidt, 73
de Pit agoras, 71
de representa c ao de Riesz, 74
de resolu c ao espectral, 90
de Schur, 109
do n ucleo e da imagem, 18
dos operadores diagonaliz aveis, 48
dos valores singulares, 96
espectral, 56
dos operadores auto-adjuntos, 88
existencia do determinante, 37
forma de Jordan complexa, 60
forma de Jordan real, 66
propriedades do tra co, 43
unicidade do determinante, 37
transforma c ao linear, 2
transformada de Cayley, 83
transla c ao, 78
transposi c ao, 33
transposta
de uma aplica c ao linear, 22, 26
de uma matriz, 21
vetor
conjugado, 69
unit ario, 71
vetores
ortogonais, 71
perpendiculares, 71

Você também pode gostar