Você está na página 1de 310

i

ALinear 2005/12/19 13:25 page i #1


i

Em memria de
Eliana Farias Bueno.
Inesquecvel esposa,
eterna amiga.

Miriam, Claudia und Georg Mller


gewidmet.

i
i

ALinear 2005/12/19 13:25 page ii #2


i

i
i

ALinear 2005/12/19 13:25 page iii #3


i

Prefcio
Este texto dirigido a alunos de um segundo curso de lgebra Linear. Apesar
de todos os conceitos estarem definidos, noes bsicas sobre o espao Rn so
supostas conhecidas e, portanto, tm apresentao concisa. So utilizados alguns
resultados elementares do clculo diferencial e da teoria de funes em uma varivel
complexa.
Com o ponto de vista da Anlise Matemtica, o livro oferece um tratamento
moderno para temas bsicos da lgebra Linear e pode ser lido com diversos graus
de aprofundamento, destinando-se tanto a alunos que ainda esto aprendendo o
formalismo da linguagem matemtica como tambm queles mais avanados, que
pretendem consolidar e ampliar seus conhecimentos sobre o assunto.
A primeira verso deste texto surgiu como uma adaptao de parte de um livro
que considero uma obra-prima: o texto de P. Lax, "Linear Algebra" [20], cuja
influncia no dissimulada.
Decidi adaptar o texto de Lax quando senti a dificuldade de meus alunos
em acompanh-lo. Alterei demonstraes e o ordenamento do texto, salientei as
diferenas entre espaos reais e complexos, esmiucei certas passagens e inseri
alguns tpicos complementares, sempre visando tornar o texto menos denso. Aps a
utilizao dessa adaptao por mim e outros professores, resolvi fazer modificaes
mais profundas, enfatizando um tpico que tradicionalmente ignorado nos textos
de lgebra Linear: as assim chamadas funes de matrizes, que so matrizes
originadas por funes f : U C C, tais como Ak , A1 , sen A ou mesmo
o fluxo eAt . Usualmente restringe-se a apresentao dessas ao caso de polinmios
de uma matriz quadrada ou ento, se a matriz A for simtrica e A = P 1 DP com
D diagonal, define-se f (A) por P 1 f (D)P , em que f (D) obtida ao se avaliar f
em cada uma das entradas diagonais de D.
A apresentao de funes de matrizes pode ser sintetizada como sendo uma
generalizao da verso em dimenso finita do clculo funcional de DunfordSchwartz [8] e j era conhecida por Gantmacher [9]. Ela simples e tem conseqncias notveis: f (A) sempre um polinmio na matriz A (com coeficientes
dependendo da funo f ), que pode ser facilmente obtido, se forem conhecidos os

iii
i

i
i

ALinear 2005/12/19 13:25 page iv #4


i

autovalores de A e suas multiplicidades. Essa abordagem, uma tcnica corriqueira


na lgebra Linear Numrica, tem sido esquecida nos textos de lgebra Linear.
Livros bem reputados (veja [15], [16], [19], [33]) e at mesmo tratados mais
avanados (como [3], [25] ou o prprio texto de Lax [20]) apenas mencionam o
clculo funcional de matrizes simtricas. Assim, o presente texto tambm tem a
inteno de contribuir para uma reavaliao do clculo funcional na lgebra Linear
bsica e, como conseqncia, mostrar que o tratamento funcional do fluxo eAt
bem mais simples do que por meio da forma cannica de Jordan.
O clculo funcional, mais do que uma simples ferramenta computacional, tem
implicaes tericas importantes. A demonstrao do Teorema da Decomposio
Primria no caso complexo (que Lax denomina "Spectral Theorem") feita por
meio dessa tcnica, que no pressupe conhecimento de resultados da lgebra.
Inseri tambm sees devotadas a outras decomposies matriciais: LU ,
Decomposio de Aplicaes em Valores Singulares, Cholesky, Schur e QR,
resultados constantes de qualquer curso de lgebra Linear Numrica. (O livro de
Lax contm um captulo mais avanado sobre a resoluo de sistemas lineares.)
Com a introduo de diversas modificaes no livro de Lax, ouso apresentlo como uma obra independente. Mas, Lax o ghostwriter, cujo nome est aqui
ausente porque este texto est muito aqum dos mritos daquele. Assim, as falhas
deste so de minha inteira responsabilidade.
O presente texto cobre todo o espectro bsico da lgebra Linear: espaos
vetoriais e bases, o espao dual, aplicaes lineares e suas representaes matriciais, determinantes, a decomposio primria, a forma cannica de Jordan e a
decomposio racional (de Frobenius), espaos euclidianos, formas quadrticas,
diagonalizao de operadores normais (e, com isso, operadores unitrios e ortogonais) e, finalmente, algumas outras decomposies matriciais.
O estilo adotado no texto formal: os resultados so apresentados como lemas,
proposies, teoremas etc. Acho-o apropriado para alunos que do seus primeiros
passos no formalismo da linguagem matemtica.
A linguagem utilizada , intencionalmente, abstrata e concisa. No creio ser
proveitoso, nesse nvel, continuar explorando uma abordagem mais direta e evitar
assim a abstrao. Nas palavras de Lax, os alunos no devem ser excludos do
paraso criado por Emmy Noether e Emil Artin.
A apresentao concisa reduz o espao para exemplos, especialmente em
tpicos mais bsicos. Os exemplos esto confinados a assuntos que julgo serem
mais pertinentes a um segundo curso de lgebra Linear.
Os exerccios, no final de cada captulo, variam desde aplicaes corriqueiras

i
i

ALinear 2005/12/19 13:25 page v #5


i

da teoria at a apresentao de resultados mais refinados, com demonstraes mais


elaboradas. Alguns desses exerccios esto presentes em vrios textos de lgebra
Linear, outros foram formulados por mim mesmo. Algumas vezes esses exerccios
especialmente em tpicos bsicos introduzem notaes e conceitos que sero
usados livremente no resto do texto. Outros exerccios indicam demonstraes
alternativas de resultados expostos. Finalmente, outros complementam o material
apresentado, sugerindo generalizaes.
Uma observao importante: o contedo deste texto ter uma continuidade
natural em um livro de introduo Anlise Funcional. Esse ltimo, escrito em
conjunto com Antnio Zumpano e Grey Ercole, encontra-se redigido e em processo
de reviso.
Fao alguns comentrios sobre os captulos da presente obra.
O Captulo 1 introduz espaos vetoriais e bases. Os espaos vetoriais so
considerados apenas sobre os corpos R ou C, o que coerente com a linha
geral do texto, que voltada para a rea de Anlise Matemtica. Geralmente,
os alunos que assistem ao curso, na UFMG, no possuem formao em lgebra.
Isso tornou necessria uma apresentao detalhada do espao quociente. Apesar
disso, bom salientar que o espao quociente usado apenas duas vezes: uma na
demonstrao do Teorema do Ncleo e da Imagem (que tambm possui uma prova
alternativa, sem o uso desse conceito) e outra na demonstrao da forma cannica
de Jordan (Seo 7.4), apenas como uma notao adequada. A utilizao do espao
quociente na prova do Teorema do Ncleo e da Imagem unifica conceitos: a mesma
demonstrao repete-se no estudo de outras estruturas algbricas. (Saliento que o
professor, se assim o desejar, pode no apresentar o espao quociente e substitu-lo
por meio do isomorfismo introduzido no Teorema 1.29.)
O Captulo 2 trata do espao dual e apresenta uma primeira verso do Teorema
de Representao de Riesz (para espaos de dimenso finita). Geralmente o dual
e o bidual so apresentados aps a introduo de espaos de aplicaes lineares,
como casos particulares desses. O texto inverte essa ordem para dar um segundo
exemplo de isomorfismo cannico entre espaos vetoriais (o primeiro dado no
Teorema 1.29). Entretanto, os alunos normalmente acham esse captulo muito
abstrato. O professor pode optar por no apresent-lo ou simplesmente protelar
sua apresentao.
O Captulo 3 comea por mostrar que a definio de multiplicao de matrizes
uma conseqncia natural da composio de aplicaes lineares. Nesse captulo
tambm so tratados outros tpicos fundamentais de um curso de lgebra Linear:
matrizes e representaes de aplicaes lineares, sistemas lineares, espao linha e

i
i

ALinear 2005/12/19 13:25 page vi #6


i

espao coluna, ncleo e imagem de uma aplicao linear etc. Grande nfase dada
s matrizes de mudana de base (a rigor, mudana de coordenadas), pois entendo
que o tratamento clssico por meio da matriz de passagem mais confunde do
que esclarece. Se o professor optar por evitar a introduo do espao quociente,
o Teorema do Ncleo e da Imagem pode, ainda assim, ser enunciado como um
teorema de isomorfismo, por meio da utilizao do Exerccio 16 do Captulo 3.
O Captulo 4 aborda a teoria de determinantes. Os textos de lgebra Linear
normalmente enfrentam um dilema ao trat-los: ou apresentam a "teoria completa"
de permutaes e do sinal de uma permutao, segundo mtodos que, stricto sensu,
fogem ao escopo da lgebra Linear, ou preferem introduzir brevemente esses
tpicos, remetendo aos textos de lgebra a demonstrao dos resultados utilizados.
Isso causa um certo desconforto, evidenciado na observao feita por Lang na seo
sobre permutaes da primeira edio de seu texto de lgebra Linear [19]: "Ao
leitor que for alrgico a argumentos combinatrios, aconselhamos assimilar apenas
o enunciado das propriedades e omitir as demonstraes." A apresentao escolhida
para determinantes supera esse dilema: a teoria de permutaes e do sinal de uma
permutao apresentada segundo mtodos da lgebra Linear, como conseqncia
do material exposto.
No Captulo 5 so introduzidos os autovalores e autovetores de um operador,
bem como o polinmio mnimo e o Teorema de Cayley-Hamilton, aqui demonstrado de um modo bastante simples. Tambm estudada a complexificao de um
espao vetorial.
Apesar de inclurem a apresentao do espao quociente e da complexificao
de um espao vetorial tpicos que, normalmente, no so vistos em um primeiro
curso de lgebra Linear , os Captulos 1-5 formam a parte bsica do curso.
O Captulo 6 introduz o clculo funcional. (Se o professor julgar que seus alunos
no possuem os conhecimentos necessrios para a leitura desse Captulo, ele pode
optar entre uma apresentao "operacional" do mesmo ou seguir algum dos roteiros
alternativos, que sero descritos posteriormente.) A Seo 6.3 relativamente
mais avanada, consideradas as noes de topologia empregadas para se mostrar
a "estabilidade" do mtodo que fundamenta o clculo funcional. Entretanto, essas
preocupaes no so essenciais, e o professor pode apenas mostrar o isomorfismo
de lgebras, sem preocupaes com a estabilidade do mtodo. A Seo 6.4
d exemplos do emprego do clculo funcional: o fluxo de uma matriz, funes
trigonomtricas etc.
O Captulo 7 apresenta a decomposio primria, a forma cannica de Jordan
e a decomposio racional. O clculo funcional mostra o Teorema da Imagem do

i
i

ALinear 2005/12/19 13:25 page vii #7


i

Espectro ("Spectral Mapping Theorem") e o Teorema da Decomposio Primria no


caso complexo denominado Teorema Espectral. (A demonstrao desse resultado
um pouco abstrata). A forma de Jordan demonstrada a partir do Teorema
Espectral 7.2. A construo muito simples e descrita minuciosamente por meio
de vrios exemplos. Minha experincia didtica mostra que esse trajeto prefervel
a uma abordagem direta da forma de Jordan, como aquela presente no Apndice
D. Em primeiro lugar, porque o Teorema Espectral suficiente para grande parte
das necessidades tericas da lgebra Linear; mas tambm porque o problema de se
obter uma base na qual um operador assume uma forma simples introduzido aos
poucos, dando tempo para o aluno maturar essa questo. A verso real do Teorema
Espectral isto , a decomposio primria e a forma de Jordan real so obtidas
estudando a complexificao de um espao real. Utilizando a forma cannica de
Jordan, obtemos, de maneira incomum, a decomposio racional.
Os Captulos 6 e 7 conjuntamente com os diversos Apndices com eles
relacionados apresentam o clculo funcional e as decomposies fundamentais
vlidas em espaos vetoriais arbitrrios.
O Captulo 8 introduz os espaos com produto interno. Mantenho a tradio
bourbakista de apresent-los apenas aps o estudo de espaos vetoriais gerais.
Acho que o professor deve ressaltar o aspecto geomtrico introduzido com o
produto interno. Por exemplo, o processo de ortogonalizao de Gram-Schmidt
pode ser justificado em casos bi- e tridimensionais. Mais do que isso, no caso de
espaos de dimenso n, uma representao decompondo-o em um eixo vertical e
seu complementar ortogonal adequada: muitas demonstraes podem ser, assim,
geometricamente justificadas. Em coerncia com o caminho voltado para a Anlise,
algumas propriedades da norma de uma matriz quadrada so apresentadas. Tambm
so estudadas as relaes entre o ncleo e a imagem de uma aplicao linear e de
sua adjunta, bem como algumas propriedades bsicas de isometrias.
O Captulo 9 apresenta formas quadrticas e a Lei da Inrcia. De certa forma, ele
constitui uma unidade com o Captulo 10, que trata das principais formas cannicas
em espao com produto interno: o Teorema Espectral para operadores normais, o
estudo de classes de operadores normais no caso de espaos reais e a decomposio
de um operador em valores singulares. Decidi dividir o material em dois captulos
para tornar claro que o Captulo 9 pode ser omitido, a critrio do instrutor.
Contudo, apresentar o Teorema de Lagrange e ento passar diagonalizao
de matrizes simtricas uma forma de unificar conceitos que usualmente so
tratados separadamente: formas bilineares simtricas e diagonalizao de matrizes
simtricas. No Captulo 10 tambm se demonstra que operadores auto-adjuntos so

i
i

ALinear 2005/12/19 13:25 page viii #8


i

diagonalizveis por meio de tcnicas de minimax.


Algumas sees do Captulo 11 que apresenta as decomposies matriciais
de Cholesky, Schur e QR, oferecem abordagem alternativa ou complementar a
resultados apresentados nos Captulos 8 e 10.
Agradecimentos. A lista de agradecimento enorme e comporta grande parte de
meus amigos. Para no correr o risco de esquecer alguns, destaco apenas aqueles
que estiveram mais diretamente envolvidos na redao deste livro.
Ana Cristina Vieira e Paulo Antnio Fonseca Machado adotaram, em cursos
que ministraram, a primeira verso deste trabalho (a adaptao do texto de Lax)
e contriburam com vrias sugestes e correes. O enfoque utilizado para a
apresentao de determinantes foi escolhido aps vrias discusses com Helder
Candido Rodrigues e P. A. F. Machado. A abordagem do clculo funcional
baseada num texto apresentado na I Bienal da Matemtica e muito deve a Carlos
Tomei, George Svetlichny, Eliana Farias Bueno e H. C. Rodrigues. A participao
de H. C. Rodrigues na redao da Seo 7.6 foi decisiva. No Apndice E segui
sugestes de Mrio Jorge Dias Carneiro.
O texto foi inteiramente revisto por Leopoldo Grajeda Fernandes, que contribuiu
com inmeras sugestes, abordando tanto o enfoque adotado quanto o estilo
de redao. Marcelo Domingues Marchesin e Carlos Henrique Costa Moreira
utilizaram o texto atual em seus cursos de lgebra Linear e sugeriram modificaes
pertinentes.
Agradeo tambm a vrios leitores e meus alunos, em especial a Leandro
Martins Cioletti, que apresentaram sugestes e crticas, todas elas bem-vindas.
Finalmente, C. Tomei responsvel por uma leitura minuciosa, sugestes
valiosas que procurei seguir de acordo com minha capacidade e inmeras
crticas, todas elas muito bem fundamentadas. A principal crtica feita por Tomei
diz respeito tradio brasileira de tratar a lgebra Linear (justamente uma das
reas mais aplicadas da matemtica) como uma disciplina quase que exclusivamente
terica. Esse texto no rompe com essa tradio, em parte devido ao propsito de
integr-lo a um texto de introduo Anlise Funcional, mas tambm por causa de
minha inexperincia em termos de aplicaes da lgebra Linear. Nesse sentido, a
crtica feita por Tomei s pode ser sanada por ele mesmo ou por outro matemtico
que realmente entenda do assunto...
A todos, o meu muito obrigado.
Belo Horizonte, dezembro de 2005

i
i

ALinear 2005/12/19 13:25 page ix #9


i

Sumrio
Prefcio

ix

Quadro de Dependncias

xv

1 Base e Dimenso
1.1 Espaos Vetoriais
1.2 Bases . . . . . .
1.3 Somas Diretas . .
1.4 Espao Quociente
1.5 Exerccios . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

1
. 1
. 3
. 6
. 8
. 10

2 Dualidade
15
2.1 O Espao Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3 Aplicaes Lineares
3.1 Aplicaes Lineares e Matrizes - parte 1
3.2 Multiplicao de Matrizes . . . . . . .
3.3 Espao Linha e Espao Coluna . . . . .
3.4 Resoluo de Sistemas Lineares . . . .
3.5 O Teorema do Ncleo e da Imagem . .
3.6 Aplicaes Lineares e Matrizes - parte 2
3.7 A Transposta de uma Aplicao Linear .
3.8 Exerccios . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

22
22
25
29
32
37
40
45
47

4 Determinantes
4.1 Determinantes de Matrizes 2 2 . . . . . . . . . . . . . . . . . . .
4.2 Funo Determinante . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Existncia de uma Funo Determinante . . . . . . . . . . . . . . .

55
55
57
60

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

ix
i

i
i

ALinear 2005/12/19 13:25 page x #10


i

4.4
4.5

4.6
4.7
4.8

Unicidade da Funo Determinante . . . . . . . . . . . . .


Propriedades do Determinante de uma Matriz . . . . . . .
4.5.1 O Determinante da Matriz Transposta . . . . . . .
4.5.2 O Determinante do Produto de Matrizes Quadradas
A Regra de Cramer . . . . . . . . . . . . . . . . . . . . .
Matrizes Semelhantes . . . . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . .

5 Operadores e Polinmios
5.1 Autovetores e Autovalores . . . . . . . .
5.2 Subespaos Invariantes . . . . . . . . . .
5.3 O Polinmio Mnimo . . . . . . . . . . .
5.4 O Teorema de Cayley-Hamilton . . . . .
5.5 A Complexificao de um Espao Vetorial
5.6 Um Homomorfismo de lgebras . . . . .
5.7 Exerccios . . . . . . . . . . . . . . . . .
6 O Clculo Funcional
6.1 O Polinmio Interpolador . . . . . . . . .
6.2 Funes de Matrizes . . . . . . . . . . .
6.3 Estendendo o Homomorfismo de lgebras
6.4 Aplicaes do Clculo Funcional . . . . .
6.4.1 O Fluxo . . . . . . . . . . . . . .
6.4.2 Funes Trigonomtricas . . . . .
6.4.3 Logaritmo . . . . . . . . . . . . .
6.4.4 Raiz Quadrada . . . . . . . . . .
6.4.5 A Inversa . . . . . . . . . . . . .
6.5 Exerccios . . . . . . . . . . . . . . . . .
7 Teoria Espectral
7.1 Imagem do Espectro . . .
7.2 O Teorema Espectral . . .
7.3 Decomposio Primria . .
7.4 Forma Cannica de Jordan
7.5 Forma de Jordan Real . . .
7.6 Decomposio Racional .
7.7 Exerccios . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

61
67
67
68
70
72
73

.
.
.
.
.
.
.

78
78
82
85
86
87
90
91

.
.
.
.
.
.
.
.
.
.

96
96
100
103
104
104
108
108
108
109
110

.
.
.
.
.
.
.

114
114
115
122
127
136
138
147

i
i

ALinear 2005/12/19 13:25 page xi #11


i

8 Estrutura Euclidiana
8.1 Produto Interno . . . . . . . . . . .
8.2 Norma . . . . . . . . . . . . . . . .
8.3 Bases Ortonormais . . . . . . . . .
8.4 Projees Ortogonais . . . . . . . .
8.5 A Adjunta de uma Aplicao Linear
8.6 Isometrias . . . . . . . . . . . . . .
8.7 Operadores Lineares . . . . . . . .
8.8 Norma de Matrizes . . . . . . . . .
8.9 Exerccios . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

9 Formas Sesquilineares e Quadrticas


9.1 Formas Sesquilineares e Bilineares . . .
9.2 Diagonalizao de Formas Quadrticas .
9.3 A Lei da Inrcia . . . . . . . . . . . . .
9.4 Exerccios . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

10 Teoria Espectral Euclidiana


10.1 Operadores auto-adjuntos . . . . . . . . . .
10.2 Princpios de Minimax para os Autovalores
10.3 Operadores Normais . . . . . . . . . . . .
10.4 Operadores Normais em Espaos Reais . .
10.5 Valores Singulares . . . . . . . . . . . . .
10.6 Exerccios . . . . . . . . . . . . . . . . . .
11 Decomposies Matriciais
11.1 A Decomposio de Cholesky
11.2 A Decomposio de Schur . .
11.3 A Decomposio QR . . . . .
11.4 Exerccios . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

152
152
153
156
158
162
168
171
173
176

.
.
.
.

186
186
190
194
196

.
.
.
.
.
.

201
201
206
208
212
216
222

.
.
.
.

227
227
229
230
234

Apndices
A Matrizes Elementares e a Decomposio LU
236
A.1 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
B Funes de Matrizes: Comparando Definies

242

i
i

ALinear 2005/12/19 13:25 page xii #12


i

C Decomposio Primria

246

D Forma Cannica de Jordan


252
D.1 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
E Sistemas de Equaes Diferenciais Lineares
264
E.1 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
F Espaos Normados
274
F.1 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
Lista de smbolos

280

Referncias Bibliogrficas

283

ndice Remissivo

287

i
i

ALinear 2005/12/19 13:25 page xiii #13


i

Quadro de Dependncias




Captulo 2

Captulo 1
?

-

Captulo 3

Apndice A

Captulo 4
?

Captulo 5
------------------------------------------------@
Apndice B
?

R
@
H
Y
H




*



Apndice E

Captulo 6

Apndice D

H
j
H

Apndice C
H
j
H

H
j
H

Seo 7.1 - Seo 7.2 - Seo 7.4  Seo 7.3





?
- Seo 7.6

Seo 7.5
------------------------------------------------?




Captulo 9

Captulo 8

-

Apndice F

-

Apndice A

Captulo 10
?

Captulo 11

xiii
i

i
i

ALinear 2005/12/19 13:25 page xiv #14


i

Outras opes de curso. O texto foi escrito de maneira a proporcionar uma grande
flexibilidade na escolha do material a ser lecionado.
O Apndice A opcional, mas pode ser apresentado simultaneamente ou logo
aps o Captulo 3. (Alguns resultados sobre matrizes elementares so utilizadas nos
exerccios do Captulo 4. A decomposio LU utilizada no Captulo 11.)
O Captulo 2 tambm opcional, bem como a Seo 3.7.
O Captulo 6 e as duas primeiras sees do Captulo 7 expem o clculo
funcional. O Captulo 6 relativamente simples (com exceo de parte de sua
ltima seo, que pode ser omitida) e pode ser apresentado com um ponto de
vista operacional. A ligao entre a apresentao tradicional clculo funcional
de matrizes simtricas e na forma cannica de Jordan com o Captulo 6 feita
no Apndice B, que no precisa ser exposto. O Apndice E apresenta resultados
bsicos sobre sistemas lineares de equaes diferenciais ordinrias e pode servir
como apoio para o estudo do fluxo linear, feito no Captulo 6.
Se o professor tiver dvidas com respeito "maturidade matemtica" de seus
alunos, talvez seja recomendvel omitir a Seo 7.2 e apresentar, ao invs opo
que no est presente no quadro de dependncias , o Apndice C ou o Apndice
D.
Mas, todo o clculo funcional pode no ser exposto. Nesse caso, h duas
possibilidades: a primeira consiste em substituir o Captulo 6 e as duas primeiras
sees do Captulo 7 pelo Apndice C e ento voltar ao texto principal no Exemplo
7.10.
A outra consiste em substituir o clculo funcional pelo Apndice D, o que
significa uma aprecivel economia de tempo. Nesse Apndice feita uma demonstrao bastante simples da forma cannica de Jordan, adaptando e complementando aquela presente em Strang [33]. (Os nicos pr-requisitos para essa
demonstrao so somas diretas de subespaos e o Teorema do Ncleo e da
Imagem.) Nesse caso, os resultados da Seo 7.2 sero obtidos como conseqncia
da forma de Jordan. (Apesar de a Seo 7.5 ter sido escrita enfatizando a repetio
de mtodos utilizados na Seo 7.3, o professor no ter dificuldades em apresentla.)
Seguindo a ordem natural do texto, a Seo 7.3 pode ser omitida; por esse
motivo, a ordem natural do Captulo 7 no quadro de dependncias foi alterada.
Tambm pode-se no apresentar a Seo 7.6, que trata da decomposio racional de
Frobenius.
A apresentao do Captulo 9 facultativa, uma vez que a passagem direta do
Captulo 8 para o Captulo 10 inteiramente natural.

i
i

ALinear 2005/12/19 13:25 page xv #15


i

xv

A Seo 10.2 pode ser omitida, j que apenas apresenta uma segunda demonstrao do Teorema Espectral para operadores auto-adjuntos.
O Captulo 11 pode no ser exposto ou ento ser apresentado simultaneamente
com resultados dos Captulos 8 e 10. Muitos dos resultados deste Captulo
so apenas uma formulao diferente de resultados anteriormente descritos. So
utilizados resultados apresentados no Apndice A.
O Apndice B opcional, mostrando que a apresentao feita de funes de
matrizes equivalente s definies usualmente utilizadas nos textos de lgebra
Linear.
A Seo 8.8 introduz a norma de uma matriz quadrada; o Apndice F mais
ambicioso, introduzindo a norma de uma aplicao linear. A escolha entre a Seo
8.8 ou o Apndice F fica a critrio do professor.
Finalmente, vrios resultados tm uma demonstrao alternativa exposta no
prprio texto. Pode-se optar entre essas alternativas ou apresentar ambas.

i
i

ALinear 2005/12/19 13:25 page xvi #16


i

i
i

ALinear 2005/12/19 13:25 page 1 #17


i

1
Base e Dimenso
Este Captulo apresenta algumas noes bsicas da lgebra Linear, introduz
somas diretas e define o espao quociente.

1.1

Espaos Vetoriais

O corpo R ou o corpo C sero denotados por K.


Definio 1.1 Um espao vetorial X sobre o corpo K um conjunto cujos
elementos (chamados vetores) podem ser somados e multiplicados por escalares,
isto , os elementos do corpo K. Se x, y, z X e , K, as seguintes
propriedades devem ser satisfeitas pela adio e multiplicao por escalar:
(i) x + y X (fechamento);
(ii) (x + y) + z = x + (y + z) (associatividade);
(iii) x + y = y + x (comutatividade);
(iv) existe 0 X tal que x + 0 = x (elemento neutro);
(v) existe (x) X tal que x + (x) = 0 (inverso aditivo);
(vi) x X (fechamento);
(vii) (x) = ()x (associatividade);
(viii) (x + y) = x + y (distributividade);
(ix) ( + )x = x + x (distributividade);

1
i

i
i

ALinear 2005/12/19 13:25 page 2 #18


i

Base e Dimenso

Cap. 1

(x) 1x = x (regra da unidade).


Denotaremos x + (y) simplesmente por x y (veja o Exerccio 1). A
importncia da condio (x) na definio de espao vetorial indicada no Exerccio
3.
Exemplo 1.2 O conjunto Kn = {(x1 , x2 , . . . , xn ) | xi K (i = 1, . . . , n)} com as
definies usuais de adio e multiplicao por escalar um espao vetorial.

Exemplo 1.3 O conjunto F de todas as funes {f : S K} definidas num
conjunto S 6= e com as operaes de adio e multiplicao por escalar
usualmente definidas um espao vetorial.

Exemplo 1.4 Tambm so espaos vetoriais o conjunto K[z] de todos os polinmios com coeficientes em K (na incgnita z) ou o subconjunto Kn [z] de todos
os polinmios de grau menor do que n (na incgnita z).

Definio 1.5 Um subconjunto Y de um espao vetorial X um subespao, se seus
elementos satisfizerem as propriedades que definem o espao vetorial X.
Exemplo 1.6 O subconjunto de Kn de todos os vetores cuja primeira coordenada
nula um subespao de Kn . Se S = R, os subconjunto de F (veja o Exemplo 1.3)
formado por todas as funes contnuas ou por todas as funes de perodo so
subespaos de F. O mesmo acontece com o subconjunto de K[z] formado pelos
polinmios de grau par.

Definio 1.7 Sejam X e Y espaos vetoriais sobre o corpo K. Uma aplicao
T :XY
satisfazendo
T (x + y) = T x + T y
para quaisquer x, y X e K chamada transformao linear ou aplicao
linear. Se X = Y , tambm chamamos T de operador linear ou simplesmente
operador. Se Y = K, uma aplicao linear denominada funcional linear.
Se T for uma bijeo, dizemos que T um isomorfismo e que os espaos X e
Y so isomorfos.
(No caso de aplicaes lineares, usual denotar T (x) por T x. Em algumas
situaes, especialmente para funcionais lineares, no se mantm tal notao.)
Observao 1.8 Note que, na definio de aplicao linear, estamos indicando as
operaes nos espaos vetoriais X e Y da mesma maneira: em T (x + y), a soma
x + y ocorre no espao X, enquanto ocorre em Y na expresso T x + T y .


i
i

ALinear 2005/12/19 13:25 page 3 #19


i

1.2

Bases

1.2

Bases

Definio 1.9 Seja S X um subconjunto qualquer de um espao vetorial X.


Uma combinao linear de elementos de S uma soma (finita)
1 x1 + . . . + k xk ,
com 1 , . . . , k K e x1 , . . . , xk S.
O conjunto S linearmente dependente, se existir um nmero finito de
elementos
x1 , . . . , xk S
e escalares 1 , . . . , k K, no todos nulos, tais que
1 x1 + . . . + k xk = 0.
Caso contrrio, o conjunto S linearmente independente.
O conjunto S gera o espao X se, para todo x X, existirem (finitos)
elementos x1 , . . . , xj S e escalares 1 , . . . , j K tais que x = 1 x1 +. . .+j xj .
Uma base de X um subconjunto ordenado B que linearmente independente
e gera X. Um espao vetorial X tem dimenso finita, se possuir uma base com
um nmero finito de elementos,1 ou se X = {0}. Caso contrrio, ele tem dimenso
infinita.
Lema 1.10 Suponhamos que S = {x1 , . . . , xn } gere o espao vetorial X e que
{y1 , . . . , yj } seja linearmente independente em X. Ento
j n.

Demonstrao: Suponhamos que j > n. Como S gera X, temos que


y1 = 1 x1 + . . . + n xn ,
sendo ao menos um dos escalares 1 , . . . , n diferente de zero (veja o Exerccio
10). Podemos supor 1 6= 0. Temos ento que {x2 , . . . , xn , y1 } gera X. De fato, se
x X, existem escalares
1 , . . . , n tais que x = 1 x1 + . . . + n xn . Mas, ento,

1
x = 1
(y1 2 x2 . . . n xn ) + 2 x2 + . . . + n xn ,
1
1

Diz-se tambm que o espao vetorial finitamente gerado.

i
i

ALinear 2005/12/19 13:25 page 4 #20


i

Base e Dimenso

Cap. 1

mostrando o afirmado.
De maneira anloga, y2 = 2 x2 + . . . + n xn + 1 y1 , com ao menos um dos
escalares 2 , . . . , n diferente de zero (veja o Exerccio 11). Supondo 2 6= 0,
verificamos ento que o conjunto {x3 , . . . , xn , y1 , y2 } gera o espao X. Repetindo
sucessivamente esse procedimento, obtemos que
{y1 , . . . , yn }
gera o espao X. Em particular,
yn+1 = 1 y1 + . . . + n yn .
Mas, ento,
1 y1 . . . n yn + 1yn+1 + 0yn+2 + . . . + 0yj = 0,
o que contradiz {y1 , . . . , yj } ser um conjunto linearmente independente.

Lema 1.11 Todo espao vetorial X 6= {0} gerado por um subconjunto S =


{x1 , . . . , xn } possui uma base.
Demonstrao: Se S for linearmente dependente, um de seus elementos pode ser
escrito como combinao linear dos elementos restantes. Retirando esse elemento,
o conjunto restante continua gerando X. Continuamos retirando elementos que
so combinao linear dos elementos restantes at obter um conjunto linearmente
independente que continua gerando X.
2
Note que o espao vetorial X = {0} no possui base.
Teorema 1.12 Todas as bases de um espao vetorial X de dimenso finita possuem
o mesmo nmero de elementos.
Demonstrao: Se B = {x1 , . . . , xn } e B = {y1 , . . . , yj } forem bases de X, o
Lema 1.10 aplicado ao conjunto linearmente independente B e ao conjunto gerador
B mostra que j n. Aplicando ento ao conjunto linearmente independente B e ao
conjunto gerador B , obtemos n j.
2

i
i

ALinear 2005/12/19 13:25 page 5 #21


i

1.2

Bases

Definio 1.13 Se B = {x1 , . . . , xn } for uma base do espao vetorial X, dizemos


que X tem dimenso n e escrevemos
dim X = n.
Se X = {0}, X tem dimenso finita igual a zero.
Teorema 1.14 Todo subconjunto linearmente independente S = {y1 , . . . , yj } de
um espao vetorial X de dimenso n 1 pode ser completado para formar uma
base de X.
Demonstrao: Se S no gerar X, ento existe um vetor x1 X que no
combinao linear dos elementos de S. O conjunto
{y1 , . . . , yj , x1 }
linearmente independente. Repetimos esse procedimento um nmero finito de
vezes, at obter uma base de X.
2
O Teorema 1.14 mostra-nos como obter diferentes bases para um espao vetorial
X 6= {0} de dimenso finita. Assim, X possui muitas bases.
Definio 1.15 Sejam X um espao vetorial e B = {x1 , . . . , xn } uma base de X.
Se x X, ento existem (nicos) escalares 1 , . . . , n K tais que
x = 1 x1 + . . . + n xn .
O vetor (1 , . . . , n ) Kn chamado representao de x na base B e 1 , . . . , n
as coordenadas de x na base B. Denotamos tambm por [x]B o vetor (1 , . . . , n ).
Definio 1.16 Seja ei Kn o vetor cuja i-sima coordenada igual a 1, as outras
sendo nulas. O conjunto E = {e1 , . . . , en } a base cannica do espao Kn .
Observao 1.17 Uma base de um espao vetorial um conjunto ordenado.
Assim, se B = {x1 , x2 , . . . , xn } for uma base do espao X, ento B =
{x2 , . . . , xn , x1 } outra base de X. O mesmo acontece se a base possuir um nmero
infinito de elementos.
A ordenao dos elementos da base permite dar sentido representao de um
vetor em uma base. Uma vez que (1 , . . . , n ) = 1 e1 + . . . + n en , vemos que a
escolha de uma base no espao X de dimenso n gera um isomorfismo entre X e Kn
(este espao considerado com a base cannica). A importncia desse isomorfismo
explorada no Exerccio 8.


i
i

ALinear 2005/12/19 13:25 page 6 #22


i

Base e Dimenso

Cap. 1

Observao 1.18 Tendo alcanado esse ponto, no deixa de ser interessante


comparar trs concepes do plano. A primeira concepo o plano como espao euclidiano, o espao da geometria clssica. Esse espao completamente
homogneo: se, de repente, um objeto fosse transportado para esse plano,
no haveria como localiz-lo. Todos os pontos so absolutamente iguais. A
segunda concepo o plano como espao vetorial. Nesse caso, existe um ponto
excepcional: a origem. Um objeto transportado para o plano apenas distinguiria
sua localizao como ocupando a origem ou no. A terceira concepo vem com a
introduo de coordenadas, e cria o plano da geometria analtica clssica. Aqui a
localizao de cada ponto muito bem determinada por suas coordenadas.
O isomorfismo entre um espao de dimenso finita n e o Kn introduz a
possibilidade de medirmos distncias ou mesmo ngulos. Essa possibilidade ser
estudada posteriormente, especialmente nos Captulos 8 e 10.


1.3

Somas Diretas

Definio 1.19 Sejam A, B subconjuntos de um espao vetorial X. Denotamos


por A + B o conjunto de todos os vetores x + y, com x A e y B.
Proposio 1.20 Sejam U, V subespaos de X. Ento U + V subespao de X.
O subespao U + V chamado soma dos subespaos U e V .
Demonstrao: Se z1 = x1 +y1 e z2 = x2 +y2 forem elementos de U +V e K,
ento claramente z1 + z2 U + V (veja o Exerccio 4).
2
Definio 1.21 Sejam U, V subespaos de X. O subespao W = U + V a soma
direta dos subespaos U e V se cada elemento de w W puder ser escrito de
maneira nica como
w = x + y.
Nesse caso denotamos W por W = U V . (Veja a Figura 1.1.)
A definio de soma direta pode ser generalizada para a soma de um nmero
finito de subespaos de X.
Proposio 1.22 O subespao W = U + V a soma direta dos subespaos U, V
de X se, e somente se, U V = {0}.

i
i

ALinear 2005/12/19 13:25 page 7 #23


i

1.3

Somas Diretas







v



















V 



(u, v) U V

Figura 1.1:
Se W = U V , um ponto w W escreve-se de maneira nica como w = u + v.

Demonstrao: Suponhamos que W = U V . Se z U V ento w = x + y


tambm pode ser escrito como w = (x + z) + (y z). Como a decomposio
w = x + y nica, devemos ter x = x + z e y = y z. Assim, z = 0 (veja o
Exerccio 2).
Reciprocamente, suponhamos que x1 + y1 e x2 + y2 sejam duas decomposies
de w W . Ento x1 x2 = y2 y1 pertencem simultaneamente a U e V . Logo
x1 x2 = 0 = y2 y1 , garantindo a unicidade da decomposio.
2
Teorema 1.23 Seja X um espao vetorial de dimenso finita. Ento vale:
(i) todo subespao Y de X possui dimenso finita;
(ii) todo subespao Y possui um complemento Z X, isto , existe um
subespao Z de X tal que
X = Y Z.
Demonstrao: Se Y = {0}, ento dim Y = 0. Caso contrrio, tome 0 6= y1 Y .
Se existir y2 Y linearmente independente com y1 , consideramos ento o conjunto
{y1 , y2 }. Se esse conjunto gerar Y , temos uma base. Se no, podemos acrescentar
y3 Y linearmente independente com y1 e y2 . Procedendo assim, obtemos
sucessivamente conjuntos linearmente independentes, cada um contendo o anterior.
De acordo com o Lema 1.10, esse processo s pode continuar enquanto esses
conjuntos tiverem menos elementos do que 1a dimenso de X. Obtemos assim uma
base {y1 , . . . , yj } para Y .
Aplicando ento o Teorema 1.14, essa base pode ser completada at obtermos
uma base {y1 , . . . , yj , x1 , . . . , xnj } para X. Defina Z como o espao de todas as

i
i

ALinear 2005/12/19 13:25 page 8 #24


i

Base e Dimenso

Cap. 1

combinaes lineares dos elementos x1 , . . . , xnj . Claramente Z um subespao


de X e Z Y = {0}. Logo, pela Proposio 1.22, temos X = Y Z.
2

1.4

Espao Quociente

Definio 1.24 Seja Y um subespao de X. Se x1 , x2 X, dizemos que x1


congruente a x2 mdulo Y , escrito
x1 x2

mod Y,

se x1 x2 Y .
Podemos dividir o espao X em diferentes classes de equivalncia mdulo Y
(veja o Exerccio 30). Denotaremos a classe contendo o elemento x por [x].
Definio 1.25 Se [x] e [z] forem classes de equivalncia mdulo Y e K,
definimos
[x] + [z] = [x + z], [x] = [x].
Com essas operaes, o conjunto de todas as classes de equivalncia mdulo Y
torna-se um espao vetorial, denotado por
X
Y

ou X/Y

e denominado espao quociente de X por Y .


A classe de equivalncia [x] muitas vezes representada por x + Y .
A rigor, precisamos mostrar que as operaes em X/Y esto bem definidas,
isto , independem dos representantes de cada classe de equivalncia. Portanto,
suponhamos que x1 [x] e z1 [z]. Ento x1 = x + y1 e z1 = z + y2 , com
y1 , y2 Y . Mas, ento, x1 + z1 = x + y1 + z + y2 = x + z + (y1 + y2 ) e, assim,
x1 + z1 x + z mod Y . Do mesmo modo, x1 = x + (y1 ) e x1 x
mod Y .
Exemplo 1.26 Seja X um espao vetorial qualquer. Se Y = X, ento X/Y =
{[0]}, pois x 0 mod Y para todo x X. Por outro lado, se Y = {0}, ento
X/Y = X, pois x y mod Y implica que x = y.


i
i

ALinear 2005/12/19 13:25 page 9 #25


i

1.4

Espao Quociente

Exemplo 1.27 Seja Y R2 o subespao definido por Y = {(x, y) | y = 2x}.


(Em outras palavras, Y a reta de equao y = 2x). Na Figura 1.2, os vetores
w1 , . . . , w5 pertencem todos mesma classe. Assim, o vetor [w1 ] + Y R2 /Y
uma reta paralela reta y = 2x. O espao quociente R2 /Y formado por todas as
retas paralelas reta y = 2x.
y6

w5


  [w]+Y

w4


w3  



6

w
Y


2

 
I
w1X
 @
y
X

@

XX
X@
X

x









Figura 1.2:
O subespao Y a reta y = 2x. Os vetores w1 , . . . , w5 pertencem todos mesma classe.
O espao R2 /Y formado por todas as retas paralelas reta y = 2x.

Sem dificuldades, podemos estender a interpretao geomtrica aqui apresentada ao caso geral.

Exemplo 1.28 Seja x Kn e considere Y o subespao de todos os vetores cujas
duas primeiras coordenadas so nulas. Ento dois vetores so congruentes mdulo
Y se, e somente se, suas duas primeiras coordenadas forem iguais. Isto ,
(x1 , x2 , x3 , . . . , xn ) (y1 , y2 , y3 , . . . , yn ) mod Y

x1 = y1 e x2 = y2 .

A classe de equivalncia de x Kn pode ser vista como um vetor com duas


componentes, dadas pela primeira e segunda coordenadas de x.

Teorema 1.29 Consideremos a decomposio
X = Y Z.

i
i

ALinear 2005/12/19 13:25 page 10 #26


i

10

Base e Dimenso

Cap. 1

Ento a aplicao Q : Z X/Y definida por Q(z) = [z] um isomorfismo


cannico. (Um isomorfismo cannico, se ele independer de escolhas de bases nos
espaos envolvidos).
Assim, se X tiver dimenso finita e {z1 , . . . , zj } for uma base de Z, ento
{[z1 ], . . . , [zj ]} uma base de X/Y . Portanto,
dim X/Y = dim Z = dim X dim Y.
Demonstrao: Definimos Q : Z X X/Y por Q(z) = [z]. A aplicao Q
claramente linear.
Cada classe [x] X/Y tem como representante um elemento x X. Mas,
existe uma nica decomposio x = y + z, com y Y e z Z. Assim,
[x] = [y + z] = [z], mostrando que Q sobrejetor.
Suponhamos que [z1 ] = [z2 ]. Ento z1 = z2 + y, com y Y . Mas, isso implica
que z1 z2 = y Y . Como z1 z2 Z, conclumos que z1 z2 = 0, completando
a demonstrao.
2

1.5

Exerccios

1. Se x for o inverso aditivo de x X, mostre que x = (1)x.


2. Mostre que o elemento neutro aditivo de um espao vetorial nico. Mostre
que 0x = 0 para todo x X e 0 = 0 para todo K, sendo 0 X o
elemento neutro aditivo.
3. Seja X = {(x1 , . . . , xn ) | xi K}. Defina a soma x + y da maneira usual e
x = 0 para todo K e x X. Verifique quais propriedades da definio
de espao vetorial so satisfeitas.
4. Mostre que Y X um subespao se, e somente se, x + y Y para
quaisquer x, y Y e K.
5. Se X for um espao vetorial, mostre que os conjuntos X e {0} (que
consiste apenas do elemento neutro aditivo) so subespaos de X, chamados
subespaos triviais.
6. Seja S 6= . Generalize o Exemplo 1.3 e mostre que {f : S Kn } um
espao vetorial.

i
i

ALinear 2005/12/19 13:25 page 11 #27


i

1.5

11

Exerccios

7. Seja V Kn o conjunto de todas as n-uplas da forma (0, 0, x3 , . . . , xn ).


Mostre que V um subespao de Kn .
8. Seja U = {(x, y) R2 | x > 0, y > 0}. Se z1 = (x1 , y1 ) e z2 = (x2 , y2 )
forem elementos de U e R, defina
z1 + z2 = (x1 x2 , y1 y2 ),

z1 = (x1 , y1 ).

(a) Mostre que U um espao vetorial com elemento neutro aditivo (1, 1);
(b) mostre que, se v1 = (e, 1) e v2 = (1, e), ento B = {v1 , v2 } uma base
de U (estamos denotando por e a base dos logaritmos naturais).
(c) Defina T : U R2 por T (z) = [z]B , em que [z]B a representao de
z na base B. Mostre que T um isomorfismo.
9. Seja S X um subconjunto arbitrrio do espao vetorial X. Mostre
que o conjunto de todas as combinaes lineares dos elementos de S
um subespao de X, chamado (sub)espao gerado por S e denotado por
< S >. Mostre que, se Y X for um subespao tal que S Y ,
ento < S > Y . (Esse exerccio generaliza o procedimento usado na
demonstrao do Teorema 1.23).
10. Se S X for linearmente independente, mostre que 0 6 S. Mostre que,
se um conjunto possuir um subconjunto linearmente dependente, ento esse
conjunto linearmente dependente.
11. Qual a razo, na demonstrao do Lema 1.10, de substituirmos sempre
um dos elementos xj , . . . , xn do conjunto {xj , . . . , xn , y1 , . . . , yj1 } pelo
elemento yj ? Porque no podemos substituir yj por um dos elementos
y1 , . . . , yj1 ?
12. Seja S = {1, z, z 2 , . . . , z n , . . .}. Mostre que S uma base de K[z].
13. Seja T : X Y uma aplicao linear e defina ker T := {v X | T v = 0}.
Mostre que T injetora se, e somente se, ker T = {0}.
14. Exiba um isomorfismo entre Kn e Kn [z].
15. Defina K como o espao de todas as seqncias (z1 , . . . , zn , . . .) com a
soma e multiplicao por escalar definidas de maneira natural. Mostre que
K um espao vetorial. Considere seu subespao K
0 , formado por todas

i
i

ALinear 2005/12/19 13:25 page 12 #28


i

12

Base e Dimenso

Cap. 1

as seqncias satisfazendo zi = 0, exceto para um nmero finito de ndices.


Mostre que K
0 isomorfo ao espao K[t].
16. Sejam T : X Y e S : Y Z aplicaes lineares. Mostre que a composta
S T = ST uma aplicao linear.
17. Seja T : X Y um isomorfismo entre os espaos X e Y . Mostre que a
inversa T 1 : Y X linear.
18. Mostre que todo espao vetorial de dimenso n sobre o corpo K isomorfo
a Kn . Esse isomorfismo nico? Conclua que quaisquer dois espaos de
dimenso n sobre o mesmo corpo K so sempre isomorfos. Os espaos Rn e
Cn so isomorfos?
19. Sejam X, Y espaos vetoriais de dimenso finita sobre o corpo K. Mostre
que, se T : X Y for um isomorfismo, ento a imagem por T de toda base
de X uma base de Y . Em particular, dim X = dim Y .
20. Seja B = {x1 , . . . , xn } uma base de X e Y um espao vetorial. Escolha
arbitrariamente y1 , . . . , yn Y . Mostre que existe uma nica aplicao
linear T : X Y tal que T (xi ) = yi para i = 1, . . . , n. Conclua que,
se {y1 , . . . , yn } for uma base de Y , ento T um isomorfismo.
21. Mostre que S uma base de X se, e somente se, todo elemento x X puder
ser escrito de maneira nica como combinao linear dos elementos de S.
22. Seja X um espao vetorial de dimenso n. Se S = {y1 , . . . , yn } X for um
conjunto linearmente independente, mostre que S uma base de X.
23. Sejam X um espao vetorial de dimenso n e S = {y1 , . . . , yn } um conjunto
que gera X. Mostre que S uma base de X.
24. Seja X um espao vetorial e S = {x1 , . . . , xk } um subconjunto linearmente
dependentes formado por vetores no-nulos do espao X. Mostre que um
deles combinao linear dos vetores precedentes.
25. Seja X um espao de dimenso n e V1 Vk uma soma direta de
subespaos de X. Mostre que dim(V1 Vk ) = dim V1 +. . .+dim Vk n.
26. Sejam X um espao de dimenso finita e U, V subespaos de X. Mostre que
dim(U + V ) = dim U + dim V dim(U V ).

i
i

ALinear 2005/12/19 13:25 page 13 #29


i

1.5

13

Exerccios

27. Denotaremos por Mnn (K) o conjunto das matrizes n n com entradas
no corpo K. Defina o conjunto das matrizes simtricas S = {A
Mnn (K) | At = A}, em que At denota a transposta da matriz A (veja
3.12 para a definio da transposta de uma matriz); defina o conjunto das
matrizes anti-simtricas A = {A Mnn (K) | At = A}. Mostre que
Mnn (K) = S A.
28. Mostre que U V um subespao de X, se U e V forem subespaos de X.
O subespao U V a interseo dos subespaos U e V .
29. Seja X um espao vetorial e W1 , W2 subespaos. Mostre que, se X =
W1 W2 , ento X = Wi para pelo menos algum i {1, 2}.
30. Seja uma relao de equivalncia2 num conjunto A. Dado x A, denote
cl(x) := {y A | y x}
a classe de equivalncia do elemento x. Mostre que A pode ser escrito como
uma unio disjunta de suas classes de equivalncia.
31. Mostre que a congruncia mdulo Y uma relao de equivalncia.
32. Seja Y um subespao de X com dim Y = dim X. Mostre que Y = X.
33. Seja W R3 o subespao (verifique!) formado por todas as solues da
equao linear homognea 2x + 3y + 4z = 0. Descreva as classes de
equivalncia da congruncia mdulo W .
34. Sejam X um espao vetorial e M, N subespaos. D exemplo desses espaos,
de modo que
(a) nem M , nem X/M tenha dimenso finita;
(b) X/M tenha dimenso finita, mas X/N no tenha.
35. Seja T : X X um operador linear e W um subespao invariante por T ,
isto , T (W ) W . Considere a aplicao T : X X/W definida por
T(x) = [T x]. Mostre que T linear e que, se q K[z] satisfizer q(T ) = 0,
ento q(T) = 0.
2

Quer dizer, se x, y, z A, ento: (i) x x; (ii) se x y, ento y x; (iii) se x y e y z,


ento x z.

i
i

ALinear 2005/12/19 13:25 page 14 #30


i

14

Base e Dimenso

Cap. 1

36. Seja W X um subespao e Q : X X/W a aplicao quociente definida


por Q(x) = [x]. Seja Y X outro subespao de X. Mostre que X = W Y
se, e somente se, a restrio Q|Y : Y X/W for um isomorfismo.
37. A soma direta de espaos vetoriais X1 , X2 o conjunto X1 X2 de todos os
pares (x1 , x2 ) com x1 X1 e x2 X2 . Definindo adio e multiplicao por
escalar coordenada a coordenada, mostre que X1 X2 um espao vetorial.
Se X1 e X2 tiverem dimenso finita, ento dim(X1 X2 ) = dim X1 +dim X2 .
38. Seja Y um subespao de X. Mostre que X isomorfo a Y X/Y .

i
i

ALinear 2005/12/19 13:25 page 15 #31


i

2
Dualidade
Este Captulo apresenta uma primeira verso do Teorema de Representao de
Riesz e tambm do isomorfismo cannico entre o espao X e o bidual X . Ele pode
ser suprimido numa primeira leitura ou a critrio do instrutor.

2.1

O Espao Dual

Existem muitas maneiras de produzir espaos vetoriais a partir de espaos ou


subespaos conhecidos. Por exemplo, se M for um subespao de X, ento X/M
um novo espao vetorial. Ou, dados os espaos vetoriais X e Y , podemos
considerar o espao X Y , apresentado no Exerccio 37 do Captulo 1.
Apresentaremos agora uma forma importante de obter um novo espao vetorial,
partindo do espao X:
Definio 2.1 Se X for um espao vetorial sobre K, consideremos o conjunto
X = { : X K | linear}.
De maneira natural vemos que X tem uma estrutura de espao vetorial, se
definirmos, para , m X e K,
( + m)(x) = (x) + m(x),

()(x) = (x).

Com essas operaes, X = { : X K | linear} denota o espao dual1 de X.


Os elementos de X so chamados de funcionais lineares.
1

Tambm chamado espao dual algbrico do espao X, em contraposio ao espao dual


topolgico definido em textos de Anlise Funcional. Em espaos de dimenso finita as definies
coincidem.

15
i

i
i

ALinear 2005/12/19 13:25 page 16 #32


i

16

Dualidade

Cap. 2

R1
Exemplo 2.2 Seja X = {f : [0, 1] R | f contnua}. Defina (f ) = 0 f (s)ds
e, para s0 [0, 1] fixo, m(f ) = f (s0 ). fcil verificar que X e m X .

Exemplo 2.3 Defina 1 : Kn K por 1 (x1 , . . . , xn ) = x1 . Ento 1 (Kn ) . 
Seja {x1 , . . . , xn } uma base do espao vetorial X. Ento, para todo x X, existem
escalares 1 (x), . . . , n (x) tais que
x = 1 (x)x1 + . . . + n (x)xn .
Os escalares i (x) so justamente as coordenadas de x na base {x1 , . . . , xn }.
(Quer dizer, se x = 1 x1 + . . . + n xn , i (x) denota i .)
Teorema 2.4 Seja B = {x1 , . . . , xn } uma base de X e
x = 1 (x)x1 + . . . + n (x)xn .
Ento, se ij denotar 0, se i 6= j, e 1, se i = j, temos:
(i) i : X K um funcional linear e i (xj ) = ij , para i, j {1, . . . , n};
(ii) o conjunto {1 , . . . , n } uma base de X , chamada de base dual da base B;
(iii) se m X , ento
m(x) = 1 (x)m(x1 ) + . . . + n (x)m(xn ).
(iv) para todo 0 6= x X, existe m X tal que m(x) 6= 0.
Demonstrao: (i) Suponhamos que x = 1 x1 +. . .+n xn e y = 1 x1 +. . .+n xn
(quer dizer, i (x) = i e i (y) = i ). Ento x + y = (1 + 1 )x1 + . . . + (n +
n )xn e, portanto, i (x + y) = i + i = i (x) + i (y).
(ii) Suponhamos que 1 1 + . . . + n n = 0 X . Avaliando esse funcional
sucessivamente nos vetores x1 , . . . , xn , conclumos que 1 = . . . = n = 0. Seja
agora m X . Ento
m(x) = m(1 x1 + . . . + n xn ) = 1 m(x1 ) + . . . + n m(xn )
= 1 (x)m(x1 ) + . . . + n (x)m(xn ),
provando no apenas que 1 , . . . , n geram X , mas tambm a afirmao (iii).
(iv) Se 0 6= x, ento alguma coordenada i (x) na expresso x = 1 (x)x1 + . . . +
n (x)xn no nula. Considere m = i .
2

i
i

ALinear 2005/12/19 13:25 page 17 #33


i

2.1

17

O Espao Dual

Observao 2.5 A parte (iii) do Teorema 2.4 uma verso do Teorema de


Representao de Riesz; veja o Teorema 8.22.

Uma vez que X um espao vetorial de dimenso n, esse espao tem o seu
dual, que ser denotado por X e chamado de bidual de X. O teorema anterior
garante ento que dim X = n, pois j vimos que dim X = n.
Note que X , por definio, o espao vetorial de aplicaes lineares
X = {L : X K | L linear}.
Quer dizer, L uma transformao linear que associa, a cada funcional linear
: X K, o nmero L() K. Os elementos de X so, aparentemente,
complicados. Mostraremos que as aplicaes lineares em X esto canonicamente
associadas aos vetores do espao X. Quer dizer, existe um isomorfismo entre X
e X que independe da utilizao de qualquer base nesses espaos vetoriais. (A
existncia de um isomorfismo entre esses espaos trivial: veja o Exerccio 18 do
Captulo 1.)
Lema 2.6 Para cada x X fixo, considere a aplicao Lx : X K definida por
Lx () = (x).
Quer dizer, Lx associa a cada funcional linear X o valor que assume no
ponto x. Ento Lx X .
Demonstrao: Suponhamos que , m X . Ento, se K,
Lx ( + m) = ( + m)(x) = (x) + m(x) = Lx () + Lx (m).
(Compare essa demonstrao com o Exemplo 2.2.)

Teorema 2.7 Os espaos X e X so canonicamente isomorfos. Mais precisamente, todo elemento do espao X da forma Lx , para algum x X.
Demonstrao: Apesar de ser constituda de etapas bastante simples, a idia da
demonstrao relativamente elaborada. Definimos = {Lx | x X}. Quer dizer,
os elementos de so as aplicaes lineares definidas no lema anterior. Vamos
mostrar, em primeiro lugar, que um subespao de X . Depois, mostraremos
que X isomorfo a . Assim, dim = n = dim X . Isso quer dizer que = X .

i
i

ALinear 2005/12/19 13:25 page 18 #34


i

18

Dualidade

Cap. 2

Sejam Lx , Ly e K. Consideremos Lx + Ly . Queremos mostrar que


essa aplicao linear um elemento de , isto , Lx + Ly = Lz para algum z X.
Temos, para X ,
(Lx + Ly )() = Lx () + Ly () = (x) + (y) = (x + y) = Lx+y ().
Isso mostra que um subespao de X . Agora definimos:
T : X
x 7 Lx .
Vamos mostrar que T um isomorfismo entre X e . Temos que
T (x + y) = Lx+y = Lx + Ly = T (x) + T (y),
de acordo com o que mostramos na primeira parte. A aplicao T sobrejetora
por definio. A injetividade tambm clara: se T (x) = T (y), ento Lx = Ly e,
portanto, Lx () = Ly () para todo X . Mas, ento, (x) = (y) e (x y) = 0
para todo X . Mas, isto implica que x y = 0, de acordo com o Teorema 2.4,
(iv). Isto mostra a injetividade e completa a demonstrao.
2
Conclumos este captulo com a seguinte aplicao dada por Lax [20], surpreendente primeira vista:
Teorema 2.8 Sejam t1 , . . . , tn pontos distintos do intervalo I.
constantes 1 , . . . , n tais que
Z
p(t)dt = 1 p(t1 ) + . . . + n p(tn )

Ento existem

para todo polinmio p de grau menor do que n.


Demonstrao: O espao Kn [t] de todos os polinmios p(t) = a0 + a1 t + . . . +
an1 tn1 de grau menor do que n isomorfo a Kn e, portanto, tem dimenso n.
Definimos j (p) = p(tj ). Ento j (Kn [t]) . Afirmamos que {1 , . . . , n }
linearmente independente. De fato, suponhamos que
1 1 + . . . + n n = 0 (Kn [t]) .
Isso implica que
1 p(t1 ) + . . . + n p(tn ) = 0,

p Kn [t].

(2.1)

i
i

ALinear 2005/12/19 13:25 page 19 #35


i

2.2

19

Exerccios

Considere os polinmios
q1 (t) = (tt2) (ttn), q2 (t) = (tt1)(tt3) (ttn),. . ., qn (t) = (tt1). . .(ttn1).
Cada polinmio qi possui exatamente n 1 razes nos pontos tj , com j 6= i.
Substituindo sucessivamente os polinmios qi na relao (2.1), obtemos i q(ti ) =
0, o que implica i = 0. Isso mostra que {1 , . . . , n } linearmente independente
em (Kn [t]) e, portanto, uma base desse espao.
Assim, todo funcional linear : Kn [t] R uma combinao linear dos
funcionais 1 , . . . , n e, portanto,
= 1 1 + . . . + n n
para escalares 1 , . . . , n K. O resultado segue-se da ao considerarmos o
funcional linear
Z
p 7 p(t)dt.
2
I

2.2

Exerccios

1. Considere a base B := {v1 , v2 } do R2 , em que v1 = (2, 1) e v2 = (3, 1). Ache


a base dual de B.
2. Seja Rn [t] o espao de todos os polinmios (com coeficientes em R) de
grau menor do que n (na incgnita t). Mostre que as seguintes aplicaes
pertencem ao dual de Rn [t]:
(a) i (p(t)) = ai para todo i = 0, 1, . . . , n 1, se p(t) Rn [t] for dado por
p(t) = a0 + a1 t + . . . + an1 tn1 ;
R1
(b) J(p(t)) = 0 p(t)dt, para todo p(t) Rn [t].

3. Considere o espao R2 [t],


R 1 como antes. Sejam 1 R: 2R2 [t] R e 2 : R2 [t] R
dadas por 1 (p(t)) = 0 p(t)dt e 2 (p(t)) = 0 p(t)dt. Mostre que B =
{1 , 2 } uma base de (R2 [t]) . Ache a base {v1 , v2 } de R2 [t] da qual B
dual.
4. Considere a demonstrao do Teorema 2.7. Se X tiver dimenso infinita, o
que podemos concluir?

i
i

ALinear 2005/12/19 13:25 page 20 #36


i

20

Dualidade

Cap. 2

5. Sejam X um espao vetorial arbitrrio e f : X K um funcional linear


no-nulo.
(a) Mostre que ker f tem codimenso 1, isto , existe w X tal que
X = ker f < w > .
(< w > denota o espao gerado por w X).

(b) Se g : X K for outro funcional linear, ento g um mltiplo escalar


de f se, e somente se, o ncleo de g contiver o ncleo de f .
(c) Sejam , f1 , . . . , fr funcionais lineares no espao X. Mostre que
combinao linear de f1 , . . . , fr se, e somente se, ker f1 ker fr
ker .
6. Sejam X um espao vetorial e S X um subconjunto arbitrrio. O anulador
de S o conjunto S 0 = {f X | f (s) = 0 s S}. Mostre que S 0
subespao de X .
7. Seja Y X um subespao do espao vetorial de dimenso finita X. Mostre
que dim X = dim Y + dim Y 0 . Identificando X e X (de acordo com o
Teorema 2.7), mostre que Y 00 := (Y 0 )0 = Y .
8. Seja S = {(2, 2, 3, 4, 1), (1, 1, 2, 5, 2), (0, 0, 1, 2, 3), (1, 1, 2, 3, 0)}
um subconjunto do R5 . Obtenha o anulador de < S >.
9. Seja W X um subespao e f : W K linear. Mostre que existe um
funcional linear : X K que estende f , isto , (w) = f (w) para todo
w W.
10. Seja T : X Y uma aplicao linear. A aplicao T induz uma aplicao
linear T : Y X da seguinte maneira: para cada funcional : Y K,
definimos
T : Y X por T () = T = T.
T
X

@
R
@
-

i
i

ALinear 2005/12/19 13:25 page 21 #37


i

2.2

Exerccios

21

(A aplicao T a transposta de T . Alguns autores a chamam de adjunta de


T , mas ela no coincide com a aplicao adjunta que ser definida no Captulo
8.)
(a) Mostre que T uma aplicao linear;
(b) se S, T : X Y forem aplicaes lineares, mostre que (S + T ) =
S + T ;
(c) se S : X Y e T : Y Z forem aplicaes lineares, mostre que
(ST ) = T S ;
(d) se T : X Y tiver inversa, mostre que (T 1 ) = (T )1 ;

(e) se X e Y tiverem dimenso finita, identificando X com X e Y com


Y , mostre que T := (T ) ento identificado com T ;

(f ) se X e Y tiverem dimenso finita, qual a relao entre os ncleos e


imagens de T e T ? (Observao: o ncleo e a imagem de uma aplicao
linear esto definidos em 3.10.)
11. Seja X um espao de dimenso finita, com X = M N . Considere a
projeo : X M definida por (x) = m, se x = m + n. Obtenha
.

i
i

ALinear 2005/12/19 13:25 page 22 #38


i

3
Aplicaes Lineares
Este Captulo introduz aplicaes lineares e suas representaes matriciais, os
espaos linha e coluna de uma matriz, demonstra o Teorema do Ncleo e da Imagem
e estuda detalhadamente a relao entre diferentes representaes matriciais de um
mesmo operador.

3.1

Aplicaes Lineares e Matrizes - parte 1

Sejam X e Y espaos vetoriais sobre o mesmo corpo K. Como sabemos, uma


aplicao linear (ou transformao linear) uma aplicao T : X Y tal que
T (x + y) = T x + T y,

x, y X e K.

Exemplo 3.1 Se K[z] for o espao vetorial de polinmios (com coeficientes em


K, na incgnita z), T : K[z] K[z] definida
por T (p) = p (derivao) uma
R
transformao linear, bem como S(p) = p (integrao; na famlia de primitivas
escolhemos sempre a constante de integrao como nula). Se X = Y = R2 ,
definimos a rotao R : R2 R2 como a aplicao que roda em torno da origem
por um ngulo 0 < < 2 um ponto do R2 \ {0}, no sentido anti-horrio, e
R(0) = 0. (Veja a Figura 3.1.) claro que o nico ponto fixo por R a origem. 
Exemplo 3.2 Sejam X = Kn , Y = Km e aij K, para j = 1, . . . , n e
i = 1, . . . , m. Se x = (x1 , . . . , xn ) Kn e y = (y1 , . . . , ym ) Kn , definimos
y = T x por
n
X
yi =
aij xj , i = 1, . . . , m.
(3.1)
j=1

22
i

i
i

ALinear 2005/12/19 13:25 page 23 #39


i

3.1

23

Aplicaes Lineares e Matrizes - parte 1

y6
H
Y
*a+b

K HH R(a)
A
 
A
H
b 

A
AK


A
A


YH A  
H
*a
R(b) HHA
 

R(a + b)

Figura 3.1:
A linearidade de R geometricamente clara.

Afirmamos que T linear. De fato, se w = (w1 , . . . , wn ) Kn e K, temos


(T (x + w))i =

n
X

aij (xj + wj ) =

j=1

n
X

aij xj +

j=1

n
X

aij wj = (T x)i + (T w)i .

j=1

(Escolha i {1, . . . , m} e escreva explicitamente a soma efetuada.)

Teorema 3.3 Toda aplicao linear T : Kn Km da forma (3.1).


Demonstrao: Consideremos a base cannica {e1 , . . . , en } do Kn . Temos, ento,
n
X
que x = x1 e1 + . . . + xn en =
xj ej . Como T linear,
j=1

y = Tx = T

n
X

xj ej

j=1

n
X

xj T (ej ).

j=1

Denotemos a i-sima coordenada do vetor T (ej ) por aij , isto , aij = (T (ej ))i .
Assim, a i-sima coordenada de y
yi =

n
X

xj aij ,

j=1

como queramos provar.

Observao 3.4 Note que, para provarmos o Teorema 3.3, fizemos uso explcito da
base cannica do Rn . Ao denotar aij = (T (ej ))i , estamos fazendo uso implcito da
base cannica do Rm .


i
i

ALinear 2005/12/19 13:25 page 24 #40


i

24

Aplicaes Lineares

Cap. 3

conveniente representar os coeficientes (aij ) da expresso (3.1) como um


arranjo retangular:

a11 a12 a1n


a21 a22 a2n

A = ..
.. ;
..
.
.
.
.
.
.
am1 am2 amn

denominamos tal arranjo matriz m n, m sendo o nmero de linhas e n o nmero


de colunas. O elemento aij a entrada correspondente linha i e coluna j. Se
m = n, dizemos que a matriz A quadrada. Uma submatriz de A uma matriz
obtida de A ao se omitir algumas de suas linhas e/ou colunas.
O Exemplo 3.2 e o Teorema 3.3 mostram que existe uma correspondncia
bijetiva entre o conjunto de matrizes m n e o espao das aplicaes lineares
de Kn para o Km . Denotaremos o elemento aij da matriz A, chamada matriz que
representa T (com relao s bases cannicas do Kn e Km ) por
Tij = aij = (T (ej ))i .

Exemplo 3.5 Seja R : R2 R2 a rotao apresentada no Exemplo 3.1.


Escolhendo a base cannica E = {e1 , e2 }, encontramos a matriz A que representa
R (com relao base cannica do R2 no domnio e na imagem). O nosso ponto de
partida, para isso, consiste na expresso (3.1). Para j = 1, 2, considerando o vetor
x = ej , vemos que o lado direito de (3.1) produz a j-sima coluna da matriz (aij ).
Assim, se Re1 = P , o ponto P tem coordenadas (cos , sen ), de acordo com a
prpria definio das funes seno e cosseno. Do mesmo modo, se Re2 = Q, as
coordenadas de Q so (cos( + /2), sen ( + /2)) = (sen , cos ). Logo, a
representao de R na base E a matriz de rotao


cos sen
.
A=
sen
cos

Observao 3.6 Comparando os Exemplos 3.1 e 3.5, notamos que o primeiro
independe da escolha de uma base nos espaos considerados. Por outro lado, ao
expressar R como uma matriz, o segundo faz uso de bases nos espaos Rn e Rm .
Em certo sentido, no caso de aplicaes lineares entre espaos de dimenso
finita, essa a diferena entre aplicaes lineares e matrizes: a definio de uma
aplicao linear independe da escolha de bases nos espaos envolvidos. A matriz
que representa uma aplicao linear entre os espaos Kn e Km , por sua vez, faz uso
da representao dos vetores x e T x em bases dos respectivos espaos.


i
i

ALinear 2005/12/19 13:25 page 25 #41


i

3.2

25

Multiplicao de Matrizes

Definio 3.7 Sejam T , S aplicaes lineares de X para Y . Definimos


(T + S)(x) = T x + Sx,

(T )(x) = T x.

Com essas operaes, o conjunto de todas as aplicaes lineares T : X Y um


espao vetorial (algbrico1 ), denotado por L(X, Y ).
(Se voc tiver lido o Captulo 2, compare a definio anterior com a definio do
espao dual.)
Verifique que L(X, Y ) um espao vetorial!
Lema 3.8 Sejam S, T : Kn Km . Ento (S + T )ij = Sij + Tij e (T )ij = Tij .
Em outras palavras, esto assim definidas a soma de duas matrizes m n
(como a matriz obtida ao se somar as entradas correspondentes de cada matriz)
e a multiplicao de uma matriz por um escalar (como a matriz obtida ao
se multiplicar cada entrada da matriz pelo escalar). As operaes no espao
L(Kn , Km ) correspondem s operaes no conjunto das matrizes m n, fazendo
desse conjunto, denotado por Mmn (K), um espao vetorial.
Demonstrao: Utilizando a notao do Teorema 3.3, temos, por definio, que
aij e bij so as i-simas coordenadas dos vetores T (ej ) e S(ej ). Assim, se
somarmos as i-simas coordenadas desses vetores, obtemos bij + aij . Por outro
lado, S(ej ) + T (ej ) = (S + T )(ej ), de modo que a i-sima componente do vetor
(S + T )(ej ) bij + aij .
Do mesmo modo, a i-sima componente do vetor (T )(ej ) multiplicado
pela i-sima componente do vetor T (ej ).
fcil verificar que, com essas operaes, Mmn (K) um espao vetorial. 2

3.2

Multiplicao de Matrizes

Sejam X, Y e Z espaos vetoriais sobre o mesmo corpo K, e T : X Y


e S : Y Z aplicaes lineares. Denotamos por S T : X Z a aplicao
composta de T com S. Quer dizer,
(S T )x = S(T x).
fcil verificar que S T L(X, Z). Alm disso, vale:
1

Em contraposio ao espao das aplicaes lineares definido em cursos de Anlise Funcional.

i
i

ALinear 2005/12/19 13:25 page 26 #42


i

26

Aplicaes Lineares

(i) R (S T ) = (R S) T,

Cap. 3

R L(Z, W );

(ii) (P + S) T = P T + S T,

P L(Y, Z);

(iii) S (T + Q) = S T + S Q,

Q L(X, Y ).

(As propriedades (i) e (ii) independem das aplicaes envolvidas serem lineares.)
Usualmente, no caso de aplicaes lineares, denotamos S T por ST , chamado
de produto das aplicaes lineares S e T . Note que, em geral, ST 6= T S (na
verdade, os dois lados nem precisam estar simultaneamente definidos; mesmo
estando, no h razo para serem iguais).
Atravs do Lema 3.8 foram interpretadas as operaes no espao vetorial
L(Kn , Km ) em termos de operaes entre matrizes, introduzindo assim operaes
em Mmn (K) com as quais este um espao vetorial, isomorfo ao espao
L(Kn , Km ) (verifique que temos realmente um isomorfismo!). A composio das
aplicaes lineares T : Kn Km e S : Km Kp pode ser interpretada
como operao entre matrizes. Isso introduz o produto de matrizes e justifica a
denominao de produto para a composio de aplicaes lineares, bem como a
notao ST ao invs de S T . Vamos obter a expresso do produto de matrizes.
O nosso ponto de partida, para isso, consiste da expresso (3.1). Considerando
o vetor x = ej , vemos que o lado direito de (3.1) produz a j-sima coluna da matriz
(aij ). Mas, T ej justamente um vetor do Km , cuja i-sima coordenada aij :
T ej = cj , em que cj a j-sima coluna da matriz que representa T.

(3.2)

Assim, natural interpretar os vetores em Km como "vetores coluna". Para


sermos consistentes, interpretaremos tanto os vetores do Kn como os vetores do
Km como vetores coluna.
Notamos assim, em termos dessa interpretao de vetores, que uma matriz A,
alm de um arranjo retangular, pode ser concebida de duas maneiras diferentes:
como uma linha de vetores coluna ou como uma coluna de vetores linha:

A = (c1 c2 . . . cn ) = ... ,
(3.3)
m
em que

a1j

cj = ...
amj

i = (ai1 ai2 ain ).

i
i

ALinear 2005/12/19 13:25 page 27 #43


i

3.2

27

Multiplicao de Matrizes

Utilizaremos as diversas concepes de uma matriz arranjo de nmeros ou


de vetores linha ou vetores coluna para podermos interpretar a composio de
aplicaes lineares e introduzirmos a multiplicao de matrizes.
Para isso, comeamos por um caso simples: um funcional linear : Kn K.
De acordo com o Teorema 3.3, a essa aplicao corresponde uma "matriz linha"
(c1 . . . cn ). Se voc tiver lido o Captulo 2, isso mostra que os elementos do
espao dual do Rn so, em termos matriciais, justamente as matrizes linha (isto
, as matrizes formadas por uma nica linha e n colunas).
De acordo com (3.1), x = c1 x1 + c2 x2 + . . . + cn xn . Mas, corresponde a uma
matriz linha, enquanto o vetor x Kn visto como uma coluna. Chegamos assim
a

x1

x = (c1 . . . cn ) ... = c1 x1 + c2 x2 + . . . + cn xn ,
(3.4)
xn

expresso que serve como definio do produto de uma matriz linha por uma matriz
coluna!
A frmula de multiplicao de uma matriz m n por uma matriz coluna n 1
decorre tambm imediatamente de (3.1): se T L(Kn , Km ) for representada pela
matriz (aij ), ento y = T x tem coordenadas
yi =

n
X

aij xj ,

i = 1, . . . , m.

(3.5)

j=1

Uma vez que j convencionamos que


colunas e

a11 a12
a21 a22

T x = ..
..
.
.
vemos que

os nossos vetores

a1n
x1

a2n x2
.. ..
...
. .

am1 am2

y=

y1
y2
..
.
ym

= Tx =

amn

1
2
..
.
m

o que vem da comparao de (3.5) com (3.4).

xn

x =

so representados por

1 x
2 x
..
.
m x

(3.6)

i
i

ALinear 2005/12/19 13:25 page 28 #44


i

28

Aplicaes Lineares

Cap. 3

Agora fcil obter a frmula de multiplicao de uma matriz p m por uma


matriz mn: uma matriz pm corresponde a uma aplicao linear S L(Km , Kp )
e uma matriz m n a uma aplicao linear T L(Kn , Km ). A composio
ST L(Kn , Kp ) est bem definida e produz uma matriz p n. Vamos caracterizar
essa matriz. Pela equao (3.2), T ej igual a cj , a j-sima coluna de T . Do
mesmo modo (ST )ej corresponde j-sima coluna da matriz que representa ST .
Aplicando a frmula (3.6) para x = cj = T ej , temos ento

1 c j

(ST )ej = S(T ej ) = Scj = ... ,


p c j

em que k a k-sima linha de S, para k = 1, . . . , p. Mostramos assim a regra: se


S for uma matriz p m e T uma matriz m n, ento o produto ST uma matriz
p n, cuja entrada kj o produto da k-sima linha de S pela j-sima coluna de T :
(ST )kj = k cj ,

em que

S = ...
p

e T = (c1 cn ).

Expressando de outra forma,

ST = (Sc1 Sc2 . . . Scn ),


com Sci denotando a i-sima coluna da matriz ST .
Definimos, assim, o produto de uma matriz m n por uma matriz n p.
Note que, uma vez que o produto de transformaes lineares associativo, a
multiplicao de matrizes associativa. Outras propriedades bsicas da multiplicao de matrizes decorrem, do mesmo modo, das propriedades anlogas da
composio de aplicaes lineares.
Definio 3.9 Seja A uma matriz n n. Dizemos que A invertvel, se existir uma
matriz B tal que
AB = BA = I,
em que I denota a matriz identidade n n. fcil ver que existe no mximo uma
matriz B com tal propriedade (veja o Exerccio 5). Denotamos, portanto, B = A1
e chamamos A1 de inversa da matriz A.

i
i

ALinear 2005/12/19 13:25 page 29 #45


i

29

3.3

Espao Linha e Espao Coluna

3.3

Espao Linha e Espao Coluna

Para 1 i m e 1 j n, suponhamos conhecidos os valores aij e os


valores bj . Um sistema linear em m equaes e n incgnitas procura a soluo
x1 , . . . , xn que satisfaz
a11 x1
a21 x1

+ . . . + a1n xn
+ . . . + a2n xn
..
.

=
=
..
.

b1
b2
..
.

am1 x1 + . . . + amn xn = bm .
Em termos de matrizes, esse sistema pode ser escrito como


a11 a12 a1n
x1
b1
a21 a22 a2n x2 b2


..

= .
..
.
.
.
..
.
.
.. .. ..
am1 am2 amn

ou,

xn

bm

Ax = b
Se b = 0, o sistema chamado homogneo; se b 6= 0, o sistema nohomogneo. Os sistemas Ax = b e Ax = 0 relacionam-se de um modo especial, de
modo que informaes sobre as solues de um fornecem dados importantes para a
soluo do outro. Por esse motivo, no estudo do sistema Ax = b, o sistema Ax = 0
chamado sistema homogneo associado.
Nesta e nas prximas sees estudaremos o sistema linear Ax = b. Para isso,
comeamos estudando mais detalhadamente a matriz A = (aij ) Mmn (K).
Como sabemos, ela pode ser vista por meio de suas linhas ou colunas:

a11 . . . a1n
1

.. = (c . . . c ) = .. .
...
A = ...
(3.7)
.
1
n
.
am1 . . . amn
m
Os vetores colunas c1 , . . . , cn so vetores do Km . Se C = {c1 , . . . , cn },
chamamos de espao coluna o espao gerado por C, isto , < C > Km .
Por outro lado, podemos interpretar as linhas de A como elementos do
prprio espao Kn (ou como elementos do dual (Kn ) ). Se escrevermos L =

i
i

ALinear 2005/12/19 13:25 page 30 #46


i

30

Aplicaes Lineares

Cap. 3

{1 , . . . , m } Kn , chamamos de espao linha o espao gerado por L, isto ,


< L > Kn .
Comeamos interpretando o espao coluna de uma matriz. Para isso, definimos:
Definio 3.10 Seja T : X Y uma aplicao linear. Definimos a imagem de T ,
denotada por im T , por
im T = {y Y | y = T x}.
Definimos o ncleo de T , denotado por ker T , por
ker T = {x X | T x = 0}.
O ncleo e a imagem de T so subespaos vetoriais de X e Y , respectivamente.
De fato, se x1 , x2 ker T e K, ento T (x1 + x2 ) = T (x1 ) + T (x2 ) =
0 + 0 = 0, provando que x1 + x2 ker T . Se y1 , y2 im T , ento
existem x1 , x2 X tais que y1 = T (x1 ) e y2 = T (x2 ). Logo, se K,
y1 + y2 = T (x1 ) + T (x2 ) = T (x1 + x2 ), o que mostra que y1 + y2 im T .
Lema 3.11 Considere o sistema linear no-homogneo Ax = b, em que A =
(aij ) Mmn (K). Ento so equivalentes:
(i) Existe soluo x para Ax = b;
(ii) O vetor b combinao linear das colunas de A.
Demonstrao: Basta notar que o sistema Ax = b equivalente equao

a11
a12
a1n
b1
a21
a22
a2n b2

x1 .. + x2 .. + . . . + xn .. = .. .
.
.
. .
am1
am2
amn
bm

Em outras palavras, acabamos de mostrar que < C > o subespao im A.


Definio 3.12 Se A = (aij ) Mmn (K) for uma matriz m n, definimos a
transposta de A como a matriz At = (atij ) Mnm (K), com atij = aji .

i
i

ALinear 2005/12/19 13:25 page 31 #47


i

3.3

31

Espao Linha e Espao Coluna

Assim, se A for a matriz dada por (3.7), ento

a11 . . . am1

.. .
At = ... . . .
.
a1n . . . amn

Assim, as colunas da matriz At so justamente as linhas da matriz A. Como


conseqncia imediata do Lema 3.11, temos que
< L > = im At .

(3.8)

Se S for a aplicao linear representada pela matriz A (com relao s bases


cannicas do Kn e Km ), ento < L > a imagem da aplicao linear S t (que
chamada transposta da aplicao linear S e representada pela matriz At ).
Vamos agora relacionar as dimenses dos espaos < C > e < L > de uma
matriz A. Mostraremos que esses espaos tm a mesma dimenso; isso um fato
notvel, pois eles so subespaos de espaos vetoriais diferentes!
Teorema 3.13 Dada uma matriz m n, seu espao linha tem a mesma dimenso
de seu espao coluna.
Demonstrao: Suponhamos que os vetores
b1 = (b11 , b12 , . . . , b1n ), b2 = (b21 , b22 , . . . , b2n ), . . . , br = (br1 , br2 , . . . , brn )
formem uma base do espao linha da matriz A. Ento cada linha i de A
combinao linear desses elementos:
1 = 11 b1 + . . . + 1r br
2 = 21 b1 + . . . + 2r br
..
..
. =
.
m = m1 b1 + . . . + mr br
Igualando a componente i de cada uma dessas equaes, obtemos
a1i = 11 b1i + 12 b2i + . . . + 1r bri
a2i = 21 b1i + 22 b2i + . . . + 2r bri
..
..
. =
.
ami = m1 b1i + m2 b2i + . . . + mr bri .

i
i

ALinear 2005/12/19 13:25 page 32 #48


i

32

Aplicaes Lineares

Quer dizer,

a1i
a2i
..
.
ami

= b1i

11
21
..
.
m1

+ b2i

12
22
..
.
m2

+ . . . + bri

1r
2r
..
.
mr

mostrando que as colunas de A so combinaes lineares dos r vetores

11
1r
21
2r

,
.
.
.
,
..
.. .
.
.
m1
mr

Cap. 3

Isso quer dizer que o espao coluna tem dimenso, no mximo, igual a r, ou seja,
dim < C >

dim < L > .

Procedendo da mesma maneira com relao a uma base do espao coluna,


mostramos que
dim < L > dim < C > .
Assim, essas duas dimenses so iguais.2

Definio 3.14 Definimos o posto da matriz A, denotado por posto A, como sendo
dim < C > = dim < L > .
Se A for uma representao matricial da aplicao linear T , definimos posto T =
posto A.

3.4

Resoluo de Sistemas Lineares

Vamos estudar a resoluo do sistema Ax = b. Para isso, mais sinteticamente


ainda, representaremos esse sistema por uma nica matriz, chamada matriz
2

De maneira mais elegante, podemos notar que mostramos dim < C >
qualquer matriz. Aplicando esse fato matriz At , obtemos o resultado.

dim < L > para

i
i

ALinear 2005/12/19 13:25 page 33 #49


i

3.4

33

Resoluo de Sistemas Lineares

aumentada do sistema:

A = (A | b) =

a11
a21
..
.

a12
a22
..
.

...


b1


b2
.
..


bm

a1n
a2n
..
.

am1 am2 amn

claro que, se estivermos tratando de um sistema homogneo Ax = 0, no h


necessidade de trabalhar com a matriz aumentada do sistema.
fcil verificar que as seguintes operaes sobre as linhas da matriz A no
alteram o conjunto de solues do sistema Ax = b:
(a) Transpor as linhas i e j;
(b) Multiplicar a linha i por um escalar no-nulo;
(c) Substituir a linha j por sua soma com um mltiplo da linha i.3
As operaes (a), (b) e (c) so as operaes elementares sobre as linhas da
matriz A.
Consideremos ento uma matriz satisfazendo as seguintes propriedades:
- se existir o primeiro elemento no-nulo da linha i (chamado piv da linha i) e
se esse ocorrer na coluna j, ento, se existir o piv da linha i + , esse ocorre
numa coluna k > j, para todo {1, . . . , m i};
- o piv de cada linha igual a 1.
Dizemos ento que essa matriz (ou o sistema) est na forma escalonada e uma
sucesso de operaes elementares utilizadas para levar uma matriz qualquer C at
3

Com relao a operao (c), note que x = (x1 , x2 , . . . , xn ) satisfaz


ai1 x1
aj1 x1

+ ...
+ ...

+ ain xn
+ ajn xn

= bi
= bj

se, e somente se, satisfizer


ai1 x1
(aj1 + ai1 )x1

+ ...
+ ...

+
+

ain xn
(ajn + ain )xn

=
bi
= bj + bi .

i
i

ALinear 2005/12/19 13:25 page 34 #50


i

34

Aplicaes Lineares

Cap. 3

uma matriz na forma escalonada um escalonamento da matriz C. (Segundo o


Exerccio 11, a uma matriz podem estar associadas diferentes formas escalonadas.)
Dada uma matriz arbitrria C = (cij ) Mmn (K), a sucessiva aplicao de
operaes elementares (sobre suas linhas) pode lev-la at uma forma escalonada.
De fato, se existir algum elemento no-nulo na primeira coluna de C, ao aplicarmos
as operaes elementares (a) e (b) obtemos uma nova matriz C = (cij ), com
c11 = 1. A aplicao da operao elementar (c) torna possvel transformar em zero
qualquer outro elemento no-nulo da primeira coluna. O resultado ento segue-se
da por induo sobre o nmero de linhas de C.
Suponhamos agora que uma matriz C esteja na forma escalonada. Se cada piv
for o nico elemento no-nulo de sua coluna, dizemos que a matriz est na forma
escalonada reduzida por linhas. Aplicando a operao elementar (c), podemos
fazer com que uma matriz na forma escalonada atinja sua forma reduzida por
linhas. De fato, consideremos o piv da ltima linha no-nula de C. A aplicao da
operao elementar (c) torna possvel zerar os elementos que esto acima do piv,
mantendo ainda a matriz na forma escalonada. A demonstrao agora segue-se da
por induo, aplicando o mesmo procedimento ao piv da penltima linha no-nula
de C e assim sucessivamente.
Duas matrizes A e B so equivalentes por linha se existir uma sucesso de
operaes elementares sobre as linhas de A que a transforma na matriz B. Note
que a aplicao de uma nica operao elementar no altera o espao linha de uma
matriz. Por conseguinte, so iguais os espaos linhas de duas matrizes equivalentes
por linha.
Proposio 3.15 Seja A Mmn (K). O sistema Ax = b no possui soluo
se, e somente se, a forma escalonada reduzida por linhas da matriz aumentada
A = (A | b) possuir um piv na ltima coluna.
Demonstrao: Se a forma escalonada reduzida por linhas de A possuir uma linha
com a forma
(0 | 1),
claramente o sistema Ax = b no tem soluo.
Denotaremos por (R | c) a forma escalonada reduzida por linhas da matriz A,
uma vez ignorada todas as linhas nulas. Suponhamos que a forma (R | c) no
possua uma linha do tipo (0 | 1). claro que:
- o nmero de coordenadas de c corresponde ao nmero de pivs em R;

i
i

ALinear 2005/12/19 13:25 page 35 #51


i

3.4

35

Resoluo de Sistemas Lineares

- as colunas correspondentes aos pivs formam uma base do espao coluna de


R.
Assim, c um vetor com o mesmo nmero de coordenadas que a dimenso do
espao coluna de R. Ou seja, c est no espao coluna de R e, portanto, o sistema
Rx = c possui soluo. (Veja o Exerccio 23 do Captulo 1.) Como o conjunto
de solues no alterado por operaes elementares, o sistema Ax = b possui
soluo.
2
Vamos agora mostrar que existe apenas uma forma escalonada reduzida por
linhas para A = (A | b). Comeamos com uma observao simples, que a base
da prova do prximo resultado: uma vez que o espao linha de uma matriz no
alterado pela aplicao de uma sucesso de operaes elementares, quaisquer que
sejam as maneiras de se escalonar a matriz aumentada (A | b) do sistema Ax = b, as
formas escalonadas obtidas ou tero todas pivs na ltima coluna (correspondente
coluna do vetor b) e, portanto, o sistema no ter soluo, ou nenhuma delas ter
piv na ltima coluna e, portanto, o sistema ter soluo.
Lema 3.16 Consideremos o sistema Ax = b, para x Kn . Seja A =
(A | b) a matriz aumentada desse sistema. Ento os pivs obtidos em qualquer
escalonamento de A so sempre os mesmos.
Demonstrao: Denotemos por ck a k-sima coluna de A. Qualquer que seja o
escalonamento de A, ele ter um piv na primeira coluna apenas quando c1 6= 0.
Assim, a existncia de um piv na primeira coluna independe do modo de se
escalonar A.
Consideremos, ento, a existncia de um piv na coluna k, com k {2, . . . , n}.
Tomemos a submatriz Bk1 obtida de A ao se considerar suas k1 colunas iniciais:
Bk1 = (c1 c2 . . . ck1 ).
Notamos que, se uma seqncia de operaes elementares produzir um escalonamento de A, ento ela produz um escalonamento de Bk1 . Reciprocamente, se
tivermos um escalonamento de Bk1 , ento as k 1 colunas iniciais de A foram
escalonadas.
Para x Kk1 , consideremos ento o sistema
Bk1 x = ck .

i
i

ALinear 2005/12/19 13:25 page 36 #52


i

36

Aplicaes Lineares

Cap. 3

Esse sistema no possui soluo se, e somente se, ao escalonarmos a matriz


aumentada (Bk1 | ck ), obtivermos um piv em sua ltima coluna. Mas, como j
vimos, a existncia desse piv independe de como foi feito esse escalonamento. O
resultado est provado.
2
claro que, numa matriz A Mmn (K), o nmero mximo possvel de pivs
igual a n, um para cada coluna de A. Chamamos de varivel livre do sistema
Ax = b a toda coordenada de x correspondente a uma coluna de A sem piv.
Teorema 3.17 Matrizes escalonadas reduzidas por linha tm o mesmo espao
linha se, e somente se, tiverem as mesmas linhas no-nulas. Em particular, cada
matriz equivalente a uma nica matriz na forma escalonada reduzida por linhas.
Demonstrao: claro que duas matrizes que possuem as mesmas linhas nonulas possuem o mesmo espao linha.
Por outro lado, suponhamos que duas matrizes A e B, ambas na forma
escalonada reduzida por linhas, tenham o mesmo espao linha. Seja a ltima
linha no-nula de A. Suponhamos que essa seja a k-sima linha de A. Como
os pivs de duas formas escalonadas reduzidas por linhas ocorrem nas mesmas
posies, a matriz B possui exatamente k linhas no-nulas: 1 , . . . , k . Denotemos
as coordenadas de por (1 , . . . , n ) e as de i por (1i , . . . , ni ), para i = 1, . . . , k.
(Quer dizer, estamos supondo que A e B tenham n colunas.) Suponhamos que
o piv da linha ocorra na posio r. Como pivs ocorrem na mesma posio,
conclumos que o piv da linha k ocorre na posio r.
Como os espaos linhas de A e B so iguais, existem escalares 1 , . . . , k tais
que
= 1 1 + . . . + k k .
(3.9)
Como as coordenadas 1 , . . . , r1 de so todas nulas e os pivs de 1 , . . . , k
devem ocorrer em posies anteriores posio r, necessariamente k = 1 e
1 = . . . = k1 = 0. Quer dizer, a ltima linha no-nula de A igual ltima
linha no-nula de B. Repetindo sucessivamente esse argumento, conclumos que
todas linhas no-nulas de A e B so iguais.
2
Dois sistemas Ax = b e A x = b so equivalentes se possurem as mesmas
solues. Isso quer dizer que as matrizes aumentadas desses sistemas tm o mesmo
espao linha. Passando forma escalonada reduzida por linhas, podemos aplicar
o Teorema 3.17 e concluir que as matrizes aumentadas desses sistemas possuem a
mesma forma escalonada reduzida por linhas.

i
i

ALinear 2005/12/19 13:25 page 37 #53


i

37

3.5

O Teorema do Ncleo e da Imagem

3.5

O Teorema do Ncleo e da Imagem

Nesta Seo provaremos um dos resultados mais importantes da lgebra Linear:


Teorema 3.18 (do Ncleo e da Imagem)
Seja T L(X, Y ). Ento os espaos vetoriais
X
ker T

im T

so canonicamente isomorfos.
Em particular, se X e Y tiverem dimenso finita, ento
dim X = dim(ker T ) + dim(im T ).

(3.10)

Para motivar a demonstrao que apresentaremos, cujo fundamento perpassa o


estudo de todas as estruturas algbricas, apresentamos o
Exemplo 3.19 Para A Mmn (K), considere o sistema linear no-homogneo
Ax = b. Suponhamos que xp seja uma soluo desse sistema. Claramente, xp + z
tambm soluo do sistema, qualquer que seja z ker A. Mas, essas so as nicas
solues. De fato, se x for outra soluo, temos que A(x xp ) = 0, de modo que
x xp = z ker A.
A igualdade x = xp + z significa que x xp mod ker A. Portanto, no espao
quociente Kn / ker A a equao Ax = b ter soluo nica [xp ]!

Demonstrao: A prova do Teorema do Ncleo e da Imagem sintetizada no
seguinte diagrama: (setas verticais sempre indicaro isomorfismos)
T
- im T
X
@

6
@

Tq

@@
R

X
ker T
Vamos definir Tq : kerXT im T por Tq ([x]) = T x e mostrar que Tq um
isomorfismo cannico. Temos:

i
i

ALinear 2005/12/19 13:25 page 38 #54


i

38

Aplicaes Lineares

Cap. 3

1. Tq est bem definida: x y mod ker T quer dizer que T (x y) = 0, ou


seja, T (x) = T (y).
2. Tq linear: Tq ([x] + [y]) = Tq ([x + y]) = T (x + y) = T x + T y =
Tq ([x]) + Tq ([y]).
3. Tq injetora: se Tq ([x]) = Tq ([y]), ento T x = T y e T (x y) = 0, donde
x y mod ker T .
4. Tq sobrejetora, por definio.
Logo, Tq um isomorfismo cannico.
Se X e Y tiverem dimenso finita, deduzimos que


X
= dim(im T ).
dim
ker T
Mas, como j vimos, dim(X/ ker T ) = dim X dim(ker T ), de onde segue-se a
afirmao sobre as dimenses, completando a prova do teorema.
2
A demonstrao anterior nos mostra a utilidade essencial do espao quociente:
mesmo se T no tiver inversa, podemos construir, de maneira natural, um isomorfismo a partir de T , no caso, a aplicao Tq .
Devido a sua importncia, apresentaremos uma demonstrao alternativa da
frmula (3.10), sem fazer uso do conceito de espao quociente.
Demonstrao alternativa da frmula (3.10): Seja {x1 , . . . , xj } uma base de
ker T . Completamos esse conjunto at obter uma base
B = {x1 , . . . , xj , wj+1 , . . . , wn }
de X. Claramente X = ker T W , em que W o espao gerado por
{wj+1 , . . . , wn }.
Afirmamos que {T wj+1 , . . . , T wn } uma base de im T Y . De fato,
suponhamos que
j+1 T wj+1 + . . . + n T wn = 0.
Ento T (j+1 wj+1 + . . . + n wn ) = 0, mostrando que j+1 wj+1 + . . . + n wn
ker T . Mas, ento, j+1 = . . . = n = 0, pois X = ker T W . Isso mostra que os
vetores T wj+1 , . . . , T wn so linearmente independentes.

i
i

ALinear 2005/12/19 13:25 page 39 #55


i

3.5

O Teorema do Ncleo e da Imagem

39

Seja agora y im T . Ento existe x X tal que T x = y. Como B


base de X, x = 1 x1 + . . . + j xj + j+1 wj+1 + . . . + n wn e, portanto,
y = T x = j+1 T wj+1 + . . . + n T wn , mostrando que esses vetores geram im T .
Isso conclui a prova.
2
Se voc comparar essas duas demonstraes, perceber que a essncia da
segunda o procedimento aplicado na primeira: mostramos que existe um
isomorfismo entre o espao gerado por wj , . . . , wn , que denotaremos por W , e o
espao im T , cuja base {T wj , . . . , T wn }. Note que W isomorfo a X/ ker T ,
segundo o Teorema 1.29.
Mostraremos agora algumas conseqncias do Teorema do Ncleo e da Imagem.
Nesses resultados, T : X Y denota uma aplicao linear. As demonstraes
seguem-se imediatamente da frmula
dim X = dim(im T ) + dim(ker T ).
Corolrio 3.20 Suponhamos que dim Y < dim X. Ento dim(ker T ) 1.
Demonstrao: Note que, em particular, dim(im T ) dim Y < dim X.

O Corolrio 3.20 muitas vezes formulado em termos de sistemas lineares:


Corolrio 3.21 Seja A Mmn (K), com m < n. Ento o subespao de todas
as solues do sistema linear homogneo Ax = 0 tm dimenso maior do que ou
igual a 1.
Corolrio 3.22 Se dim X = dim Y , ento T injetora se, e somente se, for
sobrejetora.
Demonstrao: Se T for injetora, T x = 0 implica x = 0. Logo, dim(ker T ) = 0.
Assim, dim(im T ) = dim X = dim Y e, portanto, im T = Y . Reciprocamente, se
T for sobrejetora, im T = Y e, portanto, dim(ker T ) = 0.
2
Em particular, se dim X = dim Y , o Corolrio 3.22 garante que T injetora
se, e somente se, ker T = {0}. Esse resultado vlido, na verdade, para quaisquer
espaos vetoriais X e Y . De fato,4 se T for injetora, claramente ker T = {0}; se
existisse x1 6= x2 tal que T (x1 ) = T (x2 ), ento T (x1 x2 ) = 0, com x1 x2 6= 0.
A formulao do Corolrio 3.22 em termos de sistemas lineares a seguinte:
4

Veja o Exerccio 13 do Captulo 1.

i
i

ALinear 2005/12/19 13:25 page 40 #56


i

40

Aplicaes Lineares

Cap. 3

Corolrio 3.23 Seja A Mnn (K). Ento o sistema no-homogneo Ax = b tem


soluo nica para todo b Y se, e somente se, o sistema homogneo Ax = 0 tiver
soluo nica.
O seguinte resultado decorre imediatamente do Teorema 3.13:
Corolrio 3.24 Se A Mmn (K), ento dim(im A) = dim(im At ).
O prximo resultado vale apenas para matrizes quadradas:
Corolrio 3.25 Seja A uma matriz n n. Ento
dim(ker A) = dim(ker At ).
Demonstrao: De fato, se r := dim(im A) = dim(im At ), a aplicao do
Teorema do Ncleo e da Imagem garante que:
dim(ker A) = n r

dim(ker At ) = m r.

Da decorre o afirmado.

Finalmente, enunciamos o resultado apresentado no Exemplo 3.19, que no


passa de uma caracterizao do isomorfismo dado na primeira demonstrao do
Teorema do Ncleo e da Imagem:
Proposio 3.26 Seja b Km um elemento da imagem de T : Kn Km . Ento
existe um nico elemento xp Kn tal que toda soluo de T x = b congruente a
xp mdulo ker T , isto , se T x = b, ento x = xp + z, para algum z ker T .
Em outras palavras, se o sistema Ax = b possuir uma soluo xp , ento todas
as suas solues so xp + z, em que z ker A.

3.6

Aplicaes Lineares e Matrizes - parte 2

Na primeira Seo deste Captulo mostramos como associar a cada aplicao


linear T : Kn Km uma matriz A = (aij ), que representa T com relao
s bases cannicas do Kn e Km . Mostraremos agora que a mesma associao
entre aplicaes lineares e matrizes vlida para o caso de uma aplicao linear
T : X Y entre espaos vetoriais de dimenso finita X e Y .
A principal diferena, nesse caso, consiste em no termos uma escolha "natural"
para bases nos espaos X e Y . Suponhamos que dim X = n e dim Y = m.

i
i

ALinear 2005/12/19 13:25 page 41 #57


i

3.6

Aplicaes Lineares e Matrizes - parte 2

41

Escolhendo uma base arbitrria B = {x1 , . . . , xn } do espao X e escrevendo


x = 1 x1 +. . .+n xn , a aplicao B : X Kn definida por Bx = (1 , . . . , n ) =
1 e1 + . . . + n en um isomorfismo entre X e Kn . Da mesma forma, ao se
escolher uma base C = {y1 , . . . , ym } no espao Y , obtm-se um isomorfismo C
entre Y e Km . Temos assim o seguinte diagrama (as setas verticais sempre indicam
isomorfismos):
T
X Y
B
C .
(3.11)
n
m
K K
TK
A aplicao linear TK definida como composta de aplicaes lineares (estamos
usando a notao de composta para enfatizar)
TK = C T B 1
e representada por uma matriz A, de acordo como o que vimos na primeira seo
deste captulo. usual chamar a matriz A de representao da aplicao linear
T com respeito s bases B e C (dos espaos X e Y , respectivamente) e denotar
A = TBC . Temos, assim, uma identificao entre a aplicao linear T (com X e Y
considerados com as bases B e C, respectivamente) e a matriz A = TBC . Com essa
identificao, o diagrama (3.11) pode ser condensado:
TBC
X, B Y, C

(3.12)

(estamos enfatizando, na expresso dos espaos X e Y , as bases que produziram a


matriz TBC ). Note, entretanto, que X, B uma notao para o espao Kn , ressaltando
a base usada em X para torn-lo isomorfo a Kn .
Suponhamos que exista T 1 . Essa aplicao linear ter uma representao
matricial [T 1 ]BC . fcil verificar que A1 = [T 1 ]BC (veja o Exerccio 23).
Exemplo 3.27 Sejam X e Y espaos vetoriais com bases B = {x1 , . . . , xn } e
C = {y1 , . . . , ym }, respectivamente. Seja T : X Y uma aplicao linear.
Vejamos como obter TBC . Para isso, usamos o diagrama
T

X
Y
B
C .
n
K Km
TBC

i
i

ALinear 2005/12/19 13:25 page 42 #58


i

42

Aplicaes Lineares

Cap. 3

Como vimos, a i-sima coluna da matriz procurada obtida ao se calcular TBC e1 =


(CT B 1 )ei . Mas, Bxi = ei , de modo que (CT B 1 )ei = (CT )B 1 ei = (CT )xi .
Como C a aplicao que associa a T (xi ) Y as suas coordenadas na base C,
temos que a i-sima coluna da matriz procurada [T xi ]C .

Note que, em particular, teremos a representao matricial de uma aplicao
linear T : Kn Km , se escolhermos bases arbitrrias em Kn e Km .
Associamos, assim, a cada aplicao linear T : X Y uma matriz, cuja
expresso depende dos isomorfismos entre X e Kn e Y e Km . Esses, por sua vez,
dependem das bases consideradas nos espaos X e Y . Uma vez que cada escolha
de base em X produz um isomorfismo diferente entre X e Kn e o mesmo acontece
com Y e Km , vemos que existem muitas maneiras distintas de representar uma
transformao linear por meio de uma matriz. Como se relacionam essas diferentes
matrizes que representam a aplicao linear T ?
Para responder a essa pergunta, comeamos estudando como se relacionam as
representaes de x em bases B = {x1 , . . . , xn } e B = {x1 , . . . , xn } do espao X.
O mesmo procedimento anterior pode ser utilizado:
I

X
X
.
B
B
n
n
K K

PBB

(Para sermos coerentes com a notao anterior, deveramos escrever IBB ao invs de

PBB . Entretanto, usual denotar esse tipo de matriz pela letra P .)

De acordo com o exemplo 3.27, a i-sima coluna de PBB obtida calculando 1 (e1 ) = BI(x
1 ) = [xi ]B. A matriz P B chamada matriz
se a expresso de BIB
B
Dadas as coordenadas de x na base B, isto ,
mudana5 da base B para a base B.

[x]B , as coordenadas de x na base B so dadas por PBB [x]B = [x]B. Claramente a

matriz PBB possui inversa PBB .

Consideremos agora uma outra representao T C , relativa s bases B de X e C


B

Alguns autores preferem chamar essa matriz de "matriz de passagem" da base B para a base B.
Assim, a terminologia utilizada por eles fica invertida com relao nossa.
5

i
i

ALinear 2005/12/19 13:25 page 43 #59


i

3.6

43

Aplicaes Lineares e Matrizes - parte 2

de Y . Temos o diagrama
TBC
X, B Y, C

PBB
QCC .
X, B Y, C

TBC
Esse diagrama, cujas componentes so matrizes, nos mostra que

TBC = [QCC ]1 TBC PBB = QCCTBC PBB .


O caso em que os espaos X e Y so iguais permite que se tome a mesma base
nos dois espaos. Nesse caso, denotamos TBB por TB , que chamada representao
de T na base B. A relao entre TB e TB dada por

TB = [PBB ]1 TB PBB = PBB TB PBB ,


para qualquer outra base B de X.
Observao 3.28 Dada uma aplicao linear T : X X entre espaos de
dimenso n, a escolha de bases B e C em X pode fazer com que a representao
matricial de T assuma formas bem gerais. Por exemplo, se T for invertvel, TBC
pode ser a matriz identidade! (Veja o Exerccio 39.) Assim, a representao de T
em bases completamente arbitrrias quase no nos passa informao relevante sobre
a aplicao T .

Exemplo 3.29 Considere a aplicao linear T : R2 R2 definida por
T (x, y) = (4x 2y, 2x + y).
Para simplificarmos a notao neste exemplo, escreveremos os nossos vetores
indiferentemente como linhas ou colunas.
Seja B a base do R2 formada pelos vetores v1 = (1, 1) e v2 = (1, 0). Vamos
achar a matriz que representa T com relao base B. (Quer dizer, estamos
utilizando a mesma base no domnio e na imagem e procuramos a matriz TB .) Para
isso, calculamos
T (v1 ) = (2, 3) = 3(1, 1) + (1, 0) = 3v1 + v2 .

i
i

ALinear 2005/12/19 13:25 page 44 #60


i

44

Aplicaes Lineares

Cap. 3

Note que escrevemos a imagem de T (v1 ) na base B, utilizada tambm no


contradomnio. De acordo com a notao introduzida na Definio 1.15, temos
 
3
.
[T (v1 )]B =
1
Da mesma forma, T (v2 ) = (4, 2) = 2(1, 1) + 2(1, 0) = 2v1 + 2v2 e,
portanto,


2
.
[T (v2 )]B =
2
Assim,
TB =

3 2
1
2

As colunas de TB so as imagens dos vetores da base B, escritas na prpria base B


utilizada, nesse caso, tambm no contradomnio.
Se quisermos calcular a imagem do vetor (1, 2) = 1e1 + 2e2 utilizando a matriz
TB , primeiro expressamos esse vetor na base B:
(1, 2) = 2(1, 1) + 1(1, 0) = 2v1 + v2 .
Calculando
TB

2
1

3 2
1
2



2
1

4
4

obtemos a "resposta" na base B. Se quisermos a resposta na base cannica,


precisamos escrever o resultado obtido nessa base:
4v1 + 4v2 = 4(1, 1) + 4(1, 0) = (0, 4) = 0e1 + 4e2 ,
que o mesmo resultado que obtemos ao calcular diretamente T (1, 2), utilizando a
expresso T (x, y) = (4x 2y, 2x + y).
Para entendermos melhor a estrutura deste exemplo, temos o seguinte diagrama
TE
R , E R2 , E
B
PE
PEB .
R2 , B R2 , B
TB
2

i
i

ALinear 2005/12/19 13:25 page 45 #61


i

3.7

45

A Transposta de uma Aplicao Linear

Aqui, TE a representao "natural" da transformao T (x, y) = (4x2y, 2x+


y). Isso , a matriz cujas colunas so, respectivamente, T (1, 0) = (4 2)t e
T (0, 1) = (2 1)t .
A matriz TB a matriz obtida no exemplo. A matriz PEB a matriz mudana da
base E para a base B. Ela obtida pelo mesmo mtodo: escrevemos a imagem dos
vetores e1 , e2 pela aplicao identidade na base B. Temos
(1, 0) = 0(1, 1)1(1, 0) = 0v1 v2
A matriz PEB , ento,

PEB

O diagrama anterior garante que

e (0, 1) = 1(1, 1)+1(1, 0) = 1v1 +1v2 .




0 1
1 1

TE = [PEB ]1 TB PEB ,
ou seja,

4 2
2
1

0 1
1 1

1 

3 2
1
2



0 1
1 1

Se calcularmos a inversa da matriz PEB , verificaremos esse fato. Entretanto, fcil


obter PBE . Essa matriz tem como colunas a expresso dos vetores v1 e v2 na base
cannica. Assim, claro que


1 1
E
.
PB =
1
0
Verifique que PBE = [PEB ]1 .

3.7

A Transposta de uma Aplicao Linear

(Esta Seo mais avanada e pode ser omitida sem prejuzo para o restante do
texto.)
Existe uma maneira intrnseca de se definir a aplicao transposta T t de um
operador linear T . (No caso de aplicaes lineares denota-se a transposta T t
tambm por T , o que faremos a seguir. Veja o Exerccio 10 do Captulo 2.)
Para isso, sejam T : X Y uma aplicao linear entre os espaos X e Y .
Considere Y , isto , : Y K linear. Ento o produto dessas aplicaes
(isto , a composta) T : X K um elemento do dual X .

i
i

ALinear 2005/12/19 13:25 page 46 #62


i

46

Aplicaes Lineares

T
X

Y
@

Cap. 3

@
R
-

Nossa notao provisria m (x) = (T x). Note que, variando Y ,


obtemos diferentes aplicaes m X . Consideremos ento T : Y X definida
por
T () = T = m .
Desse modo, a aplicao T uma aplicao definida no espao dual Y e tomando
valores no espao dual X . Afirmamos que T linear. De fato,
T (1 + 2 ) = (1 + 2 )T = 1 T + 2 T = T (1 ) + T (2 ),
para quaisquer 1 , 2 Y e K.
Vamos agora introduzir uma nova notao para a avaliao de um elemento do
dual em um ponto do espao: at agora (z) denota a avaliao de : Z K no
ponto z Z. usual denotar (z) por
h, zi.
Abandonaremos a notao provisria m e usaremos a notao T . Assim, por
definio,
hT , xi = h, T xi
ou, o que o mesmo,
T = T.

(3.13)

Nosso prximo objetivo caracterizar a aplicao T para o caso de T : Rn


R . Veremos que podemos representar T (a aplicao transposta) por uma matriz,
que justamente a transposta da matriz que representa T com relao s bases
cannicas do Rn e Rm .
O lado direito de (3.13) tem interpretao imediata: como (Rm ) , dada
por uma matriz linha, de modo que

a11 . . . a1n

.. .
...
T = (c1 . . . cm ) ...
.
am1 . . . amn
m

i
i

ALinear 2005/12/19 13:25 page 47 #63


i

3.8

Exerccios

47

Se quisermos interpretar T como uma matriz, ento devemos identificar (Km ) com
Km e (Kn ) com Kn . Assim T : (Km ) (Kn ) passa a ser vista como uma
aplicao T : Km Kn . O vetor coluna Km , quando aplicado a T , satisfaz a
igualdade T = T , ou seja, se B = (bij ) for a representao matricial de T (com
relao s bases cannicas do Km e Kn ), ento

c1
b11 . . . b1m
c1
a11 . . . a1n


.. .. = (c . . . c ) ..
.. .
...
T ... = ... . . .
1
m
. .
.
.
cm
bn1 . . . anm
cm
am1 . . . amn

A segunda igualdade mostra que B = (bij ) deve satisfazer bij = aji , como se
verifica mediante escolha adequada de c1 , . . . , cm . Mas, ento, B = At , como antes
definido.

3.8

Exerccios

1. Seja A = (c1 ck cn ) uma matriz descrita por meio de suas colunas. Se


x = x1 e1 + . . . + xn en , interprete Ax como uma multiplicao das colunas de
A pelo vetor x. Em seguida, interprete a multiplicao AB de duas matrizes
como uma operao envolvendo as colunas dessas matrizes.
2. Considere os polinmios p1 (t) = 7t5 + 6t2 , p2 (t) = 1 + t no espao K6 [t] de
todos os polinmios de grau menor que 6.
(a) Se S = {p1 , p2 }, descreva < S >;

(b) ache uma base B de K6 [t] que completa o conjunto linearmente


independente S;

(c) determine a representao de cada um dos vetores de B nessa base;

(d) determine a representao de q K6 [t] em termos da base B.

3. Mostre que L(X, Y ) (introduzido na Definio 3.7) um espao vetorial.


4. Se voc tiver lido o Captulo 2, represente em matrizes a base dual da base
cannica {e1 , . . . , en } do Rn .
5. Dada uma matriz A, n n, mostre que existe no mximo uma matriz B tal
que AB = BA = I, em que I Mnn (K).

i
i

ALinear 2005/12/19 13:25 page 48 #64


i

48

Aplicaes Lineares

Cap. 3

6. Mostre que uma matriz quadrada A tem inversa se, e somente se, o sistema
Ax = 0 s possuir a soluo trivial.
7. Seja A Mnn (K) uma matriz diagonal, com todos os elementos diagonais
distintos. Se B comutar com A, mostre que B diagonal.
8. Quais matrizes A Mnn (K) comutam com todas as matrizes B
Mnn (K)?
9. Exiba uma base de Mnn (K) formada apenas por matrizes invertveis.
10. Seja K[t] o espao de todos os polinmios na incgnita t. Considere T :
K[t] K6 [t] definida da seguinte maneira: se p K[t], ento T p o
polinmio em K6 [t] cujos coeficientes de grau menor que 6 so iguais aos
coeficientes de p. Mostre que T linear. Ache uma base para im T e ker T .
O Teorema do Ncleo e da Imagem pode ser aplicado? Justifique.
11. Mostre que o escalonamento do mesmo sistema pode produzir duas formas
escalonadas distintas.
12. Mostre que a equivalncia por linhas, tal qual definida na pgina 34, uma
relao de equivalncia.
13. Seja A uma matriz n n.
afirmaes:

Mostre que so equivalentes as seguintes

(a) existe uma matriz B, n n, tal que BA = I;

(b) a matriz A equivalente por linhas matriz identidade I;

(c) a matriz A invertvel.


14. Sejam A e B matrizes m n equivalentes por linhas, com colunas a1 , . . . , an
e b1 , . . . , bn , respectivamente.
(a) As colunas aj1 , . . . , ajk de A so linearmente independentes se, e
somente se, as colunas correspondentes bj1 , . . . , bjk de B forem linearmente independentes;
(b) se existirem escalares tais que a = j1 aj1 + . . . jk ajk , ento existem
escalares tais que b = j1 bj1 + . . . jk bjk ;

i
i

ALinear 2005/12/19 13:25 page 49 #65


i

3.8

Exerccios

49

(c) o espao gerado pelas linhas de A igual ao espao gerado pelas linhas
de B.
15. Mostre a Proposio 3.26 utilizando o isomorfismo Tq definido na primeira
demonstrao do Teorema do Ncleo e da Imagem.
16. Enuncie e demonstre o Teorema do Ncleo e da Imagem substituindo
X/ ker T por um espao Z tal que X = ker T Z. Voc deve dar uma
demonstrao direta, isto , sem apelar para o prprio Teorema do Ncleo e
da Imagem.
17. Uma projeo uma aplicao linear : X X tal que 2 = . Mostre
que toda projeo : X X satisfaz X = ker im (compare com o
Exerccio 28). Seja X = W1 W2 e x = w1 + w2 , com wi Wi . Mostre
que : X W1 , definida por x = w1 , uma projeo.
18. Sejam 1 , 2 : X X projees. Mostre que so equivalentes:
(a) 1 + 2 uma projeo;
(b) 1 2 + 2 1 = 0;
(c) 1 2 = 2 1 = 0.
19. Sejam X e Y espaos vetoriais e B uma base de X (mesmo que X tenha
dimenso infinita). Faa corresponder, de maneira arbitrria, um vetor yx Y
a cada elemento x B. Mostre que existe uma nica transformao linear
T : X Y tal que T x = yx para todo x B. (Note que, em
particular, isso implica que uma transformao linear T : Kn Km fica
completamente determinada pela imagem que ela assume em qualquer base
do Kn .) Mostre ento que uma transformao linear T : X Y injetora se,
e somente se, levar vetores linearmente independentes em vetores linearmente
independentes.
20. Sejam X e Y espaos vetoriais com a mesma dimenso finita. Suponha que,
para as aplicaes linear T : X Y e S : Y X, seja verdadeiro ST = I,
a identidade em X. Mostre que S = T 1 . (Compare com o Exerccio 29.)
21. Se T : X Y e S : Y Z forem aplicaes lineares invertveis, mostre
que (ST )1 = T 1 S 1 . Mostre tambm que (S t )1 = (S 1 )t .

i
i

ALinear 2005/12/19 13:25 page 50 #66


i

50

Aplicaes Lineares

Cap. 3

22. Seja A Mmn (K). Considere os seguintes "mtodos" para obter-se uma
base para im A:
(a) Escolha uma base para Kn . Calcule a imagem dos vetores dessa
base. Esses vetores geram a imagem. Extraia ento um subconjunto
linearmente independente, que a base procurada;
(b) Obtenha uma base para ker At . Complete at obter uma base do espao
inteiro. Os vetores introduzidos formam uma base do espao im A;
(c) Escalone a matriz At (veja a Seo A). As transpostas das linhas nonulas de At nos do uma base de im T ;
(d) Calcule uma base de ker T . Complete esse conjunto, at obter uma base
do espao inteiro. As imagens dos vetores adicionados base de ker T
formam uma base de im A;
(e) Seja b = (b1 b2 . . . bm )t um vetor genrico do Km . Monte a matriz
aumentada do sistema (veja a Seo A). Escalone o sistema e imponha
que ele possua soluo. Cada linha nula no escalonamento de A produz
uma equao na matriz aumentada e a imagem o conjunto dos pontos
que satisfazem essas equaes. Extraia da uma base. (O que acontece
se no houver linha nula?)
(f ) Escalone a matriz A. As colunas de A correspondentes aos pivs (veja
a Seo A) da forma escalonada de A so uma base de im A.
Justifique quais desses mtodos realmente produzem bases de im A.
Considere agora

3 1 2 4 1
A = 1 1 1 1 2 .
2 2 2 1 1

Utilize todos os mtodos corretos dentre as alternativas anteriores para obter


bases para im A.
23. Seja T : X Y uma aplicao linear invertvel representada, com relao
s bases B e C dos espaos X e Y , respectivamente, pela matriz TBC . Mostre
que a aplicao inversa T 1 representada, com relao s bases C e B, pela
matriz [TBC ]1 .
24. Seja X um espao vetorial de dimenso finita sobre K. Para v, w X,
definimos v w, se existir uma transformao linear invertvel T : X X

i
i

ALinear 2005/12/19 13:25 page 51 #67


i

3.8

51

Exerccios

tal que T v = w. Mostre que assim est definida uma relao de equivalncia.
Mostre tambm que essa relao de equivalncia possui apenas duas classes:
uma formada apenas pelo elemento 0 X e a outra formada por todos os
outros vetores de X.
25. Se
M=

a11 a12
a21 a22

defina T : M22 (K) M23 (K) por




a12 a11 a12 a21 a12
.
T (M ) =
a22 a21 a11 a22 + a21
Sejam
B=

B =
C =





1 0
0 1
1 0
0 0


 
 
 
1 1
1 1
1 1
,
,
,
,
1 1
1 0
0 0


 
 
 
0 0
0 0
0 1
,
,
,
,
0 1
1 0
0 0

 
1
,
0
 

1
1 1 1
,
1
1 1 0



1 0 0
0 0 0

 
0
,
0
 

0 0 0
,
0 1 0



1 0 0
0 0 0

1 0
0 0
1 1
1 1


 
 
1 1 1
1 1 1
,
,
,
1 0 0
0 0 0



 
 
0 0 0
0 0 1
,
,
,
1 0 0
0 0 0

0 0 0
.
0 0 1
1 0
0 0

(a) Mostre que T : M22 M23 linear;

(b) mostre que B e B so bases de M22 , enquanto C e C so bases de


M23 ;

(c) ache a representao matricial de T relativa s bases B e C, bem como a


relativa s bases B e C ;

i
i

ALinear 2005/12/19 13:25 page 52 #68


i

52

Aplicaes Lineares

Cap. 3

(d) ache a relao entre essas matrizes;


(e) obtenha bases para ker T e im T .
26. Sejam T (x, y, x) = (x+y +z, y +z, x) e B = {(1, 0, 1), (0, 1, 0), (1, 0, 1)}.
Ento:
(a) ache a matriz TB ;
(b) usando essa matriz, especifique uma base para ker T e im T ;
(c) calcule T (1, 1, 1) utilizando a representao matricial calculada em (a).
27. A definio dos espaos ker T e im T de uma aplicao linear T : X Y
independe (da existncia) de bases nesses espaos. Contudo, se A for uma
matriz que representa uma aplicao linear, tanto ker A como im A dependem
das bases consideradas no domnio e no contradomnio. Explique.
28. Sejam X um espao vetorial de dimenso finita e T : X X uma aplicao
linear. Mostre que
X = ker T im T
se, e somente se, ker T = ker T 2 .

29. Sejam A e B matrizes, no necessariamente quadradas. Suponha que AB = I


(a identidade no espao apropriado). Mostre que posto A = posto B.
30. Sejam S, T : X Y e R : Y Z aplicaes lineares. Mostre:
(a) posto(S + T ) posto(S) + posto(T );

(b) posto(RS) min{posto(S), posto(T )}.

31. D exemplo de matrizes A, B tais que AB = 0, mas BA 6= 0.


32. Sejam A, B matrizes quadradas invertveis. Mostre que (AB)1 = B 1 A1 .
33. Sejam A Mmn e B Mnp matrizes em blocos,





A11 A12
B11 B12
q
r
e

A21 A22
B21 B22
mq
nr
6

nr

t pt

i
i

ALinear 2005/12/19 13:25 page 53 #69


i

3.8

53

Exerccios

com blocos A11 Mqr , A12 Mq(nr) , A21 M(mq)r , A22


M(mq)(nr) para a matriz A e blocos B11 Mrt , B12 Mr(pt) ,
B21 M(nr)t , B22 M(nr)(pt) para a matriz B.

Mostre que

AB =

A11 B11 + A12 B21 A11 B12 + A12 B22


A21 B11 + A22 B21 A21 B12 + A22 B22

34. Sejam A e D matrizes p p e (n p) (n p), respectivamente. Mostre


que a matriz


A B
X=
0 D

invertvel se, e somente se, as matrizes A e D forem invertveis. Nesse caso,



 1
A
A1 BD1
1
.
X =
0
D1

35. Sejam A, B, C, D Mnn (K). Suponha que A seja invertvel. Mostre que
existem matrizes X, Y Mnn (K) tais que


 

I Y
A O
A B
.
=
P =
0 X
C I
C D
Decomponha P de maneira similar, se B, C ou D forem invertveis.
36. Seja T : X X uma transformao linear e X = W1 Wk .
Suponhamos que T (Wi ) Wi para i {1, . . . , k} (dizemos que os
subespaos Wi so invariantes por T ). Se Bi for uma base de Wi , mostre
que B = {B1 , . . . , Bk } uma base de X. Ache TB em termos de TBi .
37. Seja X um espao de dimenso finita e T : X X um operador tal que
T (V ) V para algum subespao V X. Sempre existe W X tal que
T (W ) W e X = V W ?
38. Sejam A, B Mnn (K), o espao das matrizes n n com coeficientes
em K. Dizemos que A semelhante a B, se existir uma matriz invertvel
P Mnn (K) tal que B = P 1 AP . Mostre que a semelhana uma
relao de equivalncia. Esboce um diagrama que representa essa relao
de equivalncia. usual dizer ento que A e B so iguais, a menos de uma
mudana de base. Essa frase faz sentido para voc?

i
i

ALinear 2005/12/19 13:25 page 54 #70


i

54

Aplicaes Lineares

Cap. 3

39. Sejam X, Y espaos de dimenso finita. Duas aplicaes lineares S, T :


X Y so equivalentes em bases se existirem bases B, B de X e C, C

de Y de modo que TBC = SBC . Mostre que assim est definida uma relao
de equivalncia. Mostre que duas aplicaes de mesmo posto so sempre
equivalentes em bases. Descreva em termos de diagramas a equivalncia
em bases. Em particular, mostre que S e T so equivalentes em bases
se, e somente se, existirem aplicaes lineares invertveis P : X X e
Q : Y Y tais que S = P T Q.
40. Sejam X um espao vetorial e U, V X subespaos. Mostre que
U +V
V

U
U V

so isomorfos. Esse isomorfismo cannico?

i
i

ALinear 2005/12/19 13:25 page 55 #71


i

4
Determinantes
Aqui feita uma apresentao elementar da teoria de determinantes e suas
propriedades, incluindo a regra de Cramer. A relao entre determinantes e volumes
ser apresentada nos exerccios do Captulo 8.

4.1

Determinantes de Matrizes 2 2

Consideremos inicialmente uma matriz




a b
= (c1 c2 )
A=
c d
com entradas no corpo K e colunas c1 , c2 . Denota-se por det A o determinante de
A, que definido por det A = ad bc.
As seguintes propriedades so de verificao imediata:
(i) Se duas colunas forem iguais, ento o determinante da matriz A igual a
zero:


a a
= 0;
det
c c
(ii) O determinante uma aplicao linear em cada uma de suas colunas. Mais
precisamente,

 



a b
a b
a + a b

+ det
= det
det(c1 + c1 c2 ) = det

c d
c d
c + c d

= det(c1 c2 ) + det(c1 c2 )

55
i

i
i

ALinear 2005/12/19 13:25 page 56 #72


i

56

Determinantes

Cap. 4

e
det(c1 c2 +

c2 )






a b
a b + b
a b
+ det
= det
= det
c d
c d
c d + d
= det(c1 c2 ) + det(c1 c2 );


(iii) O determinante da matriz identidade (2 2) igual a 1.


Tambm temos:
(iv) Se trocarmos as colunas de A, o determinante muda de sinal




a b
b a
= det(c1 c2 );
= det
det(c2 c1 ) = det
c d
d c
(v) Se somarmos a uma coluna um mltiplo da outra, ento o determinante de A
no se altera:








a b
a b + a
a b
a + b b
;
= det
e det
= det
det
c d
c d + c
c d
c + d d
(vi) Se c1 = c2 , ento det A = 0:




c c
c c
= 0;
= det
det
d d
d d
(vii) det A = det At :
det

a b
c d

= det

a c
b d

Consideremos agora um sistema linear com duas equaes, nas incgnitas x1 e


x2 :
ax1 + bx2 = y1
cx1 + dx2 = y2 ,
em que as constantes a, b, c, d, y1 e y2 so arbitrrias. Multiplicando a primeira
equao por d e a segunda por b e ento somando, obtemos
x1 (ad bc) = y1 d y2 b.

i
i

ALinear 2005/12/19 13:25 page 57 #73


i

4.2

57

Funo Determinante

Analogamente,
x2 (ad bc) = ay2 cy1 .
Escrevendo o sistema matricialmente na forma Ax = y,

 


y1
x1
a b
,
=
y2
x2
c d
vemos que sua soluo, se det A 6= 0, pode ser escrita em termos de determinantes




y1 b
a y1
det
det
y2 d
c y2
x1 =
e x1 =
.
det A
det A
Essa a regra de Cramer para a soluo de um sistema de duas equaes em duas
incgnitas.

4.2

Funo Determinante

Definiremos uma funo determinante a partir das propriedades satisfeitas pelo


determinante de uma matriz 2 2.
Definio 4.1 Sejam c1 , c2 , . . . , cn Kn . Uma funo determinante D(c1 , . . . , cn )
uma funo
D : Kn Kn
K
(c1 , . . . , cn ) 7 D(c1 , . . . , cn )
satisfazendo as seguintes propriedades:
(d1 ) D uma funo alternada, isto , se ci = cj para i 6= j, i, j {1, . . . , n},
ento D(c1 , . . . , cn ) = 0;
(d2 ) D(c1 , . . . , cn ) uma funo n-linear, isto , D uma aplicao linear em
cada coordenada, as outras sendo mantidas fixas; mais precisamente, se
todos os cj com j 6= i estiverem fixos,
D(c1 , . . . , ci + ci , . . . , cn ) = D(c1 , . . . , ci , . . . , cn ) + D(c1 , . . . , ci , . . . , cn ).
(d3 ) D(e1 , . . . , en ) = 1, em que {e1 , . . . , en } a base cannica do Kn .

i
i

ALinear 2005/12/19 13:25 page 58 #74


i

58

Determinantes

Cap. 4

Para melhor entendermos o significado da hiptese (d3 ), em muitos resultados


consideraremos apenas uma funo satisfazendo as propriedades (d1 ) e (d2 ).
claro que a definio de uma funo satisfazendo as propriedades (d1 ) e (d2 )
pode ser expressa em termos de matrizes: se A = (c1 c2 cn ) for uma matriz
n n (com colunas c1 , . . . , cn ), ento D(A) = D(c1 , c2 , . . . , cn ).
Lema 4.2 Seja D uma funo satisfazendo a propriedade (d2 ).
equivalentes as afirmaes:

Ento, so

(d1 ) D uma funo alternada;


(d1 ) Se os vetores consecutivos
D(c1 , , ci , ci+1 , , cn ) = 0.

ci

ci+1

forem

iguais,

ento

Demonstrao: (d1 ) (d1 ) Faremos induo sobre as posies com colunas


iguais. Ou seja, para j = i + k, faremos induo sobre k N = {1, 2, . . .}.
Se k = 1, temos a prpria afirmativa (d1 ). Suponhamos o resultado
verdadeiro para k: sempre que ci = ci+k ento D(c1 , . . . , ci , . . . , ci+k , . . . , cn ) =
0. Simplificando a notao, escreveremos D(ci , . . . , ci+k , ci+k+1 ) ao invs de
D(c1 , . . . , ci , . . . , ci+k , ci+k+1 , . . . , cn ). Suponhamos ci = ci+k+1 . Ento vale
(verifique cuidadosamente cada passagem):
D(ci , . . . , ci+k , ci+k+1 ) =
= D(ci , . . . , ci+k , ci+k + ci+k+1 )
= D(ci , . . . , ci+k , ci+k + ci+k+1 ) + D(ci , . . . , ci+k+1 , ci+k + ci+k+1 )
= D(ci , . . . , ci+k + ci+k+1 , ci+k + ci+k+1 )
= 0.
A implicao (d1 ) (d1 ) imediata.

No bvia a existncia de uma funo satisfazendo as propriedades (d1 ) e


(d2 ). Contudo, outras propriedades de uma tal funo seguem-se imediatamente da
definio:
Lema 4.3 Uma funo que satisfaz as propriedades (d1 ) e (d2 ) tambm satisfaz as
propriedades
(d4 ) D uma funo anti-simtrica,isto , se trocarmos ci por cj , ento o valor
de D multiplicado por 1. Sendo mais preciso,
D(c1 , . . . , ci , . . . , cj , . . . , cn ) = D(c1 , . . . , cj , . . . , ci , . . . , cn );

i
i

ALinear 2005/12/19 13:25 page 59 #75


i

4.2

Funo Determinante

59

(d5 ) Se somarmos a um vetor ci um mltiplo do vetor cj , o valor de D no se


altera;
(d6 ) Se c1 , . . . , cn forem linearmente dependentes, ento D(c1 , . . . , cn ) = 0.
Demonstrao: Como vamos trocar apenas as colunas ci e cj , os outros vetores
permanecendo fixos, denotaremos D(c1 , . . . , ci , . . . , cj , . . . , cn ) simplesmente por
D(ci , cj ). Temos
0 = D(ci + cj , ci + cj ) = D(ci , ci + cj ) + D(cj , ci + cj )
= D(ci , ci ) + D(ci , cj ) + D(cj , ci ) + D(cj , cj )
= D(ci , cj ) + D(cj , ci ).
Logo D(ci , cj ) = D(cj , ci ), mostrando (d4 ).
As propriedades (d1 ) e (d2 ) implicam
D(ci + cj , cj ) = D(ci , cj ) + D(cj , cj ) = D(ci , cj ) + 0
= D(ci , cj ).
Quanto a (d6 ), suponhamos que c1 , . . . , cn sejam linearmente dependentes.
Ento um desses elementos pode ser escrito como combinao linear dos restantes.
Vamos supor que c1 = 2 c2 + . . . + n cn . A propriedade (d2 ) nos garante que
D(c1 , . . . , cn ) = D(2 c2 + . . . + n cn , c2 , . . . , cn )
= 2 D(c2 , c2 , . . . , cn ) + . . . + n D(cn , c2 , . . . , cn ).
Por (d1 ), todos os termos na ltima linha so nulos; isso mostra (d6 ).

Observao 4.4 Seja A uma matriz real nn. Nesse caso, D(A) pode ser positivo,
negativo ou nulo. Nos dois primeiros casos, a imagem da base cannica E do Rn
uma base B desse espao, cujos vetores correspondem s colunas de A.
Dizemos que a base B est positivamente orientada (ou que E e B tm a mesma
orientao), se D(A) > 0.
Se D(A) 6= 0, dizer que a funo determinante anti-simtrica dizer
que, permutando duas colunas de A, alteramos a orientao da base B. (Veja a
Observao 8.52.)


i
i

ALinear 2005/12/19 13:25 page 60 #76


i

60

Determinantes

4.3

Cap. 4

Existncia de uma Funo Determinante

Precisamos, contudo, mostrar que existe alguma funo satisfazendo as


propriedades da funo determinante. o que faremos agora.
Definio 4.5 Seja A uma matriz nn. Para i, j {1, . . . , n}, Aij denota a matriz
obtida ao se eliminar a i-sima linha e a j-sima coluna de A.
Exemplo 4.6 Seja

2 3 5
A = 7 11 13 .
17 19 23

Ento
A11 =

11 13
19 23

A12 =

7 13
17 23

A13 =

7 11
17 19

e assim por diante.




Teorema 4.7 Existe uma funo determinante.


Demonstrao: Se A for uma matriz nn, faremos induo em n. Se n = 2, ento
todas as propriedades da funo determinante j foram verificadas anteriormente.1
Suponhamos a existncia de uma funo determinante D para matrizes (n 1)
(n 1) e consideremos uma matriz A = (aij ) Mnn . Definimos
D1 (A) = (1)1+1a11 D(A11 ) +. . . + (1)1+j a1j D(A1j ) + . . . + (1)1+n a1n D(A1n ).
(4.1)

Mostraremos que D1 (A) satisfaz as propriedades (d1 ) (d3 ).


Como
a propriedade (d1 ) equivalente propriedade (d1 ), D1 (A) uma funo
determinante.
(d1 ) Suponhamos que duas colunas ci e ci+1 de A sejam iguais. Em particular,
duas colunas de A1k so iguais, se k 6 {i, i + 1}. Assim, apenas os termos
(1)1+i a1i D(A1i ) e (1)1+(i+1) a1(i+1) D(A1(i+1) )
1

No h impedimento em se tomar n = 1 e considerar D(a) = a. As propriedades (ii) e (iii)


da funo determinante so obviamente verdadeiras e a propriedade (i) vale por vacuidade.

i
i

ALinear 2005/12/19 13:25 page 61 #77


i

4.4

Unicidade da Funo Determinante

61

podem ser no-nulos em (4.1). Contudo, como as colunas ci e ci+1 so iguais,


tambm so iguais as matrizes A1i e A1(i+1) . Do mesmo modo para a1i e a1(i+1) .
Disso decorre que (4.1) igual a zero.
(d2 ) Suponhamos que j-sima coluna de A seja cj + cj , isto , que para j fixo,
a sua entrada ij seja aij + aij para todo i = 1, . . . , n.
Se k 6= j, o termo a1k no depende de j, enquanto A1k depende linearmente da
coluna j de A. Assim, (1)1+k a1k A1k depende linearmente da j-sima coluna de A
para todo k 6= j. Por outro lado, se k = j, ento a1j + a1j depende linearmente da
coluna j, enquanto A1j no depende da coluna j-sima coluna de A. Assim, todos
os termos de (4.1) dependem linearmente da coluna j da matriz A.
(d3 ) Se A for a matriz identidade I, ento apenas a parcela (1)1+1 a11 D(I11 )
no nula em (4.1). Mas, nesse caso, I11 a matriz identidade (n 1) (n 1) e,
portanto, D(I11 ) = 1. Isso mostra que D1 (I) = 1.
2
Definio 4.8 Seja A uma matriz nn. Sendo D uma funo determinante definida
para matrizes (n 1) (n 1), definimos indutivamente
Di (A) = (1)i+1 ai1 D(Ai1 ) + + (1)i+n ain D(Ain ).
Esta igualdade a expanso do determinante de A segundo os cofatores da isima linha de A.
Corolrio 4.9 A funo Di , definida anteriormente, uma funo determinante.
Demonstrao: Basta verificar que pode ser repetido todo o procedimento utilizado
na demonstrao de que D1 (A) uma funo determinante.
2
Mostramos assim a existncia de vrias funes determinante. Nosso objetivo
mostrar que todas elas so iguais: existe uma nica funo determinante.

4.4

Unicidade da Funo Determinante

Definio 4.10 Seja I = {1, 2, . . . , n} ou, mais geralmente, um conjunto


{x1 , . . . , xn } com n elementos distintos. Uma permutao uma aplicao
sobrejetora p : I I.

i
i

ALinear 2005/12/19 13:25 page 62 #78


i

62

Determinantes

Cap. 4

Existem vrias notaes para uma permutao p : I I. Escreveremos pi ao invs


de p(i) (ou de p(xi )) e representaremos uma permutao p por
p=

1 2 ... n
p1 p2 . . . pn

ou por uma matriz A = (aij ), com aij = 0 se i 6= pj e aij = 1, se i = pj , chamada


representao matricial da permutao p ou matriz da permutao p.
Exemplo 4.11 Considere a permutao
p=

1 2 3 4
2 4 3 1

A permutao p representada pela matriz

0
1

0
0

0
0
0
1

0
0
1
0

1
0
= A.
0
0

Note que cada coluna da matriz A corresponde a um vetor distinto da base cannica
do Kn .

claro que uma permutao , necessariamente, injetora. Permutaes podem
ser compostas e tm inversa. Denotamos por pq a composta das permutaes p e q.
Exemplo 4.12 Considere as permutaes
p=

1 2 3 4
2 4 1 3

qp =

1 2 3 4
4 2 3 1

Ento

e q=

e p

1 2 3 4
3 4 1 2

1 2 3 4
3 1 4 2

Proposio 4.13 A composta de duas permutaes do conjunto {1, . . . , n}


equivale multiplicao das matrizes de suas permutaes.

i
i

ALinear 2005/12/19 13:25 page 63 #79


i

4.4

Unicidade da Funo Determinante

63

Demonstrao: Consideremos o espao Kn e sua base cannica. Podemos


identificar o conjunto {1, . . . , n} com {e1 , . . . , en }. Uma permutao do conjunto
E = {e1 , . . . , en } induz uma aplicao linear T : Kn Kn definida por
T (ej ) = epj e a matriz que representa p justamente a matriz TE . Essa aplicao
linear um isomorfismo, pois leva base em base. A composio de permutaes
equivale composta dessas aplicaes lineares. Mas, j vimos que a composta de
aplicaes lineares equivale multiplicao das matrizes que as representam. Isso
conclui a demonstrao.
2
Note que a Proposio 4.13 justifica a introduo da notao matricial para uma
permutao.
Definio 4.14 Uma transposio uma permutao : I I tal que existem
dois elementos i, j I (ou xi , xj I) com
i = j, j = i e k = k, k I, com k 6 {i, j}.
O prximo resultado garante a unicidade da funo determinante quando restrita
s matrizes de permutao:
Lema 4.15 Se D1 e D2 forem funes que satisfazem as propriedades (d1 ) e (d2 ) e
D1 (I) = D2 (I), ento D1 (A) = D2 (A) para toda matriz de permutao A.
Demonstrao: Seja A uma matriz de permutao n n. Uma transposio
corresponde troca de duas colunas da matriz A e altera o sinal de seu determinante.
Claramente um nmero finito (no mximo igual a n1) de transposies transforma
a matriz A na matriz identidade: basta fazer com que o vetor e1 seja transposto para
a primeira coluna, obtendo assim a matriz A1 ; depois transpor e2 para a segunda
coluna, obtendo a matriz A2 e assim sucessivamente. Se k tais transposies forem
utilizadas nesse processo, temos
D1 (A) = D1 (A1 ) = D1 (A2 ) = = (1)k D1 (I)

(4.2)

Essa igualdade mostra que a funo determinante de qualquer matriz de permutao


caracterizada pelos valores que ela assume na matriz identidade.
Como o mesmo clculo vale para D2 (A), isso mostra que essas funes
coincidem, se A for uma matriz de permutao.
2
O prximo resultado esclarece o significado de (d3 ) na definio da funo
determinante.

i
i

ALinear 2005/12/19 13:25 page 64 #80


i

64

Determinantes

Cap. 4

Teorema 4.16 Sejam D1 e D2 funes satisfazendo as propriedades (d1 ) e (d2 ). Se


D1 (I) = D2 (I), ento D1 = D2 .
Demonstrao: Sejam c1 , . . . , cn Kn vetores arbitrrios. Escrevendo cada um
desses vetores em termos da base cannica do Kn , obtemos
c1 = a11 e1 + . . . + an1 en ,
c2 = a12 e1 + . . . + an2 en ,
..
..
. =
.
cn = a1n e1 + . . . + ann en
(estamos usando essa notao para os ndices, pois os vetores c1 , . . . , cn so
colunas!).
Assim,
D1 (c1 , . . . , cn ) = D1 (a11 e1 + . . . + an1 en , c2 , . . . , cn )
= a11 D1 (e1 , c2 , . . . , cn ) + . . . + an1 D1 (en , c2 , . . . , cn ).
Se substituirmos agora c2 por a12 e1 + . . . + an2 en , obteremos uma expresso
semelhante. Feitas todas as substituies de c2 , . . . , cn , chegaremos a
D1 (c1 , . . . , cn ) =

n
X

i1 ,...,in =1

ai1 1 ai2 2 ain n D1 (ei1 , . . . , ein )

(4.3)

e a mesma igualdade vale para D2 .


Nesse somatrio, tanto para D1 como para D2 , so nulas todas as parcelas em
que h repetio de algum dos ndices i1 , . . . , in . De fato, nesse caso, temos que
ik = ij para k 6= j e ento eik = eij . Para m = 1, 2, a propriedade (d1 ) do
determinante garante ento que Dm (ei1 , . . . , eij , . . . , eik , . . . , ein ) = 0. Quer dizer,
basta considerar o caso em que todos os ndices i1 , . . . , in so diferentes entre si.
Mas, ento, est estabelecida uma permutao dos inteiros {1, . . . , n} e o resultado
segue-se do Lema 4.15.
2
Corolrio 4.17 Existe uma nica funo determinante.
Est assim mostrada a existncia de apenas uma funo determinante, definida
para qualquer matriz quadrada. Relembramos a definio dada no incio do
Captulo:

i
i

ALinear 2005/12/19 13:25 page 65 #81


i

4.4

Unicidade da Funo Determinante

65

Definio 4.18 Sejam D a funo determinante e A = (c1 cn ) uma matriz


n n denotada por meio de suas colunas. Definimos
det A = D(c1 , . . . , cn ).
Em outras palavras, passamos a utilizar a notao habitual det A para o
determinante da matriz A.
Agora vamos mostrar algumas propriedades de permutaes que normalmente
so utilizadas na prova da unicidade do determinante.
A demonstrao do Lema 4.15 nos garante que:
Corolrio 4.19 Toda permutao um produto de transposies. Alm disso, se
p = k 1 uma decomposio de p como produto de transposies, ento
D(cp1 , . . . , cpn ) = (1)k D(c1 , . . . , cn ).
Definio 4.20 Sejam p uma permutao e A a matriz que representa p. Definimos
o sinal da permutao p por
(p) = (A) := det(A).
Fazendo ci = ei no Corolrio 4.19, temos que D(A) = (1)k , se p = k 1
for a decomposio de p como produto de k transposies. Mas, a definio do
sinal garante, em particular, que (p) independe de como uma permutao pode ser
escrita como produto de transposies. Assim, o Corolrio 4.19 pode ser escrito
como
D(cp1 , . . . , cpn ) = (p)D(c1 , . . . , cn ).
(4.4)
Proposio 4.21 O sinal de uma permutao tem as seguintes propriedades:
(i) se id for a permutao identidade, ento (id) = 1;
(ii) se for uma transposio, ( ) = 1;
(iii) se p e p forem permutaes, ento (p p) = (p )(p).
Demonstrao: (i) e (ii) decorrem das propriedades (d3 ) e (d4 ) da funo
determinante. Como toda permutao produto de transposies p = k 1 e
p = j 1 . Assim, p p = j 1 k 1 e
(p p) = (1)j+k = (1)j (1)k = (p )(p).

i
i

ALinear 2005/12/19 13:25 page 66 #82


i

66

Determinantes

Cap. 4

To logo verifiquemos que det(AB) = det A det B, ser possvel apresentar


uma prova muito mais elegante de 4.21(iii) (veja o Exerccio 11).
Sabemos que basta considerarmos as permutaes do conjunto {1, . . . , n} na
equao (4.3). Tendo em vista a definio do sinal de uma permutao, (4.3)
escreve-se como
X
D(c1 , . . . , cn ) =
(p)ap1 1 ap2 2 apn n ,
(4.5)
p

que a expresso clssica do determinante em termos de permutaes.


Exemplo 4.22 Sejam c1 = (a11 , a21 ) e c2 = (a12 , a22 ) vetores do K2 . Calcule o
determinante D(c1 , c2 ).
Precisamos, em primeiro lugar, determinar todas as permutaes do conjunto
{1, 2}. Elas so a identidade e uma transposio. Assim, temos (p1 ) = 1 e
(p2 ) = 1. Ento
X
D(c1 , c2 ) =
(p)ap1 1 ap2 2 = (1)a11 a22 + (1)a12 a21 = a11 a22 a12 a21 .
p

O Exerccio 4 deixa claro que o clculo de determinantes por meio de


permutaes um processo enfadonho e pouco aplicvel. O escalonamento de uma
matriz nos fornece um mtodo muito mais eficaz:
Exemplo 4.23 Consideremos a matriz

1
1
A=
1
4

1
2
1
3

1
2
3
2

1
2
.
3
1

Multiplicando a primeira linha por 1 e somando terceira e quarta e, ento,


multiplicando a primeira linha por 4 e somando quarta linha, no alteramos o
valor do determinante:

1
1
1
1
1 1 1 1
0
1 2 2 2
1
1
1
.

det A = det
1 1 3 3 = det 0
0
2
2
0 1 2 3
4 3 2 1

i
i

ALinear 2005/12/19 13:25 page 67 #83


i

4.5

67

Propriedades do Determinante de uma Matriz

Continuando o escalonamento, obtemos (de acordo


determinante)

1
1
1
1
0

1
1
1
= (2) det
det A = det
0

0
2
2
0 1 2 3

com as propriedades do
1
0
0
0

Ento,

1
0
det A = (2) det
0
0

1
1
1

1
1
1
= (2) det

0
1
1
0 1 2

1
1
1
1
1
1
.
0
1
1
0 1 2
1
0
0
0

1
1
0
0

1
1
1
0

1
1
.
1
1

claro que, levando a ltima matriz forma escalonada reduzida por linhas,
obteremos a matriz identidade. (Veja tambm o Exerccio 16.) Assim,
det A = 2.

4.5

Propriedades do Determinante de uma Matriz

Nesta Seo mostraremos propriedades clssicas do determinante de uma


matriz.

4.5.1 O Determinante da Matriz Transposta


Teorema 4.24 Seja A uma matriz n n e At a transposta da matriz A. Ento
det A = det At .
Demonstrao: A equao (4.5) garante que
X
det A =
(p)ap1 1 ap2 2 apn n .
p

Mas, se p(i) = j, ento i = p1 p(i) = p1 (j). Como pi denota p(i), p1 (j) ser
denotado por p1 j , de modo que a ltima expresso pode ser escrita como i = p1 j .

i
i

ALinear 2005/12/19 13:25 page 68 #84


i

68

Determinantes

Cap. 4

Assim, se p1 = j, ento ap1 1 = ajp1 j . Da mesma forma para os outros ndices, de


modo que
X
X
(p)ap1 1 ap2 2 apn n =
(p)a1p1 1 a2p1 2 anp1 n .
p

Mas, se p percorrer todas as permutaes de {1, . . . , n}, o mesmo acontece com


p1 . Uma vez que o sinal de p e o de p1 o mesmo, chegamos a
X
X
det A =
(p1 )a1p1 1 a2p1 2 anp1 n =
(p)a1p1 a2p2 anpn ,
p

p1

que o determinante da matriz transposta, pois cada uma de suas entradas aparece
na forma aji ao invs de aij .
2
Corolrio 4.25 A expanso em cofatores pode ser feita tambm segundo qualquer
coluna da matriz quadrada A.

4.5.2 O Determinante do Produto de Matrizes Quadradas


Teorema 4.26 Sejam A = (aij ) e B = (bij ) matrizes n n. Ento
det(BA) = det B det A.
Demonstrao: Sejam Aj , Bj e Dj as j-simas colunas de A, B e BA,
respectivamente. A equao (3.2) garante que a j-sima coluna de uma matriz
obtida ao se calcular o seu valor em ej . Assim,
(BA)ej = B(Aej ) = BAj .
Por definio, Dj = a1j B1 + . . . + anj Bn .
determinante,

Assim, se D denotar a funo

det(BA) = D(a11 B1 + + an1 Bn , . . . , a1n B1 + + ann Bn ).


Expandindo essa ltima expresso como feito com a equao (4.3) e aplicando a
equao (4.4), encontramos
X
X
det(BA) =
ap1 1 apn n D(Bp1 , . . . , Bpn ) =
(p)ap1 1 apn n D(B1 , . . . , Bn )
p

= det B

X
p

(p)ap1 1 apn n = det B det A.

i
i

ALinear 2005/12/19 13:25 page 69 #85


i

4.5

69

Propriedades do Determinante de uma Matriz

Demonstrao alternativa do teorema 4.26: Como antes, temos que


det(BA) = D(BA1 , . . . , BAn ).
Suponhamos que det B 6= 0. Definimos ento a funo D por
D(A1 , . . . , An ) = D(A) :=

det(BA)
.
det B

Em virtude da expresso para det(BA) obtida, podemos escrever D como


D(A1 , . . . , An ) =

D(BA1 , . . . , BAn )
.
det B

(4.6)

Vamos provar que a funo D satisfaz as propriedades (d1 ) (d3 ) da funo


determinante det A. Temos
(d1 ) Se Ai = Aj , para i 6= j, ento BAi = BAj . Como D satisfaz propriedade
(d1 ), temos D = 0;
(d2 ) Como B(x + y) = Bx + By, cada BAi uma funo linear de Ai . Como
D n-linear, o mesmo vale para D;
(d3 ) Para Ai = ei , temos
D(e1 , . . . , en ) =

D(Be1 , . . . , Ben )
.
det B

Mas, Bei = Bi , a i-sima coluna de B. Logo


D(e1 , . . . , en ) =

det B
D(B1 , . . . , Bn )
=
= 1.
det B
det B

Uma vez que existe uma nica funo determinante, D(A1 , . . . , An ) = det(A).
.
Isso prova o afirmado, se det B 6= 0, pois D(A1 , . . . , An ) = det(BA)
det B
Suponhamos agora que det B
= 0.
Como vimos, a funo
D(BA1 , , BAn ) = det(BA) satisfaz as propriedades (d1 ) e (d2 ). Alm disso,
quando Ai = ei , temos 0 = det B = D(Be1 , , Ben ). O Teorema 4.16 garante
que D(BA1 , , BAn ) = 0. Assim, det(BA) = 0 e o mesmo valor assumido
por det A det B, como queramos mostrar. (Demonstraes alternativas do caso em
que det B = 0 so apresentadas nos Exerccios 10 e 25 (c).)
2

i
i

ALinear 2005/12/19 13:25 page 70 #86


i

70

Determinantes

4.6

Cap. 4

A Regra de Cramer

Sejam A = (aij ) uma matriz n n e b Kn um vetor. Consideremos a equao


Ax = b.
Suponhamos que x =

n
X

xj ej seja uma soluo dessa equao. Denotando por

j=1

cj a j-sima coluna de A, podemos escrever Ax =

n
X

xj Aej =

j=1

quer dizer que

n
X

xj cj = b. Isso

j=1

x1

..
b1
n
n
.
X
X
..

(c1 cj cn ) xj = .
xj c j = b e bi =
xj aij . (4.7)
.
j=1
j=1
..
bn
xn

Definimos Ak como sendo a matriz obtida ao se substituir a k-sima coluna de


A pelo vetor b. Descrevendo essa matriz em termos de suas colunas, obtemos
Ak = (c1 . . . ck1 b ck+1 . . . cn ) = (c1 . . . ck1

n
X

xj cj ck+1 . . . cn ),

(4.8)

j=1

desde que x seja uma soluo de Ax = b.


Assim, utilizando a notao de D para a funo determinante,
det Ak =

n
X

xj D(c1 , . . . , ck1 , cj , ck+1 , . . . , cn ).

j=1

Logo, se x for soluo de Ax = b, vale


det Ak = xk det A,

(4.9)

pois todos os outros termos se anulam no somatrio. Portanto,


det Ak
,
(4.10)
det A
desde que det A 6= 0. Essa a regra de Cramer para se obter a soluo da equao
Ax = b, para um dado b. Ela garante que, se det A 6= 0, ento a (nica) soluo x
Ak
de Ax = b tem coordenadas que satisfazem a igualdade xk = det
.
det A
xk =

i
i

ALinear 2005/12/19 13:25 page 71 #87


i

4.6

71

A Regra de Cramer

Teorema 4.27 Para k {1, . . . , n}, seja


B = (1)1+k det A1k . . . (1)i+k det Aik . . . (1)n+k det Ank ,

em que a matriz B est sendo descrita em termos de suas colunas. Ento vale
BA = AB = (det A)I.

(4.11)

Assim, A invertvel se, e somente se, det A 6= 0. Nesse caso, A1 =


(1/ det A)B, ou seja,
det Aik
.
(4.12)
(A1 )ki = (1)i+k
det A
A matriz B chamada de adjunta clssica de A.
Demonstrao: Tome x Rn arbitrrio e defina u = Ax. De acordo com a
equao (4.8), se expandirmos det Ak com relao a sua k-sima coluna, obtemos
det Ak =

n
X

(1)i+k det Aik ui .

i=1

Decorre da equao (4.9), que

(det A) xk =

n
X

(1)i+k det Aik ui .

(4.13)

i=1

A equao (4.7) nos mostra como se multiplica uma matriz descrita em termos
de suas colunas por um vetor (observe a inverso de ndices na definio de B!):


x1
u
 .1
..
1+k
i+k
n+k
det A . = (1) det A1k (1) det Aik (1)
det Ank ..
xn
un
Quer dizer, mostramos que, ao definir u = Ax, ento vale
(det A) x = Bu.

(4.14)

Como u = Ax, vem (det A) x = BAx para todo x e, portanto, BA = (det A) I.


Se det A 6= 0, ento (1/ det A) B a inversa de A (veja o Exerccio 13 do
Captulo 3). Se, por outro lado, A tiver inversa A1 , aplicando o determinante
em ambos os lados de AA1 = I, obtemos det A det A1 = det I = 1. Logo,
det A 6= 0.
Para AB 0 no caso em que det A = 0, veja o Exerccio 19.
2

i
i

ALinear 2005/12/19 13:25 page 72 #88


i

72

Determinantes

4.7

Cap. 4

Matrizes Semelhantes

Definio 4.28 Seja A = (aij ) uma matriz quadrada. Definimos o trao da matriz
A, denotado por tr A, por
n
X
tr A =
aii .
i=1

Teorema 4.29 O trao uma aplicao linear e tr (AB) = tr (BA).


Demonstrao: A linearidade do trao bvia. Por definio, temos
(AB)ii =

n
X

aik bki

e (BA)kk =

n
X

bki aik .

i=1

k=1

Assim,
tr (AB) =

n
n
X
X
i=1

aik bki

k=1

n
n
X
X
k=1

i=1

bki aik

= tr (BA).
2

Definio 4.30 Duas matrizes A e B so semelhantes, se existir uma matriz


invertvel P tal que B = P 1 AP .
Claramente, temos assim definida uma relao de equivalncia2 no conjunto das
matrizes n n.
Teorema 4.31 Matrizes semelhantes possuem o mesmo determinante e o mesmo
trao.
Demonstrao: Temos
det B = det(P 1 AP ) = det P 1 det A det P = det A det(P 1 P ) = det A det I
= det A.
Tambm, pelo Teorema 4.29,
tr B = tr (P 1 AP ) = tr (AP P 1 ) = tr (AI) = tr A.
2

Veja o Exerccio 38 do Captulo 3.

i
i

ALinear 2005/12/19 13:25 page 73 #89


i

4.8

73

Exerccios

Como vimos anteriormente, dada uma aplicao linear T de um espao X de


dimenso n nele mesmo, ao se escolher uma base de X, podemos representar T por
uma matriz. Duas representaes de T , obtidas pela escolha de duas bases distintas,
so semelhantes. Aplicando o teorema anterior, vemos que faz sentido a seguinte
definio:
Definio 4.32 Seja T : V V uma aplicao linear definida no espao vetorial
de dimenso finita V . Definimos
tr T = tr TBB = tr TB

det T = det TBB = det TB ,

em que B qualquer base de V .

4.8

Exerccios

1. Seja K = R ou K = C. Mostre que a propriedade (d4 ) da funo


determinante implica a propriedade (d1 ). Assim, poderamos ter definido a
funo determinante como uma que satisfaz as propriedades (d2 )(d3 )(d4 ).
2. Sem calcular o determinante da matriz que a representa, obtenha (p), sendo


1 2 3 4 5 6
.
p=
5 4 2 1 6 3
Escreva p como produto de transposies.
3. Seja A uma matriz de permutao. Mostre que A1 = At e que (A) =
(A1 ).
4. Repita o Exemplo 4.22 para trs vetores genricos do K3 . Em outras palavras,
calcule o determinante de uma matriz 3 3 utilizando a expresso (4.5).
5. Sejam c1 , . . . , cn Kn as colunas da matriz A. Mostre que det A = 0 implica
que os vetores c1 , . . . , cn so linearmente dependentes.
6. Aplique as propriedades da funo determinante para calcular o determinante
da matriz

2
5 3 2
2 3
2 5
.

1
3 2
2
1 6
4
3

i
i

ALinear 2005/12/19 13:25 page 74 #90


i

74

Determinantes

Cap. 4

7. Mostre o Corolrio 4.25.


8. Seja A uma matriz n n. Mostre que: det(tI A) um polinmio mnico3
de grau n na varivel t.
9. Seja B(t) uma matriz n n cujas entradas bij (t) dependem continuamente
da varivel t. Mostre que det B(t) depende continuamente de t.
10. Suponha provado que det(AB) = det A det B, se det B 6= 0. Usando os
Exerccios 8 e 9, defina B(t) = B + tI e mostre a validade do resultado
tambm no caso em que det B = 0.
11. Representando permutaes por matrizes, verifique que a Proposio
4.21(iii) conseqncia imediata do Teorema 4.26.
12. Seja A Mmn (R) uma matriz de posto r. Mostre que r o maior nmero
natural tal que A possui uma submatriz Ar , r r, com det Ar 6= 0.
13. Sejam x1 , x2 , x3 K. Mostre que

1 x1 x21
det 1 x2 x22 = (x2 x1 )(x3 x1 )(x3 x2 ).
1 x3 x23
Se x1 , . . . , xn K, mostre ento por induo que

1 x1 x1n1
1 x2 xn1 Y
2

(xi xj )
Vn = det ..
.. =
.
. i>j
1 xn xnn1

em que o produtrio tomado sobre todos os termos (xj xi ) com i < j.


Esse determinante o determinante de Vandermonde de ordem n.
14. Mostre que, se as funes f1 , f2 forem de classe C 2 e se


f1 (t) f2 (t)
,
(t) = det
f1 (t) f2 (t)
3

Isto , o coeficiente do termo de maior grau igual a 1.

i
i

ALinear 2005/12/19 13:25 page 75 #91


i

4.8

75

Exerccios

ento

(t) = det

f1 (t) f2 (t)
f1 (t) f2 (t)

Generalize ento para matrizes n n:

f1 (t)
f1 (t)

(t) = det A(t) = det


..

.
(n1)

f1

f2 (t)
f2 (t)
(n1)

(t) f2

fn (t)
fn (t)
..
.
(n1)

(t) fn

(t)

com fj (t) suficientemente suave para j = 1, . . . , n. A funo (t) muitas


vezes denotada por W (f1 , . . . , fn )(t) e chamada Wronskiano das funes
f1 , . . . , fn .
15. Sejam f1 , . . . , fn : I R R funes de classe C n1 . Mostre que, se existir
um ponto t0 I tal que W (f1 , . . . , fn )(t0 ) 6= 0, ento essas funes so
linearmente independentes no espao C n1 (I) de todas as funes de classe
C n1 definidas no intervalo I. Generalize para funes analticas definidas
num aberto U C. Mostre ento que, se 1 , . . . , n C forem distintos e
no-nulos, as funes e1 t , . . . , en t so linearmente independentes.
16. Seja A uma matriz triangular superior, isto , uma matriz da forma

a11 a12 a1n


0 a22 a2n

A = ..
.. .
..
.
.
.
.
.
.
0
0 ann

Mostre que det A = a11 ann . Mostre o resultado anlogo para uma matriz
triangular inferior, isto , para uma matriz com a forma da transposta da
matriz A dada acima.

17. Considere a matriz n n


Q=

A B
0 D

em que A uma matriz m m e D uma matriz (n m) (n m). Mostre


que
det Q = det A det D.

i
i

ALinear 2005/12/19 13:25 page 76 #92


i

76

Determinantes

Cap. 4

Generalize para uma matriz A que seja triangular superior em blocos, isso ,
uma matriz da forma

A1
0 A2

P = ..
.. ,
.. . .
.
. .
.
0 0 Aj

em que denota uma matriz de tamanho adequado e cada matriz Ai


quadrada.
18. Sejam A, B, C, D Mnn (K), com det A 6= 0. Mostre que


A B
= det(AD ACA1 B).
det P = det
C D
Para isso, encontre X e Y tais que


 

I Y
A 0
A B
.
=
0 X
C I
C D
(A matriz X chamada complemento de Schur de A em P .)

Em particular, se AC = CA, isso implica que det P = det(AD


CB). Nesse caso, utilizando a continuidade da funo determinante (veja
o Exerccio 9), mostre que o resultado continua vlido tambm se det A = 0.
19. Dada a matriz quadrada A, seja B a adjunta clssica de A. Mostre que
a adjunta clssica de At igual a B t . Utilize ento a igualdade B t At =
(det At ) I para concluir a demonstrao do Teorema 4.27.
20. Mostre a igualdade

1 det Ai1 + 2 det Ai2 + . . . + n det Ain = det A,


em que A a matriz obtida de A trocando-se sua i-sima linha pela linha
(1 2 . . . n ). Mostre tambm o resultado anlogo para
1 det A1j + . . . + n det Anj
e produza uma nova demonstrao do Teorema 4.27.

i
i

ALinear 2005/12/19 13:25 page 77 #93


i

4.8

77

Exerccios

21. Usando a regra de Cramer, determine os valores de k para os quais o sistema


kx + y + z = 1
x + ky + z = 1
x + y + kz = 1
possui soluo nica. Compare com o resultado obtido por meio de
escalonamento (mtodo de Gauss - veja o Apndice A).
22. Sejam A, B matrizes n n. Mostre que a igualdade AB BA = I nunca
satisfeita.
23. Seja B Mnn (K) uma matriz fixa. Defina B : Mnn (K) Mnn (K)
por
B (A) = AB BA.
Mostre que B linear e que det B = 0.
24. Sejam A, B matrizes n n. Mostre que, se AB BA = A, ento det A = 0.
Os prximos resultados dependem da teoria de escalonamento e de matrizes
elementares (veja o Apndice A).
24. Utilizando escalonamento e matrizes elementares, mostre que A possui
inversa se, e somente se, det A 6= 0. (Veja o Teorema 4.27).
25. Mostre que det(AB) = det A det B utilizando matrizes elementares. Para
isso:
(a) Mostre o resultado no caso de A ser uma matriz elementar;
(b) Suponha que a matriz A seja invertvel (e, portanto, um produto de
matrizes elementares, pelo Exerccio 13 do Captulo 11). Mostre o
resultado usando (a);
(c) Mostre que, se AB for invertvel, ento A e B so invertveis. Conclua
que, se A no tiver inversa, ento det(AB) = 0 = det A det B.
26. Mostre que det At = det A utilizando matrizes elementares.

i
i

ALinear 2005/12/19 13:25 page 78 #94


i

5
Operadores e Polinmios
Neste Captulo introduzimos autovalores e autovetores, apresentamos alguns
resultados simples sobre diagonalizao de operadores, demonstramos o Teorema
de Cayley-Hamilton e definimos a complexificao de um espao real.

5.1

Autovetores e Autovalores

Dados um espao vetorial X de dimenso finita e um operador linear T : X


X, queremos encontrar uma base B de X, na qual a representao TB desse operador
seja a mais simples possvel.
Consideremos a seguinte situao ideal: suponhamos a existncia de uma
decomposio
X = W1 W2 Wn ,

dim Wi = 1,

T (Wi ) Wi ,

1 i n. (5.1)

Seja {wi } uma base de Wi . Ento B = {w1 , . . . , wn } uma base de X. Como


T (Wi ) Wi , existe i K tal que T wi = i wi . A representao de T na base B
(no domnio e na imagem) a matriz diagonal A = TB , dada por

1 0 0
0 2 0

A = ..
.. . .
.. .
.
. .
.
0 0 n

Dizemos, ento, que T diagonalizvel. (Note que podemos ter i = j para


i 6= j.)
Observe que a igualdade T wi = i wi garante que wi ker(i I T ); assim,
det(i I T ) = det(i I A) = 0, de acordo com a Definio 4.32 (veja o Exerccio
78
i

i
i

ALinear 2005/12/19 13:25 page 79 #95


i

5.1

79

Autovetores e Autovalores

1). Isso quer dizer que i uma raiz do polinmio p(t) = det(tI A), chamado
polinmio caracterstico do operador T (ou da matriz A). Lembramos1 que p(t)
um polinmio mnico de grau n. Assim, podemos concluir (mesmo quando i = j
para i 6= j) que
p(t) = (t 1 )(t 2 ) (t n )
(5.2)

e wi ker(i I T ). (Note que a equao T x = i x satisfeita por qualquer


elemento de Wi .)
Mudemos agora o enfoque e consideremos o operador T com seu polinmio
caracterstico p(t) = det(tI T ). As razes K do polinmio caracterstico so
os autovalores de T . Se existirem n razes distintas i K, isto , se
p(t) = (t 1 ) (t n ),
com i 6= j para i 6= j, o espao Wi := ker(T i I) ter dimenso 1. De
fato, existe pelo menos um vetor no-nulo wi tal que (T i I)wi = 0 pois, como
T i I no tem inversa, o sistema (T i I)x = 0 tem soluo no-trivial wi . (Esse
vetor wi 6= 0 um autovetor de T associado ao autovalor i .) Isso quer dizer que
dim Wi 1. Para garantir que dim Wi = 1, aceitaremos momentaneamente que
autovetores wi associados a autovalores distintos i so linearmente independentes,
resultado que ser demonstrado mais adiante. Admitido esse resultado, conclumos
que {w1 , . . . , wn } uma base de X e dim Wi = 1. Quer dizer, nesse caso especial
em que o polinmio caracterstico possui n razes distintas no corpo K, teremos
provado que
X = W1 W2 Wn ,
com Wi = ker(T i I) e T (Wi ) Wi (pois T (cwi ) = cT wi = ci wi Wi ).
Estamos, assim, em um caso particular da situao em que iniciamos; logo, a
representao de T na base B = {w1 , . . . , wn } ser justamente a matriz diagonal
dada por A.
Entretanto, nem sempre o polinmio caracterstico produto de fatores lineares
distintos, mesmo se o operador T for diagonalizvel. Considere o seguinte exemplo:

Exemplo 5.1 O polinmio caracterstico da aplicao identidade I : Rn Rn


p(t) = det(tI I) = (t 1)n , que possui apenas a raiz 1.Vale a decomposio (5.1)
Kn = V1 Vn

com Vi = {cei | c K} e I(Vi ) Vi . Contudo, ao autovalor 1 est associado o


espao W1 = ker(1I I) = ker 0 = Kn .

1

Veja o Exerccio 8 do Captulo 4.

i
i

ALinear 2005/12/19 13:25 page 80 #96


i

80

Operadores e Polinmios

Cap. 5

Antes de mostrarmos a afirmao que autovetores associados a autovalores


distintos so linearmente independentes, ressaltaremos algumas definies:
Definio 5.2 Sejam X um espao vetorial sobre o corpo K, com dimenso finita
n, e T : X X um operador. O polinmio p(t) := det(tI T ) o polinmio
caracterstico de T . As razes i K desse polinmio so os autovalores de T . A
multiplicidade algbrica de um autovalor a sua multiplicidade como raiz de p(t).2
Os elementos no-nulos do ncleo ker(i I T ) so os autovetores associados ao
autovalor i , ou simplesmente autovetores de T . O auto-espao X associado ao
autovalor definido por
X := ker(I T ) = {x X; (I T )x = 0}.
O conjunto dos autovalores de T o espectro de T e denotado por (T ).
Se existir uma base B de X tal que TB seja uma matriz diagonal, dizemos que
T diagonalizvel.
Observao 5.3 Note que a equao (4.11) tem implicao importante, no caso
em que det A = 0: como AB = (det A)I, conclumos que cada coluna no-nula da
matriz B um autovetor de A associado ao autovalor 0.

Frisamos que apenas as razes i K do polinmio caracterstico so
autovalores do operador. Assim, se T : R2 R2 for definido por T (x, y) =
(y, x), ento seu polinmio caracterstico p(t) = t2 + 1, que no possui razes
reais. Portanto, T no possui autovalores e (T ) = . Considerando T : C2 C2
definido da mesma maneira, p(t) = t2 + 1 = (t i)(t + i), e (T ) = {i, i}. Isso
mostra que a anlise de uma aplicao linear T : X X depende muito do corpo
K sobre o qual X espao vetorial.
Observao 5.4 O polinmio caracterstico de T : X X especialmente
importante por causa de suas razes, os autovalores de T . Como det(T tI) =
(1)n det(tI T ) (em que n a dimenso de X) um polinmio que possui as
mesmas razes de det(tI T ), usual chamar de polinmio caracterstico de T
tambm ao polinmio det(T tI).
Mostraremos agora a afirmativa de que autovetores associados a autovalores
distintos so linearmente independentes. Sendo mais preciso:
2

Veja o Exerccio 3 para a definio de multiplicidade de uma raiz.

i
i

ALinear 2005/12/19 13:25 page 81 #97


i

5.1

Autovetores e Autovalores

81

Teorema 5.5 Se wi for um autovetor de T : X X associado ao autovalor


i K, e se i 6= j para i 6= j, ento o conjunto {w1 , . . . , wk } linearmente
independente.
Demonstrao: Faremos induo no nmero k de elementos do conjunto
{w1 , . . . , wk }. Se k = 1, o resultado bvio. Suponhamos verdadeiro para k 1
vetores e consideremos o caso de k vetores. Se
1 w1 + 2 w2 + . . . + k wk = 0,

(5.3)

aplicando T em (5.3), obtemos


1 T w1 + 2 T w2 + . . . + k T wk = 0.
Mas T wi = i wi . Assim,
1 1 w1 + . . . + k k wk = 0.
Por outro lado, multiplicando (5.3) por k , vem
1 k w1 + 2 k w2 + . . . + k k wk = 0.
Subtraindo essas duas ltimas equaes, conclumos que
1 (1 k )w1 + 2 (2 k )w2 + . . . + k1 (k1 k )wk1 = 0.
Como i k 6= 0 para todo i = 1, . . . , k 1, a hiptese de induo garante que
i = 0 para i {1, . . . , k 1}. Levando em (5.3), conclumos que k = 0 e que
{w1 , . . . , wk } linearmente independente.
2
O corolrio a seguir traz o enunciado do resultado verificado no incio da Seo:
Corolrio 5.6 Se X for um espao vetorial de dimenso n e se o polinmio
caracterstico do operador linear T : X X possuir n razes distintas, ento
X possui uma base B formada por autovetores de T . A aplicao T representada
na base B uma matriz diagonal, sendo os elementos da diagonal principal os
autovalores de T .
Finalizamos esta Seo apresentando uma caracterizao dos operadores
lineares diagonalizveis T : X X definidos no espao vetorial de dimenso
finita X.

i
i

ALinear 2005/12/19 13:25 page 82 #98


i

82

Operadores e Polinmios

Cap. 5

Teorema 5.7 Seja X um espao de dimenso finita. Uma aplicao linear T :


X X diagonalizvel se, e somente se, existir uma base B de X formada por
autovetores de T .
Demonstrao: Suponhamos que B = {v1 , . . . , vn } seja uma base de X tal que TB
seja uma matriz diagonal (no estamos supondo que os i sejam distintos!):

1 0 0
0 2 0

TB = D = ..
.. . .
.. .
.
.
.
.
0 0 n

Claramente Dei = i ei . Seja B : X Kn o isomorfismo dado por B(vi ) = ei .


Ento T = B 1 DB e T vi = B 1 D(Bvi ) = B 1 Dei = B 1 (i ei ) = i B 1 ei =
i vi , mostrando que cada vi autovetor de T .
A recproca imediata.
2
fcil dar exemplos de operadores que no so diagonalizveis:
Exemplo 5.8 Consideremos o operador T : R2 R2 , cuja representao matricial
na base cannica do R2


0 1
.
A=
0 0

O polinmio caracterstico de A (e de T ) p(t) = t2 , de modo que seu nico


autovalor = 0. A esse autovalor de A est associado um nico autovetor:
Ae1 = 0e1 . Pelo Teorema 5.7, no existe uma base B de R2 , na qual A assuma uma
representao diagonal.


5.2

Subespaos Invariantes

Os resultados apresentados na Seo anterior tornaram clara a utilidade de


encontrarmos subespaos invariantes por um operador linear T : X X. Nesta
Seo apresentaremos um critrio para verificar se um subespao invariante por
T.
Para isso, consideremos um espao vetorial X . Suponhamos que esteja escrito
como uma soma direta:
X = W1 W ,
(5.4)

i
i

ALinear 2005/12/19 13:25 page 83 #99


i

5.2

83

Subespaos Invariantes

isto , que cada ponto x X tenha uma nica representao


x = x1 + . . . + x ,

xj W j ,

j = 1, . . . , .

Para j {1, . . . , }, definimos as projees cannicas


j : X Wj X
x 7 xj .
Claramente vale
j i = ij i ,

(5.5)

em que ij = 0, se i 6= j, e ii = 1, com i, j {1, . . . , }. Alm disso,

j = I.

(5.6)

j=1

Reciprocamente, se os operadores lineares 1 , . . . , satisfizerem (5.5) e (5.6),


definindo Wj = j (X), temos que (5.4) se verifica e que os operadores j so as
projees cannicas dessa decomposio.
Definio 5.9 Suponhamos que
X = W1 W
e que T : X X satisfaa T (Wj ) Wj para j = 1, . . . , . Dizemos ento que
os subespaos Wj so invariantes pelo operador linear T L(X, X). Definimos
ento os blocos Tj de T por Tj = T |Wj : Wj Wj . Dizemos tambm que T a
soma direta dos operadores Tj .
Proposio 5.10 Suponhamos que T L(X, X) e X = W1 W , com
projees correspondentes j , j = 1, . . . , . Ento T (Wj ) Wj se, e somente se,
T j = j T.
Demonstrao: Suponhamos que T (Wj ) Wj . Tome x X arbitrrio. Ento
j x Wj e, conseqentemente, T j x Wj . Logo i T j x = ij T j x para todo
j = 1, . . . , . Somando todos esses termos e utilizando (5.6), obtemos
!

X
X
X
T i x =
ij T j x =
i T j x = i T
j x = i T x.
j=1

j=1

j=1

i
i

ALinear 2005/12/19 13:25 page 84 #100


i

84

Operadores e Polinmios

Cap. 5

Reciprocamente, se T comutar com todo j , para todo x Wj vale


T x = T j x = j T x Wj ,
mostrando que T (Wj ) Wj .

Note que os resultados apresentados independem do fato do espao X ter


dimenso finita. Por outro lado, se os subespaos Wj da decomposio
X = W1 W
forem invariantes por T : X X e X tiver dimenso finita, a escolha de bases Bi
para os espaos Wi produz uma base B = {B1 , . . . , Bn } para X. A representao
de T nessa base, TB uma matriz diagonal em blocos, isto :

[T1 ]B1
0

0
0
[T2 ]B2
0

TB = ..
..
.. .
.
.
.
.
.
.
0
0
[T ]B
Reciprocamente, se existir uma base B do espao X na qual T : X X
representado por uma matriz diagonal com blocos, ento existe uma decomposio
X = W1 W , com T (Wi ) Wi (veja o Exerccio 11).
A decomposio do espao X como soma direta de subespaos invariantes pelo
operador T : X X ser exaustivamente estudada no Captulo 7.

Exemplo 5.11 Sejam W1 = {(x, 0, z, 0) R4 } e W2 = {(0, y, 0, w) R4 }.


Claramente vale
R4 = W1 W2 .
Considere a aplicao T : R4 R4 definida por

T (x, y, z, w) = (x z, y + w, x + 2z, w)
Claramente T (Wi ) Wi para i = 1, 2.
Tomemos as bases B1 =
{(1, 0, 1, 0), (1, 0, 1, 0)} e B2 = {(0, 1, 0, 1), (0, 0, 0, 1)} de W1 e W2 ,
respectivamente. A representao de T na base B = {B1 , B2 }
3

12
0 0
2
3
3
0 0
2
2
.
TB =
0
0
2 1
0
0 1 0


i
i

ALinear 2005/12/19 13:25 page 85 #101


i

5.3

O Polinmio Mnimo

5.3

O Polinmio Mnimo

85

Sejam T : X X um operador linear e q K[z], com q(z) = k z k +


k1 z k1 + 1 z + 0 . Mesmo se X tiver dimenso infinita, est bem definido o
operador
q(T ) := k T k + k1 T k1 + + 1 T + 0 I.
(Se X for um espao de dimenso finita, a aplicao linear q(T ) : X X
representada por uma matriz n n ao se escolher uma base de X.)
Nosso objetivo generalizar esse procedimento, de modo a averiguarmos em
qual situao possvel obter f (T ), mesmo que f no seja um polinmio. (Esse
o objetivo do Captulo 6.) Comeamos, contudo, estudando funes polinomiais.
Lembramos que um polinmio mnico, se o coeficiente de seu termo de maior
grau for igual a 1.
Definio 5.12 Um polinmio mnimo m K[z] de uma aplicao T : X X
um polinmio mnico de menor grau tal que m(T ) = 0.
Lema 5.13 Todo operador linear T : X X, definido em um espao X de
dimenso n, possui um polinmio mnimo.
Demonstrao: O espao L(X, X) de todas as aplicaes lineares T : X X
um espao vetorial de dimenso n2 . (Esse espao isomorfo ao espao Mnn (K)
de todas as matrizes n n com entradas em K). Assim, as aplicaes lineares I,
2
T, T 2 , . . . , T n so, necessariamente, linearmente dependentes. Quer dizer, existem
escalares 0 , 1 , . . . , n2 K, nem todos nulos, tais que
2

0 I + 1 T + . . . + n2 T n = 0.
2

Definindo p(z) = 0 + 1 z + . . . + n2 z n , temos 0 6= p e p(T ) = 0. Dividindo


pelo coeficiente do termo de maior grau, obtemos um polinmio mnico p. O
polinmio mnimo ento existe, como decorrncia da aplicao do Princpio da Boa
Ordenao ao conjunto de todos os polinmios mnicos que anulam T .
2

Lema 5.14 Se p(T ) = 0 para um polinmio p K[z] e m um polinmio mnimo


de T , ento p um mltiplo de m.

i
i

ALinear 2005/12/19 13:25 page 86 #102


i

86

Operadores e Polinmios

Cap. 5

Demonstrao: Se I denotar o conjunto de todos os polinmios com coeficientes


em K[z] que anulam T , claramente a soma de dois polinmios em I, bem como
a multiplicao de p por qualquer polinmio (com coeficientes em K) esto em I.
(Quer dizer, I um ideal.) A diviso euclidiana de p por m nos d p = qm + r.
Como r = p qm pertence a I e o grau de m mnimo, conclumos que r = 0. 2
Note que, em particular, esse resultado implica a unicidade do polinmio
mnimo de T .

5.4

O Teorema de Cayley-Hamilton

Apresentamos agora um dos resultados mais importantes da lgebra Linear. Ele


tambm vlido para operadores definidos em espaos reais de dimenso finita,
como mostraremos posteriormente (veja o Corolrio 5.22):
Teorema 5.15 (Cayley-Hamilton)
Seja X um espao complexo de dimenso finita. Se p K[z] for o polinmio
caracterstico de T : X X, ento p(T ) = 0.
Demonstrao: Faremos induo sobre n = dim X ou, o que o mesmo, sobre
o tamanho da matriz que representa o operador T . Se n = 1, o resultado bvio.
Suponhamos que ele seja vlido para qualquer espao complexo de dimenso n 1
e consideremos T : X X, com dim X = n. Seja C uma raiz do polinmio
caracterstico p de T e tome x1 tal que T x1 = x1 . Considere ento uma base
{x1 , x2 , . . . , xn } de X, cujo primeiro elemento x1 . Nessa base, T representado
por uma matriz com a forma



,
(5.7)
A=
0 A1
em que A1 denota uma matriz quadrada e representa n 1 entradas sobre as quais
no temos controle. Claramente,
p(t) = det(tI A) = (t ) det(tI A1 ) = (t )p1 (t),
em que p1 (t) o polinmio caracterstico de A1 . Assim (veja o Exerccio 14),
p(A) = (A I)p1 (A).

i
i

ALinear 2005/12/19 13:25 page 87 #103


i

5.5

87

A Complexificao de um Espao Vetorial

Para obtermos p1 (A), decorre de (5.7) que Ak tem a forma (veja o Exerccio 15)

e, portanto,
p1 (A) =

k
0 Ak1

p1 ()

0
p1 (A1 )

p1 ()
0
0

de acordo com nossa hiptese de induo.


Assim, (os tamanhos das matrizes I so diferentes em cada expresso)
p(A) = (A I)p1 (A) =

0 (A1 I)



p1 ()
0
0

0 0
0 0

completando a demonstrao.

,
2

Uma demonstrao alternativa do Teorema de Cayley-Hamilton, vlida para R


ou C, sugerida no Exerccio 16.
O prximo resultado conseqncia imediata do Lema 5.14.
Corolrio 5.16 Seja T : X X um operador no espao complexo de dimenso
finita X. O polinmio mnimo de T um divisor do polinmio caracterstico de T .
Como mostraremos na prxima Seo, esse mesmo resultado vale sem a
hiptese de X ser um espao complexo.

5.5

A Complexificao de um Espao Vetorial

Definio 5.17 Sejam A Mnn (K) e z Kn um vetor qualquer. Definimos a


matriz conjugada A Mnn (K) como a matriz obtida ao se tomar o conjugado
em cada uma das entradas de A e o vetor conjugado z Kn como o vetor obtido
ao se tomar o conjugado em cada uma das coordenadas de z.
B,
AB = A B
para quaisquer
de verificao imediata que A + B = A +
z para
matrizes A, B Mnn (K) e K. Alm disso, tambm vale Az = A
n
qualquer z K .

i
i

ALinear 2005/12/19 13:25 page 88 #104


i

88

Operadores e Polinmios

Cap. 5

Definio 5.18 Definimos a complexificao de um espao vetorial real X como


sendo o conjunto
XC = {u + iv; u, v X}.
Em XC , definimos a soma de vetores e a multiplicao por um nmero complexo
de maneira "natural". fcil verificar que XC torna-se, assim, um espao vetorial
sobre os complexos.
Definio 5.19 Sejam X um espao real e T : X X uma aplicao linear.
Definimos a complexificao de T como sendo a aplicao TC : XC XC , dada
por TC (u + iv) = T u + iT v.
Proposio 5.20 Sejam X um espao vetorial real de dimenso finita e T : X
X uma aplicao linear. As seguintes afirmativas so vlidas:
(i) toda base de X sobre R uma base de XC sobre C;
(ii) os polinmios caractersticos de T e TC so iguais;
tambm um autovalor de TC ; as
(iii) se for um autovalor de TC , ento
so iguais;
multiplicidades algbricas dos autovalores e
XC um subespao tal que
(iv) seja W

w = u + iv W

.
w = u iv W

possui uma base formada por vetores reais.


Ento W
Demonstrao: (i) Basta notar que as partes real u e imaginria v de qualquer
vetor u + iv podem ser escritas como combinao linear dos elementos da base de
X.
(ii) Escolhida uma base de X sobre os reais, decorre imediatamente de (i), pois
as representaes de T e TC nessa base so iguais.
(iii) Sejam um autovalor de TC e p(z) o polinmio caracterstico de TC .
Como p(z) tambm o polinmio caracterstico de T , os coeficientes de p(z)
= 0,
so reais. Tomando o conjugado na equao p() = 0, obtemos p()
tambm uma raiz do polinmio caracterstico de TC . Se
o que mostra que

(d1)
p () = . . . = p
() = 0 e p(d) () 6= 0 (isto , se for raiz de multiplicidade d
do polinmio caracterstico), tomando o conjugado em cada uma dessas equaes

i
i

ALinear 2005/12/19 13:25 page 89 #105


i

5.5

A Complexificao de um Espao Vetorial

89

= . . . = p(d1) ()
= 0 e p(d) ()
6= 0, o que garante que
tambm
obtemos p ()
tem multiplicidade d.
, com wj = uj + ivj , j = 1, . . . , k.
(iv) Seja {w1 , . . . , wk } uma base de W
Somando e subtraindo os vetores wj e wj , obtemos que uj = uj + i0 e vj = vj + i0
. Assim, o conjunto S = {u1 , v1 , . . . , uk , vk } um conjunto de vetores
esto em W
. Uma base formada de vetores reais obtida ao se tomar um
reais que gera W
subconjunto de S com k elementos que seja linearmente independente em X. (Veja
o Exerccio 19.)
2
Exemplo 5.21 Consideremos o operador T : R2 R2 definido por T (x, y) =
(y, x). Sua representao matricial na base cannica do R2 a matriz


0 1
.
A=
1
0
A complexificao TC do operador T definida por

TC (x1 , y1 ) + i(x2 , y2 ) = T (x1 , y1 ) + iT (x2 , y2 ) = (y1 , x1 ) + i(y2 , x2 ).

A representao matricial de TC com relao base cannica de C2 tambm dada


pela matriz A.

Decorre de (i) que XC um espao vetorial de dimenso n sobre os complexos.
Entretanto, ele um espao vetorial de dimenso 2n sobre os reais. Se os escalares
forem reais, X XC um subespao. (Veja o Exerccio 13.)
Corolrio 5.22 (Cayley-Hamilton) Seja T : X X um operador sobre o espao
real de dimenso finita X e p o polinmio caracterstico de T . Ento p(T ) = 0.
Demonstrao: No caso real, o resultado decorre da Proposio 5.20 (ii).

Note que, no caso de um espao X real de dimenso finita, o Corolrio 5.16


decorre imediatamente do corolrio anterior e do Lema 5.14.
Corolrio 5.23 Sejam T : X X um operador linear e TC sua complexificao.
XC possuir uma base formada por vetores reais, ento ele a
Se o subespao W
. Se WC for invariante
complexificao de um subespao W X, isto , WC = W
por TC , ento os polinmios mnimos de TC |W e de T |W so iguais.

i
i

ALinear 2005/12/19 13:25 page 90 #106


i

90

Operadores e Polinmios

Cap. 5

da forma w = u + iv, sendo u e v vetores reais.


Demonstrao: Todo vetor de W
Escrevendo u e v em termos dos vetores da base real, segue-se imediatamente da
a complexificao do espao real W gerado pelos vetores dessa base.
que W
Como a representao matricial de TC |W e de T |W em termos da base real a
mesma, seus polinmios mnimos coincidem.
2

5.6

Um Homomorfismo de lgebras

Polinmios em K[z] e operadores lineares T : X X definidos em um espao


vetorial sobre o corpo K tm em comum, alm de ambos serem espaos vetoriais,
uma importante propriedade: existe uma multiplicao em ambos os conjuntos.
Definio 5.24 Uma lgebra A sobre o corpo K um espao vetorial sobre o
corpo K que possui, adicionalmente, uma multiplicao satisfazendo as seguintes
propriedades, para todos u, v, w A e k K:
(i) (uv)w = u(vw) (associatividade);
(ii) u(v + w) = uv + uw (distributividade);
(iii) k(uv) = (ku)v = u(kv).
Se existir um elemento e A tal que eu = ue = u para todo u A, a lgebra
A possui uma unidade. Se uv = vu para todos u, v A, temos uma lgebra
comutativa.
Exemplo 5.25 O espao vetorial K[z] de todos os polinmios com coeficientes em
K uma lgebra comutativa com unidade. O espao vetorial Mnn (K) uma
lgebra (no-comutativa) com unidade. O espao L(X, X) uma lgebra. (Se X
for um espao de dimenso finita, essa lgebra pode ser identificada com Mnn (K),
ao escolhermos uma base em X.) Fixado T L(X, X), seja K[T ] o conjunto
de todas as aplicaes lineares obtidas ao se avaliar o polinmio p K[z] em
T L(X, X):
T 7 p(T ) L(X, X).
fcil verificar que K[T ] uma sublgebra comutativa de L(X, X).

i
i

ALinear 2005/12/19 13:25 page 91 #107


i

5.7

91

Exerccios

Consideremos agora as lgebras K[z] e K[T ], definidas no exemplo anterior. A


aplicao
: K[z] K[T ]
p 7 p(T )
uma aplicao linear que satisfaz, adicionalmente,
(pq) = pq(T ) = p(T )q(T ) = (p)(q).
(A segunda igualdade, de verificao imediata, o Exerccio 14. Ela j foi utilizada
anteriormente.) A aplicao um homomorfismo de lgebras.
O ncleo de o conjunto de mltiplos do polinmio mnimo m de T .
A diviso euclidiana do polinmio p por m mostra que K[T ] constituda de
polinmios em T com grau menor do que o do polinmio mnimo. (Estamos
convencionando que o grau do polinmio identicamente nulo .) Por definio,
o homomorfismo sobrejetor.

5.7

Exerccios

1. Seja B uma base do espao X e T : X X um operador. Mostre que


(tI T )B = tI TB .
2. Se 1 , . . . , j forem autovalores distintos de T e Wi = ker(i I T ), mostre
que o subespao W = W1 + + Wj a soma direta dos subespaos Wi , ou
seja,
W = W1 Wj .
(Em
outras palavras, sejam wi1 , . . . , wiki autovetores linearmente independentes
associados ao autovalor i da aplicao linear T , com i = 1, . . . , j. Ento o
conjunto
{w11 , w12 , . . . , w1k1 , w21 , . . . , w2k2 , . . . , wj1 , . . . , wjkj }
linearmente independente.)
3. Suponha que o polinmio p(z) seja da forma (z )d q(z), com q() 6= 0 e
d {2, 3, . . .}. Mostre que p () = . . . = p(d1) () = 0, mas p(d) () 6= 0.
Dizemos que a raiz de p(z) tem multiplicidade d.

i
i

ALinear 2005/12/19 13:25 page 92 #108


i

92

Operadores e Polinmios

Cap. 5

4. Seja A Mnn (C). Mostre que o polinmio caracterstico de A = (aij ) tem


a forma
p(z) = z n (tr A)z n1 + . . . + (1)n det A.
Se 1 , . . . , n forem os autovalores de A (com a mesma multiplicidade que
eles aparecem no polinmio caracterstico), conclua que
n
X
i=1

i = tr A e

n
Y

i = det A.

i=1

5. Sejam A, B Mnn (K), com A invertvel. Mostre que os polinmios


caractersticos de AB e BA coincidem. Utilizando a continuidade da funo
determinante, verifique que a hiptese de A ser invertvel pode ser retirada.
6. Seja A uma matriz n n e B = P 1 AP . Se m e p forem, respectivamente,
os polinmios mnimo e caracterstico de B, mostre que esses polinmios
tambm so os polinmios mnimo e caracterstico de A.
7. Considere T : R3 R3 dada por T (x, y, z) = (3x + y z, 2x + 2y z, 2x +
2y). Ache seu polinmio mnimo.
8. Sejam T : X X um operador linear e q um polinmio com coeficientes
em K. Mostre que, se for um autovalor de T , ento q() um autovalor de
q(T ).
9. Sejam T : X X um operador linear e p K[z]. Mostre que, se K = C e
for um autovalor de p(T ), ento existe um autovalor de T tal que = p().
D um exemplo mostrando que esse resultado no vlido se K = R.
10. Mostre que os polinmios mnimo e caracterstico de um operador T : X
X possuem as mesmas razes, a menos de multiplicidade.
11. Seja A Mnn (K) uma representao matricial de T : X X. Se A for
uma matriz diagonal em blocos, mostre que X pode ser decomposto como
soma direta de subespaos invariantes por T .
12. Seja T : X X um operador linear e W X um subespao invariante.
Mostre que os polinmios caracterstico pW e mnimo mW de T |W : W W
dividem os polinmios caracterstico p e mnimo m de T .

i
i

ALinear 2005/12/19 13:25 page 93 #109


i

5.7

93

Exerccios

Se X = W1 W2 , com W1 , W2 invariantes por T , e se r e s forem


os polinmios mnimos de T |W1 e T |W2 , respectivamente, mostre que
o polinmio mnimo de T mmc(r , s), o mnimo mltiplo comum dos
polinmios r e s.
13. Seja X um espao vetorial real de dimenso n. Mostre que XC tem dimenso
2n sobre os reais.
14. Sejam p, q K[z] polinmios com coeficientes em K e T : X X uma
aplicao linear. Mostre que (pq)(T ) = p(T )q(T ).
15. Seja A uma matriz diagonal em blocos:

A1 0
0 A2

A = ..
..
.
.
0 0

...

0
0
..
.

em que as submatrizes Ai , i = 1, . . . , so quadradas.

Mostre que (no necessrio utilizar o Exerccio 33 do Captulo 3)

Ak1 0 0
0 Ak 0
2

Ak = ..
.. . .
.. .
.
. .
.
0
0 Ak

Alm disso, se

A=

A1 A2
0 A4

com blocos quadrados A1 e A4 (possivelmente de tamanhos diferentes),


mostre que vale

 k
A1
k
,
A =
0 Ak4

em que designa uma matriz de tamanho adequado.

16. O objetivo desse exerccio oferecer uma demonstrao alternativa do


Teorema de Cayley-Hamilton, vlida para R ou C. Seja p(t) o polinmio
caracterstico do operador T : X X, em que X um espao vetorial de

i
i

ALinear 2005/12/19 13:25 page 94 #110


i

94

Operadores e Polinmios

Cap. 5

dimenso finita sobre o corpo K. Dado x X arbitrrio, basta mostrar que


p(T )x = 0. Para isso, seja m o maior natural tal que o conjunto
S = {v, T v, . . . , T m1 v},
linearmente independente.
(a) Mostre que os elementos de S formam uma base de W = < S >;
(b) Mostre que T (W ) W ;

(c) Obtenha a representao matricial A de T |W na base S;

(d) Calcule, desenvolvendo det(tI A), o polinmio caracterstico pW de


A;
(e) Mostre que pW (T )x = 0;
(f ) Mostre que p(t) = q(t)pw (t) e ento conclua.
17. Sejam X um espao vetorial real e S, T : X X operadores lineares.
Mostre as seguintes propriedades da complexificao TC : XC XC :
(i) (S + T )C = SC + TC para todo R;

(ii) (ST )C = SC TC ;

18. Seja TC a complexificao do operador T : X X, sendo X um espao


vetorial real. Suponha que R seja um autovalor de TC (e, portanto, de
XC ,
T ). Mostre que, se {w1 , . . . , wk } uma base do espao invariante W
com wj = uj + ivj , ento tanto {u1 , . . . , uk } quanto {v1 , . . . , vk } so bases
.
de W
Suponha agora que C\R seja um autovalor de TC e {w1 , . . . , wk } uma
, sendo wj = uj + ivj . verdade que {u1 , . . . , uk } uma base de
base de W
?
W
19. Na demonstrao da Proposio 5.20 (iv), o que garante a existncia de um
subconjunto de {u1 , v1 , . . . , uk , vk } com k elementos que seja linearmente
independente?
Definio 5.26 Seja T : X X um operador. Um polinmio p anula o vetor
x X com relao a T , se p(T )x = 0. O polinmio mnico de menor grau que
anula x X (com relao a T ) o polinmio mnimo de x X ou T-anulador
de x.

i
i

ALinear 2005/12/19 13:25 page 95 #111


i

5.7

95

Exerccios

19. Sejam X um espao de dimenso finita e T : X X um operador.


(a) Mostre a existncia do T -anulador de x X;

(b) mostre que qualquer polinmio que anula x X um mltiplo do T anulador de x; conclua que o polinmio mnimo de T um mltiplo do
polinmio mnimo de x;

(c) mostre que existe x X para o qual o T -anulador e o polinmio mnimo


de T coincidem.
20. (Dependncia contnua dos autovalores) Mostre que os autovalores de uma
matriz A = (aij ) Mnn (C) dependem continuamente das entradas da
matriz A. Mais precisamente, seja B = (bij ) Mnn (C). Dados > 0
e (A), existem > 0 e (B) tais que |aij bij | < implica
| | < . Para isso:
(a) verifique que basta provar que as razes do polinmio
p(x) = xn + an1 xn1 + . . . + a1 x + a0
dependem continuamente de an1 , . . . , a0 ;
(b) mostre que suficiente provar (a) no caso de 0 ser raiz de p;
(c) verifique a dependncia contnua nesse ltimo caso.

i
i

ALinear 2005/12/19 13:25 page 96 #112


i

6
O Clculo Funcional
Neste captulo apresentaremos, para o caso de dimenso finita, a verso
generalizada do clculo funcional de Dunford e Schwartz [8], de modo a podermos
dar sentido para f (T ), no caso em que T : X X um operador linear no espao
de dimenso finita X e f : U C C uma funo suave o suficiente. Esse tipo de
aplicao linear f (T ) usualmente chamado de funo de matriz. (Note, contudo,
que essa denominao no precisa: como no se estuda como f varia com T , no
estamos lidando com uma funo, mas sim com a aplicao linear f (T ), isto , o
valor assumido por f em T !)

6.1

O Polinmio Interpolador

Definio 6.1 Uma funo f : U C C (ou f : I R R) euclidiana


com relao ao polinmio p se:
(i) todas as razes de p pertencem a U (respectivamente, a I);
(ii) se z0 for uma raiz de p com multiplicidade1 k, ento f tem derivadas at a
ordem k em z0 .
Note que, se U for um aberto e f analtica em U (veja o Exerccio 2 para
a definio e propriedades de uma funo analtica), a condio (ii) verifica-se
imediatamente.
A terminologia utilizada na definio dada motivada pelo seguinte resultado,
vlido tanto para funes definidas em I R como em U C. Convencionaremos
que o grau do polinmio identicamente nulo .
1

Veja o Exerccio 3 do Captulo 5 para a definio da multiplicidade de uma raiz.

96
i

i
i

ALinear 2005/12/19 13:25 page 97 #113


i

6.1

97

O Polinmio Interpolador

Proposio 6.2 Seja f euclidiana com relao ao polinmio p. Ento existem uma
funo q, contnua em cada uma das razes do polinmio p, e um polinmio r tais
que f = qp + r, gr r < gr p.
Demonstrao: Seja r um polinmio arbitrrio. Consideremos a funo q definida
(nos pontos do domnio de f que no so razes de p) por
q=

f r
.
p

Queremos mostrar que podemos escolher r com grau menor do que o de p, de modo
que q possua extenso contnua em cada uma das razes de p. Notamos que q to
suave quanto f em cada ponto z que no uma raiz de p.
Seja z0 uma raiz de multiplicidade k do polinmio p, isto ,
p(z) = (z z0 )k s(z),
sendo s um polinmio tal que s(z0 ) 6= 0. Queremos achar r de modo que o
quociente
f (z) r(z)
(z z0 )k

possua extenso contnua em z0 . De acordo com a regra de LHospital, isso acontece


quando
f (z0 ) = r(z0 ), f (z0 ) = r (z0 ), . . . , f (k1) (z0 ) = r(k1) (z0 )

(6.1)

e se existir
f k (z0 ).
Basta, portanto, mostrar que existe um polinmio r com grau menor do que o de p,
satisfazendo relaes como (6.1) em cada raiz z0 do polinmio p. A existncia de
tal polinmio ser mostrada no lema a seguir.
2
Para mostrarmos a existncia do polinmio r, denotaremos f (0) = f .
Lema 6.3 Sejam dados os valores
f (z1 ) f (z1 ) f (d1 1) (z1 )
..
..
.
.

f (z ) f (z ) f (d 1) (z )

i
i

ALinear 2005/12/19 13:25 page 98 #114


i

98

O Clculo Funcional

Cap. 6

em que z1 , . . . , z so distintos. Seja n igual a d1 + d2 + . . . + d . Ento, existe um


nico polinmio r, de grau menor do que ou igual a n 1, satisfazendo
r(ki ) (zi ) = f (ki ) (zi )
para todo i = 1, . . . , e ki = 0, . . . , di 1.
Exemplo 6.4 Antes de passarmos ao caso geral, vejamos em um exemplo a
demonstrao do Lema 6.3. Suponhamos conhecidos os valores f (z0 ), f (z1 ) e
f (z1 ). Queremos encontrar um polinmio de grau 2 tal que r(z0 ) = f (z0 ),
r(z1 ) = f (z1 ) e r (z1 ) = f (z1 ). Seja r(z) = az 2 + bz + c. Ento os coeficientes
de r devem satisfazer ao sistema matricial:


2
f (z0 )
a
z0 z0 1
z12 z1 1 b = f (z1 ) .
(6.2)

f (z1 )
c
2z1 1 0
Se os valores f (z0 ), f (z1 ) e f (z1 ) forem nulos, basta tomar r 0. (A unicidade
de r, nesse caso, conseqncia do argumento apresentado a seguir.)
Suponhamos que o sistema (6.2) no possua soluo ou que essa no seja nica.
Ento, o sistema homogneo associado possui uma soluo no-trivial (a0 b0 c0 )t .
Consideremos o polinmio no-nulo
t(z) = a0 z 2 + b0 z + c0 .
claro que t(z) tem razes z0 e z1 , a segunda com multiplicidade 2 (j que z1
raiz da derivada de t). Mas isso implica que t(z) um mltiplo de (z z0 )(z z1 )2
e tem grau maior do que ou igual a 3, o que um absurdo. Logo (6.2) tem soluo
nica para quaisquer valores f (z0 ), f (z1 ) e f (z1 ).

Demonstrao: O polinmio r procurado satisfaz a um sistema linear que pode ser
escrito matricialmente como
Bz = b,
sendo z o vetor que tem como coordenadas os coeficientes procurados de r, b um
vetor cujas n coordenadas so os valores conhecidos de f e B a matriz n n do
sistema linear assim formado.
Se B no possuir inversa, o sistema Bz = 0 tem soluo no trivial
z0 = (a0 . . . an1 )t .

i
i

ALinear 2005/12/19 13:25 page 99 #115


i

6.1

99

O Polinmio Interpolador

Consideremos o polinmio
t(z) = a0 + a1 z + . . . + an1 z n1 ,
que um polinmio de grau menor do que ou igual a n 1. Como z0 satisfaz o
sistema homogneo associado, temos que t(z) deve ser um mltiplo de
(z z1 )d1 (z z )d ,
o que um absurdo, pois o ltimo polinmio tem grau n. Assim, B possui inversa
e o sistema Bz = b soluo nica, qualquer que seja o vetor b.
2
O polinmio r chamado de polinmio interpolador.
Apresentamos agora uma conseqncia da Proposio 6.2 que est ausente de
nossos cursos bsicos de uma varivel complexa: a lgebra H de todas as funes
analticas f : C C euclidiana com relao a todo polinmio p. Mais
geralmente, temos
Proposio 6.5 Na diviso euclidiana
f = qp + r

(gr r < gr p)

da funo analtica f : U C C pelo polinmio p cujas razes esto em U , o


quociente q analtico.
Demonstrao: De acordo com a demonstrao da Proposio 6.2, a funo
q=

f r
p

analtica, pois o numerador e o denominador se anulam exatamente nos mesmos


pontos e os zeros do numerador possuem multiplicidade maior do que ou igual
dos zeros do denominador. Assim, q possui uma expanso em srie de potncias
em cada ponto de U .
2
Esse resultado possui extenso para funes f : I R R de classe C e
polinmios cujas razes esto todas em I: a regra de LHospital implicar ento que
q C .

i
i

ALinear 2005/12/19 13:25 page 100 #116


i

100

6.2

O Clculo Funcional

Cap. 6

Funes de Matrizes

Algumas vezes escreveremos f (z) para distinguir a funo f : U C C (ou


f : I R R) da aplicao linear f (T ).
Sejam T : X X um operador definido no espao de dimenso finita X e m
o polinmio mnimo de T .
Suponhamos que f seja euclidiana com relao ao polinmio m. Ento
f (z) = q(z)m(z) + r(z),
com gr r < gr m. Uma vez que m(T ) = 0, natural definir
f (T ) = r(T ).
Definio 6.6 Seja m(z) = (z 1 )d1 (z )d o polinmio mnimo do
operador T . Se estiverem definidos os valores
f (1 ) f (1 ) f (d1 1) (1 )
..
..
.
.

f ( ) f ( ) f (d 1) ( ),
dizemos que f euclidiana com respeito a T e definimos
f (T ) = r(T ),
sendo r o polinmio interpolador dado pelo Lema 6.3.
A Definio 6.6 tem uma conseqncia importante, que salientamos desde j: o
operador f (T ) sempre comuta com o operador T !
Observao 6.7 Se compararmos a definio anterior com a definio de uma
funo euclidiana f com respeito a m, vemos que as exigncias sobre f so menos
restritivas. Qual a razo dessa diferena?
A resposta simples: ao considerarmos abstratamente a diviso
f (z) = q(z)m(z) + r(z),

(6.3)

precisamos impor condies em f que possibilitem definir uma funo q que d


um sentido quela diviso. Se essas exigncias forem satisfeitas, podemos ento

i
i

ALinear 2005/12/19 13:25 page 101 #117


i

6.2

101

Funes de Matrizes

concluir que r dado pelo polinmio interpolador, que est definido sob condies
menos exigentes.
Por outro lado, ao considerarmos f (T ), supondo possvel a substituio de z
por T em (6.3), obtemos f (T ) = q(T )m(T ) + r(T ), teremos f (T ) = r(T ),
independente da definio de q(T ). Assim, apenas o valor do polinmio r em T
importante.
A possibilidade da substituio de z por T em (6.3) aceita implicitamente em
muitos textos. Mas uma dificuldade incontornvel antepe-se a ela em situaes
gerais: q(T ) tem que estar previamente definido para que a substituio faa
sentido!

Entretanto, a Definio 6.6 , muitas vezes, pouco aplicvel: mais fcil obter
o polinmio caracterstico p de T do que o polinmio mnimo m. Seria proveitoso
se pudssemos utilizar p ao invs de m na definio do operador f (T ). E isso pode
ser feito. Podemos utilizar mltiplos de m enquanto a suavidade de f permitir. Ao
mostrarmos esse resultado manteremos a notao f = qm + r (sendo r o polinmio
interpolador definido antes) para simbolizar que f (T ) foi definido como r(T ).
Suponhamos que s seja outro polinmio que anula a matriz T e r1 o polinmio
interpolador gerado por s. Ento teramos f = q1 s + r1 (isto , f (T ) seria definido
como r1 (T )). Mas o Lema 6.3 garante que
r1 (z) = q2 (z)m(z) + r(z).

(6.4)

De fato, se for uma raiz de multiplicidade d de m(z), notamos que


(i)

r1 () = f (i) () = r(i) (),

for

i = 0, . . . , d 1.

Uma vez que todos os termos da equao (6.4) so polinmios, a substituio


de z por T faz sentido, de acordo com a Seo 5.6. Assim,
r1 (T ) = r(T ),
o que autoriza a utilizao de qualquer mltiplo s(z) do polinmio mnimo m(z)
do operador T ao invs de m(z) na Definio 6.6.
Observao 6.8 Note que, na argumentao anterior, no verificamos que r1 = r,
mas apenas que r1 (T ) = r(T )!


i
i

ALinear 2005/12/19 13:25 page 102 #118


i

102

O Clculo Funcional

Cap. 6

Exemplo 6.9 Consideremos a matriz

2 1 1
A = 1 2 1 .
1 1 2

Os autovalores de A so 1 e 4. Seu polinmio mnimo m(z) = (z1)(z4), como


se verifica facilmente. Se quisermos calcular A1000 , definimos a funo f (z) =
z 1000 e consideramos o polinmio r(z) = az + b satisfazendo r(4) = f (4) = 41000
e r(1) = f (1) = 1. Definindo c = 41000 , ento r(z) = c1
z + 4c
. Assim,
3
3

A1000 = r(A) =

c+2
3
c1
3
c1
3

c1
3
c+2
3
c1
3

c1
3
c1
3
c+2
3

Notamos que, uma vez que f (z) = z 1000 um polinmio, poderamos ter feito a
diviso euclidiana f (z) = q(z)m(z) + r(z) (obtendo assim r), donde se segue que
A1000 = r(A), em virtude do homomorfismo de lgebras 5.6.

Exemplo 6.10 Consideremos a matriz

0 0 1
A = 0 0 0 .
0 0 0

Queremos calcular cos A.


Os polinmios caracterstico e mnimo de A so p(z) = z 3 e m(z) = z 2 .
Utilizando p, obtemos o polinmio interpolador rp (z) = az 2 + bz + c, em que
a = 1/2, b = 0 e c = 1 (pois c = r(0) = cos 0 = 1, b = r (0) = sen 0 = 0
e 2a = r (0) = cos 0 = 1). Utilizando m, obtemos o polinmio interpolador
rm (z) = az + b, em que a = 0 e b = 1. Assim, rp 6= rm . Contudo,


2
1 0 0
1 0 0
0 0 1
1
rp (A) = 0 0 0 + 0 1 0 = 0 1 0 = rm (A)
2
0 0 1
0 0 1
0 0 0

e cos A = rp (A) = rm (A) = I.

i
i

ALinear 2005/12/19 13:25 page 103 #119


i

103

6.3

Estendendo o Homomorfismo de lgebras

6.3

Estendendo o Homomorfismo de lgebras

Sejam T : X X uma aplicao linear definida no espao X de dimenso n e


m o seu polinmio mnimo. Suponhamos que f e g sejam euclidianas com relao
a T . Nosso objetivo nesta seo mostrar que, em (f g)(z) vlida a substituio
de z por T : (f g)(T ) = f (T )g(T ).
Assim, suponhamos que m(z) = (z 1 )d1 (z )d o polinmio mnimo
de T .
Como vimos na Seo 5.6, existe um homomorfismo natural entre K[z], a
lgebra de polinmios com coeficientes em K e K[T ], a lgebra de operadores
lineares obtida ao se avaliar cada polinmio p K[z] em T .
Denotamos por J a lgebra de todas as funes euclidianas com respeito a T .
claro que K[z] uma sublgebra de J .
Definimos, ento, : J K[T ] por (f ) = f (T ), sendo f (T ) dado
pela Definio 6.6. Claramente uma aplicao linear. Vamos verificar que
(f g) = (f )(g). Se f = q1 m + rf e g = q2 m + rg denotam as divises
euclidianas de f e g por m, claramente (f )(g) = rf (T )rg (T ) = (rf rg )(T ).
Por outro lado, seja f g = q3 m + rf g a diviso euclidiana de f g por m. Como
vimos antes da Definio 6.6, vale a diviso de polinmios rf rg = q4 m + rf g , o
que implica (f g) = rf g (T ) = (rf rg )(T ) = (f )(g). Isso mostra que um
homomorfismo de lgebras, que estende o homomorfismo .
K[z]
J

K[T ]

O ncleo de constitudo pelas funes f J que possuem resto nulo quando


divididas por m, isto , pelas funes f tais que
f (1 ) = 0, . . . , f (d1 1) (1 ) = 0, . . . , f ( ) = 0, . . . , f (d 1) ( ) = 0.
Observao 6.11 (Os resultados aqui descritos so mais avanados e requerem
conhecimentos da topologia do Kn .) possvel introduzir uma topologia em K[z],
na qual o homomorfismo contnuo. Para isso, seja K K um conjunto
compacto que contenha (T ) em seu interior. Definimos k = max{d1 1, . . . , d
1} e a norma
kpkC k (K) = max{|p(z)|, . . . , |p(k) (z)|}.
zK

i
i

ALinear 2005/12/19 13:25 page 104 #120


i

104

O Clculo Funcional

Cap. 6

de verificao imediata que a convergncia nessa norma implica convergncia


na semi-norma
kpkK[z] = max{|p(1 )|, . . . , |p(d1 1) (1 )|, . . . , |p( )|, . . . , |p(d 1) ( )|}.
2

Se considerarmos K[T ] com a topologia de Kn , o homomorfismo contnuo.


De fato, sejam p e q polinmios quaisquer. O polinmio (em T ) p(T ) q(T )
tem coeficientes que dependem apenas dos valores assumidos pelos polinmios
p e q (e, conforme o caso, pelas suas derivadas at a ordem k) no espectro
(T ) = {1 , . . . , } do operador T , de acordo com a Definio 6.6. Segue-se
imediatamente da que p(T ) estar perto de q(T ), se p e q estiverem suficientemente
prximos na norma k kC k (K) .
Entretanto, para garantir a continuidade de precisamos restringir a lgebra
J . Fazemos isso definindo F k , a lgebra de todas as funes f definidas e de
classe C k em todos os pontos do interior do compacto K. Claramente F k J .
Consideramos em F k a mesma norma introduzida em K[z]. claro que K[z]
tambm uma sublgebra de F k .
O mesmo argumento que prova a continuidade de continua vlido. Assim,
F k = |F k contnuo.
K[z]
Fk

F k

K[T ]

A continuidade de F k importante na lgebra Linear Numrica.

6.4

Aplicaes do Clculo Funcional

Esta seo dar especial ateno ao fluxo eAt e suas principais propriedades.

6.4.1 O Fluxo
Comeamos com a definio usual do fluxo eAt . Essa depende da noo de
convergncia uniforme e da noo de norma de uma matriz quadrada (veja a Seo
8.8). Essa primeira definio pode ser omitida, se o professor julgar desejvel.

i
i

ALinear 2005/12/19 13:25 page 105 #121


i

6.4

105

Aplicaes do Clculo Funcional

Partimos da funo exponencial exp : C C, cuja representao em srie de


potncias

X
zn n
z
,
exp(z ) = e = 1 +
n!
n=1

converge uniformemente em conjuntos compactos. Se kAk denotar a norma usual


no espao L(Cn , Cn ) das transformaes lineares A : Cn Cn , afirmamos que
I+

X
An n
n=1

n!

define um operador linear. De fato, a norma em L(Cn , Cn ) tem a propriedade


kABk kAk kBk,
seguindo-se da que kAi k kAki . Assim, para k N, decorre que


k
k

X
X
An n
kAkn | |n


.
I +
1+

n!
n!
n=1
n=1

(6.5)

Para cada valor de fixo, a srie direita converge. Como o espao L(Cn , Cn )
completo, o M -teste de Weierstra implica que
exp(A ) = eA := I +

X
An n
n=1

n!

um operador linear. Tomando = t R, definimos o fluxo eAt da matriz A.


Tambm notamos que (6.5) mostra que a convergncia uniforme, se pertencer a
um conjunto compacto. Logo, diferenciao termo a termo produz sua derivada e
d At
e = eAt A.
dt
Alm disso, quando t = 0, temos

eAt t=0 = e0 = I.

Essas so as propriedades principais do fluxo eAt . Em particular, vemos que eAt


uma soluo fundamental do sistema matricial X = AX, X(0) = I.

i
i

ALinear 2005/12/19 13:25 page 106 #122


i

106

O Clculo Funcional

Cap. 6

Essa definio do fluxo eAt torna difcil o seu clculo explcito: usualmente
necessrio obter a forma cannica de Jordan J = P 1 AP da matriz A, ento eJt
(veja o Apndice B) e, finalmente, eAt = P eJt P 1 . O clculo funcional torna
possvel obter eAt facilmente.
Apresentamos agora uma forma alternativa de introduzir o fluxo, sem apelar
para sua definio por meio de sries de potncias. Seja A uma matriz quadrada.
Consideremos a funo f : C C (dependente do parmetro real t) definida por
f (z) = ezt . Ela define a funo de matriz eAt .
Exemplo 6.12 Seja

1 0
0
A = 0 2 5 .
0 1 2

Queremos calcular eAt . O polinmio caracterstico de A (e tambm o seu polinmio


mnimo)
p(z) = (z 1)(z + i)(z i).
(Estamos considerando A como uma matriz no corpo C. Como mostraremos a
seguir, a utilizao de razes complexas vantajosa.)
Para obtermos eAt , definimos a funo f (z) = ezt . Basta, ento, encontrar um
polinmio, de grau no mximo igual a 2, tal que r(1) = f (1) = et , r(i) = f (i) =
cos t + i sen t e r(i) = f (i) = cos t i sen t. Substituindo essas relaes no
polinmio r(z) = az 2 + bz + c, achamos a = (et /2) (cos t + sen t)/2, b = sen t
e c = (et /2) + (cos t sen t)/2. Assim,
 t

 t

e
e
cos t + sen t
cos t sen t
At
2
e =
A + (sen t)A +
I,

+
2
2
2
2
que , para cada t, uma matriz real (como no poderia deixar de ser), embora
tenhamos considerado a matriz A como uma matriz complexa.

Exemplo 6.13 Seja

3 4 1
5
1 .
A = 3
21 32 7

O polinmio caracterstico de A

p(z) = (z 1)z 2 .

i
i

ALinear 2005/12/19 13:25 page 107 #123


i

6.4

107

Aplicaes do Clculo Funcional

Para calcularmos eAt , obtemos os coeficientes de r(z) = az 2 + bz + c de modo que


sejam satisfeitas as relaes r(1) = e1t = et , r(0) = e0t = 1 e r (0) = te0t = t.
Assim, c = 1, b = t e a = et t 1. Conclumos que
eAt = (et t 1)A2 + tA + 1I.

Para obtermos algumas propriedades do fluxo, definimos:


Definio 6.14 Seja I R um intervalo fechado no-degenerado (isto , I no se
reduz a um ponto). Uma aplicao contnua x : I Kn chamada de caminho.
O caminho x diferencivel, se existir o vetor velocidade
x (t) = lim

h0

x(t + h) x(t)
Kn .
h

(Se t for um ponto de fronteira, o limite o respectivo limite lateral. Tambm


chamamos o vetor velocidade de derivada de x(t)).
Em outras palavras, se x(t) = (x1 (t), . . . , xn (t)) Kn , ento
x (t) = (x1 (t), . . . , xn (t)).
Identificando Mmn (K) com Kmn , a mesma noo faz sentido para caminhos
que tomam valores no espao Mmn (K). Assim, se A(t) denotar um caminho em
Mmn (K), sua derivada obtida ao se derivar cada uma das entradas de A(t).
Tambm podemos considerar funes : U C Kn (ou Mmn (K)) e
definir a derivada (z) de maneira anloga.
Deduzimos imediatamente as seguintes propriedades do fluxo eAt :

(i) eAt t=0 = I;

(ii)

d At
e
dt

= eAt A.

Da fato, a funo de matriz eAt pode ser considerada oriunda da funo g(z, t) =
ezt . Se fizermos t = 0 nessa funo, obtemos g(z, 0) = e0 , de onde segue-se (i).
Uma vez que

g(z, t) = ezt z = g(z, t)z,


t
o homomorfismo de lgebras 6.3 garante (ii).

i
i

ALinear 2005/12/19 13:25 page 108 #124


i

108

O Clculo Funcional

Cap. 6

Observao 6.15 Embora a funo f (z) = ez satisfaa a equao


ez+w = ez ew ,
no podemos deduzir que eA+B = eA eB , uma vez que a substituio simultnea das
variveis z por A e w por B no permitida pelo clculo funcional. Contudo, se
A e B comutarem, o simples conhecimento de que eA um polinmio em A nos
permite concluir que eA B = BeA , que uma parte importante da demonstrao de
que eA+B = eA eB se, e somente se, AB = BA (veja o Exerccio 13).


6.4.2 Funes Trigonomtricas


O estudo da subseo anterior permanece vlido para o caso da exponencial eiAt
(ou seja, para a funo g(z, it), com t R, a qual gera as funes trigonomtricas
sen At e cos At. Essas funes tambm so fceis de obter por meio do clculo
funcional.
As mesmas observaes tambm se aplicam a outras funes trigonomtricas.

6.4.3 Logaritmo
Dada uma matriz quadrada A, com det A 6= 0, o clculo funcional permite a
obteno da matriz B = log A. Apenas temos que escolher um ramo da funo
f (z) = log z que contenha o espectro (A) e, ento, obter B = log A por meio
do polinmio interpolador. Claro, a matriz B depende do ramo escolhido, mas a
relao eB = A segue-se sempre de elog z = z.
Se todos os autovalores da matriz real A forem positivos, podemos ento
considerar a funo real f (x) = ln x (logaritmo neperiano) e aplicar a mesma
tcnica. A matriz B = ln A, assim obtida, a nica soluo real da equao
eB = A.

6.4.4 Raiz Quadrada


Suponhamos que todos os autovalores da matriz real A sejam reais e nonegativos. Adicionalmente, se 0 for um autovalor de A, supomos que ele seja uma
raiz simples do polinmiomnimo m de A.
Nesse caso, podemos utilizar a funo
f : (0, ) R, f (x) = x para definir A. Aqui, o clculo funcional utilizado
em uma funo que apenas contnua no autovalor simples = 0 da matriz A.

i
i

ALinear 2005/12/19 13:25 page 109 #125


i

6.4

Aplicaes do Clculo Funcional

109

Contudo, podemos definir A mesmo que A e seus autovalores sejam


complexos e no-nulos. Apenas precisamos escolher um ramo da funo logaritmo
f (z) = log z para o qual a raiz quadrada de todos os autovalores da matrizA esteja
definida. Ento aplicamos o clculo funcional funo complexa f (z) = z.

Observao 6.16 A definio de A no determina todas as solues da equao


B 2 = A. Se A for a matriz identidade 2 2,






1 1
1
1
1
0
e
,
0 1
0 1
0 1
tambm so solues de B 2 = I, alm de B = I, a nica soluo que pode ser
obtida por meio da funo raiz quadrada real. Alm disso, se A = I, a equao
B 2 = A possui a soluo real


0 1
,
1
0

que no vem de da funo A.




6.4.5 A Inversa
A maneira clssica de se obter a inversa por meio do polinmio caracterstico p
(ou mnimo) da matriz invertvel A a seguinte: se
p(z) = z m + . . . + a1 z + a0
temos
0 = Am + am1 Am1 + . . . + a1 A + a0 I.
Multiplicando essa relao por A1 , obtemos
a0 A1 = [a1 + . . . + am Am1 ].
Como A possui inversa, a0 6= 0. Obtemos A1 dividindo o lado direito da igualdade
anterior por a0 .
Para uma matriz invertvel arbitrria, esse procedimento no vantajoso com
relao ao clculo da inversa por meio de eliminao gaussiana. Em geral, tambm
o clculo funcional no vantajoso.
Mas, por exemplo, se a matriz invertvel A for simtrica e possuir poucos
autovalores, o clculo funcional til: veja [28] (ou [5]).

i
i

ALinear 2005/12/19 13:25 page 110 #126


i

110

6.5

O Clculo Funcional

Cap. 6

Exerccios

1. Sejam p, m K[z]. Mostre que o resto r da diviso euclidiana p = qm + r


justamente o polinmio interpolador. Assim, o polinmio interpolador
fornece uma generalizao natural da diviso euclidiana.
2. (Este exerccio requer alguma familiaridade com funes de uma varivel
complexa.) Sejam U C um aberto e f : U C uma funo. Dizemos que
f analtica em U , se ela possuir derivada em todos os pontos do aberto U e
holomorfa em U , se ela possuir desenvolvimento em srie de potncias (com
raio de convergncia positivo) em todos os pontos do aberto U .
Suponha que U seja um aberto convexo, f : U C analtica em U e
: [a, b] U um caminho diferencivel por partes, com (a) = (b).
(a) Se z0 U , considere o quociente q(z) = f (z)/(zR z0 ). Mostre que q
possui uma primitiva em U , donde se conclui que q(z)dz = 0.

(b) Efetue a diviso euclidiana f (z) = q(z)(z z0 ) + r(z) e mostre a


frmula integral de Cauchy para conjuntos abertos convexos:
Z
f (z)dz
= f (z0 )W (f, z0 ),
z z0
em que W (f, z0 ) denota o nmero de rotao e (t) 6= x0 para todo
t [a, b]. (Essa uma demonstrao muito simples da frmula integral
de Cauchy!)

(c) Conclua, por meio de argumentos clssicos (veja, por exemplo, [27]),
que toda funo analtica holomorfa.
(d) Se for como em (b), utilize a diviso euclidiana para demonstrar que
Z
f (z)dz
= f (z0 )W (z0 , ).
2
(z

z
)
0

3. Seja f uma funo euclidiana com relao matriz n n

A1 0 0
0 A2 0

A = ..
.. ,
.. . .
.
.
.
.
0 0 A

i
i

ALinear 2005/12/19 13:25 page 111 #127


i

6.5

111

Exerccios

em que os blocos Ai so matrizes quadradas. Mostre que

f (A1 )
0

0
0
f (A2 )
0

f (A) =
.
..
..
..
...

.
.
.
0
0
f (A )
4. Sejam p(z) = (z )n e f uma funo euclidiana com relao a p. Obtenha
explicitamente os coeficientes do polinmio interpolador r tal que f = qp+r,
gr r < gr p.
5. Calcule sen A e eA , para

1 1 2
A = 0 1 3 .
0 0 1

6. Calcule eAt , se
A=

7. Mostre que a matriz


A=

0 1
1
0

0 0
1 0

no possui raiz quadrada. Isso contradiz os resultados da Seo 6.4.4?


8. Sejam A(t) e B(t) dois caminhos diferenciveis em Mnn (K) definidos no
mesmo intervalo I R. Mostre que




d
d
d
[A(t)B(t)] =
A(t) B(t) + A(t)
B(t) .
dt
dt
dt
9. Sejam I t 7 A(t) Mnn (K) um caminho e f uma funo suave, tal
que f seja euclidiana com relao a A(t) para todo t I (isso certamente
acontece se f : C C for analtica) e f (A(t)) a funo de matriz resultante.
Mostre:
(a)

d
[A(t)]k
dt

= A (t)[A(t)]k1 + AA (t)[A(t)]k2 + . . . + [A(t)]k1 A (t).

i
i

ALinear 2005/12/19 13:25 page 112 #128


i

112

O Clculo Funcional

Cap. 6

(b) Se A(t) e A (t) comutarem, ento dtd f (A(t)) = f (A(t))A (t). D um


exemplo mostrando que esse resultado no vlido se A(t) e A (t) no
comutarem.
(c)

d
[tr f (A(t))]
dt

= tr [f (A(t))A (t)], mesmo se A(t) e A (t) no

comutarem.
10. Sejam x1 , . . . , xn : I Kn caminhos diferenciveis. Se D denotar
a funo determinante, mostre que D(x1 (t), . . . , xn (t)) diferencivel e
calcule sua derivada. Deduza que, se t 7 A(t) Mnn (K) for um caminho
diferencivel tal que A(0) = I, ento dtd det A(t) t=0 = tr A (0).

11. Seja t 7 A(t) Mnn (R) um caminho diferencivel. Mostre que, para
todo valor de t tal que A(t) invertvel, vale

ou seja,


[det A(t)]
= tr [A(t)]1 A (t) ,
det A(t)

d
ln det A(t) = tr [A(t)]1 A (t) .
dt

12. D um exemplo mostrando que eA+B 6= eA eB no caso de as matrizes A e B


no comutarem.
13. Mostre que e(A+B)t = eAt eBt se, e somente se, A e B comutarem.
Observao: Podemos ter eA+B = eA eB , mesmo que as matrizes A e B no
comutem. Por exemplo, considere

3
0
0
0
0 3
0
0 e B = 0
0
.
A=
3
0
3
0

Definio 6.17 Seja A = (aij ) Mnn (R). A matriz A positiva, se aij > 0 e
no-negativa, se aij 0 para todo i, j {1, . . . , n}. Um vetor x = (x1 , . . . , xn )
positivo (resp., no-negativo) se xi > 0 (resp., xi 0) para todo i {1, . . . , n}.
Notamos x y, se xi yi para todo i {1, . . . , n}.
14. (O Teorema de Perron) Seja A uma matriz positiva. Considere
K := {x 0 | kxk = 1}
e defina r = supK { > 0 | Ax x}.

i
i

ALinear 2005/12/19 13:25 page 113 #129


i

6.5

Exerccios

113

(a) o valor r est bem definido e positivo;


(b) se um vetor z > 0 satisfizer Az rz, ento z um autovetor de A
associado ao autovalor r;
(c) vale a desigualdade: |Ax| A|x|, em que |v| denota o vetor com
coordenadas iguais ao valor absoluto das coordenadas de v;
(d) o autovetor z positivo e o valor r o maior autovalor de A;
(e) o autovalor r simples. Assim, se Aw = rw, ento w um mltiplo de
z.

i
i

ALinear 2005/12/19 13:25 page 114 #130


i

7
Teoria Espectral
Neste Captulo apresentamos os resultados mais importantes sobre operadores
definidos em espaos arbitrrios de dimenso finita: o Teorema Espectral e a
decomposio primria, a forma cannica de Jordan e a decomposio racional.
A demonstrao do Teorema Espectral feita utilizando-se o clculo funcional
e, por isso, relativamente, abstrata (veja o quadro de dependncias para trajetos
alternativos).

7.1

Imagem do Espectro

Nosso primeiro resultado esclarece a relao entre os autovalores de T e os


autovalores de f (T ).
Teorema 7.1 (da Imagem do Espectro)
Seja f uma funo euclidiana com relao ao operador T : X X, definido
no espao complexo X de dimenso n. Se v for um autovetor de T associado ao
autovalor , ento v um autovetor de f (T ) associado ao autovalor f (). Todo
autovalor de f (T ) da forma f (), em que um autovalor de T . Portanto, em
smbolos, vale f ((T )) = (f (T )).
Demonstrao: Como f euclidiana com relao T , f (T ) = r(T ) = ak T k +
. . . + a1 T + a0 I. Se v for um autovetor relacionado ao autovalor ,
f (T )v = r(T )v = (ak k + . . . + a1 + a0 )v = r()v = f ()v.
Reciprocamente, suponhamos que seja um autovalor de f (T ) = r(T ).
Consideremos o polinmio r(z) , que pode ser fatorado em C como
r(z) = ak

k
Y
i=1

(z i ).

114
i

i
i

ALinear 2005/12/19 13:25 page 115 #131


i

7.2

115

O Teorema Espectral

Conseqentemente,
r(T ) I = ak

k
Y
i=1

(T i I).

Como o lado esquerdo dessa equao no possui inversa, ao menos um dos fatores
T i I no invertvel. Assim, i , ao mesmo tempo, um autovalor de T e uma
raiz de r(z) . Portanto,
f (i ) = r(i ) = .
2

7.2

O Teorema Espectral

Definio 7.2 Um operador N : X X nilpotente se existir k N tal que


N k = 0.
Provaremos agora um dos resultados mais importantes da lgebra Linear.
Teorema 7.3 (Espectral)
Sejam X um espao vetorial complexo de dimenso n e T : X X um
operador linear com polinmio caracterstico
p(z) = (z 1 )s1 (z )s ,
em que os autovalores i so distintos, para i = 1, . . . , .
Ento existem subespaos W1 , . . . , W invariantes por T (isto , T (Wi ) Wi )
tais que
X = W1 W .
Alm disso, dim Wi = si e os polinmios mnimos mi e m de T |Wi e T so,
respectivamente, mi = (z i )di e m(z) = m1 (z) m (z) = (z 1 )d1 (z
)d , em que 1 di si .
Tambm vale a decomposio T = D+N , com D diagonalizvel, N nilpotente,
sendo ambos polinmios em T (e, portanto, DN = N D).
Demonstrao: Para cada i consideramos um aberto Ui i , de modo que
Ui Uk = ,

i
i

ALinear 2005/12/19 13:25 page 116 #132


i

116

Teoria Espectral

Cap. 7

se i 6= k. Definimos fi (z) = 1, se z Ui , e fi (z) = 0, se z Uj , j 6= i. As funes


f1 , . . . , f so euclidianas com relao p e as relaes
fi2 = fi ,

so vlidas em

i=1

fi fj = 0, se i 6= j,

fi = 1

i=1

Ui (T ). Assim, denotando fi (T ) por i , as relaes

i2

= i ,

i j = 0, se i 6= j,

i = I,

(7.1)

i=1

continuam vlidas (de acordo com a Seo 6.3), mostrando assim que cada i uma
projeo.
Se Wi denotar a imagem i (X), obtemos
X = W1 W .
Como i comuta com T , claramente vale T (Wi ) Wi (veja a Proposio 5.10).
Independente das bases B1 , . . . , B escolhidas para os espaos W1 , . . . , W ,
respectivamente, T pode ser representado por uma matriz diagonal em blocos A
com relao base B = {B1 , . . . , B } de X = W1 W :

A1 0 0
0 A2 0

A = TB = ..
.. .
.. . .
.
. .
.
0 0 A
Afirmamos que, para i = 1, . . . , , o polinmio caracterstico de Ai
det(zI Ai ) = (z i )si ,
o que implica que dim Wi = si e que o polinmio mnimo de Ai (z i )di ,
para 1 di si (de acordo com o Lema 5.14). Da decorre imediatamente que o
polinmio m tem a forma dada pelo teorema. (Veja o Exerccio 12 do Captulo 5.
Compare com a Proposio 7.6.)
Para provarmos nossa afirmao suficiente mostrar que o nico autovalor de
Ai i pois, por um lado, temos a fatorao
p(z) = (z 1 )s1 (z )s

i
i

ALinear 2005/12/19 13:25 page 117 #133


i

7.2

117

O Teorema Espectral

e, por outro,
p(A) = det(zI A) = det(zI A1 ) det(zI A ).
Vamos considerar apenas i = 1, os casos restantes sendo anlogos. Seja 6= 1
arbitrrio. Definimos as funes

q
(z)
=
z

,
se
z

U
,
1
1

1/(z ), se z U1 ,

[
[
g(z) =
e h(z) =
q
(z)
=
1,
se
z

U
,
1,
se
z

Uj .

j
j

j=2

j=2

Notamos que, na construo das projees 1 , . . . , , as vizinhanas disjuntas


U1 , . . . , U foram escolhidas arbitrariamente. Reduzindo a vizinhana U1 de 1 ,
podemos supor que 6 U1 . Assim, h est bem definida e vale
g(z)h(z) = 1.
Isso garante que g(A) possui inversa.
Agora calculamos g(A). Para isso, notamos que
g(z) = q1 (z)f1 (z) + q2 (z)f2 (z) + . . . + q (z)f (z).
Em virtude do homomorfismo de lgebras 6.3, temos
g(T ) = (T I)1 + . . . + I .
Representando o operador T na base B obtemos a expresso de g(A):

A1 I 0 0

0
I 0

g(A) =
..
.. . . .. .

. .
.
.
0
0 I

Como g(A) tem inversa, A1 I tambm possui inversa. Como 6= 1 foi tomado
arbitrariamente, est provado que o nico autovalor de A1P
1 .
Consideramos agora o operador diagonalizvel D = i=1 i i . (Em cada Wi
temos Di := i i = i I, em que I o operador identidade em Wi , de acordo com
(7.1). Isso implica que D diagonalizvel. Veja o Exemplo 7.5.)

i
i

ALinear 2005/12/19 13:25 page 118 #134


i

118

Teoria Espectral

Definimos N = T D. A representao de N na base B

A1 1 I
0

0
A

0
2
2

NB =
..
..
..
...

.
.
.
0
0
A I

Cap. 7

Como o polinmio mnimo de Ai = T |Wi pi (z) = (z i )di , vem que


(Ai i I)k = 0 para todo i = 1, . . . , , se k = max{d1 , . . . , d } e, portanto,
N k = 0.
P
P
Temos que D = i=1 i i = i=1 i fi (T ) uma soma de polinmios em T
e, portanto, um polinmio em T . Mas isso implica que N = T D polinmio
em T , completando a prova.
2
Observao 7.4 Se dim X = n, a demonstrao garante a validade do Teorema
Espectral quando o operador T : X X possui todos os seus n autovalores
(contada a multiplicidade) no corpo R (veja o Exemplo 7.5).
Se esse no for o caso (isto , se o polinmio caracterstico de T possuir fatores
irredutveis de grau 2), o Teorema Espectral possui uma generalizao (conhecida
como Teorema da Decomposio Primria), que ser tratada na Seo 7.3.

Exemplo 7.5 Seja T : R4 R4 definida por
T (x1 , x2 , x3 , x4 ) = (2x1 x2 + x4 , 3x2 x3 , x2 + x3 , x2 + 3x4 ).

O polinmio caracterstico de T p(z) = (z 3)(z 2)3 e verifica-se facilmente


que m(z) = (z 3)(z 2)2 o polinmio mnimo de T .
Inicialmente exemplificaremos o Teorema 7.3 com respeito base cannica do
4
R . Denotaremos por A a matriz que representa T nessa base.
A projeo 1 (associada ao autovalor 3) obtida ao se resolver o sistema1
r(z) = az 2 + bz + c,
Assim, a = 1, b = 4, c = 4 e

r(3) = 1, r(2) = 0, r (2) = 0.

0 2 1 1
0
0 0 0
.
1 = A2 4A + 4I =
0
0 0 0
0 2 1 1

Para simplificar os clculos, usamos o polinmio mnimo de T ao invs do polinmio


caracterstico.

i
i

ALinear 2005/12/19 13:25 page 119 #135


i

7.2

119

O Teorema Espectral

Do mesmo modo,

1
0
2 =
0
0

2 1 1
1
0
0
.
0
1
0
2 1
0

As relaes (7.1) seguem-se da imediatamente. Logo,

2x
+
x
+
x
x

x1 + 2x2 x3 x4

2
3
4
1

x2
0
x
+
2 = R4 =

x3
0
x3

2x2 x3
2x2 + x3 + x4
x4
= W1 W2 .

A matriz D definida por

2 2 1 1
0 2 0 0

D = 31 + 22 =
0 0 2 0
0 2 1 3

e a matriz nilpotente N por

0
0
N =AD =
0
0

1
1
1
1

1
1
1
1

fcil verificar que N 2 = 0 e N D = DN .


Se escolhermos, por exemplo, bases

0
0
.
0
0

B1 = {w1 = (1, 0, 0, 1)}


e
B2 = {w2 = (1, 0, 0, 0), w3 = (2, 1, 0, 2), w4 = (1, 0, 1, 1)}

para os espaos W1 e W2 , respectivamente, ento T


diagonal em blocos

0
(3) 0 0
0
2
0
0
B=
0 0 3 1
0 1
1
0

representado pela matriz

i
i

ALinear 2005/12/19 13:25 page 120 #136


i

120

Teoria Espectral

Cap. 7

na base {B1 , B2 } = {w1 , w2 , w3 , w4 }. Como D uma matriz diagonal nessa base,


temos imediatamente

3 0 0 0
0 2 0 0

D=
0 0 2 0
0 0 0 2
e

0 0 0 0
0 0 0 0

N =BD =
0 0 1 1
0 0 1 1

tambm satisfaz N 2 = 0.

De acordo com o Teorema Espectral, se o polinmio caracterstico de um


operador T : V V definido no espao complexo de dimenso finita V for
p(z) = (z 1 )s1 (z )s ,
ento seu polinmio mnimo
m(z) = (z 1 )d1 (z )d ,
em que 1 di si . O inteiro positivo di o ndice do autovalor i .
Est implcita no Teorema 7.3 a seguinte caracterizao dos espaos Wi :
Proposio 7.6 Wi = ker(T i I)di . Os elementos de ker(T i I)di so os
autovetores generalizados associados a i .
Demonstrao: De fato, se wi Wi , ento (T i I)di wi = 0, pois o polinmio
mnimo de T |Wi (z i )di . Assim,
Wi ker(T i I)di .
Reciprocamente, tomemos v X arbitrrio e suponhamos que (T i I)di v = 0.
:= W1 Wi1 Wi+1
Escrevendo v = wi + w,
em que wi Wi e w W
di
W , segue-se da que (T i I) w = 0, pelo que provamos antes. Se w 6= 0,
chegamos a um absurdo, pois, em W1 Wi1 Wi+1 W , T tem como
polinmio caracterstico
Y
(z j )sj ,
j6=i

j=1,...,

i
i

ALinear 2005/12/19 13:25 page 121 #137


i

7.2

121

O Teorema Espectral

o qual no divisvel por (z i )di , contrariando o Exerccio 19 do Captulo 5.


(Veja tambm o Exerccio 15 deste Captulo.)
2
O resultado anterior nos indica uma maneira alternativa de encontrar os espaos
Wi : vale
ker(T i I) ( ( ker(T i I)di = ker(T i I)di +1 = = ker(T i I)si .
(7.2)
(Para as incluses estritas veja o Exerccio 5; as igualdades so conseqncias
de (z i )di e (z i )si serem, respectivamente, os polinmios mnimos e
caracterstico de T |Wi ).
O ndice di do autovalor i encontrado quando essa seqncia de subespaos estabiliza-se. Ou, alternativamente, ker(T i I)di o primeiro subespao
da seqncia que tem dimenso si .
Corolrio 7.7 Seja X um espao de dimenso finita. Um operador linear T : X
X diagonalizvel se, e somente se, o seu polinmio mnimo for produto de fatores
lineares distintos.
Demonstrao: Suponhamos que T seja diagonalizvel. Sejam 1 , . . . , os
autovalores distintos de T . Ento X possui uma base formada por autovetores de
T , de acordo com o Corolrio 5.6. Considere o polinmio
h(z) = (z 1 ) . . . (z ).
Se v for um autovetor de T associado ao autovalor i , ento (T i I)v = 0. Isso
implica que h(T )v = 0 para qualquer autovetor de T . Como o Teorema Espectral
7.3 implica que o polinmio mnimo e caracterstico possuem os mesmos fatores
irredutveis, mostramos que h o polinmio mnimo de T .
Reciprocamente, se m(z) = (z 1 ) . . . (z ) for o polinmio mnimo
de T , ento o polinmio mnimo de T |Wi (z i I). Isso quer dizer que
Wi = ker(T i I). Assim, todo elemento de Wi um autovetor de T . Tomando
bases Bi de cada espao Wi , temos que B = {B1 , . . . , B } uma base de X formada
por autovetores de T .
2

i
i

ALinear 2005/12/19 13:25 page 122 #138


i

122

7.3

Teoria Espectral

Cap. 7

Decomposio Primria

(Esta seo pode ser omitida, a critrio do instrutor.)


Seja T : X X um operador linear sobre o espao real X de dimenso n.
Se o polinmio caracterstico p de T tiver suas n razes em R, o Teorema Espectral
7.3 pode ser aplicado. Se esse no for o caso, aquele resultado no imediatamente
aplicvel.
Teorema 7.8 (da Decomposio Primria)
Sejam X um espao vetorial real de dimenso finita X e T : X X uma
aplicao linear. Seja p R[z] o polinmio caracterstico de T . Se
p(z) = [p1 (z)]s1 [p (z)]s
for a decomposio de p(z) em fatores irredutveis, com pi 6= pk para i 6= k. Ento,
o polinmio mnimo de T
m(z) = [p1 (z)]d1 [p (z)]d ,
em que 0 < di si para i = 1, . . . , . O espao X decompe-se como soma direta
de subespaos
X = W1 W ,
sendo Wi = ker[pi (T )]di = ker[pi (T )]si invariante por T . Se pi tiver grau dois,
dim Wi = 2si .
Demonstrao: Suponhamos que
1 W

XC = W

(7.3)

seja a decomposio espectral de TC , de acordo com o Teorema Espectral 7.3 (ao


i est associado apenas o autovalor i de TC ).
espao invariante W
De acordo com o Lema 5.20 (i), escolhendo uma base B para X, obtemos uma
matriz real A que representa tanto T quanto TC nessa base.
= ker(TC I)d um dos subespaos
Seja um autovalor real de TC e W
da decomposio espectral (7.3) de TC . (Estamos utilizando a Proposio 7.6.)
= ker(TC I)d e x a representao de w na base B. Ento
Sejam w W
d
(A I) x = 0. Tomando o conjugado nessa equao, obtemos (A I)d x = 0.
. De acordo com o Lema 5.20 (iii), W
possui uma base formada
Assim, w W

i
i

ALinear 2005/12/19 13:25 page 123 #139


i

7.3

Decomposio Primria

123

por vetores reais. Mas uma base formada por vetores reais para ker(TC I)d
uma base para ker(T I)d .
tambm um autovalor de
Seja agora C \ R um autovalor de TC . Ento
TC , de acordo com o item (iii) do Lema 5.20. Assim, aos autovalores distintos e
esto associados os subespaos W
e W
da decomposio (7.3).
,
= ker(TC I)d e {w1 , . . . , wk } uma base de W
, com wj = uj +ivj .
Sejam W

De acordo com o Lema 5.20 (iii), W = ker(TC I)d . Da segue-se que


.
{w1 , . . . , wk } uma base de W
W
. Uma vez que o conjunto de vetores
Consideremos ento o subespao W
reais
S = {u1 , v1 , . . . , uk , vk }

W
, pois esse
gera esse espao e possui 2k elementos, ele uma base de W
subespao de XC tem dimenso 2k. Seja W = < S > o subespao real gerado
W
a complexificao do espao
por S. O Corolrio 5.23 (iv) garante que W
real W .
Assim, vemos que
X = W1 Ws W1 1 Wt t
a decomposio de T em subespaos invariantes, associada decomposio
espectral (7.3) de TC .
2
Observao 7.9 Os subespaos invariantes W1 1 , . . . , Wt t no esto associados
a autovalores reais, mas a fatores irredutveis de grau 2 do polinmio caracterstico
de T .

Exemplo 7.10 Considere a aplicao T : R5 R5 definida por
T (x1 , x2 , x3 , x4 , x5 ) = (10x1 7x4 + x5 , x3 , x2 , 13x1 9x4 + x5 , 4x1 3x4 + x5 ).
A representao de T na base cannica do R5 a matriz

10 0 0 7 1
0 0 1 0 0

A=
0 1 0 0 0 .
13 0 0 9 1
4 0 0 3 1

i
i

ALinear 2005/12/19 13:25 page 124 #140


i

124

Teoria Espectral

Cap. 7

O polinmio caracterstico de A

det(A I) =

10 0
0
7
1
0
1
0
0
0
1
0
0
13
0
0 9
1
4
0
0
3
1

Expandindo esse determinante com relao segunda coluna, obtemos:

10 0
7
1

0
0

det(A I) = det
13
0 9
1
4
0
3
1

10 0
7
1

0
1
0
0
.
det
13
0 9
1
4
0
3
1

Desenvolvendo esses dois determinantes, obtemos

10
7
1
9
1
det(A I) = 2 det 13
4
3
1

10
7
1
9
1
+ det 13
4
3
1

= (2 + 1)[3 22 + ]
= (2 + 1)( 1)2 .

Pelo Teorema da Decomposio Primria,


R5 = ker A ker(A2 + I) ker(A I)2 .

i
i

ALinear 2005/12/19 13:25 page 125 #141


i

7.3

125

Decomposio Primria

Encontramos2 ker A resolvendo o sistema Ax = 0.

10 0
10 0
0 7 1

0 0 1
0 0
0 1

0 0
0 1
0
0
0

3 0
13 0
0 9 1
4 0
4 0
0 3 1

Assim,

0 7 1
0
0 0

1
0 0

0 2 0
0 3 1

Logo, x2 = x3 = 0, x4 = 3x1 /2, x5 = 4x1 + 3x4 = 4x1 + 9x1 /2 = x1 /2.


Assim, a soluo geral de Ax = 0 x = (2x1 , 0, 0, 3x1 , x1 ) e o vetor v1 B =
{v1 , v2 , v3 , v4 , v4 } pode ser escolhido como v1 = (2, 0, 0, 3, 1).
Calculando A2 + I e resolvendo o sistema (A2 + I)x = 0, encontramos a soluo
geral
(0, x2 , x3 , 0, 0),
de modo que os vetores v2 e v3 podem ser escolhidos como
v2 = (0, 1, 0, 0, 0)

v3 = (0, 0, 1, 0, 0).

Da mesma forma o sistema (A I)2 x = 0, cuja soluo geral


(x1 , 0, 0, x4 , 3x1 2x4 )

o que nos permite escolher os vetores


v4 = (1, 0, 0, 0, 3)
Consideremos ento a base B
linear T nessa base. Temos:
T (2, 0, 0, 3, 1)
T (0, 1, 0, 0, 0)
T (0, 0, 1, 0, 0)
T (1, 0, 0, 0, 3)
T (0, 0, 0, 1, 2)

e v5 = (0, 0, 0, 1, 2).

= {v1 , v2 , v3 , v4 , v5 }. Vamos representar a aplicao


=
=
=
=
=

0 = 0v1
(0, 0, 1, 0, 0) = 1v3
(0, 1, 0, 0, 0) = v2
(13, 0, 0, 16, 7) = 13v4 + 16v5
(9, 0, 0, 11, 5) = 9v4 11v5 .

Assim, a representao de T na base B a matriz diagonal em blocos

0 
0
0
(0)  0

0
0
0
0 1

0
0
1
0
0
TB =

 .


0
13 9
0 0
16 11
0
0 0
2

O Exerccio 17 pede que voc obtenha a decomposio primria por meio do clculo funcional,
isto , como no Exemplo 7.5.

i
i

ALinear 2005/12/19 13:25 page 126 #142


i

126

Teoria Espectral

Cap. 7

A submatriz (0) corresponde restrio de T ao subespao invariante ker A. A


submatriz


0 1
1
0

a restrio de T ao subespao invariante ker(A2 + I). A submatriz




13 9
16 11
a restrio de T ao subespao invariante ker(A I)2 .

Lema 7.11 Sejam S, T : X X duas aplicaes lineares no espao de dimenso


finita X. Suponhamos que ST = T S. Ento existe uma base de X na qual tanto S
como T realizam sua decomposio primria.
Demonstrao: Como no Teorema da Decomposio Primria, seja Wi =
ker[pi (T )]di . Se wi Wi , afirmamos que Swi Wi (isto , que Wi um subespao
invariante tambm para S). De fato,
[pi (T )]di Swi = S[pi (T )]di wi = 0.
Isso mostra o afirmado.

No caso de K = C podemos obter um resultado mais forte:


Proposio 7.12 Sejam S, T : X X duas aplicaes lineares no espao de
dimenso finita X sobre C. Suponhamos que ST = T S. Ento existe uma base de
X formada por autovetores generalizados de S e T .
Demonstrao: J vimos que Wi = ker(T i I)di invariante por S. Todos
os elementos no-nulos de Wi so, por definio, autovetores generalizados de
T . Aplicamos ento o Teorema da Decomposio Primria ao subespao Wi com
respeito a S e obteremos uma diviso desse subespao em subespaos formados por
autovetores generalizados de S.
2
Note que a demonstrao anterior mostra que a Proposio 7.12 permanece
vlida para qualquer nmero de operadores que comutam. Mais precisamente,
Proposio 7.13 Se T1 , . . . , Tm : X X forem aplicaes lineares no espao de
dimenso finita X sobre C e se Ti Tj = Tj Ti para i, j 1, . . . , m, ento existe
uma base de X formada por autovetores generalizados para todas as aplicaes
T1 , . . . , Tm .

i
i

ALinear 2005/12/19 13:25 page 127 #143


i

127

7.4

Forma Cannica de Jordan

7.4

Forma Cannica de Jordan

Seja X um espao complexo de dimenso finita. Nesta seo mostraremos como


encontrar uma base de X na qual um operador linear T : X X assume uma
matriz especialmente simples.
Definio 7.14 Sejam 1 , . . . , j os autovalores distintos de uma matriz J, n n.
A matriz J est na forma cannica de Jordan, se

i 1 0 0
J1 0 0
0 i 1 0
0 J2 0

. . ..
.
J = ..
. . . . .. ,
.. . .
.. , em que Ji = .. ..

.
. .
.
0 0 i 1
0 0 Jk
0 0 0 i

(Ao autovalor i est associado pelo menos um bloco Ji ; s vezes define-se Ji com
a sub-diagonal de 1s situando-se abaixo da diagonal principal. O bloco Ji pode
ser uma matriz 1 1.) O bloco Ji um bloco de Jordan associado ao autovalor i .

Mostraremos, na seqncia, que toda matriz complexa semelhante a uma


matriz na forma cannica de Jordan. Consideramos um espao vetorial complexo
apenas para garantir que os autovalores esto todos presentes no corpo (veja o
Exemplo 7.18, a seguir). Note que a demonstrao que apresentaremos bem
simples: quase tudo que faremos introduzir notao.
Denotaremos N0 = {0} e Nk = ker(A i I)k , para k = 1, . . . , di . Note que
Wi = Ndi .
No enunciado e na demonstrao do prximo resultado utilizaremos o
isomorfismo cannico Q descrito em 1.29 entre X/Y e Z, um espao complementar
a Y com relao a X (isto , X = Y Z). Como, para os nossos
propsitos, a notao do quociente muito mais elucidativa do que mencionarmos
o espao complementar envolvido, ao denotarmos x X/Y estamos, na verdade,
considerando x Z (em que X = Y Z).
N+1 = N Z

N+1
N

(A i I)

Z1

Q
N

N1

Em outras palavras, ao escrevermos, por exemplo, A i I :


realmente considerando a aplicao (A i ) : Z Z1 .

N = N1 Z1

N+1
N

N
,
N1

estamos

i
i

ALinear 2005/12/19 13:25 page 128 #144


i

128

Teoria Espectral

Cap. 7

Lema 7.15 A aplicao


A i I :

N
N+1

N
N1

injetora, para todo {1, . . . , di 1}.


Demonstrao: Seja 0 6= x NN+1
. Isso quer dizer que (A i I)+1 x = 0 e

(A i I) x 6= 0. Consideremos ento (A i I)x. Como (A i I) (A i I)x =


(Ai I)+1 x, vemos que (Ai I)x N . Por outro lado, (Ai I)1 (Ai I)x =
(A i I) x 6= 0, mostrando que (A i I)x 6 N1 . Assim, essa aplicao
realmente est tomando valores em N /N1 .
Afirmamos agora que essa aplicao injetora. De fato, sejam x, y NN+1
, com

(A i I)x = (A i I)y. Ento (A i I)(x y) = 0, o que um absurdo, pois


ento x y estaria em N .
2
Vamos agora construir uma base especial para Wi . Lembramos que uma base de
N /N1 (mais precisamente, para o espao complementar a N1 em N ) obtida
ao se escolher uma base para N1 e ento complet-la at obter uma base de N ; os
elementos introduzidos formam a base procurada. (Veja os Teoremas 1.23 e 1.29.)
Para isso, relembramos que (para simplificar a notao, escreveremos d ao invs
de di ):
N1 N2 Nd1 Nd = Wi .
Analisamos essa seqncia de subespaos no sentido contrrio: comearemos
de Nd /Nd1 e chegaremos a N1 = N1 /N0 . (Mais precisamente, continuamos a
falar dos espaos complementares e no dos espaos quocientes.)
Consideremos uma base
o
n
xd1 , . . . , xdkd

de Nd /Nd1 .
Pelo lema,

n
o
(A i I)xd1 , . . . , (A i I)xdkd

um conjunto linearmente independente em Nd1 /Nd2 . Podemos completar tal


conjunto at obter uma base desse espao:
o
n
(A i I)xd1 , . . . , (A i I)xdkd , x(d1)1 , . . . , x(d1)k(d1) .
(Essa justamente uma base para o espao complementar de Nd2 em Nd1 .)

i
i

ALinear 2005/12/19 13:25 page 129 #145


i

7.4

129

Forma Cannica de Jordan

Prosseguimos, ento, desse modo at chegarmos a uma base para N1 /N0 = N1 .


No quadro a seguir, denotamos S = (A i I). Descrevemos os espaos
envolvidos e suas bases:
Nd
Nd1
Nd1
Nd2
Nd2
Nd3

..
.
N1
N0

{xd1 , . . . , xdkd }
{Sxd1 , . . . , Sxdkd , x(d1)1 , . . . , x(d1)k

(d1)

{S 2 xd1 , . . . , S 2 xdkd , Sx(d1)1 , . . . , Sx(d1)k


, x(d2)1 , . . . , x(d2)k
}
(d1)
(d2)
..
..
.
.
d1
d1
{S xd1 , . . . , S xdkd , . . . , x11 , . . . , x1k1 }.

O que uma base de Wi ? Usamos a construo anterior para obt-la.


Comeamos com uma base para N1 . Uma base para N2 obtida ao se completar
essa base de N1 . Isso equivalente a adicionarmos os vetores da base de N2 /N1
base de N1 . Em seguida, obtemos uma base de N3 ao completar a base de N2 . Isso,
como antes, equivalente a tomarmos os vetores da base de N3 /N2 . E assim por
diante. Ordenamos essa base da seguinte maneira (outras ordenaes so possveis):
n
o
d1
d1
S xd1, . . . , Sxd1 , xd1 , . . . , S xdkd , . . . , Sxdkd , xdkd .

Esses vetores so responsveis pelos blocos d d (relativos ao autovalor i )


presentes na forma cannica de Jordan. Em seguida, acrescentamos os vetores
o
n
.
S d2 x(d1)1 ,. . . , Sx(d1)1 , x(d1)1 ,. . . , S d2 x(d1)k
, Sx(d1)k
, x(d1)k
(d1)

(d1)

(d1)

Esses vetores so responsveis pelos blocos (d 1) (d 1) (relativos ao


autovalor i ) presentes na forma cannica de Jordan. E assim sucessivamente, at
introduzirmos os vetores
o
n
x11 , . . . , x1k1 ,

que so responsveis pelos blocos 1 1 (relativos ao autovalor i ) presentes na


forma cannica de Jordan. A base de Wi assim construda uma base de Jordan
do subespao Wi . Obtemos ento uma base do espao inteiro ao obtermos bases de
Jordan de cada espao Wi . A base obtida uma base de Jordan.
Consideremos o seguinte exemplo abstrato:
Exemplo 7.16 Consideremos N1 ( N2 ( N3 = W . Suponhamos as seguintes
bases para os espaos envolvidos (como antes, estamos falando dos complementares

i
i

ALinear 2005/12/19 13:25 page 130 #146


i

130

Teoria Espectral

Cap. 7

e no de espaos quocientes):
N3
N2
N2
N1

N1

{x31 , x32 }
{(A i I)x31 , (A i I)x32 , x21 , x22 }
{(A i I)2 x31 , (A i I)2 x32 , (A i I)x21 , (A i I)x22 , x11 }.

(Note que os vetores de N1 pertencem ao ncleo de (A i I)).


Consideremos ento a base
{w1 = (A i I)2 x31 , w2 = (A i I)x31 , w3 = x31 , w4 = (A i I)2 x32 ,
w5 = (A i I)x32 , w6 = x32 , w7 = (A i I)x21 , w8 = x21 ,
w9 = (A i I)x22 , w10 = x22 , w11 = x11 } .
Ento (A i I)w1 = 0 e, portanto, Aw1 = i w1 . Tambm, (A i )w2 = w1 e, assim,
Aw2 = w1 + i w2 . Finalmente, (A i )w3 = w2 e Aw3 = w2 + i w3 .
Do mesmo modo para os vetores restantes. Assim, a representao de A nessa
base

0 0
0
0 0
0 0 0
1 1 0
0 1 1
0
0 0
0 0 0
0 0

0
0
0
0
0
0
0
0
0
0

0 0
0 0
0
1 1 0
0 0 0

0 1 1
0
0
0
0
0
0
0
0

0
0
0
0
0
0 0 1
0 0 0




0
0
0

1
0
0
0
0
0
0
1

0
0
0
0

0
0
0
0
0
0
1




0
1 1
0 0 0
0 0 0
0 0

0
0 1
0 0 0
0 0 0
0 0
0 0 0
0 0 0
0 0
0 0
(1 ) 
Teorema 7.17 (Jordan)
Sejam A, B Mnn (C) duas matrizes semelhantes, isto ,
A = P 1 BP.
Ento
(i) A e B possuem os mesmos autovalores i ;
(ii) os espaos Nj (i ) = ker(A i I)j e Mj (i ) = ker(B i I)j possuem a
mesma dimenso para todo j N e todo autovalor i .

i
i

ALinear 2005/12/19 13:25 page 131 #147


i

7.4

131

Forma Cannica de Jordan

Reciprocamente, se estas duas condies se verificarem, ento A e B so


semelhantes. Em particular, nica (a menos de ordenamento dos blocos) a forma
cannica de Jordan de uma matriz.
Demonstrao: Suponhamos que A e B sejam semelhantes. Como matrizes
semelhantes tm o mesmo polinmio caracterstico (veja o Exerccio 6), vale (i).
Notamos agora que os ncleos de duas matrizes semelhantes tm dimenso
igual. De fato, se C = Q1 DQ e {x1 , . . . , xk } for uma base do ncleo de C,
ento {Qx1 , . . . , Qxk } uma base do ncleo de D.
Temos tambm que, se A e B forem semelhantes, ento tambm so
semelhantes as matrizes A aI e B aI, bem como qualquer potncia delas:
(A aI)m = P 1 (B aI)m P.
A relao (ii) decorre ento de os ncleos dessas matrizes terem a mesma dimenso.
Reciprocamente, de acordo com a hiptese (ii), os subespaos
M = ker(B i )
tm a mesma dimenso do espao correspondente N . Em outras palavras, o
procedimento aplicado a N , se repetido para a matriz B, produzir o mesmo
nmero de elementos para cada base de M /M1 . Ordenando os autovalores
(comuns) de A e B e ento seguindo o procedimento para se obter uma forma de
Jordan em cada bloco, a representao de B numa base de Jordan ordenada como
a base de A far com que as duas matrizes tenham exatamente a mesma forma de
Jordan (pois seus autovalores tambm so iguais). Assim, existem mudanas de
base Q1 e Q2 tais que
1
Q1
1 AQ1 = J = Q2 BQ2 .
Definindo P = Q2 Q1
1 , obtemos
A = P 1 BP.
Note que o processo de construo de uma base que coloca um operador na
forma de Jordan implica, em particular, a unicidade (a menos do ordenamento dos
blocos de Jordan) da forma cannica de Jordan de um operador.
2

i
i

ALinear 2005/12/19 13:25 page 132 #148


i

132

Teoria Espectral

Cap. 7

Exemplo 7.18 Seja T : R4 R4 definido por


T (x1 , x2 , x3 , x4 ) = (2x1 x2 + x4 , 3x2 x3 , x2 + x3 , x2 + 3x4 ).
Vamos obter a forma cannica de Jordan de T , bem como uma base na qual T
assume essa forma.
O polinmio caracterstico de T p(t) = (t 3)(t 2)3 (verifique!). Assim,
todos os autovalores de T esto no corpo R e podemos obter (uma) a forma de
Jordan de T .
Verificamos que
N1 = ker(T 2I) = {(x1 , x2 , x2 , x2 ) : x1 , x2 R}
N2 = ker(T 2I)2 = {(x1 , x2 + x3 , 2x3 , 2x2 ) | x1 , x2 , x3 R}.
Como a dimenso de ker(T 2I)2 igual multiplicidade de 2 como raiz do
polinmio caracterstico p(t) de T , temos que o espao W2 do Teorema Espectral
7.3 (ou D.5) dado por ker(T 2I)2 .
Vamos obter uma base de Jordan para W2 . Para isso, notamos que existem
trs vetores em N2 e que dim(N2 /N1 ) = 1. Isso quer dizer que teremos um
bloco 2 2 e um bloco 1 1 associados ao autovalor 2. Claramente o vetor
w2 = (0, 1, 0, 2) N2 e w2 6 N1 . Calculamos ento w1 = (T 2I)w2 = (1, 1, 1, 1).
(A demonstrao do Teorema de Jordan garante que w2 N1 e que w1 , w2 so
linearmente independentes; esses vetores produzem o bloco 2 2). Para obtermos
uma base de N1 , escolhemos o vetor w3 = (1, 0, 0, 0) N1 , que claramente
linearmente independente com w1 . (Mais uma vez, a demonstrao do Teorema de
Jordan garante que {w1 , w2 , w3 } so linearmente independentes; o vetor w3 produz
o bloco 1 1.)
Para o autovalor 3, a forma escalonada reduzida de

1 0 0 1
1 1
0 1

0
0
0 1 0
.
0 1 0
(T 3I) =
0 0 1
0
0
1 2 0
0 0 0
0
0 1
0 0
Assim, o subespao W3 = ker(T 3I) do Teorema Espectral 7.3 (ou D.5) dado
por
{(x1 , 0, 0, x1 ) | x1 R}.

Esse subespao tem base (1, 0, 0, 1) = w4 e produz um bloco 1 1 associado ao


autovalor 3.

i
i

ALinear 2005/12/19 13:25 page 133 #149


i

7.4

Forma Cannica de Jordan

133

Temos assim a base B = {w1 , w2 , w3 , w4 }, que uma base de Jordan de T . Os


vetores w1 , w3 e w4 so autovetores de T (os dois primeiros associados ao autovalor
2).
Assim, representando T na base B, obtemos uma forma de Jordan de T :



0
0
2 1

0
0
0 2
.
TB = J =

0 0
(2) 0
0 0
0 (3)

Exemplo 7.19 Obtenha uma base B
de Jordan:

2
1

1
A=
0

1
0

na qual a matriz A esteja na forma cannica

0 0 0 0 0
2 0 0 0 0

0 2 0 0 0
.
1 0 2 0 0

1 1 1 2 0
0 0 0 1 1

O polinmio caracterstico de A p(t) = (t2)5 (t+1), pois a matriz A triangular


superior.
Se chamarmos de W1 o subespao relacionado ao autovalor 1, vemos que
dim W1 = 1 e que uma base para esse subespao dado pelo vetor e6 . (Voc
consegue justificar esse fato sem fazer qualquer conta?) Denotaremos por w1 := e6
o primeiro vetor da base procurada.
Consideremos agora o espao W2 , associado ao autovalor 2. Temos que
dim W2 = 5 e que

0 0 0 0 0 0
1 0 0 0 0 0

1 0 0 0 0 0
.

A 2I =

0
1
0
0
0
0

1 1 1 1 0 0
0 0 0 0 1 3
Se chamarmos N1 = ker(A 2I), vemos que dim N1 = 2. (Voc consegue
perceber isso sem fazer qualquer conta? Lembre-se que o nmero de linhas
nulas no escalonamento de A 2I fornece os graus de liberdade nas solues de
(A 2I)x = 0, isto , a dimenso desse espao.)

i
i

ALinear 2005/12/19 13:25 page 134 #150


i

134

Teoria Espectral

Cap. 7

Verificamos que
N1 = ker(A 2I) = {(0, 0, x3 , x3 , x4 , x4 /3) | x3 , x4 R}
O nmero de elementos em N1 nos d o nmero de blocos de Jordan associados ao
autovalor 2. Assim, dois blocos de Jordan esto associados a esse autovalor. Como
o espao invariante W2 associado ao autovalor 2 tem dimenso 5, existem apenas
duas possibilidades para a decomposio de Jordan desse subespao: ou existe um
bloco 2 2 e outro bloco 3 3, ou existe um bloco 4 4 e um bloco 1 1.
Um novo clculo nos mostra que
N2 = ker(A 2I)2 = {(0, 0, x3 , x4 , x5 , (3x5 x4 x3 )/9)}.
Ora, isso indica que a nica possibilidade para decompor os blocos de Jordan um
bloco 4 4 e um bloco 1 1. Em particular, W2 = N4 .
Verificamos ento que
N3 = ker(A 2I)3 = {(0, x2 , x3 , x4 , x5 , (2x2 3x3 3x4 + 9x5 )/27}
N4 = ker(A 2I)4 = {(x1 , x2 , x3 , x4 , x5 , (27x5 9x4 9x3 6x2 10x1 )/81}.

(J era claro que deveramos ter 5 graus de liberdade em ker(A 2I)4 .)


Escolhemos ento o vetor
w5 = (1, 0, 0, 0, 0, 10/81) N4 \ N3 .
Obtemos

w4 = (A2I)w5 = (0, 1, 1, 0, 1, 10/27), w3 = (A2I)w4 = (0, 0, 0, 1, 0, 1/9)


e
w2 = (A 2I)w3 = (0, 0, 0, 0, 1, 1/3).

Note que w2 um autovetor de A, pois ele pertence a N1 . Como N1 tem dimenso


2, existe um outro autovetor nesse espao, linearmente independente com w2 . Esse
w6 = (0, 0, 1, 1, 0, 0).
Tendo obtido os vetores {w1 , . . . , w6 }, a representao de A nessa base satisfaz
Aw1
Aw2
Aw3
Aw4
Aw5
Aw6

=
=
=
=
=
=

w1 (pois (A + I)w1 = 0)
2w2 (pois (A 2I)w2 = 0)
w2 + 2w3 (pois (A 2I)w3 = w2 )
w3 + 2w4 (pois (A 2I)w4 = w3 )
w4 + 2w5 (pois (A 2I)w5 = w4 )
2w6

i
i

ALinear 2005/12/19 13:25 page 135 #151


i

7.4

135

Forma Cannica de Jordan

Assim, a representao de A nessa base

(1) 0 0

2 1
0

0 0 2
J =

0 0 0

0 0
0
0 0
0

0
0
1
2
0
0

0
0
0
1
2
0

0
0
0
0
0
(2)

Exemplo 7.20 Seja

A=

1
1 1 3 1
7
0 1
1
2
3
2
0
0 1
0 2
1
0
0
0 1
1 2
0
0
0
0 1
3
0
0
0
0
0 4

cujo polinmio caracterstico (obviamente) p(t) = (t + 1)5 (t + 4). Temos


ker(A + 4I)
ker(A + I)
ker(A + I)2
ker(A + I)3

=
=
=
=

{(2x1 , 0, x1 , x1 , x1 , x1 ) | x1 R}
{(x1 , x2 , 2x2 , x2 , 0, 0) | x1 , x2 R}
{(x1 , x2 , 2x3 2x4 , x3 , x4 , 0) | x1 , x2 , x3 , x4 R}
{(x1 , x2 , x3 , x4 , x5 , 0) | x1 , x2 , x3 , x4 , x5 R}

Escolhemos w1 = (2, 0, 1, 1, 1, 1) ker(A + 4I). Esse o primeiro vetor de


uma base na qual A representada por sua forma cannica de Jordan.
Como dim(ker(A + I)3 / ker(A + I)2 ) = 1, existe apenas um bloco 3 3.
Claramente, w4 = (0, 0, 1, 0, 0, 0) ker(A + I)3 \ ker(A + I)2 . Seja ento
(A + I)w4 = w3 = (1, 1, 0, 0, 0, 0) ker(A + I)2 e (A + I)w3 = w2 =
(1, 0, 0, 0, 0, 0) ker(A + I).
2
= 2, existe um vetor nesse espao quociente, linearmente
Como dim ker(A+I)
ker(A+I)
independente com w3 . primeira vista, poderamos escolher o vetor w =
(0, 1, 0, 0, 0, 0), pois ele est em ker(A + I)2 e no est em ker(A + I). Entretanto,
2
em ker(A+I)
, os vetores w4 e w so linearmente dependentes: basta notar que a
ker(A+I)
diferena entre eles um vetor em ker(A + I). Uma escolha correta para o vetor

i
i

ALinear 2005/12/19 13:25 page 136 #152


i

136

Teoria Espectral

Cap. 7

de ker(A+I)
, linearmente independente com w3 w5 = (0, 0, 2, 0, 1, 0) (verifique).
ker(A+I)
Ento (A + I)w5 = w4 = (1, 1, 2, 1, 0, 0).
Notamos, em particular, que pode ser complicada a escolha de trs vetores
linearmente independentes num espao quociente Ni /Ni1 . Em geral, isso pode
ser obtido por simples inspeo: o vetor w5 escolhido tem uma coordenada que
no est presente no espao ker(A + I). Se essa inspeo no for suficiente, a
melhor maneira pensar como construda a base do espao Ni /Ni1 : partindo
de uma base de Ni1 os elementos que completam a base de Ni formam a base
do quociente. Esse o processo computacional adequado quando a dimenso do
quociente for grande.

Teorema 7.21 Toda matriz A Mnn (C) semelhante sua transposta.
Demonstrao: Uma vez que det A = det At , obtemos que o polinmio
caracterstico dessas duas matrizes igual. Em particular, elas tm os mesmos
autovalores.
Notamos que, se q for um polinmio e B uma matriz n n, ento [q(B)]t =
q(B t ) (basta tomar a transposta). Se i for um autovalor de A (e, portanto, de
At ), aplicando esse resultado para os polinmios (t i )k e ento considerando
a dimenso de seus ncleos, decorre do Corolrio 3.25 que a condio (ii) do
Teorema de Jordan tambm cumprida.
2
Nas duas prximas sees estudaremos como expressar a forma cannica de
Jordan, no caso em que todas as razes do polinmio caracterstico no esto no
corpo K. A primeira dessas maneiras produz a forma de Jordan real; a segunda, a
decomposio racional de Frobenius.

7.5

Forma de Jordan Real

Como vimos, a forma de Jordan classifica as matrizes complexas que so


semelhantes: com ordenamento apropriado dos vetores da base, duas matriz
semelhantes tm a mesma forma de Jordan. Dada uma matriz real A, pode-se pensar
que o conjunto das matrizes P 1 AP , em que P uma matriz complexa, maior do
que o conjunto Q1 AQ, com Q matriz real. O Exerccio 21 garante que isso no
acontece.
Para obtermos a verso real da forma cannica de Jordan utilizaremos a
complexificao de um espao vetorial real X.

i
i

ALinear 2005/12/19 13:25 page 137 #153


i

7.5

137

Forma de Jordan Real

Teorema 7.22 (Forma de Jordan real)


Seja T : X X um operador linear real. Ento existe uma base C
de X na qual T representado por uma matriz J, diagonal em blocos, cujos
blocos diagonais, alm daqueles associados a autovalores reais e que so como
na definio da forma de Jordan complexa, tambm podem ter a forma

J,

D,
I2
0
0
0
D, I2
0
..
..
..
...
.

.
.
0
0
0 D,
I2
0
0
0
0
D,

em que D, =

sendo + i um autovalor complexo de TC e I2 a matriz identidade 2 2.


Uma matriz nesse formato est na forma de Jordan real.
Demonstrao: A demonstrao praticamente repete os primeiros passos da
demonstrao do Teorema da Decomposio Primria 7.8. Como l, podemos nos
limitar ao caso de autovalores C \ R da complexificao TC de T .
Suponhamos que TC possua um autovalor 6 R. Decorre do Lema 5.20(iii)
tambm autovalor de TC , o que garante a existncia dos espaos W
e W
.
que
Como na demonstrao do Teorema da Decomposio Primria vemos que, se os
, ento os vetores
vetores wj = uj + ivj (j = 1, . . . , k) formarem uma base de W
.
uj ivj formam uma base de W
Afirmamos que
S = {u1 , v1 , u2 , v2 , . . . , uk , vk }
W
formada apenas por vetores reais. De fato, como
uma base de W

dim W = dim W = k, o conjunto S tem o nmero de elementos igual dimenso


W
. Por outro lado, todo vetor desse espao combinao linear
do espao W
W
a complexificao
dos elementos de S. Isso mostra o afirmado. Assim, W
do espao real W , que tem como base o conjunto S.
Finalmente, se w1 = u1 + iv1 satisfizer TC w1 = w1 para = + i C \ R,
ento
T (u1 ) + iT (v1 ) = (u1 v1 ) + i(u1 + v1 ),

(7.4)

i
i

ALinear 2005/12/19 13:25 page 138 #154


i

138

Teoria Espectral

Cap. 7

mostrando que os autovetores w1 = u1 iv1 de TC do origem s colunas

0 0

.. ..

. .
0 0

quando representamos T na base S.


Se, para j {2, . . . , r}, tivermos TC wj = wj + wj1 , vemos que

T uj + iT vj = (uj vj + uj1 ) + i(uj + vj + vj1 )


= uj1 + (uj vj ) + i[vj1 + (uj + vj + vj1 )].

Em particular, se j = 2, os vetores w2 do origem s colunas

1 0
0 1

,
0 0

.. ..

. .
0 0

o que implica que, na base {u1 , v1 , u2 , v2 , . . . , uk , vk } de W , T representado por


blocos da forma descrita no enunciado do teorema.
2

7.6

Decomposio Racional

(Essa Seo opcional, podendo ser omitida, a critrio do professor, sem


prejuzo para o restante do texto.)
Em ltima instncia, a decomposio racional, tambm chamada de
decomposio de Frobenius, o resultado mais geral vlido para um operador
qualquer em um espao de dimenso finita X. Essa generalidade dada pelo fato
desse resultado independer do corpo sobre o qual X espao vetorial.
Consonante com nossa proposta de estudar espaos vetoriais sobre R ou
C, vamos inverter a perspectiva natural e obter a decomposio racional como
conseqncia da forma cannica (complexa) de Jordan.

i
i

ALinear 2005/12/19 13:25 page 139 #155


i

7.6

139

Decomposio Racional

Definio 7.23 Seja T : X X um operador. Um polinmio p anula o vetor


x X com relao a T se p(T )x = 0. Um polinmio mnico de menor grau
que anula x X (com relao a T ) chamado polinmio mnimo de x X ou
T-anulador de x.
Num espao de dimenso finita X, sempre existe um T -anulador de x. De fato, o
polinmio mnimo de T anula todos os vetores de X. Assim, o conjunto de todos os
polinmios que anulam x no-vazio. A aplicao do Princpio da Boa Ordenao
a este conjunto ento garante a existncia de um polinmio de menor grau que anula
x. Dividindo pelo coeficiente do termo de maior grau desse polinmio, obtemos o
polinmio mnimo de x.
De maneira anloga prova do Lema 5.14, verifica-se que qualquer polinmio
que anula x com relao a T um mltiplo de um polinmio mnimo de x. Em
particular, isso garante a unicidade do polinmio mnimo de x.
Proposio 7.24 Seja T : X X um operador definido no espao de dimenso
finita X. Ento existe um vetor x cujo polinmio mnimo coincide com o polinmio
mnimo de T .
Demonstrao: Para um vetor x X fixo, considere o conjunto I de todos
os polinmios que anulam x. Todos elementos desse conjunto so mltiplos do
polinmio mnimo mx de x e o polinmio mnimo m de T pertence a I.
medida que variamos x X, obtemos diferentes polinmios mx , todos eles
dividindo m. Mas existe um nmero finito de polinmios que so divisores de m.
Assim, quando x percorre X, os polinmios mx percorrem um nmero finito de
polinmios distintos, todos eles divisores de m. Sejam p1 , . . . , pk tais polinmios.
(Note que cada um desses polinmios um polinmio mx para certo x X, mas
no podemos afirmar que os polinmios p1 , . . . , pk sejam todos os divisores de m.)
Defina Xi = {x X | pi (T )x = 0}. claro que cada Xi 6= um subespao
de X. Alm disso, se x X, ento x Xi para pelo menos um i = 1, . . . , k.
Assim,
k
[
X
Xi .
i=1

Mas, de acordo com o Exerccio 29 do Captulo 1, isso implica que X Xi para


algum i0 {1, . . . , k}. Isso garante que pi0 (T )(x) = 0 para todo x X e, portanto,
pi0 mltiplo de m. Logo, m = pi0 , pois todos os polinmios em {p1 , . . . , pk } so
mnicos e dividem m.
2

i
i

ALinear 2005/12/19 13:25 page 140 #156


i

140

Teoria Espectral

Cap. 7

Seja x0 X tal que o T -anulador de x0 o polinmio mnimo m de T . Se o


grau de m for igual a k, ento os vetores x0 , T x0 , . . . , T k1 x0 so todos linearmente
independentes. (Se fossem linearmente dependentes, o T -anulador de x0 teria grau
menor do que ou igual a k 1.) Seja W o subespao de X gerado por tais vetores.
Como m = mx0 mnico e tem grau k,
m(T )x0 = (a0 I + a1 T + . . . + T k )x0 = 0.

(7.5)

Da segue-se imediatamente que T k x0 combinao linear de x0 , T x0 , . . . , T k1 x0 .


Dizemos ento que x0 um vetor cclico de ordem k.
Em outras palavras, provamos que T (W ) W . Note que a representao de
T |W na base B = {x0 , T x0 , . . . , T k1 x0 } de W a matriz

B=

0 0 0
1 0 0
0 1 0
.
0 0 1 ..
.. .. .. . .
.
. . .
0 0 0

0
0
0

a0
a1
a2

0 a3
..
...
.
1 ak1

(7.6)

Chamamos W de subespao gerado pelo T -anulador de x0 .


Definio 7.25 Um bloco cclico ou bloco de Frobenius de uma matriz A uma
submatriz quadrada B com a forma (7.6). Essa submatriz chamada matriz
companheira de ordem k e est associada a um polinmio mnico de grau k. A
matriz companheira do polinmio 1 a matriz (0).
Colocamos agora a questo: existe um subespao W , invariante por T , tal que
X = W W ?
Se o polinmio mnimo for igual ao polinmio caracterstico de T , sabemos a
resposta: sim, com W = (justifique!). Ou seja, W = X, e obtemos uma
representao simples para o operador T .
Note que, se uma tal decomposio for possvel, ento obteremos uma
representao de T em blocos de Frobenius: o primeiro, associado ao polinmio
mnimo de T . Um segundo bloco de Frobenius estar associado ao polinmio
mnimo do operador S = T |W . E assim sucessivamente.

i
i

ALinear 2005/12/19 13:25 page 141 #157


i

7.6

Decomposio Racional

141

Vamos mostrar que uma tal decomposio sempre existe. Mais precisamente,
denotemos W = Z(x0 , T ) o subespao gerado pelo T -anulador de x0 e,
generalizando, Z(xk , T ) o subespao gerado pelo T -anulador de xk X. Ento
temos:
Teorema 7.26 (Decomposio Racional Frobenius)
Seja T : X X um operador definido no espao de dimenso finita X. Ento
existem vetores no-nulos x0 , x1 , . . . , xk tais que
X = Z(x0 , T ) Z(x1 , T ) Z(xk , T ),
em que cada espao Z(xi , T ) invariante por T e, se pi denotar o T -anulador de
xi , ento pi divide pi1 para todo i e p0 o polinmio mnimo de T .
Alm disso, o inteiro k e os T -anuladores p0 , . . . , pk so determinados de
maneira nica por essas condies.
Os polinmios p0 , . . . , pk so chamados fatores irredutveis de T .
A demonstrao do Teorema 7.26 ser feita utilizando-se a forma de Jordan do
operador T . Comeamos mostrando como obter vetores de determinadas ordens:
Lema 7.27 Sejam T : X X um operador linear e

1 0 0
0 1 0

.. .. . .
..
.
.
. .
.
. .

0 0 1
0 0 0

um bloco de Jordan de T de ordem k k. Se S = T I, seja C =


{S k1 x, S k2 x, . . . , Sx, x} a base de Jordan responsvel por esse bloco. Ento
x um vetor de ordem k.
Demonstrao: Seja B = {x, T x, . . . , T k1 x}. Por induo, fcil verificar que
B linearmente independente se, e somente se, C for linearmente independente.
Como o polinmio mnimo de T |W (t )k , temos S k x = 0. Desses fatos
decorre imediatamente o afirmado.
2
Agora mostraremos como dar origem a blocos de ordem maior.

i
i

ALinear 2005/12/19 13:25 page 142 #158


i

142

Teoria Espectral

Cap. 7

Lema 7.28 Seja W1 W2 uma soma direta de subespaos invariantes pelo


operador T . Sejam p e q os T -anuladores de x e y, respectivamente, com x W1 e
y W2 . Se p e q forem primos entre si, ento o T -anulador de x + y pq.
Demonstrao: Seja r o T -anulador de x + y. Ento r(x + y) = r(x) + r(y).
Como r um polinmio em T e x W1 , temos que r(x) W1 . Do mesmo modo,
r(y) W2 . Isso quer dizer que r um mltiplo tanto de p quanto de q. Como p e q
so primos entre si, conclumos que r mltiplo de pq.
Uma vez que (pq)(x + y) = p(x)q(x) + p(y)q(y) = 0, vemos que r = pq. 2
Agora mostraremos como razes complexas conjugadas do polinmio
caracterstico de T do origem a blocos de Frobenius:
Lema 7.29 Seja T : X X um operador linear sobre o espao real X. Suponha
Se
que o polinmio caracterstico de T tenha as razes complexas conjugadas , .

1 0 0

1 0 0
0
0 1 0
1 0

.. .. . .
..
.. e .. .. . .
.
.
.
.
. .
. .
.
. .
.
. .

0 0
0 0 1

0 0 0
0 0 0

forem blocos de Jordan k k de TC associados a essas razes, ento existem vetores


x0 , x0 de ordem k determinados por bases de Jordan desses blocos, tais que x0 + x0
um vetor real de ordem 2k, responsvel pelo bloco de Frobenius

0 0 0 0 a0
1 0 0 0 a1

0 1 0 0 a2

.
.

0 0 1 . . 0 a3

.
..
... ...

..
.
0 0 0 1 a2k1

Demonstrao: Seja W o subespao de dimenso k, invariante por TC associado ao


autovalor complexo . De acordo com o Lema 7.27, existe um vetor x0 , de ordem
k, que gera W .
f de
Sabemos que est relacionado ao subespao W um subespao invariante W
TC , cujos elementos so os conjugados dos elementos de W . Isso implica que x0
f.
um vetor de ordem k que gera o espao W

i
i

ALinear 2005/12/19 13:25 page 143 #159


i

7.6

Decomposio Racional

143

f so, respectivamente, (t)k


Os polinmios mnimos m (t) e m (t) de W e W
k . Como esses polinmios so primos entre si, podemos aplicar o Lema
e (t )
k = [(t)(t )]
k , que
7.28 e concluir que x0 +x0 tem T -anulador (t)k (t )
um polinmio real de grau 2k. A matriz de Frobenius dada a matriz companheira
desse polinmio. Note que x0 + x0 um vetor real, pois x0 o conjugado do vetor
x0 .
2
Demonstrao do Teorema 7.26: Faremos induo sobre a dimenso n do espao
X, incluindo a unicidade da decomposio. O caso n = 1 trivial.
Suponhamos o resultado vlido para qualquer operador T : Y Y definido
num espao Y de dimenso menor do que ou igual a k. Consideremos um espao
X de dimenso k + 1. Seja m o polinmio mnimo de T . Para cada fator irredutvel
(t ) do polinmio mnimo est associado ao menos um bloco de Jordan de
tamanho . Se conhecermos a base responsvel por esse bloco, tomamos o vetor
x de ordem , de acordo com Lema 7.27. Se for uma raiz complexa, tomamos
.
tambm o vetor x, que estar associado ao fator irredutvel (t )
Assim, se x1 , . . . , xj forem os vetores assim escolhidos (associados s razes do
polinmio mnimo), tome x0 = x1 + . . . + xj . Esse vetor responsvel pelo bloco
de Frobenius associado ao polinmio mnimo de T , de acordo com o Lema 7.28.
Note que, se X for um espao real, a aplicao do Lema 7.29 garante que x0 ser
um vetor real.
Consideremos ento os blocos restantes na forma de Jordan de T . Eles geram
um espao invariante W , que a soma direta dos espaos invariantes gerados por
esses blocos. Aplicamos ento a hiptese de induo ao operador T : W W e
obtemos a (nica) decomposio cclica desse operador.
Note que o polinmio mnimo de T |W divide o polinmio mnimo de T . Como,
por induo, essa hiptese tambm satisfeita para a decomposio de T |W , a
prova est completa.
2
Note que, apesar de a demonstrao do Teorema 7.26 ter sido feita por induo,
o processo descrito construtivo e nos fornece a base na qual T : X X assume
sua decomposio racional. Mostraremos isso nos prximos exemplos.
Exemplo 7.30 Elucidaremos aqui o processo construtivo da decomposio racional
de uma matriz partir de sua forma de Jordan. Para isso, consideremos um operador
T : R11 R11 , cuja representao de sua complexificao numa base B assume a

i
i

ALinear 2005/12/19 13:25 page 144 #160


i

144

Teoria Espectral

forma de Jordan dada por

1 1 0 0 0 0 0 0 0 0 0
0 1 1 0 0 0 0 0 0 0 0

0 0 1 0 0 0 0 0 0 0 0

1 1 0 0 0 0 0 0
0 0 0

1 1 0 0 0 0 0
0 0 0 0

A=
0 0 0 0 0 1 0 0 0 0 0
0 0 0 0 0 0 2 1 0 0 0

0 0 0 0 0 0 0 2 0 0 0

0 0 0 0 0 0 0 0 2 1 0

0 0 0 0 0 0 0 0 0 2 0
0 0 0 0 0 0 0 0 0 0 2

Cap. 7

1 so autovalores conjugados de TC , enquanto 2 R (justifique!).


Aqui, 1 e
Os polinmios caracterstico e mnimo de A so obtidos imediatamente:
1 )3 (t 2 )5
p(t) = (t 1 )3 (t

1 )3 (t 2 )2 .
e m(t) = (t 1 )3 (t

O bloco de Frobenius associado ao polinmio mnimo um bloco 8 8, que


tem como base
{x0 , Ax0 , . . . , A7 x0 },

em que o vetor x0 obtido como soma de trs vetores: o terceiro, o sexto e o oitavo
(ou ento o dcimo) vetores da base B. Note que o terceiro e o sexto vetores sero
vetores conjugados, de modo que o vetor x0 ser um vetor real.
O segundo bloco de Frobenius obtido ao se considerar os polinmios
caracterstico e mnimo dos blocos restantes:
p1 (t) = (t 2 )3

e m1 (t) = (t 2 )2 .

Assim, o segundo bloco de Frobenius ser um bloco 2 2 e ter como base


{x1 , Ax1 },
em que x1 o dcimo (respectivamente, o oitavo) vetor da base B. Finalmente,
existir um terceiro bloco de Frobenius, relativo ao polinmio
p2 (t) = (t 2 ) = m2 (t),
o qual ser gerado pelo dcimo primeiro vetor da base B.

i
i

ALinear 2005/12/19 13:25 page 145 #161


i

7.6

145

Decomposio Racional

Exemplo 7.31 Consideremos a matriz

2 0
1 2

1 0
A=
0 1

1 1
0 0

0
0
2
0
1
0

0
0
0
2
1
0

0 0
0 0
0 0
0 0
2 0
1 1

que j foi estudada no Exemplo 7.19. Nesse caso, os polinmios caracterstico e


mnimo de A so
p(t) = (t + 1)(t 2)5

e m(t) = (t + 1)(t 2)4 ,

respectivamente. A decomposio racional de A dada por


0
0 0 0 0 16

1 0 0 0
16
0

0 1 0 0
8
0

0 0 1 0 16 0 .

0
0 0 0 1
7
0 0 0 0
0
(2)

Para obtermos uma base C na qual A assume sua decomposio racional,


partimos da base B obtida no Exemplo 7.19. Se J denotar a forma de Jordan de
A, mostramos naquele exemplo que J = P 1 AP , em que

0 0
0
0
1
0
0 0
0
1
0
0

0 0
0 1
0
1

.
P =

0
0
1
0
0
1

0 1
0
1
0
0
10
10
1 31 19 27
81
0
O bloco de Frobenius 5 5 associado ao polinmio mnimo tem como base
{x0 , Ax0 , . . . , A4 x0 },

em que o vetor x0 a soma da primeira e quinta colunas da matriz P . O bloco de


Frobenius 1 1 gerado pela sexta coluna da matriz P .


i
i

ALinear 2005/12/19 13:25 page 146 #162


i

146

Teoria Espectral

Exemplo 7.32 Consideremos a matriz real

0
2 0
1 2 0

0 1
A=
1
1 2 1
1 4 3

6
0
3
1
3

2
2
2
2
4

Cap. 7

Calculando os polinmios caracterstico p e mnimo m de A, obtemos


p(t) = (t 2)(t2 + 2)2

e m(t) = (t 2)(t2 + 2).

Assim, A diagonalizvel como matriz complexa, mas no como matriz real.


Uma base B na qual A assume sua forma de Jordan dada por

3 2i
3 2i

32i 32i

2
2

2
2

0
0

2
2
1+i
1i


2
2
i
i
2
2
1
+
1

4
4

i
i
2
2
B = 1 , 1 + 2 , 1 2 , 1 i2 , 1 i2 .

2 4 2 + 4

0
0

0
0

i 2
i 2

1 2
1 + 2

3i 2
3i 2
4

Como matriz complexa, podemos escolher como


vetores
de ordem 1 responsveis

pelos blocos associados aos autovalores 1, i 2 e i 2 tanto o primeiro, segundo


e terceiro vetores da base B, quanto o primeiro, quarto e quinto vetores da base B.
(Para cada vetor complexo, tomamos o vetor e seu conjugado.)
Se somarmos o primeiro, o segundo e o terceiro vetores de B, obtemos o vetor

0
0

x0 =
3 ,
1
0

que responsvel pelo bloco de Frobenius associado ao polinmio mnimo de A.


Nesse caso, o segundo bloco de Frobenius obtido ao se somar o quarto e quinto
vetores da base B:

0
0

x1 =
2 .
1
0

i
i

ALinear 2005/12/19 13:25 page 147 #163


i

7.7

147

Exerccios

Na base C = {x0 , Ax0 , A2 x0 , x1 , Ax1 } a matriz A assume a sua decomposio


racional:

0
0
0 0
4
1 0 2

0
0

0 1
2
0

.
0

0 0
0
0 2
1
0
0 0
0

A primeira submatriz diagonal est ligada ao polinmio mnimo de A. A segunda


submatriz diagonal est ligada ao quociente mp . (Note que o polinmio caracterstico
dessa submatriz multiplicado pelo polinmio mnimo m de A produz o polinmio
caracterstico p de A.)
Se tivssemos escolhido os vetores x0 como a soma do primeiro, quarto e quinto
vetores da base B e x1 como a soma do segundo e terceiro vetores de B, obteramos
uma outra base na qual A assume sua decomposio racional.


7.7

Exerccios

1. Suponha que a matriz A seja diagonalizvel. Mostre o Teorema de CayleyHamilton como conseqncia do Teorema da Imagem do Espectro.
2. Seja T : X X um operador definido no espao de dimenso finita X.
Suponha que T k = 0 para algum inteiro k. Obtenha os autovalores de T .
3. Seja
A=
Calcule os autovalores de sen A.

1 2
2 1

4. Na demonstrao do Teorema Espectral 7.3, reduzimos as vizinhanas Ui


i para mostrar que o nico autovalor da aplicao T restrita a Wi i . Essa
reduo no necessria. Justifique.
5. Seja N : X X um operador nilpotente, com N k = 0 e N k1 6= 0.
Seja x X tal que N k x = 0 mas N k1 x 6= 0. Mostre que os vetores
{x, N x, . . . , N k1 x} so linearmente independentes. Conclua as incluses
estritas na equao (7.2):
ker(T i I) ( ( ker(T i I)di = ker(T i I)di +1 = = ker(T i I)si .

i
i

ALinear 2005/12/19 13:25 page 148 #164


i

148

Teoria Espectral

Cap. 7

Voc percebeu que essas incluses estritas j haviam sido provadas na


demonstrao do Teorema de Jordan 7.17?
6. Seja A uma matriz tal que Ak = 0. Mostre que B k = 0 para qualquer matriz
B semelhante a A.
7. Seja N uma matriz n n, com n 2. Se N for nilpontente, mostre que no
existe uma matriz A tal que A2 = N .
8. D exemplos de operadores N, M : X X, ambos nilpotentes, tais que
N M e N + M no sejam nilpotentes.
9. Seja A uma matriz diagonalizvel e W um subespao invariante por A.
Mostre que A|W diagonalizvel.
10. (Diagonalizao simultnea de operadores) Sejam X um espao vetorial de
dimenso finita n e S, T : X X operadores diagonalizveis. Se ST = T S,
mostre que T e S so simultaneamente diagonalizveis, isto , que existe uma
base B de X formada por elementos que so ao mesmo tempo autovetores de
S e T.
11. Se dim X = n, sejam S, T : X X sejam operadores diagonalizveis.
Suponha que ST = T S. Mostre que S + T diagonalizvel. Descreva o
espectro de S + T .
12. Sejam N, M : X X operadores nilpotentes, com N M = M N . Mostre
que M + N nilpotente.
13. O Teorema 7.3 garante a existncia de uma decomposio T = D + N ,
com DN = N D, sendo D diagonalizvel e N nilpotente. Mostre que as
aplicaes lineares D e N so nicas.
14. Sejam X um espao complexo de dimenso finita e T : X X um operador
linear invertvel. Mostre que T = DN , com D diagonalizvel e N nilpotente.
Mostre tambm que essa decomposio nica.
15. Seja x X arbitrrio. Demonstre, por induo, que (T i I)k x = 0
implica que x Wi e obtenha, assim, uma outra demonstrao de que
ker(T i I)di = Wi .

i
i

ALinear 2005/12/19 13:25 page 149 #165


i

7.7

Exerccios

149

16. Encontre a decomposio dada pelo Teorema 7.3 para a matriz

1 1 1 1 1
0 1 1 1 1

A=
0 0 1 1 1 .
0 0 0 2 1
0 0 0 0 2
17. Obtenha a decomposio primria do operador T do Exemplo 7.10 utilizando
o clculo funcional.
18. Seja A Mnn (K) uma matriz tal que A2 = 2A + I. A matriz A
diagonalizvel?
19. D uma demonstrao direta do Lema 7.15. Mostre, portanto, que a aplicao
A i I est bem definida e tem as propriedades descritas no lema.
20. Demonstre a Proposio 7.13.
21. Sejam A e B matrizes reais tais que A = P 1 BP para alguma matriz
complexa P . Mostre que A = Q1 BQ para alguma matriz real Q.
22. Obtenha bases B na quais as seguintes matrizes estejam na forma cannica de
Jordan:

2 5
0
0
0
0 2
0
0
0

0 1
(a)
0 0 1
.
0 0
0 1
0
0 0
0
0 1

1 1 0
0 1
0
4
0
0 1 1 1 1 3
3 4

0 0 1

0
1
1
2
1

0 0 0

1
1
1
4
5
.
(b)
0 0 0
0
1
0 1 5

0 0 0

0
0
1
1
1

0 0 0
0
0
0
1 2
0 0 0
0
0
0
0
3

i
i

ALinear 2005/12/19 13:25 page 150 #166


i

150

Teoria Espectral

Cap. 7

23. Sejam
m(t) = (t 1 )d1 . . . (t r )dr

p(t) = (t 1 )s1 . . . (t r )sr

os polinmios mnimo e caracterstico do operador T : X X definido no


espao complexo X. Mostre que
(a) existe ao menos um bloco di di associado ao autovalor i ;
(b) o nmero de blocos associados ao autovalor i igual multiplicidade
geomtrica de i (isto , dimenso do auto-espao Xi associado ao
autovalor i ). do autovalor i .)
24. A menos de ordenamento dos blocos, determine todas as possveis formas
cannicas de Jordan para uma matriz complexa
(a) cujo polinmio caracterstico p(t) = (t 2)3 (t 5)2 ;

(b) cujos polinmios mnimo m(t) = (t 2)2 , sabendo que A uma


matriz 7 7;

(c) cujo polinmio caracterstico p(t) = (t 3)4 (t 5)4 e cujo polinmio


mnimo m(t) = (t 3)2 (t 5)2 .

25. Suponha que sejam reais os autovalores de A Mnn (R) e que A2 seja
semelhante a A. Quais so os possveis autovalores de A?
26. Seja T : X X um operador no espao complexo X. Suponha que T k = I
para algum inteiro positivo k. Mostre que T diagonalizvel.
27. Seja A Mnn (C) uma matriz invertvel e J a sua forma cannica de Jordan.
Qual a forma cannica de Jordan de A1 ?
28. Verifique que a demonstrao do Teorema 7.22 garante, em particular, que os
possuem a
subespaos W e W associados aos autovalores conjugados ,
mesma dimenso. Voc capaz de dar uma outra demonstrao desse fato?
29. Seja T : X X um operador no espao de dimenso finita X. Mostre que
existe um espao invariante W X com dim W = 1 ou dim W = 2.

i
i

ALinear 2005/12/19 13:25 page 151 #167


i

7.7

151

Exerccios

30. Considere a matriz

i
0

0
0

1 0 0
i
0 0
.
0 i 0
0 0 i

Essa matriz a forma de Jordan de alguma aplicao T : R4 R4 ? E de


uma aplicao S : C4 C4 ?
31. Seja T : R4 R4 um operador
por

i
0

0
0
Ache a sua forma de Jordan real.

que tem a forma de Jordan complexa dada

1 0 0
i
0 0
.
0 i 1
0 0 i

Definio 7.33 Um operador T : X X definido no espao real X semisimples se sua complexificao TC : XC XC for diagonalizvel.
32. Sejam X um espao real de dimenso finita e T : X X um operador.
Mostre que T = D + N , com D semi-simples e N nilpotente, sendo que
DN = N D.
33. Verifique que, na base C descrita no Exemplo 7.31, a matriz A assume sua
decomposio racional.
34. Verifique que a matriz A do Exemplo 7.32 assume sua forma de Jordan na
base B ali descrita. Verifique tambm que, na base C daquele exemplo, A
assume sua decomposio racional.
35. Seja que, na base B, a matriz A assume sua forma racional. Obtenha uma
base C na qual A assume a forma de Jordan.

i
i

ALinear 2005/12/19 13:25 page 152 #168


i

8
Estrutura Euclidiana
Neste Captulo estudamos as propriedades bsicas de espaos com produto
interno, projees ortogonais, o Teorema de Representao de Riesz e algumas
propriedades geomtricas relacionadas com a adjunta de uma aplicao linear T .

8.1

Produto Interno

Definio 8.1 Seja E um espao vetorial sobre o corpo K. Um produto interno em


E uma aplicao h , i : E E K satisfazendo as seguintes propriedades:
(i) hx, yi = hy, xi;

(ii) hx + y, zi = hx, zi + hy, zi;


(iii) hx, xi 0 e hx, xi = 0 se, e somente se, x = 0.

Um espao E com produto interno euclidiano se tiver dimenso finita.1 Se


E for um espao vetorial sobre os complexos, E e o produto interno tambm
so chamados, respectivamente, de espao hermitiano ou unitrio e produto
hermitiano.
Exemplo 8.2 Se E = Rn , o produto interno cannico
produto escalar) definido por

y1
n
X
t ..
hx, yi = x y =
xi yi = (x1 . . . xn ) .
i=1
yn
1

(tambm chamado de

t
= x y,

Essa terminologia varia de acordo com o autor consultado: para alguns, um espao euclidiano
um espao real com produto interno, mesmo em dimenso infinita.

152
i

i
i

ALinear 2005/12/19 13:25 page 153 #169


i

8.2

Norma

153

em que xt = (x1 . . . xn )t denota a transposta da representao de x na base


cannica e y = (y1 . . . yn ).
Com a mesma notao, o produto interno cannico em Cn definido por

y
1
n
X

hx, yi = x y =
xi yi = (x1 . . . xn )t ... = xt y.
i=1
yn

Definio 8.3 Sejam x, y vetores do espao com produto interno E. Esses vetores
so ortogonais (ou perpendiculares) se hx, yi = 0. Nesse caso escrevemos x y.
Posteriormente justificaremos geometricamente essa definio.

8.2

Norma

Definio 8.4 Seja E um espao vetorial sobre o corpo K. Uma norma em E


uma aplicao k k : E [0, ) satisfazendo as seguintes propriedades:
(i) kxk > 0 se x 6= 0;
(ii) kxk = || kxk, para K;
(iii) kx + yk kxk + kyk.
Considerado com uma norma k k, dizemos que E um espao normado.
O valor kxk pode ser interpretado, geometricamente, como o comprimento do
vetor x. Se kxk = 1, o vetor x unitrio. (Veja o Exerccio 1.)
Seja E um espao com produto interno. Consideremos (com abuso de notao)
kxk := hx, xi1/2 . Vamos mostrar que essa notao coerente, isto , que
hx, xi1/2 realmente define uma norma. Comeamos justificando a definio de
perpendicularidade, dada anteriormente.
Teorema 8.5 (Pitgoras)
Seja E um espao com produto interno e kxk = hx, xi1/2 . Ento, se x y,
temos
kx + yk2 = kxk2 + kyk2 .

i
i

ALinear 2005/12/19 13:25 page 154 #170


i

154

Estrutura Euclidiana

Cap. 8

Demonstrao: Basta desenvolver kx + yk2 :


kx + yk2 = hx + y, x + yi = hx, xi + hx, yi + hy, xi + hy, yi = kxk2 + kyk2 ,
pois x e y so ortogonais.

Suponhamos agora que E seja um espao real. Ento hx + y, x + yi =


kxk2 + 2hx, yi + kyk2 . Se valer o Teorema de Pitgoras, ento x y. (Veja o
Exerccio 2.)
Proposio 8.6 (Desigualdade de Cauchy-Schwarz)
Seja E um espao com produto interno. Ento, se kxk = hx, xi1/2 , para todos
x, y E vale:
|hx, yi| kxk kyk.
Demonstrao: A prova que apresentaremos bem geomtrica. (Interprete!)
Se x = y, ento |hx, yi| = || hy, yi = || kyk2 = kxk kyk. Se x 6= y, existe
K tal que |hy x, xi| = 0. De fato, basta tomar := hy, xi/kxk2 ; note que
kxk = 0 est includo no caso anterior. Ento, pelo Teorema de Pitgoras,
kxk2 < kyk2 .
Substituindo o valor de , obtemos
|hy, xi|2
kxk2 < kyk2 ,
kxk4
e a desigualdade de Cauchy-Schwarz segue-se imediatamente da, pois |hy, xi| =
|hx, yi|. (Uma outra prova da desigualdade de Cauchy-Schwarz sugerida no
Exerccio 3.)
2
Se E for um espao real com produto interno, uma vez que a desigualdade de
Cauchy-Schwarz garante que


y
x
1
,
1,
kxk kyk
natural definir o ngulo entre os vetores x e y (com 0 ) por


x
y
cos =
,
.
kxk kyk

i
i

ALinear 2005/12/19 13:25 page 155 #171


i

8.2

155

Norma

Assim, podemos escrever


hx, yi = kxk kyk cos ,
expresso muitas vezes usada na definio do produto escalar x y de vetores
x, y R3 .
A desigualdade de Cauchy-Schwarz permite que justifiquemos a notao kxk =
hx, xi1/2 . (Veja tambm o Exerccio 3.)
Proposio 8.7 Todo espao com produto interno E tem uma norma definida por
kxk = hx, xi1/2 . Dizemos que essa norma gerada pelo do produto interno.
Demonstrao: A primeira propriedade de norma decorre imediatamente da
definio do produto interno. Alm disso,
kxk2 = hx, xi = hx, xi = ||2 kxk2 .
Finalmente, denotando por Re z a parte real de z C, temos que
kx + yk2 =
=

hx + y, x + yi = kxk2 + hx, yi + hy, xi + kyk2


kxk2 + 2Re hx, yi + kyk2
kxk2 + 2Re |hx, yi| + kyk2
kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2

(8.1)

Observao 8.8 Consideremos o isomorfismo entre um espao vetorial E com


base B = {v1 , . . . , vn } e o espao Kn . Seja [x]B a representao de x na base B
e [
y ]B o vetor obtido ao se tomar o conjugado em cada uma das entradas de [y]B .
Definimos um produto interno em E por
hx, yi = [x]tB [y]B .
Essa definio a generalizao do Exemplo 8.2. (Veremos posteriormente
uma certa recproca desse resultado, caracterizando produtos internos em espaos
de dimenso finita.)
Parafraseando Lima [22], ao dizermos que um espao vetorial de dimenso
finita euclidiano, no estamos atribuindo uma propriedade especial a esse espao.
Estamos, na verdade, escolhendo naquele espao um determinado produto interno,
entre os vrios produtos internos com que ele poderia ser considerado. (Compare

i
i

ALinear 2005/12/19 13:25 page 156 #172


i

156

Estrutura Euclidiana

Cap. 8

com a Observao 8.21.) Estudar espaos de dimenso finita sem produto interno
procurar entender quais resultados dependem da estrutura topolgica do espao.
Essa a situao em dimenso finita, mas espaos de dimenso infinita so
muito diferentes: nem sempre razovel (ou desejvel) definir um produto interno
nesses espaos. Em muitas situaes prticas, um espao vetorial tem uma norma
que est naturalmente associada ao problema considerado, a qual pode gerar uma
topologia que no equivalente quela gerada por um produto interno. (Veja o
Apndice F).

Lema 8.9 Seja E um espao com produto interno. Ento so vlidas as identidades
de polarizao:
(i) se E for um espao real,
1
1
hx, yi = kx + yk2 kx yk2 .
4
4
(ii) se E for um espao complexo,
1
1
i
i
hx, yi = kx + yk2 kx yk2 + kx + iyk2 kx iyk2 .
4
4
4
4
Demonstrao: Basta desenvolver o lado direito de cada uma das igualdades.

A seguinte propriedade de espaos com produto interno imediata (desenvolva


o lado esquerdo da igualdade):
Proposio 8.10 Em todo espao com produto interno vale a identidade do paralelogramo:

kx + yk2 + kx yk2 = 2 kxk2 + kyk2 .

A identidade do paralelogramo tem inmeras implicaes. Veja, por exemplo,


[6]. Se E for um espao normado, a identidade do paralelogramo satisfeita apenas
quando sua norma for gerada por um produto interno (veja o Exerccio 7).

8.3

Bases Ortonormais

Definio 8.11 Seja E um espao com produto interno. Um subconjunto X E


ortogonal, se u v para quaisquer u, v X. Se, alm disso, todos os seus vetores
forem unitrios, ento X ortonormal.

i
i

ALinear 2005/12/19 13:25 page 157 #173


i

8.3

157

Bases Ortonormais

Lema 8.12 Em um espao com produto interno E, todo conjunto ortogonal


formado por vetores no-nulos linearmente independente.
Demonstrao: Sejam x1 , . . . , xm X elementos arbitrrios do conjunto
ortogonal. Suponhamos que
1 x1 + . . . + m xm = 0
para escalares 1 , . . . , m . Ento,
0 = h0, xi i = h1 x1 +. . .+m xm , xi i = 1 hx1 , xi i+. . .+m hxm , xi i = i hxi , xi i.
Como hxi , xi i = kxi k2 6= 0, temos i = 0.

Assim, se dim E = n e o conjunto ortogonal {x1 , . . . , xn } for formado por


vetores no-nulos, obtemos imediatamente uma base ortonormal ao dividir cada
vetor por sua norma. Suponhamos que B = {x1 , . . . , xn } seja uma base ortonormal
de E. Para x E, temos
x = 1 x1 + . . . + n xn .
Os escalares i podem ser facilmente determinados. Como a base ortonormal,
segue-se da que
i = hx, xi i, i = 1, . . . , n.
Consideremos ento um outro vetor y E. Temos que

hx, yi = h1 x1 + . . . + n xn , 1 x1 + . . . + n xn i = 1 1 + . . . + n n ,

o que mostra que, com relao a uma base ortonormal,2 qualquer produto interno
em E tem a forma dada pela Observao 8.8. Em particular, quando y = x, temos
kxk2 = 1 1 + . . . + n n = |1 |2 + . . . + |n |2 .
Podemos ainda explorar mais as relaes anteriores com a Observao 8.8. Se
x = 1 x1 + . . . + n xn , conclumos facilmente que a aplicao
S : E Kn ,

Sx = (1 , . . . , n )

um isomorfismo que transforma um dado produto interno em E no produto escalar


usual no Kn .
Seja B = {x1 , . . . , xn } uma base ortonormal de E e T : E E uma aplicao
linear. fcil verificar que, se A = (aij ) a representao de T na base B, ento
aij = hxi , T xj i.
2

Para o caso de bases que no so ortonormais, veja o Exerccio 19.

i
i

ALinear 2005/12/19 13:25 page 158 #174


i

158

Estrutura Euclidiana

Cap. 8

Observao 8.13 Consideremos o contexto da Observao 8.8. L foi escolhida


uma base arbitrria B do espao X e introduzido um produto interno em X, por
meio do isomorfismo que associa ao vetor x X a sua representao (como vetor
do Kn ). Note que, desse modo, B torna-se uma base ortonormal.


8.4

Projees Ortogonais

Na Seo anterior, mostramos que bases ortogonais so fceis de lidar. Mas, elas
existem? Num primeiro curso de lgebra Linear, as noes de projeo ortogonal,
ilustradas nas figuras (8.1) e (8.2), foram apresentadas.

u6
w
-

projx1 u

x1

Figura 8.1:
O vetor projx1 u = (hu, x1 i/kx1 k2 )x1 a projeo ortogonal do vetor u no vetor x1 . O
vetor w a "componente" de u ortogonal ao vetor x1 .

u


projx1 u
x1




6

w proj u
x2
x2

Figura 8.2:
O vetor w a "componente" de u ortogonal ao plano gerado por x1 e x2 .

O processo de ortogonalizao de Gram-Schmidt a generalizao desse


procedimento. Apresentamos uma demonstrao sinttica desse resultado.

i
i

ALinear 2005/12/19 13:25 page 159 #175


i

8.4

159

Projees Ortogonais

Teorema 8.14 (Gram-Schmidt)


Dada uma base arbitrria {y1 , . . . , yn } do espao euclidiano E, existe uma
base ortonormal {x1 , . . . , xn } de E formada por vetores xi que so combinaes
lineares dos vetores y1 , . . . , yi , para todo i = 1, . . . , n.
Demonstrao: Utilizaremos induo na dimenso do espao, o caso n = 1 sendo
trivial. Suponhamos obtidos os vetores x1 , . . . , xk1 . Consideramos ento
!
k1
X
1
xk =
yk
c i xi ,
c
i=1
em que c e c1 , . . . , ck1 so constante que sero determinadas. Para obtermos
xk ortogonal a todos os xi j escolhidos, basta definir ci = hyP
k , xi i para i =
k1
1, . . . , k 1. Escolhemos ento c como a norma do vetor yk i=1
ci xi . Note
que c > 0.
2
O processo de ortogonalizao de Gram-Schmidt garante a existncia de uma
infinidade de bases ortonormais para espaos euclidianos. Uma interpretao do
Teorema de Gram-Schmidt em termos de decomposio matricial ser dada na
Seo 11.3.
O processo de ortogonalizao de Gram-Schmidt pode ser refraseado em termos
de somas diretas de subespaos:
Definio 8.15 O complemento ortogonal do subespao Y do espao com produto
interno E, denotado por Y , o conjunto
Y = {x E | hx, yi = 0, y Y }.
Claramente Y um subespao de E.
Teorema 8.16 Para qualquer subespao Y E de um espao euclidiano temos
E = Y Y .
Alm disso, vale
(Y ) = Y.
Demonstrao: Seja w Y Y . Ento hw, wi = 0 e, portanto, w = 0.
Seja {y1 , . . . , ym } uma base ortonormal de Y e x E. Defina z = x y e
y Y por hx, y1 i y1 + . . . + hx, ym i ym Y . Ento, x = y + z e z Y .

i
i

ALinear 2005/12/19 13:25 page 160 #176


i

160

Estrutura Euclidiana

Cap. 8

Temos que hy, wi = 0 para todo w Y . Isso significa que Y (Y ) .


Suponhamos que Y 6= (Y ) e 0 6= z (Y ) \ Y . Ento hz, yi = 0 para todo
y Y e, por conseguinte, z Y (Y ) = {0}. Absurdo.
2
Observao 8.17 A demonstrao dada continua vlida para espaos de dimenso
infinita, desde que Y E tenha dimenso finita. Se E tiver dimenso finita,
uma outra prova a seguinte: tomemos uma base ortogonal {y1 , . . . , ym } de Y
e ento completemos, utilizando Gram-Schmidt, at obter uma base ortogonal
{y1 , . . . , ym , w1 , . . . , wk } de E. Claramente, temos que Y o espao gerado por
{w1 , . . . , wk }.

Definio 8.18 Na decomposio
E= Y
x = y

Y
+ z,

a componente y a projeo ortogonal de x em Y , tambm denotada por Y x. A


aplicao Y : E Y a projeo ortogonal de E em Y .
Note que a denominao utilizada est de acordo com aquela das Figuras (8.1)
e (8.2).
Teorema 8.19 Seja Y um subespao do espao euclidiano E e x E. Entre todos
os elementos y Y , aquele com menor distncia at x o elemento Y x:
kx Y xk kx yk y Y.

(8.2)

Demonstrao: O Teorema 8.16 garante que x y = (Y x y) + z, com z Y .


Pelo Teorema de Pitgoras,
kx yk2 = kY x yk2 + kzk2 .
Assim, kx yk mnima quando y = Y x.

Exemplo 8.20 (O problema dos quadrados mnimos - 1a. parte) Seja A uma
matriz real m n. Quando um sistema Ax = b no tem soluo, podemos ainda
assim procurar o vetor x tal que A
x seja a melhor aproximao possvel para o vetor
b. Esse o problema dos quadrados mnimos.

i
i

ALinear 2005/12/19 13:25 page 161 #177


i

8.4

161

Projees Ortogonais

A desigualdade (8.2) toma a seguinte forma no problema dos quadrados


mnimos:
kb A
xk kb Axk x Rn .
Decorre do Teorema 8.19 (aplicado ao subespao im A) que a soluo x do
problema dos quadrados mnimos ortogonal a esse subespao:
hb A
x, Ayi = 0 y Rn .

(8.3)

Note tambm que, se b for o ponto mais prximo de b no espao im A, ento


x uma soluo de A
x = b. Essa equao tem pelo menos uma soluo;
vrias solues podem ocorrer quando existirem variveis livres no sistema linear
formado.

Nosso prximo objetivo estudar equaes semelhantes equao (8.3). o
que faremos na prxima seo.
Observao 8.21 Como vimos na Observao 8.13, escolhida uma base B de um
espao de dimenso finita X, por meio da aplicao x 7 [x]B Kn , que associa
a cada ponto de x as suas coordenadas com relao base B, introduzimos um
produto interno em X, relacionado ao produto interno cannico do espao Kn .
Podemos ento nos perguntar: por que estudar produtos internos arbitrrios em
espaos de dimenso finita? Ou, mais especificamente, por que estudar produtos
internos arbitrrios no espao Kn ?
Podemos responder a essa pergunta considerando, por exemplo, um problema
de quadrados mnimos. Suponhamos que y = (y1 , . . . , yn ) seja um vetor formado
ao se considerar n dados y1 , . . . , yn obtidos experimentalmente (por exemplo, a
distncia de algumas galxias Terra). Admitamos que, para i {1, . . . , n}, os
dados yi no sejam igualmente confiveis, isto , que a preciso com que foram
obtidos varie com i; associemos um peso pi a esse dado, medindo o quanto esse
confivel. Queremos obter uma soluo y = (
y1 , . . . , yn ) que aproxime esses dados
levando em conta a preciso com que foram obtidos , com y pertencente a um
subespao X do Rn (pense em um problema de mximos e mnimos com restries,
no qual so utilizados multiplicadores de Lagrange, por exemplo). Assim, ao invs
de tentarmos minimizar o quadrado dos erros yi yi :
(y1 y1 )2 + . . . + (yn yn )2 ,

i
i

ALinear 2005/12/19 13:25 page 162 #178


i

162

Estrutura Euclidiana

Cap. 8

procuramos minimizar3
p21 (y1 y1 )2 + . . . + p2n (yn yn )2 ,
com y = (
y1 , . . . , yn ) X.
Nesse caso, estamos substituindo o produto interno cannico do Rn pelo produto
interno
hz, wi = p21 z1 w1 + . . . + p2n zn wn ,

em que z = (z1 , . . . , zn ) e w = (w1 , . . . , wn ). (Verifique que esse realmente


um produto interno em Rn !) Em outras palavras, muitas vezes somos naturalmente
levados a considerar um produto interno diferente do usual.


8.5

A Adjunta de uma Aplicao Linear

Fixado y E, a aplicao x 7 hx, yi uma aplicao linear. Reciprocamente,


temos o importante
Teorema 8.22 (de Representao de Riesz)
Todo funcional linear : E K num espao euclidiano E pode ser escrito
como um produto interno. Mais precisamente, existe um nico y E tal que
(x) = hx, yi

x E.

Se voc tiver lido o Captulo 2, compare o enunciado anterior com o Teorema


2.4. Existe uma generalizao desse resultado para certos espaos com produto
interno de dimenso infinita (os espaos de Hilbert), se supusermos contnua.4
Veja, contudo, o Exerccio 15.
Demonstrao: Considere uma base ortonormal x1 , . . . , xn E. Se x E, ento
hx, x1 i x1 + . . . + hx, xn i xn e
(x) = hx, x1 i (x1 ) + . . . + hx, xn i (xn )


= x, (x1 )x1 + . . . + x, (xn )xn = x, (x1 )x1 + . . . + (xn )xn .

Defina y = (x1 )x1 + . . . + (xn )xn . Como {x1 , . . . , xn } uma base, y nico. 2
3

Na Estatstica, os pesos geralmente satisfazem pi = 1/i2 , em que i a varincia. Assim,


menor o peso do dado se a varincia maior.
4
Sim! Em espaos de dimenso infinita aplicaes lineares no so necessariamente contnuas.
Veja o apndice F.

i
i

ALinear 2005/12/19 13:25 page 163 #179


i

8.5

A Adjunta de uma Aplicao Linear

163

Corolrio 8.23 Se E for um espao euclidiano real, a aplicao 7 y um


isomorfismo entre E = { : E R} e E.
Em outras palavras, se E for um espao euclidiano real, existe um isomorfismo
cannico entre E e E . (O espao E no tem, nesse contexto, qualquer produto
interno.)
O Teorema de Representao de Riesz tem muitas aplicaes importantes (veja,
por exemplo, [6]). Utilizaremos esse resultado para mostrar a existncia da adjunta
de uma aplicao linear.
Definio 8.24 Sejam E, F espaos com produto interno e T : E F uma
aplicao (no necessariamente linear). Uma aplicao T : F E adjunta de
T , se satisfizer
hT x, yi = hx, T yi x E, y F.
Lema 8.25 Sejam E, F espaos com produto interno e T : E F uma aplicao
linear. Se existir a adjunta de T , ento ela nica. Alm disso, T linear.
Demonstrao: Sejam y, z F e K. Ento,


x, zi = hx, T yi + hx, T zi.
x, T (y + z) = hT x, y + zi = hT x, yi + hT
Assim,


x, T (y + z) T y T z = 0.

Escolhendo x = T (y + z) T y T z, conclumos a linearidade de T . O


mesmo argumento prova sua unicidade.
2
Proposio 8.26 Sejam E, F espaos euclidianos. Ento existe a adjunta de uma
aplicao linear T : E F .
Demonstrao: Para todo y F fixo, a aplicao x 7 hT x, yi pertence ao dual
E = { : E K | linear}. O Teorema de Representao de Riesz garante,
ento, que existe um nico w E (dependendo de y F ) tal que
hT x, yi = hx, wi
para todo x E. Defina T y = w. Est assim definida, para cada y F , uma
aplicao T : F E.

i
i

ALinear 2005/12/19 13:25 page 164 #180


i

164

Estrutura Euclidiana

Cap. 8

A linearidade de T , bem como sua unicidade, foram demonstradas no Lema


8.25.
2
Em espaos de dimenso infinita E, F nem sempre existe a adjunta de uma
aplicao T : E F (veja os Exerccios 17 e 18).
Exemplo 8.27 Seja T : R2 R2 dada por T (x, y) = (ax + by, cx + dy), com R2
considerado com o produto interno cannico. A base cannica , ento, ortonormal
e a representao de T nessa base a matriz


a b
.
TE =
c d
Logo,


T (x1 , y1 ), (x2 , y2 ) = (ax1 + by1 )x2 + (cx1 + dy1 )y2
= (ax2 + cy2 )x1 + (bx2 + dy2 )y1


= (x1 , y1 ), (ax2 + cy2 , bx2 + dy2 ) ,

de onde conclumos que

[T ]E =

a c
b d

= (TE )t .

Se a, b, c, d C, considerando C2 com o produto interno cannico e T : C2


C2 dada por
T (x, y) = (ax + by, cx + dy),
ento a representao de sua adjunta com relao base cannica seria a conjugada
da transposta da representao de T com relao base cannica (verifique!). 
Observao 8.28 O Exerccio 20 generaliza o Exemplo 8.27. Note que, se C for
uma base arbitrria de E e T : E E uma aplicao linear, a relao entre [T ]C
e [T ]C bem mais complicada do que a apresentada no exemplo anterior. Veja
tambm o Exerccio 27.

Exemplo 8.29 (O problema dos quadrados mnimos - 2a. parte)
Seja A Mmn (R). Como vimos no Exemplo 8.20, uma soluo do problema
dos quadrados mnimos obtida ao se resolver a equao (8.3):
hb A
x, Ayi = 0 y Rn .

i
i

ALinear 2005/12/19 13:25 page 165 #181


i

8.5

165

A Adjunta de uma Aplicao Linear

Ora,
hb A
x, Ayi = 0 y Rn

At A
x = At b.

A equao At A
x = At b conhecida como equao normal para o problema
dos quadrados mnimos e nos fornece a soluo desse problema. Veja tambm o
Exemplo 11.8.

Proposio 8.30 Sejam E, F, G espaos euclidianos e T, S : E F e R : F G
aplicaes lineares e K. Ento vale:
(i) I = I;
(ii) (T + S) = T + S ;
;
(iii) (T ) = T
(iv) (RT ) = T R ;
(v) (T ) = T ;
(vi) se F = E e T ou T for invertvel, ento (T 1 ) = (T )1 .
Demonstrao: As provas dos resultados afirmados so muito semelhantes.
Faremos apenas algumas delas.
(ii) hx, (S+T ) yi = h(S+T )x, yi = hSx, yi+hT x, yi = hx, S yi+hx, T yi =
hx, (S + T )yi. A unicidade da adjunta garante ento que (S + T ) = S + T .
(v) hx, T yi = hT x, yi = hy, T xi = hT y, xi = hx, T yi. De novo, a
unicidade da adjunta garante o afirmado.
Suponhamos que exista T 1 . Ento, tomando a adjunta em T T 1 = I = T 1 T
e, aplicando (v), obtemos (T 1 ) T = I = T (T 1 ) . O caso em que existe (T )1
anlogo.
2
Proposio 8.31 Seja W um subespao invariante pelo operador T : X X.
Ento W invariante por T .
Demonstrao: Sejam x W e y W . Ento 0 = hT x, yi = hx, T yi. Assim,
T y perpendicular a x para todo x W . Isso quer dizer que T y W .
2
A demonstrao simples do prximo resultado est em oposio sua
importncia...

i
i

ALinear 2005/12/19 13:25 page 166 #182


i

166

Estrutura Euclidiana

Cap. 8

Teorema 8.32 Sejam E, F espaos euclidianos e T : E F uma aplicao


linear. Ento vale:
(i) ker T = (im T ) ;
(ii) ker T = (im T ) ;
(iii) im T = (ker T ) ;
(iv) im T = (ker T ) ;
(v) posto T = posto T .
Em particular, vale a decomposio ortogonal5
E = ker T im T.

ker T

ker T

im T

T
E

im T

Figura 8.3:
As aplicaes T e T decompem ortogonalmente os espaos E e F .

Demonstrao: Tambm nesse caso as demonstraes so muito semelhantes. A


afirmao (i) mostra-se assim:
y ker T T y = 0 hx, T yi = 0 x E
hT x, yi = 0 x E y im T.
5

Observe que, em E = ker T im T , a notao insatisfatria, uma vez que a


ortogonalidade entre os subespaos ker T e im T informao primordial da afirmao. Assim,
vamos salientar a ortogonalidade dos espaos envolvidos em uma soma direta dizendo que ela
ortogonal.

i
i

ALinear 2005/12/19 13:25 page 167 #183


i

8.5

167

A Adjunta de uma Aplicao Linear

Do mesmo modo mostra-se (ii). As relaes (iii) e (iv) so obtidas passando-se ao


complementar ortogonal.
Finalmente, temos
posto T = dim(im T ) = dim(ker T ) = dim E dim(ker T ) = dim(im T )
= posto T,
mostrando (v).

Observao 8.33 Compare (iv) com a opo (b) do Exerccio 22 do Captulo 3. 


Exemplo 8.34 Seja A Mmn (K) uma matriz. Consideremos o sistema linear
no-homogneo Ax = b. Suponhamos que xp seja uma soluo desse sistema. J
vimos que todas as solues de Ax = b so da forma xp + z, em que z ker A
(veja o Exemplo 3.19).
Agora, exploremos o vnculo entre as solues de Ax = b e as de Ax = 0. Se
ker A = {0}, ento existe A1 e x = A1 b a nica soluo de Ax = b.
Se ker A tiver dimenso k, existem k solues linearmente independentes
x1 , . . . , xk de Ax = 0. Se Ax = b tiver soluo xp , ento todas as suas solues
sero xp +1 x1 +. . .+k xk . Mas Ax = b pode no ter soluo: basta que b 6 im A.
Considerada a decomposio ortogonal
Kn = ker A im A,
vemos que Ax = b tem soluo se, e somente se, b (ker A ) = im A.

O Exemplo 8.34 sugere uma relao entre ker A e ker A . Vamos explicitar essa
relao:
Corolrio 8.35 (Alternativa de Fredholm)
Seja T : E E um operador definido no espao euclidiano E. Consideremos
as seguintes equaes:
T x = y, T u = v
(8.4)
e
T x = 0,

T u = 0.

(8.5)

Ento

i
i

ALinear 2005/12/19 13:25 page 168 #184


i

168

Estrutura Euclidiana

Cap. 8

(i) ou ambas as equaes em (8.4) tm soluo para quaisquer x, y E e


u, v E (Claro que ento ambas as equaes em (8.5) possuem apenas
a soluo trivial.)
(ii) ou as equaes em (8.4) possuem exatamente o mesmo nmero de solues
linearmente independentes. Se x ker T e u ker T , ento hu, yi = 0 e
hx, vi = 0.
Demonstrao: Suponhamos que T x = y tenha soluo para qualquer x, y E.
Isso que dizer que im T = E = ker(T ) e, portanto, ker T = {0}.
Do Teorema 8.32 (v) segue-se que dim(ker T ) = dim(ker T ). O item (iv) nos
mostra que se y im T , ento hu, yi = 0; e o item (iii) garante que hx, vi = 0. 2

8.6

Isometrias

Definio 8.36 Sejam E, F espaos euclidianos e M : E F uma aplicao


(no necessariamente linear). A aplicao M uma isometria se, para quaisquer
x, y E, tivermos
kM x M yk = kx yk.
(8.6)
Decorre imediatamente da definio que a composta de duas isometrias uma
isometria.
Um exemplo elementar de isometria uma translao:
Tx = x + a
para a E fixo.
Dada uma isometria, podemos comp-la com uma translao e produzir assim
uma isometria que preserva a origem (isto , leva 0 E em 0 F ). Reciprocamente, toda isometria a composta de uma isometria que preserva a origem com
uma translao.
Teorema 8.37 Sejam E, F espaos euclidianos e M : E F uma isometria, com
M (0) = 0. Ento
M (x + y) = M x + M y.
Se E, F forem espaos reais, ento M linear.

i
i

ALinear 2005/12/19 13:25 page 169 #185


i

8.6

169

Isometrias

Demonstrao: Vamos denotar M x = x , M y = y etc. Por definio vale


kx y k = kx yk.

(8.7)

Tomando sucessivamente x = 0 e y = 0 em (8.7), obtemos tambm


kx k = kxk,

e ky k = kyk.

(8.8)

Uma vez que


hx y , x y i = hx , x i hx , y i hy , x i + hy , y i,
ao elevarmos ao quadrado (8.7) e (8.8), obtemos
hx , y i + hy , x i = hx, yi + hy, xi.

(8.9)

Do mesmo modo,
kz xyk2 = kzk2 +kyk2 +kxk2 hz, xihx, zihz, yihy, zi+hx, yi+hy, xi.
Segue-se de (8.7), (8.8) e (8.9) que
kz x y k2 = kz x yk2 .
Escolhemos ento z = x + y. O lado direito dessa igualdade , ento, nulo. Assim,
temos z x y = 0. Mas isso mostra que M (x + y) = M x + M y.
Suponhamos agora que E, F sejam espaos reais. Ento, (8.9) implica que
hM x, M yi = hx, yi.
Agora completamos a prova da linearidade de M :
hM (x), M yi = hx, yi = hx, yi = hM x, M yi = hM x, M yi.
Por conseguinte,
hM (x) M x, M yi = 0.

Escolhendo sucessivamente y = x e y = x, obtemos

hM (x) M x, M (x)i = 0
e
hM (x) M x, M xi = hM (x) M x, M xi = 0.

i
i

ALinear 2005/12/19 13:25 page 170 #186


i

170

Estrutura Euclidiana

Cap. 8

Logo,
hM (x) M x, M (x) M xi = 0,
mostrando a linearidade de M no caso real. (Veja o Exerccio 38.)

Note que uma isometria linear entre espaos euclidianos E e F sempre uma
aplicao injetora.
Teorema 8.38 Sejam E, F espaos euclidianos e M : E F uma aplicao
linear. As seguintes afirmativas so equivalentes:
(i) M uma isometria;
(ii) M preserva o produto interno: hM x, M yi = hx, yi;
(iii) M M = I.
Se dim E = dim F , ento essas condies so equivalentes a
(iv) M e M so isometrias.
Demonstrao: A identidade de polarizao (Lema 8.9) adequada ao caso mostra
(i) (ii).
Para quaisquer x, y E, vale
hx, yi = hM x, M yi = hx, M M yi

hx, M M y yi = 0.

Escolhendo x = M M y y, vemos que (ii) (iii).


Uma vez que
hx, yi = hM M x, yi = hM x, M yi,

temos que (iii) (i).


Se dim E = dim F , de M M = I decorre que M 1 = M e, portanto,
M M = I. Como kxk2 = hx, M M xi = hM x, M xi = kM xk2 , temos que
M uma isometria. O mesmo clculo com M M ao invs de M M garante que
M tambm uma isometria. Assim, (iii) (iv).
bvio que (iv) (i).
2
Como uma isometria preserva a ortogonalidade, temos imediatamente:
Corolrio 8.39 Sejam E, F espaos euclidianos e M : E F uma isometria.
Ento M transforma conjuntos ortogonais de E em conjuntos ortogonais de F .

i
i

ALinear 2005/12/19 13:25 page 171 #187


i

8.7

Operadores Lineares

171

Proposio 8.40 Sejam E, F espaos euclidianos de mesma dimenso e M : E


F uma isometria linear. Se esses espaos forem reais, ento det M = 1. No caso
complexo, | det M | = 1.
Demonstrao: No caso real, como M = M t e det M t = det M , a igualdade
M M = I garante que (det M )2 = 1 e, portanto, det M = 1. No caso complexo,
M = M t . Decorre da que det M = det M t = det M = det M . Assim,
det M det M = 1, provando o afirmado.
2
O significado geomtrico da Proposio 8.40 que uma aplicao que preserva
normas tambm preserva volumes. Veja o Exerccio 53.

8.7

Operadores Lineares

Nosso objetivo nesta seo iniciar o estudo de operadores lineares T : E E,


em que E um espao euclidiano.
Definio 8.41 Sejam E um espao euclidiano e T : E E um operador linear.
Dizemos que
(i) T unitrio, se T T = T T = I;
(ii) T auto-adjunto, se T = T ;
(iii) T antiauto-adjunto, se T = T ;
(iv) T normal, se T T = T T .
A mesma denominao utilizada para as matrizes que representam tais
operadores com relao a uma base ortogonal.
Operadores unitrios tambm so chamados de ortogonais (especialmente se E
for um espao real), enquanto operadores auto-adjuntos tambm so chamados de
hermitianos ou simtricos, essas denominaes sendo empregadas para diferenciar
operadores auto-adjuntos em espaos complexos e reais, respectivamente.
Por esse motivo, as denominaes anti-hermitiano (no caso complexo) e antisimtrico (no caso real) so tambm utilizadas para um operador antiauto-adjunto.
Operadores auto-adjuntos, antiauto-adjuntos e unitrios so sempre normais, como
podemos verificar facilmente.
Como vimos na seo anterior, se o operador M : E E for uma isometria,
ento M = M 1 e M unitrio.

i
i

ALinear 2005/12/19 13:25 page 172 #188


i

172

Estrutura Euclidiana

Cap. 8

Proposio 8.42 Seja T : E E um operador definido no espao complexo com


produto interno E. Ento
hT x, xi = 0 x E

T = 0.

Demonstrao: Escolhendo x = u + v, a relao hT x, xi = 0 nos mostra


que hT v, ui + hT u, vi = 0. Mas, se escolhermos x = u + iv, obtemos
ihT v, ui ihT u, vi = 0. Assim,
hT v, ui = hT u, vi = hT v, ui.
Assim, hT v, ui = 0 para qualquer escolha de u e v, de onde segue-se que T = 0. 2
Proposio 8.43 Seja H : E E um operador definido no espao euclidiano E.
Ento vale:
(i) Se H = H , ento hHx, xi R para todo x E;
(ii) Se hHx, xi R para todo x E e E for um espao complexo, ento
H = H .
Demonstrao: Se H = H , ento
hHx, xi = hx, Hxi = hHx, xi,
mostrando que hHx, xi R. Reciprocamente, hHx, xi = hHx, xi = hx, Hxi =
hH x, xi implica h(H H )x, xi = 0 para todo x E. Conclumos H = H
como conseqncia da Proposio 8.42.
2
A Proposio 8.42 falsa em espaos reais com produto interno. Consideremos,
por exemplo, T : R2 R2 dado por


0 1
.
1
0
Ento hT w, wi = 0 para todo w R2 , mas T 6= 0. Vale o seguinte resultado:
Teorema 8.44 Sejam E um espao real com produto interno e T : E E um
operador. Ento hT x, xi = 0 para todo x E se, e somente se, T for antiautoadjunto.

i
i

ALinear 2005/12/19 13:25 page 173 #189


i

8.8

173

Norma de Matrizes

Demonstrao: Suponhamos que hT x, xi = 0 para todo x E. Ento


0 = hT (x+y), x+yi = hT x, yi+hT y, xi = hT x, yi+hx, T yi = hT x, yi+hT x, yi.
Assim,


0 = hT x, yi + hT x, yi = (T T )x, y

x, y E.

Da decorre imediatamente que T = T .


Reciprocamente, se T = T , ento

hT x, xi = hx, T xi = hx, T xi = hT x, xi,


provando o afirmado.

Teorema 8.45 Sejam E um espao euclidiano e T : E E um operador. Ento


T normal se, e somente se, kT xk = kT xk para todo x E. Em particular, vale
a decomposio ortogonal
E = ker T imT.
Demonstrao: Suponhamos que T seja normal. Ento vale:
kT xk2 = hT x, T xi = hT T x, xi = hT T x, xi = hT x, T xi = kT xk2 .
Reciprocamente, de kT xk = kT xk obtemos (como acima)


hT T x, xi = hT T x, xi
(T T T T )x, x = 0 x E.

Como T T T T auto-adjunto, da Proposio 8.42 inferimos que T T = T T ,


provando que T normal.
Quanto decomposio ortogonal, decorre imediatamente de kT xk = kT xk
que ker T = ker T . Aplicando o Teorema 8.32, obtemos o afirmado.
2

8.8

Norma de Matrizes

(Essa Seo necessita de conhecimentos bsicos da topologia do espao Rn e


pode ser suprimida sem prejuzo para o restante do texto.)

i
i

ALinear 2005/12/19 13:25 page 174 #190


i

174

Estrutura Euclidiana

Cap. 8

Seja A Mnn (K) uma matriz. Identificando Mnn (K) com Kn , podemos
introduzir uma noo natural de norma em Mnn (K) e transformar esse em um
espao normado. (Esse , basicamente, o procedimento utilizado no Exerccio 21.)
Contudo, no esse o caminho que escolheremos: definiremos diretamente uma
norma em Mnn (K). A principal vantagem desse procedimento veja na seqncia
consiste na propriedade (ii) da Proposio 8.50.
Para isso, comeamos por relembrar que um conjunto K Kn compacto se,
e somente se, for limitado e fechado; alm disso, sabemos que toda funo contnua
definida num compacto K assume mximo e mnimo em K.
Definio 8.46 Duas normas k k0 e k k1 no espao Kn so equivalentes se, e
somente se, existirem constantes > 0 e > 0 de modo que
kxk0 < kxk1 kxk0 .
Algumas normas equivalentes no espao Kn so consideradas no Exerccio 46.
Proposio 8.47 Todas as normas no espao Kn so equivalentes.
Demonstrao: De fato, seja x = (x1 , . . . , xn ) Kn e k k0 uma norma arbitrria
no espao Kn . Vamos mostrar que essa norma equivalente norma k k , dada
por
kxk = max |xi |.
1in

De fato, definindo := ke1 k0 + . . . + ken k0 , temos, para todo x X,


kxk0 = kx1 e1 + . . . + xn en k0

n
X
i=1

|xi | kei k0 kxk .

Isso mostra que a aplicao f : (Kn , k k ) R+ dada por f (x) = kxk0


contnua, atingindo, portanto, um mnimo em S := {x Kn | kxk = 1}. Temos
que > 0, pois k k0 uma norma. Assim, se 0 6= x X, temos (x/kxk ) S e


x


kxk kxk kxk0 ,
0
o que mostra que so equivalentes as normas k k e k k0 .

i
i

ALinear 2005/12/19 13:25 page 175 #191


i

8.8

175

Norma de Matrizes

Corolrio 8.48 Todo operador linear T : Kn Kn contnua.


Demonstrao: De fato, se x = (x1 , . . . , xn ) Kn , ento T x =
portanto,

n
X

xi T ei e,

i=1

kT xk kxksum ,
Pn
em que := max1in kT ei k e kxksum :=
i=1 |xi |. Tomando x = z w,
como todas as normas no Kn so equivalentes, mostramos que T (uniformemente)
contnuo.
2
Definio 8.49 Seja A Mnn (K) e k k uma norma no Kn . Definimos
kAk = max kAxk.
kxk=1

Chamamos kAk de norma da matriz A.


Decorre imediatamente da definio que kAxk kAk kxk para todo x Kn .
O prximo resultado garante que a norma de uma matriz realmente uma norma
no espao Mnn (K) de todas as matrizes n n.
Proposio 8.50 Seja A : Kn Kn a aplicao linear dada pela matriz A
Mnn (K). Ento
(i) A aplicao k k : Mnn (K) [0, ) uma norma;
(ii) kABk kAk kBk para quaisquer A, B Mnn (K);


(iii) kAk = max hAx, yi .
kxk=1=kyk

Demonstrao: Claramente kAk 0 e kAk = 0 se, e somente se, Ax = 0 para


todo x 6= 0. Alm disso
kAk = max kAxk = max || kAxk = || max kAxk = || kAk.
kxk=1

kxk=1

kxk=1

Finalmente,


kA + Bk = max k(A + B)xk max kAxk + kBxk
kxk=1

kxk=1

max kAxk + max kBxk = kAk + kBk,


kxk=1

kxk=1

i
i

ALinear 2005/12/19 13:25 page 176 #192


i

176

Estrutura Euclidiana

Cap. 8

completando a prova de (i).


Como k(AB)xk = kA(Bx)k kAk kBxk kAk kBk kxk, (ii) est provado.
Para mostrar (iii), afirmamos que


kxk = sup hx, yi .
kyk=1



Para provar nossa afirmao, notamos que hx, yi kxk kyk kxk, se kyk = 1.
A desigualdade contrria obtida ao tomarmos y = x/kxk.
Aplicando esse resultado, obtemos


kAk = sup kAxk = sup hAx, yi .
2
kxk=1
kxk=1=kyk

8.9

Exerccios

1. Seja k k uma norma no espao E. Mostre que k0k = 0.


2. Seja E um espao euclidiano complexo. D um exemplo mostrando que a
validade do Teorema de Pitgoras no implica que x y.
3. Seja E um espao com o produto interno h, i. Demonstre a desigualdade de
Cauchy-Schwarz da seguinte maneira: para x, y E, desenvolva a expresso
0 hx ty, x tyi. Escolhendo = hx, yi. obtenha um trinmio
do segundo grau com coeficientes reais. Analise esse trinmio e obtenha a
desigualdade de Cauchy-Schwarz.
4. Seja C([a, b], K) o espao das funes contnuas f : [a, b] K. Mostre que
Z b
f (t)g(t)dt
hf, gi :=
a

define um produto interno nesse espao.


5. Para u = (x1 , y1 ) R2 e v = (x2 , y2 ) R2 , defina hu, vi = 2x1 x2 x1 y2
x2 y1 + 2y1 y2 . Mostre que est assim definido um produto interno em R2 .
6. Seja E um espao com produto interno e A : X E um isomorfismo entre o
espao vetorial X e E. Para x, y X defina hx, yi := hAx, Ayi. Mostre que
est assim definido um produto interno em X. (Compare com a Observao
8.8.)

i
i

ALinear 2005/12/19 13:25 page 177 #193


i

8.9

177

Exerccios

7. Seja E um espao normado que satisfaz a identidade do paralelogramo.


Definindo h, i : E E K por meio da identidade de polarizao
conveniente, mostre que h, i um produto interno em E e que a norma de E
gerada por esse produto interno.
8. Considere agora o espao C([, ], R) com o produto interno definido no
Exerccio 4. Mostre que o conjunto
X := {1, sen t, cos t, sen 2t, cos 2t, . . .}
um conjunto ortogonal.
9. Considere ento o espao vetorial C([1, 1], R) com o produto interno
definido no Exerccio 4. Seja P C([1, 1], R) o subespao formado por
todas as funes pares e I C([1, 1], R) o subespao formado por todas
as funes mpares. Mostre que I = P .
10. Seja E um espao com produto interno. Interprete geometricamente a
desigualdade de Cauchy-Schwarz em termos de normas dos vetores no-nulos
y e projx y.
11. Seja R[t] o espao vetorial de todos os polinmios com coeficientes em
R. Nesse espao, considere o produto interno definido em C([1, 1], R).
Verifique que
X = {1, t, t2 , . . .}
uma base desse espao. Encontre os 4 primeiros termos da base {p1 , p2 , . . .}
obtida ao se aplicar o processo de ortogonalizao de Gram-Schmidt base
X. Os polinmios pn (t) so os polinmios de Legendre, que so teis no
estudo de equaes diferenciais.
12. No processo de Gram-Schmidt, passe de uma base arbitrria {u1 , . . . , un } do
espao euclidiano E para uma base ortogonal {x1 , . . . , xn } sem normalizar
os vetores ortogonais em cada passo do processo. Verifique que 0 kxi k
kui k para todo i = 1, . . . , n. Prove que kxi k = 0 implica que ui est no
espao gerado por u1 , . . . , ui1 , enquanto kxi k = kui k significa que ui
ortogonal a cada vetor xj , para j = 1, . . . , i 1.
13. Sejam E um espao com produto interno e {w1 , . . . , wm } uma base
ortonormal do subespao W . Mostre que, para todo v E, vale a

i
i

ALinear 2005/12/19 13:25 page 178 #194


i

178

Estrutura Euclidiana

Cap. 8

desigualdade de Bessel
m
X
j=1

|hv, wj i|2 kvk2 .

14. Sejam W1 , W2 subespaos do espao com produto interno E. Mostre que


(W1 + W2 ) = W1 W2

e (W1 W2 ) = W1 + W2 .

15. Seja 0 o espao de todas as seqncia (xi ) com xi = 0 exceto talvez para um
nmero finito de ndices.
(a) Verifique que {e1 , . . . , en , . . .} uma base de 0 , em que ei a seqncia
cujo i-simo elemento igual a 1, os restantes sendo todos nulos. Dado
x 0 , temos que existe m = m(x) N tal que x = 1 e1 +. . .+m em .

(b) Defina hei , ej i = ij , com ij = 0, se i 6= j e ii = 0. Estenda


linearmente para os elementos de 0 e verifique que est, assim, definido
um produto interno em 0 .
(c) Considere f : 0 K definido por
f (x) = f (1 e1 + . . . + m em ) = 1 +

m
2
+ ... +
.
2
m

Mostre que no existe v 0 tal que f (x) = hx, vi para todo x 0 .


(Esse contra-exemplo uma adaptao daquele apresentado em [1].)
16. Prove o Corolrio 8.23. O que acontece se E for um espao complexo?
17. Consideremos o espao 0 , introduzido no Exerccio 15. Se x 0 , ento x =
1 e1 + . . . + m em para nicos escalares 1 , . . . , m , em que m = m(x) N
depende de x. Defina T : 0 0 por
T (1 e1 + . . . + m em ) = (1 + . . . + m )e1 .
Mostre que T no possui adjunta. (Exemplo presente em [1].)
18. Considere o espao de polinmios R[t] como no Exerccio 11. Seja D :
R[t] R[t] definido por Dp = p (derivao em t). Mostre que no existe
um operador D : K[t] K[t] tal que hDp, qi = hp, D qi.

i
i

ALinear 2005/12/19 13:25 page 179 #195


i

8.9

179

Exerccios

19. Seja E um espao euclidiano e B = {v1 , . . . , vn } uma base qualquer desse


espao. Defina gij = hvi , vj i. Se u = 1 v1 + . . . + n vn e v = 1 v1 + . . . +
n vn , mostre que vale
n
X
(8.10)
hu, vi =
gij i j .
i,j=1

Verifique ento que a matriz G = (gij ) hermitiana e positiva definida, isto


,
[u]tB G[
u]B > 0 0 6= u E.

Reciprocamente, mostre que, se G for uma matriz hermitiana e positiva


definida, ento (8.10) define um produto interno6 em E. A matriz G a matriz
de Gram dos vetores v1 , . . . , vn . Tambm se denota G = G(v1 , . . . , vn ).

20. Sejam B = {v1 , . . . , vn } e C = {w1 , . . . , wm } bases ortonormais dos espaos


euclidianos E e F , respectivamente. Seja T : E F uma aplicao linear.
Mostre que, para i {1, . . . , m} e j {1, . . . , n},
TBC = A = (aij ),

em que

aij = hwi , T (vj )i.

Conclua que (T )BC = B = (bij ), em que bij = aji , generalizando assim o


Exemplo 8.27.
21. Sejam E, F espaos euclidianos. Dadas as aplicaes S, T L(E, F ), defina
hS, T i = tr (ST ).
Mostre que assim est definido um produto interno em L(E, F ). Se A = (aij )
e B = (bij ) forem, respectivamente, as matrizes de S e T com relao a bases
ortonormais de E e F , mostre que
X
hA, Bi =
aij bij .
i,j

22. Considere o espao C([0, ], R) com o produto interno definido no Exerccio


4 e seu subespao R2 [t]. Tome o funcional linear : R2 [t] R dado por
(p) = hp(t), sen ti.
6

Veja tambm os Exerccios 23 e 24 do Captulo 9 para a relao entre produtos internos e


matrizes.

i
i

ALinear 2005/12/19 13:25 page 180 #196


i

180

Estrutura Euclidiana

Cap. 8

Ache q R2 [t] tal que


(p) = hp(t), q(t)i p R2 [t].
23. Considere o espao C([, ], R) com o produto interno definido no
Exerccio 4 e seu subespao R5 [t]. Ache p R5 [t] de modo que
Z
|sen t p(t)|2 dt

assuma o menor valor possvel. Compare as aproximaes de sen t obtidas


por meio desse polinmio e da srie de Maclaurin de sen t.
24. Ache a, b, c R de forma a minimizar o valor da integral
Z 1
|x3 ax2 bx c|2 dx.
1

25. Seja T : E E um operador definido no espao euclidiano real E. Mostre


que
TC (u + iv) = T u + iT v
e, em particular, que a complexificao de um operador normal
(respectivamente, auto-adjunto e antiauto-adjunto) um operador normal
(respectivamente, auto-adjunto e antiauto-adjunto).
26. Considere a matriz P = (v1 v2 . . . vn ) cujas colunas so os vetores
{v1 , v2 , . . . , vn } de uma base ortonormal do Kn . Mostre que P P = P P =
I.
27. Em R3 verifique que


(x1 , x2 , x3 ), (y1 , y2 , y3 ) = 2x1 y1 + 3x2 y2 + 4x3 y3

define um produto interno. Encontre a adjunta da aplicao linear T dada por




x
1
0 1
x
T y = 2 1 3 y
z
3 1 4
z
com relao a esse produto interno.

i
i

ALinear 2005/12/19 13:25 page 181 #197


i

8.9

Exerccios

181

28. Seja T : X X um operador sobre o espao euclidiano X. Suponha que


T v = v e T w = w, com 6=
. Mostre que hv, wi = 0.
29. Sejam E um espao euclidiano e T : E E um operador. Suponha que
F E seja um subespao invariante por T e T . Mostre que (T |F ) = T |F .
Assim, a restrio de um operador normal (respectivamente, auto-adjunto
ou antiauto-adjunto) a um subespao invariante tanto por T como por T
normal (respectivamente, auto-adjunto ou antiauto-adjunto).
30. Sejam E um espao euclidiano e : E E uma projeo. Mostre que
uma projeo ortogonal (isto , ker = (im ) ) se, e somente se,
hx, x xi = 0 para todo x E. Mostre que, se uma projeo : E E
satisfizer kxk kxk para todo x E, ento ortogonal.
31. Sejam E um espao euclidiano e : E E uma projeo. Mostre que as
seguintes afirmaes so equivalentes:
(a) normal;
(b) auto-adjunta;
(c) uma projeo ortogonal sobre sua imagem.
32. Sejam S, T : E E operadores auto-adjuntos no espao euclidiano E.
Mostre que ST auto-adjunto se, e somente se, ST = T S.
33. Sejam E, F espaos euclidianos e T : E F uma aplicao linear. Mostre
que
(a) T injetora se, e somente se, T for sobrejetora;
(b) T sobrejetora se, e somente se, T for injetora.
34. Sejam E, F espaos euclidianos e T : E F uma aplicao linear. Mostre
que T T : E E e T T : F F tm o mesmo posto de T (e de T ).
35. Seja E um espao com produto interno e , E vetores fixos. Mostre que
T x = hx, i define uma aplicao linear em E. Mostre que T existe e
obtenha sua expresso.
36. Um isomorfismo dos espaos com produto interno E e F uma bijeo linear
T : E F que satisfaz, adicionalmente, hT x, T yi = hx, yi, para todos
x, y E (isto , T uma isometria).

i
i

ALinear 2005/12/19 13:25 page 182 #198


i

182

Estrutura Euclidiana

Cap. 8

Seja T : E F uma aplicao linear entre os espaos euclidianos E e F ,


com dim E = dim F . Mostre que as seguintes afirmaes so equivalentes:
(a) T preserva o produto interno;
(b) T um isomorfismo (de espaos com produto interno);
(c) T leva toda base ortonormal de E em base ortonormal de F ;
(d) T leva alguma base ortonormal de E em uma base ortonormal de F .
Sejam B e C bases ortonormais de E e F , respectivamente. Mostre tambm
que TBC uma matriz ortogonal (unitria) se, e somente se, T for uma
isometria.
37. Sejam E, F espaos euclidianos e f : E F uma aplicao que preserva
produto interno. Mostre que f linear.
38. Seja E um espao euclidiano complexo. D exemplo de uma isometria
M : E E, com M (0) = 0, que no linear.
39. Seja E um espao com produto interno. D exemplo de uma aplicao
M : E E tal que M M = I, mas M M 6= I.
40. Sejam E, F espaos euclidianos e M : E F uma isometria linear. D uma
interpretao para M M .
41. Sejam T : E E um operador e m o polinmio mnimo de T . Mostre que
o polinmio mnimo de T m. Se r for o polinmio interpolador de T com
respeito a uma funo f , conclua que o polinmio interpolador de T com
respeito a f r.
42. Seja T : E E um operador linear no espao euclidiano E. Mostre que
nem sempre existe um polinmio p tal que T = p(T ).
43. Seja A Mnn (K). Suponha que A = A. Mostre que eA ortogonal (ou
unitria).
44. Sejam E, F dois espaos com produto interno. Considere a soma direta
E F definida no Exerccio 37 do Captulo 1. Mostre que E F um
espao com produto interno se definirmos


(x1 , y1 ), (x2 , y2 ) = hx1 , x2 i + hy1 , y2 i.

i
i

ALinear 2005/12/19 13:25 page 183 #199


i

8.9

183

Exerccios

Mostre tambm que o grfico de uma aplicao linear T : E F um


subespao de E F .
45. Considere o espao com produto interno E F , tal qual no Exerccio 44.
(a) Defina U : E F F E por U (x, y) = (y, x). Mostre que U
existe e obtenha sua expresso. Obtenha tambm U U e U U .
(b) Se T : E E possuir adjunta T : E E, qual a relao entre os
grficos de T e T ?
46. Considere z = (z1 , . . . , zn ) Kn e defina
kzk = max |zi |,
1in

kzksum = kz1 k + . . . + kzn k

z1 z1 + . . . + zn zn .
kzk =
Mostre que k k , k ksum e k k so normas em Kn . Mostre tambm que
kzk kzk kzksum nkzk .
47. Seja A Mnn (K). Mostre que kAk = kA k e kA Ak = kAk2 .
48. Seja A Mnn (K). Se A for normal, mostre que kA2 k = kAk2 .
49. Considere que E = Kn e resolva os Exerccios 7 e 8 do Apndice F.
50. Aceite o fato que todo espao vetorial possui uma base (um resultado que
demonstrado utilizando-se o lema de Zorn). Mostre ento que todo espao
vetorial possui um produto interno e, portanto, uma norma.
Definio 8.51 Sejam v1 , . . . , vr vetores em Kn . O conjunto
x1 v 1 + . . . + xr v r

com 0 xi 1 i = 1, . . . , r

o paraleleppedo P = P(v1 , . . . , vr ) gerado por {v1 , . . . , vr }. Definimos


indutivamente o volume (r-dimensional) do paraleleppedo por vol(P(v1 )) =
kv1 k e, supondo definido o volume do paraleleppedo gerado por k 1 vetores,
definimos vol (P(v1 , . . . , vk )) = khk vol(P(v2 , . . . , vk )), em que khk a altura
do paraleleppedo, isto , se w for a projeo de v1 sobre o espao gerado por
{v2 , . . . , vk }, ento h = v1 w.

i
i

ALinear 2005/12/19 13:25 page 184 #200


i

184

Estrutura Euclidiana

Cap. 8

51. Dado um conjunto arbitrrio {v1 , . . . , vk } do espao euclidiano E de


dimenso n, considere a matriz A, k n, cujas linhas so as coordenadas
de vi com relao a uma base ortogonal B de E:

[v1 ]tB

A = ... .
[vk ]tB

(a) Mostre que AA a matriz de Gram G(v1 , . . . , vk ) = (hvi , vj i);


conclua ento que det G(v1 , . . . , vk ) diferente de zero se os vetores
v1 , . . . , vk forem linearmente independentes e nulo se esses vetores
forem linearmente dependentes;7
(b) mostre que
det G(v1 , . . . , vk ) = khk2 det G(v2 , . . . , vk ),
em que v1 = h + w, sendo h ortogonal ao espao gerado por v2 , . . . , vk ;
conclua a desigualdade de Hadamard:
0 det G kv1 k2 . . . kvk k2 ;
(c) Mostre que
[vol(P(v1 , . . . , vk ))]2 = det G(v1 , . . . , vk ).

52. Seja v1 , . . . , vn Kn vetores linearmente independentes. Conclua que


vol(P(v1 , . . . , vn )) = |D(v1 , . . . , vn )|,
em que D a funo determinante.
53. Seja T : Kn Kn um operador linear e P um paraleleppedo ndimensional em Kn . Mostre que T (P) um paraleleppedo e vol(T (P)) =
| det T | vol(P).
Observao 8.52 Uma vez estabelecida a relao entre determinantes e volumes,
estamos em condies de interpretar o significado geomtrico das outras duas
7

O item (b) garante que det G(v1 , . . . , vk ) 0.

i
i

ALinear 2005/12/19 13:25 page 185 #201


i

8.9

Exerccios

185

operaes elementares sobre as linhas de uma matriz A (compare com a Observao


4.4). A multiplicao de uma linha por uma constante positiva c multiplica o volume
do paraleleppedo formado pelas linhas de A tambm por c. (Isso evidente quando
c inteiro ou mesmo uma frao.) A substituio de uma linha de A por sua
soma com outra linha certamente no altera o determinante de A, pois a altura
do paraleleppedo (gerado pelas linhas de A) no modificada: a projeo do vetor
altura sobre o espao gerado pelos demais vetores permanece a mesma. Isto tambm
pode ser visto de outra maneira: se a linha a ser alterada corresponder a um vetor
vertical (o que podemos obter por uma mudana de base), adicionar a essa uma outra
linha de A corresponde a inclinar o paraleleppedo. Pelo Princpio de Cavalieri, o
volume no se altera.

i
i

ALinear 2005/12/19 13:25 page 186 #202


i

9
Formas Sesquilineares e
Quadrticas
Neste Captulo estudamos formas sesquilineares e bilineares. Apresentaremos
o Teorema de Lagrange e a Lei da Inrcia.

9.1

Formas Sesquilineares e Bilineares

Definio 9.1 Seja X um espao vetorial. Uma forma sesquilinear em X uma


funo B : X X K tal que, para quaisquer K e x1 , x2 , y1 , y2 X,
(i) B(x1 + x2 , y1 ) = B(x1 , y1 ) + B(x2 , y1 ):
(ii) B(x1 , y1 + y2 ) = B(x1 , y1 ) + B(x1 , y2 ).
Se X for um espao real, usual dizer que B uma forma bilinear.
Uma forma sesquilinear hermitiana, se B(x, y) = B(y, x) para quaisquer
x, y X. No caso real, dizemos que a forma bilinear simtrica. A denominao
auto-adjunta empregada em ambos os casos. Se B(x, y) = B(y, x), dizemos
que a forma antiauto-adjunta.
Ao utilizarmos a denominao forma estaremos nos referindo a uma forma
sesquilinear ou bilinear.
Exemplo 9.2 Em um espao com produto interno E, h , i uma forma autoadjunta.


186
i

i
i

ALinear 2005/12/19 13:25 page 187 #203


i

9.1

187

Formas Sesquilineares e Bilineares

Exemplo 9.3 Seja A Mnn (K) uma matriz .

a11
a21

B(x, y) = xt Ay = (x1 x2 . . . xn ) ..
.
an1

Definindo B : Kn Kn K por

a12 a1n
y1

a22 a2n
y2
..
.. .. ,
...
.
. .
yn
an2 ann

obtemos uma forma em Kn . Mais geralmente, dado um operador T : E E no


espao euclidiano E, B(x, y) = hT x, yi = hx, T yi define um forma em E.


Denotaremos por S(X) o conjunto das formas em X. (No caso real, esse espao
usualmente denotado por L2 (X).) O espao S(X) um espao vetorial com as
definies usuais de soma de funes e multiplicao de funo por escalar (veja o
Exerccio 1).
Concentraremos nossa ateno no caso em que X um espao euclidiano.
Nesses espaos, formas esto intrinsecamente ligadas a operadores, relao j
sugerida pelo Exemplo 9.3:
Teorema 9.4 Sejam E um espao euclidiano e B uma forma em E. Ento, existe
um nico operador linear S : E E tal que, para quaisquer x, y E,
B(x, y) = hx, S yi = hSx, yi.
A forma B auto-adjunta (respectivamente, antiauto-adjunta) se, e somente se,
S = S (resp., S = S).

Demonstrao: Fixado y E, a aplicao y : E K definida por y (x) =


B(x, y) um funcional linear em E. Pelo Teorema de Representao de Riesz 8.22,
existe um nico vetor wy E tal que B(x, y) = y (x) = hx, wy i para todo x E.
Definimos, ento, S : E E por S y = wy , ou seja, B(x, y) = hx, S yi.
Afirmamos que S linear. De fato,
hx, S (y1 + y2 )i = B(x, y1 + y2 ) =
B(x, y1 ) + B(x, y2 )

=
hx, S y1 i + hx, S y2 i = hx, S y1 + S y2 i.
A unicidade de S clara: se hx, S yi = B(x, y) = hx, R yi, ento, para quaisquer
x, y E, vale hx, (S R )yi = 0, de onde segue-se que S = R .
Para x, y E arbitrrios, temos
B(x, y) = B(y, x) hSx, yi = hSy, xi hSx, yi = hx, Syi

i
i

ALinear 2005/12/19 13:25 page 188 #204


i

188

Formas Sesquilineares e Quadrticas

Cap. 9

e
B(x, y) = B(y, x) hSx, yi = hSy, xi hSx, yi = hx, Syi.

O resultado anterior mostra que a denominao de forma auto-adjunta e


antiauto-adjunta est em conformidade com propriedades dos operadores S; assim,
outras denominaes empregadas para descrever propriedades de S tambm so
aplicadas a uma forma.
Corolrio 9.5 Seja E um espao euclidiano. Ento S(E), o espao das formas em
E, canonicamente isomorfo a L(E, E), o espao dos operadores em E.

Demonstrao: O Teorema 9.4 garante que, dada uma forma B S(E), existe um
operador S : E E tal que B(x, y) = hSx, yi.
Denotamos TB = S, isto , B(x, y) = hTB x, yi. Afirmamos que a aplicao
B 7 TB um isomorfismo cannico entre S(E) e L(E, E). De fato,
hT(B1 +B2 ) x, yi = (B1 + B2 )(x, y) = B1 (x, y) + B2 (x, y)
= hTB1 x, yi + hTB2 x, yi = h(TB1 + TB2 )x, yi.
A unicidade da aplicao S tal que B(x, y) = hSx, yi garante que B 7 TB
injetora. Essa aplicao tambm sobrejetora: dado o operador T : E E,
claramente B(x, y) = hT x, yi define uma forma em E.
2
Por conseguinte, se dim E = n, deduzimos da que dim(S(E)) = n2 , que a
dimenso de L(E, E). Mas, dada a forma B, como determinar o operador S?

Corolrio 9.6 Dada uma base ortonormal B = {v1 , . . . , vn } do espao euclidiano


E, associamos forma B a matriz A = (aij ) que representa S nessa base, que
est caracterizada por
aij = B(vi , vj ) = hvi , S vj i.
Essa matriz a representao de B na base B.
Se [x]B = (x1 x2 . . . xn )t e [y]B = (y1 y2 . . . yn )t forem, respectivamente, as
representaes de x e y na base B, ento
B(x, y) = hx, S yi = [x]tB A [y]B

a11 a12 a1n


a21 a22 a2n

= (x1 x2 . . . xn ) ..
..
..
...
.
.
.
an1 an2 ann

y1
y2
..
.
yn

(9.1)

i
i

ALinear 2005/12/19 13:25 page 189 #205


i

9.1

189

Formas Sesquilineares e Bilineares

Demonstrao: A matriz A que representa S na base B dada, em termos de suas


colunas, por
([S v1 ]B [S v2 ]B [S vn ]B ).
Se S vj = a1j v1 + . . . + anj vn , ento aij = B(vi , vj ) = hvi , S vj i.
Como B e a expresso matricial em (9.1) coincidem nos vetores da base B, a
prova est completa.
2

Observao 9.7 Verificamos assim que, em espaos euclidianos, o Exemplo 9.3


absolutamente geral: todas as formas so como naquele exemplo. Note tambm
que o produto interno cannico no Kn corresponde ao caso em que a matriz A a
identidade. (O Exerccio 19 do Captulo 8 d condies para que uma forma seja
um produto interno.)

Em qualquer espao de dimenso finita X, possvel associar uma matriz a uma
forma. Escolhida uma base arbitrria {x1 , . . . , xn } para X, a forma B : XX K
caracterizada pelos n2 nmeros aij := B(xi , xj ) e a matriz A = (aij ) representa
B com essa base, com B(x, y) = [x]tB A [y]B . (Veja o Exerccio 10. Compare,
porm, com a Observao 8.13.) Em espaos euclidianos, essas duas maneiras de
associar formas a matrizes (isto , a que acabamos de definir e aquela apresentada
no texto, como representao do operador S ) coincidem unicamente quando a base
considerada for ortonormal.
Observao 9.8 A expresso B(x, y) = [x]tB A [y]B mostra que a matriz que
representa uma forma reage a uma mudana de base de uma maneira diferente
daquela quando representa um operador: se [x]C = Q[x]B e [y]C = Q[y]B (estamos
denotando a matriz mudana de base por Q apenas por razes estticas),
t

B(x, y) = [x]tC A [y]C = [x]tB (Q AQ) [y]B = [x]tB (Q AQ) [y]B .

Observao 9.9 Seja f : Rn R uma aplicao de classe C 2 . Pode-se mostrar


que a derivada segunda de f uma forma bilinear simtrica f (x) (que varia com
o ponto x Rn ). O Corolrio 9.6 garante a existncia de uma matriz simtrica Hx
(que varia com o ponto x), tal que, para vetores h, k Rn ,
f (x)(h, k) = ht Hx k,

i
i

ALinear 2005/12/19 13:25 page 190 #206


i

190

Formas Sesquilineares e Quadrticas

Cap. 9

A matriz Hx a hessiana de f no ponto x. A forma quadrtica qx (h) :=


f (x)(h, h) = ht Hx h aparece no desenvolvimento de Taylor de f :
f (x + h) = f (x) +

1
1
f (x)h + qx (h) + r(h),
1!
2!

em que r(h) denota o resto de Taylor.

9.2

Diagonalizao de Formas Quadrticas

Definio 9.10 Sejam E um espao euclidiano e B S(E) uma forma. A


aplicao q : E K, dada por q(v) = B(v, v), chamada forma quadrtica.
Se B for auto-adjunta, dizemos que q simtrica (no caso real) ou hermitiana
(no caso complexo).
Se B = {v1 , . . . , vn } for uma base ortonormal em E e x = x1 v1 + . . . + xn vn ,
de acordo com (9.1) toda forma quadrtica q(x) pode ser escrita como
q(x) =

n
X

aij xi xj .

(9.2)

i,j=1

Se denotarmos por Q : E Kn a aplicao x 7 [x]B , vemos que a forma


quadrtica q : E R induz uma forma quadrtica qB definida no Kn , dada
pela expresso matricial (9.2) e representada pelo diagrama (I denota a aplicao
identidade, como sempre):
q
E K
Q
I
n
K K
qB
Na seqncia, identificaremos repetidamente q com qB .
Comeamos tratando as formas quadrticas definidas em espaos euclidianos
reais. Nesse caso, podemos supor que a aplicao A : E E (e, conseqentemente, a forma quadrtica q) seja simtrica. De fato, temos que (A + A ) =
A + A . O operador
A + A
2

i
i

ALinear 2005/12/19 13:25 page 191 #207


i

9.2

191

Diagonalizao de Formas Quadrticas

a parte auto-adjunta do operador A. Temos que




A + A
x .
q(x) = hx, Axi = x,
2
Como vimos, a forma quadrtica q : E R induz uma forma quadrtica no
R , dada por sua expresso matricial numa base ortonormal de E. Assim, podemos
considerar que q seja uma forma quadrtica definida no Rn .
n

Teorema 9.11 (Lagrange)


Seja E um espao euclidiano real de dimenso n. Dada uma forma quadrtica
simtrica q : E R, possvel fazer uma mudana de coordenadas linear Lx = y
(isto , existe uma matriz mudana de base L) de modo que, na nova varivel y, a
forma quadrtica q seja diagonal, isto ,
1

q(L y) =

n
X

di yi2 .

(9.3)

i=1

Demonstrao: Seja q(x) = hx, Axi, a matriz A = (aij ) sendo simtrica. (Note
que isso significa que estamos identificando a forma com sua expresso matricial.)
Se todos os termos aij forem nulos, q j diagonal.
Suponhamos que todos os termos diagonais de q sejam nulos, mas que exista
um termo aij diferente de zero, digamos a12 = a21 6= 0. De acordo com (9.2), o
nico termo de q envolvendo apenas x1 e x2
2a12 x1 x2 .
Fazendo a mudana de varivel linear x1 = w1 + w2 , x2 = w1 w2 ,
x3 = w3 , . . . , xn = wn , obtemos que os termos envolvendo apenas w1 e w2 so
a12 w12 a12 w22 .
Assim, mostramos que podemos supor, sem perda de generalidade, que q possua
um termo diagonal diferente de zero.
Suponhamos ento que a11 6= 0. Agrupamos os termos contendo x1 :
a11 x21 + 2

n
X

a1j x1 xj .

j=2

i
i

ALinear 2005/12/19 13:25 page 192 #208


i

192

Formas Sesquilineares e Quadrticas

Logo, podemos escrever esses termos como


!2
n
1
1 X
a1j xj
a11 x1 +
a11 j=2
a11

n
X

a1j xj

j=2

Fazendo a mudana de varivel linear y1 = x1 +


x2 , . . . , yn = xn , conclumos que

a21
x
a11 2

Cap. 9

!2

+ ... +

an1
x ,
a11 n

y2 =

q(x1 , . . . , xn ) = a11 y12 + q2 (y2 , . . . , yn ),


Tendo diagonalizado o termo em y1 , repetimos ento o processo com a forma
quadrtica q2 .
2
Exemplo 9.12 Aplicaremos a demonstrao do Teorema 9.11 forma quadrtica
q(x, y, z) = 2x2 3y 2 + z 2 2xy + 4xz 4yz.
(Identifique a passagem correspondente na demonstrao do teorema.)
Os termos que envolvem a varivel x so 2x2 2xy + 4xz = 2(x2 xy +
2xz) = 2[x2 x(2z y)]. Completando o quadrado, obtemos x2 x(2z y) =
[x (2z y)/2]2 (2z y)2 /4.
Efetuamos, ento, a mudana de varivel w = x (2z y)/2 = x z + y/2.
Segue-se da que
q(x, y, z) = 2w2

(2z y)2
7
3y 2 +z 2 4yz = 2w2 y 2 z 2 2yz =: q1 (w, y, z).
2
2

Separando os termos que envolvem y, repetimos o processo: 7y 2 /2 2yz =


7/2(y 2 + (4/7)yz). Completando o quadrado, y 2 + (4/7)yz = (y + (2/7)z)2
(4/49)z 2 . Fazemos ento a mudana de varivel v = y + (2/7)z. Assim,
7
2
7
5
q1 (w, y, z) = 2w2 v 2 + z 2 z 2 = 2w2 v 2 z 2 =: q2 (w, v, z).
2
7
2
7

2, s =
Se
quisermos,
ainda
podemos
fazer
a
mudana
de
varivel
r
=
w/


( 2/ 7)v e t = ( 7/ 5)z, assim obtendo
q3 (r, s, t) = r2 s2 t2 .
Note que todas as mudanas de varivel feitas so lineares e invertveis.

i
i

ALinear 2005/12/19 13:25 page 193 #209


i

9.2

Diagonalizao de Formas Quadrticas

193

A demonstrao dada pode ser adaptada para se provar o Teorema de Lagrange


para formas quadrticas hermitianas (veja o Exerccio 13). Apresentaremos, ao
invs, uma demonstrao que enfatiza a geometria da situao:
Teorema 9.13 Dada uma forma quadrtica hermitiana no espao euclidiano
complexo E de dimenso n, possvel fazer uma mudana de coordenadas linear
Lx = z de modo que, na nova varivel z, a forma quadrtica q seja diagonal, isto
,
q(L1 z) = d1 z1 z1 + . . . + dn zn zn = d1 |z1 |2 + . . . + dn |zn |2 ,
(9.4)

em que di R para todo i = 1, . . . , n.

Demonstrao: Suponhamos que q(x) = hx, Axi, sendo A uma matriz hermitiana.
Escolha v1 tal que q(v1 ) = hv1 , Av1 i =
6 0. (Se q(x) 6 0, a existncia de um tal v1
est garantida pela Proposio 8.42.)
Consideremos agora o conjunto W1 , formado por todos os vetores x E tais
que hx, Av1 i = 0. Claramente W1 um subespao de E. Como Av1 6= 0, temos
ento que dim W1 = n 1. Se q|W1 6= 0, repetimos o processo e obtemos um
vetor v2 tal que hv2 , Av2 i =
6 0 e definimos o espao W2 por W2 = hx, Avi i = 0
para i = 1, 2. Se esse processo puder ser repetido n vezes, obtemos ento uma base
{v1 , . . . , vn } de E. Caso contrrio, aps um nmero r de passagens, teremos obtido
o conjunto linearmente independente {v1 , . . . , vr } e encontraremos um subespao
Wr , com dimenso n r > 0, tal que q|Wr 0. Selecionamos, nesse caso, uma
base {vr+1 , . . . , vn } desse subespao. Claramente {v1 , . . . , vn } uma base de E.
Por construo temos hvi , Avj i = 0 para i > j. Como A auto-adjunta, seguese da hAvi , vj i = 0 = hvj , Avi i e, portanto, hvi , Avj i = 0 para j > i. Assim, se
x = z1 v1 + . . . + zn vn for um vetor arbitrrio,
hx, Axi = hz1 v1 +. . .+zn vn , z1 v1 +. . .+zn vn i = z1 z1 hv1 , Av1 i+. . .+zn zn hvn Avn i.
Definindo di = hvi , Avi i, obtemos o resultado.

Notamos que, por meio da identidade de polarizao, podemos expressar o


Teorema de Lagrange como um resultado sobre formas auto-adjuntas. Veja o
Exerccio 14.
Teorema 9.14 Dada uma matriz A Mnn (K) hermitiana (simtrica), existe uma
matriz M Mnn (K) tal que
M AM = D,

(9.5)

sendo D uma matriz diagonal.

i
i

ALinear 2005/12/19 13:25 page 194 #210


i

194

Formas Sesquilineares e Quadrticas

Cap. 9

Demonstrao: Considerada a mudana de varivel linear Lx = y que diagonaliza


a forma quadrtica hermitiana (simtrica) q(x) = hx, Axi, seja M = L1 . Ento
x = My e
q(x) = hx, Axi = hM y, AM yi = hy, M AM yi.

Claramente, q tem a forma (9.4) (ou (9.3), respectivamente) se, e somente se,
M AM for uma matriz diagonal. Isso prova que os Teoremas 9.11 e 9.14 so
equivalentes.
2

Em muitas aplicaes importante utilizar mudanas de coordenadas tais que


os comprimentos euclidianos da velha varivel e da nova sejam o mesmo, isto ,
kvk2 = kzk2 .
Em termos da expresso matricial v = M z, isso significa que M uma
isometria. Assim, de acordo com o Teorema 8.38, M deve satisfazer M M = I.
Um dos resultados mais importantes da Matemtica garante que, dada uma
forma quadrtica q, possvel diagonaliz-la por meio de uma mudana isomtrica
de coordenadas. Em outras palavras, de modo que tanto (9.5) como M M = I
sejam satisfeitas. Veremos isso no prximo captulo!

9.3

A Lei da Inrcia

Se q for uma forma quadrtica hermitiana, notamos que a Proposio 8.43


garante que q(x) R para todo x E.
Definio 9.15 Dizemos que a forma quadrtica hermitiana (simtrica) q
positiva definida (respectivamente, positiva semidefinida) em um subespao Y
E, se q(x) > 0 (resp., q(x) 0) para todo 0 6= x Y . Se Y = E, dizemos apenas
que q positiva definida (resp., positiva semidefinida).
De maneira anloga, definimos quando q negativa definida, negativa
semidefinida etc.
Se existirem pontos x, y E tais que q(x) > 0 e q(y) < 0, a forma q
indefinida.
Note que, escolhida uma base ortonormal B para o espao E, a forma q
positiva definida se, e somente se, a matriz AB for uma matriz positiva definida,
tal qual definido no Exerccio 19 do Captulo 8. (Veja tambm o Exerccio 20 deste
Captulo.) Assim, podemos falar de matriz positiva semidefinida, negativa definida
etc.

i
i

ALinear 2005/12/19 13:25 page 195 #211


i

9.3

195

A Lei da Inrcia

Teorema 9.16 (Lei da Inrcia Sylvester)


Independente da escolha da mudana linear de variveis que diagonaliza uma
forma quadrtica simtrica (hermitiana) q, o nmero de termos positivos, negativos
e nulos entre os coeficientes di sempre o mesmo.
Demonstrao: Suponhamos que por meio da mudana linear de variveis Lx = z,
a forma quadrtica se escreva como
q(L1 z) = d1 |z1 |2 + . . . + dn |zn |2 .

(9.6)

Denotamos por p+ , p e p0 o nmero de termos positivos, negativos e nulos em


(9.6), respectivamente.
Afirmamos que a dimenso do maior subespao de Y V no qual q positiva
definida p+ :
p+ = max dim Y, q positiva em Y.
Similarmente, afirmamos que a dimenso do maior subespao Z V no qual q
negativa-definida p :
p = max dim Z, q negativa em Y.
Para mostrarmos as afirmaes, reordenamos os termos di de (9.6) de modo que
os p primeiros sejam todos positivos, com p = p+ .
2
q(y) = d1 y12 + . . . + dp yp2 + dp+1 yp+1
+ . . . + dn yn2 .

(9.7)

Para y = (y1 , . . . , yn ) V , seja S + o subespao dos vetores da forma


(y1 , . . . , yp , 0, . . . , 0). Claramente q positiva em S + . Isso mostra que p+
max dim Y , com q positiva em Y . Suponhamos que exista algum subespao
Y com q positiva em Y e dim Y > p. Claramente S + Y . Considere a
aplicao : Y S + , (y) = (y1 , . . . , yn ) = (y1 , . . . , yp , 0, . . . , 0). Como
dim Y > dim S + , existe y 6= 0 tal que (y) = 0. Mas isso implica que as
primeiras p componentes de y so nulas. Mas ento, de acordo com (9.7), q(y) 0,
contradio. Analogamente se mostra a afirmao sobre p .
Desse modo garantimos que os nmeros p+ , p e p0 podem ser definidos em
termos de q, independente das coordenadas que colocam q na forma diagonal. Uma
vez que p+ + p + p0 = n, isso completa a demonstrao.
2
Observao 9.17 A Lei da Inrcia tem uma conseqncia importante: ela implica
que a natureza de um ponto crtico no alterada, se for feita uma mudana de
varivel linear no problema considerado. Assim, um ponto de sela continua sendo
um ponto de sela aps qualquer mudana de coordenadas linear.


i
i

ALinear 2005/12/19 13:25 page 196 #212


i

196

Formas Sesquilineares e Quadrticas

9.4

Cap. 9

Exerccios

1. Seja X um espao vetorial. Mostre que o espao das formas S(X) um


espao vetorial com as definies usuais de soma de funes e multiplicao
de funo por escalar.
2. Seja B uma forma no espao vetorial X. Mostre que vale a identidade

qB (x + y) + qB (x y) = 2 qB (x) + qB (y) ,
que generaliza a identidade do paralelogramo.

3. Sejam X um espao vetorial real e B S(X). Verifique a igualdade


B(x, y) + B(y, x) =


1
qB (x + y) qB (x y) .
2

(9.8)

(Essa identidade nos mostra que, se a forma B : X X R for simtrica,


ento o lado esquerdo da equao nos fornece uma expresso para B em
termos de q.)
4. Seja B : R2 R2 R definida por
B(x, y) = 3x1 y1 2x1 y2 + 5x2 y1 + 7x2 y2 ,
em que x = (x1 , x2 ) e y = (y1 , y2 ).
(a) Mostre que B uma forma bilinear que no simtrica. Obtenha a
forma quadrtica associada a B;
(b) Defina1



y) = 1 qB (x + y) qB (x y) .
B(x,
4

uma forma bilinear simtrica, que no coincide com B,


Mostre que B
mas qual tambm est associada a forma quadrtica qB .
5. D exemplo de uma forma bilinear qual est associada uma forma
quadrtica identicamente nula.
1

Compare com o Exerccio 3.

i
i

ALinear 2005/12/19 13:25 page 197 #213


i

9.4

197

Exerccios

6. Seja X um espao vetorial complexo e B S(X). Mostre a identidade de


polarizao:
i
1
B(x, y) = [q(x + y) q(x y)] + [q(x + iy) q(x iy)].
4
4
Se X for real e B for simtrica, ento vale:
1
B(x, y) = [q(x + y) q(x y)].
4
(Note que as identidades de polarizao dadas pelo Lema 8.9 so casos
particulares das identidades anteriores.)
Assim, dada uma forma quadrtica q, definida num espao complexo X,
sempre conseguimos recuperar a forma B S(X) que a define. Se X for
um espao real, esse resultado s vlido se soubermos que B uma forma
simtrica. (Compare com o Exerccio 4.)
7. Seja E um espao euclidiano complexo. Mostre que uma forma sesquilinear
B S(E) hermitiana se, e somente se, a forma quadrtica q(x) = B(x, x)
for real para todo x E.
8. Sejam X um espao vetorial e B : X X K uma forma positiva
semidefinida. Mostre que qB (y) = 0 se, e somente se, B(x, y) = 0 para
todo x X.
9. Sejam X um espao vetorial e B uma forma positiva semidefinida. Mostre a
desigualdade
p
p
|B(x, y)| qB (x) qB (y),
que uma generalizao da desigualdade de Cauchy-Schwarz.

10. Seja B uma forma no espao X e {x1 , . . . , xn } uma base de X. Mostre que
B est caracterizada pela matriz (aij ), em que aij = B(xi , xj ). Expresse
B(x, y) em termos dessa matriz.
11. Seja B uma forma no espao euclidiano E e B uma base de E. Se A for a
matriz que representa B (nessa base), definimos o posto de B como sendo o
posto de A.
(a) Mostre que o posto de uma forma est bem definido.

i
i

ALinear 2005/12/19 13:25 page 198 #214


i

198

Formas Sesquilineares e Quadrticas

Cap. 9

(b) Seja B uma forma de posto 1 no espao euclidiano real E. Mostre


que existem funcionais lineares f : E R e g : E R tais que
B(x, y) = f (x)g(y).
12. Se a matriz que representa uma forma B : E E K (com relao a uma
base ortonormal) for invertvel, mostre que, para todo x0 E, existe y0 E
tal que B(x0 , y0 ) 6= 0.
13. Mostre o Teorema de Lagrange 9.13 para o caso de formas quadrticas
hermitianas, adaptando a demonstrao apresentada para o caso de formas
quadrticas simtricas.
14. Enuncie o Teorema de Lagrange (Teoremas 9.11 e 9.13) como um resultado
sobre a diagonalizao de uma forma sesquilinear auto-adjunta.
15. Dada a forma quadrtica ax2 + bxy + cy 2 , encontre a matriz simtrica que a
representa.
16. Considere a forma quadrtica q : R4 R definida por
q(x1 , x2 , x3 , x4 ) = x21 + 6x1 x2 + 5x22 4x1 x3 12x2 x3
+ 4x23 4x2 x4 x3 x4 x24 .
Coloque q na forma diagonal.
Definio 9.18 Duas matrizes A e B em Mnn (K) so congruentes se existir uma
matriz invertvel M Mnn (K) tal que A = M BM .
17. Mostre que a congruncia de matrizes uma relao de equivalncia em
Mnn (K).
18. Sejam A, B Mnn (K) matrizes congruentes. Mostre que det A > 0 se, e
somente se, det B > 0.
19. Mostre que toda matriz simtrica (hermitiana) congruente a uma matriz
diagonal cujas entradas assumem apenas os valores 1, 0 e 1.
20. Mostre que uma forma quadrtica simtrica (hermitiana) q(x) = hx, Axi
positiva definida no espao euclidiano E se, e somente se, a matriz AB que
representa A numa base ortonormal B for positiva definida, tal qual definido
no Exerccio 19 do Captulo 8. Verifique o mesmo resultado para uma forma
negativa definida, positiva semidefinida etc.

i
i

ALinear 2005/12/19 13:25 page 199 #215


i

9.4

Exerccios

199

21. Mostre que uma forma quadrtica hermitiana (simtrica) q(x) = hx, Axi
positiva definida se, e somente se, A for congruente a I.
22. Faa um diagrama para a relao M AM = D em termos de mudanas de
bases.
Definio 9.19 Seja A Mnn (K). Para cada r n, a submatriz (aij ),
1 i, j r n a submatriz principal de A de ordem r, denotada por Ar .
O determinante de Ar o menor principal de ordem r.
23. Mostre que, se todos os menores principais de uma matriz simtrica
(hermitiana) A Mnn (K) forem positivos, ento a matriz A positiva
definida.
24. Mostre que todos os menores principais de uma matriz simtrica (hermitiana)
A Mnn (K) positiva definida so positivos.
25. Mostre que uma matriz simtrica (hermitiana) A = (aij ) negativa definida
se, e somente se, seus menores principais tiverem sinais alternados, com
det A1 = a11 < 0.
26. Seja X um espao complexo. Alm das formas sesquilineares definidas em
E, so importantes as formas B : X X C tais que para quaisquer C
e u1 , u2 , v1 , v2 E,
(i) B(u1 + u2 , v) = B(u1 , v) + B(u2 , v);
(ii) B(u, v1 + v2 ) = B(u, v1 ) + B(u, v2 ).
Essas so as formas bilineares definidas em X. Denotaremos por B(X) o
conjunto das formas bilineares2 em X. Uma forma bilinear simtrica, se
B(u, v) = B(v, u), e anti-simtrica, se B(u, v) = B(v, u) para quaisquer
u, v X.
Verifique as seguintes afirmaes:
(a) Seja B = {x1 , . . . , xn } uma base de X. Ento existe um isomorfismo
entre o espao B(X) e o espao Mnn (C).
2

Como o estrutura bilinear no est em acordo com uma estrutura de produto interno num espao
complexo, no consideramos aqui espaos euclidianos.

i
i

ALinear 2005/12/19 13:25 page 200 #216


i

200

Formas Sesquilineares e Quadrticas

Cap. 9

(b) Seja B uma base de X e A a matriz que representa B nessa base. A


forma B simtrica se, e somente se, a matriz A for simtrica. A forma
B anti-simtrica se, e somente se, A for anti-simtrica.
(c) O espao B(X) a soma direta dos subespaos das formas simtricas e
anti-simtricas.
(d) Sejam C uma outra base de X e P = PCB . Se A representar a forma B
na base B e C representar B na base C, ento C = P t AP .

(e) Est bem definido o posto de uma forma B como o posto de uma matriz
que representa B. Uma forma bilinear B no-degenerada se o seu
posto for igual dim X.

(f ) Se B for uma forma bilinear simtrica, definindo q(v) = B(v, v), vale
1
B(u, v) = [q(u + v) q(u v)],
4
chamada identidade de polarizao.

(9.9)

(g) Se B for uma forma bilinear simtrica, existe uma base de X na qual B
representada por uma matriz diagonal (compare com o Exerccio 14).
Em particular, dada uma matriz simtrica A Mnn (C), existe uma
matriz invertvel P Mnn (C) tal que P t AP diagonal.

(h) Seja B uma forma bilinear no-degenerada. Mostre que a cada operador
T : X X est associado um nico operador T tal que B(T x, y) =
B(x, T y). Vale: (T1 T2 ) = T2 T1 ; (cT1 + T2 ) = cT1 + T2 ; (T ) = T .
(i) Seja B uma forma bilinear anti-simtrica. Ento o posto de B par e,
nesse caso, B pode ser representada por uma matriz diagonal em blocos


0 J
,
J 0
em que J a matriz quadrada

0
0

..
.
1

...
...
...

0
1
..
.

1
0
..
.

... 0 0

(j) Enuncie e demonstre um resultado anlogo ao do item (h) para uma


forma bilinear anti-simtrica.

i
i

ALinear 2005/12/19 13:25 page 201 #217


i

10
Teoria Espectral Euclidiana
Alguns dos resultados mais importantes da lgebra Linear em espaos
euclidianos sero vistos neste Captulo: a diagonalizao de operadores autoadjuntos e normais e as decomposies polar e em valores singulares de um
operador.

10.1

Operadores auto-adjuntos

Lema 10.1 Sejam E um espao euclidiano e H : E E um operador autoadjunto. Ento:


(i) H possui apenas autovalores reais;
(ii) autovetores correspondentes a autovalores distintos so ortogonais.
Demonstrao: Considerando a complexificao de H, podemos supor que E seja
um espao complexo. Seja x um autovetor associado ao autovalor de H. Ento
hx, xi = hx, xi = hHx, xi = hx, Hxi = hx, xi = hx, xi,
de modo que ( )hx, xi = 0. Isso mostra que = e prova (i).
Sejam x, y autovetores associados aos autovalores distintos , R. Ento
hx, yi = hHx, yi = hx, Hyi = hx, yi = hx, yi,
de modo que
( )hx, yi = 0.

Como 6= , isso implica x y, completando a prova.

201
i

i
i

ALinear 2005/12/19 13:25 page 202 #218


i

202

Teoria Espectral Euclidiana

Cap. 10

Teorema 10.2 (Espectral dos Operadores Auto-adjuntos)


Sejam E um espao euclidiano complexo e H : E E um operador
hermitiano (isto , auto-adjunto). Ento os autovetores de H formam uma base
ortogonal de E.
Demonstrao: De acordo com o Teorema Espectral 7.3,1 os autovetores
generalizados de H geram o espao E. Para mostrarmos o afirmado, precisamos
mostrar que E possui uma base formada por (autnticos) autovetores de H. De
fato, nesse caso, podemos aplicar o processo de ortogonalizao de Gram-Schmidt
e obter bases ortogonais para os subespaos invariantes associados a cada autovalor.
Em virtude do Lema 10.1, esses espaos so ortogonais, de modo que teremos
uma base ortogonal formada por autovetores de H. (Assim, como conseqncia
do Teorema 5.7, H ser representado, nessa base, por uma matriz diagonal.)
Suponhamos que x seja um autovetor generalizado de H associado ao autovalor
. Ento (H I)d x = 0 para algum d N. Queremos mostrar que (H I)x = 0.
Suponhamos inicialmente que d = 2. Ento, tomando o produto interno com x,
obtemos
0 = h(H I)2 x, xi = h(H I)x, (H I)xi = k(H I)xk2 .
Mas isso implica que (H I)x = 0, como desejado.2
Se d > 2, reescrevemos (H I)d x = 0 como (H I)2 (H I)d2 x = 0.
Definindo w = (H I)d2 x, podemos concluir que (H I)w = 0, ou seja,
(H I)d1 x = 0. Por induo, chegamos ao resultado desejado.
2
O prximo resultado apenas uma reformulao do Teorema 10.2 em termos de
matrizes. De fato, normalizando a base ortogonal dada pelo Teorema 10.2, obtemos
ento uma matriz cujas colunas formam uma base ortonormal. (Veja o Exerccio 26
do Captulo 8.)
Teorema 10.3 Seja H uma matriz complexa auto-adjunta. Ento existem uma
matriz unitria U e uma matriz diagonal D tais que
U HU = D.
A verso do Teorema 10.2 para operadores simtricos a seguinte:
1

Veja a pgina 204 para uma prova alternativa do Teorema 10.2, sem a utilizao de resultados
do Captulo 7.
2
Considerando a forma cannica de Jordan, esse resultado j implica (b).

i
i

ALinear 2005/12/19 13:25 page 203 #219


i

10.1

203

Operadores auto-adjuntos

Teorema 10.4 Seja H : E E um operador simtrico no espao euclidiano real


E. Ento existe uma base ortonormal de E formada por autovetores de H.
Demonstrao: Considerando a complexificao HC : EC EC , a expresso
HC x = x

(10.1)

e o fato dos autovalores de H serem reais implicam que as partes real e imaginria
de x satisfazem (10.1). Como ao menos uma dessas partes no-nula, obtemos um
autovetor real de HC associado a cada autovetor complexo.
2
Observao 10.5 Utilizando o Teorema 10.2 (respectivamente, a demonstrao de
10.4), podemos apresentar uma demonstrao alternativa do Teorema 9.13 (resp.,
9.11). Como j vimos, obtemos uma base ortonormal formada por autovetores
(complexos ou reais, conforme o caso) de H. Seja B = {v1 , . . . , vn } essa base
ortonormal de E. Se v E, consideremos sua representao z = (z1 z2 . . . zn ) na
base B (quer dizer, z = [v]B ):
v = z1 v1 + z2 v2 + . . . + zn vn .
Ento
kvk2 = hv, vi =
Aplicando H em (10.2), obtemos

n
X
i=1

|zi |2 = kzk2 .

Hv = 1 z1 v1 + . . . + n zn vn ,

(10.2)

(10.3)

(10.4)

em que i o autovalor associado ao autovetor vi .


Substituindo (10.2) e (10.4) em q(v) = hv, Hvi, vemos que
q(v) = 1 |z1 |2 + . . . + n |zn |2 .
Essa expresso mostra que a nova varivel z diagonaliza a forma quadrtica
hermitiana (simtrica) q, sendo 1 , . . . , n os autovalores de H. Combinando com
o Teorema 9.14, vemos que
P HP = D.
A equao (10.3) mostra que P uma isometria e, portanto, P = P 1 .

i
i

ALinear 2005/12/19 13:25 page 204 #220


i

204

Teoria Espectral Euclidiana

Cap. 10

Demonstrao alternativa dos Teoremas 10.2 e 10.4: Seja H : E E um


operador auto-adjunto no espao euclidiano (real ou complexo) E. Faremos a
demonstrao por induo na dimenso do espao E, o caso dim E = 1 sendo
trivial. Suponhamos o resultado vlido para espaos de dimenso n 1 e considere
um espao E de dimenso n.
Seja um autovalor de H (que sabemos ser real) e x um autovetor
correspondente. Considere a decomposio E = < x > < x > . De acordo
com a Proposio 8.31, W = < x > invariante por H. Como a restrio de H
ao subespao (n 1)-dimensional W um operador auto-adjunto (veja o Exerccio
29 do Captulo 8), o resultado est demonstrado.
2
Uma conseqncia importante dos Teoremas 10.2 e 10.4 diz respeito a
operadores auto-adjuntos que comutam:
Proposio 10.6 (Diagonalizao simultnea de operadores auto-adjuntos)
Sejam H, K : E E operadores auto-adjuntos. Ento HK = KH se, e
somente se, os auto-espaos de H forem invariantes por K. Nesse caso, existe
uma base ortonormal de E formada por elementos que so, ao mesmo tempo,
autovetores de K e H.
Demonstrao: Suponhamos que os operadores comutem. Seja
E = E1 Ej
a decomposio de E em termos dos auto-espaos Ei associados aos autovalores
distintos 1 , . . . , j de H. Assim, se w Ei , ento Hw = i w. Logo,
H(Kw) = KHw = i (Kw), mostrando que Kw Ei .
Consideramos, ento, o operador auto-adjunto (justifique!) K : Ei Ei e
aplicamos o Teorema 10.2 (ou o Teorema 10.4). Obtemos ento uma base de Ei
formada por autovetores de K. Como todo elemento de Ei um autovetor de H,
obtivemos assim uma base ortogonal desse espao formada por autovetores tanto de
K quanto de H. Aplicamos ento esse processo a cada auto-espao Ei .
Reciprocamente, acabamos de mostrar que H e K so simultaneamente
diagonalizveis. Como as representaes diagonais desses operadores comutam
com relao a uma base ortonormal formada por autovetores de H e K, o mesmo
acontece com esses operadores.
2
Note que o resultado anterior pode ser generalizado para qualquer nmero de
aplicaes auto-adjuntas que comutem duas a duas.

i
i

ALinear 2005/12/19 13:25 page 205 #221


i

10.1

205

Operadores auto-adjuntos

Reapresentamos a definio de forma quadrtica hermitiana (simtrica) positiva


definida (Seo 9.3) em termos de operadores:
Definio 10.7 Um operador linear auto-adjunto H : E E positivo
semidefinido se hHx, xi 0 para todo x E. Nesse caso, escrevemos H 0.
Quando hHx, xi > 0 para todo x 6= 0, escrevemos H > 0 e dizemos que H
positivo definido.
Tambm se usa a nomenclatura positivo para um operador positivo definido e
no-negativo para um operador positivo semidefinido. Preferimos reservar o termo
positivo para outra classe de operadores: aqueles associados ao Teorema de Perron
(veja a Definio 6.17).
Exemplo 10.8 Sejam E, F espaos euclidianos e T : E F um operador linear.
Como sua adjunta uma aplicao de F para E, existe a composta T T : E E,
que auto-adjunta e positiva semidefinida. De fato,
(T T ) = T (T ) = T T

e hT T x, xi = hT x, T xi 0.

Lema 10.9 Seja E um espao euclidiano. Um operador auto-adjunto H : E E


positivo semidefinido se, e somente se, seus autovalores forem todos maiores do
que ou iguais a zero. O operador H positivo definido se, e somente se, todos os
seus autovalores forem positivos.
Demonstrao: Se H 0 e Hx = x, ento hx, xi = hHx, xi 0.
Reciprocamente, como H auto-adjunto, existe uma base ortonormal formada por
autovetores: Hxi = i xi , para i = 1, . . . , n. Se x = 1 x1 + . . . + n xn , ento
+
* n
n
n
X
X
X
hHx, xi =
i |i |2 0.
i Hxi ,
i xi =
i=1

i=1

i=1

A segunda afirmao decorre da demonstrao apresentada.

J vimos que operadores cujos autovalores so maiores do que ou iguais a zero


possuem raiz quadrada real (isto , existe um operador S tal que S 2 = T ), desde que
0 comparea no polinmio mnimo com multiplicidade no mximo igual a 1 (veja
a Subseo 6.4.4). Agora apresentaremos uma situao em que podemos assegurar
a unicidade da raiz quadrada.

i
i

ALinear 2005/12/19 13:25 page 206 #222


i

206

Teoria Espectral Euclidiana

Cap. 10

Teorema 10.10 (Unicidade da Raiz Quadrada)


Sejam E um espao euclidiano e H : E E um operador auto-adjunto
e positivo semidefinido. Ento H possui uma nica raiz quadrada positiva
semidefinida P : E E.
Demonstrao: Consideremos a decomposio de E como soma direta ortogonal
de autoespaos de H: E = E1 Ek , em que 1 , . . . , k so os autovalores
distintos de H. Se x = x1 + . .
. + xk E
1 Ek , ento Hx =
1 x1 +. . .+k xk . Definimos P x = 1 x1 +. . .+ k xk . Claramente P 2 x = Hx,
mostrando que P uma raiz quadrada de H. O Lema 10.9 garante que P positivo
semidefinido. (Note que definimos diretamente a raiz quadrada de T , sem apelar
para os resultados de 6.4.4. O Exerccio 15 pede que voc faa isso usando o clculo
funcional.)
Para mostrarmos a unicidade, notamos inicialmente que toda raiz quadrada Q
de H comuta com H: QH = QQ2 = Q2 Q = HQ. Assim, cada auto-espao de
H invariante por Q (pelo Teorema 10.6) e o Teorema da Imagem
do Espectro
7.1 garante que o nico autovalor de Q em cada auto-espao Ei i . (Estamos
usando apenas a verso polinomial daquele Teorema!) Assim, Q coincide com P
em cada subespao Ei e, por conseguinte, no espao inteiro E.
2
Demonstrao alternativa do Teorema 10.10: De acordo com o Teorema 10.6, se
Q tambm satisfizer Q2 = H, ento Q e H so simultaneamente diagonalizveis
por base ortonormal formada por autovetores de H, como vimos no incio da
demonstrao anterior. Nessa base, se 1 , . . . , n forem os autovalores de H,

1 0 0
1 0 0
0 2 0
0 2 0

H = ..
e
Q
=
..

.. . .
..
.. . .
.. .
.

.
.
.
.
.
.
.
0 0 n
0 0 n

Como Q2 = H, devemos ter i = i . O mesmo argumento se aplica a P . Assim,


os autovalores de P e Q coincidem. Como os auto-espaos de H so invariantes
tanto por P quanto por Q, segue-se da que Q = P .
2

10.2

Princpios de Minimax para os Autovalores

(Esta Seo pode ser omitida sem prejuzo para o restante do texto. Ela
apresenta ainda um outro mtodo para se provar os Teoremas 10.2 e 10.4 que

i
i

ALinear 2005/12/19 13:25 page 207 #223


i

10.2

Princpios de Minimax para os Autovalores

207

nos permite, em particular, provar a existncia de autovalores e autovetores de


um operador auto-adjunto sem termos que apelar para o Teorema Fundamental da
lgebra. Isso fundamental em espaos de dimenso infinita.)
Demonstrao alternativa dos Teoremas 10.2 e 10.4: A funo contnua :
E R definida por (x) = hHx, xi assume um mximo no conjunto compacto3
K := {x E | kxk = 1}. Seja x1 esse ponto de mximo e 1 o valor de nesse
ponto. Ento, para todo x E, vale





x
x
x
x
2
2
h(H 1 I)x, xi = kxk (H 1 I)
H
= kxk
1
,
,
kxk kxk
kxk kxk
0,
mostrando que

(H 1 I)x, x

0 x E.

(10.5)

Decorre da, ao escolhermos x = x1 + ty com t R e y E, que


t2 (H 1 I)y, y + 2t (H 1 I)x1 , y 0.

Verificamos assim que o discriminante


dessa equao
do segundo grau menor do


que ou igual a zero. Quer dizer, (H 1 I)x1 , y = 0 para todo y E e, portanto,
(H 1 I)x1 = 0. Mostramos assim a existncia de um autovalor 1 e de um
autovetor x1 de H.
Consideremos agora o complementar ortogonal E1 do espao gerado por x1 ,
que tem dimenso n 1. Pela Proposio 8.31, E1 invariante por H e a restrio
de H a este subespao auto-adjunta. Por induo, podemos supor que H|E1 possui
uma base ortonormal formada por autovetores de H. Isso completa a prova.
2
A expresso

hHx, xi
=
kxk2
o quociente de Rayleigh.



 
x
x
,
H
kxk
kxk

Teorema 10.11 (Princpio do Minimax)


Sejam H : E E um operador auto-adjunto definido no espao euclidiano E
e 1 2 n os autovalores de H. Ento


max hHx, xi ,
j = min
dim S=j

xS, kxk=1

Veja o Apndice F.

i
i

ALinear 2005/12/19 13:25 page 208 #224


i

208

Teoria Espectral Euclidiana

Cap. 10

em que S um subespao de E.
Demonstrao: Consideremos um subespao S E arbitrrio, com dimenso j.
Inicialmente vamos mostrar que
max hHx, xi j ,

xS, kxk=1

de onde conclumos que min

dim S=j

max hHx, xi

xS, kxk=1

(10.6)
j .

Sejam {x1 , . . . , xn } uma base ortonormal de autovetores de H correspondentes


aos autovalores 1 , . . . , n e U o espao gerado pelos vetores x1 , . . . , xj1 . Como
dim(S U ) (j 1) e dim(S) = j, existe x S que perpendicular a todos
os vetores de U . Quer dizer, x P
= j xj + . . . + n xn para escalares j , . . . , n .
Podemos supor que 1 = kxk2 = ni=j |i |2 = 1. Assim,
hHx, xi =

n
X
i=j

i |i | j

n
X
i=j

|i |2 = j ,

mostrando (10.6).
Para completarmos a prova, basta mostrarmos um subespao S de dimenso
j no qual j hHx, xi para todo x S com kxk = 1. Seja S gerado por
x1 , . . . , xj . Ento
Pj x = 21 x1 + . . . + j xj para todo x S e, portanto, supondo que
2
1 = kxk = i=1 |i | = 1, vemos que
hHx, xi =

j
X
i=i

i |i | j

j
X
i=1

|i |2 = j .

A demonstrao est completa.

10.3

Operadores Normais

Relembramos que um operador A : E E antiauto-adjunto, se A = A.


De acordo com a Proposio 8.30, temos
(iA) = iA = iA,
mostrando que iA um operador auto-adjunto.
Teorema 10.2:

Decorre imediatamente do

i
i

ALinear 2005/12/19 13:25 page 209 #225


i

10.3

209

Operadores Normais

Teorema 10.12 Seja A : E E um operador antiauto-adjunto no espao


euclidiano complexo E. Ento:
(i) os autovalores de A so iguais a zero ou imaginrios puros;
(ii) existe uma base ortonormal de E consistindo de autovetores de A.
Demonstrao: Considere uma base ortonormal {x1 , . . . , xn } formada por
autovetores de iA associados aos autovalores 1 , . . . , n . Ento (iA)xj = j xj ,
com j R. Se j 6= 0, ento
Axj = (ij )xj ,
mostrando que A tem os mesmos autovetores de iA e que a cada autovalor j
no-nulo de iA est associado o autovalor imaginrio (ij ) de A.
2
Agora mostramos a teoria espectral de operadores normais em espaos
euclidianos complexos.
Teorema 10.13 Um operador linear N : E E definido no espao euclidiano
complexo E possui uma base ortonormal consistindo de autovetores se, e somente
se, for normal.
Demonstrao: Suponhamos que N seja normal. Uma vez que N e N comutam,
o mesmo acontece com
H :=

N + N
2

e A :=

N N
.
2

Os operadores H e N so auto-adjunto e antiauto-adjunto, respectivamente.


Aplicamos ento o Teorema 10.2 e a Proposio 10.6 aos operadores H e iA:
existe uma base ortonormal formada por autovetores tanto de H quanto de iA e,
assim, por autovetores tanto de H quanto de A. Como
N = H + A,
vemos que essa base formada por autovetores de N . Note que, segundo os
Teoremas 10.2 e 10.12, se Hv = av e Av = (ib)v (com a, b R), ento
N v = Hv + Av = (a + bi)v.

i
i

ALinear 2005/12/19 13:25 page 210 #226


i

210

Teoria Espectral Euclidiana

Cap. 10

Suponhamos agora a existncia de uma base ortonormal B consistindo de


autovetores de N . Se N for representado nessa base por

1 0 0
0 2 0

NB = ..
.. . .
.. ,
.
. .
.
0 0 n

ento N representado nessa base por

1
0

NB = ..
.
0

0 0
2 0
.. . .
.
. ..
.
0 n

Como essas matrizes so diagonais, elas comutam. Mas isso implica que N e N
comutam.
2
Note que, em particular, mostramos que autovetores associados a autovalores
distintos de um operador normal so ortogonais. Uma demonstrao alternativa do
Teorema 10.13 sugerida nos exerccios deste Captulo.
Aplicando o Teorema 10.13 obtemos:
Teorema 10.14 Seja U : E E uma aplicao unitria definida no espao
euclidiano complexo E. Ento:
(i) Existe uma base ortonormal formada por autovetores de U ;
(ii) Os autovalores de U tem valor absoluto igual a 1.

Demonstrao: Como U U = I, U tem inversa U 1 = U . Isso implica que U


normal, possuindo assim uma base ortonormal formada por seus autovetores. Se
for um autovetor de U associado ao autovalor v, ento kU vk = kvk = || kvk.
Como U isomtrica, || = 1.
2
Teorema 10.15 (Resoluo Espectral dos Operadores Normais)
Sejam E um espao euclidiano complexo e N : E E um operador
normal, com autovalores distintos 1 , . . . , k . Seja Ej o auto-espao associado

i
i

ALinear 2005/12/19 13:25 page 211 #227


i

10.3

211

Operadores Normais

ao autovalor j , para 1 j k. Se j : E Ej denotar a projeo ortogonal


sobre Ej , ento
k
k
X
X
I=
j e N =
j j .
j=1

j=1

As projees ortogonais j satisfazem


i j = 0,

se i 6= j,

j2 = j

e j = j .

Demonstrao: De acordo com o Teorema 10.13, vale


E = E1 Ek ,
em que os espaos Ej so ortogonais dois a dois. Em outras palavras,
x = x1 + . . . + xk ,

xj Ej ,

(10.7)

com xi xj para i 6= j. Definimos ento j (x) = xj . Claramente j uma


aplicao linear, satisfazendo j2 = j e i j = 0 se i 6= j. A expresso (10.7)
pode ser escrita como
k
X
I=
j .
j=1

Aplicando o operador N em (10.7), como os elementos no-nulos de Ej so


autovetores associados ao autovalor j , obtemos
N x = N x1 + . . . + N x k = 1 x1 + . . . + k xk =

k
X

j j (x).

j=1

Falta apenas mostrar que as projees j so auto-adjuntas. Se y = y1 + . . . + yk


com yj Ej , ento
+
*
k
k
X
X
hxj , yi i = hxj , yj i
hj x, yi =
xj ,
yi =
i=1

k
X
i=1

hxi , yj i =

i=1

* k
X
i=1

devido ortogonalidade dos espaos envolvidos.

x i , yj

= hx, j yi,
2

i
i

ALinear 2005/12/19 13:25 page 212 #228


i

212

Teoria Espectral Euclidiana

Cap. 10

Corolrio 10.16 Sejam E um espao euclidiano complexo e M, N : E E


operadores, N sendo normal. Todo auto-espao de N invariante por M se, e
somente se, N M = M N .
Demonstrao: Se N M = M N , repetindo o argumento em 10.6, vemos que todo
auto-espao de N invariante por M . PorP
outro lado, o Teorema 10.15 garante a
existncia da decomposio espectral N = j j j , sendo j a projeo ortogonal
associada ao auto-espao Ej de P
N . Em virtude
P da Proposio 5.10, temos que
M j = j M . Mas ento M N = j j M j = j j j M = N M .
2
Observao 10.17 Uma maneira alternativa de se verificar que N M = M N
implica que os auto-espaos do operador normal N so invariantes por M a
seguinte: de acordo com o Teorema Espectral 7.3, as projees ortogonais de N
so polinmios em N . Assim, se M comuta com N , comuta tambm com essas
projees. Mas ento o resultado decorre da Proposio 5.10.

Utilizando o Exerccio 29 do Captulo 8 e o Corolrio 10.16, a prova do prximo
resultado repete inteiramente a demonstrao de 10.6 e pode ser generalizada para
vrios operadores normais que comutam dois a dois:
Proposio 10.18 (Diagonalizao simultnea de operadores normais)
Sejam M, N : E E operadores normais definidos no espao euclidiano
complexo E. Ento M N = N M se, e somente se, existir uma base ortonormal de
E formada por elementos que so, ao mesmo tempo, autovetores de M e N .

10.4

Operadores Normais em Espaos Reais

Agora obteremos a representao de operadores normais em espaos


euclidianos reais.
Comeamos com uma observao: considerado um espao euclidiano real E,
ento
hu1 + iv1 , u2 + iv2 i := (hu1 , u2 i + hv1 , v2 i) + i(hv1 , u2 i hu1 , v2 i)
define um produto interno em EC , que satisfaz
hu + iv, u + ivi = hu, ui + hv, vi.

i
i

ALinear 2005/12/19 13:25 page 213 #229


i

10.4

213

Operadores Normais em Espaos Reais

Lema 10.19 Seja T : E E um operador definido no espao euclidiano real E.


Ento TC (u + iv) = T u + iT v. Portanto, a complexificao de um operador
normal (respectivamente, auto-adjunto e antiauto-adjunto) um operador normal
(respectivamente, auto-adjunto e antiauto-adjunto).
Demonstrao: Sejam s, t, u, v E. Ento
hTC (u + iv), s + iti =
=
=
=

hTC (u + iv), si ihTC (u + iv), ti


hT u + iT v, si ihT u + iT v, ti
hu, T si + ihv, T si ihu, T ti + hv, T ti
hu + iv, T s + iT ti.

Est assim mostrado que TC (u + iv) = T u + iT v. Se N : E E for normal,


ento
NC NC (u + iv) = N N u + iN N v = N N u + iN N v = NC NC (u + iv)
prova a afirmao sobre operadores normais. As outras so imediatas.

Teorema 10.20 Sejam E um espao euclidiano real e N : E E um operador


normal. Ento, existe uma base ortonormal de E na qual N representado por
uma matriz diagonal em blocos, com blocos diagonais A1 , . . . , Ak , sendo


j j
,
Aj = j R
ou
Aj =
j j
o ltimo caso ocorrendo quando j = j +ij for um autovalor da complexificao
NC : EC EC .
Demonstrao: J vimos que a complexificao NC de N uma aplicao normal.
De acordo com o Teorema 10.13, NC possui uma base formada por autovetores
normais. O argumento apresentado na primeira prova do Teorema 10.4 mostra que
os autovalores reais de NC podem ser associados a autovetores reais. Se y = u + iv
for um autovetor de NC associado ao autovalor complexo = + i, ento y um
(como se verifica imediatamente). Assim,
autovetor de NC associado ao autovalor
obtemos uma decomposio ortogonal de EC na forma
E = < x1 > < xk >
(< y1 > < y1 >) (< y > < y >),

(10.8)

i
i

ALinear 2005/12/19 13:25 page 214 #230


i

214

Teoria Espectral Euclidiana

Cap. 10

em que x1 , . . . , xk so autovetores reais de NC (e, portanto, de N ), y1 , y1 , . . . , y , y


so autovetores associados aos autovalores complexos de NC .
Consideremos um autovetor y = u + iv de NC associado ao autovalor complexo
= + i. Ento {u, v} uma base do subespao < y > < y > em (10.8).
(Repetimos essa argumentao, para comodidade do leitor: u, v < x > < x >
e geram essa soma direta; logo, formam uma base.) Temos que u v em E. De
fato, como u iv tambm um autovetor de NC (associado a um autovalor distinto
daquele de u + iv),
0 = hu + iv, u ivi = kuk2 + ihu, vi + ihv, ui kvk2 .
A igualdade anterior mostra que kuk = kvk e tambm que
u v.
Normalizando os vetores escolhidos, obtemos uma base ortonormal.
Finalmente, como
NC u + iNC v = (u v) + i(u + v),
a representao matricial da restrio de NC ao subespao < y > < y >



.

Assim, a representao de NC numa base assim construda tem a forma afirmada
no teorema. Como a base utilizada formada por vetores reais, a representao de
N coincide com a de NC nessa base.
2
Note que a demonstrao do Teorema 10.20 foi uma conseqncia imediata de
fatos mostrados anteriormente, que foram relembrados no decorrer de sua prova.
O seguinte corolrio decorre dos Teoremas 10.12 e 10.20 (pois a
complexificao de um operador antiauto-adjunto um operador antiauto-adjunto):
Corolrio 10.21 Seja A : E E um operador antisimtrico definido no espao
euclidiano real E. Existe uma base ortonormal de E na qual A representado por
uma matriz diagonal em blocos, com blocos diagonais A1 , . . . , Ak , sendo


0 j
,
Aj = 0 R ou Aj =
j 0
o ltimo caso ocorrendo quando j = 0 + ij for um autovalor da complexificao
NC : EC EC .

i
i

ALinear 2005/12/19 13:25 page 215 #231


i

10.4

Operadores Normais em Espaos Reais

215

Teorema 10.22 Seja T : E E um operador ortogonal definido no espao


euclidiano real E. Ento existe uma base ortonormal B na qual T uma matriz
diagonal em blocos, com blocos diagonais iguais a 1, 1 e blocos 2 2 da forma


cos sen
.
sen cos
Demonstrao: Como T normal, o Teorema 10.20 mostra a existncia de uma
base ortonormal com blocos de tamanho 1 1 ou 2 2.
O Teorema 10.14 garante que os autovalores de T tm valor absoluto igual a 1.
Como T uma isometria, a imagem de uma base ortonormal uma base ortonormal.
Isso mostra que cada coluna das matrizes diagonais 2 2 devem ter norma 1. Mas,
de acordo como o Teorema 10.20, essa matriz tem a forma



.

Como 2 + 2 = 1, podemos escrever essa matriz na forma


cos sen
.
sen cos

Corolrio 10.23 Todo operador ortogonal definido num espao euclidiano de


dimenso mpar possui um autovalor real.
Para interpretarmos geometricamente a imagem de operadores normais em
espaos euclidianos reais, comeamos por considerar um dos bloco presentes na
representao matricial de um operador ortogonal:


cos sen
.
sen cos
Quando submetidas a mudanas de bases ortonormais, matrizes desse tipo
preservam a sua forma ou so transformadas em matrizes

 

cos() sen ()
cos sen
.
=
sen () cos()
sen
cos
(Veja o Exerccio 31.)

i
i

ALinear 2005/12/19 13:25 page 216 #232


i

216

Teoria Espectral Euclidiana

Cap. 10

Tais matrizes correspondem a rotaes nos espaos bidimensionais associados


(Compare com o Exemplo
aos pares de autovalores complexos conjugados , .
3.5.)
Nos espaos associados a autovalores reais, um operador ortogonal age como
a identidade I ou como I. A presena do autovalor 1 garante a existncia de
uma reflexo com relao direo do autovetor que satisfaz T x = x. Matrizes
diagonais com todas as suas entradas diagonais iguais a 1, exceto uma, que igual
a 1, so chamadas reflexes simples. Do mesmo modo, matrizes diagonais em
bloco com todos os blocos diagonais iguais a 1, exceto um bloco 2 2, que ento
corresponde a uma rotao, so chamadas rotaes simples. fcil verificar que
todo operador ortogonal o produto de rotaes simples e reflexes simples.
Consideremos um operador anti-simtrico. Os autovetores correspondentes ao
autovalor 0 pertencem ao ncleo do operador. O bloco


0
0
corresponde a uma rotao (no sentido anti-horrio) de um ngulo seguida de uma
alterao de tamanho correspondente multiplicao por . (Se < 0, temos uma
reflexo.)
Uma vez que um operador simtrico diagonalizvel, ele produz alteraes de
tamanho (correspondentes multiplicao pelo autovalor ) em todas as direes
correspondentes aos seus autovetores.
Finalmente, consideremos um bloco




de um operador normal. Uma vez que
 p




cos sen
2
2
= +
,

sen
cos

vemos que esse bloco a combinao de uma rotao


com uma alterao de
p
2
tamanho, correspondente multiplicao pelo fator + 2 .

10.5

Valores Singulares

Dado um operador T : X X definido no espao de dimenso finita X,


vimos que a sua representao matricial TB com relao a uma base B de X nem

i
i

ALinear 2005/12/19 13:25 page 217 #233


i

10.5

217

Valores Singulares

sempre diagonalizvel, a forma cannica de Jordan nos indicando qual a forma


mais simples que esse operador pode assumir.
Se permitirmos a utilizao de bases distintas no domnio e contradomnio, a
representao matricial TBC de todo operador T : X X pode ser bem simples.
(Compare com o Exerccio 39 do Captulo 3.)
A utilizao de bases distintas no domnio e contradomnio permite tambm
considerarmos aplicaes lineares T : X Y com domnio e contradomnio
distintos. Restringiremos a nossa apresentao ao caso em que X e Y so espaos
euclidianos. (O leitor interessado no caso geral pode consultar, por exemplo, [25].)
Para introduzirmos a decomposio de uma aplicao T : X Y em valores
singulares, comeamos com o seguinte exemplo:
Exemplo 10.24 A matriz
A=

2 0 0
0 1 0

leva S 2 := {w R3 | kwk = 1} na elipse


x2
+ y 2 = 1.
4
De fato, o ponto w = (x, y, z) R3 levado no ponto (2x, y) R2 . Esse ltimo
claramente satisfaz a equao da elipse dada.
y6

AFigura 10.1:
A matriz A transforma a esfera S 2 R3 em uma elipse no R2 .

Mostraremos que toda aplicao linear T : Rn Rm tem comportamento


semelhante quele apresentado no Exemplo 10.24: T transforma a esfera unitria
S n1 = {x Rn | kxk = 1} Rn em um elipside k-dimensional no espao Rm .

i
i

ALinear 2005/12/19 13:25 page 218 #234


i

218

Teoria Espectral Euclidiana

Cap. 10

Teorema 10.25 (Decomposio de Aplicaes em Valores Singulares)


Sejam E, F espaos euclidianos e T : E F uma aplicao linear de posto
r. Ento existem bases ortonormais B = {v1 , . . . , vn } de E e C = {w1 , . . . , wm }
de F tais que
T vi
T vi
T wi
T wi

= i wi
= 0
= i vi
= 0

para
para
para
para

i {1, . . . , r}, com i > 0


i {r + 1, . . . , n},
i {1, . . . , r},
i {r + 1, . . . , m}.

Denotando por D1 a matriz diagonal r r

D1 =
...

(10.9)
(10.10)
(10.11)
(10.12)

a representao TBC , portanto, a matriz m n




D1 0
C
.
D = TB =
0 0

Os escalares 1 , . . . , r so os valores singulares da aplicao linear T : E F .

Demonstrao: O Exemplo 10.8 mostra que T T : E E um operador positivo


semidefinido. Temos ker T = ker(T T ). De fato,
T v = 0 hT v, T ui = 0 u E hT T v, ui u E T T v = 0.
Isso mostra que posto(T T ) = n dim(ker T T ) = n dim(ker T ) = r.
Uma vez que T T um operador auto-adjunto, o Teorema 10.2 (ou o Teorema
10.4) garante a existncia de uma base ortonormal B = {v1 , . . . , vn } de E formada
por autovetores de T T . Como os autovalores de T T so no-negativos, temos
assim que
T T (vi ) = 2i vi , i = 1, . . . , r

e T T (vi ) = 0, i = r + 1, . . . , n.

Para obtemos uma base de F definimos, para i {1, . . . , r},


wi =

1
T (vi ).
i

i
i

ALinear 2005/12/19 13:25 page 219 #235


i

10.5

219

Valores Singulares

Para esses valores de i temos T vi = i wi , enquanto T vi = 0 para i {r+1, . . . , n},


pois ker T = ker T T . (Logo, os vetores vr+1 , . . . , vn formam uma base ortonormal
de ker T , se esse subespao for no-vazio.) As equaes (10.9) e (10.10) esto
satisfeitas e obtivemos a matriz D1 .
Precisamos mostrar que {w1 , . . . , wr } base ortonormal de im T . Se i, j
{1, . . . , r}, ento
1
1
hT vi , T vj i =
hT T vi , vj i
i j
i j
1
i
i
=
h2i vi , vj i = hvi , vj i = ij ,
i j
j
j

hwi , wj i =

em que ij = 0 se i 6= j e ii = 1. Como dim(im T ) = r, provamos o afirmado.


A equao (10.11) decorre imediatamente de


1
1

T vi = T T vi = i v i .
T wi = T
i
i
Seja {wr+1 , . . . , wm } uma base ortonormal de ker T . Esses vetores satisfazem
(10.12). De acordo com o Teorema 8.16, ker T = (im T ) . Assim, os vetores
{w1 , . . . , wm } formam uma base ortonormal de F , completando a prova.
2
Usualmente a base B ordenada de modo que 1 2 . . . r .
Sejam A uma matriz m n, En e Em as bases cannicas do Rn e Rm ,
respectivamente. Sejam B e C, respectivamente, as bases ortonormais do Rn e Rm
dados pelo Teorema 10.25. Ento, se denotamos por P a matriz PEBn e por Q a
matriz QECm , temos
A = QDP,
chamada decomposio em valores singulares da matriz A. Note que as matrizes P
e Q so ortogonais.
Observao 10.26 A decomposio matricial de A mostra que toda esfera no Kn
transformada num elipside k-dimensional no Km . De fato, as matrizes Q e P so
isometrias, enquanto D aumenta ou diminui o tamanho dos autovetores.

Exemplo 10.27 Consideremos a matriz real

1 1
A = 1 1 .
0 0

i
i

ALinear 2005/12/19 13:25 page 220 #236


i

220

Teoria Espectral Euclidiana

Cap. 10

Para obter a decomposio de A em valores singulares, obtemos a matriz At A;




2 2
t
,
AA=
2 2
cujos autovalores
so 1
= 4 e 2 = 0. Os valores singulares de A so, portanto,

1 = 4 = 2 e 2 = 0 = 0. A matriz P , cujas colunas so os autovetores


normalizados de At A


1
1
1
.
P =
2 1 1
O vetor w1 dado por

1
1
1
w1 = Av1 = 1 .
1
2
0

Para obtermos os vetores w2 e w3 , achamos uma base ortonormal de ker At


(neste exemplo, no necessrio utilizar o processo de ortogonalizao de GramSchmidt):

0
1
1
w2 = 1 e w3 = 0 .
2
1
0
Portanto,

A = QDP =

1
2
1
2

0
2 0
0 0 0
0 0
0 1

1
2
1

1
2
1
2

1
2
1

.


Exemplo 10.28 Seja A uma matriz m n. Suponhamos que, na decomposio em


valores singulares da matriz A, A = QDP , a matriz D tenha posto r < n. Escreva
a matriz Q em blocos, Q = (Qr Qmr ), a submatriz Qr contendo r colunas de Q
e a submatriz Qmr as (m r) colunas restantes. Do mesmo modo para a matriz
P = (Pr Pnr ). Ento, se D1 for a matriz diagonal com os valores singulares de A,
temos
 t 

Pr
D1 0
= Qr D1 Prt .
A = (Qr Qmr )
t
Pnr
0 0
Essa a decomposio reduzida em valores singulares de A, que pode ser feita
mesmo se a matriz A tiver posto mximo. Como os valores singulares de A so
positivos, podemos definir a matriz
A+ : Pr D11 Qtr ,

i
i

ALinear 2005/12/19 13:25 page 221 #237


i

10.5

Valores Singulares

chamada pseudo-inversa de A ou inversa de Moore-Penrose.

221

Observao 10.29 A determinao do posto de uma matriz A, m n, por meio de


seu escalonamento muitas vezes no vivel numericamente, devido a propagao
de erros no processo computacional. A decomposio dessa matriz em valores
singulares oferece uma soluo para esse problema.

Em analogia forma polar de um nmero complexo, existe a decomposio
polar de um operador arbitrrio T no espao euclidiano E:
Teorema 10.30 (Decomposio Polar)
Seja T : E E um operador arbitrrio no espao euclidiano E. Ento existem
operadores P, U : E E, com P positivo semidefinido e U unitrio (ortogonal)
de modo que T = P U . O operador P nico. Se T for invertvel, ento U tambm
nico.
Demonstrao: Considere as bases ortonormais B e C dadas pelo Teorema 10.25
aplicado ao operador T . Ento T vi = i wi , com i 0 para todo i {1, . . . , n}.
Definimos P, U : E E por P wi = i wi e U vi = wi . Claramente P autoadjunto e positivo semidefinido (de acordo com o Lema 10.9), enquanto U unitrio
e T = P U.
Como T = U P , vem T T = P U U P = P 2 . Assim, P a nica raiz
quadrada positiva semidefinida de T T (veja o Exemplo 10.8 e o Teorema 10.10).
Se T possuir inversa, P possui inversa e U = P 1 T garante a unicidade de U nesse
caso.
2
Na decomposio polar T = P U , P e U geralmente no comutam. Na verdade,
eles comutam apenas quando T for normal. (Veja o Exerccio 23.)
Corolrio 10.31 Todo operador linear T : E E no espao euclidiano E pode
ser escrito na forma T = U P , com P positivo semidefinido e U unitrio. As
unicidades de P e U so como antes.
Demonstrao: Basta aplicar o Teorema 10.30 ao operador T e, ento, tomar o
adjunto.
2

i
i

ALinear 2005/12/19 13:25 page 222 #238


i

222

Teoria Espectral Euclidiana

10.6

Cap. 10

Exerccios

1. O Teorema 9.14 mostra que toda matriz simtrica congruente a uma matriz
diagonal. Dada a equivalncia entre os Teoremas 9.11 e 9.14, podemos
concluir que a Lei da Inrcia uma afirmao sobre matrizes simtricas. Ela
garante que, no Teorema 9.14, o nmero de termos positivos, negativos e
nulos na matriz diagonal D independe da mudana de varivel utilizada. Por
outro lado, sabemos que, se D for a diagonalizao da matriz A, ento os
elementos diagonais de D so os autovalores de A. Mas sabemos que os
autovalores de A independem da base na qual a matriz representada. Isso
no implica a Lei da Inrcia?
2. Considere a matriz simtrica

4 2 2
A = 2 4 2 .
2 2 4

Ache uma matriz ortogonal (isto , P t = P 1 ) e uma matriz diagonal D tais


que
P 1 AP = D.
3. Sejam E um espao euclidiano e T : E E uma isometria. Se for um
autovalor de T , mostre que || = 1.
4. Sejam E um espao euclidiano complexo e um autovalor do operador
normal T : E E. Mostre que todo autovetor de T autovetor de T
Conclua ento que autovetores associados a
correspondente ao autovalor .
autovalores distintos de um operador normal so sempre ortogonais.
5. Seja E um espao euclidiano complexo. Sejam S, T : E E operadores
lineares, com ST = T S. Mostre que ST tem um autovetor em comum.
6. Sejam N : E E um operador normal no espao euclidiano complexo E.
Mostre que, se x for um autovetor de N , ento W = < x > invariante por
N e N .
7. Mostre, por induo, que todo operador normal N : E E definido em
um espao euclidiano complexo E possui uma base ortonormal formada por
autovetores.

i
i

ALinear 2005/12/19 13:25 page 223 #239


i

10.6

Exerccios

223

8. Considere uma base ortonormal {x1 , . . . , xn } formada por autovetores do


operador normal N : E E, definido no espao euclidiano E. Mostre
que N N xi = N N xi e conclua que N normal.
9. Sejam R, S, T : E E operadores auto-adjuntos definidos no espao
euclidiano E. Suponha que RT = T R, ST = T S e que em cada autoespao de T , tanto R quanto S tenham um nico autovalor. Mostre que R
possui uma base ortonormal formada por elementos que so autovetores das
trs aplicaes.
10. Seja T : E F uma aplicao linear entre espaos euclidianos. Qual a
relao entre os autovalores de T T e os de T T ?
11. Seja T : E E um operador linear definido no espao real E. Mostre que
existe uma base ortonormal B na qual TB diagonal se, e somente se, T for
auto-adjunto.
12. Seja T : E F uma aplicao linear entre os espaos euclidianos E e F .
Mostre:
(a) se T for injetora, ento T T possui inversa;
(b) im T = im (T T ) e im T = im (T T );
(c) se T for sobrejetora, ento T T possui inversa.
13. Mostre que um operador T positivo definido se, e somente se, T 0 e T
for invertvel.
14. Mostre que so equivalentes as seguintes condies sobre um operador P :
E E definido num espao euclidiano E.
(a) P = T 2 para algum operador auto-adjunto T ;
(b) P = S S para algum operador S;
(c) P positivo semidefinido.
15. Com
a notao do Teorema 10.10 mostre, utilizando o clculo funcional, que
P = H positiva semidefinida.

i
i

ALinear 2005/12/19 13:25 page 224 #240


i

224

Teoria Espectral Euclidiana

16. Verifique que a matriz


A=

2 i
i 2

Cap. 10

normal. Encontre uma matriz unitria U tal que U AU seja diagonal.


17. Seja E um espao euclidiano complexo e N : E E um operador norma.
Verifique que o procedimento utilizado na demonstrao alternativa dos
Teoremas 10.2 e 10.4, na pgina 204, tambm prova que N diagonalizvel.
18. Mostre que, se todos os autovalores de uma aplicao T : E E tiverem
valor absoluto igual a 1, ento T unitria.
19. Seja N : E E um operador normal no espao euclidiano E. Mostre que
existe uma matriz unitria (ortogonal) U tal que N = U N e, ento, que
im N = im N .
20. Seja N um operador normal no espao euclidiano E. Mostre que existe
um operador auto-adjunto A positivo semidefinido e um operador unitrio
(ortogonal) U tal que
N = U A = AU.
Se N for invertvel, U e A so nicos. ( usual denotar A = |N |. Compare
com o Exerccio 19.)
21. Seja N : E E um operador no espao euclidiano E. Usando o clculo
funcional, mostre que N um polinmio em N se, e somente se, N for
normal. (Compare com o Exerccio 42 do Captulo 8.)
22. D exemplos de operadores M, N : E E definidos no espao euclidiano
complexo E, com N normal, tais que os auto-espaos de M sejam invariantes
por N e N M 6= M N .
23. Mostre que, na decomposio polar T = P U do operador T : E E,
temos P U = U P se, e somente se, T for normal. (Esse enunciado merece
interpretao, uma vez que em geral no h unicidade de U . Se T for normal,
ento P comuta com toda matriz unitria tal que T = P U . Reciprocamente,
se P comuta com algum U tal que T = P U , ento T normal.)
24. Seja A uma matriz (real) anti-simtrica. Mostre que A2 uma matriz
simtrica negativa semidefinida. Conclua da que os autovalores no-nulos
de uma matriz anti-simtrica so imaginrios puros.

i
i

ALinear 2005/12/19 13:25 page 225 #241


i

10.6

225

Exerccios

25. Sejam S, N : E E operadores no espao euclidiano E, sendo N normal.


Mostre que N S = SN implica N S = SN .
26. Sejam M, N : E E operadores normais no espao euclidiano E. Se
M N = N M , mostre que M N = N M e M N = N M . Em particular,
N M normal.
27. Sejam M, N : E E operadores normais definidos no espao euclidiano
complexo E e S : E E um operador arbitrrio. Mostre que, se
N S = SM , ento N S = SM .
28. Sejam M, N : E E operadores normais definidos no espao euclidiano E.
Suponha que M N seja normal. Mostre que N comuta com M M .
29. Sejam M, N : E E operadores normais definidos no espao euclidiano E.
Suponha que M N seja normal. Mostre que N M normal.
30. Sejam S, T : E E dois operadores auto-adjuntos no espao euclidiano
E. Mostre que ST = T S se, e somente se, existe um operador auto-adjunto
R : E E tal que S = p(R) e T = q(R).
31. Mostre que uma matriz

cos sen
sen cos

preserva sua forma ou transformada na matriz




cos() sen ()
sen () cos()
quando submetida a uma matriz mudana de base ortogonal.
32. D um exemplo mostrando que no h unicidade de U na decomposio polar
de T : E E, se esse operador no for invertvel.
33. Sejam E, F espaos euclidianos. Dois operadores lineares T : E E e
S : F F so unitariamente equivalentes se existir uma aplicao linear
unitria U : E F tal que U SU = T . Mostre que S, T so unitariamente
equivalentes se, e somente se, existirem bases ortonormais B de E e C de F
tais TB = SC .

i
i

ALinear 2005/12/19 13:25 page 226 #242


i

226

Teoria Espectral Euclidiana

Cap. 10

34. Com a notao do Exerccio 33, sejam S e T operadores normais. Mostre


que os operadores S e T so unitariamente equivalentes se, e somente se,
tiverem o mesmo polinmio mnimo. Conclua que dois operadores normais
semelhantes so sempre unitariamente equivalentes.
35. Sejam A, B Mnn (R) matrizes unitariamente equivalentes. Mostre que
A e B so ortogonalmente equivalentes, isto , existe uma matriz ortogonal
P Mnn (R) tal que P AP = P t AP = B.
36. ("Diagonalizao" simultnea de duas formas quadrticas). Em geral
no possvel encontrar uma mudana de varivel Qx = z que diagonalize
simultaneamente as formas quadrticas simtricas q1 (x) e q2 (x). D um
exemplo em que essa diagonalizao impossvel. Por outro lado, se q1
for uma forma quadrtica hermitiana (simtrica) positiva definida e q2 uma
forma quadrtica hermitiana (simtrica), ento possvel diagonaliz-las
simultaneamente. Mais precisamente, sejam H, K matrizes hermitianas, H
sendo positiva definida. Mostre que existe uma matriz Q tal que Q HQ = I
e Q KQ diagonal.

i
i

ALinear 2005/12/19 13:25 page 227 #243


i

11
Decomposies Matriciais
Neste Captulo estudaremos as decomposies matriciais de Cholesky, Schur
e QR. Os resultados que apresentaremos so bastante teis na lgebra Linear
Numrica.

11.1

A Decomposio de Cholesky

Como vimos no Lema 10.9, um operador auto-adjunto positivo definido se, e


somente se, todos os seus autovalores forem positivos.
Lema 11.1 Seja A uma matriz n n simtrica positiva definida. Ento cada uma
das submatrizes principais Ar positiva definida (e, portanto, det Ar > 0) para
1 r n.
Demonstrao: Seja x = (x1 , . . . , xr ) Rr um vetor no-nulo arbitrrio e defina
x = (x1 , . . . , xr , 0, . . . , 0) Rn . Como
hx , Ar x i = hx, Axi
e A positiva definida, o resultado segue-se da.

Note que o Lema 11.1 combinado com a Proposio A.4 garante que uma matriz
positiva definida A possui decomposio LU , obtida mediante a sucessiva aplicao
da operao elementar do tipo (c) matriz A. Em particular, A possui uma fatorao
LDU , a matriz diagonal D = (dii ) tendo seus elementos diagonais positivos. Mas,
como a matriz A simtrica, temos
LDU = A = At = U t DLt .

227
i

i
i

ALinear 2005/12/19 13:25 page 228 #244


i

228

Decomposies Matriciais

Pela Proposio A.3 temos Lt = U , de modo que A =


como a matriz

d11 0

0
0
d22
0

D1/2 = ..
..
.
.
dnn
0
0

Cap. 11

LDLt . Definindo D1/2

Mas, ento, A = LDLt = (LD1/2 )(D1/2 Lt ) = L1 L2 , a matriz L1 sendo


triangular inferior e a matriz L2 sendo triangular superior. Como A = At , segue-se
da que L2 = Lt1 , mostrando que
A = LLt ,
chamada decomposio de Cholesky da matriz A.
Assim, uma matriz n n positiva definida tem duas decomposies: a
decomposio A = LDU e a decomposio de Cholesky A = L1 Lt1 . J vimos
que L1 = LD1/2 , o que nos mostra como obter a decomposio de Cholesky da
matriz A.
O prximo resultado caracteriza as matrizes positivas definidas e apresenta um
resumo dos resultados obtidos nesta seo:
Proposio 11.2 Seja A uma matriz simtrica n n. As seguintes afirmaes so
equivalentes:
(i) A positiva definida;
(ii) As submatrizes principais A1 , . . . , An tm determinante positivo;
(iii) A matriz A tem uma decomposio LDU , com os elementos diagonais da
matriz diagonal D todos positivos;
(iv) A tem uma decomposio de Cholesky A = LLt , sendo L uma matriz
triangular inferior com elementos diagonais positivos.
Demonstrao: J vimos as implicaes (i) (ii) (iii) (iv).
Seja agora x Rn um vetor no-nulo arbitrrio e y = Lt x. Como a matriz Lt
possui inversa, y 6= 0. Assim
hx, Axi = xt (LLt x) = (xt L)(Lt x) = y t y = kyk2 > 0.
Isso mostra que (iv) (i).

i
i

ALinear 2005/12/19 13:25 page 229 #245


i

11.2

11.2

229

A Decomposio de Schur

A Decomposio de Schur

Seja A uma matriz n n no corpo C.


Teorema 11.3 (Schur)
Existe uma matriz unitria U tal que T = U AU triangular superior.
Demonstrao: Faremos induo em n, o resultado sendo bvio para n = 1.
Suponhamos vlido para uma matriz k k qualquer e consideremos A, matriz
(k + 1) (k + 1). Seja w1 um autovetor unitrio associado ao autovalor 1 de
A. O processo de ortogonalizao de Gram-Schmidt assegura a existncia de uma
base ortonormal {w1 , w2 , . . . , wk+1 } para Ck+1 . A matriz R, cuja i-sima coluna
o vetor wi , unitria. Consideremos ento R AR = (R A)R. A primeira coluna
dessa matriz R Aw1 . Mas R Aw1 = 1 R w1 = 1 e1 , pois as linhas de R so
dadas pelos vetores w1 , . . . , wk+1 . Assim, a matriz R AR tem a forma

,
..

.
S
0
em que S uma matriz k k. Pela hiptese de induo, existe uma matriz unitria
V1 tal que T1 = V1 SV1 uma matriz triangular superior. Definimos ento

1 0 0

V = ..
.

.
V1
0
Claramente V unitria e

1 0 0
1
0
0

V (R AR)V = ..
..

.
.
V1
0
0

= ..
=


.
V1 SV1
0

1 0 0
0

..

S
V1
0

= T,
..

.
T1
0

i
i

ALinear 2005/12/19 13:25 page 230 #246


i

230

Decomposies Matriciais

Cap. 11

uma matriz triangular superior. Definimos, ento, U = RV . A matriz U unitria,


pois
U U = (RV ) (RV ) = V R RV = I.
Isso completa a demonstrao.

A demonstrao apresentada continua vlida se A for uma matriz real cujos


autovalores esto no corpo R. Uma prova alternativa do Teorema de Schur
indicada no Exerccio 2. Note que o teorema pode tambm ser formulado para
aplicaes lineares ao invs de matrizes.
Apresentamos, como conseqncia, mais uma prova dos Teoremas 10.2 e 10.4:
Corolrio 11.4 Se A for uma matriz auto-adjunta, ento existe uma matriz unitria
U tal que U AU = D, sendo D uma matriz diagonal. Se A for uma matriz real, a
matriz U ortogonal.
Demonstrao: Seja A hermitiana. De acordo com o Teorema de Schur 11.3, existe
uma matriz unitria U tal que U AU = T , sendo T uma matriz triangular superior.
Mas
T = (U AU ) = U A U = U AU = T,
de acordo com a Proposio 8.30. Isso mostra que T auto-adjunta e, portanto,
uma matriz diagonal.
Se A for real, todos os autovalores de A so reais e, portanto, tambm seus
autovetores. Isso implica que a matriz U ortogonal.
2

11.3

A Decomposio QR

O processo de ortogonalizao de Gram-Schmidt pode ser interpretado como


uma decomposio de uma matriz cujas colunas so linearmente independentes.
Teorema 11.5 (A decomposio QR de uma base)
Seja A uma matriz m n de posto n. Ento
A = QR,
em que Q uma matriz m n com colunas ortonormais e R uma matriz n n
triangular superior com elementos diagonais positivos.

i
i

ALinear 2005/12/19 13:25 page 231 #247


i

11.3

A Decomposio QR

231

Demonstrao: Sejam v1 , . . . , vn as colunas da matriz A. Como essa matriz tem


posto n, esses vetores so linearmente independentes em Km . Aplicando o processo
de ortogonalizao de Gram-Schmidt 8.14 a esses vetores, obtemos os vetores
ortonormais q1 , . . . , qn Km , dados por
!
k1
X
1
qk =
vk
rik qi , (k = 1, . . . , n)
rkk
i=1
em que rik = hvk , qi i para i = 1, . . . , k 1 e rkk a norma do vetor vk
Mas isso quer dizer que

Pk1
i=1

v1 = r11 q1
v2 = r12 q1 + r22 q2
..
..
.
.

rik qi .

(11.1)

vn = r1n q1 + . . . + rnn qn .
Definindo Q como a matriz cujas colunas so os vetores q1 , . . . , qn e R a matriz
triangular superior

r11 r12 r1n


0 r21 r2n

R = ..
.. . .
.. = (r1 r2 rn ),
.
.
.
.
0
0 rnn
temos que a j-sima coluna da matriz QR

QRej = Qrj = r1j q1 + r2j q2 + . . . + rjj qj + 0qj+1 + . . . + 0qn = vj .


Isso mostra que QR = A, completando a demonstrao.

Exemplo 11.6 Considere a matriz

1
0
A=
1
1

1
1
1
0

1
1
.
1
1

Vamos encontrar uma matriz ortogonal P tal que im P = im A e obter a


decomposio QR da matriz A. Em seguida, vamos resolver o sistema Ax = b
para b = (0 0 0 1)t .

i
i

ALinear 2005/12/19 13:25 page 232 #248


i

232

Decomposies Matriciais

Cap. 11

claro que as colunas de A so linearmente independentes. (Por outro lado, o


prprio processo de ortogonalizao de Gram-Schmidt nos mostrar isso.) Se A for
dada em termos de suas colunas (v1 v2 v3 ), aplicando o processo de Gram-Schmidt
a esses vetores obteremos os vetores q1 , q2 e q3 . Denotando Q = (q1 q2 q3 ), temos

3
15
10

10
15
3
15
10
0

5
5

Q = (q1 q2 q3 ) = 3
.
15
10
3
10
15
3
10
2 1515
3
5

Como o espao gerado pelas colunas de A justamente o espao gerado pelas


colunas de Q, a matriz ortogonal P justamente a matriz Q. A matriz R a matriz
que muda da base {v1 , v2 , v3 } para a base {q1 , q2 , q3 } (justifique!). Assim,
23

3 3
3
hq1 , v1 i hq1 , v2 i hq1 , v3 i

15
15

hq2 , v1 i hq2 , v2 i hq2 , v3 i


= 0
R=
.
3
5

10
hq3 , v1 i hq3 , v2 i hq3 , v3 i
0
0
5
Se Ax = b, ento QRx = b e, portanto, Rx = Qt b. Portanto, basta resolver


3
3 23 3 3
x
3

t
15
15
0
y = Q b = 2 1515 .
3
5
10
10
z
0
0
5
5

Obtemos imediatamente


0
x
y = 1 .
1
z

O que pode acontecer quando as colunas v1 , . . . , vn de A forem linearmente


dependentes? Nesse caso, ao ortogonalizarmos as colunas de A, obteremos um
ou mais vetores iguais a zero (veja o Exerccio 24 do Captulo 1). Desprezando
os vetores nulos obtidos, continuaremos a ter uma base ortonormal q1 , . . . , qr para
im A, sendo r o posto da matriz A. A matriz Q = (q1 , . . . , qr ) uma isometria e
posto A = posto Q.
Uma vez que os vetores vi satisfazem a equao (11.1) (mas utilizando apenas
r vetores q1 , . . . , qr ao invs dos n vetores q1 , . . . , qn daquela equao), obtemos

i
i

ALinear 2005/12/19 13:25 page 233 #249


i

11.3

A Decomposio QR

233

R = (rij ) como sendo a matriz n r triangular superior dada por rij = hui , qj i.
Uma vez que Q uma isometria, temos kAxk = kQRxk = kRxk, de modo que
ker A = ker R. Assim, uma vez que A e R tm n colunas,
posto R = n ker R = n ker A = r = posto A.
Condensamos os nossos resultados no seguinte teorema:
Teorema 11.7 (Decomposio QR)
Seja A uma matriz real m n com posto r. Ento podemos escrever
A = QR,
sendo Q a matriz n r de uma isometria satisfazendo im A = im Q e R uma
matriz triangular superior n r de posto r.
Exemplo 11.8 (O problema dos quadrados mnimos - 3a. parte) Seja A uma
matriz real m n. Procuramos o vetor x tal que A
x seja a melhor aproximao
possvel para o vetor b. O vetor x, que melhor aproxima o vetor b, deve ser a
projeo ortogonal de b no espao im A (justifique!).
Vamos resolver esse problema usando a decomposio QR. Procuramos,
portanto, um vetor x tal que b (QR)
x seja perpendicular im Q = im A. Ora,
sabemos que (im Q) = ker Q . Assim, o vetor b (QR)
x pertence ao ncleo de

Q . Logo,
Q (b QR
x) = 0 R
x = Q b.

Uma vez que QR = A, o vetor QQ b justamente a projeo ortogonal de b em


im A.
Consideremos um exemplo concreto: seja a matriz

1 0 1
A = 0 1 2 = (v1 v2 v3 ).
1 1 3

A terceira coluna de A igual a duas vezes a segunda coluna somada primeira.


Se aplicarmos o processo
deGram-Schmidt s
colunas v1 , v2 e v
3 , obteremos os

t
vetores q1 = ((1/ 2) 0 (1/ 2)) e q2 = ((1/ 6) (2/ 6) (1/ 6))t . Assim,
1 1

2
Q= 0
1
2

6
2
6
1
6

i
i

ALinear 2005/12/19 13:25 page 234 #250


i

234

Decomposies Matriciais

A matriz R = (rij ) satisfaz rij = hv1 , qj i. Portanto,


!
R=

2
2

1
2
3
6

4
2
6
6

Cap. 11

Para resolvermos o problema dos quadrados mnimos Ax = (1 1 1)t , basta resolver


! x


2
1
4
2
t
2
2
2
y =Qb=
,
2
0 36 66
3
z

cuja soluo

1
1
x
y = 2 1 + z 2 .
3
1
0
z

O vetor (1 2 1)t pertence ao ncleo de A e o vetor (1 1 0)t a nica soluo


do problema dos quadrados mnimos.


11.4

Exerccios

1. Seja A uma matriz simtrica invertvel. Mostre que A2 uma matriz positiva
definida.
2. Sejam E um espao euclidiano e T : E E um operador cujo polinmio
caracterstico tem suas razes no corpo K. Defina W = < v >, para algum
autovetor v de T e considere E = W W . Ento:
(a) T (W ) W ;

(b) Mostre por induo o Teorema de Schur.

3. Seja B uma base ortonormal de V . Suponhamos que a representao A = TB


do operador linear T : V V seja uma matriz triangular superior. Mostre
que T normal se, e somente se, A for diagonal. Deduza da o Teorema
10.13.
4. Na decomposio de Schur, U AU = T , h unicidade da matriz triangular
superior T ?

i
i

ALinear 2005/12/19 13:25 page 235 #251


i

11.4

235

Exerccios

5. (Desigualdade de Schur) Seja A = (aij ) Mnn (C) e 1 , . . . , n seus


autovalores. Mostre que
n
X
i=1

|i |

n
X

i,j=1

|aij |2

e que a igualdade s se verifica quando A for normal.


6. Conclua, utilizando a desigualdade de Schur, que se M, N so matrizes
normais e M N normal, ento N M normal. (Veja o Exerccio 29 do
Captulo 10.)

i
i

ALinear 2005/12/19 13:25 page 236 #252


i

A
Matrizes Elementares e a
Decomposio LU
Seja A Mmn (K). Vamos mostrar como o escalonamento de uma matriz
pode ser interpretado em termos de uma decomposio da matriz A.
Uma matriz E elementar se puder ser obtida da matriz identidade m m por
meio da aplicao de uma operao elementar. O prximo resultado mostra que a
aplicao de uma operao elementar sobre as linhas da matriz A equivalente
multiplicao desse matriz por uma matriz elementar.
Proposio A.1 Seja e uma operao elementar sobre (as linhas de) a matriz
A Mmn (K) e E a matriz elementar e(I), sendo I a matriz identidade m m.
Ento e(A) = EA.
Demonstrao: A demonstrao deve ser feita para todos os tipos de operao
elementar. Consideraremos apenas a aplicao de uma operao elementar (c): a
linha j ser substituda pela soma da linha j com vezes a linha i. A matriz E,
nesse caso, dada por

1 0
...
..
.

E = 0 ... ... 1 ...


.
..
0 0
...

0
..
.

0
..
.
1

linha j

coluna j

236
i

i
i

ALinear 2005/12/19 13:25 page 237 #253


i

237

Ento

1 0
..
.

EA = 0 . . .
.
..
0 0

a11
..

a
+
= j1 ai1

..

.
am1

0
a11 a12
.. ..
. .

. . . 1 . . . 0 aj1 aj2
.
..
. ..
...
1
am1 am2
...

a12

...

a1n
..
.

aj2 + ai2

...

ajn + ain
..
.

am2

...

amn

que justamente e(A).

...
...
...

a1n
..
.

ajn
..
.
amn

Consideremos o processo de escalonamento de uma matriz A e suponhamos


que E seja uma matriz elementar obtida por meio da operao elementar (b) ou (c).
fcil verificar que tanto a matriz E como sua inversa (que existe!) so matrizes
triangulares inferiores (veja o Exerccio 2).
Tendo em vista a Proposio A.1, dada uma matriz A Mmn (K), obtemos
uma forma escalonada da matriz A ao multiplic-la por matrizes elementares
Ek Ek1 . . . E2 E1 . Quer dizer,
(Ek Ek1 . . . E2 E1 )A = U,
em que U = (uij ) tem todos os seus elementos abaixo da diagonal uii iguais a zero.
Suponhamos que, nesse processo de levar a matriz A a sua forma escalonada,
a operao elementar (a) no tenha sido utilizada. Uma vez que a matriz
Ek Ek1 . . . E2 E1 tem inversa e sua inversa uma matriz triangular inferior (veja
o Exerccio 3), obtemos que
A = LU
em que a matriz L triangular inferior e a matriz U = (uij ) "triangular superior",
significando que uij = 0, se i > j. Essa a decomposio LU da matriz
A Mmn (K). (A decomposio A = LU , quando possvel, usualmente feita
para matrizes quadradas A. Nesse caso, a matriz U uma autntica matriz triangular
superior.)

i
i

ALinear 2005/12/19 13:25 page 238 #254


i

238

Matrizes Elementares e a Decomposio LU

Cap. A

Observao A.2 Se, no escalonamento de A Mmn (K), no for utilizada a


operao elementar (a), a decomposio LU pode ser atingida unicamente por meio
da operao elementar (c): no h necessidade de transformar em 1 o primeiro
elemento no-nulo de cada linha. Assim, suponhamos que por meio das matrizes
elementares E1 ,...,Ek todos os elementos abaixo do piv de cada linha tenham sido
anulados at a coluna j 1, e que o piv da coluna j esteja na linha i, com i j.
Se > i, para anularmos o elemento bj da matriz (bij ) = Ek . . . E1 A, substitumos
a linha pela linha somada a (,j ) vezes a linha i. A essa operao corresponde
a matriz elementar

...

linha i

..
...

.
.

1
linha

,j

.
.

.
1

coluna j
O valor de ,j bj /bij , se bj e bij forem os primeiros elementos no-nulos das
linhas e i, respectivamente, da matriz Ek . . . E1 A. Se multiplicarmos todas as
matrizes que anulam os elementos bj , com > i, obteremos a matriz

1
...

Qj =
.
i+1,j

.
.

..
..
i+r,j
1
fcil verificar que Lj = Q1
existe e tem o mesmo formato da matriz dada.
j
Decorre da que, na decomposio LU da matriz A, todos os elementos da diagonal
principal da matriz L so iguais a 1.

Seja A uma matriz m n. Suponhamos que no tenha sido utilizada a operao
elementar (a) no escalonamento de A e que tenhamos chegado a exatamente n

i
i

ALinear 2005/12/19 13:25 page 239 #255


i

239

pivs. De acordo com a Observao A.2, isso implica que, na decomposio LU


da matriz A, os elementos diagonais da matriz m m L so todos iguais a 1,
enquanto os elementos diagonais da matriz U so justamente os pivs. Podemos
ento escrever a matriz A numa forma mais simtrica: se

u11 u12 u1n


0 u22 u2n
.
..
..
...
.

.
.
.

0 unn ,
U = 0

0 0
0
.
..
..

.
0
0 0
com uii 6= 0, ento podemos decompor U = DU :

DU =

u11 0 0
0 u22 0
..
..
...
.
.
0
0
unn
0
0 0
..
..
.
.

0
0 0

0
0
..
.
0
0
..
.

0
0
..
.
0
0
..
.

0 0

1 u12 /u11 u1n /u11


0
1
u2n /u22
..
..
...
.
.
0
0

1
0
0

0
..
..
.
.

0
0

em que D uma matriz m m e U uma matriz m n, com elementos "diagonais"


iguais a 1. Temos, assim,
A = LDU .
usual escrever A = LDU , chamada decomposio LDU da matriz A.
Proposio A.3 Seja A uma matriz m n. Se A = LU e A = LU , com L, L
matrizes m m triangulares inferiores com elementos diagonais iguais a 1 e
U, U matrizes triangulares superiores com elementos "diagonais" no-nulos, ento
L = L e U = U . Em particular, a decomposio LDU de uma matriz nica.
Demonstrao: Como a matriz L possui inversa, temos U = (L1 L)U . A matriz
quadrada L1 L triangular inferior e tem elementos diagonais iguais a 1. Vamos
mostrar que L1 L =: R = (rij ) a matriz identidade. Temos ri1 = 0 se i 6= 1, o
que pode ser comprovado multiplicando a linha i de R pela primeira coluna de U ,

i
i

ALinear 2005/12/19 13:25 page 240 #256


i

240

Matrizes Elementares e a Decomposio LU

Cap. A

pois RU uma matriz triangular inferior e u11 6= 0. Da mesma forma, multiplicando


as linha de R pela segunda coluna de U , verificamos que ri2 = 0 se i 6= 2 e assim
sucessivamente. Logo R = I e U = U .
Seja D = (dij ) a matriz diagonal m m com dii = uii para i = 1, . . . , n e
djj = 0 se j > n. fcil verificar que existe uma nica matriz triangular superior
U , m n, com elementos "diagonais" iguais a 1, tal que U = DU . Isso completa
a prova.
2
O resultado anterior importante, pois estamos tratando da forma escalonada
da matriz A Mmn (K), que no nica!
Proposio A.4 Seja A uma matriz mn tal que todas suas submatrizes principais
Ar sejam invertveis. Ento A tem uma decomposio LU .
Demonstrao: Como a11 = A1 , o elemento a11 o piv da primeira linha. Existe
ento uma matriz invertvel E, obtida ao se aplicar sucessivamente a operao
elementar (c) de modo a anular todos os elementos de A abaixo do piv. Temos
ento que

a11 a12 a1n


0 b22 b2n

EA = ..
.. .
.
.
0 bm2 bmn
Claramente a submatriz principal de EA


a11 a12
0 b22
resulta da submatriz principal de A


a11 a12
a21 b22

mediante a aplicao de uma operao elementar do tipo (c). Em particular, aquela


submatriz principal de EA invertvel, pois a submatriz de A invertvel (por
hiptese). Da decorre que b22 6= 0, mostrando que b22 um piv da segunda linha
de EA. A prova agora segue-se da por induo.
2
Suponhamos agora que, ao levarmos a matriz A a sua forma escalonada seja
necessria a aplicao da operao elementar (a). Ento no possvel decompor

i
i

ALinear 2005/12/19 13:25 page 241 #257


i

A.1

241

Exerccios

a matriz A na forma LU . Entretanto, podemos considerar as matrizes elementares


que fazem as transposies de linhas necessrias para o escalonamento da matriz
A. Cada matriz dessas ortogonal. Consideremos a matriz P , produto de todas
essas matrizes. (A matriz P uma matriz de permutao, como produto de
transposies).
Consideremos ento a matriz P A. Com essa permutao das linhas de A,
possvel levar a matriz A a uma forma triangular superior por meio unicamente da
operao elementar (c). (Veja o Exerccio 6.) Assim, para a matriz P A vale:
P A = LU.
Como a matriz P ortogonal, temos ento
A = P t LU.

A.1 Exerccios
1. Demonstre a Proposio A.1 com relao s operaes elementares (a) e (b).
2. Mostre que toda matriz elementar tem inversa, e que essa inversa uma
matriz elementar. Mostre que uma matriz elementar surgida no processo de
escalonamento da matriz A uma matriz triangular inferior.
3. Mostre que o produto de matrizes triangulares inferiores (respectivamente,
superiores) uma matriz triangular inferior (resp., superior).
4. Justifique o algoritmo usualmente utilizado para se obter a inversa de uma
matriz.
5. D um exemplo mostrando que possvel ter A = LU = L U , com L, L
matrizes triangulares inferiores com elementos diagonais todos iguais a 1 e
U, U matrizes triangulares superiores. (Compare com a Proposio A.3.)
6. Considere uma matriz A que no tenha decomposio LU . Seja P o produto
de todas as transposies necessrias para tornar possvel o escalonamento de
A. Mostre que P A tem uma decomposio LU .

i
i

ALinear 2005/12/19 13:25 page 242 #258


i

B
Funes de Matrizes:
Comparando Definies
Funes de matrizes so usualmente definidas em duas situaes: ou a funo
f suave nos autovalores da matriz diagonalizvel A = P 1 DP (com D diagonal)
e f (A) definida por P 1 f (D)P , sendo f (D) obtida ao se aplicar f em cada uma
das entradas diagonais de D, ou a funo f analtica e f (A) definida por meio
de uma expanso em srie de potncias de f . Em ambos os casos, a funo f
euclidiana com relao a m.
Nosso objetivo neste Apndice mostrar que o mtodo do clculo funcional
coincide com a definio usualmente empregada em livros tradicionais de lgebra
Linear. Por razes de simplicidade, mostraremos primeiro que a definio
no caso de uma matriz diagonalizvel (isto , f (A) = P 1 f (D)P , como
descrito anteriormente) coincide com a Definio 6.6. Contudo, esse caso est
completamente englobado por aquele de uma matriz na forma de Jordan, que ser
averiguado em seguida.
Comeamos pelo seguinte resultado auxiliar, que mostra como se aplica o
clculo funcional para uma matriz diagonal em blocos:
Lema B.1 Seja f uma funo euclidiana com relao matriz n n em blocos

A=

A1 0 0
0 A2 0
.
..
.. . .
. ..
.
.
0 0 A

242
i

i
i

ALinear 2005/12/19 13:25 page 243 #259


i

243

Ento

f (A) =

f (A1 )
0

0
0
f (A2 )
0
..
..
..
...
.
.
.
0
0
f (A )

Demonstrao: Seja r = a0 + a1 z + a2 z 2 + . . . + am z m o polinmio interpolador


procurado. Claramente vale:

A1 0 0
0 A2 0

f (A) = a0 I + a1 ..
.. . .
..
.
. .
.
0 0 A

Am
0

0
A21 0 0
1
0 Am 0
0 A2 0
2
2

+a2 ..
..
..
.. + . . . + am ..
.. . .
...

.
.
.
.
.
.
.
2
0
0 Am
0 0 A

r(A1 )
0

0
0
r(A2 )
0

= ..
..
..
...
.
.
.
0
0
r(A )
Assim, o resultado estar provado se tivermos

f (Aj ) = r(Aj ).
Para j = 1, . . . , , sejam m e mj os polinmios mnimos de A e Aj ,
respectivamente. Como m(A) = 0, necessariamente cada bloco Aj anulado por
m. Pelo Lema 5.14, temos que m um mltiplo de mj . Como vimos antes da
observao 6.8, isso implica que f (Aj ) = r(Aj ).
2
Consideremos ento o caso de uma matriz diagonalizvel A. Seja, portanto,
f uma funo definida nos autovalores da matriz A = P 1 DP (sendo D matriz
diagonal). A definio usual de f (A) P 1 f (D)P .
De acordo com o Lema B.1, para calcularmos f (D) segundo a Definio 6.6,
basta calcularmos f em cada um dos n blocos diagonais D1 = 1 , . . . , Dn = n

i
i

ALinear 2005/12/19 13:25 page 244 #260


i

244

Funes de Matrizes: Comparando Definies

Cap. B

da matriz D. Como o polinmio mnimo do bloco Dj mj = z j , temos que


f (Dj ) = r(Dj ) = f (j ). Logo

f (1 )
0

0
0
f (2 )
0

f (D) = r(D) = ..
..
.. .
.
.
.
.
.
.
0
0
f (n )
Mas ento

r(A) = r(P 1 DP ) = P 1 r(D)P = P 1 f (D)P,


mostrando que as duas definies coincidem.
Consideremos agora o caso geral: escrevemos A = P 1 JP em que a matriz J
est na forma cannica de Jordan. usual definir f (A) = P 1 f (J)P . (Em alguns
textos de lgebra Linear, apenas o caso de f (z) = ezt analisado.)
Recordamos alguns fatos bsicos sobre a forma cannica de Jordan. Como
sabemos, uma matriz n n complexa (ou uma que possua n autovalores no
necessariamente distintos no corpo K) est na forma cannica de Jordan se ela for
diagonal em blocos

J1 0 0
0 J2 0

J = ..
..
.. . .
.
.
.
.
0 0 Jk
sendo que os blocos Ji possuem a forma

i 1 0 0
0 i 1 0

Ji = ... ... . . . . . . ...

0 0 i 1
0 0 0 i

Estamos denotando por i um dos autovalores da matriz A. Ao mesmo autovalor


i podem estar associados diferentes blocos Ji . Sabemos que existe pelo menos
um bloco di di , sendo di a multiplicidade algbrica do autovalor i (isto , a
multiplicidade de i como fator do polinmio caracterstico de A).
Se J for uma matriz na forma cannica de Jordan, consideremos um bloco J
de tamanho k k, com k d, sendo d a multiplicidade algbrica do autovalor .

i
i

ALinear 2005/12/19 13:25 page 245 #261


i

245

Suponhamos inicialmente que k = d. Nesse caso, como (z )k o polinmio


mnimo (e caracterstico) do bloco, a funo f (Ji ) dada por um polinmio de grau
no mximo igual a k 1, de acordo com a Definio 6.6:
r(z) = ak1 (z )k1 + . . . + a1 (z ) + a0 .
Os coeficientes ai so obtidos pela relaes f (i) () = r(i) (). A regra da cadeia
garante que r(i) () = ai . Assim,
f (k1) ()
(J I)(k1)
f (J ) = f ()I + f ()(J I) + . . . +
(k 1)!

(k1)

f () f 1!() f 2!() f (k1)!()

f ()

0
f
()
1!

.
..
..
.
...
...
(B.1)
=

..
.
.

f ()

0
0
f ()
1!
0
0

0
f ()

Comparando essa expresso, obtida por meio da Definio 6.6, com a definio
de funo de matriz na forma de Jordan1 vemos que elas coincidem.
No caso de blocos k k, com 1 k < d, basta ento notarmos que o polinmio
procurado sempre dever ter grau k 1, pois o polinmio mnimo do bloco (que
coincide com o polinmio caracterstico) tem grau k. Assim, a expresso obtida
continua vlida para qualquer bloco k k.
Para passarmos dos blocos para a matriz na forma cannica de Jordan basta
empregarmos o Lema B.1.

Em [32], o fluxo eJt de uma matriz J na forma cannica de Jordan explicitamente calculado.
Trocando-se a funo exp zt por uma funo f suficientemente suave, obtemos ento uma expresso
idntica equao (B.1). Veja, a esse respeito, [29].
1

i
i

ALinear 2005/12/19 13:25 page 246 #262


i

C
Decomposio Primria
O objetivo deste Apndice apresentar uma demonstrao "tradicional" do
Teorema da Decomposio Primria.
Dizemos que dois polinmios p, q K[t] so primos entre si, se o nico
polinmio mnico que dividir tanto p quanto q for o polinmio 1.
Lema C.1 Sejam p, q K[t]. Se p e q forem primos entre si, ento existem
polinmios a, b K[t] tais que
ap + bq = 1.
Demonstrao: Seja I o conjunto de todos os polinmios da forma ap + bq, com
a, b K[t]. Como I possui elemento no-nulo, existe em I um polinmio no-nulo
de menor grau, que chamaremos d = ap + bq.
Afirmamos que d divide tanto p quanto q. De fato, se d no dividisse p, por
exemplo, teramos p = md + r, em que o grau de r menor do que o grau de d.
Como p e d esto em I, r = p md I, o que contradiz a escolha de d. Logo
r = 0, mostrando o afirmado.
Como p e q so primos entre si, d tem grau zero, isto , d uma constante,
digamos k. Como k 6= 0, escolhendo a = a/k e b = b/k temos
ap + bq = 1.

Corolrio C.2 Sejam p1 , . . . , pk , pk+1 K[t] polinmios primos entre si dois a


dois. Ento p2 . . . pk pk+1 e p1 so primos entre si.

246
i

i
i

ALinear 2005/12/19 13:25 page 247 #263


i

247

Demonstrao: Isso se prova por induo em k. Se k = 1, nada h a provar.


Suponhamos verdadeiro para k = j e seja d um polinmio mnico que divide
p1 e p2 . . . pj pj+1 . Como p1 e pj+1 so primos entre si, existem polinmios a e
b tais que ap1 + bpj+1 = 1. Multiplicando por p2 . . . pj , obtemos ap1 (p2 . . . pj ) +
b(p2 . . . pj pj+1 ) = p2 . . . pj . Como d divide tanto p1 quanto p2 . . . pj pj+1 , vemos que
d divide p2 . . . pj . Mas ento a hiptese de induo garante que d = 1, provando o
afirmado.
2
Lema C.3 Sejam p, q K[t] primos entre si e 0 6= A Mnn (K). Sejam Np , Nq e
Npq os ncleos das matrizes p(A), q(A) e p(A)q(A), respectivamente. Ento
Npq = Np Nq .
Demonstrao: Como existem polinmios a, b K[t] tais que bq + ap = 1, temos
que
b(A)q(A) + a(A)p(A) = I.
Se x Npq , ento b(A)q(A)x Np . De fato, aplicando p(A) a esse ponto, temos
p(A)b(A)q(A)x = b(A)p(A)q(A)x = 0, dada a comutatividade de polinmios
da matriz A. Da mesma forma temos a(A)p(A)x Nq , se x Npq . Como
b(A)q(A)x + a(A)p(A)x = x, mostramos que x = xp + xq , com xp Np e
xq Nq .
Para mostrar que essa decomposio nica, suponhamos que x = xp + xq =
xp + xq . Mas ento y := xp xp = xq xq pertence, simultaneamente, a Np e Nq .
Aplicando b(A)q(A) + a(A)p(A) = I em y, temos
b(A)q(A)y + a(A)p(A)y = y.
Mas b(A)q(A)y = 0 = a(A)p(A)y, de modo que y = 0, o que implica x = xp e
2
xq = xq , mostrando a unicidade da decomposio.
Por induo, obtemos ento o
Corolrio C.4 Seja 0 6= A Mnn (K). Se p1 , p2 , . . . , pk so polinmios em K[t],
primos entre si dois a dois, se Npi denota o ncleo de pi (A) e Np1 ...pk o ncleo de
p1 (A) . . . pk (A), ento
Np1 ...pk = Np1 Npk .

i
i

ALinear 2005/12/19 13:25 page 248 #264


i

248

Decomposio Primria

Cap. C

Definio C.5 Seja p K[t] o polinmio caracterstico da aplicao linear T :


X X, em que X um espao vetorial de dimenso finita n. Suponhamos que
p(t) = [p1 (t)]s1 [pj (t)]sj
seja a decomposio de p em fatores irredutveis, com pi 6= pk para i 6= k.
Definimos, para i = 1, . . . , j, o auto-espao generalizado associado ao polinmio
pi como o conjunto de todos os vetores v X para os quais existe um inteiro
positivo k tal que
[pi (T )]k v = 0.
No caso em que pi (t) = t i , sendo i um autovalor de T , os elementos no-nulos
do auto-espao generalizado so os autovetores generalizados de T associados ao
autovalor i .
Para k N , seja Nk (pi ) o ncleo de [pi (T )]k . Claramente temos que
N1 (pi ) N2 (pi ) .
Como Nk (pi ) um subespao do espao de dimenso finita X para todo k N,
esses subespaos precisam ser todos iguais a partir de certo ndice k N. Seja
di = d(pi ) o menor inteiro positivo com tal propriedade, isto ,
Ndi (pi ) = Ndi +1 (pi ) = ,

mas Ndi 1 (pi ) 6= Ndi (pi ).

O inteiro positivo di o ndice de pi (T ).


Lema C.6 Os subespaos Nk (pi ) so invariantes pelo operador T , para todo
k N . Se Wi = ker[pi (T )]di , ento o polinmio mnimo de T restrito a Wi
[pi (T )]di .
Demonstrao: Seja w Nk (pi ) = ker[pi (T )]k . Ento [pi (T )]k T w =
T [pi (T )]k w = 0, mostrando que T w Nk (pi ).
A afirmao sobre o polinmio mnimo decorre da definio de di .
2
Teorema C.7 (Decomposio Primria)
Seja T : X X uma aplicao linear e p K[t] seu polinmio caracterstico.
Se
p(t) = [p1 (t)]s1 [pj (t)]sj

i
i

ALinear 2005/12/19 13:25 page 249 #265


i

249

for a decomposio de p(t) em fatores irredutveis, com pi 6= pk para i 6= k, ento,


se di for o ndice de pi (T ), o polinmio mnimo de T
m(t) = [p1 (t)]d1 [pj (t)]dj ,
em que 0 < di si para i = 1, . . . , j. Em outras palavras, o polinmio mnimo
possui todos os fatores irredutveis do polinmio caracterstico de T . Alm disso,
X = W1 Wj ,
em que Wi = ker[pi (T )]di , com T (Wi ) Wi .
Demonstrao: Seja m K[t] o polinmio mnimo de T . De acordo com o
Teorema de Cayley-Hamilton 5.22 e o Lema 5.14, os nicos fatores irredutveis
presentes na decomposio de m so fatores irredutveis de p. Incluindo fatores
irredutveis [pi (t)]0 do polinmio caracterstico p que eventualmente estejam
ausentes na decomposio de m, podemos escrever
m(t) = m1 (t) mj (t),
com mi (t) = [pi (t)]ri e ri 0 para i = 1, . . . , j. (Vamos mostrar que ri = di > 0
para todo i = 1, . . . , j).
Como m(T ) = 0, vemos que todo vetor v X pertence ao ncleo de m(T ) =
m1 (T ) mj (T ). Como os polinmios m1 (t) = [p1 (t)]r1 , . . . , mj (t) = [pj (t)]rj
so primos entre si dois a dois, podemos aplicar o Corolrio C.4 e concluir que
X = Nm1 mj = Nm1 Nmj .

(C.1)

Consideremos agora qi (t) := [pi (t)]di . Pela definio de di , se 0 ri di ,


ento Nmi Nqi = Wi e X = Nm1 ...mj Nq1 ...qk . Assim, pelo Corolrio C.4,
X = N q1 N qj = W 1 W j .

(C.2)

Se ri > di ainda temos Nmi Nqi , pois a definio de di garante que Nqi = Nmi .
Em outras palavras, a decomposio (C.2) sempre vlida e, tendo em conta o
Lema C.6, provamos a decomposio afirmada no enunciado do teorema.
Vamos agora provar que ri = di . Denotando Ti = T |Wi , temos que qi (Ti ) = 0,
pela definio de Wi . Assim (q1 . . . qj )T = 0 e, como m(t) o polinmio mnimo
de T , m(t) divide q1 (t) . . . qj (t) e portanto ri di . Mas a definio de di garante
a existncia de x Wi tal que x 6 [pi (T )]ri para ri < di . Como Nmi Nqi , isso
contradiz a existncia das decomposies (C.1) e (C.2). Logo ri = di .
2

i
i

ALinear 2005/12/19 13:25 page 250 #266


i

250

Decomposio Primria

Cap. C

Proposio C.8 Com a notao do Teorema C.7, o subespao Wi = ker[pi (T )]di


tem dimenso igual ao grau de [pi (t)]si , em que si a multiplicidade de pi como
fator irredutvel do polinmio caracterstico p(t).
Demonstrao: Como o polinmio caracterstico de uma matriz n n tem grau
n, basta mostrar que o polinmio caracterstico de T restrito a Wi justamente
[pi (t)]si .
Seja Bi uma base de Wi . Como X = W1 Wj , a representao de T na
base B formada pelos vetores de cada base Bi

A1 0 0
0 A2 0

TB = A = ..
.. . .
.. ,
.
. .
.
0 0 Aj
em que Ai um bloco de tamanho ki ki , em que ki a dimenso de Wi . Assim
det(tI A) = det(tI A1 ) det(tI Aj ).

(C.3)

Observe que det(tI Ai ) o polinmio caracterstico de Ti , a restrio de T ao


subespao Wi . Como o polinmio mnimo de Ti [pi (t)]di (pelo Lema C.6), o
Teorema da Decomposio Primria C.7 garante que o polinmio caracterstico
de Ti uma potncia de pi (t). Da igualdade (C.3) segue-se que o polinmio
caracterstico de Ti [pi (t)]si .
2
Corolrio C.1 Seja X um espao de dimenso finita. Um operador linear T :
X X diagonalizvel se, e somente se, o seu polinmio mnimo for produto de
fatores lineares distintos.
Demonstrao: Suponhamos que T seja diagonalizvel. Sejam 1 , . . . , os
autovalores distintos de T . Ento X possui uma base formada por autovetores de
T , de acordo com o Corolrio 5.6. Considere o polinmio
h(z) = (z 1 ) . . . (z ).
Se v for um autovetor de T associado ao autovalor i , ento (T i I)v = 0. Isso
implica que h(T )v = 0 para qualquer autovetor de T . Como o Teorema Espectral
7.3 implica que o polinmio mnimo e caracterstico possuem os mesmos fatores
irredutveis, mostramos que h o polinmio mnimo de T .

i
i

ALinear 2005/12/19 13:25 page 251 #267


i

251

Reciprocamente, se m(z) = (z 1 ) . . . (z ) for o polinmio mnimo


de T , ento o polinmio mnimo de T |Wi (z i I). Isso quer dizer que
Wi = ker(T i I). Assim, todo elemento de Wi um autovetor de T . Tomando
bases Bi de cada espao Wi , temos que B = {B1 , . . . , B } uma base de X formada
por autovetores de T .
2

i
i

ALinear 2005/12/19 13:25 page 252 #268


i

D
Forma Cannica de Jordan
Neste Apndice apresentamos uma demonstrao direta (isto , sem utilizar o
Teorema Espectral 7.3 ou o Teorema da Decomposio Primria) da existncia e
"unicidade" da forma cannica de Jordan de uma matriz complexa.
Definio D.1 Sejam 1 , . . . , j os autovalores distintos de uma matriz J, n n.
A matriz J est na forma cannica de Jordan se

i 1 0 0
J1 0 0
0 i 1 0

0 J2 0

.. .. . .

.
.
.
.
J = ..
.
. . ,
.. . .
.. , em que Ji = . .

.
. .
.
0 0 i 1
0 0 Jk
0 0 0 i

(Ao autovalor i est associado pelo menos um bloco Ji ; s vezes se define Ji com
a sub-diagonal de 1s situando-se abaixo da diagonal principal. O bloco Ji pode
ser uma matriz 1 1.) O bloco Ji um bloco de Jordan associado ao autovalor i .
Note que o polinmio caracterstico da matriz J da forma
p(z) = (z 1 )s1 . . . (z j )sj .

Assim, o nmero de vezes que o autovalor i aparece na diagonal de J justamente


a sua multiplicidade como raiz do polinmio caracterstico.
Seja T : X X um operador no espao X, com dim X = n. Suponhamos
que T possa ser representado por uma matriz J na forma cannica de Jordan. Isso
significa que existe uma base B de X de modo que J = TB .
Consideremos um dos blocos de Jordan Ji e B B a base do espao invariante
associado a esse bloco (veja o Exerccio 11 do Captulo 5).

252
i

i
i

ALinear 2005/12/19 13:25 page 253 #269


i

253

Se B = {v1 , . . . , vr }, ento
T (v1 ) = v1

e T (vk ) = vk1 + vk ,

para k {2, . . . , r}.

Essa uma cadeia de Jordan de comprimento r. No caso de um bloco 1 1, temos


uma cadeia de comprimento 1 associado ao autovetor responsvel por aquele bloco.
O mtodo de Fillipov fornece uma das provas mais diretas da existncia de
uma base na qual um operador assume a forma cannica de Jordan. Faremos essa
demonstrao adaptando e complementando aquela apresentada em Strang [33].
No enunciado do teorema estamos assumindo que X seja um espao complexo.
Basta, entretanto, que o polinmio caracterstico p de T : X X tenha todas as
suas razes no corpo K.
Teorema D.2 (Jordan)
Seja T : X X um operador no espao complexo X de dimenso n. Ento,
existe uma base de X na qual T representada por uma matriz na forma cannica
de Jordan. Essa representao nica, a menos de ordenamento dos blocos de
Jordan.
Demonstrao: Comeamos mostrando a existncia de uma base na qual o
operador T representado por uma matriz na forma cannica de Jordan.
Para isso, faremos induo em n = dim X, partindo do fato que, se dim X = 1,
ento TB est na forma cannica de Jordan para qualquer base B de X e que essa
representao nica. Suponhamos ento o resultado vlido para qualquer operador
definido num espao Y de dimenso menor do que ou igual a n 1, incluindo
tambm a unicidade (a menos de ordenamento dos blocos) dessa representao.
Consideremos ento um autovalor de T e o operador no-invertvel S =
T I. (Essa passagem acontece para que consideremos uma matriz que no
invertvel, por motivos que ficaro claros mais abaixo.)
Denotemos U = im S. Claramente vale S(U ) U . Uma vez que ker S 6= 0,
temos que r := dim U < n. Se r = 0, ento dim(ker S) = n e T = I est na
forma de Jordan.
Se 1 r n 1, podemos aplicar a nossa hiptese de induo ao operador
S|U : U U . Portanto, existe uma base B1 = {u1 , . . . , ur } de U , com r vetores
pertencentes a cadeias de Jordan (cada uma delas iniciada por um autovetor) tal que,
nessa base, S|U est na forma cannica de Jordan. (Note que os espectros (S) e
(S|U ) coincidem.)
Consideremos ento um espao complementar Y de U com relao a X:
X = U Y.

i
i

ALinear 2005/12/19 13:25 page 254 #270


i

254

Forma Cannica de Jordan

Cap. D

Seja W = Y ker S. O subespao W formado por todos os autovetores de


S correspondentes ao autovalor 0 que no esto em U e tem dimenso k 0. (Se
k = 0, esse espao no considerado.) A escolha de uma base {w1 , . . . , wk } para
W mantm S|U W na forma de Jordan, j que os vetores de W contribuem com
autovetores de S (e, portanto, com blocos 1 1). Mais do que isso, os vetores de W
no do origem a cadeias de Jordan de comprimento maior do que 1: se existisse
v X tal que Sv = w para w W , ento w im S, o que um absurdo.
Tomemos ento V como um complementar de W com relao a Y : Y = V W .
Assim, estamos considerando uma decomposio
X = U V W.
Para mostrarmos o resultado, basta verificar que podemos escolher adequadamente
uma base de V , pois S|U W est na forma cannica de Jordan.
Como dim W = k e o Teorema do Ncleo e da Imagem garante que
dim(ker S) = nr, existem exatamente nrk autovetores de S em U associados
ao autovalor 0 e, portanto, n r k cadeias de Jordan em U associadas a esse
autovalor. Seja uimax o elemento maximal de cada cadeia de Jordan em U associada
ao autovalor 0.
Como uimax U , existe vi X tal que Svi = uimax para todo i = 1, . . . , n
r k. Note que as cadeias relativas ao autovalor 0 em ker S U aumentaram seu
comprimento.
O conjunto {v1 , . . . , vnrk } um conjunto linearmente independente, pois
sua imagem por S o conjunto linearmente independente {u1max , . . . , unrkmax }
formado por todos os elementos maximais das cadeias de Jordan associadas ao
autovalor 0. Afirmamos que os vetores v1 , . . . , vnrk esto todos em V . Como
conseqncia, os vetores ui da base de U , os vetores wi da base de W e os vetores
vi escolhidos formam uma base de X.
Para provar nossa afirmao, notamos que vi 6 W para todo i {1, . . . , n
r k}, pois os elementos de W so autovetores de T . Se fosse vi U para
algum i, chegaramos a uma contradio: se a base de U fosse formada por uma
nica cadeia de Jordan, teramos que os r + 1 vetores {vi , uimax , . . . , u1 } U
seriam todos linearmente independentes e dim U = r; por outro lado, se existissem
distintas cadeias de Jordan em U , a eliminao do elemento maximal de outra cadeia
de Jordan (que no a cadeia formada por uimax , . . . , u1 ) e a introduo do vetor vi
na cadeia uimax , . . . , u1 produziria uma forma de Jordan no subespao U distinta
daquela cuja unicidade garantida pela hiptese de induo. Assim, provamos que
os vetores vi esto no subespao V , para i {1, . . . , n r k}.

i
i

ALinear 2005/12/19 13:25 page 255 #271


i

255

Ao ordenarmos a base B de X assim construda, colocamos os vetores vi


imediatamente aps o respectivo vetor uimax associado ao autovalor 0. Colocamos,
em seguida, todos os vetores wi .
Assim SB est na forma cannica de Jordan. Como SB = [T I]B = TB I,
tambm temos que TB = SB + I uma matriz na forma de Jordan.
Agora consideremos a "unicidade" da forma de Jordan de S. J decompusemos
o espao X como X = U V W , em que ou dim V 1 ou dim W 1 (ou
ambos). Por induo, admitimos a "unicidade" da forma de Jordan em espaos de
dimenso at n 1.
Se dim W 1, temos, por induo, a unicidade da forma de Jordan em U V .
Como os elementos de W no do origem a cadeias de Jordan de comprimento
maior do que 1, temos imediatamente a unicidade (a menos de ordenamento dos
blocos) da forma de Jordan de S.
Suponhamos, ento, que dim W = 0. Quer dizer, estamos considerando uma
decomposio X = U V . Por hiptese de induo, temos a unicidade da forma
de Jordan em U . Como cadeias distintas de Jordan decompem U em subespaos
distintos (aos quais a hiptese de induo aplica-se), podemos assumir que U seja
gerado por uma nica cadeia de Jordan, necessariamente associada ao autovalor 0
de S. Mas como S est na forma de Jordan, existe v V tal que Sv = uimax , para o
vetor mximo da cadeia de Jordan em U . Mas isso implica a unicidade da forma de
Jordan de S. A unicidade (a menos de ordenamento dos blocos) da forma cannica
de T , ento, imediata.
2
J que o mtodo de Filippov indutivo, muitas vezes ele pouco adequado
para a obteno de uma base na qual uma matriz dada assume sua forma de
Jordan posteriormente mostraremos um mtodo efetivo para obter-se uma tal base.
Vejamos, contudo, um exemplo da aplicao do mtodo de Fillipov, seguindo Strang
[33]:
Exemplo D.3 Consideremos a matriz

8
0

A=
0
0
0

0
0
0
0
0

0
0
0
0
0

8
8
0
0
0

8
8
0
0
8

O polinmio caracterstico de A

p(z) = z 3 (z 8)2 .

i
i

ALinear 2005/12/19 13:25 page 256 #272


i

256

Forma Cannica de Jordan

Cap. D

claro que uma base para U := im A dada por {e1 , e2 , e5 }. Assim, o operador
A|U representado por uma matriz 3 3

8 0 8
B = 0 0 8 .
0 0 8

Note que essa matriz equivale eliminao das terceiras e quartas linhas e colunas
da matriz A. Note tambm que (B) = (A) e que o autovalor 8 tem multiplicidade
2.
Para obtermos uma base que coloca B na forma cannica de Jordan, aplicamos
mais uma vez o mesmo mtodo. Claramente o espao coluna de B gerado pelos
vetores x1 = e1 e x2 = e2 + e5 . (Observe que, s segunda e terceira linhas de
B correspondem os vetores e2 e e5 , respectivamente.) Alm disso, Bx1 = 8x1
e Bx2 = 8x2 + 8x1 . Chegamos ento a uma cadeia de Jordan se mudarmos de
escala: definimos u1 = 8x1 e u2 = x2 . Ento Bu1 = 8u1 e Bu2 = 8u2 + u1 .
Assim, a cadeia associada ao autovalor 8 da matriz A est completa (pois 8 raiz
de multiplicidade 2 do polinmio caracterstico de A):


0
8
1
0


e u2 = 0
0
u1 =


0
0
1
0

so os elementos da base procurada responsveis pelo bloco 2 2 associado ao


autovalor 8.
A matriz B tem e2 como um autovetor associado ao autovalor 0.
Be2 = Ae2 = 0.

Isso significa que todos os vetores necessrios para colocar B na forma cannica
de Jordan j foram encontrados e conclui o primeiro passo na obteno da forma
cannica de Jordan da matriz A: a obteno de uma base para im B.
O espao ker A obviamente tem dimenso 2 e gerado pelos vetores e2 e e3 .
A sua interseo com im A gerada por e2 . Isso quer dizer que existe soluo
x R5 para o problema
Ax = e2 .

i
i

ALinear 2005/12/19 13:25 page 257 #273


i

257

A soluo geral de Ax = u3 = e2

1/8

0 + x2

1/8
0

Escolhemos ento a soluo

x=

1
0
0
1
0

0
1
0
0
0

+ x3

0
0
1
0
0

= e4 e1 ,

pois esta no pertence a im A+ker A. (Com a notao da demonstrao do Teorema


D.2, obtemos x V ). Assim, obtemos mais dois elementos da base procurada:
u3 = e2 e v4 = x = e4 e1 .
Finalmente, o ltimo vetor da base procurada um elemento w ker A que no
pertence a im A ker A. (Ou seja, com a notao da demonstrao do Teorema D.2,
obtemos w W .) Assim
w5 = e3 .
A base {u1 , u2 , u3 , v4 , w5 } coloca a matriz A na forma de Jordan. Em outras
palavras, se P = (u1 u2 u3 v4 w5 ) (a matriz P sendo descrita por suas colunas),
ento



0 0
0
8 1

0 8

 0 0  0
1
0
0 1
0 0
P AP = J =
.

0
0 0
0 0

0 0
0 0
(0)
Com uma pequena variao sobre o mtodo de Filippov, podemos aumentar sua
aplicabilidade. Apresentaremos essa modificao no decorrer do prximo exemplo:
Exemplo D.4 Seja

A=

2
1
1
0
1
0

0
2
0
1
1
0

0
0
2
0
1
0

0
0
0
2
1
0

0 0
0 0
0 0
0 0
2 0
1 1

i
i

ALinear 2005/12/19 13:25 page 258 #274


i

258

Forma Cannica de Jordan

Cap. D

O polinmio caracterstico de A p(z) = (z 2)5 (z + 1). Como a matriz A


invertvel, consideremos B = A 2I:

0 0 0 0 0 0
1 0 0 0 0 0

1 0 0 0 0 0

B=
0 1 0 0 0 0 .

1 1 1 1 0 0
0 0 0 0 1 3

O polinmio caracterstico de B q(z) = z 5 (z + 3).


Claramente e6 = (0 0 0 0 0 1)t o (nico) autovetor associado ao autovalor 3.
Ele nos fornece o primeiro vetor da base de Jordan: u1 = e6 . (Se esse vetor no
fosse evidente, resolveramos o sistema (B 3I)x = 0.)
Se b R6 um vetor arbitrrio, escalonando a matriz aumentada (B | b)
encontramos tanto uma base para ker B como para im B:

0 0 0 0 0 0 b1
1 0 0 0 0 0
b2
1 0 0 0 0 0 b2
0 1 0 0 0 0

b4


1 0 0 0 0 0 b3


0 0 1 1 0 0 b5 b2 b4 .
0 1 0 0 0 0 b4
0 0 0 0 1 3

b6



1 1 1 1 0 0 b5
0 0 0 0 0 0

b
+
b
3
2




0 0 0 0 1 3
b6
0 0 0 0 0 0
b1
Assim, uma base para ker B dada por

0
0
0
0

x4

= x4 1
x4
1

3x6
0
x6
0

+ x6

0
0
0
0
3
1

enquanto im B tem como base os vetores de B correspondentes aos pivs (veja o


Exerccio 14 do Apndice A):


0
0
0
0
1 0 0
0


1 0 0

, , e 0 .

0 1 0
0


1 1 1
0
0
0
0
1

i
i

ALinear 2005/12/19 13:25 page 259 #275


i

259

fcil verificar que ker B im B tem como base um autovetor associado ao


autovalor 0.

0
0

0

u=
0 .

3
1
O segundo autovetor associado a 0 no pertence a ker B im B e dado por

0
0

1
v=
1

0
0

Assim, existem apenas dois blocos associados ao autovalor 0. Um deles uma


cadeia de Jordan de tamanho 4 (justifique!) que tem como primeiro vetor
u2 = u;
o outro uma cadeia de Jordan de tamanho 1 criada pelo vetor w6 = v.
Precisamos encontrar os outros elementos da cadeia gerada por u2 . Para isso,
resolvemos
Bx = u2 ,
cuja soluo geral

x=

0
0
3
0
1
0

0
0
1
1
0
0

0
0
0
0
3
1

Escolhemos uma soluo u3 (de Bx = u2 ) com u3 im B. Para que a soluo

i
i

ALinear 2005/12/19 13:25 page 260 #276


i

260

Forma Cannica de Jordan

Cap. D

pertena a esse espao, devemos ter = 3, de modo que obtemos

0
0

0
u3 =
3

4
1

O vetor u4 escolhido como uma soluo em im B de Bx = u3 . Esse sistema tem


como soluo geral

0
3

0
x=
7

1
0

+ 1

0
0

0
0
0
0
3
1

+ 0

3
1

Assim, devemos ter = 3 e = 4/3 para que x im B. Escolhemos ento

0
3

3
u4 =
4

3
34

Finalmente, resolvemos o sistema Bx = u4 e obtemos

3
4

0
,

v5 =

5
4

3
0
vetor que no est em im B + ker B.

i
i

ALinear 2005/12/19 13:25 page 261 #277


i

261

Assim, a matriz P = (u1 u2 u3 u4 u5 w6 ) coloca B na forma cannica de Jordan.


Somando 2I, a matriz A est na forma de Jordan:

(1) 0 0 0 0 0

0
2 1 0 0
0

0
0
2
1
0
0

J =

0 0 2 1 0 .
0

0
0 0 0 2
0
0 0 0 0
0
(2)

No prximo resultado, como no Teorema D.2, no necessrio que X seja
um espao complexo, mas apenas que todos os fatores irredutveis do polinmio
caracterstico p do operador T : X X tenham grau igual a um.
Corolrio D.5 (Teorema Espectral)
Sejam X um espao vetorial complexo de dimenso n e T : X X um
operador linear com polinmio caracterstico
p(z) = (z 1 )s1 (z )s ,
em que os autovalores i , i = 1, . . . , so distintos.
Ento, existem subespaos W1 , . . . , W invariantes por T tais que
X = W1 W .
Alm disso, dim Wi = si , o polinmio mnimos mi de T |Wi mi = (z i )di
e Wi = ker(T i I)di , em que 1 di si o comprimento do maior bloco de
Jordan associado ao autovalor i .
Demonstrao: Basta definir Wi como o espao gerado pelos vetores de todas as
cadeias de Jordan correspondentes ao autovalor i na forma cannica de Jordan.
claro que o polinmio mnimo de T |Wi justamente o comprimento di da
maior cadeia de Jordan presente em Wi . Assim, todo elemento de Wi pertence a
ker(T i I)di . A reciproca obtida ao se representar T numa base na qual T
assume uma forma de Jordan.
2
Esse resultado nos indica como obter diretamente os subespaos Wi : vale
ker(T i I) ( ( ker(T i I)di = ker(T i I)di +1 = = ker(T i I)si .
(D.1)

i
i

ALinear 2005/12/19 13:25 page 262 #278


i

262

Forma Cannica de Jordan

Cap. D

(Para as incluses estritas veja o Exerccio 5 do Captulo 7; as igualdades so


conseqncias de (z i )di e (z i )si serem, respectivamente, os polinmios
mnimos e caracterstico de T |Wi ).
O ndice di do autovalor i encontrado quando essa seqncia de subespaos estabiliza-se. Ou, alternativamente, ker(T i I)di o primeiro subespao da
seqncia que tem dimenso si . Os elementos de ker(T i I)di so os autovetores
generalizados associados a i .
Corolrio D.1 Seja X um espao de dimenso finita. Um operador linear T :
X X diagonalizvel se, e somente se, o seu polinmio mnimo for produto de
fatores lineares distintos.
Demonstrao: Suponhamos que T seja diagonalizvel. Sejam 1 , . . . , os
autovalores distintos de T . Ento X possui uma base formada por autovetores de
T , de acordo com o Corolrio 5.6. Considere o polinmio
h(z) = (z 1 ) . . . (z ).
Se v for um autovetor de T associado ao autovalor i , ento (T i I)v = 0. Isso
implica que h(T )v = 0 para qualquer autovetor de T . Como o Teorema Espectral
7.3 implica que o polinmio mnimo e caracterstico possuem os mesmos fatores
irredutveis, mostramos que h o polinmio mnimo de T .
Reciprocamente, se m(z) = (z 1 ) . . . (z ) for o polinmio mnimo
de T , ento o polinmio mnimo de T |Wi (z i I). Isso quer dizer que
Wi = ker(T i I). Assim, todo elemento de Wi um autovetor de T . Tomando
bases Bi de cada espao Wi , temos que B = {B1 , . . . , B } uma base de X formada
por autovetores de T .
2
Uma conseqncia imediata da forma cannica de Jordan a existncia de uma
decomposio T = D + N , com D diagonalizvel, N nilpotente e N D = DN .
(Veja o Exerccio 3.) Mostraremos agora a unicidade dessa decomposio, seguindo
[22].
Teorema D.6 Seja T : X X um operador no espao complexo de dimenso
finita X. Existe uma nica decomposio T = D + N , com D diagonalizvel, N
nilpotente e DN = N D.
Demonstrao: (Roteiro) Claramente D e N comutam com T . Como Wi =
ker(T i )di invariante por T , esse espao tambm invariante por D e N .

i
i

ALinear 2005/12/19 13:25 page 263 #279


i

D.1

263

Exerccios

Se Ti , Di e Ni denotam as restries T |Wi , D|Wi e N |Wi , respectivamente, ento


(Ti i I) Ni = Di i I.
O
lado esquerdo da igualdade nilpotente (como soma de operadores nilpotentes que
comutam), enquanto o lado direito diagonalizvel. Diagonalizando o lado direito
da igualdade, o lado esquerdo continua sendo nilpotente. Mas isso implica que
Di i I = 0 e, portanto, Ti i I = Ni . Mas essa justamente a decomposio
oferecida pela forma cannica de Jordan.
2
Observao D.7 Apesar de j termos apresentado alguns exemplos de obteno da
forma cannica de Jordan, sugiro que se retorne ao texto principal na Seo 7.4 para
um estudo mais exaustivo do assunto. Contudo, possvel seguir diretamente para
a Seo 7.5.


D.1 Exerccios
1. Mostre que os elementos de uma cadeia de Jordan so linearmente
independentes.
2. Prove diretamente que os vetores vi , ui e wi da demonstrao da forma de
Jordan (Teorema D.2) so linearmente independentes.
3. Considere um operador T : X X, cuja representao matricial na base
B uma matriz J na forma cannica de Jordan. Mostre a existncia de
uma decomposio T = D + N , com D diagonalizvel, N nilpotente e
DN = N D.
4. Complete os detalhes da demonstrao do Teorema D.6. Para isso, confira
os resultados citados naquele esboo de demonstrao nos exerccios do
Captulo 7.

i
i

ALinear 2005/12/19 13:25 page 264 #280


i

E
Sistemas de Equaes
Diferenciais Lineares
Neste Apndice mostraremos brevemente como o clculo funcional pode ser
aplicado no estudo de um sistema (linear) de equaes diferenciais ordinrias. No
temos a pretenso de ser completo ou auto-suficiente: apenas apresentamos algumas
definies bsicas e expomos, utilizando o clculo funcional, a demonstrao de
alguns resultados clssicos.
Resolver um sistema linear de equaes diferenciais, com n equaes (de
primeira ordem) com coeficientes constantes, significa encontrar n funes
continuamente diferenciveis1 x1 , . . . , xn : R R que satisfaam o sistema
x1 = a11 x1 + . . . + a1n xn + b1
x2 = a21 x1 + . . . + a2n xn + b2
..
..
..
..
. =
.
.
.

xn = an1 x1 + . . . + ann xn + bn .
t
Definindo a funo x : R Rn por x(t) = x1 (t) . . . xn (t) , verificamos que
esse sistema pode ser escrito na forma
x = Ax + b,
em que x (t) o vetor obtido derivando-se cada uma das coordenadas do vetor x(t)
e b = (b1 . . . bn )t .
Em consonncia com a nomenclatura empregada no caso de sistemas lineares
(veja a Seo 3.3), se b = 0, o sistema homogneo; caso contrrio, ele chamado
no-homogneo.
1

Isto , cujas derivadas so funes contnuas.

264
i

i
i

ALinear 2005/12/19 13:25 page 265 #281


i

265

Vamos deter nossa ateno no sistema homogneo


x = Ax.

(E.1)

Se, ao procurarmos solues de (E.1) exigirmos, adicionalmente, que a soluo


x satisfaa a condio inicial
x(t0 ) = x0 ,

(E.2)

em que x0 um vetor do Rn , estamos lidando com um problema de valor inicial.


Seguindo [30], mostraremos inicialmente a unicidade de soluo do problema
de valor inicial (E.1)-(E.2).
Teorema E.1 O problema de valor inicial (E.1)-(E.2) possui, no mximo, uma
soluo.
Demonstrao: Sejam x = (x1 . . . xn )t e y = (y1 . . . yn )t solues do problema
de valor inicial. Definimos z = (z1 . . . zn )t por z(t) = x(t) y(t) e
Z t

|x1 (s) y1 (s)| + . . . + |xn (s) yn (s)| ds.
u(t) =
t0

Como cada uma das parcelas da integral anterior uma funo contnua, o
Teorema Fundamental do Clculo garante que
u (t) = |x1 (t) y1 (t)| + . . . + |xn (t) yn (t)|.
Z t
Z t

Mas xi (t) =
xi (s)ds, yi (t) =
yi (s)ds e
t0

Z

|xi (t) yi (t)| =

t0

t0

xi (s)

Portanto,

Z t



xi (s) yi (s) ds,
yi (s) ds

u (t)

t0

n Z
X
i=1

i {1, . . . , }.

t0

|xi (s) yi (s)|ds.

(E.3)

Suponhamos que xi (t) yi (t) 6= 0 para algum i {1, . . . , n}. Tome M > 0
tal que xi (t0 ) 6= yi (t0 ) para algum t0 I = [t0 M, t0 + M ]. Ento, se t I,
podemos encontrar > 0 tal que (veja o Exerccio 1)
n Z t
n Z t
X
X

|xi (s) yi (s)|ds, i {1, . . . , n}.


|xi (s) yi (s)|ds
i=1

t0

i=1

t0

i
i

ALinear 2005/12/19 13:25 page 266 #282


i

266

Sistemas de Equaes Diferenciais Lineares

Cap. E

Substituindo na desigualdade (E.3), obtemos que a funo u : R R satisfaz a


inequao diferencial
u u.
Multiplicando por et , conclumos que


d t
e u(t) 0.
dt

Integrando essa desigualdade entre t0 e t I, como u(t0 ) = 0, vem que


u(t) 0 para todo t I. Como u(t) 0 para todo t R e M > 0 arbitrrio,
chegamos a uma contradio. Assim, provamos que u 0.
2
Definio E.2 Sejam x1 , . . . , xn solues do sistema (E.1). Consideremos a matriz
X(t), cujas colunas so os vetores x1 (t), . . . , xn (t). Definimos o Wronskiano
W (x1 , . . . , xn )(t) das solues x1 , . . . , xn por
W (x1 , . . . , xn )(t) = det X(t).
Dizemos que as solues x1 , . . . , xn so linearmente independentes, se
W (x1 , . . . , xn )(t) 6= 0 t R.
Nesse caso, a matriz X(t) chamada matriz fundamental do sistema (E.1).
Caso contrrio, isto , se W (x1 , . . . , xn )(t0 ) = 0 para algum t0 R, as soluo
so linearmente dependentes.
(Compare com o Exerccio 14 do Captulo 4. A ligao entre as duas definies do
Wronskiano ser elucidada nos Exerccios 2 e 3 deste Apndice.)
Sabemos que os vetores x1 (t0 ), . . . , xn (t0 ) Rn so linearmente independentes
se, e somente se, W (x1 , . . . , xn )(t0 ) 6= 0. Assim, a independncia linear
das solues x1 , . . . , xn de (E.1) equivale independncia linear dos vetores
x1 (t), . . . , xn (t) para todo t R.
Enfatizamos que combinaes lineares c1 x1 + . . . + cj xj de solues x1 , . . . , xj
de (E.1) tambm so solues de (E.1).
Proposio E.3
Se as solues x1 , . . . , xn de (E.1) forem linearmente independentes, ento elas
constituem uma base do espao de solues, isto , toda soluo y de (E.1) uma
combinao linear c1 x1 + . . . + cn xn .

i
i

ALinear 2005/12/19 13:25 page 267 #283


i

267

Essa Proposio justifica a denominao de soluo geral para a expresso


c 1 x1 + . . . + c n xn ,
se {x1 , . . . , xn } for uma base de solues de (E.1).
Demonstrao: Seja y uma soluo de (E.1). Queremos mostrar que existem
constantes c1 , c2 , . . . , cn tais que
y(t) = c1 x1 (t) + c2 x2 (t) + . . . + cn xn (t),

t R.

Seja t0 R e consideremos y(t0 ). Em t0 , temos o sistema linear nas incgnitas


c1 , . . . , cn :
c1 x1 (t0 ) + c2 x2 (t0 ) + . . . + cn xn (t0 ) = y(t0 ).
Como sabemos, se W (t0 ) 6= 0, tal sistema tem soluo nica. Como as solues
c1 x1 (t) + . . . + cn xn (t) e y(t) de (E.1) coincidem no ponto t0 , elas so idnticas em
R, como conseqncia do Teorema E.1.
2
Observao E.4 Seja X(t) uma matriz fundamental de (E.1). Podemos escrever
a soluo geral desse sistema em termos matriciais: definindo o parmetro c =
(c1 . . . cn )t Rn , temos
x(t) = X(t)c.
Em particular, a resoluo de um problema de valor inicial pode ser descrita de
maneira bastante simples por meio da matriz fundamental: se x(t0 ) = x0 Rn ,
ento devemos resolver
X(t0 )c = x0 ,
donde obtemos c = X 1 (t0 ) e, portanto,
x = X(t)[X 1 (t0 )].
Salientamos, entretanto, que a obteno direta de c = (c1 . . . cn )t quase sempre
prefervel obteno de X 1 (t0 ).
Notamos que vale a equao matricial
X = AX,

(E.4)

(a derivada da matriz X(t) a derivao de cada uma de suas componentes), pois


cada coluna de X(t) soluo de x = Ax. Considerado o isomorfismo entre Mnn
2
e Rn , o Teorema de Unicidade E.1 aplicvel equao matricial (E.4).
Em virtude da ligao entre os sistemas X = AX e x = Ax, a matriz
fundamental desse ltimo sistema tambm chamada soluo fundamental.


i
i

ALinear 2005/12/19 13:25 page 268 #284


i

268

Sistemas de Equaes Diferenciais Lineares

Cap. E

Proposio E.5 Sejam x1 , . . . , xn solues do sistema (E.1). Ento


(i) ou W (x1 , . . . , xn )(t) 0 (e as solues so linearmente dependentes);
(ii) ou W (x1 , . . . , xn )(t) 6= 0 para todo t R (e as solues so linearmente
independentes).
Demonstrao: Suponhamos que W (x1 , . . . , xn )(t0 ) = 0 para t0 R. Ento,
existem constantes nem todas nulas c1 , . . . , cn , tais que c1 x1 (t0 )+. . .+cn xn (t0 ) = 0.
Defina w(t) = c1 x1 (t) + . . . + cn xn (t). Ento w(t) satisfaz (E.1) e w(t0 ) = 0.
Pelo Teorema E.1, temos que w(t) 0. Isto mostra que x1 (t), . . . , xn (t) so
linearmente dependentes em todos os pontos de R.
2
Definio E.6 Sejam x1 , . . . , xn solues de (E.1) satisfazendo as condies
n
iniciais xi (0) = ei , em que
 {e1 , . . . , en } a base cannica do R . Ento a matriz
X(t) = x1 (t) . . . xn (t) chamada fluxo linear do sistema (E.1) e denotada por
eAt

ou

exp(At).

Se eAt for o fluxo do sistema x = Ax, temos que W (x1 , . . . , xn )(0) 6= 0.


Tendo em vista a Proposio E.5, vale W (x1 , . . . , xn )(t) 6= 0 para todo t R, de
modo que eAt uma soluo fundamental do sistema (E.1). Assim, uma maneira
de encontrar n solues linearmente independentes de x = Ax consiste em obter o
fluxo eAt . A existncia do fluxo eAt est provada na Seo 6.4.
Como as colunas de eAt formam uma base do espao de solues de (E.1),
podemos enunciar o seguinte resultado:
Teorema E.7 (Existncia e Unicidade)
O problema de valor inicial (E.1)-(E.2) possui uma nica soluo para todo
vetor x0 Rn .
Com o intuito de ilustrar a utilizao do Teorema E.1 na demonstrao de
resultados, vamos apresentar algumas propriedades do fluxo eAt .
Proposio E.8 Sejam A, B matrizes reais n n. Se AB = BA, ento eAt B =
BeAt e eAt eBt = e(A+B)t se, e somente se, AB = BA.
Alm disso, se v for um autovetor de A associado ao autovalor , ento, para
todo t R, v um autovetor de eAt associado ao autovalor et .

i
i

ALinear 2005/12/19 13:25 page 269 #285


i

269

Demonstrao: Que eAt comuta com B uma conseqncia imediata do clculo


funcional, pois eAt um polinmio (com coeficientes dependendo de t) na matriz
A.
Se A comutar com B, ento
d At Bt 
e e
= AeAt eBt + eAt BeBt = AeAt eBt + BeAt eBt = (A + B)eAt eBt .
dt

Isso mostra que eAt eBt soluo de X = (A + B)X, X(0) = I. Como


e
soluo desse problema de valor inicial, o resultado decorre da unicidade
de soluo desse sistema matricial.
(A+B)t

Reciprocamente, derivando e(A+B)t = eAt eBt , encontramos


(A + B)e(A+B)t = AeAt eBt + eAt BeBt .
Nova derivao produz
(A + B)2 e(A+B)t = A2 eAt eBt + 2AeAt BeBt + eAt B 2 eBt .
Tomando t = 0, obtemos (A + B)2 = A2 + 2AB + B 2 , de onde decorre o resultado.
Finalmente, a afirmao sobre o autovetor de A decorre imediatamente do
Teorema da Imagem do Espectro 7.1.
2
Proposio E.9 Suponhamos que a matriz A Mnn (K) seja decomposta pela
soma direta
Kn = W1 . . . W
de subespaos invariantes por A. Ento essa soma tambm decompe eAt .
(Veja, a respeito, a Seo 5.2.)
Demonstrao: Considere a projeo cannica i : Kn Wi . Decorre da
Proposio 5.10 (ou do Teorema 7.3) que Ai = i A. O resultado decorre, ento,
do Lema E.8.
2
Em outras palavras, o Lema anterior garante que a decomposio primria
(ou espectral) da matriz A tambm uma decomposio do fluxo eAt . Assim,
se 1 , . . . , forem os autovalores distintos da matriz A Mnn (K) e Wi =

i
i

ALinear 2005/12/19 13:25 page 270 #286


i

270

Sistemas de Equaes Diferenciais Lineares

Cap. E

ker(A i I)di denotar o subespao de autovetores generalizados associados ao


autovalor i , a decomposio
Kn = W1 Wk
tal que A(Wi ) Wi . O Lema E.9 garante que
eAt = eA1 t eA t ,
em que Ai = A|Wi .
Podemos calcular explicitamente a forma de eAi t . De fato, seja pi (z) =
(z i )di . Como pi (Ai ) = 0, o clculo funcional garante que eAi t = ri (Ai ),
em que
ri (z) = adi 1 (z i )di 1 + . . . + a1 (z i ) + a0 .
(d 1)

= tdi 1 ei t ,
Resolvendo o sistema ri (i ) = ei t , ri (i ) = tei t , . . . , ri i
obtemos os coeficientes ai = ai (t). fcil verificar que esses coeficientes tm a
forma ei t P (t), em que Pi (t) um polinmio na varivel t, com grau menor ou
igual a di 1. Uma vez que
ri (Ai ) = adi 1 (t)(Ai i I)di 1 + . . . + a1 (t)(Ai i I) + a0 (t)I.
e que uma base de solues de x = Ai x dada pelas colunas da matriz eAi t , vemos
que essas solues tm a forma
Pdi (t)ei t ,
em que os polinmios vetoriais Pdi (t) tm grau di 1 e so obtidos ao se multiplicar
ai (t) = ei t Pi (t) pelas colunas de potncias da matriz A, isto , ao calcular
explicitamente ri (A).
Consideremos agora o caso de uma matriz real A que possua "autovalores"
complexos. Para cada par , = i, a expanso et = et (cos tisen t) gera
um par de solues reais et cos t, et sen t. Desse modo, as solues associadas
ao par de autovalores , so da forma
P (t)et cos t,

P (t)et sen t,

em que P tem grau d 1.


Observao E.10 Uma conseqncia do que acabamos de fazer que todo o
estudo do fluxo linear eAt , incluindo a classificao de sistemas lineares por
conjugao, pode ser feita sem a utilizao da forma cannica de Jordan.


i
i

ALinear 2005/12/19 13:25 page 271 #287


i

E.1

271

Exerccios

Definio E.11 Dizemos que os sistemas


x = Ax

e x = Bx

(ou os fluxos que lhes so associados) so linearmente conjugados, se existe um


isomorfismo h : Kn Kn tal que
h((t, x)) = (t, h(x)).
Teorema E.12 A aplicao linear h(x) = Cx uma conjugao linear entre os
sistemas
x = Ax e x = Bx
se, e somente se, C for invertvel e CA = BC. Em particular, esses sistemas so
linearmente conjugados se, e somente se, as matrizes A e B forem semelhantes.
Demonstrao: Se CA = BC, a Proposio E.8 mostra que CeAt x = eBt Cx,
ou seja, que h(x) = Cx uma conjugao linear entre os sistemas x = Ax e
x = Bx. Reciprocamente, derivando CeAt x = eBt Cx com relao a t obtemos
CAeAt x = BeBt Cx. Tomando t = 0, vem CAx = BCx para todo x, provando
que CA = BC.
2

Observao E.13 Uma vez que a conjugao uma relao de equivalncia, o


Teorema E.12 mostra que as classes de equivalncia das conjugaes lineares so
dadas pelas classes de semelhana de duas matrizes. Quer dizer, dois sistemas de
equaes diferenciais lineares so linearmente conjugados, se as matrizes desses
sistemas tm a mesma forma cannica de Jordan.

E.1 Exerccios
1. Na demonstrao do Teorema E.1, mostre, detalhadamente, que existe uma
constante > 0 tal que u u.
2. Consideremos uma equao diferencial de ordem n
y (n) (t) = f (t, y(t), y (t), . . . , y (n1) (t)).

(E.5)

i
i

ALinear 2005/12/19 13:25 page 272 #288


i

272

Sistemas de Equaes Diferenciais Lineares

Cap. E

Definindo x1 = y, x2 = y ,...,xn = y (n1) , verifique que uma soluo de (E.5)


obtida ao se resolver o sistema

x1 = x2

x = x3
2
(E.6)
..
..

.
.

x = f (t, x , . . . , x ).
n

n1

3. Considere a equao linear homognea de ordem m:

an x(n) (t) + . . . + a1 x (t) + a0 x(t) = 0.


Transforme essa equao em um sistema homogneo de equaes lineares
de primeira ordem. Compare o Wronskiano, definido no Exerccio 14 do
Captulo 4, com o Wronskiano desse sistema.
4. (Esse exerccio necessita de conhecimentos sobre a derivada da aplicao
determinante.) Mostre o Teorema de Liouville: se x1 , . . . , xn forem solues
de (E.1), ento
Z t

W (t) = W (t0 ) exp
tr (A)ds .
t0

5. Sejam (t) e (t) duas solues do sistema matricial (E.4), sendo (t) uma
matriz fundamental do sistema x = Ax. Mostre que existe uma nica matriz
C Mnn tal que, para todo t (, ), vale
(t) = (t)C.
Em particular, tambm uma matriz fundamental de x = Ax se, e somente
se, C tem inversa.
6. (Mtodo de Variao dos Parmetros) Seja X(t) uma matriz fundamental
de x = Ax. Dada a soluo (t) de x = Ax + B, com (t0 ) = Rn ,
mostre que


Z t
1
1
(t) = X(t) X (t0 ) +
X (s)B(s)ds .
t0

i
i

ALinear 2005/12/19 13:25 page 273 #289


i

E.1

273

Exerccios

7. Para toda matriz A Mnn , mostre que a aplicao


U : R Mnn ,

U (t) = eAt

um homomorfismo C do grupo aditivo (R, +) sobre o grupo


multiplicativo GL(K), formado pelas matrizes em Mnn que possuem
inversa. Por homomorfismo queremos dizer que
U (t + s) = U (t)U (s),

para todos

s, t R.

i
i

ALinear 2005/12/19 13:25 page 274 #290


i

F
Espaos Normados
O presente apndice uma adaptao da abordagem feita por E. Lima [23] para
o tratamento de espaos normados.
Se X e Y forem espaos vetoriais normados, nem toda aplicao linear T :
X Y contnua. Para mostrarmos esse fato, comeamos com a caracterizao
das aplicaes lineares contnuas:
Teorema F.1 Sejam X e Y espaos normados e T : X Y uma aplicao linear.
So equivalentes as propriedades:
(i) T contnua na origem;
(ii) sup kT xk = M < (T limitada);
kxk=1

(iii) existe C > 0 tal que kT xk Ckxk para todo x X;


(iv) T contnua.
Demonstrao: A linearidade de T imediatamente nos garante que (iii) (iv)
(i). Para mostrar (i) (ii), suponhamos (ii) falsa. Ento, para cada n N ,
existe yn X tal que kyn k = 1 e kT yn k n. Definindo xn = yn /n, temos que
xn 0, enquanto kT xn k 1, contradizendo (i). Finalmente, (ii) (iii), pois,
se x 6= 0, ento x/kxk tem norma 1 e, portanto kT (x/kxk)k M . Mas ento
kT xk M kxk.
2
Corolrio F.2 Uma aplicao linear T : X Y sobrejetora um homeomorfismo
(isto , uma bijeo contnua com inversa contnua) entre os espaos normados X
e Y se existirem constantes > 0 e > 0 de modo que
kxk kT xk kxk.
274
i

i
i

ALinear 2005/12/19 13:25 page 275 #291


i

275

Demonstrao: Basta notar que a continuidade de T 1 equivale existncia de


uma constante 1 < 0 tal que kT 1 yk 1 kyk para todo Y y = T x, com
x X.
2
Dizemos que os espaos X e Y so linearmente homeomorfos se existir um
homeomorfismo linear T : X Y .
Exemplo F.3 Seja K[t] o espao vetorial de todos os polinmios (com coeficientes
em K) na varivel t. Para p K[t], definimos
kpk = sup |p(t)|.
t[0,1]

O Teorema Fundamental da lgebra garante que k k uma norma em K[t].


Definimos agora T : K[t] R por T (p) = p(2). Claramente T linear.
Mostraremos que T descontnua no polinmio p = 0. De fato, tomando = 1/2,
consideremos o polinmio pn := (t/2)n . Claramente kpn 0k = 1/2n , mas
|T (pn ) 0| = |T (pn )| = 1.

Quando o mesmo espao X for considerado com diferentes normas, algumas
vezes empregaremos a notao (X, k k) para ressaltarmos que X est sendo
considerado com a norma k k.
Definio F.4 Duas normas k k0 e k k1 num espao X so equivalentes se a
aplicao identidade I : (X, k k0 ) 7 (X, k k1 ) for um homeomorfismo. Em
outras palavras, quando existirem constantes > 0 e > 0 de modo que
kxk0 < kxk1 kxk0 .
Algumas normas equivalentes no espao Kn so consideradas no Exerccio 46
do Captulo 8. Vamos mostrar, seguindo [23], que todas as normas num espao
normado de dimenso finita so equivalentes.
Para isso, relembramos que um conjunto K Kn compacto se, e somente se,
for limitado e fechado; e tambm que toda funo contnua definida num compacto
K Kn assume mximo e mnimo em K.
Lema F.5 Seja (X, k k) um espao vetorial normado. Considere Kn com a norma
kxk := max |xi |. Ento toda aplicao linear T : (Kn , k k ) X contnua.
i=1,...,n

i
i

ALinear 2005/12/19 13:25 page 276 #292


i

276

Espaos Normados

Cap. F

Demonstrao: Se x = x1 e1 + . . . + xn en , definindo = kT e1 k + . . . + kT en k,
temos
n
n
X
X
kT xk =
|xi | kT ei k max |xi |
kT ei k = kxk .
2
i=1

i=1,...,n

i=1

Teorema F.6 Seja (X, k k) um espao normado de dimenso n sobre o corpo K.


Ento X linearmente homeomorfo a Kn .

Demonstrao: Escolha uma base B = {x1 , . . . , xn } em X e considere x = 1 x1 +


. . . + n xn X. A representao [x]B Kn o vetor = (1 2 n )t Kn .
Consideremos o isomorfismo T : (Kn , k k ) X, dado por T = x. De acordo
com o Lema F.5, T contnua.
Definimos agora f : (Kn , k k ) [0, ) por f (x) = kT xk. Decorre
do Exerccio 1 que f uma funo contnua. Assim, f assume um mnimo no
compacto S := {x Kn | kxk = 1}. Esse mnimo positivo, pois k k uma
norma. Assim, se 0 6= x Kn , temos (x/kxk ) S e



Tx
x

=
f
kxk kxk kT xk.
kxk

O Corolrio F.2 garante ento que T um homeomorfismo.

Corolrio F.7 Sejam X e Y espaos normados, dim X = n. Ento toda aplicao


linear T : X Y contnua.

Demonstrao: Seja S : Kn X um homeomorfismo linear. Ento U = T S :


Kn Y uma aplicao linear contnua, de acordo com o Lema F.5. Mas ento
T = U S 1 uma aplicao linear contnua.
2
Corolrio F.8 Todas as normas num espao vetorial X de dimenso finita so
equivalentes.
Demonstrao: Se k k1 e k k2 forem duas normas em X, decorre do Corolrio
F.7 que as aplicaes identidade I12 : (X, k k1 ) 7 (X, k k2 ) e I21 : (X, k k2 ) 7
(X, k k1 ) so contnuas. Isso garante a equivalncia das normas consideradas. 2

Seja A Mmn (K) uma matriz. Identificando Mmn (K) com Kmn , podemos
introduzir uma noo natural de norma em Mmn (K) e transform-lo num espao
normado. Contudo, seguiremos um caminho mais geral: se T : X Y for uma
aplicao linear contnua, definiremos diretamente norma de uma aplicao linear
kT k.

i
i

ALinear 2005/12/19 13:25 page 277 #293


i

277

Definio F.9 Sejam X e Y espaos normados e T : X Y uma aplicao linear


contnua. Definimos
kT k = max kT xk.
kxk1

Nessa definio, note que k k designa tanto a norma em X quanto a norma em Y .


A definio nos mostra que kT xk kT k kxk para todo x X.
O prximo resultado garante que k k realmente uma norma no espao vetorial
L(X, Y ) de todas as aplicaes lineares contnuas de X em Y .

Proposio F.10 Sejam X, Y espaos normados e T : X Y uma aplicao


linear contnua. Ento
(i) kT k uma norma;
(ii) kST k kSk kT k.

Demonstrao: Claramente kT k 0 e kT k = 0 se, e somente se, T x = 0 para


todo x 6= 0. Vale
kT xk
| | kT xk
kT xk
kT k = max
= max
= || max
= || kT k.
x6=0
x6=0
x6=0 kxk
kxk
kxk
Alm disso,
kSxk + kT xk
k(S + T )xk
max
kS + T k = max
x6
=
0
x6=0
kxk
kxk
kSxk
kT xk
max
+ max
= kSk + kT k.
x6=0 kxk
x6=0 kxk
(ii) k(ST )xk = kS(T x)k kSk kT xk kSk kT k kxk.

Observao F.1 A norma da aplicao T depende das normas escolhidas nos


espaos X e Y (veja em [24], p. 65, uma tabela relacionando a norma de uma
matriz A, n m, com diferentes normas nos espaos Rm e Rn ).
Consideremos ento uma aplicao linear T : X Y entre espaos normados,
com dim X = m e dim Y = n. A escolha de bases nos espaos X e Y gera
isomorfismos entre X e Km e Y e Kn , respectivamente. Esses isomorfismos
no precisam ser isomtricos, de forma que representaes matriciais de T podem
possuir normas diferentes da norma da aplicao T .
Contudo, se os espaos envolvidos forem euclidianos, a norma da aplicao T
igual norma (como aplicao linear) de qualquer uma de suas representaes
matriciais referentes a bases ortonormais nos espaos X e Y , pois as matrizes
mudana de base envolvidas sero sempre unitrias. (Veja o Exerccio 7.)


i
i

ALinear 2005/12/19 13:25 page 278 #294


i

278

Espaos Normados

Cap. F

F.1 Exerccios
1. Seja X um espao normado. Mostre que a aplicao x X 7 kxk R+
uma aplicao contnua. Mostre que, se xn x X, ento kxn k kxk.
Mostre que as aplicaes (x, y) X X 7 x + y X e (, x) C X 7
x X so contnuas (os espaos X X e CX esto providos da topologia
produto).
2. Sejam X1 , . . . , Xn e Y espaos normados e T : X1 Xn Y
uma aplicao n-linear. Se (x1 , . . . , xn ) X1 Xn , mostre que so
equivalentes as propriedades:
(a) T contnua;
(b) T contnua na origem;
(c)

sup
kx1 k=...=kxn k=1,

kT (x1 , . . . , xn )k = M < (T limitada);

(d) existe C > 0 tal que kT (x1 , . . . , xn )k C[kx1 k kxn k] para todo
(x1 , . . . , xn ) X1 Xn ;
Conclua que tanto a funo determinante como a multiplicao de um vetor
por um escalar so aplicaes contnuas.
3. Seja X um espao normado. Mostre que, se dist (, ) : X X R+ for
uma distncia1 gerada por uma norma (isto , dist (x, y) = kx yk), ento
ela satisfaz
(a) dist (x + z, y + z) = dist (x, y) para todos x, y, z X (invarincia por
translao);
(b) dist (x, y) = || dist (x, y) (homotetia).
Reciprocamente, se X for um espao mtrico e se dist for uma distncia em
X que satisfaz (a) e (b), ento dist gerada por uma norma.
4. Seja (X, dist) um espao mtrico. Mostre que qualquer conjunto compacto
K X um conjunto limitado e fechado. Verifique tambm que a
1

Uma distncia uma aplicao dist (, ) : X X R+ que satisfaz: i) dist (x, y) 0 e


dist (x, y) = 0 x = y; ii) dist (x, y) = dist (y, x); iii) dist (x, z) dist (x, y) + dist (y, z) para
todos x, y, z X. Um espao mtrico um conjunto X munido de uma distncia.

i
i

ALinear 2005/12/19 13:25 page 279 #295


i

F.1

279

Exerccios

imagem de um compacto por uma funo contnua um conjunto compacto.


Finalmente, mostre que a imagem de um conjunto limitado por uma funo
contnua limitada.
5. Sejam E, F espaos com produto interno e T : E F uma aplicao linear
contnua. Mostre que
kT k =

sup
kxk=1=kyk

|hT x, yi|.

Se E, F forem espaos euclidianos, conclua que kT k = kT k.


6. Seja T : E E um operador auto-adjunto definido no espao euclidiano E.
Mostre que
kT k = sup |hT x, xi|.
kxk=1

7. Seja E um espao euclidiano e T : E E um operador. Mostre que


kT k2 = kT T k = kT T k. Conclua que kU k = 1 para todo operador unitrio
(ortogonal) U : E E. Se U 1 T U = S com U unitrio (ortogonal),
verifique que
(a) kT k = kSk;

(b) kT k = , em que o maior autovalor de T T .


8. Seja E um espao euclidiano e T : E E um operador invertvel, com
kT k = 1 = kT 1 k. Mostre que T = T 1 .

i
i

ALinear 2005/12/19 13:25 page 280 #296


i

Lista de Smbolos
K, R, C
X
Kn , F, K[z], Kn [z]
B
[x]B
E
A + B, U + V, U V
, X/Y
x1 x2 mod Y, [x], x + Y, X
Y
<S>
ker T
K
T 1
, cl(x)
X1 X2
X
ij
X
S 0 , Y 00
T

A = (aij ), (aij ), Tij


L(X, Y ), Mmn (R), Mmn (K)
ST
A1
< C >, < L >
im T
At , T t ,
posto A, posto T
A

1
1
2
3
5
5
6
8
11
11
11
12
13
14
15
16
17
20
21
21
24
25
26
28
29
30
30
32
33

280
i

i
i

ALinear 2005/12/19 13:25 page 281 #297


i

TK , TBC , (X, B)

PBB , QCC
TB
h, zi
D(c1 , . . . , cn )
Aij
pi

det A
(p), (A)
tr A
tr T, det T
W (f1 , . . . , fn )(t)
X , (T )
j
Tj , T |Wj
q(T )
z, XC , TC
A,
A, K[T ]

f (T )
eAt
x(t), A(t)
J, Ji
Nk
E, hx, yi
kxk
xy
Re z
Y , (Y )
T
kAk
G(v1 , . . . , vn )
P(v1 , . . . , vk ), P(v1 , . . . , vk )
B(x, y), S(X), L2 (X)
q
qB

41
42
43
46
57
60
62
63
65
65
72
73
75
80
83
83
85
87
90
91
100
106
107
127
127
152
153
153
155
159
163
175
179
183
186
190
190

i
i

ALinear 2005/12/19 13:25 page 282 #298


i

q(x) > 0, q(x) 0, q(x) < 0, q(x) 0


Ar
H 0, H > 0

194
199
205

i
i

ALinear 2005/12/19 13:25 page 283 #299


i

Referncias Bibliogrficas
[1] J. F. Andrade: Um Exemplo (simples) de um Operador Auto-adjunto sem
Autovalores e Outros Exemplos, Matemtica Universitria 37 (2004), 9-14.
[2] H. Anton e C. Rorres: Elementary Linear Algebra: Applications version, 6th.
edition, Wiley, New York, 1991.
[3] R. Bellman: Introduction to Matrix Analysis, McGraw-Hill Book Company,
New York, 1960. (Republicado na srie "Classics in applied mathematics",
SIAM, 1995).
[4] G. Birkhoff e S. MacLane: lgebra Moderna Bsica, 4a. Edio, Editora
Guanabara Dois, Rio de Janeiro, 1980.
[5] H. P. Bueno: Functions of Matrices, Cubo 5 (2003), no. 3, 31-54.
[6] H. P. Bueno, G. Ercole e A. Zumpano: Introduo Anlise Funcional, em
preparao.
[7] L. Debnath e P. Mikusinski: Introduction to Hilbert spaces with applications,
Academic Press, Boston, 1990.
[8] N. Dunford e J. T. Schwartz: Linear Operators I, Interscience, New York,
1968.
[9] F. R. Gantmacher: The Theory of Matrices, vol. 1 and 2, Chelsea Publishing
Co., New York, 1959.
[10] I. M. Gelfand: Lectures on Linear Algebra, Interscience, New York, 1961.
[11] G. Golub e C. Van Loan: Matrix Computations, 2nd. Edition, Johns Hopkins,
Baltimore, 1989.

283
i

i
i

ALinear 2005/12/19 13:25 page 284 #300


i

[12] J. I. Hall: Another Elementary Approach to the Jordan Form, Amer. Math.
Monthly 98 (1991), no. 4, 336-340.
[13] P. R. Halmos: Finite Dimensional Vector Spaces, Springer, 1974.
[14] P. R. Halmos: Linear Algebra Problem Book, The Mathematical Association
of America, Washington, DC, 1995.
[15] M. Hirsch and S. Smale: Differential Equations, Dynamical Systems and
Linear Algebra, Academic Press, New York, 1974.
[16] K. Hoffman e R. Kunze: lgebra Linear, 2a. edio, Livros Tcnicos e
Cientficos Editora, Rio de Janeiro, 1979.
[17] A. N. Kolmogorov e S. V. Fomin: Elementos de la Teoria de Funciones y del
Analysis Funcional, Mir, Moscu, 1975.
[18] S. Lang: Estruturas Algbricas, Livros Tcnicos e Cientficos Editora, Rio de
Janeiro, 1972.
[19] S. Lang: lgebra Linear, Editora Edgard Blcher/Editora Universidade de
Braslia, So Paulo, 1971.
[20] P. D. Lax: Linear Algebra, Wiley-Interscience Publication, New York, 1997.
[21] S. J. Leon: lgebra Linear com Aplicaes, 4a. Edio, Livros Tcnicos e
Cientficos Editora, Rio de Janeiro, 1999.
[22] E. L. Lima: lgebra Linear, 2a. edio, IMPA, Rio de Janeiro, 1996.
[23] E. L. Lima: Anlise no Espao Rn , 2a. edio, IMPA, Rio de Janeiro, 2002.
[24] E. L. Lima: Curso de Anlise, volume 2, 6a. edio, IMPA, Rio de Janeiro,
2000.
[25] V. V. Prasolov: Problems and Theorems in Linear Algebra, Translations
of Mathematical Monographs vol. 134, American Mathematical Society,
Providence, Rhode Island, 1994.
[26] M. Reed e B. Simon: Methods of Modern Mathematical Physics, vol. I,
Academic Press, New York, 1972.

i
i

ALinear 2005/12/19 13:25 page 285 #301


i

[27] W. Rudin: Real and Complex Analysis, 3rd. Edition, McGraw-Hill, New
York, 1987.
[28] N. C. Saldanha e C. Tomei: Spectra of Regular Polytopes, Discrete &
Computational Geometry 7 (1992), 403-414.
[29] R. J. Santos: lgebra Linear e Aplicaes, Imprensa Universitria da UFMG,
Belo Horizonte, 2004.
[30] R. J. Santos: Introduo s Equaes Diferenciais Ordinrias, Imprensa
Universitria da UFMG, Belo Horizonte, 2005.
[31] G. E. Shilov: Linear Algebra, Dover, New York, 1977.
[32] J. Sotomayor: Lies de Equaes Diferenciais Ordinrias, IMPA, Rio de
Janeiro, 1979.
[33] G. Strang: Linear Algebra and its Applications, 3rd. edition, Harcourt, Fort
Worth, 1988.

i
i

ALinear 2005/12/19 13:25 page 286 #302


i

i
i

ALinear 2005/12/19 13:25 page 287 #303


i

ndice Remissivo
adjunta, 163
de uma aplicao linear, 21
adjunta clssica, 71
lgebra, 90
com unidade, 90
comutativa, 90
alternativa de Fredholm, 167
anulador, 94
de um subconjunto, 20
aplicao linear
adjunta, 21, 163
anti-hermitiana, 171
anti-simtrica, 171
antiauto-adjunta, 171
auto-adjunta, 171
positiva definida, 205
positiva semidefinida, 205
auto-espao, 80
autovalor, 80
autovetor, 80
bloco de uma, 83
complexificao de uma, 88
determinante de uma, 73
diagonalizvel, 78, 80
espao invariante por uma, 83
grfico de uma, 183
hermitiana, 171
imagem de uma, 30
inversa de uma, 12
ncleo de uma, 30

nilpotente, 115
normal, 171
polinmio caracterstico de uma, 80
projeo, 83
que preserva produto interno, 170,
181
representao em bases, 41
semi-simples, 151
simtrica, 171
trao de uma, 73
transposta, 21, 31, 45
valores singulares, 218
aplicaes lineares
diagonalizao simultnea de, 148,
212, 226
equivalentes em bases, 54
produto de, 26
unitariamente equivalentes, 225
autovalor
dependncia contnua, 95
ndice de um, 120, 262
multiplicidade algbrica, 80
multiplicidade geomtrica, 150
autovetor, 80
autovetores, 80
generalizados, 120, 262
base, 3
cannica do Kn , 5
de Jordan, 129
dual, 16

287
i

i
i

ALinear 2005/12/19 13:25 page 288 #304


i

ortogonal, 156
ortonormal, 156
positivamente orientada, 59
Bessel
desigualdade de, 178
bidual, 17
bloco
cclico, 140
de Frobenius, 140
de Jordan, 127, 252

gerador, 3
linearmente dependente, 3
linearmente independente, 3
ortogonal, 156
coordenadas de um vetor, 5
cosseno
de um operador, 108
de uma matriz, 108
Cramer
regra de, 57, 70

caminho, 107
derivada de um, 107
diferencivel, 107
vetor velocidade, 107
Cauchy-Schwarz
desigualdade de, 154
Cayley-Hamilton
teorema de, 86
Cholesky
decomposio de, 228
codimenso 1, 20
combinao linear, 3
compacto, 174
complemento
de Schur, 76
ortogonal, 159
complexificao
de um espao vetorial, 88
de um operador, 88
congruncia de matrizes, 198
conjugado
de um vetor, 87
de uma matriz, 87
conjunto
ortonormal, 156
compacto, 174

decomposio
LDU , 239
LU , 237
QR, 230, 233
de Cholesky, 228
de Frobenius, 141
de Schur, 229
em valores singulares de A, 219
reduzida, 220
polar, 221
racional, 141
desigualdade
de Bessel, 178
de Cauchy-Schwarz, 154, 197
de Hadamard, 184
de Schur, 235
determinante
da matriz de Gram, 184
da matriz transposta, 67
de uma aplicao linear, 73
de Vandermonde, 74
do produto de matrizes, 68
existncia do, 60
expanso em cofatores, 61, 68
unicidade do, 64
determinante e volume, 184

i
i

ALinear 2005/12/19 13:25 page 289 #305


i

de um operador, 106
diagonalizao simultnea
de uma matriz, 106
de duas formas quadrticas, 226
de operadores diagonalizveis, 148
fatores irredutveis, 141
de operadores normais, 212
de produto interno e matriz hermiti- fluxo linear, 105, 106, 268
forma, 186
ana, 226
auto-adjunta, 186
distncia, 278
bilinear, 186, 199
equivalncia em bases
no-degenerada, 200
de aplicaes lineares, 54
simtrica, 186, 199
espao mtrico, 278
cannica de Jordan, 127, 252
espao vetorial, 1
unicidade, 131
coluna, 29
posto de uma, 197
com produto hermitiano, 152
quadrtica
com produto interno, 152
hermitiana, 190
complexificao de um, 88
indefinida, 194
de dimenso finita, 3
negativa definida, 194
de dimenso infinita, 3
negativa semidefinida, 194
dual, 15
positiva definida, 194
euclidiano, 152
positiva semidefinida, 194
finitamente gerado, 3
simtrica, 190
gerado pelo T -anulador de x, 140
representao matricial, 188
gerado por um subconjunto, 11
sesquilinear, 186
hermitiano, 152
antiauto-adjunta, 186
linha, 30
hermitiana, 186
normado, 153
Fredholm
subespao trivial, 10
alternativa de, 167
unitrio, 152
Frobenius
espaos vetoriais
bloco de, 140
canonicamente isomorfos, 10
decomposio de, 141
isomorfos, 2
funo
linearmente homeomorfos, 275
analtica, 110
normados
de matriz, 96
homeomorfismo de, 274
definio, 100
determinante, 57
soma direta de, 14
existncia da, 60
espectro, 80
unicidade da, 64
exponencial

i
i

ALinear 2005/12/19 13:25 page 290 #306


i

euclidiana
com relao a um operador, 100
com relao a um polinmio, 96
com relao a uma matriz, 100
holomorfa, 110
funcional linear, 2, 15
grfico de uma aplicao linear, 183
Gram
matriz de, 179, 184
Gram-Schmidt
ortogonalizao de, 158

Lagrange
teorema de, 191
Legendre
polinmios de, 177
lei da inrcia, 195
Liouville
teorema de, 272
logaritmo
de um operador, 108
de uma matriz, 108

matriz, 24
anti-simtrica, 13
Hadamard
aumentada de um sistema, 33
desigualdade de, 184
auto-adjunta, 171
homeomorfismo, 274
conjugada, 87
homomorfismo
cosseno, 108
de lgebras, 91
de Gram, 179, 184
determinante da, 184
identidade
de permutao, 62
de polarizao, 156, 197, 200
de rotao, 24
do paralelogramo, 156, 196
decomposio
ndice de um autovalor, 120, 262
LDU , 239
inversa, 12
LU , 237
de Moore-Penrose, 221
QR, 230
isometria, 168
de Cholesky, 228
que preserva a origem, 168
de Schur, 229
isomorfismo, 2
em valores singulares de A, 219
cannico, 10
diagonal em blocos, 84
de espaos com produto interno, 181
elementar, 236
entrada de uma, 24
Jordan
escalonamento de uma, 34
base de, 129
espao coluna, 29
bloco de, 127, 252
espao linha, 30
cadeia de, 253
exponencial, 106
forma cannica de, 127, 252
fluxo de uma, 106
unicidade, 131
forma cannica de Jordan, 127, 252
forma real, 137

i
i

ALinear 2005/12/19 13:25 page 291 #307


i

unicidade, 131
forma de Jordan real, 137
forma escalonada, 33
reduzida por linhas, 34
hermitiana, 171
inversa, 28
logaritmo, 108
mudana de base, 42
no-negativa, 112
negativa definida, 194
negativa semidefinida, 194
norma de uma, 175
positiva, 112
positiva definida, 179
relao com produto interno, 179
positiva semidefinida, 194
posto de uma, 32
pseudo-inversa, 221
quadrada, 24
que representa uma aplicao linear,
24
que representa uma forma, 188
raiz quadrada, 108
seno, 108
simtrica, 13, 171
submatriz, 24
submatriz principal, 199
trao de uma, 72
transposta, 30
triangular inferior, 75
triangular superior, 75
triangular superior em blocos, 76
matrizes
congruentes, 198
equivalentes por linha, 34
ortogonalmente equivalentes, 226
produto de, 28

semelhantes, 72
menor principal, 199
Moore-Penrose
inversa de, 221
mudana de varivel linear, 191
multiplicidade
algbrica de um autovalor, 80
de um fator irredutvel, 250
de uma raiz, 91
geomtrica de um autovalor, 150
norma, 153
de uma aplicao linear, 276
de uma matriz, 175
gerada pelo produto interno, 155
operaes elementares
sobre as linhas de uma matriz, 33
operador, 2
anti-hermitiano, 171
anti-simtrico, 171
antiauto-adjunto, 171
auto-adjunto, 171
positivo semidefinido, 205
bloco de um, 83
complexificao de um, 88
diagonalizvel, 78, 80
espao invariante por um, 83
funo de um
exponencial, 106
logaritmo, 108
raiz quadrada, 108
seno, 108
hermitiano, 171
nilpotente, 115
normal, 171
ortogonal, 171
polinmio caracterstico de um, 80

i
i

ALinear 2005/12/19 13:25 page 292 #308


i

primos entre si, 246


projeo, 83
posto
semi-simples, 151
de uma forma, 197
simtrico, 171
de uma matriz, 32
simtrico, 171
princpio do minimax, 207
unitrio, 171
problema de valor inicial, 265
operadores
diagonalizao simultnea de, 148, problema dos quadrados mnimos, 160
equao normal, 165
212, 226
soluo pela decomposio QR, 233
ordem de um vetor, 140
processo de ortogonalizao de Gramorientao de uma base, 59
Schmidt, 158
ortogonalidade, 153
produto
de aplicaes lineares, 26
paraleleppedo
de matrizes, 28
volume do, 183
escalar, 152
gerado por k vetores, 183
hermitiano, 152
volume do, 184
interno, 152
permutao, 61
cannico, 152
notao matricial, 62
identidade de polarizao, 156
transposio, 63
produto
interno
Perron
e matriz positiva definida, 179
teorema de, 112
matriz que representa um, 179
Pitgoras
projeo, 21, 49
teorema de, 153
cannica, 83
piv, 33
ortogonal, 160
polar, decomposio, 221
pseudo-inversa, 221
polinmio
caracterstico, 79, 80
interpolador, 99
mnimo
de um operador, 85
de um vetor, 94, 139
do operador adjunto, 182
unicidade do, 86
mnico, 74, 85
T -anulador, 94, 139
polinmios
de Legendre, 177

quadrados mnimos, 160, 233


equao normal, 165
quociente de Rayleigh, 207
raiz
multiplicidade de uma, 91
raiz quadrada
de um operador, 108
unicidade da, 206
de uma matriz, 108
Rayleigh

i
i

ALinear 2005/12/19 13:25 page 293 #309


i

quociente de, 207


reflexo, 216
simples, 216
regra de Cramer, 57, 70
representao de um vetor em uma base,
5
Riesz
teorema de representao de, 162
rotao, 22
simples, 216
Schur
complemento de, 76
decomposio de, 229
desigualdade de, 235
semelhana de matrizes, 72
seno
de um operador, 108
de uma matriz, 108
sinal de uma permutao, 65
sistema linear, 29
escalonamento, 34
forma escalonada, 33
reduzida por linhas, 34
homogneo, 29
matriz aumentada de um, 33
no-homogneo, 29
homogneo associado, 29
operaes elementares, 33
piv, 33
varivel livre, 36
sistema linear de equaes diferenciais
base do espao de solues, 266
condio inicial, 265
existncia de solues, 268
fluxo linear, 268
homogneo, 264

matriz fundamental, 266


no-homogneo, 264
soluo fundamental, 267
soluo geral, 267
solues linearmente dependentes,
266
solues linearmente independentes, 266
unicidade de soluo, 265
Wronskiano, 266
sistema lineares
equivalentes, 36
soluo fundamental
de um sistema linear de equaes
diferenciais, 267
soluo geral
de um sistema linear de equaes
diferenciais, 267
soma direta
de operadores, 83
subespao, 2
gerado pelo T -anulador de x, 140
gerado por um conjunto, 11
invariante, 13, 53
trivial, 10
subespaos
interseo de, 13
soma de, 6
soma direta de, 6
submatriz, 24
principal, 199
menor, 199
Sylvester
teorema de, 195
T -anulador, 139
teorema

i
i

ALinear 2005/12/19 13:25 page 294 #310


i

alternativa de Fredholm, 167


da decomposio QR, 233
da decomposio de Frobenius, 141
da decomposio polar, 221
da decomposio primria, 118,
122, 248
da decomposio racional, 141
da imagem do espectro, 114
da soma direta ortogonal, 159
de caracterizao de matrizes positivas-definidas, 228
de Cayley-Hamilton, 86, 89
de diagonalizao de matrizes
hermitianas, 202
de diagonalizao de matrizes simtricas, 203
de diagonalizao para matrizes
hermitianas, 230
de diagonalizao para matrizes
simtricas, 230
de existncia do determinante, 60
de existncia e unicidade de soluo
de sistema lineares de equaes
diferenciais, 268
de Gram-Schmidt, 158
de Lagrange, 191
de Liouville, 272
de minimax, 207
de Perron, 112
de Pitgoras, 153
de representao de Riesz, 162
de Schur, 229
de Sylvester, 195
de unicidade da raiz quadrada, 206
de unicidade do determinante, 64
do ncleo e da imagem, 37
dos operadores diagonalizveis, 82

dos valores singulares, 217


espectral, 115, 261
dos operadores auto-adjuntos, 202
forma de Jordan complexa, 130, 253
forma de Jordan real, 137
propriedades do trao, 72
trao
de uma aplicao linear, 73
de uma matriz, 72
transformao linear, 2
translao, 168
transposio, 63
transposta
de uma aplicao linear, 21, 31, 45
de uma matriz, 30
unicidade de soluo
de um sistema linear de equaes
diferenciais, 265
valores singulares de uma aplicao
linear, 218
Vandermonde
determinante de, 74
varivel livre, 36
vetor, 1
conjugado, 87
no-negativo, 112
positivo, 112
unitrio, 153
vetor cclico
de ordem k, 140
vetores
ortogonais, 153
perpendiculares, 153
Wronskiano, 75, 266

i
i

Você também pode gostar